JP2020087210A - Calibration device and calibration method - Google Patents

Calibration device and calibration method Download PDF

Info

Publication number
JP2020087210A
JP2020087210A JP2018223970A JP2018223970A JP2020087210A JP 2020087210 A JP2020087210 A JP 2020087210A JP 2018223970 A JP2018223970 A JP 2018223970A JP 2018223970 A JP2018223970 A JP 2018223970A JP 2020087210 A JP2020087210 A JP 2020087210A
Authority
JP
Japan
Prior art keywords
calibration
road surface
vehicle
inclination
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018223970A
Other languages
Japanese (ja)
Inventor
広祐 橋口
Kosuke Hashiguchi
広祐 橋口
信之 松山
Nobuyuki Matsuyama
信之 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018223970A priority Critical patent/JP2020087210A/en
Publication of JP2020087210A publication Critical patent/JP2020087210A/en
Pending legal-status Critical Current

Links

Abstract

To provide a calibration device and a calibration method, capable of performing calibration in which the inclination of a road surface is taken into consideration, when performing the calibration of a camera parameter on the basis of the feature point of the road surface.SOLUTION: A calibration device 116 includes: a calibration operation part 205 which performs the calibration of a camera parameter on the basis of the feature point detected by a feature point detection part 201; and an inclination estimation part which estimates the inclination of a road surface in a direction crossing a traveling direction of a vehicle V on the basis of a calibration result based on an image signal output from a front camera 111. The calibration operation part 205 performs the calibration on the basis of the inclination of the road surface estimated by the inclination estimation part 206 as well.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置から出力される画像信号に基づいてこの撮像装置のカメラパラメータのキャリブレーションを行うキャリブレーション装置及びキャリブレーション方法に関するものである。 The present invention relates to a calibration device and a calibration method for calibrating camera parameters of an image pickup device based on an image signal output from the image pickup device.

近年、車両に設置された撮像装置で撮像した画像を利用して、運転手による運転を支援するシステムが提案されている。その一例として、車両周囲確認用の俯瞰画像表示システム、車両後進時の予想進路線表示システム、自動駐車システム等がある。 In recent years, there has been proposed a system that assists a driver in driving by using an image captured by an image capturing device installed in a vehicle. Examples of such systems include a bird's-eye view image display system for checking the surroundings of a vehicle, an expected route display system when the vehicle is moving backward, and an automatic parking system.

撮像装置は設計値に準じた位置・角度で車両に取り付けられるが、その際、位置・角度に誤差が生じ得る。このような誤差を抑制するため、キャリブレーションと呼ばれる校正処理が撮像装置の位置・角度等のカメラパラメータに対して行われる。 The image pickup device is attached to the vehicle at a position/angle in accordance with design values, but at that time, an error may occur in the position/angle. In order to suppress such an error, a calibration process called calibration is performed on camera parameters such as the position and angle of the image pickup device.

車両の出荷時におけるキャリブレーションは、人が誰も乗っていない空車状態で実施されるのが一般的である。従って、キャリブレーション後の車両の状態が、実際にキャリブレーションを行った空車状態にあるときは、撮像装置の画像にズレは生じない。 Calibration at the time of shipment of a vehicle is generally performed in an empty state in which no one is on board. Therefore, when the state of the vehicle after the calibration is the empty state in which the calibration is actually performed, the image of the imaging device does not shift.

しかし、実際にユーザーが車両を使用する際には、乗車する人数や座る場所、荷物の積載状態等が種々に変化する。そして、車両の積載状態が変化すると、車両の姿勢も変化し、それに伴って、地面に対する撮像装置の据え付け状態も変化する。また、経年劣化によって撮像装置の姿勢が変化することがある。すなわち、カメラパラメータが変化して誤差が生じる。 However, when the user actually uses the vehicle, the number of passengers, the places to sit, the loading state of the luggage, and the like change variously. When the loading state of the vehicle changes, the posture of the vehicle also changes, and the installation state of the imaging device on the ground changes accordingly. In addition, the posture of the imaging device may change due to deterioration over time. That is, the camera parameter changes and an error occurs.

このような問題に対し、特許文献1には、車両の走行中にカメラパラメータを校正する方法が開示されている。その方法とは、車両に設置した撮像装置で撮像された画像から特徴点の抽出及び追跡を行うものである。その方法の基本原理は、フレーム間で特徴点が二次元的に動いたことによる直線状の特徴点系列(校正指標)を用いて、カメラパラメータを補正するものである。 With respect to such a problem, Patent Document 1 discloses a method of calibrating camera parameters while the vehicle is traveling. The method is to extract and track feature points from an image picked up by an image pickup device installed in a vehicle. The basic principle of the method is to correct camera parameters using a linear feature point series (calibration index) resulting from a two-dimensional movement of feature points between frames.

国際公開第2012/139636号International Publication No. 2012/139636

ところで、上述した特許文献1に記載の方法では、使用する特徴点が路面ペイントから得られるものなど、全て同じ高さにあることを前提としている。しかしながら、撮像装置から得られる画像に映る特徴点は全て同じ高さにあるとは限らない。一例として、路面には水はけ等の観点から中央から側方に向かうに従って下方に向かう傾斜が付けられていることが多い。 By the way, in the method described in Patent Document 1 described above, it is premised that the feature points used are all at the same height, such as those obtained from road surface paint. However, not all feature points appearing in the image obtained from the image pickup device are at the same height. As an example, the road surface is often inclined downward from the center to the side from the viewpoint of drainage.

このため、例えば車両右側方を撮影する右側方カメラの画像から得られる路面の特徴点は、路面中央から右方に離れるに従って実際にはその高さが低くなっている。従って、右側方カメラの画像から得られる路面の特徴点を全て同じ高さにあるものとしてキャリブレーション動作を行うと、キャリブレーションの精度の向上を図りにくかった。 Therefore, for example, the characteristic points of the road surface obtained from the image of the right side camera that captures the right side of the vehicle actually become lower as the distance from the center of the road surface to the right side increases. Therefore, it is difficult to improve the accuracy of the calibration if the calibration operation is performed with all the characteristic points of the road surface obtained from the image of the right camera as being at the same height.

そこで、本発明は、路面の特徴点に基づいてカメラパラメータのキャリブレーションを行う際に、路面の傾斜を考慮したキャリブレーションを行うことが可能なキャリブレーション装置及びキャリブレーション方法を提供することを目的としている。 Therefore, it is an object of the present invention to provide a calibration device and a calibration method capable of performing calibration in consideration of the inclination of a road surface when calibrating camera parameters based on characteristic points of the road surface. I am trying.

前記目的を達成するために、本発明のキャリブレーション装置は、車両の前方に搭載されて路面を含む車両の前方を撮像する前方撮像装置、及び車両の側方に搭載されて路面を含む前記車両の側方を撮像する側方撮像装置を含む撮像装置から出力される画像信号に基づいて撮像装置のカメラパラメータのキャリブレーションを行うキャリブレーション装置であって、異なる時間に撮像される複数の画像信号から少なくとも路面の幅方向に検出される複数の特徴点を検出する特徴点検出部と、特徴点検出部により検出された特徴点に基づいてカメラパラメータのキャリブレーションを行うキャリブレーション演算部と、前方撮像装置から出力される画像信号に基づくキャリブレーション結果に基づいて、車両の走行方向と交差する方向の路面の傾斜を推定する傾斜推定部とを有し、さらに、キャリブレーション演算部は、傾斜推定部により推定された路面の傾斜にも基づいてキャリブレーションを行うことを特徴とする。 In order to achieve the above object, a calibration device of the present invention is mounted in front of a vehicle to capture an image of the front of the vehicle including the road surface, and a vehicle mounted laterally of the vehicle including the road surface. Is a calibration device that calibrates camera parameters of an image pickup device based on an image signal output from an image pickup device that includes a side image pickup device that picks up side images of a plurality of image signals captured at different times. From at least a feature point detection unit that detects a plurality of feature points detected in the width direction of the road surface, a calibration calculation unit that calibrates camera parameters based on the feature points detected by the feature point detection unit, and A slope estimating unit that estimates a slope of a road surface in a direction intersecting with a traveling direction of the vehicle based on a calibration result based on an image signal output from the image pickup device; The calibration is performed based on the inclination of the road surface estimated by the section.

このように構成された本発明のキャリブレーション装置では、傾斜推定部が、前方撮像装置から出力される画像信号に基づくキャリブレーション結果に基づいて、車両の走行方向と交差する方向の路面の傾斜を推定し、キャリブレーション演算部が、傾斜推定部により推定された路面の傾斜にも基づいてキャリブレーションを行う。 In the calibration device of the present invention configured as described above, the inclination estimation unit determines the inclination of the road surface in the direction intersecting with the traveling direction of the vehicle based on the calibration result based on the image signal output from the front imaging device. Then, the calibration calculation unit performs the calibration based on the inclination of the road surface estimated by the inclination estimation unit.

このようにすることで、路面の特徴点に基づいてカメラパラメータのキャリブレーションを行う際に、路面の傾斜を考慮したキャリブレーションを行うことが可能となる。 By doing so, when the camera parameters are calibrated based on the characteristic points of the road surface, it becomes possible to perform the calibration in consideration of the inclination of the road surface.

本発明の実施の形態であるキャリブレーション装置が適用されるキャリブレーションシステムの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a calibration system to which a calibration device which is an embodiment of the invention is applied. 実施の形態であるキャリブレーション装置によりキャリブレーションが行われる撮像装置の配置位置の一例を示す図である。It is a figure which shows an example of the arrangement position of the imaging device which is calibrated by the calibration device which is embodiment. 実施の形態であるキャリブレーション装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the calibration apparatus which is embodiment. 実施の形態であるキャリブレーション装置の動作の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of the operation of the calibration device according to the embodiment. 実施の形態であるキャリブレーション装置の動作の一例を説明するための図である。It is a figure for explaining an example of operation of a calibration device which is an embodiment. 実施の形態であるキャリブレーション装置の動作の一例を説明するための図である。It is a figure for explaining an example of operation of a calibration device which is an embodiment. 実施の形態であるキャリブレーション装置の動作の一例を説明するための図である。It is a figure for explaining an example of operation of a calibration device which is an embodiment. 実施の形態であるキャリブレーション装置の動作の一例を説明するための図である。It is a figure for explaining an example of operation of a calibration device which is an embodiment. 実施の形態であるキャリブレーション装置の動作の一例を説明するための図である。It is a figure for explaining an example of operation of a calibration device which is an embodiment. 実施の形態であるキャリブレーション装置の動作の一例を説明するための図である。It is a figure for explaining an example of operation of a calibration device which is an embodiment. 路面に設けられた傾斜の一例を示す図である。It is a figure which shows an example of the inclination provided in the road surface. 実施の形態であるキャリブレーション装置の動作の一例を説明するための図である。It is a figure for explaining an example of operation of a calibration device which is an embodiment. 実施の形態であるキャリブレーション装置の動作の一例を説明するための図である。It is a figure for explaining an example of operation of a calibration device which is an embodiment.

(画像処理装置の概略構成)
以下、この発明の実施の形態を図面に基づいて説明する。なお、以下では、4台の撮像装置を使用する場合について説明する。
(Schematic configuration of image processing device)
Embodiments of the present invention will be described below with reference to the drawings. In the following, a case of using four image pickup devices will be described.

図1は、本発明の実施の形態であるキャリブレーション装置が適用されるキャリブレーションシステムの概略構成を示すブロック図、図2は実施の形態であるキャリブレーション装置によりキャリブレーションが行われる撮像装置の配置位置の一例を示す図である。 FIG. 1 is a block diagram showing a schematic configuration of a calibration system to which a calibration device according to an embodiment of the present invention is applied, and FIG. 2 shows an image pickup device in which calibration is performed by the calibration device according to the embodiment. It is a figure which shows an example of an arrangement position.

図1に示すように、キャリブレーションシステム100は、車両V(図2参照)に搭載され、同様に車両Vに搭載された撮像装置に対してキャリブレーション動作を行う。 As shown in FIG. 1, the calibration system 100 is mounted on a vehicle V (see FIG. 2) and similarly performs a calibration operation on an imaging device mounted on the vehicle V.

車両Vの前後左右には、図2に示すように複数の小型カメラ(撮像装置)が備えられている。 As shown in FIG. 2, a plurality of small cameras (imaging devices) are provided on the front, rear, left and right of the vehicle V.

具体的には、車両Vのフロントバンパまたはフロントグリルには、車両Vの前方に向けて路面を含む車両の前方を撮像する前方カメラ(前方撮像装置)111が装着されている。車両Vのリアバンパまたはリアガーニッシュには、車両Vの後方に向けて路面を含む車両の後方を撮像する後方カメラ112が装着されている。車両Vの左ドアミラーには、車両Vの左側方に向けて路面を含む車両の左側方を撮像する左側方カメラ(側方撮像装置)113が装着されている。車両Vの右ドアミラーには、車両Vの右側方に向けて路面を含む車両の右側方を撮像する右側方カメラ(側方撮像装置)114が装着されている。 Specifically, the front bumper or front grill of the vehicle V is equipped with a front camera (front imaging device) 111 that images the front of the vehicle including the road surface toward the front of the vehicle V. A rear camera 112 is mounted on the rear bumper or rear garnish of the vehicle V so as to image the rear of the vehicle including the road surface toward the rear of the vehicle V. The left door mirror of the vehicle V is equipped with a left side camera (side image capturing device) 113 that images the left side of the vehicle including the road surface toward the left side of the vehicle V. The right side mirror of the vehicle V is equipped with a right side camera (side image capturing device) 114 that images the right side of the vehicle including the road surface toward the right side of the vehicle V.

前方カメラ111、後方カメラ112、左側方カメラ113、右側方カメラ114には、それぞれ、広範囲を観測可能な広角レンズや魚眼レンズが装着されており、4台のカメラ111〜114で車両Vの周囲の路面を含む領域を漏れなく観測することができる。これらカメラ111〜114により、車両Vの周囲の路面を撮像する撮像装置が構成されている。各カメラ111〜114で撮像された4つの画像は、画像処理装置101(図1参照)に出力される。 The front camera 111, the rear camera 112, the left side camera 113, and the right side camera 114 are each equipped with a wide-angle lens or a fisheye lens capable of observing a wide range, and the four cameras 111 to 114 surround the vehicle V. The area including the road surface can be observed without omission. The cameras 111 to 114 form an image pickup device that picks up an image of the road surface around the vehicle V. The four images captured by the cameras 111 to 114 are output to the image processing apparatus 101 (see FIG. 1).

図1に戻って、キャリブレーションシステム100は、主に、4台のカメラ111〜114と、画像処理装置101と、RAM(Random Access Memory)102と、ROM(Read Only Memory)103と、表示装置104と、車速センサ105と、舵角センサ106と、ヨーレートセンサ107と、入力装置108と、通信装置109とを備えている。 Returning to FIG. 1, the calibration system 100 mainly includes four cameras 111 to 114, an image processing device 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, and a display device. 104, a vehicle speed sensor 105, a steering angle sensor 106, a yaw rate sensor 107, an input device 108, and a communication device 109.

車速センサ105と舵角センサ106とヨーレートセンサ107は、それぞれ、車速、舵角、ヨーレートを検出するセンサであり、各センサで検出されたセンサ情報は画像処理装置101に出力され、画像処理装置101における演算処理で利用される。舵角センサ106では、前輪のタイヤ角が舵角として検出される。 The vehicle speed sensor 105, the steering angle sensor 106, and the yaw rate sensor 107 are sensors that detect the vehicle speed, the steering angle, and the yaw rate, respectively, and the sensor information detected by each sensor is output to the image processing apparatus 101 and the image processing apparatus 101. It is used in the calculation processing in. The steering angle sensor 106 detects the tire angle of the front wheels as the steering angle.

入力装置108は、例えばスイッチやボタン等といった、ユーザーの操作を受け付ける装置である。入力装置108は、キャリブレーション機能のオン/オフ、キャリブレーション結果の初期化、キャリブレーション方法の変更等に利用される。ユーザーの操作を介して当該入力装置108に入力された各種情報は、画像処理装置101に出力される。 The input device 108 is a device such as a switch or a button that receives a user operation. The input device 108 is used for turning on/off the calibration function, initializing the calibration result, changing the calibration method, and the like. Various information input to the input device 108 through a user operation is output to the image processing device 101.

通信装置109は、不図示の外部機器との通信に使用される装置である。画像処理装置101は、当該通信装置109を介して外部機器から各種情報を受信するとともに、画像処理装置101で演算された各種情報を外部機器へ出力する。 The communication device 109 is a device used for communication with an external device (not shown). The image processing apparatus 101 receives various information from an external device via the communication device 109 and outputs various information calculated by the image processing apparatus 101 to the external device.

RAM102には、画像処理装置101における演算処理過程で必要となる数値データ、演算処理途中の処理結果に対するプログラムの変数等が書き込まれる。その書き込まれたデータは、画像処理装置101の演算処理過程で適宜必要に応じて読み出されて演算処理に使用される。また、RAM102には、各カメラ111〜114によって撮像された画像データ等も格納される。 Numerical data required in the arithmetic processing process in the image processing apparatus 101, program variables for the processing result during the arithmetic processing, and the like are written in the RAM 102. The written data is appropriately read out and used in the arithmetic processing in the arithmetic processing process of the image processing apparatus 101. The RAM 102 also stores image data captured by the cameras 111 to 114.

ROM103には、例えば、キャリブレーションを実行するプログラムや、プログラムで必要となる情報のうちで書き換えをせずに利用される情報が事前に格納される。例えば、各カメラ111〜114の設置位置や角度(ピッチ角、ヨー角、ロール角、カメラ高さ)の設計値(外部パラメータ)、各カメラ111〜114の焦点距離、画素サイズ、光軸中心、歪み関数等(内部パラメータ)のカメラパラメータが格納される。本実施の形態であるキャリブレーションシステム100は、主に外部パラメータのキャリブレーションを行うものである。 The ROM 103 stores in advance, for example, a program that executes calibration and information that is used without being rewritten among information necessary for the program. For example, design values (external parameters) of installation positions and angles (pitch angle, yaw angle, roll angle, camera height) of the cameras 111 to 114, focal lengths of the cameras 111 to 114, pixel size, optical axis center, Camera parameters such as a distortion function (internal parameters) are stored. The calibration system 100 according to the present embodiment mainly performs calibration of external parameters.

画像処理装置101は、各カメラ111〜114、車速センサ105、舵角センサ106、ヨーレートセンサ107、入力装置108、通信装置109等から送信される種々の情報を受け取る。その受け取った情報を用いて、画像処理装置101は、プログラム等に基づき画像処理動作を実施する。 The image processing apparatus 101 receives various information transmitted from the cameras 111 to 114, the vehicle speed sensor 105, the steering angle sensor 106, the yaw rate sensor 107, the input device 108, the communication device 109, and the like. The image processing apparatus 101 uses the received information to perform an image processing operation based on a program or the like.

画像処理装置101は、例えば、各カメラ111〜114から入力された画像を視点変換し、上方から地面を見下ろしたような俯瞰画像を生成する。詳細には、魚眼カメラからなる各カメラ111〜114で撮像された画像について、ROM103等に事前に格納された既知の歪み関数を用いて画像の歪みを除去した画像を生成する。 The image processing apparatus 101, for example, converts the viewpoints of the images input from the cameras 111 to 114 to generate a bird's-eye view image that looks down on the ground from above. Specifically, with respect to the images captured by the cameras 111 to 114, which are fish-eye cameras, a known distortion function stored in advance in the ROM 103 or the like is used to generate an image from which image distortion has been removed.

その歪みを除去した各画像を、ROM103等に事前に格納された既知のカメラ取り付けに関する設計値等に基づいて、俯瞰視点から見た画像に視点変換する(画像生成装置115)。このような視点変換処理は、周知のカメラの幾何変換式を使って、俯瞰画像の特定の画素とそれに対応する各カメラ111〜114の特定の画素を計算し、その画素の輝度値を俯瞰画像の画素に割り当てることによって実現できる。 Each image from which the distortion has been removed is subjected to viewpoint conversion into an image viewed from a bird's-eye view based on a known design value regarding camera attachment stored in advance in the ROM 103 or the like (image generation device 115). In such a viewpoint conversion process, a well-known camera geometric conversion formula is used to calculate a specific pixel of the overhead view image and a specific pixel of each of the cameras 111 to 114 corresponding to the specific pixel, and the brightness value of the pixel is calculated. It can be realized by assigning to the pixels of.

対応する画素が小数点を含み、該当する画素がない場合は、周知の輝度の補間処理によって周辺画素の中間輝度を割り当てる処理が行われる。また、画像処理装置101は、車速センサ105、舵角センサ106、ヨーレートセンサ107、通信装置109の出力結果を用いて演算処理を実行したり、入力装置108の入力結果に従って動作プログラムの切り替え処理を実行したりする。 When the corresponding pixel includes a decimal point and there is no corresponding pixel, a process of assigning the intermediate brightness of peripheral pixels is performed by a known brightness interpolation process. In addition, the image processing apparatus 101 performs arithmetic processing using output results of the vehicle speed sensor 105, the steering angle sensor 106, the yaw rate sensor 107, and the communication apparatus 109, and performs operation program switching processing according to the input result of the input apparatus 108. To run.

また、画像処理装置101には、視点変換された俯瞰画像が車両Vを真上から見下ろした画像となるように、各カメラ111〜114のキャリブレーションを実施するキャリブレーション装置116が搭載される。キャリブレーション装置116の構成については後述する。 Further, the image processing apparatus 101 is equipped with a calibration apparatus 116 that performs calibration of each of the cameras 111 to 114 so that the bird's-eye view image whose viewpoint has been converted is an image looking down on the vehicle V from directly above. The configuration of the calibration device 116 will be described later.

表示装置104は、画像処理装置101の処理結果を受け取り、ディスプレイ等を用いてその処理結果をユーザーに提示する。例えば、ユーザーに対して各カメラ111〜114の4つの画像を視点変換した俯瞰画像を表示する。また、表示装置104は、車両Vの後方を撮像するカメラ112の画像だけを表示する等、画像処理装置101の出力に従って表示内容を切り替えることもできる。 The display device 104 receives the processing result of the image processing device 101 and presents the processing result to the user using a display or the like. For example, a bird's-eye view image obtained by converting the viewpoints of the four images of the cameras 111 to 114 is displayed to the user. The display device 104 can also switch the display content according to the output of the image processing device 101, such as displaying only the image of the camera 112 that captures the rear of the vehicle V.

(キャリブレーション装置の機能構成)
図3は、本実施の形態であるキャリブレーション装置116の概略構成を示す機能ブロック図である。
(Functional configuration of the calibration device)
FIG. 3 is a functional block diagram showing a schematic configuration of the calibration device 116 according to the present embodiment.

本実施の形態であるキャリブレーション装置116は、制御部200及び記憶部210を有する。 The calibration device 116 according to the present embodiment has a control unit 200 and a storage unit 210.

制御部200は、キャリブレーション装置116全体の制御を行う。制御部200はCPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子を有する。 The control unit 200 controls the calibration device 116 as a whole. The control unit 200 has a CPU, a programmable logic device such as an FPGA, and an arithmetic element represented by an integrated circuit such as an ASIC.

キャリブレーション装置116の記憶部210には図略の制御用プログラムが格納されており、この制御用プログラムがキャリブレーション装置116の起動時に制御部200により実行されて、キャリブレーション装置116は図3に示すような機能構成を備えたものとなる。特に、本実施形態のキャリブレーション装置116は、後述するように高速の画像処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。 A control program (not shown) is stored in the storage unit 210 of the calibration device 116, and this control program is executed by the control unit 200 when the calibration device 116 is activated, so that the calibration device 116 is shown in FIG. It has a functional configuration as shown. In particular, since the calibration device 116 of the present embodiment performs high-speed image processing as described later, it is preferable to have a computing element capable of high-speed computation, such as FPGA.

制御部200は、特徴点検出部201、特徴点追跡部202、特徴点系列作成部203、座標変換部204、キャリブレーション演算部205及び傾斜推定部206を有する。 The control unit 200 includes a feature point detection unit 201, a feature point tracking unit 202, a feature point series creation unit 203, a coordinate conversion unit 204, a calibration calculation unit 205, and a tilt estimation unit 206.

特徴点検出部201は、カメラ111〜114から出力される画像信号から特徴点を検出する。言い換えれば、特徴点検出部201は、カメラ111〜114が撮像した画像に対して画像処理を施して特徴点を抽出する。ここでいう特徴点とは、例えば路面に描かれた破線の角、支柱の角、路面標識の角などのエッジの交点、すなわちコーナー特徴点である。コーナー特徴点は、たとえば公知の技術であるハリスオペレータを適用することにより抽出できる。特徴点検出部201により抽出された特徴点の情報は特徴点追跡部202に送られるとともに、記憶部210にも格納される。 The feature point detection unit 201 detects feature points from the image signals output from the cameras 111 to 114. In other words, the feature point detection unit 201 performs image processing on the images captured by the cameras 111 to 114 to extract feature points. The feature points mentioned here are, for example, intersection points of edges such as a corner of a broken line drawn on a road surface, a corner of a pillar, a corner of a road marking, or a corner feature point. The corner feature points can be extracted, for example, by applying a Harris operator, which is a known technique. Information on the feature points extracted by the feature point detection unit 201 is sent to the feature point tracking unit 202 and also stored in the storage unit 210.

特徴点追跡部202は、時系列的に連続する複数の撮影画像から同一の特徴点を追跡し、特徴点の追跡情報を特徴点系列作成部203に出力する。特徴点の追跡情報とは、異なる撮像画像における同一の特徴点を示す情報、例えば撮影画像毎の特徴点の座標を示す情報である。 The feature point tracking unit 202 tracks the same feature point from a plurality of time-sequential captured images and outputs the feature point tracking information to the feature point sequence creation unit 203. The characteristic point tracking information is information indicating the same characteristic point in different captured images, for example, information indicating the coordinates of the characteristic point in each captured image.

特徴点の追跡には、特徴点検出部201から入力される最新の撮影画像における特徴点の情報、記憶部210に格納された過去の撮影画像における特徴点の情報、及び、車速センサ105から出力される車両Vの運動情報(速度履歴)が用いられる。 In order to track the characteristic points, information on the characteristic points in the latest captured image input from the characteristic point detection unit 201, information on the characteristic points in the past captured images stored in the storage unit 210, and output from the vehicle speed sensor 105. The motion information (speed history) of the vehicle V to be used is used.

特徴点の追跡には、既知の追跡手法であるSAD(Sum of Absolute Difference)やSSD(Sum of SquaredDifference)、LK(Lucas‐Kanade)法などを用いることができる。 For tracking feature points, known tracking methods such as SAD (Sum of Absolute Difference), SSD (Sum of Squared Difference), and LK (Lucas-Kanade) method can be used.

特徴点検出部201により検出され、特徴点追跡部202により追跡される特徴点の一例を図6を参照して説明する。特徴点検出部201は、カメラ111〜114から出力される画像情報を、一例としてカメラ111〜114の画像生成間隔である2フレーム(1/30秒毎にフレームが生成されるとすると66ms)間隔で検出する。図6(a)はNフレーム(Nは自然数)目の撮像画像から特徴点検出部201が検出した特徴点C1、図6(b)はN+2フレーム目の撮像画像から特徴点検出部201が検出した特徴点C2、図6(c)はNフレーム目の撮像画像から特徴点検出部201が検出した特徴点C3を示す図である。 An example of the feature points detected by the feature point detection unit 201 and tracked by the feature point tracking unit 202 will be described with reference to FIG. The feature point detection unit 201 sets the image information output from the cameras 111 to 114 to an interval of two frames (66 ms if a frame is generated every 1/30 seconds) which is an image generation interval of the cameras 111 to 114 as an example. Detect with. 6A shows the feature point C1 detected by the feature point detecting unit 201 from the Nth frame (N is a natural number) captured image, and FIG. 6B shows the feature point detecting unit 201 from the N+2th frame captured image. The feature point C2 shown in FIG. 6C is a diagram showing the feature point C3 detected by the feature point detection unit 201 from the captured image of the Nth frame.

次いで、特徴点追跡部202は、特徴点検出部201により検出された特徴点のうち、同一の特徴点を追跡し、特徴点の追跡情報を特徴点系列作成部203に出力する。図6に示す例では、特徴点C1、C2、C3はいずれも同じ路面標識の同じコーナーについて検出された特徴点である。特徴点追跡部202は、これら特徴点C1〜C3を同一の特徴点として追跡し、その追跡情報を特徴点系列作成部203に出力する。 Next, the feature point tracking unit 202 tracks the same feature point among the feature points detected by the feature point detection unit 201, and outputs the feature point tracking information to the feature point sequence creation unit 203. In the example shown in FIG. 6, the feature points C1, C2, and C3 are all feature points detected for the same corner of the same road surface marker. The feature point tracking unit 202 tracks these feature points C1 to C3 as the same feature point and outputs the tracking information to the feature point sequence creation unit 203.

特徴点系列作成部203は、特徴点追跡部202による追跡が終了したと判定された特徴点について、追跡された一連の特徴点をひとつの特徴点系列としてまとめ、座標変換部204に出力する。加えて、特徴点系列作成部203は特徴点系列を蓄積し、記憶部210に格納する。 The feature point series creation unit 203 collects a series of tracked feature points as one feature point series for the feature points determined to be tracked by the feature point tracking unit 202, and outputs the series to the coordinate conversion unit 204. In addition, the feature point series creation unit 203 accumulates the feature point series and stores it in the storage unit 210.

ここで、特徴点検出部201による特徴点の検出結果、特徴点追跡部202による特徴点の追跡処理、車速センサ105または舵角センサ106から取得した情報には誤差が発生する可能性が多分にある。そのため、特徴点、走行速度、舵角を示す情報を多量に累積した方が、誤差を軽減するうえで望ましい。 Here, there is a possibility that an error may occur in the detection result of the feature point by the feature point detection unit 201, the tracking process of the feature point by the feature point tracking unit 202, and the information acquired from the vehicle speed sensor 105 or the steering angle sensor 106. is there. Therefore, it is desirable to accumulate a large amount of information indicating the characteristic points, the traveling speed, and the steering angle in order to reduce the error.

例えば、舗装が不十分で車両Vに対して水平ではない道路を車両Vが走行中に、特徴点検出部201による特徴点の検出処理が行われた場合、ピッチ角、ヨー角、ロール角の校正指標としては不十分である。そのため、キャリブレーション演算部205により算出されるカメラパラメータ(ピッチ角、ヨー角、ロール角、カメラ高さ)に多量の誤差が生じてしまう虞がある。仮に、特徴点系列作成部203により、校正指標として不十分な特徴点系列の長さが算出されたとしても、校正指標として正しい特徴点系列が多量に累積されていれば、校正指標として不十分な特徴点系列に起因して、カメラパラメータ(ピッチ角、ヨー角、ロール角、カメラ高さ)に生じる誤差の緩和が可能となる。 For example, when the feature point detection processing is performed by the feature point detection unit 201 while the vehicle V is traveling on a road that is not paved sufficiently and is not horizontal to the vehicle V, the pitch angle, yaw angle, and roll angle are detected. It is insufficient as a calibration index. Therefore, a large amount of error may occur in the camera parameters (pitch angle, yaw angle, roll angle, camera height) calculated by the calibration calculation unit 205. Even if the feature point sequence creating unit 203 calculates the length of the feature point sequence that is insufficient as a calibration index, it is insufficient as a calibration index if a large number of correct feature point sequences are accumulated as the calibration index. It is possible to mitigate errors that occur in camera parameters (pitch angle, yaw angle, roll angle, camera height) due to such a series of feature points.

座標変換部204は、特徴点系列作成部203から出力されたひとつの特徴点系列を構成するそれぞれの特徴点の座標を、撮影画像における二次元座標からカメラ111〜114を基準とした三次元座標、すなわち実空間上の座標に変換する。ただし特徴点はすべて路面上に存在すると仮定し、特徴点の高さはゼロであるとの拘束条件を付して座標変換を行う。この座標変換は回転行列を用いた演算により実現される。 The coordinate conversion unit 204 determines the coordinates of each feature point forming one feature point sequence output from the feature point sequence creation unit 203 from the two-dimensional coordinates in the captured image to the three-dimensional coordinates with the cameras 111 to 114 as a reference. , That is, the coordinates are converted into the real space. However, it is assumed that all the feature points exist on the road surface, and the coordinate transformation is performed with the constraint that the height of the feature points is zero. This coordinate transformation is realized by calculation using a rotation matrix.

回転行列の要素は、カメラ111〜114の内部パラメータ、及び外部パラメータを用いて決定される。内部パラメータ及び外部パラメータはROM103に格納されている値が使用される。座標変換部204により座標変換された、ひとつの特徴点系列を構成するそれぞれの特徴点の座標は、キャリブレーション演算部205に出力される。 The elements of the rotation matrix are determined using the internal parameters and external parameters of the cameras 111 to 114. The values stored in the ROM 103 are used as the internal parameters and the external parameters. The coordinates of the respective feature points forming one feature point series, which are coordinate-converted by the coordinate conversion unit 204, are output to the calibration calculation unit 205.

キャリブレーション演算部205は、座標変換部204により座標変換された特徴点に基づいてカメラパラメータのキャリブレーションを行う。キャリブレーション演算部205によるキャリブレーション演算の詳細については後述する。 The calibration calculation unit 205 calibrates the camera parameters based on the feature points coordinate-converted by the coordinate conversion unit 204. Details of the calibration calculation by the calibration calculation unit 205 will be described later.

傾斜推定部206は、前方カメラ111から出力される画像信号に基づくキャリブレーション結果に基づいて、車両Vの走行方向と交差する方向の路面の傾斜を推定する。より詳細には、傾斜推定部206は、前記キャリブレーション演算部が算出した、前記前方撮像装置のカメラパラメータであるピッチ角及び/またはヨー角に基づいて前記路面の傾斜を推定する。 The inclination estimation unit 206 estimates the inclination of the road surface in the direction intersecting with the traveling direction of the vehicle V based on the calibration result based on the image signal output from the front camera 111. More specifically, the inclination estimation unit 206 estimates the inclination of the road surface based on the pitch angle and/or the yaw angle which are the camera parameters of the front imaging device calculated by the calibration calculation unit.

特に、傾斜推定部206は、特徴点検出部201により路面の幅方向に検出された2つの特徴点の移動速度における差と、当該特徴点間の路面の幅方向の距離との関係に基づいて、路面の傾斜を推定する。 In particular, the inclination estimation unit 206 is based on the relationship between the difference in the moving speed of the two feature points detected in the width direction of the road surface by the feature point detection unit 201 and the distance in the width direction of the road surface between the feature points. , Estimate the slope of the road surface.

そして、キャリブレーション演算部205は、傾斜推定部206により推定された路面の傾斜にも基づいて、左側方カメラ113、右側方カメラ114のキャリブレーションを行う。特に、キャリブレーション演算部205は、傾斜推定部206が推定した路面の傾斜に基づいて、左側方カメラ113、右側方カメラ114のカメラパラメータであるピッチ角のキャリブレーションを行う。 Then, the calibration calculation unit 205 calibrates the left side camera 113 and the right side camera 114 based on the inclination of the road surface estimated by the inclination estimation unit 206. In particular, the calibration calculation unit 205 calibrates the pitch angle, which is a camera parameter of the left side camera 113 and the right side camera 114, based on the inclination of the road surface estimated by the inclination estimation unit 206.

図3に示す、キャリブレーション装置116を構成する各部の具体的動作については後に詳述する。 The specific operation of each part of the calibration device 116 shown in FIG. 3 will be described in detail later.

(カメラ座標系)
図5は、カメラ座標系の一例を示す説明図である。以下では、図5を用いて、カメラ座標系(X,Y,Z)の一例について説明する。このカメラ座標系(X,Y,Z)では、カメラの光軸方向をZ軸方向と定義する。図中に網掛けで示した面ISは、カメラの光軸(Z軸)に対して垂直となる撮像面ISを示す。このカメラ座標系(X,Y,Z)では、その撮像面ISと平行にX軸及びY軸をとるものとする。
(Camera coordinate system)
FIG. 5 is an explanatory diagram showing an example of the camera coordinate system. An example of the camera coordinate system (X, Y, Z) will be described below with reference to FIG. In this camera coordinate system (X, Y, Z), the optical axis direction of the camera is defined as the Z axis direction. A surface IS indicated by hatching in the drawing is an imaging surface IS that is perpendicular to the optical axis (Z axis) of the camera. In this camera coordinate system (X, Y, Z), it is assumed that the X axis and the Y axis are parallel to the image pickup surface IS.

図中のピッチングとは、X軸回りの回転のことをいい、ヨーイングとは、Y軸回りの回転のことをいい、ローリングとは、Z軸回りの回転のことをいう。X,Y,Z軸の回りの回転角のパラメータを、それぞれ、ピッチ角、ヨー角、ロール角という。 In the figure, pitching refers to rotation around the X axis, yawing refers to rotation around the Y axis, and rolling refers to rotation around the Z axis. The parameters of the rotation angle around the X, Y, and Z axes are called the pitch angle, the yaw angle, and the roll angle, respectively.

前方カメラ111及び後方カメラ112のように、その光軸方向が車両Vの前後方向と一致する場合、その前後方向をZ軸方向と定義し、その前後方向(Z軸方向)と垂直な車両Vの上下方向に延びる軸をY軸と定義する。 When the optical axis direction of the front camera 111 and the rear camera 112 coincides with the front-rear direction of the vehicle V, the front-rear direction is defined as the Z-axis direction, and the vehicle V perpendicular to the front-rear direction (Z-axis direction). The axis extending in the vertical direction of is defined as the Y-axis.

一方、左側方カメラ113及び右側方カメラ114のように、その光軸方向が車両Vの上下方向と一致する場合、その上下方向をZ軸方向と定義し、その上下方向(Z軸方向)と垂直な車両Vの左右方向に延びる軸をX軸と定義する。 On the other hand, when the optical axis direction of the left side camera 113 and the right side camera 114 coincides with the vertical direction of the vehicle V, the vertical direction is defined as the Z axis direction, and the vertical direction (Z axis direction) is defined as the Z axis direction. The axis extending in the left-right direction of the vertical vehicle V is defined as the X axis.

(キャリブレーション装置の動作)
次に、本実施の形態であるキャリブレーション装置116の動作の一例を図4のフローチャート及び図7〜図13を参照して説明する。
(Operation of calibration device)
Next, an example of the operation of the calibration device 116 according to the present embodiment will be described with reference to the flowchart of FIG. 4 and FIGS.

図4はキャリブレーション装置116の動作を説明するためのフローチャートである。図4のフローチャートに示す動作は、カメラ111〜114の撮像動作中に定期的に起動、開始される。 FIG. 4 is a flow chart for explaining the operation of the calibration device 116. The operation shown in the flowchart of FIG. 4 is regularly activated and started during the image pickup operation of the cameras 111 to 114.

まず、ステップS1では、カメラ111〜114から出力される画像信号をキャリブレーション装置116が取得する。ステップS2では、ステップS1で取得した画像信号に基づいて、特徴点検出部201がカメラ111〜114が撮像した画像中の特徴点を抽出する。ステップS3では、ステップS2において抽出された特徴点の1つを処理対象として、特徴点追跡部202が追跡処理を行う。ステップS4では、特徴点系列作成部203が特徴点系列を累積する。 First, in step S1, the calibration device 116 acquires the image signals output from the cameras 111 to 114. In step S2, the feature point detection unit 201 extracts feature points in the images captured by the cameras 111 to 114 based on the image signal acquired in step S1. In step S3, one of the feature points extracted in step S2 is processed, and the feature point tracking unit 202 performs the tracking process. In step S4, the characteristic point series creation unit 203 accumulates the characteristic point series.

ステップS5では、制御部200が、ステップS4において蓄積された特徴点系列が予め定められた必要本数に到達したか否かの判定が行われる。そして、蓄積された特徴点系列が必要本数に到達したと判定されたときは(ステップS5においてYES)、必要な本数分の特徴点系列の累積が完了したので、ステップS6に進む。一方、特徴点系列の本数が必要本数に未到達と判定されたときは(ステップS5におけるNO)、必要な本数分の特徴点系列の累積が完了していないので、処理はステップS1に戻る。 In step S5, the control unit 200 determines whether or not the feature point series accumulated in step S4 has reached a predetermined required number. If it is determined that the accumulated number of feature points has reached the required number (YES in step S5), the accumulation of the required number of feature point sequences has been completed, and the process proceeds to step S6. On the other hand, when it is determined that the number of characteristic point sequences has not reached the required number (NO in step S5), the accumulation of the required number of characteristic point sequences has not been completed, and thus the process returns to step S1.

ステップS6では、座標変換部204が、特徴点系列を構成する特徴点の座標を実空間上の座標に変換する。次いで、キャリブレーション演算部205が、座標変換部204により座標変換された特徴点に基づいてカメラパラメータのキャリブレーションを行う。 In step S6, the coordinate conversion unit 204 converts the coordinates of the feature points forming the feature point series into the coordinates in the real space. Next, the calibration calculation unit 205 calibrates the camera parameters based on the feature points coordinate-converted by the coordinate conversion unit 204.

本実施の形態であるキャリブレーション装置116では、キャリブレーション演算部205が、カメラ111〜114の外部パラメータであるピッチ角、ヨー角、ロール角及び高さ校正を行うことで、外部パラメータのキャリブレーション演算を行う。以下、図7〜図10を参照して、前方カメラ111を例に取ったピッチ角、ヨー角、ロール角及び高さ校正の概要について説明する。 In the calibration device 116 according to the present embodiment, the calibration calculation unit 205 performs calibration of external parameters by performing pitch angle, yaw angle, roll angle, and height calibration that are external parameters of the cameras 111 to 114. Calculate. The outline of the pitch angle, yaw angle, roll angle, and height calibration taking the front camera 111 as an example will be described below with reference to FIGS.

まず、キャリブレーション演算部205は、ROM103に格納されているカメラ取り付け位置・角度の設計値を用いて、ピッチ角(図5に示すX軸回りの回転角のパラメータ)の校正を行う。ピッチ角の校正方法は種々の方法が紹介されており、そのいずれの方法を用いてもよいが、本実施の形態であるキャリブレーション装置116では、ステップS5で累積した特徴点系列を用いる。 First, the calibration calculation unit 205 calibrates the pitch angle (parameter of the rotation angle around the X axis shown in FIG. 5) using the design values of the camera mounting position and angle stored in the ROM 103. Various methods for calibrating the pitch angle have been introduced, and any of them may be used, but the calibration device 116 according to the present embodiment uses the feature point series accumulated in step S5.

特徴点系列を用いたピッチ角の校正方法については、例えば国際公開第2012/139636号等で提案されている等、既に周知である。そのため、詳細な説明は省略するが、本実施の形態であるキャリブレーション演算部205では、座標変換部204により俯瞰変換された2本以上の特徴点系列が平行になるように、ピッチ角の校正が行われる。 A pitch angle calibration method using a feature point series is already known, for example, proposed in International Publication No. 2012/139636. Therefore, although detailed description is omitted, in the calibration calculation unit 205 according to the present embodiment, pitch angle calibration is performed so that two or more feature point sequences that have been bird's-eye view transformed by the coordinate transformation unit 204 are parallel. Is done.

前方カメラ111のピッチ角がずれている場合、図7(a)に示すように、俯瞰変換された画像上において、車両Vの進行方向に延在する2本の特徴点系列E、Eが平行に投影されない。つまり、特徴点系列E、Eと車両Vの幅方向に延在する仮想線Lとの為す角度θ、θが等しくなくなる(θ≠θ)。そこで、キャリブレーション演算部205は、特徴点系列E、Eが平行に投影されるようにピッチ角を校正する。つまり、図7(b)に示すように、角度θ、θが等しくなる(θ=θ)ように、ピッチ角を校正する。 When the pitch angle of the front camera 111 is deviated, as shown in FIG. 7A, two feature point sequences E 1 and E 2 extending in the traveling direction of the vehicle V on the bird's-eye view converted image. Is not projected in parallel. That is, the angles θ 1 and θ 2 formed by the feature point series E 1 and E 2 and the virtual line L extending in the width direction of the vehicle V are not equal (θ 1 ≠θ 2 ). Therefore, the calibration calculation unit 205 calibrates the pitch angle so that the feature point series E 1 and E 2 are projected in parallel. That is, as shown in FIG. 7B, the pitch angle is calibrated so that the angles θ 1 and θ 2 are equal (θ 12 ).

次に、キャリブレーション演算部205は、ROM103に格納されているカメラ取り付け位置・角度の設計値を用いて、ヨー角(図5に示すY軸回りの回転角のパラメータ)の校正を行う。ヨー角の校正方法は種々の方法が紹介されており、そのいずれの方法を用いてもよいが、本実施の形態のキャリブレーション装置116では、国際公開第2012/139636号で提案されている手法でヨー角の校正が行われる。具体的には、ステップS5で累積した特徴点系列の角度が車両Vの進行方向と平行になるときのヨー角が前方カメラ111のヨー角として校正される。 Next, the calibration calculation unit 205 calibrates the yaw angle (parameter of the rotation angle around the Y-axis shown in FIG. 5) using the camera mounting position/angle design values stored in the ROM 103. Various methods for calibrating the yaw angle have been introduced, and any method may be used. However, in the calibration device 116 of the present embodiment, the method proposed in International Publication No. 2012/139636. The yaw angle is calibrated at. Specifically, the yaw angle when the angle of the feature point series accumulated in step S5 becomes parallel to the traveling direction of the vehicle V is calibrated as the yaw angle of the front camera 111.

前方カメラ111のヨー角がずれている場合、図8(a)に示すように、俯瞰変換された画像上において、車両Vの進行方向に延在する2本の特徴点系列E、Eが車両Vの進行方向に一致しない。つまり、特徴点系列E、Eと車両Vの幅方向に延在する仮想線Lとが垂直に交わらない(θ、θともに90°ではない)。そこで、キャリブレーション演算部205は、特徴点系列E、Eが車両Vの進行方向に一致するようにピッチ角を校正する。つまり、図8(b)に示すように、角度θ、θがともに90°となるように、ヨー角を校正する。 When the yaw angle of the front camera 111 is deviated, as shown in FIG. 8A, two feature point series E 1 and E 2 extending in the traveling direction of the vehicle V on the bird's-eye view converted image. Does not match the traveling direction of the vehicle V. That is, the feature point series E 1 and E 2 do not intersect perpendicularly with the virtual line L extending in the width direction of the vehicle V (neither θ 1 nor θ 2 is 90°). Therefore, the calibration calculation unit 205 calibrates the pitch angle so that the feature point series E 1 and E 2 match the traveling direction of the vehicle V. That is, as shown in FIG. 8B, the yaw angle is calibrated so that the angles θ 1 and θ 2 are both 90°.

さらに、キャリブレーション演算部205は、ロール角(図5に示すZ軸回りの回転角のパラメータ)の校正を行う。 Furthermore, the calibration calculation unit 205 calibrates the roll angle (parameter of the rotation angle around the Z axis shown in FIG. 5).

まず、キャリブレーション演算部205は、第N番目のフレームFNと、第N+2番目のフレームFN+2の同地点を指す特徴点系列を画像座標系から世界座標系に変換する。この変換方法は既に周知である。そのため、詳細な説明は省略するが、本実施形態では、例えば、フレームFNの世界座標における特徴座標を(PX1、PY1)とし、フレームFN+2の世界座標における特徴座標を(PX2、PY2)として、フレームFNとフレームFN+2との間の世界座標系におけるユークリッド距離Dを、特徴点追跡結果の長さ、言い換えれば特徴点系列の長さとして以下の式(1)を用いて算出する。
First, the calibration calculation unit 205 converts the feature point series indicating the same point in the Nth frame FN and the N+2nd frame FN+2 from the image coordinate system to the world coordinate system. This conversion method is already known. Therefore, although detailed description is omitted, in the present embodiment, for example, the feature coordinates in the world coordinates of the frame FN are (P X1 , P Y1 ) and the feature coordinates in the world coordinates of the frame FN+2 are (P X2 , P Y2 ). ), the Euclidean distance D in the world coordinate system between the frame FN and the frame FN+2 is calculated using the following equation (1) as the length of the feature point tracking result, in other words, the length of the feature point sequence.

次に、キャリブレーション演算部205は、車速センサ105から得られる車両Vの走行速度vに基づいて、フレームFNとフレームFN+2との間で車両Vが走行した走行距離d[km]を算出する。フレームFNとフレームFN+2との間の走行距離d[km]は、それぞれのフレーム間の走行速度をv[km/h]とし、1秒間のフレーム数をfとすると、以下の式(2)を用いて算出される。
Next, the calibration calculation unit 205 calculates the traveling distance d [km] of the vehicle V between the frame FN and the frame FN+2 based on the traveling speed v k of the vehicle V obtained from the vehicle speed sensor 105. .. The traveling distance d [km] between the frame FN and the frame FN+2 is expressed by the following equation (2), where v k [km/h] is the traveling speed between the frames and f is the number of frames per second. Is calculated using.

上記式(2)に示すように、フレームFNからフレームFN+2へ移動する際の車両Vの走行速度は、それぞれのフレームで取得した走行速度の相加平均値が採用される。 As shown in the above formula (2), as the traveling speed of the vehicle V when moving from the frame FN to the frame FN+2, the arithmetic mean value of the traveling speeds acquired in the respective frames is adopted.

次に、キャリブレーション演算部205は、以下の式(3)に示すように、ユークリッド距離Dを走行距離dで除算することにより、累積した全ての特徴点系列を正規化した正規化速度nvを算出する。式(3)に示すように、正規化速度nvは、車両Vの走行距離に依存する値となる。
Next, the calibration calculation unit 205 divides the Euclidean distance D by the traveling distance d to obtain a normalized speed nv obtained by normalizing all accumulated feature point series, as shown in the following expression (3). calculate. As shown in Expression (3), the normalized speed nv has a value that depends on the traveling distance of the vehicle V.

次に、キャリブレーション演算部205は、正規化速度nvが異なる特徴点系列で一致するように、ロール角の校正を行う。このようなロール角の校正技術については、LM法(Levenberg-Marquardt Method)で提案されている等、既に周知である。そのため、詳細な説明は省略する。 Next, the calibration calculation unit 205 calibrates the roll angle so that the normalized speeds nv match in different feature point series. Such a roll angle calibration technique is already known, such as being proposed by the LM method (Levenberg-Marquardt Method). Therefore, detailed description is omitted.

前方カメラ111のピッチ角がずれている場合、図9(a)に示すように、俯瞰変換された画像上において、車両Vの進行方向に延在する2本の特徴点系列E、Eについての正規化速度nv、nvは一致しない(nv≠nv)。そこで、キャリブレーション演算部205は、図9(b)に示すように、特徴点系列E、Eについての正規化速度nv、nvが一致する(nv=nv)ようにロール角を校正する。 When the pitch angle of the front camera 111 is deviated, as shown in FIG. 9A, two feature point series E 1 and E 2 extending in the traveling direction of the vehicle V on the bird's-eye view converted image. The normalized velocities nv 1 , nv 2 for do not match (nv 1 ≠nv 2 ). Therefore, the calibration calculation unit 205 rolls so that the normalized velocities nv 1 and nv 2 for the feature point series E 1 and E 2 match (nv 1 =nv 2 ) as shown in FIG. 9B. Calibrate the corner.

そして、キャリブレーション演算部205は、ROM103に格納されているカメラ取り付け位置・角度の設計値を用いて、前方カメラ111のカメラ高さの校正を行う。カメラ高さの校正方法は種々の方法が紹介されており、そのいずれの方法を用いてもよいが、本実施形態では、国際公開第2012/139636号で提案されている手法でカメラ高さの校正が行われる。具体的には、ロール角校正時に算出した車両Vの走行距離dと同時刻の特徴点の追跡結果の長さLが等しくなるときのカメラ高さを前方カメラ111の高さとして算出する。 Then, the calibration calculation unit 205 calibrates the camera height of the front camera 111 using the design values of the camera mounting position and angle stored in the ROM 103. Various methods have been introduced for the camera height calibration method, and any of these methods may be used.However, in the present embodiment, the camera height is corrected by the method proposed in International Publication No. 2012/139636. Calibration is done. Specifically, the camera height when the running distance d of the vehicle V calculated during the roll angle calibration and the length L of the tracking result of the feature points at the same time are equal is calculated as the height of the front camera 111.

前方カメラ111の高さがカメラ取り付け位置・角度の設計値からずれている場合、図10(a)に示すように、俯瞰変換された画像上において、車両Vの走行距離dと特徴点の追跡結果の長さLとの間には誤差Δが生じる(d≠L)。そこで、キャリブレーション演算部205は、図10(b)に示すように、車両Vの走行距離dと特徴点の追跡結果の長さLとが一致する(d=L)ように前方カメラ111の高さを校正する。 When the height of the front camera 111 is deviated from the design value of the camera mounting position/angle, as shown in FIG. 10A, the traveling distance d of the vehicle V and the feature points are tracked on the bird's-eye view converted image. An error Δ occurs between the length L of the result and (d≠L). Therefore, as shown in FIG. 10B, the calibration calculation unit 205 controls the front camera 111 so that the traveling distance d of the vehicle V and the length L of the tracking result of the feature points match (d=L). Calibrate height.

ここで、ステップS6においてキャリブレーション演算部205により行われるキャリブレーション演算は、使用する特徴点が全て同じ高さにあることを前提としている。言い換えれば、使用する特徴点が全て同一平面上にあることを前提としている。 Here, the calibration calculation performed by the calibration calculation unit 205 in step S6 is based on the premise that all the feature points to be used are at the same height. In other words, it is assumed that all the feature points used are on the same plane.

しかしながら、実際の路面は同一平面ではない。一例として、図11に示すように、路面には雨水排水用の勾配が付けられている。図11は車両Vを後方から見た図であり、車両Vは紙面手前から奥に向かって進行している。路面には、その中央から左右に向かって、つまり車両Vの走行方向と交差する方向に傾斜する雨水排水用の勾配が付けられている。 However, the actual road surface is not flush. As an example, as shown in FIG. 11, the road surface has a slope for draining rainwater. FIG. 11 is a view of the vehicle V as viewed from the rear, and the vehicle V is proceeding from the front to the back of the drawing. A slope for draining rainwater is provided on the road surface from the center to the left and right, that is, in a direction intersecting with the traveling direction of the vehicle V.

対向車線側の領域(図中にハッチングで示す)に存在する特徴点は、自車線側の領域に存在する特徴点と比較して低い位置に存在する。このため、右側方カメラ114のキャリブレーション演算を、使用する特徴点が全て同一平面上にあることを前提として行うと、ピッチ角校正において対向車線側の特徴点について算出する正規化速度nvが、自車線側の特徴点について算出する正規化速度nvよりも遅くなる。この結果、ピッチ角校正を精度高く行えない可能性がある。 The characteristic points existing in the area on the side of the opposite lane (shown by hatching in the figure) exist at a lower position than the characteristic points existing in the area on the side of the own lane. Therefore, if the calibration calculation of the right camera 114 is performed on the assumption that all the feature points to be used are on the same plane, the normalized speed nv calculated for the feature points on the opposite lane side in the pitch angle calibration is It becomes slower than the normalized speed nv calculated for the feature points on the own lane side. As a result, there is a possibility that pitch angle calibration cannot be performed with high accuracy.

一例として、正規化速度nvと右側方カメラ114から特徴点までの路面幅方向の距離との関係を求めた結果を図13に示す。図13において、縦軸が正規化速度nv、横軸が特徴点までの距離である。図中、実線Bは点列を一次近似した際の直線である。この実線Bの傾斜が路面勾配による影響であると考えられる。 As an example, FIG. 13 shows the result of obtaining the relationship between the normalized speed nv and the distance in the road surface width direction from the right side camera 114 to the feature point. In FIG. 13, the vertical axis represents the normalized speed nv, and the horizontal axis represents the distance to the feature point. In the figure, the solid line B is a straight line obtained by linearly approximating the point sequence. It is considered that the inclination of the solid line B is due to the road surface gradient.

ここで、カメラ111〜114は魚眼カメラのような撮像範囲が広いものを用いている。従って、前方カメラ111及び後方カメラ112が撮像した画像は、自車の走行レーンに加えてその左右のレーンまで含まれている。 Here, as the cameras 111 to 114, those having a wide imaging range such as a fisheye camera are used. Therefore, the images captured by the front camera 111 and the rear camera 112 include the lanes on the left and right of the vehicle in addition to the traveling lane.

上述したステップS6におけるキャリブレーション演算のうち、ロール角校正及び高さ校正については、キャリブレーション演算の前提とする特徴点系列が路面上を追跡した特徴点系列であることが好ましい。そこで、前方カメラ111及び後方カメラ112については、レーン認識を行うことで、自車の走行レーン領域に存在する特徴点系列のみを用いてキャリブレーション演算を行っている。 Regarding the roll angle calibration and the height calibration of the calibration calculation in step S6 described above, it is preferable that the characteristic point sequence that is the premise of the calibration calculation is a characteristic point sequence traced on the road surface. Therefore, the front camera 111 and the rear camera 112 perform lane recognition to perform the calibration calculation using only the feature point series existing in the traveling lane area of the vehicle.

一方、このような限定をしていないピッチ角校正及びヨー角校正について、正規化速度nvと前方カメラ111、後方カメラ112から特徴点までの路面幅方向の距離との関係を求めてみると、図12に示すようになる。図12においても、縦軸が正規化速度nv、横軸が特徴点までの距離である。図中、実線Bは点列を一次近似した際の直線である。この実線Bの傾斜が路面勾配による影響であると考えられる。 On the other hand, regarding pitch angle calibration and yaw angle calibration that are not limited in this way, the relationship between the normalized speed nv and the distance in the road surface width direction from the front camera 111 and the rear camera 112 to the feature point is calculated. As shown in FIG. Also in FIG. 12, the vertical axis represents the normalized speed nv, and the horizontal axis represents the distance to the feature point. In the figure, the solid line B is a straight line obtained by linearly approximating the point sequence. It is considered that the inclination of the solid line B is due to the road surface gradient.

そこで、ステップS7において、傾斜推定部206は、前方カメラ111について図12に示すようなグラフを描画し、さらに、近似直線Bを算出し、近似直線Bのグラフ上での傾斜角度を求める。そして、ステップS8において、キャリブレーション演算部205は、ステップS7で傾斜推定部206が求めた傾斜角度をピッチ角の補正角度として用い、再度ピッチ角校正を行う。 Therefore, in step S7, the tilt estimating unit 206 draws a graph as shown in FIG. 12 for the front camera 111, further calculates the approximate straight line B, and obtains the tilt angle of the approximate straight line B on the graph. Then, in step S8, the calibration calculation unit 205 uses the tilt angle obtained by the tilt estimation unit 206 in step S7 as the pitch angle correction angle, and performs pitch angle calibration again.

なお、ステップS7において後方カメラ112について図12に示すようなグラフを描画してもよいが、後方カメラ112により撮像された画像から抽出できる特徴点は車両Vから遠ざかる方向に進むので、正規化速度nvの算出にブレが生じやすい。このため、前方カメラ111について演算を行うことが好ましい。 Note that a graph as shown in FIG. 12 may be drawn for the rear camera 112 in step S7, but since the feature points that can be extracted from the image captured by the rear camera 112 move in a direction away from the vehicle V, the normalized speed is Blurring is likely to occur in the calculation of nv. Therefore, it is preferable to perform the calculation for the front camera 111.

(キャリブレーション装置の効果)
以上のように構成された本実施の形態であるキャリブレーション装置116では、傾斜推定部206が、前方カメラ111から出力される画像信号に基づくキャリブレーション結果に基づいて、車両Vの走行方向と交差する方向の路面の傾斜を推定し、キャリブレーション演算部205が、傾斜推定部206により推定された路面の傾斜にも基づいてキャリブレーションを行っている。
(Effect of calibration device)
In the calibration device 116 according to the present embodiment configured as described above, the inclination estimation unit 206 intersects the traveling direction of the vehicle V based on the calibration result based on the image signal output from the front camera 111. The inclination of the road surface in the direction to be estimated is estimated, and the calibration calculation unit 205 performs the calibration based on the inclination of the road surface estimated by the inclination estimation unit 206.

従って、キャリブレーション演算部205が路面の特徴点に基づいてカメラパラメータのキャリブレーションを行う際に、路面の傾斜を考慮したキャリブレーションを行うことが可能となる。この結果、キャリブレーション演算部205によるキャリブレーション演算の精度をより向上させることができる。 Therefore, when the calibration calculation unit 205 calibrates the camera parameters based on the feature points of the road surface, it is possible to perform the calibration in consideration of the inclination of the road surface. As a result, the accuracy of the calibration calculation by the calibration calculation unit 205 can be further improved.

以上、図面を参照して、本発明の実施の形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。 Although the embodiments of the present invention have been described in detail above with reference to the drawings, the specific configuration is not limited to the embodiments and examples, and design changes are made to the extent that they do not depart from the gist of the present invention. Are included in the present invention.

V 車両
100 キャリブレーションシステム
101 画像処理装置
105 車速センサ
111 前方カメラ(前方撮像装置)
112 後方カメラ
113 左側方カメラ(側方撮像装置)
114 右側方カメラ(側方撮像装置)
115 画像生成装置
116 キャリブレーション装置
200 制御部
201 特徴点検出部
202 特徴点追跡部
203 特徴点系列作成部
204 座標変換部
205 キャリブレーション演算部
206 傾斜推定部
V vehicle 100 calibration system 101 image processing device 105 vehicle speed sensor 111 front camera (front imaging device)
112 rear camera 113 left camera (side imaging device)
114 right side camera (side imaging device)
115 image generation device 116 calibration device 200 control unit 201 feature point detection unit 202 feature point tracking unit 203 feature point series creation unit 204 coordinate conversion unit 205 calibration calculation unit 206 inclination estimation unit

Claims (5)

車両の前方に搭載されて路面を含む前記車両の前方を撮像する前方撮像装置、及び前記車両の側方に搭載されて前記路面を含む前記車両の側方を撮像する側方撮像装置を含む撮像装置から出力される画像信号に基づいて前記撮像装置のカメラパラメータのキャリブレーションを行うキャリブレーション装置であって、
異なる時間に撮像される複数の前記画像信号から少なくとも前記路面の幅方向に検出される複数の特徴点を検出する特徴点検出部と、
前記特徴点検出部により検出された前記特徴点に基づいてカメラパラメータのキャリブレーションを行うキャリブレーション演算部と、
前記前方撮像装置から出力される前記画像信号に基づくキャリブレーション結果に基づいて、前記車両の走行方向と交差する方向の前記路面の傾斜を推定する傾斜推定部とを有し、
前記キャリブレーション演算部は、前記傾斜推定部により推定された前記路面の傾斜にも基づいてキャリブレーションを行うことを特徴とするキャリブレーション装置。
Imaging that includes a front imaging device that is mounted in front of the vehicle to image the front of the vehicle including the road surface, and a side imaging device that is mounted to the side of the vehicle to image the side of the vehicle including the road surface A calibration device for calibrating camera parameters of the image pickup device based on an image signal output from the device,
A feature point detection unit that detects a plurality of feature points detected at least in the width direction of the road surface from the plurality of image signals imaged at different times,
A calibration calculation unit that calibrates camera parameters based on the feature points detected by the feature point detection unit;
Based on a calibration result based on the image signal output from the front imaging device, an inclination estimation unit that estimates the inclination of the road surface in a direction intersecting the traveling direction of the vehicle,
The calibration device, wherein the calibration calculation unit performs calibration based on the slope of the road surface estimated by the slope estimating unit.
前記キャリブレーション演算部は、前記傾斜推定部により推定された前記路面の傾斜にも基づいて前記側方撮像装置のキャリブレーションを行うことを特徴とする請求項1に記載のキャリブレーション装置。 The calibration device according to claim 1, wherein the calibration calculation unit calibrates the side imaging device based on the inclination of the road surface estimated by the inclination estimation unit. 前記傾斜推定部は、前記キャリブレーション演算部が算出した、前記前方撮像装置のカメラパラメータであるピッチ角及び/またはヨー角に基づいて前記路面の傾斜を推定し、
前記キャリブレーション演算部は、前記傾斜推定部が推定した前記路面の傾斜に基づいて、前記側方撮像装置のカメラパラメータであるピッチ角のキャリブレーションを行う
ことを特徴とする請求項2に記載のキャリブレーション装置。
The inclination estimation unit estimates the inclination of the road surface based on a pitch angle and/or a yaw angle, which are camera parameters of the front imaging device calculated by the calibration calculation unit,
The said calibration calculation part calibrates the pitch angle which is a camera parameter of the said side imaging device based on the inclination of the said road surface which the said inclination estimation part estimated, The calibration of Claim 2 characterized by the above-mentioned. Calibration device.
前記傾斜推定部は、前記特徴点検出部により前記路面の幅方向に検出された複数の前記特徴点の移動速度における差と前記特徴点間の前記路面の幅方向の距離との関係に基づいて前記路面の傾斜を推定することを特徴とする請求項1〜3のいずれかに記載のキャリブレーション装置。 The inclination estimation unit is based on a relationship between a difference in moving speed of the plurality of feature points detected in the width direction of the road surface by the feature point detection unit and a distance in the width direction of the road surface between the feature points. The calibration apparatus according to claim 1, wherein the inclination of the road surface is estimated. 車両の前方に搭載されて路面を含む前記車両の前方を撮像する前方撮像装置、及び前記車両の側方に搭載されて前記路面を含む前記車両の側方を撮像する側方撮像装置を含む撮像装置から出力される画像信号に基づいて前記撮像装置のカメラパラメータのキャリブレーションを行うキャリブレーション装置によるキャリブレーション方法であって、
異なる時間に撮像される複数の前記画像信号から少なくとも前記路面の幅方向に検出される複数の特徴点を検出し、
検出した前記特徴点に基づいてカメラパラメータのキャリブレーションを行い、
前記前方撮像装置から出力される前記画像信号に基づくキャリブレーション結果に基づいて、前記車両の走行方向と交差する方向の前記路面の傾斜を推定し、
推定した前記路面の傾斜にも基づいてキャリブレーションを行うことを特徴とするキャリブレーション方法。

Imaging that includes a front imaging device that is mounted in front of the vehicle to image the front of the vehicle including the road surface, and a side imaging device that is mounted to the side of the vehicle to image the side of the vehicle including the road surface A calibration method by a calibration device that calibrates camera parameters of the imaging device based on an image signal output from the device,
Detecting at least a plurality of feature points detected in the width direction of the road surface from the plurality of image signals imaged at different times,
Calibrate camera parameters based on the detected feature points,
Based on a calibration result based on the image signal output from the front imaging device, estimating the inclination of the road surface in a direction intersecting the traveling direction of the vehicle,
A calibration method, wherein calibration is performed based on the estimated inclination of the road surface.

JP2018223970A 2018-11-29 2018-11-29 Calibration device and calibration method Pending JP2020087210A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018223970A JP2020087210A (en) 2018-11-29 2018-11-29 Calibration device and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018223970A JP2020087210A (en) 2018-11-29 2018-11-29 Calibration device and calibration method

Publications (1)

Publication Number Publication Date
JP2020087210A true JP2020087210A (en) 2020-06-04

Family

ID=70908438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018223970A Pending JP2020087210A (en) 2018-11-29 2018-11-29 Calibration device and calibration method

Country Status (1)

Country Link
JP (1) JP2020087210A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230028819A (en) * 2021-08-19 2023-03-03 한국생산기술연구원 A control vehicle for secure the safety of unmanned autonomous vehicles

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230028819A (en) * 2021-08-19 2023-03-03 한국생산기술연구원 A control vehicle for secure the safety of unmanned autonomous vehicles
KR102560104B1 (en) * 2021-08-19 2023-07-31 한국생산기술연구원 A control vehicle for secure the safety of unmanned autonomous vehicles

Similar Documents

Publication Publication Date Title
JP4856612B2 (en) Object detection device
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
JP5538411B2 (en) Vehicle perimeter monitoring device
JP4956452B2 (en) Vehicle environment recognition device
JP4899424B2 (en) Object detection device
KR101961001B1 (en) Single-camera distance estimation
EP2757524B1 (en) Depth sensing method and system for autonomous vehicles
JP4814669B2 (en) 3D coordinate acquisition device
CN107121132B (en) Method and device for obtaining vehicle environment image and method for identifying object in environment
JP2008186246A (en) Moving object recognizing device
JP6708730B2 (en) Mobile
JP2008033750A (en) Object inclination detector
WO2018179281A1 (en) Object detection device and vehicle
CN111164648B (en) Position estimating device and position estimating method for mobile body
KR20180112010A (en) A method of detecting an object on the road side of a car, a computing device, a driver assistance system and an automobile
JP6493000B2 (en) Road marking detection device and road marking detection method
JP6768554B2 (en) Calibration device
JP2007280387A (en) Method and device for detecting object movement
JP2020087210A (en) Calibration device and calibration method
JP7019431B2 (en) Camera calibration device, camera calibration method, and program
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP5903901B2 (en) Vehicle position calculation device
JP3951734B2 (en) Vehicle external recognition device
KR102002228B1 (en) Apparatus and Method for Detecting Moving Object
JP7134780B2 (en) stereo camera device