JP2013002820A - Camera calibration apparatus - Google Patents

Camera calibration apparatus Download PDF

Info

Publication number
JP2013002820A
JP2013002820A JP2011130745A JP2011130745A JP2013002820A JP 2013002820 A JP2013002820 A JP 2013002820A JP 2011130745 A JP2011130745 A JP 2011130745A JP 2011130745 A JP2011130745 A JP 2011130745A JP 2013002820 A JP2013002820 A JP 2013002820A
Authority
JP
Japan
Prior art keywords
camera
image
calibration
stop
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011130745A
Other languages
Japanese (ja)
Other versions
JP5811327B2 (en
Inventor
Hiroyuki Tomita
浩行 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP2011130745A priority Critical patent/JP5811327B2/en
Publication of JP2013002820A publication Critical patent/JP2013002820A/en
Application granted granted Critical
Publication of JP5811327B2 publication Critical patent/JP5811327B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To implement calibration to eliminate the influence of an error when a vehicle stops, with simple equipment.SOLUTION: The camera calibration apparatus includes: a measurement area MA having at least two reference lines RL including a line crossing two points corresponding to the shape of a vehicle 12 and disposed within an imaging range of a camera 10, and a calibration pattern PP provided between the reference lines RL and having a predetermined pattern shape; and an image processing part 14. The image processing part 14 includes: imaging processing 18 that images the measurement area MA including the calibration pattern PP and the reference lines RL using the camera 10 to generate a measuring image IM; stop error calculation processing 20 for calculating a coordinate relationship between a stop position of the vehicle 12 and the pattern shape as a stop error, on the basis of the two reference lines RL; and external parameter calculation processing 22 for calculating an external parameter corresponding to the mounting attitude of the camera 10 on the basis of the pattern shape, while canceling the stop error.

Description

本発明は、カメラのキャリブレーションをする技術分野に関する。   The present invention relates to the technical field of camera calibration.

カメラで自車の周辺環境を撮像し、必要な画像処理をし、運転者に各種の情報を提供することで、運転を支援する技術が開発されている。運転の支援としては、駐車時等の後方画像の表示や、自動操舵や、自車に接近する車両の検出や、車線逸脱の警報などがある。また、画像処理としては、座標系の変換や、白線認識や、パターンマッチングなどがある。座標系の変換としては、二次元画像の三次元化や、平面図に相当する俯瞰画像の座標系への変換や、距離の算出に適した座標系への変換などがある。
特に、カメラで撮像した画像を俯瞰処理し、運転者に提示すると、車両周辺環境の認識を容易にすることができる。このような座標系の変換をするには、カメラ画像の車両に対する位置を明確かつ正確に測定しておく必要がある。
A technology for assisting driving has been developed by imaging the surrounding environment of the vehicle with a camera, performing necessary image processing, and providing various information to the driver. Driving assistance includes display of a rear image during parking, automatic steering, detection of a vehicle approaching the host vehicle, warning of lane departure, and the like. Image processing includes coordinate system conversion, white line recognition, pattern matching, and the like. The conversion of the coordinate system includes three-dimensionalization of a two-dimensional image, conversion of an overhead image corresponding to a plan view to a coordinate system, conversion to a coordinate system suitable for distance calculation, and the like.
In particular, when an image captured by a camera is subjected to a bird's-eye view process and presented to the driver, the environment around the vehicle can be easily recognized. In order to convert such a coordinate system, it is necessary to measure the position of the camera image with respect to the vehicle clearly and accurately.

例えば、バックモニタの場合、画像の上下方向が、車両の進行方向に一致し、かつ、画像での上下方向を向く中心線が車両の中心軸に一致していることが望ましい。このような画像変換処理を行うためには、カメラのキャリブレーションが必要となる。このキャリブレーションでは、レンズ性能を含めたカメラに固有の内部パラメータと、ワールド座標系でのカメラの設置位置及び姿勢を示す外部パラメータとを算出する。カメラを用いるシステムは、内部パラメータを用いてカメラのレンズに起因する歪みを補正し、外部パラメータを用いてカメラの取付誤差(設置位置及び姿勢の誤差)を補正する。
カメラのキャリブレーションでは、例えば、大きさの分かっているパターンを路面に敷き、これを撮像し、画像上でのパターンの位置及び大きさとワールド座標系での実際の位置及び大きさとを対応させることで、ワールド座標系でのカメラの撮像面の座標を算出する手法が知られている(例えば、非特許文献1)。
外部パラメータは、ワールド座標系と、設計上の理想的な取付での位置及び姿勢(回転角度)でのカメラの座標系との対応関係を与えるパラメータ群である。カメラ10の組付けの位置や角度には、ばらつきが生じることがあり、そして使用中に位置がずれてしまう可能性もある。すると、カメラの外部パラメータは、理想的な設置位置による外部パラメータとは異なる値となる。この場合、カメラ10の取付誤差を外部パラメータに反映させるか、取付誤差に応じた補正値等を適用しなければ、カメラ座標系とワールド座標系との対応関係が不正確となってしまう。
座標系の対応関係が不正確となると、各種の画像処理がその性能を発揮できなくなる。すると、ドライバへの表示が不適切となり、また、画像の表示が見苦しくなってしまう。
For example, in the case of a back monitor, it is desirable that the vertical direction of the image coincides with the traveling direction of the vehicle, and the center line facing the vertical direction in the image coincides with the central axis of the vehicle. In order to perform such image conversion processing, camera calibration is required. In this calibration, internal parameters unique to the camera including lens performance and external parameters indicating the installation position and orientation of the camera in the world coordinate system are calculated. A system using a camera corrects distortion caused by the lens of the camera using an internal parameter, and corrects an installation error (installation position and orientation error) of the camera using an external parameter.
In camera calibration, for example, a pattern with a known size is laid on the road surface, and this is imaged, and the position and size of the pattern on the image correspond to the actual position and size in the world coordinate system. Thus, a technique for calculating the coordinates of the imaging surface of the camera in the world coordinate system is known (for example, Non-Patent Document 1).
The external parameters are a parameter group that gives a correspondence relationship between the world coordinate system and the coordinate system of the camera in the position and orientation (rotation angle) in the ideal mounting in design. The position and angle of assembly of the camera 10 may vary, and the position may be shifted during use. Then, the external parameter of the camera becomes a value different from the external parameter based on the ideal installation position. In this case, the correspondence between the camera coordinate system and the world coordinate system will be inaccurate unless the mounting error of the camera 10 is reflected in an external parameter or a correction value or the like corresponding to the mounting error is applied.
If the correspondence relationship of the coordinate system becomes inaccurate, various image processing cannot exhibit its performance. Then, the display on the driver becomes inappropriate and the display of the image becomes unsightly.

特許文献1には、車両の組立工場や修理工場等において、カメラ10のキャリブレーションを精度良く実行することを目的として、バックカメラを車両に設置した後、地面に描かれたターゲットを撮像し(段落0044,0048)、そして、撮像されたターゲットをディスプレイに表示しつつ目視による手動の操作を促すことで(段落0052から段落0065,図5及び図6)、カメラの外部パラメータを、カメラの実際の取付位置及び角度に対応した値へと補正する手法が開示されている(段落0065)。
そして、この特許文献1には、測定時の車両位置について、ターゲットに対して「所定の相対関係にある位置」に停車させる旨(段落0047)が開示されている。またこの文献1には、ターゲットとして、所定位置に停車した車両の車体中心を挟んで車幅方向に対向し(段落0045,図4)、ディスプレイ上では左右対称な位置関係(段落0049,図5)とする旨が開示されている。
In Patent Document 1, in order to perform calibration of the camera 10 with high accuracy in a vehicle assembly factory, repair shop, etc., a target drawn on the ground is imaged after the back camera is installed on the vehicle ( (Paragraphs 0044 and 0048), and by prompting a manual operation by visual observation while displaying the imaged target on the display (paragraphs 0052 to 0065, FIGS. 5 and 6), the external parameters of the camera are changed to the actual camera parameters. A method for correcting the value to a value corresponding to the mounting position and angle is disclosed (paragraph 0065).
Patent Document 1 discloses that the vehicle position at the time of measurement is stopped at a “position having a predetermined relative relationship” with respect to the target (paragraph 0047). Further, in this document 1, as a target, the vehicle body direction of the vehicle parked at a predetermined position is opposed to each other in the vehicle width direction (paragraph 0045, FIG. 4), and the laterally symmetrical positional relationship on the display (paragraph 0049, FIG. 5). ) Is disclosed.

特許文献2には、カメラモジュールの取付誤差の影響を補正して、俯瞰画像を生成する手法が開示されている。具体的には、車両出荷検査時等に、白線が描かれた路面上の所定位置に車両を停車させて、自車に取付られた複数のカメラから当該白線を撮像し、取付誤差が無い場合のテンプレート画像と比較することで(段落0031,図6)、取付誤差を補正する。これにより、複数のカメラによる各画像の継ぎ目で白線がずれるという不都合の抑制を図っている(段落0062,図10)。   Patent Document 2 discloses a technique for correcting an influence of a camera module mounting error and generating an overhead image. Specifically, when the vehicle is stopped at a predetermined position on the road surface on which the white line is drawn at the time of vehicle shipment inspection, etc., and the white line is imaged from a plurality of cameras attached to the own vehicle, and there is no installation error By comparing with the template image (paragraph 0031, FIG. 6), the mounting error is corrected. This suppresses inconvenience that the white line is shifted at the joint of each image by a plurality of cameras (paragraph 0062, FIG. 10).

特許文献3には、自車の後方を撮像するカメラのキャリブレーションを走行中にも実行可能とすることを目的として、後部バンパの輪郭を調整パターンとしてカメラの設置位置及び設置姿勢の誤差を求める手法(段落0025,0042)が開示されている。   Japanese Patent Application Laid-Open No. 2004-228561 calculates the camera installation position and installation position errors using the contour of the rear bumper as an adjustment pattern for the purpose of enabling calibration of a camera that captures the rear of the vehicle while traveling. A technique (paragraphs 0025, 0042) is disclosed.

特許文献4には、大がかりな環境設備を必要とせずに複数台のカメラのキャリブレーションを実行することを目的として、路面上に複数のパターンを用意しておき、おおよその位置に車両を停止させてパターンを撮像し(段落0011,0012)、各画像を俯瞰画像に変換して(段落0035)、カメラ群のロール角と俯角とを最小二乗法により求めることで(段落0037,図7及び式3(図5))、パラメータを求めようとする手法が開示されている。この例では、複数の画像の合成に際して(段落0047)、各カメラの成す角を既知として(段落0060)、車両に対するカメラ方向を算出しようとしている(段落0061,図11,図12)。   In Patent Document 4, a plurality of patterns are prepared on the road surface in order to execute calibration of a plurality of cameras without requiring large-scale environmental facilities, and the vehicle is stopped at an approximate position. The pattern is imaged (paragraphs 0011 and 0012), each image is converted into a bird's-eye view image (paragraph 0035), and the roll angle and depression angle of the camera group are obtained by the least square method (paragraph 0037, FIG. 3 (FIG. 5)), a method for obtaining a parameter is disclosed. In this example, when a plurality of images are combined (paragraph 0047), the angle formed by each camera is known (paragraph 0060) and the camera direction with respect to the vehicle is calculated (paragraph 0061, FIGS. 11 and 12).

特開2005-77107号公報JP 2005-77107 A 特開2006-277738公報JP 2006-277738 特開2007-256030号公報Japanese Unexamined Patent Publication No. 2007-256030 特開2009-288152号公報JP 2009-288152 A

R. Y. Tsai, “A versatile camera calibration technique forhigh-accuracy 3D machine vision metrology using off-the-shelf tv cameras andlenses.” IEEE Journal of Robotics and Automation, 3(4):323 - 344, Aug. 1987R. Y. Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf tv cameras and lenses.” IEEE Journal of Robotics and Automation, 3 (4): 323-344, Aug. 1987

上記特許文献1及び2記載の手法では、キャリブレーションによって車両の停車位置及び方向の誤差(停車誤差)を外部パラメータに反映させることができない。従って、目標とする精度で外部パラメータを測定するには、特許文献1及び2記載の手法では、車両の位置に対して校正用パターンの配置位置と角度を精密に合わせなければならない。すると、この作業が実施できる大規模な設備、熟練した技術者、及び多くの作業時間が必須となってしまう。
さらに、車両の走行により取付位置にずれが生ずる可能性もある。キャリブレーションに大規模な設備を必要とすると、車両の移動容易な近隣の比較的小規模な設備ではキャリブレーションの実施不能となってしまう。
すなわち、上記特許文献1及び2手法の記載では、車両の近隣で簡易にキャリブレーションを実行することができない、という不都合があった。
上記特許文献2及び4には、俯瞰画像を用いる手法が開示されているが、理想的な取付パラメータからの修正の方法であって、修正は処理画像のシフトまたは回転のみであり、そして、キャリブレーションの実施には大規模な設備が必要となってしまう。
上記特許文献3記載の手法では、画像中自車が撮像される部分に基づいてキャリブレーションを実行するため、画像の中心から上部など、画像処理及び運転者への情報提供で重要な領域をキャリブレーションの対象外としてしまう。すなわち、上記特許文献3記載の手法では、カメラ画像の下部周辺領域を使ってキャリブレーションを行うことになり、車両後方を監視する用途のカメラでは一般的な、歪の大きなカメラを用いた場合、歪パラメータのわずかなずれが、キャリブレーション精度に影響する。
また、上記特許文献4記載の手法では、車両をおおよその位置に停車させつつも(段落0029)、停車位置と設置パターンとの関係を測定していないため、設置パターンに対する車両の停車誤差が、カメラの設置誤差に混入してしまう。すなわち、特許文献4の図3に示されるフローチャートの各工程に示される処理をしても、設置パターンの座標系に対して、車両の停車位置が傾いているのか、車両に設置されたカメラが傾いているのかを区別することができず、車両の停車誤差がカメラの取付誤差に含まれてしまう。特に、本文献の図11に示されるθyawc2の測定法、算出法は何ら開示されていない。
そして、この特許文献4には、単一のカメラについて車両の停車誤差を除外してカメラの取付誤差を外部パラメータに反映させる手法は、なんら開示されていない。
In the methods described in Patent Documents 1 and 2, an error in the stop position and direction of the vehicle (stop error) cannot be reflected in an external parameter by calibration. Therefore, in order to measure the external parameter with the target accuracy, in the methods described in Patent Documents 1 and 2, the position and angle of the calibration pattern must be precisely matched to the position of the vehicle. Then, the large-scale installation which can perform this operation | work, the skilled engineer, and many work time will become essential.
Furthermore, there is a possibility that the mounting position is shifted due to the traveling of the vehicle. If a large-scale facility is required for the calibration, the calibration cannot be performed in a relatively small facility in the vicinity where the vehicle can easily move.
In other words, the methods described in Patent Documents 1 and 2 have the disadvantage that the calibration cannot be easily performed in the vicinity of the vehicle.
Patent Documents 2 and 4 disclose a method using a bird's-eye view image, but this is a correction method from an ideal attachment parameter, and the correction is only a shift or rotation of a processed image, and calibration is performed. Large-scale equipment will be required to implement the project.
In the method described in Patent Document 3, calibration is executed based on the portion of the image where the vehicle is imaged, so that calibration is performed on areas important for image processing and providing information to the driver, such as from the center to the top of the image. Will be excluded. That is, in the method described in Patent Document 3, calibration is performed using the lower peripheral area of the camera image. When a camera with a large distortion, which is common for cameras for monitoring the rear of the vehicle, is used, A slight deviation of the distortion parameter affects the calibration accuracy.
Further, in the method described in Patent Document 4, while the vehicle is stopped at an approximate position (paragraph 0029), since the relationship between the stop position and the installation pattern is not measured, the stopping error of the vehicle with respect to the installation pattern is It will be mixed into the installation error of the camera. That is, even if the processing shown in each step of the flowchart shown in FIG. 3 of Patent Document 4 is performed, whether the stop position of the vehicle is inclined with respect to the coordinate system of the installation pattern, or the camera installed in the vehicle is It is impossible to distinguish whether the vehicle is tilted, and the vehicle stop error is included in the camera installation error. In particular, there is no disclosure of a method for measuring and calculating θyawc2 shown in FIG. 11 of this document.
And this patent document 4 does not disclose any method for reflecting a camera installation error in an external parameter by excluding a vehicle stop error for a single camera.

[課題1]このように、上記従来例では、精度の高いキャリブレーションを簡易に実施することができない、という不都合があった。
[課題2]さらに、上記従来例では、単一のカメラにて車両の停車誤差を除外して当該カメラの取付誤差のキャリブレーションをすることができない、という不都合があった。
[Problem 1] As described above, the above-described conventional example has a disadvantage that calibration with high accuracy cannot be easily performed.
[Problem 2] Furthermore, the conventional example described above has a disadvantage that it is not possible to calibrate the installation error of the camera by excluding the stop error of the vehicle with a single camera.

[発明の目的]本発明の目的は、車両の停車誤差の影響を排除できるキャリブレーションを簡易な設備で実施することにある。   [Object of the invention] An object of the present invention is to carry out calibration with simple equipment capable of eliminating the influence of a stop error of a vehicle.

[着眼点]本発明の発明者は、車両の停車誤差を取り除きつつ、路面に設置するパターンでキャリブレーションをすることができれば、キャリブレーション時の作業負担を軽減し、小規模な設備で精度の高いキャリブレーションをすることができる、という点に着目した。そして、路面に設置するパターンの座標系と、車両を設置した座標系との関係をキャリブレーションに反映させる手法を工夫することで、上記課題を解決できるのではないか、との着想に至った。   [Points of interest] If the inventor of the present invention can calibrate with the pattern installed on the road surface while removing the stop error of the vehicle, the work load at the time of calibration can be reduced, and the accuracy can be reduced with small-scale equipment. We paid attention to the fact that high calibration is possible. And the idea that the above problem could be solved by devising a method to reflect the relationship between the coordinate system of the pattern installed on the road surface and the coordinate system where the vehicle is installed in the calibration was reached. .

[課題解決手段1] 本発明は、車外環境を撮像するカメラを有する自車が所定方向に停車する測定領域と、前記カメラで撮影する測定用画像に基づいて前記カメラのキャリブレーションを実行する画像処理部とを備えている。
そして、前記測定領域は、前記自車の形状に対応した2点と交わる線を含み、当該カメラの撮像範囲内となる前記測定領域に少なくとも2本配置される参照線と、前記測定領域内で前記2本の前記参照線の間に予め定められたパターン形状を有する校正用パターンとを備えている。
さらに、本発明は、前記画像処理部が、前記カメラで前記校正用パターン及び前記参照線が配置される測定領域を撮影することで前記測定用画像を生成する撮像処理と、前記2本の前記参照線に基づいて前記自車の停車位置と前記パターン形状との座標関係を停車誤差として算出する停車誤差算出処理と、当該停車誤差をキャンセルした状態で前記パターン形状に基づいて前記カメラの取付姿勢に対応する外部パラメータを算出する外部パラメータ算出処理とを備えた、という構成を採っている。
これにより、上記課題1及び2を解決した。
[Problem Solving Means 1] The present invention provides an image for performing calibration of a camera based on a measurement region where a host vehicle having a camera that captures an environment outside the vehicle stops in a predetermined direction and a measurement image captured by the camera. And a processing unit.
The measurement area includes a line intersecting two points corresponding to the shape of the own vehicle, and at least two reference lines arranged in the measurement area within the imaging range of the camera, A calibration pattern having a predetermined pattern shape between the two reference lines.
Furthermore, the present invention provides an imaging process in which the image processing unit generates the measurement image by capturing a measurement region in which the calibration pattern and the reference line are arranged with the camera, and the two A stop error calculation process for calculating a coordinate relationship between the stop position of the host vehicle and the pattern shape based on a reference line as a stop error, and a mounting posture of the camera based on the pattern shape in a state where the stop error is canceled And an external parameter calculation process for calculating an external parameter corresponding to.
Thereby, the said subject 1 and 2 were solved.

本発明は、本明細書の記載及び図面を考慮して各請求項記載の用語の意義を解釈し、各請求項に係る発明を認定すると、各請求項に係る発明は、上記背景技術等との関連において次の有利な効果を奏する。   The present invention interprets the meaning of the terms described in each claim in consideration of the description of the present specification and the drawings, and certifies the invention according to each claim. There are the following advantageous effects in relation to

[発明の作用効果1] 課題解決手段1のカメラキャリブレーション装置は、予め定められたパターン形状を有する校正用パターンの両側に、少なくとも2本の参照線が配置され、この参照線は、自車の形状に対応した2点と交わる線である。このため、撮像処理が、前記校正用パターン及び前記参照線が配置される測定領域を撮影することで前記測定用画像を生成すると、この測定用画像中の参照線は、自車の形状に対応した2点と交わる線であり、従って、自車の停車方向と関係している。
画像処理部の停車誤差算出処理は、この関係を利用して、この2本の参照線に基づいて前記自車の停車位置と前記パターン形状との座標関係を停車誤差として算出する。そして、外部パラメータ算出処理は、停車誤差をキャンセルした状態で前記パターン形状に基づいて前記カメラの取付姿勢に対応する外部パラメータを算出する。従って、校正用パターンを自車の停車方向に対して厳密に平行等の方向に設置しなくとも、逆に、校正用パターンに対して厳密な方向で停車しなくとも、停車誤差の影響を除外して外部パラメータを算出することができる。
従って、車両の停車誤差の影響を排除できるキャリブレーションを簡易な設備で実施することができる。
[Functional Effect 1 of the Invention] In the camera calibration device of Problem Solving Means 1, at least two reference lines are arranged on both sides of a calibration pattern having a predetermined pattern shape. It is a line that intersects with two points corresponding to the shape of. For this reason, when the imaging process generates the measurement image by photographing the measurement area where the calibration pattern and the reference line are arranged, the reference line in the measurement image corresponds to the shape of the host vehicle. The line intersects the two points, and is thus related to the direction of stop of the vehicle.
The stop error calculation process of the image processing unit uses this relationship to calculate a coordinate relationship between the stop position of the host vehicle and the pattern shape as a stop error based on the two reference lines. Then, the external parameter calculation process calculates an external parameter corresponding to the mounting posture of the camera based on the pattern shape in a state where the stop error is cancelled. Therefore, even if the calibration pattern is not installed in a direction that is strictly parallel to the stopping direction of the host vehicle, on the contrary, the influence of the stopping error is excluded without stopping in the strict direction with respect to the calibration pattern. Thus, the external parameter can be calculated.
Therefore, calibration that can eliminate the influence of the vehicle stop error can be performed with simple equipment.

本発明の一実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of this invention. 本実施例で使用する校正用パターンの一例を示す説明図である。It is explanatory drawing which shows an example of the pattern for a calibration used in a present Example. 本実施例での自車の形状の一例を示す斜視図である。It is a perspective view which shows an example of the shape of the own vehicle in a present Example. 図4(A)及び(B)は本実施例での各種座標系の一例を示す説明図である。4A and 4B are explanatory diagrams showing examples of various coordinate systems in this embodiment. 本実施例にて自車が測定領域に停車した状態の位置関係の一例を示す説明図である。It is explanatory drawing which shows an example of the positional relationship of the state which the own vehicle stopped in the measurement area | region in a present Example. 図5に示す例での停車角誤差及び停車位置誤差の一例を示す説明図である。It is explanatory drawing which shows an example of the stop angle error and stop position error in the example shown in FIG. 図5に示す例での俯瞰画像となる領域の一例を示す説明図である。It is explanatory drawing which shows an example of the area | region used as the bird's-eye view image in the example shown in FIG. 図7に示す例にて初期の外部パラメータにて撮像した画像を俯瞰画像とした一例を示す説明図である。It is explanatory drawing which shows an example which made the image imaged with the initial external parameter in the example shown in FIG. 7 the bird's-eye view image. 図8に示す俯瞰画像に対して校正用パターンを基準として補正した一例を示す説明図である。It is explanatory drawing which shows an example which correct | amended the bird's-eye view image shown in FIG. 8 on the basis of the calibration pattern. 図9に示す俯瞰画像を参照線に基づいて補正することで停車角誤差を求める一例を示す説明図である。It is explanatory drawing which shows an example which calculates | requires a stop angle error by correct | amending the bird's-eye view image shown in FIG. 9 based on a reference line. 図5に示す例にてカメラ設置ズレ角がある場合の一例を示す説明図である。It is explanatory drawing which shows an example in case there exists a camera installation shift angle in the example shown in FIG. 図11に示す例にて初期の外部パラメータにて撮像した画像を俯瞰画像とした一例を示す説明図である。It is explanatory drawing which shows an example which made the image imaged with the initial external parameter in the example shown in FIG. 11 the bird's-eye view image. 図12に示す俯瞰画像に対して校正用パターンを基準に補正した一例を示す説明図である。It is explanatory drawing which shows an example which correct | amended the bird's-eye view image shown in FIG. 12 on the basis of the pattern for a calibration. 図13に示す俯瞰画像を参照線に基づいて補正することで停車角誤差を求める一例を示す説明図である。It is explanatory drawing which shows an example which calculates | requires a stop angle error by correct | amending the bird's-eye view image shown in FIG. 13 based on a reference line. 図15に示す停車角誤差をキャンセルしてカメラ設置角誤差を外部パラメータに反映させる俯瞰画像の一例を示す説明図である。It is explanatory drawing which shows an example of the bird's-eye view image which cancels the stop angle error shown in FIG. 15, and reflects a camera installation angle error on an external parameter. 本実施例でのキャリブレーション方法の工程例を示すフローチャートである。It is a flowchart which shows the process example of the calibration method in a present Example. 図17(A)及び(B)は参照線の対称性を利用して停車誤差を算出する一例を示す説明図である。FIGS. 17A and 17B are explanatory diagrams illustrating an example of calculating a stop error using the symmetry of the reference line. 本実施例での測定用画像を取得する処理例を示すフローチャートである。It is a flowchart which shows the process example which acquires the image for a measurement in a present Example. 本実施例にて停車誤差を算出する処理例を示すフローチャートである。It is a flowchart which shows the process example which calculates a stop error in a present Example. 図20(A)及び(B)は本実施例にて参照線の対称性となる相関係数が小さい一例を示す説明図である。FIGS. 20A and 20B are explanatory diagrams illustrating an example in which the correlation coefficient that is the symmetry of the reference line is small in this embodiment. 図21(A)及び(B)は本実施例にて参照線の対称性となる相関係数が大きい一例を示す説明図である。FIGS. 21A and 21B are explanatory diagrams showing an example in which the correlation coefficient that is the symmetry of the reference line is large in this embodiment.

発明を実施するための形態として、1つの実施例を開示する。   One embodiment is disclosed as a mode for carrying out the invention.

<1 キャリブレーション方法及び装置>
<1.1 車両側方の参照線>
ここで、本実施形態の実施例を開示する。本実施例は、カメラ10のキャリブレーションを簡易な設備で簡易に実施するために、自車12の停車位置を厳密とすることなく外部パラメータを測定可能なキャリブレーションの技術に関する。
<1 Calibration method and device>
<1.1 Reference line on the side of the vehicle>
Here, examples of the present embodiment will be disclosed. The present embodiment relates to a calibration technique capable of measuring an external parameter without making the stop position of the host vehicle 12 strict in order to easily carry out the calibration of the camera 10 with simple equipment.

カメラキャリブレーション装置は、その主要な要素として、画像処理部14と、測定領域MAとを備えている。測定領域MAは、校正用パターンPPと、少なくとも2本の参照線RLとを有する。そして、画像処理部14は、撮像処理18と、停車誤差算出処理20と、外部パラメータ算出処理22とを備えている。   The camera calibration apparatus includes an image processing unit 14 and a measurement area MA as its main elements. The measurement area MA has a calibration pattern PP and at least two reference lines RL. The image processing unit 14 includes an imaging process 18, a stop error calculation process 20, and an external parameter calculation process 22.

図1を参照すると、自車12は、車外環境を撮像するカメラ10を有し、測定領域MAにて所定方向に停車する。本実施例では、この停車に際して、予め定められた方向に対して同一方向に精密に停車をする必要はない。   Referring to FIG. 1, the own vehicle 12 includes a camera 10 that captures an environment outside the vehicle, and stops in a predetermined direction in the measurement area MA. In this embodiment, when stopping, it is not necessary to stop the vehicle precisely in the same direction with respect to a predetermined direction.

校正用パターンPPは、前記測定領域MA内で参照線RLの間に配置される。パターン形状としては、例えば、図2に示す同一の大きさの矩形パターンを白黒で交互に並べた市松模様を採用することができる。この市松模様の矩形の一辺の長さを定めておくと、測定用画像IM中にワールド座標系(x, y, z)での実際の長さの情報を得ることができるため、カメラ10の内部パラメータ及び外部パラメータの算出基準とすることができる。その他、本実施例では、キャリブレーションの方式に応じて、市松模様以外の様々なパターン形状も採用することができる。
そして、校正用パターンPP(パターンマット)の原点(パターン座標原点OP)を中心とする二次元の直交座標をパターンマット座標系(xp, yp)とする。
The calibration pattern PP is disposed between the reference lines RL in the measurement area MA. As the pattern shape, for example, a checkered pattern in which rectangular patterns of the same size shown in FIG. 2 are alternately arranged in black and white can be adopted. If the length of one side of the checkered rectangle is determined, information on the actual length in the world coordinate system (x, y, z) can be obtained in the measurement image IM. It can be used as a calculation standard for internal parameters and external parameters. In addition, according to the present embodiment, various pattern shapes other than the checkered pattern can be adopted according to the calibration method.
A two-dimensional orthogonal coordinate centered on the origin (pattern coordinate origin OP) of the calibration pattern PP (pattern mat) is defined as a pattern mat coordinate system (xp, yp).

参照線RLは、前記自車12の形状に対応した2点と交わる線を含み、当該カメラ10の撮像範囲内に少なくとも2本配置する。図1に示す例では、参照線RLとして、自車12の左右の側面形状に対応した左右に2本の直線としている。この参照線RLは、自車12の外周形状16にて予め定められた2点の位置に応じた線であり、自車12の外周形状16に対応しつつ、自車12の中心軸で対称ではあるが、平行ではない関係となっている。
すなわち、図示する例では、カメラ10の撮像方向は図中上下方向の上向きとなっており、参照線RLは、この上向き方向より若干図中左右の外側に広がっている。すなわち、2本の参照線RLは、平行としても良いが、平行とする必要はない。
The reference line RL includes a line that intersects two points corresponding to the shape of the host vehicle 12, and at least two reference lines RL are arranged within the imaging range of the camera 10. In the example shown in FIG. 1, the reference line RL has two straight lines corresponding to the left and right side shapes of the host vehicle 12. The reference line RL is a line corresponding to the positions of two points predetermined in the outer peripheral shape 16 of the host vehicle 12, and is symmetric about the central axis of the host vehicle 12 while corresponding to the outer peripheral shape 16 of the host vehicle 12. However, the relationship is not parallel.
That is, in the example shown in the drawing, the imaging direction of the camera 10 is upward in the vertical direction in the figure, and the reference line RL extends slightly outward in the right and left in the figure from the upward direction. That is, the two reference lines RL may be parallel, but need not be parallel.

カメラ10が後方を撮像する例では、撮像方向は自車12の後方であり、自車12の外周形状16は自車12の左右側面で、参照線RLは車長方向に延びる。
カメラ10が側方を撮像する例では、撮像方向は自車12の側方であり、自車12の外周形状16は自車12の前後となり、参照線RLは車幅方向に延びる。
In the example in which the camera 10 images the rear side, the imaging direction is the rear side of the host vehicle 12, the outer peripheral shape 16 of the host vehicle 12 is the left and right side surfaces of the host vehicle 12, and the reference line RL extends in the vehicle length direction.
In the example in which the camera 10 images the side, the imaging direction is the side of the host vehicle 12, the outer peripheral shape 16 of the host vehicle 12 is the front and rear of the host vehicle 12, and the reference line RL extends in the vehicle width direction.

そして、図1に示す例では参照線RLを直線としているが、全体を曲線としても良いし、一部を直線とすることもできる。全体又は一部を直線とすると画像処理による自動化を図りやすく、一方測定用画像IMが左右に広い場合などは曲線とすることで撮像範囲の全体を使った補正をすることができる。
参照線RLは、画像処理により停車誤差24を決定するものであるため、カメラ10で撮像される測定用画像IMで明瞭に認識できるものであることが望ましい。画像処理に際して2値化する場合は、路面(背景)に対して反対の輝度をもつ材料で直線を引くと良く、光線、テープ、又は棒など路面との輝度差が生ずるものであれば、様々な部材を採用することができる。また、カメラ10の解像度に対して細すぎる線ではカメラ10に写らなくなるため、ある程度の太さが必要となる。
In the example shown in FIG. 1, the reference line RL is a straight line, but the whole may be a curve, or a part may be a straight line. If the whole or a part is a straight line, it is easy to automate by image processing. On the other hand, when the measurement image IM is wide on the left and right, it is possible to perform correction using the entire imaging range by using a curved line.
Since the reference line RL determines the stop error 24 by image processing, it is desirable that the reference line RL be clearly recognizable by the measurement image IM captured by the camera 10. When binarizing during image processing, it is better to draw a straight line with a material having the opposite brightness to the road surface (background). A simple member can be employed. In addition, since a line that is too thin for the resolution of the camera 10 is not captured by the camera 10, a certain thickness is required.

この参照線RLを車両前後方向に引く場合、自車12の側面の外周形状16は車両中心軸に対して対称になっているため、車体側面の外周形状16,例えばフェンダー16a,16bを基準として直線を引くと良い。
図3を参照すると、参照線RLとして、自車12の前後フェンダー16a,16bを基準として、これを延長する直線を採用することができる。フェンダー16a,16bは、車両の最大幅となっていることが多く、平面部分があり測定容易である。また、フェンダー16a,16bではなく、タイヤ、ホイールとしても良いが、その場合、ステアリングを直進方向としておく必要がある。
When the reference line RL is drawn in the longitudinal direction of the vehicle, the outer peripheral shape 16 of the side surface of the host vehicle 12 is symmetric with respect to the vehicle center axis, so that the outer peripheral shape 16 of the side surface of the vehicle body, for example, fenders 16a and 16b is used as a reference. Draw a straight line.
Referring to FIG. 3, a straight line extending from the front and rear fenders 16 a and 16 b of the host vehicle 12 as a reference can be used as the reference line RL. The fenders 16a and 16b often have the maximum width of the vehicle, and have a flat portion to facilitate measurement. Further, tires and wheels may be used instead of the fenders 16a and 16b, but in this case, the steering needs to be set in a straight traveling direction.

測定に際しては、例えば、建築用のレーザー墨出し器などを活用し、測定した位置の真下地面に印をつけ、前後のフェンダー16a,16b等で測定し決定した印を何らかの部材で結び、自車12の後方へ引き伸ばすと良い。直線とする引き伸ばしには、長い棒を使うか、レーザー墨出し器で直線を延ばし、それに沿ってテープ、棒、ロープなどを設置すると良い。
レーザー墨出し器は、地面に垂直な平面方向にレーザー光を出力するため、これと車体側面がちょうど当たるように墨出し器の位置を調整し、その地墨点に印をする。
When measuring, for example, use a laser marking device for building, mark the true ground surface at the measured position, connect the marks determined by measuring with the front and rear fenders 16a, 16b, etc. It is better to stretch backwards 12. To stretch it into a straight line, use a long bar, or extend a straight line with a laser marking device, and install tape, bar, rope, etc. along it.
Since the laser marking device outputs laser light in a plane direction perpendicular to the ground, the position of the marking device is adjusted so that this and the side of the vehicle body just touch each other, and the marking point is marked.

このようなレーザー墨出し器でなくとも、車体側面測定位置の真下の地面に印がつけられる道具であれば活用できる。例えば、糸におもりを吊り下げて鉛直真下を計る道具(大工道具の下げ振)や、地面が水平で平らであれば、地面から垂直上向きに棒を立てて、側面に当たる場所を測定することもできる。
また、前後方向の測定位置は左右でほぼ同じにする必要があるところ、フェンダー16a,16bのような平らな面がある場所を使うと、それほど精密な測定とせずに一定の精度を確保することができる。
Even if it is not such a laser marking device, it can be used if it is a tool that can mark the ground directly under the vehicle body side surface measurement position. For example, a tool that hangs a weight on a thread and measures the vertical position (carpenter's tool swinging), or if the ground is horizontal and flat, it can measure the place where it hits the side by raising a stick vertically upward from the ground it can.
Also, the measurement position in the front-rear direction needs to be approximately the same on the left and right, and using a place with a flat surface such as fenders 16a and 16b ensures a certain level of accuracy without making a very precise measurement. Can do.

そして、画像処理部14は、前記カメラ10で撮影する測定用画像IMに基づいて前記カメラ10のキャリブレーションを実行する。画像処理部14では、まず、撮像処理18が、前記カメラ10で前記校正用パターンPP及び前記参照線RLが配置される測定領域MAを撮影することで、前記測定用画像IMを生成する。   Then, the image processing unit 14 performs calibration of the camera 10 based on the measurement image IM captured by the camera 10. In the image processing unit 14, first, the imaging process 18 generates the measurement image IM by photographing the measurement area MA in which the calibration pattern PP and the reference line RL are arranged with the camera 10.

停車誤差算出処理20は、前記2本の前記参照線RLに基づいて前記自車12の停車位置と前記パターン形状との座標関係を停車誤差24として算出する。すなわち、停車誤差算出処理20は、校正用パターンPPの方向や位置を基準とした際の理想的な方向及び位置で自車12を停車させなくとも、校正用パターンPPのパターン形状に対する自車12の停車方向及び位置についての誤差(停車誤差24)を算出することができる。   The stop error calculation process 20 calculates a coordinate relationship between the stop position of the host vehicle 12 and the pattern shape as a stop error 24 based on the two reference lines RL. That is, the stop error calculation processing 20 does not stop the host vehicle 12 in an ideal direction and position when the direction and position of the calibration pattern PP are used as a reference, and the host vehicle 12 with respect to the pattern shape of the calibration pattern PP. An error (stop error 24) regarding the stop direction and position of the vehicle can be calculated.

外部パラメータ算出処理22は、当該停車誤差24をキャンセルした状態で前記パターン形状に基づいて前記カメラ10の取付姿勢に対応する外部パラメータを算出する。すなわち、外部パラメータ算出処理22は、停車誤差24の影響を排除しつつ、パターン形状を基準としてカメラ10の取付姿勢をキャリブレーションし、その結果を外部パラメータとして算出する。   The external parameter calculation process 22 calculates an external parameter corresponding to the mounting posture of the camera 10 based on the pattern shape in a state where the stop error 24 is cancelled. That is, the external parameter calculation process 22 calibrates the mounting posture of the camera 10 with the pattern shape as a reference while eliminating the influence of the stop error 24, and calculates the result as an external parameter.

この外部パラメータを用いると、カメラ10の取付姿勢の理想状態からの誤差の影響を排除した画像を生成すると共に、当該画像に撮像された対象物等の例えばワールド座標系(x, y, z)での実際の座標値などを精度良く算出することができる。
そして、本実施例では、このキャリブレーションを実行するに際して、自車12を校正用パターンPPに対して精密な位置に停車させる必要がないため、大規模な設備を使用することなく、参照線RLを配置可能な通常の駐車スペースを使用して外部パラメータを算出することができる。また、複数のカメラ10を使用せず、単一のカメラ10について停車誤差24を除外して取付誤差を算出することができる。
When this external parameter is used, an image excluding the influence of an error from the ideal state of the mounting posture of the camera 10 is generated and, for example, a world coordinate system (x, y, z) of an object or the like captured in the image is generated. It is possible to accurately calculate actual coordinate values and the like.
In this embodiment, when executing this calibration, it is not necessary to stop the own vehicle 12 at a precise position with respect to the calibration pattern PP, so that the reference line RL can be used without using a large-scale facility. The external parameter can be calculated using a normal parking space in which can be placed. In addition, it is possible to calculate the mounting error without using the plurality of cameras 10 and excluding the stop error 24 for the single camera 10.

このように、本実施例では、自車12の形状に対応した2点と交わる参照線RLと校正用パターンPPとを比較することで画像処理により停車誤差24を算出した後に、この停車誤差24の影響を除去した状態で取付誤差のキャリブレーションを実行することにより、精度の高いキャリブレーションを簡易に実行することができる。   As described above, in this embodiment, after the stop error 24 is calculated by image processing by comparing the reference line RL intersecting with two points corresponding to the shape of the host vehicle 12 and the calibration pattern PP, the stop error 24 is calculated. By executing the calibration of the mounting error in a state where the influence of the above is removed, it is possible to easily execute a highly accurate calibration.

これを詳細に説明する。
本実施例では、まず、車載するカメラ10について、別途、内部パラメータと歪パラメータを測定しておく。内部パラメータはカメラ10のレンズ系等の影響を補正するものでカメラ10に固有のパラメータであり、カメラ10の取付姿勢とは無関係である。歪みパラメータは、例えば、広角レンズなど非線形の状態を表すパラメータであり、内部パラメータと一体化しても良い。
This will be described in detail.
In the present embodiment, first, internal parameters and distortion parameters are separately measured for the camera 10 mounted on the vehicle. The internal parameter corrects the influence of the lens system of the camera 10 and is a parameter specific to the camera 10 and is irrelevant to the mounting posture of the camera 10. The distortion parameter is a parameter representing a non-linear state such as a wide-angle lens, and may be integrated with an internal parameter.

そして、図1に示すように、カメラ10が撮影可能な自車12の周囲に校正用パターンPPを配置する。校正用パターンPPの配置は、本実施例では、車両の進行方向などの基準に対して精密とする必要はないが、ある程度揃えておくことが望ましい。
図2に示すように、校正用パターンPPは、市松模様とすることができ、市松模様の白黒の交点(格子点)の位置及び格子点間の距離はパターンマット座標系(xp, yp)で表される。
図3に示すように、自車12の外周形状16として、フェンダー16a,16bを採用することで、簡易に参照線RLを設置することができる。
Then, as shown in FIG. 1, a calibration pattern PP is arranged around the own vehicle 12 that can be photographed by the camera 10. In the present embodiment, the arrangement of the calibration pattern PP does not need to be precise with respect to a reference such as the traveling direction of the vehicle, but it is desirable to arrange the calibration pattern PP to some extent.
As shown in FIG. 2, the calibration pattern PP can be a checkered pattern, and the positions of black and white intersections (lattice points) of the checkered pattern and the distances between the lattice points are in the pattern mat coordinate system (xp, yp). expressed.
As shown in FIG. 3, the reference line RL can be easily installed by adopting fenders 16 a and 16 b as the outer peripheral shape 16 of the host vehicle 12.

図4にカメラ10がバックカメラである場合の座標系の関係例を説明する。
図4(A)に示すように、ワールド座標系(x, y, z)は、地面上にxy平面をとり、車両軸後方をy軸、鉛直上向きをz軸、y-z面に垂直な車両横幅方向にx軸をとる。ワールド座標系(x, y, z)の原点は、車両後端中心とする。
図4(B)に示すように、カメラ10の画像素子上に俯瞰画像座標系(u, v)を定義する。カメラ座標系(xc, yc, zc)は焦点位置fを原点として光軸方向がzc軸となるようにとる。座標系としては、図4に示す他、図2に示すパターンマット座標系(xp, yp)がある。
FIG. 4 illustrates a relationship example of the coordinate system when the camera 10 is a back camera.
As shown in FIG. 4A, the world coordinate system (x, y, z) has an xy plane on the ground, the vehicle axis rearward is the y axis, the vertical upward direction is the z axis, and the vehicle lateral width is perpendicular to the yz plane. Take the x axis in the direction. The origin of the world coordinate system (x, y, z) is the center of the rear end of the vehicle.
As shown in FIG. 4B, an overhead image coordinate system (u, v) is defined on the image element of the camera 10. The camera coordinate system (xc, yc, zc) is set so that the optical axis direction is the zc axis with the focal position f as the origin. As a coordinate system, there is a pattern mat coordinate system (xp, yp) shown in FIG. 2 in addition to that shown in FIG.

図5に示すように、本実施例では、パターン座標原点OPと車両特徴点FP(例えば、バックカメラであれば自車12の最後端等)との水平距離を停車誤差24(停車位置誤差L, X)として測定する。この測定は、画像処理により測定しても良いが、人手による測定が簡易である。なお、パターンの座標原点OPと車両特徴点FPの水平位置とを一致させて配置させた場合、停車位置誤差L(水平距離)はゼロとなる。
なお、Lはワールド座標原点を車体後端中央に設定するために使用するパラメータであるので、画像処理からLを算出する場合、パターンマット座標系におけるカメラ位置(x,y)のyに、車体後端中央とカメラ取り付け位置の水平距離のy軸成分を加えたものをLとして設定する。
As shown in FIG. 5, in this embodiment, the horizontal distance between the pattern coordinate origin OP and the vehicle feature point FP (for example, the rearmost end of the own vehicle 12 in the case of a back camera) is set as a stop error 24 (stop position error L). , X). This measurement may be performed by image processing, but manual measurement is simple. Note that when the pattern coordinate origin OP and the horizontal position of the vehicle feature point FP are arranged to coincide with each other, the stop position error L (horizontal distance) becomes zero.
Since L is a parameter used to set the world coordinate origin at the center of the rear end of the vehicle body, when calculating L from the image processing, the vehicle position is set to y of the camera position (x, y) in the pattern mat coordinate system. A value obtained by adding the y-axis component of the horizontal distance between the rear end center and the camera mounting position is set as L.

さらに、自車12の形状と関連する少なくとも2本の参照線RLを床に描くなどして、カメラ10から撮影できるようにする。例えば、車体の側面の前後2箇所を結ぶ直線を床に引く。上述のように、この2本の参照線RLとなる直線は、平行である必要はないが、自車12の中心軸に対して対称とするなど、自車12の前後方向との関係を維持する方向で配置すると良い。また、直線ではなく、曲線としても良い。   Further, at least two reference lines RL related to the shape of the vehicle 12 are drawn on the floor so that the camera 10 can take a picture. For example, draw a straight line on the floor that connects two points on the side of the body. As described above, the straight lines that serve as the two reference lines RL do not have to be parallel, but maintain the relationship with the front-rear direction of the host vehicle 12 such as being symmetric with respect to the central axis of the host vehicle 12. It is good to arrange in the direction to do. Moreover, it is good also as a curve instead of a straight line.

そして、カメラ10で、校正用パターンPPと、2本の参照線RLを撮影する。校正用パターンPPと参照線RLは同時に撮影する必要はなく、別々に撮影しても良い。
本実施例では、校正用パターンPPを撮像した測定用画像IMから、カメラ10の外部パラメータを計算する。
Then, the camera 10 captures the calibration pattern PP and the two reference lines RL. The calibration pattern PP and the reference line RL need not be photographed simultaneously, and may be photographed separately.
In this embodiment, external parameters of the camera 10 are calculated from the measurement image IM obtained by capturing the calibration pattern PP.

また、参照線RLを対称とする例では、停車誤差算出処理20は、前記測定用画像IM中の前記カメラ10の撮像方向を中心とした前記少なくとも2本の前記参照線RLの対称性に基づいて前記停車誤差24を算出する処理を備えると良い。この処理により、測定用画像IM中の2本の参照線RLが対称となるまで画像処理による変換を繰り返し、対称となった際のそれまでの変換量から、停車誤差24を求めることができる。   In the example in which the reference line RL is symmetric, the stop error calculation process 20 is based on the symmetry of the at least two reference lines RL with the imaging direction of the camera 10 in the measurement image IM as the center. It is preferable to provide a process for calculating the stop error 24. By this process, the conversion by image processing is repeated until the two reference lines RL in the measurement image IM are symmetric, and the stop error 24 can be obtained from the conversion amount up to that point when the symmetric.

次に、停車誤差24を、停車角誤差θzと、停車位置誤差L,Xとに分けて、停車角誤差θzを参照線RLから求める手法を図6から図15を参照して説明する。この例では、この停車角誤差θzを除去する補正をした上で、カメラ10の取付誤差であるカメラ設置角誤差θcの影響を反映させた外部パラメータを算出する。   Next, a method for obtaining the stop angle error θz from the reference line RL by dividing the stop error 24 into the stop angle error θz and the stop position errors L and X will be described with reference to FIGS. In this example, after correcting for the stop angle error θz, an external parameter that reflects the effect of the camera installation angle error θc, which is an attachment error of the camera 10, is calculated.

図6から図10はカメラ設置角誤差θcを0とした説明用の例で、図11から図15はカメラ設置角誤差θcがある場合の例である。   6 to 10 are explanatory examples in which the camera installation angle error θc is set to 0, and FIGS. 11 to 15 are examples in the case where there is a camera installation angle error θc.

図6を参照すると、停車誤差24は、パターンマット座標系(xp, yp)とワールド座標系(x, y, z)との間の誤差であり、停車誤差24のうち停車角誤差θzは、パターンマット座標系のyp軸(xp軸)とワールド座標系のy軸(x軸)との成す角である。
図6から図15に示す例では、説明を簡易とするために、参照線RLをワールド座標系(x, y, z)のy軸と平行とした。停止基準線SLはパターンマット座標系(xp, yp)のyp軸と平行であり、自車12の理想的な停止位置の基準となる線である。図6に示す例では、参照線RLをy軸と平行としたため、参照線RLと停止基準線SLとの成す角は停止角誤差θzとなる。
また、測定用画像IMを対象とする画像処理により停車誤差24等を算出することもできるが、ここでは、本実施例の利点を簡易に説明するために俯瞰画像BIを対象とする画像処理例を説明する。
Referring to FIG. 6, the stop error 24 is an error between the pattern mat coordinate system (xp, yp) and the world coordinate system (x, y, z), and the stop angle error θz of the stop error 24 is This is the angle between the yp axis (xp axis) in the pattern mat coordinate system and the y axis (x axis) in the world coordinate system.
In the examples shown in FIGS. 6 to 15, the reference line RL is parallel to the y axis of the world coordinate system (x, y, z) for the sake of simplicity. The stop reference line SL is parallel to the yp axis of the pattern mat coordinate system (xp, yp) and serves as a reference for an ideal stop position of the host vehicle 12. In the example shown in FIG. 6, since the reference line RL is parallel to the y-axis, the angle formed by the reference line RL and the stop reference line SL is a stop angle error θz.
Further, the stop error 24 and the like can be calculated by image processing for the measurement image IM. Here, in order to briefly explain the advantages of the present embodiment, an image processing example for the overhead image BI is used. Will be explained.

図7に示すように、ワールド座標系(x, y, z)に俯瞰領域BAを定める。そして、画像処理部14は、測定用画像IMの座標値を変換することで俯瞰画像BIを生成することができる。画像処理部14は、例えば、測定用画像IMに撮像されている校正用パターンPP等のワールド座標系(x, y, z)での高さ(y軸の値)を0と仮定しつつ、x, yの座標を俯瞰座標系(u, v)の座標に対応させて、対応させた測定用画像IMの座標値(濃淡値)を俯瞰画像BIの座標値とする。すると、図8に示すような俯瞰画像BIを得ることができる。ここでは、停車誤差24の算出又は除去を、俯瞰画像BIに対する画像処理として説明するが、座標値の対応関係を用いて測定用画像IMに対して直接に処理することもできる。   As shown in FIG. 7, an overhead area BA is defined in the world coordinate system (x, y, z). The image processing unit 14 can generate the overhead image BI by converting the coordinate values of the measurement image IM. For example, the image processing unit 14 assumes that the height (y-axis value) in the world coordinate system (x, y, z) of the calibration pattern PP or the like captured in the measurement image IM is 0, The coordinates of x, y are made to correspond to the coordinates of the overhead view coordinate system (u, v), and the corresponding coordinate value (gray value) of the measurement image IM is taken as the coordinate value of the overhead image BI. Then, an overhead image BI as shown in FIG. 8 can be obtained. Here, calculation or removal of the stop error 24 is described as image processing for the overhead image BI, but it is also possible to directly process the measurement image IM using a correspondence relationship of coordinate values.

図8に示す俯瞰画像BIでは、カメラ10の光軸zcと平行なワールド座標系のy軸に対して、校正用パターンPPのyp軸が傾いている。校正用パターンPPの配置位置及び角度を基準とすると、自車12の停車方向が理想値から傾いてしまっている。自車12の停車位置を基準とすると、校正用パターンPPを傾けて配置してしまっている。
この停車誤差24のうち停車角誤差θzは、カメラ10の取付角度の誤差に起因するものではない。一方、この停車誤差24を取り除かずにカメラ10の取付誤差に関するキャリブレーションを実行すると、この停車誤差24に起因する画像の回転及び並進の誤差をもカメラ10の取付誤差に含めてしまうことになる。すなわち、停車誤差24があると、カメラ10の取付誤差についてのキャリブレーションを正確に実行することができなくなる。すなわち、停車誤差24の影響を排除できないままのキャリブレーションでは、カメラ10の外部パラメータを正確に算出することができない。
In the bird's-eye view image BI shown in FIG. 8, the yp axis of the calibration pattern PP is inclined with respect to the y axis of the world coordinate system parallel to the optical axis zc of the camera 10. Based on the arrangement position and angle of the calibration pattern PP, the stop direction of the host vehicle 12 is inclined from the ideal value. If the stop position of the host vehicle 12 is used as a reference, the calibration pattern PP is inclined and arranged.
Among the stop errors 24, the stop angle error θz is not caused by an error in the mounting angle of the camera 10. On the other hand, if the calibration related to the mounting error of the camera 10 is executed without removing the stop error 24, the rotation and translation errors of the image due to the stop error 24 are also included in the camera 10 mounting error. . That is, if there is a stop error 24, the calibration for the mounting error of the camera 10 cannot be performed accurately. In other words, the external parameters of the camera 10 cannot be accurately calculated by calibration that cannot eliminate the influence of the stop error 24.

図9に、校正用パターンPPを基準として俯瞰画像BIを補正した例を示す。俯瞰画像BIは、反時計回りに回転する。この補正により、u軸とyp軸とが平行となる。図示するように、自車12の前後方向と平行な参照線RLと、yp軸と平行な停止基準線SLとの成す角は停止角誤差θzと等しい。   FIG. 9 shows an example in which the overhead image BI is corrected based on the calibration pattern PP. The bird's-eye view image BI rotates counterclockwise. By this correction, the u-axis and the yp-axis become parallel. As shown in the drawing, the angle formed by the reference line RL parallel to the front-rear direction of the host vehicle 12 and the stop reference line SL parallel to the yp axis is equal to the stop angle error θz.

図10に、俯瞰画像BIを参照線RLに基づいて補正した一例を示す。校正用パターンPPで補正した俯瞰画像BIを基準として、参照線RLが俯瞰座標系(u, v)のu軸と平行となるまで回転させると、その回転角は停車角誤差θzとなる。参照線RLが自車12の前後方向と平行でなくとも、自車12の前後方向の軸を中心に対象であれば、俯瞰画像BI上で対称となるまで回転させることで、停車角誤差θzを求めることができる。
このように、停車誤差算出処理20は、前記2本の前記参照線RLに基づいて前記自車12の停車位置とパターン形状との座標関係を停車角誤差θzとして算出することができる。
FIG. 10 shows an example in which the overhead image BI is corrected based on the reference line RL. When the reference line RL is rotated until the reference line RL is parallel to the u axis of the overhead coordinate system (u, v) with the overhead image BI corrected by the calibration pattern PP as a reference, the rotation angle becomes a stop angle error θz. Even if the reference line RL is not parallel to the front-rear direction of the host vehicle 12, if it is an object around the front-rear axis of the host vehicle 12, it is rotated until it becomes symmetrical on the bird's-eye view image BI. Can be requested.
As described above, the stop error calculation process 20 can calculate the coordinate relationship between the stop position of the host vehicle 12 and the pattern shape as the stop angle error θz based on the two reference lines RL.

それでは、図11から図15を参照して、カメラ設置ズレ角θcのある通常の場合を例として、参照線RLを使用した画像処理の内容を説明する。
カメラ設置ズレ角θcは、バックカメラの場合、自車12の中心軸(ワールド座標系のy軸)に平行な線とカメラ10の光軸zcとの成す角である。
Now, the contents of image processing using the reference line RL will be described with reference to FIGS. 11 to 15 by taking a normal case with a camera installation deviation angle θc as an example.
In the case of a back camera, the camera installation deviation angle θc is an angle formed by a line parallel to the central axis of the host vehicle 12 (the y axis of the world coordinate system) and the optical axis zc of the camera 10.

図11を参照すると、カメラ設置ズレ角θcがある際には、カメラ10の光軸zcはワールド座標系のy軸に対して傾くため、その角度分、自車12に対して測定領域MAが傾く。この状態で測定用画像IMを撮像すると図12に示す角度関係の俯瞰画像BIとなる。
図中、直線ya及び直線xaはカメラ座標系(zc, yc, zc)の原点を通り、それぞれワールド座標系のy軸及びx軸と平行な直線である。従って、光軸zcと直線yaとの成す角はカメラ設置ズレ角θcである。
Referring to FIG. 11, when there is a camera installation deviation angle θc, the optical axis zc of the camera 10 is tilted with respect to the y-axis of the world coordinate system, and therefore the measurement area MA is relative to the own vehicle 12 by that angle. Tilt. When the measurement image IM is captured in this state, an angle-related overhead image BI shown in FIG. 12 is obtained.
In the figure, a straight line ya and a straight line xa are straight lines that pass through the origin of the camera coordinate system (zc, yc, zc) and are parallel to the y axis and the x axis of the world coordinate system, respectively. Therefore, the angle formed by the optical axis zc and the straight line ya is the camera installation angle θc.

図12を参照すると、俯瞰画像BIのu軸とカメラ10の光軸zcとが平行である。ワールド座標系のy軸は、u軸に対してカメラ設置ズレ角θcのマイナス分傾き、パターンマット座標系のyp軸はさらに停車角誤差θz分傾く。結局、カメラ設置ズレ角θcが逆向きになることを考慮すると、u軸に対してパターンマット座標系のyp軸は-(θz-θc)分傾く。
図12に示す例では、y軸と参照線RLとが平行であるため、参照線RLとu軸に平行な線との成す角はカメラ設置ズレ角θcと等しい。
図12中、直線ULaはカメラ座標系の光軸zcと平行な直線で、図12に示す状態ではu軸と平行であり、参照線RLとの成す角がカメラ設置ズレ角θcである。
Referring to FIG. 12, the u-axis of the overhead image BI and the optical axis zc of the camera 10 are parallel. The y-axis of the world coordinate system is inclined minus the camera installation angle θc with respect to the u-axis, and the yp-axis of the pattern mat coordinate system is further inclined by the stop angle error θz. After all, considering that the camera installation angle θc is reversed, the yp axis of the pattern mat coordinate system is tilted by − (θz−θc) with respect to the u axis.
In the example shown in FIG. 12, since the y axis and the reference line RL are parallel, the angle formed by the reference line RL and a line parallel to the u axis is equal to the camera installation deviation angle θc.
In FIG. 12, a straight line ULa is a straight line parallel to the optical axis zc of the camera coordinate system, is parallel to the u axis in the state shown in FIG. 12, and an angle formed with the reference line RL is a camera installation deviation angle θc.

図13に示すように、図12に示す俯瞰画像BIに対して、校正用パターンPPに基づいた補正をすると、u軸とyp軸とが平行となる。直線ULbはyp軸と平行な直線で、図13に示す例ではu軸と平行であり、参照線RLとの成す角は停車角誤差θzである。
そして、図13に示す俯瞰画像BIを対象として、参照線RLに基づいた補正をすると、図14に示すように、u軸とy軸とが平行となる。この参照線RLに基づいた補正の補正角度(回転角)は、停車角誤差θzとなる(停車誤差算出処理20)。
As shown in FIG. 13, when the overhead image BI shown in FIG. 12 is corrected based on the calibration pattern PP, the u axis and the yp axis become parallel. The straight line ULb is a straight line parallel to the yp axis. In the example shown in FIG. 13, the straight line ULb is parallel to the u axis, and the angle formed with the reference line RL is a stop angle error θz.
And if it correct | amends based on the reference line RL for the bird's-eye view image BI shown in FIG. 13, as shown in FIG. 14, the u-axis and the y-axis become parallel. The correction angle (rotation angle) of the correction based on the reference line RL becomes a stop angle error θz (stop error calculation process 20).

図15に示すように、求めた停車角誤差θzを俯瞰画像BIからキャンセルすると、カメラ10の光軸zcとy軸とが平行となる。そして、yp軸とy軸との成す角はカメラ設置ズレ角θcとなる。このため、外部パラメータ算出処理22が、図15に示す俯瞰画像BIを対象として、校正用パターンPPに基づいて外部パラメータDを算出すると、その外部パラメータDは、停車角誤差θzに影響されず、一方、カメラ設置ズレ角θcの影響を反映させたパラメータとなる。   As shown in FIG. 15, when the obtained stop angle error θz is canceled from the overhead image BI, the optical axis zc and the y axis of the camera 10 become parallel. The angle formed by the yp axis and the y axis is the camera installation deviation angle θc. Therefore, when the external parameter calculation process 22 calculates the external parameter D based on the calibration pattern PP for the overhead image BI shown in FIG. 15, the external parameter D is not affected by the stop angle error θz, On the other hand, the parameter reflects the effect of the camera installation angle θc.

続いて、図16を参照して本実施例のキャリブレーションの方法を説明する。
まず、車外環境を撮像するカメラ10が取付られた自車12を予め定められた測定領域MAにて所定方向に停車させる(ステップS1,停車工程)。例えば、図11に示す状態で自車12を停車させる。
次に、前記自車12の形状に対応した2点と交わる線を、参照線RLとして、前記カメラ10の撮像範囲内となる前記測定領域MAに少なくとも2本配置する(ステップS2,参照線配置工程)。図11に示す例では、参照線RLは自車12の外周形状16と関係し、前後方向の中心を中心軸として対称となっている。
そして、前記測定領域MA内で前記2本の前記参照線RLの間に予め定められたパターン形状を有する校正用パターンPPを設置すると共に当該校正用パターンPPと前記参照線RLとを撮影することで測定用画像IMを生成する(ステップS3,撮像工程)。図12に示す例では俯瞰画像BIとしているが、測定用画像IMは図12に示す角度の関係を有する画像となる。
さらに、前記測定用画像IMに基づいて前記カメラ10のキャリブレーションを実行する(ステップS4からS6,画像処理工程)。
この画像処理工程は、まず、前記2本の前記参照線RLに基づいて前記自車12の停車位置と前記パターン形状との座標関係を停車誤差24として算出する(ステップS4)。例えば、図13に示すような校正用パターンPPを基準として補正を測定用画像IM(図示せず)に対して行い、これを基準としてさらに図14に示すような参照線RLに基づく補正をすることで、校正用パターンPPと参照線RLとの間の誤差(回転角や並進量)を停車誤差24とすることができる。
この停車誤差24の算出では、校正用パターンPPで補正をした図17(A)に示す参照線RLが画像中心線CLを基準に非対称の状態から、図17(B)に示すように対象となるまでの回転角を停車角誤差θzとすることができる。
次に、図15に示すように、当該停車誤差24をキャンセルし(ステップS5)、この状態で前記パターン形状に基づいて前記カメラ10の取付姿勢に対応する外部パラメータを算出する(ステップS6)。
画像処理工程は、測定用画像IMを直接の対象として停車誤差24の算出をする他、停車誤差24の算出をし易い座標系への変換をしてから、停車誤差24を求めるようにしても良い。
Next, the calibration method of this embodiment will be described with reference to FIG.
First, the host vehicle 12 to which the camera 10 that captures the environment outside the vehicle is attached is stopped in a predetermined direction in a predetermined measurement area MA (step S1, stopping process). For example, the host vehicle 12 is stopped in the state shown in FIG.
Next, at least two lines that intersect two points corresponding to the shape of the host vehicle 12 are arranged as reference lines RL in the measurement area MA that is within the imaging range of the camera 10 (step S2, reference line arrangement). Process). In the example shown in FIG. 11, the reference line RL is related to the outer peripheral shape 16 of the host vehicle 12 and is symmetric about the center in the front-rear direction.
Then, a calibration pattern PP having a predetermined pattern shape is installed between the two reference lines RL in the measurement area MA, and the calibration pattern PP and the reference line RL are photographed. To generate the measurement image IM (step S3, imaging step). In the example illustrated in FIG. 12, the overhead image BI is used, but the measurement image IM is an image having an angle relationship illustrated in FIG. 12.
Further, the camera 10 is calibrated based on the measurement image IM (steps S4 to S6, image processing step).
In this image processing step, first, based on the two reference lines RL, the coordinate relationship between the stop position of the host vehicle 12 and the pattern shape is calculated as a stop error 24 (step S4). For example, correction is performed on the measurement image IM (not shown) using the calibration pattern PP as shown in FIG. 13 as a reference, and correction based on the reference line RL as shown in FIG. Thus, an error (rotation angle or translation amount) between the calibration pattern PP and the reference line RL can be set as the stop error 24.
In the calculation of the stop error 24, the reference line RL shown in FIG. 17A corrected with the calibration pattern PP is asymmetrical with respect to the image center line CL, as shown in FIG. 17B. The rotation angle up to becomes the stop angle error θz.
Next, as shown in FIG. 15, the stop error 24 is canceled (step S5), and in this state, an external parameter corresponding to the mounting posture of the camera 10 is calculated based on the pattern shape (step S6).
In the image processing step, the stop error 24 is calculated using the measurement image IM as a direct target, and the stop error 24 is obtained after conversion to a coordinate system in which the stop error 24 can be easily calculated. good.

・1.1 車両側方の参照線の効果
上述のように、本実施例では、少なくとも2本の参照線RLからカメラ座標の外部パラメータDを求めるため、車体と校正用パターンPPの正確な位置合わせが不要となり小規模の設備で迅速に校正することができる。すなわち、校正用パターンPPと2本の参照線RLを用いると、校正用パターンPPの精密な配置を不要とすることができる。
そして、2本の参照線RLを自車12の車体中心軸に対して対称とすると、車体軸を使用した校正と同じ効果を得ることができる。
また、参照線RLを撮像した測定用画像IMを俯瞰処理し、画面中心に対称とすると、画像処理により外部パラメータDを決定することができる。
さらに、車両特徴点FPと校正用パターンPPのパターン座標原点OPの距離を測定することで、校正用パターンPPの精密な配置を不要とすることができる。
このように、参照線RLを用いて停車誤差24を求めるため、小規模な設備でも精度の良いキャリブレーションを実行することができる。
1.1 Effect of vehicle side reference line As described above, in the present embodiment, since the external parameter D of the camera coordinates is obtained from at least two reference lines RL, the vehicle body and the calibration pattern PP are accurately aligned. It becomes unnecessary and can be calibrated quickly with small equipment. That is, when the calibration pattern PP and the two reference lines RL are used, it is possible to eliminate the need for precise arrangement of the calibration pattern PP.
If the two reference lines RL are symmetric with respect to the vehicle body central axis of the host vehicle 12, the same effect as the calibration using the vehicle body axis can be obtained.
Further, when the measurement image IM obtained by imaging the reference line RL is subjected to overhead processing and is symmetric with respect to the center of the screen, the external parameter D can be determined by image processing.
Furthermore, by measuring the distance between the vehicle feature point FP and the pattern coordinate origin OP of the calibration pattern PP, the precise arrangement of the calibration pattern PP can be made unnecessary.
In this way, since the stop error 24 is obtained using the reference line RL, accurate calibration can be executed even with a small-scale facility.

<1.2 俯瞰画像で補正処理>
次に、俯瞰画像BIでの参照線RLの対称性に基づいて停車誤差24を算出する例を説明する。この例では、パターンマット座標系(xp, yp)をワールド座標系(x, y, z)に変換する座標系変換行列に、停車誤差24である停車角誤差θzと停車位置誤差L, Xの値を反映させることで、停車誤差24をキャンセルしつつ外部パラメータDを求める。
<1.2 Correction processing with overhead image>
Next, an example in which the stop error 24 is calculated based on the symmetry of the reference line RL in the overhead view image BI will be described. In this example, the coordinate system conversion matrix for converting the pattern mat coordinate system (xp, yp) to the world coordinate system (x, y, z) includes the stop angle error θz that is the stop error 24 and the stop position errors L and X. By reflecting the value, the external parameter D is obtained while canceling the stop error 24.

この例では、前記停車誤差算出処理20は、前記測定用画像IMを俯瞰画像BIに変換すると共に、当該俯瞰画像BI中の前記少なくとも2本の前記参照線RLの対称性に基づいて前記停車誤差24を算出する処理を備えている。この停車誤差算出処理20は、例えば、俯瞰画像BIにて参照線RLが対称となるまで回転や移動などの画像処理を繰り返し、対称となった際にそれまでの回転量や移動量を俯瞰画像BIの座標系での停車誤差24とすることができる。
停車誤差算出処理20のこの処理は、図16に示す例では、ステップS4にて実行すると良い。
In this example, the stop error calculation process 20 converts the measurement image IM into an overhead image BI, and the stop error based on the symmetry of the at least two reference lines RL in the overhead image BI. 24 is calculated. For example, the stop error calculation processing 20 repeats image processing such as rotation and movement until the reference line RL becomes symmetric in the bird's-eye view image BI. It can be set as the stop error 24 in the coordinate system of BI.
This process of the stop error calculation process 20 is preferably performed in step S4 in the example shown in FIG.

座標系を関連させるために従来から多用されるピンホールカメラモデルでは、カメラ座標系(xc, yc, zc)と俯瞰画像座標系(u, v)との関係は、次式(1a)で表される。   In a pinhole camera model that has been frequently used to relate coordinate systems, the relationship between the camera coordinate system (xc, yc, zc) and the overhead image coordinate system (u, v) is expressed by the following equation (1a). Is done.

Figure 2013002820
Figure 2013002820

但し、sは任意のスケールファクターである。
ここで、式(1b)に示す行列Aが個別のカメラ10に固有のパラメータとなっており、内部パラメータAと呼ぶ。
実際のカメラ10には、歪が存在するため、歪のない俯瞰画像座標系(u, v)と現実に得られる歪のある画像座標(ud, vd)の関係式を導入する。例えば、放射歪曲で4次の項まで考慮した場合は、原点(u0, v0)からの距離をr、各次数の計数をk1, k2とすると、次式(2)となる。
Where s is an arbitrary scale factor.
Here, the matrix A shown in the equation (1b) is a parameter unique to the individual camera 10 and is referred to as an internal parameter A.
Since the actual camera 10 has distortion, a relational expression between the overhead image coordinate system (u, v) having no distortion and the image coordinates (ud, vd) having distortion actually obtained is introduced. For example, when considering up to the fourth order term in the radial distortion, if the distance from the origin (u0, v0) is r and the counts of the respective orders are k1, k2, the following equation (2) is obtained.

Figure 2013002820
Figure 2013002820

そして、基準となるワールド座標系(x, y, z)とカメラ座標系(xc, yc, zc)の関係式は、次式(3a)となる。ここで次式(3b)に示す行列Dは、座標系の位置関係によって決まるパラメータであり、外部パラメータDと呼ぶ。   The relational expression between the reference world coordinate system (x, y, z) and the camera coordinate system (xc, yc, zc) is expressed by the following expression (3a). Here, the matrix D shown in the following equation (3b) is a parameter determined by the positional relationship of the coordinate system, and is called an external parameter D.

Figure 2013002820
Figure 2013002820

続いて、停車位置誤差X, Lと、停車角誤差θzとが0でない場合に適用すべき、パターンマット座標系からワールド座標系への変換行列Pは、次式(4a)となる。
具体的には、図15に示す停車角誤差θzを次式(4b)に与え、図6に示す停車位置誤差X, Lを次式(4c)及び次式(4d)に与えて、パターンマット座標系からワールド座標系への変換行列Pを得る。
但し、Rz, Tx, Tyはそれぞれz軸周りの回転行列、x軸方向の並進行列、y軸方向の並進行列である。
Subsequently, the transformation matrix P from the pattern mat coordinate system to the world coordinate system to be applied when the stop position errors X and L and the stop angle error θz are not 0 is expressed by the following equation (4a).
Specifically, the stop angle error θz shown in FIG. 15 is given to the following equation (4b), and the stop position errors X and L shown in FIG. 6 are given to the following equations (4c) and (4d) to obtain the pattern mat. A transformation matrix P from the coordinate system to the world coordinate system is obtained.
Here, Rz, Tx, and Ty are a rotation matrix around the z-axis, a parallel progression in the x-axis direction, and a parallel progression in the y-axis direction, respectively.

Figure 2013002820
Figure 2013002820

なお、式4、図6等に示す停車位置誤差X,L及び停車角誤差θzからパターンマット座標系からワールド座標系への変換行列Pの算出について、並進と回転の順序を逆にするなど算出の手順を変えても良い。その際は、式4のパターンマット座標系からワールド座標系への変換行列Pの算出手順においてもその変更に合わせて回転と並進行列の順序を適切に入れ替えれば同じ結果を得ることができる。
たとえば、車両特徴点FPとの水平距離Lの計測について、図6に示したように車両特徴点FPから車両軸に沿った距離を計測する代わりに、x軸との距離を計測した場合は、停車位置誤差X, Lを決定する際の俯瞰パラメータでy=0としていたのを、y=-Lとして、X,θzのパラメータ停車位置誤差X, Lを決定し、パターンマット座標系からワールド座標系への変換行列の算出は、x,y軸の並進→回転の順に変更すれば同じ結果を得ることができる。
The calculation of the transformation matrix P from the pattern mat coordinate system to the world coordinate system from the stop position errors X and L and the stop angle error θz shown in Equation 4, FIG. 6, etc. is performed by reversing the order of translation and rotation. The procedure may be changed. In that case, the same result can be obtained in the calculation procedure of the transformation matrix P from the pattern mat coordinate system to the world coordinate system of Expression 4 by appropriately changing the order of the rotation and the parallel progression according to the change.
For example, when measuring the horizontal distance L from the vehicle feature point FP, instead of measuring the distance from the vehicle feature point FP along the vehicle axis as shown in FIG. When y = 0 in the overhead parameter when determining the stop position error X, L, the parameter stop position error X, L of X, θz is determined as y = -L, and the world coordinates from the pattern mat coordinate system The same result can be obtained by changing the transformation matrix into the system by changing the order of translation and rotation of the x and y axes.

カメラキャリブレーションの手順は次の通りとなる。
図18を参照すると、まず、自車12を測定領域MAに停車する(ステップS11)。そして、自車12の車両後方に図2に示す市松模様の校正用パターンPP(パターンマット)を敷く。市松模様のパターンはひとつ50 [cm] 四方で、4 x 4 個程度となる。そして、外部パラメータDを算出するため、校正用パターンPPと自車12の後端との水平距離Lを人手により測定する(ステップS12)。続いて、カメラ10で校正用パターンPPが設置された測定領域MAを撮影し、第1の測定用画像IMaとする。さらに、この測定用画像IMaの広角歪みを補正する(ステップS13)。
The camera calibration procedure is as follows.
Referring to FIG. 18, first, the own vehicle 12 is stopped in the measurement area MA (step S11). Then, a checkered calibration pattern PP (pattern mat) shown in FIG. Each checkered pattern is 50 [cm] square, about 4 x 4 pieces. In order to calculate the external parameter D, the horizontal distance L between the calibration pattern PP and the rear end of the host vehicle 12 is measured manually (step S12). Subsequently, the measurement area MA in which the calibration pattern PP is installed is photographed by the camera 10 to obtain a first measurement image IMa. Further, the wide-angle distortion of the measurement image IMa is corrected (step S13).

そして、カメラ10のキャリブレーション(ステップS21,S22)に前後して、参照線RLを配置して撮影する(ステップS14)。参照線RLは、自車12の車両両側面で前後2箇所の位置を計測し、その2点を結んだ直線を車両後方へ延ばし、テープ、ロープなどで撮影可能なものとする。2本の参照線RLは、車両軸に対して左右対称なものとなる。
この測定用領域を撮影して第2の測定用画像IMbとし、広角歪みを補正する(ステップS15)。
Then, before and after the calibration of the camera 10 (steps S21 and S22), the reference line RL is arranged and photographed (step S14). The reference line RL measures two positions on the front and back sides of the vehicle 12 of the host vehicle 12, extends a straight line connecting the two points to the rear of the vehicle, and can be photographed with a tape, a rope, or the like. The two reference lines RL are symmetrical with respect to the vehicle axis.
This measurement area is photographed to form a second measurement image IMb, and wide-angle distortion is corrected (step S15).

図19を参照すると、まず、測定用画像IMaに基づいてカメラ10のキャリブレーションを実行する(ステップS21)。このキャリブレーションでは、まず、校正用パターンPPの格子点の位置を抽出する。各格子点の位置とそれに対応するパターンマット座標系(xp, yp)での座標値、およびカメラ10の内部パラメータAから、カメラ外部パラメータDを仮に算出する(ステップS22)。ここでは、停車誤差24の影響を排除しない状態で、外部パラメータDを仮に算出している。
そして、求まった仮の外部パラメータD (Rx, Ry, Rz, Tx, Ty, Tz)からパターンマット座標系(xp, yp)に対応する俯瞰画像BIを得ることができる(ステップS23)。
Referring to FIG. 19, first, the camera 10 is calibrated based on the measurement image IMa (step S21). In this calibration, first, the positions of the lattice points of the calibration pattern PP are extracted. A camera external parameter D is temporarily calculated from the position of each grid point and the corresponding coordinate value in the pattern mat coordinate system (xp, yp) and the internal parameter A of the camera 10 (step S22). Here, the external parameter D is temporarily calculated in a state where the influence of the stop error 24 is not excluded.
Then, an overhead image BI corresponding to the pattern mat coordinate system (xp, yp) can be obtained from the obtained temporary external parameters D (Rx, Ry, Rz, Tx, Ty, Tz) (step S23).

次に、参照線RLを撮像した測定用画像IMbに対して、ステップS22で求めた外部パラメータDを用いて、俯瞰画像処理を加える。俯瞰画像処理のパラメータは、パターンマット座標系(xp, yp)に対して、x=0、y=0、θx=-180度、θy=0度、 θz=0度、 zの位置は参照線RLが画面内に写るところとする。つまり、俯瞰画像用の仮想カメラを、パターンマット座標系(xp, yp)のxp-yp面に直行するのzp軸上に鉛直下向きに置く。これにより、車両後端中心の鉛直上方に鉛直下向きに仮想カメラを置いた画像が得られるようになる。   Next, overhead image processing is added to the measurement image IMb obtained by imaging the reference line RL using the external parameter D obtained in step S22. Overhead image processing parameters are x = 0, y = 0, θx = -180 degrees, θy = 0 degrees, θz = 0 degrees, and z position is the reference line with respect to the pattern mat coordinate system (xp, yp) It is assumed that RL appears in the screen. In other words, the virtual camera for the overhead image is placed vertically downward on the zp axis that is orthogonal to the xp-yp plane of the pattern mat coordinate system (xp, yp). As a result, an image obtained by placing the virtual camera vertically downward above the center of the rear end of the vehicle can be obtained.

そして、図17に示すように、俯瞰画像BIで、停車位置誤差X, Lと停車角誤差θzの値を変化させて、2本の参照線RLが俯瞰画像BI上で左右対称になるようにする(ステップS24)。俯瞰画像BIで2本の参照線RLが左右対称となるということは、自車12の中心軸を俯瞰画像座標系のu軸と平行で、俯瞰画像BIでの中心を通る直線とほぼ一致させたと判断できる。この参照線RLが左右対称となった際の停車位置誤差X,
Lと停車角誤差θzは、自車12の停車方向を基準とするワールド座標系(x, y, z)のy軸と、パターンマット座標系(xp, yp)のyp軸との俯瞰画像BI上での成す角で、自車12の校正用パターンPPに対する停車誤差24から導かれる値である。
Then, as shown in FIG. 17, the values of the stop position errors X and L and the stop angle error θz are changed in the overhead view image BI so that the two reference lines RL are bilaterally symmetrical on the overhead view image BI. (Step S24). The fact that the two reference lines RL are symmetrical in the overhead image BI means that the central axis of the host vehicle 12 is parallel to the u axis of the overhead image coordinate system and substantially coincides with a straight line passing through the center in the overhead image BI. Can be judged. Stop position error X, when this reference line RL is symmetrical
L and the stop angle error θz are overhead images BI of the y axis of the world coordinate system (x, y, z) and the yp axis of the pattern mat coordinate system (xp, yp) based on the stop direction of the host vehicle 12. The angle formed above is a value derived from the stopping error 24 with respect to the calibration pattern PP of the host vehicle 12.

次に、求まった停車位置誤差X, Lのうち垂直距離Xを-1倍した値と、先に測定しておいた水平距離Lと、停車角誤差θzとをパラメータとして、パターンマット座標系からワールド座標系への変換行列P(式(4))を算出する(ステップS25)。
このパターンマット座標系からワールド座標系への変換行列Pをパターンマット座標系(xp, yp)の格子点座標データに掛けると、各格子点のワールド座標系(x, y, z)での座標値が求まる(ステップS26)。
パターンマットの格子点の俯瞰画像BI上での位置データと、ワールド座標系で対応する格子点の座標値データとを用いて、再度キャリブレーションを行う(ステップS27)。ここで算出される外部パラメータDが求めるべき外部パラメータDとなる。このステップS27で算出される外部パラメータDは、パターンマット座標系からワールド座標系への変換行列Pに与えられた停車位角誤差θz等の値に応じて停車誤差24の影響がキャンセルせれ、一方、カメラ10の取付誤差の影響を補正できるパラメータ値となる。
Next, the value obtained by multiplying the vertical distance X by -1 among the obtained stop position errors X and L, the horizontal distance L measured in advance, and the stop angle error θz are parameters. A transformation matrix P (formula (4)) to the world coordinate system is calculated (step S25).
When the matrix P of the pattern mat coordinate system (xp, yp) is multiplied by the transformation matrix P from the pattern mat coordinate system to the world coordinate system, the coordinates of each grid point in the world coordinate system (x, y, z) A value is obtained (step S26).
Calibration is performed again using the position data of the lattice points of the pattern mat on the bird's-eye view image BI and the coordinate value data of the corresponding lattice points in the world coordinate system (step S27). The external parameter D calculated here is the external parameter D to be obtained. In the external parameter D calculated in step S27, the influence of the stop error 24 is canceled according to the value of the stop position angle error θz or the like given to the transformation matrix P from the pattern mat coordinate system to the world coordinate system. The parameter value can correct the influence of the mounting error of the camera 10.

このように、本実施例では、まず、カメラ10で、校正用パターンPP(第1の測定用画像IMa)及び、2本の参照線RLを撮影する(第2の測定用画像IMb),(図18)。校正用パターンPPと参照線RLは同時に撮影する必要はなく、複数回に分けて撮影しても良い。第1の測定用画像IMaから、カメラ10の外部パラメータDを仮に計算する。この外部パラメータDを基に、第2の測定用画像IMbに俯瞰処理を行う。俯瞰カメラ位置はy = 0, θx = -180度, θy = 0度, z位置は参照線RLが見える所とする。   In this way, in this embodiment, first, the camera 10 captures the calibration pattern PP (first measurement image IMa) and the two reference lines RL (second measurement image IMb), ( FIG. 18). The calibration pattern PP and the reference line RL need not be photographed simultaneously, and may be photographed in multiple steps. The external parameter D of the camera 10 is temporarily calculated from the first measurement image IMa. On the basis of the external parameter D, a bird's-eye view process is performed on the second measurement image IMb. The overhead camera position is y = 0, θx = −180 degrees, θy = 0 degrees, and the z position is where the reference line RL can be seen.

そして、俯瞰画像BIを対象として、x軸の停車位置誤差Xと、z軸まわりの回転のパラメータである停車角誤差θzとを増減し、2本の参照線RLが画面上で左右対称な位置に来るように調整する(図19ステップS23,S24)。
求まった停車角誤差θz と、停車位置誤差Xを−1倍した値と、校正用パターンPPの座標原点と車両特徴点FPの水平距離Lをパラメータとするパターンマット座標系からワールド座標系への変換行列P(式4)を算出し、その行列を用いて校正用パターンPPの座標を新たな座標系での値に変換する。
さらに、校正用パターンPPを写した画像を用い、変換した座標位置を適用し、再度カメラキャリブレーションを行い、外部パラメータDを算出する。これが求めるべき外部パラメータDとなる。
上述のように、本実施例では、校正用パターンPPを用いた最初のキャリブレーションでは外部パラメータDのうち、z、θx, θyのみを決定するのに使用し、yは、実測から与え、x、θzは2本の参照線RLから決定する手法とした。
Then, with respect to the overhead image BI, the stop position error X on the x axis and the stop angle error θz that is a rotation parameter around the z axis are increased or decreased, and the two reference lines RL are symmetrically positioned on the screen. (Steps S23 and S24 in FIG. 19).
From the pattern mat coordinate system to the world coordinate system using the obtained stop angle error θz, the value obtained by multiplying the stop position error X by −1, the coordinate origin of the calibration pattern PP, and the horizontal distance L of the vehicle feature point FP as parameters. A conversion matrix P (formula 4) is calculated, and the coordinates of the calibration pattern PP are converted into values in a new coordinate system using the matrix.
Furthermore, using the image in which the calibration pattern PP is copied, the converted coordinate position is applied, camera calibration is performed again, and the external parameter D is calculated. This is the external parameter D to be obtained.
As described above, in the present embodiment, in the first calibration using the calibration pattern PP, only z, θx, θy among the external parameters D are determined, y is given from actual measurement, x , Θz is determined from two reference lines RL.

・1.2 俯瞰画像で補正処理の効果
上述のように、本実施例では、停車誤差算出処理20が、俯瞰画像BI中の参照線RLの対称性に基づいて、停車誤差24(例えば、停車角誤差θz及び停車位置誤差X)を算出する。このため、停車誤差算出処理20は、俯瞰画像BIにて参照線RLが対称となるまで回転及び並進の画像処理を繰り返し、参照線RLが対称となった際にそれまでの回転量及び移動量を俯瞰画像BIの座標系での停車誤差24とすることができる。
このため、参照線RLを撮像した画像から、画像処理により自動的に停車誤差24を算出することができる。そして、校正用パターンPPに対する停車誤差24の算出を他の様々な誤差等の影響から独立させて算出することができる。
このように、校正用パターンPPを精密に配置する必要があった問題に対して、本実施例では、校正用パターンPPを正確に配置しなくとも、精度良くキャリブレーションを実施することができる。校正用パターンPPを正確に配置しなくとも良いという利点は、すなわち、自車12を予め定められた測定領域MAに正確に停車しなくても良いという利点と等しい。
そして、車両の位置を正確に計測する、もしくは車両を正確に所定の位置に配置する必要があった問題に対して、本実施例では、車両の中心軸に対称な参照線RLの測定だけで済む。
1.2 Effects of Correction Processing on Overhead Image As described above, in this embodiment, the stop error calculation processing 20 is based on the symmetry of the reference line RL in the overhead image BI, and the stop error 24 (for example, the stop angle error). θz and stop position error X) are calculated. For this reason, the stop error calculation processing 20 repeats the rotation and translation image processing until the reference line RL becomes symmetric in the overhead image BI, and when the reference line RL becomes symmetric, the rotation amount and the movement amount up to that time Can be set as the stop error 24 in the coordinate system of the overhead image BI.
For this reason, the stop error 24 can be automatically calculated from the image obtained by capturing the reference line RL by image processing. Then, the stop error 24 for the calibration pattern PP can be calculated independently from the influence of various other errors.
As described above, in the present embodiment, the calibration can be performed with high accuracy without accurately arranging the calibration pattern PP in order to solve the problem that the calibration pattern PP needs to be precisely arranged. The advantage that the calibration pattern PP does not need to be accurately arranged is equal to the advantage that the own vehicle 12 does not need to be accurately stopped in the predetermined measurement area MA.
Then, in the present embodiment, with respect to the problem of accurately measuring the position of the vehicle or arranging the vehicle at a predetermined position, in this embodiment, only the reference line RL that is symmetric with respect to the center axis of the vehicle is measured. That's it.

<1.3 対称性の自動算出>
次に、参照線RLの対称性を画像処理により自動的に評価する手法を説明する。この例では、前記停車誤差算出処理20が、直線の抽出、重ね合わせ、この重ね合わせた形状についてマッチング度を算出する等の情報処理により、参照線RLの対称性を自動的に判定する。
停車誤差算出処理20は、具体的には、まず、前記俯瞰画像BI中の直線を抽出する(抽出処理)。続いて、俯瞰画像BI中の前記カメラ10の撮像方向を中心として前記抽出した最長2本の前記直線を反転させて重ね合わせる(重ね合わせ処理)。さらに、前記俯瞰画像BIを繰り返し回転させてマッチング度を繰り返し算出する(算出処理)。この算出したマッチング度は回転角と対応させつつ一時的に記憶する。そして前記マッチング度が最大となった前記回転角に基づいて前記停車誤差24を算出する(比較処理)。
これにより、参照線RLを撮像した画像から、x軸停車位置誤差Xと、z 軸まわりの回転のパラメータθzを算出する。
<1.3 Automatic calculation of symmetry>
Next, a method for automatically evaluating the symmetry of the reference line RL by image processing will be described. In this example, the stopping error calculation process 20 automatically determines the symmetry of the reference line RL by information processing such as straight line extraction, superposition, and calculation of the matching degree for the superposed shape.
Specifically, the stop error calculation process 20 first extracts a straight line in the overhead image BI (extraction process). Subsequently, the extracted longest two straight lines with the imaging direction of the camera 10 in the bird's-eye view image BI as the center are inverted and superimposed (superposition processing). Further, the degree of matching is repeatedly calculated by repeatedly rotating the overhead image BI (calculation processing). The calculated matching degree is temporarily stored while corresponding to the rotation angle. Then, the stopping error 24 is calculated based on the rotation angle at which the matching degree is maximized (comparison process).
Thus, the x-axis stop position error X and the rotation parameter θz around the z-axis are calculated from the image obtained by capturing the reference line RL.

この停車誤差算出処理20が有する抽出処理、重ね合わせ処理、算出処理及び比較処理は、本実施例を方法としてとらえる際には、停車誤差算出工程が有する工程となる。すなわち、停車誤差算出工程は、抽出処理、重ね合わせ処理、算出処理及び比較処理を備えると良い。この例では、停車誤差算出処理20についての開示は、停車誤差算出工程についての開示ともなる。   The extraction process, the overlay process, the calculation process, and the comparison process included in the stop error calculation process 20 are steps included in the stop error calculation process when the present embodiment is regarded as a method. That is, the stop error calculation step may include an extraction process, an overlay process, a calculation process, and a comparison process. In this example, the disclosure about the stop error calculation process 20 is also the disclosure about the stop error calculation step.

図20を参照すると、この停車誤差算出処理20による画像処理の手順は次の通りとなる。
図20(A)に示すように、俯瞰画像BIに2本の参照線RLが撮影されており、図中左の参照線RLaと右の参照線RLbとがある。停車誤差算出処理20の抽出処理は、画像を2値化するなどして、この直線を抽出する。直線の抽出は、例えば俯瞰画像BIをハフ変換すると直線である参照線RLを探し出すことができる。ハフ変換は、画像中から直線を探索するよく知られた画像処理の手法である。直線を抽出したら、参照線RL付近以外の領域を以降の画像処理から除外すると良い。
Referring to FIG. 20, the procedure of image processing by this stop error calculation process 20 is as follows.
As shown in FIG. 20A, two reference lines RL are taken in the overhead image BI, and there are a left reference line RLa and a right reference line RLb in the figure. The extraction process of the stop error calculation process 20 extracts this straight line by binarizing the image. For example, when the overhead image BI is Hough transformed, the reference line RL that is a straight line can be found. The Hough transform is a well-known image processing technique for searching for a straight line from an image. If a straight line is extracted, it is preferable to exclude regions other than the vicinity of the reference line RL from the subsequent image processing.

そして、重ね合わせ処理は、俯瞰画像BI中の前記カメラ10の撮像方向を中心として前記抽出した最長2本の前記直線を反転させて重ね合わせる。例えば、図中左右方向の画像中央の画像中心線CLを基準としてで俯瞰画像BIを二分して一方を左右反転させた後に重ね合わせる。すると、図20(B)に示すように、左右の参照線RLa,RLbが近づく。   In the superimposition process, the extracted two longest straight lines are reversed and superimposed with the imaging direction of the camera 10 in the overhead image BI as the center. For example, the bird's-eye view image BI is divided into two parts with the image center line CL at the center of the image in the left-right direction in the figure as a reference, and one of them is reversed left and right and then superimposed. Then, as shown in FIG. 20B, the left and right reference lines RLa and RLb approach.

算出処理は、この状態で、マッチング度を算出する。マッチング度は、左の参照線RLaと右の参照線RLbとがどの程度一致しているかである。
停車誤差算出処理20は、このマッチング度の算出を繰り返す。具体的には、俯瞰画像BIを回転又は並進させて、再度、直線を抽出し、重ね合わせをし、マッチング度を算出する。停車誤差算出処理20は、予め定められた条件が満たされるまで回転又は並進させてマッチング度を算出し、このマッチング度が最大となるパラメータ(停車誤差24に相当)を探す。
In this state, the calculation process calculates the matching degree. The degree of matching is how much the left reference line RLa and the right reference line RLb match.
The stop error calculation process 20 repeats the calculation of the matching degree. Specifically, the bird's-eye view image BI is rotated or translated, straight lines are extracted again, superimposed, and the matching degree is calculated. The stop error calculation processing 20 calculates a matching degree by rotating or translating until a predetermined condition is satisfied, and searches for a parameter (corresponding to the stop error 24) that maximizes the matching degree.

予め定められた条件が満たされるまで回転又は並進が終了すると、比較処理は、繰り返し算出したマッチング度のうち当該マッチング度が最大となった前記回転角に基づいて前記停車誤差24を算出する。2本の参照線RLが左右対称な位置にくるとき、重なり度合い=マッチング度が最大になる。   When the rotation or translation is completed until a predetermined condition is satisfied, the comparison process calculates the stop error 24 based on the rotation angle at which the matching degree is maximized among the repeatedly calculated matching degrees. When the two reference lines RL are positioned symmetrically, the overlapping degree = the matching degree is maximized.

また、マッチング度は、様々な手法で算出できる。本実施例では、例えば相関係数に基づいて判定する手法を適用することができる。マッチング度を相関係数として表すと、理想的な相関係数の最大値は1となるが、2本の参照線RL、地面模様の微妙な違い、ノイズ等の影響を受け、実際には1より小さな値となる。   The matching degree can be calculated by various methods. In the present embodiment, for example, a determination method based on a correlation coefficient can be applied. When the degree of matching is expressed as a correlation coefficient, the maximum value of the ideal correlation coefficient is 1, but it is actually 1 due to the influence of two reference lines RL, subtle differences in the ground pattern, noise, and the like. A smaller value.

この相関係数は、例えば、図20及び図21に示すように、俯瞰画像BI中に直線形状に応じたウインドウWD(緑枠)を与え、このウインドウWD内の参照線RLを構成する画素値の数に基づいて算出することができる。
ウインドウWDの大きさが、Mt x Ntピクセルであるとき、相関係数Rは、次式(5)で表される。
但し、左右画像の画素値をそれぞれT(i,j), I(i,j)とし、i,jはウインドウWD内での座標値(俯瞰画像BIのuvと平行な座標値)である。また、平均値I, Tを次式(6a, 6b)とする。
For example, as shown in FIGS. 20 and 21, the correlation coefficient gives a window WD (green frame) corresponding to a straight line shape in the overhead view image BI, and pixel values constituting the reference line RL in the window WD. Can be calculated based on the number of.
When the size of the window WD is Mt × Nt pixels, the correlation coefficient R is expressed by the following equation (5).
However, the pixel values of the left and right images are T (i, j) and I (i, j), respectively, and i and j are coordinate values in the window WD (coordinate values parallel to uv of the overhead image BI). The average values I and T are defined by the following formulas (6a and 6b).

Figure 2013002820
Figure 2013002820

図20に示す例では、参照線RL同士の重なりがないため、相関係数は最小になり、図21の場合だと、重なりが最大となり、相関係数が最大となる。   In the example shown in FIG. 20, since there is no overlap between the reference lines RL, the correlation coefficient is minimum, and in the case of FIG. 21, the overlap is maximum and the correlation coefficient is maximum.

・1.3 対称性の自動算出の効果
上述したように対称性を自動算出する例では、停車誤差算出処理20が、重ね合わせやマッチング度(例えば相関係数)の算出により自動的に停車誤差24に相当する回転角及び並進量を求めるため、測定負荷を大幅に軽減することができる。
また、この重ね合わせた際のマッチング度を比較する手法では、参照線RLが平行でも平行でなくても同一の精度で処理することができる。
参照線RLを平行に置くためには、平行になっていることが保証されている場所を使うか、平行であることを別途の測定により確認する必要があるが、それでは簡易なキャリブレーションを実現できなくなってしまう。この点、本実施例では、今回は平行条件を満たさなくとも一定の精度を確保することができるため、車種に限定されず精度を確保することができる。
1.3 Effect of automatic symmetry calculation As described above, in the example in which the symmetry is automatically calculated, the stop error calculation process 20 automatically sets the stop error 24 to the stop error 24 by calculating the overlap or the degree of matching (for example, the correlation coefficient). Since the corresponding rotation angle and translation amount are obtained, the measurement load can be greatly reduced.
In addition, in the method of comparing the matching degrees at the time of overlapping, it is possible to process with the same accuracy whether the reference line RL is parallel or not parallel.
In order to place the reference line RL in parallel, it is necessary to use a place that is guaranteed to be parallel, or to confirm that it is parallel by a separate measurement, but this makes a simple calibration possible. It becomes impossible. In this respect, in this embodiment, since a certain accuracy can be ensured this time without satisfying the parallel condition, the accuracy can be ensured without being limited to the vehicle type.

10 カメラ
12 自車
14 画像処理部
16 外周形状
16a、16b フェンダー
18 撮像処理
20 停車誤差算出処理
22 外部パラメータ算出処理
24 停車誤差
MA 測定領域
IM、IMa、IMb 測定用画像
RL、RLa、RLb 参照線
PP 校正用パターン
BA 俯瞰領域
BI 俯瞰画像
FP 車両特徴点
OP パターン座標原点
SL 停止基準線
zc 光軸
f 焦点位置
L、X 停車位置誤差
θz 停車角誤差
θc カメラ設置ズレ角
WD ウインドウ
CL 画像中心線
DESCRIPTION OF SYMBOLS 10 Camera 12 Own vehicle 14 Image processing part 16 Outer periphery shape 16a, 16b Fender 18 Imaging process 20 Stop error calculation process 22 External parameter calculation process 24 Stop error MA Measurement area | region IM, IMa, IMb Measurement image RL, RLa, RLb Reference line PP Calibration pattern BA Overhead region BI Overhead image FP Vehicle feature point OP Pattern coordinate origin SL Stop reference line
zc optical axis
f Focus position
L, X Stop position error θz Stop angle error θc Camera installation deviation angle WD Window CL Image center line

Claims (5)

車外環境を撮像するカメラが取付られた自車を予め定められた測定領域にて所定方向に停車させる停車工程と、
前記自車の形状に対応した2点と交わる線を、参照線として、前記カメラの撮像範囲内となる前記測定領域に少なくとも2本配置する参照線配置工程と、
前記測定領域内で前記2本の前記参照線の間に予め定められたパターン形状を有する校正用パターンを設置すると共に当該校正用パターンと前記参照線とを撮影することで測定用画像を生成する撮像工程と、
前記測定用画像に基づいて前記カメラのキャリブレーションを実行する画像処理工程とを備え、
この画像処理工程は、
前記2本の前記参照線に基づいて前記自車の停車位置と前記パターン形状との座標関係を停車誤差として算出する工程と、
当該停車誤差をキャンセルした状態で前記パターン形状に基づいて前記カメラの取付姿勢に対応する外部パラメータを算出する工程と、
を備えたことを特徴とするカメラキャリブレーション方法。
A stopping step of stopping the vehicle in which a camera for imaging an environment outside the vehicle is attached in a predetermined direction in a predetermined measurement area;
A reference line arrangement step of arranging at least two lines in the measurement area within the imaging range of the camera, with reference to a line intersecting two points corresponding to the shape of the host vehicle;
A calibration image having a predetermined pattern shape is set between the two reference lines in the measurement area, and a measurement image is generated by photographing the calibration pattern and the reference line. Imaging process;
An image processing step of performing calibration of the camera based on the measurement image,
This image processing step
Calculating a coordinate relationship between the stop position of the host vehicle and the pattern shape as a stop error based on the two reference lines;
Calculating an external parameter corresponding to the mounting posture of the camera based on the pattern shape in a state where the stopping error is canceled;
A camera calibration method characterized by comprising:
車外環境を撮像するカメラを有する自車が所定方向に停車する測定領域と、
前記カメラで撮影する測定用画像に基づいて前記カメラのキャリブレーションを実行する画像処理部とを備え、
前記測定領域が、
前記自車の形状に対応した2点と交わる線を含み、当該カメラの撮像範囲内となる前記測定領域に少なくとも2本配置される参照線と、
前記測定領域内で前記2本の前記参照線の間に予め定められたパターン形状を有する校正用パターンとを備え、
前記画像処理部が、
前記カメラで前記校正用パターン及び前記参照線が配置される測定領域を撮影することで前記測定用画像を生成する撮像処理と、
前記2本の前記参照線に基づいて前記自車の停車位置と前記パターン形状との座標関係を停車誤差として算出する停車誤差算出処理と
当該停車誤差をキャンセルした状態で前記パターン形状に基づいて前記カメラの取付姿勢に対応する外部パラメータを算出する外部パラメータ算出処理と、
を備えたことを特徴とするカメラキャリブレーション装置。
A measurement region in which the own vehicle having a camera that images the environment outside the vehicle stops in a predetermined direction;
An image processing unit that executes calibration of the camera based on a measurement image captured by the camera;
The measurement area is
A reference line that includes a line that intersects with two points corresponding to the shape of the host vehicle, and is arranged in at least two of the measurement areas within the imaging range of the camera;
A calibration pattern having a predetermined pattern shape between the two reference lines in the measurement region,
The image processing unit
An imaging process for generating the measurement image by imaging a measurement region in which the calibration pattern and the reference line are arranged with the camera;
Based on the two reference lines, a stop error calculation process for calculating a coordinate relationship between the stop position of the host vehicle and the pattern shape as a stop error; and An external parameter calculation process for calculating an external parameter corresponding to the mounting orientation of the camera;
A camera calibration device comprising:
前記停車誤差算出処理は、
前記測定用画像中の前記カメラの撮像方向を中心とした前記少なくとも2本の前記参照線の対称性に基づいて前記停車誤差を算出する処理、
を備えたことを特徴とする請求項2記載のカメラキャリブレーション装置。
The stop error calculation process includes:
A process of calculating the stopping error based on symmetry of the at least two reference lines around the imaging direction of the camera in the measurement image;
The camera calibration apparatus according to claim 2, further comprising:
前記停車誤差算出処理は、
前記測定用画像を俯瞰画像に変換すると共に、当該俯瞰画像中の前記少なくとも2本の前記参照線の対称性に基づいて前記停車誤差を算出する処理、
を備えたことを特徴とする請求項2記載のカメラキャリブレーション装置。
The stop error calculation process includes:
A process of converting the measurement image into a bird's-eye view image and calculating the stop error based on symmetry of the at least two reference lines in the bird's-eye view image;
The camera calibration apparatus according to claim 2, further comprising:
前記停車誤差算出処理は、
前記俯瞰画像中の直線を抽出する処理と、
前記俯瞰画像中の前記カメラの撮像方向を中心として前記抽出した最長2本の前記直線を反転させて重ね合わせる処理と、
前記俯瞰画像を繰り返し回転させてマッチング度を繰り返し算出する処理と、
前記マッチング度が最大となった回転角に基づいて前記停車誤差を算出する処理と、
を備えたことを特徴とする請求項4記載のカメラキャリブレーション装置。
The stop error calculation process includes:
A process of extracting a straight line in the overhead view image;
A process of inverting and superimposing the extracted two longest straight lines with the imaging direction of the camera in the overhead image as the center;
Processing for repeatedly calculating the matching degree by repeatedly rotating the overhead view image;
A process of calculating the stopping error based on the rotation angle at which the matching degree is maximized;
The camera calibration device according to claim 4, further comprising:
JP2011130745A 2011-06-11 2011-06-11 Camera calibration device Active JP5811327B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011130745A JP5811327B2 (en) 2011-06-11 2011-06-11 Camera calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011130745A JP5811327B2 (en) 2011-06-11 2011-06-11 Camera calibration device

Publications (2)

Publication Number Publication Date
JP2013002820A true JP2013002820A (en) 2013-01-07
JP5811327B2 JP5811327B2 (en) 2015-11-11

Family

ID=47671564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011130745A Active JP5811327B2 (en) 2011-06-11 2011-06-11 Camera calibration device

Country Status (1)

Country Link
JP (1) JP5811327B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014168974A1 (en) * 2013-04-08 2014-10-16 Omnivision Technologies, Inc. Systems and methods for calibration of a 360 degree camera system
EP3016370A4 (en) * 2013-08-09 2017-01-04 Denso Corporation Image processing device, and image processing method
CN109242956A (en) * 2018-08-19 2019-01-18 雅派朗迪(北京)科技发展股份有限公司 3D body scans digital modeling vehicle
WO2019082700A1 (en) * 2017-10-26 2019-05-02 パイオニア株式会社 Control device, control method, program, and storage medium
JP2019074398A (en) * 2017-10-16 2019-05-16 独立行政法人自動車技術総合機構 Vehicle periphery recognition sensor inspection system and vehicle periphery recognition sensor inspection method
CN111524192A (en) * 2020-04-20 2020-08-11 北京百度网讯科技有限公司 Calibration method, device and system for external parameters of vehicle-mounted camera and storage medium
CN111784783A (en) * 2020-08-14 2020-10-16 支付宝(杭州)信息技术有限公司 System and method for calibrating external parameters of camera
WO2021044549A1 (en) * 2019-09-04 2021-03-11 日本電気株式会社 Position estimation method, position estimation system, and position estimation device
JP2021167819A (en) * 2017-07-25 2021-10-21 ウェイモ エルエルシー Determination of yaw error from map data, laser and camera
JP2022016902A (en) * 2020-07-13 2022-01-25 三菱ロジスネクスト株式会社 Human detection apparatus, industrial vehicle, and human detection method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004004043A (en) * 2002-04-22 2004-01-08 Matsushita Electric Ind Co Ltd Camera corrector
JP2005016979A (en) * 2003-06-23 2005-01-20 Matsushita Electric Ind Co Ltd Vehicle-mounted camera calibration tool and vehicle-mounted camera calibrating method
JP2008193188A (en) * 2007-02-01 2008-08-21 Sanyo Electric Co Ltd Camera calibration device and method, and vehicle
JP2009230235A (en) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd Image processor and method, driving support system, and vehicle
JP2010136082A (en) * 2008-12-04 2010-06-17 Alpine Electronics Inc Apparatus for monitoring vehicle surroundings, and method of determining position and attitude of camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004004043A (en) * 2002-04-22 2004-01-08 Matsushita Electric Ind Co Ltd Camera corrector
JP2005016979A (en) * 2003-06-23 2005-01-20 Matsushita Electric Ind Co Ltd Vehicle-mounted camera calibration tool and vehicle-mounted camera calibrating method
JP2008193188A (en) * 2007-02-01 2008-08-21 Sanyo Electric Co Ltd Camera calibration device and method, and vehicle
JP2009230235A (en) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd Image processor and method, driving support system, and vehicle
JP2010136082A (en) * 2008-12-04 2010-06-17 Alpine Electronics Inc Apparatus for monitoring vehicle surroundings, and method of determining position and attitude of camera

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014168974A1 (en) * 2013-04-08 2014-10-16 Omnivision Technologies, Inc. Systems and methods for calibration of a 360 degree camera system
EP3016370A4 (en) * 2013-08-09 2017-01-04 Denso Corporation Image processing device, and image processing method
US10315570B2 (en) 2013-08-09 2019-06-11 Denso Corporation Image processing apparatus and image processing method
US11675084B2 (en) 2017-07-25 2023-06-13 Waymo Llc Determining yaw error from map data, lasers, and cameras
JP2021167819A (en) * 2017-07-25 2021-10-21 ウェイモ エルエルシー Determination of yaw error from map data, laser and camera
JP7301909B2 (en) 2017-07-25 2023-07-03 ウェイモ エルエルシー Determination of yaw error from map data, lasers, and cameras
JP7166582B2 (en) 2017-10-16 2022-11-08 独立行政法人自動車技術総合機構 Vehicle surrounding recognition sensor inspection system, vehicle surrounding recognition sensor inspection method
JP2019074398A (en) * 2017-10-16 2019-05-16 独立行政法人自動車技術総合機構 Vehicle periphery recognition sensor inspection system and vehicle periphery recognition sensor inspection method
WO2019082700A1 (en) * 2017-10-26 2019-05-02 パイオニア株式会社 Control device, control method, program, and storage medium
JPWO2019082700A1 (en) * 2017-10-26 2020-11-19 パイオニア株式会社 Control devices, control methods, programs and storage media
US11796657B2 (en) 2017-10-26 2023-10-24 Pioneer Corporation Control device, control method, program, and storage medium
CN109242956A (en) * 2018-08-19 2019-01-18 雅派朗迪(北京)科技发展股份有限公司 3D body scans digital modeling vehicle
CN109242956B (en) * 2018-08-19 2023-05-23 雅派朗迪(北京)科技发展股份有限公司 3D human body scanning digital modeling vehicle
JPWO2021044549A1 (en) * 2019-09-04 2021-03-11
JP7251638B2 (en) 2019-09-04 2023-04-04 日本電気株式会社 Position estimation method, position estimation system, and position estimation device
WO2021044549A1 (en) * 2019-09-04 2021-03-11 日本電気株式会社 Position estimation method, position estimation system, and position estimation device
CN111524192B (en) * 2020-04-20 2023-10-03 阿波罗智能技术(北京)有限公司 Calibration method, device and system for external parameters of vehicle-mounted camera and storage medium
CN111524192A (en) * 2020-04-20 2020-08-11 北京百度网讯科技有限公司 Calibration method, device and system for external parameters of vehicle-mounted camera and storage medium
JP7149990B2 (en) 2020-07-13 2022-10-07 三菱ロジスネクスト株式会社 HUMAN DETECTION DEVICE, INDUSTRIAL VEHICLE, AND HUMAN DETECTION METHOD
JP2022016902A (en) * 2020-07-13 2022-01-25 三菱ロジスネクスト株式会社 Human detection apparatus, industrial vehicle, and human detection method
CN111784783A (en) * 2020-08-14 2020-10-16 支付宝(杭州)信息技术有限公司 System and method for calibrating external parameters of camera

Also Published As

Publication number Publication date
JP5811327B2 (en) 2015-11-11

Similar Documents

Publication Publication Date Title
JP5811327B2 (en) Camera calibration device
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
US8452568B2 (en) Method for calibrating cameras installed on vehicle
WO2017135081A1 (en) Vehicle-mounted camera calibration system
US8872920B2 (en) Camera calibration apparatus
WO2014034064A1 (en) Image processing device and storage medium
US20130002861A1 (en) Camera distance measurement device
JP6602982B2 (en) In-vehicle camera, in-vehicle camera adjustment method, in-vehicle camera system
JP6277652B2 (en) Vehicle peripheral image display device and camera adjustment method
KR20120126016A (en) The surroundview system camera automatic calibration-only extrinsic parameters
KR101583663B1 (en) Method for generating calibration indicator of camera for vehicle
CN102798456A (en) Method, device and system for measuring working range of engineering mechanical arm frame system
JP6186431B2 (en) Calibration apparatus, calibration system, and imaging apparatus
JP4454257B2 (en) In-vehicle camera calibration jig and in-vehicle camera calibration method
KR101597163B1 (en) Method and camera apparatus for calibration of stereo camera
JP4873272B2 (en) Camera calibration device
TWI424259B (en) Camera calibration method
JP2009168461A (en) Camera calibration device
JP4905812B2 (en) Camera calibration device
JP5964093B2 (en) Vehicle size measuring device, vehicle size measuring method, and program
CN114814865A (en) Method and system for vehicle ranging, vehicle and program product
JP6890293B2 (en) Camera calibration device, camera calibration system, camera calibration method and program
JP2021099722A (en) Calibration device, imaging apparatus, movable body, and calibration method
JP2015020551A (en) Jig for installing, in vehicle, calibration target for stereo camera provided in vehicle, and calibration system using the same
JP5406898B2 (en) Car camera calibration device, car camera calibration method, system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150901

R151 Written notification of patent or utility model registration

Ref document number: 5811327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151