JP4803449B2 - On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method - Google Patents

On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method Download PDF

Info

Publication number
JP4803449B2
JP4803449B2 JP2006311636A JP2006311636A JP4803449B2 JP 4803449 B2 JP4803449 B2 JP 4803449B2 JP 2006311636 A JP2006311636 A JP 2006311636A JP 2006311636 A JP2006311636 A JP 2006311636A JP 4803449 B2 JP4803449 B2 JP 4803449B2
Authority
JP
Japan
Prior art keywords
calibration
camera
vehicle
calibration point
vehicle camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006311636A
Other languages
Japanese (ja)
Other versions
JP2008131177A (en
Inventor
俊明 柿並
宏行 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2006311636A priority Critical patent/JP4803449B2/en
Publication of JP2008131177A publication Critical patent/JP2008131177A/en
Application granted granted Critical
Publication of JP4803449B2 publication Critical patent/JP4803449B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両に取り付けられた車載カメラを校正する車載カメラの校正装置及び校正方法に関する。   The present invention relates to an in-vehicle camera calibration apparatus and a calibration method for calibrating an in-vehicle camera attached to a vehicle.

近年、車両の運転者が車両の側方や後方などの情景を車内のモニタ装置を介して視認できるようにカメラが搭載された車両が増化している。さらに、このカメラの撮影画像を利用して画像処理などを行い、駐車などの運転を支援する装置も開発されている。特に、このような画像処理を伴う画像を撮影するカメラの車両への搭載に際しては、比較的高い組み付け精度が要求される。そこで、車両へのカメラの搭載精度を向上するための種々の取り組みがなされている。   In recent years, an increasing number of vehicles are equipped with cameras so that the driver of the vehicle can visually recognize a scene such as the side or the rear of the vehicle via a monitor device in the vehicle. Furthermore, an apparatus that supports driving such as parking by performing image processing using a photographed image of the camera has been developed. In particular, when a camera that captures an image with such image processing is mounted on a vehicle, a relatively high assembly accuracy is required. Accordingly, various efforts have been made to improve the accuracy of mounting the camera on the vehicle.

下記に出典を示す特許文献1には、そのようなカメラを校正する技術が記載されている。これは、調整ボタンの操作により、ディスプレイ画面上で、カメラにより撮影された校正指標と、画面上に重畳された調整用ウィンドゥとを一致させて校正を行うものである。調整用ウィンドゥは、三次元直交座標の3軸に対応するパン・チルト・ロールに対応して3種設けられる。順次、これらの調整用ウィンドゥ内に校正指標が収まるように調整ボタンを操作することによって、カメラパラメータが変更される。3軸に対する調整が完了すると、変更されたカメラパラメータが、EEPROMに書き込まれる。   Japanese Patent Application Laid-Open Publication No. 2005-151867, which is cited below, describes a technique for calibrating such a camera. This is to perform calibration by matching the calibration index photographed by the camera with the adjustment window superimposed on the screen on the display screen by operating the adjustment button. There are three types of adjustment windows corresponding to pan, tilt, and roll corresponding to three axes of three-dimensional orthogonal coordinates. Sequentially, the camera parameters are changed by operating the adjustment buttons so that the calibration index is within these adjustment windows. When the adjustment for the three axes is completed, the changed camera parameters are written to the EEPROM.

特開2001−245326号公報(第16、34〜44段落、図3、図6等参照)Japanese Patent Laid-Open No. 2001-245326 (see paragraphs 16, 34-44, FIG. 3, FIG. 6, etc.)

特許文献1に記載された技術は、簡単な構成でカメラの校正が可能な優れたものである。しかし、ディスプレイ画面を見ながら手動で調整ボタンを操作する必要があるため、校正に時間を要する。また、カメラの回転に対応して3軸に対する調整が必要なため、校正に時間を要する。また、手動による校正では作業者によって校正精度が安定せず、校正が不十分な製品が後工程に送られる可能性もある。   The technique described in Patent Document 1 is an excellent technique that enables camera calibration with a simple configuration. However, since it is necessary to manually operate the adjustment buttons while looking at the display screen, it takes time for calibration. In addition, since adjustment with respect to the three axes is necessary corresponding to the rotation of the camera, time is required for calibration. In addition, in manual calibration, the calibration accuracy is not stabilized by the operator, and a product with insufficient calibration may be sent to a subsequent process.

本願発明は、このような課題に鑑みて創案されたもので、簡単な構成で、短時間で精度良く車載カメラの校正が可能な車載カメラの校正装置を提供することを目的とする。   The present invention has been made in view of such a problem, and an object thereof is to provide an in-vehicle camera calibration device capable of calibrating an in-vehicle camera with a simple configuration and in a short time with high accuracy.

上記目的を達成するため、車両に取り付けられた車載カメラを校正するための本発明に係る車載カメラの校正装置は以下の構成、
少なくとも異なる2箇所に配置された校正指標を視界内に含む前記車載カメラの撮影画像を受け取る画像受け取り部と、
前記撮影画像において前記校正指標の中のそれぞれの校正点を特定する校正点特定部と、
基準座標系における前記校正指標の前記校正点の座標に基づいて、前記車載カメラの光学中心から見た前記校正点及び前記校正点を通る直線に関するベクトルを示す第1行列を演算する第1行列演算部と、
前記校正点特定部により特定された前記撮影画像上の前記校正点の座標に基づいて、前記車載カメラの光学中心から見た当該校正点及び当該校正点を通る直線に関するベクトルを示す第2行列を演算する第2行列演算部と、
前記第1行列及び前記第2行列に基づいて、前記基準座標系における前記車載カメラの回転状態を示す回転行列を演算する第3行列演算部と、を有する。
In order to achieve the above object, an in-vehicle camera calibration device according to the present invention for calibrating an in-vehicle camera attached to a vehicle has the following configuration,
An image receiving unit that receives a photographed image of the in-vehicle camera that includes at least two calibration indices arranged in different places in the field of view;
A calibration point specifying unit for specifying each calibration point in the calibration index in the captured image;
A first matrix calculation for calculating a first matrix indicating a vector related to the calibration point viewed from the optical center of the vehicle-mounted camera and a straight line passing through the calibration point based on the coordinates of the calibration point of the calibration index in a reference coordinate system And
Based on the coordinates of the calibration point on the captured image identified by the calibration point identifying unit, a second matrix indicating a vector related to the calibration point viewed from the optical center of the in-vehicle camera and a straight line passing through the calibration point. A second matrix calculation unit for calculating;
And a third matrix calculation unit that calculates a rotation matrix indicating a rotation state of the in-vehicle camera in the reference coordinate system based on the first matrix and the second matrix.

基準座標系(一般にワールド座標系)におけるカメラの回転状態を表す回転行列は、回転前後の2つの画像から求めることが可能である。しかし、ある回転状態で車両に取り付けられた車載カメラでは、回転状態が固定されているので、回転前後の画像を扱うことができない。これに対し、本構成では、基準座標系における校正指標の校正点の座標に基づいて第1行列が演算される。この第1行列は、車載カメラが回転を伴わず並進のみをした場合のカメラ状態を示すものである。一方、第2行列は、車両に取り付けられ、何らかの回転状態を有する車載カメラのカメラ状態を示すものである。第1行列を回転前、第2行列を回転後と考えれば、第1行列と第2行列とに基づいて、基準座標系における車載カメラの回転状態を示す回転行列を得ることができる。
第1行列は、校正指標の配置から幾何学的計算によって求めることが可能である。また、第2行列は、車載カメラの撮影画像を画像処理することによって求めることが可能である。従って、本構成によれば、ディスプレイ画面を見ながら手動で調整ボタンを操作することなく、自動的に車載カメラの回転状態を示す回転行列を得ることができる。その結果、簡単な構成で、短時間で精度良く車載カメラの校正が可能な車載カメラの校正装置を提供することができる。
A rotation matrix representing the rotation state of the camera in a reference coordinate system (generally the world coordinate system) can be obtained from two images before and after the rotation. However, an in-vehicle camera attached to a vehicle in a certain rotation state cannot handle images before and after the rotation because the rotation state is fixed. On the other hand, in this configuration, the first matrix is calculated based on the coordinates of the calibration point of the calibration index in the reference coordinate system. This first matrix shows the camera state when the in-vehicle camera only translates without rotation. On the other hand, the second matrix indicates the camera state of the in-vehicle camera attached to the vehicle and having some rotation state. Assuming that the first matrix is before rotation and the second matrix is after rotation, a rotation matrix indicating the rotation state of the in-vehicle camera in the reference coordinate system can be obtained based on the first matrix and the second matrix.
The first matrix can be obtained by geometric calculation from the arrangement of calibration indices. Further, the second matrix can be obtained by performing image processing on a captured image of the in-vehicle camera. Therefore, according to this configuration, it is possible to automatically obtain a rotation matrix indicating the rotation state of the in-vehicle camera without manually operating the adjustment button while looking at the display screen. As a result, it is possible to provide an in-vehicle camera calibration apparatus capable of calibrating the in-vehicle camera with a simple configuration and in a short time with high accuracy.

本発明に係る車載カメラの校正装置は、さらに、前記回転行列を、三次元空間上で互いに直交する3軸に対する3つの回転角度成分に分解する回転角演算部を有することができる。   The in-vehicle camera calibration apparatus according to the present invention may further include a rotation angle calculation unit that decomposes the rotation matrix into three rotation angle components with respect to three axes orthogonal to each other in a three-dimensional space.

回転行列は、そのままでは三次元直交座標のそれぞれの軸に対する回転量を表していない。回転角演算部において、それぞれの軸に対する回転角度成分に分解されると車載カメラの投影パラメータに良好に反映させることができる。   The rotation matrix does not represent the rotation amount for each axis of the three-dimensional orthogonal coordinates as it is. When the rotation angle calculation unit is decomposed into rotation angle components for the respective axes, it can be favorably reflected in the projection parameters of the in-vehicle camera.

また、本発明に係る車載カメラの校正装置は、上記構成に加え、前記撮影画像上において前記校正点が含まれる領域を設定する領域設定部を有することができる。前記校正点特定部は、前記領域において前記校正点を特定する。   In addition to the above configuration, the in-vehicle camera calibration device according to the present invention can include a region setting unit that sets a region including the calibration point on the captured image. The calibration point specifying unit specifies the calibration point in the region.

領域設定部によって校正点が含まれる領域が設定されるので、校正点特定部は、少ない演算量で撮影画像中から校正点を特定することができる。また、精度良く校正点を特定することができる。   Since the region including the calibration point is set by the region setting unit, the calibration point specifying unit can specify the calibration point from the captured image with a small amount of calculation. In addition, the calibration point can be specified with high accuracy.

また、本発明に係る車載カメラの校正装置は、上記構成に加え、
前記回転行列に基づいて、前記車載カメラの投影パラメータを演算する投影パラメータ演算部と、
前記基準座標系における前記校正点の座標を、前記投影パラメータを用いて、前記撮影画像上の座標に変換する座標変換部と、
座標変換された前記校正点の座標と、前記車載カメラの回転に対する校正誤差の許容値とに基づいて、前記撮影画像上における前記校正誤差の限界領域を演算する限界領域演算部と、を有することができる。
In addition, the in-vehicle camera calibration device according to the present invention has the above configuration,
Based on the rotation matrix, a projection parameter calculation unit that calculates the projection parameters of the in-vehicle camera,
A coordinate conversion unit that converts the coordinates of the calibration point in the reference coordinate system into coordinates on the captured image using the projection parameters;
A limit area calculation unit that calculates a limit area of the calibration error on the captured image based on the coordinates of the calibration point that has undergone coordinate conversion and an allowable value of the calibration error with respect to the rotation of the in-vehicle camera. Can do.

この構成によれば、演算された限界領域に基づいて車載カメラの校正結果の精度を検証することができる。手動による校正では作業者によって校正精度が安定せず、校正が不十分な製品が後工程に送られる可能性もあった。しかし、本構成によれば、定量的に校正結果の精度を検証することができるので校正精度が安定する。   According to this configuration, the accuracy of the calibration result of the in-vehicle camera can be verified based on the calculated limit region. In manual calibration, the accuracy of calibration is not stabilized by the operator, and a product with insufficient calibration may be sent to a subsequent process. However, according to this configuration, since the accuracy of the calibration result can be verified quantitatively, the calibration accuracy is stabilized.

さらに、本発明に係る車載カメラの校正装置は、前記校正点特定部により特定された前記校正点の中心座標と、前記限界領域との強調表示を前記撮影画像に重畳する重畳部を有することができる。   Furthermore, the in-vehicle camera calibration device according to the present invention may include a superimposing unit that superimposes the highlighted display of the center coordinates of the calibration point specified by the calibration point specifying unit and the limit region on the captured image. it can.

この構成によれば、撮影画像上で特定された校正点と、限界領域とが撮影画像に重畳されるので、容易に車載カメラの校正結果を検証することができる。   According to this configuration, the calibration point specified on the captured image and the limit region are superimposed on the captured image, so that the calibration result of the in-vehicle camera can be easily verified.

また、本発明に係る車載カメラの校正装置は、前記撮影画像上において、前記校正点特定部により特定された前記校正点の中心座標が、前記限界領域内に存在するか否かを判定する判定部を有することができる。   Further, the in-vehicle camera calibration device according to the present invention is configured to determine whether the center coordinates of the calibration point specified by the calibration point specifying unit are within the limit region on the captured image. Can have a part.

この構成によれば、撮影画像上で特定された校正点が限界領域内に存在するか否かが、正確に判定される。作業者による視認のみで判定する場合には、限界領域ぎりぎりの場合などに、作業者ごとに判定のばらつきが生じることがある。しかし、本構成によれば再現性の高い正確な判定が可能となる。   According to this configuration, it is accurately determined whether or not the calibration point specified on the captured image exists within the limit region. When the determination is made only by the visual recognition by the worker, there may be a variation in the determination for each worker when the marginal region is at the limit. However, according to this configuration, accurate determination with high reproducibility is possible.

さらに、本発明に係る車載カメラの校正装置は、前記判定部による判定結果を少なくとも視覚的又は聴覚的に報知する報知部を有することができる。   Furthermore, the in-vehicle camera calibration device according to the present invention may include a notification unit that notifies the determination result by the determination unit at least visually or audibly.

この構成によれば、判定結果が確実に作業者に報知されるので、作業者は校正のやり直しや、車載カメラの再取り付け、交換などの対策を迅速に実施することができる。   According to this configuration, the determination result is surely notified to the worker, so that the worker can quickly implement measures such as re-calibration, re-installation and replacement of the in-vehicle camera.

また、本発明に係る車載カメラの校正装置は、前記校正指標の校正点が、平面上の2直線の交点として表されるものとすることができる。   In the on-vehicle camera calibration device according to the present invention, the calibration point of the calibration index may be represented as an intersection of two straight lines on a plane.

平面上の直線は曲線に比べて正確に検出可能である。また、2本の直線が正確に検出できれば2直線の交点も正確に検出できる。校正指標の校正点が正確に検出できるので、車載カメラを精度よく校正することができる。   A straight line on a plane can be detected more accurately than a curved line. If two straight lines can be detected accurately, the intersection of the two straight lines can also be detected accurately. Since the calibration point of the calibration index can be accurately detected, the in-vehicle camera can be calibrated with high accuracy.

また、本発明に係る車載カメラの校正装置は、前記校正指標が、床面及び壁面を含む任意の面に配置されるものとすることができる。   In the on-vehicle camera calibration device according to the present invention, the calibration index may be arranged on any surface including a floor surface and a wall surface.

校正指標は、任意の面に配置可能であるので、生産工場や修理工場の広さなどの各工場固有の条件に拘わらず、車載カメラを校正することができる。   Since the calibration index can be arranged on an arbitrary surface, the vehicle-mounted camera can be calibrated regardless of conditions unique to each factory such as the size of the production factory or repair factory.

また、車両に取り付けられた車載カメラを校正するための本発明に係る車載カメラの校正方法は以下の各工程、
前記車載カメラの視界に含んで、少なくとも異なる2箇所に校正指標を配置する校正指標配置工程と、
基準座標系における前記校正指標の中のそれぞれの校正点の座標に基づいて、前記車載カメラの光学中心から見た前記校正点及び前記校正点を通る直線に関するベクトルを示す第1行列を演算する第1行列演算工程と、
前記校正指標を視界内に含む前記車載カメラの撮影画像を受け取る画像受け取り工程と、
前記撮影画像において、それぞれの前記校正点を特定する校正点特定工程と、
前記撮影画像上において特定された前記校正点の座標に基づいて、前記車載カメラの光学中心から見た当該校正点及び当該校正点を通る直線に関するベクトルを示す第2行列を演算する第2行列演算工程と、
前記第1行列及び前記第2行列に基づいて、前記基準座標系における前記車載カメラの回転状態を示す回転行列を演算する第3行列演算工程と、を有する。
Moreover, the calibration method of the in-vehicle camera according to the present invention for calibrating the in-vehicle camera attached to the vehicle includes the following steps,
A calibration index placement step for placing calibration indices in at least two different locations, including in the field of view of the in-vehicle camera;
Based on the coordinates of the respective calibration points in the calibration index in the reference coordinate system, a first matrix indicating a vector relating to the calibration point viewed from the optical center of the in-vehicle camera and a straight line passing through the calibration point is calculated. One matrix operation step;
An image receiving step for receiving a photographed image of the in-vehicle camera including the calibration index in a field of view;
In the captured image, a calibration point specifying step for specifying each of the calibration points;
Based on the coordinates of the calibration point specified on the photographed image, a second matrix calculation that calculates a second matrix indicating the calibration point viewed from the optical center of the in-vehicle camera and a vector relating to a straight line passing through the calibration point. Process,
And a third matrix calculation step of calculating a rotation matrix indicating a rotation state of the in-vehicle camera in the reference coordinate system based on the first matrix and the second matrix.

この車載カメラの校正方法によれば、上述した車載カメラの校正装置と同様に短時間で車載カメラの校正が可能となる。また、本発明に係る方法は、上述した装置に関する作用効果、及び全ての追加的特徴とその作用効果を備えることができるものである。   According to this vehicle-mounted camera calibration method, the vehicle-mounted camera can be calibrated in a short time in the same manner as the vehicle-mounted camera calibration device described above. In addition, the method according to the present invention can be provided with the operational effects related to the above-described apparatus, and all the additional features and operational effects.

また、本発明に係る車載カメラの校正方法を用いて前記車載カメラの校正を行う組立調整工程を含む複数の組立調整工程を順次行うための、本発明に係る車両の生産方法は、以下の特徴を有する。
当該車載カメラの校正方法が、さらに、以下の工程、
前記回転行列に基づいて、前記車載カメラの投影パラメータを演算する投影パラメータ演算工程と、
前記基準座標系における前記校正点の座標を、前記投影パラメータを用いて、前記撮影画像上の座標に変換する座標変換工程と、
座標変換された前記校正点の座標と、前記車載カメラの回転に対する校正誤差の許容値とに基づいて、前記撮影画像上における前記校正誤差の限界領域を演算する限界領域演算工程と、
前記校正点特定工程において特定された前記校正点の中心座標が、前記限界領域内に存在するか否かを前記撮影画像上において判定する判定工程と、
前記校正点の中心座標が前記限界領域内に存在しない場合には、前記車載カメラの校正の次の組立調整作業への移行を制限する制限工程と、を有することを特徴とする。
A vehicle production method according to the present invention for sequentially performing a plurality of assembly adjustment steps including an assembly adjustment step of calibrating the in-vehicle camera using the in-vehicle camera calibration method according to the present invention includes the following features: Have
The in-vehicle camera calibration method further includes the following steps:
A projection parameter calculation step of calculating a projection parameter of the in-vehicle camera based on the rotation matrix;
A coordinate conversion step of converting the coordinates of the calibration point in the reference coordinate system into coordinates on the captured image using the projection parameters;
A limit area calculation step of calculating a limit area of the calibration error on the captured image based on the coordinates of the calibration point that has been coordinate-transformed and an allowable value of the calibration error with respect to the rotation of the in-vehicle camera;
A determination step of determining whether or not the center coordinates of the calibration point specified in the calibration point specifying step exist in the limit region on the captured image;
And a limiting step of limiting the shift to the next assembly / adjustment operation after the calibration of the in-vehicle camera when the center coordinates of the calibration point do not exist within the limit region.

この構成によれば、車載カメラの校正が達成されない場合に作業者がそれを見逃したとしても、生産工程を進めることができなくなる。従って、校正が不十分な製品が後工程に送られる可能性を抑制することができ、作業者は校正のやり直しなどの対策を迅速に実施することができる。   According to this configuration, even if the operator misses the calibration when the calibration of the in-vehicle camera is not achieved, the production process cannot proceed. Therefore, it is possible to suppress the possibility that a product with insufficient calibration is sent to a subsequent process, and the operator can quickly implement measures such as re-calibration.

以下、本発明の実施形態を図面に基づいて説明する。
図1は、校正用のマーカ80(校正指標)と車両90との配置関係の一例を示す説明図である。カメラ1(車載カメラ)は、車両90の後方のナンバープレートの上方に車軸から側方へオフセットした位置に、光軸を下方(例えば水平から30°下方)に向けて設置される。カメラ1は、例えば水平方向の視野角110〜120°の広角カメラであり、後方約8m程度までの領域を撮影可能である。このカメラ1は、車両の生産工場等で車両90に取り付けられる際に取り付け誤差を吸収するべく校正される。また、修理工場などにおいて、走行による振動の累積や衝撃などによるカメラ1のずれを修正するべく校正される。以下、生産工場における校正を例として説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an explanatory diagram showing an example of an arrangement relationship between the calibration marker 80 (calibration index) and the vehicle 90. The camera 1 (on-vehicle camera) is installed at a position offset laterally from the axle above the license plate behind the vehicle 90 with the optical axis facing downward (for example, 30 ° downward from the horizontal). The camera 1 is, for example, a wide-angle camera with a horizontal viewing angle of 110 to 120 °, and can capture an area up to about 8 m behind. The camera 1 is calibrated to absorb mounting errors when mounted on the vehicle 90 at a vehicle production factory or the like. Further, in a repair shop or the like, calibration is performed to correct the displacement of the camera 1 due to the accumulation of vibration caused by running or impact. Hereinafter, calibration in a production factory will be described as an example.

〔校正指標配置工程〕
図1に示すように、カメラ1の校正は、車両90を所定位置に停車させた状態で行われる。例えば、車両90をバックまたは前進させ、所定位置に設けられたタイヤ溝やタイヤ止めによって車輪が停止するようにすれば、正確な位置で停止させることが可能である。図1に示す例では、2つのマーカ80(80a、80b)が床面上に配置されている。図1において、車両90は、後端部中央の床面がワールド座標系(基準座標系、XW,YW,ZW)の原点OWとなるように停車されている。カメラ1の光学中心OCを中心とするカメラ座標系(XC,YC、ZC)は、ワールド座標系に対して各軸が平行とは限らない。ワールド座標系、カメラ座標系共に右手系の座標系であり、図中では、紙面に対して鉛直方向のXW軸、及びほぼ鉛直方向のXC軸は図示していない。ワールド座標系とカメラ座標系との立体的な関係については図14に示す。
[Calibration index placement process]
As shown in FIG. 1, the calibration of the camera 1 is performed in a state where the vehicle 90 is stopped at a predetermined position. For example, if the vehicle 90 is moved back or forward and the wheels are stopped by a tire groove or a tire stop provided at a predetermined position, the vehicle 90 can be stopped at an accurate position. In the example shown in FIG. 1, two markers 80 (80a, 80b) are arranged on the floor surface. In FIG. 1, the vehicle 90 is stopped so that the floor surface at the center of the rear end is the origin O W of the world coordinate system (reference coordinate system, X W , Y W , Z W ). In the camera coordinate system (X C , Y C , Z C ) centered on the optical center O C of the camera 1, each axis is not always parallel to the world coordinate system. World coordinate system, a camera coordinate system are both right-handed coordinate system, in the figure, X W axis in a direction perpendicular to the paper surface, and is not shown X C-axis of the substantially vertical direction. The three-dimensional relationship between the world coordinate system and the camera coordinate system is shown in FIG.

マーカ80は、カメラ1の視野範囲内において少なくとも2箇所に配置される。また、マーカ80は、ワールド座標系においてその座標が既知となるように配置される。本例において、マーカ80は、図2に示すように白黒の市松模様のパターンを有している。パターン中央の点Qが校正点であり、カメラ1の校正の基準となる。つまり、この校正点Qの座標がワールド座標系においてその座標が既知となるように配置される。尚、ここでは白の矩形2個、黒の矩形2個の計4個の矩形の例を示したが、計4個以上であっても良く、その数を限定するものではない。   The markers 80 are arranged in at least two places within the visual field range of the camera 1. Further, the marker 80 is arranged so that its coordinates are known in the world coordinate system. In this example, the marker 80 has a black and white checkered pattern as shown in FIG. A point Q at the center of the pattern is a calibration point, which is a reference for calibration of the camera 1. That is, the coordinates of the calibration point Q are arranged so that the coordinates are known in the world coordinate system. Here, an example of a total of four rectangles including two white rectangles and two black rectangles is shown, but a total of four or more rectangles may be used, and the number is not limited.

図1に示す例では、2つのマーカ80は床上に車両の主軸(ワールド座標系のZW軸)に対して左右対称に配置されている(D1=D2、W1=W2)。ただし、常に左右対称である必要はなく、カメラ1の視野内であって、座標値が既知であればその配置は自由である。つまり、工場において確保できる広さや他の設備との関係によってマーカ80の配置を任意に設定することが可能である。 In the example shown in FIG. 1, the two markers 80 are arranged on the floor symmetrically with respect to the main axis of the vehicle (the Z W axis of the world coordinate system) (D 1 = D 2 , W 1 = W 2 ). However, it is not always necessary to be left-right symmetric. If the coordinate values are known within the field of view of the camera 1, the arrangement is free. That is, the arrangement of the markers 80 can be arbitrarily set depending on the area that can be secured in the factory and the relationship with other equipment.

マーカ80の寸法は、カメラ1の分解能や校正装置が備える画像処理機能の性能、マーカの配置位置などに応じて、精度良く校正点Qを検出できるように適切に定められる。一例として、Diが1〜2m、Wiが1.5m程度である場合には、各白黒が10〜15cm四方、全体が20〜30cm四方のマーカ80が利用される。   The dimension of the marker 80 is appropriately determined so that the calibration point Q can be detected with high accuracy in accordance with the resolution of the camera 1, the performance of the image processing function provided in the calibration apparatus, the arrangement position of the marker, and the like. As an example, when Di is 1 to 2 m and Wi is about 1.5 m, a marker 80 of 10 to 15 cm square for each black and white and 20 to 30 cm square for the whole is used.

マーカ80は、図3及び図4に示すように、壁面上や衝立85上に設置されてもよい。この場合、校正点Qのワールド座標(XW,YW,ZW)は、例えば(H3,3,D3)となり、正確に把握可能である。つまり、マーカ80は、カメラ1の視野内であれば、床面及び壁面を含む任意の面に配置可能である。本実施形態では、カメラ1を下方に向けて車両に搭載しているため、天井面にマーカ80を配置することは適切ではない。しかし、天井面がカメラ1の視野に入る場合には勿論天井面に配置されてもよい。 As shown in FIGS. 3 and 4, the marker 80 may be installed on the wall surface or on the partition 85. In this case, the world coordinates (X W , Y W , Z W ) of the calibration point Q are, for example, (H 3, W 3 , D 3 ) and can be accurately grasped. That is, the marker 80 can be placed on any surface including the floor surface and the wall surface within the field of view of the camera 1. In this embodiment, since the camera 1 is mounted on the vehicle facing downward, it is not appropriate to place the marker 80 on the ceiling surface. However, when the ceiling surface falls within the field of view of the camera 1, it may be arranged on the ceiling surface.

マーカ80は、車両90の中心軸(ZW軸)に対して直角である必要はない。例えば、図3に示すようにカメラ1に対して対面するように配置されてもよい。また、当然他の軸(YW軸及びXW軸)に対して直角である必要もない。当然、2つのマーカ80の一方が床面上、他方が衝立上に配置されるなど、異なる面上に配置されてもよい。重要であるのは校正点Qであり、マーカ80はどのような面に配置されても構わない。つまり、ワールド座標系において校正点Qが正確に配置され、カメラ1の撮影画像から校正点Qが良好に検出可能であればマーカ80の設置方向は任意である。 The marker 80 does not need to be perpendicular to the central axis (Z W axis) of the vehicle 90. For example, you may arrange | position so that it may face with respect to the camera 1 as shown in FIG. Of course, it is not necessary to be perpendicular to the other axes (Y W axis and X W axis). Of course, one of the two markers 80 may be arranged on a different surface, such as one on the floor and the other on the partition. What is important is the calibration point Q, and the marker 80 may be arranged on any surface. That is, if the calibration point Q is accurately arranged in the world coordinate system and the calibration point Q can be detected satisfactorily from the captured image of the camera 1, the installation direction of the marker 80 is arbitrary.

〔システム構成〕
図5は、本発明の車載カメラの校正装置の構成を模式的に示すブロック図である。図に示すように、校正装置は、画像受け取り部2と、画像出力部3と、システム制御部5と、入力I/F部6と、出力I/F部7と、画像処理部10と、を有している。
画像受け取り部2は、デジタルビデオカメラであるカメラ1による撮影画像をバッファ2a、同期分離部2b、クロック生成部2c、A/Dコンバー2cなどの公知の画像I/Fを介して受け取り、フレームメモリ2eに格納する(画像受け取り工程)。画像処理部10に備えられた画像データ制御部11は、画像受け取り部2を制御する。例えば、フレームメモリ2eへの撮影画像の格納や、フレームメモリ2eからの撮影画像の読み出しを制御する。
〔System configuration〕
FIG. 5 is a block diagram schematically showing the configuration of the on-vehicle camera calibration device of the present invention. As shown in the figure, the calibration device includes an image receiving unit 2, an image output unit 3, a system control unit 5, an input I / F unit 6, an output I / F unit 7, an image processing unit 10, have.
The image receiving unit 2 receives an image captured by the camera 1 which is a digital video camera via a known image I / F such as a buffer 2a, a synchronization separation unit 2b, a clock generation unit 2c, an A / D converter 2c, and the like. 2e (image receiving step). An image data control unit 11 provided in the image processing unit 10 controls the image receiving unit 2. For example, it controls the storage of the captured image in the frame memory 2e and the reading of the captured image from the frame memory 2e.

画像処理部10は、さらに、歪補正部12と、領域設定部13と、校正点特定部15と、回転量演算部17と、応用機能処理部19とを有している。図6は、図5の回転量演算部17の構成を模式的に示すブロック図である。回転量演算部17は、第1行列演算部21と、第2行列演算部22と、第3行列演算部23と、回転角演算部25とを有している。各部の詳細な機能については後述するが、これら各部の働きにより、カメラ1の回転量が算出される。
また、図7は、図5の応用機能処理部19の構成を模式的に示すブロック図である。応用機能処理部19は、投影パラメータ演算部31と、座標変換部33と、限界領域演算部35と、成否判定部37(判定部)とを有している。各部の詳細な機能については後述するが、これら各部の働きにより、カメラ1の投影パラメータなどが算出され、校正結果の精度検証などが行われる。
The image processing unit 10 further includes a distortion correction unit 12, a region setting unit 13, a calibration point specifying unit 15, a rotation amount calculation unit 17, and an applied function processing unit 19. FIG. 6 is a block diagram schematically showing the configuration of the rotation amount calculation unit 17 of FIG. The rotation amount calculation unit 17 includes a first matrix calculation unit 21, a second matrix calculation unit 22, a third matrix calculation unit 23, and a rotation angle calculation unit 25. Although detailed functions of each part will be described later, the rotation amount of the camera 1 is calculated by the function of each part.
FIG. 7 is a block diagram schematically showing the configuration of the applied function processing unit 19 in FIG. The applied function processing unit 19 includes a projection parameter calculation unit 31, a coordinate conversion unit 33, a limit area calculation unit 35, and a success / failure determination unit 37 (determination unit). Although detailed functions of each unit will be described later, the projection parameters of the camera 1 are calculated by the operation of these units, and the accuracy of the calibration result is verified.

画像出力部3は、求められたカメラ1の回転量や投影パラメータに基づいて、撮影画像をディスプレイ等に表示するための画像信号を生成する。画像出力部3は、表示コントローラ3aと描画部3bとを有している。描画部3bは画像処理の結果に基づいて校正精度の検証結果などのスーパーインポーズなどを描画する。表示コントローラ3aは撮影画像にこのスーパーインポーズを重畳させて画像信号を出力する。画像出力部3は、本発明の重畳部や報知部としても機能する。   The image output unit 3 generates an image signal for displaying the captured image on a display or the like based on the obtained rotation amount of the camera 1 and projection parameters. The image output unit 3 includes a display controller 3a and a drawing unit 3b. The drawing unit 3b draws a superimposition such as a verification result of calibration accuracy based on the result of image processing. The display controller 3a superimposes this superimpose on the captured image and outputs an image signal. The image output unit 3 also functions as a superimposing unit and a notification unit of the present invention.

入力I/F部6は、カメラ1の校正開始の指示などの入力信号をカメラ1の校正装置よりも上位のシステムから受け取り、システム制御部5に伝達する。ここで、上位のシステムとは、車両90の組み立て調整システムや、車両90のバックモニタシステムなどである。システム制御部5は、カメラ1の校正装置の全般を制御するものであり、校正開始の指示などに基づいて画像処理部10などを制御する。出力制御部7はシステム制御部5を介して画像処理結果などを受け取り、上位のシステムや、校正装置の報知部などに出力信号を出力する。   The input I / F unit 6 receives an input signal such as an instruction to start calibration of the camera 1 from a system higher than the calibration device of the camera 1 and transmits it to the system control unit 5. Here, the host system is an assembly adjustment system of the vehicle 90, a back monitor system of the vehicle 90, or the like. The system control unit 5 controls the entire calibration apparatus of the camera 1 and controls the image processing unit 10 and the like based on an instruction to start calibration. The output control unit 7 receives an image processing result or the like via the system control unit 5 and outputs an output signal to a host system, a notifying unit of the calibration apparatus, or the like.

尚、画像処理部10の各部は、機能としての分担を示すものであり、必ずしも独立して設けられる必要はない。マイクロコンピュータなどのハードウェアと、ハードウェア上で実行されるプログラムなどのソフトウェアとの協働によって各機能が実現されるものでも勿論構わない。
以下、画像処理部10による画像処理の手順について説明する。
Note that each unit of the image processing unit 10 indicates a sharing as a function, and is not necessarily provided independently. Of course, each function may be realized by cooperation of hardware such as a microcomputer and software such as a program executed on the hardware.
Hereinafter, a procedure of image processing by the image processing unit 10 will be described.

〔歪補正工程〕
上述したように、カメラ1は広角カメラである。従って、カメラ1による撮影画像は、図8に示すように歪みを有した画像U1となる。画像U1において、下方には車両90のバンパー部91が映っており、上方及び側方には車両90が停車されている部屋の壁面が映っている。カメラ1の内部パラメータ(焦点距離など)は既知であるので、歪補正部12において歪みが補正される。図9に補正後の画像U2を示す。
(Distortion correction process)
As described above, the camera 1 is a wide-angle camera. Therefore, the image taken by the camera 1 is an image U1 having distortion as shown in FIG. In the image U1, the bumper portion 91 of the vehicle 90 is shown below, and the wall surface of the room where the vehicle 90 is stopped is shown above and to the side. Since the internal parameters (focal length, etc.) of the camera 1 are known, the distortion correction unit 12 corrects the distortion. FIG. 9 shows the corrected image U2.

〔領域設定工程〕
マーカ80は、ワールド座標系の既知の座標に配置されている。また、カメラ1のワールド座標系における詳細な回転状態(外部パラメータ)は当然未知であるが、おおまかな光軸方向(図1のZC方向)は既知である。つまり、カメラ1は所定の公差の範囲内で車両90に取り付けられるので、カメラ1の光軸方向のおおまかな方向は既知である。従って、撮影画像U1、及び歪みを補正された撮影画像U2におけるマーカ80の位置は予測可能である。そこで、画像U2(あるいはU1)において、校正点Qを含むマーカ80が収まる領域をORI(関心領域:Region of Interest)として設定する。ORIは、公差の平均値による画像上の位置を基準として、公差の範囲と画像処理のためのマージンを考慮して定められた位置とサイズに基づいて設定される。従って、理想的には、校正点QがORIの中心部に収まることとなる。
図10に、ORIの一例を示す。図10(a)は図1のマーカ80a、(b)は図1のマーカ80bに対して設定されたORIを示す。
[Region setting process]
The marker 80 is arranged at a known coordinate in the world coordinate system. Also, detailed rotational state (external parameters) in the world coordinate system of the camera 1 is of course unknown, rough optical axis direction (Z C direction in FIG. 1) are known. That is, since the camera 1 is attached to the vehicle 90 within a predetermined tolerance range, the approximate direction of the optical axis direction of the camera 1 is known. Therefore, the position of the marker 80 in the captured image U1 and the captured image U2 whose distortion has been corrected can be predicted. Therefore, in the image U2 (or U1), a region where the marker 80 including the calibration point Q is set is set as an ORI (Region of Interest). The ORI is set based on a position and size determined in consideration of a tolerance range and a margin for image processing with reference to a position on the image based on an average value of the tolerance. Therefore, ideally, the calibration point Q falls within the center of the ORI.
FIG. 10 shows an example of the ORI. 10A shows the ORI set for the marker 80a in FIG. 1, and FIG. 10B shows the ORI set for the marker 80b in FIG.

〔校正点特定工程〕
次に、校正点特定部15においてマーカ80の中心点である校正点Qの撮影画像上における座標を検出する。本実施形態のように、マーカ80として市松模様が使用される場合、公知のコーナ検出器を用いて校正点Qを検出ことが可能である。コーナ検出器としては、Tomasi-Kanade検出器や、ハリス検出器を利用することができる。
ただし、カメラ1が安価なカメラの場合、アパーチャリングやコアリング手法によって画像情報に修飾が加えられている場合がある。その場合には、画像品質の低さに起因して上記コーナ検出器を用いても正しい交点位置(校正点Q)が検出できない可能性が生じる。車載カメラの校正装置は、種々の車種、種々のカメラに対応可能であることが望ましい。従って、本実施形態では、さらに汎用的な手法によって校正点Qを検出する。以下、マーカ80の水平・垂直の境界線を検出してその交点である校正点Qの座標を求める校正点特定工程について、輪郭線(エッジ)検出工程、直線当てはめ工程、交点演算工程に分けて説明する。
[Calibration point identification process]
Next, the calibration point specifying unit 15 detects the coordinates on the captured image of the calibration point Q, which is the center point of the marker 80. When a checkered pattern is used as the marker 80 as in this embodiment, the calibration point Q can be detected using a known corner detector. As a corner detector, a Tomasi-Kanade detector or a Harris detector can be used.
However, if the camera 1 is an inexpensive camera, the image information may be modified by aperture or coring techniques. In this case, there is a possibility that the correct intersection position (calibration point Q) cannot be detected even if the above corner detector is used due to low image quality. It is desirable that the in-vehicle camera calibration device is compatible with various types of vehicles and various cameras. Therefore, in this embodiment, the calibration point Q is detected by a more general method. Hereinafter, the calibration point specifying step for detecting the horizontal / vertical boundary line of the marker 80 and obtaining the coordinates of the calibration point Q, which is the intersection point, is divided into an outline (edge) detection step, a straight line fitting step, and an intersection point calculation step. explain.

〔校正点特定工程/輪郭線(エッジ)検出工程〕
本実施形態では、ガウシアンフィルタ(Gaussian filter)が組み込まれたCannyエッジ検出器を利用する。Cannyエッジ検出器は、エッジ特徴を保存すると共に、画像に含まれるノイズを除去する働きがあり、安定したエッジ検出が可能である。Cannyエッジ検出器に関しては、J.F.Canny "Finding edge and lines in images". Master's thesis, AITR-720. MIT, Cambridge, USA, 1983や、J.F.Canny "A computational approach to edge detection". IEEE Trans. on Pattern Analysis and Machine Intelligence, 8(6):679-698, November 1986に詳しいので、ここでは詳細な説明を省略する。尚、当然ながら、Cannyエッジ検出器に限らず、他の方法を用いてエッジ検出を行ってもよい。
図10に示すROI領域の画像に対して、エッジ検出処理を行うと、図11に示すようにほぼマーカ80の水平・垂直の境界線に対応するエッジ点群E(輪郭線の画素)が検出される。
[Calibration point identification process / contour line (edge) detection process]
In this embodiment, a Canny edge detector incorporating a Gaussian filter is used. The Canny edge detector has a function of preserving edge features and removing noise contained in an image, and enables stable edge detection. For Canny edge detectors, JFCanny "Finding edge and lines in images". Master's thesis, AITR-720. MIT, Cambridge, USA, 1983 and JFCanny "A computational approach to edge detection". IEEE Trans. On Pattern Analysis and Since it is familiar with Machine Intelligence, 8 (6): 679-698, November 1986, detailed explanation is omitted here. Needless to say, the edge detection may be performed not only using the Canny edge detector but also using other methods.
When edge detection processing is performed on the image in the ROI area shown in FIG. 10, an edge point group E (contour pixel) corresponding to the horizontal / vertical boundary line of the marker 80 is detected as shown in FIG. Is done.

〔校正点特定工程/直線当てはめ工程〕
次にこれらエッジ点群Eに対して、直線当てはめ処理が実施される。この直線当てはめ処理には、最小自乗法やハフ変換などを利用することも可能であるが、演算負荷が大である。本実施形態では、これらより遙かに演算量の少ないRANSAC(RANdom SAmple Consensus)手法を用いて直線当てはめを行う。RANSAC手法では、直線や曲線のフィッティングに必要な最小点数の点がエッジ点群Eから選択され、フィッティングモデルが設定される。直線の場合の最小点数は2点であり、ランダムに選択された2点を結ぶ直線が直線モデルとして設定される。そして、エッジ点群Eの他の点がこの直線モデルに対してどの程度フィットするかが評価される。順次、2点を選んで評価を繰り返し、最もフィットした直線モデルが直線として決定される。図12は、図11に示すエッジ点群Eに対して直線Gを当てはめた例を示している。
[Calibration point identification process / Line fitting process]
Next, a straight line fitting process is performed on the edge point group E. For this straight line fitting process, it is possible to use the least square method or the Hough transform, but the calculation load is heavy. In the present embodiment, straight-line fitting is performed using a RANSAC (RANdom SAmple Consensus) method with a much smaller calculation amount than these. In the RANSAC method, the minimum number of points necessary for fitting a straight line or curve is selected from the edge point group E, and a fitting model is set. In the case of a straight line, the minimum number of points is two, and a straight line connecting two randomly selected points is set as a straight line model. Then, how much the other points of the edge point group E are fitted to this linear model is evaluated. Sequentially, two points are selected and evaluation is repeated, and the most fitted straight line model is determined as a straight line. FIG. 12 shows an example in which a straight line G is applied to the edge point group E shown in FIG.

〔校正点特定工程/交点演算工程〕
直線Gが当てはめられると、まず、その直線Gがマーカ80の水平・垂直の境界線として著しく想定と異なるものでないことが確認される。直線Gは撮影画像の座標系、つまりカメラ座標系において一次関数で表されている。従って、簡単な計算により、当てはめられた直線を評価することができる。
次に、当てはめられた直線Gの交点の座標が算出される。直線Gは一次関数であるから簡単な計算により、カメラ座標系における交点座標(校正点Q)を得ることができる(図13参照)。
[Calibration point identification process / intersection calculation process]
When the straight line G is fitted, it is first confirmed that the straight line G is not significantly different from the assumption as the horizontal / vertical boundary line of the marker 80. The straight line G is represented by a linear function in the coordinate system of the captured image, that is, the camera coordinate system. Therefore, the fitted straight line can be evaluated by a simple calculation.
Next, the coordinates of the intersection point of the fitted straight line G are calculated. Since the straight line G is a linear function, the intersection coordinates (calibration point Q) in the camera coordinate system can be obtained by simple calculation (see FIG. 13).

〔変形例〕
上記説明においては、歪補正工程、領域設定工程、輪郭線(エッジ)検出工程の順に処理を行ったが、領域設定工程、輪郭線(エッジ)検出工程を先に行ってもよい。つまり、直線当てはめを行う前までは画像に歪みを生じていても良いので、演算の負荷を考慮して順序を入れ替えても問題ない。
[Modification]
In the above description, the distortion correction process, the area setting process, and the contour line (edge) detection process are performed in this order, but the area setting process and the contour line (edge) detection process may be performed first. In other words, the image may be distorted before the straight line fitting, so there is no problem even if the order is changed in consideration of the calculation load.

校正点Qのワールド座標系における座標値は、マーカ80を配置する時点で既知である。また、カメラ座標系における座標値は、上述したように演算で求められた。以下、これらの座標値を用いて、カメラ1の回転状態を示すカメラ1の外部パラメータを求める手順について説明する。   The coordinate value of the calibration point Q in the world coordinate system is known when the marker 80 is placed. Also, the coordinate values in the camera coordinate system were obtained by calculation as described above. Hereinafter, a procedure for obtaining an external parameter of the camera 1 indicating the rotation state of the camera 1 using these coordinate values will be described.

〔原理〕
車両のバックモニタ装置や運転支援装置のように、二次元画像と三次元空間との間の変換を必要とする装置では、その変換のためにカメラパラメータの全てを知る必要がある。上述したように特許文献1では、カメラパラメータの内、内部パラメータと、外部パラメータの並進成分は既知として、組み付け公差の大きい回転成分のみを手動で校正していた。本発明では、この回転成分を自動検出するが、始めにその原理を説明し、その後具体的な手順を説明する。
〔principle〕
In a device that requires conversion between a two-dimensional image and a three-dimensional space, such as a vehicle back monitor device or a driving support device, it is necessary to know all of the camera parameters for the conversion. As described above, in Patent Document 1, of the camera parameters, the internal parameters and the translational components of the external parameters are known, and only the rotational component having a large assembly tolerance is manually calibrated. In the present invention, this rotational component is automatically detected. First, the principle will be described, and then a specific procedure will be described.

図14は、ワールド座標系とカメラ座標系との関係を示す説明図である。図1や図3に示したように車両90及びマーカ80は原点をOWとするワールド座標系(XW,YW,ZW)で定義される座標に配置されている。以降、2つのマーカ80の校正点Qは、空間上の2つの点P1及びP2で表す。カメラ1は、ワールド座標系において並進成分T(TX,TY,TZ)を有して配置される。また、カメラ1は、ワールド座標系に対して回転成分Rを有して配置される。つまり、ワールド座標系において並進成分Tを伴った位置を原点OCとして、さらに回転成分Rを伴ったカメラ座標系(XC,YC,ZC)が存在する。 FIG. 14 is an explanatory diagram showing the relationship between the world coordinate system and the camera coordinate system. As shown in FIGS. 1 and 3, the vehicle 90 and the marker 80 are arranged at coordinates defined by a world coordinate system (X W , Y W , Z W ) with the origin being O W. Hereinafter, the calibration points Q of the two markers 80 are represented by two points P 1 and P 2 in space. The camera 1 is arranged to have a translation component T (T X , T Y , T Z ) in the world coordinate system. The camera 1 is arranged with a rotation component R with respect to the world coordinate system. That is, there is a camera coordinate system (X C , Y C , Z C ) with a rotation component R, with the position with the translation component T as the origin O C in the world coordinate system.

ワールド座標系、カメラ座標系共にここでは右手系の直交座標系を用いている。右手座標系とは右手の親指、人差し指、中指を開いた向きの順にX、Y、Z軸を定める方式である。また、右手系においては、図15に示すように軸が右ねじの方向に進む場合の回転方向を、回転の正の方向と定義する。ここで、X軸を中心とする回転をパン(pan)、Y軸を中心とする回転をチルト(Tilt)、Zを中心とする回転を(Roll)と称する。   Here, both the world coordinate system and the camera coordinate system use a right-handed orthogonal coordinate system. The right-hand coordinate system is a method for determining the X, Y, and Z axes in the order in which the thumb, index finger, and middle finger of the right hand are opened. In the right-handed system, as shown in FIG. 15, the rotation direction when the axis advances in the direction of the right-hand thread is defined as the positive direction of rotation. Here, rotation around the X axis is referred to as pan, rotation around the Y axis is referred to as tilt, and rotation around Z is referred to as roll.

図16は、Nベクトルを示す説明図である。始めにNベクトルについて説明する。直交座標系を持つ画像面を二次元射影空間(射影面)とみなすと、点や直線は、全てがゼロではない3個の実数からなる同次座標で表される。同次座標は、画像処理における計算上の問題を解決する上で好適なものである。解決のための最も簡単な手段は、同次座標の3要素が常に単位ベクトルとなるようにしておくことである。正規化した同次座標の組を単位ベクトルとして表したものをNベクトルと称する。   FIG. 16 is an explanatory diagram showing the N vector. First, the N vector will be described. When an image plane having an orthogonal coordinate system is regarded as a two-dimensional projection space (projection plane), points and straight lines are represented by homogeneous coordinates composed of three real numbers that are not all zero. The homogeneous coordinates are suitable for solving calculation problems in image processing. The simplest means for solving is to make sure that the three elements of homogeneous coordinates are always unit vectors. A normalized vector set of homogeneous coordinates expressed as a unit vector is referred to as an N vector.

点Pは、射影面上の点であり、fは視点Oから射影面までの距離(焦点距離とほぼ等価。)を示す。三次元直交座標のZ軸はfと一致し、Z軸は射影面に直交し、XY平面は射影面と平行である。Nベクトルmは、視点Oを始点として点Pを指し示す単位ベクトルである。Nベクトルnは、点Pを通る直線Lと、視点Oとによって定まる平面に垂直な単位法線ベクトルである。つまり、Nベクトルnは、直線Lを表すベクトルである。尚、ベクトルlは、Nベクトルではなく、直線Lの向きを表す単位ベクトルである。   The point P is a point on the projection plane, and f indicates the distance from the viewpoint O to the projection plane (substantially equivalent to the focal length). The Z axis of the three-dimensional orthogonal coordinates coincides with f, the Z axis is orthogonal to the projection plane, and the XY plane is parallel to the projection plane. The N vector m is a unit vector that points to the point P starting from the viewpoint O. The N vector n is a unit normal vector perpendicular to a plane determined by the straight line L passing through the point P and the viewpoint O. That is, the N vector n is a vector representing the straight line L. The vector l is not an N vector but a unit vector representing the direction of the straight line L.

ここで、カメラの光学中心(図16の視点O)を固定してカメラが回転したと仮定する。カメラの回転により、射影面上の点P及び直線Lの座標は変化し、Nベクトルも変化する。つまり、回転前の射影面上の点P及び点Pを通る直線Lと、回転後の射影面上の点P’及び点P’を通る直線L’とが与えられる。この時、点P’を点Pに一致させ、直線L’を直線Lに向きを含めて一致させるようなカメラ回転行列Rは下記の式(1)のように一意的に定まる。   Here, it is assumed that the camera is rotated with the optical center of the camera (viewpoint O in FIG. 16) fixed. As the camera rotates, the coordinates of the point P and the straight line L on the projection plane change, and the N vector also changes. That is, a straight line L passing through the point P and the point P on the projection surface before rotation and a straight line L ′ passing through the point P ′ and the point P ′ on the projection surface after rotation are given. At this time, the camera rotation matrix R that matches the point P ′ with the point P and matches the straight line L ′ with the straight line L including the direction is uniquely determined as the following equation (1).

R=(l’m’n’)(lmn)T ・・・(1) R = (l'm'n ') (lmn) T (1)

ここで、l’は直線L’の向きを表す単位ベクトル、m’は点P’を表すNベクトル、n’は直線L’を表すNベクトルである。
式(1)は、R1=(lmn)、R2=(l’m’n’)とおくと、下記式(2)と表すことができる。
Here, l ′ is a unit vector representing the direction of the straight line L ′, m ′ is an N vector representing the point P ′, and n ′ is an N vector representing the straight line L ′.
Formula (1) can be expressed as the following formula (2) when R 1 = (lmn) and R 2 = (l′ m′n ′).

R=R21 T ・・・(2) R = R 2 R 1 T (2)

つまり、図17に示すように、ワールド座標系を基準とした回転前後の2つの画像から車両に搭載されたカメラ1の回転ベクトルRを求めることができる。ただし、本発明の校正装置では、車両90及びカメラ1は固定されるので、カメラ1から入力される画像は1つである。複数の画像を得るために車両90やカメラ1を動かすことは、校正時間を増やし、また校正精度の上からも好ましくない。   That is, as shown in FIG. 17, the rotation vector R of the camera 1 mounted on the vehicle can be obtained from the two images before and after the rotation based on the world coordinate system. However, in the calibration apparatus of the present invention, since the vehicle 90 and the camera 1 are fixed, the number of images input from the camera 1 is one. Moving the vehicle 90 and the camera 1 to obtain a plurality of images increases the calibration time and is not preferable from the viewpoint of calibration accuracy.

しかし、上記原理の本質は、{l,m,n}による定まる座標系から、{l’,m’,n’}により定まる座標系の回転行列を求めれば、それがカメラ1の回転行列と一致することにある。つまり、{l,m,n}を回転前の座標系から求め、{l’,m’,n’}を回転後の座標系から求めれば足りる。
そこで、回転前の座標系は、ワールド座標系において、カメラ1の光学中心OCまで純粋に並進したのみのカメラ座標系(第1のカメラ座標系)と考える。また、回転後の座標系は、第1のカメラ座標系が光学中心OCを中心として回転したカメラ座標系(第2のカメラ座標系)と考える。
However, the essence of the above principle is that if a rotation matrix of a coordinate system determined by {l ′, m ′, n ′} is obtained from a coordinate system determined by {l, m, n}, this is the rotation matrix of the camera 1. It is in agreement. That is, it is sufficient to obtain {l, m, n} from the coordinate system before rotation and {l ′, m ′, n ′} from the coordinate system after rotation.
Therefore, the coordinate system before rotation is considered to be a camera coordinate system (first camera coordinate system) that is purely translated to the optical center O C of the camera 1 in the world coordinate system. Furthermore, the coordinate system after the rotation is considered the first camera coordinate system is a camera coordinate system that is rotated around the optical center O C (second camera coordinate system).

〔第1行列演算工程〕
第1のカメラ座標系は、ワールド座標系の原点OWを基準として純粋並進した回転成分のない座標系である。図18に示すように光学中心OCからマーカ80の校正点Qを示す点P1、P2へのNベクトルを求める。尚、当然ながら第1行列演算工程では、カメラ1による撮影画像及び撮影画像から得られる各種情報は不要である。本工程は、図6に示す第1行列演算部21において実行されるが、カメラ1による撮影画像は用いられていない。
[First matrix calculation step]
The first camera coordinate system is a pure translation and rotation components with no coordinate system relative to the origin O W of the world coordinate system. As shown in FIG. 18, N vectors from the optical center O C to points P 1 and P 2 indicating the calibration point Q of the marker 80 are obtained. Needless to say, in the first matrix calculation step, a photographed image by the camera 1 and various information obtained from the photographed image are unnecessary. This step is executed by the first matrix calculation unit 21 shown in FIG. 6, but the image taken by the camera 1 is not used.

本実施形態では、マーカ80が床面上に配置されているので、XW軸方向の座標は実質ゼロであるが、点P1の座標をP1(X1,Y1,Z1)、点P2の座標をP2(X2,Y2,Z2)とする。直線Lは、点P1から点P2へ向かう直線とする。光学中心OCから点P1の方向にはNベクトルm1がある。光学中心OCから点P2の方向にはNベクトルm2がある。説明を容易にするために図18にはNベクトルm1で代表させている。この結果、Nベクトルmは、下記の式(3)のようになる。 In the present embodiment, since it is disposed in the marker 80 the floor surface, although the X W axis direction of the coordinate is substantially zero, the coordinates of the point P 1 P 1 (X 1, Y 1, Z 1), The coordinates of the point P 2 are P 2 (X 2 , Y 2 , Z 2 ). The straight line L is a straight line from the point P 1 to the point P 2 . There is an N vector m 1 in the direction from the optical center O C to the point P 1 . There is an N vector m 2 in the direction from the optical center O C to the point P 2 . For ease of explanation, FIG. 18 represents an N vector m 1 . As a result, the N vector m is expressed by the following equation (3).

Figure 0004803449
Figure 0004803449

また、Nベクトルnは面OC12の単位法線ベクトルとして、次の式(4)のようになる。 The N vector n is a unit normal vector of the plane O C P 1 P 2 and is expressed by the following equation (4).

Figure 0004803449
Figure 0004803449

直線Lの向きlは、下記の式(5)のようにmとnとの外積として得られる。   The direction l of the straight line L is obtained as an outer product of m and n as shown in the following formula (5).

l=m×n ・・・(5)       l = m × n (5)

その結果、回転行列R1は下記の式(6)のようになる。 As a result, the rotation matrix R 1 is expressed by the following equation (6).

1=(lmn) ・・・(6) R 1 = (lmn) (6)

このようにして、第1行列演算部21は、ワールド座標系(基準座標系)におけるマーカ80の校正点Q(P1、P2)の座標に基づいて、カメラ1の光学中心OCから見た校正点P1、P2及び校正点P1、P2を通る直線Lに関するベクトルを示す第1行列R1を演算する。 In this way, the first matrix calculation unit 21 is viewed from the optical center O C of the camera 1 based on the coordinates of the calibration points Q (P 1 , P 2 ) of the marker 80 in the world coordinate system (reference coordinate system). A first matrix R 1 indicating a vector related to the straight line L passing through the calibration points P 1 and P 2 and the calibration points P 1 and P 2 is calculated.

〔第2行列演算工程〕
第2のカメラ座標系は、第1のカメラ座標系が光学中心OCを中心として回転した回転成分のある座標系である。第1行列演算工程とは異なり、カメラ1による撮影画像が用いられる。図19に示すように、床面上に配置された校正点Q(P1、P2)は、射影面上の点p1、p2に相当する。点p1、p2の射影面上での座標値は、既に説明したように、校正点特定部15において特定されている。従って、図6に示すように、本工程は校正点特定部15の結果を受けて第2行列演算部22において実行される。
[Second matrix calculation step]
The second camera coordinate system is a coordinate system in which the first camera coordinate system is a rotating component rotates about the optical center O C. Unlike the first matrix calculation process, an image captured by the camera 1 is used. As shown in FIG. 19, calibration points Q (P 1 , P 2 ) arranged on the floor correspond to points p 1 , p 2 on the projection plane. As described above, the coordinate values of the points p 1 and p 2 on the projection plane are specified by the calibration point specifying unit 15. Therefore, as shown in FIG. 6, this process is executed in the second matrix calculation unit 22 in response to the result of the calibration point specifying unit 15.

ここで、光学中心OCから射影面上の点p1(x1,y1)、p2(x2,y2)へのNベクトルを考える。尚、(xi,yi)は射影面上(撮影画像上)の座標である。直線Lに相当する直線lは、点p1から点p2へ向かう直線とする。光学中心OCから点p1の方向にはNベクトルm1’がある。光学中心OCから点p2の方向にはNベクトルm2’がある。説明を容易にするために図19にはNベクトルm1’で代表させている。この結果、Nベクトルm’は、下記の式(7)のようになる。 Here, consider an N vector from the optical center O C to points p 1 (x 1 , y 1 ) and p 2 (x 2 , y 2 ) on the projection plane. Note that (x i , y i ) are coordinates on the projection plane (on the captured image). A straight line l corresponding to the straight line L is a straight line from the point p 1 to the point p 2 . There is an N vector m 1 ′ in the direction from the optical center O C to the point p 1 . There is an N vector m 2 ′ in the direction from the optical center O C to the point p 2 . For ease of explanation, FIG. 19 represents an N vector m 1 ′. As a result, the N vector m ′ is expressed by the following equation (7).

Figure 0004803449
Figure 0004803449

また、Nベクトルn’は面OC12の単位法線ベクトルとして、次の式(8)のようになる。 Further, the N vector n ′ is expressed as the following equation (8) as a unit normal vector of the plane O C p 1 p 2 .

Figure 0004803449
Figure 0004803449

直線Lの向きl’は、下記の式(9)のようにm’とn’との外積として得られる。   The direction l 'of the straight line L is obtained as an outer product of m' and n 'as shown in the following formula (9).

l’=m’× n’ ・・・(9)       l ′ = m ′ × n ′ (9)

その結果、回転行列R2は下記の式(10)のようになる。 As a result, the rotation matrix R 2 is expressed by the following equation (10).

2=(l’m’n’) ・・・(10) R 2 = (l'm'n ') (10)

このようにして、第2行列演算部22は、校正点特定部15により特定された射影面(撮影画像)上の校正点Q(p1、p2)の座標に基づいて、車載カメラの光学中心OCから見た校正点p1、p2及び校正点p1、p2を通る直線lに関するベクトルを示す第2行列R2を演算する In this way, the second matrix calculation unit 22 uses the optical coordinates of the in-vehicle camera based on the coordinates of the calibration point Q (p 1 , p 2 ) on the projection plane (captured image) specified by the calibration point specifying unit 15. A second matrix R 2 indicating a vector relating to the straight line 1 passing through the calibration points p 1 and p 2 and the calibration points p 1 and p 2 viewed from the center O C is calculated.

〔第3行列演算工程〕
第3行列演算部23は、上記のようにして得られた第1行列R1及び第2行列R2に基づいて、ワールド座標系におけるカメラ1の回転状態を示す回転行列Rを演算する。つまり、上述した式(2)と同様に下記に示す式(11)に従って回転行列Rを演算する。
[Third matrix calculation step]
The third matrix calculator 23 calculates a rotation matrix R indicating the rotation state of the camera 1 in the world coordinate system based on the first matrix R 1 and the second matrix R 2 obtained as described above. That is, the rotation matrix R is calculated according to the following equation (11) as in the above equation (2).

R=R21 T=(l’m’n’)(lmn)T ・・・(11) R = R 2 R 1 T = (l′ m′n ′) (lmn) T (11)

〔回転角演算工程〕
カメラ1は、ピンホールカメラに代表される透視カメラモデル(perspective camera model)である。透視カメラモデルのカメラ行列は、カメラの内部パラメータ行列と、外部パラメータ行列とから構成される。内部パラメータ行列は、焦点距離などのカメラ内部のパラメータ行列である。外部パラメータ行列は、並進行列T及び上記で求めた回転行列Rである。射影カメラモデル(projective camera model)は、透視カメラモデルのカメラ行列を一般化して表したものである。射影カメラモデルでは、上記で求めた回転行列Rが得られれば、三次元空間からの投影が可能である。しかし、透視カメラモデルでは、回転行列Rをさらに三次元直交座標の各軸の回転角パン・チルト・ロールに分解する必要がある。回転角演算部25は、以下に示す手順で各軸の回転角を演算する。
[Rotation angle calculation process]
The camera 1 is a perspective camera model represented by a pinhole camera. The camera matrix of the perspective camera model is composed of an internal parameter matrix of the camera and an external parameter matrix. The internal parameter matrix is a parameter matrix inside the camera such as the focal length. The external parameter matrix is the parallel progression T and the rotation matrix R obtained above. A projective camera model is a generalized representation of a camera matrix of a perspective camera model. In the projection camera model, if the rotation matrix R obtained above is obtained, projection from a three-dimensional space is possible. However, in the perspective camera model, it is necessary to further decompose the rotation matrix R into the rotation angle pan / tilt / roll of each axis of three-dimensional orthogonal coordinates. The rotation angle calculation unit 25 calculates the rotation angle of each axis in the following procedure.

式(11)で求めた回転行列Rは、次式(12)のように書くことができる。ここで、θはチルト角、φはロール角、ψはパン角である。   The rotation matrix R obtained by the equation (11) can be written as the following equation (12). Here, θ is a tilt angle, φ is a roll angle, and ψ is a pan angle.

Figure 0004803449
Figure 0004803449

r11 2 + r21 2 = cosφcosθ2 + sinφcosθ2 = cos2θ ・・・(13) r 11 2 + r 21 2 = cosφcosθ 2 + sinφcosθ 2 = cos 2 θ (13)

式(13)により、φが消去できるので、式(14)を得る。   Since φ can be eliminated by equation (13), equation (14) is obtained.

Figure 0004803449
Figure 0004803449

式(14)には解が2つ存在する。「-r31」が「-sinθ」であるので、θは式(15)のようになる。 There are two solutions in equation (14). Since “−r 31 ” is “−sin θ”, θ is as shown in Expression (15).

Figure 0004803449
Figure 0004803449

また、kを正の定数とすると式(16)である。   Further, when k is a positive constant, the following equation (16) is obtained.

tan-1(a/b) = tan-1(ka/kb) ・・・(16) tan -1 (a / b) = tan -1 (ka / kb) (16)

ここで、cosθ≠0と置ける場合には、ロール角φとパン角ψは、それぞれ式(17)、式(18)のようになる。   Here, when cos θ ≠ 0 can be set, the roll angle φ and the pan angle ψ are as shown in Expression (17) and Expression (18), respectively.

Figure 0004803449
Figure 0004803449

Figure 0004803449
Figure 0004803449

ここで、カメラ1の搭載方法(下向き約30度=−30度)に基づいて、式(19)の拘束条件を適用する。   Here, based on the mounting method of the camera 1 (downward approximately 30 degrees = −30 degrees), the constraint condition of Expression (19) is applied.

-90[deg] < チルト角θ < +90[deg] ・・・(19)     -90 [deg] <Tilt angle θ <+90 [deg] (19)

式(19)の拘束条件より、チルト角θのcosの値がゼロとなる場合を無視することができるので、一意の回転角θ、φ、ψを求めることができる。
まず、式(19)より、「cosθ>0」なので、負の値を考慮することなく、式(15)は次式(20)となり、チルト角θが定まる。
Since the case where the cos value of the tilt angle θ is zero can be ignored from the constraint condition of the equation (19), the unique rotation angles θ, φ, and ψ can be obtained.
First, from equation (19), since “cos θ> 0”, equation (15) becomes the following equation (20) without considering negative values, and the tilt angle θ is determined.

Figure 0004803449
Figure 0004803449

同様に「cosθ>0」であるので、ロール角φとパン角ψは式(12)より、式(21)、式(22)に示すように容易に得られる。   Similarly, since “cos θ> 0”, the roll angle φ and the pan angle ψ can be easily obtained from the equation (12) as shown in the equations (21) and (22).

Figure 0004803449
Figure 0004803449

Figure 0004803449
Figure 0004803449

〔投影パラメータ演算工程〕
以上、説明したようにカメラ1の外部パラメータとしての三次元直交座標の各軸に対する回転成分が求められた。外部パラメータの内の並進成分T(TX,TY,TZ)は、光軸中心OCの座標としてワールド座標系において既知である。また、内部パラメータはカメラ1の特性として既知である。従って、応用機能処理部19の投影パラメータ演算部31は、カメラ1の投影パラメータの全てを整えることができる。
[Projection parameter calculation process]
As described above, the rotation component with respect to each axis of the three-dimensional orthogonal coordinates as the external parameter of the camera 1 is obtained. The translation component T (T X , T Y , T Z ) among the external parameters is known in the world coordinate system as the coordinates of the optical axis center O C. The internal parameters are known as the characteristics of the camera 1. Therefore, the projection parameter calculation unit 31 of the applied function processing unit 19 can adjust all the projection parameters of the camera 1.

〔座標変換工程〕
カメラ1の投影パラメータの全てが整うと、座標変換部33は、校正点Q(P1、P2)のワールド座標系の三次元座標値を二次元の射影面上の座標値に変換する。つまり、図20に示すような理論上の校正点Vの座標値を演算する。
[Coordinate transformation process]
When all the projection parameters of the camera 1 are set, the coordinate conversion unit 33 converts the three-dimensional coordinate value of the calibration point Q (P 1 , P 2 ) in the world coordinate system into a coordinate value on a two-dimensional projection plane. That is, the coordinate value of the theoretical calibration point V as shown in FIG. 20 is calculated.

〔限界領域演算工程〕
図20に示すように、限界領域演算部35は、座標変換により求められた理論上の校正点Vを基準として各回転角度の許容誤差を加味した射影面上の限界領域Cを演算する。射影面上には、実際にカメラ1で撮影されたマーカ80が映っている。また、校正点特定部15によって特定された校正点Q(P1、P2)の射影面上の座標も明らかである。ここで、校正点Qが限界領域Cの中に入っていれば、所定の精度でカメラ1が校正されたことになる。
[Limit area calculation process]
As shown in FIG. 20, the limit area calculation unit 35 calculates a limit area C on the projection plane that takes into account the allowable error of each rotation angle with reference to the theoretical calibration point V obtained by coordinate transformation. On the projection surface, a marker 80 actually captured by the camera 1 is shown. Further, the coordinates on the projection plane of the calibration point Q (P 1 , P 2 ) specified by the calibration point specifying unit 15 are also clear. If the calibration point Q is within the limit area C, the camera 1 has been calibrated with a predetermined accuracy.

描画部3bは、座標変換部33で算出された理論上の校正点Vをカメラ1の撮影画像に重畳可能なように描画する。また、限界領域演算部35で算出された限界領域Cをカメラ1の撮影画像に重畳可能なように描画する。さらに、校正点特定部15によって特定された校正点Qの中心座標を強調する強調表示を描画する。そして、これらを表示コントローラ3aを介して撮影画像上に重畳させて、画像信号として出力する。出力された画像信号は、ディスプレイ装置上で表示される。このように、描画部3b及び表示コントローラ3aは、本発明の重畳部に相当する。
尚、実際には図8に示したような撮影画像に限界領域C、校正点V及びQが、例えば色分けされて重畳されるが、図示の視認性を考慮して図20では、マーカ80は省略している。
The drawing unit 3 b draws the theoretical calibration point V calculated by the coordinate conversion unit 33 so that it can be superimposed on the captured image of the camera 1. In addition, the limit area C calculated by the limit area calculation unit 35 is drawn so as to be superimposed on the captured image of the camera 1. Furthermore, a highlight display for emphasizing the center coordinates of the calibration point Q specified by the calibration point specifying unit 15 is drawn. These are superimposed on the captured image via the display controller 3a and output as an image signal. The output image signal is displayed on a display device. Thus, the drawing unit 3b and the display controller 3a correspond to the superimposing unit of the present invention.
In practice, the limit area C and the calibration points V and Q are superimposed on the photographed image as shown in FIG. 8, for example, by color-coded, but in consideration of the visibility shown in FIG. Omitted.

〔成否判定工程(判定工程)〕
図21は、カメラ1の校正装置を含む車両90の組み立て調整制御装置のディスプレイ装置の表示画面の一例である。上述した理論上の校正点V、限界領域C、実際に撮影された画像から求めた校正点Qが、表示される。本例では、一方の校正点Q2は限界領域C内であるが、他方の校正点Q1が限界領域C外となった場合を示している。例えば、車両90の組み立て調整を行う作業者は、この画面により校正の成否を判定することができる。
また、作業者の目視に依らず、自動的に成否を判定することもできる。射影面上での各座標値は上述したように既に算出されているので、成否判定部(判定部)37は、校正の成否を自動的に判定する。
[Success / failure determination step (determination step)]
FIG. 21 is an example of a display screen of the display device of the assembly adjustment control device of the vehicle 90 including the calibration device of the camera 1. The theoretical calibration point V, the limit area C, and the calibration point Q obtained from the actually captured image are displayed. In this example, one calibration point Q2 is within the limit region C, but the other calibration point Q1 is outside the limit region C. For example, an operator who performs assembly adjustment of the vehicle 90 can determine the success or failure of the calibration from this screen.
Also, success / failure can be automatically determined without depending on the visual observation of the operator. Since each coordinate value on the projection plane has already been calculated as described above, the success / failure determination unit (determination unit) 37 automatically determines the success or failure of the calibration.

〔報知工程〕
成否判定部37による判定結果は、描画部3b及び表示コントローラ3aを介してディスプレイ装置に表示される。図21に示した例では、「光軸調整NG(S1)」とのスーパーインポーズが表示される。また、ディスプレイ装置がタッチパネルなど、入力を受け付ける機能を有している場合には、「再調整(S2)」や「戻る(S3)」という操作ボタンが設けられる。これらの入力は、入力信号となって入力I/F部6からシステム制御部5へと伝達される。
また、このような視覚的な表示に限らず、ブザーやチャイム、音声などにより、聴覚的に報知してもよい。システム制御部5、出力I/F部7を介して、校正結果を外部に出力するようにしてもよい。
[Notification process]
The determination result by the success / failure determination unit 37 is displayed on the display device via the drawing unit 3b and the display controller 3a. In the example shown in FIG. 21, a superimpose with “optical axis adjustment NG (S1)” is displayed. When the display device has a function of accepting input, such as a touch panel, operation buttons such as “readjustment (S2)” and “return (S3)” are provided. These inputs are transmitted as input signals from the input I / F unit 6 to the system control unit 5.
Moreover, not only such a visual display but you may alert | report auditorily by a buzzer, a chime, a sound, etc. The calibration result may be output to the outside via the system control unit 5 and the output I / F unit 7.

〔制限工程〕
一方、「次へ(S4)」の操作ボタンは、他のスーパーインポーズに比べて淡く表示され、選択できないようにその機能が制限される。カメラ1の校正は、車両90の組み立て調整作業の中で実施される。カメラ1の校正が不成功である場合に、組み立て調整作業を継続すれば、校正が不十分な製品が後工程に送られる可能性がある。しかし、次の組み立て校正作業への移行を制限すれば、そのような問題を未然に防止することができる。また、作業者は校正のやり直しなどの対策を迅速に実施することができる。
このような制限処理は応用機能処理部19やシステム制御部5で実行し、画像出力部3に伝達する。また、出力I/F回路7を介して校正結果を受け取った組み立て調整システムなどで実行してもよい。その場合は、制限の指示が入力I/F回路6を介して画像出力部3に与えられる。
[Restriction process]
On the other hand, the “Next (S4)” operation button is displayed lighter than other superimposes, and its function is restricted so that it cannot be selected. Calibration of the camera 1 is performed during assembly adjustment work of the vehicle 90. If the calibration of the camera 1 is unsuccessful, if the assembly and adjustment work is continued, a product with insufficient calibration may be sent to a subsequent process. However, if the transition to the next assembly calibration work is restricted, such a problem can be prevented in advance. In addition, the operator can quickly take measures such as redo calibration.
Such restriction processing is executed by the application function processing unit 19 and the system control unit 5 and transmitted to the image output unit 3. Alternatively, it may be executed by an assembly adjustment system or the like that has received the calibration result via the output I / F circuit 7. In that case, a restriction instruction is given to the image output unit 3 via the input I / F circuit 6.

以上説明したように、本発明によって、簡単な構成で、短時間で精度良く車載カメラの校正が可能な車載カメラの校正装置を提供することができる。また、校正の成否を迅速に判定可能な車載カメラの校正装置を提供することができる。   As described above, according to the present invention, it is possible to provide an in-vehicle camera calibration apparatus capable of calibrating an in-vehicle camera with a simple configuration and in a short time with high accuracy. In addition, it is possible to provide an in-vehicle camera calibration device capable of quickly determining whether calibration is successful.

校正用マーカと車両との配置関係の一例を示す説明図Explanatory drawing which shows an example of arrangement | positioning relationship between the marker for calibration and a vehicle 校正用マーカの一例を示す説明図Explanatory drawing showing an example of a calibration marker 校正用マーカと車両との配置関係の他の例を示す説明図Explanatory drawing which shows the other example of arrangement | positioning relationship between the marker for calibration and a vehicle 図2の校正用マーカの三次元配置を示す説明図Explanatory drawing which shows three-dimensional arrangement | positioning of the calibration marker of FIG. 本発明の車載カメラの校正装置の構成を模式的に示すブロック図The block diagram which shows typically the structure of the calibration apparatus of the vehicle-mounted camera of this invention 図5の回転量演算部の構成を模式的に示すブロック図The block diagram which shows typically the structure of the rotation amount calculating part of FIG. 図5の応用機能処理部の構成を模式的に示すブロックズBlocks schematically showing the configuration of the application function processing unit of FIG. 歪み補正前の画像の一例を示す説明図Explanatory drawing which shows an example of the image before distortion correction 歪み補正後の画像の一例を示す説明図Explanatory drawing which shows an example of the image after distortion correction 領域設定後の画像の一例を示す説明図Explanatory drawing which shows an example of the image after area | region setting エッジ検出後の画像の一例を示す説明図Explanatory drawing which shows an example of the image after edge detection 直線当てはめ後の画像の一例を示す説明図Explanatory drawing which shows an example of the image after a straight line fitting 校正点検出後の画像の一例を示す説明図Explanatory drawing showing an example of an image after calibration point detection ワールド座標系とカメラ座標系との関係を示す説明図Explanatory diagram showing the relationship between the world coordinate system and the camera coordinate system 右手系におけるカメラ回転を説明する説明図Explanatory drawing explaining camera rotation in right hand system Nベクトルを示す説明図Explanatory drawing showing N vector カメラ回転に関する基本定理を説明する説明図Explanatory drawing explaining the basic theorem about camera rotation 第1行列の元となるNベクトルを示す説明図Explanatory drawing which shows N vector used as the origin of the 1st matrix 図2行列の元となるNベクトル示す説明図FIG. 2 is an explanatory diagram showing the N vector that is the basis of the matrix. 限界領域を示す説明図Explanatory diagram showing the limit area 組み立て調整画面の一例を示す説明図Explanatory drawing showing an example of assembly adjustment screen

符号の説明Explanation of symbols

1:カメラ(車載カメラ)
2:画像受け取り部
3:画像出力部(重畳部)
10:画像処理部
13:領域設定部
15:校正点特定部
21:第1行列演算部
22:第2行列演算部
23:第3行列演算部
25:回転角演算部
31:投影パラメータ演算部
33:座標変換部
35:限界領域設定部
37:正否判定部(判定部)
80:マーカ(校正指標)
90:車両
C:限界領域
E:エッジ点(輪郭線の画素)
Q:校正点
1: Camera (on-vehicle camera)
2: Image receiving unit 3: Image output unit (superimposition unit)
DESCRIPTION OF SYMBOLS 10: Image processing part 13: Area | region setting part 15: Calibration point specific | specification part 21: 1st matrix calculating part 22: 2nd matrix calculating part 23: 3rd matrix calculating part 25: Rotation angle calculating part 31: Projection parameter calculating part 33 : Coordinate conversion unit 35: Limit area setting unit 37: Correctness determination unit (determination unit)
80: Marker (calibration index)
90: Vehicle C: Limit region E: Edge point (contour line pixel)
Q: Calibration point

Claims (11)

車両に取り付けられた車載カメラを校正する車載カメラの校正装置であって、
少なくとも異なる2箇所に配置された校正指標を視界内に含む前記車載カメラの撮影画像を受け取る画像受け取り部と、
前記撮影画像において前記校正指標の中のそれぞれの校正点を特定する校正点特定部と、
基準座標系における前記校正指標の前記校正点の座標に基づいて、前記車載カメラの光学中心から見た前記校正点及び前記校正点を通る直線に関するベクトルを示す第1行列を演算する第1行列演算部と、
前記校正点特定部により特定された前記撮影画像上の前記校正点の座標に基づいて、前記車載カメラの光学中心から見た当該校正点及び当該校正点を通る直線に関するベクトルを示す第2行列を演算する第2行列演算部と、
前記第1行列及び前記第2行列に基づいて、前記基準座標系における前記車載カメラの回転状態を示す回転行列を演算する第3行列演算部と、を有する車載カメラの校正装置。
An in-vehicle camera calibration device for calibrating an in-vehicle camera attached to a vehicle,
An image receiving unit that receives a photographed image of the in-vehicle camera that includes at least two calibration indices arranged in different places in the field of view;
A calibration point specifying unit for specifying each calibration point in the calibration index in the captured image;
A first matrix calculation for calculating a first matrix indicating a vector related to the calibration point viewed from the optical center of the vehicle-mounted camera and a straight line passing through the calibration point based on the coordinates of the calibration point of the calibration index in a reference coordinate system And
Based on the coordinates of the calibration point on the captured image identified by the calibration point identifying unit, a second matrix indicating a vector related to the calibration point viewed from the optical center of the in-vehicle camera and a straight line passing through the calibration point. A second matrix calculation unit for calculating;
A vehicle-mounted camera calibration apparatus comprising: a third matrix calculation unit that calculates a rotation matrix indicating a rotation state of the vehicle-mounted camera in the reference coordinate system based on the first matrix and the second matrix.
前記回転行列を、三次元空間上で互いに直交する3軸に対する3つの回転角度成分に分解する回転角演算部を有する請求項1に記載の車載カメラの校正装置。   The in-vehicle camera calibration device according to claim 1, further comprising a rotation angle calculation unit that decomposes the rotation matrix into three rotation angle components with respect to three axes orthogonal to each other in a three-dimensional space. 前記撮影画像上において前記校正点が含まれる領域を設定する領域設定部を有し、
前記校正点特定部は、前記領域において前記校正点を特定する請求項1又は2に記載の車載カメラの校正装置。
An area setting unit for setting an area including the calibration point on the captured image;
The in-vehicle camera calibration device according to claim 1, wherein the calibration point specifying unit specifies the calibration point in the region.
前記回転行列に基づいて、前記車載カメラの投影パラメータを演算する投影パラメータ演算部と、
前記基準座標系における前記校正点の座標を、前記投影パラメータを用いて、前記撮影画像上の座標に変換する座標変換部と、
座標変換された前記校正点の座標と、前記車載カメラの回転に対する校正誤差の許容値とに基づいて、前記撮影画像上における前記校正誤差の限界領域を演算する限界領域演算部と、を有する請求項1〜3の何れか一項に記載の車載カメラの校正装置。
Based on the rotation matrix, a projection parameter calculation unit that calculates the projection parameters of the in-vehicle camera,
A coordinate conversion unit that converts the coordinates of the calibration point in the reference coordinate system into coordinates on the captured image using the projection parameters;
A limit area calculation unit that calculates a limit area of the calibration error on the photographed image based on the coordinates of the calibration point that has undergone coordinate conversion and an allowable value of the calibration error with respect to the rotation of the in-vehicle camera. The in-vehicle camera calibration device according to any one of Items 1 to 3.
前記校正点特定部により特定された前記校正点の中心座標と、前記限界領域との強調表示を前記撮影画像に重畳する重畳部を有する請求項4に記載の車載カメラの校正装置。   The in-vehicle camera calibration device according to claim 4, further comprising: a superimposing unit that superimposes a highlighted display of a center coordinate of the calibration point specified by the calibration point specifying unit and the limit region on the captured image. 前記撮影画像上において、前記校正点特定部により特定された前記校正点の中心座標が、前記限界領域内に存在するか否かを判定する判定部を有する請求項4に記載の車載カメラの校正装置。   The on-vehicle camera calibration according to claim 4, further comprising: a determination unit that determines whether or not a center coordinate of the calibration point specified by the calibration point specifying unit exists in the limit region on the captured image. apparatus. 前記判定部による判定結果を少なくとも視覚的又は聴覚的に報知する報知部を有する請求項6に記載の車載カメラの校正装置。   The in-vehicle camera calibration device according to claim 6, further comprising a notifying unit that at least visually or audibly notifies the determination result by the determining unit. 前記校正指標の校正点は、平面上の2直線の交点として表される請求項1〜3の何れか一項に記載の車載カメラの校正装置。   The in-vehicle camera calibration device according to any one of claims 1 to 3, wherein a calibration point of the calibration index is represented as an intersection of two straight lines on a plane. 前記校正指標は、床面及び壁面を含む任意の面に配置される請求項1〜4の何れか一項に記載の車載カメラの校正装置。   The on-vehicle camera calibration device according to any one of claims 1 to 4, wherein the calibration index is arranged on an arbitrary surface including a floor surface and a wall surface. 車両に取り付けられた車載カメラを校正する車載カメラの校正方法であって、
前記車載カメラの視界に含んで、少なくとも異なる2箇所に校正指標を配置する校正指標配置工程と、
基準座標系における前記校正指標の中のそれぞれの校正点の座標に基づいて、前記車載カメラの光学中心から見た前記校正点及び前記校正点を通る直線に関するベクトルを示す第1行列を演算する第1行列演算工程と、
前記校正指標を視界内に含む前記車載カメラの撮影画像を受け取る画像受け取り工程と、
前記撮影画像において、それぞれの前記校正点を特定する校正点特定工程と、
前記撮影画像上において特定された前記校正点の座標に基づいて、前記車載カメラの光学中心から見た当該校正点及び当該校正点を通る直線に関するベクトルを示す第2行列を演算する第2行列演算工程と、
前記第1行列及び前記第2行列に基づいて、前記基準座標系における前記車載カメラの回転状態を示す回転行列を演算する第3行列演算工程と、を有する車載カメラの校正方法。
An in-vehicle camera calibration method for calibrating an in-vehicle camera attached to a vehicle,
A calibration index placement step for placing calibration indices in at least two different locations, including in the field of view of the in-vehicle camera;
Based on the coordinates of the respective calibration points in the calibration index in the reference coordinate system, a first matrix indicating a vector relating to the calibration point viewed from the optical center of the in-vehicle camera and a straight line passing through the calibration point is calculated. One matrix operation step;
An image receiving step for receiving a photographed image of the in-vehicle camera including the calibration index in a field of view;
In the captured image, a calibration point specifying step for specifying each of the calibration points;
Based on the coordinates of the calibration point specified on the photographed image, a second matrix calculation that calculates a second matrix indicating the calibration point viewed from the optical center of the in-vehicle camera and a vector relating to a straight line passing through the calibration point. Process,
A vehicle-mounted camera calibration method comprising: a third matrix calculation step of calculating a rotation matrix indicating a rotation state of the vehicle-mounted camera in the reference coordinate system based on the first matrix and the second matrix.
請求項10に記載の車載カメラの校正方法を用いて前記車載カメラの校正を行う組立調整工程を含む複数の組立調整工程を順次行う車両の生産方法であって、
当該車載カメラの校正方法は、さらに、
前記回転行列に基づいて、前記車載カメラの投影パラメータを演算する投影パラメータ演算工程と、
前記基準座標系における前記校正点の座標を、前記投影パラメータを用いて、前記撮影画像上の座標に変換する座標変換工程と、
座標変換された前記校正点の座標と、前記車載カメラの回転に対する校正誤差の許容値とに基づいて、前記撮影画像上における前記校正誤差の限界領域を演算する限界領域演算工程と、
前記校正点特定工程において特定された前記校正点の中心座標が、前記限界領域内に存在するか否かを前記撮影画像上において判定する判定工程と、
前記校正点の中心座標が前記限界領域内に存在しない場合には、前記車載カメラの校正の次の組立調整作業への移行を制限する制限工程と、を有する車両の生産方法。
A vehicle production method for sequentially performing a plurality of assembly adjustment steps including an assembly adjustment step of calibrating the in-vehicle camera using the in-vehicle camera calibration method according to claim 10,
The in-vehicle camera calibration method is further
A projection parameter calculation step of calculating a projection parameter of the in-vehicle camera based on the rotation matrix;
A coordinate conversion step of converting the coordinates of the calibration point in the reference coordinate system into coordinates on the captured image using the projection parameters;
A limit area calculation step of calculating a limit area of the calibration error on the captured image based on the coordinates of the calibration point that has been coordinate-transformed and an allowable value of the calibration error with respect to the rotation of the in-vehicle camera;
A determination step of determining whether or not the center coordinates of the calibration point specified in the calibration point specifying step exist in the limit region on the captured image;
And a restricting step of restricting a shift to the next assembly / adjustment operation of the calibration of the in-vehicle camera when the center coordinates of the calibration point do not exist within the limit region.
JP2006311636A 2006-11-17 2006-11-17 On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method Active JP4803449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006311636A JP4803449B2 (en) 2006-11-17 2006-11-17 On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006311636A JP4803449B2 (en) 2006-11-17 2006-11-17 On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method

Publications (2)

Publication Number Publication Date
JP2008131177A JP2008131177A (en) 2008-06-05
JP4803449B2 true JP4803449B2 (en) 2011-10-26

Family

ID=39556626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006311636A Active JP4803449B2 (en) 2006-11-17 2006-11-17 On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method

Country Status (1)

Country Link
JP (1) JP4803449B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8077199B2 (en) 2008-08-05 2011-12-13 Aisin Seiki Kabushiki Kaisha Target position identifying apparatus
JP5339124B2 (en) 2008-09-30 2013-11-13 アイシン精機株式会社 Car camera calibration system
JP4973879B2 (en) * 2008-10-31 2012-07-11 トヨタ自動車株式会社 Camera optical axis adjustment method
JP4636346B2 (en) 2009-03-31 2011-02-23 アイシン精機株式会社 Car camera calibration apparatus, method, and program
JP4751939B2 (en) 2009-03-31 2011-08-17 アイシン精機株式会社 Car camera calibration system
JP4690476B2 (en) 2009-03-31 2011-06-01 アイシン精機株式会社 Car camera calibration system
JP5091902B2 (en) 2009-03-31 2012-12-05 アイシン精機株式会社 Calibration index used for calibration of in-vehicle camera, in-vehicle camera calibration method and system using the calibration index, and program for the system
JP5471038B2 (en) * 2009-05-27 2014-04-16 アイシン精機株式会社 Calibration target detection device, calibration target detection method for detecting calibration target, and program for calibration target detection device
JP5552892B2 (en) * 2010-05-13 2014-07-16 富士通株式会社 Image processing apparatus and image processing program
JP5240527B2 (en) * 2010-11-25 2013-07-17 アイシン精機株式会社 Car camera calibration apparatus, method, and program
JP2013173453A (en) * 2012-02-24 2013-09-05 Kyocera Corp Calibration processing device, camera calibrating device, camera system and camera calibrating method
JP5750344B2 (en) * 2011-09-16 2015-07-22 日立建機株式会社 Ambient monitoring device for work equipment
CN103847639B (en) * 2012-12-03 2015-11-18 上海汽车集团股份有限公司 Vehicle-mounted camera Dynamic Vehicle subordinate line calibration method
KR101380318B1 (en) 2013-03-29 2014-04-01 (주)팜비젼 Camera calibration apparatus and method
CN106651963B (en) * 2016-12-29 2019-04-26 清华大学苏州汽车研究院(吴江) A kind of installation parameter scaling method of the vehicle-mounted camera for driving assistance system
TWI705011B (en) * 2019-03-12 2020-09-21 緯創資通股份有限公司 Car lens offset detection method and car lens offset detection system
JP7198233B2 (en) * 2020-01-29 2022-12-28 Kddi株式会社 INTERSECTION DETECTION METHOD AND DEVICE AND CAMERA CALIBRATION DEVICE
CN113641318B (en) * 2021-08-11 2024-03-08 苏州华兴源创科技股份有限公司 Display data calibration method and system
CN114194115B (en) * 2021-12-22 2024-03-15 数源科技股份有限公司 Method for installing vision blind area camera device
CN114500995B (en) * 2022-04-15 2022-06-21 北原科技(深圳)有限公司 Personalized configuration system of USB camera at manufacturing end

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3632563B2 (en) * 1999-10-19 2005-03-23 株式会社豊田自動織機 Image positional relationship correction device, steering assist device including the image positional relationship correction device, and image positional relationship correction method
JP2001116515A (en) * 1999-10-21 2001-04-27 Matsushita Electric Ind Co Ltd Calibration method
JP3551920B2 (en) * 1999-12-24 2004-08-11 アイシン精機株式会社 In-vehicle camera calibration device and calibration method
JP2002262156A (en) * 2000-12-26 2002-09-13 Matsushita Electric Ind Co Ltd Camera, camera system and image processing method
JP4147059B2 (en) * 2002-07-03 2008-09-10 株式会社トプコン Calibration data measuring device, measuring method and measuring program, computer-readable recording medium, and image data processing device
JP4238663B2 (en) * 2003-08-29 2009-03-18 トヨタ自動車株式会社 On-vehicle camera calibration method and calibration apparatus
JP4681856B2 (en) * 2004-11-24 2011-05-11 アイシン精機株式会社 Camera calibration method and camera calibration apparatus

Also Published As

Publication number Publication date
JP2008131177A (en) 2008-06-05

Similar Documents

Publication Publication Date Title
JP4803449B2 (en) On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method
JP4803450B2 (en) On-vehicle camera calibration device and vehicle production method using the device
JP4690476B2 (en) Car camera calibration system
JP4751939B2 (en) Car camera calibration system
JP4636346B2 (en) Car camera calibration apparatus, method, and program
US10726576B2 (en) System and method for identifying a camera pose of a forward facing camera in a vehicle
US8233045B2 (en) Method and apparatus for distortion correction and image enhancing of a vehicle rear viewing system
US11407363B2 (en) Method for calculating a tow hitch position
EP3100234B1 (en) Data-processing system and method for calibration of a vehicle surround view system
EP2523163B1 (en) Method and program for calibrating a multicamera system
JP5339124B2 (en) Car camera calibration system
JP5081313B2 (en) Car camera calibration system
JP5240527B2 (en) Car camera calibration apparatus, method, and program
JP4861034B2 (en) Car camera calibration system
US20090015675A1 (en) Driving Support System And Vehicle
US20130002861A1 (en) Camera distance measurement device
EP3193306A1 (en) A method and a device for estimating an orientation of a camera relative to a road surface
US20020029127A1 (en) Method and apparatus for measuring 3-D information
JP2009288152A (en) Calibration method of on-vehicle camera
JP2006268076A (en) Driving assistance system
CN109345591A (en) A kind of vehicle itself attitude detecting method and device
WO2016146559A1 (en) Method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle
JP2016001776A (en) Mounting angle adjustment processing of on-vehicle camera and mounting angle detection device
EP3629292A1 (en) Reference point selection for extrinsic parameter calibration
JP2013005032A (en) On-vehicle camera posture detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110727

R151 Written notification of patent or utility model registration

Ref document number: 4803449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3