JP5240517B2 - Car camera calibration system - Google Patents

Car camera calibration system Download PDF

Info

Publication number
JP5240517B2
JP5240517B2 JP2008253257A JP2008253257A JP5240517B2 JP 5240517 B2 JP5240517 B2 JP 5240517B2 JP 2008253257 A JP2008253257 A JP 2008253257A JP 2008253257 A JP2008253257 A JP 2008253257A JP 5240517 B2 JP5240517 B2 JP 5240517B2
Authority
JP
Japan
Prior art keywords
calibration
boundary line
region
boundary
intersection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008253257A
Other languages
Japanese (ja)
Other versions
JP2010087743A (en
Inventor
吉宏 中村
悦生 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2008253257A priority Critical patent/JP5240517B2/en
Publication of JP2010087743A publication Critical patent/JP2010087743A/en
Application granted granted Critical
Publication of JP5240517B2 publication Critical patent/JP5240517B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、車載カメラを校正する車載カメラの校正装置に関する。   The present invention relates to an in-vehicle camera calibration apparatus for calibrating an in-vehicle camera.

近年、車両の運転者が車両の側方や後方などの情景を車内のモニタを介して視認できるようにカメラが搭載された車両が増加している。さらに、このカメラの撮影画像を利用して画像処理などを行い、駐車などの運転を支援する装置も開発されている。特に、車両の位置決めなどに利用される情報を作り出すためのベースとなる撮影画像を取り込むカメラに関しては、光軸調整などの校正が高い精度で要求される。例えば、特開2008−131250号公報(特許文献1)には、カメラの視野内の2箇所に配置された白黒の市松模様のパターンを有するマーカ(校正指標)を車載カメラで撮影し、画像処理を通じてマーカの中心点(校正点)を検出し、車載カメラを校正する技術が示されている。   In recent years, an increasing number of vehicles are equipped with a camera so that a driver of the vehicle can visually recognize a scene such as a side or rear of the vehicle via a monitor inside the vehicle. Furthermore, an apparatus that supports driving such as parking by performing image processing using a photographed image of the camera has been developed. In particular, for a camera that captures a captured image serving as a base for creating information used for vehicle positioning, calibration such as optical axis adjustment is required with high accuracy. For example, Japanese Unexamined Patent Application Publication No. 2008-131250 (Patent Document 1) takes a marker (calibration index) having a black and white checkered pattern arranged at two locations in the field of view of a camera with an in-vehicle camera, and performs image processing. A technique for detecting the center point (calibration point) of the marker through the camera and calibrating the in-vehicle camera is shown.

また、原稿の位置合わせのために予め原稿に記入されたターゲットの位置を正確に検出するというイメージスキャナの技術分野においては、次のような技術が知られている。特開平9−153139号公報(特許文献2)には、赤と青と緑の同心円パターンからなるターゲットの撮影画像信号を色差信号に変換し、色差信号を用いてターゲットの位置検出を行う映像信号処理装置が示されている。   Further, the following techniques are known in the technical field of image scanners that accurately detect the position of a target previously written on a document for document alignment. Japanese Patent Laid-Open No. 9-153139 (Patent Document 2) discloses a video signal for converting a captured image signal of a target composed of a concentric circle pattern of red, blue and green into a color difference signal and detecting the position of the target using the color difference signal. A processing unit is shown.

特開2008−131250号公報(第23〜40段落、図1等)JP 2008-131250 A (23rd to 40th paragraphs, FIG. 1 etc.) 特開平9−153139号公報(第17〜30段落、図1等)JP-A-9-153139 (17th-30th paragraphs, FIG. 1 etc.)

特許文献1の技術では、白黒の市松模様の中心点を正確に検出する必要があるが、照明光や太陽光の状態によっては白黒領域のエッジ検出精度が不安定になり、マーカの中心点の検出精度が低下する場合がある。また、特許文献2の技術では、色差信号をターゲットの検出に用いるので、ターゲットの撮影画像信号に予め決められているターゲットパターンの色情報(色差成分)が十分に保持されていることが、正確な位置検出の前提条件となる。イメージスキャナでは、外乱光の影響を無視することができるので、ターゲットの撮影画像信号に正確な色差成分が保持されるとみなすことができる。これに対して、車載カメラによるターゲット撮影などでは、ターゲットを環境光の影響下で撮影することになるので、単純に、色差信号を用いるだけで正確なターゲットの位置検出は困難である。また、ターゲットの模様に類似したものをカメラ視野内に置いてしまった場合にも誤認識する可能性がある。これを防ぐために作業場の管理を厳格にすると、わずらわしくなり、生産性を低下させる可能性が生じる。   In the technique of Patent Document 1, it is necessary to accurately detect the center point of the black and white checkered pattern. However, depending on the illumination light and sunlight conditions, the edge detection accuracy of the black and white region becomes unstable, and the center point of the marker The detection accuracy may be reduced. In the technique of Patent Document 2, since the color difference signal is used for target detection, it is accurate that the target pattern color information (color difference component) is sufficiently held in the captured image signal of the target. Is a prerequisite for accurate position detection. Since the image scanner can ignore the influence of disturbance light, it can be considered that an accurate color difference component is held in the captured image signal of the target. On the other hand, in target shooting using an in-vehicle camera, the target is shot under the influence of ambient light, and therefore it is difficult to detect the target position accurately by simply using the color difference signal. In addition, there is a possibility of erroneous recognition even if an object similar to the target pattern is placed in the camera field of view. Strict management of the workplace to prevent this can be cumbersome and can reduce productivity.

このような背景から、複数の色の組み合わせパターンからなる校正指標を環境光の影響下で撮影して得られた撮影画像データから校正点の正確な検出と位置算定が可能となる技術が求められている。しかし、市松模様等のパターンを有する校正指標の撮影画像データから、エッジ検出等の画像処理を通じて校正点を抽出するには、多くの演算時間を要する。白黒の校正指標を使うことによる上記課題を抑制するために有色の校正指標を用いた場合には、撮影画像データもカラー画像データとなるので、データ量が増大し、演算時間も増加する。従って、車載カメラの校正処理のために、効率的且つ正確に校正点の検出が可能な技術が求められている。   Against this background, there is a need for a technology that enables accurate detection and position calculation of calibration points from captured image data obtained by photographing a calibration index consisting of a combination pattern of multiple colors under the influence of ambient light. ing. However, it takes a lot of calculation time to extract a calibration point from image data of a calibration index having a pattern such as a checkered pattern through image processing such as edge detection. When a colored calibration index is used in order to suppress the above-described problem caused by using a black and white calibration index, the captured image data also becomes color image data, which increases the amount of data and the calculation time. Therefore, there is a need for a technique that can efficiently and accurately detect a calibration point for calibration processing of an in-vehicle camera.

本願は、上記課題に鑑みて創案されたもので、複数の色の組み合わせパターンからなる校正指標を環境光の影響下で撮影して得られた撮影画像データから、効率的に且つ正確に校正点の検出と位置算定を行うことが可能な車載カメラの校正装置を提供することを目的とする。   The present application was devised in view of the above-mentioned problems, and calibration points can be efficiently and accurately obtained from captured image data obtained by capturing a calibration index composed of a plurality of color combination patterns under the influence of ambient light. It is an object of the present invention to provide an in-vehicle camera calibration apparatus capable of detecting the position and calculating the position.

上記課題を解決するための本発明に係る車載カメラの校正装置の特徴構成は、
少なくとも異なる2箇所に配置され、第1色と第2色との格子模様の境界線の交差点を校正点とする校正指標を撮影範囲内に含む車載カメラによって撮影された撮影画像を受け取る画像受け取り部と、
前記撮影画像上において、前記校正点の内の1つである第1校正点が含まれる第1領域を設定する第1領域設定部と、
前記第1領域において、前記校正指標の格子模様の境界線の内の1つである第1境界線を検出する第1境界線検出部と、
前記第1領域内において、前記第1境界線に交差する第1交差境界線を検出する第1交差境界線検出部と、
検出された前記第1境界線及び前記第1交差境界線の前記撮影画像上の座標に基づいて、それらの交差点の座標を前記第1校正点として検出する第1校正点検出部と、
検出された前記第1校正点の前記撮影画像上の座標値に基づいて、前記第1校正点とは異なる第2校正点が含まれる第2領域を、前記撮影画像上において前記第1領域よりも狭い範囲として設定する第2領域設定部と、
前記第2領域において、前記校正指標の格子模様の境界線の内の1つである第2境界線を検出する第2境界線検出部と、
前記第2領域内において、前記第2境界線に交差する第2交差境界線を検出する第2交差境界線検出部と、
検出された前記第2境界線及び前記第2交差境界線の前記撮影画像上の座標に基づいて、それらの交差点の座標を前記第2校正点として検出する第2校正点検出部と、
前記第1校正点、前記第2校正点の空間上の配置位置を示す基準座標系における座標と、前記撮影画像上において検出された前記第1校正点、前記第2校正点のカメラ座標系における座標とに基づいて、前記車載カメラを校正する校正演算部と、を備える点にある。
In order to solve the above problems, the characteristic configuration of the calibration device for an in-vehicle camera according to the present invention is:
An image receiving unit that receives captured images taken by a vehicle-mounted camera that is arranged in at least two different locations and includes a calibration index within the imaging range with the intersection of the boundary lines of the grid pattern of the first color and the second color as calibration points When,
A first region setting unit that sets a first region including a first calibration point that is one of the calibration points on the captured image;
A first boundary line detection unit that detects a first boundary line that is one of the boundary lines of the lattice pattern of the calibration index in the first region;
A first intersection boundary detection unit that detects a first intersection boundary that intersects the first boundary in the first region;
A first calibration point detector that detects the coordinates of the intersection as the first calibration point based on the coordinates of the detected first boundary line and the first intersection boundary line on the captured image;
Based on the detected coordinate value of the first calibration point on the photographed image, a second region including a second calibration point different from the first calibration point is represented on the photographed image by the first region. A second region setting unit that sets the narrow range,
A second boundary line detection unit that detects a second boundary line that is one of the boundary lines of the lattice pattern of the calibration index in the second region;
A second intersection boundary detection unit for detecting a second intersection boundary intersecting the second boundary in the second region;
A second calibration point detector that detects the coordinates of the intersection as the second calibration point based on the coordinates of the detected second boundary line and the second intersection boundary line on the captured image;
The coordinates in the reference coordinate system indicating the arrangement positions of the first calibration point and the second calibration point in space, the first calibration point detected on the captured image, and the second calibration point in the camera coordinate system And a calibration calculation unit that calibrates the in-vehicle camera based on the coordinates.

この構成によれば、先に検出された第1校正点を基準として、第2領域が設定される。第1校正点は、既に検出された点であるから、その座標値は正確であり、これを元にして設定される第2領域に校正指標が含まれる可能性は高くなる。従って、第1領域に比べて第2領域は、より狭い領域、つまり少ない画素数により構成される領域とすることができる。第2境界線や第2交差境界線は、この第2領域において検出されるが、その検出の際に画像処理の対象となる画素数が第1領域に比べて少なくなる。従って、演算時間を抑制することができる。また、第1校正点を基準として第2領域が設定されるので、安定して第2校正点が検出される。その結果、効率的に且つ正確に校正点の検出と位置算定を行うことが可能な車載カメラの校正装置を提供することが可能となる。   According to this configuration, the second region is set based on the first calibration point detected previously. Since the first calibration point is a point that has already been detected, the coordinate value is accurate, and the possibility that the calibration index is included in the second region set based on this is increased. Therefore, the second region can be a narrower region, that is, a region constituted by a smaller number of pixels than the first region. The second boundary line and the second intersecting boundary line are detected in the second region, but the number of pixels to be subjected to image processing at the time of detection is smaller than that in the first region. Therefore, calculation time can be suppressed. In addition, since the second region is set based on the first calibration point, the second calibration point is detected stably. As a result, it is possible to provide an in-vehicle camera calibration device capable of efficiently and accurately detecting a calibration point and calculating a position.

また、本発明に係る車載カメラの校正装置の別の特徴構成は、
少なくとも異なる2箇所に配置され、第1色と第2色との格子模様の境界線の交差点を校正点とする校正指標を撮影範囲内に含む車載カメラによって撮影された撮影画像を受け取る画像受け取り部と、
前記撮影画像上において、前記校正点の内の1つである第1校正点が含まれる第1領域を設定する第1領域設定部と、
前記第1領域において前記校正指標の格子模様の境界線の内の1つである第1境界線を検出する第1境界線検出部と、
検出された前記第1境界線の前記撮影画像上の座標に基づいて、前記撮影画像上において、前記第1校正点とは異なる第2校正点が含まれる第2領域を前記第1領域よりも狭い範囲として設定する第2領域設定部と、
前記第1領域内において、前記第1境界線に交差する第1交差境界線を検出する第1交差境界線検出部と、
前記第2領域において前記校正指標の格子模様の境界線の内の1つである第2境界線を検出する第2境界線検出部と、
前記第2領域内において、前記第2境界線に交差する第2交差境界線を検出する第2交差境界線検出部と、
検出された前記第1境界線及び前記第1交差境界線の前記撮影画像上の座標に基づいて、それらの交差点の座標を前記第1校正点として検出する第1校正点検出部と、
検出された前記第2境界線及び前記第2交差境界線の前記撮影画像上の座標に基づいて、それらの交差点の座標を前記第2校正点として検出する第2校正点検出部と、
前記第1校正点、前記第2校正点の空間上の配置位置を示す基準座標系における座標と、前記撮影画像上において検出された前記第1校正点、前記第2校正点のカメラ座標系における座標とに基づいて、前記車載カメラを校正する校正演算部と、を備える点にある。
Another characteristic configuration of the on-vehicle camera calibration device according to the present invention is as follows.
An image receiving unit that receives captured images taken by a vehicle-mounted camera that is arranged in at least two different locations and includes a calibration index within the imaging range with the intersection of the boundary lines of the grid pattern of the first color and the second color as calibration points When,
A first region setting unit that sets a first region including a first calibration point that is one of the calibration points on the captured image;
A first boundary line detection unit that detects a first boundary line that is one of the grid pattern boundary lines of the calibration index in the first region;
Based on the detected coordinates of the first boundary line on the photographed image, a second area including a second calibration point different from the first calibration point on the photographed image is more than the first area. A second region setting unit for setting as a narrow range;
A first intersection boundary detection unit that detects a first intersection boundary that intersects the first boundary in the first region;
A second boundary line detection unit for detecting a second boundary line that is one of the grid pattern boundary lines of the calibration index in the second region;
A second intersection boundary detection unit for detecting a second intersection boundary intersecting the second boundary in the second region;
A first calibration point detector that detects the coordinates of the intersection as the first calibration point based on the coordinates of the detected first boundary line and the first intersection boundary line on the captured image;
A second calibration point detector that detects the coordinates of the intersection as the second calibration point based on the coordinates of the detected second boundary line and the second intersection boundary line on the captured image;
The coordinates in the reference coordinate system indicating the arrangement positions of the first calibration point and the second calibration point in space, the first calibration point detected on the captured image, and the second calibration point in the camera coordinate system And a calibration calculation unit that calibrates the in-vehicle camera based on the coordinates.

この構成によれば、先に検出された1つの校正指標の第1境界線を基準として、第2領域が設定される。第1境界線は第1校正点を含む直線であるから、その両端部の座標値の間に第1校正点の座標値が含まれる。つまり、ある程度の高い精度で第1校正点が検出されていることになるので、この座標を元にして設定される第2領域に校正指標が含まれる可能性が高くなる。従って、第1領域に比べて第2領域は、より狭い領域、つまり少ない画素数により構成される領域とすることができる。第2境界線や第2交差境界線は、この第2領域において検出されるが、その検出の際に画像処理の対象となる画素数が第1領域に比べて少なくなる。従って、演算時間を抑制することができる。また、第1校正点近傍の座標を基準として第2領域が設定されるので、安定して第2校正点が検出される。その結果、効率的に且つ正確に校正点の検出と位置算定を行うことが可能な車載カメラの校正装置を提供することが可能となる。   According to this configuration, the second region is set on the basis of the first boundary line of one calibration index detected earlier. Since the first boundary line is a straight line including the first calibration point, the coordinate value of the first calibration point is included between the coordinate values at both ends thereof. That is, since the first calibration point is detected with a certain degree of accuracy, there is a high possibility that the calibration index is included in the second region set based on this coordinate. Therefore, the second region can be a narrower region, that is, a region constituted by a smaller number of pixels than the first region. The second boundary line and the second intersecting boundary line are detected in the second region, but the number of pixels to be subjected to image processing at the time of detection is smaller than that in the first region. Therefore, calculation time can be suppressed. In addition, since the second region is set based on the coordinates near the first calibration point, the second calibration point can be detected stably. As a result, it is possible to provide an in-vehicle camera calibration device capable of efficiently and accurately detecting a calibration point and calculating a position.

また、本発明に係る車載カメラの校正装置は、上記各構成に加えて、
検出された前記第1境界線の前記撮影画像上の座標値に基づいて、前記第1領域内において前記第1領域よりも狭い第1絞り込み領域を設定する第1絞り込み領域設定部と、
検出された前記第2境界線の前記撮影画像上の座標値に基づいて、前記第2領域内において前記第2領域よりも狭い第2絞り込み領域を設定する第2絞り込み領域設定部と、をさらに備え、
前記第1交差境界線検出部は、前記第1絞り込み領域内において前記第1交差境界線を検出し、
前記第2交差境界線検出部は、前記第2絞り込み領域内において前記第2交差境界線を検出すると好適である。
In addition, the in-vehicle camera calibration device according to the present invention includes the above-described components,
A first narrowed area setting unit configured to set a first narrowed area narrower than the first area in the first area based on the detected coordinate value of the first boundary line on the captured image;
A second narrowed area setting unit configured to set a second narrowed area narrower than the second area in the second area based on the detected coordinate value of the second boundary line on the captured image; Prepared,
The first intersecting boundary line detection unit detects the first intersecting boundary line in the first narrowing region,
The second cross-boundary detection portion, it is preferable to detect the second intersection boundary line in the second narrowing region.

第1及び第2絞り込み領域は、第1及び第2領域に対して、大幅に絞り込まれた領域である。校正指標の格子模様の境界線の検出には、エッジ検出アルゴリズムなどの画像処理が利用されるが、画像処理の対象となる画素数が少なければ、その分だけ演算負荷が軽くなり、演算時間も短縮される。また、画像処理の対象となる領域が狭くなるので、第1及び第2交差境界線の近くにこれらと同じような直線が存在したとしても、それが第1及び第2絞り込み領域の範囲外であれば検出されない。従って、ノイズ耐性が向上し、安定した画像処理が可能となる。   The first and second narrowed areas are areas that are greatly narrowed with respect to the first and second areas. Image processing such as an edge detection algorithm is used to detect the grid pattern boundary of the calibration index. However, if the number of pixels subject to image processing is small, the calculation load is reduced and the calculation time is reduced accordingly. Shortened. In addition, since the area to be subjected to image processing becomes narrow, even if there are straight lines similar to these near the first and second intersecting boundary lines, they are outside the range of the first and second narrowing areas. If it exists, it will not be detected. Accordingly, noise resistance is improved and stable image processing is possible.

以下、本発明の実施形態を図面に基づいて説明する。図1は、校正用のマーカ2(校正指標)と車両1との配置関係の一例を示す説明図である。カメラ1(車載カメラ)は、車両100の後方のナンバープレートの上方に車体長手軸心から側方へオフセットした位置で、カメラ光軸を下方(例えば水平から30°下方)に向けて設置される。もちろん、カメラ1は、オフセットすることなく、中央に配置されてもよい。なお、この図示例では、車体長手軸心とカメラ光軸とは平行ではない。カメラ1は、例えば水平方向の視野角110〜120°の広角カメラであり、後方約8m程度までの領域を撮影可能である。このカメラ1は、車両の生産工場等で車両100に取り付けられる際に取り付け誤差を吸収するべく校正される。また、修理工場などにおいて、走行による振動の累積や衝撃などによるカメラ1のずれを修正するべく校正される。以下、自動車生産工場におけるカメラ校正を例として説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an explanatory diagram illustrating an example of an arrangement relationship between the calibration marker 2 (calibration index) and the vehicle 1. The camera 1 (vehicle camera) is installed above the license plate behind the vehicle 100 at a position offset laterally from the longitudinal axis of the vehicle body with the camera optical axis facing downward (for example, 30 ° downward from the horizontal). . Of course, the camera 1 may be arranged in the center without being offset. In the illustrated example, the longitudinal axis of the vehicle body and the camera optical axis are not parallel. The camera 1 is, for example, a wide-angle camera with a horizontal viewing angle of 110 to 120 °, and can capture an area up to about 8 m behind. The camera 1 is calibrated to absorb mounting errors when mounted on the vehicle 100 at a vehicle production factory or the like. Further, in a repair shop or the like, calibration is performed to correct the displacement of the camera 1 due to the accumulation of vibration caused by running or impact. Hereinafter, camera calibration in an automobile production factory will be described as an example.

図1に示すように、カメラ1の校正は、車両100を所定位置に停車させた状態で行われる。例えば、車両100をバックまたは前進させ、所定位置に設けられたタイヤ溝やタイヤ止めによって車輪が停止するようにすれば、正確な位置で停止させることが可能である。図1に示す例では、2つの校正指標2(2a、2b)が床面上に配置されている。図から明らかなように、2つの校正指標2a、2bの間隔は車両1のトレッド幅に比べて狭く、マーカ2が車両1の車輪によって踏まれにくい配置となっている。この配置とは逆に、2つのマーカ2a、2bの間隔を車両100のトレッド幅に比べて広くとって、マーカ2が車両1の車輪によって踏まれにくい配置を採用してもよい。   As shown in FIG. 1, the calibration of the camera 1 is performed in a state where the vehicle 100 is stopped at a predetermined position. For example, if the vehicle 100 is moved back or forward and the wheels are stopped by a tire groove or a tire stop provided at a predetermined position, the vehicle 100 can be stopped at an accurate position. In the example shown in FIG. 1, two calibration indices 2 (2a, 2b) are arranged on the floor surface. As is apparent from the figure, the interval between the two calibration indices 2a and 2b is narrower than the tread width of the vehicle 1, and the marker 2 is difficult to be stepped on by the wheels of the vehicle 1. Contrary to this arrangement, an arrangement may be adopted in which the interval between the two markers 2 a and 2 b is wider than the tread width of the vehicle 100 so that the marker 2 is not easily stepped on by the wheels of the vehicle 1.

図1において、車両100は、後端部中央の床面がワールド座標系(基準座標系、XW,YW,ZW)の原点OWとなるように停車されている。ここでは、カメラ1の光学中心OCを中心とするカメラ座標系(XC,YC,ZC)は、ワールド座標系に対して各軸が平行とはなっていない。ワールド座標系、カメラ座標系共に右手系の座標系であり、図中では、紙面に対して鉛直方向のXW軸、及びほぼ鉛直方向のXC軸は図示していない。ワールド座標系とカメラ座標系との間の座標変換は、例えば特開2008−131250号公報(特許文献1)等に記載されたような良く知られた演算法を用いて行うことができる。 In FIG. 1, the vehicle 100 is stopped so that the floor surface at the center of the rear end is the origin O W of the world coordinate system (reference coordinate system, X W , Y W , Z W ). Here, in the camera coordinate system (X C , Y C , Z C ) centered on the optical center O C of the camera 1, each axis is not parallel to the world coordinate system. World coordinate system, a camera coordinate system are both right-handed coordinate system, in the figure, X W axis in a direction perpendicular to the paper surface, and is not shown X C-axis of the substantially vertical direction. Coordinate conversion between the world coordinate system and the camera coordinate system can be performed using a well-known calculation method as described in, for example, Japanese Patent Application Laid-Open No. 2008-131250 (Patent Document 1).

マーカ2は、カメラ1の視野範囲内において少なくとも2箇所に配置される。また、マーカ2は、ワールド座標系においてその座標が既知となるように配置される。図2は、校正用のマーカ2の一例を示す説明図である。本例において、マーカ2は、図2に示すように青と赤の市松模様(格子模様の一例)のパターンを有している。パターンの境界線の交差点、つまり、中央の点Qが校正点であり、カメラ1の校正の基準となる。つまり、この校正点Qの座標がワールド座標系においてその座標が既知となるように、マーカ2は配置されている。尚、ここでは青の矩形2個、赤の矩形2個の計4個の矩形の例を示したが、計4個以上であっても良く、その数や形状はここで図示されているものに限定されない。   The markers 2 are arranged in at least two places within the visual field range of the camera 1. The marker 2 is arranged so that its coordinates are known in the world coordinate system. FIG. 2 is an explanatory diagram showing an example of the calibration marker 2. In this example, the marker 2 has a blue and red checkered pattern (an example of a lattice pattern) as shown in FIG. The intersection of the boundary lines of the pattern, that is, the center point Q is a calibration point and serves as a calibration reference for the camera 1. That is, the marker 2 is arranged so that the coordinates of the calibration point Q are known in the world coordinate system. In addition, although the example of a total of four rectangles of two blue rectangles and two red rectangles was shown here, there may be a total of four or more, and the number and shape are shown here. It is not limited to.

マーカ2は、蛍光灯からの光や窓ガラスから入射する日光などの環境光にさらされる床面に直接的または間接的に配置される。間接的な配置とは、台座等の上にマーカ2が配置されるような場合である。いずれにしても環境光の反射状況によっては画像認識が困難となる。従って、本発明では、鉄板につや消しサテン状塗料を2度塗りする塗装法を採用することで、マーカ2の表面をつや消し状態とし、環境光の反射等の影響を受けにくい撮影画像が得られるようにしている。   The marker 2 is directly or indirectly disposed on the floor surface exposed to ambient light such as light from a fluorescent lamp or sunlight incident from a window glass. Indirect arrangement is a case where the marker 2 is arranged on a pedestal or the like. In any case, image recognition becomes difficult depending on the environment light reflection state. Therefore, in the present invention, by adopting a coating method in which a matte satin-like paint is applied twice to the iron plate, the surface of the marker 2 is made to be in a matte state, and a photographed image that is not easily affected by reflection of ambient light or the like can be obtained. I have to.

図1に示す例では、2つのマーカ2は床上に車両の主軸(ワールド座標系のZW軸)に対して左右対称に配置されている(D1=D2、W1=W2)。ただし、常に左右対称である必要はなく、カメラ1の視野内であって、座標値が既知であればその配置は自由である。つまり、工場において確保できる広さや他の設備との関係によってマーカ2の配置を任意に設定することが可能である。ワールド座標系において校正点Qの座標値が既知であれば問題はない。 In the example shown in FIG. 1, the two markers 2 are arranged on the floor symmetrically with respect to the main axis of the vehicle (the Z W axis of the world coordinate system) (D1 = D2, W1 = W2). However, it is not always necessary to be left-right symmetric. If the coordinate values are known within the field of view of the camera 1, the arrangement is free. That is, the arrangement of the markers 2 can be arbitrarily set depending on the area that can be secured in the factory and the relationship with other equipment. There is no problem if the coordinate value of the calibration point Q is known in the world coordinate system.

マーカ2の寸法は、カメラ1の解像度やカメラ1による撮影画像を処理する画像処理機能の性能、マーカの配置位置などに応じて、精度良く校正点Qを検出できるように適切に定められる。一例として、D1とD2が1〜2m、W1とW2が0.5m程度である場合には、図2に示すような、各矩形が10〜15cm四方、全体が20〜30cm四方のマーカ2が利用される。尚、マーカ2は、床面ではなく、壁面上や衝立上に設置されてもよい。つまり、マーカ2は、カメラ1の視野内であれば、任意の面に設置可能である。   The dimension of the marker 2 is appropriately determined so that the calibration point Q can be detected with high accuracy in accordance with the resolution of the camera 1, the performance of the image processing function for processing a photographed image by the camera 1, the arrangement position of the marker, and the like. As an example, when D1 and D2 are about 1 to 2 m and W1 and W2 are about 0.5 m, as shown in FIG. 2, markers 2 each having a square of 10 to 15 cm square and a whole of 20 to 30 cm square are provided. Used. The marker 2 may be installed not on the floor but on the wall or on the screen. That is, the marker 2 can be placed on any surface as long as it is within the field of view of the camera 1.

図3は、本発明の車載カメラの校正装置の構成を模式的に示すブロック図である。図に示すように、校正装置は、画像受け取り部3と、画像出力部4と、システム制御部5と、入力I/F部6と、出力I/F部7と、画像処理部10と、を有している。これら各部は、機能としての分担を示すものであり、必ずしも独立して設けられる必要はない。マイクロコンピュータなどのハードウェアと、ハードウェア上で実行されるプログラムなどのソフトウェアとの協働によって各機能が実現されるものでも勿論構わない。   FIG. 3 is a block diagram schematically showing the configuration of the in-vehicle camera calibration device of the present invention. As shown in the figure, the calibration device includes an image receiving unit 3, an image output unit 4, a system control unit 5, an input I / F unit 6, an output I / F unit 7, an image processing unit 10, have. Each of these units shows a sharing as a function, and is not necessarily provided independently. Of course, each function may be realized by cooperation of hardware such as a microcomputer and software such as a program executed on the hardware.

入力I/F部6は、カメラ1の校正開始の指示などの入力信号を車載カメラの校正装置よりも上位のシステムから受け取り、システム制御部5に伝達する。ここで、上位のシステムとは、車両100の組み立て調整システムや、車両100のバックモニタシステム、ナビゲーションシステム、マルチメディアシステムなどである。システム制御部5は、カメラ1の校正装置の全般を制御するものであり、校正開始の指示などに基づいて画像処理部10などを制御する。出力制御部7はシステム制御部5を介して画像処理結果などを受け取り、上位のシステムや、校正装置の報知部などに電気信号を出力する。   The input I / F unit 6 receives an input signal such as an instruction to start calibration of the camera 1 from a system higher than the calibration device of the in-vehicle camera, and transmits it to the system control unit 5. Here, the host system is an assembly adjustment system of the vehicle 100, a back monitor system of the vehicle 100, a navigation system, a multimedia system, or the like. The system control unit 5 controls the entire calibration apparatus of the camera 1 and controls the image processing unit 10 and the like based on an instruction to start calibration. The output control unit 7 receives an image processing result or the like via the system control unit 5 and outputs an electrical signal to a host system, a notification unit of the calibration apparatus, or the like.

画像受け取り部3は、デジタルビデオカメラであるカメラ1による撮影画像をバッファ3a、同期分離部3b、クロック生成部3c、A/Dコンバー3cなどの公知の画像I/Fを介して受け取り、フレームメモリ3eに格納する。画像処理部10に備えられた不図示の画像データ制御部は、画像受け取り部3を制御する。例えば、フレームメモリ3eへの撮影画像の格納や、フレームメモリ3eからの撮影画像の読み出しを制御する。画像処理部10は、不図示の前処理部を有しており、必要に応じてカメラ1のレンズ特性等に起因する画像の歪みの補正や、濃度補正、コントラスト補正、シェーディング補正等のレベル調整を実行する。   The image receiving unit 3 receives an image captured by the camera 1 which is a digital video camera via a known image I / F such as a buffer 3a, a synchronization separation unit 3b, a clock generation unit 3c, an A / D converter 3c, and the like, and a frame memory Store in 3e. An image data control unit (not shown) provided in the image processing unit 10 controls the image receiving unit 3. For example, it controls storage of captured images in the frame memory 3e and reading of captured images from the frame memory 3e. The image processing unit 10 has a pre-processing unit (not shown), and if necessary, level adjustment such as correction of image distortion caused by lens characteristics of the camera 1, density correction, contrast correction, shading correction, etc. Execute.

画像処理部10は、その他、第1領域設定部11、第1境界線検出部12、第1絞り込み領域設定部13、第1交差境界線検出部14、第1校正点検出部15、第2領域設定部21、第2境界線検出部22、第2絞り込み領域設定部23、第2交差境界線検出部24、第2校正点検出部25、校正演算部31などの各機能部を有して構成されている。各機能部の詳細については、後述する。   In addition, the image processing unit 10 includes a first region setting unit 11, a first boundary line detection unit 12, a first narrowed region setting unit 13, a first intersection boundary line detection unit 14, a first calibration point detection unit 15, a second Each functional unit includes an area setting unit 21, a second boundary line detection unit 22, a second narrowed area setting unit 23, a second intersection boundary line detection unit 24, a second calibration point detection unit 25, a calibration calculation unit 31, and the like. Configured. Details of each functional unit will be described later.

図4は、キャプチャ領域の設定原理を示す説明図である。図に示すように、カメラ1の光軸が設計値通りの方向を向いている場合に、基準座標上の所定位置に配置されたマーカ2が撮影される撮影画像(h−v座標)上の校正点Qの位置を基準として、キャプチャ領域R1が設定される。本実施形態では、上述したように2つのマーカ2が用いられる。ここでは、それらの内の一方である第1マーカ2aの校正点Qを基準として、まず、キャプチャ領域R1が設定される。キャプチャ領域R1は、本発明の第1領域に相当する。   FIG. 4 is an explanatory diagram illustrating the principle of setting a capture area. As shown in the figure, when the optical axis of the camera 1 is directed in the direction as designed, the marker 2 placed at a predetermined position on the reference coordinates is taken on the photographed image (hv coordinate). The capture region R1 is set based on the position of the calibration point Q. In the present embodiment, as described above, the two markers 2 are used. Here, the capture region R1 is first set with the calibration point Q of the first marker 2a being one of them as a reference. The capture region R1 corresponds to the first region of the present invention.

カメラ1の回転方向のずれは、3次元直交座標のそれぞれの軸を回転軸とする、ロール、チルト、パンの3方向において発生する可能性がある。そこで、カメラ1の光軸が設計値通りの方向を向いている場合に対して、それぞれ、±3度のずれが発生しても、校正点Qを含む市松模様の境界線H1及びV1が必ず含まれるように、キャプチャ領域R1が設定される。第1領域設定11は、撮影画像IM上において第1マーカ2aの校正点Q(第1校正点)が含まれるようにキャプチャ領域R1を設定する。   The shift in the rotation direction of the camera 1 may occur in three directions of roll, tilt, and pan, with the respective axes of the three-dimensional orthogonal coordinates as rotation axes. Therefore, when the optical axis of the camera 1 is directed as designed, even if a deviation of ± 3 degrees occurs, the checkered borders H1 and V1 including the calibration point Q are always present. The capture region R1 is set so as to be included. The first area setting 11 sets the capture area R1 so that the calibration point Q (first calibration point) of the first marker 2a is included on the captured image IM.

キャプチャ領域R1が設定されると、第1境界線検出部12は、当該キャプチャ領域R1内において、市松模様の十字の境界線の内の一方の境界線である第1境界線V1を検出する。第1境界線V1は、2つのマーカ2が並ぶ方向に対して交差する方向、本例では撮影画像IMのv軸方向に沿って延びる境界線である。しかし、第1境界線として、2つのマーカ2が並ぶ方向に沿う方向、本例では撮影画像IMのh軸方向に沿って延びる境界線h1であることを妨げるものではない。本実施形態においては、図1に示すように、車幅方向に2つのマーカ2が並んで配置されているので、車両100の進行方向の中心軸に沿った方向に延びる境界線が第1境界線V1として検出される。   When the capture region R1 is set, the first boundary line detection unit 12 detects the first boundary line V1 that is one of the boundary lines of the checkered cross in the capture region R1. The first boundary line V1 is a boundary line that extends in the direction intersecting the direction in which the two markers 2 are arranged, in this example, the v-axis direction of the captured image IM. However, the first boundary line does not prevent the boundary line h1 extending along the direction in which the two markers 2 are arranged, in this example, along the h-axis direction of the captured image IM. In the present embodiment, as shown in FIG. 1, since the two markers 2 are arranged in the vehicle width direction, the boundary line extending in the direction along the central axis in the traveling direction of the vehicle 100 is the first boundary. Detected as line V1.

第1境界線検出部12は、キャプチャ領域R1内において第1境界線V1を検出する。図5は、キャプチャ領域R1内において第1境界線V1を検出する原理を示す説明図である。第1境界線検出部12は、例えば、特開2008−131250号公報(特許文献1)等に記載された公知のエッジ検出アルゴリズム及び直線認識アルゴリズムを利用して、第1境界線V1を検出することができる。ここで、第1境界線V1は、図5において縦方向に延びる直線である。従って、第1境界線検出部12は、全ての方向のエッジ検出を試みることなく、図5中の破線矢印方向、及び概ねこの矢印に対して45度方向のエッジを検出すれば足りる。その結果、第1境界線V1を検出するための演算時間が大幅に短縮される。   The first boundary line detection unit 12 detects the first boundary line V1 in the capture region R1. FIG. 5 is an explanatory diagram showing the principle of detecting the first boundary line V1 in the capture region R1. The first boundary line detection unit 12 detects the first boundary line V1 using a known edge detection algorithm and straight line recognition algorithm described in, for example, Japanese Patent Application Laid-Open No. 2008-131250 (Patent Document 1). be able to. Here, the first boundary line V1 is a straight line extending in the vertical direction in FIG. Therefore, the first boundary line detection unit 12 only needs to detect the edge in the direction of the broken line arrow in FIG. 5 and the direction in the direction of 45 degrees with respect to this arrow without trying to detect the edge in all directions. As a result, the calculation time for detecting the first boundary line V1 is greatly shortened.

本実施形態においては、上述したようにマーカ2は有色の指標である。従って、さらに以下に説明するアルゴリズムを適用すると、環境光の影響に対する耐性も強くなる。このアルゴリズムを実施するために、第1境界線検出部12は、不図示の色差変換部と、閾値設定部と、色領域判定部と、境界検出部とを含んでいる。これらの各機能部は、後述する第1交差境界線検出部14、第2境界線検出部22、第2交差境界線検出部24にも含まれる。   In the present embodiment, as described above, the marker 2 is a colored indicator. Therefore, when the algorithm described below is further applied, the tolerance to the influence of ambient light is enhanced. In order to implement this algorithm, the first boundary line detection unit 12 includes a color difference conversion unit (not shown), a threshold setting unit, a color area determination unit, and a boundary detection unit. These functional units are also included in a first intersection boundary detection unit 14, a second boundary detection unit 22, and a second intersection boundary detection unit 24 described later.

色差変換部は、RGB画像データとしてフレームメモリ3eに展開されている撮影画像IMのRGB画素値を演算して青色成分値と赤色成分値と輝度値を求めて色差画像データを生成する。この変換には、RGB表色系からYCbCr表色系への変換で用いられている、例えば次式を利用することができる。   The color difference conversion unit calculates the RGB pixel value of the captured image IM developed as the RGB image data in the frame memory 3e to obtain the blue component value, the red component value, and the luminance value, and generates the color difference image data. For this conversion, for example, the following expression used in the conversion from the RGB color system to the YCbCr color system can be used.

Y=0.299×R+ 0.587×G+ 0.114×B
Cb=0.564×(B − Y)
Cr=0.713×(R − Y)
ここで、Y:輝度値、Cb:青色成分値、Cr:赤色成分値、R:R画素値、G:G画素値、B:B画素値である。この式からの理解できるように、第1の色成分値や第2の色成分値、例えば青色成分値:Cb、赤色成分値:Cr は撮影画像の輝度(明るさ)に応じて変化するものである。
Y = 0.299 x R + 0.587 x G + 0.114 x B
Cb = 0.564 × (B−Y)
Cr = 0.713 × (R−Y)
Here, Y: luminance value, Cb: blue component value, Cr: red component value, R: R pixel value, G: G pixel value, B: B pixel value. As can be understood from this equation, the first color component value and the second color component value, for example, the blue component value: Cb and the red component value: Cr change according to the luminance (brightness) of the photographed image. It is.

閾値設定部は、色差変換部によって生成された色差画像データに含まれている輝度値(Y)に基づいて、対象画素(対象領域)が赤色であるかまたは青色であるかを判定するための判定条件としての特定色検出閾値を設定する。YCbCr表色系における青色成分値や赤色成分値には輝度値の影響が入っており、撮影画像IMが明るいほどその成分値が大きくなり、画像が暗いほどその成分値が小さくなる。図6には、ターゲット2を含む色差画像を横方向に走査した際の、青色成分値:Cbと赤色成分値:Crの変動の様子が示されている。図6(a)は明るい環境下で取得された撮影画像IMに基づくもので、その輝度値:Yの値は相対的に高くなり、青色成分値:Cbと赤色成分値:Crのレベルも相対的に高くなっている。図6(b)は暗い環境下で取得された撮影画像IMに基づくもので、その輝度値:Yの値は相対的に低くなり、その輝度値:Yの値は相対的に低くなっている。従って、色差画像データからターゲット2の青色領域または赤色領域を精度よく検出するためには、図6(a)に示すように輝度値が高い場合には、その検出条件としての閾値(THb、THr)のレベルを相対的に高くするとよい。逆に、図6(b)に示すように輝度値が低い場合には、その検出条件としての閾値のレベルを相対的に低くするとよい。   The threshold setting unit determines whether the target pixel (target region) is red or blue based on the luminance value (Y) included in the color difference image data generated by the color difference conversion unit. A specific color detection threshold is set as a determination condition. The blue component value and the red component value in the YCbCr color system are affected by the luminance value. The brighter the captured image IM, the larger the component value, and the darker the image, the smaller the component value. FIG. 6 shows how the blue component value: Cb and the red component value: Cr change when the color difference image including the target 2 is scanned in the horizontal direction. FIG. 6A is based on the captured image IM acquired in a bright environment, the luminance value: Y is relatively high, and the levels of the blue component value: Cb and the red component value: Cr are also relative. Is getting higher. FIG. 6B is based on the captured image IM acquired in a dark environment, and its luminance value: Y is relatively low, and its luminance value: Y is relatively low. . Therefore, in order to accurately detect the blue region or red region of the target 2 from the color difference image data, when the luminance value is high as shown in FIG. 6A, thresholds (THb, THr as detection conditions) ) Level should be relatively high. On the contrary, when the luminance value is low as shown in FIG. 6B, the threshold level as the detection condition may be relatively lowered.

このように画像の明るさ(輝度レベル)に応じて動的に閾値レベルを変動させるための好適な方法の1つとして、図7で模式的に示しているように、撮影画像IMにおける全画素の判定対象となる色成分値の平均値:VA_avgと、撮影画像における全画素のうち判定対象となる色成分値が上位レベルに属する画素(例えば最大色成分値の95%以上の色成分値を有する画素)の色成分値の色成分対応赤領域に対応する上位レベルの平均値:VH_avgと、それらの差分値:ΔV_avg(=VH_avg−VA_avg)とから、撮影画像の画素が特定色領域(ここでは青色または赤色)のいずれかに属すると判定するための特定色閾値:TH(THb、THr)を次式で求めことができる。   As one of the preferred methods for dynamically changing the threshold level according to the brightness (luminance level) of the image as described above, as schematically shown in FIG. The average value of the color component values to be determined: VA_avg, and the pixels whose color component values to be determined belong to the higher level among all the pixels in the captured image (for example, the color component value of 95% or more of the maximum color component value The pixel of the photographed image is a specific color region (here, from the average value VH_avg of the upper level corresponding to the color component corresponding red region of the color component value of the color component value) and the difference value ΔV_avg (= VH_avg−VA_avg). Then, a specific color threshold value TH (THb, THr) for determining that it belongs to either blue or red can be obtained by the following equation.

TH=VA_avg + K×ΔV_avg
ここで、Kは一定値であり、予め実験的に求められた値である。
TH = VA_avg + K × ΔV_avg
Here, K is a constant value and is a value obtained experimentally in advance.

このようにして算定された閾値:THは、撮影画像における輝度成分を含んだCb:青色成分値ないしはCr:赤色成分値をパラメータとする関数によって導出されているので、撮影画像における輝度レベルが高いと大きくなり、輝度レベルが低いと小さくなる。なお、この閾値を求める演算処理を簡単化するためには、青色の閾値:THbまたは赤色の閾値:THrの一方を求め、これを他方の閾値とするような閾値の共通化を行うとよい。   The threshold value TH calculated in this way is derived by a function including the luminance component in the captured image as a parameter of Cb: blue component value or Cr: red component value, and therefore the luminance level in the captured image is high. And increases when the luminance level is low. In order to simplify the calculation processing for obtaining this threshold value, it is preferable to obtain a common threshold value by obtaining one of the blue threshold value: THb or the red threshold value: THr and using this as the other threshold value.

撮影画像の明るさ(輝度レベル)に応じて動的に閾値レベルを変動させる方法は、上述したもの以外に種々の演算方法が考えられるが、上位概念的には次のように説明することができる。例えば、青領域判定のための閾値:THbは、Y:撮影画像の輝度または色差情報の輝度値の統計学的(平均値、中央値など)数値:f(Y)とCb:青色成分値の統計学的数値:f(Cb)とのをパラメータとする以下の関数:Fbで求めることができる。そして、赤領域判定のための閾値:THrは、Y:撮影画像の輝度または色差情報の輝度値の統計学的数値:f(Y)とCb:赤色成分値の統計学的数値:f(Cr)とのをパラメータとする以下の関数:Frで求めることができる。   Various methods other than those described above can be considered as a method of dynamically changing the threshold level according to the brightness (luminance level) of the photographed image. The upper concept can be explained as follows. it can. For example, the threshold value THb for determining the blue region is Y: statistical (average value, median value, etc.) numerical value: f (Y) and Cb: blue component value. It can be obtained by the following function: Fb with a parameter of statistical numerical value: f (Cb). The threshold value THr for determining the red area is Y: statistical value of luminance value of the captured image or luminance value of color difference information: f (Y) and Cb: statistical value of red component value: f (Cr ) With the following function: Fr.

THb=Fb(f(Y),f(Cb))
THr=Fr(f(Y),f(Cr))
THb = Fb (f (Y), f (Cb))
THr = Fr (f (Y), f (Cr))

なお、ここでは、青領域判定のための閾値:THbと赤領域判定のための閾値:THrの2つの閾値を求めたが、一方の閾値を兼用して使用することも可能である。   Here, the two threshold values of the threshold value for determining the blue region: THb and the threshold value for determining the red region: THr are obtained, but it is also possible to use one threshold value in combination.

色領域判定部は、閾値設定部によって動的に、つまり撮影画像毎に、設定された閾値を用いて、ターゲット2を含む色差画像を順次走査し、青色領域と赤色領域とを判定する。その際、青色領域を判定するための判定条件として、青色成分値が閾値を上回ることと赤色成分値が閾値を下回ることとをAND条件にするとよい。同様に、赤色領域を判定するための判定条件として、赤色成分値が閾値を上回ることと青色成分値が閾値を下回ることとをAND条件にするとよい。つまり、色差信号では青色成分値と赤色成分値とが対極関係にあるため、その差分を利用することでより正確な青色領域判定が可能となるからである。しかしながら、本発明では、青色領域と赤色領域とを判定する際に、一方の色成分値が閾値を上回ることと他方の色成分値が閾値を下回ることとをAND条件にすることに限定されているわけではない。青色領域を判定するための判定条件として、青色成分値が閾値を上回ることだけを採用しても良いし、赤色領域を判定するための判定条件として、赤色成分値が閾値を上回ることだけを採用しても良い。この手法で重要な点は、輝度情報を用いて特定色領域の判定条件を変更することである。   The color region determination unit sequentially scans the color difference image including the target 2 using the threshold value set dynamically by the threshold setting unit, that is, for each captured image, and determines a blue region and a red region. At this time, as a determination condition for determining the blue region, it is preferable to set the AND condition that the blue component value exceeds the threshold and the red component value falls below the threshold. Similarly, as a determination condition for determining the red region, an AND condition may be that the red component value exceeds the threshold and the blue component value falls below the threshold. That is, in the color difference signal, since the blue component value and the red component value are in a counter electrode relationship, more accurate blue region determination can be performed by using the difference. However, in the present invention, when determining the blue region and the red region, it is limited to the AND condition that one color component value exceeds the threshold value and the other color component value falls below the threshold value. I don't mean. As a determination condition for determining the blue region, only that the blue component value exceeds the threshold value may be employed, or as a determination condition for determining the red region, only that the red component value exceeds the threshold value is employed. You may do it. An important point in this method is to change the determination condition of the specific color region using luminance information.

このようにして第1境界線V1が検出されると、次に、第1絞り込み領域設定部13は、第1境界線V1の撮影画像IM上の座標値に基づいて、キャプチャ領域R1を絞り込んで、キャプチャ領域R1よりも狭い絞り込み領域S1を設定する。この絞り込み領域S1は、本発明の第1絞り込み領域に相当する。図8は、キャプチャ領域R1から絞り込み領域S1を設定する原理を示す説明図である。   When the first boundary line V1 is detected in this way, the first narrowed area setting unit 13 then narrows down the capture area R1 based on the coordinate values on the captured image IM of the first boundary line V1. A narrowing area S1 narrower than the capture area R1 is set. This narrowing area S1 corresponds to the first narrowing area of the present invention. FIG. 8 is an explanatory diagram showing the principle of setting the narrowed-down area S1 from the capture area R1.

図5に示すように、第1境界線V1は、始点V1sと終点V1eとを結ぶ線分である。尚、始点及び終点の呼称は便宜的なものであり、何れが始点及び終点であってもよい。第1マーカ2aの校正点Qは、第1境界線V1のどこかに含まれているはずである。第1交差境界線H1は、第1境界線V1のどこかで交差するので、第1領域R1における始点V1sと終点V1eとのv座標の範囲内に絞り込み領域S1が設定される。また、第1交差境界線H1の線分の長さもマーカ2の仕様や、シミュレーション結果によって一定の画素数内に収まる。そこで、始点V1s及び終点V1eのh座標からそれぞれ外側に向けて所定の画素数A及びBの範囲に、それぞれ余裕画素数M1及びM2を加えた範囲が絞り込み領域S1として設定される。尚、所定の画素数A及びBは同じ画素数であってよく、余裕画素数M1及びM2が同じ画素数であってよい。   As shown in FIG. 5, the first boundary line V1 is a line segment connecting the start point V1s and the end point V1e. Note that the names of the start point and end point are for convenience, and either may be the start point or end point. The calibration point Q of the first marker 2a should be included somewhere on the first boundary line V1. Since the first intersecting boundary line H1 intersects somewhere on the first boundary line V1, the narrowed-down area S1 is set within the range of the v coordinate between the start point V1s and the end point V1e in the first area R1. Further, the length of the line segment of the first intersecting boundary line H1 also falls within a certain number of pixels depending on the specification of the marker 2 and the simulation result. Therefore, a range obtained by adding the marginal pixel numbers M1 and M2 to the ranges of the predetermined pixel numbers A and B outward from the h coordinates of the start point V1s and the end point V1e, respectively, is set as the narrowed down region S1. The predetermined pixel numbers A and B may be the same pixel number, and the margin pixel numbers M1 and M2 may be the same pixel number.

第1交差境界線検出部14は、絞り込み領域S1内において第1交差境界線H1を検出する。第1交差境界線検出部14は、第1境界線検出部12と同様に、公知のエッジ検出アルゴリズム及び直線認識アルゴリズムを利用して、第1交差境界線H1を検出する。また、マーカ2は有色の指標であるから、上述した色差変換処理を伴うアルゴリズムも適用される。   The first intersecting boundary line detection unit 14 detects the first intersecting boundary line H1 in the narrowed down area S1. Similar to the first boundary line detection unit 12, the first intersection boundary line detection unit 14 detects the first intersection boundary line H1 using a known edge detection algorithm and straight line recognition algorithm. In addition, since the marker 2 is a colored index, the above-described algorithm involving the color difference conversion process is also applied.

ここで、第1交差境界線H1は、図8において横方向に延びる直線である。従って、第1交差境界線検出部14は、全ての方向のエッジ検出を試みることなく、図示矢印方向、及び概ねこの矢印に対して45度方向のエッジを検出すれば足りる。その結果、第1交差境界線H1を検出するための演算時間が大幅に短縮される。また、絞り込み領域S1はキャプチャ領域R1に対して、大幅に絞り込まれた領域であるから、エッジ検出アルゴリズムを用いて走査される画素数も大幅に少なくなっており、さらに演算時間が短縮される。また、キャプチャ領域R1内において、第1交差境界線H1と同じような直線Nが存在したとしても、それが第1絞り込み領域S1の外側であれば検出されない。従って、走査領域を狭くすることによって、ノイズ耐性も向上する。   Here, the first intersecting boundary line H1 is a straight line extending in the horizontal direction in FIG. Therefore, it is sufficient for the first intersection boundary detection unit 14 to detect an edge in the illustrated arrow direction and a 45-degree direction with respect to this arrow without trying to detect edges in all directions. As a result, the calculation time for detecting the first intersection boundary line H1 is greatly shortened. Further, since the narrowed area S1 is an area that is greatly narrowed down relative to the capture area R1, the number of pixels scanned using the edge detection algorithm is greatly reduced, and the calculation time is further shortened. Further, even if a straight line N similar to the first intersecting boundary line H1 exists in the capture region R1, it is not detected if it is outside the first narrowing region S1. Therefore, noise tolerance is also improved by narrowing the scanning area.

第1校正点検出部15は、検出された第1境界線V1と第1交差境界線H1とに基づいて、その交点を第1校正点Q1として検出する。図9は、校正点Qを検出する原理を示す説明図である。符号H1s及びH1eは、それぞれ検出された第1交差境界線H1の始点と終点とを示す。2つの直線V1及びH1が検出されていれば、簡単な幾何学演算により、第1校正点Q1は容易に演算することができる。   The first calibration point detector 15 detects the intersection as the first calibration point Q1 based on the detected first boundary line V1 and the first intersection boundary line H1. FIG. 9 is an explanatory diagram showing the principle of detecting the calibration point Q. Symbols H1s and H1e indicate the start point and the end point of the detected first intersection boundary line H1, respectively. If the two straight lines V1 and H1 are detected, the first calibration point Q1 can be easily calculated by a simple geometric calculation.

第2領域設定部21は、第1校正点Q1の座標値に基づいて第2マーカ2bの校正点Qを検出するためのキャプチャ領域R2(第2領域)を設定する機能部である。図10は、別のマーカに対応するキャプチャ領域の設定原理を示す説明図である。ここでは、先に検出された第1校正点Q1を基準として、最大左右幅(h方向幅)が設定される。具体的には、校正点Q1のh座標に対して画素数C離れた座標と、画素数D離れた座標とで挟まれた範囲の外側にそれぞれ余裕分の画素数M3及びM4を加味した範囲がh方向の領域として設定される。画素数C、D、M3、M4は、マーカ2の仕様やシミュレーション結果に応じて定められる。余裕分の画素数M3及びM4は同じ画素数であってよい。また、縦方向(v方向)については、h方向に±3度ずれた場合を考慮して領域が設定される。v方向に関しては、概ね第1領域R1のv方向の画素数と同じ画素数となる。第2領域R2は、検出された第1校正点Q1に基づいて設定されるので、特にh方向の幅において第1領域R1よりも絞り込まれた領域となる。   The second region setting unit 21 is a functional unit that sets a capture region R2 (second region) for detecting the calibration point Q of the second marker 2b based on the coordinate value of the first calibration point Q1. FIG. 10 is an explanatory diagram showing the principle of setting a capture area corresponding to another marker. Here, the maximum left-right width (h-direction width) is set with reference to the first calibration point Q1 detected earlier. Specifically, a range in which extra pixels M3 and M4 are added to the outside of the range sandwiched between the coordinates separated by the pixel number C and the coordinates separated by the pixel number D with respect to the h coordinate of the calibration point Q1. Is set as an area in the h direction. The pixel numbers C, D, M3, and M4 are determined according to the specifications of the marker 2 and the simulation results. The marginal number of pixels M3 and M4 may be the same number of pixels. In addition, in the vertical direction (v direction), a region is set in consideration of a case where it is shifted ± 3 degrees in the h direction. Regarding the v direction, the number of pixels is approximately the same as the number of pixels in the v direction of the first region R1. Since the second region R2 is set based on the detected first calibration point Q1, the region is more narrowed than the first region R1 particularly in the width in the h direction.

第2境界線検出部22は、キャプチャ領域R2において第2境界線V2を検出する機能部である。第2境界線検出部22は、第1境界線検出部12と同様に公知のエッジ検出アルゴリズム、直線認識アルゴリズム、及び上述した色差変換処理を伴うアルゴリズムを利用して、第2境界線V2を検出する。上述したように、第2領域R2は、検出された第1校正点Q1に基づいて設定されるので、第1領域R1よりも絞り込まれた狭い領域である。従って、第2境界線V2を検出するための演算時間は、第1境界線V1を検出するための演算時間に比べて短縮される。   The second boundary line detection unit 22 is a functional unit that detects the second boundary line V2 in the capture region R2. Similar to the first boundary line detection unit 12, the second boundary line detection unit 22 detects the second boundary line V2 by using a known edge detection algorithm, straight line recognition algorithm, and algorithm with the color difference conversion process described above. To do. As described above, since the second region R2 is set based on the detected first calibration point Q1, it is a narrower region narrowed down than the first region R1. Accordingly, the calculation time for detecting the second boundary line V2 is shortened compared to the calculation time for detecting the first boundary line V1.

次に、第2絞り込み領域設定部23は、第2境界線V2の撮影画像IM上の座標値に基づいて、キャプチャ領域R2を絞り込んで、キャプチャ領域R2よりもさらに狭い絞り込み領域S2を設定する。この絞り込み領域S2は、本発明の第2絞り込み領域に相当する。図11は、キャプチャ領域R2と絞り込み領域S2との関係を示す説明図である。上述した第1絞り込み領域S1への絞り込みと同様に、図11に示すように第2絞り込み領域S2へとキャプチャ領域R2が絞り込まれる。   Next, the second narrowed area setting unit 23 narrows down the capture area R2 based on the coordinate value on the captured image IM of the second boundary line V2, and sets a narrowed area S2 that is narrower than the capture area R2. This narrowing area S2 corresponds to the second narrowing area of the present invention. FIG. 11 is an explanatory diagram showing the relationship between the capture region R2 and the narrowed-down region S2. Similar to the above-described narrowing down to the first narrowing area S1, the capture area R2 is narrowed down to the second narrowing area S2 as shown in FIG.

第2交差境界線検出部24は、絞り込み領域S2内において第2交差境界線H2を検出する。第2交差境界線検出部24は、第1交差境界線検出部14と同様に、公知のエッジ検出アルゴリズム、直線認識アルゴリズム、及び上述した色差変換処理を伴うアルゴリズムを利用して、第2交差境界線H2を検出する。絞り込み領域S2はキャプチャ領域R2に対して、大幅に絞り込まれた領域であるから、エッジ検出アルゴリズムを用いて走査される画素数も大幅に少なくなっており、演算時間が短縮される。また、キャプチャ領域R2内において、第2交差境界線H2と同じような直線が存在したとしても、それが第2絞り込み領域S2の外側であれば検出されない。従って、走査領域を狭くすることによって、ノイズ耐性も向上する。   The second intersection boundary line detection unit 24 detects the second intersection boundary line H2 in the narrowed-down area S2. Similar to the first intersection boundary detection unit 14, the second intersection boundary detection unit 24 uses a known edge detection algorithm, a straight line recognition algorithm, and an algorithm with the above-described color difference conversion processing to generate the second intersection boundary detection unit 24. Line H2 is detected. Since the narrowed area S2 is an area that is greatly narrowed with respect to the capture area R2, the number of pixels scanned using the edge detection algorithm is also greatly reduced, and the calculation time is shortened. Further, even if a straight line similar to the second intersecting boundary line H2 exists in the capture region R2, it is not detected if it is outside the second narrowing region S2. Therefore, noise tolerance is also improved by narrowing the scanning area.

第2校正点検出部25は、検出された第2境界線V2と第1交差境界線H2とに基づいて、その交点を第2校正点Q2として検出する。第1校正点Q1と同様、図11に示すように、2つの直線が検出されていれば、簡単な幾何学演算により、第2校正点Q2は容易に演算される。   The second calibration point detector 25 detects the intersection as the second calibration point Q2 based on the detected second boundary line V2 and the first intersection boundary line H2. Similar to the first calibration point Q1, as shown in FIG. 11, if two straight lines are detected, the second calibration point Q2 can be easily calculated by simple geometric calculation.

校正演算部31は、校正点Q(Q1及びQ2)の空間上の配置位置を示すワールド座標系(基準座標系)における座標と、撮影画像IM上において検出された校正点Q(Q1及びQ2)のカメラ座標系における座標とに基づいて、カメラ1の回転量を演算してカメラ1を校正する。例えば、求められた回転量に基づいて回転ベクトルを求め、当該回転ベクトル又はその逆ベクトルを用いて、撮影画像IMが補正される。補正された画像は、カメラ1が設計値通りに設置された場合と同様の画像となる。補正された後の画像は、画像出力部4を介して出力され、例えば、車両100に搭載されたナビゲーションシステムのディスプレイ等に表示される。回転量や回転ベクトルの演算方法などは、特開2008−131250公報等に記載されたような公知の手法を用いて実施することができるのでここでは詳細な説明を省略する。   The calibration calculation unit 31 has coordinates in the world coordinate system (reference coordinate system) indicating the arrangement positions of the calibration points Q (Q1 and Q2) in space, and calibration points Q (Q1 and Q2) detected on the captured image IM. The camera 1 is calibrated by calculating the rotation amount of the camera 1 based on the coordinates in the camera coordinate system. For example, a rotation vector is obtained based on the obtained rotation amount, and the captured image IM is corrected using the rotation vector or its inverse vector. The corrected image is the same image as when the camera 1 is installed as designed. The corrected image is output via the image output unit 4 and displayed on, for example, a display of a navigation system mounted on the vehicle 100. The calculation method of the rotation amount and the rotation vector can be performed using a known method as described in JP 2008-131250 A and the like, and thus detailed description thereof is omitted here.

本発明の車載カメラの校正装置は、車両の生産工程や修理工程において用いられる。このような生産工程を経て生産される車両、修理工程を経てメンテナンスされる車両は、例えば、車両の後方を撮影するバックカメラを有し、その撮影画像をナビゲーションシステム等のディスプレイに表示させるバックモニタシステムなどの機能を備えたマルチメディアシステムを有している。ここで、マルチメディアシステムとは、オーディオビジュアル機能やナビゲーション機能などの複合的な機能を備えたシステムである。このマルチメディアシステムは、例えば、バックカメラの撮影画像を利用して画像処理を実施し、駐車支援を実行する駐車支援システムを備えることができる。バックモニタシステムや、駐車支援システムにおいて、車載カメラが精度良く校正されていることは非常に重要である。そして、車載カメラが搭載される車両が増加している今日では、効率的に車載カメラを校正することが、車両の生産性を高める上でも非常に重要である。本発明によれば、効率的に且つ正確に校正点の検出と位置算定を行うことが可能な車載カメラの校正装置を提供することが可能となる。   The in-vehicle camera calibration device of the present invention is used in a vehicle production process or repair process. A vehicle produced through such a production process and a vehicle maintained through a repair process have, for example, a back camera that photographs the back of the vehicle, and displays the photographed image on a display such as a navigation system. It has a multimedia system with system functions. Here, the multimedia system is a system having multiple functions such as an audio visual function and a navigation function. This multimedia system can include, for example, a parking assistance system that performs image processing using a captured image of a back camera and executes parking assistance. In the back monitor system and the parking support system, it is very important that the in-vehicle camera is calibrated with high accuracy. And nowadays, when the number of vehicles equipped with in-vehicle cameras is increasing, it is very important to calibrate the in-vehicle cameras efficiently in order to increase the productivity of the vehicles. ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the calibration apparatus of the vehicle-mounted camera which can perform a detection and position calculation of a calibration point efficiently and correctly.

〔別実施形態1〕
上記実施形態では、第1校正点Q1に基づいて第2領域R2を設定する例を示した。しかし、第1校正点Q1を検出する前であっても、第1境界線V1に基づいて第2領域R2を設定することが可能であり、そのように構成されていてもよい。この場合には第1境界線V1は、マーカ2の市松模様の境界線の内、2つのマーカ2が並ぶ方向に対して交差する方向、即ちv方向に沿った方向の境界線であることが好ましい。v方向に沿った方向の振れ幅が小さくなり、第2領域R2が良好に絞り込まれるからである。以下、第1境界線V1に基づいて第2領域R2を設定する原理を示す図12を利用して説明する。尚、2つのマーカ2が並ぶ方向に沿う方向、即ちh方向に沿った方向の境界線に基づいて第2領域R2を設定することも可能である。上述したように、境界線V1及びH1は、始点V1s及びH1s、終点V1e及びH1eとがほぼ特定される。従って、h方向に沿った方向の境界線であっても、始点及び終点の座標値に基づいて第2領域R2を設定することが可能である。
[Another embodiment 1]
In the above embodiment, an example in which the second region R2 is set based on the first calibration point Q1 has been described. However, even before the first calibration point Q1 is detected, the second region R2 can be set based on the first boundary line V1, and may be configured as such. In this case, the first boundary line V1 may be a boundary line in the direction intersecting the direction in which the two markers 2 are arranged, that is, the direction along the v direction, among the checkered pattern boundary lines of the marker 2. preferable. This is because the deflection width in the direction along the v direction becomes small, and the second region R2 is narrowed down satisfactorily. Hereinafter, description will be given with reference to FIG. 12 showing the principle of setting the second region R2 based on the first boundary line V1. Note that the second region R2 can also be set based on the boundary line in the direction along the direction in which the two markers 2 are arranged, that is, in the direction along the h direction. As described above, the start points V1s and H1s and the end points V1e and H1e are substantially specified for the boundary lines V1 and H1. Therefore, the second region R2 can be set based on the coordinate values of the start point and the end point even in the boundary line in the direction along the h direction.

第2のマーカ2bに関する第2領域設定部21は、2つのマーカ2が並ぶ方向に直交する方向である、第1のマーカ2aの第1境界線V1を基準として、最大左右幅(h方向幅)を設定する。第1境界線V1の始点V1s及び終点V1eを基準として、最大左右幅(h方向幅)が設定される。具体的には、始点V1sのh座標に対して画素数C離れた座標と、始点V1eのh座標に対して画素数D離れた座標とで挟まれた範囲の外側にそれぞれ余裕分の画素数M3及びM4を加味した範囲がh方向の領域として設定される。画素数C、D、M3、M4は、マーカ2の仕様やシミュレーション結果に応じて定められる。余裕分の画素数M3及びM4は同じ画素数であってよい。   The second area setting unit 21 related to the second marker 2b has a maximum horizontal width (h-direction width) with reference to the first boundary line V1 of the first marker 2a, which is a direction orthogonal to the direction in which the two markers 2 are arranged. ) Is set. The maximum left-right width (h-direction width) is set with reference to the start point V1s and end point V1e of the first boundary line V1. Specifically, the number of extra pixels on the outside of the range sandwiched between the coordinates that are separated by the number of pixels C from the h coordinate of the start point V1s and the coordinates that are separated by the number of pixels D from the h coordinate of the start point V1e. A range including M3 and M4 is set as an area in the h direction. The pixel numbers C, D, M3, and M4 are determined according to the specifications of the marker 2 and the simulation results. The marginal number of pixels M3 and M4 may be the same number of pixels.

また、縦方向(v方向)については、始点V1sのv座標に対して画素数E離れた座標と、始点V1eのv座標に対して画素数F離れた座標とで挟まれた範囲の外側にそれぞれ余裕分の画素数M5及びM6を加味した範囲がv方向の領域として設定される。画素数E、F、M5、M6は、マーカ2の仕様やシミュレーション結果に応じて定められる。余裕分の画素数M5及びM6は同じ画素数であってよい。   Further, in the vertical direction (v direction), outside the range sandwiched between the coordinates E apart from the v coordinate of the start point V1s and the coordinates F away from the v coordinate of the start point V1e. A range including the extra pixel numbers M5 and M6 is set as the v-direction region. The number of pixels E, F, M5, and M6 is determined according to the specification of the marker 2 and the simulation result. The marginal number of pixels M5 and M6 may be the same number of pixels.

〔別実施形態2〕
上記、実施形態においては、第1絞り込み領域設定部13及び第2絞り込み領域設定部23を有して、キャプチャ領域(第1領域R1及び第2領域R2)をさらに絞り込んだ上で、第1交差境界線H1及び第2交差境界線H2を検出する例を示した。しかし、キャプチャ領域R1及びR2をさらに絞り込むことなく、第1交差境界線H1及び第2交差境界線H2を検出しても勿論構わない。
[Another embodiment 2]
In the above-described embodiment, the first narrowed area setting unit 13 and the second narrowed area setting unit 23 are provided, and after further narrowing down the capture area (the first area R1 and the second area R2), the first intersection The example which detected the boundary line H1 and the 2nd crossing boundary line H2 was shown. However, it goes without saying that the first intersection boundary line H1 and the second intersection boundary line H2 may be detected without further narrowing down the capture regions R1 and R2.

以上、本発明によって、複数の色の組み合わせパターンからなる校正指標を環境光の影響下で撮影して得られた撮影画像データから、効率的に且つ正確に校正点の検出と位置算定を行うことが可能な車載カメラの校正装置を提供することが可能となる。   As described above, according to the present invention, calibration point detection and position calculation can be performed efficiently and accurately from captured image data obtained by photographing a calibration index composed of a combination pattern of a plurality of colors under the influence of ambient light. It is possible to provide an in-vehicle camera calibration device capable of performing

校正用のマーカと車両との配置関係の一例を示す説明図Explanatory drawing which shows an example of arrangement | positioning relationship between the marker for calibration and a vehicle 校正用のマーカの一例を示す説明図Explanatory drawing showing an example of a marker for calibration 本発明の車載カメラの校正装置の構成を模式的に示すブロック図The block diagram which shows typically the structure of the calibration apparatus of the vehicle-mounted camera of this invention キャプチャ領域の設定原理を示す説明図Explanatory diagram showing the capture area setting principle キャプチャ領域内において第1境界線を検出する原理を示す説明図Explanatory drawing which shows the principle which detects a 1st boundary line within a capture area | region マーカを含む色差画像を横方向に走査した際の、青色成分値:Cbと赤色成分値:Crの変動の様子を示す説明図Explanatory drawing which shows the mode of a fluctuation | variation of blue component value: Cb and red component value: Cr when the color difference image containing a marker is scanned to the horizontal direction. YCbCr表色系での撮影画像に対する捜査結果を示すグラフThe graph which shows the investigation result with respect to the picked-up image in YCbCr color system キャプチャ領域から絞り込み領域を設定する原理を示す説明図Explanatory drawing showing the principle of setting the narrowed down area from the capture area 校正点を検出する原理を示す説明図Explanatory diagram showing the principle of detecting calibration points 別のマーカに対応するキャプチャ領域の設定原理を示す説明図Explanatory drawing showing the principle of setting the capture area corresponding to another marker キャプチャ領域と絞り込み領域との関係を示す説明図であるIt is explanatory drawing which shows the relationship between a capture area | region and a narrowing-down area | region. 第1境界線に基づいて第2領域を設定する原理を示す説明図Explanatory drawing which shows the principle which sets a 2nd area | region based on a 1st boundary line

符号の説明Explanation of symbols

1:カメラ(車載カメラ)
2:マーカ(校正指標)
3:画像受け取り部
11:第1領域設定部
12:第1境界線検出部
13:第1絞り込み領域設定部
14:第1交差境界線検出部
15:第1校正点検出部
21:第2領域設定部
22:第2境界線検出部
23:第2絞り込み領域設定部
24:第2交差境界線検出部
25:第2校正点検出部
31:校正演算部
H1:第1交差境界線
H2:第2交差境界線
IM:撮影画像
Q、Q1、Q2:校正点
Q1:第1校正点
Q2:第2校正点
R1:第1領域
R2:第2領域
S1:第1絞り込み領域
S2:第2絞り込み領域
V1:第1境界線
V2:第2境界線
1: Camera (on-vehicle camera)
2: Marker (calibration index)
3: Image receiving unit 11: First region setting unit 12: First boundary line detection unit 13: First narrowing region setting unit 14: First intersection boundary line detection unit 15: First calibration point detection unit 21: Second region Setting unit 22: second boundary line detection unit 23: second narrowing area setting unit 24: second intersection boundary line detection unit 25: second calibration point detection unit 31: calibration calculation unit H1: first intersection boundary line H2: first Two intersecting boundary lines IM: Captured image Q, Q1, Q2: Calibration point Q1: First calibration point Q2: Second calibration point R1: First region R2: Second region S1: First narrowing region S2: Second narrowing region V1: First boundary line V2: Second boundary line

Claims (3)

少なくとも異なる2箇所に配置され、第1色と第2色との格子模様の境界線の交差点を校正点とする校正指標を撮影範囲内に含む車載カメラによって撮影された撮影画像を受け取る画像受け取り部と、
前記撮影画像上において、前記校正点の内の1つである第1校正点が含まれる第1領域を設定する第1領域設定部と、
前記第1領域において、前記校正指標の格子模様の境界線の内の1つである第1境界線を検出する第1境界線検出部と、
前記第1領域内において、前記第1境界線に交差する第1交差境界線を検出する第1交差境界線検出部と、
検出された前記第1境界線及び前記第1交差境界線の前記撮影画像上の座標に基づいて、それらの交差点の座標を前記第1校正点として検出する第1校正点検出部と、
検出された前記第1校正点の前記撮影画像上の座標値に基づいて、前記第1校正点とは異なる第2校正点が含まれる第2領域を、前記撮影画像上において前記第1領域よりも狭い範囲として設定する第2領域設定部と、
前記第2領域において、前記校正指標の格子模様の境界線の内の1つである第2境界線を検出する第2境界線検出部と、
前記第2領域内において、前記第2境界線に交差する第2交差境界線を検出する第2交差境界線検出部と、
検出された前記第2境界線及び前記第2交差境界線の前記撮影画像上の座標に基づいて、それらの交差点の座標を前記第2校正点として検出する第2校正点検出部と、
前記第1校正点、前記第2校正点の空間上の配置位置を示す基準座標系における座標と、前記撮影画像上において検出された前記第1校正点、前記第2校正点のカメラ座標系における座標とに基づいて、前記車載カメラを校正する校正演算部と、を備える車載カメラの校正装置。
An image receiving unit that receives captured images taken by a vehicle-mounted camera that is arranged in at least two different locations and includes a calibration index within the imaging range with the intersection of the boundary lines of the grid pattern of the first color and the second color as calibration points When,
A first region setting unit that sets a first region including a first calibration point that is one of the calibration points on the captured image;
A first boundary line detection unit that detects a first boundary line that is one of the boundary lines of the lattice pattern of the calibration index in the first region;
A first intersection boundary detection unit that detects a first intersection boundary that intersects the first boundary in the first region;
A first calibration point detector that detects the coordinates of the intersection as the first calibration point based on the coordinates of the detected first boundary line and the first intersection boundary line on the captured image;
Based on the detected coordinate value of the first calibration point on the photographed image, a second region including a second calibration point different from the first calibration point is represented on the photographed image by the first region. A second region setting unit that sets the narrow range,
A second boundary line detection unit that detects a second boundary line that is one of the boundary lines of the lattice pattern of the calibration index in the second region;
A second intersection boundary detection unit for detecting a second intersection boundary intersecting the second boundary in the second region;
A second calibration point detector that detects the coordinates of the intersection as the second calibration point based on the coordinates of the detected second boundary line and the second intersection boundary line on the captured image;
The coordinates in the reference coordinate system indicating the arrangement positions of the first calibration point and the second calibration point in space, the first calibration point detected on the captured image, and the second calibration point in the camera coordinate system An in-vehicle camera calibration apparatus comprising: a calibration calculation unit that calibrates the in-vehicle camera based on coordinates.
少なくとも異なる2箇所に配置され、第1色と第2色との格子模様の境界線の交差点を校正点とする校正指標を撮影範囲内に含む車載カメラによって撮影された撮影画像を受け取る画像受け取り部と、
前記撮影画像上において、前記校正点の内の1つである第1校正点が含まれる第1領域を設定する第1領域設定部と、
前記第1領域において前記校正指標の格子模様の境界線の内の1つである第1境界線を検出する第1境界線検出部と、
検出された前記第1境界線の前記撮影画像上の座標に基づいて、前記撮影画像上において、前記第1校正点とは異なる第2校正点が含まれる第2領域を前記第1領域よりも狭い範囲として設定する第2領域設定部と、
前記第1領域内において、前記第1境界線に交差する第1交差境界線を検出する第1交差境界線検出部と、
前記第2領域において前記校正指標の格子模様の境界線の内の1つである第2境界線を検出する第2境界線検出部と、
前記第2領域内において、前記第2境界線に交差する第2交差境界線を検出する第2交差境界線検出部と、
検出された前記第1境界線及び前記第1交差境界線の前記撮影画像上の座標に基づいて、それらの交差点の座標を前記第1校正点として検出する第1校正点検出部と、
検出された前記第2境界線及び前記第2交差境界線の前記撮影画像上の座標に基づいて、それらの交差点の座標を前記第2校正点として検出する第2校正点検出部と、
前記第1校正点、前記第2校正点の空間上の配置位置を示す基準座標系における座標と、前記撮影画像上において検出された前記第1校正点、前記第2校正点のカメラ座標系における座標とに基づいて、前記車載カメラを校正する校正演算部と、を備える車載カメラの校正装置。
An image receiving unit that receives captured images taken by a vehicle-mounted camera that is arranged in at least two different locations and includes a calibration index within the imaging range with the intersection of the boundary lines of the grid pattern of the first color and the second color as calibration points When,
A first region setting unit that sets a first region including a first calibration point that is one of the calibration points on the captured image;
A first boundary line detection unit that detects a first boundary line that is one of the grid pattern boundary lines of the calibration index in the first region;
Based on the detected coordinates of the first boundary line on the photographed image, a second area including a second calibration point different from the first calibration point on the photographed image is more than the first area. A second region setting unit for setting as a narrow range;
A first intersection boundary detection unit that detects a first intersection boundary that intersects the first boundary in the first region;
A second boundary line detection unit for detecting a second boundary line that is one of the grid pattern boundary lines of the calibration index in the second region;
A second intersection boundary detection unit for detecting a second intersection boundary intersecting the second boundary in the second region;
A first calibration point detector that detects the coordinates of the intersection as the first calibration point based on the coordinates of the detected first boundary line and the first intersection boundary line on the captured image;
A second calibration point detector that detects the coordinates of the intersection as the second calibration point based on the coordinates of the detected second boundary line and the second intersection boundary line on the captured image;
The coordinates in the reference coordinate system indicating the arrangement positions of the first calibration point and the second calibration point in space, the first calibration point detected on the captured image, and the second calibration point in the camera coordinate system An in-vehicle camera calibration apparatus comprising: a calibration calculation unit that calibrates the in-vehicle camera based on coordinates.
検出された前記第1境界線の前記撮影画像上の座標値に基づいて、前記第1領域内において前記第1領域よりも狭い第1絞り込み領域を設定する第1絞り込み領域設定部と、
検出された前記第2境界線の前記撮影画像上の座標値に基づいて、前記第2領域内において前記第2領域よりも狭い第2絞り込み領域を設定する第2絞り込み領域設定部と、をさらに備え、
前記第1交差境界線検出部は、前記第1絞り込み領域内において前記第1交差境界線を検出し、
前記第2交差境界線検出部は、前記第2絞り込み領域内において前記第2交差境界線を検出する、請求項1又は2に記載の車載カメラの校正装置。
A first narrowed area setting unit configured to set a first narrowed area narrower than the first area in the first area based on the detected coordinate value of the first boundary line on the captured image;
A second narrowed area setting unit configured to set a second narrowed area narrower than the second area in the second area based on the detected coordinate value of the second boundary line on the captured image; Prepared,
The first intersecting boundary line detection unit detects the first intersecting boundary line in the first narrowing region,
The second cross-boundary detection unit detects the second intersection boundary line in the second narrowing region, the in-vehicle camera calibration apparatus according to claim 1 or 2.
JP2008253257A 2008-09-30 2008-09-30 Car camera calibration system Expired - Fee Related JP5240517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008253257A JP5240517B2 (en) 2008-09-30 2008-09-30 Car camera calibration system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008253257A JP5240517B2 (en) 2008-09-30 2008-09-30 Car camera calibration system

Publications (2)

Publication Number Publication Date
JP2010087743A JP2010087743A (en) 2010-04-15
JP5240517B2 true JP5240517B2 (en) 2013-07-17

Family

ID=42251271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008253257A Expired - Fee Related JP5240517B2 (en) 2008-09-30 2008-09-30 Car camera calibration system

Country Status (1)

Country Link
JP (1) JP5240517B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5472463B2 (en) 2010-06-30 2014-04-16 富士通株式会社 Image processing program and image processing apparatus
RU2548649C2 (en) * 2010-09-06 2015-04-20 Айсин Сейки Кабусики Кайся Driver's aid
JP5573618B2 (en) 2010-11-12 2014-08-20 富士通株式会社 Image processing program and image processing apparatus
JP6107372B2 (en) 2013-04-22 2017-04-05 富士通株式会社 Image processing apparatus, image processing method, and image processing program
CN109827503B (en) * 2018-12-29 2020-09-08 北京农业信息技术研究中心 Method and device for accurately positioning field crops
CN110827357B (en) * 2019-09-30 2024-03-29 深圳市安思疆科技有限公司 Combined pattern calibration plate and structured light camera parameter calibration method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4803450B2 (en) * 2006-11-20 2011-10-26 アイシン精機株式会社 On-vehicle camera calibration device and vehicle production method using the device
JP5124147B2 (en) * 2007-02-01 2013-01-23 三洋電機株式会社 Camera calibration apparatus and method, and vehicle

Also Published As

Publication number Publication date
JP2010087743A (en) 2010-04-15

Similar Documents

Publication Publication Date Title
JP5339124B2 (en) Car camera calibration system
KR101205428B1 (en) Target position identifying apparatus
JP4861034B2 (en) Car camera calibration system
US8605156B2 (en) Calibration target detection apparatus, calibration target detecting method for detecting calibration target, and program for calibration target detection apparatus
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
WO2016056197A1 (en) In-vehicle camera calibration device, image generation device, in-vehicle camera calibration method, and image generation method
JP5240517B2 (en) Car camera calibration system
US20150360612A1 (en) Around view monitoring apparatus and method thereof
EP2061234A1 (en) Imaging apparatus
JP2013001366A (en) Parking support device and parking support method
JP5959311B2 (en) Data deriving apparatus and data deriving method
JP5083443B2 (en) Driving support device and method, and arithmetic device
CN110876053A (en) Image processing device, driving support system, and recording medium
KR20170001765A (en) Top view creating method for camera installed on vehicle and AVM system
US9827906B2 (en) Image processing apparatus
JP2008209212A (en) Display distortion measuring device and display distortion correction method
CN110188665B (en) Image processing method and device and computer equipment
JP2010183294A (en) Image processing apparatus, method of processing image, and program
JP2013239905A (en) Calibration apparatus for in-vehicle camera
JP6855254B2 (en) Image processing device, image processing system, and image processing method
CN113674361B (en) Vehicle-mounted all-round-looking calibration implementation method and system
JP5590387B2 (en) Color target position determination device
JP2009077022A (en) Driving support system and vehicle
WO2011090053A1 (en) Obstacle detection warning device
WO2012023370A1 (en) Target location determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130320

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5240517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees