JP2023018438A - In-vehicle camera and calibration method for in-vehicle camera - Google Patents

In-vehicle camera and calibration method for in-vehicle camera Download PDF

Info

Publication number
JP2023018438A
JP2023018438A JP2021122576A JP2021122576A JP2023018438A JP 2023018438 A JP2023018438 A JP 2023018438A JP 2021122576 A JP2021122576 A JP 2021122576A JP 2021122576 A JP2021122576 A JP 2021122576A JP 2023018438 A JP2023018438 A JP 2023018438A
Authority
JP
Japan
Prior art keywords
image
vehicle
pixel
calibration
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021122576A
Other languages
Japanese (ja)
Other versions
JP7459023B2 (en
Inventor
聰 陳
Cong Chen
和良 山崎
Kazuyoshi Yamazaki
正幸 小林
Masayuki Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2021122576A priority Critical patent/JP7459023B2/en
Priority to PCT/JP2022/004627 priority patent/WO2023007775A1/en
Priority to DE112022001700.7T priority patent/DE112022001700T5/en
Publication of JP2023018438A publication Critical patent/JP2023018438A/en
Application granted granted Critical
Publication of JP7459023B2 publication Critical patent/JP7459023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide a technology capable of highly accurately calibrating a wide-angle in-vehicle camera using a small chart.SOLUTION: An in-vehicle camera includes an imaging unit that images an object, an estimation unit that calculates the displacement of the pixels of the entire surface on the basis of the image captured by the imaging unit, an area selection unit that selects a plurality of predetermined areas determined in advance according to the shape and inclination of the windshield in the image captured by the imaging unit, and a calibration unit that corrects pixel misalignment on the entire surface on the basis of information of the estimation unit. The estimation unit estimates the pixel displacement of the entire image using images detected from the plurality of predetermined areas in the image captured by the imaging unit.SELECTED DRAWING: Figure 1

Description

本発明は、車載カメラおよび車載カメラのキャリブレーション方法に関する。 The present invention relates to a vehicle-mounted camera and a vehicle-mounted camera calibration method.

車載カメラなどのカメラシステムのキャリブレーション技術について、特開2011-49733号公報(特許文献1)、特開2013-109416号公報(特許文献2)に記載がある。 Japanese Patent Laying-Open No. 2011-49733 (Patent Document 1) and Japanese Patent Laying-Open No. 2013-109416 (Patent Document 2) describe calibration techniques for a camera system such as an in-vehicle camera.

特許文献1には、「本発明では、カメラで撮影した映像の歪みを、領域ごとに異なる関数モデルで近似する。これによりレンズ歪みを関数モデルに近似して、補正を高精度に行うことが可能となり、視認性の向上や、画像認識の精度向上を実現できる。」という記載がある。 In Patent Document 1, "In the present invention, the distortion of an image captured by a camera is approximated by a function model that differs for each region. By approximating the lens distortion to a function model, correction can be performed with high accuracy." It is possible to improve the visibility and improve the accuracy of image recognition.”

特許文献2には、「本実施形態では、画角領域に対し重み付けを行ってから、歪み係数を算出する。図1(b)は、TELE領域(狭画角)の重み付けを大きくした場合を説明する図の一例である。狭画角の重み付けを広画角よりも大きくすることで、狭画角の画像の歪みを精度よく補正できる歪み係数が得られる。このため、ステレオカメラの場合、狭画角にある被写体に対し高精度な測距が可能となる。図1(c)は、WIDE領域(広画角)の重み付けを大きくした場合の歪み係数を説明する図の一例である。広画角の重み付けを狭画角よりも大きくすることで、広画角の画像の歪みを精度よく補正できる歪み係数が得られる。このため、ステレオカメラの場合、広画角にある被写体に対し高精度な測距が可能となる。」という記載がある。 In Patent Document 2, "In this embodiment, the distortion coefficient is calculated after weighting the field angle region. FIG. It is an example of a diagram for explanation.By making the weighting of the narrow angle of view larger than that of the wide angle of view, the distortion coefficient that can accurately correct the distortion of the image of the narrow angle of view can be obtained.For this reason, in the case of the stereo camera, High-precision distance measurement is possible for a subject in a narrow angle of view.Fig. 1(c) is an example of a diagram illustrating a distortion coefficient when weighting a WIDE region (wide angle of view) is increased. By weighting the wide angle of view more than the narrow angle of view, it is possible to obtain a distortion coefficient that can accurately correct the distortion of the wide angle of view image. Highly accurate distance measurement is possible."

特開2011-49733号公報JP 2011-49733 A 特開2013-109416号公報JP 2013-109416 A

従来の車載カメラでの測距は、主に、正面の障害物に対する衝突回避をサポートする機能である。一方で、交差点での事故まだ多く、更なる事故低減を目的として、これからの車載カメラはだんだん広い認識画角は必要となる。しかし、認識画角を広げるためには、広角レンズを使用することになり、歪み量(画素ずれ)も大きくなるので、キャリブレーションに対して精度の要求は高くなる。 Distance measurement with conventional in-vehicle cameras is mainly a function that supports collision avoidance against obstacles in front of the vehicle. On the other hand, there are still many accidents at intersections, and in order to further reduce accidents, future in-vehicle cameras will need a wider recognition angle of view. However, in order to widen the recognition angle of view, a wide-angle lens is used, and the amount of distortion (pixel shift) also increases, so the demand for accuracy in calibration increases.

一方で、認識画角が広くなるに伴い、キャリブレーションする範囲も大きくなり、画素ずれを測る校正用画像(以下、チャートと言う)のサイズも大きくなる。特に、車載カメラの場合はフロントガラスの屈折の影響で画素ずれが更に大きくなり、さらに、車載カメラの取り付けのばらつき又はフロントガラスの形状のばらつきは無視できなくなるので、車ごとにキャリブレーションを実施する必要性が高くなる。この場合、チャートのサイズが大きすぎると、工場又はディーラー内でのチャートの設置が困難となり、キャリブレーションが困難となる。車載カメラでは、例えば、左右(水平方向)の画角(視野角FOVとも言う)が40度の場合、3m(横幅)×3m(縦幅)のチャートを用いる場合がある。また、左右の画角が120度の場合、14m(横幅)×3m(縦幅)のチャートが必要な場合がある。 On the other hand, as the recognition angle of view widens, the range to be calibrated also increases, and the size of a calibration image (hereinafter referred to as a chart) for measuring pixel deviation also increases. In particular, in the case of on-board cameras, the pixel deviation becomes even greater due to the refraction of the windshield, and furthermore, variations in the installation of the on-board camera or variations in the shape of the windshield cannot be ignored, so calibration must be performed for each vehicle. the need increases. In this case, if the size of the chart is too large, it will be difficult to install the chart in the factory or dealer, making calibration difficult. In an on-vehicle camera, for example, when the left and right (horizontal direction) angle of view (also referred to as the viewing angle FOV) is 40 degrees, a chart of 3 m (horizontal width)×3 m (vertical width) may be used. Also, when the left and right angle of view is 120 degrees, a chart of 14 m (horizontal width)×3 m (vertical width) may be required.

本発明の課題は、小型のチャートを利用して、広角化された車載カメラのキャリブレーションを高精度に実現できる技術を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a technique capable of highly accurately calibrating a vehicle-mounted camera with a wide angle using a small chart.

本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the present invention will become apparent from the description of the specification and the accompanying drawings.

本願において開示される発明のうち代表的なものについて簡単に説明すれば下記のとおりである。 A brief description of representative inventions among the inventions disclosed in the present application is as follows.

一実施の形態に係る車載カメラは、対象物を撮像する撮像部と、撮像回部で撮像した画像をもとに全面の画素のずれを算出する推定部と、撮像部で撮影した画像においてフロントガラスの形状および傾斜に応じてあらかじめ定められた複数の所定領域を選択する領域選択部と、推定部の情報を基に全面の画素のずれを補正するキャリブレーション部と、を備える。推定部は、撮像部で撮影した画像の中の複数の所定領域から検出した画像を用いて画像全体の画素ずれを推測する。 An in-vehicle camera according to an embodiment includes an imaging unit that captures an image of an object, an estimating unit that calculates the pixel deviation of the entire surface based on the image captured by the imaging unit, and a front camera in the image captured by the imaging unit. An area selection unit that selects a plurality of predetermined areas determined in advance according to the shape and inclination of the glass, and a calibration unit that corrects pixel deviations on the entire surface based on information from the estimation unit. The estimating unit estimates the pixel displacement of the entire image using images detected from a plurality of predetermined regions in the image captured by the imaging unit.

この発明の技術によれば、小型のチャートでも高精度で車載カメラのキャリブレーションを実現することが可能である。 According to the technique of the present invention, it is possible to calibrate an in-vehicle camera with high accuracy even with a small chart.

上記した以外の課題、構成および効果は、以下の発明を実施するための形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of the mode for carrying out the invention.

図1は、実施例における車載カメラの構成例を示すブロック図。FIG. 1 is a block diagram showing a configuration example of an in-vehicle camera in an embodiment; 図2は、実施例における車載カメラのキャリブレーションの処理手順を示すフローチャート。FIG. 2 is a flowchart showing a procedure of calibrating the vehicle-mounted camera in the embodiment. 図3は、車載カメラが被写体を映す様子の一例を示す説明図。FIG. 3 is an explanatory diagram showing an example of how an in-vehicle camera captures a subject; 図4は、車載カメラが被写体を映す画像の一例を示す説明図。FIG. 4 is an explanatory diagram showing an example of an image of an object captured by an in-vehicle camera; 図5は、比較例における大きいチャートを用いて全画面の画素ずれを測定する例を示す説明図。FIG. 5 is an explanatory diagram showing an example of measuring the pixel deviation of the entire screen using a large chart in the comparative example. 図6は、小さいチャートを用いて特定領域のみ測定する例を示す説明図。FIG. 6 is an explanatory diagram showing an example of measuring only a specific region using a small chart; 図7Aは、式1を示す図。7A is a diagram showing Formula 1. FIG. 図7Bは、式2、式3および式4を示す図。7B is a diagram showing Equations 2, 3, and 4; FIG. 図8は、車載カメラの取り付けのばらつきの例とフロントガラスの形状のばらつきの例とを示す図。FIG. 8 is a diagram showing an example of variations in mounting of an in-vehicle camera and an example of variations in the shape of a windshield; 図9は、関連性あるばらつきパラメータが区別できない例を示す図。FIG. 9 is a diagram showing an example in which relevant variability parameters are indistinguishable. 図10は、フロントガラスの傾き角度(30度~35度)の場合のばらつきパラメータの感度を説明する図である。FIG. 10 is a diagram for explaining the sensitivity of the variation parameter for the inclination angle of the windshield (30 degrees to 35 degrees). 図11は、フロントガラスの傾き角度(35度以上:40度~70度)の場合のばらつきパラメータの感度を説明する図である。FIG. 11 is a diagram for explaining the sensitivity of the variation parameter when the tilt angle of the windshield is 35 degrees or more: 40 degrees to 70 degrees.

以下、図面を参照して本発明の実施の形態を説明する。実施の形態または実施例は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments and examples are examples for explaining the present invention, and are appropriately omitted and simplified for clarity of explanation. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.

図面において示す各構成要素の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each component shown in the drawings may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. As such, the present invention is not necessarily limited to the locations, sizes, shapes, extents, etc., disclosed in the drawings.

同一あるいは同様の機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of components having the same or similar functions, they may be described with the same reference numerals and different suffixes. Further, when there is no need to distinguish between these constituent elements, the subscripts may be omitted in the description.

本実施例の内容について、図1~図6を用いて説明する。 The contents of this embodiment will be described with reference to FIGS. 1 to 6. FIG.

図3は車載カメラが被写体を映す様子の一例を示す説明図である。31は車載カメラ30を有する車両である。32、33、34は被写体である(この例では、三つの被写体がある)。これら三つの被写体32-34を映す検出画像DPA、DPBが図4に示されている。検出画像DPA、DPBにおいて、横は水平方向Hであり、縦は垂直方向Vである。図4の検出画像DPAは、フロントガラスなしの場合の被写体32A、33A、34Aの像の位置と、フロントガラスありの場合の被写体32B、33B、34Bの像の位置と、を示している。フロントガラスなし場合の像(32A、33A、34A)の位置はフロントガラスの屈折がない、つまり、画素ずれのない理想的な位置である。一方、フロントガラスあり場合の像(32B、33B、34B)の位置は車載カメラの取り付けばらつきやフロントガラスの形状・板厚のばらつきがない状態で映した像の位置であるものとする。この像(32A、33A、34A)の位置と像(32A、33A、34A)の位置との差は画素ずれ(PS1)という。もし同じ車種の全て車は車載カメラの取り付け、フロントガラスの形状・板厚のばらつきがないならば、一つの車種で一回だけ測定すると、同一車種の全ての車をキャリブレーションできることになる。 FIG. 3 is an explanatory diagram showing an example of how an in-vehicle camera captures a subject. 31 is a vehicle having an in-vehicle camera 30 . 32, 33 and 34 are subjects (there are three subjects in this example). Detection images DPA and DPB showing these three subjects 32-34 are shown in FIG. In the detection images DPA and DPB, the horizontal direction is H, and the vertical direction is V. As shown in FIG. The detection image DPA in FIG. 4 shows the positions of the images of the subjects 32A, 33A, and 34A without the windshield and the positions of the images of the subjects 32B, 33B, and 34B with the windshield. The positions of the images (32A, 33A, 34A) without the windshield are ideal positions where there is no refraction of the windshield, that is, there is no pixel shift. On the other hand, the positions of the images (32B, 33B, and 34B) with the windshield are assumed to be the positions of the images projected without variations in the mounting of the vehicle-mounted camera and variations in the shape and thickness of the windshield. The difference between the positions of the images (32A, 33A, 34A) and the positions of the images (32A, 33A, 34A) is called pixel shift (PS1). If all cars of the same model are equipped with on-board cameras, and if there are no variations in the shape and thickness of the windshield, all cars of the same model can be calibrated by measuring only once for one model.

しかし、図4の検出画像DPBに示すように、実際の場合は車載カメラの取り付けばらつきやフロントガラスの形状・板厚のばらつきがあるので、フロントガラスで屈折された像の位置は設計値と異なる。検出画像DPBには、フロントガラスなしの場合の被写体32A、33A、34Aの像の位置と、車載カメラの取り付けばらつきやフロントガラスの形状、傾斜および板厚のばらつきがある場合の像(32C、33C、34C)の位置とが示されている。像(32A、33A、34A)の位置と像(32C、33C、34C)の位置との差である画素ずれは、画素ずれPS2でされる。画素ずれPS2の量(矢印の長さ)は、画素ずれPS1の量(矢印の長さ)より大きくなる。 However, as shown in the detection image DPB in FIG. 4, in actual cases, there are variations in the mounting of the vehicle-mounted camera and variations in the shape and thickness of the windshield, so the position of the image refracted by the windshield differs from the design value. . The detected image DPB includes the positions of the images of the subjects 32A, 33A, and 34A when there is no windshield, and the images (32C, 33C , 34C) are shown. The pixel shift, which is the difference between the positions of the images (32A, 33A, 34A) and the positions of the images (32C, 33C, 34C), is pixel shift PS2. The amount of pixel shift PS2 (length of arrow) is greater than the amount of pixel shift PS1 (length of arrow).

検出画像DPAの像(32B、33B、34B)の位置と検出画像DPBの像(32C、33C、34C)の位置とは、画素ずれ(PS2-PS1)を生じる。例えば、像32Aに対する像32Bの画素ずれPS1の水平方向の画素ずれ成分と、像32Aに対する像32Cとの画素ずれPS2の水平方向の画素ずれ成分とを比較すると、水平方向に画素ずれPSH(=PS2(水平方向)-PS1(水平方向))を生じる。この様な画素ずれは狭角カメラの場合は影響が小さいので無視できる場合もあるが、広角化されたカメラを採用するステレオカメラや単眼カメラなどの車載カメラでは、歪みが大きくなり、このばらつきで生じた画素ずれは無視できなくなる。よって、車ごとにキャリブレーションは必要である。 A pixel shift (PS2-PS1) occurs between the positions of the images (32B, 33B, 34B) of the detection image DPA and the positions of the images (32C, 33C, 34C) of the detection image DPB. For example, comparing the horizontal pixel shift component of the pixel shift PS1 of the image 32B with respect to the image 32A and the horizontal pixel shift component of the pixel shift PS2 of the image 32C from the image 32A, the horizontal pixel shift PSH (= PS2 (horizontal) - PS1 (horizontal)). In the case of a narrow-angle camera, the effect of such pixel deviation is small, so it can be ignored in some cases. The resulting pixel deviation cannot be ignored. Therefore, calibration is required for each vehicle.

図5は、比較例における大きいチャートを用いて全画面の画素ずれを測定する例を示す説明図である。図5に示す比較例のキャリブレーション方式では、車載カメラ52の広角化された視野角である広角領域のすべてをカバーできる大きいチャート(校正用画像)51を準備する。例えば、車載カメラ52の左右の画角が120度の場合、14m(横幅)×3m(縦幅)のチャート51が利用される。 FIG. 5 is an explanatory diagram showing an example of measuring the pixel displacement of the entire screen using a large chart in the comparative example. In the calibration method of the comparative example shown in FIG. 5, a large chart (calibration image) 51 that can cover the entire wide-angle region, which is the widened viewing angle of the vehicle-mounted camera 52, is prepared. For example, when the left and right angles of view of the in-vehicle camera 52 are 120 degrees, the chart 51 of 14 m (horizontal width)×3 m (vertical width) is used.

フロントガラス53を通して車載カメラ52の広角化されたカメラで、大きいチャート51を撮影する。図5に示すように、大きいチャート51で測定すると、車載カメラ52の全画面の画素ずれ(δε)を取得できる。全画面の画素ずれ(δε)において、横軸は水平画角(FOVH)を示し、縦軸は垂直画角(FOVV)を示す。また、矢印の方向は画素ずれのずれ方向を示し、矢印の長さは画素ずれのずれ量を示している。この全画面の画素ずれ(δε)をキャンセルすれば、全画面における画素ずれ(δε)などの画像の歪みを解消でき、全画面内の全画素についてキャリブレーションを行うことができる。全画面における画素ずれ(δε)は、車載カメラの取り付けばらつきに基づく歪、フロントガラスの形状、傾斜および板厚のばらつきに基づく歪、または、車載カメラの広角レンズの形状ばらつきに基づく歪みなどにより発生する。 A large chart 51 is photographed through a windshield 53 by a wide-angle camera of an in-vehicle camera 52.例文帳に追加As shown in FIG. 5, by measuring with a large chart 51, the pixel shift (δε) of the entire screen of the on-vehicle camera 52 can be obtained. In the pixel deviation (δε) of the entire screen, the horizontal axis indicates the horizontal angle of view (FOVH), and the vertical axis indicates the vertical angle of view (FOVV). The direction of the arrow indicates the direction of pixel displacement, and the length of the arrow indicates the amount of pixel displacement. By canceling the pixel displacement (Δε) of the entire screen, image distortion such as the pixel displacement (Δε) of the entire screen can be eliminated, and all pixels in the entire screen can be calibrated. Pixel displacement (δε) in the entire screen is caused by distortion due to variations in mounting of the in-vehicle camera, distortion due to variations in windshield shape, inclination, and plate thickness, and distortion due to variations in the shape of the wide-angle lens of the in-vehicle camera. do.

この場合、大きいチャート51のサイズが大きすぎると、工場又はディーラー内に大きいチャート51を設置することが困難となる。そのため、車両ごとの全画面のキャリブレーションができなくなるという懸念がある。 In this case, if the size of the large chart 51 is too large, it will be difficult to install the large chart 51 in the factory or dealer. Therefore, there is a concern that full screen calibration for each vehicle will not be possible.

図6を用いて、実施例にかかるキャリブレーション方式を説明する。図6は、小さいチャートを用いて特定領域のみ測定するキャリブレーション方式の例を示す説明図である。 A calibration method according to the embodiment will be described with reference to FIG. FIG. 6 is an explanatory diagram showing an example of a calibration method for measuring only a specific area using a small chart.

図5で説明した大きいチャート51で画像全画面の画素ずれ(δε)を測定する代わりに、図6では、複数枚の小さいチャート61を用いて、車載カメラ62の全画面内の複数の特定領域の画素ずれが測定される。この例では、3枚の小さいチャート61を用いて、3か所の特定領域(64、65、66)の画素ずれ(δεp1、δεp2、δεp3)が測定される。3か所の特定領域(64、65、66)のおのおののサイズは、全画面の画像の1/2以下である。複数の所定領域がnの領域であった場合、各所定領域のうち少なくとも1つの領域は、全画面の画像の1/n以下である。小さいチャート61のサイズは、例えば、1m~2m以下×1m~2m以下を利用することができる。車載カメラ62は、フロントガラス63を通して車載カメラ62の広角化されたカメラで、複数の小さいチャート61を撮影することで、車載カメラ62の全画面内の特定領域64、65、66の画素ずれ(δεp1、δεp2、δεp3)を測定する。 Instead of using the large chart 51 described in FIG. 5 to measure the pixel deviation (δε) of the entire image screen, in FIG. is measured. In this example, three small charts 61 are used to measure pixel shifts (δεp1, δεp2, δεp3) in three specific regions (64, 65, 66). The size of each of the three specified areas (64, 65, 66) is less than 1/2 of the full screen image. When the plurality of predetermined areas is n areas, at least one area of each predetermined area is 1/n or less of the entire screen image. The size of the small chart 61 can be, for example, 1 m to 2 m or less×1 m to 2 m or less. The in-vehicle camera 62 is a wide-angle camera of the in-vehicle camera 62 through the windshield 63, and by photographing a plurality of small charts 61, pixel shifts ( δεp1, δεp2, δεp3) are measured.

車載カメラ62は、この特定領域64、65、66の画素ずれ(δεp1、δεp2、δεp3)を用いて、ばらつきパラメータδφ(例えば、δφ1、δφ2、δφ3、・・・:各ばらつきの要因の値)を計算する。そして、車載カメラ62は、最後にばらつきパラメータ(δφ)から全画面の画素ずれ(δε)を推定する推定画素ずれ(δε’)を算出する。これにより、複数枚の小さいチャート61でも広角化された車載カメラ62の全画面の画素ずれ(δε)をキャリブレーションできる。ばらつきパラメータδφ(例えば、δφ1、δφ2、δφ3、・・・)は、後述の図7Bで説明される様に、直交化したばらつきパラメータδψ(δψ1、δψ2、δψ3、・・・)に変更することができる。 The in-vehicle camera 62 uses the pixel shifts (δεp1, δεp2, δεp3) of the specific regions 64, 65, 66 to calculate the variation parameter δφ (eg, δφ1, δφ2, δφ3, . to calculate Then, the vehicle-mounted camera 62 finally calculates an estimated pixel deviation (δε′) for estimating the pixel deviation (δε) of the entire screen from the variation parameter (δφ). As a result, even with a plurality of small charts 61, it is possible to calibrate the pixel deviation (δε) of the entire screen of the wide-angle vehicle-mounted camera 62 . Variation parameters δφ (eg, δφ1, δφ2, δφ3, . can be done.

図6のキャリブレーション方式を実施可能な車載カメラおよびキャリブレーション方式の詳細を図1および図2を用いて説明する。図1は、実施例における車載カメラの構成例を示すブロック図を示す。図2は、実施例における車載カメラのキャリブレーションの処理手順を示すフローチャートである。 Details of an in-vehicle camera that can implement the calibration method of FIG. 6 and the calibration method will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 shows a block diagram showing a configuration example of an in-vehicle camera in an embodiment. FIG. 2 is a flow chart showing a procedure of calibrating the vehicle-mounted camera in the embodiment.

図1に示すように、車載カメラ62は、撮像部10と、領域選択部11と、外部入力部12と、パラメータ算出部13と、全画面の画素ずれを推定する全面画素ずれ推定部14と、キャリブレーション部15と、を有する。ここで、全画面とは、撮像部10に内蔵されるカメラの取得可能な水平画角および垂直画角の全体を意味することとする。 As shown in FIG. 1, the vehicle-mounted camera 62 includes an imaging unit 10, an area selection unit 11, an external input unit 12, a parameter calculation unit 13, and a full-screen pixel shift estimation unit 14 for estimating pixel shifts on the entire screen. , and a calibration unit 15 . Here, the full screen means the entire horizontal angle of view and vertical angle of view that can be acquired by the camera built into the imaging unit 10 .

撮像部10は、対象物を撮像する撮像回路であり、領域選択部11に接続している。撮像部10は、例えば、光学レンズと撮像素子と有する可視カメラ又は赤外線カメラなどの画像取得できる撮像装置であり、単一カメラ(単眼カメラ)又は複数カメラ(ステレオカメラ)で構成される。撮像部10は、これらのカメラに限定されるものではなく、様々な撮影回路を適用してもよい。撮像部10は、図6で説明されたように、1又は複数の小型チャート61の画像を取得し、取得した画像のデータを領域選択部11に出力する。この画像は、各画素が輝度値を示す。 The imaging unit 10 is an imaging circuit that images an object, and is connected to the area selection unit 11 . The imaging unit 10 is, for example, an imaging device capable of acquiring images, such as a visible camera or an infrared camera having an optical lens and an imaging device, and is composed of a single camera (monocular camera) or multiple cameras (stereo camera). The imaging unit 10 is not limited to these cameras, and various imaging circuits may be applied. The imaging unit 10 acquires an image of one or a plurality of small charts 61 and outputs data of the acquired images to the area selection unit 11, as described with reference to FIG. In this image, each pixel indicates a luminance value.

領域選択部11は、撮像部10と、外部入力部12と、パラメータ算出部13とに接続している。領域選択部11は、撮像部10で撮影した画像においてフロントガラスの形状および傾斜に応じてあらかじめ定められた複数の所定領域を選択するものである。領域選択部11は、外部入力部12からフロントガラス63の設計値などの設計データと、1又は複数の特定領域などの所定領域を選択するための領域選択データとを受け取り、対応する1又は複数の特定領域(または、所定(所望)の特定領域、所定領域)を選択する。図6で説明された小型チャート61は、選択した1又は複数の特定領域のおのおの対応するように、配置されることになる。領域選択部11は、選択した1又は複数の特定領域の小型チャート61の画像から、各特定領域の画素ずれ(δεp1、δεp2、δεp3)を算出する。領域選択部11は、算出した特定領域の画素ずれ(δεp1、δεp2、δεp3)をパラメータ算出部13に出力する。 The region selection section 11 is connected to the imaging section 10 , the external input section 12 and the parameter calculation section 13 . The region selection unit 11 selects a plurality of predetermined regions in the image captured by the imaging unit 10, which are predetermined according to the shape and inclination of the windshield. The region selection unit 11 receives from the external input unit 12 design data such as design values of the windshield 63 and region selection data for selecting a predetermined region such as one or a plurality of specific regions, and selects one or a plurality of corresponding regions. (or a predetermined (desired) specific area, predetermined area) is selected. The small chart 61 illustrated in FIG. 6 is arranged so as to correspond to each of the selected one or more specific regions. The area selection unit 11 calculates the pixel deviations (δεp1, δεp2, δεp3) of each specific region from the image of the small chart 61 of one or more selected specific regions. The region selection unit 11 outputs the calculated pixel deviations (δεp1, δεp2, δεp3) of the specific regions to the parameter calculation unit 13 .

外部入力部12は、領域選択部11と、パラメータ算出部13と、全面画素ずれ推定部14とに接続している。外部入力部12は、領域選択データを領域選択部11に送信し、パラメータ算出部13と全面画素ずれ推定部14とに、US行列を渡す。ここで、US行列とは、直交化したばらつきパラメータδφ(δφ1、δφ2、δφ3、・・・)と画素ずれ(δεp1、δεp2、δεp3)の数学関係(数学モデル)を示す行列である。 The external input unit 12 is connected to the area selection unit 11, the parameter calculation unit 13, and the full pixel deviation estimation unit 14. FIG. The external input unit 12 transmits the region selection data to the region selection unit 11 and passes the US matrix to the parameter calculation unit 13 and the full-surface pixel deviation estimation unit 14 . Here, the US matrix is a matrix representing a mathematical relationship (mathematical model) between the orthogonalized variation parameters δφ (δφ1, δφ2, δφ3, . . . ) and pixel shifts (δεp1, δεp2, δεp3).

パラメータ算出部13は領域選択部11と全面画素ずれ推定部14とに接続している。パラメータ算出部13は、領域選択部11から特定領域の画素ずれ(δεp1、δεp2、δεp3)を受け取り、ばらつきのパラメータδφ(δφ1、δφ2、δφ3、・・・)を算出する。パラメータ算出部13は、算出したばらつきのパラメータδφ(δφ1、δφ2、δφ3、・・・)を全面画素ずれ推定部14に出力する。 The parameter calculation unit 13 is connected to the region selection unit 11 and the full pixel deviation estimation unit 14 . The parameter calculator 13 receives the pixel shifts (δεp1, δεp2, δεp3) of the specific region from the region selector 11, and calculates variation parameters δφ (δφ1, δφ2, δφ3, . . . ). The parameter calculator 13 outputs the calculated variation parameters δφ (δφ1, δφ2, δφ3, .

全面画素ずれ推定部14はパラメータ算出部13とキャリブレーション部15とに接続している。全面画素ずれ推定部14は、撮像部10で撮影した画像の中の複数の所定領域から検出した画像を用いて画像全体の画素ずれを推測する。複数の所定領域は、3か所以上の所定領域を含むことができる。全面画素ずれ推定部14はパラメータ算出部13からばらつきのパラメータδφ(δφ1、δφ2、δφ3、・・・)の値を受け取り、全画面の画素ずれ(δε)を推定する推定画素ずれ(δε’)を算出する。全面画素ずれ推定部14は、推定した全画面の画素ずれ(δε’)をキャリブレーション部15に出力する。 The full-surface pixel deviation estimation unit 14 is connected to the parameter calculation unit 13 and the calibration unit 15 . The overall pixel shift estimator 14 estimates the pixel shift of the entire image using images detected from a plurality of predetermined regions in the image captured by the imaging unit 10 . The plurality of predetermined areas can include three or more predetermined areas. The full-screen pixel displacement estimating unit 14 receives the values of the variation parameters δφ (δφ1, δφ2, δφ3, . Calculate The full-screen pixel deviation estimation unit 14 outputs the estimated pixel deviation (δε′) of the entire screen to the calibration unit 15 .

キャリブレーション部15は全面画素ずれ推定部14に接続している。キャリブレーション部15は、全面画素ずれ推定部14の情報を基に全面の画素のずれを補正する。キャリブレーション部15は、全面画素ずれ推定部14から推定した全画面の画素ずれ(δε’)を受け取り、全画面の画素ずれ(δε)をキャンセルして、全画面の画素の位置のキャリブレーションを行う。 The calibration unit 15 is connected to the full pixel deviation estimation unit 14 . The calibration unit 15 corrects the displacement of the pixels on the entire surface based on the information from the overall pixel displacement estimation unit 14 . The calibration unit 15 receives the pixel displacement (δε′) of the entire screen estimated from the full-screen pixel displacement estimating unit 14, cancels the pixel displacement (δε) of the entire screen, and performs calibration of the pixel positions of the entire screen. conduct.

キャリブレーションの終了後、撮像部10が取得した全画面の画像はキャリブレーション部15によりキャリブレーションされた後、距離測定用の画像データとして利用される。これにより、交差点での事故低減を目的とした、広い認識画角を有する車載カメラを提供できる。 After the calibration is completed, the full-screen image acquired by the imaging unit 10 is calibrated by the calibration unit 15 and then used as image data for distance measurement. As a result, it is possible to provide an in-vehicle camera having a wide recognition angle of view for the purpose of reducing accidents at intersections.

図1の車載カメラは、以下の様に纏めることができる。 The in-vehicle camera in FIG. 1 can be summarized as follows.

つまり、車載カメラ62は、対象物を撮像する撮像部10と、撮像部10で撮像した画像をもとに全面の画素のずれを算出する全面画素ずれ推定部14と、撮像部10で撮影した画像においてフロントガラス63の形状および傾斜に応じてあらかじめ定められた複数の所定領域(特定領域64、65、66)を選択する領域選択部11と、全面画素ずれ推定部14の情報を基に全面の画素のずれを補正するキャリブレーション部14と、を備える。全面画素ずれ推定部14は、撮像部10で撮影した画像の中の複数の所定領域(特定領域64、65、66)から検出した画像を用いて全面の画素ずれを推測する。 That is, the in-vehicle camera 62 includes an imaging unit 10 that captures an image of an object, an entire pixel deviation estimating unit 14 that calculates deviations of pixels on the entire surface based on the image captured by the imaging unit 10, and an image captured by the imaging unit 10. Based on the information of the area selection unit 11 that selects a plurality of predetermined areas (specific areas 64, 65, 66) determined in advance according to the shape and inclination of the windshield 63 in the image, and the entire surface pixel shift estimation unit 14 and a calibration unit 14 that corrects the deviation of the pixels. The overall pixel displacement estimator 14 estimates the overall pixel displacement using images detected from a plurality of predetermined regions (specific regions 64 , 65 , 66 ) in the image captured by the imaging unit 10 .

また、図1で説明した車載カメラ62におけるキャリブレーション方法は、以下の様にまとめることができる。つまり、車載カメラ62におけるキャリブレーション方法は、撮像部10により対象物を撮像する撮影工程と、全面画素ずれ推定部14により撮影工程で撮像した画像をもとに全面の画素のずれを算出する推定する推定工程と、領域選択部11により撮影工程で撮影した画像においてフロントガラスの形状および傾斜に応じてあらかじめ定められた複数の所定領域(特定領域64、65、66)を選択する工程と、キャリブレーション部15により推定工程の情報を基に前記全面の画素のずれを補正するキャリブレーション工程と、を備える。推定工程において、撮影工程で撮影した画像の中の複数の所定領域から検出した画像を用いて全面の画素ずれを推測する。 Further, the calibration method for the vehicle-mounted camera 62 described with reference to FIG. 1 can be summarized as follows. In other words, the calibration method for the in-vehicle camera 62 includes an image capturing process of capturing an image of an object by the image capturing unit 10 and an estimation of calculating the pixel deviation of the entire surface based on the image captured in the image capturing process by the pixel deviation estimating unit 14 of the entire surface. a step of selecting a plurality of predetermined regions (specific regions 64, 65, 66) predetermined according to the shape and inclination of the windshield in the image captured in the photographing step by the region selection unit 11; and a calibration step of correcting the displacement of the pixels of the entire surface by the calibration unit 15 based on the information of the estimation step. In the estimating step, pixel deviations of the entire surface are estimated using images detected from a plurality of predetermined regions in the image photographed in the photographing step.

図1に示す車載カメラ62の構成例において、各部(10~15)はハードウエア回路により構成することができる。この場合、車載カメラ62は、たとえば、撮像回路10、領域選択回路11、外部入力回路12、パラメータ算出回路13と、全面画素ずれ推定回路14と、キャリブレーション回路15、と言い換えることができる。 In the configuration example of the vehicle-mounted camera 62 shown in FIG. 1, each section (10 to 15) can be configured by a hardware circuit. In this case, the vehicle-mounted camera 62 can be rephrased as, for example, the image pickup circuit 10, the area selection circuit 11, the external input circuit 12, the parameter calculation circuit 13, the overall pixel deviation estimation circuit 14, and the calibration circuit 15.

また、図1に示す車載カメラ62の構成例において、撮影部10を除く各部(11~15)はソフトウエアプログラムにより構成することができる。この場合、車載カメラ62には、各部(11~15)の動作を実行するデータ処理装置が設けられる。データ処理装置は、たとえば、各部(11~15)の動作を記述したソフトウエアプログラムが格納されたプログラムメモリ装置と、このプログラムメモリ装置に格納されたソフトウエアプログラムを実行する中央処理装置(CPU)と、この中央処理装置(CPU)の演算途中のデータなどを一時的に保持する一時記憶メモリ装置と、を含むように構成することができる。プログラムメモリ装置はフラッシュメモリのような書き換え可能な不揮発性記憶装置やリードオンリーメモリ(ROM)のような不揮発性記憶装置により構成することができる。一時記憶メモリ装置は、スタテック型ランダムアクセスメモリ(SRAM)のような揮発性記憶装置により構成することができる。中央処理装置(CPU)は、複数の中央処理装置(CPU)とされても良い。 In addition, in the configuration example of the vehicle-mounted camera 62 shown in FIG. 1, each section (11 to 15) other than the photographing section 10 can be configured by a software program. In this case, the vehicle-mounted camera 62 is provided with a data processing device that executes the operations of the respective units (11 to 15). The data processing device includes, for example, a program memory device storing a software program describing the operation of each unit (11 to 15), and a central processing unit (CPU) for executing the software program stored in this program memory device. and a temporary storage memory device for temporarily holding data in the middle of computation by the central processing unit (CPU). The program memory device can be composed of a rewritable non-volatile storage device such as a flash memory or a non-volatile storage device such as a read only memory (ROM). The temporary storage memory device may comprise a volatile memory device such as static random access memory (SRAM). The central processing unit (CPU) may be multiple central processing units (CPUs).

次に、図2を用いて、車載カメラのキャリブレーションの処理手順を示すフローチャートを説明する。図7Aは、式1を示す図である。図7Bは、式2、式3および式4を示す図である。 Next, with reference to FIG. 2, a flowchart showing a procedure for calibrating the vehicle-mounted camera will be described. 7A is a diagram showing Equation 1. FIG. FIG. 7B is a diagram showing Equations 2, 3 and 4;

全ての動作の前に、あらかじめ、全画面の画素ずれ(δε)とばらつきパラメータδφ(δφ1、δφ2、δφ3、・・・)の数学関係を示す数学モデルの構築は必要である。数学モデルは図7Aの(式1)で表している。δεは画素ずれである。Q行列は画素ずれ(δε)とばらつきパラメータ(δφ)の数学関係を示す行列である。δφはばらつきのパラメータである。mはばらつきの種類の数である。例えば、図8に示すばらつきは、車載カメラ62の取り付け位置のばらつきとして、Xシフト、Yシフト、Zシフトを示し、車載カメラ62のカメラ姿勢のばらつきとして、ピッチ回転・ヨー回転・ロール回転を示し、フロントガラス63のばらつきとして、水平曲率、垂直曲率、厚みを示している。つまり、ばらつきとして、図8に示す9種類を想定するなら、m=9である。nは画像の画素数である。例えば、画素の水平方向が100画素数、垂直方向が50画素数であれば、n=100*50=5000画素数である。したがって、Q行列は各画素点の画素ずれと各ばらつきパラメータの数学関係を示す行列であることになる。 Prior to all operations, it is necessary to construct a mathematical model showing the mathematical relationship between the full-screen pixel displacement (δε) and the variation parameters δφ (δφ1, δφ2, δφ3, . . . ). The mathematical model is represented by (equation 1) in FIG. 7A. δε is the pixel shift. The Q matrix is a matrix showing the mathematical relationship between the pixel deviation (δε) and the variation parameter (δφ). δφ is a variation parameter. m is the number of variations. For example, the variations shown in FIG. 8 indicate X shift, Y shift, and Z shift as variations in the mounting position of the vehicle-mounted camera 62, and pitch rotation, yaw rotation, and roll rotation as variations in the camera posture of the vehicle-mounted camera 62. , horizontal curvature, vertical curvature, and thickness as variations in the windshield 63 . That is, m=9 if the nine types shown in FIG. 8 are assumed as variations. n is the number of pixels in the image. For example, if there are 100 pixels in the horizontal direction and 50 pixels in the vertical direction, n=100*50=5000 pixels. Therefore, the Q matrix is a matrix showing the mathematical relationship between the pixel deviation of each pixel point and each variation parameter.

Q行列の計算では、光線追跡などの光学シミュレーションに各ばらつきを入力して、画素ずれを算出することに基づく。すべての実際のばらつきが小さいので、Q行列は、近似的にばらつきと各画素の除算で計算できる。ばらつきの様々な変化を試みることにより、数学的関係Q行列が得られる。 The calculation of the Q matrix is based on inputting each variation into an optical simulation such as ray tracing and calculating the pixel shift. Since all practical variations are small, the Q matrix can be calculated approximately by dividing each pixel by the variations. A mathematical relational Q-matrix is obtained by trying different variations of the variability.

もし各ばらつきはお互い関連性がない、独立なら、Q行列を直接に使用して、画素ずれから正しいばらつきパラメータを計算できる。しかし、実際のばらつきパラメータはお互い関連性があり、完全に独立ではない。そのため、パラメータを区別できない、あるいは、違うパラメータを算出してしまう場合がある。例えば、図9に示すように、Xシフト(X方向の左右のシフト)のばらつきはヨー回転のばらつきと似ているX方向成分があり、Xシフトの画素ずれδε1とヨー回転の画素ずれδε5も似ている類似領域SMRを有する。もし、この類似領域SMRの部分的な画素ずれ(δεp)からばらつきパラメータ(δφ)を計算すると、Xシフトとヨー回転を区別できないので、全画面の画素ずれ(δε’)の推定は間違うことになる。よって、パラメータの独立化ないし直交化するのが良い。ここで、直交化したばらつきパラメータを、δψ(δψ1、δψ2、δψ3、・・・)とすることとする。ばらつきパラメータ(δφ)を実変動パラメータとすると、直交化したばらつきパラメータ(δψ)は直交変動パラメータと言うことができる。直交化したばらつきパラメータδψ(δψ1、δψ2、δψ3、・・・)のそれぞれは、数学的には直交した関係となっている。 If the variability is independent of each other, the Q matrix can be used directly to calculate the correct variability parameter from the pixel shift. However, the actual variability parameters are related to each other and not completely independent. Therefore, the parameters may not be distinguished, or different parameters may be calculated. For example, as shown in FIG. 9, the variation in X shift (horizontal shift in the X direction) has an X direction component similar to the variation in yaw rotation. have a similar region of similarity SMR. If the variation parameter (δφ) is calculated from the partial pixel shift (δεp) of this similarity region SMR, the X shift and yaw rotation cannot be distinguished, so the estimation of the pixel shift (δε′) of the entire screen will be erroneous. Become. Therefore, it is better to make the parameters independent or orthogonal. Here, let the orthogonalized variation parameters be δψ(δψ1, δψ2, δψ3, . . . ). If the variation parameter (.delta..phi.) is the actual variation parameter, the orthogonalized variation parameter (.delta..psi.) can be said to be the orthogonal variation parameter. The orthogonalized variation parameters δψ (δψ1, δψ2, δψ3, . . . ) are mathematically orthogonal to each other.

例えば、数学方式の直交化はパラメータを独立に変換できるUS行列を利用するのが良い。直交化との同時に主成分分析を行い、変化の大きいパラメータだけを残し、変化の小さいパラメータは省略して良い。ここでは、特異値分解(SVD: Singular Value Decomposition)という直交化及び主成分分析の方法を例としてあげることができ、これにより、US行列を生成できる。図7Bの(式2)には、US行列と直交化したばらつきパラメータ(δψ)とを用いた式が示されている。なお、計算方法は、特異値分解に限定されるものではなく、様々な計算方法を採用してもよい。図7Bの(式3)は、直交変動パラメータ(δψ)と実変動パラメータ(δφ)の関係式が示される。ここで、Vは実変動パラメータ(δφ)を直交変動パラメータ(δψ)へ変換する変換行列である。図7Bの(式4)は、(式3)を(式2)に代入して得られる式を示している。 For example, the orthogonalization of mathematical schemes is better using US matrices that can transform parameters independently. Principal component analysis may be performed at the same time as orthogonalization, leaving only parameters with large changes and omitting parameters with small changes. Here, a method of orthogonalization and principal component analysis called Singular Value Decomposition (SVD) can be taken as an example, by which a US matrix can be generated. (Equation 2) in FIG. 7B shows an equation using the US matrix and the orthogonalized variation parameter (δψ). Note that the calculation method is not limited to singular value decomposition, and various calculation methods may be employed. (Equation 3) in FIG. 7B shows a relational expression between the orthogonal variation parameter (δψ) and the actual variation parameter (δφ). Here, V is a transformation matrix that transforms the real variation parameter (δφ) into the orthogonal variation parameter (δψ). (Formula 4) in FIG. 7B shows a formula obtained by substituting (Formula 3) into (Formula 2).

次に、図2を用いて、車載カメラの詳細なキャリブレーションのフローチャートを説明する。 Next, with reference to FIG. 2, a flowchart of detailed calibration of the vehicle-mounted camera will be described.

1)ステップ201:
車載カメラ62に電源を供給し、キャリブレーションを開始する。
1) Step 201:
Power is supplied to the in-vehicle camera 62 to start calibration.

2)ステップ202:
ステップ202は、チャート画面取得のステップである。図6に示すように、車載カメラ62をフロントガラス63の後ろに置いて、車の車内側からフロントガラス63を介して複数の小型のチャート61の画像を撮像部10で撮影して、複数の小型のチャート61の撮影画像を取得する。チャート61はチェッカー、円などのパターンがある。撮像部10は、取得した撮影画像を領域選択部11に出力する。
2) Step 202:
Step 202 is a chart screen acquisition step. As shown in FIG. 6, an in-vehicle camera 62 is placed behind a windshield 63, and images of a plurality of small charts 61 are captured by the imaging unit 10 through the windshield 63 from the inside of the vehicle. A photographed image of a small chart 61 is acquired. The chart 61 has patterns such as checkers and circles. The imaging unit 10 outputs the acquired captured image to the area selection unit 11 .

3)ステップ203:
ステップ203はフロントガラス63の設計値の入力ステップである。外部入力部12は、外部入力部12から入力されたフロントガラス63の設計値を領域選択部11に送信する。
3) Step 203:
Step 203 is a step of inputting design values of the windshield 63 . The external input unit 12 transmits the design values of the windshield 63 input from the external input unit 12 to the region selection unit 11 .

4)ステップ204:
ステップ204は各特定領域の画素ずれを算出するステップである。フロントガラス63の設計値に基づいて、事前に計算した数学モデルで画像上における各ばらつきの感度がよい箇所を求めることできる。感度がよい場所は、各ばらつきが変化の際に、画素ずれが大きい場所である。各ばらつき感度の良い画像領域を選択する。この選択した画像領域(例えば、図6の特定領域64、65、66に対応する)にチャート61を配置(移動して放置)する。また、選択した各画像領域のチャート61を撮影しその画像から、画素ずれを算出する。領域選択部11は、選択した複数の特定領域のチャート61の画像から、各特定領域の画素ずれδεP(δεp1、δεp2、δεp3)を算出する。領域選択部11は、算出した特定領域の画素ずれδεP(δεp1、δεp2、δεp3)をパラメータ算出部13に出力する。
4) Step 204:
Step 204 is a step of calculating the pixel displacement of each specific area. Based on the design values of the windshield 63, a pre-calculated mathematical model can be used to determine where each variation is sensitive on the image. A location with good sensitivity is a location where pixel deviation is large when each variation changes. Select an image region that is sensitive to each variation. The chart 61 is arranged (moved and left) in the selected image area (for example, corresponding to the specific areas 64, 65, and 66 in FIG. 6). Also, the chart 61 of each selected image area is photographed and the pixel shift is calculated from the image. The region selection unit 11 calculates the pixel deviation δε P (δεp1, δεp2, δεp3) of each specified region from the image of the chart 61 of the plurality of selected specified regions. The region selection unit 11 outputs the calculated pixel shifts δε P (δεp1, δεp2, δεp3) of the specific regions to the parameter calculation unit 13 .

選択した画像領域が3つ(特定領域64、65、66)で、3枚のチャート61を利用する場合、3枚のチャート61を選択した画像領域に対応するように配置し、撮像部10で全画面を撮影して、全画面の画像データの一回の測定で各特定領域の画素ずれを算出するのが良い。短時間で複数の特定領域の画素ずれを算出できるという効果がある。 When three image areas (specific areas 64, 65, and 66) are selected and three charts 61 are used, the three charts 61 are arranged so as to correspond to the selected image areas, and the imaging unit 10 It is preferable to photograph the entire screen and calculate the pixel deviation of each specific area by measuring the image data of the entire screen once. This has the effect of being able to calculate pixel deviations in a plurality of specific regions in a short time.

また、選択した画像領域が3つ(特定領域64、65、66)で、1枚のチャート61を利用する場合、チャート61を1つの画像領域(特定領域64)に対応するように配置し、撮像部10で全画面を撮影し、次に、チャート61を次の画像領域(特定領域65)に対応するように配置し、撮像部10で全画面を撮影し、さらに、チャート61を次の画像領域(特定領域66)に対応するように配置し、撮像部10で全画面を撮影する。これら全画面の画像データの3回の測定で各特定領域の画素ずれを算出するのが良い。1枚のチャートしか使用しないので、低コストかつ小さい面積で、複数の特定領域の画素ずれを算出できるという効果がある。 When three image areas (specific areas 64, 65, 66) are selected and one chart 61 is used, the chart 61 is arranged so as to correspond to one image area (specific area 64), The entire screen is photographed by the imaging unit 10, then the chart 61 is arranged so as to correspond to the next image area (specific area 65), the entire screen is photographed by the imaging unit 10, and the chart 61 is further arranged as follows. The images are arranged so as to correspond to the image area (specific area 66), and the image pickup unit 10 photographs the entire screen. It is preferable to calculate the pixel deviation of each specific area by measuring the image data of the entire screen three times. Since only one chart is used, it is possible to calculate pixel shifts in a plurality of specific regions at low cost and in a small area.

5)ステップ205:
ステップ205はばらつきパラメータδφを算出するステップである。パラメータ算出部13は、事前に格納されたQ行列を用いて、特定領域の画素ずれδεP(δεp1、δεp2、δεp3)から各ばらつきパラメータδφ(δφ1、δφ2、δφ3、・・・)の値を算出する。計算方法は最小二乗法などを利用できる。なお、計算方法は最小二乗法に限定されるものではなく、様々な計算方法も適用可能である。パラメータ算出部13は、領域選択部11から特定領域の画素ずれδεP(δεp1、δεp2、δεp3)を受け取り、ばらつきのパラメータδφ(δφ1、δφ2、δφ3、・・・)を算出する。パラメータ算出部13は、算出したばらつきのパラメータδφ(δφ1、δφ2、δφ3、・・・)を全面画素ずれ推定部14に出力する。
5) Step 205:
Step 205 is a step of calculating the variation parameter δφ. The parameter calculation unit 13 calculates the values of each variation parameter δφ (δφ1, δφ2, δφ3, . calculate. A least squares method or the like can be used as a calculation method. Note that the calculation method is not limited to the least squares method, and various calculation methods can be applied. The parameter calculator 13 receives the pixel shift δε P (δεp1, δεp2, δεp3) of the specific region from the region selector 11, and calculates variation parameters δφ (δφ1, δφ2, δφ3, . . . ). The parameter calculator 13 outputs the calculated variation parameters δφ (δφ1, δφ2, δφ3, .

なお、この際に、ばらつきのパラメータδφ(δφ1、δφ2、δφ3、・・・)の代わりに、先に説明した直交化したばらつきパラメータδψ(δψ1、δψ2、δψ3、・・・)を用いてUS行列やV行列の計算を行うこともできる(図7B参照)。 At this time, instead of the variation parameters δφ (δφ1, δφ2, δφ3, . Matrix and V-matrix calculations can also be performed (see FIG. 7B).

6)ステップ206:
ステップ206は全画面の画素ずれを推定するステップである。事前に格納されたQ行列又は光線追跡などの光学シミュレーションを用いて、算出されたばらつきパラメータδφ(δφ1、δφ2、δφ3、・・・)の値から全画面の画素ずれ(δε)を推定する。全面画素ずれ推定部14はパラメータ算出部13からばらつきのパラメータδφ(δφ1、δφ2、δφ3、・・・)の値を受け取り、全画面の画素ずれ(δε)を推定する推定画素ずれ(δε’)を算出する。全面画素ずれ推定部14は、推定した全画面の画素ずれ(δε’)をキャリブレーション部15に出力する。
6) Step 206:
Step 206 is a step of estimating the pixel deviation of the entire screen. Using a pre-stored Q-matrix or an optical simulation such as ray tracing, the pixel deviation (δε) of the entire screen is estimated from the calculated variation parameter δφ (δφ1, δφ2, δφ3, . . . ). The full-screen pixel displacement estimating unit 14 receives the values of the variation parameters δφ (δφ1, δφ2, δφ3, . Calculate The full-screen pixel deviation estimation unit 14 outputs the estimated pixel deviation (δε′) of the entire screen to the calibration unit 15 .

7)ステップ207:
ステップ207はキャリブレーションステップである。推定した全画面の画素ずれ(δε’)に基づいて、撮影画像内の全画面の画素ずれを各画素点でキャンセルし(または、修正ないし補正し)、キャリブレーションを行う。キャリブレーション部15は、全面画素ずれ推定部14から推定した全画面の画素ずれ(δε’)を受け取り、全画面の画素ずれ(δε)をキャンセルして、全画面の画素の位置のキャリブレーションを行う。
7) Step 207:
Step 207 is a calibration step. Based on the estimated pixel deviation (δε′) of the entire screen, the pixel deviation of the entire screen in the captured image is canceled (or corrected or corrected) at each pixel point, and calibration is performed. The calibration unit 15 receives the pixel displacement (δε′) of the entire screen estimated from the full-screen pixel displacement estimating unit 14, cancels the pixel displacement (δε) of the entire screen, and performs calibration of the pixel positions of the entire screen. conduct.

8)ステップ208:
ステップ208により、車載カメラ62のキャリブレーションのフローが終了する。
8) Step 208:
At step 208, the calibration flow of the vehicle-mounted camera 62 ends.

上記ステップ201-208の実施後においては、車載カメラ62の撮影画像は全画面の画素の位置のキャリブレーションがされて、画素ずれがない(または、画素ずれが修正ないし補正された)全画面の画像が交差点での距離測定(測距とも言う)のために利用されることになる。これにより、車載カメラ62は、交差点での障害物に対する測距を正確に行うことが可能になり、交差点で衝突回避をサポートする機能を確実に提供できる。 After the above steps 201-208 are performed, the image captured by the vehicle-mounted camera 62 has been calibrated for the positions of the pixels of the full screen, and there is no pixel shift (or the pixel shift has been corrected or corrected). The image will be used for distance measurement (also called ranging) at intersections. As a result, the in-vehicle camera 62 can accurately measure the distance to an obstacle at an intersection, and can reliably provide a function of supporting collision avoidance at the intersection.

次に、図10、図11を用いて、フロントガラスの設計値としてのフロントガラスの傾き角度とばらつきパラメータの感度について説明する。図10は、フロントガラスの傾き角度(30度~35度)の場合のばらつきパラメータの感度を説明する図である。図11は、フロントガラスの傾き角度(35°以上、例えば、40度~70度)の場合のばらつきパラメータの感度を説明する図である。 Next, with reference to FIGS. 10 and 11, the tilt angle of the windshield as the design value of the windshield and the sensitivity of the variation parameter will be described. FIG. 10 is a diagram for explaining the sensitivity of the variation parameter for the inclination angle of the windshield (30 degrees to 35 degrees). FIG. 11 is a diagram for explaining the sensitivity of the variation parameter when the tilt angle of the windshield is 35° or more, eg, 40° to 70°.

図10には、フロントガラス63の傾き角度の設計値が30度~35度の場合において、例えば、3つのばらつきパラメータ(δφ1、δφ2、δφ3)の感度の高い部分を考慮した3か所の特定領域(64、65、66)の位置(カメラ画角)を示している。図11には、フロントガラス63の傾き角度の設計値が40度~70度の場合において、例えば、3つのばらつきパラメータ(δφ1、δφ2、δφ3)の感度の高い部分を考慮した3か所の特定領域(64、65、66)の位置(カメラでの画角)を示している。ここで、図10および図11において、ばらつきパラメータ(実変動パラメータ:δφ1、δφ2、δφ3)は、直交変動パラメータ(δψ1,δψ2,δψ3)としてもよい。なお、図10および図11において、ばらつきパラメータ(δφ1、δφ2、δφ3)の感度の各図の右側に、ばらつきパラメータ(δφ1、δφ2、δφ3)の感度の凡例(0-300)を示している。 FIG. 10 shows, when the design value of the tilt angle of the windshield 63 is 30 degrees to 35 degrees, for example, three specified points considering the sensitive portions of the three variation parameters (δφ1, δφ2, δφ3). The position (camera angle of view) of the area (64, 65, 66) is shown. FIG. 11 shows, when the design value of the tilt angle of the windshield 63 is 40 degrees to 70 degrees, for example, three specific points considering the sensitive portions of the three variation parameters (δφ1, δφ2, δφ3). The positions (angles of view of the camera) of areas (64, 65, 66) are shown. Here, in FIGS. 10 and 11, the variation parameters (actual variation parameters: δφ1, δφ2, δφ3) may be orthogonal variation parameters (δφ1, δφ2, δφ3). In FIGS. 10 and 11, legends (0-300) for the sensitivities of the variation parameters (δφ1, δφ2, δφ3) are shown on the right side of each diagram of the sensitivities of the variation parameters (δφ1, δφ2, δφ3).

図10に示すように、ばらつきパラメータδφ1は、車載カメラ62の画角において、縦10度~20度、横-15度~-5度の第1の上部領域の感度が高い。そのため、第1の特定領域64は、画像内の第1の上部領域に配置する。つまり、第1の特定領域64は、車載カメラ62の画像の画角(縦(垂直方向):10度~20度、横(水平方向):-15度~-5度)の領域に設定する。ばらつきパラメータδφ2は、車載カメラ62の画角において、縦10度~20度、横30度~40度の第2の上部領域の感度が高い。そのため、第2の特定領域65は、画像内の第1の上部領域と異なる第2の上部領域に配置する。つまり、第2の特定領域65は、車載カメラ62の画像の画角(縦:10度~20度、横:30度~40度)の領域に設定する。ばらつきパラメータδφ3は、車載カメラ62の画角において、縦-20度~-10度、横-35度~-25度の領域の感度が高い。そのため、第3の特定領域66は、画像内の第1の下部領域に配置する。つまり、第3の特定領域66は、車載カメラ62の画像の画角(縦:-20度~-10度、横:-35度~-25度)の領域に設定する。 As shown in FIG. 10, the variation parameter .delta..phi.1 has high sensitivity in the first upper region of the angle of view of the in-vehicle camera 62, which is 10 degrees to 20 degrees vertically and -15 degrees to -5 degrees horizontally. Therefore, the first specific region 64 is placed in the first top region in the image. That is, the first specific region 64 is set to a region of the angle of view of the image of the in-vehicle camera 62 (length (vertical direction): 10 degrees to 20 degrees, horizontal (horizontal direction): -15 degrees to -5 degrees). . Variation parameter δφ2 has high sensitivity in the second upper region of the angle of view of vehicle-mounted camera 62, which is 10 to 20 degrees vertically and 30 to 40 degrees horizontally. Therefore, the second specific area 65 is arranged in a second upper area different from the first upper area in the image. In other words, the second specific area 65 is set to the area of the angle of view of the image of the vehicle-mounted camera 62 (vertical: 10 to 20 degrees, horizontal: 30 to 40 degrees). The variation parameter δφ3 has high sensitivity in the range of −20° to −10° vertically and −35° to −25° horizontally in the angle of view of the vehicle-mounted camera 62 . Therefore, the third specific region 66 is placed in the first bottom region in the image. That is, the third specific area 66 is set to the area of the angle of view of the image of the in-vehicle camera 62 (vertical: -20 degrees to -10 degrees, horizontal: -35 degrees to -25 degrees).

このように決められた3つ特定領域(64、65、66)に対応するように、3つチャート61が配置されることになる(図6参照)。これらの特定領域(64、65、66)における画素ずれは、1m×1mのサイズのチャート61で測定可能である。 Three charts 61 are arranged so as to correspond to the three specific areas (64, 65, 66) thus determined (see FIG. 6). The pixel displacements in these specific regions (64, 65, 66) can be measured with a chart 61 of size 1m x 1m.

一方、図11に示すように、ばらつきパラメータδφ1は、車載カメラ62の画角において、縦10度~20度、横-15度~-5度の上部領域の感度が高い(この場合、図10のばらつきパラメータδφ1と同じ画角である)。そのため、第1の特定領域64は、画像内の上部領域に配置する。つまり、第1の特定領域64は、車載カメラ62の画像の画角(縦:10度~20度、横:-15度~-5度)の領域に設定する。ばらつきパラメータδφ2は、車載カメラ62の画角において、縦-5度~5度、横30度~40度の中部領域の感度が高い。そのため、第2の特定領域65は、画像内の中部領域に配置する。つまり、第2の特定領域65は、車載カメラ62の画像の画角(縦-5度~5度、横30度~40度)の領域に設定する。ばらつきパラメータδφ3は、車載カメラ62の画角において、縦-20度~-10度、横-10度~0度の下部領域の感度が高い。そのため、第3の特定領域66が、画像内の中部領域に配置する。つまり、第3の特定領域66は、車載カメラ62の画像の画角(縦-20度~-10度、横-10度~0度)の領域に設定する。 On the other hand, as shown in FIG. 11, the variation parameter .delta..phi.1 has high sensitivity in the upper region of the angle of view of the in-vehicle camera 62, which is 10 degrees to 20 degrees vertically and -15 degrees to -5 degrees horizontally (in this case, in FIG. 10 is the same angle of view as the variation parameter .delta..phi.1 of . Therefore, the first specific area 64 is placed in the upper area within the image. That is, the first specific area 64 is set to the area of the angle of view of the image of the in-vehicle camera 62 (vertical: 10 degrees to 20 degrees, horizontal: -15 degrees to -5 degrees). The variation parameter δφ2 has a high sensitivity in the central region of the angle of view of the in-vehicle camera 62, which is -5 degrees to 5 degrees vertically and 30 degrees to 40 degrees horizontally. Therefore, the second specific area 65 is arranged in the central area within the image. In other words, the second specific area 65 is set to the area of the angle of view of the image of the in-vehicle camera 62 (-5 degrees to 5 degrees vertically, 30 degrees to 40 degrees horizontally). The variation parameter δφ3 has high sensitivity in the lower region of the view angle of the vehicle-mounted camera 62 from -20 degrees to -10 degrees in the vertical direction and from -10 degrees to 0 degrees in the horizontal direction. Therefore, the third specific area 66 is located in the central area within the image. That is, the third specific area 66 is set to the area of the angle of view of the image of the in-vehicle camera 62 (vertical -20 to -10 degrees, horizontal -10 to 0 degrees).

このように決められた3つ特定領域(64、65、66)に対応するように、3つチャート61が配置されることになる(図6参照)。これらの特定領域(64、65、66)は、1m×1mのサイズのチャート61で測定可能である。特定領域(64、65、66)のサイズは、校正用画像であるチャート61と比較して小さい。つまり、特定領域(64、65、66)がチャート61の内部に含まれるように、チャート61の面積は画像上での特定領域(64、65、66)のサイズよりも大きくされている。 Three charts 61 are arranged so as to correspond to the three specific areas (64, 65, 66) thus determined (see FIG. 6). These specific areas (64, 65, 66) are measurable with a chart 61 of size 1 m x 1 m. The size of the specific areas (64, 65, 66) is smaller than the chart 61, which is the calibration image. That is, the area of the chart 61 is made larger than the size of the specific regions (64, 65, 66) on the image so that the specific regions (64, 65, 66) are included inside the chart 61. FIG.

このように、小さいチャート61で特定領域(64、65、66)の画素ズレのみ測定する。そして、特定領域(64、65、66)の画素ずれのずれ量から各変動パラメータを計算する。そして、算出した変動パラメータから全画面の画素ずれのずれ量を計算する。これにより、全画面の画素ずれを各画素点でキャンセルし、全画面の画素の位置のキャリブレーションを実施できる。特定領域(64、65、66)の選択は変動パラメータの感度の高い部分を選択するので、特定領域(64、65、66)における画素ずれは、1m×1mのサイズのチャート61で測定可能である。 In this way, the small chart 61 is used to measure only pixel deviations in specific areas (64, 65, 66). Then, each variation parameter is calculated from the displacement amount of the pixel displacement of the specific regions (64, 65, 66). Then, the displacement amount of the pixel displacement of the entire screen is calculated from the calculated variation parameter. This makes it possible to cancel the pixel displacement of the entire screen at each pixel point and perform the calibration of the pixel positions of the entire screen. Since the selection of the specific regions (64, 65, 66) selects the sensitive part of the variation parameter, the pixel displacement in the specific regions (64, 65, 66) can be measured with a chart 61 of size 1m x 1m. be.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は、上記実施の形態に限定されるものではなく、種々変更可能であることはいうまでもない。 Although the invention made by the present inventor has been specifically described above based on the embodiment, the invention is not limited to the above embodiment, and it goes without saying that various modifications are possible.

10:撮像部
11:領域選択部
12:外部入力部
13:パラメータ算出部
14:全面画素ずれ推定部
15:キャリブレーション部
61:小さいチャート
62:車載カメラ
63:フロントガラス
10: Imaging Unit 11: Area Selecting Unit 12: External Input Unit 13: Parameter Calculating Unit 14: Overall Pixel Misalignment Estimating Unit 15: Calibration Unit 61: Small Chart 62: Vehicle-mounted Camera 63: Windshield

Claims (19)

対象物を撮像する撮像部と、
前記撮像部で撮像した画像をもとに全面の画素のずれを算出する推定部と、
前記撮像部で撮影した画像においてフロントガラスの形状および傾斜に応じてあらかじめ定められた複数の所定領域を選択する領域選択部と、
前記推定部の情報を基に前記全面の画素のずれを補正するキャリブレーション部と、
を備え、
前記推定部は、前記撮像部で撮影した画像の中の前記複数の所定領域から検出した画像を用いて前記全面の画素ずれを推測することを特徴とする車載カメラ。
an imaging unit that images an object;
an estimating unit that calculates the displacement of the pixels of the entire surface based on the image captured by the imaging unit;
an area selection unit that selects a plurality of predetermined areas that are predetermined according to the shape and inclination of the windshield in the image captured by the imaging unit;
a calibration unit that corrects displacement of pixels on the entire surface based on information from the estimation unit;
with
The in-vehicle camera, wherein the estimating unit estimates the pixel displacement of the entire surface using images detected from the plurality of predetermined regions in the image captured by the imaging unit.
請求項1記載の車載カメラであって、
前記複数の所定領域は、3か所以上の所定領域であることを特徴とする車載カメラ。
The vehicle-mounted camera according to claim 1,
The vehicle-mounted camera, wherein the plurality of predetermined areas are three or more predetermined areas.
請求項1記載の車載カメラであって、
前記複数の所定領域のうち少なくとも1つの所定領域のサイズは、前記全面の画像の1/2以下のサイズであることを特徴とする車載カメラ。
The vehicle-mounted camera according to claim 1,
An in-vehicle camera, wherein the size of at least one predetermined area among the plurality of predetermined areas is 1/2 or less of the size of the entire image.
請求項1記載の車載カメラであって、
前記複数の所定領域がn個の所定領域であった場合、前記複数の所定領域のうち少なくとも1つの所定領域のサイズは、前記全面の画像の1/n以下のサイズであることを特徴とする車載カメラ。
The vehicle-mounted camera according to claim 1,
When the plurality of predetermined regions are n predetermined regions, the size of at least one of the plurality of predetermined regions is 1/n or less of the entire image. in-vehicle camera.
請求項1記載の車載カメラであって、
画素ずれを算出する時、前記撮像部で撮影した画像内に映るように、かつ、前記複数の所定領域に対応するように、校正用画像を配置して、前記撮像部で前記全面を撮影し、
前記校正用画像のサイズは対応する所定領域のサイズよりも大きいことを特徴とする車載カメラ。
The vehicle-mounted camera according to claim 1,
When calculating the pixel deviation, a calibration image is arranged so as to appear in the image captured by the imaging unit and to correspond to the plurality of predetermined regions, and the imaging unit captures the entire surface. ,
An in-vehicle camera, wherein the size of the calibration image is larger than the size of the corresponding predetermined area.
請求項5記載の車載カメラであって、
前記校正用画像は、2つ以上を用いることを特徴とする車載カメラ。
An in-vehicle camera according to claim 5,
An in-vehicle camera, wherein two or more calibration images are used.
請求項6記載の車載カメラであって、
前記校正用画像は、2m×2m以下のサイズであることを特徴とする車載カメラ。
An in-vehicle camera according to claim 6,
The vehicle-mounted camera, wherein the calibration image has a size of 2 m×2 m or less.
請求項6記載の車載カメラであって、
前記複数の所定領域がn個の所定領域であり、前記校正用画像がn個の校正用画像である場合において、
前記画素ずれを算出する時、前記n個の前記校正用画像を前記n個の所定領域のそれぞれに対応するように配置して、前記撮像部で前記全面を一回撮影して1回の測定で画素ずれを算出することを特徴とする車載カメラ。
An in-vehicle camera according to claim 6,
When the plurality of predetermined areas are n predetermined areas and the calibration image is n calibration images,
When calculating the pixel shift, the n calibration images are arranged so as to correspond to the n predetermined regions, respectively, and the entire surface is photographed once by the imaging unit and measured once. An in-vehicle camera characterized by calculating a pixel shift in.
請求項6記載の車載カメラであって、
前記複数の所定領域がn個の所定領域であり、前記校正用画像が1個の校正用画像である場合において、
前記画素ずれを算出する時、前記n個の所定領域のすべてに対して前記1個の校正用画像を配置した前記全面を撮影できるように、前記1個の前記校正用画像の配置を変更しながら、前記全面をn回撮影してn回の測定で画素ずれを算出することを特徴とする車載カメラ。
An in-vehicle camera according to claim 6,
When the plurality of predetermined regions are n predetermined regions and the calibration image is one calibration image,
When calculating the pixel shift, the arrangement of the one calibration image is changed so that the entire surface on which the one calibration image is arranged can be photographed for all of the n predetermined regions. A vehicle-mounted camera characterized in that the image of the entire surface is taken n times and the pixel shift is calculated by measuring the n times.
請求項1記載の車載カメラであって、
前記推定部は、前記複数の所定領域から検出した画像を用いて、各所定領域の画素ずれを検出し、それぞれの画素ずれの量を基に、前記全面の画素ずれを推測することを特徴とする車載カメラ。
The vehicle-mounted camera according to claim 1,
The estimating unit uses images detected from the plurality of predetermined regions to detect pixel misalignment in each predetermined region, and estimates pixel misalignment of the entire surface based on the amount of each pixel misalignment. in-vehicle camera.
請求項10記載の車載カメラであって、
前記各領域の画素ずれの量を基に、ばらつきパラメータを算出するパラメータ算出部を備えることを特徴とする車載カメラ。
An in-vehicle camera according to claim 10,
An in-vehicle camera, comprising: a parameter calculator that calculates a variation parameter based on the amount of pixel shift in each region.
請求項11記載の車載カメラであって、
前記ばらつきパラメータは、それぞれ略直交していることを特徴とする車載カメラ。
The vehicle-mounted camera according to claim 11,
An in-vehicle camera, wherein the variation parameters are substantially orthogonal to each other.
請求項2記載の車載カメラであって、
前記車載カメラが搭載される車両のフロントガラスの傾き角度が30°から35°のとき、少なくとも、前記画像内の第1の上部領域、前記第1の上部領域と異なる第2の上部領域、下部領域の画像を用いて前記全面の画素ずれを推測することを特徴とする車載カメラ。
An in-vehicle camera according to claim 2,
At least a first upper region in the image, a second upper region different from the first upper region, and a lower An in-vehicle camera, characterized in that the image of the area is used to estimate the pixel deviation of the entire surface.
請求項13記載の車載カメラであって、
前記フロントガラスの傾き角度が30°から35°のとき、
前記第1の上部領域は、前記画像の画角が垂直方向10°~20°、水平方向-15°~-5°の領域に配置され、
前記第2の上部領域は、前記画像の画角が垂直方向10°~20°、水平方向30°~40°の領域に配置され、
前記下部領域は、前記画像の画角が垂直方向-20°~-10°水平方向-35°~-25°の領域に配置されることを特徴とする車載カメラ。
14. The vehicle-mounted camera according to claim 13,
When the inclination angle of the windshield is 30° to 35°,
The first upper region is arranged in a region where the angle of view of the image is 10° to 20° in the vertical direction and -15° to -5° in the horizontal direction,
The second upper region is arranged in a region where the angle of view of the image is 10° to 20° in the vertical direction and 30° to 40° in the horizontal direction,
The vehicle-mounted camera, wherein the lower region is arranged in a region where the angle of view of the image is -20° to -10° in the vertical direction and -35° to -25° in the horizontal direction.
請求項2記載の車載カメラであって、
前記車載カメラが搭載される車両のフロントガラスの傾き角度が35°以上のとき、
少なくとも、前記画像内の上部領域、中部領域、下部領域の画像用いて前記全面の画素ずれを推測することを特徴とする車載カメラ。
An in-vehicle camera according to claim 2,
When the inclination angle of the windshield of the vehicle in which the vehicle-mounted camera is mounted is 35° or more,
An in-vehicle camera characterized by estimating a pixel shift of the entire surface by using at least images of an upper area, a middle area, and a lower area in the image.
請求項15記載の車載カメラであって、
前記フロントガラスの傾き角度が35°以上のとき、
前記上部領域は、前記画像の画角が垂直方向10°~20°、水平方向-15°~-5°の領域に配置され、
前記中部領域は、前記画像の画角が垂直方向-5°~5°、水平方向30°~40°の領域に配置され、
前記下部領域は、前記画像の画角が垂直方向-20°~-10°、水平方向-10°~0°の領域に配置されることを特徴とする車載カメラ。
16. The vehicle-mounted camera according to claim 15,
When the inclination angle of the windshield is 35° or more,
The upper region is arranged in a region where the angle of view of the image is 10° to 20° in the vertical direction and -15° to -5° in the horizontal direction,
The middle region is arranged in a region where the angle of view of the image is -5° to 5° in the vertical direction and 30° to 40° in the horizontal direction,
The vehicle-mounted camera, wherein the lower region is arranged in a region where the angle of view of the image is -20° to -10° in the vertical direction and -10° to 0° in the horizontal direction.
請求項1の車載カメラであって、
前記推定部、前記領域選択部および前記キャリブレーション部は、ソフトウエアプログラムまたはハードウエア回路により構成されることを特徴とする車載カメラ。
The vehicle-mounted camera of claim 1,
The in-vehicle camera, wherein the estimation unit, the area selection unit, and the calibration unit are configured by a software program or a hardware circuit.
対象物を撮像する撮影工程と、
前記撮影工程で撮像した画像をもとに全面の画素のずれを算出する推定する推定工程と、
前記撮影工程で撮影した画像においてフロントガラスの形状および傾斜に応じてあらかじめ定められた複数の所定領域を選択する選択工程と、
前記推定工程の情報を基に前記全面の画素のずれを補正するキャリブレーション工程と、を備え、
前記推定工程において、前記撮影した画像の中の前記複数の所定領域から検出した画像を用いて前記全面の画素ずれを推測する、車載カメラのキャリブレーション方法。
a photographing step of photographing an object;
an estimating step of estimating the displacement of the pixels of the entire surface based on the image captured in the photographing step;
a selection step of selecting a plurality of predetermined regions determined in advance according to the shape and inclination of the windshield in the image captured in the photographing step;
a calibration step of correcting the pixel deviation of the entire surface based on the information of the estimation step;
A method of calibrating an in-vehicle camera, wherein in the estimation step, pixel deviations of the entire surface are estimated using images detected from the plurality of predetermined regions in the photographed image.
車載カメラをフロントガラスの後ろに置いて、車の車内側からフロントガラスを介して複数の小型のチャートの画像を前記車載カメラにより撮影して、前記複数の小型のチャートの撮影画像を取得する工程と、
前記フロントガラスの設計値を入力する工程と、
前記フロントガラスの設計値に基づいて、ばらつき感度の良い画像領域を選択し、前記選択した画像領域に前記チャートを配置して撮影した画像から各選択した画像領域の画素ずれを算出する工程と、
各選択した画像領域の画素ずれから各ばらつきパラメータの値を算出する工程と、
前記ばらつきパラメータの値から全画面の画素ずれを推定する推定画素ずれを算出する工程と、
前記推定した全画面の画素ずれに基づいて、撮影画像内の全画面の画素ずれを各画素点でキャンセルし、キャリブレーションを行う工程と、を有する、車載カメラのキャリブレーション方法。
placing an on-board camera behind a windshield, capturing images of a plurality of small charts from the inside of a vehicle through the windshield with the on-vehicle camera, and obtaining captured images of the plurality of small charts; and,
inputting design values for the windshield;
a step of selecting an image area with good variation sensitivity based on the design value of the windshield, and calculating a pixel shift of each selected image area from an image captured by arranging the chart in the selected image area;
calculating the value of each variation parameter from the pixel displacement of each selected image region;
calculating an estimated pixel shift for estimating the pixel shift of the entire screen from the value of the variation parameter;
A method of calibrating an in-vehicle camera, comprising: performing calibration by canceling pixel shifts in the entire screen within a captured image at each pixel point based on the estimated pixel shifts in the entire screen.
JP2021122576A 2021-07-27 2021-07-27 In-vehicle camera and how to calibrate it Active JP7459023B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021122576A JP7459023B2 (en) 2021-07-27 2021-07-27 In-vehicle camera and how to calibrate it
PCT/JP2022/004627 WO2023007775A1 (en) 2021-07-27 2022-02-07 Vehicle-mounted camera and calibration method for vehicle-mounted camera
DE112022001700.7T DE112022001700T5 (en) 2021-07-27 2022-02-07 IN-VEHICLE CAMERA AND IN-VEHICLE CAMERA CALIBRATION PROCEDURE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021122576A JP7459023B2 (en) 2021-07-27 2021-07-27 In-vehicle camera and how to calibrate it

Publications (2)

Publication Number Publication Date
JP2023018438A true JP2023018438A (en) 2023-02-08
JP7459023B2 JP7459023B2 (en) 2024-04-01

Family

ID=85086638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021122576A Active JP7459023B2 (en) 2021-07-27 2021-07-27 In-vehicle camera and how to calibrate it

Country Status (3)

Country Link
JP (1) JP7459023B2 (en)
DE (1) DE112022001700T5 (en)
WO (1) WO2023007775A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011049733A (en) 2009-08-26 2011-03-10 Clarion Co Ltd Camera calibration device and video distortion correction device
JP5834810B2 (en) 2011-11-17 2015-12-24 株式会社リコー Camera calibration apparatus, occupant support apparatus, and distortion coefficient generation method for camera calibration
JP2017062198A (en) 2015-09-25 2017-03-30 富士重工業株式会社 Geometrical distortion removal reproduction device
CN111798521B (en) 2019-04-09 2023-10-31 Oppo广东移动通信有限公司 Calibration method and device, storage medium and electronic equipment
JP2021009113A (en) 2019-07-02 2021-01-28 株式会社リコー Measurement tool, calibration device, and program

Also Published As

Publication number Publication date
WO2023007775A1 (en) 2023-02-02
DE112022001700T5 (en) 2024-01-11
JP7459023B2 (en) 2024-04-01

Similar Documents

Publication Publication Date Title
JP5745178B2 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
CN107103625B (en) Method and apparatus for imaging system
US8885049B2 (en) Method and device for determining calibration parameters of a camera
US9369695B2 (en) Method and apparatus for three-dimensional measurement and image processing device
JP4803450B2 (en) On-vehicle camera calibration device and vehicle production method using the device
US20090040312A1 (en) Calibration apparatus and method thereof
JP2012253758A (en) Method of calibrating vehicle vision system and vehicle vision system
CN110211185B (en) Method for identifying characteristic points of calibration pattern in group of candidate points
CN101416022A (en) Method and system for measuring the shape of a reflective surface
US11222433B2 (en) 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images
KR101926258B1 (en) Method of automatic calibration of AVM system
CN113465573A (en) Monocular distance measuring method and device and intelligent device
US20180058850A1 (en) Method and apparatus for single camera optical measurements
WO2023007775A1 (en) Vehicle-mounted camera and calibration method for vehicle-mounted camera
JP6536529B2 (en) Calibration apparatus for in-vehicle camera and calibration method for in-vehicle camera
JP2016225719A (en) Stereo camera device, vehicle, and calibration method
US8102516B2 (en) Test method for compound-eye distance measuring apparatus, test apparatus, and chart used for the same
US20090087013A1 (en) Ray mapping
RU2592711C1 (en) Method and system for calibration of complex for measurement of vehicle speed
CN111563936A (en) Camera external parameter automatic calibration method and automobile data recorder
JP2013239905A (en) Calibration apparatus for in-vehicle camera
CN113610927B (en) AVM camera parameter calibration method and device and electronic equipment
JP2018125706A (en) Imaging apparatus
CN114299164A (en) Camera calibration method, storage medium and electronic device
CN110232715B (en) Method, device and system for self calibration of multi-depth camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R150 Certificate of patent or registration of utility model

Ref document number: 7459023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150