JP2016001378A - Calibration device of on-vehicle camera - Google Patents

Calibration device of on-vehicle camera Download PDF

Info

Publication number
JP2016001378A
JP2016001378A JP2014120677A JP2014120677A JP2016001378A JP 2016001378 A JP2016001378 A JP 2016001378A JP 2014120677 A JP2014120677 A JP 2014120677A JP 2014120677 A JP2014120677 A JP 2014120677A JP 2016001378 A JP2016001378 A JP 2016001378A
Authority
JP
Japan
Prior art keywords
calibration
cameras
image
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014120677A
Other languages
Japanese (ja)
Inventor
真悟 竹内
Shingo Takeuchi
真悟 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014120677A priority Critical patent/JP2016001378A/en
Publication of JP2016001378A publication Critical patent/JP2016001378A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a calibration device capable of automatically calibrating deviation of a mount position of each camera in a vehicle imaging system equipped with a plurality of cameras.SOLUTION: During vehicle stop, it is determined whether or not a predetermined calibration image is captured at an overlapped area where one portion of imaging areas of a plurality of cameras overlaps (S150). When capturing of the calibration image is determined, operation, such as crossing, mutation, and copy, is performed to a plurality of seeds with displacement to a reference camera parameter as a variable, based on genetic algorithm. The degree of coincidence of the calibration image changed in accordance with the seeds after the operation is calculated as a matching score. A seed having the highest degree of coincidence is selected as an optimum solution corresponding to the actual deviation of cameras (S160-S200).

Description

本発明は、複数のカメラにより構成される車両用撮像システムにおいて、各カメラの搭載位置のずれを校正するのに好適な、車載カメラの校正装置に関する。   The present invention relates to an in-vehicle camera calibration apparatus suitable for calibrating a displacement of a mounting position of each camera in a vehicle imaging system including a plurality of cameras.

車両周囲の俯瞰画像を車室内の表示装置に表示するため、車両の異なる位置(例えば、前後左右)に複数のカメラを配置し、各カメラによる撮像画像を視点変換して合成することで、表示画像(俯瞰画像)を生成するように構成された車両用撮像システムが知られている。   In order to display a bird's-eye view around the vehicle on a display device in the passenger compartment, a plurality of cameras are arranged at different positions (for example, front, back, left, and right) of the vehicle, and the images captured by the cameras are converted by viewpoints and combined to display 2. Description of the Related Art A vehicle imaging system configured to generate an image (overhead image) is known.

この種の車両用撮像システムでは、各カメラの搭載位置がずれると、撮像画像の視点変換を良好に行うことができないことから、カメラ毎に搭載位置のずれを校正することが提案されている(例えば、特許文献1等参照)。   In this type of vehicle imaging system, if the mounting position of each camera is shifted, viewpoint conversion of the captured image cannot be performed satisfactorily, and therefore it is proposed to calibrate the mounting position shift for each camera ( For example, see Patent Document 1).

この提案の校正装置では、校正対象カメラと他のカメラとの間で重複する撮像領域(重複領域)に正方形の校正用パターンを設置して、各カメラにより撮像させる。そして、各カメラの撮像画像を視点変換した表示画像において、校正用パターンの座標(頂点など)の位置ずれが最小となるように、校正対象カメラに対する撮像画像の変換規則を調整する。   In the proposed calibration apparatus, a square calibration pattern is installed in an imaging area (overlapping area) that overlaps between the camera to be calibrated and another camera, and an image is captured by each camera. Then, the conversion rule of the captured image with respect to the camera to be calibrated is adjusted so that the positional deviation of the coordinates (vertex etc.) of the calibration pattern is minimized in the display image obtained by performing viewpoint conversion of the captured image of each camera.

特開2010−244326号公報JP 2010-244326 A

ところで、上記従来の構成装置では、校正時に、複数のカメラの撮像領域が重複する重複領域に所定の校正用のパターンを配置することを前提としているため、校正可能な場所が、車両を製造、販売、若しくは修理する特定の施設に制限されてしまう。   By the way, in the above-described conventional configuration apparatus, it is assumed that a predetermined calibration pattern is arranged in an overlapping area where the imaging areas of a plurality of cameras overlap at the time of calibration. Limited to specific facilities for sale or repair.

このため、車両の所有者は、表示画像に異常を感じたときに、車両を、車載カメラの校正が可能な施設に持ち込まなければならず、使い勝手が悪いという問題があった。
本発明は、こうした問題に鑑みなされたものであり、複数のカメラを備えた車両用撮像システムにおいて、各カメラの搭載位置のずれを自動校正することのできる校正装置を提供することを目的とする。
For this reason, when the owner of the vehicle feels an abnormality in the display image, he / she has to bring the vehicle into a facility capable of calibrating the in-vehicle camera, which is inconvenient.
The present invention has been made in view of these problems, and an object of the present invention is to provide a calibration device capable of automatically calibrating the displacement of the mounting positions of each camera in a vehicle imaging system including a plurality of cameras. .

本発明の車載カメラの校正装置は、複数のカメラと、この複数のカメラの位置及び姿勢を表す基準カメラパラメータに基づき設定された変換データを用いて表示画像を生成する表示画像生成手段と、を備えた車両用撮像システムにおいて、各カメラの基準位置からの位置ずれを校正するためのものである。   The in-vehicle camera calibration device of the present invention includes a plurality of cameras and display image generation means for generating a display image using conversion data set based on reference camera parameters representing the positions and orientations of the plurality of cameras. In the vehicular imaging system provided, the positional deviation of each camera from the reference position is calibrated.

本発明の車載カメラの校正装置においては、判定手段が、複数のカメラの撮像領域の一部が重複する重複領域にて、所定の校正用画像が撮像されたか否かを判定する。
この判定手段にて校正用画像が撮像されたと判定されると、校正データ生成手段が、所定の進化アルゴリズムに従い基準カメラパラメータを変位させることで、校正用画像を撮像した複数のカメラによる重複領域の撮像画像の中で、校正用画像の位置及び形状が最も一致する基準カメラパラメータの変位量を探索する。
In the on-vehicle camera calibration apparatus according to the present invention, the determination unit determines whether or not a predetermined calibration image has been captured in an overlapping region where a part of the imaging regions of a plurality of cameras overlaps.
When it is determined that the calibration image has been captured by the determination unit, the calibration data generation unit displaces the reference camera parameter according to a predetermined evolution algorithm, so that an overlapping region of a plurality of cameras that have captured the calibration image is detected. In the captured image, the displacement amount of the reference camera parameter that most closely matches the position and shape of the calibration image is searched.

そして、校正データ生成手段は、その探索した基準カメラパラメータの変位量を、複数のカメラの校正データとして設定する。
このように、本発明の車載カメラの校正装置によれば、撮像領域の一部が重複する複数のカメラによって、その撮像領域が重複する重複領域内で、所定の校正用画像が撮像されたときに、校正データ生成手段が自動で起動し、校正データの生成を行う。
Then, the calibration data generation means sets the searched displacement amount of the reference camera parameter as calibration data of a plurality of cameras.
As described above, according to the in-vehicle camera calibration device of the present invention, when a predetermined calibration image is captured in the overlapping region where the imaging regions overlap by a plurality of cameras where the imaging regions partially overlap. In addition, the calibration data generation means is automatically activated to generate calibration data.

このため、本発明の車載カメラの校正装置によれば、車両の所有者が車両を使用しているときに、重複領域にて校正用画像が撮像されるようにすることによって、校正データ生成手段による校正データの生成が頻繁に実施されるようになり、カメラの位置ずれによって、表示画像が歪んだり、不鮮明になるのを防止できる。   Therefore, according to the on-vehicle camera calibration device of the present invention, when the vehicle owner uses the vehicle, the calibration data generation means is configured to capture the calibration image in the overlapping region. Thus, the calibration data is frequently generated, and the display image can be prevented from being distorted or unclear due to the positional deviation of the camera.

また、使用者は、カメラの校正のために、修理工場等の所定の施設に車両を持ち込む必要がないので、車両用撮像システムの使い勝手を向上できる。
また、本発明の車載カメラの校正装置において、校正データ生成手段は、例えば、遺伝的アルゴリズム等の進化アルゴリズムに従い基準カメラパラメータを変位させることで、校正データを生成することから、車載カメラの位置ずれを適正に校正できる。
In addition, since the user does not need to bring the vehicle to a predetermined facility such as a repair shop for camera calibration, the usability of the vehicle imaging system can be improved.
In the in-vehicle camera calibration apparatus according to the present invention, the calibration data generation means generates the calibration data by displacing the reference camera parameter according to an evolution algorithm such as a genetic algorithm. Can be calibrated properly.

つまり、車載カメラの搭載位置(位置及び姿勢)のずれの要因には、車両から受ける振動等による経時的(換言すれば連続的)な要因と、車体が外部から受ける衝撃等によって生じる突発的(換言すれば離散的)な要因との2種類が考えられる。   In other words, the mounting position (position and orientation) of the in-vehicle camera is caused by a temporal (in other words, continuous) factor caused by vibrations received from the vehicle, and a sudden ( In other words, there are two types of factors: discrete factors.

これに対し、進化アルゴリズムでは、遺伝的アルゴリズムにおける交叉(クロスオーバ、局所探索)に代表される連続的な探索と、突然変異(ミューテーション)に代表される離散的な探索とを行うことができる。   On the other hand, in the evolution algorithm, a continuous search represented by crossover (local search) in a genetic algorithm and a discrete search represented by mutation (mutation) can be performed. .

従って、本発明のように、進化アルゴリズムを利用して、校正データの最適解を探索するようにすれば、車載カメラの位置ずれを効率よく最適に校正することが可能となる。   Therefore, if the optimal solution of the calibration data is searched using the evolution algorithm as in the present invention, it is possible to efficiently and optimally calibrate the displacement of the in-vehicle camera.

実施形態の車両用撮像システムの構成を表すブロック図である。It is a block diagram showing the structure of the imaging system for vehicles of embodiment. 車両へのカメラの搭載位置及びカメラの撮像領域を表す説明図である。It is explanatory drawing showing the mounting position of the camera to a vehicle, and the imaging area of a camera. 図1の校正部にて実行される校正処理を表すフローチャートである。It is a flowchart showing the calibration process performed in the calibration part of FIG. 車両の出荷後に実施される校正動作を説明する説明図である。It is explanatory drawing explaining the calibration operation implemented after shipment of a vehicle. 図4の校正動作で使用されるシード及びその操作を説明する説明図である。It is explanatory drawing explaining the seed used by the calibration operation | movement of FIG. 4, and its operation.

以下に本発明の実施形態を図面と共に説明する。
なお、本発明は、下記の実施形態によって何ら限定して解釈されない。また、下記の実施形態の構成の一部を、課題を解決できる限りにおいて省略した態様も本発明の実施形態である。また、特許請求の範囲に記載した文言のみによって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。また、下記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、これは本発明の理解を容易にする目的で使用しており、本発明の技術的範囲を限定する意図ではない。
Embodiments of the present invention will be described below with reference to the drawings.
The present invention is not construed as being limited in any way by the following embodiments. An aspect in which a part of the configuration of the following embodiment is omitted as long as the problem can be solved is also an embodiment of the present invention. Moreover, all the aspects which can be considered in the limit which does not deviate from the essence of the invention specified only by the wording described in the claims are embodiments of the present invention. Further, the reference numerals used in the description of the following embodiments are also used in the claims as appropriate, but this is used for the purpose of facilitating the understanding of the present invention, and limits the technical scope of the present invention. Not intended.

図1に示すように、本実施形態の車両用撮像システムは、車両周囲を撮像するための4つのカメラ12、14、16、18と、各カメラ12〜18による撮像画像から俯瞰画像を生成してディスプレイ30に表示させる画像処理用の電子制御装置(ECU)20と、を備える。   As shown in FIG. 1, the imaging system for vehicles of this embodiment produces | generates a bird's-eye view image from the four cameras 12, 14, 16, 18 for imaging the vehicle periphery, and the captured image by each camera 12-18. And an electronic control unit (ECU) 20 for image processing to be displayed on the display 30.

図2に示すように、4つのカメラ12〜18は、車両2の前方、後方、左側方、右側方をそれぞれ撮像できるように、フロントカメラ、リアカメラ、レフトカメラ、ライトカメラとして、車両2の前・後・左・右にそれぞれ取り付けられている。   As shown in FIG. 2, the four cameras 12 to 18 can be used as a front camera, a rear camera, a left camera, and a right camera so that the front, rear, left side, and right side of the vehicle 2 can be imaged. It is attached to the front, rear, left and right respectively.

各カメラ12〜18は、図2に点線で示すように、車両2の前方、後方、左側方、右側方を撮像領域として、車両周囲を撮像するためのものである。そして、各カメラ12〜18の撮像領域には、車両2の左前方、左後方、右前方、右後方で隣接するカメラの撮像領域と重なる重複領域6が設定されている。   Each camera 12-18 is for imaging the surroundings of the vehicle 2, using the front, rear, left side, and right side of the vehicle 2 as imaging regions, as indicated by dotted lines in FIG. And the overlapping area 6 which overlaps with the imaging area of the camera which adjoins the left front of the vehicle 2, the left rear, the right front, and the right rear is set to the imaging area of each camera 12-18.

また、各カメラ12〜18の車両2への搭載位置(取付位置及び姿勢)は、各カメラ12〜18の撮像領域が上記のようになるよう予め設定されている。そして、各カメラ12〜18の実際の取付位置及び姿勢(換言すれば撮像方向)は、その設定された搭載位置に基づき製造工場若しくは修理工場等で調整される。   In addition, the mounting positions (mounting positions and postures) of the cameras 12 to 18 on the vehicle 2 are set in advance so that the imaging areas of the cameras 12 to 18 are as described above. Then, the actual mounting positions and orientations (in other words, the imaging directions) of the cameras 12 to 18 are adjusted at a manufacturing factory, a repair factory, or the like based on the set mounting positions.

一方、ECU20は、各カメラ12〜18の取付位置及び姿勢を基準カメラパラメータとして、各カメラ12〜18による撮像画像を視点変換し、合成することで、俯瞰画像を生成する。   On the other hand, the ECU 20 generates a bird's-eye view image by converting the viewpoints of the images captured by the cameras 12 to 18 and combining them using the attachment positions and orientations of the cameras 12 to 18 as reference camera parameters.

なお、基準カメラパラメータは、例えば、各カメラ12〜18の車両2における取付位置、及び、車両の前後、左右、上下の3軸方向の取付角度を数値化したものである。
そして、ECU20が、各カメラ12〜18による撮像画像を視点変換する際には、基準カメラパラメータに基づき設定された変換データを利用する。
The reference camera parameters are obtained by quantifying, for example, the attachment positions of the cameras 12 to 18 in the vehicle 2 and the attachment angles in the three axial directions of the front, rear, left, and right of the vehicle.
And when ECU20 carries out viewpoint conversion of the captured image by each camera 12-18, the conversion data set based on the reference | standard camera parameter are utilized.

このため、基準カメラパラメータが、各カメラ12〜18の実際の取付状態からずれていると、撮像画像の視点変換を正確に実施することができず、最終的に得られる俯瞰画像に歪みが生じることになる。   For this reason, if the reference camera parameter is deviated from the actual mounting state of each of the cameras 12 to 18, the viewpoint conversion of the captured image cannot be performed accurately, and the finally obtained overhead image is distorted. It will be.

そこで、車両の製造工場や修理工場等では、各カメラ12〜18の位置調整後、図3に示すように、車両の周囲に、所定図柄(図では正方形状)の校正用基準パターン4を配置して、各カメラ12〜18の搭載位置校正(所謂キャリブレーション)を行うことで、基準カメラパラメータを算出し、変換データを設定する。   Therefore, in a vehicle manufacturing factory, repair shop, etc., after adjusting the positions of the cameras 12 to 18, as shown in FIG. 3, a reference pattern 4 for calibration having a predetermined pattern (square shape in the figure) is arranged around the vehicle. Then, by performing mounting position calibration (so-called calibration) of each of the cameras 12 to 18, reference camera parameters are calculated, and conversion data is set.

このキャリブレーションは、車両周囲の校正用基準パターン4を各カメラ12〜18で撮像して、その撮像画像を視点変換した変換画像内の校正用基準パターン4と、校正用基準パターン4の実際の配置位置とのずれを検出することにより行う。   In this calibration, the calibration reference pattern 4 around the vehicle is imaged by each of the cameras 12 to 18, and the calibration reference pattern 4 in the converted image obtained by performing viewpoint conversion of the captured image and the actual calibration reference pattern 4 are converted. This is done by detecting a deviation from the arrangement position.

このため、図1に示すように、ECU20には、各カメラ12〜18による撮像画像を視点変換するための画像変換部22に加えて、各カメラ12〜18の搭載位置を校正するカメラ校正部28が備えられている。   For this reason, as shown in FIG. 1, the ECU 20 includes a camera calibration unit that calibrates the mounting positions of the cameras 12 to 18 in addition to the image conversion unit 22 that converts viewpoints of images captured by the cameras 12 to 18. 28 is provided.

カメラ校正部28は、CPU、ROM、RAM等を中心とする周知のマイクロコンピュータ(マイコン)にて構成されており、工場等で外部機器から入力される校正指令に従い、上述した搭載位置校正を行う。   The camera calibration unit 28 is composed of a known microcomputer (microcomputer) centered on a CPU, ROM, RAM, etc., and performs the above-described mounting position calibration in accordance with a calibration command input from an external device at a factory or the like. .

また、カメラ校正部28は、車両2が工場から出荷されて使用者が使用しているときにも、各カメラ12〜18の搭載位置校正を実施するようにされており、その実施条件を判定(本実施形態では車両の停止判定)するために、車速、ブレーキ信号等の車両状態を表す検出信号が、他の車両制御装置から入力される。   Further, the camera calibration unit 28 is adapted to perform the mounting position calibration of each of the cameras 12 to 18 even when the vehicle 2 is shipped from the factory and used by the user, and the execution condition is determined. In order to make a vehicle stop determination in this embodiment, a detection signal indicating a vehicle state such as a vehicle speed or a brake signal is input from another vehicle control device.

なお、カメラ校正部28は、各カメラ12〜18の搭載位置校正を実施すると、その校正結果(換言すれば、各カメラ12〜18の基準搭載位置からのずれ)に基づき、画像変換部22が各カメラ12〜18による撮像画像を視点変換するのに用いる変換データを更新する。   When the camera calibration unit 28 calibrates the mounting positions of the cameras 12 to 18, the image conversion unit 22 performs the calibration based on the calibration result (in other words, the deviation from the reference mounting positions of the cameras 12 to 18). Conversion data used to convert viewpoints of images captured by the cameras 12 to 18 is updated.

また、ECU20には、カメラ校正部28が、画像変換部22からの入力画像(俯瞰画像)の中から、ROM若しくは不揮発性メモリに予め登録された所定の画像(上述した校正用基準パターン4等)を検出するのに用いる画像認識エンジン24が備えられている。   In the ECU 20, a camera calibration unit 28 includes a predetermined image (such as the above-described calibration reference pattern 4 described above) registered in the ROM or the nonvolatile memory from the input image (overhead image) from the image conversion unit 22. ) Is used to detect the image recognition engine 24.

また、ECU20には、カメラ校正部28からの出力画像(俯瞰画像等)をディスプレイ30に表示させるための表示制御部26も備えられている。
次に、カメラ校正部28にて各カメラ12〜18の搭載位置校正のために実行される校正処理を、図3に示すフローチャートに沿って説明する。
The ECU 20 is also provided with a display control unit 26 for causing the display 30 to display an output image (such as a bird's-eye view image) from the camera calibration unit 28.
Next, calibration processing executed by the camera calibration unit 28 for calibration of the mounting positions of the cameras 12 to 18 will be described with reference to the flowchart shown in FIG.

図1に示すように、カメラ校正部28にて実行される校正処理は、車両2の製造工場若しくは修理工場等で実行されるS110〜S130(Sはステップを表す)の初期校正処理と、工場からの出荷後に実行されるS140〜S200の自動校正処理とに分けられる。   As shown in FIG. 1, the calibration process executed by the camera calibration unit 28 includes an initial calibration process of S <b> 110 to S <b> 130 (S represents a step) executed at the manufacturing factory or repair factory of the vehicle 2, and the factory. And the automatic calibration processing of S140 to S200 that is executed after the shipment.

S110〜S130の初期校正処理は、工場等で、車両2の周囲に図2に示した多数の校正用基準パターン4を配置した状態で、ECU20に校正指令が入力されることにより実行される処理であり、処理が開始されると、まずS110にて、各カメラ12〜18のキャリブレーションを実施する。   The initial calibration process of S110 to S130 is a process executed when a calibration command is input to the ECU 20 in a state where a large number of calibration reference patterns 4 shown in FIG. When the process is started, first, calibration of each camera 12 to 18 is performed in S110.

なお、この処理は、例えば、画像変換部22に初期値となる変換データを入力して、各カメラ12〜18からの撮像画像を車両の上方から見た俯瞰画像に変換させ、その変換画像中の校正用基準パターンを、画像認識エンジン24を利用して認識し、その認識した校正用基準パターンの位置及び形状と、実際の校正用基準パターンの位置及び形状のずれを検出することにより行われる。   In this process, for example, conversion data serving as an initial value is input to the image conversion unit 22 to convert the captured images from the cameras 12 to 18 into overhead images viewed from above the vehicle. The calibration reference pattern is recognized by using the image recognition engine 24, and the position and shape of the recognized calibration reference pattern and the actual position and shape deviation of the calibration reference pattern are detected. .

そして、S110では、その校正結果に基づき、各カメラ12〜18の搭載位置(配置位置及び姿勢)を表す基準カメラパラメータx={x0,x1,x2,…,xn}を算出すると共に、その基準カメラパラメータxに基づき画像変換部22の変換データを更新する。   In S110, reference camera parameters x = {x0, x1, x2,..., Xn} representing the mounting positions (arrangement positions and orientations) of the cameras 12 to 18 are calculated based on the calibration result, and the reference is calculated. The conversion data of the image conversion unit 22 is updated based on the camera parameter x.

こうして、各カメラ12〜18のキャリブレーションが実施されると、S120に移行し、車両2の出荷後の校正処理のために、基準カメラパラメータxからの変位Δx={Δx0,Δx1,Δx2,…,Δxn}を変数とするシードを初期化する。   Thus, when the calibration of each camera 12 to 18 is performed, the process proceeds to S120, and the displacement Δx = {Δx0, Δx1, Δx2,... From the reference camera parameter x for the calibration process after the vehicle 2 is shipped. , Δxn} is initialized as a variable.

このシードは、遺伝的アルゴリズムに従い各カメラ12〜18の基準搭載位置からの変位量を特定するためのものであり、S120では、図5の(a)に例示するように、複数、ランダムに設定される。なお、この複数のシードの内、少なくとも一つは、全ての変位が「0」となるよう設定される。   This seed is for specifying the amount of displacement from the reference mounting position of each camera 12 to 18 according to the genetic algorithm. In S120, a plurality of seeds are set at random as illustrated in FIG. 5A. Is done. In addition, at least one of the plurality of seeds is set so that all the displacements are “0”.

そして、続くS130では、画像変換部22を介して得られる各カメラ12〜18による重複領域6内の画像(例えば校正用基準パターン4の画像)を、S120にて初期設定した各シード(各カメラ12〜18の変位量)に基づき変形させて、その変形画像の基準画像との一致度合いを表すマッチングスコアを算出し、ソートする。   In subsequent S130, the images (for example, images of the calibration reference pattern 4) in the overlapping region 6 obtained by the respective cameras 12 to 18 obtained via the image conversion unit 22 are converted into the seeds (the respective cameras that are initially set in S120). 12 to 18), a matching score representing the degree of coincidence of the deformed image with the reference image is calculated and sorted.

なお、本実施形態では、マッチングスコアは、対象領域に対して、その画像を構成する各ピクセルの分散の加重平均として求められ、マッチングスコアが最小のもの(初期校正処理では、Δx={0,0,0,…,0})が現在の各カメラ12〜18の搭載位置に対応した最適解となる。   In this embodiment, the matching score is obtained as a weighted average of the variances of the pixels constituting the image with respect to the target region, and the matching score is the smallest (in the initial calibration process, Δx = {0, 0, 0,..., 0}) is the optimum solution corresponding to the current mounting position of each camera 12-18.

そして、S130では、図5の(b)に示すように、シード毎に算出したマッチングスコアの内、最適解に近い最小のものから順に並べ(ソート)、不揮発性メモリに記憶する。   In S130, as shown in FIG. 5 (b), the matching scores calculated for each seed are arranged (sorted) in order from the smallest matching score closest to the optimum solution, and stored in the nonvolatile memory.

次に、工場からの出荷後、車両2の通常使用時に実行される自動校正処理では、まずS140にて、他の車両制御装置から入力される車速、ブレーキ信号等に基づき、車両2が停車中か否かを判断することで、車両2が停車されるのを待つ。   Next, in the automatic calibration process executed during normal use of the vehicle 2 after shipment from the factory, first, in S140, the vehicle 2 is stopped based on the vehicle speed, brake signal, etc. input from another vehicle control device. By determining whether or not, the vehicle 2 waits for the vehicle to stop.

そして、車両2が停車されると、S150に移行し、画像変換部22を介して得られる各カメラ12〜18による重複領域6内の画像の中に、ROM又は不揮発性メモリに登録された校正用パターンがあるか否かを判断することで、各カメラ12〜18にて校正用パターンが撮像されるのを待機する。   Then, when the vehicle 2 is stopped, the process proceeds to S150, and the calibration registered in the ROM or the non-volatile memory in the image in the overlapping region 6 by the cameras 12 to 18 obtained through the image conversion unit 22 is performed. By determining whether or not there is a use pattern, each camera 12 to 18 waits for the calibration pattern to be imaged.

この校正用パターンは、例えば、路面上に描かれた横断歩道や停車線の画像、車両が停車する場所に設置される道路標識の画像、車両2の保管場所周囲の画像等、複数の画像を校正用画像として予め登録したものである。   This calibration pattern includes, for example, a plurality of images such as an image of a pedestrian crossing or a stop line drawn on the road surface, an image of a road sign installed at a place where the vehicle stops, and an image around the storage location of the vehicle 2. This image is registered in advance as a calibration image.

そして、S150では、その複数の校正用パターンの少なくとも一つが、各カメラ12〜18により撮像された重複領域6内の画像の中に存在するか否かを、画像認識エンジン24を利用して判定する。   In S150, it is determined using the image recognition engine 24 whether or not at least one of the plurality of calibration patterns is present in the images in the overlapping area 6 captured by the cameras 12-18. To do.

なお、重複領域の画像の中から校正用パターンの画像を検出する際には、ブースティングに基づいた特徴量を用いることで、校正用パターンを容易に検出することができる。
S150にて、各カメラ12〜18により撮像された重複領域6内の画像の中に、校正用パターンが存在すると判定されると、S160に移行する。S160では、図5(c)に示すように、不揮発性メモリに記憶されている複数のシードに対し、それぞれ、交叉、突然変異、コピー、といった遺伝的アルゴリズムにおける操作を行う。
When detecting a calibration pattern image from the overlapping region images, the calibration pattern can be easily detected by using a feature amount based on boosting.
If it is determined in S150 that a calibration pattern is present in the images in the overlapping area 6 captured by the cameras 12 to 18, the process proceeds to S160. In S160, as shown in FIG. 5C, operations in a genetic algorithm such as crossover, mutation, and copy are performed on each of the plurality of seeds stored in the nonvolatile memory.

次に、S170では、図4に例示するように、画像変換部22を介して得られる各カメラ12〜18による重複領域6の画像の中から、校正用パターン8の画像を含む所定領域9をマッチングスコア算出対象領域として抽出し、その抽出画像をS160にて操作した複数のシードに基づき変形させて、マッチングスコアを算出し、その算出結果に基づき、各シードをソートする。   Next, in S170, as illustrated in FIG. 4, a predetermined area 9 including the image of the calibration pattern 8 is selected from the images of the overlapping area 6 obtained by the cameras 12 to 18 obtained via the image conversion unit 22. Extracted as a matching score calculation target region, the extracted image is deformed based on a plurality of seeds operated in S160, a matching score is calculated, and each seed is sorted based on the calculation result.

なお、このマッチングスコアの算出は、対象となる重複領域6を撮像した2つのカメラから得られる画像の一致度合いを、その画像を構成する各ピクセルの分散の加重平均として求めることにより実施される。そして、S170では、その算出したマッチングスコアが最小となるシード順に、各シードをソートする。   The calculation of the matching score is performed by obtaining the degree of coincidence of images obtained from the two cameras that have captured the target overlapping region 6 as a weighted average of the variance of each pixel constituting the image. In step S170, the seeds are sorted in the order of seeds that minimizes the calculated matching score.

このように、S160及びS170にて、遺伝的アルゴリズムに基づく各シードの操作、マッチングスコアの算出、及び、各シードのソートを実施すると、S180に移行し、この一連の処理(特許請求の範囲に記載の探索動作)を、予め設定された複数回(N回)実施したか否かを判断する。   As described above, when each seed operation, matching score calculation, and each seed sorting are performed based on the genetic algorithm in S160 and S170, the process proceeds to S180, and this series of processing (in the claims) It is determined whether or not the described search operation has been performed a plurality of times (N times) set in advance.

そして、S180にて、上記一連の処理(探索動作)をN回実施していないと判断されると、再度160に移行して、S160及びS170の処理を再度実行し、S180にて、上記一連の処理をN回実施したと判断されると、S190に移行する。   If it is determined in S180 that the series of processes (search operations) has not been performed N times, the process proceeds to 160 again, and the processes in S160 and S170 are performed again. In S180, the series of processes is performed. If it is determined that the above process has been performed N times, the process proceeds to S190.

S190では、上記N回の処理によって得られたマッチングスコアの中で最小となるマッチングスコアが、予め設定された閾値未満であるか否かを判断する。
そして、最小のマッチングスコアが閾値未満でなければ、そのままS140に移行し、最小のマッチングスコアが閾値未満であれば、その最小のマッチングスコアに対応するシードを、現在の各カメラ12〜18の基準位置(基準カメラパラメータ)からの変位量を表す最適解(変位)として選択し、S140に移行する。
In S190, it is determined whether or not the minimum matching score among the matching scores obtained by the N processes is less than a preset threshold value.
Then, if the minimum matching score is not less than the threshold value, the process proceeds to S140 as it is, and if the minimum matching score is less than the threshold value, the seed corresponding to the minimum matching score is set as a reference for each of the current cameras 12-18. The optimum solution (displacement) representing the amount of displacement from the position (reference camera parameter) is selected, and the process proceeds to S140.

なお、このように選択されたシードは、画像変換部22の変換データを更新するための校正データとして利用される。
以上説明したように、本実施形態の車両用撮像システムにおいては、ECU20内のカメラ校正部28が、工場等で、校正用基準パターンを利用してカメラ12〜18の搭載位置校正(キャリブレーション)を行う初期校正処理を実行することで、基準カメラパラメータを求める。
The seed selected in this way is used as calibration data for updating the conversion data of the image conversion unit 22.
As described above, in the vehicle imaging system according to the present embodiment, the camera calibration unit 28 in the ECU 20 performs calibration of the mounting positions (calibration) of the cameras 12 to 18 using the calibration reference pattern in a factory or the like. The reference camera parameters are obtained by executing the initial calibration process for performing the above.

そして、初期校正処理では、出荷後の搭載位置校正のために、その基準カメラパラメータに対する変位を変数とする複数のシードを初期設定する。
また、車両2の出荷後は、ECU20内のカメラ校正部28が自動校正処理を実行することで、各カメラ12〜18の撮像領域が重複する重複領域6内で、予め登録された校正用パターンが撮像される度に、遺伝的アルゴリズムに基づき各シードを操作する。
In the initial calibration process, a plurality of seeds having the displacement with respect to the reference camera parameter as a variable are initially set for the mounting position calibration after shipment.
In addition, after the vehicle 2 is shipped, the camera calibration unit 28 in the ECU 20 executes an automatic calibration process, so that the calibration pattern registered in advance in the overlapping region 6 where the imaging regions of the cameras 12 to 18 overlap. Each seed is manipulated based on a genetic algorithm each time.

そして、自動校正処理では、その操作後の各シード(カメラの基準位置からの変位)に対応した重複領域6内の画像同士の一致度をマッチングスコアとして算出し、画像同士が最も一致するシードを、校正データとして設定する。   In the automatic calibration process, the degree of coincidence between the images in the overlapping region 6 corresponding to each seed (displacement from the reference position of the camera) after the operation is calculated as a matching score, and the seed with the best match between the images is calculated. Set as calibration data.

従って、本実施形態の車両用撮像システムによれば、車両2の通常使用時に、カメラ12〜18の搭載位置の校正が自動で、且つ、頻繁に実施されることになり、カメラ12〜18の位置ずれによって、表示画像が歪んだり、不鮮明になるのを防止できる。   Therefore, according to the vehicle imaging system of the present embodiment, the calibration of the mounting positions of the cameras 12 to 18 is automatically and frequently performed during normal use of the vehicle 2. It is possible to prevent the display image from being distorted or unclear due to the displacement.

また、使用者は、カメラ12〜18の搭載位置校正のために、修理工場等に車両を持ち込む必要がないので、車両用撮像システムの使い勝手を向上できる。
また、自動校正処理では、遺伝的アルゴリズムを利用して、各シードを操作することで、各カメラ12〜18の基準位置(基準カメラパラメータ)からの位置ずれ量を探索することから、各カメラ12〜18の位置ずれ量を正確に求めることができる。
Further, since the user does not need to bring the vehicle to a repair shop or the like for calibration of the mounting positions of the cameras 12 to 18, the usability of the vehicle imaging system can be improved.
Further, in the automatic calibration process, each camera 12 is searched for a positional deviation amount from the reference position (reference camera parameter) of each camera 12 to 18 by operating each seed using a genetic algorithm. The amount of misalignment of ˜18 can be accurately obtained.

つまり、上述したように、カメラ12〜18の搭載位置(位置及び姿勢)のずれの要因には、連続的な要因と離散的な要因との2種類が考えられるが、遺伝的アルゴリズムによれば、各シードの交叉によって連続的な探索を行い、各シードの突然変異によって離散的な探索を行うことができるので、各カメラ12〜18の搭載位置の校正を、効率よく最適に実行することが可能となる。   That is, as described above, there are two types of factors that cause a shift in the mounting positions (positions and postures) of the cameras 12 to 18, continuous factors and discrete factors. Since a continuous search can be performed by crossing each seed and a discrete search can be performed by mutation of each seed, calibration of the mounting positions of the cameras 12 to 18 can be performed efficiently and optimally. It becomes possible.

以上、本発明の一実施形態を説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内にて、種々の態様をとることができる。
例えば、自動校正処理で使用する校正用パターンとしては、例えば、使用者が頻繁に車両2を駐車させる場所の画像等、車両の駐・停車時に重複領域6内で撮像される特定画像の特徴パターンを、重複領域6毎に一つ登録しておくだけでもよい。
As mentioned above, although one embodiment of the present invention was described, the present invention is not limited to the above-mentioned embodiment, and can take various modes without departing from the gist of the present invention.
For example, as a calibration pattern used in the automatic calibration process, for example, a feature pattern of a specific image captured in the overlapping region 6 when the vehicle is parked or stopped, such as an image of a place where the user frequently parks the vehicle 2 May be registered for each overlapping region 6.

また、上記実施形態では、自動校正処理では、遺伝的アルゴリズムを利用して、カメラ12〜18の搭載位置を校正するものとして説明したが、遺伝的プログラミング、進化的戦略、進化的プログラミング等、遺伝的アルゴリズムとは異なる進化アルゴリズムを利用してもよい。   In the above embodiment, the automatic calibration process is described as calibrating the mounting positions of the cameras 12 to 18 using a genetic algorithm, but genetic programming, evolutionary strategy, evolutionary programming, etc. An evolutionary algorithm different from the genetic algorithm may be used.

一方、上記実施形態では、4つのカメラ12〜18を利用して、車両2の上方から周囲を見た俯瞰画像を生成し、ディスプレイ30に表示する、車両用撮像システムについて説明した。しかし、本発明は、例えば、一対のカメラを利用して3次元画像を生成する撮像システム等、複数の車載カメラを利用して表示画像を生成する撮像システムであれば、上記実施形態と同様に適用することができる。   On the other hand, in the above embodiment, the vehicle imaging system that uses the four cameras 12 to 18 to generate a bird's-eye view image of the surroundings from above the vehicle 2 and displays the image on the display 30 has been described. However, the present invention is similar to the above embodiment as long as it is an imaging system that generates a display image using a plurality of in-vehicle cameras, such as an imaging system that generates a three-dimensional image using a pair of cameras. Can be applied.

2…車両、4…校正用基準パターン、6…重複領域、8…校正用パターン、9…所定領域、12〜18…カメラ、20…ECU、22…画像変換部、24…画像認識エンジン、26…表示制御部、28…カメラ校正部、30…ディスプレイ。   DESCRIPTION OF SYMBOLS 2 ... Vehicle, 4 ... Calibration reference pattern, 6 ... Overlapping area, 8 ... Calibration pattern, 9 ... Predetermined area, 12-18 ... Camera, 20 ... ECU, 22 ... Image converter, 24 ... Image recognition engine, 26 ... display control unit, 28 ... camera calibration unit, 30 ... display.

Claims (3)

車両周囲を撮像するため、撮像領域の一部が重複するように車両に搭載された複数のカメラ(12,14,16,18)と、
前記複数のカメラの位置及び姿勢を表す基準カメラパラメータに基づき設定された変換データを用いて、前記複数のカメラによる撮像画像から、車両周囲を所定の視点から見た表示画像を生成する表示画像生成手段(22)と、
を備えた車両用撮像システムにおいて、前記基準カメラパラメータにて特定される前記複数のカメラの基準位置からの位置ずれを校正する、車載カメラの校正装置(28)であって、
前記複数のカメラの撮像領域の一部が重複する重複領域にて、所定の校正用画像が撮像されたか否かを判定する判定手段(28、S150)と、
前記判定手段にて前記校正用画像が撮像されたと判定されると、所定の進化アルゴリズムに従い前記基準カメラパラメータを変位させることで、当該校正用画像を撮像した複数のカメラによる前記重複領域の撮像画像の中で、前記校正用画像の位置及び形状が最も一致する前記基準カメラパラメータの変位量を探索し、該変位量を、当該複数のカメラの校正データとして設定する校正データ生成手段(28、S160〜S200)と、
を備えたことを特徴とする車載カメラの校正装置。
A plurality of cameras (12, 14, 16, 18) mounted on the vehicle so that a part of the imaging region overlaps in order to image the vehicle periphery;
Display image generation for generating a display image obtained by viewing the surroundings of the vehicle from a predetermined viewpoint from the captured images of the plurality of cameras, using conversion data set based on reference camera parameters representing the positions and orientations of the plurality of cameras Means (22);
In a vehicle imaging system comprising: a vehicle-mounted camera calibration device (28) for calibrating positional deviations from a reference position of the plurality of cameras specified by the reference camera parameter,
A determination unit (28, S150) for determining whether or not a predetermined calibration image has been captured in an overlapping region where a part of the imaging regions of the plurality of cameras overlaps;
When the determination unit determines that the calibration image is captured, the captured image of the overlapping region is captured by a plurality of cameras that have captured the calibration image by displacing the reference camera parameter according to a predetermined evolution algorithm. The calibration data generation means (28, S160) searches for the displacement amount of the reference camera parameter that most closely matches the position and shape of the calibration image, and sets the displacement amount as calibration data of the plurality of cameras. To S200),
An on-vehicle camera calibration device characterized by comprising:
前記校正データ生成手段は、
前記複数のカメラの基準カメラパラメータからの変位を変数とする複数のシードを備え、前記進化アルゴリズムとして遺伝的アルゴリズムを利用することで、該複数のシードに対し、交叉、突然変異、コピーの何れかの操作を行い、該操作後のシード毎に、前記基準カメラパラメータを変位させたときに前記複数のカメラにより得られる前記重複領域内の校正用画像の位置及び形状が最も一致する基準カメラパラメータの変位量を探索する探索動作を複数回行い、該複数回の探索動作によって得られたシードの内、前記重複領域内の校正用画像が最も一致するシードを、前記校正データとして設定することを特徴とする請求項1に記載の車載カメラの校正装置。
The calibration data generation means includes
A plurality of seeds having a variable from a reference camera parameter of the plurality of cameras as a variable, and using a genetic algorithm as the evolution algorithm, any of crossing, mutation, and copying is performed on the plurality of seeds. For each seed after the operation, the position and shape of the calibration camera image in the overlap region obtained by the plurality of cameras when the reference camera parameter is displaced are most closely matched. A search operation for searching for a displacement amount is performed a plurality of times, and among the seeds obtained by the plurality of search operations, a seed that most closely matches the calibration image in the overlapping region is set as the calibration data. The in-vehicle camera calibration device according to claim 1.
前記判定手段は、予め設定された複数種類の校正用画像を記憶しており、前記表示画像生成手段にて生成された表示画像を監視することで、該複数の校正用画像の一つが前記重複領域内に存在するか否かを判定することで、前記重複領域にて所定の校正用画像が撮像されたか否かを判定することを特徴とする請求項1又は請求項2に記載の車載カメラの校正装置。   The determination unit stores a plurality of types of calibration images set in advance, and one of the plurality of calibration images is duplicated by monitoring the display image generated by the display image generation unit. The in-vehicle camera according to claim 1 or 2, wherein it is determined whether or not a predetermined calibration image is captured in the overlapping region by determining whether or not the region exists in the region. Calibration equipment.
JP2014120677A 2014-06-11 2014-06-11 Calibration device of on-vehicle camera Pending JP2016001378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014120677A JP2016001378A (en) 2014-06-11 2014-06-11 Calibration device of on-vehicle camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014120677A JP2016001378A (en) 2014-06-11 2014-06-11 Calibration device of on-vehicle camera

Publications (1)

Publication Number Publication Date
JP2016001378A true JP2016001378A (en) 2016-01-07

Family

ID=55076950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014120677A Pending JP2016001378A (en) 2014-06-11 2014-06-11 Calibration device of on-vehicle camera

Country Status (1)

Country Link
JP (1) JP2016001378A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018143064A1 (en) * 2017-01-31 2018-08-09 パナソニックIpマネジメント株式会社 In-vehicle camera
CN108696719A (en) * 2017-04-12 2018-10-23 罗伯特·博世有限公司 Method and apparatus for the vehicle camera for calibrating vehicle
JP2019097040A (en) * 2017-11-22 2019-06-20 パナソニックIpマネジメント株式会社 On-vehicle camera
JP2019114965A (en) * 2017-12-25 2019-07-11 アイシン精機株式会社 Image processing apparatus
JP2020060976A (en) * 2018-10-10 2020-04-16 クラリオン株式会社 Calibration device and calibration method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080181488A1 (en) * 2007-01-31 2008-07-31 Sanyo Electric Co., Ltd. Camera calibration device, camera calibration method, and vehicle having the calibration device
JP2011239349A (en) * 2010-05-13 2011-11-24 Fujitsu Ltd Image processing apparatus and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080181488A1 (en) * 2007-01-31 2008-07-31 Sanyo Electric Co., Ltd. Camera calibration device, camera calibration method, and vehicle having the calibration device
JP2011239349A (en) * 2010-05-13 2011-11-24 Fujitsu Ltd Image processing apparatus and image processing program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宮川 勲 外2名: "知的センシングと知的制御 映像からの人数推定における遺伝的アルゴリズムを使ったカメラパラメータの調整", 知能と情報 第21巻 第1号 日本知能情報ファジィ学会誌, vol. 第21巻 第1号, JPN6017024641, 15 February 2009 (2009-02-15), JP, pages 41 - 55, ISSN: 0003707519 *
長尾 智晴: "大学ベンチャー(3) 進化的画像処理 画像処理の知能化技術とそのビジネス展開", 画像ラボ 第16巻 第9号, vol. 第16巻 第9号, JPN6017024644, 1 September 2005 (2005-09-01), JP, pages 64 - 67, ISSN: 0003707520 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018143064A1 (en) * 2017-01-31 2018-08-09 パナソニックIpマネジメント株式会社 In-vehicle camera
CN108696719A (en) * 2017-04-12 2018-10-23 罗伯特·博世有限公司 Method and apparatus for the vehicle camera for calibrating vehicle
JP2019097040A (en) * 2017-11-22 2019-06-20 パナソニックIpマネジメント株式会社 On-vehicle camera
JP2019114965A (en) * 2017-12-25 2019-07-11 アイシン精機株式会社 Image processing apparatus
JP7110592B2 (en) 2017-12-25 2022-08-02 株式会社アイシン Image processing device
JP2020060976A (en) * 2018-10-10 2020-04-16 クラリオン株式会社 Calibration device and calibration method
JP7162489B2 (en) 2018-10-10 2022-10-28 フォルシアクラリオン・エレクトロニクス株式会社 CALIBRATION DEVICE AND CALIBRATION METHOD

Similar Documents

Publication Publication Date Title
KR102022388B1 (en) Calibration system and method using real-world object information
JP4461091B2 (en) Position detection apparatus and correction method thereof
WO2016056197A1 (en) In-vehicle camera calibration device, image generation device, in-vehicle camera calibration method, and image generation method
JP5143235B2 (en) Control device and vehicle surrounding monitoring device
JP5503728B2 (en) Vehicle periphery monitoring device
JP2016001378A (en) Calibration device of on-vehicle camera
US10464484B2 (en) Apparatus for presenting support images to a driver and method thereof
JP6213567B2 (en) Predicted course presentation device and predicted course presentation method
US20140071240A1 (en) Free space detection system and method for a vehicle using stereo vision
KR102227855B1 (en) Parking guide system and method for controlling the same
US10099617B2 (en) Driving assistance device and driving assistance method
JP2008131177A (en) Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method
US20150364043A1 (en) Parking system of vehicle
US7616806B2 (en) Position detecting apparatus and method of correcting data therein
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
WO2019176037A1 (en) Danger warning system and danger warning method
JP2013120551A (en) Driving support device for vehicle
JP5366264B2 (en) Stereo camera system and vehicle equipped with the system
JP6635621B2 (en) Automotive vision system and method of controlling the vision system
JP2007253699A (en) Optical axis deviation sensing device
JP2014082622A (en) On-vehicle camera attachment error detection device
JP6855254B2 (en) Image processing device, image processing system, and image processing method
JP2006155400A (en) Image extraction device
JP2005216200A (en) Other vehicle detecting apparatus and method
WO2017122688A1 (en) Device for detecting abnormality of lens of onboard camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171226