JP2016001378A - Calibration device of on-vehicle camera - Google Patents
Calibration device of on-vehicle camera Download PDFInfo
- Publication number
- JP2016001378A JP2016001378A JP2014120677A JP2014120677A JP2016001378A JP 2016001378 A JP2016001378 A JP 2016001378A JP 2014120677 A JP2014120677 A JP 2014120677A JP 2014120677 A JP2014120677 A JP 2014120677A JP 2016001378 A JP2016001378 A JP 2016001378A
- Authority
- JP
- Japan
- Prior art keywords
- calibration
- cameras
- image
- vehicle
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数のカメラにより構成される車両用撮像システムにおいて、各カメラの搭載位置のずれを校正するのに好適な、車載カメラの校正装置に関する。 The present invention relates to an in-vehicle camera calibration apparatus suitable for calibrating a displacement of a mounting position of each camera in a vehicle imaging system including a plurality of cameras.
車両周囲の俯瞰画像を車室内の表示装置に表示するため、車両の異なる位置(例えば、前後左右)に複数のカメラを配置し、各カメラによる撮像画像を視点変換して合成することで、表示画像(俯瞰画像)を生成するように構成された車両用撮像システムが知られている。 In order to display a bird's-eye view around the vehicle on a display device in the passenger compartment, a plurality of cameras are arranged at different positions (for example, front, back, left, and right) of the vehicle, and the images captured by the cameras are converted by viewpoints and combined to display 2. Description of the Related Art A vehicle imaging system configured to generate an image (overhead image) is known.
この種の車両用撮像システムでは、各カメラの搭載位置がずれると、撮像画像の視点変換を良好に行うことができないことから、カメラ毎に搭載位置のずれを校正することが提案されている(例えば、特許文献1等参照)。 In this type of vehicle imaging system, if the mounting position of each camera is shifted, viewpoint conversion of the captured image cannot be performed satisfactorily, and therefore it is proposed to calibrate the mounting position shift for each camera ( For example, see Patent Document 1).
この提案の校正装置では、校正対象カメラと他のカメラとの間で重複する撮像領域(重複領域)に正方形の校正用パターンを設置して、各カメラにより撮像させる。そして、各カメラの撮像画像を視点変換した表示画像において、校正用パターンの座標(頂点など)の位置ずれが最小となるように、校正対象カメラに対する撮像画像の変換規則を調整する。 In the proposed calibration apparatus, a square calibration pattern is installed in an imaging area (overlapping area) that overlaps between the camera to be calibrated and another camera, and an image is captured by each camera. Then, the conversion rule of the captured image with respect to the camera to be calibrated is adjusted so that the positional deviation of the coordinates (vertex etc.) of the calibration pattern is minimized in the display image obtained by performing viewpoint conversion of the captured image of each camera.
ところで、上記従来の構成装置では、校正時に、複数のカメラの撮像領域が重複する重複領域に所定の校正用のパターンを配置することを前提としているため、校正可能な場所が、車両を製造、販売、若しくは修理する特定の施設に制限されてしまう。 By the way, in the above-described conventional configuration apparatus, it is assumed that a predetermined calibration pattern is arranged in an overlapping area where the imaging areas of a plurality of cameras overlap at the time of calibration. Limited to specific facilities for sale or repair.
このため、車両の所有者は、表示画像に異常を感じたときに、車両を、車載カメラの校正が可能な施設に持ち込まなければならず、使い勝手が悪いという問題があった。
本発明は、こうした問題に鑑みなされたものであり、複数のカメラを備えた車両用撮像システムにおいて、各カメラの搭載位置のずれを自動校正することのできる校正装置を提供することを目的とする。
For this reason, when the owner of the vehicle feels an abnormality in the display image, he / she has to bring the vehicle into a facility capable of calibrating the in-vehicle camera, which is inconvenient.
The present invention has been made in view of these problems, and an object of the present invention is to provide a calibration device capable of automatically calibrating the displacement of the mounting positions of each camera in a vehicle imaging system including a plurality of cameras. .
本発明の車載カメラの校正装置は、複数のカメラと、この複数のカメラの位置及び姿勢を表す基準カメラパラメータに基づき設定された変換データを用いて表示画像を生成する表示画像生成手段と、を備えた車両用撮像システムにおいて、各カメラの基準位置からの位置ずれを校正するためのものである。 The in-vehicle camera calibration device of the present invention includes a plurality of cameras and display image generation means for generating a display image using conversion data set based on reference camera parameters representing the positions and orientations of the plurality of cameras. In the vehicular imaging system provided, the positional deviation of each camera from the reference position is calibrated.
本発明の車載カメラの校正装置においては、判定手段が、複数のカメラの撮像領域の一部が重複する重複領域にて、所定の校正用画像が撮像されたか否かを判定する。
この判定手段にて校正用画像が撮像されたと判定されると、校正データ生成手段が、所定の進化アルゴリズムに従い基準カメラパラメータを変位させることで、校正用画像を撮像した複数のカメラによる重複領域の撮像画像の中で、校正用画像の位置及び形状が最も一致する基準カメラパラメータの変位量を探索する。
In the on-vehicle camera calibration apparatus according to the present invention, the determination unit determines whether or not a predetermined calibration image has been captured in an overlapping region where a part of the imaging regions of a plurality of cameras overlaps.
When it is determined that the calibration image has been captured by the determination unit, the calibration data generation unit displaces the reference camera parameter according to a predetermined evolution algorithm, so that an overlapping region of a plurality of cameras that have captured the calibration image is detected. In the captured image, the displacement amount of the reference camera parameter that most closely matches the position and shape of the calibration image is searched.
そして、校正データ生成手段は、その探索した基準カメラパラメータの変位量を、複数のカメラの校正データとして設定する。
このように、本発明の車載カメラの校正装置によれば、撮像領域の一部が重複する複数のカメラによって、その撮像領域が重複する重複領域内で、所定の校正用画像が撮像されたときに、校正データ生成手段が自動で起動し、校正データの生成を行う。
Then, the calibration data generation means sets the searched displacement amount of the reference camera parameter as calibration data of a plurality of cameras.
As described above, according to the in-vehicle camera calibration device of the present invention, when a predetermined calibration image is captured in the overlapping region where the imaging regions overlap by a plurality of cameras where the imaging regions partially overlap. In addition, the calibration data generation means is automatically activated to generate calibration data.
このため、本発明の車載カメラの校正装置によれば、車両の所有者が車両を使用しているときに、重複領域にて校正用画像が撮像されるようにすることによって、校正データ生成手段による校正データの生成が頻繁に実施されるようになり、カメラの位置ずれによって、表示画像が歪んだり、不鮮明になるのを防止できる。 Therefore, according to the on-vehicle camera calibration device of the present invention, when the vehicle owner uses the vehicle, the calibration data generation means is configured to capture the calibration image in the overlapping region. Thus, the calibration data is frequently generated, and the display image can be prevented from being distorted or unclear due to the positional deviation of the camera.
また、使用者は、カメラの校正のために、修理工場等の所定の施設に車両を持ち込む必要がないので、車両用撮像システムの使い勝手を向上できる。
また、本発明の車載カメラの校正装置において、校正データ生成手段は、例えば、遺伝的アルゴリズム等の進化アルゴリズムに従い基準カメラパラメータを変位させることで、校正データを生成することから、車載カメラの位置ずれを適正に校正できる。
In addition, since the user does not need to bring the vehicle to a predetermined facility such as a repair shop for camera calibration, the usability of the vehicle imaging system can be improved.
In the in-vehicle camera calibration apparatus according to the present invention, the calibration data generation means generates the calibration data by displacing the reference camera parameter according to an evolution algorithm such as a genetic algorithm. Can be calibrated properly.
つまり、車載カメラの搭載位置(位置及び姿勢)のずれの要因には、車両から受ける振動等による経時的(換言すれば連続的)な要因と、車体が外部から受ける衝撃等によって生じる突発的(換言すれば離散的)な要因との2種類が考えられる。 In other words, the mounting position (position and orientation) of the in-vehicle camera is caused by a temporal (in other words, continuous) factor caused by vibrations received from the vehicle, and a sudden ( In other words, there are two types of factors: discrete factors.
これに対し、進化アルゴリズムでは、遺伝的アルゴリズムにおける交叉(クロスオーバ、局所探索)に代表される連続的な探索と、突然変異(ミューテーション)に代表される離散的な探索とを行うことができる。 On the other hand, in the evolution algorithm, a continuous search represented by crossover (local search) in a genetic algorithm and a discrete search represented by mutation (mutation) can be performed. .
従って、本発明のように、進化アルゴリズムを利用して、校正データの最適解を探索するようにすれば、車載カメラの位置ずれを効率よく最適に校正することが可能となる。 Therefore, if the optimal solution of the calibration data is searched using the evolution algorithm as in the present invention, it is possible to efficiently and optimally calibrate the displacement of the in-vehicle camera.
以下に本発明の実施形態を図面と共に説明する。
なお、本発明は、下記の実施形態によって何ら限定して解釈されない。また、下記の実施形態の構成の一部を、課題を解決できる限りにおいて省略した態様も本発明の実施形態である。また、特許請求の範囲に記載した文言のみによって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。また、下記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、これは本発明の理解を容易にする目的で使用しており、本発明の技術的範囲を限定する意図ではない。
Embodiments of the present invention will be described below with reference to the drawings.
The present invention is not construed as being limited in any way by the following embodiments. An aspect in which a part of the configuration of the following embodiment is omitted as long as the problem can be solved is also an embodiment of the present invention. Moreover, all the aspects which can be considered in the limit which does not deviate from the essence of the invention specified only by the wording described in the claims are embodiments of the present invention. Further, the reference numerals used in the description of the following embodiments are also used in the claims as appropriate, but this is used for the purpose of facilitating the understanding of the present invention, and limits the technical scope of the present invention. Not intended.
図1に示すように、本実施形態の車両用撮像システムは、車両周囲を撮像するための4つのカメラ12、14、16、18と、各カメラ12〜18による撮像画像から俯瞰画像を生成してディスプレイ30に表示させる画像処理用の電子制御装置(ECU)20と、を備える。
As shown in FIG. 1, the imaging system for vehicles of this embodiment produces | generates a bird's-eye view image from the four
図2に示すように、4つのカメラ12〜18は、車両2の前方、後方、左側方、右側方をそれぞれ撮像できるように、フロントカメラ、リアカメラ、レフトカメラ、ライトカメラとして、車両2の前・後・左・右にそれぞれ取り付けられている。
As shown in FIG. 2, the four
各カメラ12〜18は、図2に点線で示すように、車両2の前方、後方、左側方、右側方を撮像領域として、車両周囲を撮像するためのものである。そして、各カメラ12〜18の撮像領域には、車両2の左前方、左後方、右前方、右後方で隣接するカメラの撮像領域と重なる重複領域6が設定されている。
Each camera 12-18 is for imaging the surroundings of the
また、各カメラ12〜18の車両2への搭載位置(取付位置及び姿勢)は、各カメラ12〜18の撮像領域が上記のようになるよう予め設定されている。そして、各カメラ12〜18の実際の取付位置及び姿勢(換言すれば撮像方向)は、その設定された搭載位置に基づき製造工場若しくは修理工場等で調整される。
In addition, the mounting positions (mounting positions and postures) of the
一方、ECU20は、各カメラ12〜18の取付位置及び姿勢を基準カメラパラメータとして、各カメラ12〜18による撮像画像を視点変換し、合成することで、俯瞰画像を生成する。
On the other hand, the
なお、基準カメラパラメータは、例えば、各カメラ12〜18の車両2における取付位置、及び、車両の前後、左右、上下の3軸方向の取付角度を数値化したものである。
そして、ECU20が、各カメラ12〜18による撮像画像を視点変換する際には、基準カメラパラメータに基づき設定された変換データを利用する。
The reference camera parameters are obtained by quantifying, for example, the attachment positions of the
And when ECU20 carries out viewpoint conversion of the captured image by each camera 12-18, the conversion data set based on the reference | standard camera parameter are utilized.
このため、基準カメラパラメータが、各カメラ12〜18の実際の取付状態からずれていると、撮像画像の視点変換を正確に実施することができず、最終的に得られる俯瞰画像に歪みが生じることになる。
For this reason, if the reference camera parameter is deviated from the actual mounting state of each of the
そこで、車両の製造工場や修理工場等では、各カメラ12〜18の位置調整後、図3に示すように、車両の周囲に、所定図柄(図では正方形状)の校正用基準パターン4を配置して、各カメラ12〜18の搭載位置校正(所謂キャリブレーション)を行うことで、基準カメラパラメータを算出し、変換データを設定する。
Therefore, in a vehicle manufacturing factory, repair shop, etc., after adjusting the positions of the
このキャリブレーションは、車両周囲の校正用基準パターン4を各カメラ12〜18で撮像して、その撮像画像を視点変換した変換画像内の校正用基準パターン4と、校正用基準パターン4の実際の配置位置とのずれを検出することにより行う。
In this calibration, the
このため、図1に示すように、ECU20には、各カメラ12〜18による撮像画像を視点変換するための画像変換部22に加えて、各カメラ12〜18の搭載位置を校正するカメラ校正部28が備えられている。
For this reason, as shown in FIG. 1, the
カメラ校正部28は、CPU、ROM、RAM等を中心とする周知のマイクロコンピュータ(マイコン)にて構成されており、工場等で外部機器から入力される校正指令に従い、上述した搭載位置校正を行う。
The
また、カメラ校正部28は、車両2が工場から出荷されて使用者が使用しているときにも、各カメラ12〜18の搭載位置校正を実施するようにされており、その実施条件を判定(本実施形態では車両の停止判定)するために、車速、ブレーキ信号等の車両状態を表す検出信号が、他の車両制御装置から入力される。
Further, the
なお、カメラ校正部28は、各カメラ12〜18の搭載位置校正を実施すると、その校正結果(換言すれば、各カメラ12〜18の基準搭載位置からのずれ)に基づき、画像変換部22が各カメラ12〜18による撮像画像を視点変換するのに用いる変換データを更新する。
When the
また、ECU20には、カメラ校正部28が、画像変換部22からの入力画像(俯瞰画像)の中から、ROM若しくは不揮発性メモリに予め登録された所定の画像(上述した校正用基準パターン4等)を検出するのに用いる画像認識エンジン24が備えられている。
In the
また、ECU20には、カメラ校正部28からの出力画像(俯瞰画像等)をディスプレイ30に表示させるための表示制御部26も備えられている。
次に、カメラ校正部28にて各カメラ12〜18の搭載位置校正のために実行される校正処理を、図3に示すフローチャートに沿って説明する。
The ECU 20 is also provided with a
Next, calibration processing executed by the
図1に示すように、カメラ校正部28にて実行される校正処理は、車両2の製造工場若しくは修理工場等で実行されるS110〜S130(Sはステップを表す)の初期校正処理と、工場からの出荷後に実行されるS140〜S200の自動校正処理とに分けられる。
As shown in FIG. 1, the calibration process executed by the
S110〜S130の初期校正処理は、工場等で、車両2の周囲に図2に示した多数の校正用基準パターン4を配置した状態で、ECU20に校正指令が入力されることにより実行される処理であり、処理が開始されると、まずS110にて、各カメラ12〜18のキャリブレーションを実施する。
The initial calibration process of S110 to S130 is a process executed when a calibration command is input to the
なお、この処理は、例えば、画像変換部22に初期値となる変換データを入力して、各カメラ12〜18からの撮像画像を車両の上方から見た俯瞰画像に変換させ、その変換画像中の校正用基準パターンを、画像認識エンジン24を利用して認識し、その認識した校正用基準パターンの位置及び形状と、実際の校正用基準パターンの位置及び形状のずれを検出することにより行われる。
In this process, for example, conversion data serving as an initial value is input to the
そして、S110では、その校正結果に基づき、各カメラ12〜18の搭載位置(配置位置及び姿勢)を表す基準カメラパラメータx={x0,x1,x2,…,xn}を算出すると共に、その基準カメラパラメータxに基づき画像変換部22の変換データを更新する。
In S110, reference camera parameters x = {x0, x1, x2,..., Xn} representing the mounting positions (arrangement positions and orientations) of the
こうして、各カメラ12〜18のキャリブレーションが実施されると、S120に移行し、車両2の出荷後の校正処理のために、基準カメラパラメータxからの変位Δx={Δx0,Δx1,Δx2,…,Δxn}を変数とするシードを初期化する。
Thus, when the calibration of each
このシードは、遺伝的アルゴリズムに従い各カメラ12〜18の基準搭載位置からの変位量を特定するためのものであり、S120では、図5の(a)に例示するように、複数、ランダムに設定される。なお、この複数のシードの内、少なくとも一つは、全ての変位が「0」となるよう設定される。
This seed is for specifying the amount of displacement from the reference mounting position of each
そして、続くS130では、画像変換部22を介して得られる各カメラ12〜18による重複領域6内の画像(例えば校正用基準パターン4の画像)を、S120にて初期設定した各シード(各カメラ12〜18の変位量)に基づき変形させて、その変形画像の基準画像との一致度合いを表すマッチングスコアを算出し、ソートする。
In subsequent S130, the images (for example, images of the calibration reference pattern 4) in the
なお、本実施形態では、マッチングスコアは、対象領域に対して、その画像を構成する各ピクセルの分散の加重平均として求められ、マッチングスコアが最小のもの(初期校正処理では、Δx={0,0,0,…,0})が現在の各カメラ12〜18の搭載位置に対応した最適解となる。 In this embodiment, the matching score is obtained as a weighted average of the variances of the pixels constituting the image with respect to the target region, and the matching score is the smallest (in the initial calibration process, Δx = {0, 0, 0,..., 0}) is the optimum solution corresponding to the current mounting position of each camera 12-18.
そして、S130では、図5の(b)に示すように、シード毎に算出したマッチングスコアの内、最適解に近い最小のものから順に並べ(ソート)、不揮発性メモリに記憶する。 In S130, as shown in FIG. 5 (b), the matching scores calculated for each seed are arranged (sorted) in order from the smallest matching score closest to the optimum solution, and stored in the nonvolatile memory.
次に、工場からの出荷後、車両2の通常使用時に実行される自動校正処理では、まずS140にて、他の車両制御装置から入力される車速、ブレーキ信号等に基づき、車両2が停車中か否かを判断することで、車両2が停車されるのを待つ。
Next, in the automatic calibration process executed during normal use of the
そして、車両2が停車されると、S150に移行し、画像変換部22を介して得られる各カメラ12〜18による重複領域6内の画像の中に、ROM又は不揮発性メモリに登録された校正用パターンがあるか否かを判断することで、各カメラ12〜18にて校正用パターンが撮像されるのを待機する。
Then, when the
この校正用パターンは、例えば、路面上に描かれた横断歩道や停車線の画像、車両が停車する場所に設置される道路標識の画像、車両2の保管場所周囲の画像等、複数の画像を校正用画像として予め登録したものである。
This calibration pattern includes, for example, a plurality of images such as an image of a pedestrian crossing or a stop line drawn on the road surface, an image of a road sign installed at a place where the vehicle stops, and an image around the storage location of the
そして、S150では、その複数の校正用パターンの少なくとも一つが、各カメラ12〜18により撮像された重複領域6内の画像の中に存在するか否かを、画像認識エンジン24を利用して判定する。
In S150, it is determined using the
なお、重複領域の画像の中から校正用パターンの画像を検出する際には、ブースティングに基づいた特徴量を用いることで、校正用パターンを容易に検出することができる。
S150にて、各カメラ12〜18により撮像された重複領域6内の画像の中に、校正用パターンが存在すると判定されると、S160に移行する。S160では、図5(c)に示すように、不揮発性メモリに記憶されている複数のシードに対し、それぞれ、交叉、突然変異、コピー、といった遺伝的アルゴリズムにおける操作を行う。
When detecting a calibration pattern image from the overlapping region images, the calibration pattern can be easily detected by using a feature amount based on boosting.
If it is determined in S150 that a calibration pattern is present in the images in the overlapping
次に、S170では、図4に例示するように、画像変換部22を介して得られる各カメラ12〜18による重複領域6の画像の中から、校正用パターン8の画像を含む所定領域9をマッチングスコア算出対象領域として抽出し、その抽出画像をS160にて操作した複数のシードに基づき変形させて、マッチングスコアを算出し、その算出結果に基づき、各シードをソートする。
Next, in S170, as illustrated in FIG. 4, a
なお、このマッチングスコアの算出は、対象となる重複領域6を撮像した2つのカメラから得られる画像の一致度合いを、その画像を構成する各ピクセルの分散の加重平均として求めることにより実施される。そして、S170では、その算出したマッチングスコアが最小となるシード順に、各シードをソートする。
The calculation of the matching score is performed by obtaining the degree of coincidence of images obtained from the two cameras that have captured the
このように、S160及びS170にて、遺伝的アルゴリズムに基づく各シードの操作、マッチングスコアの算出、及び、各シードのソートを実施すると、S180に移行し、この一連の処理(特許請求の範囲に記載の探索動作)を、予め設定された複数回(N回)実施したか否かを判断する。 As described above, when each seed operation, matching score calculation, and each seed sorting are performed based on the genetic algorithm in S160 and S170, the process proceeds to S180, and this series of processing (in the claims) It is determined whether or not the described search operation has been performed a plurality of times (N times) set in advance.
そして、S180にて、上記一連の処理(探索動作)をN回実施していないと判断されると、再度160に移行して、S160及びS170の処理を再度実行し、S180にて、上記一連の処理をN回実施したと判断されると、S190に移行する。 If it is determined in S180 that the series of processes (search operations) has not been performed N times, the process proceeds to 160 again, and the processes in S160 and S170 are performed again. In S180, the series of processes is performed. If it is determined that the above process has been performed N times, the process proceeds to S190.
S190では、上記N回の処理によって得られたマッチングスコアの中で最小となるマッチングスコアが、予め設定された閾値未満であるか否かを判断する。
そして、最小のマッチングスコアが閾値未満でなければ、そのままS140に移行し、最小のマッチングスコアが閾値未満であれば、その最小のマッチングスコアに対応するシードを、現在の各カメラ12〜18の基準位置(基準カメラパラメータ)からの変位量を表す最適解(変位)として選択し、S140に移行する。
In S190, it is determined whether or not the minimum matching score among the matching scores obtained by the N processes is less than a preset threshold value.
Then, if the minimum matching score is not less than the threshold value, the process proceeds to S140 as it is, and if the minimum matching score is less than the threshold value, the seed corresponding to the minimum matching score is set as a reference for each of the current cameras 12-18. The optimum solution (displacement) representing the amount of displacement from the position (reference camera parameter) is selected, and the process proceeds to S140.
なお、このように選択されたシードは、画像変換部22の変換データを更新するための校正データとして利用される。
以上説明したように、本実施形態の車両用撮像システムにおいては、ECU20内のカメラ校正部28が、工場等で、校正用基準パターンを利用してカメラ12〜18の搭載位置校正(キャリブレーション)を行う初期校正処理を実行することで、基準カメラパラメータを求める。
The seed selected in this way is used as calibration data for updating the conversion data of the
As described above, in the vehicle imaging system according to the present embodiment, the
そして、初期校正処理では、出荷後の搭載位置校正のために、その基準カメラパラメータに対する変位を変数とする複数のシードを初期設定する。
また、車両2の出荷後は、ECU20内のカメラ校正部28が自動校正処理を実行することで、各カメラ12〜18の撮像領域が重複する重複領域6内で、予め登録された校正用パターンが撮像される度に、遺伝的アルゴリズムに基づき各シードを操作する。
In the initial calibration process, a plurality of seeds having the displacement with respect to the reference camera parameter as a variable are initially set for the mounting position calibration after shipment.
In addition, after the
そして、自動校正処理では、その操作後の各シード(カメラの基準位置からの変位)に対応した重複領域6内の画像同士の一致度をマッチングスコアとして算出し、画像同士が最も一致するシードを、校正データとして設定する。
In the automatic calibration process, the degree of coincidence between the images in the
従って、本実施形態の車両用撮像システムによれば、車両2の通常使用時に、カメラ12〜18の搭載位置の校正が自動で、且つ、頻繁に実施されることになり、カメラ12〜18の位置ずれによって、表示画像が歪んだり、不鮮明になるのを防止できる。
Therefore, according to the vehicle imaging system of the present embodiment, the calibration of the mounting positions of the
また、使用者は、カメラ12〜18の搭載位置校正のために、修理工場等に車両を持ち込む必要がないので、車両用撮像システムの使い勝手を向上できる。
また、自動校正処理では、遺伝的アルゴリズムを利用して、各シードを操作することで、各カメラ12〜18の基準位置(基準カメラパラメータ)からの位置ずれ量を探索することから、各カメラ12〜18の位置ずれ量を正確に求めることができる。
Further, since the user does not need to bring the vehicle to a repair shop or the like for calibration of the mounting positions of the
Further, in the automatic calibration process, each
つまり、上述したように、カメラ12〜18の搭載位置(位置及び姿勢)のずれの要因には、連続的な要因と離散的な要因との2種類が考えられるが、遺伝的アルゴリズムによれば、各シードの交叉によって連続的な探索を行い、各シードの突然変異によって離散的な探索を行うことができるので、各カメラ12〜18の搭載位置の校正を、効率よく最適に実行することが可能となる。
That is, as described above, there are two types of factors that cause a shift in the mounting positions (positions and postures) of the
以上、本発明の一実施形態を説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内にて、種々の態様をとることができる。
例えば、自動校正処理で使用する校正用パターンとしては、例えば、使用者が頻繁に車両2を駐車させる場所の画像等、車両の駐・停車時に重複領域6内で撮像される特定画像の特徴パターンを、重複領域6毎に一つ登録しておくだけでもよい。
As mentioned above, although one embodiment of the present invention was described, the present invention is not limited to the above-mentioned embodiment, and can take various modes without departing from the gist of the present invention.
For example, as a calibration pattern used in the automatic calibration process, for example, a feature pattern of a specific image captured in the
また、上記実施形態では、自動校正処理では、遺伝的アルゴリズムを利用して、カメラ12〜18の搭載位置を校正するものとして説明したが、遺伝的プログラミング、進化的戦略、進化的プログラミング等、遺伝的アルゴリズムとは異なる進化アルゴリズムを利用してもよい。
In the above embodiment, the automatic calibration process is described as calibrating the mounting positions of the
一方、上記実施形態では、4つのカメラ12〜18を利用して、車両2の上方から周囲を見た俯瞰画像を生成し、ディスプレイ30に表示する、車両用撮像システムについて説明した。しかし、本発明は、例えば、一対のカメラを利用して3次元画像を生成する撮像システム等、複数の車載カメラを利用して表示画像を生成する撮像システムであれば、上記実施形態と同様に適用することができる。
On the other hand, in the above embodiment, the vehicle imaging system that uses the four
2…車両、4…校正用基準パターン、6…重複領域、8…校正用パターン、9…所定領域、12〜18…カメラ、20…ECU、22…画像変換部、24…画像認識エンジン、26…表示制御部、28…カメラ校正部、30…ディスプレイ。
DESCRIPTION OF
Claims (3)
前記複数のカメラの位置及び姿勢を表す基準カメラパラメータに基づき設定された変換データを用いて、前記複数のカメラによる撮像画像から、車両周囲を所定の視点から見た表示画像を生成する表示画像生成手段(22)と、
を備えた車両用撮像システムにおいて、前記基準カメラパラメータにて特定される前記複数のカメラの基準位置からの位置ずれを校正する、車載カメラの校正装置(28)であって、
前記複数のカメラの撮像領域の一部が重複する重複領域にて、所定の校正用画像が撮像されたか否かを判定する判定手段(28、S150)と、
前記判定手段にて前記校正用画像が撮像されたと判定されると、所定の進化アルゴリズムに従い前記基準カメラパラメータを変位させることで、当該校正用画像を撮像した複数のカメラによる前記重複領域の撮像画像の中で、前記校正用画像の位置及び形状が最も一致する前記基準カメラパラメータの変位量を探索し、該変位量を、当該複数のカメラの校正データとして設定する校正データ生成手段(28、S160〜S200)と、
を備えたことを特徴とする車載カメラの校正装置。 A plurality of cameras (12, 14, 16, 18) mounted on the vehicle so that a part of the imaging region overlaps in order to image the vehicle periphery;
Display image generation for generating a display image obtained by viewing the surroundings of the vehicle from a predetermined viewpoint from the captured images of the plurality of cameras, using conversion data set based on reference camera parameters representing the positions and orientations of the plurality of cameras Means (22);
In a vehicle imaging system comprising: a vehicle-mounted camera calibration device (28) for calibrating positional deviations from a reference position of the plurality of cameras specified by the reference camera parameter,
A determination unit (28, S150) for determining whether or not a predetermined calibration image has been captured in an overlapping region where a part of the imaging regions of the plurality of cameras overlaps;
When the determination unit determines that the calibration image is captured, the captured image of the overlapping region is captured by a plurality of cameras that have captured the calibration image by displacing the reference camera parameter according to a predetermined evolution algorithm. The calibration data generation means (28, S160) searches for the displacement amount of the reference camera parameter that most closely matches the position and shape of the calibration image, and sets the displacement amount as calibration data of the plurality of cameras. To S200),
An on-vehicle camera calibration device characterized by comprising:
前記複数のカメラの基準カメラパラメータからの変位を変数とする複数のシードを備え、前記進化アルゴリズムとして遺伝的アルゴリズムを利用することで、該複数のシードに対し、交叉、突然変異、コピーの何れかの操作を行い、該操作後のシード毎に、前記基準カメラパラメータを変位させたときに前記複数のカメラにより得られる前記重複領域内の校正用画像の位置及び形状が最も一致する基準カメラパラメータの変位量を探索する探索動作を複数回行い、該複数回の探索動作によって得られたシードの内、前記重複領域内の校正用画像が最も一致するシードを、前記校正データとして設定することを特徴とする請求項1に記載の車載カメラの校正装置。 The calibration data generation means includes
A plurality of seeds having a variable from a reference camera parameter of the plurality of cameras as a variable, and using a genetic algorithm as the evolution algorithm, any of crossing, mutation, and copying is performed on the plurality of seeds. For each seed after the operation, the position and shape of the calibration camera image in the overlap region obtained by the plurality of cameras when the reference camera parameter is displaced are most closely matched. A search operation for searching for a displacement amount is performed a plurality of times, and among the seeds obtained by the plurality of search operations, a seed that most closely matches the calibration image in the overlapping region is set as the calibration data. The in-vehicle camera calibration device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014120677A JP2016001378A (en) | 2014-06-11 | 2014-06-11 | Calibration device of on-vehicle camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014120677A JP2016001378A (en) | 2014-06-11 | 2014-06-11 | Calibration device of on-vehicle camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016001378A true JP2016001378A (en) | 2016-01-07 |
Family
ID=55076950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014120677A Pending JP2016001378A (en) | 2014-06-11 | 2014-06-11 | Calibration device of on-vehicle camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016001378A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018143064A1 (en) * | 2017-01-31 | 2018-08-09 | パナソニックIpマネジメント株式会社 | In-vehicle camera |
CN108696719A (en) * | 2017-04-12 | 2018-10-23 | 罗伯特·博世有限公司 | Method and apparatus for the vehicle camera for calibrating vehicle |
JP2019097040A (en) * | 2017-11-22 | 2019-06-20 | パナソニックIpマネジメント株式会社 | On-vehicle camera |
JP2019114965A (en) * | 2017-12-25 | 2019-07-11 | アイシン精機株式会社 | Image processing apparatus |
JP2020060976A (en) * | 2018-10-10 | 2020-04-16 | クラリオン株式会社 | Calibration device and calibration method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080181488A1 (en) * | 2007-01-31 | 2008-07-31 | Sanyo Electric Co., Ltd. | Camera calibration device, camera calibration method, and vehicle having the calibration device |
JP2011239349A (en) * | 2010-05-13 | 2011-11-24 | Fujitsu Ltd | Image processing apparatus and image processing program |
-
2014
- 2014-06-11 JP JP2014120677A patent/JP2016001378A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080181488A1 (en) * | 2007-01-31 | 2008-07-31 | Sanyo Electric Co., Ltd. | Camera calibration device, camera calibration method, and vehicle having the calibration device |
JP2011239349A (en) * | 2010-05-13 | 2011-11-24 | Fujitsu Ltd | Image processing apparatus and image processing program |
Non-Patent Citations (2)
Title |
---|
宮川 勲 外2名: "知的センシングと知的制御 映像からの人数推定における遺伝的アルゴリズムを使ったカメラパラメータの調整", 知能と情報 第21巻 第1号 日本知能情報ファジィ学会誌, vol. 第21巻 第1号, JPN6017024641, 15 February 2009 (2009-02-15), JP, pages 41 - 55, ISSN: 0003707519 * |
長尾 智晴: "大学ベンチャー(3) 進化的画像処理 画像処理の知能化技術とそのビジネス展開", 画像ラボ 第16巻 第9号, vol. 第16巻 第9号, JPN6017024644, 1 September 2005 (2005-09-01), JP, pages 64 - 67, ISSN: 0003707520 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018143064A1 (en) * | 2017-01-31 | 2018-08-09 | パナソニックIpマネジメント株式会社 | In-vehicle camera |
CN108696719A (en) * | 2017-04-12 | 2018-10-23 | 罗伯特·博世有限公司 | Method and apparatus for the vehicle camera for calibrating vehicle |
JP2019097040A (en) * | 2017-11-22 | 2019-06-20 | パナソニックIpマネジメント株式会社 | On-vehicle camera |
JP2019114965A (en) * | 2017-12-25 | 2019-07-11 | アイシン精機株式会社 | Image processing apparatus |
JP7110592B2 (en) | 2017-12-25 | 2022-08-02 | 株式会社アイシン | Image processing device |
JP2020060976A (en) * | 2018-10-10 | 2020-04-16 | クラリオン株式会社 | Calibration device and calibration method |
JP7162489B2 (en) | 2018-10-10 | 2022-10-28 | フォルシアクラリオン・エレクトロニクス株式会社 | CALIBRATION DEVICE AND CALIBRATION METHOD |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102022388B1 (en) | Calibration system and method using real-world object information | |
JP4461091B2 (en) | Position detection apparatus and correction method thereof | |
WO2016056197A1 (en) | In-vehicle camera calibration device, image generation device, in-vehicle camera calibration method, and image generation method | |
JP5143235B2 (en) | Control device and vehicle surrounding monitoring device | |
JP5503728B2 (en) | Vehicle periphery monitoring device | |
JP2016001378A (en) | Calibration device of on-vehicle camera | |
US10464484B2 (en) | Apparatus for presenting support images to a driver and method thereof | |
JP6213567B2 (en) | Predicted course presentation device and predicted course presentation method | |
US20140071240A1 (en) | Free space detection system and method for a vehicle using stereo vision | |
KR102227855B1 (en) | Parking guide system and method for controlling the same | |
US10099617B2 (en) | Driving assistance device and driving assistance method | |
JP2008131177A (en) | Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method | |
US20150364043A1 (en) | Parking system of vehicle | |
US7616806B2 (en) | Position detecting apparatus and method of correcting data therein | |
WO2015122124A1 (en) | Vehicle periphery image display apparatus and vehicle periphery image display method | |
WO2019176037A1 (en) | Danger warning system and danger warning method | |
JP2013120551A (en) | Driving support device for vehicle | |
JP5366264B2 (en) | Stereo camera system and vehicle equipped with the system | |
JP6635621B2 (en) | Automotive vision system and method of controlling the vision system | |
JP2007253699A (en) | Optical axis deviation sensing device | |
JP2014082622A (en) | On-vehicle camera attachment error detection device | |
JP6855254B2 (en) | Image processing device, image processing system, and image processing method | |
JP2006155400A (en) | Image extraction device | |
JP2005216200A (en) | Other vehicle detecting apparatus and method | |
WO2017122688A1 (en) | Device for detecting abnormality of lens of onboard camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171226 |