JP2017139600A - カメラキャリブレーション装置 - Google Patents
カメラキャリブレーション装置 Download PDFInfo
- Publication number
- JP2017139600A JP2017139600A JP2016018717A JP2016018717A JP2017139600A JP 2017139600 A JP2017139600 A JP 2017139600A JP 2016018717 A JP2016018717 A JP 2016018717A JP 2016018717 A JP2016018717 A JP 2016018717A JP 2017139600 A JP2017139600 A JP 2017139600A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- camera
- trajectory
- unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 56
- 238000000605 extraction Methods 0.000 claims abstract description 32
- 238000003384 imaging method Methods 0.000 claims abstract 2
- 238000004364 calculation method Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 6
- 238000000034 method Methods 0.000 description 65
- 230000008569 process Effects 0.000 description 55
- 230000006870 function Effects 0.000 description 29
- 238000012545 processing Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
外部パラメータとは、車両とカメラの関係を表すパラメータであり、たとえば車両に対するカメラの取り付け位置および姿勢を示すパラメータである。内部パラメータとは、カメラ内部の光学系に関するパラメータであり、たとえば焦点距離やレンズの歪みを示すパラメータである。レンズの生産時にあらかじめ歪みに関するパラメータが測定され、その測定結果を内部パラメータとして用いることもできるが、車載カメラは車内温度の変化や基板の発熱でカメラ筐体が伸縮しレンズの歪み特性が変化する。すなわち、あらかじめ求めた内部パラメータをそのまま用いると不都合が生じる。たとえば、カメラで撮影した画像と内部パラメータを用いて被写体までの距離を算出した場合に、その距離に無視できない誤差が生じる。そのため、車両の走行中の内部パラメータのキャリブレーションが求められる。
特許文献1には、路面の白線を用いて内部パラメータを推定するカメラキャリブレーション装置が開示されている。
以下、図1〜図9を参照して、本発明にかかるカメラキャリブレーション装置の第1の実施の形態を説明する。
図1は、本発明にかかるカメラキャリブレーション装置100、およびカメラキャリブレーション装置100を備える車両1の構成を示すブロック図である。
車両1は、カメラキャリブレーション装置100と、車両1の前方を撮影するカメラ111と、カメラキャリブレーション装置100の出力に基づき運転者へ情報を提示する表示装置104と、車両1の速度を測定する車速センサ105と、車両1の地面までの高さを測定する車高センサ107と、車両1の3軸の角速度を測定するジャイロセンサ108と、運転者が操作入力を行う入力部109とを備える。カメラ111、車速センサ105、車高センサ107、ジャイロセンサ108、および入力部109が取得した情報は、カメラキャリブレーション装置100に送信される。
本実施の形態では、車両1が接地している路面の勾配は一定であり、少なくともカメラ111により撮影される範囲の路面の勾配は車両が設置している路面の勾配と一致するとする。すなわち、たとえば広い水平面を走行中、または勾配が一定の坂道の中腹を走行中として以下説明を続ける。
CPU101は、RAM102、RAM103、およびフラッシュメモリ112と信号線により接続される。CPU101は、ROM103に格納されるプログラムをRAM102に展開して実行する。
RAM102には、後述するプログラムが利用する追跡点情報102A、および作業テーブル102Bが格納される。追跡点情報102Aの構造は後述する。作業テーブル102Bは、追跡点情報102Aの一部を複製して加工したものであり、後述する処理により作成される。
入力部109は、スイッチやボタンなどから構成され、ユーザーの操作を受け付ける。キャリブレーション機能のオン/オフ、キャリブレーション結果の初期化、キャリブレーション方法の変更などに利用する。
図2は、CPU101が実行する内部パラメータキャリブレーションプログラム103Aが有する機能を機能ブロックとして表し、機能ブロック同士、および機能ブロックとRAM102とのデータの流れを示す図である。
内部パラメータキャリブレーションプログラム103Aは、機能ブロックとして画像取得部201と、特徴点抽出部202と、特徴点追跡部203と、車両運動取得部204と、特徴点軌跡蓄積部205と、内部パラメータ推定部206と、を備える。画像取得部201、特徴点抽出部202、および特徴点追跡部203は、カメラ111が画像を撮影するたびに実行される。
画像取得部201は、カメラ111から撮影画像を受信し、受信した撮影画像を特徴点抽出部202と特徴点追跡部203とに出力する。カメラ111は、車両1の走行中は連続して高い頻度、たとえば毎秒60回撮影しており、画像取得部201はカメラ111から撮影画像を受信するたびに、換言するとカメラ111から撮影画像が入力されるたびに特徴点抽出部202と特徴点追跡部203とに撮影画像を出力する。
特徴点軌跡蓄積部205は、特徴点追跡部203によって得られた特徴点の軌跡をRAM102の追跡点情報102Aに格納する。ここでは、誤った特徴点軌跡を排除したり、信頼度の高い特徴点軌跡のみを残したり、キャリブレーション精度が高くなるものを選定するなどを行う。
内部パラメータ推定部206は、特徴点軌跡蓄積部205がRAM102に格納した追跡点情報102Aを用いてレンズ歪み係数を推定し、フラッシュメモリ112に書きこむ。このとき、ROM103からレンズ歪み係数以外の内部パラメータを読み込み、フラッシュメモリ112にあわせて描き込む。
特徴点に付した番号、すなわち1001、1002などは、抽出された順番に付した番号である。図3は、時刻t1に撮影された撮影画像からは特徴点が2つ抽出されたことを示しており、同様に時刻t2、t3に撮影された撮影画像からは4つ、時刻t4に撮影された撮影画像からは3つ、時刻t5に撮影された撮影画像からは1つ特徴点が抽出されたことが示されている。時刻t2、t3の撮影画像から抽出された4つの特徴点のうち2つ、すなわち特徴点1001と特徴点1002は、時刻t1から追跡が継続されていることを表している。時刻t4に撮影された撮影画像からは、特徴点1001が抽出されなかったので図3では「x」マークを付している。なお図3に示す例では時刻t1〜t5のみを表示しているが、時刻はこれに限定されない。
(特徴点抽出部の動作)
図4は特徴点抽出部202の動作を表すフローチャートである。特徴点抽出部202は、画像取得部201から撮影画像が送信されるたびに以下の動作を実行する。
ステップS301では、車両1の進行方向、および車両1の進行方向に対するカメラ111の撮影方向に基づき特徴点抽出部202が特徴点を抽出する撮影画像中の領域を決定する。例えば車両1が前方に進む場合は、カメラ111は車両1の前方に取り付けられているので、車両1に近い位置で特徴点を抽出してもすぐにカメラ111の画角から特徴点が外れてしまうため追跡できる時間が短い。処理領域は広ければ広いほど、計算処理に時間がかかるため、リアルタイム処理で計算するためには、このような無駄な部分の計算処理負荷を低減する必要がある。そこで、車両から離れた場所の特徴点を抽出するように処理領域を設定する。なお、カメラ111が車両の後方を撮影するように取り付けられている場合は、車両が前方に進行する際に車両に近い側に処理領域を設定する。次にステップS302に進む。
ステップS303では、ステップS302において抽出された特徴点の座標をRAM102に出力し、図4のフローチャートを終了する。
図5は、特徴点追跡部203の動作を表すフローチャートである。特徴点追跡部203は、画像取得部201から撮影画像が送信されるたびに以下の動作を実行する。
ステップS401では、特徴点の追跡処理の対象とする処理領域を設定する。すなわち、カメラ111により直前に撮影された撮影画像において、特徴点抽出部202により特徴点が抽出された座標、および車両運動取得部204が取得する車両1の運動情報を用いて、直前の撮影画像において抽出された特徴点が移動する方向および距離を推定する。そして特徴点が移動すると推定した方向および距離に対応する領域を、特徴点追跡部203が特徴点を追跡する撮影画像中の領域として決定する。次にステップS402に進む。ただし、特徴点が移動する方向および距離を推定するために用いる撮影画像は直前の撮影画像に限定されず、複数の撮影画像を用いて推定してもよいし、直前以外の撮影画像に用いて推定してもよい。すなわち、より早い時間に撮影された撮影画像を用いて特徴点が移動する方向および距離を推定する。
ステップS402では、前述のSADやLK法などの公知の手法により、追跡対象であるRAM102から読み込んだ直前の撮影画像における特徴点の追跡を行い、ステップS403に進む。
ステップS403では、追跡対象である直前の撮影画像における特徴点の追跡が継続できたか否かを判断する。たとえば、SADなどによる照合度が予め定めた閾値以下であれば、カメラの画角から外れたなどの理由で追跡ができないと判断する。追跡が継続できたと判断する場合はステップS404に進み、追跡が継続できなかったと判断する場合はステップS405に進む。
ステップS405では、追跡点情報102Aにおける処理対象の特徴点の行であって、処理対象の撮影画像が撮影された時刻の列に、追跡が終了したマーク、たとえば「x」を記録する。
ステップS404またはステップS405の実行が完了すると、直前の撮影画像において抽出された特徴点についてステップS402〜S405が実行されたか否かを判断し、未処理の特徴点がある場合はステップS402に戻り、全ての特徴点について処理が完了したと判断する場合は図5のフローチャートを終了する。
図6は、特徴点軌跡蓄積部205の動作を表すフローチャートである。
ステップS501では、RAM102から追跡点情報102Aを読み込み、車両運動取得部204が出力する運動情報と整合しない特徴点軌跡の「状態」の列に「不整合」と記録する。例えば、車両が時速60kmで走行しているにもかかわらず特徴点軌跡が滞留していたり、進行方向とは逆の軌跡を描いている場合は、その軌跡は路面上の特徴点の軌跡ではないと判断できる。画像処理で特徴点の追跡を行う場合、日照条件の変化や天候の変化、自車両や他車両の影などによって、誤追跡は避けられない。誤追跡結果をキャリブレーションに利用すると、正しいキャリブレーションが行えないため、このような追跡結果をこのステップS501の処理により排除する。次にステップS502に進む。
Y=ax^5+bx^4+cx^3+dx^2+ex+f・・・・(1)
図7(b)は、追跡された特徴点を接続する線分を1つの曲線で近似する例を示す図である。図7(b)に図示する特徴点の軌跡は、図7(a)に示す特徴点の軌跡と同一である。図7(b)では、複数の線分で表された特徴点軌跡801を1つの曲線801aで近似し、同様に特徴点軌跡802を曲線802aで近似している。次にステップS504に進む。
ステップS505では、追跡点情報102Aに記録されている近似式のうち、互いに略一致するものがあるか否かを判断し、略一致する多項式が他に存在する場合は追跡点情報102Aの「状態」列に「OK」を記入し、略一致する多項式が他に存在しない場合は同様に「ペアなし」と記入してステップS506に進む。
Y=a1x^5+b1x^4+c1x^3+d1x^2+e1x+f1・・(2)
Y=a2x^5+b2x^4+c2x^3+d2x^2+e2x+f2・・(3)
このとき、(a1−a2)<th_a、(b1−b2)<th_b、(c1−c2)<th_c、(d1−d2)<th_d、(e1−e2)<th_e、(f1−f2)<th_fを全て満たす場合に2つの特徴点軌跡が略一致すると判断する。ただし、th_a、th_b、th_c、th_d、th_e、およびth_fは所定の閾値である。
ステップS508では、内部パラメータ推定部206に実行指令を出力し、図6に示す処理を終了する。
図8は、内部パラメータ推定部206の動作を表すフローチャートである。内部パラメータ推定部206は、特徴点軌跡蓄積部205から実行指令を受信すると動作を開始する。本フローチャートでは、後述する目的関数を最小にするレンズ歪み係数を繰り返し計算により求める。図8、および次に説明する図9では繰り返し計算の過程で仮に設定するレンズ歪み係数を「仮パラメータ」と呼ぶ。
ステップS602では、後述する目的関数を共線性と平行性に基づいて算出することとし、ステップS604に進む。
ステップS604では、フラッシュメモリ112に保存されている内部パラメータ112Aのレンズ歪み係数を仮パラメータとして読み込む。ただし、初回実行時などフラッシュメモリ112に内部パラメータ112Aが保存されていない場合は、ROM103から内部パラメータ初期値103Bを読み込む。次にステップS605に進む。
ステップS607では、仮パラメータを更新してステップS605に戻る。たとえば、公知の技術であるレーベンバーグ・マーカート法などを用いることで、目的関数が減少するように仮パラメータを更新することができる。
ステップS608では、目的関数が収束した際のパラメータを出力し、図8に示す処理を終了する。
図9は、図8のステップS605における処理の詳細を示すサブルーチンである。
ステップS701において、追跡点情報102Aに記載された特徴点軌跡であって、「状態」の列が「OK」である特徴点の軌跡をRAM102に作業テーブル102Bとして複製する。さらに、作業テーブル102Bに記載されている特徴点の座標を、仮パラメータを用いて座標変換する。図9に示すフローチャートでは、以下、作業テーブル102Bに記載された座標変換後の特徴点を用いて計算を行う。次にステップS702に進む。
ステップS702では、目的関数の評価値とする変数evalにゼロを代入して初期化し、ステップS703に進む。
ステップS703では、処理対象の特徴点のもっとも古い時刻での座標を始点として、運動情報に基づく車両1の走行に応じた理想的な特徴点の軌跡を算出する。理想的な特徴点の軌跡とは、カメラ111のレンズに歪みがない場合の特徴点の軌跡、すなわちカメラ111のレンズ歪みの影響を内部パラメータにより完全に除去できた場合の特徴点の軌跡である。たとえば、車両運動取得部204が出力する運動情報に基づき車両1が直進していると判断する場合には、理想的な特徴点の軌跡は直線と推定できる。一方、運動情報に基づき車両1が直進していない、すなわち旋回していると判断する場合は、カメラ111の外部パラメータおよび運動情報を用いて路面上の特徴点がカメラ111に撮影される軌跡を算出する。次にステップS704に進む。
ステップS706では、平行性も評価するか否か、すなわちステップS601において肯定判定されたか否かを判断する。肯定判定されたと判断する場合はステップS707に進み、否定判定されたと判断する場合はステップS710に進む。
ステップS707では、平行であると判断された特徴点について、同一時刻の特徴点座標を結ぶ線分を生成し、ステップS708に進む。
ステップS708では、ステップS707において生成した複数の線分の平行性を、車両1の運動情報を考慮して評価する。ここで、本実施の形態では目的関数を最小とすることを目的としているので、平行性の評価は線分同士が平行でないほど大きな値となるようにする。たとえば、線分同士のなす角度から車両の回転角を除いた値を評価値とする。次にステップS709に進む。
ステップS710では、変数evalを目的関数の値として出力し、作業テーブル102BをRAM102から削除して図9のフローチャートを終了する。
(1)カメラキャリブレーション装置100は、車両1に搭載されるカメラ111が異なる時刻に撮影して得られた複数の画像が入力される画像取得部201と、画像取得部201に入力されるそれぞれの画像から特徴点を抽出する特徴点抽出部202と、複数の画像間で特徴点を追跡する特徴点追跡部203と、車両の運動に関する情報を取得する車両運動取得部204と、車両運動取得部204が取得する情報に基づき、車両1の移動に応じた特徴点の軌跡を推定する軌跡内部パラメータ推定部(図9のステップS703)と、特徴点追跡部203が追跡した特徴点の軌跡と、軌跡内部パラメータ推定部が推定した特徴点の軌跡とに基づきカメラ111の内部パラメータ、すなわちレンズの歪みを示すパラメータであるレンズ歪み係数を推定する内部パラメータ推定部206とを備える。
カメラキャリブレーション装置100をこのように構成したので、路面に描かれた道路標示などから特徴点を抽出し、レンズ歪み係数のキャリブレーションを行う。換言すると、路面に描かれた線、記号、または文字を利用するので、路面に白線がなくてもレンズ歪み係数のキャリブレーションができる。
すなわち、カメラ111の撮影画像における路面に描かれた道路標識から抽出された特徴点の位置を車両1の運動情報を用いて推定することで、カメラ111のレンズ歪み係数を推定することができる。
似ている特徴点軌跡が得られるほど、その特徴点の軌跡はノイズの軌跡ではなく路面の道路標示の軌跡と考えられ信頼度が高い。そのため、近似式が略同一である特徴点軌跡を用いることで、カメラ111のレンズ歪み係数を高精度に算出できる。
特徴点軌跡が撮影画像の一部だけに局在している場合は、レンズ全面の歪みの情報が得られておらず十分なキャリブレーションの精度が得られない。そのため、特徴点が撮影画像の広い範囲に分布していることを内部パラメータ推定の実行条件とすることで、キャリブレーションの精度低下を防止する。
そのため、車両1が直進する状況に限定すれば、外部パラメータを用いることなく内部パラメータのキャリブレーションを行うことができる。
(6)内部パラメータ推定部206は、運動情報に基づき車両1が直進していないと判断する場合に、カメラ111の外部パラメータおよび車両運動取得部204が取得する運動情報を用いて、特徴点の軌跡を推定する。
そのため、車両1が旋回している状況であっても、外部パラメータと運動情報を用いて内部パラメータのキャリブレーションを行うことができる。
そのため、追跡を前提として特徴点を抽出するので、仮に抽出してもすぐに追跡が不可能になる領域を処理領域から除外することにより、特徴点抽出部202の負荷を軽減することができる。特徴点抽出部202は、カメラ111が撮影を行うたびに実行され、次にカメラ111が撮影を行う前に処理が完了する必要がある。そのため、特徴点抽出部202の負荷が増加するとカメラキャリブレーション装置100のCPU101の処理能力を増強する必要がある。換言すると、特徴点抽出部202の負荷を軽減することによりカメラキャリブレーション装置100のCPU101に処理能力の低い安価な製品を使用することができる。
そのため、特徴点追跡部203の処理領域を限定し、特徴点追跡部203の負荷を軽減することができる。特徴点追跡部203は、カメラ111が撮影を行うたびに実行され、次にカメラ111が撮影を行う前に処理が完了する必要がある。そのため、特徴点追跡部203の負荷が増加するとカメラキャリブレーション装置100のCPU101の処理能力を増強する必要がある。換言すると、特徴点追跡部203の負荷を軽減することによりカメラキャリブレーション装置100のCPU101に処理能力の低い安価な製品を使用することができる。
上述した第1の実施の形態では、特徴点追跡部203により追跡が完了した特徴点、すなわち次の撮影画像では特徴点の追跡ができず、追跡点情報102Aには「x」が記録された特徴点のみを内部パラメータのキャリブレーションに用いた。しかし、追跡が完了していない特徴点も内部パラメータのキャリブレーションに用いてもよい。
上述した第1の実施の形態では、車両1は1台のカメラ111のみを備えた。しかし、車両1はカメラを複数台備えてもよい。車両1がカメラを複数台備える場合は、カメラキャリブレーション装置100をカメラと同数用意してもよいし、カメラキャリブレーション装置100を1台のみ備えて複数のカメラの内部パラメータを順番にキャリブレーションしてもよい。
なお、車両が備えるカメラの取付け位置およびカメラの撮影方向によらず、第1の実施の形態において説明した内部パラメータキャリブレーションプログラム103Aを適用することができる。
カメラ111が撮像素子にCMOSセンサーを使用し、シャッターにローリングシャッター方式を採用する場合には、カメラ111と被写体の相対速度が大きい場合に撮影画像に歪みが生じる。この場合は、カメラキャリブレーション装置100が以下のように撮影画像を補正する歪み補正部をさらに備え、歪み補正部が補正した撮影画像を用いて特徴点抽出部202や特徴点追跡部203が処理を行ってもよい。
この変形例3によれば、メカニカルシャッターを備えることなくCMOSセンサーの読み出し方式に起因する撮影画像の歪みを除去することができる。
上述した第1の実施の形態では、車両1が接地している路面の勾配は一定としたが、カメラ111により撮影される範囲の路面の勾配が車両が接地している路面の勾配と一致しない場合にも本発明を適用することができる。その場合は、後述する手段により車両1の姿勢に対する撮影範囲の路面の勾配を推定し、理想的な特徴点の軌跡を算出する処理(図9のステップS703)において、路面の勾配の変化が撮影画像における特徴点軌跡の位置へ及ぼす影響を考慮することにより対応することができる。
車両1の姿勢に対する撮影範囲の路面の勾配を推定する手段は、たとえば衛星測位システムによる車両1の位置および向きと道路勾配の情報を含む地図情報の組み合わせを用いることもできるし、路面に沿って存在する直線状の物体、たとえば白線やガードレール、道路沿いの建物の水平方向のエッジ、道路を走行する他の車両の傾きなどを用いることもできる。
上述した第1の実施の形態では、内部パラメータのキャリブレーションは常時実行されたが、温度や時間の条件を満たす場合のみ実行してもよい。
たとえば車両1が温度計をさらに備え、内部パラメータのキャリブレーションが行われた際の温度を記録し、その温度から所定の温度以上、たとえば5度以上変化した場合に内部パラメータのキャリブレーションを再度行ってもよい。この場合は温度計が測定する温度はカメラ111の温度や外気の温度を測定してもよいし、車両1の乗員室の温度を測定してもよい。また一定時間ごとに内部パラメータのキャリブレーションを行ってもよい。
上述した第1の実施の形態では、図6のステップS502において撮影画像を4つのエリアに分割し、特徴点軌跡がいずれのエリアに属するかを判断した。しかし、エリアの分割数および分割方法はこれに限定されない。エリアの分割数は少なくとも2あればよい。エリアの分割はマトリクス状に限定されず、X方向のみに分割してもよいしY方向のみに分割してもよい。さらに、エリアは矩形に限定されず円や不定型でもよくランダムに分割されてもよい。
上述した第1の実施の形態では、内部パラメータ推定部206を動作させる条件の1つを、撮影画像中の全てのエリアに少なくとも1つの特徴点の軌跡が存在することとした(図6のステップS507)。しかし、当該条件における特徴点の軌跡の数は1に限定されず、2や3以上であってもよい。
図10〜図11を参照して、本発明にかかるカメラキャリブレーション装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、レンズ歪みに加えてレンズの焦点距離もキャリブレーションの対象とする点で、第1の実施の形態と異なる。
図10は、第2の実施の形態における内部パラメータキャリブレーションプログラム103Aが有する機能を機能ブロックとして表した図である。内部パラメータキャリブレーションプログラム103Aの内部パラメータ推定部206Aは、レンズ歪み係数に加えて焦点距離のキャリブレーションも行う。
図11は、内部パラメータ推定部206Aによる焦点距離のキャリブレーション動作を表すフローチャートである。
ステップS801では、ROM103からカメラ111の内部パラメータの1つである撮像素子サイズ、および外部パラメータを読み込み、ステップS802に進む。
ステップS802では、追跡点情報102Aを読み込み、ステップS803に進む。
次に説明するステップS803〜S807は、作業テーブル102Bの「状態」列が「OK」であるそれぞれの特徴点について実行される。
ステップS803では、当該特徴点の追跡が開始された撮影時刻(以下、時刻ts)、および追跡が終了した撮影時刻(以下、時刻te)を特定する。たとえば、図3に示す例において特徴点1001を処理対象とする場合は、追跡が開始された撮影時刻が「t1」であり、追跡が終了した撮影時刻は「t3」である。次にステップS804に進む。
ステップS806では、車両運動取得部204が出力する運動情報を用いて、時刻tsから時刻teの間に、車両1が移動した直線距離を算出する。以下ではこの直線距離をdts−teと呼ぶ。次にステップS807に進む。
ステップS808では、RAM102に保存された複数の焦点距離fの平均値を算出し、ステップS809に進む。
ステップS809では、ステップS808において算出した焦点距離fをフラッシュメモリ112に内部パラメータとして保存し、図11のフローチャートを終了する。
(1)カメラキャリブレーション装置100は、車両1に搭載されるカメラ111が異なる時刻に撮影して得られた複数の画像が入力される画像取得部201と、画像取得部201に入力されるそれぞれの画像から特徴点を抽出する特徴点抽出部202と、複数の画像間で特徴点を追跡する特徴点追跡部203と、車両の運動に関する情報を取得する車両運動取得部204と、車両運動取得部204が取得する情報に基づき、車両1の移動に応じた特徴点の軌跡を推定する軌跡内部パラメータ推定部(図9のステップS703)と、特徴点追跡部203が追跡した特徴点の軌跡と、軌跡内部パラメータ推定部が推定した特徴点の軌跡とに基づきカメラ111の内部パラメータ、すなわちレンズ歪み係数および焦点距離を推定する内部パラメータ推定部206とを備える。
カメラキャリブレーション装置100をこのように構成したので、路面に描かれた道路標示などから特徴点を抽出し、レンズ歪み係数および焦点距離のキャリブレーションを行う。換言すると、路面に描かれた線、記号、または文字を利用するので、路面に白線がなくてもレンズ歪み係数および焦点距離のキャリブレーションができる。
そのため、白線に限定されない路面上の道路標示を用いて焦点距離fを算出することができる。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
Claims (9)
- 車両に搭載されるカメラが異なる時刻に撮影して得られた複数の画像が入力される画像取得部と、
前記画像取得部に入力されるそれぞれの画像から特徴点を抽出する特徴点抽出部と、
前記複数の画像間で前記特徴点を追跡する特徴点追跡部と、
前記車両の運動に関する情報を取得する車両運動取得部と、
前記車両運動取得部が取得する情報に基づき、前記車両の移動に応じた前記特徴点の軌跡を推定する軌跡推定部と、
前記特徴点追跡部が追跡した前記特徴点の軌跡と、前記軌跡推定部が推定した前記特徴点の軌跡とに基づき前記カメラの内部パラメータを推定する内部パラメータ推定部とを備えるカメラキャリブレーション装置。 - 請求項1に記載のカメラキャリブレーション装置であって、
前記内部パラメータは、前記カメラが備えるレンズの歪みに応じたレンズ歪み係数を含み、
前記内部パラメータ推定部は、前記特徴点追跡部が追跡した前記特徴点の軌跡を前記レンズ歪み係数を用いて変換した特徴点の軌跡と、前記軌跡推定部が推定した前記特徴点の軌跡との差を最小とするように前記レンズの歪みのパラメータを算出するカメラキャリブレーション装置。 - 請求項2に記載のカメラキャリブレーション装置であって、
前記特徴点追跡部が追跡した前記特徴点の軌跡を多項式を用いて近似する軌跡近似部と、
前記軌跡近似部が第1の特徴点の軌跡を近似した多項式の係数と、前記軌跡近似部が第2の特徴点の軌跡を近似した多項式の係数との差に基づいて、前記第1の特徴点の軌跡と前記第2の特徴点の軌跡とが一致するか否かを判断する一致判定部とをさらに備え、
前記内部パラメータ推定部は、前記一致判定部が一致すると判断した前記第1の特徴点の軌跡と前記第2の特徴点の軌跡とを用いて前記カメラの内部パラメータを推定するカメラキャリブレーション装置。 - 請求項2に記載のカメラキャリブレーション装置であって、
前記内部パラメータ推定部は、前記特徴点追跡部が追跡した前記特徴点の軌跡が前記画像を分割した複数の領域の全てに含まれる場合に、前記カメラの内部パラメータを推定するカメラキャリブレーション装置。 - 請求項2に記載のカメラキャリブレーション装置であって、
前記軌跡推定部は、前記車両が直進している場合に、前記特徴点の軌跡を直線と推定するカメラキャリブレーション装置。 - 請求項2に記載のカメラキャリブレーション装置であって、
前記軌跡推定部は、前記車両が直進していない場合に、前記カメラの外部パラメータおよび前記車両運動取得部が取得する情報を用いて、前記特徴点の軌跡を推定するカメラキャリブレーション装置。 - 請求項1に記載のカメラキャリブレーション装置であって、
前記特徴点抽出部は、前記車両の進行方向、および前記車両の進行方向に対する前記カメラの撮影方向に基づき、前記特徴点を抽出する前記画像中の領域を決定するカメラキャリブレーション装置。 - 請求項1に記載のカメラキャリブレーション装置であって、
前記特徴点追跡部は、前記複数の画像のうち先の時刻に撮影された第1の画像において、前記特徴点抽出部により特徴点が抽出された位置、および前記車両運動取得部が取得する情報を用いて、前記複数の画像のうち前記第1の画像よりも後の時刻に撮影された第2の画像において前記特徴点を追跡する領域を決定するカメラキャリブレーション装置。 - 請求項1に記載のカメラキャリブレーション装置であって、
前記内部パラメータは、前記カメラが備えるレンズの焦点距離を含み、
前記特徴点の第1の時刻における位置と前記カメラとの距離である第1距離を前記焦点距離に応じて算出する第1距離算出部と、
前記特徴点の第2の時刻における位置と前記カメラとの距離である第2距離を前記焦点距離に応じて算出する第2距離算出部と、
前記車両運動取得部が取得する情報に基づき、前記第1の時刻から前記第2の時刻までに前記車両が移動した距離である移動距離を算出する移動距離算出部とをさらに備え、
前記内部パラメータ推定部は、前記第1距離と前記第2距離との差である第3距離が、前記移動距離と等しくなるように前記焦点距離を算出するカメラキャリブレーション装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018717A JP6541590B2 (ja) | 2016-02-03 | 2016-02-03 | カメラキャリブレーション装置 |
US16/071,422 US10917593B2 (en) | 2016-02-03 | 2016-12-01 | Camera calibration device that estimates internal parameter of camera |
EP16889398.0A EP3416367B1 (en) | 2016-02-03 | 2016-12-01 | Camera calibration device |
PCT/JP2016/085737 WO2017134915A1 (ja) | 2016-02-03 | 2016-12-01 | カメラキャリブレーション装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018717A JP6541590B2 (ja) | 2016-02-03 | 2016-02-03 | カメラキャリブレーション装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017139600A true JP2017139600A (ja) | 2017-08-10 |
JP2017139600A5 JP2017139600A5 (ja) | 2018-05-17 |
JP6541590B2 JP6541590B2 (ja) | 2019-07-10 |
Family
ID=59500316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016018717A Expired - Fee Related JP6541590B2 (ja) | 2016-02-03 | 2016-02-03 | カメラキャリブレーション装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10917593B2 (ja) |
EP (1) | EP3416367B1 (ja) |
JP (1) | JP6541590B2 (ja) |
WO (1) | WO2017134915A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019097731A1 (ja) * | 2017-11-20 | 2019-05-23 | 三菱電機株式会社 | 障害物認識装置および障害物認識方法 |
JP2019087858A (ja) * | 2017-11-06 | 2019-06-06 | パナソニックIpマネジメント株式会社 | カメラ校正装置、カメラ校正システム、カメラ校正方法及びプログラム |
WO2020041999A1 (en) * | 2018-08-29 | 2020-03-05 | Intel Corporation | Apparatus and method for feature point tracking using inter-frame prediction |
JP2020046427A (ja) * | 2018-09-19 | 2020-03-26 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | マルチセンサーのキャリブレーション方法とその装置、コンピュータ機器、媒体及び車両 |
JP2020060899A (ja) * | 2018-10-09 | 2020-04-16 | 株式会社デンソー | 車載カメラのキャリブレーション装置 |
WO2020144757A1 (ja) * | 2019-01-09 | 2020-07-16 | 日本電気株式会社 | カメラパラメータ推定装置、カメラパラメータ推定方法、及びコンピュータ読み取り可能な記録媒体 |
JP2021086259A (ja) * | 2019-11-26 | 2021-06-03 | 株式会社デンソーテン | 画像処理装置、および、画像処理方法 |
WO2022224533A1 (ja) * | 2021-04-21 | 2022-10-27 | 日立Astemo株式会社 | 車載撮像装置 |
JP7505909B2 (ja) | 2020-04-20 | 2024-06-25 | フォルシアクラリオン・エレクトロニクス株式会社 | キャリブレーション装置及びキャリブレーション方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10504244B2 (en) * | 2017-09-28 | 2019-12-10 | Baidu Usa Llc | Systems and methods to improve camera intrinsic parameter calibration |
EP3850824A1 (en) * | 2018-09-12 | 2021-07-21 | Brainlab AG | Intra-operative determination of a focal length of a camera for medical applications |
JP7191671B2 (ja) * | 2018-12-19 | 2022-12-19 | フォルシアクラリオン・エレクトロニクス株式会社 | キャリブレーション装置、キャリブレーション方法 |
JP7217577B2 (ja) * | 2019-03-20 | 2023-02-03 | フォルシアクラリオン・エレクトロニクス株式会社 | キャリブレーション装置、キャリブレーション方法 |
US20220270358A1 (en) * | 2019-09-05 | 2022-08-25 | NetraDyne, Inc. | Vehicular sensor system calibration |
JP7247063B2 (ja) * | 2019-09-13 | 2023-03-28 | 日立Astemo株式会社 | 画像処理装置、及びそれを用いたステレオカメラ装置 |
EP3902250A1 (en) * | 2020-04-20 | 2021-10-27 | Faurecia Clarion Electronics Co., Ltd. | Calibration device and calibration method |
CN112651261B (zh) * | 2020-12-30 | 2023-11-10 | 凌云光技术股份有限公司 | 高精度2d相机坐标系和机械坐标系转换关系的计算方法 |
US11659261B2 (en) | 2021-08-19 | 2023-05-23 | Ford Global Technologies, Llc | Vehicle optical sensor motion correction |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000268179A (ja) * | 1999-01-14 | 2000-09-29 | Oojisu Soken:Kk | 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体 |
JP2003256806A (ja) * | 2002-03-01 | 2003-09-12 | Nippon Telegr & Teleph Corp <Ntt> | 全方位画像型特徴点探索処理方法,装置,そのプログラムおよびそのプログラムの記録媒体 |
JP2006195790A (ja) * | 2005-01-14 | 2006-07-27 | Nippon Telegr & Teleph Corp <Ntt> | レンズ歪推定装置、レンズ歪推定方法、及びレンズ歪推定プログラム |
JP2011189803A (ja) * | 2010-03-12 | 2011-09-29 | Toyota Motor Corp | 車両制御装置 |
JP2013186816A (ja) * | 2012-03-09 | 2013-09-19 | Topcon Corp | 動画処理装置、動画処理方法および動画処理用のプログラム |
JP2014101075A (ja) * | 2012-11-21 | 2014-06-05 | Fujitsu Ltd | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4863922B2 (ja) * | 2007-04-18 | 2012-01-25 | 三洋電機株式会社 | 運転支援システム並びに車両 |
JP5208147B2 (ja) | 2010-03-09 | 2013-06-12 | 三菱電機株式会社 | 車載カメラのカメラキャリブレーション装置 |
JP6376429B2 (ja) * | 2012-11-13 | 2018-08-22 | 株式会社リコー | 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体 |
JP6034775B2 (ja) * | 2013-11-29 | 2016-11-30 | クラリオン株式会社 | カメラ校正装置 |
JP6532229B2 (ja) * | 2014-12-18 | 2019-06-19 | 株式会社デンソーテン | 物体検出装置、物体検出システム、物体検出方法及びプログラム |
-
2016
- 2016-02-03 JP JP2016018717A patent/JP6541590B2/ja not_active Expired - Fee Related
- 2016-12-01 WO PCT/JP2016/085737 patent/WO2017134915A1/ja active Application Filing
- 2016-12-01 EP EP16889398.0A patent/EP3416367B1/en active Active
- 2016-12-01 US US16/071,422 patent/US10917593B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000268179A (ja) * | 1999-01-14 | 2000-09-29 | Oojisu Soken:Kk | 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体 |
JP2003256806A (ja) * | 2002-03-01 | 2003-09-12 | Nippon Telegr & Teleph Corp <Ntt> | 全方位画像型特徴点探索処理方法,装置,そのプログラムおよびそのプログラムの記録媒体 |
JP2006195790A (ja) * | 2005-01-14 | 2006-07-27 | Nippon Telegr & Teleph Corp <Ntt> | レンズ歪推定装置、レンズ歪推定方法、及びレンズ歪推定プログラム |
JP2011189803A (ja) * | 2010-03-12 | 2011-09-29 | Toyota Motor Corp | 車両制御装置 |
JP2013186816A (ja) * | 2012-03-09 | 2013-09-19 | Topcon Corp | 動画処理装置、動画処理方法および動画処理用のプログラム |
JP2014101075A (ja) * | 2012-11-21 | 2014-06-05 | Fujitsu Ltd | 画像処理装置、画像処理方法及びプログラム |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019087858A (ja) * | 2017-11-06 | 2019-06-06 | パナソニックIpマネジメント株式会社 | カメラ校正装置、カメラ校正システム、カメラ校正方法及びプログラム |
JPWO2019097731A1 (ja) * | 2017-11-20 | 2020-04-02 | 三菱電機株式会社 | 障害物認識装置および障害物認識方法 |
WO2019097731A1 (ja) * | 2017-11-20 | 2019-05-23 | 三菱電機株式会社 | 障害物認識装置および障害物認識方法 |
US11470343B2 (en) | 2018-08-29 | 2022-10-11 | Intel Corporation | Apparatus and method for feature point tracking using inter-frame prediction |
WO2020041999A1 (en) * | 2018-08-29 | 2020-03-05 | Intel Corporation | Apparatus and method for feature point tracking using inter-frame prediction |
JP2020046427A (ja) * | 2018-09-19 | 2020-03-26 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | マルチセンサーのキャリブレーション方法とその装置、コンピュータ機器、媒体及び車両 |
US11002840B2 (en) | 2018-09-19 | 2021-05-11 | Baidu Online Network Technology (Beijing) Co., Ltd. | Multi-sensor calibration method, multi-sensor calibration device, computer device, medium and vehicle |
JP2020060899A (ja) * | 2018-10-09 | 2020-04-16 | 株式会社デンソー | 車載カメラのキャリブレーション装置 |
WO2020144757A1 (ja) * | 2019-01-09 | 2020-07-16 | 日本電気株式会社 | カメラパラメータ推定装置、カメラパラメータ推定方法、及びコンピュータ読み取り可能な記録媒体 |
JPWO2020144757A1 (ja) * | 2019-01-09 | 2021-11-25 | 日本電気株式会社 | カメラパラメータ推定装置、カメラパラメータ推定方法、及びプログラム |
JP7111183B2 (ja) | 2019-01-09 | 2022-08-02 | 日本電気株式会社 | カメラパラメータ推定装置、カメラパラメータ推定方法、及びプログラム |
US11861812B2 (en) | 2019-01-09 | 2024-01-02 | Nec Corporation | Camera parameter estimation apparatus, camera parameter estimation method, and computer-readable recording medium |
JP2021086259A (ja) * | 2019-11-26 | 2021-06-03 | 株式会社デンソーテン | 画像処理装置、および、画像処理方法 |
JP7505909B2 (ja) | 2020-04-20 | 2024-06-25 | フォルシアクラリオン・エレクトロニクス株式会社 | キャリブレーション装置及びキャリブレーション方法 |
WO2022224533A1 (ja) * | 2021-04-21 | 2022-10-27 | 日立Astemo株式会社 | 車載撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6541590B2 (ja) | 2019-07-10 |
US10917593B2 (en) | 2021-02-09 |
EP3416367A1 (en) | 2018-12-19 |
EP3416367B1 (en) | 2020-08-26 |
WO2017134915A1 (ja) | 2017-08-10 |
US20200304737A1 (en) | 2020-09-24 |
EP3416367A4 (en) | 2019-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017134915A1 (ja) | カメラキャリブレーション装置 | |
JP6901625B2 (ja) | 地図データ、レーザ、およびカメラからのヨー誤差の確定 | |
JP6514624B2 (ja) | 障害物検知装置 | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
JP5663352B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
KR101784183B1 (ko) | ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US20190311485A1 (en) | Method for Evaluating Image Data of a Vehicle Camera | |
JP7077910B2 (ja) | 区画線検出装置及び区画線検出方法 | |
JP2018081545A (ja) | 画像データ抽出装置及び画像データ抽出方法 | |
WO2018179281A1 (ja) | 物体検出装置及び車両 | |
JP2022532792A (ja) | 複数の相対的に接近する様に動いているリジッドなオブジェクトの検出、3d再現および追跡 | |
JP6552448B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
JP6493000B2 (ja) | 路面標示検出装置及び路面標示検出方法 | |
EP3467775A1 (en) | Estimating program, estimating method, and estimating system for camera parameter | |
CN114550042A (zh) | 一种道路消失点提取方法、车载传感器标定方法及装置 | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
US20200193184A1 (en) | Image processing device and image processing method | |
US20210190509A1 (en) | Position estimating apparatus and position estimating method | |
JP7303064B2 (ja) | 画像処理装置、および、画像処理方法 | |
CN111989541B (zh) | 立体摄像机装置 | |
García-García et al. | 3D visual odometry for road vehicles | |
JP6747176B2 (ja) | 画像処理装置、撮影装置、プログラム、機器制御システム及び機器 | |
JP7311407B2 (ja) | 姿勢推定装置、および、姿勢推定方法 | |
JP4742695B2 (ja) | 視線認識装置、及び視線認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6541590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |