JP2010245628A - カメラ校正装置 - Google Patents

カメラ校正装置 Download PDF

Info

Publication number
JP2010245628A
JP2010245628A JP2009089329A JP2009089329A JP2010245628A JP 2010245628 A JP2010245628 A JP 2010245628A JP 2009089329 A JP2009089329 A JP 2009089329A JP 2009089329 A JP2009089329 A JP 2009089329A JP 2010245628 A JP2010245628 A JP 2010245628A
Authority
JP
Japan
Prior art keywords
camera
image
angle
parallel line
line group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009089329A
Other languages
English (en)
Inventor
Katsuya Kawai
克哉 河合
Hiroyoshi Konaka
裕喜 小中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009089329A priority Critical patent/JP2010245628A/ja
Publication of JP2010245628A publication Critical patent/JP2010245628A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】どのような状況であっても安定してカメラの設置角度を算出することのできるカメラ校正装置を得る。
【解決手段】平行線群抽出手段4は、画像蓄積部2で蓄積した画像から平行線群を抽出する。撮影対象判定手段5は、平行線群から撮影対象が地面であるかどうかを判定する。カメラ角度算出手段7は、撮影対象判定手段5で判定した撮影対象に応じて平行線群抽出手段4で抽出した平行線群およびフロー算出手段6で算出したオプティカルフローからカメラ1の設置角度を算出する。
【選択図】図1

Description

本発明は、自車周辺を撮影するカメラの設置角度を算出して校正を行うカメラ校正装置に関するものである。
近年、車両周辺画像を撮影するためのカメラを設置した車両が増えている。撮影したカメラ画像の利用方法として、経路案内や視界補助などがある。経路案内の方法としては、車両前方を撮影した画像の上に、進路変更や右左折をするべき位置・方向に矢印を重畳表示してナビゲーション画面に表示する方法がある。視界補助の方法としては、車両左側面や車両後方などの運転者から見えない部分を撮影した画像をナビゲーション画面に表示する方法がある。さらに、複数のカメラを設置する例も増えている。この例としては、複数カメラを上方視点からの画像に変換して合成し、ナビゲーション画面に表示するなどがある。
こういった機能の実現には、車両に対してカメラが設置された位置、角度の情報を正確に知る必要があるため、このような設置情報を自動的に推定することは有用である。特に、設置角度は測定が難しく、画像の利用への影響も大きいことから、自動推定への要求が高い。
従来、このようなカメラ画像からカメラの設置情報を推定する方法として、例えば、道路標示など、車両周辺に既に存在するパターンを撮影した画像を利用する方法があった(例えば、特許文献1参照)。
特開平2003−329411号公報
しかしながら、上記従来の校正方法では、道路が十分に画像内に含まれている必要があり、適用可能な状況が制限されるという問題があった。
この発明は、上記のような問題点を解決するためになされたものであり、どのような状況であっても安定してカメラの設置角度を算出することのできるカメラ校正装置を得ることを目的としている。
この発明に係るカメラ校正装置は、車両に設置したカメラによる走行時の撮影画像を取得時刻と共に蓄積する画像蓄積部と、自車の位置姿勢を時刻と共に蓄積する自車情報蓄積部と、画像蓄積部で蓄積した画像から平行線群を抽出する平行線群抽出手段と、平行線群抽出手段で抽出した平行線群から撮影対象が地面であるかどうかを判定する撮影対象判定手段と、画像蓄積部で蓄積した複数時刻での画像と、自車情報蓄積部で蓄積した複数時点での自車情報を用いて画像のオプティカルフローを算出するフロー算出手段と、撮影対象判定手段で判定した撮影対象に応じて平行線群抽出手段で抽出した平行線群およびフロー算出手段で算出したオプティカルフローからカメラの設置角度を算出するカメラ角度算出手段を備えたものである。
この発明のカメラ校正装置は、撮影対象判定手段で判定した撮影対象に応じて平行線群抽出手段で抽出した平行線群およびフロー算出手段で算出したオプティカルフローからカメラの設置角度を算出するようにしたので、どのような状況であっても安定してカメラの設置角度を算出することができる。
本発明の実施の形態1によるカメラ校正装置を示す構成図である。 本発明のカメラ校正装置を実現するためのハードウェアの一例を示す構成図である。 本発明の実施の形態1において、撮影対象が地面でない場合のカメラ設置角度を算出するための処理を示すフローチャートである。 本発明の実施の形態1において、鉛直線角度を用いてカメラのYaw角およびPitch角を算出する処理のイメージを示した概念図である。 本発明の実施の形態1において、撮影対象が地面である場合のカメラ設置角度を算出するための処理を示すフローチャートである。 本発明の実施の形態1において、鉛直線角度をαとした場合の鉛直フロー消失点を生成する処理のイメージを示した概念図である。 本発明の実施の形態1において、オプティカルフローの大きさを用いてカメラのYaw角およびPitch角を算出する処理のイメージを示した概念図である。 本発明の実施の形態2によるカメラ校正装置を示す構成図である。 本発明の実施の形態3によるカメラ校正装置を示す構成図である。
実施の形態1.
図1は、この発明の実施の形態1によるカメラ校正装置を示す構成図である。
図1に示すカメラ校正装置は、カメラ1、画像蓄積部2、自車情報蓄積部3、平行線群抽出手段4、撮影対象判定手段5、フロー算出手段6、カメラ角度算出手段7を備えている。
カメラ1は、車両に設置され、周辺画像を取得する撮像部である。ここで、周辺画像は走行時における自車周辺の実写画像であり、例えば自車前方などの画像である。
画像蓄積部2は、カメラ1で取得した画像を、画像を取得した時刻と紐付けて蓄積する。
自車情報蓄積部3は、走行中の各時点で測定した自車情報を、測定した時刻と紐付けて蓄積する。ここで自車情報は、自車の位置姿勢である。位置姿勢の測定は、例えば従来のカーナビゲーションシステムで行われているように、GPS、車速センサといったセンサ群の測定値とマップマッチングなどを用いて計算する。
平行線群抽出手段4は、画像蓄積部2で蓄積した各画像から平行線群を抽出する。ここで平行線群は現実世界において互いに平行な直線の集合であり、画像の上では互いに平行である直線の集合か、一つの点で交わる直線の集合である。画像上で互いに平行な直線の集合あるいは一つの点である直線の集合は、例えば、「無限平面内での消失点抽出、情報処理学会研究報告Vol.99、No.70、25〜30頁」に記載された方法等を用いて抽出する。ある閾値を上回る数の直線がこの基準を満たす時、その集合を平行線群とする。この閾値は、例えばカメラ1の画素数、視野角を用いて決定する。また、自車が走行している道路周辺の情報に応じてこの閾値を調整してもよい。ここで抽出したそれぞれの平行線群について、重要度を計算する。平行線群の重要度は例えば、その平行線群に属する線の数、あるいは長さの合計として計算する。また、画像上で平行である平行線群は、その画像平面上での角度を計算しておき、画像上で平行でない平行線群はその画像平面上での交点の座標を計算しておく。ここで、画像上で平行でない平行線群が交わる点を、その平行線群の消失点と呼ぶ。
撮影対象判定手段5は、例えば平行線群抽出手段4により抽出した平行線群から、撮影対象が地面であるかどうかを判定する。ここでは、画像に地面しか撮影されていない場合は撮影対象が地面であると判定し、周囲の建造物などが画像に含まれている場合は撮影対象が地面でないと判定する。画像上に平行でない2つ以上の平面が含まれている場合と1つしか平面が含まれていない場合では、カメラ角度の適切な算出方法が異なる。そのため、ここで判定した結果を用いてカメラ角度の算出方法を切り替える。
撮影対象の具体的な判定方法として、例えば以下の方法がある。即ち、通常の道路、特に市街地では、周囲の建造物が平行なエッジを多く持つため、建造物が画像に含まれる場合は、画像から平行線群が抽出される。そこで、平行線群が1つも抽出されなければ撮影対象が地面であると判定し、平行線群が1つでも抽出されれば撮影対象が地面でないと判定する。
ここで、道路の白線、横断歩道やタイルなどが画像に含まれている時、地面しか撮影されていないのに平行線群が抽出される場合があるため、平行線群が1つだけ抽出された場合は別の判定基準を設けるようにしてもよい。別の判定基準として、例えば地図情報および自車情報を参照して車両周辺に建造物が少ない場合は、道路面以外の平行線が画像に含まれる可能性が低いため、撮影対象が地面であると判定するなどがある。また、走行中の各時点で判定した撮影対象を記録しておき、ノイズと判断される判定結果は利用しないようにしてもよい。
フロー算出手段6は、画像蓄積部2で蓄積した複数時刻での画像と、自車情報蓄積部3で蓄積した複数時点での自車情報を用いて、画像のオプティカルフローを算出する。オプティカルフローの算出方法としては、例えば「ロボットビジョンの基礎、ISBN4−3390−2377−9(76〜78頁)」に記載された方法を用いる。
ここで、車両が直進している時、車両周辺の静止した点から算出したオプティカルフローは、全て平行であるか同じ点で交わる。本発明では、建造物など静止した物体とカメラ1との位置関係の変化を利用する必要があるため、不要なオプティカルフローは除く。オプティカルフローの多くが平行である場合には、別の角度であるオプティカルフローを除く。また、オプティカルフローの多くが同じ点で交わる場合には、その点に交わらないオプティカルフローを除く。また、テンプレートマッチングにより車両や動物などの一部であると判断された点のオプティカルフローを除いてもよい。
算出したオプティカルフローが平行である場合、そのオプティカルフローの画像平面上での角度を画像のフロー角度として決定する。算出したオプティカルフローが画像平面上の同じ点で交わる場合、そのオプティカルフローの画像平面上での交点を、画像のフロー消失点として決定する。
カメラ角度算出手段7は、撮影対象判定手段5で判定した撮影対象に応じて、平行線群抽出手段4で抽出した平行線群およびフロー算出手段6で算出したオプティカルフローからカメラ1の設置角度を算出する。
ここで、カメラ1の設置角度は<Yaw角、Picth角、Roll角>の組で表す。x軸を車両の左右方向(右が正)、y軸を車両の上下方向(上が正)、z軸を車両の前後方向(前が正)とし、設置角度をそれぞれ以下のように定義する。Yaw角はy軸を中心として0度から360度まである回転角で、z軸正方向が0度、x軸正方向が90度とする。Pitch角はx軸を中心として0度から360度まである回転角で、z軸正方向が0度、y軸負方向が90度とする。Roll角はz軸を中心として0度から180度まである回転角で、y軸正方向が0度、x軸負方向が90度とする。また、回転の順序はYaw角、Picth角、Roll角の順とする。
図2は、実施の形態1のカメラ校正装置を実現するためのハードウェア構成図である。
図示のように、カメラ校正装置を実現するためのハードウェア構成は、CPU101、記憶装置102、マイコンインタフェース103、外部機器インタフェース104、車両インタフェース105、GPSレシーバ106、ジャイロセンサ107、映像出力装置108、カメラ本体109からなる。CPU101は、カメラ校正装置としての各種演算や制御を司るプロセッサである。記憶装置102は、カメラ本体109の撮影画像等、各種データを記憶するための半導体メモリやハードディスク装置からなるものである。マイコンインタフェース103は、CPU101や記憶装置102と、外部機器インタフェース104〜映像出力装置108とを接続するためのインタフェースである。外部機器インタフェース104は、カメラ本体109等の外部機器とのインタフェースであり、車両インタフェース105は、車両側とのインタフェースである。GPSレシーバ106は推定自車位置を出力する装置である。ジャイロセンサ107は、車両の角速度を算出する装置である。映像出力装置108は、各種の映像を表示する表示装置である。カメラ本体109は、車両に設置された撮像部である。
図1に示すそれぞれの機能部と図2のハードウェアとの対応関係は次の通りである。
カメラ1は、カメラ本体109が外部機器インタフェース104に接続されることで実現する。画像蓄積部2は、カメラ本体109で撮影した画像を外部機器インタフェース104およびマイコンインタフェース103が仲介して記憶装置102に格納することで実現する。自車情報蓄積部3は、車両インタフェース105が車両から受け取った速度、GPSレシーバ106がGPS衛星から電波を受け取って計算した推定自車位置、ジャイロセンサ107が検出した車両の角速度を、マイコンインタフェース103が仲介して記憶装置102に格納し、記憶装置102に格納されている地図データと前記した速度、推定自車位置、角速度を用いて、CPU101が自車の位置および姿勢を特定し記憶装置102に格納することで実現する。
平行線群抽出手段4は、画像蓄積部2において記憶装置102に格納された画像を用いて、CPU101が、平行線群抽出処理に対応したプログラムを実行して平行線群を抽出し、これを記憶装置102に格納することで実現する。撮影対象判定手段5は、平行線群抽出手段4において記憶装置102に格納された平行線群を用いて、CPU101が撮影対象判定処理に対応したプログラムを実行して撮影対象を判定し、これを記憶装置102に格納することで実現する。フロー算出手段6は、画像蓄積部2において記憶装置102に格納された画像および自車情報蓄積部3において記憶装置102に格納された自車情報を用いて、CPU101がフロー算出に対応したプログラムを実行してオプティカルフローを算出し、これを記憶装置102に格納することで実現する。カメラ角度算出手段7は、平行線群抽出手段4において記憶装置102に格納された平行線群および撮影対象判定手段5において記憶装置102に格納された撮影対象判定結果を用いて、CPU101がカメラ角度算出処理に対応したプログラムを実行してカメラ角度を算出し、これを記憶装置102に格納することで実現する。
次に、このように構成されたカメラ校正装置の動作について説明する。
先ず、撮影対象が地面でない場合について説明する。
直進する車両に設置したカメラ1で撮影した画像から算出したオプティカルフローは、直進方向に平行な直線(即ち、地面にも平行な直線)を撮影したものと一致する。このことから、鉛直線の判定基準として、オプティカルフローの角度と直交しているものを用いる。
図3は、撮影対象が地面でない場合の具体的な設置角度算出方法の一例を示すフローチャートである。
ステップST101では、鉛直線角度を決定する。ここで鉛直線角度とは、鉛直線の画像上の角度である。鉛直線の画像上の角度がカメラ1との位置関係によって変化する場合、フロー消失点上での鉛直線を想定したときの画像上の角度とする。
鉛直線の候補となる直線は、画像上で平行な平行線群あるいは画像上で平行でない複数の平行線群で構成される。複数の平行線群で構成される場合、複数のフロー消失点を通る直線が鉛直線の候補となる。車両が道路上を走行する際に鉛直線以外の平行線群が画像上で平行に見えることは少ないため、画像上で平行な平行線群で構成される直線は鉛直線である可能性が高い。また、複数の平行線群の消失点を通る直線の中では、この直線を構成する平行線群の重要度が高い方が鉛直線である可能性が高い。さらに、オプティカルフローは車両の進行方向に沿って発生するため、オプティカルフローに沿った平行線群で構成される直線は、鉛直線である可能性が低い。以上のことを踏まえ、鉛直線の候補である各直線を構成する平行線群について、画像上で平行であるかどうか、オプティカルフローに沿っているかどうか、重要度から評価値を算出し、その値が高い直線を鉛直線として決定する。ここで、カメラが建造物を正面から撮影している場合に画像上で平行な平行線群が複数抽出される場合があるなど、カメラと自車周辺の環境との関係によっては鉛直線の決定が難しい。このため、地図および自車情報に応じて、鉛直線の評価基準を変更するなどしてもよい。
ステップST102では、鉛直線角度からカメラのRoll角を算出する。鉛直線角度がそのままRoll角となる。
ステップST103では、オプティカルフローの種類を判定する。オプティカルフローが平行である場合はステップST106に進み、そうでない場合はステップST104に進む。
ステップST104では、フロー消失点およびカメラのRoll角から鉛直フロー消失点を算出する。ここで鉛直フロー消失点は、フロー消失点を、画面中心を中心にRoll角だけ回転した点である。
ステップST105では、鉛直フロー消失点からカメラのYaw角およびPitch角を算出する。ここでは、カメラのYaw角およびPitch角をそれぞれθおよびφと表記する。図4において、上側に記載した図はカメラ上側から見た図であり、下側に記載した図はRoll角を0度とした時のカメラ右側から見た図(すなわち、Yaw+90度の角度からカメラを見た図)である。また、V’uおよびV’vはそれぞれ鉛直フロー消失点の画像上のu軸成分およびv軸成分である。fはカメラ1の焦点距離であり、Lはカメラ1の光軸である。また、Cはカメラ1の位置である。図4に示すように、カメラのYaw角およびPitch角は以下の式で求められる。
Figure 2010245628
ステップST106では、フロー角度およびカメラのRoll角から鉛直フロー角度を算出する。ここで鉛直フロー角度は、フロー角度を、画面中心を中心にRoll角だけ回転した点である。
ステップST107では、鉛直フロー角度からカメラのYaw角を算出する。鉛直フロー角度がそのままカメラのYaw角となる。このとき、Yaw角は約90度あるいは約270度となり、Picth角を求めることはできない。
次に、撮影対象が地面である場合について説明する。
撮影対象が地面である場合は、オプティカルフローの大きさがカメラ1からの距離に応じて変化すること、撮影対象が平面(地面)であることを利用する。そして、画像上の各点におけるオプティカルフローの大きさの違いから地面とカメラ1との位置関係(特に角度)を求める。また、撮影対象が地面ではない場合の考え方も利用して算出する。
図5は、撮影対象が地面である場合の具体的な設置角度算出方法を示すフローチャートである。
ステップST201では、オプティカルフローの種類を判定する。オプティカルフローが平行である場合はステップST205に進み、そうでない場合はステップST202に進む。
ステップST202では、鉛直線角度を決定する。鉛直線角度の求め方の一例を以下に示す。
鉛直線角度をαとした場合の、鉛直フロー消失点を図6に示す。図6において、左側に記載した実線の四角は元の画像、右側に記載した破線の四角は鉛直線角度だけ回転させた画像であり、Vはフロー消失点、V’は鉛直フロー消失点、Oは画像中心である。回転させた画像上で、OとV’を通る直線上にない点Pを考える。
図7は、Roll角を0度とした時のカメラ右側から見た図(即ち、Yaw+90度の角度からカメラを見た図)である。V’uおよびPuは、それぞれV’およびPのu軸成分である。また、ProadおよびOroadは、画像上の点PおよびOに対応する道路上の点である。fはカメラ1の焦点距離である。Cはカメラ1の位置である。Lはカメラ1の光軸であり、PflatはProadを通りLに垂直な平面とLとの交点である。カメラが平行移動する際、ProadおよびPflat上にある物体のオプティカルフローは一致する。また、PflatおよびOroad上にある物体のオプティカルフローの大きさは、Cからの距離に反比例する。以上の点と図7に示す内容とにより、点Pおよび点Oでのオプティカルフローの大きさをそれぞれPower(P)およびPower(O)とすると、以下の式が成り立つ。
Figure 2010245628
この式が成り立つようなαが鉛直線角度となる。また、鉛直線角度がそのままRoll角となる。
ステップST203では、フロー消失点およびカメラのRoll角から鉛直フロー消失点を算出する。ここで鉛直フロー消失点は、フロー消失点を、画面中心を中心にRoll角だけ回転した点である。
ステップST204では、鉛直フロー消失点からカメラのYaw角およびPitch角を算出する。Yaw角およびPitch角は上記のステップST105と同じ方法で求められる。
ステップST205では、鉛直線角度を決定する。オプティカルフローが平行である時、カメラのYaw角は90度あるいは270度であり、鉛直線角度はフロー角度に垂直となる。フロー角度に垂直で、かつ0度以上180度未満であるような角度を、鉛直線角度とする。また、ここで求めた鉛直線角度がそのままRoll角となる。尚、このとき、Yaw角は約90度あるいは約270度であるため、Picth角を求めることはできない。
以上のように、実施の形態1では、平行線群抽出手段4、フロー算出手段6およびカメラ角度算出手段7を備えたことにより、車両走行時に自動的にカメラの設置角度を算出することができる。そのため、ユーザが設置角度を測定することなくカメラを車両に簡便に取り付け、利用することができる。さらに、撮影対象判定手段5を備えたことにより、カメラの撮影対象に応じてカメラ角度を算出する方法を切り替えることができる。そのため、より多くの状況でカメラ角度を算出できる。
また、基準マーカーといったカメラを校正するための特別な手段も不要であると共に、特許文献1に記載の校正装置のように、道路上の2本の平行な白線が画像内に含まれている必要がある、といったこともなく、どのような状況であっても確実にカメラ設置角度の検出を行うことができる。
以上のように、実施の形態1のカメラ校正装置によれば、車両に設置したカメラ1による走行時の撮影画像を取得時刻と共に蓄積する画像蓄積部2と、自車の位置姿勢を時刻と共に蓄積する自車情報蓄積部3と、画像蓄積部2で蓄積した画像から平行線群を抽出する平行線群抽出手段4と、平行線群抽出手段4で抽出した平行線群から撮影対象が地面であるかどうかを判定する撮影対象判定手段5と、画像蓄積部2で蓄積した複数時刻での画像と、自車情報蓄積部3で蓄積した複数時点での自車情報を用いて画像のオプティカルフローを算出するフロー算出手段6と、撮影対象判定手段5で判定した撮影対象に応じて平行線群抽出手段4で抽出した平行線群およびフロー算出手段6で算出したオプティカルフローからカメラの設置角度を算出するカメラ角度算出手段7を備えたので、カメラ画像が道路面を十分に含んでいない場合等、どのような状況でも、安定してカメラの設置角度を算出することができる。
実施の形態2.
図8は、本発明の実施の形態2によるカメラ校正装置を示す構成図である。
実施の形態2のカメラ校正装置は、カメラ1、画像蓄積部2、自車情報蓄積部3、平行線群抽出手段4、撮影対象判定手段5、フロー算出手段6、カメラ角度算出手段7、道路面抽出手段8、カメラ位置算出手段9を備えている。ここで、カメラ1〜カメラ角度算出手段7は、実施の形態1と同様の構成であるため、ここでの説明は省略する。
道路面抽出手段8は、平行線群抽出手段4で抽出した平行線群およびカメラ角度算出手段7で算出したカメラの設置角度から、画像に含まれる道路面の領域を抽出する。カメラ位置算出手段9は、道路面抽出手段8で抽出した道路面における、フロー算出手段6で算出したオプティカルフローを用いて、カメラの設置位置を算出する。ここでは、カメラの設置位置として高さのみを算出する。
尚、図8に示した構成と図2に示したハードウェアとの関係は次の通りである。
カメラ1〜カメラ角度算出手段7は、上述した実施の形態1と同様のハードウェア構成で実現する。また、道路面抽出手段8は、平行線群抽出手段4において記憶装置102に格納された平行線群、およびカメラ角度算出手段7において記憶装置102に格納されたカメラ角度を用いて、CPU101が道路面を抽出して記憶装置102に格納することで実現する。カメラ位置算出手段9は、フロー算出手段6において記憶装置102に格納されたオプティカルフロー、および道路面抽出手段8において記憶装置102に格納された道路面を用いて、CPU101がカメラ位置を算出して記憶装置102に格納することで実現する。
このように構成された実施の形態2のカメラ校正装置において道路面抽出手段8による道路面の抽出は例えば次のように行う。
カメラ角度算出手段7において、道路面のオプティカルフローからカメラ角度を算出している。これと逆の考えで、カメラ画像が全て道路面を撮影していると仮定した時、カメラ角度から画像上の各点のオプティカルフローを算出できる(但し、この時点ではカメラの高さを未知数とした値になる)。道路面抽出手段8では、このように算出したオプティカルフローと、実際に画像から抽出したオプティカルフローを比較し、条件に合う点を道路面であると判定する。そして、カメラ位置算出手段9は、道路面抽出手段8で抽出した道路面に基づき、フロー算出手段6で算出したオプティカルフローを用いて、カメラ1の設置高さを算出する。
尚、高さ以外の設置情報(ここでは前後位置Z、左右位置Xと記述する)については画像からの推定は難しいため、カメラ1の角度からおおよその位置を推定する。
例えば、カメラ1が右を向いている場合は車両の右側に設置されていると推定する(車両の幅をWとし、45度<Yaw角<135度ならZ=W/2、225度<Yaw角<315度ならZ=−W/2とする)、などが考えられる。
以上のように、実施の形態2のカメラ校正装置によれば、カメラ角度算出手段の算出結果に基づいて画像から道路面を抽出する道路面抽出手段8と、道路面抽出手段8の抽出結果とフロー算出手段6で算出したオプティカルフローとを用いてカメラの設置位置を算出するカメラ位置算出手段9とを備えたので、カメラの設置角度に加えて設置位置を車両走行時に自動的に算出することができる。そのため、ユーザが設置位置および設置角度を測定することなくカメラを簡便に車両に取り付け、利用することができる。
実施の形態3.
図9は本発明の実施の形態3による車載装置を示すシステム構成図である。
図9における、カメラ1、画像蓄積部2、自車情報蓄積部3、平行線群抽出手段4、撮影対象判定手段5、フロー算出手段6、カメラ角度算出手段7、変換画像表示手段10からなる。ここで、カメラ1〜カメラ角度算出手段7は、実施の形態1と同様の構成であるため、ここでの説明は省略する。変換画像表示手段10は、カメラ角度算出手段7で算出したカメラの設置角度を用いて、画像蓄積部2で蓄積した画像を変換し、カーナビゲーションなどのディスプレイに表示する手段である。ここで、画像変換形式として、拡大縮小、上方視点、鏡像などに変換することが考えられる。画像変換形式はユーザが指定してもよいし、カメラ角度や運転状況に応じて決定してもよい。
また、図9に示した構成と図2に示したハードウェアとの関係は次の通りである。
カメラ1〜カメラ角度算出手段7は、上述した実施の形態1と同様のハードウェア構成で実現する。また、変換画像表示手段10は、画像蓄積部2において記憶装置102に格納された画像およびカメラ角度算出手段7において記憶装置102に格納されたカメラ角度を用いて、CPU101が画像を変換して映像出力装置108に表示することで実現する。
また、カメラ角度に応じて画像変換形式を決定する例として、カメラが車両後方を向くように設置されている場合は、鏡像に変換して表示するなどが考えられる。さらに、運転状況に応じて画像変換形式を決定する例として、車両が後方へ走行している時には上方視点の画像(上空から見た車両周辺の画像)に変換して表示するなどが考えられる。
尚、上記実施の形態3では、カメラ角度算出手段7の算出結果に基づいて変換画像表示手段10で画像を変換するようにしたが、実施の形態2におけるカメラ位置算出手段9の算出結果であるカメラの設置位置に基づいて画像を変換するようにしてもよい。
以上のように、実施の形態3のカメラ校正装置によれば、所定の変換方法で画像蓄積部2に蓄積された撮影画像を変換して表示する変換画像表示手段10を備えたので、ユーザの指定、カメラの設置情報や運転状況などに合わせて画像をユーザに有用な形で表示することができる。そのため、カメラで取得した画像を効果的に利用することができる。
1 カメラ、2 画像蓄積部、3 自車情報蓄積部、4 平行線群抽出手段、5 撮影対象判定手段、6 フロー算出手段、7 カメラ角度算出手段、8 道路面抽出手段、9 カメラ位置算出手段、10 変換画像表示手段、101 CPU、102 記憶装置、103 マイコンインタフェース、104 外部機器インタフェース、105 車両インタフェース、106 GPSレシーバ、107 ジャイロセンサ、108 映像出力装置、109 カメラ本体。

Claims (3)

  1. 車両に設置したカメラによる走行時の撮影画像を取得時刻と共に蓄積する画像蓄積部と、
    自車の位置姿勢を時刻と共に蓄積する自車情報蓄積部と、
    前記画像蓄積部で蓄積した画像から平行線群を抽出する平行線群抽出手段と、
    前記平行線群抽出手段で抽出した平行線群から撮影対象が地面であるかどうかを判定する撮影対象判定手段と、
    前記画像蓄積部で蓄積した複数時刻での画像と、前記自車情報蓄積部で蓄積した複数時点での自車情報を用いて画像のオプティカルフローを算出するフロー算出手段と、
    前記撮影対象判定手段で判定した撮影対象に応じて前記平行線群抽出手段で抽出した平行線群および前記フロー算出手段で算出したオプティカルフローから前記カメラの設置角度を算出するカメラ角度算出手段を備えたカメラ校正装置。
  2. カメラ角度算出手段の算出結果に基づいて画像から道路面を抽出する道路面抽出手段と、
    前記道路面抽出手段の抽出結果とフロー算出手段で算出したオプティカルフローとを用いてカメラの設置位置を算出するカメラ位置算出手段とを備えたことを特徴とする請求項1記載のカメラ校正装置。
  3. 所定の変換方法で画像蓄積部に蓄積された撮影画像を変換して表示する変換画像表示手段を備えたことを特徴とする請求項1または請求項2記載のカメラ校正装置。
JP2009089329A 2009-04-01 2009-04-01 カメラ校正装置 Pending JP2010245628A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009089329A JP2010245628A (ja) 2009-04-01 2009-04-01 カメラ校正装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009089329A JP2010245628A (ja) 2009-04-01 2009-04-01 カメラ校正装置

Publications (1)

Publication Number Publication Date
JP2010245628A true JP2010245628A (ja) 2010-10-28

Family

ID=43098205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009089329A Pending JP2010245628A (ja) 2009-04-01 2009-04-01 カメラ校正装置

Country Status (1)

Country Link
JP (1) JP2010245628A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074325A (ja) * 2011-09-26 2013-04-22 Toshiba Alpine Automotive Technology Corp 車載カメラ用画像補正方法および車載カメラ用画像補正プログラム
JP2014059793A (ja) * 2012-09-19 2014-04-03 Nissan Motor Co Ltd カメラ取り付け誤差補正装置及びカメラ取り付け誤差補正方法
WO2017038160A1 (ja) * 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
KR20190061136A (ko) * 2017-11-27 2019-06-05 현대모비스 주식회사 후방카메라의 캘리브레이션 장치 및 방법
WO2020055928A1 (en) * 2018-09-10 2020-03-19 Mapbox, Inc. Calibration for vision in navigation systems
US11010641B2 (en) 2019-03-14 2021-05-18 Mapbox, Inc. Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device
US11282225B2 (en) 2018-09-10 2022-03-22 Mapbox, Inc. Calibration for vision in navigation systems
WO2022254630A1 (ja) * 2021-06-02 2022-12-08 三菱電機株式会社 エレベーターのカメラの校正システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074325A (ja) * 2011-09-26 2013-04-22 Toshiba Alpine Automotive Technology Corp 車載カメラ用画像補正方法および車載カメラ用画像補正プログラム
JP2014059793A (ja) * 2012-09-19 2014-04-03 Nissan Motor Co Ltd カメラ取り付け誤差補正装置及びカメラ取り付け誤差補正方法
WO2017038160A1 (ja) * 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
JPWO2017038160A1 (ja) * 2015-09-01 2018-06-14 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
US10579881B2 (en) 2015-09-01 2020-03-03 Nec Corporation Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US10748010B2 (en) 2015-09-01 2020-08-18 Nec Corporation Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US10977499B2 (en) 2015-09-01 2021-04-13 Nec Corporation Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US11710322B2 (en) 2015-09-01 2023-07-25 Nec Corporation Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
KR102326184B1 (ko) * 2017-11-27 2021-11-15 현대모비스 주식회사 후방카메라의 캘리브레이션 장치 및 방법
KR20190061136A (ko) * 2017-11-27 2019-06-05 현대모비스 주식회사 후방카메라의 캘리브레이션 장치 및 방법
WO2020055928A1 (en) * 2018-09-10 2020-03-19 Mapbox, Inc. Calibration for vision in navigation systems
US11282225B2 (en) 2018-09-10 2022-03-22 Mapbox, Inc. Calibration for vision in navigation systems
US11010641B2 (en) 2019-03-14 2021-05-18 Mapbox, Inc. Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device
WO2022254630A1 (ja) * 2021-06-02 2022-12-08 三菱電機株式会社 エレベーターのカメラの校正システム

Similar Documents

Publication Publication Date Title
JP2010245628A (ja) カメラ校正装置
JP6477882B2 (ja) 自己位置推定装置及び自己位置推定方法
JP4619962B2 (ja) 路面標示計測システム、白線モデル計測システムおよび白線モデル計測装置
JP2012503817A (ja) 画像をぼかす方法及び構成
JP4702149B2 (ja) 車両位置測位装置
JP6838522B2 (ja) 画像収集システム、画像収集方法、画像収集装置、および記録媒体
JP4852905B2 (ja) 画像処理装置、画像処理方法
JP4735361B2 (ja) 車両乗員顔向き検出装置および車両乗員顔向き検出方法
JP4986883B2 (ja) 標定装置、標定方法および標定プログラム
JP2015059768A (ja) 段差計測装置、段差計測方法及びプログラム
JP5097681B2 (ja) 地物位置認識装置
JP2014106739A (ja) 車載画像処理装置
US9014964B2 (en) Navigation apparatus capable of providing real-time navigation images
JP2018073275A (ja) 画像認識装置
KR101568683B1 (ko) 영상 분석을 이용한 차간 거리 추정 방법 및 그 장치
JP4752319B2 (ja) 画像認識装置及び画像認識方法
JP5832850B2 (ja) 車線監視システム及び車線監視方法
JP2013182562A (ja) 影検出装置
JP5251460B2 (ja) 接近物体検出装置、接近物体検出プログラム、接近物体検出方法
JP5891802B2 (ja) 車両位置算出装置
JP2006322892A (ja) 3次元位置測定装置および3次元位置測定プログラム
JP2005216200A (ja) 他車検出装置及び他車検出方法
JP2006010328A (ja) 車両位置特定装置
EP3227827A1 (en) Driver assistance system, motor vehicle and method for classifying a flow vector
JP6477246B2 (ja) 路面標示検出装置及び路面標示検出方法