JP2002135765A - カメラキャリブレーション指示装置及びカメラキャリブレーション装置 - Google Patents

カメラキャリブレーション指示装置及びカメラキャリブレーション装置

Info

Publication number
JP2002135765A
JP2002135765A JP2001244548A JP2001244548A JP2002135765A JP 2002135765 A JP2002135765 A JP 2002135765A JP 2001244548 A JP2001244548 A JP 2001244548A JP 2001244548 A JP2001244548 A JP 2001244548A JP 2002135765 A JP2002135765 A JP 2002135765A
Authority
JP
Japan
Prior art keywords
camera
image
vehicle
viewpoint
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001244548A
Other languages
English (en)
Inventor
Shusaku Okamoto
修作 岡本
Masamichi Nakagawa
雅通 中川
Kazuo Nobori
一生 登
Atsushi Morimura
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001244548A priority Critical patent/JP2002135765A/ja
Publication of JP2002135765A publication Critical patent/JP2002135765A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 従来のカメラキャリブレーション装置は、
カメラの温度環境の変化にて対して対処できていない。 【解決手段】 少なくとも一台のカメラ101と、温度
を測定する温度センサ110と、温度センサ110が測
定した温度に基づいて、カメラ特性を示すカメラパラメ
ータを決定するキャリブレーション手段102と、カメ
ラパラメータを格納するカメラパラメータテーブル10
3と、温度の変化に応じて変化するカメラパラメータの
変化量を格納した温度補正テーブル111とを有し、キ
ャリブレーション手段102は、温度の変化に応じて、
温度補正テーブル111を参照して、カメラパラメータ
を変更するカメラキャリブレーション装置。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えば店舗におけ
るモニター装置、あるいは車両運転の際の安全確認の補
助としての車両周囲モニター装置等に用いられるカメラ
キャリブレーション指示装置及びカメラキャリブレーシ
ョン装置に関するものである。
【0002】
【従来の技術】従来の一般的な監視カメラ装置は、店舗
などにおいて、監視対象となる部分を1台もしくは数台
のカメラで撮影し、その画像をモニタ画面に表示する構
成が一般的である。この際、例えば数台のカメラが設置
してあれば、通常モニタ画面も前記カメラ台数分だけ準
備するが、モニタ画面の台数がカメラの台数分だけ準備
できない場合は、分割装置等を用いて、前記数台のカメ
ラ画像を1枚分の画像に統合して表示させる、もしく
は、カメラ画像を順次切り替えるなどの方法が取られ
る。しかし、これら従来の装置では、それぞれのカメラ
からの画像を監視するには、独立に表示されている画像
の連続性を管理者が考慮する必要があるなどの問題があ
った。
【0003】この問題を解決する方法として、複数台カ
メラからの画像が端の部分で重なるように設置し、複数
台カメラからの画像を、前記重なり部分を重ねることに
よって一枚に統合した画像を表示することで、前記連続
性の問題を解決した監視装置としては、例えば特開平1
0−164566号公報などがある。
【0004】また、監視装置の別の応用例として、車両
に設置した場合がある。その従来例としては次のような
ものがある。つまり、車両の周囲を監視するカメラを設
置し、前記カメラで獲得した画像を運転席近くに設置し
たモニターテレビに表示させる監視装置である。例えば
車両後方のように、運転者が目視もしくはミラーで見る
ことが出来ない場所を、前記カメラで撮影し前記モニタ
ーテレビで表示させる装置が知られている。特に、大型
トラック、ワンボックスワゴンなど、目視およびミラー
で確認できる視野が狭い車両には多数使用されている。
【0005】図70は、監視カメラを車両に設置した場
合の従来例を示したものである。図70の例では、分割
アダプタを介して、車体に取付けられた4つの監視カメ
ラ(C1〜C4)からの画像を一枚の画像に合成し、該
画像をモニタテレビで分割表示 (D1〜D4)する方
法である。特に後部カメラからの画像に関しては、画像
に撮っている物体の位置関係をミラーで見たときと同じ
様にするため、左右反転した画像を表示するなどの工夫
がされている。さらにカメラの画角の制限のため見るこ
とが出来ない場所については、運転者の手動操作によっ
て各々のカメラを回転させ、所望の場所の画像を得るこ
とを可能としている。なお、上記に示した監視装置とし
ては、例えば特開平5−310078号公報に開示の装
置などがある。
【0006】しかしながら上記の例のような従来の監視
装置については、各々のカメラから入力された画像を、
互いに無関係に表示するので、カメラが撮影している空
間全体の様子を、それぞれの画像を見ながら管理者が一
度に把握することは困難である。
【0007】一方それぞれのカメラ画像を一枚に統合す
る場合も、カメラに撮影されている物体が空間内のどの
位置に存在するかを計算するものではないので、例えば
管理者が状況に応じて所望の視点からの統合画像を見た
いという要求があった場合に、対処できない。
【0008】車両に設置された監視装置についても同様
の問題が生じる。すなわち上記の例のように従来の監視
装置については、各々のカメラから入力された画像を、
互いに無関係に表示させるものである。従って例えば車
両を駐車スペースに入れようとする場合の補助として前
記表示された画像を用いる際にも、前記画像は見えない
場所を見るだけの役割しか果たさない。つまり運転者
は、従来の目視およびミラーを使った場合と比べて見え
ない場所が少なくなっただけにすぎない。
【0009】なお、視野が狭い点を解決するための方法
としては、広角レンズを用いる事が一般的である。広角
レンズからの画像ではある特定部分の詳細はつかめない
が、逆に広角レンズを用いる事で視野が広まり、車両の
周囲の全体的な状況を把握し易くなる。
【0010】しかしながら、通常のレンズを広角レンズ
に置き換えるのみでは、結局、カメラからの画像は、車
体にカメラが設置されている場所に依存し、カメラが設
置されていない場所からの仮想的な画像を見ることはで
きない。すなわち、広角レンズ設置したカメラを用いて
得られる効果は、カメラの台数が減るという点のみであ
る。
【0011】さらに、別の従来例として、特開平3−9
9952号公報に開示されている装置がある。図71
は、その従来の車両周囲監視装置の実施の形態を示した
ブロック図である。画像変換部2202 に入力されたカメ
ラ1〜N2201 からの画像が、変換により他の座標に変
換され、画像表示部2203 で1枚の画像に合成される。
そして運転席に設置されたTVモニタ2204に表示する。
画像表示部では、ギア位置、車速、ウインカ動作に応じ
た信号により、自車表示位置を画面の中心よりずらすな
どし、見ようとする車両周囲環境領域を広くとるように
するなどの工夫も可能である。
【0012】また、これをさらに発展させた他の従来例
が特開平7−186833号公報に開示されている。こ
の例では、周囲の状況を運転者に提示する際に、路面部
分とそれ以外の部分を予め区別し、路面部分は座標変換
によって車両中心上方に下向きに視点を置いたときに観
測される画像に変換し、また路面外部分は、前記変換画
像にカメラからの映像をそのまま適切な場所で適切な大
きさに変更して重ねあわせ表示する。これにより車両の
周囲の障害物の状況、特に車両後方から接近する他の車
両などを正確に知らせるものである。
【0013】
【発明が解決しようとする課題】しかしながら、上記別
の従来の車両周囲監視装置においては、走行中にカメラ
が動いてしまい、合成画像にずれが生じるという問題が
あるが、それを解決する従来例としては、例えば特開平
5−310078号公報に開示されている方法がある。
該方法では、カメラの向きを変更する機構を備えること
により、運転者が合成画面を見ながら、手で所望の向き
にカメラを動かす方法である。しかし、この場合の問題
は、向きを変更する機構をカメラの台数と同じ数だけ取
付ける必要があり、コストが高くなる点である。
【0014】本発明は、かかる課題を解決するものであ
り、前記合成のために必要な、カメラの取り付け位置、
取り付け角度などのカメラパラメータを容易に求め、さ
らには、前記カメラパラメータが、走行時の振動や温度
などによってずれたときに、それを検知し修正する装置
を提供する。
【0015】
【課題を解決するための手段】本発明は、 カメラのキ
ャリブレーションを行った日時又は走行距離を記録する
補正履歴記録手段と、前記補正履歴記録手段を参照し、
前回のキャリブレーションの日時から一定以上の日時が
経過したとき、又は、前回のキャリブレーションから一
定以上の距離を走行したとき、運転者にカメラキャリブ
レーションを実施するよう指示するカメラ補正指示手段
とを備え、カメラキャリブレーションの必要性を適切に
指示することを特徴とするカメラキャリブレーション指
示装置である。
【0016】また、本発明は、少なくとも一台のカメラ
と、温度を測定する温度センサと、前記温度センサが測
定した温度に基づいて、カメラ特性を示すカメラパラメ
ータを決定するキャリブレーション手段と、を備えたこ
とを特徴とするカメラキャリブレーション装置である。
【0017】また、本発明は、前記カメラパラメータを
格納するカメラパラメータテーブルと、温度の変化に応
じて変化する前記カメラパラメータの変化量を格納した
温度補正テーブルとを有し、前記キャリブレーション手
段が、温度の変化に応じて、前記温度補正テーブルを参
照して、前記カメラパラメータを変更することを特徴と
するカメラキャリブレーション装置である。
【0018】また、本発明は、少なくとも一台のカメラ
と、前記カメラが位置づけられた3次元空間における座
標値が既知の複数個の特徴点を、前記カメラの視野内に
生成する特徴点生成手段と、前記複数個の特徴点を抽出
する特徴点抽出手段と、前記抽出された複数個の特徴点
を用いて、前記カメラの特性を表すカメラパラメータを
計算するキャリブレーション手段とを備えたことを特徴
とするカメラキャリブレーション装置である。
【0019】また、本発明は、前記特徴点生成手段が、
前記カメラの視野内に、前記特徴点としてのパターン光
を照射する機能を有することを特徴とするカメラキャリ
ブレーション装置である。
【0020】
【発明の実施の形態】以下、図を用いて本発明の一実施
の形態を説明する。なお本実施の形態においては、車両
の周囲を監視するカメラを設置し、前記カメラで獲得し
た画像を運転席近くに設置したモニターテレビに表示さ
せる画像生成装置を対象として説明する。
【0021】図1は本実施の形態の一例を示したブロッ
ク図である。
【0022】本実施の形態は、構成例として、監視対象
領域の状況を把握するために取付けられた複数台のカメ
ラ101 、前記カメラの特性を示すカメラパラメータを格
納しておくカメラパラメータテーブル103 、カメラパラ
メータに基づいて、前記カメラからの入力画像を3次元
空間の空間モデルにマッピングした空間データを作成す
る空間再構成手段104 、空間再構成手段104 にて作成さ
れた空間データを一時的に格納する空間データバッファ
105 、空間データを参照して、任意の視点から見た画像
を作成する視点変換手段106 、視点変換手段106 にて変
換された画像を表示する表示手段107からなる。
【0023】図2は本実施の形態の一例を示したブロッ
ク図である。
【0024】図2の例では、図1に示した画像生成装置
に対して、さらに、カメラの取り付け位置、カメラの取
り付け角度、カメラのレンズ歪み補正値、カメラのレン
ズの焦点距離などといった、前記カメラ特性を表すカメ
ラパラメータを、入力もしくは計算によって得るキャリ
ブレーション手段102 、前記カメラの視野内に3次元座
標の同定が可能な複数個の点を生成する特徴点生成手段
109 とそれらの特徴点を抽出する特徴点抽出手段108と
を付加し、各々のにカメラについて、その特性を示 す
カメラパラメータを容易に得ることを可能としている。
【0025】特徴点生成手段109 および特徴点抽出手段
108の振る舞いによってカメラパラメータを得るための
方法についての詳細は後述する。
【0026】図3は本実施の形態の一例を示したブロッ
ク図である。図3の例では、図1に示した画像生成装置
に対して、更に温度センサ110、温度補 正テーブル111
を設置することにより、気温上昇・下降にともなって微
妙に変化するレンズ歪みを補正し、レンズを常に最適に
保つことが可能となる。キャリブレーション手段102に
おいて温度によるレンズ歪みの補正を行う方法について
の詳細は後述する。
【0027】図4は本実施の形態の一例を示したブロッ
ク図である。図4は車両への応用例としての画像生成装
置の構成例で、図1に示した画像生成装置に対して、さ
らに車両の移動方向を検出する移動方向検出手段112
と、車両の単位時間における移動距離を検出する移動距
離検出手段113 と、車両の移動方向および移動距離を用
いて、前記空間データバッファ105 に格納された空間デ
ータを変換する空間データ変換手段114 とを付加してい
る。
【0028】これらの手段を用いることにより、現在見
えていない場所について、以前に見えており、かつ、そ
の見えていた画像が空間データとして空間データバッフ
ァ105 に格納されていれば、その空間データを本実施の
形態を構成する空間データ変換手段114 で変換すること
によって補うことができる。補うための方法についての
詳細は後述する。
【0029】図5は本実施の形態の車両への応用例とし
ての画像生成装置で、その構成例を示したブロック図で
ある。
【0030】図5の画像生成装置の例では、図1に示し
た画像生成装置に対して、さらにカメラのキャリブレー
ションが必要な状況を検知した場合に、運転者にカメラ
キャリブレーションの指示を行うカメラ補正指示手段11
6 と、カメラキャリブレーションを行った日時および走
行距離を記録する補正履歴記録手段115 を付加してい
る。これらの手段を用いることにより、カメラの特性を
示すカメラパラメータの補正、すなわちカメラキャリブ
レーションを実施しなければならない状況を検知し、そ
の旨を運転者に提示する。
【0031】図6は、図1〜図5を統合した画像生成装
置を示したブロック図であり、図1から図5の画像生成
装置を一つにまとめた場合の構成例で、それぞれの構成
で得られる効果を統合して利用することが可能である。
本実施の形態の最後で、本図6の構成例を用いて、本実
施の形態による画像生成装置の動作例を示す。
【0032】次に、上記装置を構成する各構成要素につ
いての詳細を説明する。
【0033】カメラは、車両の周囲の状況など、監視す
べき空間の画像を撮り込むテレビカメラである。このカ
メラは、大きな視野を得ることができるよう、通常、画
角が大きいものを使うのが良い。図7は、車両へのカメ
ラの取り付け例を示した概念図である。
【0034】図7では、車両の屋根に、車両から周囲を
見渡すようにカメラが6台設置されている例を示してい
る。図7の例のように、車両への取り付け位置として
は、車体屋根と側面もしくは屋根と後面の境界部分にす
ると、視野が広くなりカメラの台数も少数で済む。
【0035】本実施の形態によるキャリブレーション手
段102 は、カメラキャリブレーションを行う。カメラキ
ャリブレーションとは、3次元実世界に配置されたカメ
ラについての、その3次元実世界における、カメラの取
り付け位置、カメラの取り付け角度、カメラのレンズ歪
み補正値、カメラのレンズの焦点距離などといった、前
記カメラ特性を表すカメラパラメータを決定、補正する
ことである。
【0036】本実施の形態によるカメラパラメータテー
ブル103 は、キャリブレーション手段102 (処理の詳細
は後述)によって得られたカメラパラメータを格納する
テーブルである。
【0037】まず該カメラパラメータテーブル103 の詳
細な説明の準備として、3次元空間座標系を定義する。
前出の図7は、車両にカメラを設置した様子を示した概
念図であるが、図7において車両を中心とする3次元空
間座標系を示している。図7の例では3次元空間座標系
の例として、 ・車両の後面直下にある後面に平行な路面上の直線をX
軸 ・車両の後面中央に路面から垂直に伸びる軸をY軸 ・車両の後面中央を通り後面に垂直な路面上の直線をZ
軸 とする3次元空間座標系を定義し、また本座標系におい
てカメラの向きは、 ・Y−Z平面に対してなす角度をα ・X−Z平面に対してなす角度をβ として、該α、βを用いて表すものとする。以下、特に
ことわりがない限り、3次元空間座標系もしくはワール
ド座標系もしくは単に3次元空間は、本定義による3次
元空間座標系を指すものとする。
【0038】図9は、カメラパラメータテーブル103 に
格納されているデータを表形式で示したものである。図
9に記載されている内容は、テーブルの左側の列から順
に以下の通りで、下記のごとく本テーブルでは、2列目
から9列目までの項目がカメラパラメータの例を示して
いる。
【0039】1列目:図7の車載カメラの番号 2列目:3次元空間座標系におけるカメラ位置のX座標 3列目:3次元空間座標系におけるカメラ位置のY座標 4列目:3次元空間座標系におけるカメラ位置のZ座標 5列目:カメラの向きのうちY−Z平面に対してなす角
度α 6列目:カメラの向きのうちX−Z平面に対してなす角
度β 7列目:3次元空間座標系におけるカメラの焦点距離 8列目:レンズの半径方向の歪み係数κ1 9列目:レンズの半径方向の歪み係数κ2 例えば、図7におけるカメラ1のパラメータは図9のカ
メラパラメータテーブル103 の2行目に記載されてお
り、その内容は、カメラ1は、座標(x1、y1、0)の位置
にあり、向きはY−Z平面に対して45度、X−Z平面
に対して−30度の角度をなし、焦点距離はf1、レンズ
歪み係数κ1、κ2はともに0である、ということが分
かる。
【0040】同様に、仮想カメラのパラメータは図9の
カメラパラメータテーブル103 の8行目に記載されてお
り、その内容は、仮想カメラとは、座標(0、y1、0)の
位置にあり、向きはY−Z平面に対して0度、X−Z平
面に対して−20度の角度をなし、焦点距離はf、レン
ズ歪み係数κ1、κ2はともに0である、ということが
分かる。
【0041】この仮想カメラは、本実施の形態に導入さ
れる概念である。すなわち従来の画像生成装置では、実
際に設置されているカメラから得られた画像のみしか表
示できなかったが、本画像生成装置では、後で詳述する
空間再構成手段104 、視点変換手段106 により、仮想の
カメラを自由に設置し、その仮想カメラからの画像を計
算によって求めることが可能となる。該計算方法につい
ても後で詳述する。
【0042】本実施の形態によるキャリブレーション手
段102 は、カメラキャリブレーションを行う。それはす
なわち前記カメラパラメータを決定することであり、そ
の決定方法としては、例えばキーボードやマウスなどの
入力装置によって全てのデータを人手で直接入力する方
法、キャリブレーションデータのいくつかを計算によっ
て求める方法などがある。
【0043】カメラパラメータとは、ある基準の座標系
におけるカメラの取り付け位置およびカメラの取り付け
角度、カメラのレンズ歪み補正値、カメラのレンズの焦
点距離などといった、前記カメラ特性を表すパラメータ
である。カメラで撮影した画像の特徴点と、前記特徴点
の前記基準座標系内での位置との対応関係が取れている
点の組が多数分かっていれば、前記パラメータを計算に
よって近似的に求めることが可能となる。つまり、カメ
ラパラメータを計算によって求める場合、カメラで撮影
した画像の点と、その点の3次元空間座標系内での位置
との対応関係が取れている点の組が、複数個必要とな
る。その組が最低いくつ必要であるかは、どのような計
算方法を用いるかに依存する。例えば図9の例で用いた
カメラパラメータを計算によって求める方法に関して
は、文献「松山、久野、井宮、"コンピュータビジョ
ン:技術評論と将来展望"、新技術コミュニケーション
ズ、pp.37-53、1998年6月」に開示されている。こ
の他にもカメラパラメータを求める技術が、前記文献に
多数開示されているので、ここでは該技術に関する説明
は省略する。
【0044】しかし、いずれの方法でカメラパラメータ
の計算をする場合においても、前記対応関係の組をどの
ようにして見つけるかが問題となる。本実施の形態で
は、前記対応関係の取れた点の組を自動で作成し、その
組を用いて計算によっていくつかのカメラパラメータを
求める方法について開示していおり、該方法については
後述する。
【0045】また、前記レンズ歪み係数を用いてカメラ
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
【0046】そこで、レンズの歪みの変化は、激しい温
度変化がない限りは起こらないと仮定し、歪み補正前の
画像と、歪み補正後の画像で、それぞれの画素の座標値
の対応関係をあらかじめ計算しておく。そして前記計算
結果をテーブルやマトリクスなどのデータ形式でメモリ
内に保持し、それを用いて歪み補正を行うなどの方法
が、高速な補正処理として有効である。
【0047】温度などによってレンズ歪みがどのように
変化するかが予め分かっていれば、そのデータは本実施
の形態による温度補正テーブル111 などの形式で持って
おき、気温の上昇や下降によってレンズ歪みに変化が生
じた場合に、キャリブレーション手段102 によって前記
テーブルのデータを参照して補正する。
【0048】図10は本実施の形態による温度補正テー
ブル111 の例を表形式で示した図である。図10に示す
ように、温度補正テーブル111 は、温度に応じて変化す
る前記カメラパラメータの変化量をデータとして格納す
るもので、本例では、温度によって、 ・レンズの焦点距離 (テーブル2列目) ・レンズ歪み係数κ1(テーブル3列目) ・レンズ歪み係数κ2(テーブル4列目) が変わる度合いのデータを格納した場合を示しており、
テーブルの示す具体的な内容は以下の通りである。
【0049】o 温度が0度以下のとき(テーブル2行目) ・現在のレンズの焦点距離にdf1を加える。 ・現在のレンズ歪み係数にκ11を加える。 ・現在のレンズ歪み係数にκ21を加える。
【0050】o 温度が40度以上のとき(テーブル3行
目) ・現在のレンズの焦点距離にdf2を加える。 ・現在のレンズ歪み係数にκ12を加える。 ・現在のレンズ歪み係数にκ22を加える。
【0051】本実施の形態の一例のキャリブレーション
手段102では、各カメラ毎に温度センサ110 の温度値を
逐次観測し、必要に応じてカメラパラメータテーブル10
3 の内容を更新する。
【0052】図23は、キャリブレーション手段102 に
おいて、温度によってカメラパラメータテーブル103 の
更新処理を行う手順をフローチャートの形式で示したも
ので、図23を用いてその詳細を説明する。
【0053】但し、本例では図3に示したごとく、カメ
ラ1台について、それに1台の温度センサ110 が対にな
って付随しており、温度センサ110 で検知した温度が、
カメラのレンズ温度とほぼ等しいということを仮定す
る。
【0054】1.(1301)未チェックの温度センサ110 を
一つ選択し、温度値を取得する。
【0055】2.(1302)前記温度値がカメラパラメータ
補正を必要とするかどうかを確かめる。
【0056】図23の例では、補正が必要な温度は、0
度以下もしくは40度以上である。
【0057】3.(1303)もし補正が必要なら、温度補正
テーブル111 からカメラパラメータ補正値を取得し、該
温度センサ110 に付随するカメラのカメラパラメータを
更新した結果を、カメラパラメータテーブル103 に書き
込む。(1304)補正の必要がない場合は、レンズの焦点距
離、歪み係数κ1、歪み係数κ2をすべて初期設定値に
戻した結果を、カメラパラメータテーブル103 に書き込
む。
【0058】4.(1305)全ての温度センサ110 につい
て、上記1から3までの処理を終了していれば、カメラ
パラメータテーブル103 更新処理を終了する。まだ未チ
ェックの温度センサ110 があれば、該温度センサ110 に
ついて、上記1から3までの処理を実行する。
【0059】図11は、図10の例の温度補正テーブル
111 を用いて書き換えられたカメラパラメータテーブル
103 の例である。図11の例では、カメラ1、カメラ2
のみが、ある時点に直射日光を受けるなどして40度以
上の温度となり、それ以外は0度から40度未満の温度
値を保っている場合を示している。図11のカメラパラ
メータテーブル103 から分かる通り、カメラ1およびカ
メラ2のカメラパラメータが、温度が40度以上の場合
の温度補正処理によって、 ・レンズの焦点距離は df1 増加 ・レンズ歪み係数κ1は κ12 増加 ・レンズ歪み係数κ22 κ22 増加 していることが分かる。なお、前述の仮想カメラに関し
ては、温度によって焦点距離やレンズ歪みが変化しない
理想的なレンズとすることが可能であるので、本補正処
理の対象外とする。
【0060】また本例では、設置されるカメラのレンズ
がすべて同じ温度補正特性を持つものと仮定した場合を
示しているが、実際には異なる特性を持つレンズが取付
けられている場合もある。そのような場合は、カメラご
とに独立してテーブルを持っておき、温度補正対象とな
るカメラに応じてテーブルを使い分ければ良い。
【0061】前記カメラのレンズの材料としては、ガラ
スの他にプラスチックを用いることも出来るが、プラス
チックは温度変化に対して変形が激しいのが通常であ
る。しかし、上述したような補正により対応することが
できる。
【0062】本実施の形態による空間再構成手段104
は、キャリブレーション手段102 によって計算されたカ
メラパラメータに基づいて、前記カメラからの入力画像
を構成する各々の画素を3次元空間の点に対応づけた空
間データを作成する。すなわち、空間再構成手段104 で
は、カメラから撮影された画像に含まれる各々の物体
が、3次元空間のどこに存在するかを計算し、その計算
結果としての空間データを空間データバッファ105 に格
納する。
【0063】なお、前記カメラからの入力画像を構成す
るそれぞれの画素のすべてを利用して空間データを構成
する必要はない。たとえば入力画像に水平線により上に
位置する領域が写っている場合は、その水平線より上の
領域に含まれる画素を路面にマッピングする必要はな
い。あるいは車体を写している画素をマッピングする必
要もない。また、入力画像が高解像度な場合などは、数
画素毎に飛ばして空間データにマッピングすることによ
り処理を高速化することも考えられる。
【0064】さて、カメラで撮影された画像を構成する
各々の画素の位置は、一般的にCCD画像面を含むU−
V平面上の座標として表される。従って、入力画像を構
成する各々の画素をワールド座標系の点に対応づけるた
めには、カメラで撮影された画像の存在するU−V平面
の点をワールド座標系内の点に対応づける計算式を求め
れば良い。
【0065】図8は、カメラで撮影された画像を含む平
面(以下、視平面)に設定したU−V座標系の点と、3次
元空間座標系の点との対応づけの関係の例を表した概念
図である。図8の例に従うと該対応づけは以下の手順で
行われる。
【0066】1.視平面が Z=f(カメラの焦点距離)
で、該平面上にあるカメラ画像の中心をZ軸が通るよう
な座標系を設定する。これを視平面座標系と呼ぶ(Oeを
原点とする)。
【0067】2.図8における点Peの視平面座標系で
の座標をPe(Xe,Ye,Ze)とし、その点が視平面に投影
されたときのの点(この点がカメラ撮影画像の一画素に
対応する)の座標をPv(u,v)とすると、PeとPvの関係
は、カメラの焦点距離fを用いて、式(1)式(2)のように
表すことが出来る。
【0068】
【式1】
【0069】
【式2】
【0070】前記2つの式により、視平面上に投影され
た画像の各々の画素について、視平面座標系における座
標を決めることができる。
【0071】3.視平面座標系とワールド座標系の位置
関係および向き関係を求める。ここでワールド座標系を
中心にして、視平面座標系が空間的に以下のような関係
にあるとする。
【0072】・視平面座標系原点Oeからワールド座標
系原点Owへのベクトルを(tx,ty,tz)とする。つまり
2つの座標系の位置的なずれは、(tx,ty,tz)だけ平
行移動することによって無くなる。
【0073】・視平面座標系とワールド座標系の向きの
関係は、図7の例における車両を中心とした座標系(ワ
ールド座標系に対応)と、車載カメラ(視平面座標系に対
応)と同じ関係になるようにすると、視平面座標系は、
「ワールド座標系Y−Z平面に対してなす角度がα」 「ワールド座標系X−Z平面に対してなす角度がβ」と
することができる。但し、ここではカメラのレンズの光
軸周りの回転はないものと仮定している。この場合、あ
る点をワールド座標系でPw(Xw,Yw,Zw)で表し、ま
た、視平面座標系Pe(Xe,Ye,Ze)で表すとすると、P
e(Xe,Ye,Ze)、Pw(Xw,Yw,Zw)、(tx,ty,tz)、
α、β の間には式(3)の関係が成り立つ。
【0074】
【式3】
【0075】以上で、視平面上での画素Pv(u,v)と、ワ
ールド座標系での座標Pw(Xw,Yw,Zw)を式(1)式(2)式
(3)によって対応づけることが出来た。
【0076】前記3つの式において未知の変数は、「t
x,ty,tz,α,β,f」の6つであるので、視平面上での
画素Pv(u,v)と、ワールド座標系での座標Pw(Xw,Yw,
Zw)の対応関係が既知の点の組が最低2組あれば、上記
の未知変数は求められる。
【0077】しかしながら、対応関係が既知である組の
それぞれの座標の計測には位置ずれを含むことが多く、
計算結果には誤差が生じる場合がほとんどである。
【0078】そこで通常は、多数の組を計測して作った
連立方程式を最小二乗法で解くなどの方法が用いられ
る。なお、カメラの位置と向きが視平面座標系と一致す
るので、すでにカメラパラメータが求まっていれば本処
理3.を実行する必要はない。
【0079】4.tx,ty,tz,α,β,f の値が求まって
いる式(1)式(2)式(3)を用いて、ワールド座標系のそれ
ぞれの点Pw(Xw,Yw,Zw)を、視平面の点Pv(u,v)と対
応づける。
【0080】上記1〜4までの処理を、全てのカメラに
ついて実施すれば、独立した全てのカメラからの画像
を、同じ一つの3次元空間内の点として対応づけること
が可能となる。
【0081】本実施の形態による空間データは、かかる
計算式によって対応づけされたデータで、図12は、該
空間データを格納する本実施の形態による空間データバ
ッファ105 の記述例を表の形式で示したものである。空
間データバッファ105 には、カメラ画像の点と空間内の
点との対応づけデータが格納される。図12の例では1
行目を除く各行に一つの空間データが記述されており、
それぞれの空間データを構成する情報としての各列に以
下の内容を含んでいる。
【0082】1列目:ワールド座標系で他の点と区別す
るための番号(ここでは説明の便宜上Aとした) 2列目:ワールド座標系での点のX座標 3列目:ワールド座標系での点のY座標 4列目:ワールド座標系での点のZ座標 5列目:前記点を含む画像が、どのカメラから撮影した
ものかを区別するフラグ 6列目:前記画像を含む視平面座標系での点のU座標 7列目:前記画像を含む視平面座標系での点のV座標 8列目:前記画像を含む視平面座標系での点の色のR成
分(例えば0〜255階調で量子化) 9列目:前記画像を含む視平面座標系での点の色のG成
分(例えば0〜255階調で量子化) 10列目:前記画像を含む視平面座標系での点の色のB
成分(例えば0〜255階調で量子化) 11列目:該空間データが取得された時刻 以下で空間データの記述内容を例を用いて説明するが、
ここで図13〜図15を説明の補助として用いる。
【0083】図13〜図15は、ワールド座標系内の平
面としての路面上の特徴点と、車両に設置したカメラで
撮影した画像上での特徴点との対応関係を示す図で、図
13は、路面上の特徴点A、B、C、D、Eと車両との
位置関係を上部からみた概念図、図14は、図15の車
載カメラ1で前記特徴点A、B、Cを含む路面を撮影し
た画像を表す概念図、図15は、図13の車載カメラ2
で前記特徴点C、D、Eを含む路面を撮影した画像を表
す概念図である。そして、図12の例の空間データバッ
ファ105 には、図13〜図15に記された5つの特徴点
A、B、C、D、Eが空間データの例として記述されて
いる。
【0084】まず、図13、図14における特徴点Aに
着目する。前述の空間再構成手段104 による対応づけ処
理によって、図13のワールド座標系上の点Aと図14
の視平面座標系上の点Aが対応づけられているものとす
ると、図12の表の3行目が図13、図14における特
徴点Aに相当する空間データの例である。
【0085】すなわちワールド座標系上の点Aは、座標
(X3,0,Z2)であり、それをカメラ1から撮影したとき
には、撮像画像上での点Aの座標は(U1,V1)で色はR
GB順に(80,80,80)であり、本データが作成され
た時刻は t1 である、という意味である。
【0086】もし、ワールド座標系の点が、複数台のカ
メラから観測されたときは、それぞれを独立した空間デ
ータとして空間データバッファ105 に格納する。例え
ば、図13〜図15における点Cがその例に相当する。
点Cは、図14、図15からも明らかなように、図13
における2台のカメラ、すなわち、カメラ1およびカメ
ラ2から観測されている。
【0087】そして、カメラ1での観測結果をもとに作
成された空間データ、すなわち図12の7行目の空間デ
ータは、ワールド座標系上の点Cは、座標(0,0,Z2)
を持ち、点Cをカメラ1から撮影したときには、撮像画
像上での点Cの座標は(U3,V3)で色はRGB順に(14
0,140,140)で、本データが作成された時刻は t1
である。
【0088】一方、カメラ2での観測結果をもとに作成
された空間データ、すなわち図12の8行目の空間デー
タは、ワールド座標系上の点Cは、座標(0,0,Z2)を
持ち、点Cをカメラ2から撮影したときには、撮像画像
上での点Cの座標は(U4,V4)で色はRGB順に(15
0,150,150)で、本データが作成された時刻は t1
である。
【0089】かくのごとく、各カメラで撮影された画像
の各々の画素がワールド座標系の点に対応づけ情報が、
空間データという形式で空間データバッファ105 に格納
される。
【0090】本実施の形態による視点変換手段106 は、
空間再構成手段104 によって作成された空間データを参
照して、任意の視点にカメラを設置して撮影した画像を
作成する。その方法の概要は、空間再構成手段104 で行
った処理の逆の処理を行うことである。すなわち、空間
再構成手段104 によって形成されたワールド座標系の点
Pw(Xw,Yw,Zw)を、任意の視点にカメラを設置して撮
影した画像面Pv(u,v)に投影する変換を求めることに相
当する。
【0091】従って、この変換を計算する式は、先に詳
述した式(1)式(2)および式(3)の逆変換に相当する式(4)
で表すことが可能である。
【0092】
【式4】
【0093】すなわちPw(Xw,Yw,Zw)を入力し前記3
つの式によってPv(u,v)を計算する。この計算では、カ
メラのカメラパラメータ「tx,ty,tz,α,β,f」は任
意の所望の値を指定できる。つまりそれは所望の視点に
所望の角度でカメラを置くことができることを意味す
る。この際、前記任意視点にカメラを置いて見たときの
画像を投影する画面上で、個々の画素の色をどのように
表現するかが問題となる。
【0094】しかしながら、本実施の形態では、3つの
場合の色の表現方法を開示している。該方法の内容を、
3つの場合に応じて以下に説明する。
【0095】(1) 前記視点から見た3次元空間内のある
点Pが、ただ一つのカメラで撮影した画像と対応づけら
れている場合:この場合は、設定した視点から点Pを見
たときの色は、前記カメラで点Pを見たときの色を用い
て決める。最も単純な方法は同じ色で置き換える方法で
あるが、点Pを観測しているカメラと設定した視点位置
・方向との関係から計算によって求めてもよい。
【0096】(2) 前記視点から見た3次元空間内のある
点Pが、複数台のカメラで撮影した画像と対応づけられ
ている場合:この場合は、設定した視点から点Pを見た
ときの色は、前記複数台のカメラで点Pを見たときの色
を用いて何らかの計算をし、得られた結果としての色で
決めるものとする。前記計算の方法としてはいくつか考
えられるが、例えば、 ・全ての色を同じ割合で混合する ・最も明度の高いもしくは低いもしくは中間の色を取得
する ・最も再度の高いもしくは低いもしくは中間の色を取得
する などの方法がある。
【0097】(3) 前記視点から見た3次元空間内のある
点Pが、いずれのカメラで撮影した画像とも対応づけら
れていない場合:この場合は、設定した視点から点Pを
見たときの色は、点Pの周囲の点の色を用いて補間した
色を計算で求めるか、もしくは、物体が存在しない部分
であると識別可能な色、例えば黒に置き換えるなどすれ
ばよい。
【0098】本実施の形態では、該視点変換手段106 に
よって、車両に設置されていない仮想のカメラからの画
像を自由に再現できることにある。
【0099】例えば図16〜図19は、ワールド座標系
内の路面上の特徴点を車両に設置したカメラで撮影した
画像を用いて、適当な視点に仮想カメラを置いたときの
画像を合成した例を示した概念図で、図16は、路面上
の特徴点A、B、Cと車両との位置関係を上部からみた
概念図、図17は、図16の車載カメラ1で前記特徴点
A、Bを含む路面を撮影した画像を表す概念図、図18
は、図16の車載カメラ2で前記特徴点B、Cを含む路
面を撮影した画像を表す概念図、図19は、図16の車
載カメラ1および車載カメラ2で撮影した画像を用い、
本実施の形態による視点変換手段106 によって仮想カメ
ラから見た画像を合成した様子を表す概念図である。
【0100】また図20は、前記仮想カメラの設置場所
の例として、車両のほぼ中心の上方にカメラを下向きに
設置した場合を示した概念図である。この例のごとく仮
想カメラを設置した場合、仮想カメラで撮影された画像
は車両の周囲の様子を表すものとなる。あくまで、前記
合成画像を構成する画像は、車載カメラによって撮影さ
れたものであるので、図7に示されたような配置の車載
カメラ周囲を撮影した場合、どのカメラ画像にも車体の
屋根が含まれていない。
【0101】しかしながら、前記車体の屋根のように、
存在場所や形状、色に関する情報の分かっている物体に
ついては、予めそれらの情報をシステムに蓄積してお
き、それらの情報を必要に応じて用いれば、より違和感
の少ない画像を合成することが可能となる。
【0102】なお、図21(a)は仮想カメラを車の前
方斜め上方に配置し、そこから車を見る例を示す斜視図
である。このように、仮想カメラは真上に限らず、斜め
から車を見るようにすることもできる。図21(b)は
その図21(a)を利用して作成した画像の合成図であ
る。斜め上方から見た感じが現れている。
【0103】本実施の形態による空間データ変換手段11
4 は、画像生成装置を車両に適用する場合に必要となる
手段である。
【0104】一般的に車載カメラは、より良い視野を得
るために通常車体上部に設置されていることが多い。と
ころが車体の形状が、例えば車体外部に向って凸面なカ
ーブを形成しているような場合では、このような車体上
部に位置するカメラで撮影した画像は、車体のすぐ周囲
の路面部分は死角になる場合がほとんどである。
【0105】この問題を解決する単純な方法は、車体下
部にもカメラを設置することであるが、カメラを追加す
ることによって余分なコストが必要となる。本実施の形
態による前記空間データ変換手段114 は車体下部などに
カメラを追加せずに前記問題を解決する。もっともその
解決には、車が移動することが前提である。
【0106】図24は、空間データ変換手段114 におけ
る処理の手順をフローチャートの形式で示したもの、図
25は、空間データ変換手段114 の説明の補助に用いる
概念図である。図25は、ある一定時間の間に車両が移
動したとき、前記一定時間の開始時刻(以下t1)と終了時
刻(以下t2)における車両の位置、および向きの関係を示
している。図24および図25を用いてカメラから死角
となる部分の画像を合成する手順を説明する。
【0107】1.(1401) ある一定時間における車両の
移動距離を検出する。本例では移動距離は、時刻t1 と
時刻t2 のそれぞれの時刻における車両位置の間の直線
距離で定義する。すなわち図25におけるO1とO2の距
離ということになる。
【0108】説明の都合上、図25に記載のように、移
動距離をO1からO2へのベクトルを(t'x,0, t'z)で表
す。移動距離の検出方法としては、例えばタイヤの回転
数などによって計測する方法が用いられる。
【0109】2.(1402) 前記一定時間における車両の
移動方向を検出する。本例では移動方向を、時刻t1にお
ける車両の向きに対して時刻t2における車両の向きがど
れだけ変化したかの変化量として定義する。説明の都合
上、図25に記載のように、向きの変化量をZ1軸とZ2
軸とのなす角度Θで表す。移動方向の検出方法として
は、例えばハンドルの回転角度などによって計測する方
法が用いられる。
【0110】3.(1403) 時刻t1から時刻t2に至る間の
車両の移動距離および移動方向を用いて、t1において
取得した空間データをt2における空間データに変換す
る式(5)を作成する。但し式(5)では時刻t1 から時刻t
2に至る間の車両移動においては、完全に垂直成分の変
化がないもの、つまり路面が平坦であることを仮定して
いる。
【0111】
【式5】
【0112】式(5)において、x1, y1, z1 は、時刻t1
において車体を中心にしたX1-Y1-Z1ワールド座標系
(原点O1)におけるある点の座標で、x2, y2, z2 は、前
記点の時刻t2において車体を中心にしたX2-Y2-Z2ワ
ールド座標系(原点O2)における座標を表す。つまり x
1, y1, z1 を式(5)の右辺に代入して計算した結果が x
2, y2, z2 となる。
【0113】4.(1404)式(5)を用いて、時刻t1におい
て合成した空間データを、時刻t2における空間データに
変換する。作成した後の空間データについては、どのカ
メラから見たかについての情報は必要ないので、図12
の表において、5から7列目のデータは空白にしておい
てよい。すなわち、時刻t1 における空間データのう
ち、上記計算で書き換えられるのは図12の表において
1から4列目のみで、8から11列目のデータはそのま
ま利用する。
【0114】ここで問題となるのは、かくのごとく現在
時間の空間データに過去の空間データを加えていくと、
限りある空間データバッファ105 のオーバーフローがい
つかは生じることである。この問題に対して本実施の形
態による空間データバッファ105 では、各空間データは
該データの作成時刻の情報を持っているので、現在時刻
から溯って一定時間以上過去のデータは消去するように
すれば良い。
【0115】本実施の形態による特徴点生成手段109
は、カメラの視野内に3次元座標の同定が可能な複数個
の点を生成する。そして、本実施の形態による特徴点抽
出手段108は、前記 生成された特徴点を抽出する。図2
2は、特徴点生成手段109 、特徴点および特徴点抽出手
段108の実施の形態を示す概念図である。
【0116】図22(a)は、特徴点生成手段109 として
のパターン光照射装置を車体側面上部に取付けた実施の
形態で、本例では、ワールド座標系内の平面としての車
両の周囲の路面に、長方形のパターンを格子状に照射す
る場合を示している。
【0117】図22(b)は、該パターン光照射装置を車
体上部に数箇所取り付けて、路面にパターン光を照射し
た状態を車両上部から見た例である。
【0118】図22(c)はかくのごとく方法で路面に照
射された長方形のパターン光をカメラから撮影した様子
を示した例である。特徴点は、パターン光照射で作成さ
れた長方形の角や中心などの特徴を表すいくつかの点を
用いれば良い。
【0119】図22(c)では、PI-1 から PI-8 が特徴点
の例である。前記特徴点はワールド座標系における座標
が既知であると設定することが可能である。またこれら
の特徴点は、視平面座標系での座標位置も既知で、ワー
ルド座標系と視平面座標系での対応関係が取れている。
従って前述の式(1)式(2)および式(3)を用いれば、本実
施の形態によるキャリブレーション手段102 によってカ
メラパラメータ tx,ty,tz,α,β,f を計算すること
が可能となる。
【0120】本実施の形態による補正指示手段は、画像
生成装置を車両に適用する場合に必要となる手段で、該
補正指示手段では、カメラのキャリブレーションが必要
な状況を検知し、キャリブレーションが必要である場合
に、運転者にカメラキャリブレーションを指示する。ま
た本実施の形態による補正履歴記録手段115 では、キャ
リブレーションが必要な状況を検知するために必要なデ
ータとして、カメラキャリブレーションを行った日時お
よび走行距離を記録する。
【0121】図26は、補正履歴の記録を確認し、必要
に応じて補正指示を出す処理の手順をフローチャートの
形式で示したものである。
【0122】1.(1601)前回カメラのキャリブレーショ
ンを行った日時から、現在までの経過時間までを計算す
る。
【0123】2.(1602)あらかじめ設定しておいた所定
の時間に対して、前記経過時間の方が大きければ、(160
5)カメラ補正指示手段116 にてカメラキャリブレーショ
ンを実施するように運転者に指示し、処理を終了する。
但し、前記指示によって運転者がカメラキャリブレーシ
ョンを実施したら、補正履歴の記録を更新しておく。前
記所定の時間に対して、前記経過時間の方が小さけれ
ば、次の処理3に進む。
【0124】3.(1603)前回カメラのキャリブレーショ
ンを行った時から現在までの総走行距離を計算する。
【0125】4.(1604)あらかじめ設定しておいた所定
の距離に対して、前記走行距離の方が大きければ、(160
5)カメラ補正指示手段116 にてカメラキャリブレーショ
ンを実施するように運転者に指示し、処理を終了する。
但し、前記指示によって運転者がカメラキャリブレーシ
ョンを実施したら、補正履歴の記録を更新しておく。前
記所定の距離に対して、前記走行距離の方が小さけれ
ば、カメラキャリブレーションに関する指示は、運転者
に出さず、処理を終了する。
【0126】以上、本実施の形態による画像生成装置を
構成するそれぞれの手段の実施の形態を説明した。次
に、本実施の形態による画像生成装置の全体の処理の流
れについて説明する。
【0127】図27は、本画像生成装置を車両に適用し
た場合の全体の処理の流れをフローチャートの形式で示
したものである。なお画像生成装置の構成例としては図
6の構成を想定する。
【0128】1.(1701) 本装置を正常に動作させるた
めに、必要であれば最初にカメラキャリブレーションを
実施し、補正履歴の記録を更新しておく。カメラキャリ
ブレーションでは、カメラーパラメータを人手で入力す
るか、または本実施の形態による特徴点生成手段109 で
特徴点を車体周囲に生成し、前記特徴点を特徴点抽出手
段108 にて抽出した結果を用いてキャリブレーション手
段102 にてカメラパラメータを計算しても良い。
【0129】2.(1702) 各カメラ毎に温度センサ110
の温度値を逐次観測し、必要に応じてカメラパラメータ
テーブル103 の内容を更新する。
【0130】3.(1703) 補正履歴の記録を確認し、必
要に応じて補正指示を出す。もし補正が行われたら、補
正履歴の記録を更新する。
【0131】4.(1704) すでに空間データが空間デー
タバッファ105 に蓄積されていれば、空間データ変換手
段114 にて、車両の移動距離、移動方向に応じて前記空
間データを変換する。空間データバッファ105 が空白で
あれば、本処理は省略する。
【0132】5.(1705) 車載カメラで車両周囲の画像
を撮影する。
【0133】6.(1706) 空間再構成手段104 によって
5.で撮影された画像を構成する各々の画素をワールド
座標系の点に対応づけた空間データを作成する。3の空
間データ変換手段114 で変換された空間データで、ワー
ルド座標系での座標が一致する空間データがすでに存在
している場合は、前記変換された空間データは破棄す
る。つまりワールド座標系におけるある点の空間データ
は、カメラから一番最近に撮影されたデータのみを保持
し、それより過去のデータ、もしくは時間がある程度経
過したデータは消去するようにする。
【0134】7.(1707) 6.の空間再構成手段104 に
よって作成された空間データを参照して、所望の視点に
カメラを設置して撮影した画像を作成する。この場合、
視点位置は、合成画像が運転補助に適したものである場
所に固定していることが望ましく、例えば図20〜21
の例のように車体上方で車両周囲が見渡せるカメラ位置
などが良い。
【0135】8.(1708) 7.の処理で合成された画像
を表示する。
【0136】9.(1709) 上記2.〜8.の処理を必要
がなくなるまで繰り返す。例えば運転者が車両を駐車ス
ペースに入れようとしている時は、前記2.〜8.の処
理を繰り返し、駐車が完了すれば本処理を終了すればよ
い。
【0137】さて、車の周囲の障害物などの物体のワー
ルド座標系の3次元位置が、正確に計測できれば、その
物体に合わせて空間モデルを生成すればよいが、現実的
には通常は、無理である。
【0138】つまり、画像生成装置などのように簡易性
を要求されるシステムでは、すべての物体の3次元位置
・形状を正確に求めることは困難であり、また、運転の
補助としての画像を合成するという観点では、任意の仮
想視点における画像を正確無比に再現しなければならな
いというわけではなく、運転者に分かり易い画像であれ
ば、多少クオリティが落ちても大きな問題にはなりにく
い。
【0139】そこで本実施の形態では、物体の3次元情
報は失われるものの、高速に画像を合成でき、かつ合成
した画像のクオリティをある程度保つことが可能な、入
力画像を構成する各々の画素と3次元空間の点の対応づ
け方法を開示する。
【0140】該方法は、キャリブレーション手段102 に
よって取り付け位置、取り付け角度が既に知られている
カメラから得られた画像を、3次元空間の一部をなす平
面の例として路面に投影するものである。すなわち、画
像に含まれる各々の物体は、すべて3次元空間座標系
(以下ワールド座標系と呼ぶこともある)のX−Z平面に
貼り付いており、Y軸方向成分を持つ物体が存在しない
と仮定し、視平面上の画像をワールド座標系の路面に投
影する。
【0141】この場合、本装置のこれまでの実施の形態
の説明内容に対して変更する部分は、空間再構成手段10
4 で用いる式(3)を式(6)に置き換え、また、視点変換
手段106 で用いる式(4)を式(7)に置き換えるだけでよ
い。
【0142】
【式6】
【0143】
【式7】
【0144】また、本実施の形態ではカメラを車両に取
り付け、車両周囲を監視する装置について説明をした
が、限られた台数のカメラからの画像を用いて任意の視
点からの画像を合成するという本技術は、車載カメラに
限定するものではない。
【0145】例えば、店舗などにおいて多数の監視カメ
ラを設置しておき、それらのカメラ画像を用いて、真上
から見た画像を合成することなども可能であり、幅広い
用途が期待できる。
【0146】なお、上述したキャリブレーション手段を
遠隔地にある管理センターにおいておき、通信手段によっ
て、それを利用する方法も可能である。
【0147】本実施の形態はそのような遠隔地にその機
能の一部を実現しておくことももちろん可能である。
【0148】あるいはさらに、キャリブレーションを行
った結果のデータをフロッピー(登録商標)、DVD等
を利用して運んで利用することも、本発明の実施の形態
である。
【0149】また、マッピングされた空間データを格納
するバッファなどは、そのまま空間データを処理する場
合は特に必要ない。
【0150】なお、通常は、仮想視点は管理者や運転者
などの人手によって指定するのではなく、監視や運転の
補助として役立つ画像が得られる視点位置のうちの一つ
を選び、そこからの画像を表示させるようしておく。そ
れによって仮想視点位置の移動操作をしなくてもよいた
め、利用者の作業負担のさらなる軽減が期待できる。
【0151】以上のように本実施の形態によれば、限ら
れた台数のカメラからの画像を用いて任意の視点からの
画像が合成できる。
【0152】本実施の形態では、各々のカメラについ
て、その特性を示すカメラパラメータを容易に得ること
が可能となる。もし、例えば激しい悪路を走行したこと
によってカメラの位置などが若干ずれた場合でも、本発
明により、カメラの位置の補正は容易に可能となる。
【0153】本実施の形態では、温度センサ、温度補正
テーブルを設置することにより、気温上昇・下降にとも
なって微妙に変化するレンズ歪みを補正し、レンズを常
に最適に保つことが可能となる。例えば、温度上昇によ
って微妙に膨張したレンズに対しては、その膨張によっ
て変わるレンズ歪み係数を最適に制御する補正値を温度
補正テーブルから得て、それに基づいてレンズ歪みパラ
メータを変更すればよい。かかる方法によって、本発明
ではどのような気温でも歪みのない画像を得ることが可
能となる。
【0154】本実施の形態では、カメラから死角となる
部分の画像を見る方法を提供する。例えば、カメラが車
体の上部に取付けてあり、前記カメラの取り付け位置下
方の車体の形状が車体外部に向って凸面である場合、カ
メラ直下の画像を見ることは物理的に不可能である。し
かし、本発明では、車両の移動方向および移動距離によ
って、以前に取得した画像を現在の位置から見た画像に
変換することが可能である。
【0155】本実施の形態では、カメラの特性を示すカ
メラパラメータの補正、すなわちカメラキャリブレーシ
ョンを実施しなければならない状況を検知し、その旨を
運転者に提示することが可能である。これにより運転者
がカメラパラメータの補正を長期間し忘れることを防ぐ
効果が得られる。
【0156】次に、別の実施の形態を説明する。 図2
8,図29は、本実施の形態の一例を示す。
【0157】図28(a)に示すように、本実施の形態
は、基本構成の一例として、車両周囲の状況を把握する
ために取付けられた複数台のカメラ101A、前記カメラの
特性を示すカメラパラメータを格納しておくカメラパラ
メータテーブル102A 、車両を基準とした座標系に空間
モデルを作成する空間モデル作成手段 103A、前記カメ
ラより入力された画像を前記空間モデルにマッピングす
るマッピング手段104A、視点を設定し、前記視点から見
た一枚の画像を、前記マッピング手段104Aにて作成され
たデータから合成する視点変換手段105A、前記視点変換
手段105Aにて変換された画像を表示する表示手段106Aか
らなる構成を有する。
【0158】図28(b)は本実施の形態の構成例を示し
たブロック図である。図28(b)の例では、図28(a)に
示した画像生成装置に対して、さらに、車両周囲の状況
として、少なくとも車両周囲に存在する障害物までの距
離を計測する障害物検知手段108A を付加した構成とな
っている。
【0159】次に、本実施の形態を構成する各構成要素
についての詳細を説明する。
【0160】カメラは、車両の周囲の状況など、監視す
べき空間の画像を撮り込むテレビカメラである。その詳
細は、上記図7で詳しく説明した。
【0161】本実施の形態によるカメラパラメータテー
ブル102Aは、カメラパラメータを格納するテーブルであ
る(上述したカメラパラメータテーブル103と同様であ
る)。
【0162】カメラパラメータテーブル102Aに格納され
ているデータは上述した図9と同じである。
【0163】本実施の形態では、視点変換手段105Aで設
定した所望の視点に仮想のカメラを設置したと仮定し、
その仮想カメラからの画像を計算によって求めることが
可能である。該計算方法については後で詳述する。
【0164】また、前記レンズ歪み係数を用いてカメラ
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
【0165】そこで、レンズ歪みは、画像合成時に問題
が生じるほどの変化は起こらないと仮定し、歪み補正前
の画像と、歪み補正後の画像で、それぞれの画素の座標
値の対応関係を予め計算しておく。そして前記計算結果
をテーブルやマトリクスなどのデータ形式でメモリ内に
保持し、それを用いて歪み補正を行うなどの方法が、高
速な補正処理として有効である。
【0166】本実施の形態による空間モデル作成手段 1
03Aは、たとえば、車両を基準とした座標系に空間モデ
ルを作成する。空間モデルとは、後述するマッピング手
段104Aにおいて、カメラからの画像を3次元空間座標系
にマッピングする平面もしくは曲面もしくは平面および
曲面からなるモデルである。図29(a)〜(c)は、本実施
の形態による空間モデルを鳥瞰図的に示した概念図で、
それぞれ、図29(a)および図29(d)は平面のみで構成
された空間モデルの例、図29(b)は曲面のみで構成さ
れた空間モデルの例、図29(c)は平面および曲面で構
成された空間モデルの例、を表している。
【0167】図29(a)の空間モデルでは以下に説明す
るように5つの平面からなる空間モデルを示している。 平面1:路面(すなわち車両のタイヤに接している)と
しての平面 平面2:車両の前方に立てられた路面(平面1)に垂直
な平面 平面3:車両の進行方向に向って左側方に立てられた路
面(平面1)に垂直な平面 平面4:車両の後方に立てられた路面(平面1)に垂直
な平面 平面5:車両の進行方向に向って右側方に立てられた路
面(平面1)に垂直な平面 本空間モデルにおいては、平面2〜5は隙間なく立てら
れ、車載カメラから撮影された画像は、該平面1〜平面
5のいずれかにマッピングされる。また平面2〜5につ
いては車両からどの程度の距離が必要か、またどの程度
の高さが必要かは、車載カメラの画角や設置場所に応じ
て決めれば良い。
【0168】図29(b)のモデルでは、お椀型をした曲
面を空間モデルに用いている。
【0169】車両は、お椀型に形成された空間モデルに
おいてお椀の底に当たる部分に設置され、車載カメラか
ら撮影された画像は、お椀の内側の面にマッピングされ
る。お椀型のモデルとしては、球や、放物線の回転体、
懸垂線の回転体などが考えることが、いずれにしろ空間
モデルを少数の数式で表すことが出来れば、マッピング
の計算は高速で行うことが可能となる。
【0170】図29(c)のモデルでは、以下で説明する
平面と曲面を組み合わせて構成された空間モデルを示し
ている。
【0171】平面:路面(すなわち車両のタイヤに接し
ている)としての平面 曲面:車両を取り囲むように前記平面上に置かれた円柱
状又は楕円柱状の壁 本空間モデルにおいて、曲面をどういう形状にするか、
また車両からどの程度の距離をおいて設置するかは、車
載カメラの画角や設置場所に応じて決めれば良い。
【0172】かくの例のごとく、車両の周囲に、車両を
囲い込むごとく壁を立てた空間モデルは、次に示す効果
が得られる。すなわち、画像中の物体がすべて道路面上
にあるものと仮定して、カメラ画像を路面上にマッピン
グすると、路面から上方に高さ成分を持つ物体に関して
は、大きくゆがんでしまうという問題があった。これに
対し、本実施の形態によって導入された空間モデルで
は、まず路面に垂直もしくはほぼ垂直な平面もしくは曲
面によって車両を囲い込む。これらの面を車両から離れ
過ぎないように設定すれば、高さ成分を持つ物体がこれ
らの面にマッピングされるため、歪みを小さくすること
が可能となる。しかもマッピングした際の歪みが小さい
ため、2台のカメラ画像の接合部でのずれも少なくなる
ことが期待できる。
【0173】本実施の形態によるマッピング手段 104A
は、カメラパラメータに基づいて、車載カメラからの入
力画像を構成する各々の画素を、本実施の形態による空
間モデル作成手段103によって作成された空間モデルに
マッピングする。すなわち、車載カメラから撮影された
各々の画像を空間モデルに透視投影する。
【0174】図30は、画像を含む平面(以下、視平面
という)に設定したU−V座標系の点の座標を、ワール
ド座標系の点の座標に変換することにより、車載カメラ
画像を空間モデルを構成する面にマッピングする説明の
補助として使用する図である。
【0175】マッピングの説明をする前に、まず視平面
座標をワールド座標へ変換する方法について説明する。
該変換は下記の手順で行われる。
【0176】1.視平面が Z=f(カメラの焦点距離)
で、該平面上にあるカメラ画像の中心をZ軸が通るよう
な座標系を設定する。
【0177】これを視平面座標系と呼ぶ(Oeを原点とす
る)。
【0178】2.図30における点Pv(u,v)(この点が
カメラ撮影画像の一画素に対応する)の視平面座標系で
の座標をPe(Xe,Ye,Ze)とすると、PeとPvの関係
は、カメラの焦点距離fを用いて、式(1)式(2)のように
表すことが出来る(但し、この場合はZe=fとな
る)。
【0179】前記2つの式により、視平面上に投影され
た画像の各々の画素について、視平面座標系における座
標を決めることができる。
【0180】3.視平面座標系とワールド座標系とを対
応づける計算式を求める。ここでワールド座標系を中心
にして、視平面座標系が空間的に以下のような関係にあ
るとする。
【0181】・視平面座標系原点Oeからワールド座標
系原点Owへのベクトルを(tx,ty,tz)とする。つまり
2つの座標系の位置的なずれは、(tx,ty,tz)だけ平
行移動することによって無くなる。
【0182】なお、ワールド座標系におけるカメラ位置
が既知であれば、該位置の座標の符号を反転すれば(t
x,ty,tz)は容易に求まる。
【0183】・視平面座標系のそれぞれの軸の向きをワ
ールド座標系にぴったり合わせるための回転行列を
【0184】
【式0】
【0185】とする。該回転行列は、カメラパラメータ
テーブル102Aのうち、向きを表すパラメータによって、
X,Y,Zの各軸まわりの回転行列を求め、それらを合
成することによって容易に求めることが可能である。
【0186】さて、ある点をワールド座標系でPw(Xw,
Yw,Zw)で表し、また、視平面座標系Pe(Xe,Ye,Ze)
で表すとすると、Pe(Xe,Ye,Ze)、Pw(Xw,Yw,Z
w)、(tx,ty,tz)、前記回転行列の間には式(8)の関係
が成り立つ。これら式(1)式(2)式(8)を用いることによ
り、視平面上での画素Pv(u,v)を、ワールド座標系での
座標Pw(Xw,Yw,Zw)に変換することが出来る。
【0187】
【式1】
【0188】
【式2】
【0189】
【式8】
【0190】
【式9】
【0191】さて、車載カメラで撮影された画像を構成
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表される。入力画像を構成する各々の画素
を前記空間モデルにマッピングするためには、入力画像
の全ての画素について、以下の手順で処理を行えばよ
い。図31は該マッピングの手順をフローチャートの形
式で示したもので、以下、図31に従ってマッピングの
処理内容を説明する。
【0192】1.カメラ画像の映っている視平面に設定
したU−V座標系の座標として表される前記画素を、ワ
ールド座標系における座標に変換する。変換には、例え
ば直前に示した式(1)式(2)式(8)を用いれば良い。
【0193】2.カメラ視点の座標Oeを端点とし、前
記画素Pw(=Pe)の座標を通る半直線と前記空間モデ
ルを形成する面との交点Ps(Xs,Ys,Zs)を求める。
【0194】3.該交点Psに、前記画素の色をマッピ
ングする。すでに他のカメラ画像からの色が点Psにマ
ッピングされている場合、点Psの色を決める方法とし
ては例えば以下のような方法を用いれば良い。
【0195】・すでにマッピングされている色とマッピ
ングしようとする色を同じ割合で混合する。
【0196】・すでにマッピングされている色とマッピ
ングしようとする色のうち、明度の高いもしくは低いも
しくは中間の色を用いる。 ・すでにマッピングされている色とマッピングしようと
する色のうち、彩度の高いもしくは低いもしくは中間の
色を用いる。上記1〜3までの処理を、全てのカメラに
ついて実施すれば、独立した全てのカメラからの画像
を、同じ一つの3次元空間内の空間モデル上にマッピン
グすることができる。本実施の形態による視点変換手段
105 は、車載カメラの画像がマッピング手段104 によ
って空間モデルにマッピングされた結果を、任意の視点
に設置したカメラから撮影した画像として合成する。そ
の方法の概要は、マッピング手段 104で行った処理の逆
の処理を行うことである。
【0197】すなわち、マッピングされた画像を構成す
る点Ps(Xs,Ys,Zs)を、任意の視点にカメラを設置し
て撮影した画像面Pv(u,v)に投影する変換を求めること
に相当する。
【0198】従って、この変換を計算する式は、先に詳
述した式(1)式(2)および式(9)(式(8)の逆変換に相当す
る)で表すことが可能である。
【0199】すなわち、Ps(Xs,Ys,Zs)を入力し前記
3つの式によってPv(u,v)を計算する。この計算では、
カメラのカメラパラメータは任意の所望の値を指定でき
る。つまりそれは所望の視点に所望の角度でカメラを置
くことができることを意味する。
【0200】ところで、視点変換手段105Aにおい
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デルの点に、色がマッピングされていない場合も考えら
れる。その場合は、物体が存在しない部分であると識別
可能な色、例えば黒に置き換えるなどすればよい。
【0201】さて、図29(a)〜(c)の例では、車両を面
で完全に囲い込む空間モデルを示したが、実際には車両
の全周囲を障害物が取り囲む場合は少なく、自車の周囲
に多くて数台の車両が存在する程度が普通である。係る
状況を鑑みると、自車の周囲を完全に囲い込む空間モデ
ルを導入する代わりに、必要に応じて、すなわち、自車
の周囲に障害物が存在している状態が分かれば、その場
合にのみ前記障害物の前に、それをマッピングするつい
たてのような面を作成すればよい。
【0202】図29(d)は、該ついたて面を導入した空
間モデルの一例を鳥瞰図的に示した概念図で、図29
(d)の空間モデルでは、路面平面と、路面上に車両の左
後方及び右後方にそれぞれ一つづつ、ついたてとしての
平面を立てた空間モデルを示した概念図である。該つい
たて面は、車両に対して予め決められた場所に立ててお
くことももちろん可能であるが、前述のごとく、車両の
周囲に面から上方に高さ成分を持つ障害物が発見された
場合にのみ、ついたて面を立てるようにしても良い。そ
の際に、どの位置にどの向きについたて面を立てるかを
決める必要があるが、その一例として障害物の検知結果
に従ってついたて面を設置する方法を次に示す。
【0203】係るついたて面設置の処理を実行するため
に、本実施の形態による障害物検知手段 108 は、車両
周囲の状況として、少なくとも車両周囲に存在する障害
物までの距離を距離センサ 107Aを用いて計測する。
【0204】距離センサ 107Aとしては様々なものがあ
るが、車載用としては、レーザー光、超音波、ステレオ
光学系、カメラのフォーカス(目標物体にフォーカスを
合わせた時の焦点距離から、カメラと前記物体までの距
離を計算する)などを使用することが可能である。該距
離センサ107A、レーザー光、超音波などを用いる場合で
は、車両の周囲に多数取付けるのが望ましい。一方、ス
テレオ光学系やカメラのフォーカスを用いる場合は、車
載カメラに併設してもよいが、車載カメラの一部をその
まま利用するとコストを安価にすることが可能となる。
【0205】次に該障害物検知手段 108Aの処理結果に
基づいて、ついたて面を含む空間モデルを作成する方法
の一例を示す。図32は障害物センサを用いて車両と該
車両の周囲に存在する障害物との距離に基づいて、3次
元空間内についたて面を立てる方法を示す概念図であ
る。本例では、車載の各々のカメラに該障害物検知セン
サが併設されており、該障害物センサはカメラの視線と
同じ方向を向き、該方向に存在する障害物との距離を計
測するものとする。また図32において使用しているパ
ラメータは以下の通りである。
【0206】(px0,py0,pz0):距離センサ 107 1の路面
平面上での座標 (dx,dy,dz) :距離センサ 107 1のセンシングの向きを
示す方向ベクトル dc :距離センサ 107 1と障害物との路面平面上での距
離 (px1,py1,pz1):(px0,py0,pz0)から(dx,dy,dz)の方向に
距離dcだけ移動した点以下、図32に従って空間モデル
を作成する手順を説明する。
【0207】1.障害物との距離dcを計測し、その距離
が予め設定されている所定の距離より近いかどうかを調
べる。前記所定の距離より離れていれば何もしない。
【0208】2.もし所定の距離内であれば、以下の手
順でついたて平面を求める。
【0209】2-1.予め分かっている距離センサ107A
の座標値から(px0,py0,pz0)を求める。
【0210】2-2.予め分かっている距離センサ 107A
の向き(dx,dy,dz)と、障害物までの距離dcから、(px1,p
y1,pz1)を求める。
【0211】2-3.法線ベクトル(dx,dy,dz)を持ち、
点(px1,py1,pz1)を通る平面(式(15))を、ついたて面
とする。 dx(x-px1) + dy(y-py1) + dz(z-pz1) = 0 式(15) 3.前記ついたて面は、必要がなくななれば取り除く。
【0212】4.全ての距離センサ 107 について、上
記1から3までの処理を終了していれば、空間モデル作
成処理を終了する。まだ未チェックの距離センサ 107A
があれば、該距離センサ 107Aについて、上記1から3
までの処理を実行する。
【0213】図32では、カメラ1、2から入力された
画像が、それぞれ空間モデルを構成するついたてとして
の平面1、平面2にマッピングされている様子が示され
ている。マッピングに際して、ついたて面の幅の値をい
くらにするかが合成画像のクオリティを決める重要な要
素の一つとなる。障害物としてもっとも一般的なのは他
の車両なので、例えば自車と他の車両との距離がついた
て面を作成する距離になったとき、前記他の車両の2/
3以上がついたて面にマッピングされるように幅を設定
するという方針で、ついたての幅を決めるなどすればよ
い。
【0214】また、ついたて面を作成するかどうかを決
める条件としての、自車から障害物までの距離は、経験
的に 50cm〜1m の値を設定すると良い。また、ついたて
面を取り除く場合の条件としては、以下に列挙するよう
な方法を、単独で、もしくは組み合わせて用いれば良
い。
【0215】・障害物との距離が所定の距離より遠ざか
った場合 ・運転者が、なんらかの方法で該画像生成装置を初期化
した場合 以上、本実施の形態による画像生成装置を構成するそれ
ぞれの手段の実施の形態を説明した。次に、本実施の形
態による画像生成装置の全体の処理の流れについて説明
する。図33は、本実施の形態による画像生成装置の全
体の処理の流れをフローチャートの形式で示したもので
ある。なお画像生成装置の構成例としては図28(b)の
構成を想定する。
【0216】1.(901) 本装置を正常に動作させるため
に、車載カメラのそれぞれについて、正しいカメラーパ
ラメータをカメラパラメータテーブル102Aに入力してお
く。
【0217】2.(902) 車載カメラで車両周囲の画像を
撮影する。
【0218】3.(903) 障害物検知手段 108Aにて、距
離センサ107Aで車両周囲に存在する障害物までの距離を
計測する。
【0219】4.(904) 空間モデル作成手段103Aにて、
空間モデルを作成する。
【0220】5.(905) マッピング手段104Aにて、車載
カメラからの画像を、空間モデルにマッピングする。
【0221】6.(906) 空間モデルにマッピングされた
画像を参照して、運転者が設定した視点から見た画像を
合成する。
【0222】7.(907) 6.の処理で合成された画像を
表示する。
【0223】8.(908) 上記2.〜7.の処理を必要が
なくなるまで繰り返す。例えば運転者が車両を駐車スペ
ースに入れようとしている時は、前記2.〜7.の処理
を繰り返し、駐車が完了すれば本処理を終了すればよ
い。
【0224】以上のように、本実施の形態では限られた
台数のカメラからの画像を用いて任意の視点からの画像
が合成する。その合成の際に、従来使用されてきた路面
平面一つだけの空間モデル以外の空間のモデルを導入
し、この空間モデルを用いることにより、高さをもつ物
体も歪みを少なくして空間にマッピングされる。従っ
て、高さをもつ物体が2台のカメラ画像に映っている場
合、それぞれの画像を空間モデルにマッピングしたとき
の前記物体の重なりのずれは、平面モデルに比べて大き
く改善され、視点変換して合成した画像のクオリティが
向上し、運転者は、前記合成画像によって周囲の状況が
よりいっそう認識しやすくなり、適確な運転操作を行え
ることが期待できる。
【0225】なお、これまでの説明は、車両周囲の状況
を車両から検知し、車両を基準とした座標系で説明して
きたが、たとえば、駐車場等に設置のセンサが駐車場の
状況を検知し、駐車場を基準とした座標系での周囲状況
と、車両の駐車場における位置関係を、車両に通知する
ことにより、これまで述べた処理を実施することが可能
である。
【0226】以下、別の実施の形態を説明する。なお、
本実施の形態においては、車両の周囲を監視するカメラ
を設置し、前記カメラで獲得した画像を運転席近くに設
置したモニターテレビに表示させる監視装置を対象とし
て説明する。
【0227】図34(a)は本実施の形態の監視装置の
基本構成例を示したブロック図である。
【0228】本実施の形態による車両周囲監視装置は、
基本構成として、車両周囲の状況を把握するために取付
けられた複数台のカメラ101B、前記カメラの特性を
示すカメラパラメータを格納しておくカメラパラメータ
テーブル102B、車両周囲の状況として、例えば白線
や路面に描かれた矢印、文字、また横断歩道など、路面
上の特徴を検知する路面特徴検出手段103B、たとえ
ば車両を基準とした座標系を設定し、該座標系に、前記
路面特徴検出手段103Bの処理結果に応じた空間モデ
ルを作成する空間モデル作成手段104B、前記カメラ
より入力された画像を前記空間モデルにマッピングする
マッピング手段105B、視点を設定し、前記視点から
見た一枚の画像を、マッピング手段105Bにて作成さ
れたデータから合成する視点変換手段106B、視点変
換手段106Bにて変換された画像を表示する表示手段
107Bからなる構成を有する。
【0229】図34(b)は、図34(a)に示した監
視装置に対して、さらに、車両の移動方向を検出する移
動方向検出手段109B、および車両の単位時間におけ
る移動距離を検出する移動距離検出手段108Bでの処
理結果を用いて、前記路面上の特徴の現在位置を計算
し、計算した車両の現在位置にもとづいて、前記空間モ
デルを逐次修正することを特徴とする。
【0230】図34(c)は、図34(b)に示した監
視装置に対して、さらに、表示手段107Bにおいて路
面特徴検出手段103Bにおける処理結果を表示しつつ
前記処理結果を修正する特徴修正手段110Bを備えた
構成を有することにより、処理の実行中に路面上の特徴
がずれた場合に、該ずれを修正することが可能となる。
【0231】次に、本実施の形態を構成する各構成要素
についての詳細を説明する。
【0232】カメラは、車両の周囲の状況など、監視す
べき空間の画像を撮り込むテレビカメラである。このカ
メラは、大きな視野を得ることができるよう、通常、画
角が大きいものを使うのが良い。車両へのカメラの取り
付け例は、図7で説明したとおりである。
【0233】カメラパラメータテーブル102Bは、カ
メラパラメータを格納するテーブルである。その内容は
上述したとおりである。
【0234】カメラパラメータテーブル102Bに格納
されているデータは表形式で示されるが、それは図9に
示すものである。
【0235】同様に、仮想カメラのパラメータは図9の
カメラパラメータテーブル102の8行目に記載されて
おり、その内容は、仮想カメラとは、座標(0、y1、
0)の位置にあり、向きはY−Z平面に対して0度、X
−Z平面に対して−20度の角度をなし、焦点距離は
f、レンズ歪み係数κ1、κ2はともに0である、とい
うことが分かる。
【0236】本実施の形態では、視点変換手段106B
で設定した所望の視点に仮想のカメラを設置したと仮定
し、その仮想カメラからの画像を計算によって求めるこ
とが可能である。該計算方法については後で詳述する。
【0237】また、前記レンズ歪み係数を用いてカメラ
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
【0238】そこで、レンズ歪みは、画像合成時に問題
が生じるほどの変化は起こらないと仮定し、歪み補正前
の画像と、歪み補正後の画像で、それぞれの画素の座標
値の対応関係を予め計算しておく。そして前記計算結果
をテーブルやマトリクスなどのデータ形式でメモリ内に
保持し、それを用いて歪み補正を行うなどの方法が、高
速な補正処理として有効である。
【0239】空間モデル作成手段104Bは、車両を基
準とした座標系を設定し、この座標系に、路面特徴検出
手段103Bの処理結果に応じた空間モデルを作成す
る。
【0240】図35(a),(b)は、本実施の形態に
よる空間モデルを示した概念図である。
【0241】本図では、路面上の特徴として、駐車場に
引いてある駐車スペースを示す白線の端点もしくは白線
同士が交わって出来る角を検知し、それらの点を基準に
して図に示すような5つの平面を用いて空間モデルを構
成している様子を示しており、図35(a)は該空間モ
デルを鳥瞰図的に示した概念図、図35(b)は図35
(a)において、車両の上方から下向きに透視投影され
た図である。図35(b)の例では、路面上の特徴の例
として、特徴点1〜4までを示している。以下、路面上
の特徴もしくは特徴点は、これら4つの特徴点を示すも
のとする。
【0242】但し、4つのいずれかを指すときは「特徴
点1」というように番号を付けて指定する。そして本実
施の形態では、該5つの平面をそれぞれ以下のように決
めている(ここでは、左右は車両の後ろ向き方向に対し
て決めている)。 平面1:路面(すなわち車両のタイヤに接している)と
しての平面 平面2:左端が平面2に接し平面1に垂直な平面 平面3:特徴点1と特徴点2を結ぶ線分に沿っており、
平面1に垂直な平面 平面4:特徴点2と特徴点3を結ぶ線分に沿っており、
平面1に垂直な平面 平面5:特徴点3と特徴点4を結ぶ線分に沿っており、
平面1に垂直な平面 平面6:右端が平面5に接し平面1に垂直な平面 さて、空間モデル作成手段104Bにおいて、3次元空
間にこれらの平面(但し路面と一致する平面1を除く)
を作成するにあたっては、前記特徴点を検出する必要が
ある。路面特徴検出手段103Bは、係る路面上の特徴
を抽出するものである。
【0243】図36(a)〜(d)は、路面特徴検出手
段103Bで特徴点を抽出する処理の例を説明するため
の図、図37は特徴点の抽出処理の流れを示すフローチ
ャートであり、以下、これらの図を用いて、路面特徴検
出手段103Bでの処理手順を説明する。
【0244】処理701: 車載カメラのいずれかから
駐車スペースを示す白線を含む画像を撮影する。図36
(a)は、該撮影された画像を示している。
【0245】以下の2つの処理を行い、特徴点の位置を
推定する。
【0246】処理702: 車載カメラから撮影された
画像を適当なしきい値で2値化し、それを横方向および
縦方向に走査し、走査ラインにおける白線に対応する画
素の数を頻度とするヒストグラムを、縦方向、横方向の
それぞれについて得る。該ヒストグラムの結果から特徴
点の存在する位置を推定する。図36(b)はその処理
例を示したもので、 ・縦方向に走査して得られたヒストグラムから、特徴点
のY座標を推定 ・横方向に走査して得られたヒストグラムから、特徴点
のX座標を推定 している様子を示している。
【0247】処理703: 車載カメラから撮影された
画像にエッジ抽出処理を行い、続いて前記エッジ処理結
果にさらに直線抽出処理を実施し、得られた直線の交点
もしくは端点を特徴点として推定する。図36(c)
は、その処理例を示したもので、エッジ抽出としては、
例えばゾーベルオペレータ、直線抽出としては例えばハ
フ変換などを用いれば良い。
【0248】処理704: 上記処理702、処理70
3で得られた特徴点の推定値を用いて特徴点を決定す
る。特徴点の決定の仕方としては、例えば、処理70
2、処理703のそれぞれの方法で得られた特徴点の中
間点を取るなどすればよい。尚、処理702、処理70
3はいずれを先に実行しても同じ結果が得られる。
【0249】処理705: カメラ画像から得られた特
徴点の3次元座標系における座標を求める。この座標か
ら、前記空間モデルを構成する平面を求めることが可能
となる。マッピング手段105Bは、カメラパラメータ
に基づいて、車載カメラからの入力画像を構成する各々
の画素を、空間モデル作成手段104Bによって作成さ
れた空間モデルにマッピングする。すなわち、車載カメ
ラから撮影された各々の画像を空間モデルに透視投影す
る。
【0250】図30は、画像を含む平面に設定したU−
V座標系の点の座標を、ワールド座標系の点の座標に変
換することにより、車載カメラ画像を空間モデルを構成
する面にマッピングする説明の補助として使用する図で
ある。この詳細については、すでに説明した。
【0251】なお、車載カメラで撮影された画像を構成
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に図31におい
て説明した。
【0252】視点変換手段106Bは、車載カメラの画
像がマッピング手段105Bによって空間モデルにマッ
ピングされた結果を、任意の視点に設置したカメラから
撮影した画像として合成する。その方法の概要は、上述
した視点変換手段105Aに関して説明した。
【0253】ところで、視点変換手段106Bにおい
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デルの点に、色がマッピングされていない場合も考えら
れる。その場合は、物体が存在しない部分であると識別
可能な色、例えば黒に置き換えるなどすればよい。
【0254】さて、路面特徴検出手段103Bによって
検出された特徴点の位置は、車両の動きとともに変化す
る。空間モデルは特徴点の3次元座標を基に作成される
ので、車両の動きによって特徴点の位置が変化する毎に
空間モデルを作り直す必要がある。すなわち車両が移動
している間は常に、直前に説明した手法などで特徴点の
位置を求める必要があるが、画像から特徴点を求める処
理は一般的に計算量が多いため、コストが高くつく。こ
れを回避するための方法として、車両の動く速さと向き
をつねに計測し、その計測結果を用いて特徴点の座標を
計算すればよい。
【0255】本実施の形態の車両周囲監視装置は、係る
処理を実行するために、車両の移動方向を検出する移動
方向検出手段109Bと、車両の単位時間における移動
距離を検出する移動距離検出手段108Bを備え、移動
方向検出手段109Bおよび移動距離検出手段108Bで
の処理結果を用いて、前記路面上の特徴の現在位置を計
算する。
【0256】図38は、本実施の形態の車両周囲監視装
置において、車両の動きにともなって特徴点の位置計算
を行う処理の手順を示すフローチャート、図39は、前
記処理の説明の補助に用いる概念図である。
【0257】図39は、ある一定時間の間に車両が移動
したとき、前記一定時間の開始時刻(以下t1)と終了
時刻(以下t2)における車両の位置、および向きの関
係を示している。図38および図39を用いて前記処理
の手順を説明する。
【0258】処理901: ある一定時間における車両
の移動距離を検出する。本実施の形態では、移動距離
は、時刻t1と時刻t2のそれぞれの時刻における車両
位置の間の直線距離で定義する。すなわち、図39にお
けるO1とO2の距離ということになる。
【0259】説明の都合上、図39に記載のように、移
動距離をO1からO2へのベクトルを(t'x,0,
t'z)で表す。移動距離の検出方法としては、例えば
タイヤの回転数などによって計測する方法が用いられ
る。
【0260】処理902: 前記一定時間における車両
の移動方向を検出する。本実施の形態では移動方向を、
時刻t1における車両の向きに対して時刻t2における
車両の向きがどれだけ変化したかの変化量として定義す
る。
【0261】説明の都合上、図39に記載のように、向
きの変化量をZ1軸とZ2軸とのなす角度Θで表す。移
動方向の検出方法としては、例えばハンドルの回転角度
などによって計測する方法が用いられる。
【0262】処理903: 時刻t1から時刻t2に至
る間の車両の移動距離および移動方向を用いて、t1に
おいて取得した特徴点の座標をt2における特徴点の座
標に変換する上記式(5)を作成する。
【0263】但し、式(5)では時刻t1から時刻t2
に至る間の車両移動においては、完全に垂直成分の変化
がないもの、つまり路面が平坦であることを仮定してい
る。
【0264】式(5)において、x1,y1,z1は、
時刻t1において車体を中心にしたX1−Y1−Z1ワ
ールド座標系(原点O1)におけるある点の座標で、x
2,y2,z2は、前記点の時刻t2において車体を中
心にしたX2−Y2−Z2ワールド座標系(原点O2)
における座標を表す。つまり、x1,y1,z1を式
(5)の右辺に代入して計算した結果がx2,y2,z
2となる。
【0265】処理904: 式(5)を用いて、時刻t
1において合成した特徴点の座標を時刻t2における特
徴点の座標に変換する。
【0266】車両の移動方向と移動距離が誤差なく計測
できれば、移動方向検出手段109と移動距離検出手段
と特徴位置計算手段を導入し、直前で説明した計算方法
によって、常に特徴点の正確な座標を得ることができ
る。しかしながら、車両の移動方向と移動距離を誤差な
く計測することは現実的に不可能であるため、特徴点の
位置を必要に応じて修正する必要が生じる。
【0267】特徴修正手段110Bは、表示手段107B
において路面特徴検出手段103Bにおける処理結果を
表示しつつ、車両の乗員が特徴の修正を指示し、その指
示に従って路面の特徴位置を修正する。
【0268】図40は、特徴修正処理を表示手段107
Bに表示している様子を示した概念図であり、また、図
41は、特徴修正処理における処理の流れを示すフロー
チャートである。以下、これらの図を用いて、特徴修正
手段110Bでの処理手順を説明する。
【0269】処理1201:表示手段107Bにて、現
在の特徴点の位置を表示する。図40の例では車載カメ
ラから撮影された各々の画像と空間モデルとをスーパー
インポーズし、それを上方から下向きに透視投影した画
像を表示している様子を示している。
【0270】処理1202:位置のずれている特徴点を
指定する。図40の例では特徴点2および特徴点4がず
れている特徴点で、これらを指定する。指定にあたって
は、例えば表示装置にタッチパネルが装着されている場
合は指で表示画面を触れることによって容易に場所の指
定が可能である。
【0271】処理1203:前記ずれた特徴点の正しい
場所を指定する。正しい特徴点の場所はどういう場所で
あるかは、予め操作する人に知らせておく。
【0272】処理1204:修正すべき特徴点が残って
いれば、上記処理1201〜1203を引き続き繰り返
し、なければ特徴点の修正処理を終了する。
【0273】以上、本実施の形態による車両周囲監視装
置を構成するそれぞれの手段の実施の形態を説明した。
次に、本実施の形態による車両周囲監視装置の全体の処
理の流れについて説明する。図42は、本実施の形態に
よる車両周囲監視装置の全体の処理の流れを示すフロー
チャートである。なお、車両周囲監視装置の構成例とし
ては図34(c)の構成に基づく。
【0274】処理1301: 本装置を正常に動作させ
るために、車載カメラのそれぞれについて、正しいカメ
ラーパラメータをカメラパラメータテーブル102Bに
入力しておく。
【0275】処理1302: 車載カメラで撮影した画
像から路面上の特徴点を抽出する。
【0276】処理1303: 抽出した特徴点の画像内
の座標とカメラパラメータから該特徴点の3次元座標を
計算する。但し、車両周囲監視装置処理が実行中なら
ば、車両の移動方向および移動距離を検出した結果を用
いて、特徴点の座標の現在位置を計算する。
【0277】処理1304: 車載カメラで車両周囲の
画像を撮影する。
【0278】処理1305: 空間モデル作成手段10
4Bによって処理4で撮影された画像を内に空間モデル
作成する。
【0279】処理1306: マッピング手段105B
にて、車載カメラからの画像を、空間モデルにマッピン
グする。
【0280】処理1307: 空間モデルにマッピング
された画像を参照して、運転者が設定した視点から見た
画像を合成する。
【0281】処理1308: 処理1307で合成され
た画像を表示する。
【0282】処理1309: 表示画像において、特徴
点の位置がずれているかどうかを確認する。
【0283】処理1310: もしずれていれば特徴点
修正の割り込みを入れ、特徴点の修正処理を行う。特徴
点の修正の必要がなければ、処理1303に戻り、処理
を繰り返す。例えば運転者が車両を駐車スペースに入れ
ようとしている時は、前記処理1302〜1308を繰
り返し、駐車が完了すれば本処理を終了すればよい。
【0284】なお、本実施の形態における車両の周囲の
状況としては、上述した路面の特徴だけでなく、たとえ
ば駐車車両の状態等があげられる。その場合はその駐車
車両の状態に応じた空間モデルが生成される。
【0285】以上のように、本実施の形態では限られた
台数のカメラからの画像を用いて任意の視点からの画像
が合成する。その合成の際に、単なる平面のモデルでは
なく、カメラ画像から得られた路面上の特徴を利用して
作成された汎用的な空間のモデルを導入している。平面
を用いた方法では、高さ成分がカメラ視線方向の奥行き
成分に変換されてしまうため、路面から上方に高さ成分
を持つ物体は、路面に投影すると大きく歪むことが問題
であったが、本実施の形態の空間モデルを用いることに
より、高さをもつ物体も歪みを少なくして空間にマッピ
ングされる。従って、高さをもつ物体が2台のカメラ画
像に映っている場合、それぞれの画像を空間モデルにマ
ッピングしたときの前記物体の重なりのずれは、平面モ
デルに比べて大きく改善され、視点変換して合成した画
像のクオリティが向上し、運転者は、前記合成画像によ
って周囲の状況がより一層認識しやすくなり、適確な運
転操作を行えることが期待できる。また、前記空間モデ
ルは単純な構成を有しているため、装置のコストを低く
押さえることも可能となる。
【0286】次に別の本実施の形態の画像生成装置を説
明する。
【0287】以下、図を用いて本実施の形態を説明す
る。図43は本実施の形態に係る画像生成装置の構成例
を示したブロック図である。
【0288】本実施の形態の画像生成装置は、基本構成
として、車両周囲の状況を把握するために取付けられた
複数台のカメラ101C、カメラ101Cの特性を示すカ
メラパラメータを格納しておくカメラパラメータテーブ
ル102C、車両の周囲の状況をモデル化した空間モデ
ル103Cにカメラ101Cより入力された画像をマッピ
ングするマッピング手段104C、所望の仮想視点から
見た一枚の画像を、マッピング手段104Cにて作成さ
れたデータから合成する視点変換手段105C、カメラ
101Cのパラメータを、各々のカメラで独立して修正
するカメラパラメータ修正手段106C、視点変換手段
105Cにて変換された画像を表示する表示手段107C
からなる構成を有する。
【0289】次に、本実施の形態を構成する各構成要素
についての詳細を説明する。
【0290】カメラ101Cは、車両の周囲の状況な
ど、監視すべき空間の画像を撮り込むテレビカメラであ
る。図44(a)は、車両へ3台のカメラを取り付けた
例を示した概念図であるが、図44(a)の例のよう
に、車両への取り付け位置としては、車体屋根と側面も
しくは屋根と後面の境界部分にし、できるだけ画角が大
きいものを使うようにすると、視野が広くなりカメラの
台数も少数で済む。また左右のドアミラー部に後方を向
いたカメラを設置し、それらのカメラからの画像を車内
に設置したモニタに表示することによりドアミラーの機
能を果たすため、車両からドアミラーを除去することが
可能となり、デザイン的にも空力的にも優れた車を設計
することが可能となる。
【0291】カメラパラメータテーブル102Cは、カ
メラパラメータを格納するテーブルである。その詳細に
ついては上述したとおりである。
【0292】さて、まず該カメラパラメータテーブル1
02Cの詳細な説明の準備として、車両を基準とした3
次元空間座標系を定義する。図45は車両を中心とする
3次元空間座標系を示した概念図である。図45の例で
は3次元空間座標系の例として、 ・車両の後面直下にある後面に平行な路面上の直線をX
軸 ・車両の後面中央に路面から垂直に伸びる軸をY軸 ・車両の後面中央を通り後面に垂直な路面上の直線をZ
軸 とする3次元空間座標系を定義する。
【0293】また、本座標系においてカメラの向きは、 ・Y−Z平面に対してなす角度をα ・X−Z平面に対してなす角度をβ ・上記α、βの角度で回転した後の、カメラの光軸の周
りの回転角度をγ として、該α、β、γを用いて表すものとする。以下、
特に断る場合を除いて、3次元空間座標系もしくはワー
ルド座標系もしくは単に3次元空間は、本定義による3
次元空間座標系を指すものとする。
【0294】図46は、カメラパラメータテーブル10
2Cに格納されているデータを表形式で示したものであ
る。図46に記載されている内容は、テーブルの左側の
列から順に以下の通りで、下記のごとく本テーブルで
は、2列目から9列目までの項目がカメラパラメータの
例を示している。 ・1列目:図45の車載カメラの番号 ・2列目:3次元空間座標系におけるカメラ位置のX座
標 ・3列目:3次元空間座標系におけるカメラ位置のY座
標 ・4列目:3次元空間座標系におけるカメラ位置のZ座
標 ・5列目:カメラの向きのうちY−Z平面に対してなす
角度α ・6列目:カメラの向きのうちX−Z平面に対してなす
角度β ・7列目:カメラの光軸の周りの回転角度γ ・8列目:3次元空間座標系におけるカメラの焦点距離 ・9列目:レンズの半径方向の歪み係数κ1 ・10列目:レンズの半径方向の歪み係数κ2 例えば、図45におけるカメラ1のパラメータは図46
のカメラパラメータテーブル102Cの第2行目に記載
されており、その内容は、カメラ1は、座標(0、y
1、0)の位置にあり、向きはY−Z平面に対して0
度、X−Z平面に対して−30度の角度をなし、光軸周
りの回転はなく、焦点距離はf1、レンズ歪み係数κ
1、κ2はともに0である、ということが記されてい
る。
【0295】本実施の形態では、視点変換手段105C
(後で詳細を説明)によって、車載カメラから撮影した
画像を所望の仮想視点から見た画像に変換することが可
能である。仮想視点から見た画像とは、具体的には所望
の場所に好きな向きに仮にカメラを置いた場合に見える
はずの画像のことである。従って仮想視点の視点パラメ
ータは、前述のカメラパラメータと同じものを用いて表
すことが可能である。この際、仮想のカメラでは、レン
ズの歪みは考慮する必要がないので、レンズ歪み係数κ
1、κ2はいずれも0とすることができる。
【0296】図47は、視点パラメータテーブル102Cに
格納されているデータを表形式で示したものである。図
47に記載されている内容は、テーブルの左側の列から
順に、2列目から9列目までの項目が視点パラメータの
例を示している。その内容は、仮想視点が、座標(0、
0、z2)の位置にあり、向きはY−Z平面に対して0
度、X−Z平面に対して−90度の角度をなし、光軸周
りの回転はなく、焦点距離はf2、レンズ歪み係数κ
1、κ2はともに0である、ということが記されてい
る。
【0297】マッピング手段104Cは、カメラパラメ
ータに基づいて、車載カメラからの入力画像を構成する
各々の画素を空間モデル103Cにマッピングする。す
なわち、車載カメラから撮影された各々の画像を空間モ
デル103Cに透視投影する。
【0298】ここで空間モデル103Cとは、マッピン
グ手段104Cにおいて、カメラからの画像を3次元空
間座標系にマッピングする立体モデルを指し、例えば、
平面もしくは曲面もしくは平面および曲面からなるモデ
ルが使用される。本実施の形態では、説明を容易にする
ために、最も単純な空間モデル103Cの一例として路
面としての平面モデルを用い、車載カメラからの画像
を、該平面モデルにマッピングする方法を説明する。
【0299】尚、実用に際しては該単純なモデルでは、
高さ成分を持つ物体の歪みが大きくなるなどの問題が生
じるため、平面をいくつか組み合わせた空間モデル、平
面と曲面を組み合わせた空間モデルなどを用いるとよ
い。さらには、車両の周囲の障害物の正確な立体モデル
を実時間で計測することが可能であれば、該立体モデル
を用いると、さらに高精度な合成画像が得られる。
【0300】さて、マッピング手段104Cにおけるマ
ッピング処理の説明をする前に、まず視平面座標をワー
ルド座標へ変換する方法について説明する。図48は、
画像を含む平面(以下、視平面)に設定したU−V座標
系の点の座標を、ワールド座標系の点の座標に変換する
ことにより、車載カメラ画像を空間モデル103Cを構
成する面にマッピングする説明の補助として使用する図
である。該変換は下記の手順で行われる。
【0301】手順1:視平面が Z=f(カメラの焦点
距離)で、該平面上にあるカメラ画像の中心をZ軸が通
るような座標系を設定する。これを視平面座標系と呼ぶ
(Oeを原点とする)。
【0302】手順2:図7における点Pv(u,v)
(この点がカメラ撮影画像の一画素に対応する)の視平
面座標系での座標をPe(Xe,Ye,Ze)とする
と、PeとPvの関係は、カメラの焦点距離fを用い
て、上記式(1)式(2)のように表すことが出来る
(但し、この場合はZe=fとなる)。
【0303】前記2つの式により、視平面上に投影され
た画像の各々の画素について、視平面座標系における座
標を決めることができる。
【0304】手順3:視平面座標系とワールド座標系と
を対応づける計算式を求める。
【0305】ここで、ワールド座標系を中心にして、視
平面座標系が空間的に以下のような関係にあるとする。
・視平面座標系原点Oeからワールド座標系原点Owへ
のベクトルを(tx,ty,tz)とする。
【0306】つまり、2つの座標系の位置的なずれは、
視平面座標系を(tx,ty,tz)だけ平行移動する
ことによって無くなる。尚、ワールド座標系におけるカ
メラ位置が既知であれば、該位置の座標の符号を反転す
れば(tx,ty,tz)は容易に求まる。 ・視平面座標系のそれぞれの軸の向きをワールド座標系
に合わせるための回転行列を上記式(1)とする。
【0307】該回転行列は、カメラパラメータテーブル
102Cのうち、向きおよびカメラの光軸周りの回転を
表すパラメータ(α、β、γ)によって、X,Y,Zの
各軸まわりの回転行列を求め、それらを合成することに
よって容易に求めることができる。さて、ある点をワー
ルド座標系でPw(Xw,Yw,Zw)で表し、また、
視平面座標系Pe(Xe,Ye,Ze)で表すとする
と、Pe(Xe,Ye,Ze)、Pw(Xw,Yw,Z
w)、(tx,ty,tz)、前記回転行列の間には式
(8)の関係が成り立つ。
【0308】これらの式(1)式(2)式(8)を用い
ることにより、視平面上での画素Pv(u,v)を、ワ
ールド座標系での座標Pw(Xw,Yw,Zw)に変換
することが出来る。
【0309】さて、車載カメラで撮影された画像を構成
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に図31におい
て説明した。
【0310】なお、図48では空間モデル103Cを形
成する面としてX−Z平面を用いた場合の例を示してい
る。
【0311】視点変換手段105Cは、車載カメラの画
像がマッピング手段104Cによって空間モデル103C
にマッピングされた結果を、任意の仮想視点に設置した
カメラから撮影した画像に合成する。その方法の概要
は、上記視点変換手段105Aに関して説明した。
【0312】ところで、視点変換手段105Cにおい
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デル103Cの点に、色がマッピングされていない場合
も考えられる。その場合は、 ・物体が存在しない部分であると識別可能な色、例えば
黒に置き換える ・当該点の色を、色がマッピングされている周囲の点か
ら、補間、補外などによって求めるなどすればよい。
【0313】カメラパラメータ修正手段106Cは、カ
メラのパラメータを、各々のカメラで独立して修正す
る。
【0314】図49は、カメラパラメータ修正手段10
6Cによってカメラパラメータを修正するための操作部
の構成例を示した概念図である。
【0315】本実施の形態では、 ・修正の対象となるカメラを選択する、カメラ選択ボタ
ン901C ・カメラの光軸方向に前後の移動をするズームボタン9
04C(前向き、後向き)・カメラの光軸方向に垂直に
カメラを平行移動する平行移動ボタン902C(上下左
右)・カメラの向きの変更と、カメラの光軸周りの回転
を修正するジョイスティック903C から構成され、
(a)ズームボタン904C、平行移動ボタン902Cの
操作、カメラの3次元空間位置を、(b)ジョイスティ
ック903Cによって、カメラの回転角度を、それぞれ
変更することができ、上記(a)、(b)の操作によっ
て、それぞれ当該カメラパラメータの以下の情報が修正
される。
【0316】(a)3次元空間座標系におけるカメラ位
置のX、Y、Z座標 (b)カメラの向きのうちY−Z平面に対してなす角度
α カメラの向きのうちX−Z平面に対してなす角度β カメラの光軸の周りの回転角度γ 修正された結果は、即座に式(8)に反映する。すなわ
ち、式(8)において、式0に示す回転行列が、新たな
カメラ角度を用いて再度計算されるとともに(tx,t
y,tz)を、新たなカメラ位置の座標で置き換える。
さすれば、変更後の式(8)を用いることによって修正
操作の結果としての画像が合成され、操作者は、自身の
修正の操作が正しいかどうかを一目で確認することが可
能である。
【0317】ところで、ジョイスティック903Cの操
作について、操作としては、 (1)ジョイスティック903Cの軸を上下左右に動か
す、いわゆるカメラの光軸の向きの調整に相当する操作 (2)ジョイスティック903Cの軸自身を回転させ
る、いわゆるカメラの光軸周りの回転の調整に相当する
操作 の2通りは少なくとも必要不可欠である。
【0318】これらのジョイスティック903Cの操作
のうち、(1)については、ジョイスティック903C
の軸とカメラの光軸があたかも一致しているように、操
作内容とその結果の画面が表示できれば、操作者はカメ
ラの向きを直感的に把握し易い。
【0319】そのためには、ジョイスティック903C
の操作によって傾けられた軸の向きと同じようにカメラ
の光軸を設定するのではなく、ジョイスティック903
Cの軸を動かした向きとは反対の方向に同じだけカメラ
の向きを動かし、その状態での向きを変更されたカメラ
の向きとしてカメラパラメータテーブル102Cに書き
込めばよい。
【0320】また、かかる修正をあたかもバックミラー
を修正しているかのように行うためには、実際にカメラ
が置いてある場所でカメラの向いている方向の画像を見
ながら行うのが望ましい。そのために、本修正処理を行
う際には、表示のために設置する仮想視点は、修正しよ
うとするカメラの修正前の位置および向きと一致させる
ことが望ましい。そのようにすれば、修正によってカメ
ラの向きや位置が変わっていく様子が一目で把握でき、
また修正が完了すれば、完了前の仮想視点位置に戻せば
よい。
【0321】図50は本実施の形態にかかる画像生成装
置の関連する技術の構成例を示したブロック図である。
【0322】ここでは、図43の構成に対して、さら
に、カメラ入力画像と合成画像との間の画素の対応づけ
関係を保持するマッピングテーブル108Cを備えてい
る。
【0323】図51は、マッピングテーブル108Cを
表形式で示した概念図である。テーブルは、表示手段1
07Cにて表示する画面の画素数分のセルから構成され
ている。すなわち、 ・表示画面の横画素数がテーブルの列数 ・表示画面の縦画素数がテーブルの行数 になるように、テーブルが構成される。そして、それぞ
れのセルは、 ・カメラ番号 ・前記カメラで撮影された画像の画素座標 をデータとして持つ。例えば図51の左上のセルは表示
画面での左上、すなわち(0、0)の部分を示してお
り、マッピング手段104Cは、前記セルに格納されて
いるデータ内容(1、10、10)から、「1番カメラ
で撮影された画像の画素(10、10)のデータを、表
示画面(0、0)に表示する」という処理を行う。
【0324】ところで、マッピングテーブル108Cを
作成するためには、カメラ入力画像と合成画像との間の
画素の対応づけを計算する必要があるが、この計算は、
マッピング手段104Cおよび視点変換手段105Cによ
って容易に計算できる。より具体的には、全てのカメラ
について以下の1〜2の処理を行えば良い。 1.カメラを一つ決め、そのカメラ番号をCnとする。 2.該カメラ画像を構成する全ての画素に対して以下の
2.1〜2.3の処理を実施する。
【0325】2.1 マッピング手段104Cにより該
画素(座標を座標1とする)を空間モデル103Cにマ
ッピングする。
【0326】2.2 視点変換手段105Cにより、
2.1でマッピングされた画素を仮想視点から見たとき
の視平面での座標(座標2とする)を求める。
【0327】2.3 マッピングテーブル108Cの座
標2に対応するセルに、(Cn、座標1)を組にしたデ
ータを書き込む。但し、それぞれのカメラ画像の表示領
域が決められていれば、座標2がCnの表示領域である
場合にのみ、データを書き込むようにする。
【0328】マッピングテーブル108Cが作成されて
いる場合は、表示手段107Cは、マッピング手段10
4Cおよび視点変換手段105Cでの処理結果を用いて、
合成画像を表示するのではなく、該テーブルを用いて、
カメラ画像を表示画像に直接置き換えるようにする。こ
れにより複数カメラ画像の合成処理の高速化が可能とな
る。
【0329】以上、本実施の形態による画像生成装置を
構成するそれぞれの手段の実施の形態を説明した。最後
に、本実施の形態による装置における修正処理の流れを
説明する。
【0330】図52は、カメラパラメータの修正処理の
流れを示すフローチャート、図53及び図54は、カメ
ラパラメータの修正処理の説明の補助に使用する概念図
で、図53(a),(b)は、カメラパラメータ修正時の表
示画面を、図54(a),(b)は、カメラパラメータ修正
時以外(すなわち通常時)の表示画面を示す。
【0331】処理1201:カメラ選択ボタン901C
などで修正対象となるカメラを選択する。その際には画
面上には、図54(a)のごとく、合成画像がずれてい
る様子が表示されている。
【0332】処理1202:仮想視点を、選択されたカ
メラの位置・向きにあわせて変更し、画像を合成する。
仮想視点が変更されると、画面は図53(a)のごと
く、選択されたカメラの視点位置からの画像が表示さ
れ、該視点位置からのカメラのずれの様子が把握できる
ようになる。
【0333】処理1203:ズームボタン904C、平
行移動ボタン902C、ジョイスティック903Cを用い
て、カメラの3次元空間位置とカメラの向きを修正す
る。該修正処理中は、仮想視点は固定したままにする。
修正がうまくできれば、画面は、図53(b)のごと
く、ずれのない様子が表示される。
【0334】処理1204:当該カメラの修正が終了す
ると、修正後のカメラパラメータをカメラパラメータテ
ーブル102Cに書き込む。
【0335】処理1205:他に修正の必要があるカメ
ラがあれば、続いて前記カメラを選択し、上記処理12
01〜1204を繰り返す。無ければ次の処理1206
に進む。
【0336】処理1206:処理1202で変更された
仮想視点を、該カメラ修正処理前の仮想視点に戻し、画
像を合成する。その合成の結果、画面は、図53(b)
のごとく、ずれのない画像が表示されており、その確認
でもってカメラパラメータ修正処理を終了する。
【0337】なお、図53,図54の概念図に示したご
とく、各々の車載カメラからの画像を接合する部分にお
いては、該接合部分に、見た目に違和感を与えない程度
のマーカ(例えば線)などを印しておくと、どのカメラ
の画像がどこに表示されているかが分かり易くなる。
【0338】以上のように、本実施の形態によれば、限
られた台数のカメラからの画像を用いて任意の仮想視点
からの画像を合成する。車両走行中の振動などにより、
カメラの位置、向きがずれた場合、従来では、前記ずれ
を修正することが困難であったが、本実施の形態では、
視点を修正するカメラパラメータ修正手段によって、あ
たかもバックミラーを調整するかの如く、運転者は、自
身で表示画像を都度確認しながら、ずれの生じたカメラ
の画像のみに対して、視点の位置の移動、向きの変更な
どによって最適の画像を得る。
【0339】従って、運転者は例え合成画像の一部にず
れが生じた場合でも、その調整のために多大な費用と手
間を要することなく、容易にずれの修正を行うことが可
能となる。
【0340】しかも本実施の形態では、運転者の視点修
正操作中は、視点変換手段によって、仮想視点を、修正
しようとする車載カメラの位置に切り替えて画像を合成
するため、車載カメラの向き・位置修正を、バックミラ
ーを修正するかのごとく行うことが可能である。
【0341】また、本実施の形態では、実際のカメラの
向きを調整するのではなく、仮想に設けた視点の向き、
位置などのカメラパラメータを修正するので、カメラの
向きを変更する機構が必要でなくなり、装置のコストを
低価格に押さえることが可能となる。
【0342】図55は別の実施の形態を示すブロック図
であり、図43と同じ手段には同じ番号を付して説明を
省略する。新しい点は、カメラの特性を示すカメラパラ
メータを修正する際にガイドとなるガイドデータを格納
するガイドデータ記憶手段110Cを有する点である。
このガイドデータは画像合成手段109Cによって、入
力画像と重畳され、表示手段107Cによって表示され
る。このガイドデータは任意の生成方法で生成できる
が、たとえば次に説明するような方法で生成し、利用す
る。
【0343】図56は、図55の構成に加えて、車両の
所定場所に点光源を発生させる特徴発生手段111C
と、その特徴を抽出できる特徴抽出手段112Cをさら
に備え、その特徴抽出結果を上記ガイドデータとして、
記憶手段110Cに格納できるようになっている。
【0344】たとえば、図57は点光源を特徴とするも
のであり、車両の前方にいくつかのランプ113Cを取
り付けている(a)。このランプ113Cが特徴発生手段1
11Cに対応する。さらに、車両の前側に取り付けられ
たカメラ1,2(f)からその車体の前部を撮影した画像
を示す(b,c)。特徴抽出手段112Cはその画像から、光
っている特徴を画像処理して抽出する(d,e)。
【0345】図58(a),(b),(c),(d),(e)は、特徴とし
て、車体の一部の線分を取り上げた例を示す。つまり、
車体の右後ろの隅部の線分を画像処理して取り出してい
る。
【0346】これらの点光源や、線分は車が移動しても
いつもそのカメラに対して位置関係が不変である。そこ
で、カメラの方向等が振動によって変化した場合、この
不変の特徴を利用して、カメラのパラメータを修正でき
るものである。その具体的やり方を次に説明する。
【0347】図59において、黒丸は本来の点光源のあ
るべき画像を示す。白丸はカメラがずれた場合の撮影し
た点光源を示す。そこで、(a)のように、ずれた状態の
画像が得られる。そこで、上述したようにしてジョイス
ティック903Cを利用してパラメータを修正して一致
させる(b,c)。これによって、簡単にキャリブレーショ
ンを行うことができる。
【0348】図60の(a,b,c,)は、上述して線分を利用
してキャリブレーションを実行した例を示している。
【0349】なお、上記特徴の発生は、パターン光を照
射する等、他の方法でももちろん発生できる。
【0350】次に、別の一実施の形態を説明する。
【0351】図61は本実施の形態の画像生成装置の構
成例を示したブロック図である。
【0352】本実施の形態の画像生成装置は、基本構成
として、車両周囲の状況を把握するために取付けられた
複数台のカメラ101D、カメラ101Dの特性を示すカ
メラパラメータを格納しておくカメラパラメータテーブ
ル102D、車両の周囲の状況をモデル化した空間モデ
ル103Dにカメラ101Dより入力された画像をマッピ
ングするマッピング手段104D、少なくとも位置、向
きを含む視点パラメータを格納する視点パラメータテー
ブル108D、所望の仮想視点から見た一枚の画像を、
マッピング手段104Dにて作成されたデータから合成
する視点変換手段105D、前記仮想視点のパラメータ
を修正する視点パラメータ修正手段106D、視点変換
手段105Dにて変換された画像を接合して表示する表
示手段107Dを備えた構成を有する。
【0353】次に、本実施の形態を構成する各構成要素
についての詳細を説明する。
【0354】カメラ101Dは、車両の周囲の状況な
ど、監視すべき空間の画像を撮り込むテレビカメラであ
る。このカメラは図44に示したように車両に取り付け
られる。
【0355】カメラパラメータテーブル102Dは、カ
メラパラメータを格納するテーブルである。カメラパラ
メータについては、上述したとおりである。
【0356】さて、まずカメラパラメータテーブル10
2Dの詳細な説明の準備として、車両を基準とした3次
元空間座標系を定義する。それは図45で説明した通り
である。
【0357】カメラパラメータテーブル102Dに格納
されているデータは、図46のものと同じである。
【0358】本実施の形態では、視点変換手段105D
(後で詳細を説明)によって、車載カメラから撮影した
画像を所望の仮想視点から見た画像に変換することが可
能である。仮想視点から見た画像とは、具体的には所望
の場所に好きな向きに仮にカメラを置いた場合に見える
はずの画像のことである。従って仮想視点の視点パラメ
ータは、前述のカメラパラメータと同じものを用いて表
すことが可能である。
【0359】図62は、視点パラメータテーブル108
Dに格納されているデータを表形式で示したものであ
る。図62では、視点パラメータはそれぞれ3つずつ格
納されているが、3つのそれぞれが、それぞれ3台の車
載カメラと一対一に対応づけられている。
【0360】例えば、カメラ1で撮影された画像は、仮
想視点1から見た画像へと視点変換され、カメラ2で撮
影された画像は、仮想視点2から見た画像へと視点変換
される。
【0361】このようにカメラ1台ごとに仮想視点を設
定すれば、もしカメラの位置ずれなどによって、表示画
面上で他のカメラの画像と該カメラからの画像との接合
部分がずれた場合に、ずれたカメラ画像を見ている仮想
視点のパラメータのみを変更することによって、直感的
にずれを修正することが可能となる。修正方法の詳細は
後の視点パラメータ修正手段の説明において説明する。
【0362】さて、図62に記載されている内容は、2
列目から9列目までの項目が視点パラメータの具体例を
示しており、テーブルの左側の列から順に次の通りであ
る。
【0363】すなわち、図62の2行目を例にとると、
仮想視点1とは、座標(0、0、z2)の位置にあり、
向きはY−Z平面に対して0度、X−Z平面に対して−
90度の角度をなし、視線の中心軸周りの回転はなく、
焦点距離はf2、レンズ歪み係数κ1、κ2はともに0
である、ということが記されている。
【0364】マッピング手段104Dは、カメラパラメ
ータに基づいて、車載カメラからの入力画像を構成する
各々の画素を空間モデル103Dにマッピングする。す
なわち、車載カメラから撮影された各々の画像を空間モ
デル103Dに透視投影する。
【0365】ここで空間モデル103Dとは、マッピン
グ手段104Dにおいて、カメラからの画像を3次元空
間座標系にマッピングする立体モデルを指し、例えば、
平面もしくは曲面もしくは平面および曲面からなるモデ
ルが使用される。本実施の形態では、説明を容易にする
ために、最も単純な空間モデル103Dの一例として路
面としての平面モデルを用い、車載カメラからの画像
を、該平面モデルにマッピングする方法を説明する。
【0366】尚、実用に際しては該単純なモデルでは、
高さ成分を持つ物体の歪みが大きくなるなどの問題が生
じるため、平面をいくつか組み合わせた空間モデル、平
面と曲面を組み合わせた空間モデルなどを用いるとよ
い。さらには、車両の周囲の障害物の正確な立体モデル
を実時間で計測することが可能であれば、該立体モデル
を用いると、さらに高精度な合成画像が得られる。
【0367】さて、マッピング手段104Dにおけるマ
ッピング処理の説明をする前に、まず視平面座標をワー
ルド座標へ変換する方法について説明する必要がある
が、それはすでに、図48に関して説明したのと同様で
ある。
【0368】さて、車載カメラで撮影された画像を構成
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に'233の図
7において説明した。
【0369】視点変換手段105Dは、車載カメラの画
像がマッピング手段104Dによって空間モデル103D
にマッピングされた結果を、任意の仮想視点に設置した
カメラから撮影した画像に合成する。その方法の概要
は、視点変換手段105Aに関して説明した。
【0370】ところで、視点変換手段105Dにおい
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デル103Dの点に、色がマッピングされていない場合
も考えられる。その場合については、すでに説明した。
【0371】図63は、マッピング手段104Dによっ
て車載カメラからの入力画像を構成する各々の画素を空
間モデル103Dとしての平面にマッピングし、該平面
にマッピングされた結果を、仮想視点に設置したカメラ
から撮影した画像に合成する様子を示した概念図であ
る。
【0372】視点パラメータ修正手段106Dは、それ
ぞれのカメラ毎に設けられている仮想視点のパラメータ
を、それぞれ独立して修正できる。
【0373】図64は、視点パラメータ修正手段106
Dによって仮想視点パラメータを修正するための操作部
の構成例を示したものである。本実施の形態では、 ・修正の対象となる仮想視点を選択する、視点選択ボタ
ン1001 ・仮想視点からの視線の中心軸上を前後に移動する、ズ
ームボタン1004(前向き、後向き) ・仮想視点からの視線方向に垂直に視点位置を平行移動
する平行移動ボタン1002(画像面に対して上下左右
の動き) ・仮想視点からの視線方向の変更と、仮想視点からの視
線方向周りの回転を修正するジョイスティック1003
Dから構成され、(a)ズームボタン1004D、平行移
動ボタン1002Dの操作によって、仮想視点の3次元
空間位置を、(b)ジョイスティック1003Dによっ
て、仮想視点からの視線方向を、それぞれ変更すること
ができ、上記(a)、(b)の操作によって、それぞれ
当該仮想視点パラメータの以下の情報が修正され、視点
パラメータテーブル108に上書きされる。 (a)3次元空間座標系における仮想視点位置のX、
Y、Z座標 (b)仮想視点からの視線方向のうちY−Z平面に対し
てなす角度α 仮想視点からの視線方向のうちX−Z平面に対してなす
角度β 仮想視点からの視線の中心軸の周りの回転角度γ 同時に、修正された結果は、即座に式(8)に反映す
る。すなわち、式(8)において、式0に示す回転行列
が、新たな視線方向を用いて再度計算されるとともに
(tx,ty,tz)を、新たな仮想視点位置の座標で
置き換える。
【0374】その結果、変更後の式(8)を用いること
によって修正操作の結果としての画像が合成され、操作
者は該合成画像を見ることにより、自身の修正の操作が
正しいかどうかを一目で確認することが可能である。
【0375】ところで、仮想視点のパラメータ修正の操
作のうち、仮想視点の向き・位置・回転の操作を変更す
る操作は、操作の内容と操作結果画像の振る舞いが一致
している方が、操作者にとって直感的に分かりやすい。
そのためには、パラメータ修正の操作のうちの次の操
作、すなわち、 (1)ジョイスティック1003Dの軸を上下左右に動
かす、いわゆるカメラの光軸の向きの調整に相当する操
作 (2)ジョイスティック1003Dの軸自身を回転させ
る、いわゆるカメラの光軸周りの回転の調整に相当する
操作 (3)平行移動ボタン1002Dの操作によって、仮想
視点からの視線方向に垂直に視点位置を平行移動する操
作の3通りの操作は、本実施の形態に記載のごとく、仮
想視点の向き・位置・回転の操作を変更する操作方向
と、実際の視点パラメータの変更方向の関係を、互いに
逆方向とする。
【0376】すなわち、例えばジョイスティック100
3Dを例に挙げると、ジョイスティック1003Dの操作
によって傾けられた軸の向きと同じように視線の中心軸
を設定するのではなく、ジョイスティック1003Dの
軸を動かした向きとは反対の方向に同じだけ視線方向を
動かし、動かした後の状態を変更された視線方向として
視線パラメータテーブル102Dに書き込めばよい。例
えば、ジョイスティック1003Dを右に10度傾けた
とすると、その時の視点パラメータ値は、視線方向が現
在の視線に対して左に10度傾いた値とする。同様に、
ジョイスティック1003Dを時計回りに5度回転させ
たとすると、その時の視点パラメータ値は、視線の中心
軸周りの回転角度を、反時計回りに5度回転させた値と
する。平行移動ボタン1004Dの操作についても同様
である。
【0377】図65は本実施の形態の画像生成装置に関
連のある技術の構成例を示したブロック図である。
【0378】ここでは、図61の構成に対して、さら
に、カメラ入力画像と合成画像との間の画素の対応づけ
関係を保持するマッピングテーブル109Dを備えてい
る。
【0379】このマッピングテーブル109Dを表形式
で示した概念図は、図51と同じ内容であるので詳細は
省略する。テーブルは、表示手段107Dにて表示する
画面の画素数分のセルから構成されている。
【0380】このような画像生成装置では、視点パラメ
ータ修正手段によって、視点パラメータが修正された
ら、カメラ入力画像と合成画像との間の画素の対応づけ
関係のうち、該修正によって変更の生じる部分を、上記
手順に従って再度計算し書き換えればよい。
【0381】マッピングテーブル109Dが作成されて
いる場合は、表示手段107Dは、マッピング手段10
4Dおよび視点変換手段105Dでの処理結果を用いて、
合成画像を表示するのではなく、該テーブルを用いて、
カメラ画像を表示画像に直接置き換えるようにする。こ
れにより複数カメラ画像の合成処理の高速化が可能とな
る。
【0382】さらに、前記視点パラメータ修正手段によ
って、仮想視点の位置、向きなどが変更された場合の、
他のマッピングテーブルの高速な修正方法を示す。
【0383】図66(a)は本実施の形態の画像生成装
置に関連する技術の構成例を示したブロック図、(b)
は視点パラメータ修正前の車載カメラ合成画像例を示す
概念図、(c)は視点パラメータ修正後の車載カメラ合
成画像例を示す概念図である。
【0384】本画像生成装置では、先の装置に、さら
に、視点パラメータ修正手段での処理によって変更され
た視点パラメータを用いて、前記マッピングテーブルを
再計算するマッピングテーブル修正手段110D、マッ
ピングテーブル修正手段110Dの処理途中のデータを
一時的に格納するバッファ111Dを備えた構成とな
る。
【0385】このマッピングテーブル修正手段110D
により、視点パラメータの修正結果を式(8)に反映さ
せて、この式(8)の複雑な計算をすることなく、上記
マッピングテーブルの内容を変更することが可能であ
る。以下で該マッピングテーブルの変更方法を手順を追
って説明する。
【0386】尚、図67(a)〜(c)は、該マッピン
グテーブルの変更方法の説明の補助に使用する概念図で
あり、灰色で示されている平行四辺形は仮想視点修正前
の画像面、白色で示されている平行四辺形は仮想視点修
正後の画像面を表している。また、仮想視点パラメータ
を修正するための操作部の構成が図64のようであると
する。 処理1.:マッピングテーブルの変更結果を一時的に格
納するバッファ111Dを予め設けておく。 処理2.:視点パラメータ修正手段によって、平行移
動、方向、回転、ズームのいずれかの視点パラメータ修
正情報を得、この情報内容に応じて以下の4つのいずれ
かの処理により、仮想視点修正前の表示座標(u,v)
と修正後の表示座標(u',v')の対応関係のデータ
(以下、テーブル変換データ)を計算し、バッファ11
1Dに書き込む。
【0387】(1)平行移動ボタン操作 平行移動の場合、図67(a)に示すように、平行移動
ボタンによって移動前と移動後の画素単位での移動距離
(du,dv)を獲得し、式(10)によって、変更前
の座標P1と変更後の座標P1'の関係を求め、上記関
係をバッファ111Dに書き込む。
【0388】
【式10】
【0389】(2)ジョイスティックによる方向修正操
作 仮想視点からの視線方向の場合、図67(b)に示すよ
うに、変更前と変更後の角度の変位分(θ,φ)を獲得
し、式(11)および式(12)によって、変更前の座
標P2と変更後の座標P2'の関係を求め、上記関係を
バッファ111Dに書き込む。
【0390】
【式11】
【0391】
【式12】
【0392】(3)ジョイスティックによる回転操作 仮想視点からの視線方向周りの回転を修正する場合、図
67(c)に示すように、変更前と変更後の回転角度ρ
を獲得し、式(13)によって、変更前の座標P3と変
更後の座標P3'の関係を求め、上記関係をバッファ1
11Dに書き込む。
【0393】
【式13】
【0394】(4)ズームボタン操作 ズーム(倍率)を修正する場合、ズームボタンによって
変更前に対する変更後の倍率kを獲得し、式(14)に
よって、変更前の座標P4と変更後の座標P4'の関係
を求め、上記関係をバッファ111Dに書き込む。
【0395】
【式14】
【0396】処理3.:バッファ111Dを参照しマッ
ピングテーブルを変更する。上記処理2.によって、マ
ッピングテーブルの各セルの座標1の変更内容が、例え
ば以下のようなテーブル変換データとして、バッファ1
11Dに書き込まれている。
【0397】(修正前の座標:P、修正後の座標:
P')該データを参照し、マッピングテーブルのすべて
のセルについて、下記の(a)(b)の条件を満たせ
ば、該セルの修正前の座標1:Pを、前記テーブル変換
データの修正後の座標P'に変更する。 (a)セルのカメラ番号が修正対象となった仮想視点に
対応する車載カメラ番号と一致する。 (b)セルの修正前の座標1:Pが、前記テーブル変換
データの左側の項の座標と一致する。
【0398】なお、カメラ番号が修正対象となった仮想
視点に対応する車載カメラ番号と一致するが、座標1の
修正の行われなかったセルは、修正された仮想視点から
見たときの視野範囲外になっていると考えられるため、
表示手段における表示エリア外の座標値を書き込む。ま
たその場合は、表示手段では、表示できない座標値が入
力されたら視野外を示す色として、例えば黒を表示する
などとすればよい。
【0399】以上、本実施の形態による画像生成装置を
構成するそれぞれの手段の実施の形態を説明した。最後
に、本実施の形態による画像生成装置における修正処理
の流れを図を用いて説明する。
【0400】図68は、本実施の形態の画像生成装置に
おける視点パラメータの修正処理の流れを示すフローチ
ャート、図69(a)〜(c)は、視点パラメータの修
正処理の説明の補助に使用する概念図である。 1.(処理1501)視点選択ボタン1001Dなどで
修正対象となる仮想視点を選択する。その際には画面上
には、図69(a)のごとく、合成画像がずれている様
子が表示されている。 2.(処理1502)本実施の形態の請求項58に記載
のごとく、修正中の仮想視点を仮の仮想視点(例えば修
正前の視点)に置き換え固定する。 3.(処理1503)ズームボタン1004D、平行移
動ボタン1002D、ジョイスティック1003Dを用い
て、仮想視点の3次元空間位置と、視線の向きを修正す
る。修正処理中は、上記2の処理によって視点が固定さ
れているため、あたかも視点部分においたカメラを手で
調整しているかのごとく、視点修正の作業を行うことが
できる。修正がうまくできれば、例えば図69(b)の
画面を経て、図69(c)のごとく、ずれのない様子が
表示される。 4.(処理1504)当該仮想視点の修正が終了する
と、修正後の視点パラメータを視点パラメータテーブル
108に書き込む。 5.(処理1505)他に修正の必要があるカメラがあ
れば、続いて前記カメラを選択し、上記処理1501〜
1504を繰り返す。無ければ次の処理1506に進
む。 6.(処理1506)仮想視点の仮の仮想視点に固定す
る状態を解除する。その合成結果、画面は、図69
(c)のごとく、ずれのない画像が表示されており、そ
の確認でもって視点パラメータ修正処理を終了する。
【0401】尚、図69(a)〜(c)の概念図に示し
たごとく、各々の車載カメラからの画像を接合する部分
においては、本実施の形態(請求項59の一例)のよう
に、該接合部分に、見た目に違和感を与えない程度のマ
ーカ(例えば点線)などを印しておくと、どのカメラの
画像がどこに表示されているかが分かり易くなる。
【0402】以上のように、本実施の形態では限られた
台数のカメラからの画像を用いて任意の仮想視点からの
画像を合成する。車両走行中の振動などにより、カメラ
の位置、向きがずれた場合、従来では、カメラそのもの
の微調整によってずれを元通りにするという方法をとっ
ていたため、前記ずれた画像を他の画像に合せ込む作業
が困難であった。しかし本実施の形態では、仮想視点と
いう概念を導入し、該仮想視点から見た画像を見なが
ら、視点パラメータ修正手段によって、ずれの生じた画
像のみを、あたかも仮想視点においたカメラを調整する
かのごとく、修正することができる。その際、視点の位
置の移動、向きの変更後の状態を、都度画像としてフィ
ードバックするため、修正作業者は、表示画像を都度確
認しながら最適の画像を得ることができるため、従来に
比べて、画像のずれの合せ込み作業が格段に容易になる
し、微少なずれであれば、大規模な装置を用いてのカメ
ラパラメータの再調整も必要ではなくなる。
【0403】また、本実施の形態では、実際のカメラの
向きを調整するのではなく、仮想に設けた視点の向き、
位置などのパラメータを修正するので、カメラの向きを
変更する機構が必要でなくなり、装置のコストを低価格
に押さえることが可能となる。
【0404】
【発明の効果】本発明のキャリブレーション装置は、車
両周囲監視、店舗内監視等のカメラ分野に応用でき、カ
メラの方向がずれた場合、画像上容易に修正できるとい
う長所を有する。
【図面の簡単な説明】
【図1】本発明の一実施の形態の構成例を示したブロッ
ク図
【図2】本実施の形態を組み合わせた装置の構成例を示
したブロック図
【図3】本実施の形態の構成例を示したブロック図
【図4】本実施の形態の構成例を示したブロック図
【図5】本実施の形態の構成例を示したブロック図
【図6】図1〜図5を統合した画像生成装置を示したブ
ロック図
【図7】車両へのカメラの取り付け例を示した概念図
【図8】カメラで撮影された画像を含む平面に設定した
U−V座標系の点と、3次元空間座標系の点との対応づ
けの関係を表した概念図
【図9】カメラパラメータテーブル103に格納されてい
るデータを表形式で示した図
【図10】温度補正テーブル111 の例を表形式で示した
【図11】度補正テーブルを用いて書き換えられたカメ
ラパラメータテーブル103 の例を表形式で示した図
【図12】空間データを格納する空間データバッファ10
5 の記述例を表の形式で示した図
【図13】路面上の特徴点と車両との位置関係を上部か
らみた概念図
【図14】図13の車載カメラ1で前記特徴点を含む路
面を撮影した画像を表す概念図
【図15】図13の車載カメラ2で前記特徴点を含む路
面を撮影した画像を表す概念図
【図16】路面上の特徴点A,B,Cと車両との位置関
係を上部から見た概念図
【図17】図16の車載カメラ1で前記特徴点A,Bを
含む路面を撮影した画像を表す概念図
【図18】図16の車載カメラ2で前記特徴点B,Cを
含む路面を撮影した画像を表す概念図
【図19】図16の車載カメラ1および車載カメラ2で
撮影した画像を用い、本実施の形態による視点変換手段
106によって仮想カメラから見た画像を合成した様子
を表す概念図
【図20】仮想カメラの設置場所の例として、車両のほ
ぼ中心の上方にカメラを下向きに設置した場合を示した
概念図
【図21】(a)仮想カメラの設置場所の例として、車
両のほぼ前方斜め上方にカメラを車の方へ向けて設置し
た場合を示した概念図(b)上記(a)の場合の合成画
像の例を示す概念図
【図22】(a)特徴点生成手段109としてのパター
ン光照射装置を車体側面上部に取付けた様子を示す概念
図 (b)パターン光照射装置を車体上部に数箇所取り付け
て、路面にパターン光を照射した状態を車両上部から見
た様子を示す概念図 (c)路面に照射された長方形のパターン光をカメラか
ら撮影した様子を示す概念図
【図23】キャリブレーション手段102 において、温度
によってカメラパラメータテーブル103 の更新処理を行
う手順を示すフローチャート
【図24】空間データ変換手段114 における処理の手順
を示すフローチャート
【図25】空間データ変換手段114 の説明の補助に用い
る概念図
【図26】補正履歴の記録を確認し、必要に応じて補正
指示を出す処理の手順を示すフローチャート
【図27】本実施の形態の処理の流れを示すフローチャ
ート
【図28】(a)本実施の形態の一例を示したブロック
図 (b)本実施の形態の一例を示したブロック図
【図29】(a)〜(d)空間モデルを鳥瞰図的に示し
た概念図
【図30】カメラで撮影された画像を含む平面に設定し
たU−V座標系の点と、3次元空間座標系の点との対応
づけの関係を表した概念図
【図31】マッピング手段104Aにおけるマッピング
処理の手順を示すフローチャート
【図32】車両と該車両の周囲に存在する障害物との距
離に基づいて、3次元空間内についたて面を立てる方法
を示す概念図
【図33】本実施の形態の処理の流れを示すフローチャ
ート
【図34】(a)本実施の形態の車両周囲監視装置の構
成例を示したブロック図 (b)本実施の形態の車両周囲監視装置の構成例を示し
たブロック図 (c)本実施の形態の車両周囲監視装置の構成例を示し
たブロック図
【図35】(a)本実施の形態による空間モデルを鳥瞰
図的に示した概念図 (b)本実施の形態による空間モデルを車両の上方から
下向きに透視投影した概念図
【図36】(a)〜(d)本実施の形態による路面特徴
検出手段103Bで特徴点を抽出する処理の例を示す図
【図37】特徴点の抽出処理の流れを示すフローチャー
【図38】本実施の形態の車両周囲監視装置において、
車両の動きにともなって特徴点の位置計算を行う処理の
手順を示すフローチャート
【図39】特徴位置計算手段における処理を示す図
【図40】特徴修正処理を表示手段107Bに表示して
いる様子を示した概念図
【図41】特徴修正処理における処理の流れを示すフロ
ーチャート
【図42】本実施の形態による車両周囲監視装置の処理
の流れを示すフローチャート
【図43】本実施の形態の構成例を示したブロック図
【図44】(a)車両への車載カメラの設置例を示した
概念図 (b)それぞれの車載カメラ画像のモニタへの表示領域
を示した概念図
【図45】車両を中心とする3次元空間座標系を示した
概念図
【図46】カメラパラメータテーブル102Cに格納さ
れているデータを表形式で示した図
【図47】視点パラメータテーブルに格納されているデ
ータを表形式で示した図
【図48】カメラで撮影された画像を含む平面に設定し
たU−V座標系の点と、3次元空間座標系の点との対応
づけの関係を表した概念図
【図49】カメラパラメータ修正手段106Cによって
カメラパラメータを修正するための操作部の構成例を示
した概念図
【図50】本実施の形態に関連する技術の一構成例を示
したブロック図
【図51】マッピングテーブル108Cを表形式で示し
た概念図
【図52】カメラパラメータの修正処理の流れを示すフ
ローチャート
【図53】(a),(b)カメラパラメータ修正時の表
示画面例を示す概念図
【図54】(a),(b)カメラパラメータ修正時以外
(すなわち通常時)の表示画面を示す概念図
【図55】本実施の形態の構成例を示したブロック図
【図56】本実施の形態の構成例を示したブロック図
【図57】点光源を用いてガイドデータを生成する場合
を示す概念図
【図58】車体の線分を用いてガイドデータを生成する
場合を示す概念図
【図59】点光源を用いたガイドデータを利用してキャ
リブレーションを行う様子を示す概念図
【図60】線分を用いたガイドデータを利用してキャリ
ブレーションを行う様子を示す概念図
【図61】本実施の形態の構成例を示したブロック図
【図62】視点パラメータテーブル108Dに格納され
ているデータを表形式で示した図
【図63】車載カメラからの画像を仮想視点からの画像
に変換する様子を示した概念図
【図64】視点パラメータ修正手段106Dによって視
点パラメータを修正するための操作部の構成例を示した
概念図
【図65】本実施の形態に関連する技術の一構成例を示
したブロック図
【図66】(a)本実施の形態に関連する技術の一構成
例を示したブロック図 (b)視点パラメータ修正前の車載カメラ合成画像例を
示す概念図 (c)視点パラメータ修正後の車載カメラ合成画像例を
示す概念図
【図67】(a)〜(c)マッピングテーブル109D
の変更方法を示す概念図
【図68】視点パラメータの修正処理の流れを示すフロ
ーチャート
【図69】(a)〜(c)視点パラメータの修正処理を
示す概念図
【図70】従来の画像生成装置の構成例を示したブロッ
ク図
【図71】従来の車両周囲監視装置の構成例を示したブ
ロック図
【符号の説明】
101 カメラ 102 キャリブレーション手段 103 カメラパラメータテーブル 104 空間再構成手段 105 空間データバッファ 106 視点変換手段 107 表示手段 108 特徴点抽出手段 109 特徴点生成手段 110 温度センサ 111 温度補正テーブル 112 移動方向検出手段 113 移動距離検出手段 114 空間データ変換手段 115 補正履歴記録手段 116 カメラ補正指示手段 101A カメラ 102A カメラパラメータテーブル 103A 空間モデル作成手段 104A マッピング手段 105A 視点変換手段 106A 表示手段 107A 距離センサ 108A 障害物検知手段 101B カメラ 102B カメラパラメータテーブル 103B 路面特徴検出手段 104B 空間モデル作成手段 105B マッピング手段 106B 視点変換手段 107B 表示手段 108B 移動距離検出手段 109B 移動方向検出手段 110B 特徴修正手段 101C カメラ 102C カメラパラメータテーブル 103C 空間モデル 104C マッピング手段 105C 視点変換手段 106C カメラパラメータ修正手段 107C 表示手段 108C マッピングテーブル 901C カメラ選択ボタン 902C 平行移動ボタン 903C ジョイスティック 904C ズームボタン 101D カメラ 102D カメラパラメータテーブル 103D 空間モデル 104D マッピング手段 105D 視点変換手段 106D 視点パラメータ修正手段 107D 表示手段 108D 視点パラメータテーブル 109D マッピングテーブル 110D マッピングテーブル修正手段 111D バッファ 1001D カメラ選択ボタン 1002D 平行移動ボタン 1003D ジョイスティック 1004D ズームボタン
【手続補正書】
【提出日】平成13年8月23日(2001.8.2
3)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0059
【補正方法】変更
【補正内容】
【0059】図11は、図10の例の温度補正テーブル
111 を用いて書き換えられたカメラパラメータテーブル
103 の例である。図11の例では、カメラ1、カメラ2
のみが、ある時点に直射日光を受けるなどして40度以
上の温度となり、それ以外は0度から40度未満の温度
値を保っている場合を示している。図11のカメラパラ
メータテーブル103 から分かる通り、カメラ1およびカ
メラ2のカメラパラメータが、温度が40度以上の場合
の温度補正処理によって、 ・レンズの焦点距離は df1 増加 ・レンズ歪み係数κ1は κ12 増加 ・レンズ歪み係数κ2 κ22 増加 していることが分かる。なお、前述の仮想カメラに関し
ては、温度によって焦点距離やレンズ歪みが変化しない
理想的なレンズとすることが可能であるので、本補正処
理の対象外とする。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0211
【補正方法】変更
【補正内容】
【0211】2-3.法線ベクトル(dx,dy,dz)を持ち、
点(px1,py1,pz1)を通る平面(式(15))を、ついたて面
とする。
【式15】 dx(x-px1) + dy(y-py1) + dz(z-pz1) = 0 3.前記ついたて面は、必要がなくななれば取り除く。
───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 特願平10−317407 (32)優先日 平成10年11月9日(1998.11.9) (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平10−324701 (32)優先日 平成10年11月16日(1998.11.16) (33)優先権主張国 日本(JP) (72)発明者 登 一生 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 森村 淳 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B057 AA16 BA11 BA23 CE08 5C054 AA01 AA05 CA04 CC02 CF01 CG05 EA01 EA05 FA09 FE11 FE28 HA18 HA30

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 カメラのキャリブレーションを行った日
    時又は走行距離を記録する補正履歴記録手段と、前記補
    正履歴記録手段を参照し、前回のキャリブレーションの
    日時から一定以上の日時が経過したとき、又は、前回の
    キャリブレーションから一定以上の距離を走行したと
    き、運転者にカメラキャリブレーションを実施するよう
    指示するカメラ補正指示手段とを備え、カメラキャリブ
    レーションの必要性を適切に指示することを特徴とする
    カメラキャリブレーション指示装置。
  2. 【請求項2】 少なくとも一台のカメラと、温度を測定
    する温度センサと、前記温度センサが測定した温度に基
    づいて、カメラ特性を示すカメラパラメータを決定する
    キャリブレーション手段と、を備えたことを特徴とする
    カメラキャリブレーション装置。
  3. 【請求項3】 前記カメラパラメータを格納するカメラ
    パラメータテーブルと、温度の変化に応じて変化する前
    記カメラパラメータの変化量を格納した温度補正テーブ
    ルとを有し、前記キャリブレーション手段は、温度の変
    化に応じて、前記温度補正テーブルを参照して、前記カ
    メラパラメータを変更することを特徴とする請求項2記
    載のカメラキャリブレーション装置。
  4. 【請求項4】 少なくとも一台のカメラと、前記カメラ
    が位置づけられた3次元空間における座標値が既知の複
    数個の特徴点を、前記カメラの視野内に生成する特徴点
    生成手段と、前記複数個の特徴点を抽出する特徴点抽出
    手段と、前記抽出された複数個の特徴点を用いて、前記
    カメラの特性を表すカメラパラメータを計算するキャリ
    ブレーション手段とを備えたことを特徴とするカメラキ
    ャリブレーション装置。
  5. 【請求項5】 前記特徴点生成手段は、前記カメラの視
    野内に、前記特徴点としてのパターン光を照射する機能
    を有することを特徴とする請求項4記載のカメラキャリ
    ブレーション装置。
JP2001244548A 1998-07-31 2001-08-10 カメラキャリブレーション指示装置及びカメラキャリブレーション装置 Pending JP2002135765A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001244548A JP2002135765A (ja) 1998-07-31 2001-08-10 カメラキャリブレーション指示装置及びカメラキャリブレーション装置

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
JP21726198 1998-07-31
JP28623398 1998-10-08
JP31739398 1998-11-09
JP31740798 1998-11-09
JP10-317393 1998-11-16
JP32470198 1998-11-16
JP10-324701 1998-11-16
JP10-317407 1998-11-16
JP10-286233 1998-11-16
JP10-217261 1998-11-16
JP2001244548A JP2002135765A (ja) 1998-07-31 2001-08-10 カメラキャリブレーション指示装置及びカメラキャリブレーション装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000563072A Division JP3286306B2 (ja) 1998-07-31 1999-07-29 画像生成装置、画像生成方法

Publications (1)

Publication Number Publication Date
JP2002135765A true JP2002135765A (ja) 2002-05-10

Family

ID=27553932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001244548A Pending JP2002135765A (ja) 1998-07-31 2001-08-10 カメラキャリブレーション指示装置及びカメラキャリブレーション装置

Country Status (1)

Country Link
JP (1) JP2002135765A (ja)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147210A (ja) * 2002-10-25 2004-05-20 Matsushita Electric Ind Co Ltd 運転支援装置
JP2005056295A (ja) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360度画像変換処理装置
JP2005341081A (ja) * 2004-05-26 2005-12-08 Clarion Co Ltd 距離マーカ生成方法及び距離マーカ生成プログラム
JP2006048451A (ja) * 2004-08-05 2006-02-16 Toshiba Corp 周辺監視装置および俯瞰画像表示方法
WO2006022184A1 (ja) * 2004-08-27 2006-03-02 Matsushita Electric Industrial Co., Ltd. カメラキャリブレーション装置及びカメラキャリブレーション方法
JP2007006175A (ja) * 2005-06-24 2007-01-11 Nissan Motor Co Ltd 車両用画像生成装置および方法
JP2007118762A (ja) * 2005-10-27 2007-05-17 Aisin Seiki Co Ltd 周辺監視モニタリングシステム
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
JP2007150658A (ja) * 2005-11-28 2007-06-14 Alpine Electronics Inc 車載周辺画像表示装置
JP2007265202A (ja) * 2006-03-29 2007-10-11 Denso Corp 画像処理装置及びプログラム
JP2008502228A (ja) * 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム
JP2008187566A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP2008187564A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP2008269139A (ja) * 2007-04-18 2008-11-06 Sanyo Electric Co Ltd 運転支援システム並びに車両
WO2009051028A1 (ja) * 2007-10-19 2009-04-23 Kabushiki Kaisha Toyota Jidoshokki 映像表示装置及び映像表示方法
WO2009050987A1 (ja) * 2007-10-18 2009-04-23 Sanyo Electric Co., Ltd. カメラ校正装置及び方法、並びに、車両
JP2009104323A (ja) * 2007-10-22 2009-05-14 Alpine Electronics Inc マッピングテーブル生成装置、車両周辺画像生成装置およびマッピングテーブル生成方法
WO2009116327A1 (ja) * 2008-03-19 2009-09-24 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
JP2009225119A (ja) * 2008-03-17 2009-10-01 Ricoh Co Ltd 画像撮像装置
WO2009131152A1 (ja) * 2008-04-23 2009-10-29 コニカミノルタホールディングス株式会社 3次元画像処理カメラおよび3次元画像処理システム
JP2009267602A (ja) * 2008-04-23 2009-11-12 Alpine Electronics Inc 車両周辺監視装置およびこれに適用されるカメラ取り付け位置・姿勢情報の設定修正方法
WO2010007960A1 (ja) * 2008-07-14 2010-01-21 クラリオン株式会社 車載用カメラの視点変換映像システム及び視点変換映像取得方法
WO2010052772A1 (ja) * 2008-11-05 2010-05-14 富士通株式会社 カメラ角度算出装置、カメラ角度算出方法およびカメラ角度算出プログラム
JP2010128951A (ja) * 2008-11-28 2010-06-10 Fujitsu Ltd 画像処理装置、画像処理方法及びコンピュータプログラム
JP2010199712A (ja) * 2009-02-23 2010-09-09 Ricoh Co Ltd 車載カメラ装置のキャリブレーション支援方法及びキャリブレーション支援装置、並びに車載カメラ装置
JP2010231276A (ja) * 2009-03-25 2010-10-14 Fujitsu Ltd 画像処理方法及び画像処理装置
JP2010233079A (ja) * 2009-03-27 2010-10-14 Aisin Aw Co Ltd 運転支援装置、運転支援方法、及び運転支援プログラム
WO2010137684A1 (ja) * 2009-05-29 2010-12-02 富士通テン株式会社 画像生成装置及び画像表示システム
JP2011182236A (ja) * 2010-03-02 2011-09-15 Toshiba Alpine Automotive Technology Corp カメラキャリブレーション装置
US8063936B2 (en) 2004-06-01 2011-11-22 L-3 Communications Corporation Modular immersive surveillance processing system and method
US8139114B2 (en) 2005-02-15 2012-03-20 Panasonic Corporation Surroundings monitoring apparatus and surroundings monitoring method for reducing distortion caused by camera position displacement
WO2012169353A1 (ja) * 2011-06-07 2012-12-13 株式会社小松製作所 作業車両の周辺監視装置
JP2013115540A (ja) * 2011-11-28 2013-06-10 Clarion Co Ltd 車載カメラシステム及びその較正方法、及びその較正プログラム
JP2013118508A (ja) * 2011-12-02 2013-06-13 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2013149218A (ja) * 2012-01-23 2013-08-01 Sumitomo Heavy Ind Ltd 画像生成装置及び操作支援システム
JP2013214839A (ja) * 2012-03-31 2013-10-17 Fujitsu Ltd 撮像設定制御システムおよび撮像設定制御方法
JP2014183498A (ja) * 2013-03-19 2014-09-29 Sumitomo Heavy Ind Ltd 作業機械用周辺監視装置
KR20150089675A (ko) * 2014-01-28 2015-08-05 엘지이노텍 주식회사 카메라 보정모듈, 카메라 시스템 및 카메라 시스템의 제어 방법
WO2015129280A1 (ja) * 2014-02-26 2015-09-03 京セラ株式会社 画像処理装置および画像処理方法
JP2016072703A (ja) * 2014-09-26 2016-05-09 アイシン精機株式会社 周辺監視装置、及び周辺監視システム
WO2017034026A1 (ja) * 2015-08-27 2017-03-02 株式会社デンソー 表示制御装置および表示制御方法
JP2018081591A (ja) * 2016-11-17 2018-05-24 萩原電気株式会社 画像合成装置及び画像合成方法
US10070117B2 (en) 2013-11-05 2018-09-04 Canon Kabushiki Kaisha Three-dimensional measuring apparatus
US10484665B2 (en) 2017-04-20 2019-11-19 Panasonic Intellectual Property Management Co., Ltd. Camera parameter set calculation method, recording medium, and camera parameter set calculation apparatus
JPWO2018142705A1 (ja) * 2017-02-02 2019-11-21 ソニー株式会社 情報処理装置、および情報処理方法
DE102019102350A1 (de) 2019-01-30 2020-07-30 Connaught Electronics Ltd. Ein Verfahren und eine Einrichtung zur Kompensation einer Bildverzerrung eines durch eine Bildaufnahmeeinrichtung aufgenommenen Bilds
JP2021507415A (ja) * 2017-12-20 2021-02-22 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 自動車用のカメラモニターシステムの動作方法および動作装置
JP2021513247A (ja) * 2018-06-05 2021-05-20 上▲海▼商▲湯▼智能科技有限公司Shanghai Sensetime Intelligent Technology Co., Ltd. 車載カメラ自己校正方法、車載カメラ自己校正装置、電子機器および記憶媒体
JP2021110631A (ja) * 2020-01-10 2021-08-02 株式会社デンソー 検出器の姿勢・位置検出システムおよび検出器の姿勢・位置検出方法
CN113615151A (zh) * 2019-03-26 2021-11-05 索尼半导体解决方案公司 车辆安装的照相机装置和图像失真校正方法
JP2021182001A (ja) * 2018-03-29 2021-11-25 ヤンマーパワーテクノロジー株式会社 作業車両

Cited By (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147210A (ja) * 2002-10-25 2004-05-20 Matsushita Electric Ind Co Ltd 運転支援装置
JP2005056295A (ja) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360度画像変換処理装置
JP2005341081A (ja) * 2004-05-26 2005-12-08 Clarion Co Ltd 距離マーカ生成方法及び距離マーカ生成プログラム
JP2008502228A (ja) * 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム
US8063936B2 (en) 2004-06-01 2011-11-22 L-3 Communications Corporation Modular immersive surveillance processing system and method
JP2008502229A (ja) * 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライト/視覚警報
JP2006048451A (ja) * 2004-08-05 2006-02-16 Toshiba Corp 周辺監視装置および俯瞰画像表示方法
WO2006022184A1 (ja) * 2004-08-27 2006-03-02 Matsushita Electric Industrial Co., Ltd. カメラキャリブレーション装置及びカメラキャリブレーション方法
US8139114B2 (en) 2005-02-15 2012-03-20 Panasonic Corporation Surroundings monitoring apparatus and surroundings monitoring method for reducing distortion caused by camera position displacement
JP2007006175A (ja) * 2005-06-24 2007-01-11 Nissan Motor Co Ltd 車両用画像生成装置および方法
JP4715334B2 (ja) * 2005-06-24 2011-07-06 日産自動車株式会社 車両用画像生成装置および方法
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
US8174576B2 (en) 2005-09-28 2012-05-08 Nissan Motor Co., Ltd. Vehicle periphery video providing apparatus and method
JP2007118762A (ja) * 2005-10-27 2007-05-17 Aisin Seiki Co Ltd 周辺監視モニタリングシステム
JP2007150658A (ja) * 2005-11-28 2007-06-14 Alpine Electronics Inc 車載周辺画像表示装置
JP4681432B2 (ja) * 2005-11-28 2011-05-11 アルパイン株式会社 車載周辺画像表示装置
JP2007265202A (ja) * 2006-03-29 2007-10-11 Denso Corp 画像処理装置及びプログラム
JP2008187564A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP2008187566A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP2008269139A (ja) * 2007-04-18 2008-11-06 Sanyo Electric Co Ltd 運転支援システム並びに車両
WO2009050987A1 (ja) * 2007-10-18 2009-04-23 Sanyo Electric Co., Ltd. カメラ校正装置及び方法、並びに、車両
JP2009101718A (ja) * 2007-10-19 2009-05-14 Toyota Industries Corp 映像表示装置及び映像表示方法
WO2009051028A1 (ja) * 2007-10-19 2009-04-23 Kabushiki Kaisha Toyota Jidoshokki 映像表示装置及び映像表示方法
JP2009104323A (ja) * 2007-10-22 2009-05-14 Alpine Electronics Inc マッピングテーブル生成装置、車両周辺画像生成装置およびマッピングテーブル生成方法
JP2009225119A (ja) * 2008-03-17 2009-10-01 Ricoh Co Ltd 画像撮像装置
WO2009116327A1 (ja) * 2008-03-19 2009-09-24 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
JP2009231936A (ja) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd 画像処理装置及び方法、運転支援システム、車両
JP2009267602A (ja) * 2008-04-23 2009-11-12 Alpine Electronics Inc 車両周辺監視装置およびこれに適用されるカメラ取り付け位置・姿勢情報の設定修正方法
WO2009131152A1 (ja) * 2008-04-23 2009-10-29 コニカミノルタホールディングス株式会社 3次元画像処理カメラおよび3次元画像処理システム
JPWO2010007960A1 (ja) * 2008-07-14 2012-01-05 クラリオン株式会社 車載用カメラの視点変換映像システム及び視点変換映像取得方法
WO2010007960A1 (ja) * 2008-07-14 2010-01-21 クラリオン株式会社 車載用カメラの視点変換映像システム及び視点変換映像取得方法
JP5387580B2 (ja) * 2008-11-05 2014-01-15 富士通株式会社 カメラ角度算出装置およびカメラ角度算出方法
US8537199B2 (en) 2008-11-05 2013-09-17 Fujitsu Limited Camera calibration device and method by computing coordinates of jigs in a vehicle system
WO2010052772A1 (ja) * 2008-11-05 2010-05-14 富士通株式会社 カメラ角度算出装置、カメラ角度算出方法およびカメラ角度算出プログラム
JP2010128951A (ja) * 2008-11-28 2010-06-10 Fujitsu Ltd 画像処理装置、画像処理方法及びコンピュータプログラム
JP2010199712A (ja) * 2009-02-23 2010-09-09 Ricoh Co Ltd 車載カメラ装置のキャリブレーション支援方法及びキャリブレーション支援装置、並びに車載カメラ装置
JP2010231276A (ja) * 2009-03-25 2010-10-14 Fujitsu Ltd 画像処理方法及び画像処理装置
JP2010233079A (ja) * 2009-03-27 2010-10-14 Aisin Aw Co Ltd 運転支援装置、運転支援方法、及び運転支援プログラム
WO2010137684A1 (ja) * 2009-05-29 2010-12-02 富士通テン株式会社 画像生成装置及び画像表示システム
US8941737B2 (en) 2009-05-29 2015-01-27 Fujitsu Ten Limited Image generating apparatus and image display system
JP2011182236A (ja) * 2010-03-02 2011-09-15 Toshiba Alpine Automotive Technology Corp カメラキャリブレーション装置
US8842181B2 (en) 2010-03-02 2014-09-23 Toshiba Alpine Automotive Technology Corporation Camera calibration apparatus
JP2012256960A (ja) * 2011-06-07 2012-12-27 Komatsu Ltd 作業車両の周辺監視装置
CN103155552A (zh) * 2011-06-07 2013-06-12 株式会社小松制作所 作业车辆的周边监视装置
WO2012169353A1 (ja) * 2011-06-07 2012-12-13 株式会社小松製作所 作業車両の周辺監視装置
US8982212B2 (en) 2011-06-07 2015-03-17 Komatsu Ltd. Surrounding area monitoring device for work vehicle
JP2013115540A (ja) * 2011-11-28 2013-06-10 Clarion Co Ltd 車載カメラシステム及びその較正方法、及びその較正プログラム
JP2013118508A (ja) * 2011-12-02 2013-06-13 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2013149218A (ja) * 2012-01-23 2013-08-01 Sumitomo Heavy Ind Ltd 画像生成装置及び操作支援システム
JP2013214839A (ja) * 2012-03-31 2013-10-17 Fujitsu Ltd 撮像設定制御システムおよび撮像設定制御方法
JP2014183498A (ja) * 2013-03-19 2014-09-29 Sumitomo Heavy Ind Ltd 作業機械用周辺監視装置
US10070117B2 (en) 2013-11-05 2018-09-04 Canon Kabushiki Kaisha Three-dimensional measuring apparatus
US10979694B2 (en) 2013-11-05 2021-04-13 Canon Kabushiki Kaisha Information processing apparatus, method, and storage medium
KR102158025B1 (ko) * 2014-01-28 2020-09-21 엘지이노텍 주식회사 카메라 보정모듈, 카메라 시스템 및 카메라 시스템의 제어 방법
KR20150089675A (ko) * 2014-01-28 2015-08-05 엘지이노텍 주식회사 카메라 보정모듈, 카메라 시스템 및 카메라 시스템의 제어 방법
WO2015129280A1 (ja) * 2014-02-26 2015-09-03 京セラ株式会社 画像処理装置および画像処理方法
JPWO2015129280A1 (ja) * 2014-02-26 2017-03-30 京セラ株式会社 画像処理装置および画像処理方法
US9902341B2 (en) 2014-02-26 2018-02-27 Kyocera Corporation Image processing apparatus and image processing method including area setting and perspective conversion
JP2016072703A (ja) * 2014-09-26 2016-05-09 アイシン精機株式会社 周辺監視装置、及び周辺監視システム
WO2017034026A1 (ja) * 2015-08-27 2017-03-02 株式会社デンソー 表示制御装置および表示制御方法
JP2017046214A (ja) * 2015-08-27 2017-03-02 株式会社デンソー 車載表示制御装置、車載表示制御方法
JP2018081591A (ja) * 2016-11-17 2018-05-24 萩原電気株式会社 画像合成装置及び画像合成方法
JPWO2018142705A1 (ja) * 2017-02-02 2019-11-21 ソニー株式会社 情報処理装置、および情報処理方法
JP7215173B2 (ja) 2017-02-02 2023-01-31 ソニーグループ株式会社 情報処理装置、および情報処理方法
US10484665B2 (en) 2017-04-20 2019-11-19 Panasonic Intellectual Property Management Co., Ltd. Camera parameter set calculation method, recording medium, and camera parameter set calculation apparatus
JP2021507415A (ja) * 2017-12-20 2021-02-22 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 自動車用のカメラモニターシステムの動作方法および動作装置
US11308336B2 (en) 2017-12-20 2022-04-19 Continental Automotive Gmbh Method and device for operating a camera-monitor system for a motor vehicle
JP2021182001A (ja) * 2018-03-29 2021-11-25 ヤンマーパワーテクノロジー株式会社 作業車両
JP2021513247A (ja) * 2018-06-05 2021-05-20 上▲海▼商▲湯▼智能科技有限公司Shanghai Sensetime Intelligent Technology Co., Ltd. 車載カメラ自己校正方法、車載カメラ自己校正装置、電子機器および記憶媒体
JP7082671B2 (ja) 2018-06-05 2022-06-08 上▲海▼商▲湯▼智能科技有限公司 車載カメラ自己校正方法、車載カメラ自己校正装置、電子機器および記憶媒体
DE102019102350A1 (de) 2019-01-30 2020-07-30 Connaught Electronics Ltd. Ein Verfahren und eine Einrichtung zur Kompensation einer Bildverzerrung eines durch eine Bildaufnahmeeinrichtung aufgenommenen Bilds
CN113615151A (zh) * 2019-03-26 2021-11-05 索尼半导体解决方案公司 车辆安装的照相机装置和图像失真校正方法
JP2021110631A (ja) * 2020-01-10 2021-08-02 株式会社デンソー 検出器の姿勢・位置検出システムおよび検出器の姿勢・位置検出方法

Similar Documents

Publication Publication Date Title
JP3286306B2 (ja) 画像生成装置、画像生成方法
JP2002135765A (ja) カメラキャリブレーション指示装置及びカメラキャリブレーション装置
EP1701306B1 (en) Driving support system
JP5208203B2 (ja) 死角表示装置
US20170234692A1 (en) Birds eye view virtual imaging for real time composited wide field of view
JP3300334B2 (ja) 画像処理装置および監視システム
EP1640212B1 (en) Monitoring system for monitoring surroundings of vehicle
US8446268B2 (en) System for displaying views of vehicle and its surroundings
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
US7554573B2 (en) Drive assisting system
US20190016256A1 (en) Projection of a Pre-Definable Light Pattern
US20160098815A1 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
KR100494540B1 (ko) 투시투영 화상 생성을 위한 시스템, 방법 및 프로그램, 및그 프로그램을 기억하는 기록 매체
US20080055407A1 (en) Apparatus And Method For Displaying An Image Of Vehicle Surroundings
KR20010112433A (ko) 화상처리장치 및 감시시스템
JP2001114047A (ja) 車両周囲状況提示装置
JP7217090B2 (ja) 情報提供装置及び情報提供方法
US20220222947A1 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
JP2019185520A (ja) 画像処理装置および方法
WO2020144798A1 (ja) 情報表示制御装置及び方法、並びにプログラム及び記録媒体
CN117011185B (zh) 一种电子后视镜cms图像矫正方法、系统及电子后视镜
JP5091882B2 (ja) 画像処理装置並びに視界支援装置及び方法
CN114332804A (zh) 一种基于前后视画面的泊车轨迹显示方法及装置
CN117557655A (zh) 一种ar-hud标定方法及其标定系统