JP3286306B2 - 画像生成装置、画像生成方法 - Google Patents

画像生成装置、画像生成方法

Info

Publication number
JP3286306B2
JP3286306B2 JP2000563072A JP2000563072A JP3286306B2 JP 3286306 B2 JP3286306 B2 JP 3286306B2 JP 2000563072 A JP2000563072 A JP 2000563072A JP 2000563072 A JP2000563072 A JP 2000563072A JP 3286306 B2 JP3286306 B2 JP 3286306B2
Authority
JP
Japan
Prior art keywords
camera
image
vehicle
viewpoint
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000563072A
Other languages
English (en)
Inventor
修作 岡本
雅通 中川
一生 登
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3286306B2 publication Critical patent/JP3286306B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Circuits (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、数台のカメラで撮
影された複数枚の画像について、画像を互いに独立して
表示するのではなく、前記数台のカメラで撮影している
エリアの全体の様子が直感的に分かるように、一枚に合
成した画像を表示する装置および方法に関し、たとえ
ば、店舗におけるモニター装置、あるいは車両運転の際
の安全確認の補助としての車両周囲モニター装置等に関
する。
【0002】
【従来の技術】従来の一般的な監視カメラ装置は、店舗
などにおいて、監視対象となる部分を1台もしくは数台
のカメラで撮影し、その画像をモニタ画面に表示する構
成が一般的である。この際、例えば数台のカメラが設置
してあれば、通常モニタ画面も前記カメラ台数分だけ準
備するが、モニタ画面の台数がカメラの台数分だけ準備
できない場合は、分割装置等を用いて、前記数台のカメ
ラ画像を1枚分の画像に統合して表示させる、もしく
は、カメラ画像を順次切り替えるなどの方法が取られ
る。しかし、これら従来の装置では、それぞれのカメラ
からの画像を監視するには、独立に表示されている画像
の連続性を管理者が考慮する必要があるなどの問題があ
った。
【0003】この問題を解決する方法として、複数台カ
メラからの画像が端の部分で重なるように設置し、複数
台カメラからの画像を、前記重なり部分を重ねることに
よって一枚に統合した画像を表示することで、前記連続
性の問題を解決した監視装置としては、例えば特開平1
0−164566号公報などがある。
【0004】また、監視装置の別の応用例として、車両
に設置した場合がある。その従来例としては次のような
ものがある。つまり、車両の周囲を監視するカメラを設
置し、前記カメラで獲得した画像を運転席近くに設置し
たモニターテレビに表示させる監視装置である。例えば
車両後方のように、運転者が目視もしくはミラーで見る
ことが出来ない場所を、前記カメラで撮影し前記モニタ
ーテレビで表示させる装置が知られている。特に、大型
トラック、ワンボックスワゴンなど、目視およびミラー
で確認できる視野が狭い車両には多数使用されている。
【0005】図69は、監視カメラを車両に設置した場
合の従来例を示したものである。図69の例では、分割
アダプタを介して、車体に取付けられた4つの監視カメ
ラ(C1〜C4)からの画像を一枚の画像に合成し、該
画像をモニタテレビで分割表示 (D1〜D4)する方
法である。特に後部カメラからの画像に関しては、画像
に撮っている物体の位置関係をミラーで見たときと同じ
様にするため、左右反転した画像を表示するなどの工夫
がされている。さらにカメラの画角の制限のため見るこ
とが出来ない場所については、運転者の手動操作によっ
て各々のカメラを回転させ、所望の場所の画像を得るこ
とを可能としている。なお、上記に示した監視装置とし
ては、例えば特開平5−310078号公報に開示の装
置などがある。
【0006】しかしながら上記の例のような従来の監視
装置については、各々のカメラから入力された画像を、
互いに無関係に表示するので、カメラが撮影している空
間全体の様子を、それぞれの画像を見ながら管理者が一
度に把握することは困難である。
【0007】一方それぞれのカメラ画像を一枚に統合す
る場合も、カメラに撮影されている物体が空間内のどの
位置に存在するかを計算するものではないので、例えば
管理者が状況に応じて所望の視点からの統合画像を見た
いという要求があった場合に、対処できない。
【0008】車両に設置された監視装置についても同様
の問題が生じる。すなわち上記の例のように従来の監視
装置については、各々のカメラから入力された画像を、
互いに無関係に表示させるものである。従って例えば車
両を駐車スペースに入れようとする場合の補助として前
記表示された画像を用いる際にも、前記画像は見えない
場所を見るだけの役割しか果たさない。つまり運転者
は、従来の目視およびミラーを使った場合と比べて見え
ない場所が少なくなっただけにすぎない。
【0009】なお、視野が狭い点を解決するための方法
としては、広角レンズを用いる事が一般的である。広角
レンズからの画像ではある特定部分の詳細はつかめない
が、逆に広角レンズを用いる事で視野が広まり、車両の
周囲の全体的な状況を把握し易くなる。
【0010】しかしながら、通常のレンズを広角レンズ
に置き換えるのみでは、結局、カメラからの画像は、車
体にカメラが設置されている場所に依存し、カメラが設
置されていない場所からの仮想的な画像を見ることはで
きない。すなわち、広角レンズ設置したカメラを用いて
得られる効果は、カメラの台数が減るという点のみであ
る。
【0011】さらに、別の従来例として、特開平3−9
9952号公報に開示されている装置がある。図70
は、その従来の車両周囲監視装置の実施例を示したブロ
ック図である。画像変換部2202 に入力されたカメラ1
〜N2201 からの画像が、変換により他の座標に変換さ
れ、画像表示部2203 で1枚の画像に合成される。そし
て運転席に設置されたTVモニタ2204に表示する。画像
表示部では、ギア位置、車速、ウインカ動作に応じた信
号により、自車表示位置を画面の中心よりずらすなど
し、見ようとする車両周囲環境領域を広くとるようにす
るなどの工夫も可能である。
【0012】また、これをさらに発展させた他の従来例
が特開平7−186833号公報に開示されている。こ
の例では、周囲の状況を運転者に提示する際に、路面部
分とそれ以外の部分を予め区別し、路面部分は座標変換
によって車両中心上方に下向きに視点を置いたときに観
測される画像に変換し、また路面外部分は、前記変換画
像にカメラからの映像をそのまま適切な場所で適切な大
きさに変更して重ねあわせ表示する。これにより車両の
周囲の障害物の状況、特に車両後方から接近する他の車
両などを正確に知らせるものである。
【0013】
【発明が解決しようとする課題】しかしながら、上記別
の従来の車両周囲監視装置においては、得られる合成画
像と実在の物体との対応づけが困難になる場合があると
いう問題があった。
【0014】また上記他の従来例では、路面と路面外と
を分割することにより、路面外物体を画像に映った状態
で切り出し合成画像に貼り付けるという方法を用いてい
るが、路面外物体の切り出しは画像認識の分野でも難し
い問題の一つであり、実用化は困難である。
【0015】一方、走行中にカメラが動いてしまい、合
成画像にずれが生じるという問題があるが、それを解決
する従来例としては、例えば特開平5−310078号
公報に開示されている方法がある。該方法では、カメラ
の向きを変更する機構を備えることにより、運転者が合
成画面を見ながら、手で所望の向きにカメラを動かす方
法である。しかし、この場合の問題は、向きを変更する
機構をカメラの台数と同じ数だけ取付ける必要があり、
コストが高くなる点である。
【0016】本発明は、かかる課題を解決するものであ
り、例えば車両に設置された装置では、車両の全周囲に
わたって車両近辺にどのような物体が存在するかを出来
るだけ現実に近いように分かり易く一枚の画像として合
成し、運転者に表示することを目的とする。
【0017】また、本発明は、前記合成のために必要
な、カメラの取り付け位置、取り付け角度などのカメラ
パラメータを容易に求める方法、さらには、前記カメラ
パラメータが、走行時の振動や温度などによってずれた
ときに、それを検知し修正する装置および方法も提供す
【0018】
【課題を解決するための手段】上記課題を解決するため
に、本発明は、一台もしくは複数台のカメラと、前記カ
メラからの入力画像を、3次元空間の予め決められた空
間モデルにマッピングする空間再構成手段と、前記空間
再構成手段によってマッピングされた空間データを参照
して、前記3次元空間における任意の仮想視点から見た
画像を作成する視点変換手段と、前記視点変換手段にて
変換された画像を表示する表示手段とを備えたことを特
徴とする画像生成装置である。
【0019】また、上記課題を解決するために、本発明
の画像生成方法は3次元空間に存在するカメラからの入
力画像を、前記3次元空間の予め決められた空間モデル
にマッピングして空間データを作成する空間再構成工程
と、前記空間データを参照して、前記3次元空間におけ
る任意の仮想視点から見た画像を作成する視点変換工程
とを備えたことを特徴とする画像生成方法である。
【0020】上記課題を解決するために、本発明の装置
は次の構成を有する。
【0021】本発明の基本構成は、車両に設置された一
台もしくは複数台のカメラから画像を入力する画像入力
手段と、前記カメラ特性を示すカメラパラメータを格納
するカメラパラメータテーブルと、車両を基準とした座
標系に空間モデルを作成する空間モデル作成手段と、前
記カメラより入力された画像を前記空間モデルにマッピ
ングするマッピング手段と、視点を設定し、前記視点か
ら見た一枚の画像を、前記マッピング手段にて作成され
たデータから合成する視点変換手段と、前記視点変換手
段にて変換された画像を表示する表示手段とを備えたこ
とを特徴とする。
【0022】本発明による監視装置の第1の応用構成
は、距離を計測する距離センサと、車両周囲の状況とし
て、少なくとも車両周囲に存在する障害物までの距離を
前記距離センサを用いて計測する障害物検知手段とを備
えたことを特徴とする。
【0023】本発明による装置では、予め適当に設定し
た空間モデル、もしくは、障害物検知手段によって検知
された車両周囲の障害物までの距離に応じて設定される
空間モデルが、空間モデル作成手段によって作成され
る。画像入力手段により車両に設置されたカメラから入
力された車両周囲の画像は、マッピング手段によって前
記空間モデルにマッピングされる。つづいて、視点変換
手段にて決められた視点から見た一枚の画像をマッピン
グされた画像から合成し、表示手段にて表示する。この
際、車両の乗員は、所望の視点からの画像を表示するこ
とが可能である。
【0024】上記課題を解決するために、本発明の基本
構成は、車両に設置された一台もしくは複数台のカメラ
から画像を入力する画像入力手段と、前記カメラ特性を
示すカメラパラメータを格納するカメラパラメータテー
ブルと、車両周囲の状況として、路面上の特徴を検知す
る路面特徴検出手段と、車両を基準として設定された座
標系に、前記路面特徴検出手段の処理結果に応じた空間
モデルを作成する空間モデル作成手段と、前記カメラよ
り入力された画像を前記空間モデルにマッピングするマ
ッピング手段と、視点を設定し、前記視点から見た一枚
の画像を、前記マッピング手段にて作成されたデータか
ら合成する視点変換手段と、前記視点変換手段にて変換
された画像を表示する表示手段とを備えたことを特徴と
する。
【0025】また、本発明の第1の応用構成は、車両の
移動方向を検出する移動方向検出手段と、車両の単位時
間における移動距離を検出する移動距離検出手段を備
え、前記移動方向検出手段および前記移動距離検出手段
での処理結果を用いて、前記路面上の特徴の現在位置を
計算し、計算した車両の現在位置にもとづいて、前記空
間モデルを逐次修正することを特徴とする。
【0026】また、第2の応用構成は、前記表示手段に
おいて前記路面特徴検出手段における処理結果を表示し
つつ前記処理結果を修正する特徴修正手段を備えたこと
を特徴とする。
【0027】本発明は、白線などの路面上の特徴を路面
特徴検出手段にて検出し、空間モデル作成手段で前記検
出された特徴に合わせて空間モデルを作成する。画像入
力手段により車両に設置されたカメラから入力された車
両周囲の画像は、マッピング手段によって前記空間モデ
ルにマッピングされる。つづいて、視点変換手段にて決
められた視点から見た一枚の画像をマッピングされた画
像から合成し、表示手段にて表示する。車両が移動した
場合は車両と路面特徴との位置関係が変化するので、該
変化に応じて空間モデルを修正し、修正後の空間モデル
を用いて画像を合成し表示する。
【0028】上記目的を達成するために、本発明は、車
両に設置された一台もしくは複数台のカメラから画像を
入力する画像入力手段と、前記カメラ特性を示すカメラ
パラメータを格納するカメラパラメータテーブルと、前
記車両の周囲の状況をモデル化した空間モデルに前記カ
メラより入力された画像をマッピングするマッピング手
段と、所望の仮想視点から見た一枚の画像を、前記マッ
ピング手段にて作成されたデータから合成する視点変換
手段と、前記カメラのパラメータを、各々のカメラで独
立して修正するカメラパラメータ修正手段と、前記視点
変換手段にて変換された画像を表示する表示手段とを備
えたことを特徴とする。
【0029】また、前記視点変換手段は、前記カメラパ
ラメータ修正手段での処理時と通常動作時とで仮想視点
を切り替えることを特徴とする。
【0030】また、前記視点変換手段は、前記カメラパ
ラメータ修正手段での処理時は、仮想視点を車載カメラ
のいずれかのカメラパラメータと一致させることを特徴
とする。
【0031】また、前記視点変換手段は、前記カメラパ
ラメータ修正手段での処理時は、仮想視点を、該修正を
行っているカメラの、修正処理前のカメラパラメータと
一致させることを特徴とする。
【0032】また、前記視点変換手段において、視点の
向きを変更する操作の向きと、前記視点の向きとの関係
を互いに逆方向とすることを特徴とする。
【0033】また、前記表示手段は、各々のカメラから
の画像を表示する際に、各々の画像の接する境界部分
で、境界を示すマークを合成画像に重ね合わせて表示す
ることを特徴とする。
【0034】上記目的を達成するために、本発明は、車
両に設置された一台もしくは複数台のカメラから画像を
入力する画像入力手段と、前記カメラ特性を示すカメラ
パラメータを格納するカメラパラメータテーブルと、車
両の周囲の状況をモデル化した空間モデルに前記カメラ
より入力された画像をマッピングするマッピング手段
と、少なくとも位置、向きを含む視点パラメータを格納
する視点パラメータテーブルと、前記マッピング手段で
のマッピング処理の結果を用いて、所望の仮想視点から
見た画像を合成する視点変換手段と、前記仮想視点のパ
ラメータを修正する視点パラメータ修正手段と、前記視
点変換手段にて変換された画像を接合して表示する表示
手段とを備えたことを特徴とする。
【0035】また、前記一組の視点パラメータは、車両
に設置されたカメラのいずれか一つと対となるよう区別
して前記視点パラメータテーブルに格納することを特徴
とする。
【0036】また、視点パラメータ修正手段において、
仮想視点パラメータ変更操作のうち、少なくとも向き・
位置・回転の操作については、操作方向と実際の視点パ
ラメータの変更との関係を、互いに逆とすることを特徴
とする。
【0037】また、視点パラメータ修正手段において、
視点パラメータ修正する際は固定した仮の仮想視点を設
け、当該修正中の仮想視点での修正経過を、前記仮の仮
想視点からの画像として逐次合成表示することを特徴と
する。
【0038】また、前記表示手段は、各々のカメラから
の画像を表示する際に、各々の画像の接する境界部分
で、境界を示すマークを合成画像に重ね合わせて表示す
ることを特徴とする。
【0039】また、カメラ入力画像と合成画像との間の
画素の対応づけ関係を保持するマッピングテーブルを備
え、前記マッピング手段および視点変換手段での処理に
よって得られた前記対応づけ関係を前記マッピングテー
ブルに格納することを特徴とする。
【0040】また、視点パラメータ修正手段での処理に
よって変更された視点パラメータを用いて、前記マッピ
ングテーブルを再計算するマッピングテーブル修正手段
を備えたことを特徴とする。
【0041】
【発明の実施の形態】本発明の基本的構成は、一台もし
くは複数台のカメラと、前記カメラの特性を示すカメラ
パラメータを格納するカメラパラメータテーブルと、前
記カメラパラメータに基づいて、前記カメラからの入力
画像を3次元空間の空間モデルにマッピングして空間デ
ータを作成する空間再構成手段と、前記空間再構成手段
にて作成された空間データを一時的に格納する空間デー
タバッファと、前記空間データを参照して、任意の視点
から見た画像を作成する視点変換手段と、前記視点変換
手段にて変換された画像を表示する表示手段とを備えた
ことを特徴とする。
【0042】本発明による画像生成装置の第1の応用構
成は、カメラ特性を示すカメラパラメータを、入力もし
くは計算によって得るキャリブレーション手段を備えた
ことを特徴とする。
【0043】本発明による画像生成装置の第2の応用構
成は、カメラ視野内に3次元座標の同定が可能な複数個
の点を生成する特徴点生成手段と、それらの特徴点を抽
出する特徴点抽出手段とを備えたことを特徴とする。
【0044】本発明による画像生成装置の第3の応用構
成は、温度センサ、温度補正テーブルを備えたことを特
徴とする。
【0045】本発明による画像生成装置の第4の応用構
成は、車両の移動方向を検出する移動方向検出手段と、
車両の単位時間における移動距離を検出する移動距離検
出手段と、車両の移動方向および移動距離を用いて、前
記空間データバッファに格納された空間データを変換す
る空間データ変換手段とを備えたことを特徴とする。
【0046】本発明による画像生成装置の第5の応用構
成は、カメラのキャリブレーションが必要な状況を検知
した場合に運転者にカメラキャリブレーションの指示を
行うカメラ補正指示手段と、カメラキャリブレーション
を行った日時および走行距離を記録する補正履歴記録手
段とを備えたことを特徴とする。
【0047】また、本発明の画像生成方法は、カメラ特
性を示すカメラパラメータに基づいてカメラからの入力
画像を構成する各々の画素を3次元空間の点に対応づけ
た空間データを作成する空間再構成工程と、前記空間デ
ータを参照して任意の視点から見た画像を作成する視点
変換工程とを包含することを特徴とする。
【0048】本発明による画像生成方法の第1の応用構
成は、前記カメラ特性を示すカメラパラメータを入力も
しくは計算によって獲得し、また必要であれば温度に応
じて前記カメラパラメータを補正するキャリブレーショ
ン工程を包含することを特徴とする。
【0049】本発明による画像生成方法の第2の応用構
成は、前記キャリブレーション手段で前記カメラパラメ
ータの計算に必要な複数個の特徴点を抽出する特徴点抽
出工程を包含することを特徴とする。
【0050】本発明による画像生成方法の第3の応用構
成は、カメラ視野内に3次元座標の同定が可能な複数個
の点を生成する特徴点生成工程を包含することを特徴と
する。
【0051】本発明による画像生成方法の第4の応用構
成は、車両の移動方向を検出する移動方向検出工程と、
車両の単位時間における移動距離を検出する移動距離検
出工程と、前記移動方向検出工程によって検出された車
両の移動方向、および移動距離検出工程によって検出さ
れた車両の移動距離を用いて、前記空間データを変換す
る空間データ変換工程とを包含することを特徴とする。
【0052】本発明による画像生成方法の第5の応用構
成は、カメラのキャリブレーションが必要な状況を検知
し、キャリブレーションが必要である場合に、運転者に
カメラキャリブレーションの指示を行うカメラ補正指示
工程と、カメラキャリブレーションを行った日時および
走行距離を記録する補正履歴記録工程とを包含すること
を特徴とする。
【0053】本発明(請求項1の一例)の画像生成装置
では、以下の3ステップからなる手順によって、複数台
設置されているそれぞれのカメラ視野を統合し、一枚の
画像として合成する。
【0054】1.空間再構成手段において、カメラから
得られた画像を構成する各々の画素と、3次元座標系の
点との対応関係を計算し、空間データを作成する、前記
計算は各々のカメラから得られた画像のすべての画素に
対して実施する。
【0055】2.視点変換手段において、所望の視点を
指定する。すなわち、前記3次元座標系の、どの位置か
ら、どの角度で、どれだけの倍率で、画像を見たいかを
指定する。
【0056】3.同じく視点変換手段において、前記視
点からの画像を、前記空間データから再現し、表示手段
にて表示する。
【0057】請求項9、請求項10および請求項13に
記載の発明を組み合わせた画像生成装置の一例では、特
徴点生成手段によって車体の周囲などに3次元座標の同
定が可能な複数個の点を生成し、それらの特徴点を特徴
点抽出手段で抽出することにより、各々のカメラについ
て、その特性を示すカメラパラメータを自動で得る。
【0058】本発明(請求項15の一例)の画像生成装
置では、温度センサ、温度補正テーブルを設置すること
により、気温上昇・下降にともなって微妙に変化するレ
ンズ歪みを補正し、レンズを常に最適に保つ。
【0059】また、本発明(請求項18の一例)の画像
生成装置では、画像生成装置の車両への応用例として、
カメラから死角となる部分の画像を見る方法を提供す
る。すなわち車両の移動方向および移動距離を検出し、
検出結果から導かれた計算式を用いて、以前に取得した
画像を現在の位置から見た画像に変換する。具体的に
は、以前に見えていたが現在見えていない場所について
の空間データは、前記場所を撮影した画像が空間データ
として空間データバッファに格納されている場合、その
空間データを空間データ変換手段で変換することによっ
て補われる。
【0060】また、本発明(請求項19の一例)の画像
生成装置では、画像生成装置の車両への応用例として、
カメラの特性を示すカメラパラメータの補正、すなわち
カメラキャリブレーションを実施しなければならない状
況を検知し、その旨を運転者に指示する。
【0061】以下、図を用いて本発明の一実施例を説明
する。なお本実施例においては、車両の周囲を監視する
カメラを設置し、前記カメラで獲得した画像を運転席近
くに設置したモニターテレビに表示させる画像生成装置
を対象として説明する。
【0062】図1は本発明(請求項1)の画像生成装置
の基本構成の一例を示したブロック図である。
【0063】本発明による画像生成装置は、基本構成例
として、監視対象領域の状況を把握するために取付けら
れた複数台のカメラ101 、前記カメラの特性を示すカメ
ラパラメータを格納しておくカメラパラメータテーブル
103 、カメラパラメータに基づいて、前記カメラからの
入力画像を3次元空間の空間モデルにマッピングした空
間データを作成する空間再構成手段104 、空間再構成手
段104 にて作成された空間データを一時的に格納する空
間データバッファ105 、空間データを参照して、任意の
視点から見た画像を作成する視点変換手段106 、視点変
換手段106 にて変換された画像を表示する表示手段107
からなる。
【0064】図2は請求項9、請求項10および請求項
13に記載の本発明を組み合わせた画像生成装置の構成
の一例を示したブロック図である。
【0065】図2の例では、図1に示した画像生成装置
に対して、さらに、カメラの取り付け位置、カメラの取
り付け角度、カメラのレンズ歪み補正値、カメラのレン
ズの焦点距離などといった、前記カメラ特性を表すカメ
ラパラメータを、入力もしくは計算によって得るキャリ
ブレーション手段102 、前記カメラの視野内に3次元座
標の同定が可能な複数個の点を生成する特徴点生成手段
109 とそれらの特徴点を抽出する特徴点抽出手段108と
を付加し、各々のにカメラについて、その特性を示 す
カメラパラメータを容易に得ることを可能としている。
【0066】特徴点生成手段109 および特徴点抽出手段
108の振る舞いによってカメラパラメータを得るための
方法についての詳細は後述する。
【0067】図3は本発明(請求項15の一例)の画像
生成装置の構成例を示したブロック図である。図3の例
では、図1に示した画像生成装置に対して、更に温度セ
ンサ110、温度補 正テーブル111 を設置することによ
り、気温上昇・下降にともなって微妙に変化するレンズ
歪みを補正し、レンズを常に最適に保つことが可能とな
る。キャリブレーション手段102 において温度によるレ
ンズ歪みの補正を行う方法についての詳細は後述する。
【0068】図4は本発明(請求項18の一例)の画像
生成装置の構成例を示したブロック図である。図4は車
両への応用例としての画像生成装置の構成例で、図1に
示した画像生成装置に対して、さらに車両の移動方向を
検出する移動方向検出手段112 と、車両の単位時間にお
ける移動距離を検出する移動距離検出手段113 と、車両
の移動方向および移動距離を用いて、前記空間データバ
ッファ105 に格納された空間データを変換する空間デー
タ変換手段114 とを付加している。
【0069】これらの手段を用いることにより、現在見
えていない場所について、以前に見えており、かつ、そ
の見えていた画像が空間データとして空間データバッフ
ァ105 に格納されていれば、その空間データを本発明を
構成する空間データ変換手段114 で変換することによっ
て補うことができる。補うための方法についての詳細は
後述する。
【0070】図5は本発明(請求項19の一例)の車両
への応用例としての画像生成装置で、その構成例を示し
たブロック図である。
【0071】図5の画像生成装置の例では、図1に示し
た画像生成装置に対して、さらにカメラのキャリブレー
ションが必要な状況を検知した場合に、運転者にカメラ
キャリブレーションの指示を行うカメラ補正指示手段11
6 と、カメラキャリブレーションを行った日時および走
行距離を記録する補正履歴記録手段115 を付加してい
る。これらの手段を用いることにより、カメラの特性を
示すカメラパラメータの補正、すなわちカメラキャリブ
レーションを実施しなければならない状況を検知し、そ
の旨を運転者に提示する。
【0072】図6は、図1〜図5を統合した画像生成装
置を示したブロック図であり、図1から図5の画像生成
装置を一つにまとめた場合の構成例で、それぞれの構成
で得られる効果を統合して利用することが可能である。
本実施例の最後で、本図6の構成例を用いて、本発明に
よる画像生成装置の動作例を示す。
【0073】次に、本発明を構成する各構成要素につい
ての詳細を説明する。
【0074】カメラは、車両の周囲の状況など、監視す
べき空間の画像を撮り込むテレビカメラである。このカ
メラは、大きな視野を得ることができるよう、通常、画
角が大きいものを使うのが良い。図7は、車両へのカメ
ラの取り付け例を示した概念図である。
【0075】図7では、車両の屋根に、車両から周囲を
見渡すようにカメラが6台設置されている例を示してい
る。図7の例のように、車両への取り付け位置として
は、車体屋根と側面もしくは屋根と後面の境界部分にす
ると、視野が広くなりカメラの台数も少数で済む。
【0076】本発明によるキャリブレーション手段102
は、カメラキャリブレーションを行う。カメラキャリブ
レーションとは、3次元実世界に配置されたカメラにつ
いての、その3次元実世界における、カメラの取り付け
位置、カメラの取り付け角度、カメラのレンズ歪み補正
値、カメラのレンズの焦点距離などといった、前記カメ
ラ特性を表すカメラパラメータを決定、補正することで
ある。
【0077】本発明によるカメラパラメータテーブル10
3 は、キャリブレーション手段102 (処理の詳細は後述)
によって得られたカメラパラメータを格納するテーブル
である。
【0078】まず該カメラパラメータテーブル103 の詳
細な説明の準備として、3次元空間座標系を定義する。
前出の図7は、車両にカメラを設置した様子を示した概
念図であるが、図7において車両を中心とする3次元空
間座標系を示している。図7の例では3次元空間座標系
の例として、 ・車両の後面直下にある後面に平行な路面上の直線をX
軸 ・車両の後面中央に路面から垂直に伸びる軸をY軸 ・車両の後面中央を通り後面に垂直な路面上の直線をZ
軸 とする3次元空間座標系を定義し、また本座標系におい
てカメラの向きは、 ・Y−Z平面に対してなす角度をα ・X−Z平面に対してなす角度をβ として、該α、βを用いて表すものとする。以下、特に
ことわりがない限り、3次元空間座標系もしくはワール
ド座標系もしくは単に3次元空間は、本定義による3次
元空間座標系を指すものとする。
【0079】図9は、カメラパラメータテーブル103 に
格納されているデータを表形式で示したものである。図
9に記載されている内容は、テーブルの左側の列から順
に以下の通りで、下記のごとく本テーブルでは、2列目
から9列目までの項目がカメラパラメータの例を示して
いる。
【0080】1列目:図7の車載カメラの番号 2列目:3次元空間座標系におけるカメラ位置のX座標 3列目:3次元空間座標系におけるカメラ位置のY座標 4列目:3次元空間座標系におけるカメラ位置のZ座標 5列目:カメラの向きのうちY−Z平面に対してなす角
度α 6列目:カメラの向きのうちX−Z平面に対してなす角
度β 7列目:3次元空間座標系におけるカメラの焦点距離 8列目:レンズの半径方向の歪み係数κ1 9列目:レンズの半径方向の歪み係数κ2 例えば、図7におけるカメラ1のパラメータは図9のカ
メラパラメータテーブル103 の2行目に記載されてお
り、その内容は、カメラ1は、座標(x1、y1、0)の位置
にあり、向きはY−Z平面に対して45度、X−Z平面
に対して−30度の角度をなし、焦点距離はf1、レンズ
歪み係数κ1、κ2はともに0である、ということが分
かる。
【0081】同様に、仮想カメラのパラメータは図9の
カメラパラメータテーブル103 の8行目に記載されてお
り、その内容は、仮想カメラとは、座標(0、y1、0)の
位置にあり、向きはY−Z平面に対して0度、X−Z平
面に対して−20度の角度をなし、焦点距離はf、レン
ズ歪み係数κ1、κ2はともに0である、ということが
分かる。
【0082】この仮想カメラは、本発明に導入される概
念である。すなわち従来の画像生成装置では、実際に設
置されているカメラから得られた画像のみしか表示でき
なかったが、本発明による画像生成装置では、後で詳述
する空間再構成手段104 、視点変換手段106 により、仮
想のカメラを自由に設置し、その仮想カメラからの画像
を計算によって求めることが可能となる。該計算方法に
ついても後で詳述する。
【0083】本発明によるキャリブレーション手段102
は、カメラキャリブレーションを行う。それはすなわち
前記カメラパラメータを決定することであり、その決定
方法としては、例えばキーボードやマウスなどの入力装
置によって全てのデータを人手で直接入力する方法、キ
ャリブレーションデータのいくつかを計算によって求め
る方法などがある。
【0084】カメラパラメータとは、ある基準の座標系
におけるカメラの取り付け位置およびカメラの取り付け
角度、カメラのレンズ歪み補正値、カメラのレンズの焦
点距離などといった、前記カメラ特性を表すパラメータ
である。カメラで撮影した画像の特徴点と、前記特徴点
の前記基準座標系内での位置との対応関係が取れている
点の組が多数分かっていれば、前記パラメータを計算に
よって近似的に求めることが可能となる。つまり、カメ
ラパラメータを計算によって求める場合、カメラで撮影
した画像の点と、その点の3次元空間座標系内での位置
との対応関係が取れている点の組が、複数個必要とな
る。その組が最低いくつ必要であるかは、どのような計
算方法を用いるかに依存する。例えば図9の例で用いた
カメラパラメータを計算によって求める方法に関して
は、文献「松山、久野、井宮、“コンピュータビジョ
ン:技術評論と将来展望”、新技術コミュニケーション
ズ、pp.37-53、1998年6月」に開示されている。こ
の他にもカメラパラメータを求める技術が、前記文献に
多数開示されているので、ここでは該技術に関する説明
は省略する。
【0085】しかし、いずれの方法でカメラパラメータ
の計算をする場合においても、前記対応関係の組をどの
ようにして見つけるかが問題となる。本発明では、前記
対応関係の取れた点の組を自動で作成し、その組を用い
て計算によっていくつかのカメラパラメータを求める方
法について開示していおり、該方法については後述す
る。
【0086】また、前記レンズ歪み係数を用いてカメラ
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
【0087】そこで、レンズの歪みの変化は、激しい温
度変化がない限りは起こらないと仮定し、歪み補正前の
画像と、歪み補正後の画像で、それぞれの画素の座標値
の対応関係をあらかじめ計算しておく。そして前記計算
結果をテーブルやマトリクスなどのデータ形式でメモリ
内に保持し、それを用いて歪み補正を行うなどの方法
が、高速な補正処理として有効である。
【0088】温度などによってレンズ歪みがどのように
変化するかが予め分かっていれば、そのデータは本発明
による温度補正テーブル111 などの形式で持っておき、
気温の上昇や下降によってレンズ歪みに変化が生じた場
合に、キャリブレーション手段102 によって前記テーブ
ルのデータを参照して補正する。
【0089】図10は本発明による温度補正テーブル11
1 の例を表形式で示した図である。図10に示すよう
に、温度補正テーブル111 は、温度に応じて変化する前
記カメラパラメータの変化量をデータとして格納するも
ので、本例では、温度によって、 ・レンズの焦点距離(テーブル2列目) ・レンズ歪み係数κ1(テーブル3列目) ・レンズ歪み係数κ2(テーブル4列目) が変わる度合いのデータを格納した場合を示しており、
テーブルの示す具体的な内容は以下の通りである。
【0090】o 温度が0度以下のとき(テーブル2行
目) ・現在のレンズの焦点距離にdf1を加える。
【0091】・現在のレンズ歪み係数にκ11を加える。
【0092】・現在のレンズ歪み係数にκ21を加える。
【0093】o 温度が40度以上のとき(テーブル3行
目) ・現在のレンズの焦点距離にdf2を加える。
【0094】・現在のレンズ歪み係数にκ12を加える。
【0095】・現在のレンズ歪み係数にκ22を加える。
【0096】本発明(請求項15の一例)のキャリブレ
ーション手段102では、各カメラ毎に温度センサ110 の
温度値を逐次観測し、必要に応じてカメラパラメータテ
ーブル103 の内容を更新する。
【0097】図22は、キャリブレーション手段102 に
おいて、温度によってカメラパラメータテーブル103 の
更新処理を行う手順をフローチャートの形式で示したも
ので、図22を用いてその詳細を説明する。
【0098】但し、本例では図3に示したごとく、カメ
ラ1台について、それに1台の温度センサ110 が対にな
って付随しており、温度センサ110 で検知した温度が、
カメラのレンズ温度とほぼ等しいということを仮定す
る。
【0099】1.(1301)未チェックの温度センサ110 を
一つ選択し、温度値を取得する。
【0100】2.(1302)前記温度値がカメラパラメータ
補正を必要とするかどうかを確かめる。
【0101】図22の例では、補正が必要な温度は、0
度以下もしくは40度以上である。
【0102】3.(1303)もし補正が必要なら、温度補正
テーブル111 からカメラパラメータ補正値を取得し、該
温度センサ110 に付随するカメラのカメラパラメータを
更新した結果を、カメラパラメータテーブル103 に書き
込む。(1304)補正の必要がない場合は、レンズの焦点距
離、歪み係数κ1、歪み係数κ2をすべて初期設定値に
戻した結果を、カメラパラメータテーブル103 に書き込
む。
【0103】4.(1305)全ての温度センサ110 につい
て、上記1から3までの処理を終了していれば、カメラ
パラメータテーブル103 更新処理を終了する。まだ未チ
ェックの温度センサ110 があれば、該温度センサ110 に
ついて、上記1から3までの処理を実行する。
【0104】図11は、図10の例の温度補正テーブル
111 を用いて書き換えられたカメラパラメータテーブル
103 の例である。図11の例では、カメラ1、カメラ2
のみが、ある時点に直射日光を受けるなどして40度以
上の温度となり、それ以外は0度から40度未満の温度
値を保っている場合を示している。図11のカメラパラ
メータテーブル103 から分かる通り、カメラ1およびカ
メラ2のカメラパラメータが、温度が40度以上の場合
の温度補正処理によって、 ・レンズの焦点距離は df1 増加 ・レンズ歪み係数κ1は κ12 増加 ・レンズ歪み係数κ2は κ22 増加 していることが分かる。なお、前述の仮想カメラに関し
ては、温度によって焦点距離やレンズ歪みが変化しない
理想的なレンズとすることが可能であるので、本補正処
理の対象外とする。
【0105】また本例では、設置されるカメラのレンズ
がすべて同じ温度補正特性を持つものと仮定した場合を
示しているが、実際には異なる特性を持つレンズが取付
けられている場合もある。そのような場合は、カメラご
とに独立してテーブルを持っておき、温度補正対象とな
るカメラに応じてテーブルを使い分ければ良い。
【0106】前記カメラのレンズの材料としては、ガラ
スの他にプラスチックを用いることも出来るが、プラス
チックは温度変化に対して変形が激しいのが通常であ
る。しかし、上述したような補正により対応することが
できる。
【0107】本発明による空間再構成手段104 は、キャ
リブレーション手段102 によって計算されたカメラパラ
メータに基づいて、前記カメラからの入力画像を構成す
る各々の画素を3次元空間の点に対応づけた空間データ
を作成する。すなわち、空間再構成手段104 では、カメ
ラから撮影された画像に含まれる各々の物体が、3次元
空間のどこに存在するかを計算し、その計算結果として
の空間データを空間データバッファ105 に格納する。
【0108】なお、前記カメラからの入力画像を構成す
るそれぞれの画素のすべてを利用して空間データを構成
する必要はない。たとえば入力画像に水平線により上に
位置する領域が写っている場合は、その水平線より上の
領域に含まれる画素を路面にマッピングする必要はな
い。あるいは車体を写している画素をマッピングする必
要もない。また、入力画像が高解像度な場合などは、数
画素毎に飛ばして空間データにマッピングすることによ
り処理を高速化することも考えられる。
【0109】さて、カメラで撮影された画像を構成する
各々の画素の位置は、一般的にCCD画像面を含むU−
V平面上の座標として表される。従って、入力画像を構
成する各々の画素をワールド座標系の点に対応づけるた
めには、カメラで撮影された画像の存在するU−V平面
の点をワールド座標系内の点に対応づける計算式を求め
れば良い。
【0110】図8は、カメラで撮影された画像を含む平
面(以下、視平面)に設定したU−V座標系の点と、3
次元空間座標系の点との対応づけの関係の例を表した概
念図である。図8の例に従うと該対応づけは以下の手順
で行われる。
【0111】1.視平面が Z=f(カメラの焦点距離)
で、該平面上にあるカメラ画像の中心をZ軸が通るよう
な座標系を設定する。これを視平面座標系と呼ぶ(Oeを
原点とする)。
【0112】2.図8における点Peの視平面座標系で
の座標をPe(Xe,Ye,Ze)とし、その点が視平面に投影
されたときのの点(この点がカメラ撮影画像の一画素に
対応する)の座標をPv(u,v)とすると、PeとPvの関係
は、カメラの焦点距離fを用いて、式(1)式(2)のように
表すことが出来る。
【0113】
【式1】
【0114】
【式2】
【0115】前記2つの式により、視平面上に投影され
た画像の各々の画素について、視平面座標系における座
標を決めることができる。
【0116】3.視平面座標系とワールド座標系の位置
関係および向き関係を求める。ここでワールド座標系を
中心にして、視平面座標系が空間的に以下のような関係
にあるとする。
【0117】・視平面座標系原点Oeからワールド座標
系原点Owへのベクトルを(tx, ty, tz)とする。つまり
2つの座標系の位置的なずれは、(tx, ty, tz)だけ平行
移動することによって無くなる。
【0118】・視平面座標系とワールド座標系の向きの
関係は、図7の例における車両を中心とした座標系(ワ
ールド座標系に対応)と、車載カメラ(視平面座標系に対
応)と同じ関係になるようにすると、視平面座標系は、 「ワールド座標系Y−Z平面に対してなす角度がα」 「ワールド座標系X−Z平面に対してなす角度がβ」 とすることができる。但し、ここではカメラのレンズの
光軸周りの回転はないものと仮定している。この場合、
ある点をワールド座標系でPw(Xw,Yw,Zw)で表し、ま
た、視平面座標系Pe(Xe,Ye,Ze)で表すとすると、P
e(Xe,Ye,Ze)、Pw(Xw,Yw,Zw)、(tx, ty, tz)、
α、β の間には式(3)の関係が成り立つ。
【0119】
【式3】
【0120】以上で、視平面上での画素Pv(u,v)と、ワ
ールド座標系での座標Pw(Xw,Yw,Zw)を式(1)式(2)式
(3)によって対応づけることが出来た。
【0121】前記3つの式において未知の変数は、「t
x, ty, tz,α,β,f」の6つであるので、視平面上での
画素Pv(u,v)と、ワールド座標系での座標Pw(Xw,Yw,
Zw)の対応関係が既知の点の組が最低2組あれば、上記
の未知変数は求められる。
【0122】しかしながら、対応関係が既知である組の
それぞれの座標の計測には位置ずれを含むことが多く、
計算結果には誤差が生じる場合がほとんどである。
【0123】そこで通常は、多数の組を計測して作った
連立方程式を最小二乗法で解くなどの方法が用いられ
る。なお、カメラの位置と向きが視平面座標系と一致す
るので、すでにカメラパラメータが求まっていれば本処
理3.を実行する必要はない。
【0124】4.tx, ty, tz,α,β,f の値が求まって
いる式(1)式(2)式(3)を用いてワールド座標系のそれぞ
れの点Pw(Xw,Yw,Zw)を、視平面の点Pv(u,v)と対応
づける。
【0125】上記1〜4までの処理を、全てのカメラに
ついて実施すれば、独立した全てのカメラからの画像
を、同じ一つの3次元空間内の点として対応づけること
が可能となる。
【0126】本発明による空間データは、かかる計算式
によって対応づけされたデータで、図12は、該空間デ
ータを格納する本発明による空間データバッファ105 の
記述例を表の形式で示したものである。空間データバッ
ファ105 には、カメラ画像の点と空間内の点との対応づ
けデータが格納される。図12の例では1行目を除く各
行に一つの空間データが記述されており、それぞれの空
間データを構成する情報としての各列に以下の内容を含
んでいる。
【0127】1列目:ワールド座標系で他の点と区別す
るための番号(ここでは説明の便宜上Aとした) 2列目:ワールド座標系での点のX座標 3列目:ワールド座標系での点のY座標 4列目:ワールド座標系での点のZ座標 5列目:前記点を含む画像が、どのカメラから撮影した
ものかを区別するフラグ 6列目:前記画像を含む視平面座標系での点のU座標 7列目:前記画像を含む視平面座標系での点のV座標 8列目:前記画像を含む視平面座標系での点の色のR成
分(例えば0〜255階調で量子化) 9列目:前記画像を含む視平面座標系での点の色のG成
分(例えば0〜255階調で量子化) 10列目:前記画像を含む視平面座標系での点の色のB
成分(例えば0〜255階調で量子化) 11列目:該空間データが取得された時刻 以下で空間データの記述内容を例を用いて説明するが、
ここで図13〜図15を説明の補助として用いる。
【0128】図13〜図15は、ワールド座標系内の平
面としての路面上の特徴点と、車両に設置したカメラで
撮影した画像上での特徴点との対応関係を示す図で、図
13は、路面上の特徴点A、B、C、D、Eと車両との
位置関係を上部からみた概念図、図14は、図15の車
載カメラ1で前記特徴点A、B、Cを含む路面を撮影し
た画像を表す概念図、図15は、図13の車載カメラ2
で前記特徴点C、D、Eを含む路面を撮影した画像を表
す概念図である。そして、図12の例の空間データバッ
ファ105 には、図13〜図15に記された5つの特徴点
A、B、C、D、Eが空間データの例として記述されて
いる。
【0129】まず、図13、図14における特徴点Aに
着目する。前述の空間再構成手段104 による対応づけ処
理によって、図13のワールド座標系上の点Aと図14
の視平面座標系上の点Aが対応づけられているものとす
ると、図12の表の3行目が図13、図14における特
徴点Aに相当する空間データの例である。
【0130】すなわちワールド座標系上の点Aは、座標
(X3,0,Z2)であり、それをカメラ1から撮影したとき
には、撮像画像上での点Aの座標は(U1,V1)で色はR
GB順に(80,80,80)であり、本データが作成され
た時刻は t1 である、という意味である。
【0131】もし、ワールド座標系の点が、複数台のカ
メラから観測されたときは、それぞれを独立した空間デ
ータとして空間データバッファ105 に格納する。例え
ば、図13〜図15における点Cがその例に相当する。
点Cは、図14、図15からも明らかなように、図13
における2台のカメラ、すなわち、カメラ1およびカメ
ラ2から観測されている。
【0132】そして、カメラ1での観測結果をもとに作
成された空間データ、すなわち図12の7行目の空間デ
ータは、ワールド座標系上の点Cは、座標(0,0,Z2)
を持ち、点Cをカメラ1から撮影したときには、撮像画
像上での点Cの座標は(U3,V3)で色はRGB順に(14
0,140,140)で、本データが作成された時刻は t1
である。
【0133】一方、カメラ2での観測結果をもとに作成
された空間データ、すなわち図12の8行目の空間デー
タは、ワールド座標系上の点Cは、座標(0,0,Z2)を
持ち、点Cをカメラ2から撮影したときには、撮像画像
上での点Cの座標は(U4, V4)で色はRGB順に(15
0,150,150)で、本データが作成された時刻は t
1ある。
【0134】かくのごとく、各カメラで撮影された画像
の各々の画素がワールド座標系の点に対応づけ情報が、
空間データという形式で空間データバッファ105 に格納
される。
【0135】本発明による視点変換手段106 は、空間再
構成手段104 によって作成された空間データを参照し
て、任意の視点にカメラを設置して撮影した画像を作成
する。その方法の概要は、空間再構成手段104 で行った
処理の逆の処理を行うことである。すなわち、空間再構
成手段104 によって形成されたワールド座標系の点Pw
(Xw,Yw,Zw)を、任意の視点にカメラを設置して撮影
した画像面Pv(u,v)に投影する変換を求めることに相当
する。
【0136】従って、この変換を計算する式は、先に詳
述した式(1)式(2)および式(3)の逆変換に相当する式(4)
で表すことが可能である。
【0137】
【式4】
【0138】すなわちPw(Xw,Yw,Zw)を入力し前記3
つの式によってPv(u,v)を計算する。この計算では、カ
メラのカメラパラメータ「tx, ty, tz,α,β,f」は任
意の所望の値を指定できる。つまりそれは所望の視点に
所望の角度でカメラを置くことができることを意味す
る。この際、前記任意視点にカメラを置いて見たときの
画像を投影する画面上で、個々の画素の色をどのように
表現するかが問題となる。
【0139】しかしながら、本発明(請求項6、請求項
7、請求項8に対応する)では、3つの場合の色の表現
方法を開示している。該方法の内容を、3つの場合に応
じて以下に説明する。
【0140】(1) 前記視点から見た3次元空間内のある
点Pが、ただ一つのカメラで撮影した画像と対応づけら
れている場合:この場合は、設定した視点から点Pを見
たときの色は、前記カメラで点Pを見たときの色を用い
て決める。最も単純な方法は同じ色で置き換える方法で
あるが、点Pを観測しているカメラと設定した視点位置
・方向との関係から計算によって求めてもよい。
【0141】(2) 前記視点から見た3次元空間内のある
点Pが、複数台のカメラで撮影した画像と対応づけられ
ている場合:この場合は、設定した視点から点Pを見た
ときの色は、前記複数台のカメラで点Pを見たときの色
を用いて何らかの計算をし、得られた結果としての色で
決めるものとする。前記計算の方法としてはいくつか考
えられるが、例えば、 ・全ての色を同じ割合で混合する ・最も明度の高いもしくは低いもしくは中間の色を取得
する ・最も再度の高いもしくは低いもしくは中間の色を取得
する などの方法がある。
【0142】(3) 前記視点から見た3次元空間内のある
点Pが、いずれのカメラで撮影した画像とも対応づけら
れていない場合:この場合は、設定した視点から点Pを
見たときの色は、点Pの周囲の点の色を用いて補間した
色を計算で求めるか、もしくは、物体が存在しない部分
であると識別可能な色、例えば黒に置き換えるなどすれ
ばよい。
【0143】本発明の最も大きな特徴は、該視点変換手
段106 によって、車両に設定されていない仮想のカメラ
からの画像を自由に再現できることにある。
【0144】例えば図16〜図19は、ワールド座標系
内の路面上の特徴点を車両に設置したカメラで撮影した
画像を用いて、適当な視点に仮想カメラを置いたときの
画像を合成した例を示した概念図で、図16は、路面上
の特徴点A、B、Cと車両との位置関係を上部からみた
概念図、図17は、図16の車載カメラ1で前記特徴点
A、Bを含む路面を撮影した画像を表す概念図、図18
は、図16の車載カメラ2で前記特徴点B、Cを含む路
面を撮影した画像を表す概念図、図19は、図16の車
載カメラ1および車載カメラ2で撮影した画像を用い、
本発明による視点変換手段106 によって仮想カメラから
見た画像を合成した様子を表す概念図である。
【0145】また図20(a)は、前記仮想カメラの設
置場所の例として、車両のほぼ中心の上方にカメラを下
向きに設置した場合を示した概念図である。この例のご
とく仮想カメラを設置した場合、仮想カメラで撮影され
た画像は車両の周囲の様子を表すものとなる。あくま
で、前記合成画像を構成する画像は、車載カメラによっ
て撮影されたものであるので、図7に示されたような配
置の車載カメラ周囲を撮影した場合、どのカメラ画像に
も車体の屋根が含まれていない。
【0146】しかしながら、前記車体の屋根のように、
存在場所や形状、色に関する情報の分かっている物体に
ついては、予めそれらの情報をシステムに蓄積してお
き、それらの情報を必要に応じて用いれば、より違和感
の少ない画像を合成することが可能となる。
【0147】なお、図20(b)は仮想カメラを車の前
方斜め上方に配置し、そこから車を見る例を示す斜視図
である。このように、仮想カメラは真上に限らず、斜め
から車を見るようにすることもできる。図20(c)は
その図20(b)を利用して作成した画像の合成図であ
る。斜め上方から見た感じが現れている。
【0148】本発明による空間データ変換手段114 は、
本発明の請求項1に記載の画像生成装置を車両に適用す
る場合に必要となる手段である。
【0149】一般的に車載カメラは、より良い視野を得
るために通常車体上部に設置されていることが多い。と
ころが車体の形状が、例えば車体外部に向って凸面なカ
ーブを形成しているような場合では、このような車体上
部に位置するカメラで撮影した画像は、車体のすぐ周囲
の路面部分は死角になる場合がほとんどである。
【0150】この問題を解決する単純な方法は、車体下
部にもカメラを設置することであるが、カメラを追加す
ることによって余分なコストが必要となる。本発明によ
る前記空間データ変換手段114 は車体下部などにカメラ
を追加せずに前記問題を解決する。もっともその解決に
は、車が移動することが前提である。
【0151】図23は、空間データ変換手段114 におけ
る処理の手順をフローチャートの形式で示したもの、図
24は、空間データ変換手段114の説明の補助に用い
る概念図である。図24は、ある一定時間の間に車両が
移動したとき、前記一定時間の開始時刻(以下t1)と終了
時刻(以下t2)における車両の位置、および向きの関係を
示している。図23および図24を用いてカメラから死
角となる部分の画像を合成する手順を説明する。
【0152】1.(1401) ある一定時間における車両の
移動距離を検出する。本例では移動距離は、時刻t1 と
時刻t2 のそれぞれの時刻における車両位置の間の直線
距離で定義する。すなわち図24におけるO1とO2の距
離ということになる。
【0153】説明の都合上、図24に記載のように、移
動距離をO1からO2へのベクトルを(t′x,0, t′z)で
表す。移動距離の検出方法としては、例えばタイヤの回
転数などによって計測する方法が用いられる。
【0154】2.(1402) 前記一定時間における車両の
移動方向を検出する。本例では移動方向を、時刻t1にお
ける車両の向きに対して時刻t2における車両の向きがど
れだけ変化したかの変化量として定義する。説明の都合
上、図24に記載のように、向きの変化量をZ1軸とZ2
軸とのなす角度Θで表す。移動方向の検出方法として
は、例えばハンドルの回転角度などによって計測する方
法が用いられる。
【0155】3.(1403) 時刻t1から時刻t2に至る間の
車両の移動距離および移動方向を用いて、t1において取
得した空間データを t2における空間データに変換する
式(5)を作成する。但し式(5)では時刻t1 から時刻t2に
至る間の車両移動においては、完全に垂直成分の変化が
ないもの、つまり路面が平坦であることを仮定してい
る。
【0156】
【式5】
【0157】式(5)において、x1, y1, z1 は、時刻t1
において車体を中心にしたX1-Y1-Z1ワールド座標系
(原点O1)におけるある点の座標で、x2, y2, z2 は、前
記点の時刻t2において車体を中心にしたX2-Y2-Z2ワ
ールド座標系(原点O2)における座標を表す。つまり x
1, y1, z1 を式(5)の右辺に代入して計算した結果が x
2, y2, z2 となる。
【0158】4.(1404)式(5)を用いて、時刻t1におい
て合成した空間データを、時刻t2における空間データに
変換する。作成した後の空間データについては、どのカ
メラから見たかについての情報は必要ないので、図12
の表において、5から7列目のデータは空白にしておい
てよい。すなわち、時刻t1 における空間データのう
ち、上記計算で書き換えられるは図12の表において1
から4列目のみで、8から11列目のデータはそのまま
利用する。
【0159】ここで問題となるのは、かくのごとく現在
時間の空間データに過去の空間データを加えていくと、
限りある空間データバッファ105 のオーバーフローがい
つかは生じることである。この問題に対して本発明によ
る空間データバッファ105 では、各空間データは該デー
タの作成時刻の情報を持っているので、現在時刻から溯
って一定時間以上過去のデータは消去するようにすれば
良い。
【0160】本発明による特徴点生成手段109 は、カメ
ラの視野内に3次元座標の同定が可能な複数個の点を生
成する。そして、本発明による特徴点抽出手段108は、
前記生成された特徴点を抽出する。図21は、特徴点生
成手段109 、特徴点および特徴点抽出手段108の実施例
を示す概念図である。
【0161】図21(a)は、特徴点生成手段109 として
のパターン光照射装置を車体側面上部に取付けた実施例
で、本例では、ワールド座標系内の平面としての車両の
周囲の路面に、長方形のパターンを格子状に照射する場
合を示している。
【0162】図21(b)は、該パターン光照射装置を車
体上部に数箇所取り付けて、路面にパターン光を照射し
た状態を車両上部から見た例である。
【0163】図21(c)はかくのごとく方法で路面に照
射された長方形のパターン光をカメラから撮影した様子
を示した例である。特徴点は、パターン光照射で作成さ
れた長方形の角や中心などの特徴を表すいくつかの点を
用いれば良い。
【0164】図21(c)では、 PI-1 から PI-8 が特徴
点の例である。前記特徴点はワールド座標系における座
標が既知であると設定することが可能である。またこれ
らの特徴点は、視平面座標系での座標位置も既知で、ワ
ールド座標系と視平面座標系での対応関係が取れてい
る。従って前述の式(1)式(2)および式(3)を用いれば、
本発明によるキャリブレーション手段102 によってカメ
ラパラメータ tx, ty, tz, α,β,f を計算することが
可能となる。
【0165】本発明による補正指示手段は、本発明の請
求項1に記載の画像生成装置を車両に適用する場合に必
要となる手段で、該補正指示手段では、カメラのキャリ
ブレーションが必要な状況を検知し、キャリブレーショ
ンが必要である場合に、運転者にカメラキャリブレーシ
ョンを指示する。また本発明による補正履歴記録手段11
5 では、キャリブレーションが必要な状況を検知するた
めに必要なデータとして、カメラキャリブレーションを
行った日時および走行距離を記録する。
【0166】図25は、補正履歴の記録を確認し、必要
に応じて補正指示を出す処理の手順をフローチャートの
形式で示したものである。
【0167】1.(1601)前回カメラのキャリブレーショ
ンを行った日時から、現在までの経過時間までを計算す
る。
【0168】2.(1602)あらかじめ設定しておいた所定
の時間に対して、前記経過時間の方が大きければ、(160
5)カメラ補正指示手段116 にてカメラキャリブレーショ
ンを実施するように運転者に指示し、処理を終了する。
但し、前記指示によって運転者がカメラキャリブレーシ
ョンを実施したら、補正履歴の記録を更新しておく。前
記所定の時間に対して、前記経過時間の方が小さけれ
ば、次の処理3に進む。
【0169】3.(1603)前回カメラのキャリブレーショ
ンを行った時から現在までの総走行距離を計算する。
【0170】4.(1604)あらかじめ設定しておいた所定
の距離に対して、前記走行距離の方が大きければ、(160
5)カメラ補正指示手段116 にてカメラキャリブレーショ
ンを実施するように運転者に指示し、処理を終了する。
但し、前記指示によって運転者がカメラキャリブレーシ
ョンを実施したら、補正履歴の記録を更新しておく。前
記所定の距離に対して、前記走行距離の方が小さけれ
ば、カメラキャリブレーションに関する指示は、運転者
に出さず、処理を終了する。
【0171】以上、本発明による画像生成装置を構成す
るそれぞれの手段の実施例を説明した。次に、本発明に
よる画像生成装置の全体の処理の流れについて説明す
る。
【0172】図26は、本発明による画像生成装置を車
両に適用した場合の全体の処理の流れをフローチャート
の形式で示したものである。なお画像生成装置の構成例
としては図6の構成を想定する。
【0173】1.(1701)本装置を正常に動作させるため
に、必要であれば最初にカメラキャリブレーションを実
施し、補正履歴の記録を更新しておく。カメラキャリブ
レーションでは、カメラーパラメータを人手で入力する
か、または本発明による特徴点生成手段109 で特徴点を
車体周囲に生成し、前記特徴点を特徴点抽出手段108 に
て抽出した結果を用いてキャリブレーション手段102 に
てカメラパラメータを計算しても良い。
【0174】2.(1702) 各カメラ毎に温度センサ110
の温度値を逐次観測し、必要に応じてカメラパラメータ
テーブル103 の内容を更新する。
【0175】3.(1703) 補正履歴の記録を確認し、必
要に応じて補正指示を出す。もし補正が行われたら、補
正履歴の記録を更新する。
【0176】4.(1704) すでに空間データが空間デー
タバッファ105 に蓄積されていれば、空間データ変換手
段114 にて、車両の移動距離、移動方向に応じて前記空
間データを変換する。空間データバッファ105 が空白で
あれば、本処理は省略する。
【0177】5.(1705) 車載カメラで車両周囲の画像
を撮影する。
【0178】6.(1706) 空間再構成手段104 によって
5.で撮影された画像を構成する各々の画素をワールド
座標系の点に対応づけた空間データを作成する。3の空
間データ変換手段114 で変換された空間データで、ワー
ルド座標系での座標が一致する空間データがすでに存在
している場合は、前記変換された空間データは破棄す
る。つまりワールド座標系におけるある点の空間データ
は、カメラから一番最近に撮影されたデータのみを保持
し、それより過去のデータ、もしくは時間がある程度経
過したデータは消去するようにする。
【0179】7.(1707) 6.の空間再構成手段104 に
よって作成された空間データを参照して、所望の視点に
カメラを設置して撮影した画像を作成する。この場合、
視点位置は、合成画像が運転補助に適したものである場
所に固定していることが望ましく、例えば図20の例の
ように車体上方で車両周囲が見渡せるカメラ位置などが
良い。
【0180】8.(1708) 7.の処理で合成された画像
を表示する。
【0181】9.(1709) 上記2.〜8.の処理を必要
がなくなるまで繰り返す。例えば運転者が車両を駐車ス
ペースに入れようとしている時は、前記2.〜8.の処
理を繰り返し、駐車が完了すれば本処理を終了すればよ
い。
【0182】さて、車の周囲の障害物などの物体のワー
ルド座標系の3次元位置が、正確に計測できれば、その
物体に合わせて空間モデルを生成すればよいが、現実的
には通常は、無理である。
【0183】つまり、画像生成装置などのように簡易性
を要求されるシステムでは、すべての物体の3次元位置
・形状を正確に求めることは困難であり、また、運転の
補助としての画像を合成するという観点では、任意の仮
想視点における画像を正確無比に再現しなければならな
いというわけではなく、運転者に分かり易い画像であれ
ば、多少クオリティが落ちても大きな問題にはなりにく
い。
【0184】そこで本発明(請求項4の一例)では、物
体の3次元情報は失われるものの、高速に画像を合成で
き、かつ合成した画像のクオリティをある程度保つこと
が可能な、入力画像を構成する各々の画素と3次元空間
の点の対応づけ方法を開示する。
【0185】該方法は、キャリブレーション手段102 に
よって取り付け位置、取り付け角度が既に知られている
カメラから得られた画像を、3次元空間の一部をなす平
面の例として路面に投影するものである。すなわち、画
像に含まれる各々の物体は、すべて3次元空間座標系
(以下ワールド座標系と呼ぶこともある)のX−Z平面に
貼り付いており、Y軸方向成分を持つ物体が存在しない
と仮定し、視平面上の画像をワールド座標系の路面に投
影する。
【0186】この場合、本装置のこれまでの実施例の説
明内容に対して変更する部分は、空間再構成手段104 で
用いる式(3)を式(6)に置き換え、また、視点変換手段
106 で用いる式(4)を式(7)に置き換えるだけでよい。
【0187】
【式6】
【0188】
【式7】
【0189】また、本実施例ではカメラを車両に取り付
け、車両周囲を監視する装置について説明をしたが、限
られた台数のカメラからの画像を用いて任意の視点から
の画像を合成するという本技術は、車載カメラに限定す
るものではない。
【0190】例えば、店舗などにおいて多数の監視カメ
ラを設置しておき、それらのカメラ画像を用いて、真上
から見た画像を合成することなども可能であり、幅広い
用途が期待できる。
【0191】なお、上述したキャリブレーション手段を
遠隔地にある管理センターにおいておき、通信手段によ
って、それを利用する方法も可能である。
【0192】本発明の方法、及び装置はそのような遠隔
地にその機能の一部を実現しておくことももちろん可能
である。
【0193】あるいはさらに、キャリブレーションを行
った結果のデータをフロッピー、DVD等を利用して運
んで利用することも、本発明の実施例である。
【0194】また、マッピングされた空間データを格納
するバッファなどは、そのまま空間データを処理する場
合は特に必要ない。
【0195】なお、通常は、仮想視点は管理者や運転者
などの人手によって指定するのではなく、監視や運転の
補助として役立つ画像が得られる視点位置のうちの一つ
を選び、そこからの画像を表示させるようにしておく。
それによって仮想視点位置の移動操作をしなくてもよい
ため、利用者の作業負担のさらなる軽減が期待できる。
【0196】以上のように本発明によれば、限られた台
数のカメラからの画像を用いて任意の視点からの画像が
合成できる。
【0197】本発明の画像生成装置(請求項9、請求項
10および請求項13に記載の発明を合わせた例)で
は、各々のカメラについて、その特性を示すカメラパラ
メータを容易に得ることが可能となる。もし、例えば激
しい悪路を走行したことによってカメラの位置などが若
干ずれた場合でも、本発明により、カメラの位置の補正
は容易に可能となる。
【0198】本発明の画像生成装置(請求項15の一
例)では、温度センサ、温度補正テーブルを設置するこ
とにより、気温上昇・下降にともなって微妙に変化する
レンズ歪みを補正し、レンズを常に最適に保つことが可
能となる。例えば、温度上昇によって微妙に膨張したレ
ンズに対しては、その膨張によって変わるレンズ歪み係
数を最適に制御する補正値を温度補正テーブルから得
て、それに基づいてレンズ歪みパラメータを変更すれば
よい。かかる方法によって、本発明ではどのような気温
でも歪みのない画像を得ることが可能となる。
【0199】本発明の画像生成装置(請求項18の一
例)では、カメラから死角となる部分の画像を見る方法
を提供する。例えば、カメラが車体の上部に取付けてあ
り、前記カメラの取り付け位置下方の車体の形状が車体
外部に向って凸面である場合、カメラ直下の画像を見る
ことは物理的に不可能である。しかし、本発明では、車
両の移動方向および移動距離によって、以前に取得した
画像を現在の位置から見た画像に変換することが可能で
ある。
【0200】本発明の画像生成装置(請求項19の一
例)では、カメラの特性を示すカメラパラメータの補
正、すなわちカメラキャリブレーションを実施しなけれ
ばならない状況を検知し、その旨を運転者に提示するこ
とが可能である。これにより運転者がカメラパラメータ
の補正を長期間し忘れることを防ぐ効果が得られる。
【0201】次に、別の本発明の一実施例を説明する。
図27,図28は、本発明(請求項32、請求項3
4)の一例を示す。
【0202】図27(a)に示すように、本発明による
画像生成装置は、基本構成の一例として、車両周囲の状
況を把握するために取付けられた複数台のカメラ101A、
前記カメラの特性を示すカメラパラメータを格納してお
くカメラパラメータテーブル102A 、車両を基準とした
座標系に空間モデルを作成する空間モデル作成手段 103
A、前記カメラより入力された画像を前記空間モデルに
マッピングするマッピング手段104A 、視点を設定し、
前記視点から見た一枚の画像を、前記マッピング手段10
4Aにて作成されたデータから合成する視点変換手段105
A、前記視点変換手段105Aにて変換された画像を表示す
る表示手段106Aからなる構成を有する。
【0203】図27(b)は本発明の画像生成装置の構成
例を示したブロック図である。図27(b)の例では、図
27(a)に示した画像生成装置に対して、さらに、車両
周囲の状況として、少なくとも車両周囲に存在する障害
物までの距離を計測する障害物検知手段108A を付加し
た構成となっている。
【0204】次に、本発明を構成する各構成要素につい
ての詳細を説明する。カメラは、車両の周囲の状況な
ど、監視すべき空間の画像を撮り込むテレビカメラであ
る。その詳細は、上記図7で詳しく説明した。
【0205】本発明によるカメラパラメータテーブル10
2Aは、カメラパラメータを格納するテーブルである(上
述したカメラパラメータテーブル103と同様である)。
【0206】カメラパラメータテーブル102Aに格納され
ているデータは上述した図9と同じである。
【0207】本発明では、視点変換手段105Aで設定した
所望の視点に仮想のカメラを設置したと仮定し、その仮
想カメラからの画像を計算によって求めることが可能で
ある。該計算方法については後で詳述する。
【0208】また、前記レンズ歪み係数を用いてカメラ
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
【0209】そこで、レンズ歪みは、画像合成時に問題
が生じるほどの変化は起こらないと仮定し、歪み補正前
の画像と、歪み補正後の画像で、それぞれの画素の座標
値の対応関係を予め計算しておく。そして前記計算結果
をテーブルやマトリクスなどのデータ形式でメモリ内に
保持し、それを用いて歪み補正を行うなどの方法が、高
速な補正処理として有効である。
【0210】本発明による空間モデル作成手段 103A
は、たとえば、車両を基準とした座標系に空間モデルを
作成する。空間モデルとは、後述するマッピング手段10
4Aにおいて、カメラからの画像を3次元空間座標系にマ
ッピングする平面もしくは曲面もしくは平面および曲面
からなるモデルである。図28(a)〜(c)は、本発明によ
る空間モデルを鳥瞰図的に示した概念図で、それぞれ、
図28(a)および図28(d)は平面のみで構成された空間
モデルの例、図28(b)は曲面のみで構成された空間モ
デルの例、図28(c)は平面および曲面で構成された空
間モデルの例、を表している。
【0211】図28(a)の空間モデルでは以下に説明す
るように5つの平面からなる空間モデルを示している。 平面1:路面(すなわち車両のタイヤに接している)と
しての平面 平面2:車両の前方に立てられた路面(平面1)に垂直
な平面 平面3:車両の進行方向に向って左側方に立てられた路
面(平面1)に垂直な平面 平面4:車両の後方に立てられた路面(平面1)に垂直
な平面 平面5:車両の進行方向に向って右側方に立てられた路
面(平面1)に垂直な平面 本空間モデルにおいては、平面2〜5は隙間なく立てら
れ、車載カメラから撮影された画像は、該平面1〜平面
5のいずれかにマッピングされる。また平面2〜5につ
いては車両からどの程度の距離が必要か、またどの程度
の高さが必要かは、車載カメラの画角や設置場所に応じ
て決めれば良い。
【0212】図28(b)のモデルでは、お椀型をした曲
面を空間モデルに用いている。車両は、お椀型に形成さ
れた空間モデルにおいてお椀の底に当たる部分に設置さ
れ、車載カメラから撮影された画像は、お椀の内側の面
にマッピングされる。お椀型のモデルとしては、球や、
放物線の回転体、懸垂線の回転体などが考えることが、
いずれにしろ空間モデルを少数の数式で表すことが出来
れば、マッピングの計算は高速で行うことが可能とな
る。
【0213】図28(c)のモデルでは、以下で説明する
平面と曲面を組み合わせて構成された空間モデルを示し
ている。
【0214】平面:路面(すなわち車両のタイヤに接し
ている)としての平面 曲面:車両を取り囲むように前記平面上に置かれた円柱
状又は楕円柱状の壁 本空間モデルにおいて、曲面をどういう形状にするか、
また車両からどの程度の距離をおいて設置するかは、車
載カメラの画角や設置場所に応じて決めれば良い。
【0215】かくの例のごとく、車両の周囲に、車両を
囲い込むごとく壁を立てた空間モデルは、次に示す効果
が得られる。すなわち、画像中の物体がすべて道路面上
にあるものと仮定して、カメラ画像を路面上にマッピン
グすると、路面から上方に高さ成分を持つ物体に関して
は、大きくゆがんでしまうという問題があった。これに
対し、本発明によって導入された空間モデルでは、まず
路面に垂直もしくはほぼ垂直な平面もしくは曲面によっ
て車両を囲い込む。これらの面を車両から離れ過ぎない
ように設定すれば、高さ成分を持つ物体がこれらの面に
マッピングされるため、歪みを小さくすることが可能と
なる。しかもマッピングした際の歪みが小さいため、2
台のカメラ画像の接合部でのずれも少なくなることが期
待できる。
【0216】本発明によるマッピング手段 104Aは、カ
メラパラメータに基づいて、車載カメラからの入力画像
を構成する各々の画素を、本発明による空間モデル作成
手段103によって作成された空間モデルにマッピングす
る。すなわち、車載カメラから撮影された各々の画像を
空間モデルに透視投影する。
【0217】図29は、画像を含む平面(以下、視平面
という)に設定したU−V座標系の点の座標を、ワール
ド座標系の点の座標に変換することにより、車載カメラ
画像を空間モデルを構成する面にマッピングする説明の
補助として使用する図である。
【0218】マッピングの説明をする前に、まず視平面
座標をワールド座標へ変換する方法について説明する。
該変換は下記の手順で行われる。
【0219】1.視平面が Z=f(カメラの焦点距離)
で、該平原上にあるカメラ画像の中心をZ軸が通るよう
な座標系を設定する。
【0220】これを視平面座標系と呼ぶ(Oeを原点とす
る)。
【0221】2.図29における点Pv(u,v)(この点が
カメラ撮影画像の一画素に対応する)の視平面座標系で
の座標をPe(Xe,Ye,Ze)とすると、PeとPvの関係
は、カメラの焦点距離fを用いて、式(1)式(2)のように
表すことが出来る(但し、この場合はZe=fとな
る)。
【0222】前記2つの式により、視平面上に投影され
た画像の各々の画素について、視平面座標系における座
標を決めることができる。 3.視平面座標系とワールド座標系とを対応づける計算
式を求める。ここでワールド座標系を中心にして、視平
面座標系が空間的に以下のような関係にあるとする。 ・視平面座標系原点Oeからワールド座標系原点Owへの
ベクトルを (tx, ty, tz)とする。つまり2つの座標系
の位置的なずれは、 (tx, ty, tz)だけ平行移動するこ
とによって無くなる。
【0223】なお、ワールド座標系におけるカメラ位置
が既知であれば、該位置の座標の符号を反転すれば (t
x, ty, tz)は容易に求まる。 ・視平面座標系のそれぞれの軸の向きをワールド座標系
にぴったり合わせるための回転行列を
【0224】
【式0】
【0225】とする。該回転行列は、カメラパラメータ
テーブル102Aのうち、向きを表すパラメータによって、
X,Y,Zの各軸まわりの回転行列を求め、それらを合
成することによって容易に求めることが可能である。
【0226】さて、ある点をワールド座標系でPw(Xw,
Yw,Zw)で表し、また、視平面座標系Pe(Xe,Ye,Ze)
で表すとすると、Pe(Xe,Ye,Ze)、Pw(Xw,Yw,Z
w)、 (tx, ty, tz)、前記回転行列の間には式(8)の関係
が成り立つ。これら式(1)式(2)式(8)を用いることによ
り、視平面上での画素Pv(u,v)を、ワールド座標系での
座標Pw(Xw,Yw,Zw)に変換することが出来る。
【0227】
【式1】
【0228】
【式2】
【0229】
【式8】
【0230】
【式9】
【0231】さて、車載カメラで撮影された画像を構成
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表される。入力画像を構成する各々の画素
を前記空間モデルにマッピングするためには、入力画像
の全ての画素について、以下の手順で処理を行えばよ
い。図30は該マッピングの手順をフローチャートの形
式で示したもので、以下、図30に従ってマッピングの
処理内容を説明する。
【0232】1.カメラ画像の映っている視平面に設定
したU−V座標系の座標として表される前記画素を、ワ
ールド座標系における座標に変換する。変換には、例え
ば直前に示した式(1)式(2)式(8)を用いれば良い。
【0233】2.カメラ視点の座標Oeを端点とし、前
記画素Pw (=Pe) の座標を通る半直線と前記空間モデ
ルを形成する面との交点Ps(Xs,Ys,Zs)を求める。
【0234】3.該交点Psに、前記画素の色をマッピ
ングする。すでに他のカメラ画像からの色が点Psにマ
ッピングされている場合、点Psの色を決める方法とし
ては例えば以下のような方法を用いれば良い。
【0235】・すでにマッピングされている色とマッピ
ングしようとする色を同じ割合で混合する。
【0236】・すでにマッピングされている色とマッピ
ングしようとする色のうち、明度の高いもしくは低いも
しくは中間の色を用いる。 ・すでにマッピングされている色とマッピングしようと
する色のうち、彩度の高いもしくは低いもしくは中間の
色を用いる。
【0237】上記1〜3までの処理を、全てのカメラに
ついて実施すれば、独立した全てのカメラからの画像
を、同じ一つの3次元空間内の空間モデル上にマッピン
グすることができる。
【0238】本発明による視点変換手段 105 は、車載
カメラの画像がマッピング手段 104 によって空間モデ
ルにマッピングされた結果を、任意の視点に設置したカ
メラから撮影した画像として合成する。その方法の概要
は、マッピング手段 104 で行った処理の逆の処理を行
うことである。
【0239】すなわち、マッピングされた画像を構成す
る点Ps(Xs,Ys,Zs)を、任意の視点にカメラを設置し
て撮影した画像面Pv(u,v)に投影する変換を求めること
に相当する。
【0240】従って、この変換を計算する式は、先に詳
述した式(1)式(2)および式(9)(式(8)の逆変換に相当す
る)で表すことが可能である。
【0241】すなわち、Ps(Xs,Ys,Zs)を入力し前記
3つの式によってPv(u,v)を計算する。この計算では、
カメラのカメラパラメータは任意の所望の値を指定でき
る。つまりそれは所望の視点に所望の角度でカメラを置
くことができることを意味する。
【0242】ところで、視点変換手段105Aにおい
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デルの点に、色がマッピングされていない場合も考えら
れる。その場合は、物体が存在しない部分であると識別
可能な色、例えば黒に置き変えるなどすればよい。
【0243】さて、図28(a)〜(c)の例では、車両を面
で完全に囲い込む空間モデルを示したが、実際には車両
の全周囲を障害物が取り囲む場合は少なく、自車の周囲
に多くて数台の車両が存在する程度が普通である。係る
状況を鑑みると、自車の周囲を完全に囲い込む空間モデ
ルを導入する代わりに、必要に応じて、すなわち、自車
の周囲に障害物が存在している状態が分かれば、その場
合にのみ前記障害物の前に、それをマッピングするつい
たてのような面を作成すればよい。
【0244】図28(d)は、該ついたて面を導入した空
間モデルの一例を鳥瞰図的に示した概念図で、図28
(d)の空間モデルでは、路面平面と、路面上に車両の左
後方及び右後方にそれぞれ一つづつ、ついたてとしての
平面を立てた空間モデルを示した概念図である。該つい
たて面は、車両に対して予め決められた場所に立ててお
くことももちろん可能であるが、前述のごとく、車両の
周囲に面から上方に高さ成分を持つ障害物が発見された
場合にのみ、ついたて面を立てるようにしても良い。そ
の際に、どの位置にどの向きについたて面を立てるかを
決める必要があるが、その一例として障害物の検知結果
に従ってついたて面を設置する方法を次に示す。
【0245】係るついたて面設置の処理を実行するため
に、本発明による障害物検知手段 108 は、車両周囲の
状況として、少なくとも車両周囲に存在する障害物まで
の距離を距離センサ 107Aを用いて計測する。
【0246】距離センサ 107Aとしては様々なものがあ
るが、車載用としては、レーザー光、超音波、ステレオ
光学系、カメラのフォーカス(目標物体にフォーカスを
合わせた時の焦点距離から、カメラと前記物体までの距
離を計算する)などを使用することが可能である。該距
離センサ107A、レーザー光、超音波などを用いる場合で
は、車両の周囲に多数取付けるのが望ましい。一方、ス
テレオ光学系やカメラのフォーカスを用いる場合は、車
載カメラに併設してもよいが、車載カメラの一部をその
まま利用するとコストを安価にすることが可能となる。
【0247】次に該障害物検知手段 108Aの処理結果に
基づいて、ついたて面を含む空間モデルを作成する方法
の一例を示す。図31は障害物センサを用いて車両と該
車両の周囲に存在する障害物との距離に基づいて、3次
元空間内についたて面を立てる方法を示す概念図であ
る。本例では、車載の各々のカメラに該障害物検知セン
サが併設されており、該障害物センサはカメラの視線と
同じ方向を向き、該方向に存在する障害物との距離を計
測するものとする。また図31において使用しているパ
ラメータは以下の通りである。
【0248】(px0,py0,pz0):距離センサ 107 1の路面
平面上での座標 (dx,dy,dz) :距離センサ 107 1のセンシングの向きを
示す方向ベクトルdc :距離センサ107 1と障害物との
路面平面上での距離 (px1,py1,pz1):(px0,py0,pz0)から(dx,dy,dz)の方向に
距離dcだけ移動した点 以下、図31に従って空間モデルを作成する手順を説明
する。
【0249】1.障害物との距離dcを計測し、その距離
が予め設定されている所定の距離より近いかどうかを調
べる。前記所定の距離より離れていれば何もしない。
【0250】2.もし所定の距離内であれば、以下の手
順でついたて平面を求める。
【0251】2-1.予め分かっている距離センサ107A
の座標値から(px0,py0,pz0)を求める。
【0252】2-2.予め分かっている距離センサ 107A
の向き(dx,dy,dz)と、障害物までの距離dcから、(px1,p
y1,pz1)を求める。
【0253】2-3.法線ベクトル(dx,dy,dz)を持ち、
点(px1,py1,pz1)を通る平面(式(15))を、ついたて面
とする。
【式15】 dx(x-px1) + dy(y-py1) + dz(z-pz1) = 0 3.前記ついたて面は、必要がなくななれば取り除く。
【0254】4.全ての距離センサ 107 について、上
記1から3までの処理を終了していれば、空間モデル作
成処理を終了する。まだ未チェックの距離センサ 107A
があれば、該距離センサ 107Aについて、上記1から3
までの処理を実行する。
【0255】図31では、カメラ1、2から入力された
画像が、それぞれ空間モデルを構成するついたてとして
の平面1、平面2にマッピングされている様子が示され
ている。マッピングに際して、ついたて面の幅の値をい
くらにするかが合成画像のクオリティを決める重要な要
素の一つとなる。障害物としてもっとも一般的なのは他
の車両なので、例えば自車と他の車両との距離がついた
て面を作成する距離になったとき、前記他の車両の2/
3以上がついたて面にマッピングされるように幅を設定
するという方針で、ついたての幅を決めるなどすればよ
い。
【0256】また、ついたて面を作成するかどうかを決
める条件としての、自車から障害物までの距離は、経験
的に 50cm〜1m の値を設定すると良い。また、ついたて
面を取り除く場合の条件としては、以下に列挙するよう
な方法を、単独で、もしくは組み合わせて用いれば良
い。
【0257】・障害物との距離が所定の距離より遠ざか
った場合 ・運転者が、なんらかの方法で該画像生成装置を初期化
した場合 以上、本発明による画像生成装置を構成するそれぞれの
手段の実施例を説明した。次に、本発明による画像生成
装置の全体の処理の流れについて説明する。図32は、
本発明による画像生成装置の全体の処理の流れをフロー
チャートの形式で示したものである。なお画像生成装置
の構成例としては図27(b)の構成を想定する。
【0258】1.(901) 本装置を正常に動作させるため
に、車載カメラのそれぞれについて、正しいカメラーパ
ラメータをカメラパラメータテーブル102Aに入力してお
く。
【0259】2.(902) 車載カメラで車両周囲の画像を
撮影する。
【0260】3.(903) 障害物検知手段 108Aにて、距
離センサ107Aで車両周囲に存在する障害物までの距離を
計測する。
【0261】4.(904) 空間モデル作成手段103Aにて、
空間モデルを作成する。
【0262】5.(905) マッピング手段104Aにて、車載
カメラからの画像を、空間モデルにマッピングする。
【0263】6.(906) 空間モデルにマッピングされた
画像を参照して、運転者が設定した視点から見た画像を
合成する。
【0264】7.(907) 6.の処理で合成された画像を
表示する。
【0265】8.(908) 上記2.〜7.の処理を必要が
なくなるまで繰り返す。例えば運転者が車両を駐車スペ
ースに入れようとしている時は、前記2.〜7.の処理
を繰り返し、駐車が完了すれば本処理を終了すればよ
い。
【0266】以上のように、本発明では限られた台数の
カメラからの画像を用いて任意の視点からの画像が合成
する。その合成の際に、従来使用されてきた路面平面一
つだけの空間モデル以外の空間のモデルを導入し、この
空間モデルを用いることにより、高さをもつ物体も歪み
を少なくして空間にマッピングされる。従って、高さを
もつ物体が2台のカメラ画像に映っている場合、それぞ
れの画像を空間モデルにマッピングしたときの前記物体
の重なりのずれは、平面モデルに比べて大きく改善さ
れ、視点変換して合成した画像をクオリティが向上し、
運転者は、前記合成画像によって周囲の状況がよりいっ
そう認識しやすくなり、適確な運転操作を行えることが
期待できる。
【0267】なお、これまでの説明は、車両周囲の状況
を車両から検知し、車両を基準とした座標系で説明して
きたが、たとえば、駐車場等に設置のセンサが駐車場の
状況を検知し、駐車場を基準とした座標系での周囲状況
と、車両の駐車場における位置関係を、車両に通知する
ことにより、これまで述べた処理を実施することが可能
である。
【0268】以下、別の本発明の一実施例を説明する。
なお、本実施例においては、車両の周囲を監視するカメ
ラを設置し、前記カメラで獲得した画像を運転席近くに
設置したモニターテレビに表示させる監視装置を対象と
して説明する。
【0269】図33(a)は本発明(請求項36の一
例)に係る監視装置の基本構成例を示したブロック図で
ある。
【0270】本実施例による車両周囲監視装置は、基本
構成として、車両周囲の状況を把握するために取付けら
れた複数台のカメラ101B、前記カメラの特性を示す
カメラパラメータを収納しておくカメラパラメータテー
ブル102B、車両周囲の状況として、例えば白線や路
面に描かれた矢印、文字、また横断歩道など、路面上の
特徴を検知する路面特徴検出手段103B、たとえば車
両を基準とした座標系を設定し、該座標系に、前記路面
特徴検出手段103Bの処理結果に応じた空間モデルを
作成する空間モデル作成手段104B、前記カメラより
入力された画像を前記空間モデルにマッピングするマッ
ピング手段105B、視点を設定し、前記視点から見た
一枚の画像を、マッピング手段105Bにて作成された
データから合成する視点変換手段106B、視点変換手
段106Bにて変換された画像を表示する表示手段10
7Bからなる構成を有する。
【0271】図33(b)は、図33(a)に示した監
視装置に対して、さらに、車両の移動方向を検出する移
動方向検出手段109B、および車両の単位時間におけ
る移動距離を検出する移動距離検出手段108Bでの処
理結果を用いて、前記路面上の特徴の現在位置を計算
し、計算した車両の現在位置にもとづいて、前記空間モ
デルを逐次修正することを特徴とする。
【0272】図33(c)は、図33(b)に示した監
視装置に対して、さらに、表示手段107Bにおいて路
面特徴検出手段103Bにおける処理結果を表示しつつ
前記処理結果を修正する特徴修正手段110Bを備えた
構成を有することにより、処理の実行中に路面上の特徴
がずれた場合に、該ずれを修正することが可能となる。
【0273】次に、本実施例を構成する各構成要素につ
いての詳細を説明する。
【0274】カメラは、車両の周囲の状況など、監視す
べき空間の画像を撮り込むテレビカメラである。このカ
メラは、大きな視野を得ることができるよう、通常、画
角が大きいものを使うのが良い。車両へのカメラの取り
付け例は、図7で説明したとおりである。
【0275】カメラパラメータテーブル102Bは、カ
メラパラメータを格納するテーブルである。その内容は
上述したとおりである。
【0276】カメラパラメータテーブル102Bに格納
されているデータは表形式で示されるが、それは図9に
示すものである。
【0277】同様に、仮想カメラのパラメータは図9の
カメラパラメータテーブル102の8行目に記載されて
おり、その内容は、仮想カメラとは、座標(0、y1、
0)の位置にあり、向きはY−Z平面に対して0度、X
−Z平面に対して−20度の角度をなし、焦点距離は
f、レンズ歪み係数κ1、κ2はともに0である、とい
うことが分かる。
【0278】本実施例では、視点変換手段106Bで設
定した所望の視点に仮想のカメラを設置したと仮定し、
その仮想カメラからの画像を計算によって求めることが
可能である。該計算方法については後で詳述する。
【0279】また、前記レンズ歪み係数を用いてカメラ
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
【0280】そこで、レンズ歪みは、画像合成時に問題
が生じるほどの変化は起こらないと仮定し、歪み補正前
の画像と、歪み補正後の画像で、それぞれの画素の座標
値の対応関係を予め計算しておく。そして前記計算結果
をテーブルやマトリクスなどのデータ形式でメモリ内に
保持し、それを用いて歪み補正を行うなどの方法が、高
速な補正処理として有効である。
【0281】空間モデル作成手段104Bは、車両を基
準とした座標系を設定し、この座標系に、路面特徴検出
手段103Bの処理結果に応じた空間モデルを作成す
る。
【0282】図34(a),(b)は、本発明による空
間モデルを示した概念図である。
【0283】本図では、路面上の特徴として、駐車場に
引いてある駐車スペースを示す白線の端点もしくは白線
同士が交わって出来る角を検知し、それらの点を基準に
して図に示すような5つの平面を用いて空間モデルを構
成している様子を示しており、図34(a)は該空間モ
デルを鳥瞰図的に示した概念図、図34(b)は図34
(a)において、車両の上方から下向きに透視投影され
た図である。図34(b)の例では、路面上の特徴の例
として、特徴点1〜4までを示している。以下、路面上
の特徴もしくは特徴点は、これら4つの特徴点を示すも
のとする。
【0284】但し、4つのいずれか指すときは「特徴点
1」というように番号を付けて指定する。そして本実施
例では、該5つの平面をそれぞれ以下のように決めてい
る(ここでは、左右は車両の後ろ向き方向に対して決め
ている)。 平面1:路面(すなわち車両のタイヤに接している)と
しての平面 平面2:左端が平面2に接し平面1に垂直な平面 平面3:特徴点1と特徴点2を結ぶ線分に沿っており、
平面1に垂直な平面 平面4:特徴点2と特徴点3を結ぶ線分に沿っており、
平面1に垂直な平面 平面5:特徴点3と特徴点4を結ぶ線分に沿っており、
平面1に垂直な平面 平面6:右端が平面5に接し平面1に垂直な平面 さて、空間モデル作成手段104Bにおいて、3次元空
間にこれらの平面(但し路面と一致する平面1を除く)
を作成するにあたっては、前記特徴点を検出する必要が
ある。路面特徴検出手段103Bは、係る路面上の特徴
を抽出するものである。
【0285】図35(a)〜(d)は、路面特徴検出手
段103Bで特徴点を抽出する処理の例を説明するため
の図、図36は特徴点の抽出処理の流れを示すフローチ
ャートであり、以下、これらの図を用いて、路面特徴検
出手段103Bでの処理手順を説明する。
【0286】処理701: 車載カメラのいずれかから
駐車スペースを示す白線を含む画像を撮影する。図35
(a)は、該撮影された画像を示している。
【0287】以下の2つの処理を行い、特徴点の位置を
推定する。
【0288】処理702: 車載カメラから撮影された
画像を適当なしきい値で2値化し、それを横方向および
縦方向に走査し、走査ラインにおける白線に対応する画
素の数を頻度とするヒストグラムを、縦方向、横方向の
それぞれについて得る。該ヒストグラムの結果から特徴
点の存在する位置を推定する。図35(b)はその処理
例を示したもので、 ・縦方向に走査して得られたヒストグラムから、特徴点
のY座標を推定 ・横方向に走査して得られたヒストグラムから、特徴点
のX座標を推定 している様子を示している。
【0289】処理703: 車載カメラから撮影された
画像のエッジ抽出処理を行い、続いて前記エッジ処理結
果にさらに直線抽出処理を実施し、得られた直線の交点
もしくは端点を特徴点として推定する。図35(c)
は、その処理例を示したもので、エッジ抽出としては、
例えばゾーベルオペレータ、直線抽出としては例えばハ
フ変換などを用いれば良い。
【0290】処理704: 上記処理702、処理70
3で得られた特徴点の推定値を用いて特徴点を決定す
る。特徴点の決定の仕方としては、例えば、処理70
2、処理703のそれぞれの方法で得られた特徴点の中
間点を取るなどすればよい。尚、処理702、処理70
3はいずれを先に実行しても同じ結果が得られる。
【0291】処理705: カメラ画像から得られた特
徴点の3次元座標系における座標を求める。この座標か
ら、前記空間モデルを構成する平面を求めることが可能
となる。
【0292】マッピング手段105Bは、カメラパラメ
ータに基づいて、車載カメラからの入力画像を構成する
各々の画素を、空間モデル作成手段104Bによって作
成された空間モデルにマッピングする。すなわち、車載
カメラから撮影された各々の画像を空間モデルに透視投
影する。
【0293】図29は、画像を含む平面に設定したU−
V座標系の点の座標を、ワールド座標系の点の座標に変
換することにより、車載カメラ画像を空間モデルを構成
する面にマッピングする説明の補助として使用する図で
ある。この詳細については、すでに説明した。
【0294】なお、車載カメラで撮影された画像を構成
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に図30におい
て説明した。
【0295】視点変換手段106Bは、車載カメラの画
像がマッピング手段105Bによって空間モデルにマッ
ピングされた結果を、任意の視点に設置したカメラから
撮影した画像として合成する。その方法の概要は、上述
した視点変換手段105Aに関して説明した。
【0296】ところで、視点変換手段106Bにおい
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デルの点に、色がマッピングされていない場合も考えら
れる。その場合は、物体が存在しない部分であると識別
可能な色、例えば黒に置き換えるなどすればよい。
【0297】さて、路面特徴検出手段103Bによって
検出された特徴点の位置は、車両の動きとともに変化す
る。空間モデルは特徴点の3次元座標を基に作成される
ので、車両の動きによって特徴点の位置が変化する毎に
空間モデルを作り直す必要がある。すなわち車両が移動
している間は常に、直前に説明した手法などで特徴点の
位置を求める必要があるが、画像から特徴点を求める処
理は一般的に計算量が多いため、コストが高くつく。こ
れを回避するための方法として、車両の動く速さと向き
をつねに計測し、その計測結果を用いて特徴点の座標を
計算すればよい。
【0298】本発明(請求項38の一例)の車両周囲監
視装置は、係る処理を実行するために、車両の移動方向
を検出する移動方向検出手段109Bと、車両の単位時
間における移動距離を検出する移動距離検出手段108
Bを備え、移動方向検出手段109Bおよび移動距離検出
手段108Bでの処理結果を用いて、前記路面上の特徴
の現在位置を計算する。
【0299】図37は、本発明(請求項38の一例)の
車両周囲監視装置において、車両の動きにともなって特
徴点の位置計算を行う処理の手順を示すフローチャー
ト、図38は、前記処理の説明の補助に用いる概念図で
ある。
【0300】図38は、ある一定時間の間に車両が移動
したとき、前記一定時間の開始時刻(以下t1)と終了
時刻(以下t2)における車両の位置、および向きの関
係を示している。図37および図38を用いて前記処理
の手順を説明する。
【0301】処理901: ある一定時間における車両
の移動距離を検出する。本実施例では、移動距離は、時
刻t1と時刻t2のそれぞれの時刻における車両位置の
間の直線距離で定義する。すなわち、図38におけるO
1とO2の距離ということになる。
【0302】説明の都合上、図38に記載のように、移
動距離をO1からO2へのベクトルを(t′x,0,
t′z)で表す。移動距離の検出方法としては、例えば
タイヤの回転数などによって計測する方法が用いられ
る。
【0303】処理902: 前記一定時間における車両
の移動方向を検出する。本実施例では移動方向を、時刻
t1における車両の向きに対して時刻t2における車両
の向きがどれだけ変化したかの変化量として定義する。
【0304】説明の都合上、図38に記載のように、向
きの変化量をZ1軸とZ2軸とのなす角度Θで表す。移
動方向の検出方法としては、例えばハンドルの回転角度
などによって計測する方法が用いられる。
【0305】処理903: 時刻t1から時刻t2に至
る間の車両の移動距離および移動方向を用いて、t1に
おいて取得した特徴点の座標をt2における特徴点の座
標に変換する上記式(5)を作成する。
【0306】但し、式(5)では時刻t1から時刻t2
に至る間の車両移動においては、完全に垂直成分の変化
がないもの、つまり路面が平坦であることを仮定してい
る。
【0307】式(5)において、x1,y1,z1は、
時刻t1において車体を中心にしたX1−Y1−Z1ワ
ールド座標系(原点O1)におけるある点の座標で、x
2,y2,z2は、前記点の時刻t2において車体を中
心にしたX2−Y2−Z2ワールド座標系(原点O2)
における座標を表す。つまり、x1,y1,z1を式
(5)の右辺に代入して計算した結果がx2,y2,z
2となる。
【0308】処理904: 式(5)を用いて、時刻t
1において合成した特徴点の座標を時刻t2における特
徴点の座標に変換する。
【0309】車両の移動方向と移動距離が誤差なく計測
できれば、移動方向検出手段109と移動距離検出手段
と特徴位置計算手段を導入し、直前で説明した計算方法
によって、常に特徴点の正確な座標を得ることができ
る。しかしながら、車両の移動方向と移動距離を誤差な
く計測することは現実的に不可能であるため、特徴点の
位置を必要に応じて修正する必要が生じる。
【0310】特徴修正手段110Bは、表示手段107B
において路面特徴検出手段103Bにおける処理結果を
表示しつつ、車両の乗員が特徴の修正を指示し、その指
示に従って路面の特徴位置を修正する。
【0311】図39は、特徴修正処理を表示手段107
Bに表示している様子を示した概念図であり、また、図
40は、特徴修正処理における処理の流れを示すフロー
チャートである。以下、これらの図を用いて、特徴修正
手段110Bでの処理手順を説明する。
【0312】処理1201:表示手段107Bにて、現
在の特徴点の位置を表示する。図39の例では車載カメ
ラから撮影された各々の画像と空間モデルとをスーパー
インポーズし、それを上方から下向きに透視投影した画
像を表示している様子を示している。
【0313】処理1202:位置のずれている特徴点を
指定する。図39の例では特徴点2および特徴点4がず
れている特徴点で、これらを指定する。指定にあたって
は、例えば表示装置にタッチパネルが装着されている場
合は指で表示画面を触れることによって容易に場所の指
定が可能である。
【0314】処理1203:前記ずれた特徴点の正しい
場所を指定する。正しい特徴点の場所はどういう場所で
あるかは、予め操作する人に知らせておく。
【0315】処理1204:修正すべき特徴点が残って
いれば、上記処理1201〜1203を引き続き繰り返
し、なければ特徴点の修正処理を終了する。
【0316】以上、本発明による車両周囲監視装置を構
成するそれぞれの手段の実施例を説明した。次に、本発
明による車両周囲監視装置の全体の処理の流れについて
説明する。図41は、本発明による車両周囲監視装置の
全体の処理の流れを示すフローチャートである。なお、
車両周囲監視装置の構成例としては図33(c)の構成
に基づく。
【0317】処理1301: 本装置を正常に動作させ
るために、車載カメラのそれぞれについて、正しいカメ
ラーパラメータをカメラパラメータテーブル102Bに
入力しておく。
【0318】処理1302: 車載カメラで撮影した画
像から路面上の特徴点を抽出する。
【0319】処理1303: 抽出した特徴点の画像内
の座標とカメラパラメータから該特徴点の3次元座標を
計算する。但し、車両周囲監視装置処理が実行中なら
ば、車両の移動方向および移動距離を検出した結果を用
いて、特徴点の座標の現在位置を計算する。
【0320】処理1304: 車載カメラで車両周囲の
画像を撮影する。
【0321】処理1305: 空間モデル作成手段10
4Bによって処理4で撮影された画像を内に空間モデル
作成する。
【0322】処理1306: マッピング手段105B
にて、車載カメラからの画像を、空間モデルにマッピン
グする。
【0323】処理1307: 空間モデルにマッピング
された画像を参照して、運転者が設定した視点から見た
画像を合成する。
【0324】処理1308: 処理1307で合成され
た画像を表示する。
【0325】処理1309: 表示画像において、特徴
点の位置がずれているかどうかを確認する。
【0326】処理1310: もしずれていれば特徴点
修正の割り込みを入れ、特徴点の修正処理を行う。特徴
点の修正の必要がなければ、処理1303に戻り、処理
を繰り返す。例えば運転者が車両を駐車スペースに入れ
ようとしている時は、前記処理1302〜1308を繰
り返し、駐車が完了すれば本処理を終了すればよい。
【0327】なお、本発明における車両の周囲の状況と
しては、上述した路面の特徴だけでなく、たとえば駐車
車両の状態等があげられる。その場合はその駐車車両の
状態に応じた空間モデルが生成される。
【0328】以上のように、本発明では限られた台数の
カメラからの画像を用いて任意の視点からの画像が合成
する。その合成の際に、単なる平面のモデルではなく、
カメラ画像から得られた路面上の特徴を利用して作成さ
れた汎用的な空間のモデルを導入している。平面を用い
た方法では、高さ成分がカメラ視線方向の奥行き成分に
変換されてしまうため、路面から上方に高さ成分を持つ
物体は、路面に投影すると大きく歪むことが問題であっ
たが、本発明の空間モデルを用いることにより、高さを
もつ物体も歪みを少なくして空間にマッピングされる。
従って、高さをもつ物体が2台のカメラ画像に映ってい
る場合、それぞれの画像を空間モデルにマッピングした
ときの前記物体の重なりのずれは、平面モデルに比べて
大きく改善され、視点変換して合成した画像のクオリテ
ィが向上し、運転者は、前記合成画像によって周囲の状
況がより一層認識しやすくなり、適確な運転操作を行え
ることが期待できる。また、前記空間モデルは単純な構
成を有しているため、装置のコストを低く押さえること
も可能となる。
【0329】次の別の本発明の画像生成装置を説明す
る。
【0330】以下、図を用いて本発明の一実施例を説明
する。図42は本発明(請求項42の一例)に係る画像
生成装置の構成例を示したブロック図である。
【0331】本実施例の画像生成装置は、基本構成とし
て、車両周囲の状況を把握するために取付けられた複数
台のカメラ101C、カメラ101Cの特性を示すカメラ
パラメータを格納しておくカメラパラメータテーブル1
02C、車両の周囲の状況をモデル化した空間モデル1
03Cにカメラ101Cより入力された画像をマッピング
するマッピング手段104C、所望の仮想視点から見た
一枚の画像を、マッピング手段104Cにて作成された
データから合成する視点変換手段105C、カメラ10
1Cのパラメータを、各々のカメラで独立して修正する
カメラパラメータ修正手段106C、視点変換手段10
5Cにて変換された画像を表示する表示手段107Cから
なる構成を有する。
【0332】次に、本実施例を構成する各構成要素につ
いての詳細を説明する。
【0333】カメラ101Cは、車両の周囲の状況な
ど、監視すべき空間の画像を撮り込むテレビカメラであ
る。図43(a)は、車両へ3台のカメラを取り付けた
例を示した概念図であるが、図43(a)の例のよう
に、車両への取り付け位置としては、車体屋根と側面も
しくは屋根と後面の境界部分にし、できるだけ画角が大
きいものを使うようにすると、視野が広くなりカメラの
台数も少数で済む。また左右のドアミラー部に後方を向
いたカメラを設置し、それらのカメラからの画像を車内
に設置したモニタに表示することによりドアミラーの機
能を果たすため、車両からドアミラーを除去することが
可能となり、デザイン的にも空力的にも優れた車を設計
することが可能となる。
【0334】カメラパラメータテーブル102Cは、カ
メラパラメータを格納するテーブルである。その詳細に
ついては上述したとおりである。
【0335】さて、まず該カメラパラメータテーブル1
02Cの詳細な説明の準備として、車両を基準とした3
次元空間座標系を定義する。図44は車両を中心とする
3次元空間座標系を示した概念図である。図44の例で
は3次元空間座標系の例として、 ・車両の後面直下にある後面に平行な路面上の直線をX
軸 ・車両の後面中央に路面から垂直に伸びる軸をY軸 ・車両の後面中央を通り撮面に垂直な路面上の直線をZ
軸 とする3次元空間座標系を定義する。
【0336】また、本座標系においてカメラの向きは、 ・Y−Z平面に対してなす角度をα ・X−Z平面に対してなす角度をβ ・上記α、βの角度で回転した後の、カメラの光軸の周
りの回転角度をγ として、該α、β、γを用いて表すものとする。以下、
特に断る場合を除いて、3次元空間座標系もしくはワー
ルド座標系もしくは単に3次元空間は、本定義による3
次元空間座標系を指すものとする。
【0337】図45は、カメラパラメータテーブル10
2Cに格納されているデータを表形式で示したものであ
る。図45に記載されている内容は、テーブルの左側の
列から順に以下の通りで、下記のごとく本テーブルで
は、2列目から9列目までの項目がカメラパラメータの
例を示している。 ・1列目:図44の車載カメラの番号 ・2列目:3次元空間座標系におけるカメラ位置のX座
標 ・3列目:3次元空間座標系におけるカメラ位置のY座
標 ・4列目:3次元空間座標系におけるカメラ位置のZ座
標 ・5列目:カメラの向きのうちY−Z平面に対してなす
角度α ・6列目:カメラの向きのうちX−Z平面に対してなす
角度β ・7列目:カメラの光軸の周りの回転角度γ ・8列目:3次元空間座標系におけるカメラの焦点距離 ・9列目:レンズの半径方向の歪み係数κ1 ・10列目:レンズの半径方向の歪み係数κ2 例えば、図44におけるカメラ1のパラメータは図45
のカメラパラメータテーブル102Cの第2行目に記載
されており、その内容は、カメラ1は、座標(0、y
1、0)の位置にあり、向きはY−Z平面に対して0
度、X−Z平面に対して−30度の角度をなし、光軸周
りの回転はなく、焦点距離はf1、レンズ歪み係数κ
1、κ2はともに0である、ということが記されてい
る。
【0338】本実施例では、視点変換手段105C(後
で詳細を説明)によって、車載カメラから撮影した画像
を所望の仮想視点から見た画像に変換することが可能で
ある。仮想視点から見た画像とは、具体的には所望の場
所に好きな向きに仮にカメラを置いた場合に見えるはず
の画像のことである。従って仮想視点の視点パラメータ
は、前述のカメラパラメータと同じものを用いて表すこ
とが可能である。この際、仮想のカメラでは、レンズの
歪みは考慮する必要がないので、レンズ歪み係数κ1、
κ2はいずれも0とすることができる。
【0339】図46は、視点パラメータテーブル102Cに
格納されているデータを表形式で示したものである。図
46に記載されている内容は、テーブルの左側の列から
順に、2列目から9列目までの項目が視点パラメータの
例を示している。その内容は、仮想視点が、座標(0、
0、Z2)の位置にあり、向きはY−Z平面に対して0
度、X−Z平面に対して−90度の角度をなし、光軸周
りの回転はなく、焦点距離はf2、レンズ歪み係数κ
1、κ2はともに0である、ということは記されてい
る。
【0340】マッピング手段104Cは、カメラパラメ
ータに基づいて。車載カメラからの入力画像を構成する
各々の画素を空間モデル103Cにマッピングする。す
なわち、車載カメラから撮影された各々の画像を空間モ
デル103Cに透視投影する。
【0341】ここで空間モデル103Cとは、マッピン
グ手段104Cにおいて、カメラからの画像を3次元空
間座標系にマッピングする立体モデルを指し、例えば、
平面もしくは曲面もしくは平面および曲面からなるモデ
ルが使用される。本実施例では、説明を容易にするため
に、最も単純な空間モデル103Cの一例として路面と
しての平面モデルを用い、車載カメラからの画像を、該
平面モデルにマッピングする方法を説明する。
【0342】尚、実用に際しては該単純なモデルでは、
高さ成分を持つ物体の歪みが大きくなるなどの問題が生
じるため、平面をいくつか組み合わせた空間モデル、平
面と曲面を組み合わせた空間モデルなどを用いるとよ
い。さらには、車両の周囲の障害物の正確な立体モデル
を実時間で計測することが可能であれば、該立体モデル
を用いると、さらに高精度な合成画像が得られる。
【0343】さて、マッピング手段104Cにおけるマ
ッピング処理の説明をする前に、まず視平面座標をワー
ルド座標へ変換する方法について説明する。図47は、
画像を含む平面(以下、視平面)に設定したU−V座標
系の点の座標を、ワールド座標系の点の座標に変換する
ことにより、車載カメラ画像を空間モデル103Cを構
成する面にマッピングする説明の補助として使用する図
である。該変換は下記の手順で行われる。
【0344】手順1:視平面が Z=f(カメラの焦点
距離)で、該平面上にあるカメラ画像の中心をZ軸が通
るような座標系を設定する。これを視平面座標系と呼ぶ
(Oeを原点とする)。
【0345】手順2:図7における点Pv(u,v)
(この点がカメラ撮影画像の一画素に対応する)の視平
面座標系での座標をPe(Xe,Ye,Ze)とする
と、PeとPvの関係は、カメラの焦点距離fを用い
て、上記式(1)式(2)のように表すことが出来る
(但し、この場合はZe=fとなる)。
【0346】前記2つの式により、視平面上に投影され
た画像の各々の画素について、視平面座標系における座
標を決めることができる。
【0347】手順3:視平面座標系とワールド座標系と
を対応づける計算式を求める。
【0348】ここで、ワールド座標系を中心にして、視
平面座標系が空間的に以下のような関係にあるとする。 ・視平面座標系原点Oeからワールド座標系原点Owへ
のベクトルを(tx,ty,tz)とする。
【0349】つまり、2つの座標系の位置的なずれは、
視平面座標系を(tx,ty,tz)だけ平行移動する
ことによって無くなる。尚、ワールド座標系におけるカ
メラ位置が既知であれば、該位置の座標の符号を反転す
れば(tx,ty,tz)は容易に求まる。 ・視平面座標系のそれぞれの軸の向きをワールド座標系
に合わせるための回転行列を上記式(1)とする。
【0350】該回転行列は、カメラパラメータテーブル
102Cのうち、向きおよびカメラの光軸周りの回転を
表すパラメータ(α、β、γ)によって、X,Y,Zの
各軸まわりの回転行列を求め、それらを合成することに
よって容易に求めることができる。さて、ある点をワー
ルド座標系でPw(Xw,Yw,Zw)で表し、また、
視平面座標系Pe(Xe,Ye,Ze)で表すとする
と、Pe(Xe,Ye,Ze)、Pw(Xw,Yw,Z
w)、(tx,ty,tz)、前記回転行列の間には式
(8)の関係が成り立つ。
【0351】これらの式(1)式(2)式(8)を用い
ることにより、視平面上での画素Pv(u,v)を、ワ
ールド座標系での座標Pw(Xw,Yw,Zw)に変換
することが出来る。
【0352】さて、車載カメラで撮影された画像を構成
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に図30におい
て説明した。
【0353】なお、図47では空間モデル103Cを形
成する面としてX−Z平面を用いた場合の例を示してい
る。
【0354】視点変換手段105Cは、車載カメラの画
像がマッピング手段104Cによって空間モデル103C
にマッピングされた結果を、任意の仮想視点に設置した
カメラから撮影した画像に合成する。その方法の概要
は、上記視点変換手段105Aに関して説明した。
【0355】ところで、視点変換手段105Cにおい
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デル103Cの点に、色がマッピングされていない場合
も考えられる。その場合は、 ・物体が存在しない部分であると識別可能な色、例えば
黒に置き換える ・当該点の色を、色がマッピングされている周囲の点か
ら、補間、補外などによって求めるなどすればよい。
【0356】カメラパラメータ修正手段106Cは、カ
メラのパラメータを、各々のカメラで独立して修正す
る。
【0357】図48は、カメラパラメータ修正手段10
6Cによってカメラパラメータを修正するための操作部
の構成例を示した概念図である。
【0358】本実施例では、 ・修正の対象となるカメラを選択する、カメラ選択ボタ
ン901C ・カメラの光軸方向に前後の移動をするズームボタン9
04C(前向き、後向き)・カメラの光軸方向に垂直に
カメラを平行移動する平行移動ボタン902C(上下左
右)・カメラの向きの変更と、カメラの光軸周りの回転
を修正するジョイスティック903Cから構成され、 (a)ズームボタン904C、平行移動ボタン902Cの
操作、カメラの3次元空間位置を、 (b)ジョイスティック903Cによって、カメラの回
転角度を、 それぞれ変更することができ、上記(a)、(b)の操
作によって、それぞれ当該カメラパラメータの以下の情
報が修正される。
【0359】(a)3次元空間座標系におけるカメラ位
置のX、Y、Z座標 (b)カメラの向きのうちY−Z平面に対してなす角度
α カメラの向きのうちX−Z平面に対してなす角度β カメラの光軸の周りの回転角度γ 修正された結果は、即座に式(8)に反映する。すなわ
ち、式(8)において、式0に示す回転行列が、新たな
カメラ角度を用いて再度計算されるとともに(tx,t
y,tz)を、新たなカメラ位置の座標で置き換える。
さすれば、変更後の式(8)を用いることによって修正
操作の結果としての画像が合成され、操作者は、自身の
修正の操作が正しいかどうかを一目で確認することが可
能である。
【0360】ところで、ジョイスティック903Cの操
作について、操作としては、 (1)ジョイスティック903Cの軸を上下左右に動か
す、いわゆるカメラの光軸の向きの調整に相当する操作 (2)ジョイスティック903Cの軸自身を回転させ
る、いわゆるカメラの光軸周りの回転の調整に相当する
操作 の2通りは少なくとも必要不可欠である。
【0361】これらのジョイスティック903Cの操作
のうち、(1)については、ジョイスティック903C
の軸とカメラの光軸があたかも一致しているように、操
作内容とその結果の画面が表示できれば、操作者はカメ
ラの向きを直感的に把握し易い。
【0362】そのためには、ジョイスティック903C
の操作によって傾けられた軸の向きと同じようにカメラ
の光軸を設定するのではなく、ジョイスティック903
Cの軸を動かした向きとは反対の方向に同じだけカメラ
の向きを動かし、その状態での向きを変更させたカメラ
の向きとしてカメラパラメータテーブル102Cに書き
込めばよい。
【0363】また、かかる修正をあたかもバックミラー
を修正しているかのように行うためには、実際にカメラ
が置いてある場所でカメラの向いている方向の画像を見
ながら行うのが望ましい。そのために、本修正処理を行
う際には、表示のために設置する仮想視点は、修正しよ
うとするカメラの修正前の位置および向きと一致させる
ことが望ましい。そのようにすれば、修正によってカメ
ラの向きや位置が変わっていく様子が一目で把握でき、
また修正が完了すれば、完了前の仮想視点位置に戻せば
よい。
【0364】図49は本発明にかかる画像生成装置の関
連する技術の構成例を示したブロック図である。
【0365】ここでは、図42の構成に対して、さら
に、カメラ入力画像と合成画像との間の画素の対応づけ
関係を保持するマッピングテーブル108Cを備えてい
る。
【0366】図50は、マッピングテーブル108Cを
表形式で示した概念図である。テーブルは、表示手段1
07Cにて表示する画面の画素数分のセルから構成され
ている。すなわち、 ・表示画面の横画素数がテーブルの列数 ・表示画面の縦画素数がテーブルの行数 になるように、テーブルが構成される。そして、それぞ
れのセルは、 ・カメラ番号 ・前記カメラで撮影された画像の画素座標 をデータとして持つ。例えば図50の左上のセルは表示
画面での左上、すなわち(0、0)の部分を示してお
り、マッピング手段104Cは、前記セルに格納されて
いるデータ内容(1、10、10)から、「1番カメラ
で撮影された画像の画素(10、10)のデータを、表
示画面(0、0)に表示する」という処理を行う。
【0367】ところで、マッピングテーブル108Cを
作成するためには、カメラ入力画像と合成画像との間の
画素の対応づけを計算する必要があるが、この計算は、
マッピング手段104Cおよび視点変換手段105Cによ
って容易に計算できる。より具体的には、全てのカメラ
について以下の1〜2の処理を行えば良い。 1.カメラを一つ決め、そのカメラ番号をCnとする。 2.該カメラ画像を構成する全ての画素に対して以下の
2.1〜2.3の処理を実施する。
【0368】2.1 マッピング手段104Cにより該
画素(座標を座標1とする)を空間モデル103Cにマ
ッピングする。
【0369】2.2 視点変換手段105Cにより、
2.1でマッピングされた画素を仮想視点から見たとき
の視平面での座標(座標2とする)を求める。
【0370】2.3 マッピングテーブル108Cの座
標2に対応するセルに、(Cn、座標1)を組にしたデ
ータを書き込む。但し、それぞれのカメラ画像の表示領
域が決められていれば、座標2がCnの表示領域である
場合にのみ、データを書き込むようにする。
【0371】マッピングテーブル108Cが作成されて
いる場合は、表示手段107Cは、マッピング手段10
4Cおよび視点変換手段105Cでの処理結果を用いて、
合成画像を表示するのではなく、該テーブルを用いて、
カメラ画像を表示画像に直接置き換えるようにする。こ
れにより複数カメラ画像の合成処理の高速化が可能とな
る。
【0372】以上、本発明による画像生成装置を構成す
るそれぞれの手段の実施例を説明した。最後に、本発明
による画像生成装置における修正処理の流れを説明す
る。
【0373】図51は、カメラパラメータの修正処理の
流れを示すフローチャート、図52及び図53は、カメ
ラパラメータの修正処理の説明の補助に使用する概念図
で、図52(a),(b)は、カメラパラメータ修正時
の表示画面を、図53(a),(b)は、カメラパラメ
ータ修正時以外(すなわち通常時)の表示画面を示す。
【0374】処理1201:カメラ選択ボタン901C
などで修正対象となるカメラを選択する。その際には画
面上には、図53(a)のごとく、合成画像がずれてい
る様子が表示されている。
【0375】処理1202:仮想視点を、選択されたカ
メラの位置・向きにあわせて変更し、画像を合成する。
仮想視点が変更されると、画面は図52(a)のごと
く、選択されたカメラの視点位置からの画像が表示さ
れ、該視点位置からのカメラのずれの様子が把握できる
ようになる。
【0376】処理1203:ズームボタン904C、平
行移動ボタン902C、ジョイスティック903Cを用い
て、カメラの3次元空間位置とカメラの向きを修正す
る。該修正処理中は、仮想視点は固定したままにする。
修正がうまくできれば、画面は、図52(b)のごと
く、ずれのない様子が表示される。
【0377】処理1204:当該カメラの修正が終了す
ると、修正後のカメラパラメータをカメラパラメータテ
ーブル102Cに書き込む。
【0378】処理1205:他に修正の必要があるカメ
ラがあれば、続いて前記カメラを選択し、上記処理12
01〜1204を繰り返す。無ければ次の処理1206
に進む。
【0379】処理1206:処理1202で変更された
仮想視点を、該カメラ修正処理前の仮想視点に戻し、画
像を合成する。その合成の結果、画面は、図52(b)
のごとく、ずれのない画像が表示されており、その確認
でもってカメラパラメータ修正処理を終了する。
【0380】なお、図52,図53の概念図に示したご
とく、各々の車載カメラからの画像を接合する部分にお
いては、該接合部分に、見た目に違和感を与えない程度
のマーカ(例えば線)などを印しておくと、どのカメラ
の画像がどこに表示されているかが分かり易くなる。
【0381】以上のように、本発明によれば、限られた
台数のカメラからの画像を用いて任意の仮想視点からの
画像を合成する。車両走行中の振動などにより、カメラ
の位置、向きがずれた場合、従来では、前記ずれを修正
することが困難であったが、本発明では、視点を修正す
るカメラパラメータ修正手段によって、あたかもバック
ミラーを調整するかの如く、運転者は、自身で表示画像
を都度確認しながら、ずれの生じたカメラの画像のみに
対して、視点の位置の移動、向きの変更などによって最
適の画像を得る。
【0382】従って、運転者は例え合成画像の一部にず
れが生じた場合でも、その調整のために多大な費用と手
間を要することなく、容易にずれの修正を行うことが可
能となる。
【0383】しかも本発明では、運転者の視点修正操作
中は、視点変換手段によって、仮想視点を、修正しよう
とする車載カメラの位置に切り替えて画像を合成するた
め、車載カメラの向き・位置修正を、バックミラーを修
正するかのごとく行うことが可能である。
【0384】また、本発明では、実際のカメラの向きを
調整するのではなく、仮想に設けた視点の向き、位置な
どのカメラパラメータを修正するので、カメラの向きを
変更する機構が必要でなくなり、装置のコストを低価格
に押さえることが可能となる。
【0385】図54は本発明の別の実施の形態を示すブ
ロック図であり、図42と同じ手段には同じ番号を付し
て説明を省略する。新しい点は、カメラの特性を示すカ
メラパラメータを修正する際にガイドとなるガイドデー
タを格納するガイドデータ記憶手段110Cを有する点
である。このガイドデータは画像合成手段109Cによ
って、入力画像と重畳され。表示手段107Cによって
表示される。このガイドデータは任意の生成方法で生成
できるが、たとえば次に説明するような方法で生成し、
利用する。
【0386】図55は、図54の構成に加えて、車両の
所定場所に点光源を発生させる特徴発生手段111C
と、その特徴を抽出できる特徴抽出手段112Cをさら
に備え、その特徴抽出結果を上記ガイドデータとして、
記憶手段110Cに格納できるようになっている。
【0387】たとえば、図56は点光源を特徴とするも
のであり、車両の前方にいくつかのランプ113Cを取
り付けている(a)。このランプ113Cが特徴発生手段1
11Cに対応する。さらに、車両の前側に取り付けられ
たカメラ1,2(f)からその車体の前部を撮影した画像
を示す(b,c)。特徴抽出手段112Cはその画像から、光
っている特徴を画像処理して抽出する(d,e)。
【0388】図57(a),(b),(c),(d),(e)は、特徴とし
て、車体の一部の線分を取り上げた例を示す。つまり、
車体の右後ろの隅部の線分を画像処理して取り出してい
る。
【0389】これらの点光源や、線分は車が移動しても
いつもそのカメラに対して位置関係が不変である。そこ
で、カメラの方向等が振動によって変化した場合、この
不変の特徴を利用して、カメラのパラメータを修正でき
るものである。その具体的やり方を次に説明する。
【0390】図58において、黒丸は本来の点光源のあ
るべき画像を示す。白丸はカメラがずれた場合の撮影し
た点光源を示す。そこで、(a)のように、ずれた状態の
画像が得られる。そこで、上述したようにしてジョイス
ティック903Cを利用してパラメータを修正して一致
させる(b,c)。これによって、簡単にキャリブレーショ
ンを行うことができる。
【0391】図59の(a,b,c,)は、上述して線分を利用
してキャリブレーションを実行した例を示している。
【0392】なお、上記特徴の発生は、パターン光を照
射する等、他の方法でももちろん発生できる。
【0393】次に、別の本発明の一実施例を説明する。
【0394】図60は本発明(請求項52の一例)の画
像生成装置の構成例を示したブロック図である。
【0395】本実施例の画像生成装置は、基本構成とし
て、車両周囲の状況を把握するために取付けられた複数
台のカメラ101D、カメラ101Dの特性を示すカメラ
パラメータを格納しておくカメラパラメータテーブル1
02D、車両の周囲の状況をモデル化した空間モデル1
03Dにカメラ101Dより入力された画像をマッピング
するマッピング手段104D、少なくとも位置、向きを
含む視点パラメータを格納する視点パラメータテーブル
108D、所望の仮想視点から見た一枚の画像を、マッ
ピング手段104Dにて作成されたデータから合成する
視点変換手段105D、前記仮想視点のパラメータを修
正する視点パラメータ修正手段106D、視点変換手段
105Dにて変換された画像を接合して表示する表示手
段107Dを備えた構成を有する。
【0396】次に、本実施例を構成する各構成要素につ
いての詳細を説明する。
【0397】カメラ101Dは、車両の周囲の状況な
ど、監視すべき空間の画像を撮り込むテレビカメラであ
る。このカメラは図43に示したように車両に取り付け
られる。
【0398】カメラパラメータテーブル102Dは、カ
メラパラメータを格納するテーブルである。カメラパラ
メータについては、上述したとおりである。
【0399】さて、まずカメラパラメータテーブル10
2Dの詳細な説明の準備として、車両を基準とした3次
元空間座標系を定義する。それは図44で説明した通り
である。
【0400】カメラパラメータテーブル102Dに格納
されているデータは、図45のものと同じである。
【0401】本実施例では、視点変換手段105D(後
で詳細を説明)によって、車載カメラから撮影した画像
を所望の仮想視点から見た画像に変換することが可能で
ある。仮想視点から見た画像とは、具体的には所望の場
所に好きな向きに仮にカメラを置いた場合に見えるはず
の画像のことである。従って仮想視点の視点パラメータ
は、前述のカメラパラメータと同じものを用いて表すこ
とが可能である。
【0402】図61は、視点パラメータテーブル108
Dに格納されているデータを表形式で示したものであ
る。図61では、視点パラメータはそれぞれ3つずつ格
納されているが、3つのそれぞれが、それぞれ3台の車
載カメラと一対一に対応づけられている。
【0403】例えば、カメラ1で撮影された画像は、仮
想視点1から見た画像へと視点変換され、カメラ2で撮
影された画像は、仮想視点2から見た画像へと視点変換
される。
【0404】このようにカメラ1台ごとに仮想視点を設
定すれば、もしカメラの位置ずれなどによって、表示画
面上で他のカメラの画像と該カメラからの画像との接合
部分がずれた場合に、ずれたカメラ画像を見ている仮想
視点のパラメータのみを変更することによって、直感的
にずれを修正することが可能となる。修正方法の詳細は
後の視点パラメータ修正手段の説明において説明する。
【0405】さて、図61に記載されている内容は、2
列目から9列目までの項目が視点パラメータの具体例を
示しており、テーブルの左側の列から順に次の通りであ
る。
【0406】すなわち、図61の2列目を例にとると、
仮想視点1とは、座標(0、0、z2)の位置にあり、
向きはY−Z平面に対して0度、X−Z平面に対して−
90度の角度をなし、視線の中心軸周りの回転はなく、
焦点距離はf2、レンズ歪み係数κ1、κ2はともに0
である、ということが記されている。
【0407】マッピング手段104Dは、カメラパラメ
ータに基づいて、車載カメラからの入力画像を構成する
各々の画素を空間モデル103Dにマッピングする。す
なわち、車載カメラから撮影された各々の画像を空間モ
デル103Dに透視投影する。
【0408】ここで空間モデル103Dとは、マッピン
グ手段104Dにおいて、カメラからの画像を3次元空
間座標系にマッピングする立体モデルを指し、例えば、
平面もしくは曲面もしくは平面および曲面からなるモデ
ルが使用される。本実施例では、説明を容易にするため
に、最も単純な空間モデル103Dの一例として路面と
しての平面モデルを用い、車載カメラからの画像を、該
平面モデルにマッピングする方法を説明する。
【0409】尚、実用に際しては該単純なモデルでは、
高さ成分を持つ物体の歪みが大きくなるなどの問題が生
じるため、平面をいくつか組み合わせた空間モデル、平
面と曲面を組み合わせた空間モデルなどを用いるとよ
い。さらには、車両の周囲の障害物の正確な立体モデル
を実時間で計測することが可能であれば、該立体モデル
を用いると、さらに高精度な合成画像が得られる。
【0410】さて、マッピング手段104Dにおけるマ
ッピング処理の説明をする前に、まず視平面座標をワー
ルド座標へ変換する方法について説明する必要がある
が、それはすでに、図47に関して説明したのと同様で
ある。
【0411】さて、車載カメラで撮影された画像を構成
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に′233の図
7において説明した。
【0412】視点変換手段105Dは、車載カメラの画
像がマッピング手段104Dによって空間モデル103D
にマッピングされた結果を、任意の仮想視点に設置した
カメラから撮影した画像に合成する。その方法の概要
は、視点変換手段105Aに関して説明した。
【0413】ところで、視点変換手段105Dにおい
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デル103Dの点に、色がマッピングされていない場合
も考えられる。その場合については、すでに説明した。
【0414】図62は、マッピング手段104Dによっ
て車載カメラからの入力画像を構成する各々の画素を空
間モデル103Dとしての平面にマッピングし、該平面
にマッピングされた結果を、仮想視点に設置したカメラ
から撮影した画像に合成する様子を示した概念図であ
る。
【0415】視点パラメータ修正手段106Dは、それ
ぞれのカメラ毎に設けられている仮想視点のパラメータ
を、それぞれ独立して修正できる。
【0416】図63は、視点パラメータ修正手段106
Dによって仮想視点パラメータを修正するための操作部
の構成例を示したものである。本実施例では、 ・修正の対象となる仮想視点を選択する、視点選択ボタ
ン1001 ・仮想視点からの視線の中心軸上を前後に移動する、ズ
ームボタン1004(前向き、後向き) ・仮想視点からの視線方向に垂直に視点位置を平行移動
する平行移動ボタン1002(画像面に対して上下左右
の動き) ・仮想視点からの視線方向の変更と、仮想視点からの視
線方向周りの回転を修正するジョイスティック1003
Dから構成され、 (a)ズームボタン1004D、平行移動ボタン100
2Dの操作によって、仮想視点の3次元空間位置を、 (b)ジョイスティック1003Dによって、仮想視点
からの視線方向を、 それぞれ変更することができ、上記(a)、(b)の操
作によって、それぞれ当該仮想視点パラメータの以下の
情報が修正され、視点パラメータテーブル108に上書
きされる。 (a)3次元空間座標系における仮想視点位置のX、
Y、Z座標 (b)仮想視点からの視線方向のうちY−Z平面に対し
てなす角度α 仮想視点からの視線方向のうちX−Z平面に対してなす
角度β 仮想視点からの視線の中心軸の周りの回転角度γ 同時に、修正された結果は、即座に式(8)に反映す
る。すなわち、式(8)において、式0に示す回転行列
が、新たな視線方向を用いて再度計算されるとともに
(tx,ty,tz)を、新たな仮想視点位置の座標で
置き換える。
【0417】その結果、変更後の式(8)を用いること
によって修正操作の結果としての画像が合成され、操作
者は該合成画像を見ることにより、自身の修正の操作が
正しいかどうかを一目で確認することが可能である。
【0418】ところで、仮想視点のパラメータ修正の操
作のうち、仮想視点の向き・位置・回転の操作を変更す
る操作は、操作の内容と操作結果画像の振る舞いが一致
している方が、操作者にとって直感的に分かりやすい。
そのためには、パラメータ修正の操作のうちの次の操
作、すなわち、 (1)ジョイスティック1003Dの軸を上下左右に動
かす、いわゆるカメラの光軸の向きの調整に相当する操
作 (2)ジョイスティック1003Dの軸自身を回転させ
る、いわゆるカメラの光軸周りの回転の調整に相当する
操作 (3)平行移動ボタン1002Dの操作によって、仮想
視点からの視線方向に垂直に視点位置を平行移動する操
作の3通りの操作は、本発明の請求項54に記載のごと
く、仮想視点の向き・位置・回転の操作を変更する操作
方向と、実際の視点パラメータの変更方向の関係を、互
いに逆方向とする。
【0419】すなわち、例えばジョイスティック100
3Dを例に挙げると、ジョイスティック1003Dの操作
によって傾けられた軸の向きと同じように視線の中心軸
を設定するのではなく、ジョイスティック1003Dの
軸を動かした向きとは反対の方向に同じだけ視線方向を
動かし、動かした後の状態を変更された視線方向として
視線パラメータテーブル102Dに書き込めばよい。例
えば、ジョイスティック1003Dを右に10度傾けた
とすると、その時の視点パラメータ値は、視点方向が現
在の視線に対して左に10度傾いた値とする。同様に、
ジョイスティック1003Dを時計回りに5度回転させ
たとすると、その時の視点パラメータ値は、視線の中心
軸周りの回転角度を、反時計回りに5度回転させた値と
する。平行移動ボタン1004Dの操作についても同様
である。
【0420】図64は本発明の画像生成装置に関連のあ
る技術の構成例を示したブロック図である。
【0421】ここでは、図60の構成に対して、さら
に、カメラ入力画像と合成画像との間の画素の対応づけ
関係を保持するマッピングテーブル109Dを備えてい
る。
【0422】このマッピングテーブル109Dを表形式
で示した概念図は、図50と同じ内容であるので詳細は
省略する。テーブルは、表示手段107Dにて表示する
画面の画素数分のセルから構成されている。
【0423】このような画像生成装置では、視点パラメ
ータ修正手段によって、視点パラメータが修正された
ら、カメラ入力画像と合成画像との間の画素の対応づけ
関係のうち、該修正によって変更の生じる部分を、上記
手順に従って再度計算し書き換えればよい。
【0424】マッピングテーブル109Dが作成されて
いる場合は、表示手段107Dは、マッピング手段10
4Dおよび視点変換手段105Dでの処理結果を用いて、
合成画像を表示するのではなく、該テーブルを用いて、
カメラ画像を表示画像に直接置き換えるようにする。こ
れにより複数カメラ画像の合成処理の高速化が可能とな
る。
【0425】さらに、前記視点パラメータ修正手段によ
って、仮想視点の位置、向きなどが変更された場合の、
他のマッピングテーブルの高速な修正方法を示す。
【0426】図65(a)は本発明の画像生成装置に関
連する技術の構成例を示したブロック図、(b)は視点
パラメータ修正前の車載カメラ合成画像例を示す概念
図、(c)は視点パラメータ修正後の車載カメラ合成画
像例を示す概念図である。
【0427】本画像生成装置では、先の装置に、さら
に、視点パラメータ修正手段での処理によって変更され
た視点パラメータを用いて、前記マッピングテーブルを
再計算するマッピングテーブル修正手段110D、マッ
ピングテーブル修正手段110Dの処理途中のデータを
一時的に格納するバッファ111Dを備えた構成とな
る。
【0428】このマッピングテーブル修正手段110D
により、視点パラメータの修正結果を式(8)に反映さ
せて、この式(8)の複雑な計算をすることなく、上記
マッピングテーブルの内容を変更することが可能であ
る。以下で該マッピングテーブルの変更方法を手順を追
って説明する。
【0429】尚、図66(a)〜(c)は、該マッピン
グテーブルの変更方法の説明の補助に使用する概念図で
あり、灰色で示されている平行四辺形は仮想視点修正前
の画像面、白色で示されている平行四辺形は仮想視点修
正後の画像面を表している。また、仮想視点パラメータ
を修正するための操作部の構成が図63のようであると
する。
【0430】処理1.:マッピングテーブルの変更結果
を一時的に格納するバッファ111Dを予め設けてお
く。
【0431】処理2.:視点パラメータ修正手段によっ
て、平行移動、方向、回転、ズームのいずれかの視点パ
ラメータ修正情報を得、この情報内容に応じて以下の4
つのいずれかの処理により、仮想視点修正前の表示座標
(u,v)と修正後の表示座標(u′,v′)の対応関
係のデータ(以下、テーブル変換データ)を計算し、バ
ッファ111Dに書き込む。
【0432】(1)平行移動ボタン操作 平行移動の場合、図66(a)に示すように、平行移動
ボタンによって移動前と移動後の画素単位での移動距離
(du,dv)を獲得し、式(10)によって、変更前
の座標P1と変更後の座標P1′の関係を求め、上記関
係をバッファ111Dに書き込む。
【0433】
【式10】
【0434】(2)ジョイスティックによる方向修正操
作 仮想視点からの視線方向の場合、図66(b)に示すよ
うに、変更前と変更後の角度の変位分(θ,φ)を獲得
し、式(11)および式(12)によって、変更前の座
標P2と変更後の座標P2′の関係を求め、上記関係を
バッファ111Dに書き込む。
【0435】
【式11】
【0436】
【式12】
【0437】(3)ジョイスティックによる回転操作 仮想視点からの視線方向周りの回転を修正する場合、図
66(c)に示すように、変更前と変更後の回転角度ρ
を獲得し、式(13)によって、変更前の座標P3と変
更後の座標P3′の関係を求め、上記関係をバッファ1
11Dに書き込む。
【0438】
【式13】
【0439】(4)ズームボタン操作 ズーム(倍率)を修正する場合、ズームボタンによって
変更前に対する変更後の倍率kを獲得し、式(14)に
よって、変更前の座標P4と変更後の座標P4′の関係
を求め、上記関係をバッファ111Dに書き込む。
【0440】
【式14】
【0441】処理3.:バッファ111Dを参照しマッ
ピングテーブルを変更する。上記処理2.によって、マ
ッピングテーブルの各セルの座標1の変更内容が、例え
ば以下のようなテーブル変換データとして、バッファ1
11Dに書き込まれている。
【0442】(修正前の座標:P、修正後の座標:
P′) 該データを参照し、マッピングテーブルのすべてのセル
について、下記の(a)(b)の条件を満たせば、該セ
ルの修正前の座標1:Pを、前記テーブル変換データの
修正後の座標P′に変更する。 (a)セルのカメラ番号が修正対象となった仮想視点に
対応する車載カメラ番号と一致する。 (b)セルの修正前の座標1:Pが、前記テーブル変換
データの左側の項の座標と一致する。
【0443】なお、カメラ番号が修正対象となった仮想
視点に対応する車載カメラ番号と一致するが、座標1の
修正の行われなかったセルは、修正された仮想視点から
見たときの視野範囲外になっていると考えられるため、
表示手段における表示エリア外の座標値を書き込む。ま
たその場合は、表示手段では、表示できない座標値が入
力されたら視野外を示す色として、例えば黒を表示する
などとすればよい。
【0444】以上、本発明による画像生成装置を構成す
るそれぞれの手段の実施例を説明した。最後に、本発明
による画像生成装置における修正処理の流れを図を用い
て説明する。
【0445】図67は、本発明の画像生成装置における
視点パラメータの修正処理の流れを示すフローチャー
ト、図68(a)〜(c)は、視点パラメータの修正処
理の説明の補助に使用する概念図である。
【0446】1.(処理1501)視点選択ボタン10
01Dなどで修正対象となる仮想視点を選択する。その
際には画面上には、図68(a)のごとく、合成画像が
ずれている様子が表示されている。
【0447】2.(処理1502)本発明の請求項55
に記載のごとく、修正中の仮想視点を仮の仮想視点(例
えば修正前の視点)に置き換え固定する。
【0448】3.(処理1503)ズームボタン100
4D、平行移動ボタン1002D、ジョイスティック10
03Dを用いて、仮想視点の3次元空間位置と、視線の
向きを修正する。修正処理中は、上記2の処理によって
視点が固定されているため、あたかも視点部分においた
カメラを手で調整しているかのごとく、視点修正の作業
を行うことができる。修正がうまくできれば、例えば図
68(b)の画面を経て、図68(c)のごとく、ずれ
のない様子が表示される。
【0449】4.(処理1504)当該仮想視点の修正
が終了すると、修正後の視点パラメータを視点パラメー
タテーブル108に書き込む。
【0450】5.(処理1505)他に修正の必要があ
るカメラがあれば、続いて前記カメラを選択し、上記処
理1501〜1504を繰り返す。無ければ次の処理1
506に進む。
【0451】6.(処理1506)仮想視点の仮の仮想
視点に固定する状態を解除する。その合成結果、画面
は、図68(c)のごとく、ずれのない場合が表示され
ており、その確認でもって視点パラメータ修正処理を終
了する。
【0452】尚、図68(a)〜(c)の概念図に示し
たごとく、各々の車載カメラからの画像を接合する部分
においては、本発明(請求項56の一例)のように、該
接合部分に、見た目に違和感を与えない程度のマーカ
(例えば点線)などを印しておくと、どのカメラの画像
がどこに表示されているかが分かり易くなる。
【0453】以上のように、本発明では限られた台数の
カメラからの画像を用いて任意の仮想視点からの画像を
合成する。車両走行中の振動などにより、カメラの位
置、向きがずれた場合、従来では、カメラそのものの微
調整によってずれを元通りにするという方法をとってい
たため、前記ずれた画像を他の画像に合せ込む作業が困
難であった。しかし本発明では、仮想視点という概念を
導入し、該仮想視点から見た画像を見ながら、視点パラ
メータ修正手段によって、ずれの生じた画像のみを、あ
たかも仮想視点においたカメラを調整するかのごとく、
修正することができる。その際、視点の位置の移動、向
きの変更後の状態を、都度画像としてフィードバックす
るため、修正作業者は、表示画像を都度確認しながら最
適の画像を得ることができるため、従来に比べて、画像
のずれの合せ込み作業が格段に容易になるし、微少なず
れであれば、大規模な装置を用いてのカメラパラメータ
の再調整も必要ではなくなる。
【0454】また、本発明では、実際のカメラの向きを
調整するのではなく、仮想に設けた視点の向き、位置な
どのパラメータを修正するので、カメラの向きを変更す
る機構が必要でなくなり、装置のコストを低価格に押さ
えることが可能となる。
【0455】
【発明の効果】本発明の画像生成装置は、車両周囲監
視、店舗内監視等の分野に応用でき、それぞれのカメラ
から撮影された画像を用いて、あたかも仮想視点から実
際見ているような感覚を持つ合成画像を簡単に作り出す
ことが出来る。
【0456】また、カメラの方向がずれた場合でも、画
像上容易に修正できるという長所を有する。 [図面の簡単な説明]
【図1】本発明(請求項1)の画像生成装置の基本構成
例を示したブロック図
【図2】請求項10および請求項13の本発明を組み合
わせた画像生成装置の構成例を示したブロック図
【図3】本発明(請求項15)の画像生成装置の構成例
を示したブロック図
【図4】本発明(請求項18)の画像生成装置の構成例
を示したブロック図
【図5】本発明(請求項19)の画像生成装置の構成例
を示したブロック図
【図6】図1〜図5を統合した画像生成装置を示したブ
ロック図
【図7】車両へのカメラの取り付け例を示した概念図
【図8】カメラで撮影された画像を含む平面に設定した
U−V座標系の点と、3次元空間座標系の点との対応づ
けの関係を表した概念図
【図9】カメラパラメータテーブル103に格納されてい
るデータを表形式で示した図
【図10】温度補正テーブル111 の例を表形式で示した
【図11】度補正テーブルを用いて書き換えられたカメ
ラパラメータテーブル103 の例を表形式で示した図
【図12】空間データを格納する空間データバッファ10
5 の記述例を表の形式で示した図
【図13】路面上の特徴点と車両との位置関係を上部か
らみた概念図
【図14】図13の車載カメラ1で前記特徴点を含む路
面を撮影した画像を表す概念図
【図15】図13の車載カメラ2で前記特徴点を含む路
面を撮影した画像を表す概念図
【図16】路面上の特徴点A,B,Cと車両との位置関
係を上部から見た概念図
【図17】図16の車載カメラ1で前記特徴点A,Bを
含む路面を撮影した画像を表す概念図
【図18】図16の車載カメラ2で前記特徴点B,Cを
含む路面を撮影した画像を表す概念図
【図19】図16の車載カメラ1および車載カメラ2で
撮影した画像を用い、本発明による視点変換手段106
によって仮想カメラから見た画像を合成した様子を表す
概念図
【図20】(A)仮想カメラの設置場所の例として、車
両のほぼ中心の上方にカメラを下向きに設置した場合を
示した概念図 (B)仮想カメラの設置場所の例として、車両のほぼ前
方斜め上方にカメラを車の方へ向けて設置した場合を示
した概念図 (C)上記(a)の場合の合成画像の例を示す概念図
【図21】(a)特徴点生成手段109としてのパター
ン光照射装置を車体側面上部に取付けた様子を示す概念
図 (b)パターン光照射装置を車体上部に数箇所取り付け
て、路面にパターン光を照射した状態を車両上部から見
た様子を示す概念図 (c)路面に照射された長方形のパターン光をカメラか
ら撮影した様子を示す概念図
【図22】キャリブレーション手段102 において、温度
によってカメラパラメータテーブル103 の更新処理を行
う手順を示すフローチャート
【図23】空間データ変換手段114 における処理の手順
を示すフローチャート
【図24】空間データ変換手段114 の説明の補助に用い
る概念図
【図25】補正履歴の記録を確認し、必要に応じて補正
指示を出す処理の手順を示すフローチャート
【図26】本発明による画像生成装置の全体の処理の流
れを示すフローチャート
【図27】(a)本発明(請求項31)の画像生成装置の
基本構成例を示したブロック図 (b)本発明(請求項34)の画像生成装置の構成例を示
したブロック図
【図28】(a)〜(d)空間モデルを鳥瞰図的に示し
た概念図
【図29】カメラで撮影された画像を含む平面に設定し
たU−V座標系の点と、3次元空間座標系の点との対応
づけの関係を表した概念図
【図30】マッピング手段104Aにおけるマッピング
処理の手順を示すフローチャート
【図31】車両と該車両の周囲に存在する障害物との距
離に基づいて、3次元空間内についたて面を立てる方法
を示す概念図
【図32】本発明による画像生成装置の全体の処理の流
れを示すフローチャート
【図33】(a)本発明(請求項36)の車両周囲監視装
置の構成例を示したブロック図 (b)本発明(請求項38)の車両周囲監視装置の構成例
を示したブロック図 (c)本発明(請求項41)の車両周囲監視装置の構成例
を示したブロック図
【図34】(a)本発明による空間モデルを鳥瞰図的に
示した概念図 (b)本発明による空間モデルを車両の上方から下向き
に透視投影した概念図
【図35】(a)〜(d)本発明による路面特徴検出手
段103Bで特徴点を抽出する処理の例を示す図
【図36】特徴点の抽出処理の流れを示すフローチャー
【図37】本発明(請求項38)の車両周囲監視装置に
おいて、車両の動きにともなって特徴点の位置計算を行
う処理の手順の示すフローチャート
【図38】特徴位置計算手段における処理を示す図
【図39】特徴修正処理を表示手段107Bに表示して
いる様子を示した概念図
【図40】特徴修正処理における処理の流れを示すフロ
ーチャート
【図41】本発明による車両周囲監視装置の全体の処理
の流れを示すフローチャート
【図42】本発明(請求項42)に係る画像生成装置の
構成例を示したブロック図
【図43】(a)車両への車載カメラの設置例を示した
概念図 (b)それぞれの車載カメラ画像のモニタへの表示領域
を示した概念図
【図44】車両を中心とする3次元空間座標系を示した
概念図
【図45】カメラパラメータテーブル102Cに格納さ
れているデータを表形式で示した図
【図46】視点パラメータテーブルに格納されているデ
ータを表形式で示した図
【図47】カメラで撮影された画像を含む平面に設定し
たU−V座標系の点と、3次元空間座標系の点との対応
づけの関係を表した概念図
【図48】カメラパラメータ修正手段106Cによって
カメラパラメータを修正するための操作部の構成例を示
した概念図
【図49】本発明に係る画像生成装置に関連する技術の
一構成例を示したブロック図
【図50】マッピングテーブル108Cを表形式で示し
た概念図
【図51】カメラパラメータの修正処理の流れを示すフ
ローチャート
【図52】(a),(b)カメラパラメータ修正時の表
示画面例を示す概念図
【図53】(a),(b)カメラパラメータ修正時以外
(すなわち通常時)の表示画面を示す概念図
【図54】本発明(請求項48)に係る画像生成装置の
基本構成例を示したブロック図
【図55】本発明(請求項51)に係る画像生成装置の
基本構成例を示したブロック図
【図56】点光源を用いてガイドデータを生成する場合
を示す概念図
【図57】車体の線分を用いてガイドデータを生成する
場合を示す概念図
【図58】点光源を用いたガイドデータを利用してキャ
リブレーションを行う様子を示す概念図
【図59】線分を用いたガイドデータを利用してキャリ
ブレーションを行う様子を示す概念図
【図60】本発明(請求項52)の画像生成装置の構成
例を示したブロック図
【図61】視点パラメータテーブル108Dに格納され
ているデータを表形式で示した図
【図62】車載カメラからの画像を仮想視点からの画像
に変換する様子を示した概念図
【図63】視点パラメータ修正手段106Dによって視
点パラメータを修正するための操作部の構成例を示した
概念図
【図64】本発明の画像生成装置に関連する技術の一構
成例を示したブロック図
【図65】(a)本発明の画像生成装置に関連する技術
の一構成例を示したブロック図 (b)視点パラメータ修正前の車載カメラ合成画像例を
示す概念図 (c)視点パラメータ修正後の車載カメラ合成画像例を
示す概念図
【図66】(a)〜(c)マッピングテーブル109D
の変更方法を示す概念図
【図67】視点パラメータの修正処理の流れを示すフロ
ーチャート
【図68】(a)〜(c)視点パラメータの修正処理を
示す概念図
【図69】従来の画像生成装置の構成例を示したブロッ
ク図
【図70】従来の車両周囲監視装置の構成例を示したブ
ロック図
【符号の説明】
101 カメラ 102 キャリブレーション手段 103 カメラパラメータテーブル 104 空間再構成手段 105 空間データバッファ 106 視点変換手段 107 表示手段 108 特徴点抽出手段 109 特徴点生成手段 110 温度センサ 111 温度補正テーブル 112 移動方向検出手段 113 移動距離検出手段 114 空間データ変換手段 115 補正履歴記録手段 116 カメラ補正指示手段 101A カメラ 102A カメラパラメータテーブル 103A 空間モデル作成手段 104A マッピング手段 105A 視点変換手段 106A 表示手段 107A 距離センサ 108A 障害物検知手段 101B カメラ 102B カメラパラメータテーブル 103B 路面特徴検出手段 104B 空間モデル作成手段 105B マッピング手段 106B 視点変換手段 107B 表示手段 108B 移動距離検出手段 109B 移動方向検出手段 110B 特徴修正手段 101C カメラ 102C カメラパラメータテーブル 103C 空間モデル 104C マッピング手段 105C 視点変換手段 106C カメラパラメータ修正手段 107C 表示手段 108C マッピングテーブル 901C カメラ選択ボタン 902C 平行移動ボタン 903C ジョイスティック 904C ズームボタン 101D カメラ 102D カメラパラメータテーブル 103D 空間モデル 104D マッピング手段 105D 視点変換手段 106D 視点パラメータ修正手段 107D 表示手段 108D 視点パラメータテーブル 109D マッピングテーブル 110D マッピングテーブル修正手段 111D バッファ 1001D カメラ選択ボタン 1002D 平行移動ボタン 1003D ジョイスティック 1004D ズームボタン
───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 特願平10−317407 (32)優先日 平成10年11月9日(1998.11.9) (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平10−324701 (32)優先日 平成10年11月16日(1998.11.16) (33)優先権主張国 日本(JP) 早期審査対象出願 (72)発明者 森村 淳 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (56)参考文献 特開 平9−305796(JP,A) 特開 平9−114979(JP,A) 特開 平10−124704(JP,A) 特開 平10−40499(JP,A) 特開 平8−48198(JP,A) 特開 平3−99952(JP,A) 特開 昭58−110334(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 7/18 B60R 1/00 B60R 21/00 G06T 17/00

Claims (57)

    (57)【特許請求の範囲】
  1. 【請求項1】 一台もしくは複数台のカメラと、前記カ
    メラからの入力画像を、3次元空間の予め決められた空
    間モデルにマッピングする空間再構成手段と、前記空間
    再構成手段によってマッピングされた空間データを参照
    して、前記3次元空間における任意の仮想視点から見た
    画像を作成する視点変換手段と、前記視点変換手段にて
    変換された画像を表示する表示手段とを備えたことを特
    徴とする画像生成装置。
  2. 【請求項2】前記カメラは車両に取り付けられ、前記空
    間再構成手段は前記カメラからの入力画像を、前記車両
    を基準とした座標系に作成された空間モデルにマッピン
    グすることを特徴とする請求項1記載の画像生成装置。
  3. 【請求項3】 前記カメラの特性を示すカメラパラメー
    タを格納するカメラパラメータテーブルとを備え、前記
    空間再構成手段は前記カメラパラメータに基づいて、マ
    ッピングを行うことを特徴とする請求項1記載の画像生
    成装置。
  4. 【請求項4】 前記空間モデルは、前記3次元空間にお
    ける所定の平面であることを特徴とする請求項1記載の
    画像生成装置。
  5. 【請求項5】 前記カメラは車両に取り付けられてお
    り、前記所定の平面はその車両の下の路面であることを
    特徴とする請求項4記載の画像生成装置。
  6. 【請求項6】 前記視点変換手段は、前記空間モデルの
    所定の点Pを、前記仮想視点からの画素として構成する
    際に、前記点Pが、唯一のカメラで撮影した画像に対応
    づけられている場合、前記画素の色を、そのカメラから
    の画像の画素の色を用いて決めることを特徴とする請求
    項1記載の画像生成装置。
  7. 【請求項7】 前記視点変換手段は、前記空間モデルの
    所定の点Pを、前記仮想視点からの画素として構成する
    際に、前記点Pが、前記複数台のカメラで撮影した画像
    と対応づけられている場合、前記画素の色を、それらの
    複数台のカメラで撮影した画像の画素の色を用いて決め
    ることを特徴とする請求項1記載の画像生成装置。
  8. 【請求項8】 前記視点変換手段は、前記空間モデルの
    所定の点Pを、前記仮想視点からの画素として構成する
    際に、前記点Pがいずれのカメラで撮影した画像とも対
    応づけられていない場合、前記画素の色を、前記点Pの
    周囲の点の色を用いて補間した色を用いて、もしくは物
    体が存在しない部分であると識別可能な色を用いて決め
    ることを特徴とする請求項1記載の画像生成装置。
  9. 【請求項9】 前記カメラ特性を示すカメラパラメータ
    を、入力もしくは計算によって、得るキャリブレーショ
    ン手段を備えたことを特徴とする請求項3に記載の画像
    生成装置。
  10. 【請求項10】 前記計算によってカメラパラメータを
    得るために必要な複数個の特徴点を、入手入力もしくは
    自動抽出によって獲得する特徴点抽出手段が備えられ、 前記キャリブレーション手段は、前記特徴点抽出手段に
    おいて抽出された特徴点を用いて、各種カメラパラメー
    タのうち、少なくとも、カメラの取り付け位置、カメラ
    の取り付け角度、カメラのレンズ歪み補正値、カメラの
    レンズの焦点距離のいずれかを計算することを特徴とす
    る請求項9記載の画像生成装置。
  11. 【請求項11】 前記特徴点抽出手段は、前記3次元空
    間における座標値が既知の複数個の特徴点を抽出する機
    能を含み、 前記キャリブレーション手段は、前記複数個の特徴点を
    用いて、前記カメラパラメータを計算することを特徴と
    する請求項10記載の画像生成装置。
  12. 【請求項12】 前記カメラは車両に取り付けられてお
    り、その車両の一部に設けられたマーカが、前記3次元
    空間における座標値が既知の複数個の特徴点として用い
    られることを特徴とする請求項11記載の画像生成装
    置。
  13. 【請求項13】 前記カメラの視野内に、前記3次元空
    間における座標値が既知の複数個の特徴点を生成する特
    徴点生成手段を備えたことを特徴とする請求項11に記
    載の画像生成装置。
  14. 【請求項14】 前記特徴点生成手段は、前記カメラの
    視野内に、前記特徴点としてのパターン光を照射する機
    能を有することを特徴とする請求項13記載の画像生成
    装置。
  15. 【請求項15】 温度を測定する温度センサーと、温度
    に応じて変化する前記カメラパラメータの変化量を格納
    する温度補正テーブルとを備え、 前記キャリブレーション手段は、前記温度センサーの温
    度を逐次監視し、温度変化に応じて、前記温度補正テー
    ブルに基づいて前記カメラパラメータを修正する機能を
    有することを特徴とする請求項9〜14のいずれかに記
    載の画像生成装置。
  16. 【請求項16】 前記カメラのそれぞれに対して、前記
    温度センサーは、前記カメラの近くもしくは付随して取
    付けられていることを特徴とする請求項15記載の画像
    生成装置。
  17. 【請求項17】 前記カメラは車両に取付けられている
    ことを特徴とする請求項1、3、4、又は6〜11のい
    ずれか、又は13〜16のいずれかに記載の画像生成装
    置。
  18. 【請求項18】 前記空間再構成手段にて作成された空
    間データは一時的に空間データバッファに格納されてお
    り、前記車両の移動方向を検出する移動方向検出手段
    と、車両の単位時間における移動距離を検出する移動距
    離検出手段と、前記移動方向検出手段によって検出され
    た車両の移動方向、および前記移動距離検出手段によっ
    て検出された車両の移動距離を用いて、前記空間データ
    バッファに格納された空間データを変換する空間データ
    変換手段と、を備えたことを特徴とする請求項5,12
    又は17に記載の画像生成装置。
  19. 【請求項19】 前記カメラは車両に取り付けられてお
    り、そのカメラのキャリブレーションが必要な状況を検
    知し、キャリブレーションが必要である場合に、カメラ
    キャリブレーションの指示を行うカメラ補正指示手段
    と、前記カメラキャリブレーションを行った日時又は走
    行距離を記録する補正履歴記録手段とを備えることを特
    徴とする請求項1に記載の画像生成装置。
  20. 【請求項20】 前記カメラ補正指示手段は、前記補正
    履歴記録手段を参照し、前回のキャリブレーションの日
    時から一定以上の日時が経過したとき、又は、前回のキ
    ャリブレーションから一定以上の距離を走行したとき、
    運転者にカメラキャリブレーションを実施するよう指示
    する機能を有することを特徴とする請求項19記載の画
    像生成装置。
  21. 【請求項21】 3次元空間に存在するカメラからの入
    力画像を、前記3次元空間の予め決められた空間モデル
    にマッピングして空間データを作成する空間再構成工程
    と、前記空間データを参照して、前記3次元空間におけ
    る任意の仮想視点から見た画像を作成する視点変換工程
    とを備えたことを特徴とする画像生成方法。
  22. 【請求項22】前記空間再構成工程は、車両に取り付け
    られたカメラからの入力画像を、前記車両を基準とした
    座標系に作成された空間モデルにマッピングして空間デ
    ータを作成することを特徴とする請求項21記載の画像
    生成方法。
  23. 【請求項23】 前記空間モデルは、前記3次元空間の
    一部をなす平面であることを特徴とする請求項21記載
    の画像生成方法。
  24. 【請求項24】 前記カメラの特性を表すカメラパラメ
    ータを用いて前記マッピングが行われることを特徴とす
    る請求項21記載の画像生成方法。
  25. 【請求項25】 前記カメラ特性を示すカメラパラメー
    タを、入力または計算によって得るキャリブレーション
    工程を備えたことを特徴とする請求項24記載の画像生
    成方法。
  26. 【請求項26】 前記キャリブレーション工程は、計算
    によってカメラパラメータを得るものであって、そのた
    めに、前記カメラパラメータの計算に必要な複数個の特
    徴点を、入手による入力もしくは自動抽出によって獲得
    する特徴点抽出工程を有することを特徴とする請求項2
    5記載の画像生成方法。
  27. 【請求項27】 前記カメラの視野内に、前記3次元空
    間における座標値が既知の複数個の特徴点を生成する特
    徴点生成工程を備えたことを特徴とする請求項26記載
    の画像生成方法。
  28. 【請求項28】 前記特徴点生成工程は、前記カメラの
    視野内に、前記特徴点としてのパターン光を照射するス
    テップを少なくとも含むことを特徴とする請求項27記
    載の画像生成方法。
  29. 【請求項29】 前記カメラは車両に取り付けられてお
    り、 前記車両の移動方向を検出する移動方向検出工程と、前
    記車両の単位時間における移動距離を検出する移動距離
    検出工程と、前記移動方向検出工程によって検出された
    車両の移動方向、および前記移動距離検出工程によって
    検出された車両の移動距離を用いて、前記空間データを
    変換する空間データ変換工程とを包含することを特徴と
    する請求項21に記載の画像生成方法。
  30. 【請求項30】 前記カメラは車両に取り付けられてお
    り、 前記カメラのキャリブレーションが必要な状況を検知
    し、キャリブレーションが必要である場合に、カメラキ
    ャリブレーションの指示を行うカメラ補正指示工程と、
    カメラキャリブレーションを行った日時又は走行距離を
    記録する補正履歴記録工程とを包含することを特徴とす
    る請求項21に記載の画像生成方法。
  31. 【請求項31】 前記カメラは車両に取り付けられてお
    り、前記空間再構成手段は、前記空間モデルを作成する
    空間モデル作成手段を有することを特徴とする請求項1
    記載の画像生成装置。
  32. 【請求項32】 前記空間モデルは、1つ以上の平面モ
    デル、もしくは1つ以上の曲面モデル、もしくは1つ以
    上の平面と1つ以上の曲面との組み合わせた空間モデル
    であることを特徴とする請求項1記載の画像生成装置。
  33. 【請求項33】 前記空間モデル作成手段は、少なくと
    も路面としての第1の平面と、前記第1の平面と交わる
    少なくとも1つ以上の第2の平面とを空間モデルとして
    作成することを特徴とする請求項1に記載の画像生成装
    置。
  34. 【請求項34】 距離を計測する距離センサと、車両周
    囲の状況として、少なくとも車両周囲に存在する障害物
    までの距離を前記距離センサを用いて計測する障害物検
    知手段を備え、 前記空間モデル作成手段において作成される前記第2の
    平面は、前記障害物検知手段にて検知された、車両から
    障害物までの距離が所定の値より小さい場合に、作成さ
    れることを特徴とする請求項33に記載の画像生成装
    置。
  35. 【請求項35】 前記空間モデル作成手段において作成
    された前記第2の平面は、前記車両から障害物までの距
    離が前記所定の値より大きくなった場合に、前記空間モ
    デルから除去されることを特徴とする請求項34に記載
    の画像生成装置。
  36. 【請求項36】 前記空間モデル作成手段は、前記車両
    の周囲の状況に応じた空間モデルを作成することを特徴
    とする請求項31記載の画像生成装置。
  37. 【請求項37】 距離を計測する距離センサと、前記車
    両の周囲の状況として、少なくとも車両周囲に存在する
    障害物までの距離を前記距離センサを用いて計測する障
    害物検知手段とを備えたことを特徴とする請求項36記
    載の画像生成装置。
  38. 【請求項38】 前記車両状況は、前記車両の周囲の路
    面の状態であり、その路面の状態の特徴を検知する路面
    特徴検出手段が備えられていることを特徴とする請求項
    36記載の画像生成装置。
  39. 【請求項39】 前記路面の状態の特徴として、駐車ス
    ペースを示す白線、若しくは白線の端点、もしくは白線
    の交わる角を利用することを特徴とする請求項38記載
    の画像生成装置。
  40. 【請求項40】 前記車両の移動方向を検出する移動方
    向検出手段と、前記車両の単位時間における移動距離を
    検出する移動距離検出手段をさらに備え、前記移動方向
    検出手段および前記移動距離検出手段での処理結果を用
    いて求めた前記路面上の特徴の現在位置にもとづいて、
    前記空間モデルを逐次修正することを特徴とする請求項
    36記載の画像生成装置。
  41. 【請求項41】 前記表示手段において前記路面特徴検
    出手段における処理結果を表示しつつ、前記処理結果を
    修正する特徴修正手段を備えたことを特徴とする請求項
    36または38記載の画像生成装置。
  42. 【請求項42】 一台もしくは複数台のカメラと、前記
    カメラの特性を示すカメラパラメータを格納するカメラ
    パラメータテーブルと、前記カメラからの入力画像を前
    記カメラパラメータを用いて3次元空間の所定の空間モ
    デルにマッピングするマッピング手段と、少なくとも位
    置と向きに関するデータを含む仮想視点パラメータを複
    数視点分格納する視点パラメータテーブルと、前記マッ
    ピング手段によってマッピングされた空間データを参照
    して、前記所定の3次元空間における前記複数の仮想視
    点から見た画像をそれぞれ作成する視点変換手段と、前
    記カメラのパラメータを修正するカメラパラメータ修正
    手段とを備えたことを特徴とする画像生成装置。
  43. 【請求項43】 前記視点変換手段は、前記カメラパラ
    メータ修正手段での処理時と通常動作時とで前記仮想視
    点を切り替えることを特徴とする請求項42記載の画像
    生成装置。
  44. 【請求項44】 前記視点変換手段は、前記カメラパラ
    メータ修正手段での処理時は、前記仮想視点を、前記カ
    メラのいずれかのカメラのパラメータに基づいて決定す
    ることを特徴とする請求項43記載の画像生成装置。
  45. 【請求項45】 前記視点変換手段は、前記カメラパラ
    メータ修正手段での処理時は、前記仮想視点を、該修正
    を行っているカメラの、修正処理前のカメラパラメータ
    に基づいて決定することを特徴とする請求項44記載の
    画像生成装置。
  46. 【請求項46】 前記視点変換手段において、視点の向
    きを変更する操作の向きと、前記視点の向きとの関係
    を、互いに逆方向とすることを特徴とする請求項42〜
    45のいずれかに記載の画像生成装置。
  47. 【請求項47】 前記表示手段は、各々のカメラからの
    画像を表示する際に、各々の画像の接する境界部分で、
    境界を示すマークを合成画像に重ね合わせて表示するこ
    とを特徴とする請求項42〜46のいずれかに記載の画
    像生成装置。
  48. 【請求項48】 前記カメラパラメータを修正するため
    のガイドとなるガイドデータを格納するガイドデータ記
    憶手段と、前記カメラからの入力画像と前記ガイドデー
    タを重畳して表示する表示手段とを備えたことを特徴と
    する請求項42記載の画像生成装置。
  49. 【請求項49】 前記カメラは車両に取り付けられてい
    ることを特徴とする請求項42〜48のいずれかに記載
    の画像生成装置。
  50. 【請求項50】 前記ガイドデータは、前記車両のボデ
    ィの特徴を点及び/又は線分で表したものであることを
    特徴とする請求項49記載の画像生成装置。
  51. 【請求項51】 前記カメラが位置づけられた3次元空
    間における座標値が既知の複数個の特徴点を、前記カメ
    ラの視野内に生成する特徴点生成手段と、前記複数個の
    特徴点を抽出する特徴点抽出手段と、前記抽出された複
    数個の特徴点を用いて、前記ガイドデータが得られるこ
    とを特徴とする請求項49記載の画像生成装置。
  52. 【請求項52】 一台もしくは複数台のカメラと、前記
    カメラから画像を入力する画像入力手段と、前記カメラ
    特性を示すカメラパラメータを格納するカメラパラメー
    タテーブルと、前記カメラパラメータを用いて、前記入
    力画像を構成する各々の画素を、前記車両の周囲の状況
    をモデル化した、所定の3次元空間における所定の空間
    モデルに、マッピングするマッピング手段と、少なくと
    も位置及び向きデータを含む仮想視点パラメータを複数
    視点分 格納する視点パラメータテーブルと、前記マッ
    ピング手段によってマッピングされた空間データを参照
    して、前記所定の3次元空間における、前記視点パラメ
    ータテーブルの前記複数個の仮想視点から見た画像をそ
    れぞれ作成する視点変換手段と、前記視点パラメータテ
    ーブルの内容を修正する視点パラメータ修正手段と、前
    記視点変換手段によって変換された画像を表示する表示
    手段とを備えたことを特徴とする画像生成装置。
  53. 【請求項53】 前記複数の仮想視点は、前記カメラに
    それぞれ対応していることを特徴とする請求項52記載
    の画像生成装置。
  54. 【請求項54】 前記視点パラメータ修正手段におけ
    る、前記仮想視点パラメータの変更操作のうち、少なく
    とも向き・位置・回転の操作については、操作方向と実
    際の視点パラメータの変更との関係を、互いに逆とする
    ことを特徴とする請求項52または53記載の画像生成
    装置。
  55. 【請求項55】 前記視点パラメータ修正手段によって
    前記仮想視点パラメータ修正する際は、固定した仮の仮
    想視点を設け、当該修正中の仮想視点での修正経過を、
    前記仮の仮想視点からの画像として逐次合成表示するこ
    とを特徴とする請求項52〜54のいずれかに記載の画
    像生成装置。
  56. 【請求項56】 前記表示手段は、各々のカメラからの
    画像を表示する際に、各々の画像の接する境界部分で、
    境界を示すマークを合成画像に重ね合わせて表示するこ
    とを特徴とする請求項52〜55のいずれかに記載の画
    像生成装置。
  57. 【請求項57】 前記カメラは車両に取り付けられてい
    ることを特徴とする請求項52〜56のいずれかに記載
    の画像生成装置。
JP2000563072A 1998-07-31 1999-07-29 画像生成装置、画像生成方法 Expired - Lifetime JP3286306B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
JP21726198 1998-07-31
JP28623398 1998-10-08
JP31740798 1998-11-09
JP31739398 1998-11-09
JP10-317407 1998-11-16
JP32470198 1998-11-16
JP10-217261 1998-11-16
JP10-324701 1998-11-16
JP10-286233 1998-11-16
JP10-317393 1998-11-16
PCT/JP1999/004061 WO2000007373A1 (fr) 1998-07-31 1999-07-29 Procede et appareil d'affichage d'images

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2001244548A Division JP2002135765A (ja) 1998-07-31 2001-08-10 カメラキャリブレーション指示装置及びカメラキャリブレーション装置

Publications (1)

Publication Number Publication Date
JP3286306B2 true JP3286306B2 (ja) 2002-05-27

Family

ID=27529636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000563072A Expired - Lifetime JP3286306B2 (ja) 1998-07-31 1999-07-29 画像生成装置、画像生成方法

Country Status (4)

Country Link
US (1) US7307655B1 (ja)
EP (4) EP2267656A3 (ja)
JP (1) JP3286306B2 (ja)
WO (1) WO2000007373A1 (ja)

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004008744A1 (ja) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置
JP2005242606A (ja) * 2004-02-26 2005-09-08 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2006119843A (ja) * 2004-10-20 2006-05-11 Olympus Corp 画像生成方法およびその装置
WO2007111377A1 (ja) 2006-03-27 2007-10-04 Sanyo Electric Co., Ltd. 運転支援装置
CN100435584C (zh) * 2004-08-04 2008-11-19 奥林巴斯株式会社 图像生成方法和装置
WO2009144994A1 (ja) 2008-05-29 2009-12-03 富士通株式会社 車両用画像処理装置、車両用画像処理方法
US7663476B2 (en) 2006-05-17 2010-02-16 Alpine Electronics, Inc. Surrounding image generating apparatus and method of adjusting metering for image pickup device
JP2010264872A (ja) * 2009-05-14 2010-11-25 Fujitsu Ten Ltd 車載照明装置、画像処理装置及び画像表示システム
WO2010137265A1 (ja) 2009-05-25 2010-12-02 パナソニック株式会社 車両周囲監視装置
US7965325B2 (en) 2007-12-04 2011-06-21 Alpine Electronics, Inc. Distortion-corrected image generation unit and distortion-corrected image generation method
CN102198818A (zh) * 2010-03-25 2011-09-28 富士通天株式会社 车载照明装置、图像处理装置、图像显示系统及照明方法
WO2011129275A1 (ja) 2010-04-12 2011-10-20 住友重機械工業株式会社 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム
WO2011129274A1 (ja) 2010-04-12 2011-10-20 住友重機械工業株式会社 画像生成装置及び操作支援システム
WO2011129276A1 (ja) 2010-04-12 2011-10-20 住友重機械工業株式会社 画像生成装置及び操作支援システム
WO2011129277A1 (ja) 2010-04-12 2011-10-20 住友重機械工業株式会社 画像生成装置及び操作支援システム
JP2011239349A (ja) * 2010-05-13 2011-11-24 Fujitsu Ltd 画像処理装置および画像処理プログラム
JP2012011849A (ja) * 2010-06-30 2012-01-19 Fujitsu Ten Ltd 画像表示システム
US8259173B2 (en) 2006-09-26 2012-09-04 Clarion Co., Ltd. Image generating apparatus and image generating method
US8267024B2 (en) 2008-01-24 2012-09-18 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
US8368687B2 (en) 2006-09-26 2013-02-05 Clarion Co., Ltd. Image generating apparatus and image generating method
KR101302944B1 (ko) * 2009-11-04 2013-09-06 주식회사 만도 차량 인식 방법 및 장치
JP2013197816A (ja) * 2012-03-19 2013-09-30 Nippon Soken Inc 車載画像表示装置
JP2013205402A (ja) * 2012-03-29 2013-10-07 Sumitomo (Shi) Construction Machinery Co Ltd 作業機械用周辺監視装置
US8773534B2 (en) 2009-04-13 2014-07-08 Fujitsu Limited Image processing apparatus, medium recording image processing program, and image processing method
WO2014174884A1 (ja) 2013-04-24 2014-10-30 住友重機械工業株式会社 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム
US8947533B2 (en) 2010-01-22 2015-02-03 Fujitsu Ten Limited Parameter determining device, parameter determining system, parameter determining method, and recording medium
US9064293B2 (en) 2010-06-15 2015-06-23 Mitsubishi Electric Corporation Vehicle surroundings monitoring device
KR101543159B1 (ko) 2014-05-02 2015-08-10 현대자동차주식회사 카메라를 이용한 영상 조정 시스템 및 방법
JP5783471B2 (ja) * 2010-12-01 2015-09-24 コニカミノルタ株式会社 画像合成装置
KR20150116116A (ko) * 2014-04-04 2015-10-15 주식회사 와이즈오토모티브 차량 주변 이미지 생성 장치 및 방법
KR101559739B1 (ko) * 2015-06-11 2015-10-15 주식회사 미래엔에스 가상 모델과 카메라 영상의 융합시스템
US9591280B2 (en) 2011-07-29 2017-03-07 Fujitsu Limited Image processing apparatus, image processing method, and computer-readable recording medium
US9610891B2 (en) 2009-11-16 2017-04-04 Fujitsu Ten Limited In-vehicle illuminating apparatus, image processing apparatus, and image displaying system
CN107472135A (zh) * 2016-06-07 2017-12-15 松下知识产权经营株式会社 图像生成装置、图像生成方法以及程序
US10046700B2 (en) 2012-05-22 2018-08-14 Mitsubishi Electric Corporation Image processing device
CN109937158A (zh) * 2016-12-27 2019-06-25 金泰克斯公司 具有眼睛跟踪的后视系统
US10737624B2 (en) 2017-03-24 2020-08-11 Toyota Jidosha Kabushiki Kaisha Viewing device for vehicle
US10875452B2 (en) 2016-01-12 2020-12-29 Denso Corporation Driving assistance device and driving assistance method
US11394926B2 (en) 2016-08-12 2022-07-19 Denso Corporation Periphery monitoring apparatus
DE112020006319T5 (de) 2019-12-25 2022-11-24 Panasonic Intellectual Property Management Co., Ltd. Fahrassistenzvorrichtung, fahrassistenzverfahren und programm
US12037043B2 (en) 2021-09-16 2024-07-16 Panasonic Automotive Systems Co., Ltd. Parking assist method and parking assist device

Families Citing this family (259)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
JP3655119B2 (ja) * 1999-03-09 2005-06-02 株式会社東芝 状況情報提供装置及びその方法
DE10037130B4 (de) * 1999-09-13 2015-10-29 Volkswagen Ag Einpark- und/oder Rangierhilfeeinrichtung für Pkw oder Lkw
JP3624769B2 (ja) * 1999-09-30 2005-03-02 株式会社豊田自動織機 車両後方監視装置用画像変換装置
US6542840B2 (en) 2000-01-27 2003-04-01 Matsushita Electric Industrial Co., Ltd. Calibration system, target apparatus and calibration method
JP4439668B2 (ja) * 2000-03-31 2010-03-24 パナソニック株式会社 画像合成装置
EP1465135A1 (en) 2000-04-05 2004-10-06 Matsushita Electric Industrial Co., Ltd. Driving operation assisting method and system
JP3606816B2 (ja) * 2000-04-05 2005-01-05 松下電器産業株式会社 運転操作補助装置
EP1150252B1 (en) * 2000-04-28 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Synthesis of image from a plurality of camera views
JP3552212B2 (ja) * 2000-05-24 2004-08-11 松下電器産業株式会社 描画装置
JP2001334869A (ja) * 2000-05-25 2001-12-04 Matsushita Electric Ind Co Ltd 運転支援装置
JP4537537B2 (ja) * 2000-05-25 2010-09-01 パナソニック株式会社 運転支援装置
JP3599639B2 (ja) * 2000-05-26 2004-12-08 松下電器産業株式会社 画像処理装置
JP4433575B2 (ja) * 2000-06-16 2010-03-17 株式会社豊田中央研究所 車載撮像装置
JP3625059B2 (ja) * 2000-06-30 2005-03-02 松下電器産業株式会社 描画装置
US6999602B2 (en) 2000-06-30 2006-02-14 Matsushita Electric Industrial Co., Ltd. Image generation for assistance of drivers of vehicles
JP3830025B2 (ja) * 2000-06-30 2006-10-04 松下電器産業株式会社 描画装置
JP3269056B2 (ja) * 2000-07-04 2002-03-25 松下電器産業株式会社 監視システム
JP4156181B2 (ja) * 2000-07-12 2008-09-24 日産自動車株式会社 駐車支援装置
WO2002007443A1 (fr) * 2000-07-19 2002-01-24 Matsushita Electric Industrial Co., Ltd. Systeme de controle
JP3753681B2 (ja) * 2000-07-19 2006-03-08 松下電器産業株式会社 監視システム
JP3372944B2 (ja) * 2000-07-19 2003-02-04 松下電器産業株式会社 監視システム
JP4505968B2 (ja) * 2000-09-14 2010-07-21 日産自動車株式会社 駐車時の自車位置検出装置及び自車位置検出方法
JP2002117496A (ja) * 2000-10-12 2002-04-19 Matsushita Electric Ind Co Ltd 車載後方確認支援装置と車載ナビゲーション装置
JP3695319B2 (ja) * 2000-11-30 2005-09-14 トヨタ自動車株式会社 車両周辺モニタ装置
JP2002262156A (ja) * 2000-12-26 2002-09-13 Matsushita Electric Ind Co Ltd カメラ装置、カメラシステムおよび画像処理方法
JP3645196B2 (ja) * 2001-02-09 2005-05-11 松下電器産業株式会社 画像合成装置
JP5083443B2 (ja) * 2001-03-28 2012-11-28 パナソニック株式会社 運転支援装置および方法、ならびに演算装置
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
JP3297040B1 (ja) * 2001-04-24 2002-07-02 松下電器産業株式会社 車載カメラの画像合成表示方法及びその装置
JP2002316602A (ja) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd 車載カメラの撮像画像表示方法及びその装置
JP4006959B2 (ja) * 2001-04-28 2007-11-14 節男 黒木 視認カメラ装着車
JP4860835B2 (ja) * 2001-06-11 2012-01-25 クラリオン株式会社 パノラマ画像表示方法及びパノラマ画像表示装置
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
JP4512293B2 (ja) 2001-06-18 2010-07-28 パナソニック株式会社 監視システムおよび監視方法
JP4071463B2 (ja) * 2001-07-16 2008-04-02 株式会社デンソー 車両周辺画像処理装置
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
JP4786076B2 (ja) * 2001-08-09 2011-10-05 パナソニック株式会社 運転支援表示装置
CN1568618A (zh) 2001-10-10 2005-01-19 松下电器产业株式会社 图像处理装置
JP4593070B2 (ja) * 2001-12-12 2010-12-08 株式会社エクォス・リサーチ 車両の画像処理装置
JP4021685B2 (ja) 2002-03-04 2007-12-12 松下電器産業株式会社 画像合成変換装置
US9428186B2 (en) * 2002-04-09 2016-08-30 Intelligent Technologies International, Inc. Exterior monitoring for vehicles
AU2003225228A1 (en) 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
JP3670647B2 (ja) * 2003-01-14 2005-07-13 松下電器産業株式会社 画像処理装置
JP4256702B2 (ja) * 2003-03-20 2009-04-22 クラリオン株式会社 画像表示方法、画像表示装置及び画像処理装置
US7450165B2 (en) * 2003-05-02 2008-11-11 Grandeye, Ltd. Multiple-view processing in wide-angle video camera
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
FI117217B (fi) * 2003-10-01 2006-07-31 Nokia Corp Menetelmä ja järjestelmä käyttöliittymän (User Interface) hallitsemiseksi, vastaava laite ja ohjelmalliset (Software) välineet menetelmän toteuttamiseksi
JP2005124010A (ja) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd 撮像装置
JP2005269010A (ja) * 2004-03-17 2005-09-29 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP2005258792A (ja) * 2004-03-11 2005-09-22 Olympus Corp 画像生成装置、画像生成方法、および画像生成プログラム
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
WO2005107261A1 (ja) * 2004-04-27 2005-11-10 Matsushita Electric Industrial Co., Ltd. 車両周囲表示装置
US8063936B2 (en) 2004-06-01 2011-11-22 L-3 Communications Corporation Modular immersive surveillance processing system and method
KR20070043726A (ko) * 2004-06-01 2007-04-25 앨-쓰리 커뮤니케이션즈 코포레이션 비디오 플래쉬라이트/시각 경보 시스템 및 방법
JP2006026790A (ja) * 2004-07-15 2006-02-02 Fanuc Ltd 教示モデル生成装置
JP2006054662A (ja) * 2004-08-11 2006-02-23 Mitsubishi Electric Corp 運転支援装置
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
EP1850595B1 (en) * 2005-02-15 2016-07-13 Panasonic Intellectual Property Management Co., Ltd. Periphery supervising device, and periphery supervising method
JP4244040B2 (ja) * 2005-03-10 2009-03-25 任天堂株式会社 入力処理プログラムおよび入力処理装置
US7920959B1 (en) * 2005-05-01 2011-04-05 Christopher Reed Williams Method and apparatus for estimating the velocity vector of multiple vehicles on non-level and curved roads using a single camera
JP4601505B2 (ja) * 2005-07-20 2010-12-22 アルパイン株式会社 トップビュー画像生成装置及びトップビュー画像表示方法
JP4677847B2 (ja) * 2005-08-01 2011-04-27 日産自動車株式会社 車両用周囲監視装置及び車両周囲監視方法
JP2007099261A (ja) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
JP4810953B2 (ja) * 2005-10-07 2011-11-09 日産自動車株式会社 車両用死角映像表示装置
FR2891934B1 (fr) * 2005-10-12 2008-01-18 Valeo Electronique Sys Liaison Dispositif de traitement de donnees video pour un vehicule automobile
JP4762698B2 (ja) * 2005-11-30 2011-08-31 アルパイン株式会社 車両周辺画像表示装置
JP4297111B2 (ja) * 2005-12-14 2009-07-15 ソニー株式会社 撮像装置、画像処理方法及びそのプログラム
US8238695B1 (en) * 2005-12-15 2012-08-07 Grandeye, Ltd. Data reduction techniques for processing wide-angle video
JP2007174113A (ja) * 2005-12-20 2007-07-05 Sumitomo Electric Ind Ltd 障害物検出システム及び障害物検出方法
JP2007180803A (ja) * 2005-12-27 2007-07-12 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP4956799B2 (ja) * 2006-05-09 2012-06-20 日産自動車株式会社 車両周辺画像提供装置及び車両周辺画像提供方法
JP4910529B2 (ja) * 2006-07-14 2012-04-04 住友電気工業株式会社 障害物検出システム及び障害物検出方法
GB2452469B (en) * 2006-07-16 2011-05-11 Jim Henson Company System and method of producing an animated performance utilizing multiple cameras
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
US7728879B2 (en) * 2006-08-21 2010-06-01 Sanyo Electric Co., Ltd. Image processor and visual field support device
JP2007102798A (ja) * 2006-10-11 2007-04-19 Denso Corp 車両周辺監視システム
JP4862774B2 (ja) 2006-12-20 2012-01-25 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
US7865285B2 (en) * 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
WO2008087709A1 (ja) * 2007-01-16 2008-07-24 Pioneer Corporation 車両用画像処理装置、車両用撮像装置、車両用画像処理プログラム、車両用画像調整方法
US20100007734A1 (en) * 2007-01-16 2010-01-14 Pioneer Corporation Vehicular image processing device, and vehicular image processing program
JP4928956B2 (ja) * 2007-01-18 2012-05-09 三洋電機株式会社 俯瞰画像提供装置、車両、および俯瞰画像提供方法
US8017898B2 (en) 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
DE102007049821A1 (de) * 2007-10-16 2009-04-23 Daimler Ag Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit
JP2009101718A (ja) * 2007-10-19 2009-05-14 Toyota Industries Corp 映像表示装置及び映像表示方法
US7912283B1 (en) * 2007-10-31 2011-03-22 The United States Of America As Represented By The Secretary Of The Air Force Image enhancement using object profiling
JP5053043B2 (ja) * 2007-11-09 2012-10-17 アルパイン株式会社 車両周辺画像生成装置および車両周辺画像の歪み補正方法
CA2714492C (en) 2008-02-08 2014-07-15 Google, Inc. Panoramic camera with multiple image sensors using timed shutters
JP4874280B2 (ja) * 2008-03-19 2012-02-15 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
JP5222597B2 (ja) * 2008-03-19 2013-06-26 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
EP2107503A1 (en) 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Method and device for generating a real time environment model for vehicles
US8675068B2 (en) 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
JP2009294109A (ja) * 2008-06-05 2009-12-17 Fujitsu Ltd キャリブレーション装置
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
FR2936479B1 (fr) * 2008-09-30 2010-10-15 Dav Procede de commande et systeme d'aide a la conduite associe
DE102009050368A1 (de) * 2008-10-24 2010-05-27 Magna Electronics Europe Gmbh & Co.Kg Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
JP5387580B2 (ja) * 2008-11-05 2014-01-15 富士通株式会社 カメラ角度算出装置およびカメラ角度算出方法
JP5182042B2 (ja) 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP5405809B2 (ja) * 2008-12-04 2014-02-05 アルパイン株式会社 車両周辺監視装置およびカメラ位置・姿勢判定方法
JP5190712B2 (ja) 2009-03-24 2013-04-24 アイシン精機株式会社 障害物検出装置
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
JP5195592B2 (ja) * 2009-03-31 2013-05-08 富士通株式会社 映像処理装置
US20100259371A1 (en) * 2009-04-10 2010-10-14 Jui-Hung Wu Bird-View Parking Aid Apparatus with Ultrasonic Obstacle Marking and Method of Maneuvering the same
JP2010258691A (ja) * 2009-04-23 2010-11-11 Sanyo Electric Co Ltd 操縦支援装置
JP2010274813A (ja) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd 画像生成装置及び画像表示システム
CN102804762A (zh) * 2009-06-29 2012-11-28 松下电器产业株式会社 车载用影像显示装置
JP5500369B2 (ja) * 2009-08-03 2014-05-21 アイシン精機株式会社 車両周辺画像生成装置
JP2013504239A (ja) * 2009-09-04 2013-02-04 ブライトブリック ゲーエムベーハー 携帯型広角映像記録システム
US20110063425A1 (en) 2009-09-15 2011-03-17 Delphi Technologies, Inc. Vehicle Operator Control Input Assistance
JP5299231B2 (ja) * 2009-11-17 2013-09-25 富士通株式会社 キャリブレーション装置
US8872889B2 (en) 2010-01-14 2014-10-28 Innovmetric Logiciels Inc. Synchronization of the orientation of a 3D measurement device and the orientation of an intelligent guidance device
US10703299B2 (en) 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
US10800329B2 (en) 2010-04-19 2020-10-13 SMR Patents S.à.r.l. Rear view mirror simulation
JP2011257940A (ja) * 2010-06-08 2011-12-22 Panasonic Corp 逆変換テーブル生成方法、逆変換テーブル生成プログラム、画像変換装置、画像変換方法、及び画像変換プログラム
JP5444139B2 (ja) 2010-06-29 2014-03-19 クラリオン株式会社 画像のキャリブレーション方法および装置
JP5549436B2 (ja) * 2010-07-06 2014-07-16 日産自動車株式会社 車両用監視装置
JP2012065225A (ja) * 2010-09-17 2012-03-29 Panasonic Corp 車載用画像処理装置、周辺監視装置、および、車両
CN102469291A (zh) * 2010-11-05 2012-05-23 屈世虎 视频通话系统和方法
WO2012075250A1 (en) * 2010-12-01 2012-06-07 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
EP2511137B1 (en) * 2011-04-14 2019-03-27 Harman Becker Automotive Systems GmbH Vehicle Surround View System
WO2012145822A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
WO2012145818A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
US8934017B2 (en) 2011-06-01 2015-01-13 Honeywell International Inc. System and method for automatic camera placement
JP6058256B2 (ja) 2011-06-13 2017-01-11 アルパイン株式会社 車載カメラ姿勢検出装置および方法
US20140192159A1 (en) * 2011-06-14 2014-07-10 Metrologic Instruments, Inc. Camera registration and video integration in 3d geometry model
JP5531194B2 (ja) * 2011-07-06 2014-06-25 株式会社モルフォ 画像処理装置、画像処理方法及び画像処理プログラム
EP2733937A4 (en) * 2011-07-12 2015-05-20 Nissan Motor VEHICLE MONITORING DEVICE, VEHICLE MONITORING SYSTEM, END TERMINAL AND VEHICLE MONITORING PROCEDURE
WO2013016409A1 (en) * 2011-07-26 2013-01-31 Magna Electronics Inc. Vision system for vehicle
US9098751B2 (en) 2011-07-27 2015-08-04 Gentex Corporation System and method for periodic lane marker identification and tracking
US9491450B2 (en) 2011-08-01 2016-11-08 Magna Electronic Inc. Vehicle camera alignment system
EP2554434B1 (en) * 2011-08-05 2014-05-21 Harman Becker Automotive Systems GmbH Vehicle surround view system
JP5750344B2 (ja) * 2011-09-16 2015-07-22 日立建機株式会社 作業機の周囲監視装置
WO2013043661A1 (en) 2011-09-21 2013-03-28 Magna Electronics, Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
US9491451B2 (en) 2011-11-15 2016-11-08 Magna Electronics Inc. Calibration system and method for vehicular surround vision system
US10099614B2 (en) 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
KR101265711B1 (ko) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
US9762880B2 (en) 2011-12-09 2017-09-12 Magna Electronics Inc. Vehicle vision system with customized display
US9600863B2 (en) * 2012-02-13 2017-03-21 Omnivision Technologies, Inc. Method for combining images
US10457209B2 (en) 2012-02-22 2019-10-29 Magna Electronics Inc. Vehicle vision system with multi-paned view
DE102012203171A1 (de) * 2012-02-29 2013-08-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
JP2013186245A (ja) * 2012-03-07 2013-09-19 Denso Corp 車両周辺監視装置
WO2013148675A1 (en) * 2012-03-26 2013-10-03 Robert Bosch Gmbh Multi-surface model-based tracking
US9598836B2 (en) 2012-03-29 2017-03-21 Harnischfeger Technologies, Inc. Overhead view system for a shovel
JP2013211707A (ja) * 2012-03-30 2013-10-10 Clarion Co Ltd カメラキャリブレーション装置
CN104584032A (zh) * 2012-04-13 2015-04-29 莱特克拉夫特科技有限责任公司 混合式精确跟踪
US20130293683A1 (en) * 2012-05-03 2013-11-07 Harman International (Shanghai) Management Co., Ltd. System and method of interactively controlling a virtual camera
TW201403553A (zh) * 2012-07-03 2014-01-16 Automotive Res & Testing Ct 自動校正鳥瞰影像方法
US9143670B1 (en) 2012-07-20 2015-09-22 COPsync, Inc. Video capture system including two independent image sensors
JP5911775B2 (ja) * 2012-08-21 2016-04-27 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
JP6011624B2 (ja) * 2012-08-30 2016-10-19 富士通株式会社 画像処理装置、画像処理方法、及びプログラム
US9292751B2 (en) * 2012-09-14 2016-03-22 Honda Motor Co., Ltd. Object identifier
JP5923422B2 (ja) 2012-09-24 2016-05-24 クラリオン株式会社 カメラのキャリブレーション方法及び装置
US9667955B2 (en) * 2012-10-01 2017-05-30 Bodybarista Aps Method of calibrating a camera
US9723272B2 (en) 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
JP6079131B2 (ja) 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム
WO2014073282A1 (ja) * 2012-11-08 2014-05-15 住友重機械工業株式会社 舗装機械用画像生成装置及び舗装機械用操作支援システム
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
KR102003562B1 (ko) * 2012-12-24 2019-07-24 두산인프라코어 주식회사 건설기계의 감지 장치 및 방법
US9232200B2 (en) * 2013-01-21 2016-01-05 Devin L. Norman External vehicle projection system
US9349056B2 (en) * 2013-02-15 2016-05-24 Gordon Peckover Method of measuring road markings
US10179543B2 (en) 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
US9688200B2 (en) 2013-03-04 2017-06-27 Magna Electronics Inc. Calibration system and method for multi-camera vision system
US9563951B2 (en) 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US9205776B2 (en) 2013-05-21 2015-12-08 Magna Electronics Inc. Vehicle vision system using kinematic model of vehicle motion
US9210417B2 (en) * 2013-07-17 2015-12-08 Microsoft Technology Licensing, Llc Real-time registration of a stereo depth camera array
US20150070498A1 (en) * 2013-09-06 2015-03-12 Caterpillar Inc. Image Display System
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
JP6347934B2 (ja) * 2013-10-11 2018-06-27 株式会社デンソーテン 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
KR102175961B1 (ko) * 2013-11-29 2020-11-09 현대모비스 주식회사 차량 후방 주차 가이드 장치
CN105765966B (zh) * 2013-12-19 2020-07-10 英特尔公司 碗形成像系统
DE102013226632A1 (de) * 2013-12-19 2015-06-25 Conti Temic Microelectronic Gmbh Kamerasystem und Verfahren zum Betrieb eines Kamerasystems
KR101572065B1 (ko) * 2014-01-03 2015-11-25 현대모비스(주) 영상 왜곡 보정 방법 및 이를 위한 장치
JPWO2015129280A1 (ja) 2014-02-26 2017-03-30 京セラ株式会社 画像処理装置および画像処理方法
US9386302B2 (en) * 2014-05-21 2016-07-05 GM Global Technology Operations LLC Automatic calibration of extrinsic and intrinsic camera parameters for surround-view camera system
KR102632421B1 (ko) 2014-09-03 2024-02-01 네버마인드 캐피탈 엘엘씨 콘텐트를 캡처, 스트리밍, 및/또는 재생하기 위한 방법들 및 장치
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
US10127463B2 (en) 2014-11-21 2018-11-13 Magna Electronics Inc. Vehicle vision system with multiple cameras
US9916660B2 (en) 2015-01-16 2018-03-13 Magna Electronics Inc. Vehicle vision system with calibration algorithm
DE102015205507B3 (de) * 2015-03-26 2016-09-29 Zf Friedrichshafen Ag Rundsichtsystem für ein Fahrzeug
JP2016201585A (ja) * 2015-04-07 2016-12-01 株式会社ソシオネクスト 画像処理装置および画像処理装置の制御方法
US10946799B2 (en) 2015-04-21 2021-03-16 Magna Electronics Inc. Vehicle vision system with overlay calibration
JP2016225865A (ja) * 2015-06-01 2016-12-28 東芝アルパイン・オートモティブテクノロジー株式会社 俯瞰画像生成装置
US10373378B2 (en) 2015-06-26 2019-08-06 Paccar Inc Augmented reality system for vehicle blind spot prevention
JP6406159B2 (ja) * 2015-08-04 2018-10-17 株式会社デンソー 車載表示制御装置、車載表示制御方法
KR101860610B1 (ko) * 2015-08-20 2018-07-02 엘지전자 주식회사 디스플레이 장치 및 이를 포함하는 차량
US10262466B2 (en) * 2015-10-14 2019-04-16 Qualcomm Incorporated Systems and methods for adjusting a combined image visualization based on depth information
US10187590B2 (en) 2015-10-27 2019-01-22 Magna Electronics Inc. Multi-camera vehicle vision system with image gap fill
DE102015221356B4 (de) 2015-10-30 2020-12-24 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Bereitstellung einer Fahrzeugrundumansicht
US20190026924A1 (en) * 2016-01-15 2019-01-24 Nokia Technologies Oy Method and Apparatus for Calibration of a Multi-Camera System
JP6597415B2 (ja) 2016-03-07 2019-10-30 株式会社デンソー 情報処理装置及びプログラム
US10326979B2 (en) 2016-05-23 2019-06-18 Microsoft Technology Licensing, Llc Imaging system comprising real-time image registration
US10339662B2 (en) 2016-05-23 2019-07-02 Microsoft Technology Licensing, Llc Registering cameras with virtual fiducials
JP6555195B2 (ja) 2016-06-13 2019-08-07 株式会社デンソー 画像生成装置
US10678240B2 (en) * 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
US10452076B2 (en) 2017-01-04 2019-10-22 Magna Electronics Inc. Vehicle vision system with adjustable computation and data compression
US10313584B2 (en) 2017-01-04 2019-06-04 Texas Instruments Incorporated Rear-stitched view panorama for rear-view visualization
JP7038345B2 (ja) 2017-04-20 2022-03-18 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
JP7002007B2 (ja) 2017-05-01 2022-01-20 パナソニックIpマネジメント株式会社 カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム
US10683034B2 (en) * 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US11044463B2 (en) * 2017-06-27 2021-06-22 Sony Corporation Image processing device and image processing method
JP7054803B2 (ja) 2017-07-21 2022-04-15 パナソニックIpマネジメント株式会社 カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム
JP6962372B2 (ja) * 2017-08-25 2021-11-05 株式会社ソシオネクスト 補正装置、補正プログラム及び記録媒体
JP7013751B2 (ja) * 2017-09-15 2022-02-01 株式会社アイシン 画像処理装置
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10744941B2 (en) 2017-10-12 2020-08-18 Magna Electronics Inc. Vehicle vision system with bird's eye view display
US10580299B2 (en) * 2017-10-13 2020-03-03 Waymo Llc Lane change notification
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
CN109978753B (zh) * 2017-12-28 2023-09-26 北京京东尚科信息技术有限公司 绘制全景热力图的方法和装置
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
DE102018102051B4 (de) * 2018-01-30 2021-09-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs mit einem Bildfenster in einem Bild, Computerprogrammprodukt sowie Anzeigesystem
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
FR3078224B1 (fr) * 2018-02-16 2020-02-07 Renault S.A.S Methode de surveillance d’un environnement de vehicule automobile en stationnement comprenant une camera asynchrone
US11188070B2 (en) 2018-02-19 2021-11-30 Ford Global Technologies, Llc Mitigating key fob unavailability for remote parking assist systems
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
JP7021001B2 (ja) * 2018-05-25 2022-02-16 アルパイン株式会社 画像処理装置および画像処理方法
JP7187182B2 (ja) * 2018-06-11 2022-12-12 キヤノン株式会社 データ生成装置、方法およびプログラム
CN110619807B (zh) * 2018-06-20 2022-12-02 北京京东尚科信息技术有限公司 生成全局热力图的方法和装置
US10384605B1 (en) 2018-09-04 2019-08-20 Ford Global Technologies, Llc Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers
US10821972B2 (en) 2018-09-13 2020-11-03 Ford Global Technologies, Llc Vehicle remote parking assist systems and methods
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
JP2020098412A (ja) * 2018-12-17 2020-06-25 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6785480B2 (ja) * 2019-01-28 2020-11-18 パナソニックIpマネジメント株式会社 画像合成装置、及び、制御方法
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
CN112208438B (zh) * 2019-07-10 2022-07-29 台湾中华汽车工业股份有限公司 行车辅助影像产生方法及系统
US11661722B2 (en) 2020-11-19 2023-05-30 Deere & Company System and method for customized visualization of the surroundings of self-propelled work vehicles
US20220194428A1 (en) * 2020-12-17 2022-06-23 6 River Systems, Llc Systems and methods for calibrating sensors of autonomous vehicles
KR102473407B1 (ko) * 2020-12-28 2022-12-05 삼성전기주식회사 틸트 카메라를 이용한 차량의 svm 시스템
CN117098693A (zh) * 2021-04-07 2023-11-21 石通瑞吉股份有限公司 包括偏移相机视图的车辆显示器

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58110334A (ja) 1981-12-23 1983-06-30 Hino Motors Ltd 路面視界表示装置
JPS62155140A (ja) * 1985-12-27 1987-07-10 Aisin Warner Ltd 車両制御用道路画像入力方式
JPH0399952A (ja) 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
JPH03166534A (ja) 1989-11-25 1991-07-18 Seikosha Co Ltd カメラ用測距装置
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JPH05310078A (ja) 1992-05-07 1993-11-22 Clarion Co Ltd 車両安全確認装置及びその装置に使用するカメラ
JP3391405B2 (ja) 1992-05-29 2003-03-31 株式会社エフ・エフ・シー カメラ映像内の物体同定方法
DE69322349T3 (de) 1992-09-30 2004-06-09 Hitachi, Ltd. Informationssystem für den Fahrer eines Fahrzeuges
EP0605045B1 (fr) * 1992-12-29 1999-03-31 Laboratoires D'electronique Philips S.A.S. Procédé et dispositif de traitement d'images pour construire une image à partir d'images adjacentes
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP3468428B2 (ja) * 1993-03-24 2003-11-17 富士重工業株式会社 車輌用距離検出装置
JP2887039B2 (ja) * 1993-03-26 1999-04-26 三菱電機株式会社 車両周辺監視装置
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP3431962B2 (ja) * 1993-09-17 2003-07-28 本田技研工業株式会社 走行区分線認識装置を備えた自動走行車両
DE4333112A1 (de) 1993-09-29 1995-03-30 Bosch Gmbh Robert Verfahren und Vorrichtung zum Ausparken eines Fahrzeugs
JP3381351B2 (ja) 1993-12-24 2003-02-24 日産自動車株式会社 車両用周囲状況表示装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP3205477B2 (ja) * 1994-02-17 2001-09-04 富士フイルムマイクロデバイス株式会社 車間距離検出装置
JP2919284B2 (ja) 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
US5473364A (en) * 1994-06-03 1995-12-05 David Sarnoff Research Center, Inc. Video technique for indicating moving objects from a movable platform
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
EP0838068B1 (en) * 1995-07-10 2005-10-26 Sarnoff Corporation Method and system for rendering and combining images
JPH09305796A (ja) * 1996-05-16 1997-11-28 Canon Inc 画像情報処理装置
JP3328478B2 (ja) * 1995-10-18 2002-09-24 日本電信電話株式会社 カメラシステム
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JP3600378B2 (ja) 1996-07-24 2004-12-15 本田技研工業株式会社 車両の外界認識装置
JP3625622B2 (ja) 1996-08-30 2005-03-02 三洋電機株式会社 立体モデル作成装置、立体モデル作成方法および立体モデル作成プログラムを記録した媒体
JP3147002B2 (ja) * 1996-09-26 2001-03-19 富士電機株式会社 距離検出値の補正方法
US5994701A (en) * 1996-10-15 1999-11-30 Nippon Avonics Co., Ltd. Infrared sensor device with temperature correction function
JPH10164566A (ja) 1996-11-28 1998-06-19 Aiphone Co Ltd マルチ天井カメラ装置
JPH10244891A (ja) 1997-03-07 1998-09-14 Nissan Motor Co Ltd 駐車補助装置
JPH10264841A (ja) 1997-03-25 1998-10-06 Nissan Motor Co Ltd 駐車誘導装置
US6396535B1 (en) * 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004008744A1 (ja) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置
JP2005242606A (ja) * 2004-02-26 2005-09-08 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
CN100435584C (zh) * 2004-08-04 2008-11-19 奥林巴斯株式会社 图像生成方法和装置
US7457456B2 (en) 2004-08-04 2008-11-25 Olympus Corporation Image generation method and device
JP2006119843A (ja) * 2004-10-20 2006-05-11 Olympus Corp 画像生成方法およびその装置
WO2007111377A1 (ja) 2006-03-27 2007-10-04 Sanyo Electric Co., Ltd. 運転支援装置
US9308862B2 (en) 2006-03-27 2016-04-12 Panasonic Intellectual Property Management Co., Ltd. Drive assistance device
US7663476B2 (en) 2006-05-17 2010-02-16 Alpine Electronics, Inc. Surrounding image generating apparatus and method of adjusting metering for image pickup device
US8368687B2 (en) 2006-09-26 2013-02-05 Clarion Co., Ltd. Image generating apparatus and image generating method
US8259173B2 (en) 2006-09-26 2012-09-04 Clarion Co., Ltd. Image generating apparatus and image generating method
US7965325B2 (en) 2007-12-04 2011-06-21 Alpine Electronics, Inc. Distortion-corrected image generation unit and distortion-corrected image generation method
US8267024B2 (en) 2008-01-24 2012-09-18 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
US9840199B2 (en) 2008-05-29 2017-12-12 Fujitsu Limited Vehicle image processing apparatus and vehicle image processing method
US9475430B2 (en) 2008-05-29 2016-10-25 Fujitsu Limited Vehicle image processing apparatus and vehicle image processing method
US9403483B2 (en) 2008-05-29 2016-08-02 Fujitsu Limited Vehicle image processing apparatus and vehicle image processing method
JP5397373B2 (ja) * 2008-05-29 2014-01-22 富士通株式会社 車両用画像処理装置、車両用画像処理方法
WO2009144994A1 (ja) 2008-05-29 2009-12-03 富士通株式会社 車両用画像処理装置、車両用画像処理方法
US8773534B2 (en) 2009-04-13 2014-07-08 Fujitsu Limited Image processing apparatus, medium recording image processing program, and image processing method
JP2010264872A (ja) * 2009-05-14 2010-11-25 Fujitsu Ten Ltd 車載照明装置、画像処理装置及び画像表示システム
WO2010137265A1 (ja) 2009-05-25 2010-12-02 パナソニック株式会社 車両周囲監視装置
KR101302944B1 (ko) * 2009-11-04 2013-09-06 주식회사 만도 차량 인식 방법 및 장치
US9610891B2 (en) 2009-11-16 2017-04-04 Fujitsu Ten Limited In-vehicle illuminating apparatus, image processing apparatus, and image displaying system
US8947533B2 (en) 2010-01-22 2015-02-03 Fujitsu Ten Limited Parameter determining device, parameter determining system, parameter determining method, and recording medium
CN102198818A (zh) * 2010-03-25 2011-09-28 富士通天株式会社 车载照明装置、图像处理装置、图像显示系统及照明方法
CN102198818B (zh) * 2010-03-25 2014-03-12 富士通天株式会社 车载照明装置、图像处理装置、图像显示系统及照明方法
WO2011129277A1 (ja) 2010-04-12 2011-10-20 住友重機械工業株式会社 画像生成装置及び操作支援システム
US9881412B2 (en) 2010-04-12 2018-01-30 Sumitomo Heavy Industries, Ltd. Image generation device and operation support system
EP3410703A1 (en) 2010-04-12 2018-12-05 Sumitomo Heavy Industries, Ltd. Image generation device and operation support system
CN102792334A (zh) * 2010-04-12 2012-11-21 住友重机械工业株式会社 图像生成装置及操作支持系统
WO2011129275A1 (ja) 2010-04-12 2011-10-20 住友重機械工業株式会社 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム
WO2011129274A1 (ja) 2010-04-12 2011-10-20 住友重機械工業株式会社 画像生成装置及び操作支援システム
WO2011129276A1 (ja) 2010-04-12 2011-10-20 住友重機械工業株式会社 画像生成装置及び操作支援システム
KR101475583B1 (ko) * 2010-04-12 2014-12-30 스미도모쥬기가이고교 가부시키가이샤 화상생성장치 및 조작지원 시스템
JP2011223411A (ja) * 2010-04-12 2011-11-04 Sumitomo Heavy Ind Ltd 画像生成装置及び操作支援システム
JP2011221865A (ja) * 2010-04-12 2011-11-04 Sumitomo Heavy Ind Ltd 画像生成装置及び操作支援システム
JP2011223410A (ja) * 2010-04-12 2011-11-04 Sumitomo Heavy Ind Ltd 画像生成装置及び操作支援システム
US9233643B2 (en) 2010-04-12 2016-01-12 Sumitomo Heavy Industries, Ltd. Image generation device and operation support system
JP2011239349A (ja) * 2010-05-13 2011-11-24 Fujitsu Ltd 画像処理装置および画像処理プログラム
US9064293B2 (en) 2010-06-15 2015-06-23 Mitsubishi Electric Corporation Vehicle surroundings monitoring device
JP2012011849A (ja) * 2010-06-30 2012-01-19 Fujitsu Ten Ltd 画像表示システム
JP5783471B2 (ja) * 2010-12-01 2015-09-24 コニカミノルタ株式会社 画像合成装置
US9591280B2 (en) 2011-07-29 2017-03-07 Fujitsu Limited Image processing apparatus, image processing method, and computer-readable recording medium
JP2013197816A (ja) * 2012-03-19 2013-09-30 Nippon Soken Inc 車載画像表示装置
JP2013205402A (ja) * 2012-03-29 2013-10-07 Sumitomo (Shi) Construction Machinery Co Ltd 作業機械用周辺監視装置
US10046700B2 (en) 2012-05-22 2018-08-14 Mitsubishi Electric Corporation Image processing device
WO2014174884A1 (ja) 2013-04-24 2014-10-30 住友重機械工業株式会社 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム
KR20150116116A (ko) * 2014-04-04 2015-10-15 주식회사 와이즈오토모티브 차량 주변 이미지 생성 장치 및 방법
KR101670847B1 (ko) * 2014-04-04 2016-11-09 주식회사 와이즈오토모티브 차량 주변 이미지 생성 장치 및 방법
KR101543159B1 (ko) 2014-05-02 2015-08-10 현대자동차주식회사 카메라를 이용한 영상 조정 시스템 및 방법
CN105034950A (zh) * 2014-05-02 2015-11-11 现代自动车株式会社 使用成像装置调节图像的系统和方法
KR101559739B1 (ko) * 2015-06-11 2015-10-15 주식회사 미래엔에스 가상 모델과 카메라 영상의 융합시스템
US10875452B2 (en) 2016-01-12 2020-12-29 Denso Corporation Driving assistance device and driving assistance method
CN107472135B (zh) * 2016-06-07 2022-03-25 松下知识产权经营株式会社 图像生成装置、图像生成方法以及记录介质
EP3264367A2 (en) 2016-06-07 2018-01-03 Panasonic Intellectual Property Management Co., Ltd. Image generating apparatus, image generating method, and recording medium
CN107472135A (zh) * 2016-06-07 2017-12-15 松下知识产权经营株式会社 图像生成装置、图像生成方法以及程序
US11394926B2 (en) 2016-08-12 2022-07-19 Denso Corporation Periphery monitoring apparatus
CN109937158A (zh) * 2016-12-27 2019-06-25 金泰克斯公司 具有眼睛跟踪的后视系统
US10737624B2 (en) 2017-03-24 2020-08-11 Toyota Jidosha Kabushiki Kaisha Viewing device for vehicle
DE112020006319T5 (de) 2019-12-25 2022-11-24 Panasonic Intellectual Property Management Co., Ltd. Fahrassistenzvorrichtung, fahrassistenzverfahren und programm
US12037043B2 (en) 2021-09-16 2024-07-16 Panasonic Automotive Systems Co., Ltd. Parking assist method and parking assist device

Also Published As

Publication number Publication date
EP2259220A2 (en) 2010-12-08
EP2259220A3 (en) 2012-09-26
EP1115250A4 (en) 2005-06-22
EP1115250A1 (en) 2001-07-11
EP2309453A2 (en) 2011-04-13
WO2000007373A1 (fr) 2000-02-10
US7307655B1 (en) 2007-12-11
EP2267656A3 (en) 2012-09-26
EP1115250B1 (en) 2012-06-06
EP2309453A3 (en) 2012-09-26
EP2267656A2 (en) 2010-12-29

Similar Documents

Publication Publication Date Title
JP3286306B2 (ja) 画像生成装置、画像生成方法
JP2002135765A (ja) カメラキャリブレーション指示装置及びカメラキャリブレーション装置
JP4596978B2 (ja) 運転支援システム
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
US8295644B2 (en) Birds eye view virtual imaging for real time composited wide field of view
JP3300334B2 (ja) 画像処理装置および監視システム
US7554573B2 (en) Drive assisting system
WO2009119110A1 (ja) 死角表示装置
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
US20190016256A1 (en) Projection of a Pre-Definable Light Pattern
US20140114534A1 (en) Dynamic rearview mirror display features
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
WO2000064175A1 (fr) Dispositif de traitement d'images et systeme de surveillance
CN102555905B (zh) 产生车辆周围环境中至少一个物体的影像的方法和设备
JP3301421B2 (ja) 車両周囲状況提示装置
US20220222947A1 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
CN112308986A (zh) 车载图像拼接方法、系统以及装置
CN112215917A (zh) 车载全景图生成方法、装置及系统
CN117011185B (zh) 一种电子后视镜cms图像矫正方法、系统及电子后视镜
CN112698717B (zh) 一种局部图像的处理方法及装置、车载系统、存储介质
WO2023095340A1 (ja) 画像処理方法、画像表示方法、画像処理装置、及び画像表示装置
JP5091882B2 (ja) 画像処理装置並びに視界支援装置及び方法
CN114332804A (zh) 一种基于前后视画面的泊车轨迹显示方法及装置
JP2004007299A (ja) 車両用映像表示装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020212

R150 Certificate of patent or registration of utility model

Ref document number: 3286306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080308

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090308

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100308

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110308

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110308

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120308

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130308

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130308

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140308

Year of fee payment: 12

EXPY Cancellation because of completion of term