JP3286306B2 - 画像生成装置、画像生成方法 - Google Patents
画像生成装置、画像生成方法Info
- Publication number
- JP3286306B2 JP3286306B2 JP2000563072A JP2000563072A JP3286306B2 JP 3286306 B2 JP3286306 B2 JP 3286306B2 JP 2000563072 A JP2000563072 A JP 2000563072A JP 2000563072 A JP2000563072 A JP 2000563072A JP 3286306 B2 JP3286306 B2 JP 3286306B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- vehicle
- viewpoint
- image generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Circuits (AREA)
Description
影された複数枚の画像について、画像を互いに独立して
表示するのではなく、前記数台のカメラで撮影している
エリアの全体の様子が直感的に分かるように、一枚に合
成した画像を表示する装置および方法に関し、たとえ
ば、店舗におけるモニター装置、あるいは車両運転の際
の安全確認の補助としての車両周囲モニター装置等に関
する。
などにおいて、監視対象となる部分を1台もしくは数台
のカメラで撮影し、その画像をモニタ画面に表示する構
成が一般的である。この際、例えば数台のカメラが設置
してあれば、通常モニタ画面も前記カメラ台数分だけ準
備するが、モニタ画面の台数がカメラの台数分だけ準備
できない場合は、分割装置等を用いて、前記数台のカメ
ラ画像を1枚分の画像に統合して表示させる、もしく
は、カメラ画像を順次切り替えるなどの方法が取られ
る。しかし、これら従来の装置では、それぞれのカメラ
からの画像を監視するには、独立に表示されている画像
の連続性を管理者が考慮する必要があるなどの問題があ
った。
メラからの画像が端の部分で重なるように設置し、複数
台カメラからの画像を、前記重なり部分を重ねることに
よって一枚に統合した画像を表示することで、前記連続
性の問題を解決した監視装置としては、例えば特開平1
0−164566号公報などがある。
に設置した場合がある。その従来例としては次のような
ものがある。つまり、車両の周囲を監視するカメラを設
置し、前記カメラで獲得した画像を運転席近くに設置し
たモニターテレビに表示させる監視装置である。例えば
車両後方のように、運転者が目視もしくはミラーで見る
ことが出来ない場所を、前記カメラで撮影し前記モニタ
ーテレビで表示させる装置が知られている。特に、大型
トラック、ワンボックスワゴンなど、目視およびミラー
で確認できる視野が狭い車両には多数使用されている。
合の従来例を示したものである。図69の例では、分割
アダプタを介して、車体に取付けられた4つの監視カメ
ラ(C1〜C4)からの画像を一枚の画像に合成し、該
画像をモニタテレビで分割表示 (D1〜D4)する方
法である。特に後部カメラからの画像に関しては、画像
に撮っている物体の位置関係をミラーで見たときと同じ
様にするため、左右反転した画像を表示するなどの工夫
がされている。さらにカメラの画角の制限のため見るこ
とが出来ない場所については、運転者の手動操作によっ
て各々のカメラを回転させ、所望の場所の画像を得るこ
とを可能としている。なお、上記に示した監視装置とし
ては、例えば特開平5−310078号公報に開示の装
置などがある。
装置については、各々のカメラから入力された画像を、
互いに無関係に表示するので、カメラが撮影している空
間全体の様子を、それぞれの画像を見ながら管理者が一
度に把握することは困難である。
る場合も、カメラに撮影されている物体が空間内のどの
位置に存在するかを計算するものではないので、例えば
管理者が状況に応じて所望の視点からの統合画像を見た
いという要求があった場合に、対処できない。
の問題が生じる。すなわち上記の例のように従来の監視
装置については、各々のカメラから入力された画像を、
互いに無関係に表示させるものである。従って例えば車
両を駐車スペースに入れようとする場合の補助として前
記表示された画像を用いる際にも、前記画像は見えない
場所を見るだけの役割しか果たさない。つまり運転者
は、従来の目視およびミラーを使った場合と比べて見え
ない場所が少なくなっただけにすぎない。
としては、広角レンズを用いる事が一般的である。広角
レンズからの画像ではある特定部分の詳細はつかめない
が、逆に広角レンズを用いる事で視野が広まり、車両の
周囲の全体的な状況を把握し易くなる。
に置き換えるのみでは、結局、カメラからの画像は、車
体にカメラが設置されている場所に依存し、カメラが設
置されていない場所からの仮想的な画像を見ることはで
きない。すなわち、広角レンズ設置したカメラを用いて
得られる効果は、カメラの台数が減るという点のみであ
る。
9952号公報に開示されている装置がある。図70
は、その従来の車両周囲監視装置の実施例を示したブロ
ック図である。画像変換部2202 に入力されたカメラ1
〜N2201 からの画像が、変換により他の座標に変換さ
れ、画像表示部2203 で1枚の画像に合成される。そし
て運転席に設置されたTVモニタ2204に表示する。画像
表示部では、ギア位置、車速、ウインカ動作に応じた信
号により、自車表示位置を画面の中心よりずらすなど
し、見ようとする車両周囲環境領域を広くとるようにす
るなどの工夫も可能である。
が特開平7−186833号公報に開示されている。こ
の例では、周囲の状況を運転者に提示する際に、路面部
分とそれ以外の部分を予め区別し、路面部分は座標変換
によって車両中心上方に下向きに視点を置いたときに観
測される画像に変換し、また路面外部分は、前記変換画
像にカメラからの映像をそのまま適切な場所で適切な大
きさに変更して重ねあわせ表示する。これにより車両の
周囲の障害物の状況、特に車両後方から接近する他の車
両などを正確に知らせるものである。
の従来の車両周囲監視装置においては、得られる合成画
像と実在の物体との対応づけが困難になる場合があると
いう問題があった。
を分割することにより、路面外物体を画像に映った状態
で切り出し合成画像に貼り付けるという方法を用いてい
るが、路面外物体の切り出しは画像認識の分野でも難し
い問題の一つであり、実用化は困難である。
成画像にずれが生じるという問題があるが、それを解決
する従来例としては、例えば特開平5−310078号
公報に開示されている方法がある。該方法では、カメラ
の向きを変更する機構を備えることにより、運転者が合
成画面を見ながら、手で所望の向きにカメラを動かす方
法である。しかし、この場合の問題は、向きを変更する
機構をカメラの台数と同じ数だけ取付ける必要があり、
コストが高くなる点である。
り、例えば車両に設置された装置では、車両の全周囲に
わたって車両近辺にどのような物体が存在するかを出来
るだけ現実に近いように分かり易く一枚の画像として合
成し、運転者に表示することを目的とする。
な、カメラの取り付け位置、取り付け角度などのカメラ
パラメータを容易に求める方法、さらには、前記カメラ
パラメータが、走行時の振動や温度などによってずれた
ときに、それを検知し修正する装置および方法も提供す
る
に、本発明は、一台もしくは複数台のカメラと、前記カ
メラからの入力画像を、3次元空間の予め決められた空
間モデルにマッピングする空間再構成手段と、前記空間
再構成手段によってマッピングされた空間データを参照
して、前記3次元空間における任意の仮想視点から見た
画像を作成する視点変換手段と、前記視点変換手段にて
変換された画像を表示する表示手段とを備えたことを特
徴とする画像生成装置である。
の画像生成方法は3次元空間に存在するカメラからの入
力画像を、前記3次元空間の予め決められた空間モデル
にマッピングして空間データを作成する空間再構成工程
と、前記空間データを参照して、前記3次元空間におけ
る任意の仮想視点から見た画像を作成する視点変換工程
とを備えたことを特徴とする画像生成方法である。
は次の構成を有する。
台もしくは複数台のカメラから画像を入力する画像入力
手段と、前記カメラ特性を示すカメラパラメータを格納
するカメラパラメータテーブルと、車両を基準とした座
標系に空間モデルを作成する空間モデル作成手段と、前
記カメラより入力された画像を前記空間モデルにマッピ
ングするマッピング手段と、視点を設定し、前記視点か
ら見た一枚の画像を、前記マッピング手段にて作成され
たデータから合成する視点変換手段と、前記視点変換手
段にて変換された画像を表示する表示手段とを備えたこ
とを特徴とする。
は、距離を計測する距離センサと、車両周囲の状況とし
て、少なくとも車両周囲に存在する障害物までの距離を
前記距離センサを用いて計測する障害物検知手段とを備
えたことを特徴とする。
た空間モデル、もしくは、障害物検知手段によって検知
された車両周囲の障害物までの距離に応じて設定される
空間モデルが、空間モデル作成手段によって作成され
る。画像入力手段により車両に設置されたカメラから入
力された車両周囲の画像は、マッピング手段によって前
記空間モデルにマッピングされる。つづいて、視点変換
手段にて決められた視点から見た一枚の画像をマッピン
グされた画像から合成し、表示手段にて表示する。この
際、車両の乗員は、所望の視点からの画像を表示するこ
とが可能である。
構成は、車両に設置された一台もしくは複数台のカメラ
から画像を入力する画像入力手段と、前記カメラ特性を
示すカメラパラメータを格納するカメラパラメータテー
ブルと、車両周囲の状況として、路面上の特徴を検知す
る路面特徴検出手段と、車両を基準として設定された座
標系に、前記路面特徴検出手段の処理結果に応じた空間
モデルを作成する空間モデル作成手段と、前記カメラよ
り入力された画像を前記空間モデルにマッピングするマ
ッピング手段と、視点を設定し、前記視点から見た一枚
の画像を、前記マッピング手段にて作成されたデータか
ら合成する視点変換手段と、前記視点変換手段にて変換
された画像を表示する表示手段とを備えたことを特徴と
する。
移動方向を検出する移動方向検出手段と、車両の単位時
間における移動距離を検出する移動距離検出手段を備
え、前記移動方向検出手段および前記移動距離検出手段
での処理結果を用いて、前記路面上の特徴の現在位置を
計算し、計算した車両の現在位置にもとづいて、前記空
間モデルを逐次修正することを特徴とする。
おいて前記路面特徴検出手段における処理結果を表示し
つつ前記処理結果を修正する特徴修正手段を備えたこと
を特徴とする。
特徴検出手段にて検出し、空間モデル作成手段で前記検
出された特徴に合わせて空間モデルを作成する。画像入
力手段により車両に設置されたカメラから入力された車
両周囲の画像は、マッピング手段によって前記空間モデ
ルにマッピングされる。つづいて、視点変換手段にて決
められた視点から見た一枚の画像をマッピングされた画
像から合成し、表示手段にて表示する。車両が移動した
場合は車両と路面特徴との位置関係が変化するので、該
変化に応じて空間モデルを修正し、修正後の空間モデル
を用いて画像を合成し表示する。
両に設置された一台もしくは複数台のカメラから画像を
入力する画像入力手段と、前記カメラ特性を示すカメラ
パラメータを格納するカメラパラメータテーブルと、前
記車両の周囲の状況をモデル化した空間モデルに前記カ
メラより入力された画像をマッピングするマッピング手
段と、所望の仮想視点から見た一枚の画像を、前記マッ
ピング手段にて作成されたデータから合成する視点変換
手段と、前記カメラのパラメータを、各々のカメラで独
立して修正するカメラパラメータ修正手段と、前記視点
変換手段にて変換された画像を表示する表示手段とを備
えたことを特徴とする。
ラメータ修正手段での処理時と通常動作時とで仮想視点
を切り替えることを特徴とする。
ラメータ修正手段での処理時は、仮想視点を車載カメラ
のいずれかのカメラパラメータと一致させることを特徴
とする。
ラメータ修正手段での処理時は、仮想視点を、該修正を
行っているカメラの、修正処理前のカメラパラメータと
一致させることを特徴とする。
向きを変更する操作の向きと、前記視点の向きとの関係
を互いに逆方向とすることを特徴とする。
の画像を表示する際に、各々の画像の接する境界部分
で、境界を示すマークを合成画像に重ね合わせて表示す
ることを特徴とする。
両に設置された一台もしくは複数台のカメラから画像を
入力する画像入力手段と、前記カメラ特性を示すカメラ
パラメータを格納するカメラパラメータテーブルと、車
両の周囲の状況をモデル化した空間モデルに前記カメラ
より入力された画像をマッピングするマッピング手段
と、少なくとも位置、向きを含む視点パラメータを格納
する視点パラメータテーブルと、前記マッピング手段で
のマッピング処理の結果を用いて、所望の仮想視点から
見た画像を合成する視点変換手段と、前記仮想視点のパ
ラメータを修正する視点パラメータ修正手段と、前記視
点変換手段にて変換された画像を接合して表示する表示
手段とを備えたことを特徴とする。
に設置されたカメラのいずれか一つと対となるよう区別
して前記視点パラメータテーブルに格納することを特徴
とする。
仮想視点パラメータ変更操作のうち、少なくとも向き・
位置・回転の操作については、操作方向と実際の視点パ
ラメータの変更との関係を、互いに逆とすることを特徴
とする。
視点パラメータ修正する際は固定した仮の仮想視点を設
け、当該修正中の仮想視点での修正経過を、前記仮の仮
想視点からの画像として逐次合成表示することを特徴と
する。
の画像を表示する際に、各々の画像の接する境界部分
で、境界を示すマークを合成画像に重ね合わせて表示す
ることを特徴とする。
画素の対応づけ関係を保持するマッピングテーブルを備
え、前記マッピング手段および視点変換手段での処理に
よって得られた前記対応づけ関係を前記マッピングテー
ブルに格納することを特徴とする。
よって変更された視点パラメータを用いて、前記マッピ
ングテーブルを再計算するマッピングテーブル修正手段
を備えたことを特徴とする。
くは複数台のカメラと、前記カメラの特性を示すカメラ
パラメータを格納するカメラパラメータテーブルと、前
記カメラパラメータに基づいて、前記カメラからの入力
画像を3次元空間の空間モデルにマッピングして空間デ
ータを作成する空間再構成手段と、前記空間再構成手段
にて作成された空間データを一時的に格納する空間デー
タバッファと、前記空間データを参照して、任意の視点
から見た画像を作成する視点変換手段と、前記視点変換
手段にて変換された画像を表示する表示手段とを備えた
ことを特徴とする。
成は、カメラ特性を示すカメラパラメータを、入力もし
くは計算によって得るキャリブレーション手段を備えた
ことを特徴とする。
成は、カメラ視野内に3次元座標の同定が可能な複数個
の点を生成する特徴点生成手段と、それらの特徴点を抽
出する特徴点抽出手段とを備えたことを特徴とする。
成は、温度センサ、温度補正テーブルを備えたことを特
徴とする。
成は、車両の移動方向を検出する移動方向検出手段と、
車両の単位時間における移動距離を検出する移動距離検
出手段と、車両の移動方向および移動距離を用いて、前
記空間データバッファに格納された空間データを変換す
る空間データ変換手段とを備えたことを特徴とする。
成は、カメラのキャリブレーションが必要な状況を検知
した場合に運転者にカメラキャリブレーションの指示を
行うカメラ補正指示手段と、カメラキャリブレーション
を行った日時および走行距離を記録する補正履歴記録手
段とを備えたことを特徴とする。
性を示すカメラパラメータに基づいてカメラからの入力
画像を構成する各々の画素を3次元空間の点に対応づけ
た空間データを作成する空間再構成工程と、前記空間デ
ータを参照して任意の視点から見た画像を作成する視点
変換工程とを包含することを特徴とする。
成は、前記カメラ特性を示すカメラパラメータを入力も
しくは計算によって獲得し、また必要であれば温度に応
じて前記カメラパラメータを補正するキャリブレーショ
ン工程を包含することを特徴とする。
成は、前記キャリブレーション手段で前記カメラパラメ
ータの計算に必要な複数個の特徴点を抽出する特徴点抽
出工程を包含することを特徴とする。
成は、カメラ視野内に3次元座標の同定が可能な複数個
の点を生成する特徴点生成工程を包含することを特徴と
する。
成は、車両の移動方向を検出する移動方向検出工程と、
車両の単位時間における移動距離を検出する移動距離検
出工程と、前記移動方向検出工程によって検出された車
両の移動方向、および移動距離検出工程によって検出さ
れた車両の移動距離を用いて、前記空間データを変換す
る空間データ変換工程とを包含することを特徴とする。
成は、カメラのキャリブレーションが必要な状況を検知
し、キャリブレーションが必要である場合に、運転者に
カメラキャリブレーションの指示を行うカメラ補正指示
工程と、カメラキャリブレーションを行った日時および
走行距離を記録する補正履歴記録工程とを包含すること
を特徴とする。
では、以下の3ステップからなる手順によって、複数台
設置されているそれぞれのカメラ視野を統合し、一枚の
画像として合成する。
得られた画像を構成する各々の画素と、3次元座標系の
点との対応関係を計算し、空間データを作成する、前記
計算は各々のカメラから得られた画像のすべての画素に
対して実施する。
指定する。すなわち、前記3次元座標系の、どの位置か
ら、どの角度で、どれだけの倍率で、画像を見たいかを
指定する。
点からの画像を、前記空間データから再現し、表示手段
にて表示する。
記載の発明を組み合わせた画像生成装置の一例では、特
徴点生成手段によって車体の周囲などに3次元座標の同
定が可能な複数個の点を生成し、それらの特徴点を特徴
点抽出手段で抽出することにより、各々のカメラについ
て、その特性を示すカメラパラメータを自動で得る。
置では、温度センサ、温度補正テーブルを設置すること
により、気温上昇・下降にともなって微妙に変化するレ
ンズ歪みを補正し、レンズを常に最適に保つ。
生成装置では、画像生成装置の車両への応用例として、
カメラから死角となる部分の画像を見る方法を提供す
る。すなわち車両の移動方向および移動距離を検出し、
検出結果から導かれた計算式を用いて、以前に取得した
画像を現在の位置から見た画像に変換する。具体的に
は、以前に見えていたが現在見えていない場所について
の空間データは、前記場所を撮影した画像が空間データ
として空間データバッファに格納されている場合、その
空間データを空間データ変換手段で変換することによっ
て補われる。
生成装置では、画像生成装置の車両への応用例として、
カメラの特性を示すカメラパラメータの補正、すなわち
カメラキャリブレーションを実施しなければならない状
況を検知し、その旨を運転者に指示する。
する。なお本実施例においては、車両の周囲を監視する
カメラを設置し、前記カメラで獲得した画像を運転席近
くに設置したモニターテレビに表示させる画像生成装置
を対象として説明する。
の基本構成の一例を示したブロック図である。
として、監視対象領域の状況を把握するために取付けら
れた複数台のカメラ101 、前記カメラの特性を示すカメ
ラパラメータを格納しておくカメラパラメータテーブル
103 、カメラパラメータに基づいて、前記カメラからの
入力画像を3次元空間の空間モデルにマッピングした空
間データを作成する空間再構成手段104 、空間再構成手
段104 にて作成された空間データを一時的に格納する空
間データバッファ105 、空間データを参照して、任意の
視点から見た画像を作成する視点変換手段106 、視点変
換手段106 にて変換された画像を表示する表示手段107
からなる。
13に記載の本発明を組み合わせた画像生成装置の構成
の一例を示したブロック図である。
に対して、さらに、カメラの取り付け位置、カメラの取
り付け角度、カメラのレンズ歪み補正値、カメラのレン
ズの焦点距離などといった、前記カメラ特性を表すカメ
ラパラメータを、入力もしくは計算によって得るキャリ
ブレーション手段102 、前記カメラの視野内に3次元座
標の同定が可能な複数個の点を生成する特徴点生成手段
109 とそれらの特徴点を抽出する特徴点抽出手段108と
を付加し、各々のにカメラについて、その特性を示 す
カメラパラメータを容易に得ることを可能としている。
108の振る舞いによってカメラパラメータを得るための
方法についての詳細は後述する。
生成装置の構成例を示したブロック図である。図3の例
では、図1に示した画像生成装置に対して、更に温度セ
ンサ110、温度補 正テーブル111 を設置することによ
り、気温上昇・下降にともなって微妙に変化するレンズ
歪みを補正し、レンズを常に最適に保つことが可能とな
る。キャリブレーション手段102 において温度によるレ
ンズ歪みの補正を行う方法についての詳細は後述する。
生成装置の構成例を示したブロック図である。図4は車
両への応用例としての画像生成装置の構成例で、図1に
示した画像生成装置に対して、さらに車両の移動方向を
検出する移動方向検出手段112 と、車両の単位時間にお
ける移動距離を検出する移動距離検出手段113 と、車両
の移動方向および移動距離を用いて、前記空間データバ
ッファ105 に格納された空間データを変換する空間デー
タ変換手段114 とを付加している。
えていない場所について、以前に見えており、かつ、そ
の見えていた画像が空間データとして空間データバッフ
ァ105 に格納されていれば、その空間データを本発明を
構成する空間データ変換手段114 で変換することによっ
て補うことができる。補うための方法についての詳細は
後述する。
への応用例としての画像生成装置で、その構成例を示し
たブロック図である。
た画像生成装置に対して、さらにカメラのキャリブレー
ションが必要な状況を検知した場合に、運転者にカメラ
キャリブレーションの指示を行うカメラ補正指示手段11
6 と、カメラキャリブレーションを行った日時および走
行距離を記録する補正履歴記録手段115 を付加してい
る。これらの手段を用いることにより、カメラの特性を
示すカメラパラメータの補正、すなわちカメラキャリブ
レーションを実施しなければならない状況を検知し、そ
の旨を運転者に提示する。
置を示したブロック図であり、図1から図5の画像生成
装置を一つにまとめた場合の構成例で、それぞれの構成
で得られる効果を統合して利用することが可能である。
本実施例の最後で、本図6の構成例を用いて、本発明に
よる画像生成装置の動作例を示す。
ての詳細を説明する。
べき空間の画像を撮り込むテレビカメラである。このカ
メラは、大きな視野を得ることができるよう、通常、画
角が大きいものを使うのが良い。図7は、車両へのカメ
ラの取り付け例を示した概念図である。
見渡すようにカメラが6台設置されている例を示してい
る。図7の例のように、車両への取り付け位置として
は、車体屋根と側面もしくは屋根と後面の境界部分にす
ると、視野が広くなりカメラの台数も少数で済む。
は、カメラキャリブレーションを行う。カメラキャリブ
レーションとは、3次元実世界に配置されたカメラにつ
いての、その3次元実世界における、カメラの取り付け
位置、カメラの取り付け角度、カメラのレンズ歪み補正
値、カメラのレンズの焦点距離などといった、前記カメ
ラ特性を表すカメラパラメータを決定、補正することで
ある。
3 は、キャリブレーション手段102 (処理の詳細は後述)
によって得られたカメラパラメータを格納するテーブル
である。
細な説明の準備として、3次元空間座標系を定義する。
前出の図7は、車両にカメラを設置した様子を示した概
念図であるが、図7において車両を中心とする3次元空
間座標系を示している。図7の例では3次元空間座標系
の例として、 ・車両の後面直下にある後面に平行な路面上の直線をX
軸 ・車両の後面中央に路面から垂直に伸びる軸をY軸 ・車両の後面中央を通り後面に垂直な路面上の直線をZ
軸 とする3次元空間座標系を定義し、また本座標系におい
てカメラの向きは、 ・Y−Z平面に対してなす角度をα ・X−Z平面に対してなす角度をβ として、該α、βを用いて表すものとする。以下、特に
ことわりがない限り、3次元空間座標系もしくはワール
ド座標系もしくは単に3次元空間は、本定義による3次
元空間座標系を指すものとする。
格納されているデータを表形式で示したものである。図
9に記載されている内容は、テーブルの左側の列から順
に以下の通りで、下記のごとく本テーブルでは、2列目
から9列目までの項目がカメラパラメータの例を示して
いる。
度α 6列目:カメラの向きのうちX−Z平面に対してなす角
度β 7列目:3次元空間座標系におけるカメラの焦点距離 8列目:レンズの半径方向の歪み係数κ1 9列目:レンズの半径方向の歪み係数κ2 例えば、図7におけるカメラ1のパラメータは図9のカ
メラパラメータテーブル103 の2行目に記載されてお
り、その内容は、カメラ1は、座標(x1、y1、0)の位置
にあり、向きはY−Z平面に対して45度、X−Z平面
に対して−30度の角度をなし、焦点距離はf1、レンズ
歪み係数κ1、κ2はともに0である、ということが分
かる。
カメラパラメータテーブル103 の8行目に記載されてお
り、その内容は、仮想カメラとは、座標(0、y1、0)の
位置にあり、向きはY−Z平面に対して0度、X−Z平
面に対して−20度の角度をなし、焦点距離はf、レン
ズ歪み係数κ1、κ2はともに0である、ということが
分かる。
念である。すなわち従来の画像生成装置では、実際に設
置されているカメラから得られた画像のみしか表示でき
なかったが、本発明による画像生成装置では、後で詳述
する空間再構成手段104 、視点変換手段106 により、仮
想のカメラを自由に設置し、その仮想カメラからの画像
を計算によって求めることが可能となる。該計算方法に
ついても後で詳述する。
は、カメラキャリブレーションを行う。それはすなわち
前記カメラパラメータを決定することであり、その決定
方法としては、例えばキーボードやマウスなどの入力装
置によって全てのデータを人手で直接入力する方法、キ
ャリブレーションデータのいくつかを計算によって求め
る方法などがある。
におけるカメラの取り付け位置およびカメラの取り付け
角度、カメラのレンズ歪み補正値、カメラのレンズの焦
点距離などといった、前記カメラ特性を表すパラメータ
である。カメラで撮影した画像の特徴点と、前記特徴点
の前記基準座標系内での位置との対応関係が取れている
点の組が多数分かっていれば、前記パラメータを計算に
よって近似的に求めることが可能となる。つまり、カメ
ラパラメータを計算によって求める場合、カメラで撮影
した画像の点と、その点の3次元空間座標系内での位置
との対応関係が取れている点の組が、複数個必要とな
る。その組が最低いくつ必要であるかは、どのような計
算方法を用いるかに依存する。例えば図9の例で用いた
カメラパラメータを計算によって求める方法に関して
は、文献「松山、久野、井宮、“コンピュータビジョ
ン:技術評論と将来展望”、新技術コミュニケーション
ズ、pp.37-53、1998年6月」に開示されている。こ
の他にもカメラパラメータを求める技術が、前記文献に
多数開示されているので、ここでは該技術に関する説明
は省略する。
の計算をする場合においても、前記対応関係の組をどの
ようにして見つけるかが問題となる。本発明では、前記
対応関係の取れた点の組を自動で作成し、その組を用い
て計算によっていくつかのカメラパラメータを求める方
法について開示していおり、該方法については後述す
る。
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
度変化がない限りは起こらないと仮定し、歪み補正前の
画像と、歪み補正後の画像で、それぞれの画素の座標値
の対応関係をあらかじめ計算しておく。そして前記計算
結果をテーブルやマトリクスなどのデータ形式でメモリ
内に保持し、それを用いて歪み補正を行うなどの方法
が、高速な補正処理として有効である。
変化するかが予め分かっていれば、そのデータは本発明
による温度補正テーブル111 などの形式で持っておき、
気温の上昇や下降によってレンズ歪みに変化が生じた場
合に、キャリブレーション手段102 によって前記テーブ
ルのデータを参照して補正する。
1 の例を表形式で示した図である。図10に示すよう
に、温度補正テーブル111 は、温度に応じて変化する前
記カメラパラメータの変化量をデータとして格納するも
ので、本例では、温度によって、 ・レンズの焦点距離(テーブル2列目) ・レンズ歪み係数κ1(テーブル3列目) ・レンズ歪み係数κ2(テーブル4列目) が変わる度合いのデータを格納した場合を示しており、
テーブルの示す具体的な内容は以下の通りである。
目) ・現在のレンズの焦点距離にdf1を加える。
目) ・現在のレンズの焦点距離にdf2を加える。
ーション手段102では、各カメラ毎に温度センサ110 の
温度値を逐次観測し、必要に応じてカメラパラメータテ
ーブル103 の内容を更新する。
おいて、温度によってカメラパラメータテーブル103 の
更新処理を行う手順をフローチャートの形式で示したも
ので、図22を用いてその詳細を説明する。
ラ1台について、それに1台の温度センサ110 が対にな
って付随しており、温度センサ110 で検知した温度が、
カメラのレンズ温度とほぼ等しいということを仮定す
る。
一つ選択し、温度値を取得する。
補正を必要とするかどうかを確かめる。
度以下もしくは40度以上である。
テーブル111 からカメラパラメータ補正値を取得し、該
温度センサ110 に付随するカメラのカメラパラメータを
更新した結果を、カメラパラメータテーブル103 に書き
込む。(1304)補正の必要がない場合は、レンズの焦点距
離、歪み係数κ1、歪み係数κ2をすべて初期設定値に
戻した結果を、カメラパラメータテーブル103 に書き込
む。
て、上記1から3までの処理を終了していれば、カメラ
パラメータテーブル103 更新処理を終了する。まだ未チ
ェックの温度センサ110 があれば、該温度センサ110 に
ついて、上記1から3までの処理を実行する。
111 を用いて書き換えられたカメラパラメータテーブル
103 の例である。図11の例では、カメラ1、カメラ2
のみが、ある時点に直射日光を受けるなどして40度以
上の温度となり、それ以外は0度から40度未満の温度
値を保っている場合を示している。図11のカメラパラ
メータテーブル103 から分かる通り、カメラ1およびカ
メラ2のカメラパラメータが、温度が40度以上の場合
の温度補正処理によって、 ・レンズの焦点距離は df1 増加 ・レンズ歪み係数κ1は κ12 増加 ・レンズ歪み係数κ2は κ22 増加 していることが分かる。なお、前述の仮想カメラに関し
ては、温度によって焦点距離やレンズ歪みが変化しない
理想的なレンズとすることが可能であるので、本補正処
理の対象外とする。
がすべて同じ温度補正特性を持つものと仮定した場合を
示しているが、実際には異なる特性を持つレンズが取付
けられている場合もある。そのような場合は、カメラご
とに独立してテーブルを持っておき、温度補正対象とな
るカメラに応じてテーブルを使い分ければ良い。
スの他にプラスチックを用いることも出来るが、プラス
チックは温度変化に対して変形が激しいのが通常であ
る。しかし、上述したような補正により対応することが
できる。
リブレーション手段102 によって計算されたカメラパラ
メータに基づいて、前記カメラからの入力画像を構成す
る各々の画素を3次元空間の点に対応づけた空間データ
を作成する。すなわち、空間再構成手段104 では、カメ
ラから撮影された画像に含まれる各々の物体が、3次元
空間のどこに存在するかを計算し、その計算結果として
の空間データを空間データバッファ105 に格納する。
るそれぞれの画素のすべてを利用して空間データを構成
する必要はない。たとえば入力画像に水平線により上に
位置する領域が写っている場合は、その水平線より上の
領域に含まれる画素を路面にマッピングする必要はな
い。あるいは車体を写している画素をマッピングする必
要もない。また、入力画像が高解像度な場合などは、数
画素毎に飛ばして空間データにマッピングすることによ
り処理を高速化することも考えられる。
各々の画素の位置は、一般的にCCD画像面を含むU−
V平面上の座標として表される。従って、入力画像を構
成する各々の画素をワールド座標系の点に対応づけるた
めには、カメラで撮影された画像の存在するU−V平面
の点をワールド座標系内の点に対応づける計算式を求め
れば良い。
面(以下、視平面)に設定したU−V座標系の点と、3
次元空間座標系の点との対応づけの関係の例を表した概
念図である。図8の例に従うと該対応づけは以下の手順
で行われる。
で、該平面上にあるカメラ画像の中心をZ軸が通るよう
な座標系を設定する。これを視平面座標系と呼ぶ(Oeを
原点とする)。
の座標をPe(Xe,Ye,Ze)とし、その点が視平面に投影
されたときのの点(この点がカメラ撮影画像の一画素に
対応する)の座標をPv(u,v)とすると、PeとPvの関係
は、カメラの焦点距離fを用いて、式(1)式(2)のように
表すことが出来る。
た画像の各々の画素について、視平面座標系における座
標を決めることができる。
関係および向き関係を求める。ここでワールド座標系を
中心にして、視平面座標系が空間的に以下のような関係
にあるとする。
系原点Owへのベクトルを(tx, ty, tz)とする。つまり
2つの座標系の位置的なずれは、(tx, ty, tz)だけ平行
移動することによって無くなる。
関係は、図7の例における車両を中心とした座標系(ワ
ールド座標系に対応)と、車載カメラ(視平面座標系に対
応)と同じ関係になるようにすると、視平面座標系は、 「ワールド座標系Y−Z平面に対してなす角度がα」 「ワールド座標系X−Z平面に対してなす角度がβ」 とすることができる。但し、ここではカメラのレンズの
光軸周りの回転はないものと仮定している。この場合、
ある点をワールド座標系でPw(Xw,Yw,Zw)で表し、ま
た、視平面座標系Pe(Xe,Ye,Ze)で表すとすると、P
e(Xe,Ye,Ze)、Pw(Xw,Yw,Zw)、(tx, ty, tz)、
α、β の間には式(3)の関係が成り立つ。
ールド座標系での座標Pw(Xw,Yw,Zw)を式(1)式(2)式
(3)によって対応づけることが出来た。
x, ty, tz,α,β,f」の6つであるので、視平面上での
画素Pv(u,v)と、ワールド座標系での座標Pw(Xw,Yw,
Zw)の対応関係が既知の点の組が最低2組あれば、上記
の未知変数は求められる。
それぞれの座標の計測には位置ずれを含むことが多く、
計算結果には誤差が生じる場合がほとんどである。
連立方程式を最小二乗法で解くなどの方法が用いられ
る。なお、カメラの位置と向きが視平面座標系と一致す
るので、すでにカメラパラメータが求まっていれば本処
理3.を実行する必要はない。
いる式(1)式(2)式(3)を用いてワールド座標系のそれぞ
れの点Pw(Xw,Yw,Zw)を、視平面の点Pv(u,v)と対応
づける。
ついて実施すれば、独立した全てのカメラからの画像
を、同じ一つの3次元空間内の点として対応づけること
が可能となる。
によって対応づけされたデータで、図12は、該空間デ
ータを格納する本発明による空間データバッファ105 の
記述例を表の形式で示したものである。空間データバッ
ファ105 には、カメラ画像の点と空間内の点との対応づ
けデータが格納される。図12の例では1行目を除く各
行に一つの空間データが記述されており、それぞれの空
間データを構成する情報としての各列に以下の内容を含
んでいる。
るための番号(ここでは説明の便宜上Aとした) 2列目:ワールド座標系での点のX座標 3列目:ワールド座標系での点のY座標 4列目:ワールド座標系での点のZ座標 5列目:前記点を含む画像が、どのカメラから撮影した
ものかを区別するフラグ 6列目:前記画像を含む視平面座標系での点のU座標 7列目:前記画像を含む視平面座標系での点のV座標 8列目:前記画像を含む視平面座標系での点の色のR成
分(例えば0〜255階調で量子化) 9列目:前記画像を含む視平面座標系での点の色のG成
分(例えば0〜255階調で量子化) 10列目:前記画像を含む視平面座標系での点の色のB
成分(例えば0〜255階調で量子化) 11列目:該空間データが取得された時刻 以下で空間データの記述内容を例を用いて説明するが、
ここで図13〜図15を説明の補助として用いる。
面としての路面上の特徴点と、車両に設置したカメラで
撮影した画像上での特徴点との対応関係を示す図で、図
13は、路面上の特徴点A、B、C、D、Eと車両との
位置関係を上部からみた概念図、図14は、図15の車
載カメラ1で前記特徴点A、B、Cを含む路面を撮影し
た画像を表す概念図、図15は、図13の車載カメラ2
で前記特徴点C、D、Eを含む路面を撮影した画像を表
す概念図である。そして、図12の例の空間データバッ
ファ105 には、図13〜図15に記された5つの特徴点
A、B、C、D、Eが空間データの例として記述されて
いる。
着目する。前述の空間再構成手段104 による対応づけ処
理によって、図13のワールド座標系上の点Aと図14
の視平面座標系上の点Aが対応づけられているものとす
ると、図12の表の3行目が図13、図14における特
徴点Aに相当する空間データの例である。
(X3,0,Z2)であり、それをカメラ1から撮影したとき
には、撮像画像上での点Aの座標は(U1,V1)で色はR
GB順に(80,80,80)であり、本データが作成され
た時刻は t1 である、という意味である。
メラから観測されたときは、それぞれを独立した空間デ
ータとして空間データバッファ105 に格納する。例え
ば、図13〜図15における点Cがその例に相当する。
点Cは、図14、図15からも明らかなように、図13
における2台のカメラ、すなわち、カメラ1およびカメ
ラ2から観測されている。
成された空間データ、すなわち図12の7行目の空間デ
ータは、ワールド座標系上の点Cは、座標(0,0,Z2)
を持ち、点Cをカメラ1から撮影したときには、撮像画
像上での点Cの座標は(U3,V3)で色はRGB順に(14
0,140,140)で、本データが作成された時刻は t1
である。
された空間データ、すなわち図12の8行目の空間デー
タは、ワールド座標系上の点Cは、座標(0,0,Z2)を
持ち、点Cをカメラ2から撮影したときには、撮像画像
上での点Cの座標は(U4, V4)で色はRGB順に(15
0,150,150)で、本データが作成された時刻は t
1ある。
の各々の画素がワールド座標系の点に対応づけ情報が、
空間データという形式で空間データバッファ105 に格納
される。
構成手段104 によって作成された空間データを参照し
て、任意の視点にカメラを設置して撮影した画像を作成
する。その方法の概要は、空間再構成手段104 で行った
処理の逆の処理を行うことである。すなわち、空間再構
成手段104 によって形成されたワールド座標系の点Pw
(Xw,Yw,Zw)を、任意の視点にカメラを設置して撮影
した画像面Pv(u,v)に投影する変換を求めることに相当
する。
述した式(1)式(2)および式(3)の逆変換に相当する式(4)
で表すことが可能である。
つの式によってPv(u,v)を計算する。この計算では、カ
メラのカメラパラメータ「tx, ty, tz,α,β,f」は任
意の所望の値を指定できる。つまりそれは所望の視点に
所望の角度でカメラを置くことができることを意味す
る。この際、前記任意視点にカメラを置いて見たときの
画像を投影する画面上で、個々の画素の色をどのように
表現するかが問題となる。
7、請求項8に対応する)では、3つの場合の色の表現
方法を開示している。該方法の内容を、3つの場合に応
じて以下に説明する。
点Pが、ただ一つのカメラで撮影した画像と対応づけら
れている場合:この場合は、設定した視点から点Pを見
たときの色は、前記カメラで点Pを見たときの色を用い
て決める。最も単純な方法は同じ色で置き換える方法で
あるが、点Pを観測しているカメラと設定した視点位置
・方向との関係から計算によって求めてもよい。
点Pが、複数台のカメラで撮影した画像と対応づけられ
ている場合:この場合は、設定した視点から点Pを見た
ときの色は、前記複数台のカメラで点Pを見たときの色
を用いて何らかの計算をし、得られた結果としての色で
決めるものとする。前記計算の方法としてはいくつか考
えられるが、例えば、 ・全ての色を同じ割合で混合する ・最も明度の高いもしくは低いもしくは中間の色を取得
する ・最も再度の高いもしくは低いもしくは中間の色を取得
する などの方法がある。
点Pが、いずれのカメラで撮影した画像とも対応づけら
れていない場合:この場合は、設定した視点から点Pを
見たときの色は、点Pの周囲の点の色を用いて補間した
色を計算で求めるか、もしくは、物体が存在しない部分
であると識別可能な色、例えば黒に置き換えるなどすれ
ばよい。
段106 によって、車両に設定されていない仮想のカメラ
からの画像を自由に再現できることにある。
内の路面上の特徴点を車両に設置したカメラで撮影した
画像を用いて、適当な視点に仮想カメラを置いたときの
画像を合成した例を示した概念図で、図16は、路面上
の特徴点A、B、Cと車両との位置関係を上部からみた
概念図、図17は、図16の車載カメラ1で前記特徴点
A、Bを含む路面を撮影した画像を表す概念図、図18
は、図16の車載カメラ2で前記特徴点B、Cを含む路
面を撮影した画像を表す概念図、図19は、図16の車
載カメラ1および車載カメラ2で撮影した画像を用い、
本発明による視点変換手段106 によって仮想カメラから
見た画像を合成した様子を表す概念図である。
置場所の例として、車両のほぼ中心の上方にカメラを下
向きに設置した場合を示した概念図である。この例のご
とく仮想カメラを設置した場合、仮想カメラで撮影され
た画像は車両の周囲の様子を表すものとなる。あくま
で、前記合成画像を構成する画像は、車載カメラによっ
て撮影されたものであるので、図7に示されたような配
置の車載カメラ周囲を撮影した場合、どのカメラ画像に
も車体の屋根が含まれていない。
存在場所や形状、色に関する情報の分かっている物体に
ついては、予めそれらの情報をシステムに蓄積してお
き、それらの情報を必要に応じて用いれば、より違和感
の少ない画像を合成することが可能となる。
方斜め上方に配置し、そこから車を見る例を示す斜視図
である。このように、仮想カメラは真上に限らず、斜め
から車を見るようにすることもできる。図20(c)は
その図20(b)を利用して作成した画像の合成図であ
る。斜め上方から見た感じが現れている。
本発明の請求項1に記載の画像生成装置を車両に適用す
る場合に必要となる手段である。
るために通常車体上部に設置されていることが多い。と
ころが車体の形状が、例えば車体外部に向って凸面なカ
ーブを形成しているような場合では、このような車体上
部に位置するカメラで撮影した画像は、車体のすぐ周囲
の路面部分は死角になる場合がほとんどである。
部にもカメラを設置することであるが、カメラを追加す
ることによって余分なコストが必要となる。本発明によ
る前記空間データ変換手段114 は車体下部などにカメラ
を追加せずに前記問題を解決する。もっともその解決に
は、車が移動することが前提である。
る処理の手順をフローチャートの形式で示したもの、図
24は、空間データ変換手段114の説明の補助に用い
る概念図である。図24は、ある一定時間の間に車両が
移動したとき、前記一定時間の開始時刻(以下t1)と終了
時刻(以下t2)における車両の位置、および向きの関係を
示している。図23および図24を用いてカメラから死
角となる部分の画像を合成する手順を説明する。
移動距離を検出する。本例では移動距離は、時刻t1 と
時刻t2 のそれぞれの時刻における車両位置の間の直線
距離で定義する。すなわち図24におけるO1とO2の距
離ということになる。
動距離をO1からO2へのベクトルを(t′x,0, t′z)で
表す。移動距離の検出方法としては、例えばタイヤの回
転数などによって計測する方法が用いられる。
移動方向を検出する。本例では移動方向を、時刻t1にお
ける車両の向きに対して時刻t2における車両の向きがど
れだけ変化したかの変化量として定義する。説明の都合
上、図24に記載のように、向きの変化量をZ1軸とZ2
軸とのなす角度Θで表す。移動方向の検出方法として
は、例えばハンドルの回転角度などによって計測する方
法が用いられる。
車両の移動距離および移動方向を用いて、t1において取
得した空間データを t2における空間データに変換する
式(5)を作成する。但し式(5)では時刻t1 から時刻t2に
至る間の車両移動においては、完全に垂直成分の変化が
ないもの、つまり路面が平坦であることを仮定してい
る。
において車体を中心にしたX1-Y1-Z1ワールド座標系
(原点O1)におけるある点の座標で、x2, y2, z2 は、前
記点の時刻t2において車体を中心にしたX2-Y2-Z2ワ
ールド座標系(原点O2)における座標を表す。つまり x
1, y1, z1 を式(5)の右辺に代入して計算した結果が x
2, y2, z2 となる。
て合成した空間データを、時刻t2における空間データに
変換する。作成した後の空間データについては、どのカ
メラから見たかについての情報は必要ないので、図12
の表において、5から7列目のデータは空白にしておい
てよい。すなわち、時刻t1 における空間データのう
ち、上記計算で書き換えられるは図12の表において1
から4列目のみで、8から11列目のデータはそのまま
利用する。
時間の空間データに過去の空間データを加えていくと、
限りある空間データバッファ105 のオーバーフローがい
つかは生じることである。この問題に対して本発明によ
る空間データバッファ105 では、各空間データは該デー
タの作成時刻の情報を持っているので、現在時刻から溯
って一定時間以上過去のデータは消去するようにすれば
良い。
ラの視野内に3次元座標の同定が可能な複数個の点を生
成する。そして、本発明による特徴点抽出手段108は、
前記生成された特徴点を抽出する。図21は、特徴点生
成手段109 、特徴点および特徴点抽出手段108の実施例
を示す概念図である。
のパターン光照射装置を車体側面上部に取付けた実施例
で、本例では、ワールド座標系内の平面としての車両の
周囲の路面に、長方形のパターンを格子状に照射する場
合を示している。
体上部に数箇所取り付けて、路面にパターン光を照射し
た状態を車両上部から見た例である。
射された長方形のパターン光をカメラから撮影した様子
を示した例である。特徴点は、パターン光照射で作成さ
れた長方形の角や中心などの特徴を表すいくつかの点を
用いれば良い。
点の例である。前記特徴点はワールド座標系における座
標が既知であると設定することが可能である。またこれ
らの特徴点は、視平面座標系での座標位置も既知で、ワ
ールド座標系と視平面座標系での対応関係が取れてい
る。従って前述の式(1)式(2)および式(3)を用いれば、
本発明によるキャリブレーション手段102 によってカメ
ラパラメータ tx, ty, tz, α,β,f を計算することが
可能となる。
求項1に記載の画像生成装置を車両に適用する場合に必
要となる手段で、該補正指示手段では、カメラのキャリ
ブレーションが必要な状況を検知し、キャリブレーショ
ンが必要である場合に、運転者にカメラキャリブレーシ
ョンを指示する。また本発明による補正履歴記録手段11
5 では、キャリブレーションが必要な状況を検知するた
めに必要なデータとして、カメラキャリブレーションを
行った日時および走行距離を記録する。
に応じて補正指示を出す処理の手順をフローチャートの
形式で示したものである。
ンを行った日時から、現在までの経過時間までを計算す
る。
の時間に対して、前記経過時間の方が大きければ、(160
5)カメラ補正指示手段116 にてカメラキャリブレーショ
ンを実施するように運転者に指示し、処理を終了する。
但し、前記指示によって運転者がカメラキャリブレーシ
ョンを実施したら、補正履歴の記録を更新しておく。前
記所定の時間に対して、前記経過時間の方が小さけれ
ば、次の処理3に進む。
ンを行った時から現在までの総走行距離を計算する。
の距離に対して、前記走行距離の方が大きければ、(160
5)カメラ補正指示手段116 にてカメラキャリブレーショ
ンを実施するように運転者に指示し、処理を終了する。
但し、前記指示によって運転者がカメラキャリブレーシ
ョンを実施したら、補正履歴の記録を更新しておく。前
記所定の距離に対して、前記走行距離の方が小さけれ
ば、カメラキャリブレーションに関する指示は、運転者
に出さず、処理を終了する。
るそれぞれの手段の実施例を説明した。次に、本発明に
よる画像生成装置の全体の処理の流れについて説明す
る。
両に適用した場合の全体の処理の流れをフローチャート
の形式で示したものである。なお画像生成装置の構成例
としては図6の構成を想定する。
に、必要であれば最初にカメラキャリブレーションを実
施し、補正履歴の記録を更新しておく。カメラキャリブ
レーションでは、カメラーパラメータを人手で入力する
か、または本発明による特徴点生成手段109 で特徴点を
車体周囲に生成し、前記特徴点を特徴点抽出手段108 に
て抽出した結果を用いてキャリブレーション手段102 に
てカメラパラメータを計算しても良い。
の温度値を逐次観測し、必要に応じてカメラパラメータ
テーブル103 の内容を更新する。
要に応じて補正指示を出す。もし補正が行われたら、補
正履歴の記録を更新する。
タバッファ105 に蓄積されていれば、空間データ変換手
段114 にて、車両の移動距離、移動方向に応じて前記空
間データを変換する。空間データバッファ105 が空白で
あれば、本処理は省略する。
を撮影する。
5.で撮影された画像を構成する各々の画素をワールド
座標系の点に対応づけた空間データを作成する。3の空
間データ変換手段114 で変換された空間データで、ワー
ルド座標系での座標が一致する空間データがすでに存在
している場合は、前記変換された空間データは破棄す
る。つまりワールド座標系におけるある点の空間データ
は、カメラから一番最近に撮影されたデータのみを保持
し、それより過去のデータ、もしくは時間がある程度経
過したデータは消去するようにする。
よって作成された空間データを参照して、所望の視点に
カメラを設置して撮影した画像を作成する。この場合、
視点位置は、合成画像が運転補助に適したものである場
所に固定していることが望ましく、例えば図20の例の
ように車体上方で車両周囲が見渡せるカメラ位置などが
良い。
を表示する。
がなくなるまで繰り返す。例えば運転者が車両を駐車ス
ペースに入れようとしている時は、前記2.〜8.の処
理を繰り返し、駐車が完了すれば本処理を終了すればよ
い。
ルド座標系の3次元位置が、正確に計測できれば、その
物体に合わせて空間モデルを生成すればよいが、現実的
には通常は、無理である。
を要求されるシステムでは、すべての物体の3次元位置
・形状を正確に求めることは困難であり、また、運転の
補助としての画像を合成するという観点では、任意の仮
想視点における画像を正確無比に再現しなければならな
いというわけではなく、運転者に分かり易い画像であれ
ば、多少クオリティが落ちても大きな問題にはなりにく
い。
体の3次元情報は失われるものの、高速に画像を合成で
き、かつ合成した画像のクオリティをある程度保つこと
が可能な、入力画像を構成する各々の画素と3次元空間
の点の対応づけ方法を開示する。
よって取り付け位置、取り付け角度が既に知られている
カメラから得られた画像を、3次元空間の一部をなす平
面の例として路面に投影するものである。すなわち、画
像に含まれる各々の物体は、すべて3次元空間座標系
(以下ワールド座標系と呼ぶこともある)のX−Z平面に
貼り付いており、Y軸方向成分を持つ物体が存在しない
と仮定し、視平面上の画像をワールド座標系の路面に投
影する。
明内容に対して変更する部分は、空間再構成手段104 で
用いる式(3)を式(6)に置き換え、また、視点変換手段
106 で用いる式(4)を式(7)に置き換えるだけでよい。
け、車両周囲を監視する装置について説明をしたが、限
られた台数のカメラからの画像を用いて任意の視点から
の画像を合成するという本技術は、車載カメラに限定す
るものではない。
ラを設置しておき、それらのカメラ画像を用いて、真上
から見た画像を合成することなども可能であり、幅広い
用途が期待できる。
遠隔地にある管理センターにおいておき、通信手段によ
って、それを利用する方法も可能である。
地にその機能の一部を実現しておくことももちろん可能
である。
った結果のデータをフロッピー、DVD等を利用して運
んで利用することも、本発明の実施例である。
するバッファなどは、そのまま空間データを処理する場
合は特に必要ない。
などの人手によって指定するのではなく、監視や運転の
補助として役立つ画像が得られる視点位置のうちの一つ
を選び、そこからの画像を表示させるようにしておく。
それによって仮想視点位置の移動操作をしなくてもよい
ため、利用者の作業負担のさらなる軽減が期待できる。
数のカメラからの画像を用いて任意の視点からの画像が
合成できる。
10および請求項13に記載の発明を合わせた例)で
は、各々のカメラについて、その特性を示すカメラパラ
メータを容易に得ることが可能となる。もし、例えば激
しい悪路を走行したことによってカメラの位置などが若
干ずれた場合でも、本発明により、カメラの位置の補正
は容易に可能となる。
例)では、温度センサ、温度補正テーブルを設置するこ
とにより、気温上昇・下降にともなって微妙に変化する
レンズ歪みを補正し、レンズを常に最適に保つことが可
能となる。例えば、温度上昇によって微妙に膨張したレ
ンズに対しては、その膨張によって変わるレンズ歪み係
数を最適に制御する補正値を温度補正テーブルから得
て、それに基づいてレンズ歪みパラメータを変更すれば
よい。かかる方法によって、本発明ではどのような気温
でも歪みのない画像を得ることが可能となる。
例)では、カメラから死角となる部分の画像を見る方法
を提供する。例えば、カメラが車体の上部に取付けてあ
り、前記カメラの取り付け位置下方の車体の形状が車体
外部に向って凸面である場合、カメラ直下の画像を見る
ことは物理的に不可能である。しかし、本発明では、車
両の移動方向および移動距離によって、以前に取得した
画像を現在の位置から見た画像に変換することが可能で
ある。
例)では、カメラの特性を示すカメラパラメータの補
正、すなわちカメラキャリブレーションを実施しなけれ
ばならない状況を検知し、その旨を運転者に提示するこ
とが可能である。これにより運転者がカメラパラメータ
の補正を長期間し忘れることを防ぐ効果が得られる。
図27,図28は、本発明(請求項32、請求項3
4)の一例を示す。
画像生成装置は、基本構成の一例として、車両周囲の状
況を把握するために取付けられた複数台のカメラ101A、
前記カメラの特性を示すカメラパラメータを格納してお
くカメラパラメータテーブル102A 、車両を基準とした
座標系に空間モデルを作成する空間モデル作成手段 103
A、前記カメラより入力された画像を前記空間モデルに
マッピングするマッピング手段104A 、視点を設定し、
前記視点から見た一枚の画像を、前記マッピング手段10
4Aにて作成されたデータから合成する視点変換手段105
A、前記視点変換手段105Aにて変換された画像を表示す
る表示手段106Aからなる構成を有する。
例を示したブロック図である。図27(b)の例では、図
27(a)に示した画像生成装置に対して、さらに、車両
周囲の状況として、少なくとも車両周囲に存在する障害
物までの距離を計測する障害物検知手段108A を付加し
た構成となっている。
ての詳細を説明する。カメラは、車両の周囲の状況な
ど、監視すべき空間の画像を撮り込むテレビカメラであ
る。その詳細は、上記図7で詳しく説明した。
2Aは、カメラパラメータを格納するテーブルである(上
述したカメラパラメータテーブル103と同様である)。
ているデータは上述した図9と同じである。
所望の視点に仮想のカメラを設置したと仮定し、その仮
想カメラからの画像を計算によって求めることが可能で
ある。該計算方法については後で詳述する。
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
が生じるほどの変化は起こらないと仮定し、歪み補正前
の画像と、歪み補正後の画像で、それぞれの画素の座標
値の対応関係を予め計算しておく。そして前記計算結果
をテーブルやマトリクスなどのデータ形式でメモリ内に
保持し、それを用いて歪み補正を行うなどの方法が、高
速な補正処理として有効である。
は、たとえば、車両を基準とした座標系に空間モデルを
作成する。空間モデルとは、後述するマッピング手段10
4Aにおいて、カメラからの画像を3次元空間座標系にマ
ッピングする平面もしくは曲面もしくは平面および曲面
からなるモデルである。図28(a)〜(c)は、本発明によ
る空間モデルを鳥瞰図的に示した概念図で、それぞれ、
図28(a)および図28(d)は平面のみで構成された空間
モデルの例、図28(b)は曲面のみで構成された空間モ
デルの例、図28(c)は平面および曲面で構成された空
間モデルの例、を表している。
るように5つの平面からなる空間モデルを示している。 平面1:路面(すなわち車両のタイヤに接している)と
しての平面 平面2:車両の前方に立てられた路面(平面1)に垂直
な平面 平面3:車両の進行方向に向って左側方に立てられた路
面(平面1)に垂直な平面 平面4:車両の後方に立てられた路面(平面1)に垂直
な平面 平面5:車両の進行方向に向って右側方に立てられた路
面(平面1)に垂直な平面 本空間モデルにおいては、平面2〜5は隙間なく立てら
れ、車載カメラから撮影された画像は、該平面1〜平面
5のいずれかにマッピングされる。また平面2〜5につ
いては車両からどの程度の距離が必要か、またどの程度
の高さが必要かは、車載カメラの画角や設置場所に応じ
て決めれば良い。
面を空間モデルに用いている。車両は、お椀型に形成さ
れた空間モデルにおいてお椀の底に当たる部分に設置さ
れ、車載カメラから撮影された画像は、お椀の内側の面
にマッピングされる。お椀型のモデルとしては、球や、
放物線の回転体、懸垂線の回転体などが考えることが、
いずれにしろ空間モデルを少数の数式で表すことが出来
れば、マッピングの計算は高速で行うことが可能とな
る。
平面と曲面を組み合わせて構成された空間モデルを示し
ている。
ている)としての平面 曲面:車両を取り囲むように前記平面上に置かれた円柱
状又は楕円柱状の壁 本空間モデルにおいて、曲面をどういう形状にするか、
また車両からどの程度の距離をおいて設置するかは、車
載カメラの画角や設置場所に応じて決めれば良い。
囲い込むごとく壁を立てた空間モデルは、次に示す効果
が得られる。すなわち、画像中の物体がすべて道路面上
にあるものと仮定して、カメラ画像を路面上にマッピン
グすると、路面から上方に高さ成分を持つ物体に関して
は、大きくゆがんでしまうという問題があった。これに
対し、本発明によって導入された空間モデルでは、まず
路面に垂直もしくはほぼ垂直な平面もしくは曲面によっ
て車両を囲い込む。これらの面を車両から離れ過ぎない
ように設定すれば、高さ成分を持つ物体がこれらの面に
マッピングされるため、歪みを小さくすることが可能と
なる。しかもマッピングした際の歪みが小さいため、2
台のカメラ画像の接合部でのずれも少なくなることが期
待できる。
メラパラメータに基づいて、車載カメラからの入力画像
を構成する各々の画素を、本発明による空間モデル作成
手段103によって作成された空間モデルにマッピングす
る。すなわち、車載カメラから撮影された各々の画像を
空間モデルに透視投影する。
という)に設定したU−V座標系の点の座標を、ワール
ド座標系の点の座標に変換することにより、車載カメラ
画像を空間モデルを構成する面にマッピングする説明の
補助として使用する図である。
座標をワールド座標へ変換する方法について説明する。
該変換は下記の手順で行われる。
で、該平原上にあるカメラ画像の中心をZ軸が通るよう
な座標系を設定する。
る)。
カメラ撮影画像の一画素に対応する)の視平面座標系で
の座標をPe(Xe,Ye,Ze)とすると、PeとPvの関係
は、カメラの焦点距離fを用いて、式(1)式(2)のように
表すことが出来る(但し、この場合はZe=fとな
る)。
た画像の各々の画素について、視平面座標系における座
標を決めることができる。 3.視平面座標系とワールド座標系とを対応づける計算
式を求める。ここでワールド座標系を中心にして、視平
面座標系が空間的に以下のような関係にあるとする。 ・視平面座標系原点Oeからワールド座標系原点Owへの
ベクトルを (tx, ty, tz)とする。つまり2つの座標系
の位置的なずれは、 (tx, ty, tz)だけ平行移動するこ
とによって無くなる。
が既知であれば、該位置の座標の符号を反転すれば (t
x, ty, tz)は容易に求まる。 ・視平面座標系のそれぞれの軸の向きをワールド座標系
にぴったり合わせるための回転行列を
テーブル102Aのうち、向きを表すパラメータによって、
X,Y,Zの各軸まわりの回転行列を求め、それらを合
成することによって容易に求めることが可能である。
Yw,Zw)で表し、また、視平面座標系Pe(Xe,Ye,Ze)
で表すとすると、Pe(Xe,Ye,Ze)、Pw(Xw,Yw,Z
w)、 (tx, ty, tz)、前記回転行列の間には式(8)の関係
が成り立つ。これら式(1)式(2)式(8)を用いることによ
り、視平面上での画素Pv(u,v)を、ワールド座標系での
座標Pw(Xw,Yw,Zw)に変換することが出来る。
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表される。入力画像を構成する各々の画素
を前記空間モデルにマッピングするためには、入力画像
の全ての画素について、以下の手順で処理を行えばよ
い。図30は該マッピングの手順をフローチャートの形
式で示したもので、以下、図30に従ってマッピングの
処理内容を説明する。
したU−V座標系の座標として表される前記画素を、ワ
ールド座標系における座標に変換する。変換には、例え
ば直前に示した式(1)式(2)式(8)を用いれば良い。
記画素Pw (=Pe) の座標を通る半直線と前記空間モデ
ルを形成する面との交点Ps(Xs,Ys,Zs)を求める。
ングする。すでに他のカメラ画像からの色が点Psにマ
ッピングされている場合、点Psの色を決める方法とし
ては例えば以下のような方法を用いれば良い。
ングしようとする色を同じ割合で混合する。
ングしようとする色のうち、明度の高いもしくは低いも
しくは中間の色を用いる。 ・すでにマッピングされている色とマッピングしようと
する色のうち、彩度の高いもしくは低いもしくは中間の
色を用いる。
ついて実施すれば、独立した全てのカメラからの画像
を、同じ一つの3次元空間内の空間モデル上にマッピン
グすることができる。
カメラの画像がマッピング手段 104 によって空間モデ
ルにマッピングされた結果を、任意の視点に設置したカ
メラから撮影した画像として合成する。その方法の概要
は、マッピング手段 104 で行った処理の逆の処理を行
うことである。
る点Ps(Xs,Ys,Zs)を、任意の視点にカメラを設置し
て撮影した画像面Pv(u,v)に投影する変換を求めること
に相当する。
述した式(1)式(2)および式(9)(式(8)の逆変換に相当す
る)で表すことが可能である。
3つの式によってPv(u,v)を計算する。この計算では、
カメラのカメラパラメータは任意の所望の値を指定でき
る。つまりそれは所望の視点に所望の角度でカメラを置
くことができることを意味する。
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デルの点に、色がマッピングされていない場合も考えら
れる。その場合は、物体が存在しない部分であると識別
可能な色、例えば黒に置き変えるなどすればよい。
で完全に囲い込む空間モデルを示したが、実際には車両
の全周囲を障害物が取り囲む場合は少なく、自車の周囲
に多くて数台の車両が存在する程度が普通である。係る
状況を鑑みると、自車の周囲を完全に囲い込む空間モデ
ルを導入する代わりに、必要に応じて、すなわち、自車
の周囲に障害物が存在している状態が分かれば、その場
合にのみ前記障害物の前に、それをマッピングするつい
たてのような面を作成すればよい。
間モデルの一例を鳥瞰図的に示した概念図で、図28
(d)の空間モデルでは、路面平面と、路面上に車両の左
後方及び右後方にそれぞれ一つづつ、ついたてとしての
平面を立てた空間モデルを示した概念図である。該つい
たて面は、車両に対して予め決められた場所に立ててお
くことももちろん可能であるが、前述のごとく、車両の
周囲に面から上方に高さ成分を持つ障害物が発見された
場合にのみ、ついたて面を立てるようにしても良い。そ
の際に、どの位置にどの向きについたて面を立てるかを
決める必要があるが、その一例として障害物の検知結果
に従ってついたて面を設置する方法を次に示す。
に、本発明による障害物検知手段 108 は、車両周囲の
状況として、少なくとも車両周囲に存在する障害物まで
の距離を距離センサ 107Aを用いて計測する。
るが、車載用としては、レーザー光、超音波、ステレオ
光学系、カメラのフォーカス(目標物体にフォーカスを
合わせた時の焦点距離から、カメラと前記物体までの距
離を計算する)などを使用することが可能である。該距
離センサ107A、レーザー光、超音波などを用いる場合で
は、車両の周囲に多数取付けるのが望ましい。一方、ス
テレオ光学系やカメラのフォーカスを用いる場合は、車
載カメラに併設してもよいが、車載カメラの一部をその
まま利用するとコストを安価にすることが可能となる。
基づいて、ついたて面を含む空間モデルを作成する方法
の一例を示す。図31は障害物センサを用いて車両と該
車両の周囲に存在する障害物との距離に基づいて、3次
元空間内についたて面を立てる方法を示す概念図であ
る。本例では、車載の各々のカメラに該障害物検知セン
サが併設されており、該障害物センサはカメラの視線と
同じ方向を向き、該方向に存在する障害物との距離を計
測するものとする。また図31において使用しているパ
ラメータは以下の通りである。
平面上での座標 (dx,dy,dz) :距離センサ 107 1のセンシングの向きを
示す方向ベクトルdc :距離センサ107 1と障害物との
路面平面上での距離 (px1,py1,pz1):(px0,py0,pz0)から(dx,dy,dz)の方向に
距離dcだけ移動した点 以下、図31に従って空間モデルを作成する手順を説明
する。
が予め設定されている所定の距離より近いかどうかを調
べる。前記所定の距離より離れていれば何もしない。
順でついたて平面を求める。
の座標値から(px0,py0,pz0)を求める。
の向き(dx,dy,dz)と、障害物までの距離dcから、(px1,p
y1,pz1)を求める。
点(px1,py1,pz1)を通る平面(式(15))を、ついたて面
とする。
記1から3までの処理を終了していれば、空間モデル作
成処理を終了する。まだ未チェックの距離センサ 107A
があれば、該距離センサ 107Aについて、上記1から3
までの処理を実行する。
画像が、それぞれ空間モデルを構成するついたてとして
の平面1、平面2にマッピングされている様子が示され
ている。マッピングに際して、ついたて面の幅の値をい
くらにするかが合成画像のクオリティを決める重要な要
素の一つとなる。障害物としてもっとも一般的なのは他
の車両なので、例えば自車と他の車両との距離がついた
て面を作成する距離になったとき、前記他の車両の2/
3以上がついたて面にマッピングされるように幅を設定
するという方針で、ついたての幅を決めるなどすればよ
い。
める条件としての、自車から障害物までの距離は、経験
的に 50cm〜1m の値を設定すると良い。また、ついたて
面を取り除く場合の条件としては、以下に列挙するよう
な方法を、単独で、もしくは組み合わせて用いれば良
い。
った場合 ・運転者が、なんらかの方法で該画像生成装置を初期化
した場合 以上、本発明による画像生成装置を構成するそれぞれの
手段の実施例を説明した。次に、本発明による画像生成
装置の全体の処理の流れについて説明する。図32は、
本発明による画像生成装置の全体の処理の流れをフロー
チャートの形式で示したものである。なお画像生成装置
の構成例としては図27(b)の構成を想定する。
に、車載カメラのそれぞれについて、正しいカメラーパ
ラメータをカメラパラメータテーブル102Aに入力してお
く。
撮影する。
離センサ107Aで車両周囲に存在する障害物までの距離を
計測する。
空間モデルを作成する。
カメラからの画像を、空間モデルにマッピングする。
画像を参照して、運転者が設定した視点から見た画像を
合成する。
表示する。
なくなるまで繰り返す。例えば運転者が車両を駐車スペ
ースに入れようとしている時は、前記2.〜7.の処理
を繰り返し、駐車が完了すれば本処理を終了すればよ
い。
カメラからの画像を用いて任意の視点からの画像が合成
する。その合成の際に、従来使用されてきた路面平面一
つだけの空間モデル以外の空間のモデルを導入し、この
空間モデルを用いることにより、高さをもつ物体も歪み
を少なくして空間にマッピングされる。従って、高さを
もつ物体が2台のカメラ画像に映っている場合、それぞ
れの画像を空間モデルにマッピングしたときの前記物体
の重なりのずれは、平面モデルに比べて大きく改善さ
れ、視点変換して合成した画像をクオリティが向上し、
運転者は、前記合成画像によって周囲の状況がよりいっ
そう認識しやすくなり、適確な運転操作を行えることが
期待できる。
を車両から検知し、車両を基準とした座標系で説明して
きたが、たとえば、駐車場等に設置のセンサが駐車場の
状況を検知し、駐車場を基準とした座標系での周囲状況
と、車両の駐車場における位置関係を、車両に通知する
ことにより、これまで述べた処理を実施することが可能
である。
なお、本実施例においては、車両の周囲を監視するカメ
ラを設置し、前記カメラで獲得した画像を運転席近くに
設置したモニターテレビに表示させる監視装置を対象と
して説明する。
例)に係る監視装置の基本構成例を示したブロック図で
ある。
構成として、車両周囲の状況を把握するために取付けら
れた複数台のカメラ101B、前記カメラの特性を示す
カメラパラメータを収納しておくカメラパラメータテー
ブル102B、車両周囲の状況として、例えば白線や路
面に描かれた矢印、文字、また横断歩道など、路面上の
特徴を検知する路面特徴検出手段103B、たとえば車
両を基準とした座標系を設定し、該座標系に、前記路面
特徴検出手段103Bの処理結果に応じた空間モデルを
作成する空間モデル作成手段104B、前記カメラより
入力された画像を前記空間モデルにマッピングするマッ
ピング手段105B、視点を設定し、前記視点から見た
一枚の画像を、マッピング手段105Bにて作成された
データから合成する視点変換手段106B、視点変換手
段106Bにて変換された画像を表示する表示手段10
7Bからなる構成を有する。
視装置に対して、さらに、車両の移動方向を検出する移
動方向検出手段109B、および車両の単位時間におけ
る移動距離を検出する移動距離検出手段108Bでの処
理結果を用いて、前記路面上の特徴の現在位置を計算
し、計算した車両の現在位置にもとづいて、前記空間モ
デルを逐次修正することを特徴とする。
視装置に対して、さらに、表示手段107Bにおいて路
面特徴検出手段103Bにおける処理結果を表示しつつ
前記処理結果を修正する特徴修正手段110Bを備えた
構成を有することにより、処理の実行中に路面上の特徴
がずれた場合に、該ずれを修正することが可能となる。
いての詳細を説明する。
べき空間の画像を撮り込むテレビカメラである。このカ
メラは、大きな視野を得ることができるよう、通常、画
角が大きいものを使うのが良い。車両へのカメラの取り
付け例は、図7で説明したとおりである。
メラパラメータを格納するテーブルである。その内容は
上述したとおりである。
されているデータは表形式で示されるが、それは図9に
示すものである。
カメラパラメータテーブル102の8行目に記載されて
おり、その内容は、仮想カメラとは、座標(0、y1、
0)の位置にあり、向きはY−Z平面に対して0度、X
−Z平面に対して−20度の角度をなし、焦点距離は
f、レンズ歪み係数κ1、κ2はともに0である、とい
うことが分かる。
定した所望の視点に仮想のカメラを設置したと仮定し、
その仮想カメラからの画像を計算によって求めることが
可能である。該計算方法については後で詳述する。
入力画像に対してレンズ歪み補正を行う場合、通常、多
くの計算が必要になり、実時間処理には向かない。
が生じるほどの変化は起こらないと仮定し、歪み補正前
の画像と、歪み補正後の画像で、それぞれの画素の座標
値の対応関係を予め計算しておく。そして前記計算結果
をテーブルやマトリクスなどのデータ形式でメモリ内に
保持し、それを用いて歪み補正を行うなどの方法が、高
速な補正処理として有効である。
準とした座標系を設定し、この座標系に、路面特徴検出
手段103Bの処理結果に応じた空間モデルを作成す
る。
間モデルを示した概念図である。
引いてある駐車スペースを示す白線の端点もしくは白線
同士が交わって出来る角を検知し、それらの点を基準に
して図に示すような5つの平面を用いて空間モデルを構
成している様子を示しており、図34(a)は該空間モ
デルを鳥瞰図的に示した概念図、図34(b)は図34
(a)において、車両の上方から下向きに透視投影され
た図である。図34(b)の例では、路面上の特徴の例
として、特徴点1〜4までを示している。以下、路面上
の特徴もしくは特徴点は、これら4つの特徴点を示すも
のとする。
1」というように番号を付けて指定する。そして本実施
例では、該5つの平面をそれぞれ以下のように決めてい
る(ここでは、左右は車両の後ろ向き方向に対して決め
ている)。 平面1:路面(すなわち車両のタイヤに接している)と
しての平面 平面2:左端が平面2に接し平面1に垂直な平面 平面3:特徴点1と特徴点2を結ぶ線分に沿っており、
平面1に垂直な平面 平面4:特徴点2と特徴点3を結ぶ線分に沿っており、
平面1に垂直な平面 平面5:特徴点3と特徴点4を結ぶ線分に沿っており、
平面1に垂直な平面 平面6:右端が平面5に接し平面1に垂直な平面 さて、空間モデル作成手段104Bにおいて、3次元空
間にこれらの平面(但し路面と一致する平面1を除く)
を作成するにあたっては、前記特徴点を検出する必要が
ある。路面特徴検出手段103Bは、係る路面上の特徴
を抽出するものである。
段103Bで特徴点を抽出する処理の例を説明するため
の図、図36は特徴点の抽出処理の流れを示すフローチ
ャートであり、以下、これらの図を用いて、路面特徴検
出手段103Bでの処理手順を説明する。
駐車スペースを示す白線を含む画像を撮影する。図35
(a)は、該撮影された画像を示している。
推定する。
画像を適当なしきい値で2値化し、それを横方向および
縦方向に走査し、走査ラインにおける白線に対応する画
素の数を頻度とするヒストグラムを、縦方向、横方向の
それぞれについて得る。該ヒストグラムの結果から特徴
点の存在する位置を推定する。図35(b)はその処理
例を示したもので、 ・縦方向に走査して得られたヒストグラムから、特徴点
のY座標を推定 ・横方向に走査して得られたヒストグラムから、特徴点
のX座標を推定 している様子を示している。
画像のエッジ抽出処理を行い、続いて前記エッジ処理結
果にさらに直線抽出処理を実施し、得られた直線の交点
もしくは端点を特徴点として推定する。図35(c)
は、その処理例を示したもので、エッジ抽出としては、
例えばゾーベルオペレータ、直線抽出としては例えばハ
フ変換などを用いれば良い。
3で得られた特徴点の推定値を用いて特徴点を決定す
る。特徴点の決定の仕方としては、例えば、処理70
2、処理703のそれぞれの方法で得られた特徴点の中
間点を取るなどすればよい。尚、処理702、処理70
3はいずれを先に実行しても同じ結果が得られる。
徴点の3次元座標系における座標を求める。この座標か
ら、前記空間モデルを構成する平面を求めることが可能
となる。
ータに基づいて、車載カメラからの入力画像を構成する
各々の画素を、空間モデル作成手段104Bによって作
成された空間モデルにマッピングする。すなわち、車載
カメラから撮影された各々の画像を空間モデルに透視投
影する。
V座標系の点の座標を、ワールド座標系の点の座標に変
換することにより、車載カメラ画像を空間モデルを構成
する面にマッピングする説明の補助として使用する図で
ある。この詳細については、すでに説明した。
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に図30におい
て説明した。
像がマッピング手段105Bによって空間モデルにマッ
ピングされた結果を、任意の視点に設置したカメラから
撮影した画像として合成する。その方法の概要は、上述
した視点変換手段105Aに関して説明した。
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デルの点に、色がマッピングされていない場合も考えら
れる。その場合は、物体が存在しない部分であると識別
可能な色、例えば黒に置き換えるなどすればよい。
検出された特徴点の位置は、車両の動きとともに変化す
る。空間モデルは特徴点の3次元座標を基に作成される
ので、車両の動きによって特徴点の位置が変化する毎に
空間モデルを作り直す必要がある。すなわち車両が移動
している間は常に、直前に説明した手法などで特徴点の
位置を求める必要があるが、画像から特徴点を求める処
理は一般的に計算量が多いため、コストが高くつく。こ
れを回避するための方法として、車両の動く速さと向き
をつねに計測し、その計測結果を用いて特徴点の座標を
計算すればよい。
視装置は、係る処理を実行するために、車両の移動方向
を検出する移動方向検出手段109Bと、車両の単位時
間における移動距離を検出する移動距離検出手段108
Bを備え、移動方向検出手段109Bおよび移動距離検出
手段108Bでの処理結果を用いて、前記路面上の特徴
の現在位置を計算する。
車両周囲監視装置において、車両の動きにともなって特
徴点の位置計算を行う処理の手順を示すフローチャー
ト、図38は、前記処理の説明の補助に用いる概念図で
ある。
したとき、前記一定時間の開始時刻(以下t1)と終了
時刻(以下t2)における車両の位置、および向きの関
係を示している。図37および図38を用いて前記処理
の手順を説明する。
の移動距離を検出する。本実施例では、移動距離は、時
刻t1と時刻t2のそれぞれの時刻における車両位置の
間の直線距離で定義する。すなわち、図38におけるO
1とO2の距離ということになる。
動距離をO1からO2へのベクトルを(t′x,0,
t′z)で表す。移動距離の検出方法としては、例えば
タイヤの回転数などによって計測する方法が用いられ
る。
の移動方向を検出する。本実施例では移動方向を、時刻
t1における車両の向きに対して時刻t2における車両
の向きがどれだけ変化したかの変化量として定義する。
きの変化量をZ1軸とZ2軸とのなす角度Θで表す。移
動方向の検出方法としては、例えばハンドルの回転角度
などによって計測する方法が用いられる。
る間の車両の移動距離および移動方向を用いて、t1に
おいて取得した特徴点の座標をt2における特徴点の座
標に変換する上記式(5)を作成する。
に至る間の車両移動においては、完全に垂直成分の変化
がないもの、つまり路面が平坦であることを仮定してい
る。
時刻t1において車体を中心にしたX1−Y1−Z1ワ
ールド座標系(原点O1)におけるある点の座標で、x
2,y2,z2は、前記点の時刻t2において車体を中
心にしたX2−Y2−Z2ワールド座標系(原点O2)
における座標を表す。つまり、x1,y1,z1を式
(5)の右辺に代入して計算した結果がx2,y2,z
2となる。
1において合成した特徴点の座標を時刻t2における特
徴点の座標に変換する。
できれば、移動方向検出手段109と移動距離検出手段
と特徴位置計算手段を導入し、直前で説明した計算方法
によって、常に特徴点の正確な座標を得ることができ
る。しかしながら、車両の移動方向と移動距離を誤差な
く計測することは現実的に不可能であるため、特徴点の
位置を必要に応じて修正する必要が生じる。
において路面特徴検出手段103Bにおける処理結果を
表示しつつ、車両の乗員が特徴の修正を指示し、その指
示に従って路面の特徴位置を修正する。
Bに表示している様子を示した概念図であり、また、図
40は、特徴修正処理における処理の流れを示すフロー
チャートである。以下、これらの図を用いて、特徴修正
手段110Bでの処理手順を説明する。
在の特徴点の位置を表示する。図39の例では車載カメ
ラから撮影された各々の画像と空間モデルとをスーパー
インポーズし、それを上方から下向きに透視投影した画
像を表示している様子を示している。
指定する。図39の例では特徴点2および特徴点4がず
れている特徴点で、これらを指定する。指定にあたって
は、例えば表示装置にタッチパネルが装着されている場
合は指で表示画面を触れることによって容易に場所の指
定が可能である。
場所を指定する。正しい特徴点の場所はどういう場所で
あるかは、予め操作する人に知らせておく。
いれば、上記処理1201〜1203を引き続き繰り返
し、なければ特徴点の修正処理を終了する。
成するそれぞれの手段の実施例を説明した。次に、本発
明による車両周囲監視装置の全体の処理の流れについて
説明する。図41は、本発明による車両周囲監視装置の
全体の処理の流れを示すフローチャートである。なお、
車両周囲監視装置の構成例としては図33(c)の構成
に基づく。
るために、車載カメラのそれぞれについて、正しいカメ
ラーパラメータをカメラパラメータテーブル102Bに
入力しておく。
像から路面上の特徴点を抽出する。
の座標とカメラパラメータから該特徴点の3次元座標を
計算する。但し、車両周囲監視装置処理が実行中なら
ば、車両の移動方向および移動距離を検出した結果を用
いて、特徴点の座標の現在位置を計算する。
画像を撮影する。
4Bによって処理4で撮影された画像を内に空間モデル
作成する。
にて、車載カメラからの画像を、空間モデルにマッピン
グする。
された画像を参照して、運転者が設定した視点から見た
画像を合成する。
た画像を表示する。
点の位置がずれているかどうかを確認する。
修正の割り込みを入れ、特徴点の修正処理を行う。特徴
点の修正の必要がなければ、処理1303に戻り、処理
を繰り返す。例えば運転者が車両を駐車スペースに入れ
ようとしている時は、前記処理1302〜1308を繰
り返し、駐車が完了すれば本処理を終了すればよい。
しては、上述した路面の特徴だけでなく、たとえば駐車
車両の状態等があげられる。その場合はその駐車車両の
状態に応じた空間モデルが生成される。
カメラからの画像を用いて任意の視点からの画像が合成
する。その合成の際に、単なる平面のモデルではなく、
カメラ画像から得られた路面上の特徴を利用して作成さ
れた汎用的な空間のモデルを導入している。平面を用い
た方法では、高さ成分がカメラ視線方向の奥行き成分に
変換されてしまうため、路面から上方に高さ成分を持つ
物体は、路面に投影すると大きく歪むことが問題であっ
たが、本発明の空間モデルを用いることにより、高さを
もつ物体も歪みを少なくして空間にマッピングされる。
従って、高さをもつ物体が2台のカメラ画像に映ってい
る場合、それぞれの画像を空間モデルにマッピングした
ときの前記物体の重なりのずれは、平面モデルに比べて
大きく改善され、視点変換して合成した画像のクオリテ
ィが向上し、運転者は、前記合成画像によって周囲の状
況がより一層認識しやすくなり、適確な運転操作を行え
ることが期待できる。また、前記空間モデルは単純な構
成を有しているため、装置のコストを低く押さえること
も可能となる。
る。
する。図42は本発明(請求項42の一例)に係る画像
生成装置の構成例を示したブロック図である。
て、車両周囲の状況を把握するために取付けられた複数
台のカメラ101C、カメラ101Cの特性を示すカメラ
パラメータを格納しておくカメラパラメータテーブル1
02C、車両の周囲の状況をモデル化した空間モデル1
03Cにカメラ101Cより入力された画像をマッピング
するマッピング手段104C、所望の仮想視点から見た
一枚の画像を、マッピング手段104Cにて作成された
データから合成する視点変換手段105C、カメラ10
1Cのパラメータを、各々のカメラで独立して修正する
カメラパラメータ修正手段106C、視点変換手段10
5Cにて変換された画像を表示する表示手段107Cから
なる構成を有する。
いての詳細を説明する。
ど、監視すべき空間の画像を撮り込むテレビカメラであ
る。図43(a)は、車両へ3台のカメラを取り付けた
例を示した概念図であるが、図43(a)の例のよう
に、車両への取り付け位置としては、車体屋根と側面も
しくは屋根と後面の境界部分にし、できるだけ画角が大
きいものを使うようにすると、視野が広くなりカメラの
台数も少数で済む。また左右のドアミラー部に後方を向
いたカメラを設置し、それらのカメラからの画像を車内
に設置したモニタに表示することによりドアミラーの機
能を果たすため、車両からドアミラーを除去することが
可能となり、デザイン的にも空力的にも優れた車を設計
することが可能となる。
メラパラメータを格納するテーブルである。その詳細に
ついては上述したとおりである。
02Cの詳細な説明の準備として、車両を基準とした3
次元空間座標系を定義する。図44は車両を中心とする
3次元空間座標系を示した概念図である。図44の例で
は3次元空間座標系の例として、 ・車両の後面直下にある後面に平行な路面上の直線をX
軸 ・車両の後面中央に路面から垂直に伸びる軸をY軸 ・車両の後面中央を通り撮面に垂直な路面上の直線をZ
軸 とする3次元空間座標系を定義する。
りの回転角度をγ として、該α、β、γを用いて表すものとする。以下、
特に断る場合を除いて、3次元空間座標系もしくはワー
ルド座標系もしくは単に3次元空間は、本定義による3
次元空間座標系を指すものとする。
2Cに格納されているデータを表形式で示したものであ
る。図45に記載されている内容は、テーブルの左側の
列から順に以下の通りで、下記のごとく本テーブルで
は、2列目から9列目までの項目がカメラパラメータの
例を示している。 ・1列目:図44の車載カメラの番号 ・2列目:3次元空間座標系におけるカメラ位置のX座
標 ・3列目:3次元空間座標系におけるカメラ位置のY座
標 ・4列目:3次元空間座標系におけるカメラ位置のZ座
標 ・5列目:カメラの向きのうちY−Z平面に対してなす
角度α ・6列目:カメラの向きのうちX−Z平面に対してなす
角度β ・7列目:カメラの光軸の周りの回転角度γ ・8列目:3次元空間座標系におけるカメラの焦点距離 ・9列目:レンズの半径方向の歪み係数κ1 ・10列目:レンズの半径方向の歪み係数κ2 例えば、図44におけるカメラ1のパラメータは図45
のカメラパラメータテーブル102Cの第2行目に記載
されており、その内容は、カメラ1は、座標(0、y
1、0)の位置にあり、向きはY−Z平面に対して0
度、X−Z平面に対して−30度の角度をなし、光軸周
りの回転はなく、焦点距離はf1、レンズ歪み係数κ
1、κ2はともに0である、ということが記されてい
る。
で詳細を説明)によって、車載カメラから撮影した画像
を所望の仮想視点から見た画像に変換することが可能で
ある。仮想視点から見た画像とは、具体的には所望の場
所に好きな向きに仮にカメラを置いた場合に見えるはず
の画像のことである。従って仮想視点の視点パラメータ
は、前述のカメラパラメータと同じものを用いて表すこ
とが可能である。この際、仮想のカメラでは、レンズの
歪みは考慮する必要がないので、レンズ歪み係数κ1、
κ2はいずれも0とすることができる。
格納されているデータを表形式で示したものである。図
46に記載されている内容は、テーブルの左側の列から
順に、2列目から9列目までの項目が視点パラメータの
例を示している。その内容は、仮想視点が、座標(0、
0、Z2)の位置にあり、向きはY−Z平面に対して0
度、X−Z平面に対して−90度の角度をなし、光軸周
りの回転はなく、焦点距離はf2、レンズ歪み係数κ
1、κ2はともに0である、ということは記されてい
る。
ータに基づいて。車載カメラからの入力画像を構成する
各々の画素を空間モデル103Cにマッピングする。す
なわち、車載カメラから撮影された各々の画像を空間モ
デル103Cに透視投影する。
グ手段104Cにおいて、カメラからの画像を3次元空
間座標系にマッピングする立体モデルを指し、例えば、
平面もしくは曲面もしくは平面および曲面からなるモデ
ルが使用される。本実施例では、説明を容易にするため
に、最も単純な空間モデル103Cの一例として路面と
しての平面モデルを用い、車載カメラからの画像を、該
平面モデルにマッピングする方法を説明する。
高さ成分を持つ物体の歪みが大きくなるなどの問題が生
じるため、平面をいくつか組み合わせた空間モデル、平
面と曲面を組み合わせた空間モデルなどを用いるとよ
い。さらには、車両の周囲の障害物の正確な立体モデル
を実時間で計測することが可能であれば、該立体モデル
を用いると、さらに高精度な合成画像が得られる。
ッピング処理の説明をする前に、まず視平面座標をワー
ルド座標へ変換する方法について説明する。図47は、
画像を含む平面(以下、視平面)に設定したU−V座標
系の点の座標を、ワールド座標系の点の座標に変換する
ことにより、車載カメラ画像を空間モデル103Cを構
成する面にマッピングする説明の補助として使用する図
である。該変換は下記の手順で行われる。
距離)で、該平面上にあるカメラ画像の中心をZ軸が通
るような座標系を設定する。これを視平面座標系と呼ぶ
(Oeを原点とする)。
(この点がカメラ撮影画像の一画素に対応する)の視平
面座標系での座標をPe(Xe,Ye,Ze)とする
と、PeとPvの関係は、カメラの焦点距離fを用い
て、上記式(1)式(2)のように表すことが出来る
(但し、この場合はZe=fとなる)。
た画像の各々の画素について、視平面座標系における座
標を決めることができる。
を対応づける計算式を求める。
平面座標系が空間的に以下のような関係にあるとする。 ・視平面座標系原点Oeからワールド座標系原点Owへ
のベクトルを(tx,ty,tz)とする。
視平面座標系を(tx,ty,tz)だけ平行移動する
ことによって無くなる。尚、ワールド座標系におけるカ
メラ位置が既知であれば、該位置の座標の符号を反転す
れば(tx,ty,tz)は容易に求まる。 ・視平面座標系のそれぞれの軸の向きをワールド座標系
に合わせるための回転行列を上記式(1)とする。
102Cのうち、向きおよびカメラの光軸周りの回転を
表すパラメータ(α、β、γ)によって、X,Y,Zの
各軸まわりの回転行列を求め、それらを合成することに
よって容易に求めることができる。さて、ある点をワー
ルド座標系でPw(Xw,Yw,Zw)で表し、また、
視平面座標系Pe(Xe,Ye,Ze)で表すとする
と、Pe(Xe,Ye,Ze)、Pw(Xw,Yw,Z
w)、(tx,ty,tz)、前記回転行列の間には式
(8)の関係が成り立つ。
ることにより、視平面上での画素Pv(u,v)を、ワ
ールド座標系での座標Pw(Xw,Yw,Zw)に変換
することが出来る。
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に図30におい
て説明した。
成する面としてX−Z平面を用いた場合の例を示してい
る。
像がマッピング手段104Cによって空間モデル103C
にマッピングされた結果を、任意の仮想視点に設置した
カメラから撮影した画像に合成する。その方法の概要
は、上記視点変換手段105Aに関して説明した。
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デル103Cの点に、色がマッピングされていない場合
も考えられる。その場合は、 ・物体が存在しない部分であると識別可能な色、例えば
黒に置き換える ・当該点の色を、色がマッピングされている周囲の点か
ら、補間、補外などによって求めるなどすればよい。
メラのパラメータを、各々のカメラで独立して修正す
る。
6Cによってカメラパラメータを修正するための操作部
の構成例を示した概念図である。
ン901C ・カメラの光軸方向に前後の移動をするズームボタン9
04C(前向き、後向き)・カメラの光軸方向に垂直に
カメラを平行移動する平行移動ボタン902C(上下左
右)・カメラの向きの変更と、カメラの光軸周りの回転
を修正するジョイスティック903Cから構成され、 (a)ズームボタン904C、平行移動ボタン902Cの
操作、カメラの3次元空間位置を、 (b)ジョイスティック903Cによって、カメラの回
転角度を、 それぞれ変更することができ、上記(a)、(b)の操
作によって、それぞれ当該カメラパラメータの以下の情
報が修正される。
置のX、Y、Z座標 (b)カメラの向きのうちY−Z平面に対してなす角度
α カメラの向きのうちX−Z平面に対してなす角度β カメラの光軸の周りの回転角度γ 修正された結果は、即座に式(8)に反映する。すなわ
ち、式(8)において、式0に示す回転行列が、新たな
カメラ角度を用いて再度計算されるとともに(tx,t
y,tz)を、新たなカメラ位置の座標で置き換える。
さすれば、変更後の式(8)を用いることによって修正
操作の結果としての画像が合成され、操作者は、自身の
修正の操作が正しいかどうかを一目で確認することが可
能である。
作について、操作としては、 (1)ジョイスティック903Cの軸を上下左右に動か
す、いわゆるカメラの光軸の向きの調整に相当する操作 (2)ジョイスティック903Cの軸自身を回転させ
る、いわゆるカメラの光軸周りの回転の調整に相当する
操作 の2通りは少なくとも必要不可欠である。
のうち、(1)については、ジョイスティック903C
の軸とカメラの光軸があたかも一致しているように、操
作内容とその結果の画面が表示できれば、操作者はカメ
ラの向きを直感的に把握し易い。
の操作によって傾けられた軸の向きと同じようにカメラ
の光軸を設定するのではなく、ジョイスティック903
Cの軸を動かした向きとは反対の方向に同じだけカメラ
の向きを動かし、その状態での向きを変更させたカメラ
の向きとしてカメラパラメータテーブル102Cに書き
込めばよい。
を修正しているかのように行うためには、実際にカメラ
が置いてある場所でカメラの向いている方向の画像を見
ながら行うのが望ましい。そのために、本修正処理を行
う際には、表示のために設置する仮想視点は、修正しよ
うとするカメラの修正前の位置および向きと一致させる
ことが望ましい。そのようにすれば、修正によってカメ
ラの向きや位置が変わっていく様子が一目で把握でき、
また修正が完了すれば、完了前の仮想視点位置に戻せば
よい。
連する技術の構成例を示したブロック図である。
に、カメラ入力画像と合成画像との間の画素の対応づけ
関係を保持するマッピングテーブル108Cを備えてい
る。
表形式で示した概念図である。テーブルは、表示手段1
07Cにて表示する画面の画素数分のセルから構成され
ている。すなわち、 ・表示画面の横画素数がテーブルの列数 ・表示画面の縦画素数がテーブルの行数 になるように、テーブルが構成される。そして、それぞ
れのセルは、 ・カメラ番号 ・前記カメラで撮影された画像の画素座標 をデータとして持つ。例えば図50の左上のセルは表示
画面での左上、すなわち(0、0)の部分を示してお
り、マッピング手段104Cは、前記セルに格納されて
いるデータ内容(1、10、10)から、「1番カメラ
で撮影された画像の画素(10、10)のデータを、表
示画面(0、0)に表示する」という処理を行う。
作成するためには、カメラ入力画像と合成画像との間の
画素の対応づけを計算する必要があるが、この計算は、
マッピング手段104Cおよび視点変換手段105Cによ
って容易に計算できる。より具体的には、全てのカメラ
について以下の1〜2の処理を行えば良い。 1.カメラを一つ決め、そのカメラ番号をCnとする。 2.該カメラ画像を構成する全ての画素に対して以下の
2.1〜2.3の処理を実施する。
画素(座標を座標1とする)を空間モデル103Cにマ
ッピングする。
2.1でマッピングされた画素を仮想視点から見たとき
の視平面での座標(座標2とする)を求める。
標2に対応するセルに、(Cn、座標1)を組にしたデ
ータを書き込む。但し、それぞれのカメラ画像の表示領
域が決められていれば、座標2がCnの表示領域である
場合にのみ、データを書き込むようにする。
いる場合は、表示手段107Cは、マッピング手段10
4Cおよび視点変換手段105Cでの処理結果を用いて、
合成画像を表示するのではなく、該テーブルを用いて、
カメラ画像を表示画像に直接置き換えるようにする。こ
れにより複数カメラ画像の合成処理の高速化が可能とな
る。
るそれぞれの手段の実施例を説明した。最後に、本発明
による画像生成装置における修正処理の流れを説明す
る。
流れを示すフローチャート、図52及び図53は、カメ
ラパラメータの修正処理の説明の補助に使用する概念図
で、図52(a),(b)は、カメラパラメータ修正時
の表示画面を、図53(a),(b)は、カメラパラメ
ータ修正時以外(すなわち通常時)の表示画面を示す。
などで修正対象となるカメラを選択する。その際には画
面上には、図53(a)のごとく、合成画像がずれてい
る様子が表示されている。
メラの位置・向きにあわせて変更し、画像を合成する。
仮想視点が変更されると、画面は図52(a)のごと
く、選択されたカメラの視点位置からの画像が表示さ
れ、該視点位置からのカメラのずれの様子が把握できる
ようになる。
行移動ボタン902C、ジョイスティック903Cを用い
て、カメラの3次元空間位置とカメラの向きを修正す
る。該修正処理中は、仮想視点は固定したままにする。
修正がうまくできれば、画面は、図52(b)のごと
く、ずれのない様子が表示される。
ると、修正後のカメラパラメータをカメラパラメータテ
ーブル102Cに書き込む。
ラがあれば、続いて前記カメラを選択し、上記処理12
01〜1204を繰り返す。無ければ次の処理1206
に進む。
仮想視点を、該カメラ修正処理前の仮想視点に戻し、画
像を合成する。その合成の結果、画面は、図52(b)
のごとく、ずれのない画像が表示されており、その確認
でもってカメラパラメータ修正処理を終了する。
とく、各々の車載カメラからの画像を接合する部分にお
いては、該接合部分に、見た目に違和感を与えない程度
のマーカ(例えば線)などを印しておくと、どのカメラ
の画像がどこに表示されているかが分かり易くなる。
台数のカメラからの画像を用いて任意の仮想視点からの
画像を合成する。車両走行中の振動などにより、カメラ
の位置、向きがずれた場合、従来では、前記ずれを修正
することが困難であったが、本発明では、視点を修正す
るカメラパラメータ修正手段によって、あたかもバック
ミラーを調整するかの如く、運転者は、自身で表示画像
を都度確認しながら、ずれの生じたカメラの画像のみに
対して、視点の位置の移動、向きの変更などによって最
適の画像を得る。
れが生じた場合でも、その調整のために多大な費用と手
間を要することなく、容易にずれの修正を行うことが可
能となる。
中は、視点変換手段によって、仮想視点を、修正しよう
とする車載カメラの位置に切り替えて画像を合成するた
め、車載カメラの向き・位置修正を、バックミラーを修
正するかのごとく行うことが可能である。
調整するのではなく、仮想に設けた視点の向き、位置な
どのカメラパラメータを修正するので、カメラの向きを
変更する機構が必要でなくなり、装置のコストを低価格
に押さえることが可能となる。
ロック図であり、図42と同じ手段には同じ番号を付し
て説明を省略する。新しい点は、カメラの特性を示すカ
メラパラメータを修正する際にガイドとなるガイドデー
タを格納するガイドデータ記憶手段110Cを有する点
である。このガイドデータは画像合成手段109Cによ
って、入力画像と重畳され。表示手段107Cによって
表示される。このガイドデータは任意の生成方法で生成
できるが、たとえば次に説明するような方法で生成し、
利用する。
所定場所に点光源を発生させる特徴発生手段111C
と、その特徴を抽出できる特徴抽出手段112Cをさら
に備え、その特徴抽出結果を上記ガイドデータとして、
記憶手段110Cに格納できるようになっている。
のであり、車両の前方にいくつかのランプ113Cを取
り付けている(a)。このランプ113Cが特徴発生手段1
11Cに対応する。さらに、車両の前側に取り付けられ
たカメラ1,2(f)からその車体の前部を撮影した画像
を示す(b,c)。特徴抽出手段112Cはその画像から、光
っている特徴を画像処理して抽出する(d,e)。
て、車体の一部の線分を取り上げた例を示す。つまり、
車体の右後ろの隅部の線分を画像処理して取り出してい
る。
いつもそのカメラに対して位置関係が不変である。そこ
で、カメラの方向等が振動によって変化した場合、この
不変の特徴を利用して、カメラのパラメータを修正でき
るものである。その具体的やり方を次に説明する。
るべき画像を示す。白丸はカメラがずれた場合の撮影し
た点光源を示す。そこで、(a)のように、ずれた状態の
画像が得られる。そこで、上述したようにしてジョイス
ティック903Cを利用してパラメータを修正して一致
させる(b,c)。これによって、簡単にキャリブレーショ
ンを行うことができる。
してキャリブレーションを実行した例を示している。
射する等、他の方法でももちろん発生できる。
像生成装置の構成例を示したブロック図である。
て、車両周囲の状況を把握するために取付けられた複数
台のカメラ101D、カメラ101Dの特性を示すカメラ
パラメータを格納しておくカメラパラメータテーブル1
02D、車両の周囲の状況をモデル化した空間モデル1
03Dにカメラ101Dより入力された画像をマッピング
するマッピング手段104D、少なくとも位置、向きを
含む視点パラメータを格納する視点パラメータテーブル
108D、所望の仮想視点から見た一枚の画像を、マッ
ピング手段104Dにて作成されたデータから合成する
視点変換手段105D、前記仮想視点のパラメータを修
正する視点パラメータ修正手段106D、視点変換手段
105Dにて変換された画像を接合して表示する表示手
段107Dを備えた構成を有する。
いての詳細を説明する。
ど、監視すべき空間の画像を撮り込むテレビカメラであ
る。このカメラは図43に示したように車両に取り付け
られる。
メラパラメータを格納するテーブルである。カメラパラ
メータについては、上述したとおりである。
2Dの詳細な説明の準備として、車両を基準とした3次
元空間座標系を定義する。それは図44で説明した通り
である。
されているデータは、図45のものと同じである。
で詳細を説明)によって、車載カメラから撮影した画像
を所望の仮想視点から見た画像に変換することが可能で
ある。仮想視点から見た画像とは、具体的には所望の場
所に好きな向きに仮にカメラを置いた場合に見えるはず
の画像のことである。従って仮想視点の視点パラメータ
は、前述のカメラパラメータと同じものを用いて表すこ
とが可能である。
Dに格納されているデータを表形式で示したものであ
る。図61では、視点パラメータはそれぞれ3つずつ格
納されているが、3つのそれぞれが、それぞれ3台の車
載カメラと一対一に対応づけられている。
想視点1から見た画像へと視点変換され、カメラ2で撮
影された画像は、仮想視点2から見た画像へと視点変換
される。
定すれば、もしカメラの位置ずれなどによって、表示画
面上で他のカメラの画像と該カメラからの画像との接合
部分がずれた場合に、ずれたカメラ画像を見ている仮想
視点のパラメータのみを変更することによって、直感的
にずれを修正することが可能となる。修正方法の詳細は
後の視点パラメータ修正手段の説明において説明する。
列目から9列目までの項目が視点パラメータの具体例を
示しており、テーブルの左側の列から順に次の通りであ
る。
仮想視点1とは、座標(0、0、z2)の位置にあり、
向きはY−Z平面に対して0度、X−Z平面に対して−
90度の角度をなし、視線の中心軸周りの回転はなく、
焦点距離はf2、レンズ歪み係数κ1、κ2はともに0
である、ということが記されている。
ータに基づいて、車載カメラからの入力画像を構成する
各々の画素を空間モデル103Dにマッピングする。す
なわち、車載カメラから撮影された各々の画像を空間モ
デル103Dに透視投影する。
グ手段104Dにおいて、カメラからの画像を3次元空
間座標系にマッピングする立体モデルを指し、例えば、
平面もしくは曲面もしくは平面および曲面からなるモデ
ルが使用される。本実施例では、説明を容易にするため
に、最も単純な空間モデル103Dの一例として路面と
しての平面モデルを用い、車載カメラからの画像を、該
平面モデルにマッピングする方法を説明する。
高さ成分を持つ物体の歪みが大きくなるなどの問題が生
じるため、平面をいくつか組み合わせた空間モデル、平
面と曲面を組み合わせた空間モデルなどを用いるとよ
い。さらには、車両の周囲の障害物の正確な立体モデル
を実時間で計測することが可能であれば、該立体モデル
を用いると、さらに高精度な合成画像が得られる。
ッピング処理の説明をする前に、まず視平面座標をワー
ルド座標へ変換する方法について説明する必要がある
が、それはすでに、図47に関して説明したのと同様で
ある。
する各々の画素の位置は、一般的に画像面を含む平面上
の座標として表されるが、その詳細は既に′233の図
7において説明した。
像がマッピング手段104Dによって空間モデル103D
にマッピングされた結果を、任意の仮想視点に設置した
カメラから撮影した画像に合成する。その方法の概要
は、視点変換手段105Aに関して説明した。
て、前記任意視点にカメラを置いて見たときの画像を合
成する際に、前記合成画像のある画素に対応する空間モ
デル103Dの点に、色がマッピングされていない場合
も考えられる。その場合については、すでに説明した。
て車載カメラからの入力画像を構成する各々の画素を空
間モデル103Dとしての平面にマッピングし、該平面
にマッピングされた結果を、仮想視点に設置したカメラ
から撮影した画像に合成する様子を示した概念図であ
る。
ぞれのカメラ毎に設けられている仮想視点のパラメータ
を、それぞれ独立して修正できる。
Dによって仮想視点パラメータを修正するための操作部
の構成例を示したものである。本実施例では、 ・修正の対象となる仮想視点を選択する、視点選択ボタ
ン1001 ・仮想視点からの視線の中心軸上を前後に移動する、ズ
ームボタン1004(前向き、後向き) ・仮想視点からの視線方向に垂直に視点位置を平行移動
する平行移動ボタン1002(画像面に対して上下左右
の動き) ・仮想視点からの視線方向の変更と、仮想視点からの視
線方向周りの回転を修正するジョイスティック1003
Dから構成され、 (a)ズームボタン1004D、平行移動ボタン100
2Dの操作によって、仮想視点の3次元空間位置を、 (b)ジョイスティック1003Dによって、仮想視点
からの視線方向を、 それぞれ変更することができ、上記(a)、(b)の操
作によって、それぞれ当該仮想視点パラメータの以下の
情報が修正され、視点パラメータテーブル108に上書
きされる。 (a)3次元空間座標系における仮想視点位置のX、
Y、Z座標 (b)仮想視点からの視線方向のうちY−Z平面に対し
てなす角度α 仮想視点からの視線方向のうちX−Z平面に対してなす
角度β 仮想視点からの視線の中心軸の周りの回転角度γ 同時に、修正された結果は、即座に式(8)に反映す
る。すなわち、式(8)において、式0に示す回転行列
が、新たな視線方向を用いて再度計算されるとともに
(tx,ty,tz)を、新たな仮想視点位置の座標で
置き換える。
によって修正操作の結果としての画像が合成され、操作
者は該合成画像を見ることにより、自身の修正の操作が
正しいかどうかを一目で確認することが可能である。
作のうち、仮想視点の向き・位置・回転の操作を変更す
る操作は、操作の内容と操作結果画像の振る舞いが一致
している方が、操作者にとって直感的に分かりやすい。
そのためには、パラメータ修正の操作のうちの次の操
作、すなわち、 (1)ジョイスティック1003Dの軸を上下左右に動
かす、いわゆるカメラの光軸の向きの調整に相当する操
作 (2)ジョイスティック1003Dの軸自身を回転させ
る、いわゆるカメラの光軸周りの回転の調整に相当する
操作 (3)平行移動ボタン1002Dの操作によって、仮想
視点からの視線方向に垂直に視点位置を平行移動する操
作の3通りの操作は、本発明の請求項54に記載のごと
く、仮想視点の向き・位置・回転の操作を変更する操作
方向と、実際の視点パラメータの変更方向の関係を、互
いに逆方向とする。
3Dを例に挙げると、ジョイスティック1003Dの操作
によって傾けられた軸の向きと同じように視線の中心軸
を設定するのではなく、ジョイスティック1003Dの
軸を動かした向きとは反対の方向に同じだけ視線方向を
動かし、動かした後の状態を変更された視線方向として
視線パラメータテーブル102Dに書き込めばよい。例
えば、ジョイスティック1003Dを右に10度傾けた
とすると、その時の視点パラメータ値は、視点方向が現
在の視線に対して左に10度傾いた値とする。同様に、
ジョイスティック1003Dを時計回りに5度回転させ
たとすると、その時の視点パラメータ値は、視線の中心
軸周りの回転角度を、反時計回りに5度回転させた値と
する。平行移動ボタン1004Dの操作についても同様
である。
る技術の構成例を示したブロック図である。
に、カメラ入力画像と合成画像との間の画素の対応づけ
関係を保持するマッピングテーブル109Dを備えてい
る。
で示した概念図は、図50と同じ内容であるので詳細は
省略する。テーブルは、表示手段107Dにて表示する
画面の画素数分のセルから構成されている。
ータ修正手段によって、視点パラメータが修正された
ら、カメラ入力画像と合成画像との間の画素の対応づけ
関係のうち、該修正によって変更の生じる部分を、上記
手順に従って再度計算し書き換えればよい。
いる場合は、表示手段107Dは、マッピング手段10
4Dおよび視点変換手段105Dでの処理結果を用いて、
合成画像を表示するのではなく、該テーブルを用いて、
カメラ画像を表示画像に直接置き換えるようにする。こ
れにより複数カメラ画像の合成処理の高速化が可能とな
る。
って、仮想視点の位置、向きなどが変更された場合の、
他のマッピングテーブルの高速な修正方法を示す。
連する技術の構成例を示したブロック図、(b)は視点
パラメータ修正前の車載カメラ合成画像例を示す概念
図、(c)は視点パラメータ修正後の車載カメラ合成画
像例を示す概念図である。
に、視点パラメータ修正手段での処理によって変更され
た視点パラメータを用いて、前記マッピングテーブルを
再計算するマッピングテーブル修正手段110D、マッ
ピングテーブル修正手段110Dの処理途中のデータを
一時的に格納するバッファ111Dを備えた構成とな
る。
により、視点パラメータの修正結果を式(8)に反映さ
せて、この式(8)の複雑な計算をすることなく、上記
マッピングテーブルの内容を変更することが可能であ
る。以下で該マッピングテーブルの変更方法を手順を追
って説明する。
グテーブルの変更方法の説明の補助に使用する概念図で
あり、灰色で示されている平行四辺形は仮想視点修正前
の画像面、白色で示されている平行四辺形は仮想視点修
正後の画像面を表している。また、仮想視点パラメータ
を修正するための操作部の構成が図63のようであると
する。
を一時的に格納するバッファ111Dを予め設けてお
く。
て、平行移動、方向、回転、ズームのいずれかの視点パ
ラメータ修正情報を得、この情報内容に応じて以下の4
つのいずれかの処理により、仮想視点修正前の表示座標
(u,v)と修正後の表示座標(u′,v′)の対応関
係のデータ(以下、テーブル変換データ)を計算し、バ
ッファ111Dに書き込む。
ボタンによって移動前と移動後の画素単位での移動距離
(du,dv)を獲得し、式(10)によって、変更前
の座標P1と変更後の座標P1′の関係を求め、上記関
係をバッファ111Dに書き込む。
作 仮想視点からの視線方向の場合、図66(b)に示すよ
うに、変更前と変更後の角度の変位分(θ,φ)を獲得
し、式(11)および式(12)によって、変更前の座
標P2と変更後の座標P2′の関係を求め、上記関係を
バッファ111Dに書き込む。
66(c)に示すように、変更前と変更後の回転角度ρ
を獲得し、式(13)によって、変更前の座標P3と変
更後の座標P3′の関係を求め、上記関係をバッファ1
11Dに書き込む。
変更前に対する変更後の倍率kを獲得し、式(14)に
よって、変更前の座標P4と変更後の座標P4′の関係
を求め、上記関係をバッファ111Dに書き込む。
ピングテーブルを変更する。上記処理2.によって、マ
ッピングテーブルの各セルの座標1の変更内容が、例え
ば以下のようなテーブル変換データとして、バッファ1
11Dに書き込まれている。
P′) 該データを参照し、マッピングテーブルのすべてのセル
について、下記の(a)(b)の条件を満たせば、該セ
ルの修正前の座標1:Pを、前記テーブル変換データの
修正後の座標P′に変更する。 (a)セルのカメラ番号が修正対象となった仮想視点に
対応する車載カメラ番号と一致する。 (b)セルの修正前の座標1:Pが、前記テーブル変換
データの左側の項の座標と一致する。
視点に対応する車載カメラ番号と一致するが、座標1の
修正の行われなかったセルは、修正された仮想視点から
見たときの視野範囲外になっていると考えられるため、
表示手段における表示エリア外の座標値を書き込む。ま
たその場合は、表示手段では、表示できない座標値が入
力されたら視野外を示す色として、例えば黒を表示する
などとすればよい。
るそれぞれの手段の実施例を説明した。最後に、本発明
による画像生成装置における修正処理の流れを図を用い
て説明する。
視点パラメータの修正処理の流れを示すフローチャー
ト、図68(a)〜(c)は、視点パラメータの修正処
理の説明の補助に使用する概念図である。
01Dなどで修正対象となる仮想視点を選択する。その
際には画面上には、図68(a)のごとく、合成画像が
ずれている様子が表示されている。
に記載のごとく、修正中の仮想視点を仮の仮想視点(例
えば修正前の視点)に置き換え固定する。
4D、平行移動ボタン1002D、ジョイスティック10
03Dを用いて、仮想視点の3次元空間位置と、視線の
向きを修正する。修正処理中は、上記2の処理によって
視点が固定されているため、あたかも視点部分においた
カメラを手で調整しているかのごとく、視点修正の作業
を行うことができる。修正がうまくできれば、例えば図
68(b)の画面を経て、図68(c)のごとく、ずれ
のない様子が表示される。
が終了すると、修正後の視点パラメータを視点パラメー
タテーブル108に書き込む。
るカメラがあれば、続いて前記カメラを選択し、上記処
理1501〜1504を繰り返す。無ければ次の処理1
506に進む。
視点に固定する状態を解除する。その合成結果、画面
は、図68(c)のごとく、ずれのない場合が表示され
ており、その確認でもって視点パラメータ修正処理を終
了する。
たごとく、各々の車載カメラからの画像を接合する部分
においては、本発明(請求項56の一例)のように、該
接合部分に、見た目に違和感を与えない程度のマーカ
(例えば点線)などを印しておくと、どのカメラの画像
がどこに表示されているかが分かり易くなる。
カメラからの画像を用いて任意の仮想視点からの画像を
合成する。車両走行中の振動などにより、カメラの位
置、向きがずれた場合、従来では、カメラそのものの微
調整によってずれを元通りにするという方法をとってい
たため、前記ずれた画像を他の画像に合せ込む作業が困
難であった。しかし本発明では、仮想視点という概念を
導入し、該仮想視点から見た画像を見ながら、視点パラ
メータ修正手段によって、ずれの生じた画像のみを、あ
たかも仮想視点においたカメラを調整するかのごとく、
修正することができる。その際、視点の位置の移動、向
きの変更後の状態を、都度画像としてフィードバックす
るため、修正作業者は、表示画像を都度確認しながら最
適の画像を得ることができるため、従来に比べて、画像
のずれの合せ込み作業が格段に容易になるし、微少なず
れであれば、大規模な装置を用いてのカメラパラメータ
の再調整も必要ではなくなる。
調整するのではなく、仮想に設けた視点の向き、位置な
どのパラメータを修正するので、カメラの向きを変更す
る機構が必要でなくなり、装置のコストを低価格に押さ
えることが可能となる。
視、店舗内監視等の分野に応用でき、それぞれのカメラ
から撮影された画像を用いて、あたかも仮想視点から実
際見ているような感覚を持つ合成画像を簡単に作り出す
ことが出来る。
像上容易に修正できるという長所を有する。 [図面の簡単な説明]
例を示したブロック図
わせた画像生成装置の構成例を示したブロック図
を示したブロック図
を示したブロック図
を示したブロック図
ロック図
U−V座標系の点と、3次元空間座標系の点との対応づ
けの関係を表した概念図
るデータを表形式で示した図
図
ラパラメータテーブル103 の例を表形式で示した図
5 の記述例を表の形式で示した図
らみた概念図
面を撮影した画像を表す概念図
面を撮影した画像を表す概念図
係を上部から見た概念図
含む路面を撮影した画像を表す概念図
含む路面を撮影した画像を表す概念図
撮影した画像を用い、本発明による視点変換手段106
によって仮想カメラから見た画像を合成した様子を表す
概念図
両のほぼ中心の上方にカメラを下向きに設置した場合を
示した概念図 (B)仮想カメラの設置場所の例として、車両のほぼ前
方斜め上方にカメラを車の方へ向けて設置した場合を示
した概念図 (C)上記(a)の場合の合成画像の例を示す概念図
ン光照射装置を車体側面上部に取付けた様子を示す概念
図 (b)パターン光照射装置を車体上部に数箇所取り付け
て、路面にパターン光を照射した状態を車両上部から見
た様子を示す概念図 (c)路面に照射された長方形のパターン光をカメラか
ら撮影した様子を示す概念図
によってカメラパラメータテーブル103 の更新処理を行
う手順を示すフローチャート
を示すフローチャート
る概念図
指示を出す処理の手順を示すフローチャート
れを示すフローチャート
基本構成例を示したブロック図 (b)本発明(請求項34)の画像生成装置の構成例を示
したブロック図
た概念図
たU−V座標系の点と、3次元空間座標系の点との対応
づけの関係を表した概念図
処理の手順を示すフローチャート
離に基づいて、3次元空間内についたて面を立てる方法
を示す概念図
れを示すフローチャート
置の構成例を示したブロック図 (b)本発明(請求項38)の車両周囲監視装置の構成例
を示したブロック図 (c)本発明(請求項41)の車両周囲監視装置の構成例
を示したブロック図
示した概念図 (b)本発明による空間モデルを車両の上方から下向き
に透視投影した概念図
段103Bで特徴点を抽出する処理の例を示す図
ト
おいて、車両の動きにともなって特徴点の位置計算を行
う処理の手順の示すフローチャート
いる様子を示した概念図
ーチャート
の流れを示すフローチャート
構成例を示したブロック図
概念図 (b)それぞれの車載カメラ画像のモニタへの表示領域
を示した概念図
概念図
れているデータを表形式で示した図
ータを表形式で示した図
たU−V座標系の点と、3次元空間座標系の点との対応
づけの関係を表した概念図
カメラパラメータを修正するための操作部の構成例を示
した概念図
一構成例を示したブロック図
た概念図
ローチャート
示画面例を示す概念図
(すなわち通常時)の表示画面を示す概念図
基本構成例を示したブロック図
基本構成例を示したブロック図
を示す概念図
場合を示す概念図
リブレーションを行う様子を示す概念図
ブレーションを行う様子を示す概念図
例を示したブロック図
ているデータを表形式で示した図
に変換する様子を示した概念図
点パラメータを修正するための操作部の構成例を示した
概念図
成例を示したブロック図
の一構成例を示したブロック図 (b)視点パラメータ修正前の車載カメラ合成画像例を
示す概念図 (c)視点パラメータ修正後の車載カメラ合成画像例を
示す概念図
の変更方法を示す概念図
ーチャート
示す概念図
ク図
ロック図
Claims (57)
- 【請求項1】 一台もしくは複数台のカメラと、前記カ
メラからの入力画像を、3次元空間の予め決められた空
間モデルにマッピングする空間再構成手段と、前記空間
再構成手段によってマッピングされた空間データを参照
して、前記3次元空間における任意の仮想視点から見た
画像を作成する視点変換手段と、前記視点変換手段にて
変換された画像を表示する表示手段とを備えたことを特
徴とする画像生成装置。 - 【請求項2】前記カメラは車両に取り付けられ、前記空
間再構成手段は前記カメラからの入力画像を、前記車両
を基準とした座標系に作成された空間モデルにマッピン
グすることを特徴とする請求項1記載の画像生成装置。 - 【請求項3】 前記カメラの特性を示すカメラパラメー
タを格納するカメラパラメータテーブルとを備え、前記
空間再構成手段は前記カメラパラメータに基づいて、マ
ッピングを行うことを特徴とする請求項1記載の画像生
成装置。 - 【請求項4】 前記空間モデルは、前記3次元空間にお
ける所定の平面であることを特徴とする請求項1記載の
画像生成装置。 - 【請求項5】 前記カメラは車両に取り付けられてお
り、前記所定の平面はその車両の下の路面であることを
特徴とする請求項4記載の画像生成装置。 - 【請求項6】 前記視点変換手段は、前記空間モデルの
所定の点Pを、前記仮想視点からの画素として構成する
際に、前記点Pが、唯一のカメラで撮影した画像に対応
づけられている場合、前記画素の色を、そのカメラから
の画像の画素の色を用いて決めることを特徴とする請求
項1記載の画像生成装置。 - 【請求項7】 前記視点変換手段は、前記空間モデルの
所定の点Pを、前記仮想視点からの画素として構成する
際に、前記点Pが、前記複数台のカメラで撮影した画像
と対応づけられている場合、前記画素の色を、それらの
複数台のカメラで撮影した画像の画素の色を用いて決め
ることを特徴とする請求項1記載の画像生成装置。 - 【請求項8】 前記視点変換手段は、前記空間モデルの
所定の点Pを、前記仮想視点からの画素として構成する
際に、前記点Pがいずれのカメラで撮影した画像とも対
応づけられていない場合、前記画素の色を、前記点Pの
周囲の点の色を用いて補間した色を用いて、もしくは物
体が存在しない部分であると識別可能な色を用いて決め
ることを特徴とする請求項1記載の画像生成装置。 - 【請求項9】 前記カメラ特性を示すカメラパラメータ
を、入力もしくは計算によって、得るキャリブレーショ
ン手段を備えたことを特徴とする請求項3に記載の画像
生成装置。 - 【請求項10】 前記計算によってカメラパラメータを
得るために必要な複数個の特徴点を、入手入力もしくは
自動抽出によって獲得する特徴点抽出手段が備えられ、 前記キャリブレーション手段は、前記特徴点抽出手段に
おいて抽出された特徴点を用いて、各種カメラパラメー
タのうち、少なくとも、カメラの取り付け位置、カメラ
の取り付け角度、カメラのレンズ歪み補正値、カメラの
レンズの焦点距離のいずれかを計算することを特徴とす
る請求項9記載の画像生成装置。 - 【請求項11】 前記特徴点抽出手段は、前記3次元空
間における座標値が既知の複数個の特徴点を抽出する機
能を含み、 前記キャリブレーション手段は、前記複数個の特徴点を
用いて、前記カメラパラメータを計算することを特徴と
する請求項10記載の画像生成装置。 - 【請求項12】 前記カメラは車両に取り付けられてお
り、その車両の一部に設けられたマーカが、前記3次元
空間における座標値が既知の複数個の特徴点として用い
られることを特徴とする請求項11記載の画像生成装
置。 - 【請求項13】 前記カメラの視野内に、前記3次元空
間における座標値が既知の複数個の特徴点を生成する特
徴点生成手段を備えたことを特徴とする請求項11に記
載の画像生成装置。 - 【請求項14】 前記特徴点生成手段は、前記カメラの
視野内に、前記特徴点としてのパターン光を照射する機
能を有することを特徴とする請求項13記載の画像生成
装置。 - 【請求項15】 温度を測定する温度センサーと、温度
に応じて変化する前記カメラパラメータの変化量を格納
する温度補正テーブルとを備え、 前記キャリブレーション手段は、前記温度センサーの温
度を逐次監視し、温度変化に応じて、前記温度補正テー
ブルに基づいて前記カメラパラメータを修正する機能を
有することを特徴とする請求項9〜14のいずれかに記
載の画像生成装置。 - 【請求項16】 前記カメラのそれぞれに対して、前記
温度センサーは、前記カメラの近くもしくは付随して取
付けられていることを特徴とする請求項15記載の画像
生成装置。 - 【請求項17】 前記カメラは車両に取付けられている
ことを特徴とする請求項1、3、4、又は6〜11のい
ずれか、又は13〜16のいずれかに記載の画像生成装
置。 - 【請求項18】 前記空間再構成手段にて作成された空
間データは一時的に空間データバッファに格納されてお
り、前記車両の移動方向を検出する移動方向検出手段
と、車両の単位時間における移動距離を検出する移動距
離検出手段と、前記移動方向検出手段によって検出され
た車両の移動方向、および前記移動距離検出手段によっ
て検出された車両の移動距離を用いて、前記空間データ
バッファに格納された空間データを変換する空間データ
変換手段と、を備えたことを特徴とする請求項5,12
又は17に記載の画像生成装置。 - 【請求項19】 前記カメラは車両に取り付けられてお
り、そのカメラのキャリブレーションが必要な状況を検
知し、キャリブレーションが必要である場合に、カメラ
キャリブレーションの指示を行うカメラ補正指示手段
と、前記カメラキャリブレーションを行った日時又は走
行距離を記録する補正履歴記録手段とを備えることを特
徴とする請求項1に記載の画像生成装置。 - 【請求項20】 前記カメラ補正指示手段は、前記補正
履歴記録手段を参照し、前回のキャリブレーションの日
時から一定以上の日時が経過したとき、又は、前回のキ
ャリブレーションから一定以上の距離を走行したとき、
運転者にカメラキャリブレーションを実施するよう指示
する機能を有することを特徴とする請求項19記載の画
像生成装置。 - 【請求項21】 3次元空間に存在するカメラからの入
力画像を、前記3次元空間の予め決められた空間モデル
にマッピングして空間データを作成する空間再構成工程
と、前記空間データを参照して、前記3次元空間におけ
る任意の仮想視点から見た画像を作成する視点変換工程
とを備えたことを特徴とする画像生成方法。 - 【請求項22】前記空間再構成工程は、車両に取り付け
られたカメラからの入力画像を、前記車両を基準とした
座標系に作成された空間モデルにマッピングして空間デ
ータを作成することを特徴とする請求項21記載の画像
生成方法。 - 【請求項23】 前記空間モデルは、前記3次元空間の
一部をなす平面であることを特徴とする請求項21記載
の画像生成方法。 - 【請求項24】 前記カメラの特性を表すカメラパラメ
ータを用いて前記マッピングが行われることを特徴とす
る請求項21記載の画像生成方法。 - 【請求項25】 前記カメラ特性を示すカメラパラメー
タを、入力または計算によって得るキャリブレーション
工程を備えたことを特徴とする請求項24記載の画像生
成方法。 - 【請求項26】 前記キャリブレーション工程は、計算
によってカメラパラメータを得るものであって、そのた
めに、前記カメラパラメータの計算に必要な複数個の特
徴点を、入手による入力もしくは自動抽出によって獲得
する特徴点抽出工程を有することを特徴とする請求項2
5記載の画像生成方法。 - 【請求項27】 前記カメラの視野内に、前記3次元空
間における座標値が既知の複数個の特徴点を生成する特
徴点生成工程を備えたことを特徴とする請求項26記載
の画像生成方法。 - 【請求項28】 前記特徴点生成工程は、前記カメラの
視野内に、前記特徴点としてのパターン光を照射するス
テップを少なくとも含むことを特徴とする請求項27記
載の画像生成方法。 - 【請求項29】 前記カメラは車両に取り付けられてお
り、 前記車両の移動方向を検出する移動方向検出工程と、前
記車両の単位時間における移動距離を検出する移動距離
検出工程と、前記移動方向検出工程によって検出された
車両の移動方向、および前記移動距離検出工程によって
検出された車両の移動距離を用いて、前記空間データを
変換する空間データ変換工程とを包含することを特徴と
する請求項21に記載の画像生成方法。 - 【請求項30】 前記カメラは車両に取り付けられてお
り、 前記カメラのキャリブレーションが必要な状況を検知
し、キャリブレーションが必要である場合に、カメラキ
ャリブレーションの指示を行うカメラ補正指示工程と、
カメラキャリブレーションを行った日時又は走行距離を
記録する補正履歴記録工程とを包含することを特徴とす
る請求項21に記載の画像生成方法。 - 【請求項31】 前記カメラは車両に取り付けられてお
り、前記空間再構成手段は、前記空間モデルを作成する
空間モデル作成手段を有することを特徴とする請求項1
記載の画像生成装置。 - 【請求項32】 前記空間モデルは、1つ以上の平面モ
デル、もしくは1つ以上の曲面モデル、もしくは1つ以
上の平面と1つ以上の曲面との組み合わせた空間モデル
であることを特徴とする請求項1記載の画像生成装置。 - 【請求項33】 前記空間モデル作成手段は、少なくと
も路面としての第1の平面と、前記第1の平面と交わる
少なくとも1つ以上の第2の平面とを空間モデルとして
作成することを特徴とする請求項1に記載の画像生成装
置。 - 【請求項34】 距離を計測する距離センサと、車両周
囲の状況として、少なくとも車両周囲に存在する障害物
までの距離を前記距離センサを用いて計測する障害物検
知手段を備え、 前記空間モデル作成手段において作成される前記第2の
平面は、前記障害物検知手段にて検知された、車両から
障害物までの距離が所定の値より小さい場合に、作成さ
れることを特徴とする請求項33に記載の画像生成装
置。 - 【請求項35】 前記空間モデル作成手段において作成
された前記第2の平面は、前記車両から障害物までの距
離が前記所定の値より大きくなった場合に、前記空間モ
デルから除去されることを特徴とする請求項34に記載
の画像生成装置。 - 【請求項36】 前記空間モデル作成手段は、前記車両
の周囲の状況に応じた空間モデルを作成することを特徴
とする請求項31記載の画像生成装置。 - 【請求項37】 距離を計測する距離センサと、前記車
両の周囲の状況として、少なくとも車両周囲に存在する
障害物までの距離を前記距離センサを用いて計測する障
害物検知手段とを備えたことを特徴とする請求項36記
載の画像生成装置。 - 【請求項38】 前記車両状況は、前記車両の周囲の路
面の状態であり、その路面の状態の特徴を検知する路面
特徴検出手段が備えられていることを特徴とする請求項
36記載の画像生成装置。 - 【請求項39】 前記路面の状態の特徴として、駐車ス
ペースを示す白線、若しくは白線の端点、もしくは白線
の交わる角を利用することを特徴とする請求項38記載
の画像生成装置。 - 【請求項40】 前記車両の移動方向を検出する移動方
向検出手段と、前記車両の単位時間における移動距離を
検出する移動距離検出手段をさらに備え、前記移動方向
検出手段および前記移動距離検出手段での処理結果を用
いて求めた前記路面上の特徴の現在位置にもとづいて、
前記空間モデルを逐次修正することを特徴とする請求項
36記載の画像生成装置。 - 【請求項41】 前記表示手段において前記路面特徴検
出手段における処理結果を表示しつつ、前記処理結果を
修正する特徴修正手段を備えたことを特徴とする請求項
36または38記載の画像生成装置。 - 【請求項42】 一台もしくは複数台のカメラと、前記
カメラの特性を示すカメラパラメータを格納するカメラ
パラメータテーブルと、前記カメラからの入力画像を前
記カメラパラメータを用いて3次元空間の所定の空間モ
デルにマッピングするマッピング手段と、少なくとも位
置と向きに関するデータを含む仮想視点パラメータを複
数視点分格納する視点パラメータテーブルと、前記マッ
ピング手段によってマッピングされた空間データを参照
して、前記所定の3次元空間における前記複数の仮想視
点から見た画像をそれぞれ作成する視点変換手段と、前
記カメラのパラメータを修正するカメラパラメータ修正
手段とを備えたことを特徴とする画像生成装置。 - 【請求項43】 前記視点変換手段は、前記カメラパラ
メータ修正手段での処理時と通常動作時とで前記仮想視
点を切り替えることを特徴とする請求項42記載の画像
生成装置。 - 【請求項44】 前記視点変換手段は、前記カメラパラ
メータ修正手段での処理時は、前記仮想視点を、前記カ
メラのいずれかのカメラのパラメータに基づいて決定す
ることを特徴とする請求項43記載の画像生成装置。 - 【請求項45】 前記視点変換手段は、前記カメラパラ
メータ修正手段での処理時は、前記仮想視点を、該修正
を行っているカメラの、修正処理前のカメラパラメータ
に基づいて決定することを特徴とする請求項44記載の
画像生成装置。 - 【請求項46】 前記視点変換手段において、視点の向
きを変更する操作の向きと、前記視点の向きとの関係
を、互いに逆方向とすることを特徴とする請求項42〜
45のいずれかに記載の画像生成装置。 - 【請求項47】 前記表示手段は、各々のカメラからの
画像を表示する際に、各々の画像の接する境界部分で、
境界を示すマークを合成画像に重ね合わせて表示するこ
とを特徴とする請求項42〜46のいずれかに記載の画
像生成装置。 - 【請求項48】 前記カメラパラメータを修正するため
のガイドとなるガイドデータを格納するガイドデータ記
憶手段と、前記カメラからの入力画像と前記ガイドデー
タを重畳して表示する表示手段とを備えたことを特徴と
する請求項42記載の画像生成装置。 - 【請求項49】 前記カメラは車両に取り付けられてい
ることを特徴とする請求項42〜48のいずれかに記載
の画像生成装置。 - 【請求項50】 前記ガイドデータは、前記車両のボデ
ィの特徴を点及び/又は線分で表したものであることを
特徴とする請求項49記載の画像生成装置。 - 【請求項51】 前記カメラが位置づけられた3次元空
間における座標値が既知の複数個の特徴点を、前記カメ
ラの視野内に生成する特徴点生成手段と、前記複数個の
特徴点を抽出する特徴点抽出手段と、前記抽出された複
数個の特徴点を用いて、前記ガイドデータが得られるこ
とを特徴とする請求項49記載の画像生成装置。 - 【請求項52】 一台もしくは複数台のカメラと、前記
カメラから画像を入力する画像入力手段と、前記カメラ
特性を示すカメラパラメータを格納するカメラパラメー
タテーブルと、前記カメラパラメータを用いて、前記入
力画像を構成する各々の画素を、前記車両の周囲の状況
をモデル化した、所定の3次元空間における所定の空間
モデルに、マッピングするマッピング手段と、少なくと
も位置及び向きデータを含む仮想視点パラメータを複数
視点分 格納する視点パラメータテーブルと、前記マッ
ピング手段によってマッピングされた空間データを参照
して、前記所定の3次元空間における、前記視点パラメ
ータテーブルの前記複数個の仮想視点から見た画像をそ
れぞれ作成する視点変換手段と、前記視点パラメータテ
ーブルの内容を修正する視点パラメータ修正手段と、前
記視点変換手段によって変換された画像を表示する表示
手段とを備えたことを特徴とする画像生成装置。 - 【請求項53】 前記複数の仮想視点は、前記カメラに
それぞれ対応していることを特徴とする請求項52記載
の画像生成装置。 - 【請求項54】 前記視点パラメータ修正手段におけ
る、前記仮想視点パラメータの変更操作のうち、少なく
とも向き・位置・回転の操作については、操作方向と実
際の視点パラメータの変更との関係を、互いに逆とする
ことを特徴とする請求項52または53記載の画像生成
装置。 - 【請求項55】 前記視点パラメータ修正手段によって
前記仮想視点パラメータ修正する際は、固定した仮の仮
想視点を設け、当該修正中の仮想視点での修正経過を、
前記仮の仮想視点からの画像として逐次合成表示するこ
とを特徴とする請求項52〜54のいずれかに記載の画
像生成装置。 - 【請求項56】 前記表示手段は、各々のカメラからの
画像を表示する際に、各々の画像の接する境界部分で、
境界を示すマークを合成画像に重ね合わせて表示するこ
とを特徴とする請求項52〜55のいずれかに記載の画
像生成装置。 - 【請求項57】 前記カメラは車両に取り付けられてい
ることを特徴とする請求項52〜56のいずれかに記載
の画像生成装置。
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21726198 | 1998-07-31 | ||
JP28623398 | 1998-10-08 | ||
JP31740798 | 1998-11-09 | ||
JP31739398 | 1998-11-09 | ||
JP10-317407 | 1998-11-16 | ||
JP32470198 | 1998-11-16 | ||
JP10-217261 | 1998-11-16 | ||
JP10-324701 | 1998-11-16 | ||
JP10-286233 | 1998-11-16 | ||
JP10-317393 | 1998-11-16 | ||
PCT/JP1999/004061 WO2000007373A1 (fr) | 1998-07-31 | 1999-07-29 | Procede et appareil d'affichage d'images |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001244548A Division JP2002135765A (ja) | 1998-07-31 | 2001-08-10 | カメラキャリブレーション指示装置及びカメラキャリブレーション装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP3286306B2 true JP3286306B2 (ja) | 2002-05-27 |
Family
ID=27529636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000563072A Expired - Lifetime JP3286306B2 (ja) | 1998-07-31 | 1999-07-29 | 画像生成装置、画像生成方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7307655B1 (ja) |
EP (4) | EP2267656A3 (ja) |
JP (1) | JP3286306B2 (ja) |
WO (1) | WO2000007373A1 (ja) |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004008744A1 (ja) * | 2002-07-12 | 2004-01-22 | Iwane Laboratories, Ltd. | 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置 |
JP2005242606A (ja) * | 2004-02-26 | 2005-09-08 | Olympus Corp | 画像生成装置、画像生成プログラム、及び画像生成方法 |
JP2006119843A (ja) * | 2004-10-20 | 2006-05-11 | Olympus Corp | 画像生成方法およびその装置 |
WO2007111377A1 (ja) | 2006-03-27 | 2007-10-04 | Sanyo Electric Co., Ltd. | 運転支援装置 |
CN100435584C (zh) * | 2004-08-04 | 2008-11-19 | 奥林巴斯株式会社 | 图像生成方法和装置 |
WO2009144994A1 (ja) | 2008-05-29 | 2009-12-03 | 富士通株式会社 | 車両用画像処理装置、車両用画像処理方法 |
US7663476B2 (en) | 2006-05-17 | 2010-02-16 | Alpine Electronics, Inc. | Surrounding image generating apparatus and method of adjusting metering for image pickup device |
JP2010264872A (ja) * | 2009-05-14 | 2010-11-25 | Fujitsu Ten Ltd | 車載照明装置、画像処理装置及び画像表示システム |
WO2010137265A1 (ja) | 2009-05-25 | 2010-12-02 | パナソニック株式会社 | 車両周囲監視装置 |
US7965325B2 (en) | 2007-12-04 | 2011-06-21 | Alpine Electronics, Inc. | Distortion-corrected image generation unit and distortion-corrected image generation method |
CN102198818A (zh) * | 2010-03-25 | 2011-09-28 | 富士通天株式会社 | 车载照明装置、图像处理装置、图像显示系统及照明方法 |
WO2011129275A1 (ja) | 2010-04-12 | 2011-10-20 | 住友重機械工業株式会社 | 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム |
WO2011129274A1 (ja) | 2010-04-12 | 2011-10-20 | 住友重機械工業株式会社 | 画像生成装置及び操作支援システム |
WO2011129276A1 (ja) | 2010-04-12 | 2011-10-20 | 住友重機械工業株式会社 | 画像生成装置及び操作支援システム |
WO2011129277A1 (ja) | 2010-04-12 | 2011-10-20 | 住友重機械工業株式会社 | 画像生成装置及び操作支援システム |
JP2011239349A (ja) * | 2010-05-13 | 2011-11-24 | Fujitsu Ltd | 画像処理装置および画像処理プログラム |
JP2012011849A (ja) * | 2010-06-30 | 2012-01-19 | Fujitsu Ten Ltd | 画像表示システム |
US8259173B2 (en) | 2006-09-26 | 2012-09-04 | Clarion Co., Ltd. | Image generating apparatus and image generating method |
US8267024B2 (en) | 2008-01-24 | 2012-09-18 | Brother Kogyo Kabushiki Kaisha | Sewing machine and computer-readable medium storing control program executable on sewing machine |
US8368687B2 (en) | 2006-09-26 | 2013-02-05 | Clarion Co., Ltd. | Image generating apparatus and image generating method |
KR101302944B1 (ko) * | 2009-11-04 | 2013-09-06 | 주식회사 만도 | 차량 인식 방법 및 장치 |
JP2013197816A (ja) * | 2012-03-19 | 2013-09-30 | Nippon Soken Inc | 車載画像表示装置 |
JP2013205402A (ja) * | 2012-03-29 | 2013-10-07 | Sumitomo (Shi) Construction Machinery Co Ltd | 作業機械用周辺監視装置 |
US8773534B2 (en) | 2009-04-13 | 2014-07-08 | Fujitsu Limited | Image processing apparatus, medium recording image processing program, and image processing method |
WO2014174884A1 (ja) | 2013-04-24 | 2014-10-30 | 住友重機械工業株式会社 | 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム |
US8947533B2 (en) | 2010-01-22 | 2015-02-03 | Fujitsu Ten Limited | Parameter determining device, parameter determining system, parameter determining method, and recording medium |
US9064293B2 (en) | 2010-06-15 | 2015-06-23 | Mitsubishi Electric Corporation | Vehicle surroundings monitoring device |
KR101543159B1 (ko) | 2014-05-02 | 2015-08-10 | 현대자동차주식회사 | 카메라를 이용한 영상 조정 시스템 및 방법 |
JP5783471B2 (ja) * | 2010-12-01 | 2015-09-24 | コニカミノルタ株式会社 | 画像合成装置 |
KR20150116116A (ko) * | 2014-04-04 | 2015-10-15 | 주식회사 와이즈오토모티브 | 차량 주변 이미지 생성 장치 및 방법 |
KR101559739B1 (ko) * | 2015-06-11 | 2015-10-15 | 주식회사 미래엔에스 | 가상 모델과 카메라 영상의 융합시스템 |
US9591280B2 (en) | 2011-07-29 | 2017-03-07 | Fujitsu Limited | Image processing apparatus, image processing method, and computer-readable recording medium |
US9610891B2 (en) | 2009-11-16 | 2017-04-04 | Fujitsu Ten Limited | In-vehicle illuminating apparatus, image processing apparatus, and image displaying system |
CN107472135A (zh) * | 2016-06-07 | 2017-12-15 | 松下知识产权经营株式会社 | 图像生成装置、图像生成方法以及程序 |
US10046700B2 (en) | 2012-05-22 | 2018-08-14 | Mitsubishi Electric Corporation | Image processing device |
CN109937158A (zh) * | 2016-12-27 | 2019-06-25 | 金泰克斯公司 | 具有眼睛跟踪的后视系统 |
US10737624B2 (en) | 2017-03-24 | 2020-08-11 | Toyota Jidosha Kabushiki Kaisha | Viewing device for vehicle |
US10875452B2 (en) | 2016-01-12 | 2020-12-29 | Denso Corporation | Driving assistance device and driving assistance method |
US11394926B2 (en) | 2016-08-12 | 2022-07-19 | Denso Corporation | Periphery monitoring apparatus |
DE112020006319T5 (de) | 2019-12-25 | 2022-11-24 | Panasonic Intellectual Property Management Co., Ltd. | Fahrassistenzvorrichtung, fahrassistenzverfahren und programm |
US12037043B2 (en) | 2021-09-16 | 2024-07-16 | Panasonic Automotive Systems Co., Ltd. | Parking assist method and parking assist device |
Families Citing this family (259)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
JP3655119B2 (ja) * | 1999-03-09 | 2005-06-02 | 株式会社東芝 | 状況情報提供装置及びその方法 |
DE10037130B4 (de) * | 1999-09-13 | 2015-10-29 | Volkswagen Ag | Einpark- und/oder Rangierhilfeeinrichtung für Pkw oder Lkw |
JP3624769B2 (ja) * | 1999-09-30 | 2005-03-02 | 株式会社豊田自動織機 | 車両後方監視装置用画像変換装置 |
US6542840B2 (en) | 2000-01-27 | 2003-04-01 | Matsushita Electric Industrial Co., Ltd. | Calibration system, target apparatus and calibration method |
JP4439668B2 (ja) * | 2000-03-31 | 2010-03-24 | パナソニック株式会社 | 画像合成装置 |
EP1465135A1 (en) | 2000-04-05 | 2004-10-06 | Matsushita Electric Industrial Co., Ltd. | Driving operation assisting method and system |
JP3606816B2 (ja) * | 2000-04-05 | 2005-01-05 | 松下電器産業株式会社 | 運転操作補助装置 |
EP1150252B1 (en) * | 2000-04-28 | 2018-08-15 | Panasonic Intellectual Property Management Co., Ltd. | Synthesis of image from a plurality of camera views |
JP3552212B2 (ja) * | 2000-05-24 | 2004-08-11 | 松下電器産業株式会社 | 描画装置 |
JP2001334869A (ja) * | 2000-05-25 | 2001-12-04 | Matsushita Electric Ind Co Ltd | 運転支援装置 |
JP4537537B2 (ja) * | 2000-05-25 | 2010-09-01 | パナソニック株式会社 | 運転支援装置 |
JP3599639B2 (ja) * | 2000-05-26 | 2004-12-08 | 松下電器産業株式会社 | 画像処理装置 |
JP4433575B2 (ja) * | 2000-06-16 | 2010-03-17 | 株式会社豊田中央研究所 | 車載撮像装置 |
JP3625059B2 (ja) * | 2000-06-30 | 2005-03-02 | 松下電器産業株式会社 | 描画装置 |
US6999602B2 (en) | 2000-06-30 | 2006-02-14 | Matsushita Electric Industrial Co., Ltd. | Image generation for assistance of drivers of vehicles |
JP3830025B2 (ja) * | 2000-06-30 | 2006-10-04 | 松下電器産業株式会社 | 描画装置 |
JP3269056B2 (ja) * | 2000-07-04 | 2002-03-25 | 松下電器産業株式会社 | 監視システム |
JP4156181B2 (ja) * | 2000-07-12 | 2008-09-24 | 日産自動車株式会社 | 駐車支援装置 |
WO2002007443A1 (fr) * | 2000-07-19 | 2002-01-24 | Matsushita Electric Industrial Co., Ltd. | Systeme de controle |
JP3753681B2 (ja) * | 2000-07-19 | 2006-03-08 | 松下電器産業株式会社 | 監視システム |
JP3372944B2 (ja) * | 2000-07-19 | 2003-02-04 | 松下電器産業株式会社 | 監視システム |
JP4505968B2 (ja) * | 2000-09-14 | 2010-07-21 | 日産自動車株式会社 | 駐車時の自車位置検出装置及び自車位置検出方法 |
JP2002117496A (ja) * | 2000-10-12 | 2002-04-19 | Matsushita Electric Ind Co Ltd | 車載後方確認支援装置と車載ナビゲーション装置 |
JP3695319B2 (ja) * | 2000-11-30 | 2005-09-14 | トヨタ自動車株式会社 | 車両周辺モニタ装置 |
JP2002262156A (ja) * | 2000-12-26 | 2002-09-13 | Matsushita Electric Ind Co Ltd | カメラ装置、カメラシステムおよび画像処理方法 |
JP3645196B2 (ja) * | 2001-02-09 | 2005-05-11 | 松下電器産業株式会社 | 画像合成装置 |
JP5083443B2 (ja) * | 2001-03-28 | 2012-11-28 | パナソニック株式会社 | 運転支援装置および方法、ならびに演算装置 |
JP4861574B2 (ja) * | 2001-03-28 | 2012-01-25 | パナソニック株式会社 | 運転支援装置 |
JP3297040B1 (ja) * | 2001-04-24 | 2002-07-02 | 松下電器産業株式会社 | 車載カメラの画像合成表示方法及びその装置 |
JP2002316602A (ja) * | 2001-04-24 | 2002-10-29 | Matsushita Electric Ind Co Ltd | 車載カメラの撮像画像表示方法及びその装置 |
JP4006959B2 (ja) * | 2001-04-28 | 2007-11-14 | 節男 黒木 | 視認カメラ装着車 |
JP4860835B2 (ja) * | 2001-06-11 | 2012-01-25 | クラリオン株式会社 | パノラマ画像表示方法及びパノラマ画像表示装置 |
JP4156214B2 (ja) * | 2001-06-13 | 2008-09-24 | 株式会社デンソー | 車両周辺画像処理装置及び記録媒体 |
JP4512293B2 (ja) | 2001-06-18 | 2010-07-28 | パナソニック株式会社 | 監視システムおよび監視方法 |
JP4071463B2 (ja) * | 2001-07-16 | 2008-04-02 | 株式会社デンソー | 車両周辺画像処理装置 |
US7697027B2 (en) | 2001-07-31 | 2010-04-13 | Donnelly Corporation | Vehicular video system |
JP4786076B2 (ja) * | 2001-08-09 | 2011-10-05 | パナソニック株式会社 | 運転支援表示装置 |
CN1568618A (zh) | 2001-10-10 | 2005-01-19 | 松下电器产业株式会社 | 图像处理装置 |
JP4593070B2 (ja) * | 2001-12-12 | 2010-12-08 | 株式会社エクォス・リサーチ | 車両の画像処理装置 |
JP4021685B2 (ja) | 2002-03-04 | 2007-12-12 | 松下電器産業株式会社 | 画像合成変換装置 |
US9428186B2 (en) * | 2002-04-09 | 2016-08-30 | Intelligent Technologies International, Inc. | Exterior monitoring for vehicles |
AU2003225228A1 (en) | 2002-05-03 | 2003-11-17 | Donnelly Corporation | Object detection system for vehicle |
JP3670647B2 (ja) * | 2003-01-14 | 2005-07-13 | 松下電器産業株式会社 | 画像処理装置 |
JP4256702B2 (ja) * | 2003-03-20 | 2009-04-22 | クラリオン株式会社 | 画像表示方法、画像表示装置及び画像処理装置 |
US7450165B2 (en) * | 2003-05-02 | 2008-11-11 | Grandeye, Ltd. | Multiple-view processing in wide-angle video camera |
US20050031169A1 (en) * | 2003-08-09 | 2005-02-10 | Alan Shulman | Birds eye view virtual imaging for real time composited wide field of view |
FI117217B (fi) * | 2003-10-01 | 2006-07-31 | Nokia Corp | Menetelmä ja järjestelmä käyttöliittymän (User Interface) hallitsemiseksi, vastaava laite ja ohjelmalliset (Software) välineet menetelmän toteuttamiseksi |
JP2005124010A (ja) * | 2003-10-20 | 2005-05-12 | Nissan Motor Co Ltd | 撮像装置 |
JP2005269010A (ja) * | 2004-03-17 | 2005-09-29 | Olympus Corp | 画像生成装置、画像生成プログラム、及び画像生成方法 |
WO2005088970A1 (ja) * | 2004-03-11 | 2005-09-22 | Olympus Corporation | 画像生成装置、画像生成方法、および画像生成プログラム |
JP2005258792A (ja) * | 2004-03-11 | 2005-09-22 | Olympus Corp | 画像生成装置、画像生成方法、および画像生成プログラム |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
WO2005107261A1 (ja) * | 2004-04-27 | 2005-11-10 | Matsushita Electric Industrial Co., Ltd. | 車両周囲表示装置 |
US8063936B2 (en) | 2004-06-01 | 2011-11-22 | L-3 Communications Corporation | Modular immersive surveillance processing system and method |
KR20070043726A (ko) * | 2004-06-01 | 2007-04-25 | 앨-쓰리 커뮤니케이션즈 코포레이션 | 비디오 플래쉬라이트/시각 경보 시스템 및 방법 |
JP2006026790A (ja) * | 2004-07-15 | 2006-02-02 | Fanuc Ltd | 教示モデル生成装置 |
JP2006054662A (ja) * | 2004-08-11 | 2006-02-23 | Mitsubishi Electric Corp | 運転支援装置 |
US7720580B2 (en) | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
EP1850595B1 (en) * | 2005-02-15 | 2016-07-13 | Panasonic Intellectual Property Management Co., Ltd. | Periphery supervising device, and periphery supervising method |
JP4244040B2 (ja) * | 2005-03-10 | 2009-03-25 | 任天堂株式会社 | 入力処理プログラムおよび入力処理装置 |
US7920959B1 (en) * | 2005-05-01 | 2011-04-05 | Christopher Reed Williams | Method and apparatus for estimating the velocity vector of multiple vehicles on non-level and curved roads using a single camera |
JP4601505B2 (ja) * | 2005-07-20 | 2010-12-22 | アルパイン株式会社 | トップビュー画像生成装置及びトップビュー画像表示方法 |
JP4677847B2 (ja) * | 2005-08-01 | 2011-04-27 | 日産自動車株式会社 | 車両用周囲監視装置及び車両周囲監視方法 |
JP2007099261A (ja) * | 2005-09-12 | 2007-04-19 | Aisin Aw Co Ltd | 駐車支援方法及び駐車支援装置 |
JP2007124609A (ja) * | 2005-09-28 | 2007-05-17 | Nissan Motor Co Ltd | 車両周囲映像提供装置 |
JP4810953B2 (ja) * | 2005-10-07 | 2011-11-09 | 日産自動車株式会社 | 車両用死角映像表示装置 |
FR2891934B1 (fr) * | 2005-10-12 | 2008-01-18 | Valeo Electronique Sys Liaison | Dispositif de traitement de donnees video pour un vehicule automobile |
JP4762698B2 (ja) * | 2005-11-30 | 2011-08-31 | アルパイン株式会社 | 車両周辺画像表示装置 |
JP4297111B2 (ja) * | 2005-12-14 | 2009-07-15 | ソニー株式会社 | 撮像装置、画像処理方法及びそのプログラム |
US8238695B1 (en) * | 2005-12-15 | 2012-08-07 | Grandeye, Ltd. | Data reduction techniques for processing wide-angle video |
JP2007174113A (ja) * | 2005-12-20 | 2007-07-05 | Sumitomo Electric Ind Ltd | 障害物検出システム及び障害物検出方法 |
JP2007180803A (ja) * | 2005-12-27 | 2007-07-12 | Aisin Aw Co Ltd | 運転支援方法及び運転支援装置 |
JP4956799B2 (ja) * | 2006-05-09 | 2012-06-20 | 日産自動車株式会社 | 車両周辺画像提供装置及び車両周辺画像提供方法 |
JP4910529B2 (ja) * | 2006-07-14 | 2012-04-04 | 住友電気工業株式会社 | 障害物検出システム及び障害物検出方法 |
GB2452469B (en) * | 2006-07-16 | 2011-05-11 | Jim Henson Company | System and method of producing an animated performance utilizing multiple cameras |
WO2008024639A2 (en) | 2006-08-11 | 2008-02-28 | Donnelly Corporation | Automatic headlamp control system |
US7728879B2 (en) * | 2006-08-21 | 2010-06-01 | Sanyo Electric Co., Ltd. | Image processor and visual field support device |
JP2007102798A (ja) * | 2006-10-11 | 2007-04-19 | Denso Corp | 車両周辺監視システム |
JP4862774B2 (ja) | 2006-12-20 | 2012-01-25 | アイシン・エィ・ダブリュ株式会社 | 運転支援方法及び運転支援装置 |
US7865285B2 (en) * | 2006-12-27 | 2011-01-04 | Caterpillar Inc | Machine control system and method |
WO2008087709A1 (ja) * | 2007-01-16 | 2008-07-24 | Pioneer Corporation | 車両用画像処理装置、車両用撮像装置、車両用画像処理プログラム、車両用画像調整方法 |
US20100007734A1 (en) * | 2007-01-16 | 2010-01-14 | Pioneer Corporation | Vehicular image processing device, and vehicular image processing program |
JP4928956B2 (ja) * | 2007-01-18 | 2012-05-09 | 三洋電機株式会社 | 俯瞰画像提供装置、車両、および俯瞰画像提供方法 |
US8017898B2 (en) | 2007-08-17 | 2011-09-13 | Magna Electronics Inc. | Vehicular imaging system in an automatic headlamp control system |
DE102007049821A1 (de) * | 2007-10-16 | 2009-04-23 | Daimler Ag | Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit |
JP2009101718A (ja) * | 2007-10-19 | 2009-05-14 | Toyota Industries Corp | 映像表示装置及び映像表示方法 |
US7912283B1 (en) * | 2007-10-31 | 2011-03-22 | The United States Of America As Represented By The Secretary Of The Air Force | Image enhancement using object profiling |
JP5053043B2 (ja) * | 2007-11-09 | 2012-10-17 | アルパイン株式会社 | 車両周辺画像生成装置および車両周辺画像の歪み補正方法 |
CA2714492C (en) | 2008-02-08 | 2014-07-15 | Google, Inc. | Panoramic camera with multiple image sensors using timed shutters |
JP4874280B2 (ja) * | 2008-03-19 | 2012-02-15 | 三洋電機株式会社 | 画像処理装置及び方法、運転支援システム、車両 |
JP5222597B2 (ja) * | 2008-03-19 | 2013-06-26 | 三洋電機株式会社 | 画像処理装置及び方法、運転支援システム、車両 |
EP2107503A1 (en) | 2008-03-31 | 2009-10-07 | Harman Becker Automotive Systems GmbH | Method and device for generating a real time environment model for vehicles |
US8675068B2 (en) | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
JP2009294109A (ja) * | 2008-06-05 | 2009-12-17 | Fujitsu Ltd | キャリブレーション装置 |
JP4377439B1 (ja) * | 2008-06-12 | 2009-12-02 | 本田技研工業株式会社 | 車両周辺監視装置 |
FR2936479B1 (fr) * | 2008-09-30 | 2010-10-15 | Dav | Procede de commande et systeme d'aide a la conduite associe |
DE102009050368A1 (de) * | 2008-10-24 | 2010-05-27 | Magna Electronics Europe Gmbh & Co.Kg | Verfahren zum automatischen Kalibrieren einer virtuellen Kamera |
JP5387580B2 (ja) * | 2008-11-05 | 2014-01-15 | 富士通株式会社 | カメラ角度算出装置およびカメラ角度算出方法 |
JP5182042B2 (ja) | 2008-11-28 | 2013-04-10 | 富士通株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
JP5405809B2 (ja) * | 2008-12-04 | 2014-02-05 | アルパイン株式会社 | 車両周辺監視装置およびカメラ位置・姿勢判定方法 |
JP5190712B2 (ja) | 2009-03-24 | 2013-04-24 | アイシン精機株式会社 | 障害物検出装置 |
JP5439890B2 (ja) * | 2009-03-25 | 2014-03-12 | 富士通株式会社 | 画像処理方法、画像処理装置及びプログラム |
JP5195592B2 (ja) * | 2009-03-31 | 2013-05-08 | 富士通株式会社 | 映像処理装置 |
US20100259371A1 (en) * | 2009-04-10 | 2010-10-14 | Jui-Hung Wu | Bird-View Parking Aid Apparatus with Ultrasonic Obstacle Marking and Method of Maneuvering the same |
JP2010258691A (ja) * | 2009-04-23 | 2010-11-11 | Sanyo Electric Co Ltd | 操縦支援装置 |
JP2010274813A (ja) * | 2009-05-29 | 2010-12-09 | Fujitsu Ten Ltd | 画像生成装置及び画像表示システム |
CN102804762A (zh) * | 2009-06-29 | 2012-11-28 | 松下电器产业株式会社 | 车载用影像显示装置 |
JP5500369B2 (ja) * | 2009-08-03 | 2014-05-21 | アイシン精機株式会社 | 車両周辺画像生成装置 |
JP2013504239A (ja) * | 2009-09-04 | 2013-02-04 | ブライトブリック ゲーエムベーハー | 携帯型広角映像記録システム |
US20110063425A1 (en) | 2009-09-15 | 2011-03-17 | Delphi Technologies, Inc. | Vehicle Operator Control Input Assistance |
JP5299231B2 (ja) * | 2009-11-17 | 2013-09-25 | 富士通株式会社 | キャリブレーション装置 |
US8872889B2 (en) | 2010-01-14 | 2014-10-28 | Innovmetric Logiciels Inc. | Synchronization of the orientation of a 3D measurement device and the orientation of an intelligent guidance device |
US10703299B2 (en) | 2010-04-19 | 2020-07-07 | SMR Patents S.à.r.l. | Rear view mirror simulation |
US10800329B2 (en) | 2010-04-19 | 2020-10-13 | SMR Patents S.à.r.l. | Rear view mirror simulation |
JP2011257940A (ja) * | 2010-06-08 | 2011-12-22 | Panasonic Corp | 逆変換テーブル生成方法、逆変換テーブル生成プログラム、画像変換装置、画像変換方法、及び画像変換プログラム |
JP5444139B2 (ja) | 2010-06-29 | 2014-03-19 | クラリオン株式会社 | 画像のキャリブレーション方法および装置 |
JP5549436B2 (ja) * | 2010-07-06 | 2014-07-16 | 日産自動車株式会社 | 車両用監視装置 |
JP2012065225A (ja) * | 2010-09-17 | 2012-03-29 | Panasonic Corp | 車載用画像処理装置、周辺監視装置、および、車両 |
CN102469291A (zh) * | 2010-11-05 | 2012-05-23 | 屈世虎 | 视频通话系统和方法 |
WO2012075250A1 (en) * | 2010-12-01 | 2012-06-07 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
EP2511137B1 (en) * | 2011-04-14 | 2019-03-27 | Harman Becker Automotive Systems GmbH | Vehicle Surround View System |
WO2012145822A1 (en) | 2011-04-25 | 2012-11-01 | Magna International Inc. | Method and system for dynamically calibrating vehicular cameras |
WO2012145818A1 (en) | 2011-04-25 | 2012-11-01 | Magna International Inc. | Method and system for dynamically calibrating vehicular cameras |
US8934017B2 (en) | 2011-06-01 | 2015-01-13 | Honeywell International Inc. | System and method for automatic camera placement |
JP6058256B2 (ja) | 2011-06-13 | 2017-01-11 | アルパイン株式会社 | 車載カメラ姿勢検出装置および方法 |
US20140192159A1 (en) * | 2011-06-14 | 2014-07-10 | Metrologic Instruments, Inc. | Camera registration and video integration in 3d geometry model |
JP5531194B2 (ja) * | 2011-07-06 | 2014-06-25 | 株式会社モルフォ | 画像処理装置、画像処理方法及び画像処理プログラム |
EP2733937A4 (en) * | 2011-07-12 | 2015-05-20 | Nissan Motor | VEHICLE MONITORING DEVICE, VEHICLE MONITORING SYSTEM, END TERMINAL AND VEHICLE MONITORING PROCEDURE |
WO2013016409A1 (en) * | 2011-07-26 | 2013-01-31 | Magna Electronics Inc. | Vision system for vehicle |
US9098751B2 (en) | 2011-07-27 | 2015-08-04 | Gentex Corporation | System and method for periodic lane marker identification and tracking |
US9491450B2 (en) | 2011-08-01 | 2016-11-08 | Magna Electronic Inc. | Vehicle camera alignment system |
EP2554434B1 (en) * | 2011-08-05 | 2014-05-21 | Harman Becker Automotive Systems GmbH | Vehicle surround view system |
JP5750344B2 (ja) * | 2011-09-16 | 2015-07-22 | 日立建機株式会社 | 作業機の周囲監視装置 |
WO2013043661A1 (en) | 2011-09-21 | 2013-03-28 | Magna Electronics, Inc. | Vehicle vision system using image data transmission and power supply via a coaxial cable |
DE102011084554A1 (de) * | 2011-10-14 | 2013-04-18 | Robert Bosch Gmbh | Verfahren zur Darstellung eines Fahrzeugumfeldes |
US9491451B2 (en) | 2011-11-15 | 2016-11-08 | Magna Electronics Inc. | Calibration system and method for vehicular surround vision system |
US10099614B2 (en) | 2011-11-28 | 2018-10-16 | Magna Electronics Inc. | Vision system for vehicle |
KR101265711B1 (ko) * | 2011-11-30 | 2013-05-20 | 주식회사 이미지넥스트 | 3d 차량 주변 영상 생성 방법 및 장치 |
US9762880B2 (en) | 2011-12-09 | 2017-09-12 | Magna Electronics Inc. | Vehicle vision system with customized display |
US9600863B2 (en) * | 2012-02-13 | 2017-03-21 | Omnivision Technologies, Inc. | Method for combining images |
US10457209B2 (en) | 2012-02-22 | 2019-10-29 | Magna Electronics Inc. | Vehicle vision system with multi-paned view |
DE102012203171A1 (de) * | 2012-02-29 | 2013-08-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten |
JP2013186245A (ja) * | 2012-03-07 | 2013-09-19 | Denso Corp | 車両周辺監視装置 |
WO2013148675A1 (en) * | 2012-03-26 | 2013-10-03 | Robert Bosch Gmbh | Multi-surface model-based tracking |
US9598836B2 (en) | 2012-03-29 | 2017-03-21 | Harnischfeger Technologies, Inc. | Overhead view system for a shovel |
JP2013211707A (ja) * | 2012-03-30 | 2013-10-10 | Clarion Co Ltd | カメラキャリブレーション装置 |
CN104584032A (zh) * | 2012-04-13 | 2015-04-29 | 莱特克拉夫特科技有限责任公司 | 混合式精确跟踪 |
US20130293683A1 (en) * | 2012-05-03 | 2013-11-07 | Harman International (Shanghai) Management Co., Ltd. | System and method of interactively controlling a virtual camera |
TW201403553A (zh) * | 2012-07-03 | 2014-01-16 | Automotive Res & Testing Ct | 自動校正鳥瞰影像方法 |
US9143670B1 (en) | 2012-07-20 | 2015-09-22 | COPsync, Inc. | Video capture system including two independent image sensors |
JP5911775B2 (ja) * | 2012-08-21 | 2016-04-27 | 富士通テン株式会社 | 画像生成装置、画像表示システム及び画像生成方法 |
JP6011624B2 (ja) * | 2012-08-30 | 2016-10-19 | 富士通株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US9292751B2 (en) * | 2012-09-14 | 2016-03-22 | Honda Motor Co., Ltd. | Object identifier |
JP5923422B2 (ja) | 2012-09-24 | 2016-05-24 | クラリオン株式会社 | カメラのキャリブレーション方法及び装置 |
US9667955B2 (en) * | 2012-10-01 | 2017-05-30 | Bodybarista Aps | Method of calibrating a camera |
US9723272B2 (en) | 2012-10-05 | 2017-08-01 | Magna Electronics Inc. | Multi-camera image stitching calibration system |
JP6079131B2 (ja) | 2012-10-25 | 2017-02-15 | 富士通株式会社 | 画像処理装置、方法、及びプログラム |
WO2014073282A1 (ja) * | 2012-11-08 | 2014-05-15 | 住友重機械工業株式会社 | 舗装機械用画像生成装置及び舗装機械用操作支援システム |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
KR102003562B1 (ko) * | 2012-12-24 | 2019-07-24 | 두산인프라코어 주식회사 | 건설기계의 감지 장치 및 방법 |
US9232200B2 (en) * | 2013-01-21 | 2016-01-05 | Devin L. Norman | External vehicle projection system |
US9349056B2 (en) * | 2013-02-15 | 2016-05-24 | Gordon Peckover | Method of measuring road markings |
US10179543B2 (en) | 2013-02-27 | 2019-01-15 | Magna Electronics Inc. | Multi-camera dynamic top view vision system |
US9688200B2 (en) | 2013-03-04 | 2017-06-27 | Magna Electronics Inc. | Calibration system and method for multi-camera vision system |
US9563951B2 (en) | 2013-05-21 | 2017-02-07 | Magna Electronics Inc. | Vehicle vision system with targetless camera calibration |
US9205776B2 (en) | 2013-05-21 | 2015-12-08 | Magna Electronics Inc. | Vehicle vision system using kinematic model of vehicle motion |
US9210417B2 (en) * | 2013-07-17 | 2015-12-08 | Microsoft Technology Licensing, Llc | Real-time registration of a stereo depth camera array |
US20150070498A1 (en) * | 2013-09-06 | 2015-03-12 | Caterpillar Inc. | Image Display System |
US9315192B1 (en) * | 2013-09-30 | 2016-04-19 | Google Inc. | Methods and systems for pedestrian avoidance using LIDAR |
JP6347934B2 (ja) * | 2013-10-11 | 2018-06-27 | 株式会社デンソーテン | 画像表示装置、画像表示システム、画像表示方法、及び、プログラム |
KR102175961B1 (ko) * | 2013-11-29 | 2020-11-09 | 현대모비스 주식회사 | 차량 후방 주차 가이드 장치 |
CN105765966B (zh) * | 2013-12-19 | 2020-07-10 | 英特尔公司 | 碗形成像系统 |
DE102013226632A1 (de) * | 2013-12-19 | 2015-06-25 | Conti Temic Microelectronic Gmbh | Kamerasystem und Verfahren zum Betrieb eines Kamerasystems |
KR101572065B1 (ko) * | 2014-01-03 | 2015-11-25 | 현대모비스(주) | 영상 왜곡 보정 방법 및 이를 위한 장치 |
JPWO2015129280A1 (ja) | 2014-02-26 | 2017-03-30 | 京セラ株式会社 | 画像処理装置および画像処理方法 |
US9386302B2 (en) * | 2014-05-21 | 2016-07-05 | GM Global Technology Operations LLC | Automatic calibration of extrinsic and intrinsic camera parameters for surround-view camera system |
KR102632421B1 (ko) | 2014-09-03 | 2024-02-01 | 네버마인드 캐피탈 엘엘씨 | 콘텐트를 캡처, 스트리밍, 및/또는 재생하기 위한 방법들 및 장치 |
US10442355B2 (en) | 2014-09-17 | 2019-10-15 | Intel Corporation | Object visualization in bowl-shaped imaging systems |
US10127463B2 (en) | 2014-11-21 | 2018-11-13 | Magna Electronics Inc. | Vehicle vision system with multiple cameras |
US9916660B2 (en) | 2015-01-16 | 2018-03-13 | Magna Electronics Inc. | Vehicle vision system with calibration algorithm |
DE102015205507B3 (de) * | 2015-03-26 | 2016-09-29 | Zf Friedrichshafen Ag | Rundsichtsystem für ein Fahrzeug |
JP2016201585A (ja) * | 2015-04-07 | 2016-12-01 | 株式会社ソシオネクスト | 画像処理装置および画像処理装置の制御方法 |
US10946799B2 (en) | 2015-04-21 | 2021-03-16 | Magna Electronics Inc. | Vehicle vision system with overlay calibration |
JP2016225865A (ja) * | 2015-06-01 | 2016-12-28 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 俯瞰画像生成装置 |
US10373378B2 (en) | 2015-06-26 | 2019-08-06 | Paccar Inc | Augmented reality system for vehicle blind spot prevention |
JP6406159B2 (ja) * | 2015-08-04 | 2018-10-17 | 株式会社デンソー | 車載表示制御装置、車載表示制御方法 |
KR101860610B1 (ko) * | 2015-08-20 | 2018-07-02 | 엘지전자 주식회사 | 디스플레이 장치 및 이를 포함하는 차량 |
US10262466B2 (en) * | 2015-10-14 | 2019-04-16 | Qualcomm Incorporated | Systems and methods for adjusting a combined image visualization based on depth information |
US10187590B2 (en) | 2015-10-27 | 2019-01-22 | Magna Electronics Inc. | Multi-camera vehicle vision system with image gap fill |
DE102015221356B4 (de) | 2015-10-30 | 2020-12-24 | Conti Temic Microelectronic Gmbh | Vorrichtung und Verfahren zur Bereitstellung einer Fahrzeugrundumansicht |
US20190026924A1 (en) * | 2016-01-15 | 2019-01-24 | Nokia Technologies Oy | Method and Apparatus for Calibration of a Multi-Camera System |
JP6597415B2 (ja) | 2016-03-07 | 2019-10-30 | 株式会社デンソー | 情報処理装置及びプログラム |
US10326979B2 (en) | 2016-05-23 | 2019-06-18 | Microsoft Technology Licensing, Llc | Imaging system comprising real-time image registration |
US10339662B2 (en) | 2016-05-23 | 2019-07-02 | Microsoft Technology Licensing, Llc | Registering cameras with virtual fiducials |
JP6555195B2 (ja) | 2016-06-13 | 2019-08-07 | 株式会社デンソー | 画像生成装置 |
US10678240B2 (en) * | 2016-09-08 | 2020-06-09 | Mentor Graphics Corporation | Sensor modification based on an annotated environmental model |
US10452076B2 (en) | 2017-01-04 | 2019-10-22 | Magna Electronics Inc. | Vehicle vision system with adjustable computation and data compression |
US10313584B2 (en) | 2017-01-04 | 2019-06-04 | Texas Instruments Incorporated | Rear-stitched view panorama for rear-view visualization |
JP7038345B2 (ja) | 2017-04-20 | 2022-03-18 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置 |
JP7002007B2 (ja) | 2017-05-01 | 2022-01-20 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム |
US10683034B2 (en) * | 2017-06-06 | 2020-06-16 | Ford Global Technologies, Llc | Vehicle remote parking systems and methods |
US10585430B2 (en) | 2017-06-16 | 2020-03-10 | Ford Global Technologies, Llc | Remote park-assist authentication for vehicles |
US10775781B2 (en) | 2017-06-16 | 2020-09-15 | Ford Global Technologies, Llc | Interface verification for vehicle remote park-assist |
US11044463B2 (en) * | 2017-06-27 | 2021-06-22 | Sony Corporation | Image processing device and image processing method |
JP7054803B2 (ja) | 2017-07-21 | 2022-04-15 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム |
JP6962372B2 (ja) * | 2017-08-25 | 2021-11-05 | 株式会社ソシオネクスト | 補正装置、補正プログラム及び記録媒体 |
JP7013751B2 (ja) * | 2017-09-15 | 2022-02-01 | 株式会社アイシン | 画像処理装置 |
US10580304B2 (en) | 2017-10-02 | 2020-03-03 | Ford Global Technologies, Llc | Accelerometer-based external sound monitoring for voice controlled autonomous parking |
US10744941B2 (en) | 2017-10-12 | 2020-08-18 | Magna Electronics Inc. | Vehicle vision system with bird's eye view display |
US10580299B2 (en) * | 2017-10-13 | 2020-03-03 | Waymo Llc | Lane change notification |
US10627811B2 (en) | 2017-11-07 | 2020-04-21 | Ford Global Technologies, Llc | Audio alerts for remote park-assist tethering |
US10578676B2 (en) | 2017-11-28 | 2020-03-03 | Ford Global Technologies, Llc | Vehicle monitoring of mobile device state-of-charge |
CN109978753B (zh) * | 2017-12-28 | 2023-09-26 | 北京京东尚科信息技术有限公司 | 绘制全景热力图的方法和装置 |
US10974717B2 (en) | 2018-01-02 | 2021-04-13 | Ford Global Technologies, I.LC | Mobile device tethering for a remote parking assist system of a vehicle |
US10585431B2 (en) | 2018-01-02 | 2020-03-10 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
US10583830B2 (en) | 2018-01-02 | 2020-03-10 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
US10814864B2 (en) | 2018-01-02 | 2020-10-27 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
US10688918B2 (en) | 2018-01-02 | 2020-06-23 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
US10737690B2 (en) | 2018-01-02 | 2020-08-11 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
US11148661B2 (en) | 2018-01-02 | 2021-10-19 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
US10684773B2 (en) | 2018-01-03 | 2020-06-16 | Ford Global Technologies, Llc | Mobile device interface for trailer backup-assist |
US10747218B2 (en) | 2018-01-12 | 2020-08-18 | Ford Global Technologies, Llc | Mobile device tethering for remote parking assist |
US10917748B2 (en) | 2018-01-25 | 2021-02-09 | Ford Global Technologies, Llc | Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning |
DE102018102051B4 (de) * | 2018-01-30 | 2021-09-02 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs mit einem Bildfenster in einem Bild, Computerprogrammprodukt sowie Anzeigesystem |
US10684627B2 (en) | 2018-02-06 | 2020-06-16 | Ford Global Technologies, Llc | Accelerometer-based external sound monitoring for position aware autonomous parking |
FR3078224B1 (fr) * | 2018-02-16 | 2020-02-07 | Renault S.A.S | Methode de surveillance d’un environnement de vehicule automobile en stationnement comprenant une camera asynchrone |
US11188070B2 (en) | 2018-02-19 | 2021-11-30 | Ford Global Technologies, Llc | Mitigating key fob unavailability for remote parking assist systems |
US10507868B2 (en) | 2018-02-22 | 2019-12-17 | Ford Global Technologies, Llc | Tire pressure monitoring for vehicle park-assist |
US10732622B2 (en) | 2018-04-05 | 2020-08-04 | Ford Global Technologies, Llc | Advanced user interaction features for remote park assist |
US10493981B2 (en) | 2018-04-09 | 2019-12-03 | Ford Global Technologies, Llc | Input signal management for vehicle park-assist |
US10793144B2 (en) | 2018-04-09 | 2020-10-06 | Ford Global Technologies, Llc | Vehicle remote park-assist communication counters |
US10759417B2 (en) | 2018-04-09 | 2020-09-01 | Ford Global Technologies, Llc | Input signal management for vehicle park-assist |
US10683004B2 (en) | 2018-04-09 | 2020-06-16 | Ford Global Technologies, Llc | Input signal management for vehicle park-assist |
JP7021001B2 (ja) * | 2018-05-25 | 2022-02-16 | アルパイン株式会社 | 画像処理装置および画像処理方法 |
JP7187182B2 (ja) * | 2018-06-11 | 2022-12-12 | キヤノン株式会社 | データ生成装置、方法およびプログラム |
CN110619807B (zh) * | 2018-06-20 | 2022-12-02 | 北京京东尚科信息技术有限公司 | 生成全局热力图的方法和装置 |
US10384605B1 (en) | 2018-09-04 | 2019-08-20 | Ford Global Technologies, Llc | Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers |
US10821972B2 (en) | 2018-09-13 | 2020-11-03 | Ford Global Technologies, Llc | Vehicle remote parking assist systems and methods |
US10717432B2 (en) | 2018-09-13 | 2020-07-21 | Ford Global Technologies, Llc | Park-assist based on vehicle door open positions |
US10529233B1 (en) | 2018-09-24 | 2020-01-07 | Ford Global Technologies Llc | Vehicle and method for detecting a parking space via a drone |
US10967851B2 (en) | 2018-09-24 | 2021-04-06 | Ford Global Technologies, Llc | Vehicle system and method for setting variable virtual boundary |
US10908603B2 (en) | 2018-10-08 | 2021-02-02 | Ford Global Technologies, Llc | Methods and apparatus to facilitate remote-controlled maneuvers |
US10628687B1 (en) | 2018-10-12 | 2020-04-21 | Ford Global Technologies, Llc | Parking spot identification for vehicle park-assist |
US11097723B2 (en) | 2018-10-17 | 2021-08-24 | Ford Global Technologies, Llc | User interfaces for vehicle remote park assist |
US11137754B2 (en) | 2018-10-24 | 2021-10-05 | Ford Global Technologies, Llc | Intermittent delay mitigation for remote vehicle operation |
JP2020098412A (ja) * | 2018-12-17 | 2020-06-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6785480B2 (ja) * | 2019-01-28 | 2020-11-18 | パナソニックIpマネジメント株式会社 | 画像合成装置、及び、制御方法 |
US11789442B2 (en) | 2019-02-07 | 2023-10-17 | Ford Global Technologies, Llc | Anomalous input detection |
US11195344B2 (en) | 2019-03-15 | 2021-12-07 | Ford Global Technologies, Llc | High phone BLE or CPU burden detection and notification |
US11275368B2 (en) | 2019-04-01 | 2022-03-15 | Ford Global Technologies, Llc | Key fobs for vehicle remote park-assist |
US11169517B2 (en) | 2019-04-01 | 2021-11-09 | Ford Global Technologies, Llc | Initiation of vehicle remote park-assist with key fob |
CN112208438B (zh) * | 2019-07-10 | 2022-07-29 | 台湾中华汽车工业股份有限公司 | 行车辅助影像产生方法及系统 |
US11661722B2 (en) | 2020-11-19 | 2023-05-30 | Deere & Company | System and method for customized visualization of the surroundings of self-propelled work vehicles |
US20220194428A1 (en) * | 2020-12-17 | 2022-06-23 | 6 River Systems, Llc | Systems and methods for calibrating sensors of autonomous vehicles |
KR102473407B1 (ko) * | 2020-12-28 | 2022-12-05 | 삼성전기주식회사 | 틸트 카메라를 이용한 차량의 svm 시스템 |
CN117098693A (zh) * | 2021-04-07 | 2023-11-21 | 石通瑞吉股份有限公司 | 包括偏移相机视图的车辆显示器 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58110334A (ja) | 1981-12-23 | 1983-06-30 | Hino Motors Ltd | 路面視界表示装置 |
JPS62155140A (ja) * | 1985-12-27 | 1987-07-10 | Aisin Warner Ltd | 車両制御用道路画像入力方式 |
JPH0399952A (ja) | 1989-09-12 | 1991-04-25 | Nissan Motor Co Ltd | 車両用周囲状況モニタ |
JPH03166534A (ja) | 1989-11-25 | 1991-07-18 | Seikosha Co Ltd | カメラ用測距装置 |
JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
JPH05310078A (ja) | 1992-05-07 | 1993-11-22 | Clarion Co Ltd | 車両安全確認装置及びその装置に使用するカメラ |
JP3391405B2 (ja) | 1992-05-29 | 2003-03-31 | 株式会社エフ・エフ・シー | カメラ映像内の物体同定方法 |
DE69322349T3 (de) | 1992-09-30 | 2004-06-09 | Hitachi, Ltd. | Informationssystem für den Fahrer eines Fahrzeuges |
EP0605045B1 (fr) * | 1992-12-29 | 1999-03-31 | Laboratoires D'electronique Philips S.A.S. | Procédé et dispositif de traitement d'images pour construire une image à partir d'images adjacentes |
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
JP3468428B2 (ja) * | 1993-03-24 | 2003-11-17 | 富士重工業株式会社 | 車輌用距離検出装置 |
JP2887039B2 (ja) * | 1993-03-26 | 1999-04-26 | 三菱電機株式会社 | 車両周辺監視装置 |
US5638116A (en) * | 1993-09-08 | 1997-06-10 | Sumitomo Electric Industries, Ltd. | Object recognition apparatus and method |
JP3431962B2 (ja) * | 1993-09-17 | 2003-07-28 | 本田技研工業株式会社 | 走行区分線認識装置を備えた自動走行車両 |
DE4333112A1 (de) | 1993-09-29 | 1995-03-30 | Bosch Gmbh Robert | Verfahren und Vorrichtung zum Ausparken eines Fahrzeugs |
JP3381351B2 (ja) | 1993-12-24 | 2003-02-24 | 日産自動車株式会社 | 車両用周囲状況表示装置 |
JP3522317B2 (ja) * | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
JP3205477B2 (ja) * | 1994-02-17 | 2001-09-04 | 富士フイルムマイクロデバイス株式会社 | 車間距離検出装置 |
JP2919284B2 (ja) | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | 物体認識方法 |
US5473364A (en) * | 1994-06-03 | 1995-12-05 | David Sarnoff Research Center, Inc. | Video technique for indicating moving objects from a movable platform |
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
EP0838068B1 (en) * | 1995-07-10 | 2005-10-26 | Sarnoff Corporation | Method and system for rendering and combining images |
JPH09305796A (ja) * | 1996-05-16 | 1997-11-28 | Canon Inc | 画像情報処理装置 |
JP3328478B2 (ja) * | 1995-10-18 | 2002-09-24 | 日本電信電話株式会社 | カメラシステム |
JP3866328B2 (ja) * | 1996-06-06 | 2007-01-10 | 富士重工業株式会社 | 車両周辺立体物認識装置 |
JP3600378B2 (ja) | 1996-07-24 | 2004-12-15 | 本田技研工業株式会社 | 車両の外界認識装置 |
JP3625622B2 (ja) | 1996-08-30 | 2005-03-02 | 三洋電機株式会社 | 立体モデル作成装置、立体モデル作成方法および立体モデル作成プログラムを記録した媒体 |
JP3147002B2 (ja) * | 1996-09-26 | 2001-03-19 | 富士電機株式会社 | 距離検出値の補正方法 |
US5994701A (en) * | 1996-10-15 | 1999-11-30 | Nippon Avonics Co., Ltd. | Infrared sensor device with temperature correction function |
JPH10164566A (ja) | 1996-11-28 | 1998-06-19 | Aiphone Co Ltd | マルチ天井カメラ装置 |
JPH10244891A (ja) | 1997-03-07 | 1998-09-14 | Nissan Motor Co Ltd | 駐車補助装置 |
JPH10264841A (ja) | 1997-03-25 | 1998-10-06 | Nissan Motor Co Ltd | 駐車誘導装置 |
US6396535B1 (en) * | 1999-02-16 | 2002-05-28 | Mitsubishi Electric Research Laboratories, Inc. | Situation awareness system |
-
1999
- 1999-07-29 EP EP10011659A patent/EP2267656A3/en not_active Withdrawn
- 1999-07-29 JP JP2000563072A patent/JP3286306B2/ja not_active Expired - Lifetime
- 1999-07-29 US US09/744,787 patent/US7307655B1/en not_active Expired - Lifetime
- 1999-07-29 EP EP10008892A patent/EP2259220A3/en not_active Withdrawn
- 1999-07-29 EP EP99933145A patent/EP1115250B1/en not_active Expired - Lifetime
- 1999-07-29 EP EP10012829A patent/EP2309453A3/en not_active Withdrawn
- 1999-07-29 WO PCT/JP1999/004061 patent/WO2000007373A1/ja active Application Filing
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004008744A1 (ja) * | 2002-07-12 | 2004-01-22 | Iwane Laboratories, Ltd. | 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置 |
JP2005242606A (ja) * | 2004-02-26 | 2005-09-08 | Olympus Corp | 画像生成装置、画像生成プログラム、及び画像生成方法 |
CN100435584C (zh) * | 2004-08-04 | 2008-11-19 | 奥林巴斯株式会社 | 图像生成方法和装置 |
US7457456B2 (en) | 2004-08-04 | 2008-11-25 | Olympus Corporation | Image generation method and device |
JP2006119843A (ja) * | 2004-10-20 | 2006-05-11 | Olympus Corp | 画像生成方法およびその装置 |
WO2007111377A1 (ja) | 2006-03-27 | 2007-10-04 | Sanyo Electric Co., Ltd. | 運転支援装置 |
US9308862B2 (en) | 2006-03-27 | 2016-04-12 | Panasonic Intellectual Property Management Co., Ltd. | Drive assistance device |
US7663476B2 (en) | 2006-05-17 | 2010-02-16 | Alpine Electronics, Inc. | Surrounding image generating apparatus and method of adjusting metering for image pickup device |
US8368687B2 (en) | 2006-09-26 | 2013-02-05 | Clarion Co., Ltd. | Image generating apparatus and image generating method |
US8259173B2 (en) | 2006-09-26 | 2012-09-04 | Clarion Co., Ltd. | Image generating apparatus and image generating method |
US7965325B2 (en) | 2007-12-04 | 2011-06-21 | Alpine Electronics, Inc. | Distortion-corrected image generation unit and distortion-corrected image generation method |
US8267024B2 (en) | 2008-01-24 | 2012-09-18 | Brother Kogyo Kabushiki Kaisha | Sewing machine and computer-readable medium storing control program executable on sewing machine |
US9840199B2 (en) | 2008-05-29 | 2017-12-12 | Fujitsu Limited | Vehicle image processing apparatus and vehicle image processing method |
US9475430B2 (en) | 2008-05-29 | 2016-10-25 | Fujitsu Limited | Vehicle image processing apparatus and vehicle image processing method |
US9403483B2 (en) | 2008-05-29 | 2016-08-02 | Fujitsu Limited | Vehicle image processing apparatus and vehicle image processing method |
JP5397373B2 (ja) * | 2008-05-29 | 2014-01-22 | 富士通株式会社 | 車両用画像処理装置、車両用画像処理方法 |
WO2009144994A1 (ja) | 2008-05-29 | 2009-12-03 | 富士通株式会社 | 車両用画像処理装置、車両用画像処理方法 |
US8773534B2 (en) | 2009-04-13 | 2014-07-08 | Fujitsu Limited | Image processing apparatus, medium recording image processing program, and image processing method |
JP2010264872A (ja) * | 2009-05-14 | 2010-11-25 | Fujitsu Ten Ltd | 車載照明装置、画像処理装置及び画像表示システム |
WO2010137265A1 (ja) | 2009-05-25 | 2010-12-02 | パナソニック株式会社 | 車両周囲監視装置 |
KR101302944B1 (ko) * | 2009-11-04 | 2013-09-06 | 주식회사 만도 | 차량 인식 방법 및 장치 |
US9610891B2 (en) | 2009-11-16 | 2017-04-04 | Fujitsu Ten Limited | In-vehicle illuminating apparatus, image processing apparatus, and image displaying system |
US8947533B2 (en) | 2010-01-22 | 2015-02-03 | Fujitsu Ten Limited | Parameter determining device, parameter determining system, parameter determining method, and recording medium |
CN102198818A (zh) * | 2010-03-25 | 2011-09-28 | 富士通天株式会社 | 车载照明装置、图像处理装置、图像显示系统及照明方法 |
CN102198818B (zh) * | 2010-03-25 | 2014-03-12 | 富士通天株式会社 | 车载照明装置、图像处理装置、图像显示系统及照明方法 |
WO2011129277A1 (ja) | 2010-04-12 | 2011-10-20 | 住友重機械工業株式会社 | 画像生成装置及び操作支援システム |
US9881412B2 (en) | 2010-04-12 | 2018-01-30 | Sumitomo Heavy Industries, Ltd. | Image generation device and operation support system |
EP3410703A1 (en) | 2010-04-12 | 2018-12-05 | Sumitomo Heavy Industries, Ltd. | Image generation device and operation support system |
CN102792334A (zh) * | 2010-04-12 | 2012-11-21 | 住友重机械工业株式会社 | 图像生成装置及操作支持系统 |
WO2011129275A1 (ja) | 2010-04-12 | 2011-10-20 | 住友重機械工業株式会社 | 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム |
WO2011129274A1 (ja) | 2010-04-12 | 2011-10-20 | 住友重機械工業株式会社 | 画像生成装置及び操作支援システム |
WO2011129276A1 (ja) | 2010-04-12 | 2011-10-20 | 住友重機械工業株式会社 | 画像生成装置及び操作支援システム |
KR101475583B1 (ko) * | 2010-04-12 | 2014-12-30 | 스미도모쥬기가이고교 가부시키가이샤 | 화상생성장치 및 조작지원 시스템 |
JP2011223411A (ja) * | 2010-04-12 | 2011-11-04 | Sumitomo Heavy Ind Ltd | 画像生成装置及び操作支援システム |
JP2011221865A (ja) * | 2010-04-12 | 2011-11-04 | Sumitomo Heavy Ind Ltd | 画像生成装置及び操作支援システム |
JP2011223410A (ja) * | 2010-04-12 | 2011-11-04 | Sumitomo Heavy Ind Ltd | 画像生成装置及び操作支援システム |
US9233643B2 (en) | 2010-04-12 | 2016-01-12 | Sumitomo Heavy Industries, Ltd. | Image generation device and operation support system |
JP2011239349A (ja) * | 2010-05-13 | 2011-11-24 | Fujitsu Ltd | 画像処理装置および画像処理プログラム |
US9064293B2 (en) | 2010-06-15 | 2015-06-23 | Mitsubishi Electric Corporation | Vehicle surroundings monitoring device |
JP2012011849A (ja) * | 2010-06-30 | 2012-01-19 | Fujitsu Ten Ltd | 画像表示システム |
JP5783471B2 (ja) * | 2010-12-01 | 2015-09-24 | コニカミノルタ株式会社 | 画像合成装置 |
US9591280B2 (en) | 2011-07-29 | 2017-03-07 | Fujitsu Limited | Image processing apparatus, image processing method, and computer-readable recording medium |
JP2013197816A (ja) * | 2012-03-19 | 2013-09-30 | Nippon Soken Inc | 車載画像表示装置 |
JP2013205402A (ja) * | 2012-03-29 | 2013-10-07 | Sumitomo (Shi) Construction Machinery Co Ltd | 作業機械用周辺監視装置 |
US10046700B2 (en) | 2012-05-22 | 2018-08-14 | Mitsubishi Electric Corporation | Image processing device |
WO2014174884A1 (ja) | 2013-04-24 | 2014-10-30 | 住友重機械工業株式会社 | 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム |
KR20150116116A (ko) * | 2014-04-04 | 2015-10-15 | 주식회사 와이즈오토모티브 | 차량 주변 이미지 생성 장치 및 방법 |
KR101670847B1 (ko) * | 2014-04-04 | 2016-11-09 | 주식회사 와이즈오토모티브 | 차량 주변 이미지 생성 장치 및 방법 |
KR101543159B1 (ko) | 2014-05-02 | 2015-08-10 | 현대자동차주식회사 | 카메라를 이용한 영상 조정 시스템 및 방법 |
CN105034950A (zh) * | 2014-05-02 | 2015-11-11 | 现代自动车株式会社 | 使用成像装置调节图像的系统和方法 |
KR101559739B1 (ko) * | 2015-06-11 | 2015-10-15 | 주식회사 미래엔에스 | 가상 모델과 카메라 영상의 융합시스템 |
US10875452B2 (en) | 2016-01-12 | 2020-12-29 | Denso Corporation | Driving assistance device and driving assistance method |
CN107472135B (zh) * | 2016-06-07 | 2022-03-25 | 松下知识产权经营株式会社 | 图像生成装置、图像生成方法以及记录介质 |
EP3264367A2 (en) | 2016-06-07 | 2018-01-03 | Panasonic Intellectual Property Management Co., Ltd. | Image generating apparatus, image generating method, and recording medium |
CN107472135A (zh) * | 2016-06-07 | 2017-12-15 | 松下知识产权经营株式会社 | 图像生成装置、图像生成方法以及程序 |
US11394926B2 (en) | 2016-08-12 | 2022-07-19 | Denso Corporation | Periphery monitoring apparatus |
CN109937158A (zh) * | 2016-12-27 | 2019-06-25 | 金泰克斯公司 | 具有眼睛跟踪的后视系统 |
US10737624B2 (en) | 2017-03-24 | 2020-08-11 | Toyota Jidosha Kabushiki Kaisha | Viewing device for vehicle |
DE112020006319T5 (de) | 2019-12-25 | 2022-11-24 | Panasonic Intellectual Property Management Co., Ltd. | Fahrassistenzvorrichtung, fahrassistenzverfahren und programm |
US12037043B2 (en) | 2021-09-16 | 2024-07-16 | Panasonic Automotive Systems Co., Ltd. | Parking assist method and parking assist device |
Also Published As
Publication number | Publication date |
---|---|
EP2259220A2 (en) | 2010-12-08 |
EP2259220A3 (en) | 2012-09-26 |
EP1115250A4 (en) | 2005-06-22 |
EP1115250A1 (en) | 2001-07-11 |
EP2309453A2 (en) | 2011-04-13 |
WO2000007373A1 (fr) | 2000-02-10 |
US7307655B1 (en) | 2007-12-11 |
EP2267656A3 (en) | 2012-09-26 |
EP1115250B1 (en) | 2012-06-06 |
EP2309453A3 (en) | 2012-09-26 |
EP2267656A2 (en) | 2010-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3286306B2 (ja) | 画像生成装置、画像生成方法 | |
JP2002135765A (ja) | カメラキャリブレーション指示装置及びカメラキャリブレーション装置 | |
JP4596978B2 (ja) | 運転支援システム | |
US9858639B2 (en) | Imaging surface modeling for camera modeling and virtual view synthesis | |
US8295644B2 (en) | Birds eye view virtual imaging for real time composited wide field of view | |
JP3300334B2 (ja) | 画像処理装置および監視システム | |
US7554573B2 (en) | Drive assisting system | |
WO2009119110A1 (ja) | 死角表示装置 | |
JP4248570B2 (ja) | 画像処理装置並びに視界支援装置及び方法 | |
US20190016256A1 (en) | Projection of a Pre-Definable Light Pattern | |
US20140114534A1 (en) | Dynamic rearview mirror display features | |
JP4315968B2 (ja) | 画像処理装置並びに視界支援装置及び方法 | |
WO2000064175A1 (fr) | Dispositif de traitement d'images et systeme de surveillance | |
CN102555905B (zh) | 产生车辆周围环境中至少一个物体的影像的方法和设备 | |
JP3301421B2 (ja) | 車両周囲状況提示装置 | |
US20220222947A1 (en) | Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings | |
CN112308986A (zh) | 车载图像拼接方法、系统以及装置 | |
CN112215917A (zh) | 车载全景图生成方法、装置及系统 | |
CN117011185B (zh) | 一种电子后视镜cms图像矫正方法、系统及电子后视镜 | |
CN112698717B (zh) | 一种局部图像的处理方法及装置、车载系统、存储介质 | |
WO2023095340A1 (ja) | 画像処理方法、画像表示方法、画像処理装置、及び画像表示装置 | |
JP5091882B2 (ja) | 画像処理装置並びに視界支援装置及び方法 | |
CN114332804A (zh) | 一种基于前后视画面的泊车轨迹显示方法及装置 | |
JP2004007299A (ja) | 車両用映像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20020212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3286306 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080308 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090308 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100308 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110308 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110308 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120308 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130308 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130308 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140308 Year of fee payment: 12 |
|
EXPY | Cancellation because of completion of term |