JP2018039295A - 表示装置の表示方法及び表示装置 - Google Patents
表示装置の表示方法及び表示装置 Download PDFInfo
- Publication number
- JP2018039295A JP2018039295A JP2016172916A JP2016172916A JP2018039295A JP 2018039295 A JP2018039295 A JP 2018039295A JP 2016172916 A JP2016172916 A JP 2016172916A JP 2016172916 A JP2016172916 A JP 2016172916A JP 2018039295 A JP2018039295 A JP 2018039295A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- host vehicle
- virtual viewpoint
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 105
- 230000000007 visual effect Effects 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 32
- 230000003287 optical effect Effects 0.000 description 33
- 238000012545 processing Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 12
- 238000003702 image correction Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003112 inhibitor Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Abstract
Description
対象物位置特定ステップでは、所定の情報に基づいて、自車両に対する対象物の位置を特定する。
仮想視点設定ステップでは、特定した対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点を設定する。
仮想画像生成ステップでは、設定した仮想視点から見たときの画像を生成する。
まず、構成を説明する。
実施例1における表示装置の表示方法及び表示装置は、車両に乗車している乗員の視覚支援を行う視覚支援システムを搭載した運転支援車両に適用したものである。以下、実施例1の構成を、「全体システム構成」、「乗員の視覚支援制御構成」、「視覚支援制御処理構成」に分けて説明する。
図1は、実施例1の表示方法及び表示装置が適用された表示支援システムを示す全体システム構成図である。以下、図1に基づき、全体システム構成を説明する。
この物体認識センサ21は、自車両の前部に搭載されて車両前方領域を探索するフロントセンサ21aと、自車両の後部に搭載されて車両後方領域を探索するリヤセンサ21bと、自車両の左側面に搭載されて車両左方領域を探索する左側センサ21cと、自車両の右側面に搭載されて車両右方領域を探索する右側センサ21dと、を有している。
物体認識センサ21によって取得された対象物までの距離情報は、視覚支援CPU30に出力される。
車載カメラ22によって撮影された撮影画像情報は、視覚支援CPU30に出力される。
視覚支援CPU30は、自車両に搭載された表示装置Dが有する表示コントローラに相当し、図1に示すように、自車両状態把握部31及び対象物位置特定部32を有する画像切替処理部30Aと、仮想視点設定部33、画像生成部34、画像補正部35を有する画像生成処理部30Bと、を備えている。
ここでは、対象物が自車両の幅方向中央位置よりも左方に存在していれば、車載カメラ22のうちの左サイドカメラ22cの位置に対する対象物の位置を特定する。つまり、左サイドカメラ22cの光軸中心位置を基準として、車両左側に存在する対象物の車両前後方向の位置を特定する。また、対象物が自車両の幅方向中央位置よりも右方に存在していれば、車載カメラ22のうちの右サイドカメラ22dの位置に対する対象物の位置を特定する。つまり、右サイドカメラ22dの光軸中心位置を基準として、車両右側に存在する対象物の車両前後方向の位置を特定する。
すなわち、まず、対象物が車両前後方向のいずれのアングルでも表示可能であるか否かを判断する。ここでは、左右サイドカメラ22c,22dの光軸中心位置を挟んで車両前後方向の所定範囲内に対象物のすべての部分が撮影されているとき(対象物が左右サイドカメラ22c,22dのほぼ正面に存在するとき)と、対象物がフロントカメラ22a、リヤカメラ22b及び左右サイドカメラ22c,22dのいずれか一方によって撮影されているとき(区画線や縁石のように対象物が車両前後方向に長く伸びているとき)に、対象物が車両前後方向のいずれのアングルでも表示可能であると判断する。なお、「左右サイドカメラ22c,22dの光軸中心を挟んだ所定範囲」は、撮影画像の状態等により任意に設定する。
そして、「車両前方向のアングル」とは、車両後方から車両前方を見たときのアングルであり、「車両後方向のアングル」とは、車両前方から車両後方を見たときのアングルである。
すなわち、仮想視点は、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に設定される。
なお、「相対速度がゼロより大きい場合」とは、自車両よりも対象物の速度が速く、自車両から見たときに対象物が車両前方に向かって移動する場合である。また、「相対速度がゼロ以下の場合」とは、自車両よりも対象物の速度が遅く、自車両から見たときに対象物が車両後方に向かって移動していく場合である。
仮想視点設定部33によって設定された仮想視点情報は、画像生成部34に出力される。
このとき、仮想視点が車両前方に向けて設定されていれば、左右サイドカメラ22c,22dのいずれか一方による撮影画像と、フロントカメラ22aによる撮影画像とを用いて、対象物と自車両の前後輪、側面及び車両下方領域を含む仮想画像を生成する。また、仮想視点が車両後方に向けて設定されていれば、左右サイドカメラ22c,22dのいずれか一方による撮影画像と、リヤカメラ22bによる撮影画像とを用いて、対象物と自車両の前後輪、側面及び車両下方領域を含む仮想画像を生成する。
なお、仮想画像は、車載カメラ22による撮影画像を視点変換、合成、選択して生成するだけでなく、撮影画像から生成した画像に予め記憶したCG画像を重畳させて生成してもよい。CG画像は、地図情報や路面情報に応じて作成しておき、撮影画像との特異点マッチングを行うことで重畳させる。
画像生成部34によって生成された仮想画像情報は、画像補正部35に出力される。
画像補正部35によって補正された後の仮想画像情報は、表示用ディスプレイ26に出力される。
図2は、実施例1の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである。以下、視覚支援制御処理構成をあらわす図2の各ステップについて説明する。
ここで、対象物の存在の有無は、車載カメラ22による撮影画像を解析すると共に、物体認識センサ21からのセンサ情報を考慮して判断する。
ここで、対象物が車両前後方向のいずれのアングルでも表示可能であるか否かは、車載カメラ22による撮影状態に基づいて判断する。
ここで、対象物と自車両との相対速度は、タイマ32aでカウントした所定時間内での対象物の動き(移動方向)に基づいて検出する。
このとき、対象物の位置は、左右サイドカメラ22c,22dの光軸中心の位置を基準として判断され、左右サイドカメラ22c,22dの撮影画像に基づいて、対象物が当該光軸中心位置よりも車両前方位置に存在するか、車両後方位置に存在するかを判断する。
ここで、対象物が左右サイドカメラ22c,22dよりも車両後方に位置しているときには、左右サイドカメラ22c,22dのいずれかによって対象物の前面(車両前方を向いた面)と対象物の後方背景が撮影されていると考えられる。そのため、車両後方に向けて仮想視点を設定することで、左右サイドカメラ22c,22dの撮影画像を用いて、対象物と自車両の前後輪を含み、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS106では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
ここで、対象物と自車両との相対速度がゼロより大きいときには、自車両から見たときに対象物が車両前方に向かって移動していくと考えられる。そのため、車両前方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
また、対象物が左右サイドカメラ22c,22dよりも車両前方に位置しているときには、左右サイドカメラ22c,22dのいずれかによって対象物の後面(車両後方を向いた面)と対象物の前方背景が撮影されていると考えられる。そのため、車両前方に向けて仮想視点を設定することで、左右サイドカメラ22c,22dの撮影画像を用いて、対象物と自車両の前後輪を含む、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
ここで、対象物と自車両との相対速度がゼロ以下のときには、自車両から見たときに対象物が車両後方に向かって移動していくと考えられる。そのため、車両後方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく対象物と自車両との相対位置関係を把握する仮想画像を生成可能となる。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
これにより、表示用ディスプレイ26には、対象物と自車両との相対位置関係を把握する仮想画像が表示され、自車両に乗車した乗員の視覚支援が行われる。
実施例1の作用を、「視覚支援制御処理作用」、「仮想視点設定作用」、「仮想画像生成作用」に分けて説明する。
以下、図2のフローチャートに基づき、視覚支援制御処理作用を説明する。
図3Aに示すように、自車両Sは、前端部中央位置に車載カメラ22のフロントカメラ22aが搭載され、後端部中央位置にリヤカメラ22bが搭載され、左サイドミラーに左サイドカメラ22cが搭載され、右サイドミラーに右サイドカメラ22dが搭載されている。
各カメラ22a〜22dの撮影範囲A〜Dは、図中に示す破線で囲んだ領域である。
すなわち、位置41aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置されたフロントカメラ22a(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置された左サイドカメラ22c(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの後方から前方を向いた画像を生成する。
すなわち、位置42aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置された左サイドカメラ22c(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置されたリヤカメラ22b(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの前方から後方を向けた画像を生成する。
すなわち、位置43aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置された左サイドカメラ22c(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置されたリヤカメラ22b(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの前方から後方を向いた画像を生成する。
つまり、仮想視点Kの設定位置は、自車両Sに対する対象物(歩行者H)の位置に応じて変化し、自車両Sと対象物(歩行者H)との相対位置関係を把握するために最適な位置にその都度設定される。
つまり、左サイドカメラ22cと対象物(歩行者H)との相対位置関係に応じて仮想視点Kの位置を調整する。
図3A〜図5Bに示すシーンでは、対象物である歩行者Hが左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内で撮影されておらず、この歩行者Hは、車両前後方向のいずれかのアングルでしか表示できない例となっている。
このときには、歩行者Hは、左サイドカメラ22cの正面に位置することになり、車両前後方向のいずれのアングルでも表示可能となる。
そのため、図2に示すフローチャートにおいて、ステップS101→ステップS102→ステップS103→ステップS104へと進み、歩行者Hと自車両Sとの相対速度を検出し、この検出した相対速度がゼロより大きいか否かを判断する。
その後、ステップS111→ステップS112へと進んで、この位置44bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が前方に位置しているときであっても、車両前方を向いた仮想視点Kを基準として生成された仮想画像(図3B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が後方に位置しているときであっても、乗員は、車両後方を向いた仮想視点Kを基準として生成された仮想画像(図4B,5B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
実施例1において、対象物(歩行者H)の位置に応じて設定した仮想視点Kからの仮想画像を生成する際、上述したように、仮想視点Kを車両前方に向く位置に設定した場合(図3A,図7A参照)のときには、左サイドカメラ22cと、フロントカメラ22aとの映像を用いて生成し、図3Bや図7Bに示すように仮想画像中に歩行者Hの背面が映される。
一方、仮想視点Kを車両後方に向く位置に設定した場合(図4A,図5A,図6A参照)のときには、左サイドカメラ22cと、リヤカメラ22bとの映像を用いて生成し、図3B,図5Bや図6Bに示すように仮想画像中に歩行者Hの背面が映される。
実施例1の表示装置の表示方法及び表示装置にあっては、下記に列挙する効果を得ることができる。
所定の情報に基づいて、前記自車両Sに対する前記対象物(歩行者H)の位置41,42を特定する対象物位置特定ステップ(ステップS105)と、
前記対象物(歩行者H)の位置41,42に応じて、前記自車両Sと前記対象物(歩行者H)との相対位置関係を把握する位置41a,42aに前記仮想視点Kを設定する仮想視点設定ステップ(ステップS106,ステップS108)と、
前記仮想視点Kから見たときの画像を生成する画像生成ステップ(ステップS107,ステップS109)と、
を有する構成とした。
これにより、乗員に対して表示された画像の中で自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができる。
前記対象物位置特定ステップ(ステップS105)は、前記対象物検出センサ(左サイドカメラ22c)の位置(光軸中心位置α)に対する前記対象物(歩行者H)の位置41,42を特定する構成とした。
これにより、(1)の効果に加え、対象物(歩行者H)の位置を容易に特定し、仮想視点Kの設定を速やかに行って、適切なタイミングで仮想画像の表示を行うことができる。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が前方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
これにより、 (3)の効果に加え、仮想視点Kの向きに応じた適切な位置に設けられた対象物検出センサ(左サイドカメラ22c)からの情報を用いて仮想画像を生成でき、自車両Sと対象物(歩行者H)との相対位置関係を把握するための適切な仮想画像を生成することができる。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が後方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
これにより、仮想視点Kの向きに応じた適切な位置に設けられた対象物検出センサ(左サイドカメラ22c)からの情報を用いて仮想画像を生成でき、自車両Sと対象物(歩行者H)との相対位置関係を把握するための適切な仮想画像を生成することができる。
前記表示コントローラ(視覚支援CPU30)は、
所定の情報に基づいて、前記自車両Sに対する前記対象物(歩行者H)の位置41,42を特定する対象物位置特定部32と、
前記対象物(歩行者H)の位置に応じて、前記自車両Sと前記対象物(歩行者H)との相対位置関係を把握する位置41a,42aに前記仮想視点Kを設定する仮想視点設定部33と、
前記仮想視点Kからの画像を生成する画像生成部34と、
を有する構成とした。
これにより、乗員に対して表示された画像の中で自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができる。
図8は、実施例1の表示方法及び表示装置の第1変形例を適用される自車両S1の平面図である。
この自車両S1は、車載カメラ22として、自車両S1の前端部中央位置に搭載されて車両前方領域Aを撮影するフロントカメラ22aと、自車両S1の後端部中央位置に搭載されて車両前方領域Bを撮影するリヤカメラ22bと、自車両S1の左サイドミラーの下側左端位置に搭載されて車両左前方領域Cを撮影する第1左サイドカメラ22cと、自車両S1の左リヤピラーの下端位置に搭載されて車両左後方領域Eを撮影する第2左サイドカメラ22eと、自車両S1の右サイドミラーの下側右端位置に搭載されて車両右前方領域Dを撮影する第1右サイドカメラ22dと、自車両S1の右リヤピラーの下端位置に搭載されて車両右後方領域Fを撮影する第2右サイドカメラ22fと、を有している。
すなわち、自車両S1では、車載カメラ22が車両全体で6台、車両側方領域を撮影するカメラが片側あたり2台となっている。
この自車両S2は、車載カメラ22として、自車両S2の前端部中央位置に搭載されて車両前方領域Aを撮影するフロントカメラ22aと、自車両S2の後端部中央位置に搭載されて車両前方領域Bを撮影するリヤカメラ22bと、自車両S2の左サイドミラーの下側左端位置に搭載されて車両左前方領域Cを撮影する第1左サイドカメラ22cと、自車両S2の左リヤピラーの下端位置に搭載されて車両左後方領域Eを撮影する第2左サイドカメラ22eと、自車両S2のフロントバンパーの左端位置に搭載されて車両左前方領域Gを撮影する第3左サイドカメラ22gと、自車両S2の右サイドミラーの下側右端位置に搭載されて車両右前方領域Dを撮影する第1右サイドカメラ22dと、自車両S2の右リヤピラーの下端位置に搭載されて車両右後方領域Fを撮影する第2右サイドカメラ22fと、自車両S2のフロントバンパーの右端位置に搭載されて車両右前方領域Jを撮影する第3右サイドカメラ22jと、を有している。
すなわち、自車両S2では、車載カメラ22が車両全体で8台、車両側方領域を撮影するカメラが片側あたり3台となっている。
これにより、横方向における広範囲の画像情報を歪み等の違和感を抑制して表示させることができる。さらに、左右サイドカメラが1台の場合において設定した仮想視点の位置よりも、より後方の位置に仮想視点を設定することが可能となる。
すなわち、図8に示す場合では、第1左右サイドカメラ22c,22dの光軸中心位置αと、第2左右サイドカメラ22e,22fの光軸中心位置βで囲まれた領域と、その前後所定領域を、所定領域Xとする。また、図9に示す場合では、第3左右サイドカメラ22g,22jの光軸中心位置γと、第2左右サイドカメラ22e,22fの光軸中心位置βで囲まれた領域と、その前後所定領域を、所定領域Xとする。
そのため、仮想画像の設定自由度が向上し、例えば縁石に等の道路境界線に自車両を寄せながら、当該縁石に対して平行に駐車させるシーン等に効果を発揮し、乗員への視覚支援効果を向上することができる。
つまり、歩行者Hと自車両S2との相対速度がゼロより大きければ、車両前方を向き、歩行者Hと自車両S2の前後輪を視界に含む位置47aに仮想視点を設定する。また、当該相対速度がゼロ以下であれば、車両後方を向き、歩行者Hと自車両S2の前後輪を視界に含む位置47bに仮想視点を設定する。
実施例2は、自車両の周囲に存在する対象物の、自車両の幅方向中央位置に対する左右方向の位置に応じて仮想視点を設定する例である。
ここで、対象物の存在の有無は、車載カメラ22による撮影画像を解析すると共に、物体認識センサ21からのセンサ情報を考慮して判断する。
ここで、対象物が車両左右方向のいずれのアングルでも表示可能であるか否かは、車載カメラ22による撮影状態に基づいて判断する。
ここで、対象物の移動については、タイマ32aでカウントした所定時間内での対象物の動き(移動方向)に基づいて検出する。なお、「右方への移動なし」には、対象物が自車両の左方に移動している場合と、その場で停止している場合を含む。
ここで、「左サイドカメラ22cにて撮影可能」とは、対象物の位置が、自車両の幅方向中心位置よりも左側位置に存在することを意味する。一方、「左サイドカメラ22cにて撮影不可能」ということは、右サイドカメラ22dにて撮影されており、対象物の位置が、自車両の幅方向中央位置よりも右側位置に存在することを意味する。
ここで、対象物が左サイドカメラ22cにて撮影されているときには、この左サイドカメラ22cによって対象物の右側面と車両の左方背景が撮影されていると考えられる。そのため、車両左方に向けて仮想視点を設定することで、左サイドカメラ22cの撮影画像を用いて、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS206では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
ここで、対象物が自車両の右方に向かって移動するときには、車両右方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
また、対象物が左サイドカメラ22cにて撮影されていないときには、右サイドカメラ22dによって対象物の左側面と車両の右方背景が撮影されていると考えられる。そのため、車両右方に向けて仮想視点を設定することで、右サイドカメラ22dの撮影画像を用いて、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS207では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
ここで、対象物が自車両の左方に向かって移動するときには、車両左方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
このとき、生成する仮想画像は、対象物と、自車両の一部(例えば、前輪、運転席、車両側面及び車両下方領域)を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
これにより、表示用ディスプレイ26には、対象物と自車両との相対位置関係を把握する仮想画像が表示され、自車両に乗車した乗員の視覚支援が行われる。
実施例2の作用を、「視覚支援制御処理作用」、「仮想視点設定作用」に分けて説明する。
以下、図11のフローチャートに基づき、視覚支援制御処理作用を説明する。
図12Aに示すように、自車両Sは、前端部中央位置に車載カメラ22のフロントカメラ22aが搭載され、左サイドミラーに左サイドカメラ22cが搭載され、右サイドミラーに右サイドカメラ22dが搭載されている。なお、ここでは、対象物が車両前方に存在する例を説明するため、リヤカメラ22bについては図示しない。
各カメラ22a,22c,22dの撮影範囲A,C,Dは、図中に示す破線で囲んだ領域である。
つまり、仮想視点Kの設定位置は、自車両Sに対する対象物(歩行者H)の位置に応じて変化し、自車両Sと対象物(歩行者H)との相対位置関係を把握するために最適な位置にその都度設定される。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が左側方に位置しているときであっても、車両左方を向いた仮想視点Kを基準として生成された仮想画像(図12B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
これにより、右サイドカメラ22dに対して対象物(歩行者H)が右側方に位置しているときであっても、車両右方を向いた仮想視点Kを基準として生成された仮想画像(図13B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
図12A〜図13Bに示すシーンでは、対象物である歩行者Hがフロントカメラ22aの光軸中心位置α´を挟んで車両前後方向の所定領域Y内で撮影されておらず、この歩行者Hは、車両左右方向のいずれかのアングルでしか表示できない例となっている。
このときには、歩行者Hは、フロントカメラ22aのほぼ正面に位置することになり、車両左右方向のいずれのアングルでも表示可能となる。
そのため、図11に示すフローチャートにおいて、ステップS201→ステップS202→ステップS203→ステップS204へと進み、歩行者Hの移動方向を検出し、自車両Sの右方(右側方)に向かって移動しているか否かを判断する。
その後、ステップS209→ステップS210へと進んで、この位置50bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
実施例2の表示装置の表示方法にあっては、下記に列挙する効果を得ることができる。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が左側方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
これにより、(2)の効果に加え、対象物検出センサ(右サイドカメラ22d)に対して対象物(歩行者H)が右側方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
この場合であっても、自車両の位置に対する物体認識センサ21によって検出された物体(対象物)位置に基づいて仮想視点が設定される位置や方向を適宜変更することで、自車両と対象物(物体)との相対的な位置関係を把握する仮想画像を生成する。
D 表示装置
21 物体認識センサ(対象物検出センサ)
22 車載カメラ(対象物検出センサ)
22a フロントカメラ(対象物検出センサ)
22b リヤカメラ(対象物検出センサ)
22c 左サイドカメラ(対象物検出センサ)
22d 右サイドガメラ(対象物検出センサ)
23 舵角センサ
24 車速センサ
25 レンジ位置センサ
26 表示用ディスプレイ
30 視覚支援CPU(表示コントローラ)
31 自車両状態把握部
32 対象物位置特定部
33 仮想視点設定部
34 画像生成部
35 画像補正部
11 前輪
12 後輪
13 側面
Claims (10)
- 自車両の周囲の対象物を検出し、前記対象物が含まれる仮想視点からの画像を生成し、前記画像を乗員の視覚支援情報として表示する表示装置の表示方法において、
所定の情報に基づいて、前記自車両に対する前記対象物の位置を特定する対象物位置特定ステップと、
前記対象物の位置に応じて、前記自車両と前記対象物との相対位置関係を把握する位置に前記仮想視点を設定する仮想視点設定ステップと、
前記仮想視点から見たときの画像を生成する画像生成ステップと、
を有することを特徴とする表示装置の表示方法。 - 請求項1に記載された表示装置の表示方法において、
前記対象物の位置を検出する対象物検出センサを前記自車両に搭載し、
前記対象物位置特定ステップは、前記対象物検出センサの位置に対する前記対象物の位置を特定する
ことを特徴とする表示装置の表示方法。 - 請求項2に記載された表示装置の表示方法において、
前記仮想視点設定ステップは、前記対象物の位置が前記対象物検出センサの位置よりも前方にある場合、前記仮想視点を、前記対象物よりも車両後方の位置から車両前方に向けて設定する
ことを特徴とする表示装置の表示方法。 - 請求項3に記載された表示装置の表示方法において、
前記画像生成ステップは、車両前方に向けて設定された仮想視点からの画像を生成する際、前記対象物よりも車両後方に位置する対象物検出センサによって検出された情報を用いて前記画像を生成する
ことを特徴とする表示装置の表示方法。 - 請求項2に記載された表示装置の表示方法において、
前記仮想視点設定ステップは、前記対象物の位置が前記対象物検出センサの位置よりも後方にある場合、前記仮想視点を、前記対象物よりも車両前方の位置から車両後方に向けて設定する
ことを特徴とする表示装置の表示方法。 - 請求項5に記載された表示装置の表示方法において、
前記画像生成ステップは、車両後方に向けて設定された仮想視点からの画像を生成する際、前記対象物よりも車両前方に位置する対象物検出センサによって検出された情報を用いて前記画像を生成する
ことを特徴とする表示装置の表示方法。 - 請求項2に記載された表示装置の表示方法において、
前記仮想視点設定ステップは、前記対象物の位置が前記対象物検出センサの位置よりも前記自車両の左側方に存在する場合、前記仮想視点を、前記自車両よりも右側の位置から車両左方に向けて設定する
ことを特徴とする表示装置の表示方法。 - 請求項2に記載された表示装置の表示方法において、
前記仮想視点設定ステップは、前記対象物の位置が前記対象物検出センサの位置よりも前記自車両の右側方に存在する場合、前記仮想視点を、前記自車両よりも左側の位置から車両右方に向けて設定する
ことを特徴とする表示装置の表示方法。 - 請求項1に記載された表示装置の表示方法において、
前記自車両の側方領域を撮影する複数のカメラを前記自車両に搭載し、
前記対象物位置特定ステップは、前記複数のカメラによって撮影された撮影画像に基づいて、前記複数のカメラの位置に対する前記対象物の位置を特定し、
前記仮想視点設定ステップは、前記対象物と前記自車両の前後輪を視界に含む位置に仮想視点を設定し、
前記画像生成ステップは、前記仮想視点からの画像を生成する際、前記対象物の直前位置に配置された第1カメラにより得られた第1撮影画像と、前記対象物の直後位置に配置された第2カメラにより得られた第2撮影画像とを用いて、前記自車両の側面及び車両下方領域を含む画像を生成する
ことを特徴とする表示装置の表示方法。 - 自車両の周囲の対象物を検出し、前記対象物が含まれる仮想視点からの画像を生成し、乗員の視覚支援情報として表示する表示コントローラを備えた表示装置において、
前記表示コントローラは、
所定の情報に基づいて、前記自車両に対する前記対象物の位置を特定する対象物位置特定部と、
前記対象物の位置に応じて、前記自車両と前記対象物との相対位置関係を把握する位置に前記仮想視点を設定する仮想視点設定部と、
前記仮想視点からの画像を生成する画像生成部と、
を有することを特徴とする表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172916A JP6769187B2 (ja) | 2016-09-05 | 2016-09-05 | 表示装置の表示方法及び表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172916A JP6769187B2 (ja) | 2016-09-05 | 2016-09-05 | 表示装置の表示方法及び表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018039295A true JP2018039295A (ja) | 2018-03-15 |
JP6769187B2 JP6769187B2 (ja) | 2020-10-14 |
Family
ID=61624837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016172916A Active JP6769187B2 (ja) | 2016-09-05 | 2016-09-05 | 表示装置の表示方法及び表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6769187B2 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206702A (ja) * | 2008-02-27 | 2009-09-10 | Fujitsu Ltd | 画像処理装置、画像処理方法 |
JP2011182059A (ja) * | 2010-02-26 | 2011-09-15 | Mitsubishi Motors Corp | 車両周辺監視装置 |
JP2012253428A (ja) * | 2011-05-31 | 2012-12-20 | Fujitsu Ten Ltd | 情報処理システム、サーバ装置、および、車載装置 |
US20130054086A1 (en) * | 2011-08-31 | 2013-02-28 | Autorad Tech Co., Ltd | Adjusting Method and System of Intelligent Vehicle Imaging Device |
JP2017046214A (ja) * | 2015-08-27 | 2017-03-02 | 株式会社デンソー | 車載表示制御装置、車載表示制御方法 |
-
2016
- 2016-09-05 JP JP2016172916A patent/JP6769187B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206702A (ja) * | 2008-02-27 | 2009-09-10 | Fujitsu Ltd | 画像処理装置、画像処理方法 |
JP2011182059A (ja) * | 2010-02-26 | 2011-09-15 | Mitsubishi Motors Corp | 車両周辺監視装置 |
JP2012253428A (ja) * | 2011-05-31 | 2012-12-20 | Fujitsu Ten Ltd | 情報処理システム、サーバ装置、および、車載装置 |
US20130054086A1 (en) * | 2011-08-31 | 2013-02-28 | Autorad Tech Co., Ltd | Adjusting Method and System of Intelligent Vehicle Imaging Device |
JP2017046214A (ja) * | 2015-08-27 | 2017-03-02 | 株式会社デンソー | 車載表示制御装置、車載表示制御方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6769187B2 (ja) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9902323B2 (en) | Periphery surveillance apparatus and program | |
US10477102B2 (en) | Method and device for determining concealed regions in the vehicle environment of a vehicle | |
JP6507626B2 (ja) | 車両周辺監視装置 | |
US10462354B2 (en) | Vehicle control system utilizing multi-camera module | |
JP2012527681A (ja) | 車両周辺映像を用いた車線離脱感知方法および装置 | |
CN110786004B (zh) | 显示控制装置、显示控制方法及存储介质 | |
JP2010130646A (ja) | 車両周辺確認装置 | |
JP2008296697A (ja) | 駐車支援装置 | |
JP5516988B2 (ja) | 駐車支援装置 | |
US20190135169A1 (en) | Vehicle communication system using projected light | |
WO2015133072A1 (ja) | 車両周辺画像表示装置、車両周辺画像表示方法 | |
JPWO2019142660A1 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
JP7000383B2 (ja) | 画像処理装置および画像処理方法 | |
JP2019054439A (ja) | 画像処理装置 | |
JP2011155651A (ja) | 車両周辺画像表示装置および車両周辺画像表示方法 | |
JP5226621B2 (ja) | 車両用画像表示装置 | |
JP2005182305A (ja) | 車両走行支援装置 | |
JP2004040523A (ja) | 車両周囲監視装置 | |
JP6439233B2 (ja) | 車両用画像表示装置及び画像処理方法 | |
KR101861523B1 (ko) | 차량 운전 보조 장치 및 방법 | |
JP6769187B2 (ja) | 表示装置の表示方法及び表示装置 | |
JP2018152014A (ja) | 車両用映像表示装置 | |
JP2009214790A (ja) | 撮像装置および方法、並びに、画像処理装置および方法 | |
JP6172059B2 (ja) | 車両用表示制御装置 | |
JP2019125894A (ja) | 車載画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200907 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6769187 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |