JP2018039295A - 表示装置の表示方法及び表示装置 - Google Patents

表示装置の表示方法及び表示装置 Download PDF

Info

Publication number
JP2018039295A
JP2018039295A JP2016172916A JP2016172916A JP2018039295A JP 2018039295 A JP2018039295 A JP 2018039295A JP 2016172916 A JP2016172916 A JP 2016172916A JP 2016172916 A JP2016172916 A JP 2016172916A JP 2018039295 A JP2018039295 A JP 2018039295A
Authority
JP
Japan
Prior art keywords
vehicle
image
host vehicle
virtual viewpoint
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016172916A
Other languages
English (en)
Other versions
JP6769187B2 (ja
Inventor
橋本 隆志
Takashi Hashimoto
隆志 橋本
小林 誠一
Seiichi Kobayashi
誠一 小林
草柳 佳紀
Yoshinori Kusayanagi
佳紀 草柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016172916A priority Critical patent/JP6769187B2/ja
Publication of JP2018039295A publication Critical patent/JP2018039295A/ja
Application granted granted Critical
Publication of JP6769187B2 publication Critical patent/JP6769187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】乗員に対して表示された画像の中で自車両と対象物との相対的な位置関係を容易に把握することができる視覚支援方法を提供すること。【解決手段】自車両Sの周囲の歩行者Hを検出し、歩行者Hが含まれる仮想視点Kからの画像を生成し、前記画像を乗員の視覚支援情報として表示する表示装置の表示方法において、所定の情報に基づいて、自車両Sに対する歩行者Hの位置41,42を特定し、特定した歩行者Hの位置41,42に応じて、自車両Sと歩行者Hとの相対位置関係を把握する位置41a,42aに前記仮想視点Kを設定し、設定した仮想視点Kからの画像を生成する構成とした。【選択図】図2

Description

本発明は、自車両の周囲を表示し、乗員の視覚支援を行う表示装置の表示方法及び表示装置に関する発明である。
従来、自車両の現在位置を特定し、特定した現在位置を含む周辺の道路構成情報に基づいて自車両に設けられた複数のカメラの撮影画像のうちのいずれを表示するかを選択し、選択した撮影画像を表示装置に表示する表示方法が知られている(例えば、特許文献1参照)。
特開2005-309812号公報
従来の表示装置の表示方法にあっては、自車両の走行状況に応じて、複数のカメラの撮影画像の中からいずれかを表示するというものであり、同じ画像の中でも視点変換をするものではなかった。そのため自車両の周囲に存在する対象物と、自車両との相対的な位置関係が変化した際、表示装置に表示された画像の中で、自車両と対象物との相対的な位置関係を把握することが難しい場合があった。
本発明は、上記問題に着目してなされたもので、乗員に対して表示された画像の中で、自車両と対象物との相対的な位置関係を容易に把握することができる表示装置の表示方法及び表示装置を提供することを目的とする。
上記目的を達成するため、本発明は、自車両の周囲の対象物を検出し、対象物を含んだ仮想視点からの画像を乗員の視覚支援情報として表示する表示装置の表示方法において、対象物位置特定ステップと、仮想視点設定ステップと、仮想画像生成ステップと、を有する。
対象物位置特定ステップでは、所定の情報に基づいて、自車両に対する対象物の位置を特定する。
仮想視点設定ステップでは、特定した対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点を設定する。
仮想画像生成ステップでは、設定した仮想視点から見たときの画像を生成する。
この結果、表示された画像の中で対象物を容易に把握することができる。
実施例1の表示方法及び表示装置が適用された表示支援システムを示す全体システム構成図である。 実施例1の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである。 自車両と第1位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図3Aに示す仮想視点から見たときの仮想画像である。 自車両と第2位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図4Aに示す仮想視点から見たときの仮想画像である。 自車両と第3位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図5Aに示す仮想視点から見たときの仮想画像である。 自車両と第4位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図6Aに示す仮想視点から見たときの仮想画像である。 図6Aに示す状態から所定時間経過後の自車両と歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図6Cに示す仮想視点から見たときの仮想画像である。 自車両と第4位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図7Aに示す仮想視点から見たときの仮想画像である。 図7Aに示す状態から所定時間経過後の自車両と歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図7Cに示す仮想視点から見たときの仮想画像である。 実施例1の表示装置が適用された車両の他の第1例である。 実施例1の表示装置が適用された車両の他の第2例である。 図9に示す自車両と第7位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 実施例2の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである。 自車両と第8位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図12Aに示す仮想視点から見たときの仮想画像である。 自車両と第9位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図13Aに示す仮想視点から見たときの仮想画像である。 自車両と第10位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。 図14Aに示す状態から、歩行者が車両左方へ移動するときに生成される仮想画像である 図14Aに示す状態から、歩行車が車両右方へ移動するときに生成される仮想画像である。 実施例2の表示装置が適用された車両の他の例である。
以下、本発明の表示装置の表示方法及び表示装置を実施するための形態を、図面に示す実施例1に基づいて説明する。
(実施例1)
まず、構成を説明する。
実施例1における表示装置の表示方法及び表示装置は、車両に乗車している乗員の視覚支援を行う視覚支援システムを搭載した運転支援車両に適用したものである。以下、実施例1の構成を、「全体システム構成」、「乗員の視覚支援制御構成」、「視覚支援制御処理構成」に分けて説明する。
[全体システム構成]
図1は、実施例1の表示方法及び表示装置が適用された表示支援システムを示す全体システム構成図である。以下、図1に基づき、全体システム構成を説明する。
実施例1の視覚支援システムは、図1に示すように、物体認識センサ21と、車載カメラ22と、舵角センサ23と、車速センサ24と、レンジ位置センサ25と、表示装置Dと、を備えている。そして、表示装置Dは、視覚支援CPU30(表示コントローラ)と、表示用ディスプレイ26と、を備えている。
物体認識センサ21は、自車両に設けられ、車両周囲に存在する対象物の位置を検出するための対象物検出センサである。ここで、「対象物」とは、例えば歩行者や自転車、路面に設けられた区画線(駐車枠線)や縁石、フェンス、壁、対向車両等の乗員の視覚支援に必要となる物体である。
この物体認識センサ21は、自車両の前部に搭載されて車両前方領域を探索するフロントセンサ21aと、自車両の後部に搭載されて車両後方領域を探索するリヤセンサ21bと、自車両の左側面に搭載されて車両左方領域を探索する左側センサ21cと、自車両の右側面に搭載されて車両右方領域を探索する右側センサ21dと、を有している。
物体認識センサ21としては、一般的に使用されているレーザレンジファインダに代表されるものである。しかし、レーザレンジファインダの他には、超音波を利用するクリアランスソナーを用いて対象物の位置を検出してもよい。レーザレンジファインダは、赤外線レーザーを目標物に照射し、その反射の度合いで目標物までの距離を測定できる装置であり、検出物体のまでの距離情報をポイントクラウド情報として取得できるようになっている。
物体認識センサ21によって取得された対象物までの距離情報は、視覚支援CPU30に出力される。
車載カメラ22は、自車両に設けられ、車両周囲に存在する対象物の位置を検出するための対象物検出センサである。この車載カメラ22は、自車両の前端部中央位置に搭載されて車両前方領域を撮影するフロントカメラ22aと、自車両の後端部中央位置に搭載されて車両前方領域を撮影するリヤカメラ22bと、自車両の左サイドミラーの下側左端位置に搭載されて車両左方領域を撮影する左サイドカメラ22cと、自車両の右サイドミラーの下側右端位置に搭載されて車両右方領域を撮影する右サイドカメラ22dと、を有している。
この車載カメラ22としては、一般的に使用されている単眼カメラに代表されるものである。しかし、単眼カメラの他には複数の撮影部を有するステレオカメラを用いて撮影してもよい。単眼カメラは、一つの撮影部を有するカメラであり、カラーカメラであってもよいし、モノクロカメラであってもよい。
車載カメラ22によって撮影された撮影画像情報は、視覚支援CPU30に出力される。
舵角センサ23は、現在のタイヤ操舵角量などを見積もるための操舵角情報を取得するセンサである。舵角センサ信号は、視覚支援CPU30に出力される。
車速センサ24は、自車両の速度や走行距離を演算するための車速情報を取得するセンサであり、ここでは車輪に設けられた車輪速センサが用いられる。車速センサ信号は、視覚支援CPU30に出力される。
レンジ位置センサ25は、セレクトレバーにより選択されたレンジポジション(P(パーキング),R(リバース),D(ドライブ),M(マニュアルモード)等)のレンジ位置情報を得るためのセンサであり、いわゆるインヒビタスイッチである。レンジ位置信号は、視覚支援CPU30に出力される。
視覚支援CPU30は、物体認識センサ21等の各種センサからのセンサ情報及び車載カメラ22からの画像情報に基づいて、自車両の周囲に存在する対象物を設定し、自車両に対する当該対象物の位置を特定する。そして、特定した対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点を設定し、設定した仮想視点からの画像(仮想画像)を生成する。生成した仮想画像情報は、表示用ディスプレイ26に出力される。
表示用ディスプレイ26は、一般的に車両に設けられているナビゲーション用の液晶ディスプレイや、遠隔操作端末に設けられたモニタ等を利用することができ、視覚支援CPU30から入力された仮想画像情報を画面上に表示する。
[乗員の視覚支援制御構成]
視覚支援CPU30は、自車両に搭載された表示装置Dが有する表示コントローラに相当し、図1に示すように、自車両状態把握部31及び対象物位置特定部32を有する画像切替処理部30Aと、仮想視点設定部33、画像生成部34、画像補正部35を有する画像生成処理部30Bと、を備えている。
自車両状態把握部31は、舵角センサ23、車速センサ24、レンジ位置センサ25からの各種のセンサ情報に基づいて、自車両の運転状態を把握する。自車両状態把握部31によって把握された車両運転情報は、対象物位置特定部32に出力される。なお、自車両の運転状態は、各種センサ情報から推定してもよい。
対象物位置特定部32は、自車両状態把握部31から車両運転情報と、物体認識センサ21からの対象物までの距離情報と、車載カメラ22からの撮影画像情報と、に基づいて、自車両の周辺に存在する対象物(例えば縁石や歩行者等)の有無を判断する。そして、対象物が存在すると判断したとき、自車両に対する当該対象物の位置を特定する。
ここでは、対象物が自車両の幅方向中央位置よりも左方に存在していれば、車載カメラ22のうちの左サイドカメラ22cの位置に対する対象物の位置を特定する。つまり、左サイドカメラ22cの光軸中心位置を基準として、車両左側に存在する対象物の車両前後方向の位置を特定する。また、対象物が自車両の幅方向中央位置よりも右方に存在していれば、車載カメラ22のうちの右サイドカメラ22dの位置に対する対象物の位置を特定する。つまり、右サイドカメラ22dの光軸中心位置を基準として、車両右側に存在する対象物の車両前後方向の位置を特定する。
なお、対象物の有無の判断は、車載カメラ22によって撮影される撮影範囲内に、予め設定された特異点を有する物体が撮影されたことで判断する。また、対象物の位置情報は、左サイドカメラ22cと右サイドカメラ22dにより撮影した撮影画像を俯瞰変換して生成された俯瞰映像を解析すると共に、物体認識センサ21より得られる当該対象物までの距離を勘案することによって取得する。さらに、対象物位置特定部32には、タイマ32aからのタイマ情報が入力され、所定の時間ごとに対象物の位置の特定を繰り返す。対象物位置特定部32によって特定された対象物の位置情報は、画像生成処理部30Bに入力される。
仮想視点設定部33は、自車両状態把握部31から車両運転情報と、対象物位置特定部32からの対象物の位置情報と、に基づいて、自車両と自車両の周囲に存在する対象物との相対位置関係を把握するために最も適切と判断される仮想視点の位置を設定する。
すなわち、まず、対象物が車両前後方向のいずれのアングルでも表示可能であるか否かを判断する。ここでは、左右サイドカメラ22c,22dの光軸中心位置を挟んで車両前後方向の所定範囲内に対象物のすべての部分が撮影されているとき(対象物が左右サイドカメラ22c,22dのほぼ正面に存在するとき)と、対象物がフロントカメラ22a、リヤカメラ22b及び左右サイドカメラ22c,22dのいずれか一方によって撮影されているとき(区画線や縁石のように対象物が車両前後方向に長く伸びているとき)に、対象物が車両前後方向のいずれのアングルでも表示可能であると判断する。なお、「左右サイドカメラ22c,22dの光軸中心を挟んだ所定範囲」は、撮影画像の状態等により任意に設定する。
そして、「車両前方向のアングル」とは、車両後方から車両前方を見たときのアングルであり、「車両後方向のアングル」とは、車両前方から車両後方を見たときのアングルである。
そして、対象物が車両前後方向のいずれかのアングルでしか表示できない場合には、対象物が左右サイドカメラ22c,22dの光軸中心位置よりも車両前方に存在するか否かを判断する。対象物が左右サイドカメラ22c,22dの光軸中心位置よりも車両後方に存在すると判断したときには、仮想視点を、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両よりも車両前方の位置から車両後方に向けて設定する。また、対象物が左右サイドカメラ22c,22dの光軸中心位置よりも車両前方に存在すると判断したときには、仮想視点を、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両よりも車両後方の位置から車両前方に向けて設定する。
すなわち、仮想視点は、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に設定される。
一方、対象物が車両前後方向のいずれのアングルでも表示可能の場合には、対象物と自車両との相対速度を検出し、当該相対速度がゼロより大きいか否かを判断する。そして、当該相対速度がゼロより大きいと判断したときには、仮想視点を、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両よりも車両後方の位置から車両前方に向けて設定する。また、当該相対速度がゼロ以下と判断したときには、仮想視点を、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両よりも車両前方の位置から車両後方に向けて設定する。
なお、「相対速度がゼロより大きい場合」とは、自車両よりも対象物の速度が速く、自車両から見たときに対象物が車両前方に向かって移動する場合である。また、「相対速度がゼロ以下の場合」とは、自車両よりも対象物の速度が遅く、自車両から見たときに対象物が車両後方に向かって移動していく場合である。
仮想視点設定部33によって設定された仮想視点情報は、画像生成部34に出力される。
画像生成部34は、車載カメラ22からの撮影画像情報と、仮想視点設定部33からの仮想視点情報と、に基づいて、対象物の位置に応じて設定された仮想視点からの画像に視点変換し、自車両と対象物との相対位置関係を把握する仮想画像を生成する。
このとき、仮想視点が車両前方に向けて設定されていれば、左右サイドカメラ22c,22dのいずれか一方による撮影画像と、フロントカメラ22aによる撮影画像とを用いて、対象物と自車両の前後輪、側面及び車両下方領域を含む仮想画像を生成する。また、仮想視点が車両後方に向けて設定されていれば、左右サイドカメラ22c,22dのいずれか一方による撮影画像と、リヤカメラ22bによる撮影画像とを用いて、対象物と自車両の前後輪、側面及び車両下方領域を含む仮想画像を生成する。
なお、仮想画像は、車載カメラ22による撮影画像を視点変換、合成、選択して生成するだけでなく、撮影画像から生成した画像に予め記憶したCG画像を重畳させて生成してもよい。CG画像は、地図情報や路面情報に応じて作成しておき、撮影画像との特異点マッチングを行うことで重畳させる。
画像生成部34によって生成された仮想画像情報は、画像補正部35に出力される。
画像補正部35は、画像生成部34からの仮想画像情報に基づいて、仮想画像中に重畳された情報や、歪みを生じさせる情報等を補正し、表示可能な仮想画像を生成する。
画像補正部35によって補正された後の仮想画像情報は、表示用ディスプレイ26に出力される。
[視覚支援制御処理構成]
図2は、実施例1の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである。以下、視覚支援制御処理構成をあらわす図2の各ステップについて説明する。
ステップS101では、舵角センサ23、車速センサ24、レンジ位置センサ25により、車両の運転状態の情報を取得し、自車両の運転状態を把握し、ステップS102へ進む。
ステップS102では、ステップS101での運転状態の把握に続き、車載カメラ22によって撮影した撮影範囲内に対象物が存在するか否かを判断する。YES(対象物あり)の場合にはステップS103に進む。NO(対象物なし)の場合にはステップS113へ進む。
ここで、対象物の存在の有無は、車載カメラ22による撮影画像を解析すると共に、物体認識センサ21からのセンサ情報を考慮して判断する。
ステップS103では、ステップS102での対象物ありとの判断に続き、当該対象物が車両前後方向のいずれのアングルでも表示可能であるか否かを判断する。YES(車両前後いずれからも表示可能)の場合にはステップS104へ進む。NO(車両前後一方からのみ表示可能)の場合にはステップS105へ進む。
ここで、対象物が車両前後方向のいずれのアングルでも表示可能であるか否かは、車載カメラ22による撮影状態に基づいて判断する。
ステップS104では、ステップS103での車両前後いずれからも表示可能との判断に続き、ステップS102にて存在を確認した対象物と自車両との車両前後方向の相対速度を検出し、検出した相対速度がゼロより大きいか否か、すなわち自車両よりも対象物の速度が速いか否かを判断する。YES(相対速度>ゼロ)の場合には、ステップS108へ進む。NO(相対速度≦ゼロ)の場合には、ステップS110へ進む。
ここで、対象物と自車両との相対速度は、タイマ32aでカウントした所定時間内での対象物の動き(移動方向)に基づいて検出する。
ステップS105(対象物位置特定ステップ)では、ステップS103での車両前後一方からのみ表示可能との判断に続き、ステップS102にて存在を確認した対象物の位置は、左右サイドカメラ22c,22dよりも後方位置であるか否かを判断する。YES(サイドカメラよりも後方)の場合には、ステップS106に進む。NO(サイドカメラよりも前方)の場合には、ステップS108に進む。
このとき、対象物の位置は、左右サイドカメラ22c,22dの光軸中心の位置を基準として判断され、左右サイドカメラ22c,22dの撮影画像に基づいて、対象物が当該光軸中心位置よりも車両前方位置に存在するか、車両後方位置に存在するかを判断する。
ステップS106(仮想視点設定ステップ)では、ステップS105での対象物がサイドカメラよりも後方に位置するとの判断に続き、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両(左右サイドカメラ22c,22d)よりも車両前方の位置から車両後方に向けて仮想視点を設定し、ステップS107に進む。
ここで、対象物が左右サイドカメラ22c,22dよりも車両後方に位置しているときには、左右サイドカメラ22c,22dのいずれかによって対象物の前面(車両前方を向いた面)と対象物の後方背景が撮影されていると考えられる。そのため、車両後方に向けて仮想視点を設定することで、左右サイドカメラ22c,22dの撮影画像を用いて、対象物と自車両の前後輪を含み、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS106では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
ステップS107(画像生成ステップ)では、ステップS106での仮想視点の設定に続き、このステップS106にて設定した仮想視点から見たときの画像に視点変換した仮想画像を、左右サイドカメラ22c,22dのいずれか一方と、リヤカメラ22bとの映像を用いて生成し、ステップS112へ進む。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
ステップS108(仮想視点設定ステップ)では、ステップS104での対象物と自車両との相対速度>ゼロとの判断、又は、ステップS105での対象物がサイドカメラよりも前方に位置するとの判断に続き、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両(左右サイドカメラ22c,22d)よりも車両後方の位置から車両前方に向けて仮想視点を設定し、ステップS109に進む。
ここで、対象物と自車両との相対速度がゼロより大きいときには、自車両から見たときに対象物が車両前方に向かって移動していくと考えられる。そのため、車両前方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
また、対象物が左右サイドカメラ22c,22dよりも車両前方に位置しているときには、左右サイドカメラ22c,22dのいずれかによって対象物の後面(車両後方を向いた面)と対象物の前方背景が撮影されていると考えられる。そのため、車両前方に向けて仮想視点を設定することで、左右サイドカメラ22c,22dの撮影画像を用いて、対象物と自車両の前後輪を含む、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
ステップS109(画像生成ステップ)では、ステップS108での仮想視点の設定に続き、このステップS108にて設定した仮想視点から見たときの画像に視点変換した仮想画像を、左右サイドカメラ22c,22dのいずれか一方と、フロントカメラ22aとの映像を用いて生成し、ステップS112へ進む。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
ステップS110では、ステップS104での対象物と自車両との相対速度≦ゼロとの判断に続き、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両(左右サイドカメラ22c,22d)よりも車両前方の位置から車両後方に向けて仮想視点を設定し、ステップS111に進む。
ここで、対象物と自車両との相対速度がゼロ以下のときには、自車両から見たときに対象物が車両後方に向かって移動していくと考えられる。そのため、車両後方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく対象物と自車両との相対位置関係を把握する仮想画像を生成可能となる。
ステップS111では、ステップS110での仮想視点の設定に続き、このステップS110にて設定した仮想視点から見たときの画像に視点変換した仮想画像を、左右サイドカメラ22c,22dのいずれか一方と、リヤカメラ22bとの映像を用いて生成し、ステップS112へ進む。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
ステップS112では、ステップS107,ステップS109,ステップS111での仮想画像の生成に続き、これらのステップにて生成された仮想画像を表示用ディスプレイ26に表示して、リターンへ進む。
これにより、表示用ディスプレイ26には、対象物と自車両との相対位置関係を把握する仮想画像が表示され、自車両に乗車した乗員の視覚支援が行われる。
ステップS113では、ステップS102での対象物なしとの判断に続き、表示用ディスプレイ26に所定の仮想視点からの仮想画像を表示中であるか否かを判断する。YES(仮想画像表示中)の場合には、ステップS114へ進む。NO(仮想画像非表示)の場合には、ステップS101へ戻る。
ステップS114では、ステップS113での仮想画像表示中との判断に続き、対象物が存在しないため仮想画像による視覚支援は不要であるとして、表示用ディスプレイ26における仮想画像の表示を終了し、リターンへ進む。
次に、作用を説明する。
実施例1の作用を、「視覚支援制御処理作用」、「仮想視点設定作用」、「仮想画像生成作用」に分けて説明する。
[視覚支援制御処理作用]
以下、図2のフローチャートに基づき、視覚支援制御処理作用を説明する。
図3Aに示すように、自車両Sは、前端部中央位置に車載カメラ22のフロントカメラ22aが搭載され、後端部中央位置にリヤカメラ22bが搭載され、左サイドミラーに左サイドカメラ22cが搭載され、右サイドミラーに右サイドカメラ22dが搭載されている。
各カメラ22a〜22dの撮影範囲A〜Dは、図中に示す破線で囲んだ領域である。
ここで、自車両Sの走行中、自車両Sの左斜め前方位置である第1位置41に歩行者Hが存在する場合を考える。このとき、図2に示すフローチャートにおいて、ステップS101→ステップS102へと進み、フロントカメラ22a及び左サイドカメラ22cの撮影範囲A,C内に存在する歩行者Hを、「対象物」として設定する。
次に、ステップS103へと進み、対象物である歩行者Hが車両前後方向のいずれのアングルでも表示可能か否かを判断する。ここで、歩行者Hは、左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X(図3Aでは斜線を付した領域)内では撮影されていない。そのため、歩行者Hは、車両前後方向のいずれかのアングルでしか表示できないとして、ステップS105へと進む。
ステップS105へ進んだら、歩行者Hの位置が左サイドカメラ22cよりも後方位置であるか否かを判断する。図3Aの場合では、歩行者Hは、左サイドカメラ22cの光軸中心位置αよりも車両前方に位置しているので、ステップS108へと進み、歩行者H及び自車両S(少なくとも左サイドカメラ22c)よりも車両後方の位置41aから、車両前方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪11,12を含める。
仮想視点Kを設定したら、ステップS109→ステップS112へと進んで、この位置41aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
このとき、生成される仮想画像は、図3Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも後方に位置する左サイドカメラ22cと、歩行者Hよりも前方に位置するフロントカメラ22aとの映像を用いて生成し、歩行者Hの背面が映される。
すなわち、位置41aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置されたフロントカメラ22a(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置された左サイドカメラ22c(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの後方から前方を向いた画像を生成する。
なお、図3Bに示す仮想画像のうち、例えば自車両Sの側面13の一部(ドットで示す領域)や、路面Rの一部(ドットで示す領域)等、撮影画像に含まれていなかったり、含まれていても視点変換することで大きく歪んでしまう領域については、予め生成されたCG画像を重畳してもよい。
また、図4Aに示すように、自車両Sの走行中、自車両Sの左側方位置である第2位置42に歩行者Hが存在した場合では、ステップS101→ステップS102へと進んで歩行者Hを「対象物」として設定したら、ステップS103へと進み、対象物である歩行者Hが車両前後方向のいずれのアングルでも表示可能か否かを判断する。
ここでは、歩行者Hが左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内で撮影されていないため、歩行者Hは、車両前後方向のいずれかのアングルでしか表示できないとして、ステップS105へと進む。ステップS105へ進んだら、歩行者Hの位置が左サイドカメラ22cよりも後方位置であるか否かを判断する。図4Aの場合では、歩行者Hは、左サイドカメラ22cの光軸中心位置αよりもわずかに車両後方に位置しているので、ステップS106に進む。これにより、歩行者H及び自車両S(左サイドカメラ22c)よりも車両前方の位置42aから、車両後方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪11,12を含める。
仮想視点Kを設定したら、ステップS107→ステップS112へと進んで、この位置42aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
このとき、生成される仮想画像は、図4Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも前方に位置する左サイドカメラ22cと、歩行者Hよりも後方に位置するリヤカメラ22bとの映像を用いて生成し、歩行者Hの正面が映される。
すなわち、位置42aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置された左サイドカメラ22c(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置されたリヤカメラ22b(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの前方から後方を向けた画像を生成する。
なお、図3Bに示す仮想画像と同様に、図4Bに示す仮想画像のうち、撮影画像に含まれていない領域等(図4Bにおいてドットで示す領域)については、予め生成されたCG画像を重畳してもよい。
さらに、図5Aに示すように、自車両Sの走行中、自車両Sの左斜め後方位置である第3位置43に歩行者Hが存在した場合では、ステップS101→ステップS102へと進んで歩行者Hを「対象物」として設定したら、ステップS103へと進み、対象物である歩行者Hが車両前後方向のいずれのアングルでも表示可能か否かを判断する。
このとき、歩行者Hが左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内で撮影されていないため、歩行者Hは、車両前後方向のいずれかのアングルでしか表示できないとして、ステップS105へと進む。ステップS105へ進んだら、歩行者Hの位置が左サイドカメラ22cよりも後方位置であるか否かを判断する。図5Aの場合では、歩行者Hは、左サイドカメラ22cの光軸中心位置αよりも車両後方に位置しているので、ステップS106に進む。これにより、歩行者H及び自車両S(左サイドカメラ22c)よりも車両前方の位置43aから、車両後方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪11,12を含める。
仮想視点Kを設定したら、ステップS107→ステップS112へと進んで、この位置43aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
このとき、生成される仮想画像は、図5Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも前方に位置する左サイドカメラ22cと、歩行者Hよりも後方に位置するリヤカメラ22bとの映像を用いて生成し、歩行者Hの正面が映される。
すなわち、位置43aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置された左サイドカメラ22c(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置されたリヤカメラ22b(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの前方から後方を向いた画像を生成する。
なお、図3B,図4Bに示す仮想画像と同様に、図5Bに示す仮想画像のうち、撮影画像に含まれていない領域等(図5Bにおいてドットで示す領域)については、予め生成されたCG画像を重畳してもよい。
このように、実施例1の表示方法及び表示装置Dでは、自車両Sの周囲に視覚支援に必要となる対象物(図3A〜図5Bでは歩行者H)を検出したら、自車両Sに対する対象物(歩行者H)の位置を特定する。そして、特定した対象物(歩行者H)の位置に応じて、自車両Sと対象物(歩行者H)との相対位置関係を把握する位置に仮想視点Kを設定する。
つまり、仮想視点Kの設定位置は、自車両Sに対する対象物(歩行者H)の位置に応じて変化し、自車両Sと対象物(歩行者H)との相対位置関係を把握するために最適な位置にその都度設定される。
この結果、図3B,図4B,図5Bに示す仮想画像ように、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握可能な仮想画像を生成することができる。そして、乗員に対して表示するために表示用ディスプレイ26に表示された画像の中で、自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができ、自車両Sに乗車した乗員の視覚支援を効果的に行うことができる。
また、自車両Sに対する対象物(歩行者H)の位置に応じて仮想視点Kの設定位置を変化させるので、自車両側方撮影用のカメラが片側あたり1台であっても、撮像対象が歪んだり、例えば対象物(歩行者H)の一部が切れるなどの、撮像対象の一部が描画されないといった不具合画像を提供することなく、乗員の視覚支援を行うことができる。
さらに、この実施例1において生成される仮想画像は、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含む、いわゆる「サイドダウンビュー」である。そのため、センターラインのない比較的狭い道幅道路環境においても、自車両Sの真横周辺に存在する歩行者や自転車、縁石(道路境界)、或いは対向車両等への接近度合いを、分かりやすく表示することができる。そして、自車両Sに対する対象物(歩行者H)の位置に応じて仮想視点Kを設定することで、歩行者や自転車を気にしながら縁石と並行に車両を寄せるというシーン等において、乗員が車両の周囲状況を把握しやすい適切なサイドダウンビューを切り替え表示することができる。
また、この実施例1では、対象物(歩行者H)の位置を検出する対象物検出センサとして、車載カメラ22(フロントカメラ22a、リヤカメラ22b、左サイドカメラ22c、右サイドカメラ22d)を搭載している。そして、自車両Sに対する対象物(歩行者H)の位置を特定する際、対象物検出センサである左サイドカメラ22cの光軸中心位置αを基準にし、この左サイドカメラ22cの光軸中心位置αに対する対象物(歩行者H)の位置を特定している。
つまり、左サイドカメラ22cと対象物(歩行者H)との相対位置関係に応じて仮想視点Kの位置を調整する。
これにより、図4Aに示すように、自車両Sの側方に位置する対象物(歩行者H)であっても、対象物(歩行者H)位置の特定を容易に行うことができ、仮想視点Kの設定を速やかに行って、仮想画像を短時間で生成することができる。そのため、自車両Sの速度が速い場合であっても、適切なタイミングで仮想画像を表示することができ、視覚支援効果を向上することができる。
[仮想視点設定作用]
図3A〜図5Bに示すシーンでは、対象物である歩行者Hが左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内で撮影されておらず、この歩行者Hは、車両前後方向のいずれかのアングルでしか表示できない例となっている。
これに対し、図6Aに示すように、左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内の第4位置44に歩行者Hが存在し、この所定領域X内に歩行者Hの全ての部分が撮影されているシーンを考える。
このときには、歩行者Hは、左サイドカメラ22cの正面に位置することになり、車両前後方向のいずれのアングルでも表示可能となる。
そのため、図2に示すフローチャートにおいて、ステップS101→ステップS102→ステップS103→ステップS104へと進み、歩行者Hと自車両Sとの相対速度を検出し、この検出した相対速度がゼロより大きいか否かを判断する。
ここで、例えば自車両Sが走行中である一方、歩行者Hが立ち止っているときには、歩行者Hよりも自車両Sの移動速度が速く、相対速度はゼロ以下になる。そのため、ステップS104→ステップS110へと進み、歩行者H及び自車両S(左サイドカメラ22c)よりも車両前方の位置44aから、車両後方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪11,12を含める。
仮想視点Kを設定したら、ステップS111→ステップS112へと進んで、この位置44aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
このとき、生成される仮想画像は、図6Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hの側方に位置する左サイドカメラ22cと、歩行者Hよりも後方に位置するリヤカメラ22bとの映像を用いて生成し、歩行者Hの正面が映される。
その後、時間の経過と共に、自車両Sと歩行者Hとの相対的な位置関係が変化する。具体的には、図6Cに示すように、自車両Sの速度が高いことから、歩行者Hは自車両Sの左斜め後方位置である第5位置45へと相対的に移動する。
ここで、視覚支援のための仮想画像は、位置44aから車両後方に向いた状態で設定された仮想視点Kからの画像となっており、自車両Sを車両前方から後方に向かって見たときの画像となっている。そのため、時間の経過と共に、歩行者Hが自車両Sの左斜め後方位置へと相対的に移動したときであっても、図6Dに示すように、歩行者Hを仮想画像中に含め続けることができる。
一方、図7Aに示すように、左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内の第4位置44に歩行者Hが存在し、この所定領域X内に歩行者Hの全ての部分が撮影されている場合であっても、例えば自車両Sが停車しており、歩行者Hが車両前方に向かって歩いているときには、歩行者Hと自車両Sとの相対速度がゼロより大きくなる。
このときには、ステップS101→ステップS102→ステップS103→ステップS104→ステップS108へと進み、歩行者H及び自車両S(左サイドカメラ22c)よりも車両後方の位置44bから、車両前方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪を含める。
その後、ステップS111→ステップS112へと進んで、この位置44bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
これにより、位置44bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像は、図7Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hの側方に位置する左サイドカメラ22cと、歩行者Hよりも前方に位置するフロントカメラ22aとの映像を用いて生成され、歩行者Hの背面が映される。
そして、その後時間の経過と共に、自車両Sと歩行者Hとの相対的な位置関係が変化するが、この場合では歩行者Hの速度が高いことから、図7Cに示すように、歩行者Hは自車両Sの左斜め前方位置である第6位置46へと相対的に移動する。
ここで、視覚支援のための仮想画像では、位置44bから車両前方に向いた状態で設定された仮想視点Kからの画像となっており、自車両Sを車両後方から前方に向かって見たときの画像となっている。そのため、時間の経過と共に、歩行者Hが自車両Sの左斜め前方位置へと相対的に移動したときであっても、図7Dに示すように、歩行者Hを仮想画像中に含め続けることができる。
このように、対象物(歩行者H)が、車両前後方向のいずれのアングルでも表示可能な場合には、自車両Sと対象物(歩行者H)との相対速度の大きさに応じて仮想視点Kの位置を設定する。これにより、時間の経過と共に、自車両Sと対象物(歩行者H)との車両前後方向の相対位置関係が変化しても、仮想視点Kの位置を変更することなく対象物(歩行者H)を仮想画像中に含め続けることができる。この結果、仮想画像のアングルを維持することができ、自車両Sと対象物(歩行者H)との相対位置関係を把握する仮想画像に大きな変化が生じず、この相対位置関係を容易に把握可能とすることができる。
これに対し、図3Aに示すように、対象物(歩行者H)が左サイドカメラ22cよりも車両前方に存在しているときには、仮想視点Kを、対象物(歩行者H)の後方位置から車両前方に向くように設定する。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が前方に位置しているときであっても、車両前方を向いた仮想視点Kを基準として生成された仮想画像(図3B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
また、図4A及び図5Aに示すように、対象物(歩行者H)が左サイドカメラ22cよりも車両後方に存在しているときには、仮想視点Kを、対象物(歩行者H)の前方位置から車両後方に向くように設定する。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が後方に位置しているときであっても、乗員は、車両後方を向いた仮想視点Kを基準として生成された仮想画像(図4B,5B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
[仮想画像生成作用]
実施例1において、対象物(歩行者H)の位置に応じて設定した仮想視点Kからの仮想画像を生成する際、上述したように、仮想視点Kを車両前方に向く位置に設定した場合(図3A,図7A参照)のときには、左サイドカメラ22cと、フロントカメラ22aとの映像を用いて生成し、図3Bや図7Bに示すように仮想画像中に歩行者Hの背面が映される。
一方、仮想視点Kを車両後方に向く位置に設定した場合(図4A,図5A,図6A参照)のときには、左サイドカメラ22cと、リヤカメラ22bとの映像を用いて生成し、図3B,図5Bや図6Bに示すように仮想画像中に歩行者Hの背面が映される。
このように、仮想視点Kが設定された向きによって、車載カメラ22の中から適切な位置に設けられたカメラを選定し、当該カメラによる撮影画像を用いて仮想画像を生成する。この結果、歪みや欠けた部分の少ない適切な仮想画像を生成することができ、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
次に、効果を説明する。
実施例1の表示装置の表示方法及び表示装置にあっては、下記に列挙する効果を得ることができる。
(1) 自車両Sの周囲の対象物(歩行者H)を検出し、前記対象物(歩行者H)が含まれる仮想視点Kからの画像を生成し、前記画像を乗員の視覚支援情報として表示する表示装置の表示方法において、
所定の情報に基づいて、前記自車両Sに対する前記対象物(歩行者H)の位置41,42を特定する対象物位置特定ステップ(ステップS105)と、
前記対象物(歩行者H)の位置41,42に応じて、前記自車両Sと前記対象物(歩行者H)との相対位置関係を把握する位置41a,42aに前記仮想視点Kを設定する仮想視点設定ステップ(ステップS106,ステップS108)と、
前記仮想視点Kから見たときの画像を生成する画像生成ステップ(ステップS107,ステップS109)と、
を有する構成とした。
これにより、乗員に対して表示された画像の中で自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができる。
(2) 前記対象物(歩行者H)の位置を検出する対象物検出センサ(左サイドカメラ22c)を前記自車両Sに搭載し、
前記対象物位置特定ステップ(ステップS105)は、前記対象物検出センサ(左サイドカメラ22c)の位置(光軸中心位置α)に対する前記対象物(歩行者H)の位置41,42を特定する構成とした。
これにより、(1)の効果に加え、対象物(歩行者H)の位置を容易に特定し、仮想視点Kの設定を速やかに行って、適切なタイミングで仮想画像の表示を行うことができる。
(3) 前記仮想視点設定ステップ(ステップS106,ステップS108)は、前記対象物(歩行者H)の位置(第1位置41)が前記対象物検出センサ(左サイドカメラ22c)の位置(光軸中心位置α)よりも前方にある場合、前記仮想視点Kを、前記対象物(歩行者H)よりも車両後方の位置41aから車両前方に向けて設定する構成とした。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が前方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
(4) 前記画像生成ステップ(ステップS107,ステップS109)は、車両前方に向けて設定された仮想視点Kからの画像を生成する際、前記対象物(歩行者H)よりも車両後方に位置する対象物検出センサ(左サイドカメラ22c)によって検出された情報を用いて前記画像を生成する構成とした。
これにより、 (3)の効果に加え、仮想視点Kの向きに応じた適切な位置に設けられた対象物検出センサ(左サイドカメラ22c)からの情報を用いて仮想画像を生成でき、自車両Sと対象物(歩行者H)との相対位置関係を把握するための適切な仮想画像を生成することができる。
(5) 前記仮想視点設定ステップ(ステップS106,ステップS108)は、前記対象物(歩行者H)の位置(第2位置42)が前記対象物検出センサ(左サイドカメラ22c)の位置(光軸中心位置α)よりも後方にある場合、前記仮想視点Kを、前記対象物(歩行者H)よりも車両前方の位置42aから車両後方に向けて設定する構成とした。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が後方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
(6) 前記画像生成ステップ(ステップS107,ステップS109)は、車両後方に向けて設定された仮想視点Kからの画像を生成する際、前記対象物(歩行者H)よりも車両前方に位置する対象物検出センサ(左サイドカメラ22c)によって検出された情報を用いて前記画像を生成する構成とした。
これにより、仮想視点Kの向きに応じた適切な位置に設けられた対象物検出センサ(左サイドカメラ22c)からの情報を用いて仮想画像を生成でき、自車両Sと対象物(歩行者H)との相対位置関係を把握するための適切な仮想画像を生成することができる。
(7) 自車両Sの周囲の対象物(歩行者H)を検出し、前記対象物(歩行者H)が含まれる仮想視点Kからの画像を生成し、乗員の視覚支援情報として表示する表示コントローラ(視覚支援CPU30)を備えた表示装置Dにおいて、
前記表示コントローラ(視覚支援CPU30)は、
所定の情報に基づいて、前記自車両Sに対する前記対象物(歩行者H)の位置41,42を特定する対象物位置特定部32と、
前記対象物(歩行者H)の位置に応じて、前記自車両Sと前記対象物(歩行者H)との相対位置関係を把握する位置41a,42aに前記仮想視点Kを設定する仮想視点設定部33と、
前記仮想視点Kからの画像を生成する画像生成部34と、
を有する構成とした。
これにより、乗員に対して表示された画像の中で自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができる。
(実施例1の変形例)
図8は、実施例1の表示方法及び表示装置の第1変形例を適用される自車両S1の平面図である。
この自車両S1は、車載カメラ22として、自車両S1の前端部中央位置に搭載されて車両前方領域Aを撮影するフロントカメラ22aと、自車両S1の後端部中央位置に搭載されて車両前方領域Bを撮影するリヤカメラ22bと、自車両S1の左サイドミラーの下側左端位置に搭載されて車両左前方領域Cを撮影する第1左サイドカメラ22cと、自車両S1の左リヤピラーの下端位置に搭載されて車両左後方領域Eを撮影する第2左サイドカメラ22eと、自車両S1の右サイドミラーの下側右端位置に搭載されて車両右前方領域Dを撮影する第1右サイドカメラ22dと、自車両S1の右リヤピラーの下端位置に搭載されて車両右後方領域Fを撮影する第2右サイドカメラ22fと、を有している。
すなわち、自車両S1では、車載カメラ22が車両全体で6台、車両側方領域を撮影するカメラが片側あたり2台となっている。
また、図9は、実施例1の表示方法及び表示装置の第2変形例を適用される自車両S2の平面図である。
この自車両S2は、車載カメラ22として、自車両S2の前端部中央位置に搭載されて車両前方領域Aを撮影するフロントカメラ22aと、自車両S2の後端部中央位置に搭載されて車両前方領域Bを撮影するリヤカメラ22bと、自車両S2の左サイドミラーの下側左端位置に搭載されて車両左前方領域Cを撮影する第1左サイドカメラ22cと、自車両S2の左リヤピラーの下端位置に搭載されて車両左後方領域Eを撮影する第2左サイドカメラ22eと、自車両S2のフロントバンパーの左端位置に搭載されて車両左前方領域Gを撮影する第3左サイドカメラ22gと、自車両S2の右サイドミラーの下側右端位置に搭載されて車両右前方領域Dを撮影する第1右サイドカメラ22dと、自車両S2の右リヤピラーの下端位置に搭載されて車両右後方領域Fを撮影する第2右サイドカメラ22fと、自車両S2のフロントバンパーの右端位置に搭載されて車両右前方領域Jを撮影する第3右サイドカメラ22jと、を有している。
すなわち、自車両S2では、車載カメラ22が車両全体で8台、車両側方領域を撮影するカメラが片側あたり3台となっている。
この自車両S1や自車両S2のように、車両側方領域を撮影する複数のカメラを搭載した車両では、車両側方領域をサイドカメラの数に応じて分割し、左右のサイドカメラによって撮影することができる。そのため、サイドカメラの撮影範囲を実施例1の場合よりも広角(魚眼)にする必要性が低くなり、左右のサイドカメラの1台当たりの撮影範囲を狭角化することができる。
これにより、横方向における広範囲の画像情報を歪み等の違和感を抑制して表示させることができる。さらに、左右サイドカメラが1台の場合において設定した仮想視点の位置よりも、より後方の位置に仮想視点を設定することが可能となる。
また、図8や図9に示すように、サイドカメラの数を複数にしたことで、車両前後方向のいずれからのアングルであっても対象物を表示可能となる所定領域Xを拡大することができる。
すなわち、図8に示す場合では、第1左右サイドカメラ22c,22dの光軸中心位置αと、第2左右サイドカメラ22e,22fの光軸中心位置βで囲まれた領域と、その前後所定領域を、所定領域Xとする。また、図9に示す場合では、第3左右サイドカメラ22g,22jの光軸中心位置γと、第2左右サイドカメラ22e,22fの光軸中心位置βで囲まれた領域と、その前後所定領域を、所定領域Xとする。
この結果、特に、図9に示すように、車両側方領域を撮影する第1〜第3左右サイドカメラ22c〜22jを設けた場合では、自車両S2の側方領域のほぼ全域において、前後いずれの画像アングルであっても可能とすることができる。
そのため、仮想画像の設定自由度が向上し、例えば縁石に等の道路境界線に自車両を寄せながら、当該縁石に対して平行に駐車させるシーン等に効果を発揮し、乗員への視覚支援効果を向上することができる。
すなわち、例えば図10に示すように、自車両S2の側方の第7位置47に歩行者H(対象物)が存在する場合では、まず、複数のサイドカメラ(第1〜第3左サイドカメラ22c,22e,22g)によって撮影された撮影画像に基づいて歩行者Hの位置を特定し、自車両S2との相対速度に応じて画像アングルを設定する。
つまり、歩行者Hと自車両S2との相対速度がゼロより大きければ、車両前方を向き、歩行者Hと自車両S2の前後輪を視界に含む位置47aに仮想視点を設定する。また、当該相対速度がゼロ以下であれば、車両後方を向き、歩行者Hと自車両S2の前後輪を視界に含む位置47bに仮想視点を設定する。
そして、各位置47a,47bからの仮想画像を生成する際、歩行者Hの直前に配置された第3左サイドカメラ22g(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置された第1左サイドカメラ22c(第2カメラ)により得られた第2撮影画像とを用いて、前記自車両S2の側面及び車両下方領域を含む仮想画像を生成する。
これにより、歩行者Hの直前に位置する第3左サイドカメラ22g、歩行者Hの直後に位置する第1左サイドカメラ22cの撮影画像を主体にして、自車両Sの側面13及び車両下方領域を含む画像(サイドダウンビュー)を生成し、これと同時に双方の第3,第1左サイドカメラ22g,22cの撮影画像の相対速度差からアングル(画像方向)を決定することが可能となる。そのため、乗員が自車両S2と歩行者Hとの相対的な位置関係を把握しやすい仮想画像のアングル(画像方向)を制限されにくくなる。
(実施例2)
実施例2は、自車両の周囲に存在する対象物の、自車両の幅方向中央位置に対する左右方向の位置に応じて仮想視点を設定する例である。
図11は、実施例1の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである、以下、視覚支援制御処理構成をあらわす図11の各ステップについて説明する。
ステップS201では、舵角センサ23、車速センサ24、レンジ位置センサ25により、車両の運転状態の情報を取得し、自車両の運転状態を把握し、ステップS202へ進む。
ステップS202では、ステップS201での運転状態の把握に続き、車載カメラ22によって撮影した撮影範囲内に対象物が存在するか否かを判断する。YES(対象物あり)の場合にはステップS203に進む。NO(対象物なし)の場合にはステップS211へ進む。
ここで、対象物の存在の有無は、車載カメラ22による撮影画像を解析すると共に、物体認識センサ21からのセンサ情報を考慮して判断する。
ステップS203では、ステップS202での対象物ありとの判断に続き、当該対象物が車両左右方向のいずれのアングルでも表示可能であるか否かを判断する。YES(車両左右いずれからも表示可能)の場合にはステップS204へ進む。NO(車両左右一方からのみ表示可能)の場合にはステップS205へ進む。
ここで、対象物が車両左右方向のいずれのアングルでも表示可能であるか否かは、車載カメラ22による撮影状態に基づいて判断する。
ステップS204では、ステップS203での車両左右いずれからも表示可能との判断に続き、ステップS202にて存在を確認した対象物が自車両の右方に向かって移動しているか否かを判断する。YES(右方への移動あり)の場合には、ステップS207へ進む。NO(右方への移動なし)の場合には、ステップS208へ進む。
ここで、対象物の移動については、タイマ32aでカウントした所定時間内での対象物の動き(移動方向)に基づいて検出する。なお、「右方への移動なし」には、対象物が自車両の左方に移動している場合と、その場で停止している場合を含む。
ステップS205(対象物位置特定ステップ)では、ステップS203での車両左右一方からのみ表示可能との判断に続き、ステップS202にて存在を確認した対象物が、左サイドカメラ22cにて撮影可能であるか否かを判断する。YES(左サイドカメラで撮影可能)の場合には、ステップS206へ進む。NO(左サイドカメラで撮影不可能)の場合には、ステップS207へ進む。
ここで、「左サイドカメラ22cにて撮影可能」とは、対象物の位置が、自車両の幅方向中心位置よりも左側位置に存在することを意味する。一方、「左サイドカメラ22cにて撮影不可能」ということは、右サイドカメラ22dにて撮影されており、対象物の位置が、自車両の幅方向中央位置よりも右側位置に存在することを意味する。
ステップS206(仮想視点設定ステップ)では、ステップS205での対象物が左サイドカメラ22cで撮影可能との判断に続き、対象物と自車両の一部を視界に含む位置であって、対象物及び自車両の幅方向中心位置よりも車両前方右側の位置から車両後方左側(車両左方)に向けて仮想視点を設定し、ステップS209に進む。
ここで、対象物が左サイドカメラ22cにて撮影されているときには、この左サイドカメラ22cによって対象物の右側面と車両の左方背景が撮影されていると考えられる。そのため、車両左方に向けて仮想視点を設定することで、左サイドカメラ22cの撮影画像を用いて、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS206では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
ステップS207(仮想視点設定ステップ)では、ステップS204での対象物が自車両の右方に向かって移動との判断、又は、ステップS205での対象物が左サイドカメラで撮影不可能との判断に続き、対象物と自車両の一部を視界に含む位置であって、対象物及び自車両の幅方向中心位置よりも車両前方左側の位置から車両後方右側(車両右方)に向けて仮想視点を設定し、ステップS209に進む。
ここで、対象物が自車両の右方に向かって移動するときには、車両右方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
また、対象物が左サイドカメラ22cにて撮影されていないときには、右サイドカメラ22dによって対象物の左側面と車両の右方背景が撮影されていると考えられる。そのため、車両右方に向けて仮想視点を設定することで、右サイドカメラ22dの撮影画像を用いて、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS207では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
ステップS208では、ステップS204での対象物が自車両の左方に向かって移動との判断に続き、対象物と自車両の一部を視界に含む位置であって、対象物及び自車両の幅方向中心位置よりも車両前方右側の位置から車両後方左側(車両左方)に向けて仮想視点を設定し、ステップS209に進む。
ここで、対象物が自車両の左方に向かって移動するときには、車両左方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
ステップS209では、ステップS206,ステップS207,ステップS208での仮想視点の設定に続き、いずれかのステップにて設定された仮想視点から見たときの画像に視点変換した仮想画像を、左右サイドカメラ22c,22dのいずれか一方と、フロントカメラ22a又はリヤカメラ22bとの映像を用いて生成し、ステップS210へ進む。
このとき、生成する仮想画像は、対象物と、自車両の一部(例えば、前輪、運転席、車両側面及び車両下方領域)を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
ステップS210では、ステップS209での仮想画像の生成に続き、このステップS209にて生成された仮想画像を表示用ディスプレイ26に表示して、リターンへ進む。
これにより、表示用ディスプレイ26には、対象物と自車両との相対位置関係を把握する仮想画像が表示され、自車両に乗車した乗員の視覚支援が行われる。
ステップS211では、ステップS202での対象物なしとの判断に続き、表示用ディスプレイ26に所定の仮想視点からの仮想画像を表示中であるか否かを判断する。YES(仮想画像表示中)の場合には、ステップS212へ進む。NO(仮想画像非表示)の場合には、ステップS201へ戻る。
ステップS212では、ステップS211での仮想画像表示中との判断に続き、対象物が存在しないため仮想画像による視覚支援は不要であるとして、表示用ディスプレイ26における仮想画像の表示を終了し、リターンへ進む。
次に、作用を説明する。
実施例2の作用を、「視覚支援制御処理作用」、「仮想視点設定作用」に分けて説明する。
[視覚支援制御処理作用]
以下、図11のフローチャートに基づき、視覚支援制御処理作用を説明する。
図12Aに示すように、自車両Sは、前端部中央位置に車載カメラ22のフロントカメラ22aが搭載され、左サイドミラーに左サイドカメラ22cが搭載され、右サイドミラーに右サイドカメラ22dが搭載されている。なお、ここでは、対象物が車両前方に存在する例を説明するため、リヤカメラ22bについては図示しない。
各カメラ22a,22c,22dの撮影範囲A,C,Dは、図中に示す破線で囲んだ領域である。
ここで、自車両Sの左斜め前方位置である第8位置48に歩行者Hが存在する場合を考える。このとき、図11に示すフローチャートにおいて、ステップS201→ステップS202へと進み、フロントカメラ22a及び左サイドカメラ22cの撮影範囲A,C内に存在する歩行者Hを、「対象物」として設定する。
次に、ステップS203へと進み、対象物である歩行者Hが車両左右方向のいずれのアングルでも表示可能か否かを判断する。ここで、歩行者Hは、フロントカメラ22aの光軸中心位置α´を挟んで車両左右方向の所定領域Y(図12Aでは斜線を付した領域)内で撮影されていない。そのため、歩行者Hは、車両左右方向のいずれかのアングルでしか表示できないとして、ステップS205へと進む。
ステップS205へ進んだら、歩行者Hが左サイドカメラ22cによって撮影可能であるか否か、つまり自車両Sの幅方向中心位置よりも左側位置であるか否かを判断する。図12Aの場合では、歩行者Hが左サイドカメラ22cの撮影範囲C内に存在するため、左サイドカメラ22cにて撮影可能である。つまり、歩行者Hが自車両Sの左側方に存在するとして、ステップS206へ進み、歩行者H及び自車両Sの幅方向中央位置よりも車両前方右側の位置48aから車両後方左側(車両左方)に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの一部を含める。
仮想視点Kを設定したら、ステップS209→ステップS210へと進んで、この位置48aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
このとき、生成される仮想画像は、図12Bに示すように、対象物である歩行者Hと自車両Sの一部を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも右側に位置する右サイドカメラ22dと、自車両Sの前部に位置するフロントカメラ22aとの映像を用いて生成し、歩行者Hの右側面が映される。
なお、図12Bに示す仮想画像のうち、例えば自車両Sの側面13の一部や、路面Rの一部等、撮影画像に含まれていなかったり、含まれていても視点変換することで大きく歪んでしまう領域については、予め生成されたCG画像を重畳してもよい。
また、図13Aに示すように、自車両Sの右斜め前方位置である第9位置49に歩行者Hが存在する場合では、ステップS201→ステップS202へと進んで歩行者Hを「対象物」として設定したら、ステップS203へと進み、対象物である歩行者Hが車両左右方向のいずれのアングルでも表示可能か否かを判断する。
ここでは、歩行者Hがフロントカメラ22aの光軸中心位置α´を挟んで車両前後方向の所定領域Y内で撮影されていないため、歩行者Hは、車両左右方向のいずれかのアングルでしか表示できないとして、ステップS205へと進む。ステップS205へ進んだら、歩行者Hが左サイドカメラ22cによって撮影可能であるか否か、つまり自車両Sの幅方向中心位置よりも左側位置であるか否かを判断する。図13Aの場合では、歩行者Hが右サイドカメラ22dの撮影範囲D内に存在しているので、左サイドカメラ22cによって撮影不可能としてステップS207に進む。これにより、歩行者Hが自車両Sの右側方に存在するとして、歩行者H及び自車両Sの幅方向中央位置よりも車両前方左側の位置49aから車両後方右側(車両右方)に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの一部を含める。
仮想視点Kを設定したら、ステップS209→ステップS210へと進んで、この位置49aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
このとき、生成される仮想画像は、図13Bに示すように、対象物である歩行者Hと、自車両Sの一部を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも左側に位置する右サイドカメラ22dと、自車両Sの前部に位置するフロントカメラ22aとの映像を用いて生成し、歩行者Hの左側面が映される。
なお、図12Bに示す仮想画像と同様に、図13Bに示す仮想画像のうち、撮影画像に含まれていない領域やゆがみが大きくなる領域等については、予め生成されたCG画像を重畳してもよい。
このように、実施例2の表示方法及び表示装置Dであっても、自車両Sの周囲に視覚支援に必要となる対象物(図12A〜図13Bでは歩行者H)を検出したら、自車両Sに対する対象物(歩行者H)の位置を特定する。そして、特定した対象物(歩行者H)の位置に応じて、自車両Sと対象物(歩行者H)との相対位置関係を把握する位置に仮想視点Kを設定する。
つまり、仮想視点Kの設定位置は、自車両Sに対する対象物(歩行者H)の位置に応じて変化し、自車両Sと対象物(歩行者H)との相対位置関係を把握するために最適な位置にその都度設定される。
この結果、図12B,図13Bに示す仮想画像ように、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握可能な仮想画像を生成することができる。そして、乗員に対して表示するために表示用ディスプレイ26に表示された画像の中で、自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができ、自車両Sに乗車した乗員の視覚支援を効果的に行うことができる。
また、この実施例2では、対象物(歩行者H)が左サイドカメラ22cによって撮影可能であり、車両左側方に存在しているときには、仮想視点Kを、自車両Sの幅方向中央位置よりも右側の位置から車両左方に向くように設定する。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が左側方に位置しているときであっても、車両左方を向いた仮想視点Kを基準として生成された仮想画像(図12B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
また、図13Aに示すように、対象物(歩行者H)が右サイドカメラ22dによって撮影可能であり、車両右側方に存在しているときには、仮想視点Kを、自車両Sの幅方向中央位置よりも左側の位置から車両右方に向くように設定する。
これにより、右サイドカメラ22dに対して対象物(歩行者H)が右側方に位置しているときであっても、車両右方を向いた仮想視点Kを基準として生成された仮想画像(図13B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
[仮想視点設定作用]
図12A〜図13Bに示すシーンでは、対象物である歩行者Hがフロントカメラ22aの光軸中心位置α´を挟んで車両前後方向の所定領域Y内で撮影されておらず、この歩行者Hは、車両左右方向のいずれかのアングルでしか表示できない例となっている。
これに対し、図14Aに示すように、フロントカメラ22aの光軸中心位置α´を挟んで車両左右方向の所定領域Y内の第10位置50に歩行者Hが存在し、この所定領域Y内に歩行者Hの全ての部分が撮影されているシーンを考える。
このときには、歩行者Hは、フロントカメラ22aのほぼ正面に位置することになり、車両左右方向のいずれのアングルでも表示可能となる。
そのため、図11に示すフローチャートにおいて、ステップS201→ステップS202→ステップS203→ステップS204へと進み、歩行者Hの移動方向を検出し、自車両Sの右方(右側方)に向かって移動しているか否かを判断する。
ここで、例えば歩行者Hが自車両Sの右方へ移動している場合には、ステップS204→ステップS207へと進み、歩行者H及び自車両Sの幅方向中央位置よりも車両前方左側の位置50aから車両後方右側(車両右方)に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの一部を含める。
仮想視点Kを設定したら、ステップS209→ステップS210へと進んで、この位置50aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
このとき、生成される仮想画像は、図14Bに示すように、対象物である歩行者Hと、自車両Sの一部を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。
その後、時間の経過と共に、自車両Sと歩行者Hとの相対的な位置関係が変化する。具体的には、図14A及び図14Bに二点鎖線で示すように、自車両Sの右斜め前方位置51aへと歩行者Hが移動する。
ここで、視覚支援のための仮想画像は、位置50aから車両右方に向いた状態で設定された仮想視点Kからの画像となっており、自車両Sを車両前方左側から車両右方に向かって見たときの画像となっている。そのため、時間の経過と共に、歩行者Hが自車両Sの右斜め前方位置51aへと相対的に移動したときであっても、図14Bに示すように、歩行者Hを仮想画像中に含め続けることができる。
一方、フロントカメラ22aの光軸中心位置α´を挟んで車両前後方向の所定領域Y内の第10位置50に歩行者Hが存在し、この所定領域X内に歩行者Hの全ての部分が撮影されている場合であって、歩行者Hが自車両Sの左方(左側方)へ移動しているときを考える。このときには、ステップS201→ステップS202→ステップS203→ステップS204→ステップS208へと進み、歩行者H及び自車両Sの幅方向中央位置よりも車両前方右側の位置50bから車両後方左側(車両左方)に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの一部を含める。
その後、ステップS209→ステップS210へと進んで、この位置50bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
これにより、位置50bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像は、図14Cに示すように、対象物である歩行者Hと自車両Sの一部を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも左側に位置する左サイドカメラ22cと、自車両Sの前部に位置するフロントカメラ22aとの映像を用いて生成し、歩行者Hの左側面が映される。
そして、その後時間の経過と共に、自車両Sと歩行者Hとの相対的な位置関係が変化するが、この場合では図14A及び図14Cに二点鎖線で示すように、自車両Sの左斜め前方位置51bへと歩行者Hが移動する。
ここで、視覚支援のための仮想画像は、位置50bから車両左方に向いた状態で設定された仮想視点Kからの画像となっており、自車両Sを車両前方右側から車両左方に向かって見たときの画像となっている。そのため、時間の経過と共に、歩行者Hが自車両Sの左斜め前方位置51bへと相対的に移動したときであっても、図14Cに示すように、歩行者Hを仮想画像中に含め続けることができる。
このように、対象物(歩行者H)が、車両左右方向のいずれのアングルでも表示可能な場合には、対象物(歩行者H)に移動方向に応じて仮想視点Kの位置を設定する。これにより、時間の経過と共に、自車両Sと対象物(歩行者H)との車幅方向の相対位置関係が変化しても、仮想視点Kの位置を変更することなく対象物(歩行者H)を仮想画像中に含め続けることができる。この結果、仮想画像のアングルを維持することができ、自車両Sと対象物(歩行者H)との相対位置関係を把握する仮想画像に大きな変化が生じず、この相対位置関係を容易に把握可能とすることができる。
次に、効果を説明する。
実施例2の表示装置の表示方法にあっては、下記に列挙する効果を得ることができる。
(8) 前記仮想視点設定ステップ(ステップS206,ステップS207)は、前記対象物(歩行者H)の位置(第8位置48)が前記対象物検出センサ(左サイドカメラ22c)の位置よりも前記自車両Sの左側方に存在する場合、前記仮想視点Kを、前記自車両Sよりも右側の位置48aから車両左方に向けて設定する構成とした。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が左側方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
(9) 前記仮想視点設定ステップ(ステップS206,ステップS207)は、前記対象物(歩行者H)の位置(第9位置49)が前記対象物検出センサ(右サイドカメラ22d)の位置よりも前記自車両Sの右側方に存在する場合、前記仮想視点Kを、前記自車両Sよりも左側の位置49aから車両右方に向けて設定する構成とした。
これにより、(2)の効果に加え、対象物検出センサ(右サイドカメラ22d)に対して対象物(歩行者H)が右側方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
以上、本発明の表示装置の表示方法及び表示装置を実施例1及び実施例2に基づいて説明してきたが、具体的な構成については、これらの実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。
実施例2では、自車両Sの車両前端部に搭載したフロントカメラ22aと、左サイドミラーに搭載した左サイドカメラ22cと、右サイドミラーに搭載した右サイドカメラ22dと、を用いて、自車両Sの前方に存在する対象物を検出する例を示した。しかしながら、これに限らず、例えば、図15に示すように、自車両S3のフロントバンパーの左端部に搭載した左前端カメラ22mと、フロントバンパーの右端部に搭載した右前端カメラ22nとを用いて、自車両S3の前方に存在する対象物を検出してもよい。
この図15に示す場合では、対象物が左前端カメラ22mの撮影範囲Mと、右前端カメラ22nの撮影範囲Nのどちらに存在するかに基づいて、仮想視点の位置を設定する。具体的には、左前端カメラ22mの撮影範囲M内に対象物が存在するときには、自車両S3の幅方向中央位置よりも車両前方右側の位置52aから車両後方左側(車両左方)に向けて仮想視点Kを設定する。また、右前端カメラ22nの撮影範囲N内に対象物が存在するときには、自車両S3の幅方向中央位置よりも車両前方左側の位置52bから車両方向右側(車両右方)に向けて仮想視点Kを設定する。
また、この図15に示す場合では、実施例2においてフロントカメラ22aにて撮影していた領域(撮影範囲A)を、二台のカメラ(左前端カメラ22m、右前端カメラ22n)にて撮影することになる。そのため、各カメラ(左前端カメラ22m、右前端カメラ22n)の視野角を、フロントカメラ22aよりも狭くすることが可能となり、撮像物の歪みを軽減することができる。
また、実施例2及び図15では、自車両Sの前方領域を対象として、対象物が自車両Sの左右いずれかに存在するかを判断し、その位置に応じて仮想視点Kを設定する例を示したが、これに限らない。自車両Sの後方領域を対象とした場合であっても、対象物の位置を特定して、その特定された対象物の位置に応じて仮想視点を設定することで、対象物と自車両Sとの相対的な位置関係を把握する仮想画像を適切に生成することができる。
また、実施例1では、左右サイドカメラ22c,22dの光軸中心位置αを基準とし、左右サイドカメラ22c,22dに対する対象物の位置を特定する例を示した。しかしながら、これに限らず、自車両Sに対する対象物の位置は、例えば、自車両Sの車両中心位置(車室の中央位置)や、運転席等を基準として特定してもよい。
さらに、実施例1及び実施例2では、仮想画像を生成する際、車載カメラ22によって撮影された画像を画像処理して用いる例を示したが、これに限らない。例えば、物体認識センサ21によって検出された物体(対象物)と自車両とを含む仮想画像を、カメラ画像を用いることなくCG画像等で生成してもよい。
この場合であっても、自車両の位置に対する物体認識センサ21によって検出された物体(対象物)位置に基づいて仮想視点が設定される位置や方向を適宜変更することで、自車両と対象物(物体)との相対的な位置関係を把握する仮想画像を生成する。
また、実施例1及び実施例2において生成された仮想画像は、自車両Sの車両下部領域を含む、いわゆる「サイドダウンビュー」となっており、仮想視点Kが自車両Sを見下ろす位置に設定される例を示したが、これに限らない。自車両と対象物との相対的な位置関係を把握する仮想画像が生成される位置であれば、自車両に対する対象物の位置に応じて、地面に対して視界が平行となる位置に仮想視点を設定してもよいし、自車両を見上げる位置に仮想視点を設定してもよい。
S 自車両
D 表示装置
21 物体認識センサ(対象物検出センサ)
22 車載カメラ(対象物検出センサ)
22a フロントカメラ(対象物検出センサ)
22b リヤカメラ(対象物検出センサ)
22c 左サイドカメラ(対象物検出センサ)
22d 右サイドガメラ(対象物検出センサ)
23 舵角センサ
24 車速センサ
25 レンジ位置センサ
26 表示用ディスプレイ
30 視覚支援CPU(表示コントローラ)
31 自車両状態把握部
32 対象物位置特定部
33 仮想視点設定部
34 画像生成部
35 画像補正部
11 前輪
12 後輪
13 側面

Claims (10)

  1. 自車両の周囲の対象物を検出し、前記対象物が含まれる仮想視点からの画像を生成し、前記画像を乗員の視覚支援情報として表示する表示装置の表示方法において、
    所定の情報に基づいて、前記自車両に対する前記対象物の位置を特定する対象物位置特定ステップと、
    前記対象物の位置に応じて、前記自車両と前記対象物との相対位置関係を把握する位置に前記仮想視点を設定する仮想視点設定ステップと、
    前記仮想視点から見たときの画像を生成する画像生成ステップと、
    を有することを特徴とする表示装置の表示方法。
  2. 請求項1に記載された表示装置の表示方法において、
    前記対象物の位置を検出する対象物検出センサを前記自車両に搭載し、
    前記対象物位置特定ステップは、前記対象物検出センサの位置に対する前記対象物の位置を特定する
    ことを特徴とする表示装置の表示方法。
  3. 請求項2に記載された表示装置の表示方法において、
    前記仮想視点設定ステップは、前記対象物の位置が前記対象物検出センサの位置よりも前方にある場合、前記仮想視点を、前記対象物よりも車両後方の位置から車両前方に向けて設定する
    ことを特徴とする表示装置の表示方法。
  4. 請求項3に記載された表示装置の表示方法において、
    前記画像生成ステップは、車両前方に向けて設定された仮想視点からの画像を生成する際、前記対象物よりも車両後方に位置する対象物検出センサによって検出された情報を用いて前記画像を生成する
    ことを特徴とする表示装置の表示方法。
  5. 請求項2に記載された表示装置の表示方法において、
    前記仮想視点設定ステップは、前記対象物の位置が前記対象物検出センサの位置よりも後方にある場合、前記仮想視点を、前記対象物よりも車両前方の位置から車両後方に向けて設定する
    ことを特徴とする表示装置の表示方法。
  6. 請求項5に記載された表示装置の表示方法において、
    前記画像生成ステップは、車両後方に向けて設定された仮想視点からの画像を生成する際、前記対象物よりも車両前方に位置する対象物検出センサによって検出された情報を用いて前記画像を生成する
    ことを特徴とする表示装置の表示方法。
  7. 請求項2に記載された表示装置の表示方法において、
    前記仮想視点設定ステップは、前記対象物の位置が前記対象物検出センサの位置よりも前記自車両の左側方に存在する場合、前記仮想視点を、前記自車両よりも右側の位置から車両左方に向けて設定する
    ことを特徴とする表示装置の表示方法。
  8. 請求項2に記載された表示装置の表示方法において、
    前記仮想視点設定ステップは、前記対象物の位置が前記対象物検出センサの位置よりも前記自車両の右側方に存在する場合、前記仮想視点を、前記自車両よりも左側の位置から車両右方に向けて設定する
    ことを特徴とする表示装置の表示方法。
  9. 請求項1に記載された表示装置の表示方法において、
    前記自車両の側方領域を撮影する複数のカメラを前記自車両に搭載し、
    前記対象物位置特定ステップは、前記複数のカメラによって撮影された撮影画像に基づいて、前記複数のカメラの位置に対する前記対象物の位置を特定し、
    前記仮想視点設定ステップは、前記対象物と前記自車両の前後輪を視界に含む位置に仮想視点を設定し、
    前記画像生成ステップは、前記仮想視点からの画像を生成する際、前記対象物の直前位置に配置された第1カメラにより得られた第1撮影画像と、前記対象物の直後位置に配置された第2カメラにより得られた第2撮影画像とを用いて、前記自車両の側面及び車両下方領域を含む画像を生成する
    ことを特徴とする表示装置の表示方法。
  10. 自車両の周囲の対象物を検出し、前記対象物が含まれる仮想視点からの画像を生成し、乗員の視覚支援情報として表示する表示コントローラを備えた表示装置において、
    前記表示コントローラは、
    所定の情報に基づいて、前記自車両に対する前記対象物の位置を特定する対象物位置特定部と、
    前記対象物の位置に応じて、前記自車両と前記対象物との相対位置関係を把握する位置に前記仮想視点を設定する仮想視点設定部と、
    前記仮想視点からの画像を生成する画像生成部と、
    を有することを特徴とする表示装置。
JP2016172916A 2016-09-05 2016-09-05 表示装置の表示方法及び表示装置 Active JP6769187B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016172916A JP6769187B2 (ja) 2016-09-05 2016-09-05 表示装置の表示方法及び表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172916A JP6769187B2 (ja) 2016-09-05 2016-09-05 表示装置の表示方法及び表示装置

Publications (2)

Publication Number Publication Date
JP2018039295A true JP2018039295A (ja) 2018-03-15
JP6769187B2 JP6769187B2 (ja) 2020-10-14

Family

ID=61624837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172916A Active JP6769187B2 (ja) 2016-09-05 2016-09-05 表示装置の表示方法及び表示装置

Country Status (1)

Country Link
JP (1) JP6769187B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206702A (ja) * 2008-02-27 2009-09-10 Fujitsu Ltd 画像処理装置、画像処理方法
JP2011182059A (ja) * 2010-02-26 2011-09-15 Mitsubishi Motors Corp 車両周辺監視装置
JP2012253428A (ja) * 2011-05-31 2012-12-20 Fujitsu Ten Ltd 情報処理システム、サーバ装置、および、車載装置
US20130054086A1 (en) * 2011-08-31 2013-02-28 Autorad Tech Co., Ltd Adjusting Method and System of Intelligent Vehicle Imaging Device
JP2017046214A (ja) * 2015-08-27 2017-03-02 株式会社デンソー 車載表示制御装置、車載表示制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206702A (ja) * 2008-02-27 2009-09-10 Fujitsu Ltd 画像処理装置、画像処理方法
JP2011182059A (ja) * 2010-02-26 2011-09-15 Mitsubishi Motors Corp 車両周辺監視装置
JP2012253428A (ja) * 2011-05-31 2012-12-20 Fujitsu Ten Ltd 情報処理システム、サーバ装置、および、車載装置
US20130054086A1 (en) * 2011-08-31 2013-02-28 Autorad Tech Co., Ltd Adjusting Method and System of Intelligent Vehicle Imaging Device
JP2017046214A (ja) * 2015-08-27 2017-03-02 株式会社デンソー 車載表示制御装置、車載表示制御方法

Also Published As

Publication number Publication date
JP6769187B2 (ja) 2020-10-14

Similar Documents

Publication Publication Date Title
US9902323B2 (en) Periphery surveillance apparatus and program
US10477102B2 (en) Method and device for determining concealed regions in the vehicle environment of a vehicle
JP6507626B2 (ja) 車両周辺監視装置
US10462354B2 (en) Vehicle control system utilizing multi-camera module
JP2012527681A (ja) 車両周辺映像を用いた車線離脱感知方法および装置
CN110786004B (zh) 显示控制装置、显示控制方法及存储介质
JP2010130646A (ja) 車両周辺確認装置
JP2008296697A (ja) 駐車支援装置
JP5516988B2 (ja) 駐車支援装置
US20190135169A1 (en) Vehicle communication system using projected light
WO2015133072A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JPWO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP7000383B2 (ja) 画像処理装置および画像処理方法
JP2019054439A (ja) 画像処理装置
JP2011155651A (ja) 車両周辺画像表示装置および車両周辺画像表示方法
JP5226621B2 (ja) 車両用画像表示装置
JP2005182305A (ja) 車両走行支援装置
JP2004040523A (ja) 車両周囲監視装置
JP6439233B2 (ja) 車両用画像表示装置及び画像処理方法
KR101861523B1 (ko) 차량 운전 보조 장치 및 방법
JP6769187B2 (ja) 表示装置の表示方法及び表示装置
JP2018152014A (ja) 車両用映像表示装置
JP2009214790A (ja) 撮像装置および方法、並びに、画像処理装置および方法
JP6172059B2 (ja) 車両用表示制御装置
JP2019125894A (ja) 車載画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200907

R151 Written notification of patent or utility model registration

Ref document number: 6769187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151