JP6662175B2 - 表示方法及び運転支援装置 - Google Patents

表示方法及び運転支援装置 Download PDF

Info

Publication number
JP6662175B2
JP6662175B2 JP2016085245A JP2016085245A JP6662175B2 JP 6662175 B2 JP6662175 B2 JP 6662175B2 JP 2016085245 A JP2016085245 A JP 2016085245A JP 2016085245 A JP2016085245 A JP 2016085245A JP 6662175 B2 JP6662175 B2 JP 6662175B2
Authority
JP
Japan
Prior art keywords
vehicle
transparency
virtual viewpoint
axis
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016085245A
Other languages
English (en)
Other versions
JP2017195533A (ja
Inventor
草柳 佳紀
佳紀 草柳
拓良 柳
柳  拓良
渡辺 省吾
省吾 渡辺
則政 岸
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016085245A priority Critical patent/JP6662175B2/ja
Publication of JP2017195533A publication Critical patent/JP2017195533A/ja
Application granted granted Critical
Publication of JP6662175B2 publication Critical patent/JP6662175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、表示方法及び運転支援装置に関する。
自車両の周囲状況を示す周囲状況画像内に描画された自車両のアイコンを表示する技術として、アイコンの一部を半透明にすることによりアイコンの死角となる領域の視認を可能にする技術が知られている(例えば特許文献1)。
特表2013−541915号公報
しかしながら、自車両のアイコン中で半透明にする部分が固定されている従来の技術では、仮想視点を適宜設定することができず、仮想視点によっては自車両のアイコンによる死角が生じるという課題があった。
本発明は、周囲状況画像内に描画された自車両のアイコンにより生じる死角を低減するとともに、自車両と周囲の物体との間の距離を容易に知覚できる周囲状況画像を提供することを目的とする。
本発明の一態様に係る表示方法では、自車両の周囲の撮像画像に基づき仮想視点から見た自車両の周囲状況を示す周囲状況画像を生成し、仮想視点の位置に応じて、自車両を示すアイコンの中で、透明度が異なる領域を設定して、透明度が高い領域を周囲状況画像内に描画する。
本発明によれば、仮想視点に応じて、自車両のアイコンの中で透明度を低くする領域を設定することができるため、仮想視点から見た時にアイコンにより生じる死角を抑制することができる。
実施形態に係る運転支援装置を備える車両の構成例を示す図である。 仮想視点の設定例の説明図である。 周囲状況画像の第1例を示す図である。 周囲状況画像の第2例を示す図である。 周囲状況画像の第3例を示す図である。 上面及び右側面が半透明なアイコンが描画された周囲状況画像の一例を示す図である。 右側面及び左側面が半透明なアイコンが描画された周囲状況画像の一例を示す図である。 前面及び背面が半透明なアイコンが描画された周囲状況画像の一例を示す図である。 第1実施形態に係る運転支援装置の一例の機能構成を示す図である。 第1実施形態に係る表示方法の一例を説明するフローチャートである。 第2実施形態に係る運転支援装置の一例の機能構成を示す図である。 第2実施形態に係る表示方法の一例を説明するフローチャートである。
以下、本発明の実施形態について、図面を参照しつつ説明する。
(第1実施形態)
(構成)
図1を参照する。実施形態に係る運転支援装置は、例えば車両1に搭載される。参照番号2FR、2FL、2RR及び2RLは、それぞれ車両1の右前輪、左前輪、右後輪、左後輪を示す。
実施形態に係る運転支援装置は、各々撮像素子としての前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lと、コントローラ4と、ディスプレイ装置5を備える。
前方カメラ3Fは、車両1の前端の車幅方向の中心付近に、前方かつ45°下方を向けて設置された広角(例えば180°)カメラであり、車両1の前端及び前方の周囲を撮影する。
後方カメラ3Bは、車両1の後端の車幅方向の中心付近に、後方かつ45°下方を向けて設置された広角(例えば180°)カメラであり、車両1の後端及び後方の周囲を撮影する。
右側方カメラ3Rは、車両1の右ドアミラー付近に、略下方を向けて設置された広角(例えば180°)カメラであり、車両1の右側面及び右側面の周囲を撮影する。
左側方カメラ3Lは、車両1の左ドアミラー付近に、略下方を向けて設置された広角(例えば180°)カメラであり、車両1の左側面及び左側面の周囲を撮影する。
前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lは、各々撮影して得られた画像をコントローラ4へ出力する。
コントローラ4は、CPU(Central Processing Unit)と、ROM(Read Only Memory)およびRAM(Random Access Memory)等のCPU周辺部品とを含む電子制御ユニットである。コントローラ4は、前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lから出力された画像を加工して、仮想視点から見た車両1の周囲状況を示す周囲状況画像を生成する。
さらに、コントローラ4は、周囲状況画像内における車両1の位置に車両1を示すアイコンを描写し、車両1を示すアイコンが描写された周囲状況画像をディスプレイ装置5に出力する。
ディスプレイ装置5は、車両1の運転者が視認可能な位置に設けられ、コントローラ4から受信した車両1を示すアイコンが描写された周囲状況画像を表示することにより、周囲状況画像を運転者に呈示する。
図2を参照する。周囲状況画像の視点の例として仮想視点10z、10x、10yを例示する。仮想視点の座標は、例えば3次元直交座標系で表現され、3次元直交座標系は、それぞれ第1軸、第2軸及び第3軸であるX軸、Y軸及びZ軸を有する。ここでは、X軸を車幅方向の軸に設定し、Y軸を前後方向の軸に設定し、Z軸を高さ方向の軸に設定する。
仮想視点10zは、車両1の斜め上方にある視点であり、X軸、Y軸及びZ軸を含んだ3軸のうちZ軸が仮想視点10zに最も近く、Z軸からX軸方向である左方向にずれた位置に設定される。すなわち、X軸、Y軸及びZ軸のうちX軸が2番目に仮想視点10zに近く、Y軸が仮想視点10zから最も遠い。
仮想視点10xは、車両1の斜め側方にある視点であり、X軸、Y軸及びZ軸のうちX軸が仮想視点10xに最も近く、X軸からY軸方向である後方にずれた位置に設定される。すなわち、X軸、Y軸及びZ軸のうちY軸が2番目に仮想視点10xに近く、Z軸が仮想視点10xから最も遠い。
仮想視点10yは、車両1の略後方にある視点であり、X軸、Y軸、Z軸のうちY軸が仮想視点10yに最も近く、Y軸からZ軸方向である上方にずれた位置に設定される。すなわち、X軸、Y軸及びZ軸のうちZ軸が2番目に仮想視点10yに近く、X軸が仮想視点10yから最も遠い。
なお、以下の説明において仮想視点10x、10y及び10zを総称して「仮想視点10」と表記することがある。
仮想視点10zから見た周囲状況画像の一例を図3に示す。参照符号11は、仮想視点10zから見た周囲状況画像を示す。
参照符号12は、周囲状況画像11内に描画された車両1を示すアイコンを示す。アイコン12は、上面、底面、前面、背面、左側面及び右側面を含んだ6つの面を有する立体モデルである。参照符号13FL及び13RLは、アイコン12の左前輪及び左後輪である。
周囲状況画像11における左前輪13FL及び左後輪13RLの位置が現実の周囲状況における車両1の左前輪2FL及び左後輪2RLの位置に対応するように、アイコン12の描画位置が定められている。
参照符号14は、周囲状況画像11に現れる車両1が走行中の道路の左走行路境界を示す。
周囲状況画像11では、仮想視点10zがZ軸(すなわち高さ方向の軸)に最も近いため、Z軸に直交する2軸方向であるX軸方向(すなわち車幅方向)及びY軸方向(すなわち前後方向)の位置関係が把握し易い。
これに加えて周囲状況画像11では、仮想視点10zがZ軸上になく、Z軸からX軸方向にずれている。仮に仮想視点10zがZ軸上にあると、アイコン12の左前輪13FL及び左後輪13RLがアイコン12の車体の死角になり接地位置を視認しにくい。仮想視点10zがZ軸からX軸方向にずれていることにより、アイコン12の左前輪13FL及び左後輪13RLの接地位置を視認し易いため、左前輪13FL及び左後輪13RLと左走行路境界14との相対位置が視認し易くなる。この結果、例えば車両1が狭路を走行する際に周囲状況画像11を見ることにより、運転者は、車両1を左走行路境界14に寄せ易くなる。
仮想視点10xから見た周囲状況画像の一例を図4に示す。参照符号15は、仮想視点10xから見た周囲状況画像を示す。参照番号16は、車両1の右後方を走行する他車両の位置を表すアイコンを示す。周囲状況画像15におけるアイコン12及び16の描画位置は、現実の周囲状況における車両1と他車両の位置に対応するように定められている。
周囲状況画像15では、仮想視点10xがX軸(すなわち車幅方向の軸)に最も近いため、X軸に直交するY軸方向(すなわち前後方向)の位置関係が把握し易い。
これに加えて周囲状況画像15では、仮想視点10xがX軸上になく、X軸からY軸方向にずれている。仮に仮想視点10xがX軸上にあると、X軸方向におけるアイコン12とアイコン16の位置関係が視認しにくい。このため、例えば他車両が車両1と同じ車線を走行しているか、隣接車線を走行しているか、さらに1本隣の車線を走行しているのか把握しにくい。
仮想視点10xがX軸からY軸方向にずれていることにより、運転者はX軸方向の奥行き感を得ることができる。例えば合流車線の走行時や車線変更時に周囲状況画像15を見るにことより、運転者は、車両1と他車両との間の車間距離を把握し易いだけでなく、合流又は車線変更しようとしている移動先の車線に他車両がいるか否かを把握し易くなる。
仮想視点10yから見た周囲状況画像の一例を図5に示す。参照符号17は、仮想視点10yから見た周囲状況画像を示す。周囲状況画像17におけるアイコン12及び16の描画位置は、現実の周囲状況における車両1と他車両との位置に対応するように定められている。
周囲状況画像17では、仮想視点10yがY軸(すなわち車幅方向の軸)に最も近いため、Y軸に直交するX軸方向(すなわち前後方向)の位置関係が把握し易い。
これに加えて周囲状況画像17では、仮想視点10yがY軸上になく、Y軸からZ軸方向にずれている。仮に仮想視点10yがY軸上にあると、Y軸方向におけるアイコン12とアイコン16の位置関係が視認しにくい。このため例えば、他車両と車両1との間の車間距離が把握しにくい。
仮想視点10yがY軸からZ軸方向にずれていることにより、運転者はY軸方向の奥行き感を得ることができる。この結果、例えば合流車線の走行時や車線変更時に周囲状況画像17を見ることにより、運転者は、合流又は車線変更しようとしている移動先の車線に他車両がいるか否かを把握し易いだけでなく、車両1と他車両との間の車間距離を把握し易くなる。
以上のように、仮想視点10を、3軸のいずれからもずれた位置に設定することにより、周囲状況がより認識し易い周囲状況画像を生成することができる。
さらに本発明の実施形態では、アイコン12の領域の透明度を部分的に比較的高くして描画することによりアイコン12の死角となる領域の視認を可能にし、アイコン12が生じる周囲状況画像の死角領域を低減する。しかし、アイコン12の透明度を高くするとアイコン12とその外側との境界が不明瞭になるため、透明度を高くした部位によっては車両1と周囲の物体との間の距離が知覚しにくくなる。
例えば、図3に示す仮想視点10zから見た周囲状況画像11の場合に、左前輪13FL及び左後輪13RLを含んだアイコン12の左側面の透明度を高めて半透明にすると、左前輪13FL及び左後輪13RLの接地位置を視認しにくくなる。このため、左前輪13FL及び左後輪13RLと左走行路境界14との間隔が知覚しにくくなる。
例えば、図4に示す仮想視点10xから見た周囲状況画像15の場合に、アイコン12の前面及び背面の透明度を高めて半透明にすると、アイコン12の前端及び下端を視認しにくくなり、先行車及び後続車と車両1との間の車間距離が知覚しにくくなる。
また例えば、図5に示す仮想視点10xから見た周囲状況画像17の場合に、アイコン12の右側面及び左側面の透明度を高めて半透明にすると、アイコン12の右端及び左端を視認しにくくなり、隣接車線の他車両と車両1との間隔が把握しにくくなる。
そこで、本発明の実施形態では、仮想視点10の位置に応じてアイコン12に透明度が異なる複数領域を設定して周囲状況画像内に描画し、部分的にアイコン12の透明度を下げることにより車両1と周囲の物体との間の距離を知覚し易くする。
例えば、3軸のうちいずれの軸が仮想視点10に最も近いかに応じてアイコン12の複数領域の透明度を設定してもよい。
例えば、図3に示す仮想視点10zから見た周囲状況画像11の例では、アイコン12の右側面及び底面の少なくとも一方並びに上面に比較的高い透明度を設定してよい。また、アイコン12の、前面、背面、右側面、左側面、上面及び底面のうち、右側面、上面及び底面以外の左側面、前面及び背面の少なくとも1つに比較的低い透明度を設定してよい。
なお、領域に比較的高い透明度を設定するとは、領域を半透明にするほか透明にする場合を含む。また、領域に比較的低い透明度を設定するとは、領域を不透明にするほか、比較的高い透明度が設定された領域よりも透明度が低い半透明にすることも含む。
例えば図6の周囲状況画像11の例では、上面20T及び右側面20Rに比較的高い透明度を設定し、左側面20L、前面20F、及び背面20Bに比較的低い透明度を設定する。車両1の下方が撮影可能な場合には底面20Sに比較的高い透明度を設定してもよく、車両1の下方が撮影できない場合には底面20Sを不透明にしてもよい。
なお、以下の説明において前面20F、背面20B、右側面20R、左側面20L、上面20T及び底面20Sを「アイコン12の6面」と表記することがある。
すなわち、3軸のうちZ軸が仮想視点10zに最も近い場合には、Z軸との法線のなす角が小さい順に上位2つの上面20T及び底面20Sのうち仮想視点10zに比較的近い上面20Tが周囲状況画像17に大きく描画される。このため、死角をより多く低減する上で上面20Tに比較的高い透明度を設定することが好適である。
上面20Tの死角になる領域は、底面20S及び右側面20Rの死角にもなっている。したがって、上面20Tに比較的高い透明度を設定する場合には、底面20S及び右側面20Rの少なくとも一方に比較的高い透明度を設定しなければ死角は減少しない。
なお、底面20Sは、上面20T及び底面20Sのうち仮想視点10zに比較的遠い面である。
また、右側面20Rは、仮想視点10zがZ軸上の位置からX軸方向へずれた位置に設定される周囲状況画像11において、X軸との法線のなす角が小さい順に上位2つの左側面20L及び右側面20Rのうち仮想視点10zに比較的遠い面である。
このため、上面20Tに加えて、底面20S及び右側面20Rの少なくともいずれか一方に比較的高い透明度を設定する。これにより、底面20S及び右側面20Rの少なくともいずれか一方と上面20Tによって生じていた死角を低減できる。
すなわち、アイコン12における複数領域であるアイコン12の6面の透明度は、それぞれの面が周囲状況画像11に生じるそれぞれの死角に応じて設定される。
本実施形態では、底面20Sよりも右側面20Rの死角になっている領域を視認できる方が好ましいため右側面20Rに比較的高い透明度を設定する。
車両1の下方が車体の死角になって前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lにより撮影できない場合には底面20Sを不透明にしてもよい。車両1の下方が撮影可能な場合には、底面20Sにも比較的高い透明度を設定してもよい。
一方で、アイコン12の6面のうち上面20T、底面20S及び右側面20R以外の左側面20L、前面20F及び背面20Bの少なくとも1つに比較的低い透明度を設定する。これにより、それぞれ左方、前方、又は後方の物体と車両1との距離を容易に知覚できるようになる。
特に、Z軸上の位置から左方へずれた仮想視点10zからは、上面20Tの次に左側面20Lが見易い。
このため、左側面20Lに比較的低い透明度を設定して左側面20Lとその外側との境界を明瞭にすることにより、左側面20Lと左方の物体との間の距離が容易に知覚できるようにしてよい。
例えば図6の周囲状況画像11において、アイコン12の左側面20Lに比較的低い透明度を設定して左前輪13FL及び左後輪13RLの透明度を低くする。これにより、左前輪13FL及び左後輪13RLの接地位置が視認し易くなり、左走行路境界14との間の距離が容易に知覚できるようになる。
同様に、例えば図4に示す仮想視点10xから見た周囲状況画像15の例では、アイコン12の前面及び右側面の少なくとも一方並びに左側面に、比較的高い透明度を設定してよい。また、アイコン12の6面のうち前面、右側面及び左側面以外の背面、上面及び底面の少なくとも1つに比較的低い透明度を設定してよい。車両1の下方の物体との間隔を知覚し易くする必要がない場合には、底面を除いた背面及び上面の少なくとも1つに比較的低い透明度を設定してよい。車両1の下方及び上方の物体との間隔を知覚し易くする必要がない場合には、上面及び底面を除いた背面に比較的低い透明度を設定してよい。
例えば図7の周囲状況画像15の例では、左側面20L及び右側面20Rに比較的高い透明度を設定し、前面20F、背面20B、上面20T及び底面20Sに比較的低い透明度を設定する。
すなわち、3軸のうちX軸が仮想視点10xに最も近い場合には、X軸との法線のなす角が小さい順に上位2つの左側面20L及び右側面20Rのうち仮想視点10xに比較的近い左側面20Lが周囲状況画像15に大きく描画される。このため、死角をより多く低減する上で左側面20Lに比較的高い透明度を設定することが好適である。
左側面20Lの死角になる領域は、右側面20R及び前面20Fの死角にもなっている。したがって左側面20Lに比較的高い透明度を設定する場合には、右側面20R及び前面20Fの少なくとも一方に比較的高い透明度を設定しなければ死角は減少しない。
なお、右側面20Rは、右側面20R及び左側面20Lのうち仮想視点10xに比較的遠い面である。
また、前面20Fは、仮想視点10xがX軸上の位置からY軸方向へずれた位置に設定される周囲状況画像15において、Y軸との法線のなす角が小さい順に上位2つの前面20F及び背面20Bのうち仮想視点10xに比較的遠い面である。
このため、左側面20Lに加えて、右側面20R及び前面20Fの少なくともいずれか一方に比較的高い透明度を設定する。
すなわち、アイコン12における複数領域であるアイコン12の6面の透明度は、それぞれの面が周囲状況画像15に生じるそれぞれの死角に応じて設定される。
本実施形態では、3軸のうちX軸が仮想視点10xに最も近い周囲状況画像15では、Y方向の位置関係が把握し易いため、車両1の前端の境界を明瞭にして車両1と前方の物体との間隔を把握し易くすることが好ましい。したがって、右側面20Rに比較的高い透明度を設定し、前面20Fに比較的低い透明度を設定する。
一方で、アイコン12の6面のうち、左側面20L、右側面20R及び前面20F以外の背面20B、上面20T及び底面20Sの少なくとも1つに比較的低い透明度を設定すると、後方、上方及び下方の物体と車両1との距離を容易に知覚できるようになる。
特に、X軸上の位置から後方へずれた仮想視点10zからは、左側面20Lの次に背面20Bが見易い。
このため、背面20Bに比較的低い透明度を設定して背面20Bとその外側との境界を明瞭にすることにより、背面20Bと後方の物体との間の距離が容易に知覚できるようにしてよい。
例えば図7の周囲状況画像15において、アイコン12の背面20Bに比較的低い透明度を設定する。これにより、背面20Bと後続車のアイコン16との距離が容易に知覚できるようになる。
なお、上面20Tには、比較的低い透明度を設定してもよく比較的高い透明度を設定してもよい。
同様に、例えば図5に示す仮想視点10yから見た周囲状況画像17の例では、アイコン12の前面及び底面の少なくとも一方並びに背面に比較的高い透明度を設定してよい。また、アイコン12の6面のうち前面、背面及び底面以外の右側面、左側面及び上面の少なくとも1つに比較的低い透明度を設定してよい。車両1の上方の物体との間隔を知覚し易くする必要がない場合には、上面を除いた右側面及び左側面の少なくとも1つに比較的低い透明度を設定してよい。
例えば図8の周囲状況画像17の例では、背面20B及び前面20Fに比較的高い透明度を設定し、右側面20R、左側面20L、上面20T及び底面20Sに比較的低い透明度を設定する。
すなわち、3軸のうちY軸が仮想視点10yに最も近い場合には、Y軸との法線のなす角が小さい順に上位2つの背面20B及び前面20Fのうち仮想視点10yに比較的近い背面20Bが周囲状況画像17に大きく描画される。このため、死角をより多く低減する上で背面20Bに比較的高い透明度を設定することが好適である。
背面20Bの死角になる領域は、前面20F及び底面20Sの死角にもなっている。したがって背面20Bを半透明にする場合には、前面20F及び底面20Sの少なくとも一方に比較的高い透明度を設定しなければ死角は減少しない。
なお、前面20Fは、背面20B及び前面20Fのうち仮想視点10yに比較的遠い面である。
また、底面20Sは、仮想視点10yがY軸上の位置からZ軸方向へずれた位置に設定される周囲状況画像17において、Z軸との法線のなす角が小さい順に上位2つの上面20T及び底面20Sのうち仮想視点10yに比較的遠い面である。
このため、背面20Bに加えて、前面20F及び底面20Sの少なくともいずれか一方に比較的高い透明度を設定する。
すなわち、アイコン12における複数領域であるアイコン12の6面の透明度は、それぞれの面が周囲状況画像17に生じるそれぞれの死角に応じて設定される。
本実施形態では、底面20Sよりも前面20Fの死角になっている領域を視認できる方が好ましいため前面20Fに比較的高い透明度を設定する。車両1の下方を撮影できない場合には底面20Sを不透明にしてもよく、撮影可能な場合には底面20Sにも比較的高い透明度を設定してもよい。
一方で、アイコン12の6面のうち背面20B、前面20F及び底面20S以外の右側面20R、左側面20L、上面20Tの少なくとも1つに比較的低い透明度を設定すると、それぞれ右方、左方又は上方の物体と車両1との距離を容易に知覚できるようになる。
特に、3軸のうちY軸が仮想視点10yに最も近い周囲状況画像17では、X方向の位置関係が把握し易いため、車両1の右端及び左端の境界を明瞭にして側方の物体との間隔や、車両1と車線境界との間隔を把握し易くすることが好ましい。
このため、例えば図8の周囲状況画像17において、アイコン12の右側面20R及び左側面20Lに比較的低い透明度を設定する。これにより、車両1の横方向位置を容易に知覚できるので、後続車が車両1の側方に移動したときの間隔が容易に知覚できる。
なお、上面20Tには、比較的低い透明度を設定してもよく比較的高い透明度を設定してもよい。
以上のとおり本発明の実施形態では、仮想視点10の位置に応じてアイコン12に透明度が異なる複数領域を設定して周囲状況画像内に描画する。
このため、部分的に透明度を高くしてアイコン12が生じる死角領域を低減しつつ、仮想視点10の位置に応じて周囲との間隔を把握し易い部位の透明度を下げて境界を明瞭にすることにより、車両1と周囲の物体との間隔を知覚し易くできる。
次に、図9を参照して第1実施形態に係る運転支援装置の一例の機能構成を説明する。上述したように運転支援装置30は、前方カメラ3Fと、後方カメラ3Bと、右側方カメラ3Rと、及び左側方カメラ3Lと、コントローラ4と、ディスプレイ装置5を備える。
コントローラ4は、仮想視点設定部32と、周囲状況画像生成部33と、透明度制御部34と、アイコン記憶部35と、アイコン描画部36を備える。例えば、コントローラ4が備えるCPUは、所定のコンピュータプログラムを実行することによって、これら仮想視点設定部32、周囲状況画像生成部33、透明度制御部34、及びアイコン描画部36が行なうべき処理を実行する。
仮想視点設定部32は、仮想視点10を設定する。仮想視点設定部32は、例えば運転者によるコントローラ4の操作に応じて仮想視点10をしてもよく、車両1の走行状況に応じて自動的に仮想視点10を設定してもよい。車両1の走行状況に応じた仮想視点10を設定の例は、後述の第2実施形態で説明する。仮想視点設定部32は、設定した仮想視点10を、周囲状況画像生成部33と透明度制御部34に出力する。
周囲状況画像生成部33は、前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lにより各々撮影して得られた画像に基づいて、仮想視点設定部32が設定した仮想視点10から見た車両1の周囲状況を示す周囲状況画像を生成する。
周囲状況画像生成部33は、視点変換部37と、合成部38を備える。視点変換部37は、前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lから出力された画像を、仮想視点10から見た画像に変換して合成部38に出力する。
合成部38は、視点変換部37から出力される個別の視点変換された画像を合成し、車両1の周囲を仮想視点10から見た周囲状況画像を生成し、アイコン描画部36に出力する。
透明度制御部34は、予め生成されアイコン記憶部35に格納された車両1のアイコン12を読み出す。例えば、アイコン12は複数領域に分割されてアイコン記憶部35に格納され、透明度制御部34は、分割された複数領域に異なる透明度を設定する。すなわち透明度制御部34は、分割されたアイコン12の複数領域のいずれかの透明度を他の領域の透明度と異ならせる。
例えば、透明度制御部34による透明度の設定態様は、図6〜図8を参照して前述したとおりであり、アイコン12は上面20T、底面20S、前面20F、背面20B、左側面20L及び右側面20Rの6つの領域に分割される。
透明度制御部34は、複数領域の透明度が異なるアイコン12をアイコン描画部36へ出力する。
アイコン描画部36は、周囲状況画像生成部33が生成した周囲状況画像内に、透明度制御部34により透明度が設定されたアイコン12を描画し、複数領域の透明度が異なるアイコン12が描画された周囲状況画像をディスプレイ装置5へ出力する。ディスプレイ装置5は、アイコン描画部36が出力した周囲状況画像を表示する。
(動作)
続いて、第1実施形態の運転支援装置30の動作を説明する。図10を参照する。
ステップS10において運転支援装置30は、ディスプレイ装置5への周囲状況画像の表示がオンになっているか否かを判断する。周囲状況画像の表示がオンになっている場合(S10:Y)に処理はステップS11に進む。周囲状況画像の表示がオンになっていない場合(S10:N)に処理はステップS10に戻る。
ステップS11において仮想視点設定部32は、仮想視点10を設定する。
ステップS12において透明度制御部34は、3軸のうちZ軸が仮想視点10に最も近い軸であるか否かを判断する。Z軸が仮想視点10に最も近い軸である場合(S12:Y)に処理はステップS13に進む。Z軸が仮想視点10に最も近い軸でない場合(S12:N)に処理はステップS14に進む。
ステップS13において透明度制御部34は、アイコン12の上面20T及び右側面20Rの透明度を上げて比較的高い透明度を設定し、左側面20L、前面20F、背面20B及び底面20Sに比較的低い透明度を設定したままにする。その後処理はステップS17へ進む。
ステップS14において透明度制御部34は、3軸のうちX軸が仮想視点10に最も近い軸であるか否かを判断する。X軸が仮想視点10に最も近い軸である場合(S14:Y)に処理はステップS15に進む。X軸が仮想視点10に最も近い軸でない場合(S14:N)に処理はステップS16に進む。
ステップS15において透明度制御部34は、アイコン12の右側面20R及び左側面20Lの透明度を上げて比較的高い透明度を設定し、前面20F、背面20B、上面20T、及び底面20Sに比較的低い透明度を設定したままにする。その後処理はステップS17へ進む。
ステップS16において透明度制御部34は、アイコン12の前面20F及び背面20Bの透明度を上げて比較的高い透明度を設定し、右側面20R、左側面20L、上面20T、及び底面20Sに比較的低い透明度を設定したままにする。その後処理はステップS17へ進む。
ステップS17において周囲状況画像生成部33は、仮想視点設定部32が設定した仮想視点10から見た周囲状況画像を生成する。
ステップS18においてアイコン描画部36は、周囲状況画像生成部33が生成した周囲状況画像内に、透明度制御部34により透明度が設定されたアイコン12を描画する。ディスプレイ装置5は、透明度制御部34により透明度が設定されたアイコン12が描画された周囲状況画像を表示する。
ステップS19において運転支援装置30は、ディスプレイ装置5への周囲状況画像の表示がオフになっているか否かを判断する。周囲状況画像の表示がオフになっている場合(S19:Y)に処理は終了する。周囲状況画像の表示がオフになっていない場合(S19:N)に処理はステップS20に進む。
ステップSにおいて仮想視点設定部32は、仮想視点10を変更すべきか否かを判断する。仮想視点10を変更する場合(S20:Y)に処理はステップS11へ戻る。仮想視点10を変更しない場合(S20:N)に処理はステップS17に戻る。
(変形例)
(1)仮想視点10の座標を表現する座標系は3次元直交座標系に限定されず、例えば、互いに直交する第1軸及び第2軸を少なくとも有する3次元座標系であってよい。このような3次元座標系の例は、動径の2個の偏角の基準となる2軸を有する球座標や、動径の1個の偏角の基準となる1軸と高さ方向の座標軸を有する円柱座標であってよい。
透明度制御部34は、互いに直交する第1軸及び第2軸、並びに第1軸と第2軸との交点を通り第1軸及び第2軸に直交する仮想直線のうち、いずれの直線が仮想視点10に最も近いかに応じて、アイコン12に透明度の異なる複数領域を設定してよい。
なお、3次元直交座標系を使用する場合には、第1軸、第2軸、並びに第1軸と第2軸との交点を通り第1軸及び第2軸に直交する仮想直線は、X軸、Y軸、Z軸の3軸に対応する。
(2)アイコン12の6面のうちのある面に比較的高い透明度を設定する際に、この面の全範囲を比較的高い透明度にしなくてもよく、一部の領域のみを比較的高い透明度にしてもよい。同様に比較的低い透明度を設定する際に、この面の全範囲を比較的低い透明度にしなくてもよく、一部の領域のみを比較的低い透明度にしてもよい。
また、アイコン12は、予め複数の領域に分割されている必要はなく、仮想視点の位置に応じて透明度を設定すべきアイコン12の部分を決定すればよい。例えば、仮想視点10zが設定された周囲状況画像11(図6参照)において、左側面20Lのうち左前輪13FL及び左後輪13RLのみに比較的低い透明度を設定して、接地位置を視認し易くしてもよい。また、左側面20Lのうち地面から所定の高さの領域のみに比較的低い透明度を設定してもよい。
(3)X軸、Y軸、Z軸の3軸のうち仮想視点10に最も近い軸と仮想視点10との間の距離が短いほど、比較的低い透明度が設定される領域が小さくなる。例えば、図6に示す仮想視点10zから見た周囲状況画像11において、左側面20Lに部分的に比較的低い透明度を設定する場合を想定する。左側面20LはZ軸に平行なので、Z軸と仮想視点10zとの間の距離が短くなると、左側面20Lにおいて比較的低い透明度を部分的に設定した領域が周囲状況画像11に占める面積が小さくなる。このため、左方の物体と車両1との間隔が視認しにくくなる。
したがって、X軸、Y軸、Z軸の3軸のうち仮想視点10に最も近い軸と仮想視点10との間の距離が短いほど比較的低い透明度を設定する領域を大きくして、比較的低い透明度が設定される領域の減少を緩和してもよい。
(4)アイコン12は、アイコン記憶部35に予め格納されていてもよく、透明度制御部34がその都度生成してもよい。すなわち、透明度制御部34は、予め生成された不透明なアイコン12をアイコン記憶部35から読み出して、アイコン記憶部35から読み出したアイコン12の一部の透明度を変更してもよく、部分的に透明度が異なるアイコン12を初めから生成してもよい。
(第1実施形態の効果)
(1)透明度制御部34は、仮想視点10の位置に応じて、車両1を示すアイコン12の中で、透明度が異なる領域を設定する。これにより、仮想視点に応じて生じる死角を抑制することができるようになる。さらに、アイコンの中で、一部の領域の透明度を低くすることにより、部分的に透明度を高くしてアイコン12が生じる死角領域を低減しつつ、仮想視点10の位置に応じて周囲との間隔を把握し易い部位の透明度を下げて明瞭にすることで、車両1と周囲の物体との距離を容易に知覚できる周囲状況画像を提供できる。
(2)透明度制御部34は、アイコン12により周囲状況画像に生じる死角に応じて、アイコンの中で透明度が高い領域を設定する。これにより、アイコン12が生じる死角領域を低減するように透明度を高める領域を決定することができる。
(3)仮想視点10の座標は、互いに直交する第1軸及び第2軸を少なくとも有する座標系で表現される。透明度制御部34は、第1軸、第2軸、並びに第1軸と第2軸との交点を通り第1軸及び第2軸に直交する仮想直線のうちいずれの直線が仮想視点に最も近いかに応じて複数領域の透明度を設定する。
これにより、アイコン12が生じる死角領域を低減するように透明度を高める複数領域を決定できるとともに、仮想視点10の位置に応じて周囲との間隔を把握し易い領域を決定してその透明度を下げることで、車両1と周囲の物体との距離を知覚し易くできる。
(第2実施形態)
次に、第2実施形態を説明する。第2実施形態に係る運転支援装置30は、車両1の走行状況を検出し、検出した走行状況に応じてアイコン12に透明度が異なる複数領域を設定して周囲状況画像内に描画する。
走行状況として、例えば運転支援装置30は、車両1が走行する道路の形態を示す道路形態を検出してよい。道路形態には、例えば、狭路、合流、分岐、交差点等の道路の構造のほか、一般道、高速道路等の道路の種別が含まれる。
また、例えば運転支援装置30は、車両1の周囲の物体のうち、車両1が走行する道路の道路形態に特有の運転者が注意すべき物体を走行状況として検出してもよい。道路の道路形態に特有の運転者が注意すべき物体は、例えば狭路における左走行路境界や、合流車線における本線上の先行車又は後続車である。
また、例えば運転支援装置30は、車両1の動作を検出し、車両1の周囲の物体のうち車両1の動作に特有の運転者が注意すべき物体を走行状況として検出してもよい。車両1の動作に特有の運転者が注意すべき物体は、例えば車線変更時における隣接車線の先行車又は後続車である。運転支援装置30は、運転者によるステアリングホイール、アクセルペダル、ブレーキ又はウインカーの操作により車両1の動作を検出してよい。
図11を参照する。第2実施形態に係る運転支援装置30の構成要素のうち、第1実施形態に係る運転支援装置30と同様な構成要素には同一の符号を付する。
運転支援装置30は、環境検出部50と、物体検出部51と、走行状況判断部52とを備える。コントローラ4が備えるCPUは、所定のコンピュータプログラムを実行することによって、走行状況判断部52が行なうべき処理を実行する。
環境検出部50、物体検出部51、及び走行状況判断部52は、車両1の走行状況を検出する走行状況検出部を形成する。
環境検出部50は、車両1の周囲の環境として、車両1が走行する道路の形態を示す道路形態を検出する。例えば、環境検出部50は、所定の地域内に存在する道路の道路形態のデータが格納されたデータベースを備えるナビゲーション装置であってもよい。環境検出部50は、例えばグローバル・ポジショニング・システム(GPS:Global Positioning System)や慣性航法装置により測定した車両1の現在位置情報に基づいて、車両1が走行する道路の形態を示す道路形態を検出してよい。環境検出部50は、検出した道路形態の情報を走行状況判断部52に出力する。
物体検出部51は、車両1の周囲に存在する物体の有無や物体までの距離を検出する。物体検出部51は、例えばレーザレンジファインダーや、ミリ波レーダ等のセンサであってもよい。車両1の周囲の物体を撮影する前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lを、物体検出部51として兼用してもよい。物体検出部51は、車両1の周囲の物体の検出結果を走行状況判断部52に出力する。
走行状況判断部52は、環境検出部50及び物体検出部51の検出結果に基づいて、検出された走行状況が、走行状況に応じた仮想視点10を設定すべき走行状況であるかを判断する。
例えば、環境検出部50によって車両1の走行路が狭路であると検出された場合に、走行状況判断部52は、車両1の走行状況がZ軸に近い仮想視点10zを設定すべき走行状況だと判断してよい。又は、車両1の走行路が狭路であると検出され、且つ物体検出部51によって左走行路境界との間隔が所定値以下であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10zを設定すべき走行状況だと判断してもよい。
また例えば、運転者によるウインカーの操作により車両1の車線変更を車両1の動作として検出した場合に、走行状況判断部52は、車両1の走行状況がX軸に近い仮想視点10xを設定すべき走行状況だと判断してよい。又は、車両1の車線変更が検出され、且つ物体検出部51によって後続車のみが検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。又は、車両1の車線変更が検出され、後続車のみが検出され、且つ環境検出部50によって車両1の走行路が高速道路であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。
又は、車両1の車線変更が検出され、且つ物体検出部51によって後続車及び先行車が検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。又は、車両1の車線変更が検出され、後続車及び先行車が検出され、且つ車両1の走行路が高速道路であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。
また例えば、環境検出部50によって車両1の走行路が合流車線であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してよい。又は、車両1の走行路が合流車線であると検出され、且つ後続車のみが検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。又は、車両1の走行路が合流車線であると検出され、後続車のみが検出され、且つ車両1の走行路が高速道路であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。
又は、車両1の走行路が合流車線であると検出され、且つ後続車及び先行車が検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。又は、車両1の走行路が合流車線であると検出され、後続車及び先行車が検出され、且つ車両1の走行路が高速道路であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。
走行状況判断部52は、これらの判断結果を仮想視点設定部32へ出力する。
さらに走行状況判断部52は、環境検出部50及び物体検出部51の検出結果に基づき、検出された走行状況が、透明度が異なる複数領域を設定すべき走行状況であるかを判断する。
例えば、車両1の走行路が狭路であると検出された場合に、走行状況判断部52は、車両1の走行状況が、少なくとも左側面20Lに比較的低い透明度を設定し上面20T及び右側面20Rに比較的高い透明度を設定すべき走行状況だと判断してよい。
又は、車両1の走行路が狭路であると検出され、且つ左走行路境界との間隔が所定値以下であると検出された場合に、少なくとも左側面20Lに比較的低い透明度を設定し上面20T及び右側面20Rに比較的高い透明度を設定すべき走行状況だと判断してもよい。
すなわち、車両1の周囲の物体である左走行路境界を検出した場合に、左走行路境界に対向する左側面20Lに比較的低い透明度を設定してよい。
また例えば、車両1の車線変更を検出した場合に、走行状況判断部52は、車両1の走行状況が、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してよい。
又は、車両1の車線変更が検出され、且つ後続車のみが検出された場合に、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。すなわち、車両1の周囲の物体である後続車を検出した場合に、後続車に対向する背面20Bに比較的低い透明度を設定すべき走行状況だと判断してよい。
又は、車両1の車線変更が検出され、後続車のみが検出され、且つ車両1の走行路が高速道路であると検出された場合に、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
又は、車両1の車線変更が検出され、且つ後続車及び先行車が検出された場合に、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
すなわち、車両1の周囲の物体である先行車及び後続車を検出した場合に、先行車及び後続車にそれぞれ対向する前面20F及び背面20Bに比較的低い透明度を設定してよい。
又は、車両1の車線変更が検出され、後続車及び先行車が検出され、且つ車両1の走行路が高速道路であると検出された場合、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
また例えば、車両1の走行路が合流車線であると検出された場合に、走行状況判断部52は、車両1の走行状況が、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してよい。
又は、車両1の走行路が合流車線であると検出され、且つ後続車のみが検出された場合に、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
すなわち、車両1の周囲の物体である後続車を検出した場合に、後続車に対向する背面20Bに比較的低い透明度を設定してよい。
又は、車両1の走行路が合流車線であると検出され、後続車のみが検出され、且つ車両1の走行路が高速道路であると検出された場合に、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
又は、車両1の走行路が合流車線であると検出され、且つ後続車及び先行車が検出された場合に、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。すなわち、車両1の周囲の物体である先行車及び後続車を検出した場合に、先行車及び後続車にそれぞれ対向する前面20F及び背面20Bに比較的低い透明度を設定してよい。
又は、車両1の走行路が合流車線であると検出され、後続車及び先行車が検出され、且つ車両1の走行路が高速道路であると検出された場合に、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
走行状況判断部52は、これらの判断結果を透明度制御部34へ出力する。
仮想視点設定部32は、走行状況判断部52が出力した判断結果に基づいて仮想視点10を設定する。
透明度制御部34は、走行状況判断部52が出力した判断結果に基づいてアイコン12の上面20T、底面20S、前面20F、背面20B、左側面20L及び右側面20Rの透明度を設定する。例えば、車両1の走行状況が上面20Tに比較的高い透明度を設定すべき走行状況であると走行状況判断部52が判断した場合に上面20Tに比較的高い透明度を設定し、比較的低い透明度を設定すべき走行状況であると比較的低い透明度を設定する。底面20S、前面20F、背面20B、左側面20L及び右側面20Rについても同様である。
さらに、透明度制御部34は、物体検出部51により検出された先行車及び後続車までの距離を走行状況判断部52から取得してもよい。透明度制御部34は、先行車までの距離に応じて異なる透明度を前面20Fに設定してもよく、後続車までの距離に応じて異なる透明度を背面20Bに設定してもよい。
例えば、透明度制御部34は、先行車までの距離が短いほど、先行車に対向し比較的低い領域の透明度が設定された前面20Fの透明度をより低くしてもよい。また、透明度制御部34は、後続車までの距離が短いほど、後続車に対向し比較的低い領域の透明度が設定された背面20Bの透明度をより低くしてもよい。
続いて、第2実施形態の運転支援装置30の動作を説明する。図12を参照する。
ステップS30において運転支援装置30は、ディスプレイ装置5への周囲状況画像の表示がオンになっているか否かを判断する。周囲状況画像の表示がオンになっている場合(S30:Y)に処理はステップS31に進む。周囲状況画像の表示がオンになっていない場合(S30:N)に処理はステップS30に戻る。
ステップS31において環境検出部50は、車両1の走行路の道路形態を車両1の周囲の環境として検出する。
ステップS32において走行状況判断部52は、車両1の走行路が狭路又は高速道路であるか否かを判断する。車両1の走行路が狭路である場合(S32:狭路)に処理はステップS33に進む。車両1の走行路が高速道路である場合(S32:高速道路)に処理はステップS36に進む。車両1の走行路が狭路でも高速道路でもない場合(S32:どちらでもない)に処理はステップS45に進む。
ステップS33において物体検出部51は、車両1の左端と左走行路境界との間隔を検出する。走行状況判断部52は、車両1の左端と左走行路境界との間隔が所定値以下であるか否かを判断する。車両1の左端と左走行路境界との間隔が所定値以下である場合(S33:Y)に、走行状況判断部52は、車両1の走行状況が、Z軸に近い仮想視点10zを設定すべき走行状況だと判断する。さらに、走行状況判断部52は、少なくとも左側面20Lに比較的低い透明度を設定し上面20T及び右側面20Rに比較的高い透明度を設定すべき走行状況だと判断する。そして処理はステップS34に進む。
車両1の左端と左走行路境界との間隔が所定値以下でない場合(S33:N)に処理はステップS45へ進む。
ステップS34において仮想視点設定部32は仮想視点10zを設定する。
ステップS35において透明度制御部34は、少なくとも左側面20Lに比較的低い透明度を設定し上面20T及び右側面20Rに比較的高い透明度を設定する。その後に処理はステップS45へ進む。
ステップS36において走行状況判断部52は、車両1が合流又は車線変更するか否かを判断する。車両1が合流又は車線変更する場合(S36:Y)に処理はステップS37に進む。車両1が合流又は車線変更しない場合(S35:N)に処理はステップS45へ進む。
ステップS37において物体検出部51は、車両1の周囲の物体の有無を検出する。走行状況判断部52は、後続車及び先行車があるか否かを判断する。後続車のみがある場合(S37:後続車のみ)に走行状況判断部52は、車両1の走行状況が、X軸に近い仮想視点10xを設定すべき走行状況だと判断する。さらに、走行状況判断部52は、少なくとも背面20Bに比較的低い透明度を設定し、右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断する。そして処理はステップS38に進む。
後続車及び先行車の両方がある場合(S37:両方あり)に走行状況判断部52は、車両1の走行状況が、X軸に近い仮想視点10xを設定すべき走行状況だと判断する。さらに走行状況判断部52は、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し、右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断する。そして処理はステップS40に進む。
後続車も先行車もない場合(S:なし)に処理はステップS42に進む。
ステップS38において仮想視点設定部32は、仮想視点10xを設定する。ステップS39において透明度制御部34は、なくとも背面20Bに比較的低い透明度を設定し、右側面20R及び左側面20Lに比較的高い透明度を設定する。その後に処理はステップS43に進む。
ステップS40において仮想視点設定部32は、仮想視点10xを設定する。ステップS41において透明度制御部34は、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し、右側面20R及び左側面20Lに比較的高い透明度を設定する。その後に処理はステップS43に進む。
ステップS42において仮想視点設定部32は、仮想視点10xを設定する。その後、アイコン12の透明度を変更することなく(例えば、アイコン12の全体に比較的低い透明度を設定したまま)処理はステップS45に進む。
ステップS37において後続車のみが検出された場合に、ステップS43において透明度制御部34は、後続車との車間距離が所定値以下であるか否かを判断する。後続車との車間距離が所定値以下である場合(ステップS43:Y)に処理はステップS44に進む。後続車との車間距離が所定値以下でない場合(ステップS43:N)に処理はステップS45へ進む。ステップS44において透明度制御部34は、ステップS39で透明度を下げた背面20Bの透明度をさらに下げる。その後に処理はステップS45へ進む。
ステップS37において先行車及び後続車のみが検出された場合に、ステップS43において透明度制御部34は、先行車との車間距離及び後続車との車間距離の各々が所定値以下であるか否かを判断する。後続車との車間距離及び後続車と車間距離のどちらも所定値以下でない場合(ステップS43:N)に処理はステップS45へ進む。
先行車との車間距離が所定値以下である場合(ステップS43:Y)に処理はステップS44へ進む。ステップS44において透明度制御部34は、ステップS41で透明度を下げた前面20Fの透明度をさらに下げる。その後に処理はステップS45へ進む。
また、後続車との車間距離が所定値以下である場合(ステップS43:Y)に処理はステップS44へ進む。ステップS44において透明度制御部34は、ステップS41において透明度を下げた背面20Bの透明度をさらに下げる。その後に処理はステップS45へ進む。
ステップS45において周囲状況画像生成部33は、仮想視点設定部32が設定した仮想視点10から見た周囲状況画像を生成する。
ステップS46においてアイコン描画部36は、周囲状況画像生成部33が生成した周囲状況画像内に、透明度制御部34により透明度が設定されたアイコン12を描画する。ディスプレイ装置5は、透明度制御部34により透明度が設定されたアイコン12が描画された周囲状況画像を表示する。
ステップS47において運転支援装置30は、ディスプレイ装置5への周囲状況画像の表示がオフになっているか否かを判断する。周囲状況画像の表示がオフになっている場合(S47:Y)に処理は終了する。周囲状況画像の表示がオフになっていない場合(S47:N)に処理はステップS31に戻る。
(変形例)
(1)透明度制御部34は、走行状況判断部52による判断結果に応じて仮想視点設定部32が設定した仮想視点10の位置に応じて、アイコン12の中で、透明度が高い領域をアイコン12に設定する。仮想視点10に応じた透明度の設定方法は第1実施形態の設定方法と同じである。このため、車両1の走行状況に応じて仮想視点10が設定された周囲状況画像において、アイコン12が生じる死角領域を低減しつつ、仮想視点10の位置に応じて周囲との間隔を把握し易くなり、車両1と周囲の物体との距離の知覚を容易にできる。
(2)物体検出部51及び走行状況判断部52は、車両1の走行状況として車両1の周囲の物体を検出する。透明度制御部34は、検出した物体がアイコンによる死角に入る場合に、透明度が高い領域をアイコンの中に設定する。
走行状況判断部52は、物体検出部51が検出した車両1の周囲の物体が、周囲状況画像においてアイコン12により生じる死角に入るか否かを、仮想視点設定部32が設定した仮想視点10の位置に応じて判断してもよい。
透明度制御部34は、物体検出部51が検出した物体がいずれかの領域の死角に入ると走行状況判断部52が判断した場合に、透明度が高い領域をアイコン12の中に設定する。これにより、アイコン12により生じる死角に車両1の周囲の物体が入り運転者が見落とすことを防止できる。
また、透明度制御部34は、物体検出部51が検出した物体がアイコン12により生じる死角に入らないと走行状況判断部52が判断した場合に、透明度が低い領域をアイコン12の中に設定する。これにより、アイコン12の縁を明瞭に表示されるので、車両1の周囲の物体との間隔を知覚し易くなる。
(3)仮想視点設定部32は、走行状況毎に予め定められた仮想視点10のうちから検出された走行状況に応じた仮想視点10を選択してもよく、走行状況に応じて仮想視点10を計算して仮想視点10を定めてもよい。例えば、物体検出部51により検出された車両1の左端と左走行路境界との間隔や、周囲の他車両との車間距離や、車両1の速度等の連続的な変化に伴って連続的に変化するように仮想視点10を定めてもよい。
(第2実施例の効果)
(1)環境検出部50、物体検出部51及び走行状況判断部52は、車両1の走行状況を検出し、透明度制御部34は、検出した走行状況に応じて、アイコン12の中で、透明度が低い領域を設定する。
これにより、部分的に透明度を高くしてアイコン12が生じる死角領域を低減しつつ、走行状況に応じた車両1の周囲の注意対象に近い部位の透明度を下げて境界を明瞭にすることにより、車両1と注意対象との距離の知覚が容易になる。
(2)物体検出部51及び走行状況判断部52は、走行状況として車両1の周囲の物体を検出する。透明度制御部34は、アイコン12の複数領域のうち検出した物体に対向する領域に比較的低い透明度を設定する。これにより、車両1の周囲の注意対象の物体に近い部位の透明度を下げて境界を明瞭にすることにより、車両1と注意対象との距離の知覚が容易になる。
(3)透明度制御部34は、検出した物体と車両1との距離が短いほど、検出した物体に対向する領域の透明度を下げる。これにより、注意対象の物体との距離が大きいときは透明度が高い領域を増やして死角を低減できるとともに、注意対象の物体との距離が短いときは注意対象に近い部位の透明度を下げて車両1と注意対象との距離の知覚が容易にすることができる。
1…車両、2FR…右前輪、2FL…左前輪、2RR…右後輪、2RL…左後輪、3F…前方カメラ、3B…後方カメラ、3R…右側方カメラ、3L…左側方カメラ、4…コントローラ、5…ディスプレイ装置、10x、10y、10z…仮想視点、11、15、17…周囲状況画像、12…アイコン、30…運転支援装置、32…仮想視点設定部、33…周囲状況画像生成部、34…透明度制御部、35…アイコン記憶部、36…アイコン描画部、37…視点変換部、38…合成部、50…環境検出部、51…物体検出部、52…走行状況判断部

Claims (15)

  1. 自車両の周囲の画像を撮像し、
    仮想視点を設定し、
    撮像された前記画像に基づき前記仮想視点から見た前記自車両の周囲状況を示す周囲状況画像を生成し、
    前記仮想視点の位置に応じて、前記自車両を示すアイコンの中で、透明度が異なる領域を設定して、透明度が高い領域と透明度が低い領域とを前記周囲状況画像内に描画し、
    前記仮想視点の位置に応じて設定された前記透明度が高い領域と前記透明度が低い領域とを描画した前記周囲状況画像を表示する、
    ことを特徴とする表示方法。
  2. 前記アイコンにより前記周囲状況画像に生じる死角に応じて、前記透明度が高い領域を設定することを特徴とする請求項1に記載の表示方法。
  3. 前記自車両の走行状況を検出し、
    検出した前記走行状況に応じて前記仮想視点を設定することを特徴とする請求項1又は2に記載の表示方法。
  4. 前記走行状況として前記自車両の周囲の物体を検出し、
    前記アイコンの中で、前記物体に対向する領域に比較的低い透明度を設定することを特徴とする請求項3に記載の表示方法。
  5. 前記自車両と前記物体との距離が短いほど透明度を低くすることを特徴とする請求項4に記載の表示方法。
  6. 互いに直交する第1軸及び第2軸を少なくとも有する座標系で前記仮想視点の座標を表現し、
    前記第1軸、前記第2軸、並びに前記第1軸と前記第2軸との交点を通り前記第1軸及び前記第2軸に直交する仮想直線のうちいずれの直線が前記仮想視点に最も近いかに応じて、前記透明度が高い領域を設定することを特徴とする請求項1〜5のいずれか一項に記載の表示方法。
  7. 前記仮想視点は、前記第1軸、前記第2軸及び前記仮想直線のうち前記仮想視点に最も近い第1直線上の位置から、前記第1軸、前記第2軸及び前記仮想直線のうち前記仮想視点に2番目に近い第2直線が伸びる方向へずれた位置に設定され、
    前記アイコンとして、上面、底面、前面、背面、左側面及び右側面を含む6つの面を有する立体モデルを描画し、
    前記6つの面のうち、前記第1直線との法線のなす角が小さい順に上位2つの面が、前記仮想視点に比較的近い第1面と比較的遠い第2面とを含み、前記第2直線との法線のなす角が小さい順に上位2つの面が、前記仮想視点に比較的近い第3面と比較的遠い第4面とを含む場合に、前記第2面及び前記第4面の少なくとも一方並びに前記第1面に比較的高い透明度を設定し、
    前記6つの面のうち前記第1面、前記第2面及び前記第4面以外の3つの面のうち少なくとも1つに比較的低い透明度を設定することを特徴とする請求項6に記載の表示方法。
  8. 前記第1軸、前記第2軸及び前記仮想直線のうち前記仮想視点に最も近い直線と前記仮想視点との間の距離が短いほど比較的低い透明度が設定される領域を広くすることを特徴とする請求項6又は7に記載の表示方法。
  9. 自車両の周囲の画像を撮像し、
    前記自車両の走行状況を検出し、
    検出した前記走行状況に応じて仮想視点を設定し、
    撮像された前記画像に基づき前記仮想視点から見た前記自車両の周囲状況を示す周囲状況画像を生成し、
    検出した前記走行状況に応じて、前記自車両を示すアイコンの中で、透明度が異なる領域を設定して、透明度が高い領域と透明度が低い領域とを前記周囲状況画像内に描画し、
    前記走行状況に応じて設定された前記透明度が高い領域と前記透明度が低い領域とを描画した前記周囲状況画像を表示する、
    ことを特徴とする表示方法。
  10. 前記走行状況として前記自車両の周囲の物体を検出し、
    前記アイコンの中で、前記物体に対向する領域に比較的低い透明度を設定することを特徴とする請求項9に記載の表示方法。
  11. 前記自車両と前記物体との距離が短いほど透明度を低くすることを特徴とする請求項10に記載の表示方法。
  12. 前記走行状況として前記自車両の周囲の物体を検出し、
    前記物体が、前記アイコンにより生じる死角に入る場合に、前記透明度が高い領域を前記アイコンの中に設定することを特徴とする請求項9に記載の表示方法。
  13. 前記走行状況として前記自車両の周囲の物体を検出し、
    前記物体が、前記アイコンにより生じる死角に入らない場合に、前記透明度が高い領域よりも透明度が低い領域を前記アイコンの中に設定することを特徴とする請求項9に記載の表示方法。
  14. 自車両の周囲の画像を撮像する撮像素子と、
    仮想視点を設定し、前記撮像素子により撮像された前記画像に基づき前記仮想視点から見た前記自車両の周囲状況を示す周囲状況画像を生成し、前記仮想視点の位置に応じて前記自車両を示すアイコンの中に透明度が異なる領域を設定して、透明度が高い領域と透明度が低い領域とを前記周囲状況画像内に描画するコントローラと、
    前記仮想視点の位置に応じて設定された前記透明度が高い領域と前記透明度が低い領域とを描画した前記周囲状況画像を表示するディスプレイと、
    を備えることを特徴とする運転支援装置。
  15. 自車両の周囲の画像を撮像する撮像素子と、
    前記自車両の走行状況を検出し、検出した前記走行状況に応じて仮想視点を設定し、前記撮像素子により撮像された前記画像に基づき前記仮想視点から見た前記自車両の周囲状況を示す周囲状況画像を生成し、前記自車両の前記走行状況に応じて前記自車両を示すアイコンの中に透明度が異なる領域を設定して、透明度が高い領域と透明度が低い領域とを前記周囲状況画像内に描画するコントローラと、
    前記走行状況に応じて設定された前記透明度が高い領域と前記透明度が低い領域とを描画した前記周囲状況画像を表示するディスプレイと、
    を備えることを特徴とする運転支援装置。
JP2016085245A 2016-04-21 2016-04-21 表示方法及び運転支援装置 Active JP6662175B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016085245A JP6662175B2 (ja) 2016-04-21 2016-04-21 表示方法及び運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016085245A JP6662175B2 (ja) 2016-04-21 2016-04-21 表示方法及び運転支援装置

Publications (2)

Publication Number Publication Date
JP2017195533A JP2017195533A (ja) 2017-10-26
JP6662175B2 true JP6662175B2 (ja) 2020-03-11

Family

ID=60156559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016085245A Active JP6662175B2 (ja) 2016-04-21 2016-04-21 表示方法及び運転支援装置

Country Status (1)

Country Link
JP (1) JP6662175B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110316064B (zh) * 2018-03-30 2022-08-16 深圳市掌网科技股份有限公司 一种车辆盲区显示系统
JP7283059B2 (ja) * 2018-11-28 2023-05-30 株式会社アイシン 周辺監視装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093567A (ja) * 2008-10-08 2010-04-22 Panasonic Corp 画像処理装置
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
JP6014433B2 (ja) * 2012-09-19 2016-10-25 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
JP6014442B2 (ja) * 2012-09-27 2016-10-25 富士通テン株式会社 画像生成装置、画像表示システム、および、画像生成方法
JP6439436B2 (ja) * 2014-12-19 2018-12-19 株式会社デンソー 映像処理装置、及び車載映像処理システム

Also Published As

Publication number Publication date
JP2017195533A (ja) 2017-10-26

Similar Documents

Publication Publication Date Title
US10733462B2 (en) Travel assistance device and computer program
US10789845B2 (en) Parking assistance method and parking assistance device
CN104204847B (zh) 用于可视化车辆的周围环境的方法和装置
CN108128249B (zh) 用于改变外侧后视摄像头的视野的系统和方法
JP6695049B2 (ja) 表示装置及び表示制御方法
US10549693B2 (en) Bird's-eye view video generation device, bird's-eye view video generation system, bird's-eye view video generation method and program
JP6666883B2 (ja) 走行支援装置
CN104854637A (zh) 移动物体位置姿态角推定装置及移动物体位置姿态角推定方法
US10896336B2 (en) Parking compartment recognition apparatus
CN111034186B (zh) 周围车辆显示方法及周围车辆显示装置
JP6277933B2 (ja) 表示制御装置、表示システム
JP2015133603A (ja) 周辺監視装置、及びプログラム
JP2005186648A (ja) 車両用周囲視認装置および表示制御装置
US10223920B2 (en) Display device for vehicle
US20230013965A1 (en) Superimposed-image display device
CN114077306A (zh) 实现内容可视化的装置和方法
JP2018142884A (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP6662175B2 (ja) 表示方法及び運転支援装置
JP2009206702A (ja) 画像処理装置、画像処理方法
JP4930432B2 (ja) 車両用周辺監視装置
JP2017021019A (ja) 車両用表示装置及び車両用表示方法
US20190061624A1 (en) Vehicular display control device, vehicular display system, vehicular display control method, and non-transitory storage medium
US11580689B2 (en) Information display control device, method, and non-transitory computer-readable recording medium
JP6634947B2 (ja) 表示方法及び運転支援装置
CN115088028B (zh) 绘制系统、显示系统、移动体、绘制方法以及程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200127

R151 Written notification of patent or utility model registration

Ref document number: 6662175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151