JP2019055622A - 運転支援表示方法及び運転支援表示装置 - Google Patents

運転支援表示方法及び運転支援表示装置 Download PDF

Info

Publication number
JP2019055622A
JP2019055622A JP2017179779A JP2017179779A JP2019055622A JP 2019055622 A JP2019055622 A JP 2019055622A JP 2017179779 A JP2017179779 A JP 2017179779A JP 2017179779 A JP2017179779 A JP 2017179779A JP 2019055622 A JP2019055622 A JP 2019055622A
Authority
JP
Japan
Prior art keywords
vehicle
image
host vehicle
surrounding image
support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017179779A
Other languages
English (en)
Other versions
JP6929177B2 (ja
Inventor
草柳 佳紀
Yoshinori Kusayanagi
佳紀 草柳
渡辺 省吾
Shogo Watanabe
省吾 渡辺
拓良 柳
Hiroyoshi Yanagi
柳  拓良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2017179779A priority Critical patent/JP6929177B2/ja
Publication of JP2019055622A publication Critical patent/JP2019055622A/ja
Application granted granted Critical
Publication of JP6929177B2 publication Critical patent/JP6929177B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instrument Panels (AREA)
  • Image Processing (AREA)

Abstract

【課題】適切な情報を乗員に与えることができる運転支援表示方法及び運転支援表示装置を提供する。【解決手段】運転支援表示装置は、自車両の周囲を走行する他車両を検出する物体検出装置1と、自車両の後方上空または前方上空から見た、自車両を含む領域を示す周囲画像を生成する周囲画像生成部15と、自車両と、自車両の周囲の他車両との相対位置を検出する位置関係検出部12と、相対位置の時間変化から他車両が周囲画像に対してフレームインするか、もしくはフレームアウトするか判定する接近判定部13と、他車両が周囲画像に対してフレームインすると判定された場合と、他車両が周囲画像に対してフレームアウトすると判定された場合とで、他車両を示す支援画像を異なる表示形態により表示する画像合成部16と、を備える。【選択図】図1

Description

本発明は、運転支援表示方法及び運転支援表示装置に関する。
従来より、自動運転中の車線変更を乗員へ知らせる技術が知られている(特許文献1)。特許文献1に記載された発明は、車線変更の走行コースを示すシンボル画像をモニタに表示して、車線変更を行うことを乗員へ知らせる。
特開2016−182891号公報
しかしながら、特許文献1に記載された発明は、自車両の後方上空から俯瞰した映像をモニタに表示しているため、自車両が他車両を追い抜く際に、モニタ上の他車両の表示面積が大きくなり、かつ、他車両は急にディスプレイから消える。自車両が他車両を追い抜くシーンは、自車両と他車両との距離が離れることを意味するため、自車両に対するリスクは減少する。それにも関わらず、モニタに表示される映像の急劇な変化は、乗員の誘目性を高めてしまい、余計な情報を乗員に与えることになる。
本発明は、上記問題に鑑みて成されたものであり、その目的は、適切な情報を乗員に与えることができる運転支援表示方法及び運転支援表示装置を提供することである。
本発明の一態様に係る運転支援表示方法は、自車両を含む領域を示す周囲画像を生成し、自車両と、自車両の周囲の他車両との相対位置を検出する。運転支援表示方法は、相対位置の時間変化から他車両が周囲画像に対してフレームインするか、もしくはフレームアウトするか判定する。運転支援表示方法は、他車両が周囲画像に対してフレームインすると判定した場合と、他車両が周囲画像に対してフレームアウトすると判定した場合とで、他車両を示す支援画像を異なる表示形態により表示する。
本発明によれば、適切な情報を乗員に与えることができる。
図1は、本発明の実施形態に係る運転支援表示装置の構成図である。 図2は、本発明の実施形態に係る走行シーンを説明する図である。 図3は、本発明の実施形態に係る周囲画像を説明する図である。 図4は、本発明の実施形態に係る支援画像を説明する図である。 図5は、本発明の実施形態に係る他の走行シーンを説明する図である。 図6は、本発明の実施形態に係る他の周囲画像を説明する図である。 図7は、本発明の実施形態に係るさらに他の周囲画像を説明する図である。 図8は、本発明の実施形態に係るさらに他の周囲画像を説明する図である。 図9は、本発明の実施形態に係る運転支援表示装置の一動作例を説明するフローチャートである。 図10は、本発明の実施形態に係る運転支援表示装置の一動作例を説明するフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。本実施形態に係る運転支援表示装置は、自動運転と手動運転とを切り替えることが可能な車両に適用される。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも一つのアクチュエータを運転者の操作なしに制御している状態のことを指す。そのため、少なくとも一つのアクチュエータが制御されている状態であれば、その他のアクチュエータが運転者の操作により作動していたとしても構わない。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングなど走行のために必要な操作を運転者が操作している状態のことを指す。
[運転支援表示装置の構成]
図1に示すように、本実施形態に係る運転支援表示装置は、物体検出装置1と、自車位置検出装置2と、地図取得装置3と、センサ群4と、コントローラ10と、自車両の車室内に搭載されたモニタ5と、を備える。なお、以下の説明において、特に断らない限り、乗員は、自車両の乗員を意味する。
物体検出装置1は、自車両に搭載された複数の異なる種類の物体検出センサを備える。複数の異なる種類の物体検出センサは、レーザレーダやミリ波レーダ、カメラ、レーザレンジファインダー、車車間通信、路車間通信などである。物体検出装置1は、複数の物体検出センサを用いて自車両の周囲の物体を検出する。より詳しくは、物体検出装置1は、他車両、バイク、自転車、歩行者を含む移動物体、及び駐車車両を含む静止物体を検出する。例えば、物体検出装置1は、移動物体及び静止物体の自車両に対する位置、姿勢(ヨー角)、大きさ、速度、加速度、減速度、ヨーレートを検出する。物体検出装置1は、検出した情報をコントローラ10に出力する。
自車位置検出装置2は、自車両に搭載された、GPS(グローバル・ポジショニング・システム)やオドメトリなど自車両の絶対位置を計測する位置検出センサを備える。自車位置検出装置2は、位置検出センサを用いて、自車両の絶対位置、すなわち、所定の基準点に対する自車両の位置や姿勢を検出する。自車位置検出装置2は、検出した情報をコントローラ10に出力する。
地図取得装置3は、自車両が走行する道路の構造を示す地図情報を取得する。地図取得装置3が取得する地図情報には、車線の絶対位置や車線の接続関係、相対位置関係などの道路構造の情報が含まれる。地図取得装置3は、地図情報を格納した地図データベースを所有してもよいし、クラウドコンピューティングにより地図情報を外部の地図データサーバから取得してもよい。また、地図取得装置3は、車車間通信、路車間通信を用いて地図情報を取得してもよい。地図取得装置3は、検出した情報をコントローラ10に出力する。
センサ群4は、自車両の状態を検出する複数のセンサから構成される。センサ群4は、例えば、車速センサ、シフトセンサ、ステアリングセンサなどである。センサ群4は、自車両の車速、シフトポジション、ステアリング角度などを検出し、コントローラ10に出力する。
コントローラ10は、各種センサから取得したデータを処理する回路であり、例えばCPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータをコントローラ10として機能させるためのコンピュータプログラムを、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、コントローラ10として機能する。なお、ここでは、ソフトウェアによってコントローラ10を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、コントローラ10を構成することも可能である。コントローラ10は、複数の情報処理回路として、走行車線判定部11と、位置関係検出部12と、接近判定部13と、仮想視点設定部14と、周囲画像生成部15と、画像合成部16とを備える。
走行車線判定部11は、自車位置検出装置2及び地図取得装置3から取得した情報に基づいて、自車両が走行する車線を判定する。また、走行車線判定部11は、物体検出装置1及び地図取得装置3から取得した情報に基づいて、他車両が走行する車線を判定する。走行車線判定部11は、判定した結果を接近判定部13に出力する。
位置関係検出部12(検出回路)は、物体検出装置1及び自車位置検出装置2から取得した情報に基づいて、自車両と他車両との位置関係を検出する。具体的には、位置関係検出部12は、自車両の位置を基準として、自車両に対する他車両の相対位置を検出する。また、位置関係検出部12は、物体検出装置1及びセンサ群4から取得した情報に基づいて、自車両に対する他車両の相対速度を検出する。本実施形態において、相対速度とは、自車両の進行方向の速度を正とした場合における、自車両の速度に対する他車両の速度をいう。つまり、本実施形態において、相対速度が正とは、他車両が自車両より速い場合をいう。一方、相対速度が負とは、他車両が自車両より遅い場合をいう。また、相対速度がゼロとは、自車両と他車両が同じ速度で走行している場合をいう。また、位置関係検出部12は、自車両と他車両とのTTC(Time To Collision)を検出する。TTCとは、衝突余裕時間である。位置関係検出部12は、検出した結果を接近判定部13に出力する。
接近判定部13(判定回路)は、走行車線判定部11及び位置関係検出部12から取得した情報に基づいて、他車両が自車両に接近するか、あるいは遠ざかるかを判定する。本実施形態において、他車両が自車両に接近する場合、自車両に対するリスクが増加することを意味する。一方、他車両が自車両から遠ざかる場合、自車両に対するリスクは減少することを意味する。接近判定部13は、自車両に対する他車両の相対位置を用いて、他車両が自車両に接近するか否かを判定する。例えば、接近判定部13は、相対位置の時間変化から他車両が自車両に接近するか否かを判定する。接近判定部13は、相対位置を用いることにより、自車両と他車両との距離を取得することができる。よって、接近判定部13は、相対位置の時間変化に基づいて、自車両と他車両との距離が小さくなっているのか、大きくなっているのか計算することができる。自車両と他車両との距離が小さくなっている場合、接近判定部13は、他車両が自車両に接近すると判定する。一方、自車両と他車両との距離が大きくなっている場合、接近判定部13は、他車両が自車両から遠ざかると判定する。
また、接近判定部13は、相対速度を用いて、他車両が自車両に接近するか否かを判定してもよい。例えば、接近判定部13は、他車両が自車両の後方に存在し、かつ相対速度が正の場合、他車両が自車両に接近すると判定することができる。この場合、他車両は自車両を追い抜くが、他車両が自車両を追い抜いた後は、接近判定部13は、他車両が自車両から遠ざかると判定することができる。
また、接近判定部13は、他車両が自車両の前方に存在し、かつ相対速度が負の場合、他車両が自車両に接近すると判定することができる。この場合、自車両は他車両を追い抜くが、自車両が他車両を追い抜いた後は、接近判定部13は、他車両が自車両から遠ざかると判定することができる。
また、接近判定部13は、TTCを用いて、他車両が自車両に接近するか否かを判定してもよい。接近判定部13は、TTCの時間変化から他車両が自車両に接近するか否かを判定することができる。TTCが小さくなる場合、接近判定部13は、他車両が自車両に接近すると判定することができる。一方、TTCが大きくなる場合、接近判定部13は、他車両が自車両から遠ざかると判定することができる。接近判定部13は、判定した結果を画像合成部16に出力する。なお、接近判定部13は、後述するように、他車両が周囲画像に対してフレームインするか、もしくはフレームアウトするか判定してもよい。
仮想視点設定部14は、自車両を後方上空または前方上空から見下ろす仮想視点の位置を設定する。仮想視点設定部14は、車速や舵角などを用いて仮想視点を設定する。仮想視点設定部14は、設定した仮想視点を周囲画像生成部15に出力する。
周囲画像生成部15(周囲画像生成回路)は、仮想視点設定部14によって設定された仮想視点を用いて、自車両の上方から下方(車両の方向)を見たように周囲画像を生成する。なお、周囲画像は、俯瞰画像、鳥瞰画像などでもよく、自車両とその周囲の状況がわかるものであれば画像の形態は問わない。加えて、俯瞰画像、鳥瞰画像の生成方法は既知の技術であるので、詳細な説明を省略する。周囲画像生成部15は、生成した周囲画像を画像合成部16及びモニタ5に出力する。
画像合成部16(画像合成回路)は、周囲画像生成部15によって生成された周囲画像に対し、接近判定部13によって判定された結果に基づいて支援画像を合成する。そして、画像合成部16は、合成した画像をモニタ5に出力する。
[運転支援表示装置の動作例]
次に、図2〜図4を参照して、運転支援表示装置の一動作例について説明する。
図2に示す運転シーンは、自車両30が、他車両31を追い抜くシーンである。他車両31は、自車両30の走行車線に隣接する隣接車線を走行する隣接車両である。時刻T1において、自車両30は、他車両31の後方を走行している。時間が進み、時刻T2において、自車両30は、他車両31に並ぶ。時間が進み、時刻T3において、自車両30は、他車両31を追い抜く。なお、本実施形態において、隣接車線とは、自車両30が走行する車線と同じ走行方向の車線をいう。
次に、図3を参照して、図2に示す運転シーンを、自車両30の後方上空から見た場合について説明する。図3に示す周囲画像50は、図2に示す運転シーンを自車両30の後方上空から見た画像である。図3に示す時刻T1〜T3は、図2に示す時刻T1〜T3に対応する。
図3の時刻T1の周囲画像50に示すように、自車両30は、他車両31と比較して周囲画像50の手前に表示される。一方、他車両31は、自車両30と比較して周囲画像50の奥に表示される。図3に示す自車両30は、自車両を模した画像(アイコン)である。同様に、図3に示す他車両31は、他車両を模した画像である。以下の図面においても同様である。
次に、他車両31の表示方法について説明する。まず、周囲画像生成部15は、自車両30の後方上空から自車両30を含む領域を示す周囲画像50を生成する。次に、位置関係検出部12は、自車両30と、自車両30の周囲の他車両31との相対位置を検出する。画像合成部16は、位置関係検出部12によって検出された周囲画像50上の相対位置に、他車両31を示す画像を表示する。なお、他車両31を示す画像を、以下では単に支援画像とよぶ場合がある。
時間が進み、図3の時刻T2の周囲画像50に示すように、自車両30と他車両31は、並んで表示される。さらに時間が進み、時刻T3の周囲画像50に示すように、自車両30が他車両31を追い抜いたため、自車両30は、他車両31と比較して周囲画像50の奥に表示される。一方、他車両31は、自車両30と比較して周囲画像50の手前に表示される。
図3の時刻T1〜時刻T3に示すように、自車両30が他車両31を追い抜くシーンでは、他車両31は、周囲画像50上において、徐々に大きくなり、時刻T3でもっとも大きくなる。このように大きく表示される他車両31は、乗員の誘目性を高める。ここで、時刻T1〜T2において、他車両31は、自車両30に接近するが、時刻T2〜T3において、他車両31は、自車両30から遠ざかる。つまり、時刻T1〜T2において、自車両30に対するリスクは増加するが、時刻T2〜T3において、自車両30に対するリスクは減少する。このように、リスクが減少するにも関わらず、時刻T3の周囲画像50に示すように、大きく表示される他車両31は、乗員の誘目性を高めてしまい、余計な情報を乗員に与えることになる。
そこで、画像合成部16は、図3の時刻T3の周囲画像50に示すように、他車両31が周囲画像50のフレーム付近に接近した場合、支援画像(他車両31)のリアル度を低くする。本実施形態において、リアル度とは、支援画像の外観に関する指標であり、支援画像が他車両31の外観に近いほど、リアル度は高くなる。なお、本実施形態において、周囲画像50のフレームは、モニタ5のフレームであってもよい。
このリアル度について、図4を参照して説明する。図4に示すそれぞれの周囲画像50は、図3に示す時刻T3の周囲画像50に相当する。図4に示すように、他車両31が周囲画像50のフレーム付近に接近した場合、画像合成部16は、支援画像(他車両31)のリアル度を低くする。例えば、画像合成部16は、モザイク処理が施された支援画像を表示したり、ガウシアンぼかし処理が施された支援画像を表示したりする。また、画像合成部16は、半透明処理が施された支援画像を表示したり、輝度がアップされた支援画像を表示したりする。このように、画像合成部16は、リアル度が低い支援画像を表示することにより、乗員の誘目性を低下させることができる。図3の時刻T1及びT2に示すように、自車両30に対するリスクが減少していない場合は、画像合成部16は、支援画像のリアル度を低下させない。そして、図3の時刻T3に示すように、自車両30に対するリスクが減少した場合、画像合成部16は、支援画像のリアル度を低下させる。このように、画像合成部16は、自車両30に対するリスクが減少するにつれて、乗員が注視すべき支援画像を段階的に誘目性が低下するように表示するため、適切な情報を乗員に与えることができる。
なお、モザイク処理が施された支援画像やガウシアンぼかし処理が施された支援画像などは、予めコントローラ10に記憶されている。また、画像合成部16は、モザイク処理が施された支援画像やガウシアンぼかし処理が施された支援画像などを生成してもよい。
なお、支援画像のリアル度を低くするタイミングは、他車両31が周囲画像50のフレーム付近に接近した場合と説明したが、これに限定されない。例えば、画像合成部16は、所定範囲を設定し、他車両31が所定範囲に入った場合に支援画像のリアル度を低くしてもよい。また、画像合成部16は、図3の時刻T2の周囲画像50に示すように、自車両30と他車両31とが並んだ後から支援画像のリアル度を低くしてもよい。自車両30と他車両31とが並んだ後は、自車両30に対するリスクが減少するからである。
また、画像合成部16は、支援画像が周囲画像50のフレームから外れるまでの所定時間(例えば、1〜2秒)を設定し、支援画像のリアル度を、この所定時間より前のリアル度より低くしてもよい。図3に示す時刻T3の状態から支援画像が周囲画像50のフレームから外れるまでの時間を所定時間とした場合、画像合成部16は、支援画像のリアル度を、この所定時間よりも前の支援画像のリアル度、例えば図3に示す時刻T2における支援画像のリアル度より低くしてもよい。
また、画像合成部16は、他車両31が自車両30に対して第一所定距離の位置に来てから、支援画像が周囲画像50からフレームアウトするまでの所定時間、支援画像のリアル度を所定時間よりも前のリアル度よりも低くしてもよい。自車両30に対する第一所定距離の位置は、特に限定されないが、例えば、自車両30から10mの位置や、3秒後に自車両30と他車両31とが並ぶ位置などである。
なお、図3の時刻T3からさらに時間が進んだ場合、他車両31は、周囲画像50からフレームアウトする。図3の時刻T3に示すように、大きく表示されていた他車両31が急に周囲画像50からフレームアウトすると、乗員の誘目性が高まる。そこで、画像合成部16は、相対速度が所定値(第2所定値)より小さい場合、支援画像がフレームアウトする際に要する時間を長くしてもよい。これにより、画像合成部16は、支援画像をゆっくりフレームアウトさせることができる。これにより、画像合成部16は、乗員の誘目性を低下させることができ、乗員が感じる違和感を抑制することができる。
また、画像合成部16は、相対速度が所定値より小さい場合、相対速度が所定値以上の場合より、所定時間におけるリアル度の変化速度を小さくしてもよい。これにより、画像合成部16は、支援画像のリアル度をゆっくり変化させることができる。これにより、画像合成部16は、乗員の誘目性を低下させることができ、乗員が感じる違和感を抑制することができる。
なお、本実施形態において、フレームアウトとは、周囲画像50のフレームの内側に表示されていた他車両31が、周囲画像50のフレームの外側に外れることをいう。また、フレームインとは、周囲画像50のフレームの外側にいた他車両31が、周囲画像50のフレームの内側に表示されることをいう。また、他車両31がフレームアウトするタイミングは、特に限定されないが、例えば、自車両30の側方に他車両31の基準位置が並んだ場合である。他車両31の基準位置は、例えば、他車両31の重心位置や他車両31の後輪車軸中心などである。また、他車両31がフレームアウトするタイミングは、自車両30の基準位置に他車両31の基準位置が並んだ場合であってもよい。自車両30の基準位置は、他車両31の基準位置と同様であり、自車両30の重心位置や自車両30の後輪車軸中心などである。他車両31がフレームインするタイミングは、他車両31がフレームアウトするタイミングと同じでもよく、異なっていてもよい。
次に、図5〜図6を参照して、運転支援表示装置の他の動作例について説明する。
図5に示す運転シーンは、他車両31が、自車両30を追い抜くシーンである。他車両31は、自車両30の走行車線に隣接する隣接車線を走行する隣接車両である。時刻T1において、他車両31は、自車両30の後方を走行している。時間が進み、時刻T2において、他車両31は、自車両30に並ぶ。時間が進み、時刻T3において、他車両31は、自車両30を追い抜く。
次に、図6を参照して、図5に示す運転シーンを、自車両30の後方上空から見た場合について説明する。図6に示す周囲画像50は、図5に示す運転シーンを自車両30の後方上空から見た画像である。図6に示す時刻T1〜T3は、図5に示す時刻T1〜T3に対応する。
図6の時刻T1の周囲画像50に示すように、他車両31は、自車両30と比較して周囲画像50の手前に表示される。一方、自車両30は、他車両31と比較して周囲画像50の奥に表示される。時間が進み、時刻T2の周囲画像50に示すように、自車両30と他車両31は、並んで表示される。さらに時間が進み、時刻T3の周囲画像50に示すように、他車両31が自車両30を追い抜いたため、他車両31は、自車両30と比較して周囲画像50の奥に表示される。一方、自車両30は、他車両31と比較して周囲画像50の手前に表示される。
図6の時刻T1〜時刻T3に示すように、他車両31が自車両30を追い抜くシーンでは、他車両31は、周囲画像50上において、徐々に小さくなる。時刻T3からさらに時間が進めば、他車両31は、無限遠に消えていく。このように無限遠に消えていく他車両31は、乗員の誘目性を高めないため、リアル度に関する制御は、不要となる。
なお、図6の時刻T1の周囲画像50に示すように、支援画像(他車両31)は、周囲画像50にフレームインするが、画像合成部16は、相対速度に応じてフレームインに要する時間を短くしてもよい。例えば、相対速度が所定値(第1所定値)より大きい場合、画像合成部16は、フレームインに要する時間を、通常のフレームインに要する時間より短くしてもよい。
他車両31が自車両30を追い抜くシーンにおいて、相対速度が大きい場合、乗員が他車両31に気づくことに遅れると、乗員は違和感を感じるおそれがある。そこで、相対速度が所定値より大きい場合、画像合成部16は、フレームインに要する時間を短くする。これにより、画像合成部16は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。
また、画像合成部16は、他車両31が周囲画像50に対してフレームインすると判定した場合、他車両31が自車両30に対して第二所定距離の位置に来てから支援画像が周囲画像50にフレームインするまでの所定時間、支援画像のリアル度を所定時間よりも後のリアル度より高くしてもよい。すなわち、画像合成部16は、図6の時刻T1に示す支援画像のリアル度を、図6の時刻T2に示す支援画像のリアル度(所定時間よりも後のリアル度)より高くしてもよい。例えば、画像合成部16は、実際の車両に近い支援画像(色や形など)を表示することにより、リアル度を高くすることができる。これにより、画像合成部16は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。なお、自車両30に対する第二所定距離の位置は、自車両30に対する第一所定距離の位置と同じでもよく、異なっていてもよい。
また、画像合成部16は、相対速度が所定値より大きい場合、相対速度が所定値以下の場合より、所定時間における支援画像のリアル度の変化速度を大きくしてもよい。これにより、画像合成部16は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。
なお、図6の時刻T1に示すように、他車両31が自車両30の後方にいる場合、かつ、自車両30と他車両31との車間距離が所定値(第3所定値)より小さい場合に、画像合成部16は、所定時間における支援画像のリアル度の変化速度を大きくしてもよい。自車両30と他車両31との車間距離については、位置関係検出部12が検出すればよい。他車両31が自車両30の後方に存在し、かつ、自車両30と他車両31との車間距離が所定値より小さい場合、他車両31が自車両30を追い抜く、もしくは車線変更する可能性が高い。他車両31が自車両30を追い抜くシーンや、他車両31が車線変更するシーンは、自車両30へ与えるリスクが変動するシーンであるため、適切な運転支援が求められる。他車両31が自車両30の後方に存在し、かつ、自車両30と他車両31との車間距離が所定値より小さい場合、画像合成部16は、所定時間におけるリアル度の変化速度を大きくすることにより、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。なお、画像合成部16は、他車両31が自車両30の後方にいるという条件を考慮しなくてもよい。すなわち、画像合成部16は、自車両30と他車両31との車間距離が所定値より小さい場合に、所定時間における支援画像のリアル度の変化速度を大きくしてもよい。また、画像合成部16は、自車両30と他車両31との車間距離が小さいほど、所定時間における支援画像のリアル度の変化速度を大きくしてもよい。これにより、画像合成部16は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。
なお、図4及び図6では、周囲画像50は、自車両30の後方上空から見た画像であると説明した。しかし、周囲画像50は、これに限定されない、周囲画像50は、自車両30の前方上空から見た画像であってもよい。この点について、図7及び図8を参照して説明する。
図7に示す周囲画像50は、図2に示す運転シーンを自車両30の前方上空から見た画像である。図7に示す時刻T1〜T3は、図2に示す時刻T1〜T3に対応する。
図7の時刻T1の周囲画像50に示すように、自車両30は、他車両31と比較して周囲画像50の奥に表示される。一方、他車両31は、自車両30と比較して周囲画像50の手前に表示される。時間が進み、時刻T2の周囲画像50に示すように、自車両30と他車両31は、並んで表示される。さらに時間が進み、時刻T3の周囲画像50に示すように、自車両30が他車両31を追い抜いたため、自車両30は、他車両31と比較して周囲画像50の手前に表示される。一方、他車両31は、自車両30と比較して周囲画像50の奥に表示される。
図7の時刻T1〜時刻T3に示すように、自車両30が他車両31を追い抜くシーンでは、他車両31は、周囲画像50上において、徐々に小さくなる。時刻T3からさらに時間が進めば、他車両31は、無限遠に消えていく。このように無限遠に消えていく他車両31は、乗員の誘目性を高めないため、リアル度に関する制御は、不要となる。また、画像合成部16は、他車両31が周囲画像50に対してフレームインすると判定した場合、他車両31が自車両30に対して第二所定距離の位置に来てから支援画像が周囲画像50にフレームインするまでの所定時間、支援画像のリアル度を所定時間よりも後のリアル度より高くしてもよい。これにより、画像合成部16は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。
図8に示す周囲画像50は、図5示す運転シーンを自車両30の前方上空から見た画像である。図8に示す時刻T1〜T3は、図5に示す時刻T1〜T3に対応する。
図8の時刻T1の周囲画像50に示すように、他車両31は、自車両30と比較して周囲画像50の奥に表示される。一方、自車両30は、他車両31と比較して周囲画像50の手前に表示される。時間が進み、時刻T2の周囲画像50に示すように、自車両30と他車両31は、並んで表示される。さらに時間が進み、時刻T3の周囲画像50に示すように、他車両31が自車両30を追い抜いたため、他車両31は、自車両30と比較して周囲画像50の手前に表示される。一方、自車両30は、他車両31と比較して周囲画像50の奥に表示される。
図8の時刻T1〜時刻T3に示すように、自車両30が他車両31を追い抜くシーンでは、他車両31は、周囲画像50上において、徐々に大きくなり、時刻T3でもっとも大きくなる。このように大きく表示される他車両31は、乗員の誘目性を高める。ここで、時刻T1〜T2において、他車両31は、自車両30に接近するが、時刻T2〜T3において、他車両31は、自車両30から遠ざかる。つまり、時刻T1〜T2において、自車両30に対するリスクは増加するが、時刻T2〜T3において、自車両30に対するリスクは減少する。このように、リスクが減少するにも関わらず、時刻T3の周囲画像50に示すように、大きく表示される他車両31は、乗員の誘目性を高めてしまい、余計な情報を乗員に与えることになる。
そこで、画像合成部16は、図8の時刻T3の周囲画像50に示すように、他車両31が周囲画像50のフレーム付近に接近した場合、支援画像(他車両31)のリアル度を低くする。リアル度を低くする方法は、図4で説明した方法と同じであるため、省略する。画像合成部16は、リアル度が低い支援画像を表示することにより、乗員の誘目性を低下させることができる。図8の時刻T1及びT2に示すように、自車両30に対するリスクが減少していない場合は、画像合成部16は、支援画像のリアル度を低下させない。そして、図3の時刻T3に示すように、自車両30に対するリスクが減少した場合、画像合成部16は、支援画像のリアル度を低下させる。このように、画像合成部16は、自車両30に対するリスクが減少するにつれて、乗員が注視すべき支援画像を段階的に誘目性が低下するように表示するため、適切な情報を乗員に与えることができる。
次に、図9のフローチャートを参照して、運転支援表示装置の一動作例を説明する。
ステップS101において、物体検出装置1は、自車両30の周囲を走行する他車両31を検出する。処理はステップS103に進み、走行車線判定部11は、ステップS101で取得された情報を用いて、他車両31の走行車線が自車両30の走行車線に隣接する隣接車線か否かを判定する。他車両31の走行車線が隣接車線である場合(ステップS103でYes)、処理はステップS105に進む。一方、他車両31の走行車線が隣接車線でない場合(ステップS103でNo)、一連の処理は終了する。他車両31の走行車線が隣接車線でない場合とは、例えば、他車両31の走行車線が対向車線である場合である。対向車線の他車両31は、乗員の誘目性を高めないため、一連の処理は終了する。
ステップS105において、位置関係検出部12は、ステップS101で取得された情報や自車位置検出装置2から取得した情報に基づいて、相対位置、相対速度、TTCなどを検出する。処理はステップS107に進み、接近判定部13は、ステップS105で検出された情報に基づいて、他車両31が自車両30に接近するか、あるいは遠ざかるかを判定する。例えば、自車両30と他車両31との距離が小さくなっている場合、接近判定部13は、他車両31が自車両30に接近すると判定する。一方、自車両と他車両との距離が大きくなっている場合、接近判定部13は、他車両31が自車両30から遠ざかると判定する。また、接近判定部13は、他車両31が自車両30に接近する場合、接近する方向を判定する。
処理はステップS109に進み、他車両31が自車両30の前方から接近する場合、すなわち、図2に示すように自車両30が他車両31を追い抜こうとする場合(ステップS109でYes)、処理はステップS111に進む。一方、他車両31が自車両30の後方から接近する場合、すなわち、図5に示すように他車両31が自車両30を追い抜こうとする場合(ステップS109でNo)、処理はステップS123に進む。
ステップS111において、仮想視点設定部14が自車両30の後方上空に仮想視点を設定した場合(ステップS111でYes)、処理はステップS113に進み、画像合成部16、支援画像(他車両31)が周囲画像50のフレーム付近にいるか否かを判定する。図3の時刻T3の周囲画像50に示すように、支援画像が周囲画像50のフレーム付近にいる場合(ステップS113でYes)、処理はステップS115に進み、画像合成部16は、図4に示すように、支援画像のリアル度を低くする。これにより、画像合成部16は、乗員の誘目性を低下させることができる。処理はステップS117に進み、支援画像が周囲画像50からフレームアウトした場合(ステップS117でYes)、処理はステップS119に進む。支援画像が周囲画像50からフレームアウトしていない場合(ステップS117でNo)、処理はステップS115に戻る。なお、ステップS113において、支援画像が周囲画像50のフレーム付近にいない場合(ステップS113でNo)、処理は待機する。
ステップS111において、仮想視点設定部14が自車両30の前方上空に仮想視点を設定した場合(ステップS111でNo)、処理はステップS121に進み、画像合成部16、支援画像(他車両31)が周囲画像50の無限遠に接近しているか否かを判定する。図7の時刻T3の周囲画像50に示すように、支援画像が周囲画像50の無限遠に接近している場合(ステップS121でYes)、処理はステップS119に進む。支援画像が周囲画像50の無限遠に接近していない場合(ステップS121でNo)、処理は待機する。
ステップS123において、仮想視点設定部14が自車両30の後方上空に仮想視点を設定した場合(ステップS123でYes)、処理はステップS125に進み、画像合成部16、支援画像(他車両31)が周囲画像50のフレーム付近にいるか否かを判定する。なお、ステップS125におけるフレーム付近とは、フレームの外側におけるフレーム付近のことを意味する。支援画像が周囲画像50のフレーム付近にいる場合(ステップS125でYes)、処理はステップS127に進み、画像合成部16は、支援画像が周囲画像50にフレームインする際のフレームインに要する時間を短くする。これにより、画像合成部16は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。ステップS127において、画像合成部16は、相対速度が所定値より大きい場合に、フレームインに要する時間を短くしてもよい。ステップS125において、支援画像が周囲画像50のフレーム付近にいない場合(ステップS125でNo)、処理はステップS129に進む。支援画像が周囲画像50の無限遠に接近している場合(ステップS129でYes)、処理はステップS119に進む。支援画像が周囲画像50の無限遠に接近していない場合(ステップS129でNo)、処理はステップS125に戻る。
ステップS123において、仮想視点設定部14が自車両30の前方上空に仮想視点を設定した場合(ステップS123でNo)、処理はステップS131に進み、画像合成部16、支援画像(他車両31)が周囲画像50のフレーム付近にいるか否かを判定する。図8の時刻T3の周囲画像50に示すように、支援画像が周囲画像50のフレーム付近にいる場合(ステップS131でYes)、処理はステップS133に進み、画像合成部16は、図4に示すように、支援画像のリアル度を低くする。これにより、画像合成部16は、乗員の誘目性を低下させることができる。処理はステップS135に進み、支援画像が周囲画像50からフレームアウトした場合(ステップS135でYes)、処理はステップS119に進む。支援画像が周囲画像50からフレームアウトしていない場合(ステップS135でNo)、処理はステップS133に戻る。なお、ステップS131において、支援画像が周囲画像50のフレーム付近にいない場合(ステップS131でNo)、処理は待機する。
ステップS119において、画像合成部16は、支援画像を消去する。
[作用効果]
以上説明したように、本実施形態に係る運転支援表示装置によれば、以下の作用効果が得られる。
本実施形態に係る運転支援表示装置は、自車両30と、自車両30の周囲の他車両31との相対位置を検出する。運転支援表示装置は、検出した相対位置の時間変化から他車両31が周囲画像50に対してフレームインするか、もしくはフレームアウトするか判定する。運転支援表示装置は、他車両31が周囲画像50に対してフレームインすると判定した場合と、他車両31が周囲画像50に対してフレームアウトすると判定した場合とで、他車両31を示す支援画像を異なる表示形態により表示する。これにより、運転支援表示装置は、乗員の誘目性を低下させたい支援画像を表示したり、乗員の誘目性を高めたい支援画像を表示したりすることができる。
また、運転支援表示装置は、他車両31が周囲画像50に対してフレームアウトすると判定した場合、他車両31が自車両30に対して第一所定距離の位置に来てから支援画像が周囲画像50からフレームアウトするまでの所定時間、支援画像のリアル度を所定時間よりも前のリアル度よりも低くする。このように運転支援表示装置は、リアル度が低い支援画像を表示することにより、乗員の誘目性を低下させることができる。図3の時刻T1及びT2に示すように、自車両30に対するリスクが減少していない場合、運転支援表示装置は、支援画像のリアル度を低下させない。そして、図3の時刻T3に示すように、自車両30に対するリスクが減少した場合、運転支援表示装置は、支援画像のリアル度を低下させる。このように、運転支援表示装置は、自車両30に対するリスクが減少するにつれて、乗員が注視すべき支援画像を段階的に誘目性が低下するように表示するため、適切な情報を乗員に与えることができる。
また、運転支援表示装置は、他車両31が周囲画像50に対してフレームインすると判定した場合、他車両31が自車両30に対して第二所定距離の位置に来てから支援画像が周囲画像50にフレームインするまでの所定時間、支援画像のリアル度を所定時間よりも後のリアル度よりも高くする。これにより、画像合成部16は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。
また、本実施形態において、他車両31が自車両30に対して第一所定距離の位置に来てから支援画像が周囲画像50からフレームアウトするまでの所定時間の間のリアル度の変化率と、他車両31が自車両30に対して第二所定距離の位置に来てから支援画像が周囲画像50にフレームインするまでの所定時間の間のリアル度の変化率と、が異なる。このように、フレームインとフレームアウトでリアル度の変化率が異なるので、運転支援表示装置は、支援画像の強調の仕方を異ならせることができ、誘目性を調整することができる。
また、他車両31が自車両30に対して第一所定距離の位置に来てから支援画像が周囲画像50からフレームアウトするまでの所定時間の間のリアル度の変化率より、他車両31が自車両30に対して第二所定距離の位置に来てから支援画像が周囲画像50にフレームインするまでの所定時間の間のリアル度の変化率の方が、大きくてもよい。これにより、運転支援表示装置は、他車両31がフレームアウトする際の支援画像より、他車両31がフレームインする際の支援画像の方を強調することができる。
また、運転支援表示装置は、自車両30に対する他車両31の相対速度を算出する。そして、運転支援表示装置は、相対速度が第1所定値より大きい場合、相対速度が第1所定値以下の場合より、所定時間におけるリアル度の変化速度を大きくする。これにより、運転支援表示装置は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。
また、図3の時刻T3に示すように、大きく表示されていた他車両31が急に周囲画像50からフレームアウトすると、乗員の誘目性が高まる。そこで、運転支援表示装置は、相対速度が第2所定値より小さい場合、相対速度が第2所定値以上の場合より、所定時間におけるリアル度の変化速度を小さくする。これにより、運転支援表示装置は、支援画像のリアル度をゆっくり変化させることができる。これにより、運転支援表示装置は、乗員の誘目性を低下させることができ、乗員が感じる違和感を抑制することができる。
また、図3の時刻T1〜T3に示すように、運転支援表示装置は、他車両31が自車両30の前方に存在し、その後、他車両31が周囲画像50に対してフレームアウトする場合、支援画像のリアル度を低くする。このように、運転支援表示装置は、リアル度が低い支援画像を表示することにより、乗員の誘目性を低下させることができ、適切な情報を乗員に提供できる。
また、運転支援表示装置は、自車両30と他車両31との車間距離を算出する。運転支援表示装置は、車間距離が小さいほど、所定時間におけるリアル度の変化速度を大きくする。これにより、運転支援表示装置は、適切な情報を乗員に与えることができ、乗員に早めに他車両31の存在を気づかせることができる。
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
例えば、自車両30が走行する車線に他車両31が合流する場合や、自車両30が走行する車線に他車両31が分流する場合にも、本発明は適用できる。このような合流するシーンや分流するシーンは、自車両30に対するリスクが変動するシーンである。合流するシーンや分流するシーンにおいて、画像合成部16は、支援画像のリアル度を制御することにより、適切な情報を乗員に与えることができる。
なお、相対速度について、第1所定値と第2所定値を用いて説明した。第1所定値と第2所定値は、同じ値(例えば0km/h)に設定されてもよく、異なる値に設定されてもよい。また、他車両31が自車両30に対して第一所定距離の位置に来てから支援画像が周囲画像50からフレームアウトするまでの所定時間と、他車両31が自車両30に対して第二所定距離の位置に来てから支援画像が周囲画像50にフレームインするまでの所定時間は、同じ時間であってもよく、異なる時間であってもよい。
1 物体検出装置
2 自車位置検出装置
3 地図取得装置
4 センサ群
5 モニタ
10 コントローラ
11 走行車線判定部
12 位置関係検出部
13 接近判定部
14 仮想視点設定部
15 周囲画像生成部
16 画像合成部

Claims (10)

  1. 自車両の後方上空または前方上空から見た、前記自車両を含む領域を示す周囲画像を前記自車両の車室内に搭載されたモニタに表示する運転支援表示装置の運転支援表示方法であって、
    前記自車両と、前記自車両の周囲の他車両との相対位置を検出し、
    前記相対位置の時間変化から、前記他車両が前記周囲画像に対してフレームインするか、もしくはフレームアウトするか判定し、
    前記他車両が前記周囲画像に対してフレームインすると判定した場合と、前記他車両が前記周囲画像に対してフレームアウトすると判定した場合とで、前記他車両を示す支援画像を異なる表示形態により表示することを特徴とする運転支援表示方法。
  2. 前記他車両が前記周囲画像に対してフレームアウトすると判定した場合、前記他車両が前記自車両に対して第一所定距離の位置に来てから前記支援画像が前記周囲画像からフレームアウトするまでの所定時間、前記支援画像のリアル度を前記所定時間よりも前の前記リアル度よりも低くすることを特徴とする請求項1に記載の運転支援表示方法。
  3. 前記他車両が前記周囲画像に対してフレームインすると判定した場合、前記他車両が前記自車両に対して第二所定距離の位置に来てから前記支援画像が前記周囲画像にフレームインするまでの所定時間、前記支援画像のリアル度を前記所定時間よりも後の前記リアル度よりも高くすることを特徴とする請求項1に記載の運転支援表示方法。
  4. 前記他車両が前記自車両に対して第一所定距離の位置に来てから前記支援画像が前記周囲画像からフレームアウトするまでの所定時間の間のリアル度の変化率と、前記他車両が前記自車両に対して第二所定距離の位置に来てから前記支援画像が前記周囲画像にフレームインするまでの所定時間の間のリアル度の変化率と、が異なることを特徴とする請求項1〜3のいずれか一項に記載の運転支援表示方法。
  5. 前記他車両が前記自車両に対して前記第一所定距離の位置に来てから前記支援画像が前記周囲画像からフレームアウトするまでの所定時間の間のリアル度の変化率より、前記他車両が前記自車両に対して前記第二所定距離の位置に来てから前記支援画像が前記周囲画像にフレームインするまでの所定時間の間のリアル度の変化率の方が、大きいことを特徴とする請求項4に記載の運転支援表示方法。
  6. 前記自車両に対する前記他車両の相対速度を算出し、
    前記相対速度が第1所定値より大きい場合、前記相対速度が第1所定値以下の場合より、所定時間におけるリアル度の変化速度を大きくすることを特徴とする請求項2〜5のいずれか一項に記載の運転支援表示方法。
  7. 前記自車両に対する前記他車両の相対速度を算出し、
    前記相対速度が第2所定値より小さい場合、前記相対速度が第2所定値以上の場合より、所定時間におけるリアル度の変化速度を小さくすることを特徴とする請求項2〜6のいずれか一項に記載の運転支援表示方法。
  8. 前記他車両が、前記自車両の前方にいるか否かを判定し、
    前記他車両が、前記自車両の前方にいると判定し、その後、前記他車両が前記周囲画像に対してフレームアウトする場合、前記支援画像のリアル度を低くすることを特徴とする請求項1〜7のいずれか一項に記載の運転支援表示方法。
  9. 前記自車両と前記他車両との車間距離を算出し、
    前記車間距離が小さいほど、所定時間におけるリアル度の変化速度を大きくすることを特徴とする請求項1〜8のいずれか一項に記載の運転支援表示方法。
  10. 自車両の周囲を走行する他車両を検出する物体検出装置と、
    前記自車両の後方上空または前方上空から見た、前記自車両を含む領域を示す周囲画像を生成する周囲画像生成回路と、
    前記物体検出装置によって検出された情報に基づいて、前記自車両と、前記自車両の周囲の他車両との相対位置を検出する検出回路と、
    前記相対位置の時間変化から、前記他車両が前記周囲画像に対してフレームインするか、もしくはフレームアウトするか判定する判定回路と、
    前記判定回路によって前記他車両が前記周囲画像に対してフレームインすると判定された場合と、前記他車両が前記周囲画像に対してフレームアウトすると判定された場合とで、前記他車両を示す支援画像を異なる表示形態により表示する画像合成回路と、
    を備えることを特徴とする運転支援表示装置。
JP2017179779A 2017-09-20 2017-09-20 運転支援表示方法及び運転支援表示装置 Active JP6929177B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017179779A JP6929177B2 (ja) 2017-09-20 2017-09-20 運転支援表示方法及び運転支援表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017179779A JP6929177B2 (ja) 2017-09-20 2017-09-20 運転支援表示方法及び運転支援表示装置

Publications (2)

Publication Number Publication Date
JP2019055622A true JP2019055622A (ja) 2019-04-11
JP6929177B2 JP6929177B2 (ja) 2021-09-01

Family

ID=66106283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017179779A Active JP6929177B2 (ja) 2017-09-20 2017-09-20 運転支援表示方法及び運転支援表示装置

Country Status (1)

Country Link
JP (1) JP6929177B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020151387A (ja) * 2019-03-22 2020-09-24 株式会社大一商会 遊技機
JP2020151388A (ja) * 2019-03-22 2020-09-24 株式会社大一商会 遊技機
JP2022041286A (ja) * 2020-08-31 2022-03-11 トヨタ自動車株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP2022041244A (ja) * 2020-08-31 2022-03-11 トヨタ自動車株式会社 車載表示装置、方法およびプログラム
WO2022196205A1 (ja) * 2021-03-18 2022-09-22 株式会社デンソー 車両制御装置および車両制御方法
WO2023132099A1 (ja) * 2022-01-05 2023-07-13 日立Astemo株式会社 電子制御装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339192A (ja) * 1998-05-25 1999-12-10 Hitachi Ltd 車両用表示装置
JP2008191988A (ja) * 2007-02-06 2008-08-21 Denso Corp 車両周辺監視装置
US20130201335A1 (en) * 2012-02-04 2013-08-08 Audi Ag Method for visualizing the vicinity of a motor vehicle
JP2015075890A (ja) * 2013-10-08 2015-04-20 日産自動車株式会社 運転支援装置
JP2016216021A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
JP2017062706A (ja) * 2015-09-25 2017-03-30 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援方法及びコンピュータプログラム
JP2017069852A (ja) * 2015-10-01 2017-04-06 日産自動車株式会社 情報表示装置及び情報表示方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339192A (ja) * 1998-05-25 1999-12-10 Hitachi Ltd 車両用表示装置
JP2008191988A (ja) * 2007-02-06 2008-08-21 Denso Corp 車両周辺監視装置
US20130201335A1 (en) * 2012-02-04 2013-08-08 Audi Ag Method for visualizing the vicinity of a motor vehicle
JP2015075890A (ja) * 2013-10-08 2015-04-20 日産自動車株式会社 運転支援装置
JP2016216021A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
JP2017062706A (ja) * 2015-09-25 2017-03-30 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援方法及びコンピュータプログラム
JP2017069852A (ja) * 2015-10-01 2017-04-06 日産自動車株式会社 情報表示装置及び情報表示方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020151387A (ja) * 2019-03-22 2020-09-24 株式会社大一商会 遊技機
JP2020151388A (ja) * 2019-03-22 2020-09-24 株式会社大一商会 遊技機
JP2022041286A (ja) * 2020-08-31 2022-03-11 トヨタ自動車株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP2022041244A (ja) * 2020-08-31 2022-03-11 トヨタ自動車株式会社 車載表示装置、方法およびプログラム
WO2022196205A1 (ja) * 2021-03-18 2022-09-22 株式会社デンソー 車両制御装置および車両制御方法
JP7471248B2 (ja) 2021-03-18 2024-04-19 株式会社デンソー 車両制御装置および車両制御方法
WO2023132099A1 (ja) * 2022-01-05 2023-07-13 日立Astemo株式会社 電子制御装置

Also Published As

Publication number Publication date
JP6929177B2 (ja) 2021-09-01

Similar Documents

Publication Publication Date Title
EP3590753B1 (en) Display control device and display control method
JP6929177B2 (ja) 運転支援表示方法及び運転支援表示装置
JP6825709B2 (ja) 周囲車両表示方法及び周囲車両表示装置
US10649461B2 (en) Around view monitoring apparatus for vehicle, driving control apparatus, and vehicle
US10789490B2 (en) Method for calculating a display of additional information for an advertisement, a display unit, apparatus for carrying out the method, and transportation vehicle and computer program
US10322674B2 (en) Display control method and display control device
JP6460019B2 (ja) 車両の制御装置
US20220130296A1 (en) Display control device and display control program product
US11525694B2 (en) Superimposed-image display device and computer program
US11904688B2 (en) Method for calculating an AR-overlay of additional information for a display on a display unit, device for carrying out the method, as well as motor vehicle and computer program
JP6558356B2 (ja) 自動運転システム
CN111095078A (zh) 用于控制用于机动车的增强现实平视显示器装置的显示的方法、装置和带有指令的计算机可读的存储介质
JPWO2019038904A1 (ja) 周囲車両表示方法及び周囲車両表示装置
JP6984624B2 (ja) 表示制御装置および表示制御プログラム
JP7409265B2 (ja) 車載表示装置、方法およびプログラム
US20230373309A1 (en) Display control device
JP2019053388A (ja) 運転支援表示方法及び運転支援表示装置
WO2023061363A1 (en) Systems and methods for prediction-based driver assistance
US20190066382A1 (en) Driving support device, driving support method, information providing device and information providing method
JP6701913B2 (ja) 車両の制御装置
WO2023176737A1 (ja) 表示制御装置、表示制御方法
JP7276255B2 (ja) 画像処理装置、プログラム、及び画像処理システム
JP7342926B2 (ja) 表示制御装置及び表示制御プログラム
US20240042858A1 (en) Vehicle display system, vehicle display method, and storage medium storing vehicle display program
US20240017616A1 (en) Display system for vehicle, display method for vehicle, and non-transitory computer-readable storage medium for display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210810

R150 Certificate of patent or registration of utility model

Ref document number: 6929177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150