JP2021117938A - 画像表示装置、画像表示方法およびプログラム - Google Patents

画像表示装置、画像表示方法およびプログラム Download PDF

Info

Publication number
JP2021117938A
JP2021117938A JP2020012976A JP2020012976A JP2021117938A JP 2021117938 A JP2021117938 A JP 2021117938A JP 2020012976 A JP2020012976 A JP 2020012976A JP 2020012976 A JP2020012976 A JP 2020012976A JP 2021117938 A JP2021117938 A JP 2021117938A
Authority
JP
Japan
Prior art keywords
image
vehicle
information
state
ideal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020012976A
Other languages
English (en)
Other versions
JP7505189B2 (ja
Inventor
晨 関屋
Shin Sekiya
晨 関屋
悠貴 堀
Yuki Hori
悠貴 堀
友規 鈴木
Tomonori Suzuki
友規 鈴木
真人 草▲なぎ▼
Masato Kusanagi
真人 草▲なぎ▼
和寛 ▲高▼澤
和寛 ▲高▼澤
Kazuhiro Takazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020012976A priority Critical patent/JP7505189B2/ja
Publication of JP2021117938A publication Critical patent/JP2021117938A/ja
Application granted granted Critical
Publication of JP7505189B2 publication Critical patent/JP7505189B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】理想の走行状態と現実の走行状態との違いを運転者に認識させる画像表示装置、画像表示方法およびプログラムを提供する。【解決手段】画像表示装置の制御系250は、車両の状態を示す車両情報を取得する車両情報取得部10と、車両の周辺の状態を示す周辺情報を取得する周辺情報取得部20と、車両情報と周辺情報と、あらかじめ規定された車両の理想の走行状態を示す理想状態情報と、に基づいて、理想の走行状態を示す第1画像と、現実の走行状態を示す第2画像と、を含む画像を生成する画像生成部40と、生成された前記画像を出力する表示制御部50と、を備える。【選択図】図6

Description

本発明は、画像表示装置、画像表示方法およびプログラムに関する。
車両に搭載するヘッドアップディスプレイ(以下、HUDという)装置の技術開発が進んでいる。このようなHUD装置については、車両の運転者が、少ない視線移動で警報及び情報を認知できる装置として市場の期待が高まっている。特に、ADAS(Advanced Driving Assistance System)に代表される車載センシング技術の進展に伴い、車両はさまざまな走行環境情報及び車内乗員の情報を取り込むことができるようになっている。車両に搭載するHUD装置はそれらの情報を運転者に伝える「ADASの出口」としても注目されている。
車両に搭載するHUD装置は運転者の視点位置から数m先に虚像として画像を表示する。車両に搭載するHUD装置はこのようにして、当該画像があたかも自車両前方の実空間上に存在するかのように表示することが可能である。このようにあたかも実空間上に存在するかのように見せる技術はAR(Augmented Reality)と呼ばれ、各情報をより運転者に直感的に提示することができるとされている。
例えば、車速が適正速度よりも速い場合に車両の減速を促す情報を表示し、車速が適正速度よりも遅い場合に車両の加速を促す情報を表示する情報表示装置が開示されている。
上述した従来の技術は、理想の走行状態と現実の走行状態との違いを運転者に認識させることはできなかった。
開示の技術は、理想の走行状態と現実の走行状態との違いを運転者に認識させることを目的とする。
開示の技術は、車両の状態を示す車両情報を取得する車両情報取得部と、前記車両の周辺の状態を示す周辺情報を取得する周辺情報取得部と、前記車両情報と前記周辺情報と、あらかじめ規定された前記車両の理想の走行状態を示す理想状態情報と、に基づいて、理想の走行状態を示す第1画像と、現実の走行状態を示す第2画像と、を含む画像を生成する画像生成部と、生成された前記画像を出力する表示制御部と、を備える画像表示装置である。
理想の走行状態と現実の走行状態との違いを運転者に認識させることができる。
HUD装置が表示する虚像の一例を示す図である。 HUD装置の概略の一例を示す図である。 HUD装置の光学系の構成の一例を示す図である。 HUD装置の制御系の構成の一例を示す図である。 HUD装置及び周辺装置の配置の一例を示す図である。 HUD装置の制御系の機能の一例を示す図である。 画像出力処理のフローチャートの一例を示す図である。 画像出力結果の一例を示す図である。 画像出力結果の別の一例を示す図である。 変形例に係る画像出力結果の一例を示す図である。
以下に、図面を参照して、本発明に係る画像表示装置を車両のHUD(Head−Up Display)装置に適用した実施の形態について説明する。
図1は、HUD装置が表示する虚像の一例を示す図である。図2は、HUD装置の概略の一例を示す図である。図3は、HUD装置の光学系の構成の一例を示す図である。
図2において、本実施形態に係るHUD装置200は、例えば、移動体としての走行体である自車両301のダッシュボード内に設置される。ダッシュボード内のHUD装置200から発せられる画像光である投射光Lが光透過部材としてのフロントガラス302で反射され、視認者である運転者300に向かって照射される。
これにより、運転者300は、後述するルートナビゲーション画像等を虚像Gとして視認することができる。なお、フロントガラス302の内壁面に光透過部材としてのコンバイナを設置し、コンバイナによって反射する投射光Lによって運転者300に虚像Gを視認させるようにしてもよい。
フロントガラス302の上部に前方撮影用カメラ110及び運転者カメラ150が配置される。前方撮影用カメラ110は前方を撮影する。前方撮影用カメラ110が撮影する前方には、HUD装置200がフロントガラス302に表示する表示情報及びその背景が含まれる。
すなわち、前方撮影用カメラ110は、フロントガラス302に映ったHUD装置200が表示する表示情報を撮影するとともに、その背景をフロントガラス302越しに撮影する。前方撮影用カメラ110がフロントガラス302越しに撮影する背景とは、自車両301の前方環境(すなわち前方車両、路面等)である。運転者カメラ150は運転者300の視点位置を検出するために運転者300を撮影する。
運転者300から虚像Gまでの距離は、例えば5m以上になるようにHUD装置200の光学系230等が設計されている。虚像Gまでの距離が5m以上であれば運転者300は眼球をほとんど輻輳運動させることなく虚像Gに焦点を合わせることができる。
図3に示すHUD装置200の光学系230は、赤色、緑色及び青色のレーザ光源201R、201G及び201Bと、各レーザ光源に対して設けられるコリメータレンズ202、203及び204と、2つのダイクロイックミラー205及び206とを含む。
光学系230は更に、光量調整部207と、光走査部としての光走査装置208と、自由曲面ミラー209と、光発散部材としてのマイクロレンズアレイ210と、光反射部材としての投射ミラー211とを含む。
また光源ユニット220では、レーザ光源201R、201G及び201B、コリメータレンズ202、203及び204、並びにダイクロイックミラー205及び206が、光学ハウジングによってユニット化されている。
レーザ光源201R、201G及び201BとしてLD(半導体レーザ素子)を利用することができる。赤色レーザ光源201Rから射出される光束の波長は例えば640nmであり、緑色レーザ光源201Gから射出される光束の波長は例えば530nmであり、青色レーザ光源201Bから射出される光束の波長は例えば445nmである。
本実施形態に係るHUD装置200では、マイクロレンズアレイ210上に結像される中間像を自車両301のフロントガラス302に投射することで、その中間像の拡大画像を運転者300に虚像Gとして視認させる。レーザ光源201R、201G及び201Bから発せられる各色のレーザ光は、それぞれ、コリメータレンズ202、203及び204で略平行光とされた後、2つのダイクロイックミラー205及び206によって合成される。
合成されたレーザ光は光量調整部207で光量が調整された後、光走査装置208のミラーによって偏向されることにより、自由曲面ミラー209上を二次元的に走査する。光走査装置208によって偏向されることにより自由曲面ミラー209上を二次元的に走査する走査光L'は自由曲面ミラー209で反射されて歪みを補正された後、マイクロレンズアレイ210に集光され、マイクロレンズアレイ210に中間像G'を描画する。
なお、本実施形態では、中間像G'の画素(中間像の一点)ごとの光束を個別に発散させて出射する光発散部材としてマイクロレンズアレイ210を用いているが、他の光発散部材を用いてもよい。また、中間像G'の形成方法としては、液晶ディスプレイ(LCD)や蛍光表示管(VFD)を利用した方式でもよい。
更にHUD装置200は、運転者に警告等を行うための警告画像の輝度を段階的に高めることで警告の度合いを強めるような場合、HUD装置200が表示する虚像Gに含まれる各種画像のうちの警告画像の輝度だけを段階的に高めるという表示制御を行う。
光走査装置208は、MEMS(Micro Electro Mechanical Systems)等の、公知のアクチュエータ駆動システムでミラーを主走査方向及び副走査方向に傾斜動作させ、ミラーに入射するレーザ光を偏向して自由曲面ミラー209を二次元的に走査(ラスタスキャン)する。
ミラーの駆動制御は、レーザ光源201R、201G及び201Bの発光タイミングに同期して行われる。なお光走査装置208は上述した構成に限らず、例えば、互いに直交する2つの軸回りをそれぞれ揺動あるいは回動する2つのミラーを含むミラー系の光走査装置であってもよい。
図4は、HUD装置の制御系の構成の一例を示す図である。
図4に示す如く、HUD装置200の制御系250は、コンピュータによって構成されており、FPGA(Field Programmable Gate Array)251、CPU(Central Processing Unit)252、ROM(Read-Only Memory)253、RAM(Random Access Memory)254、インタフェース(以下、I/Fという)255、バスライン256、LDドライバ257及びMEMSコントローラ258を含む。
FPGA251は、LDドライバ257を用いて光源ユニット220のレーザ光源201R、201G及び201Bの動作を制御し、MEMSコントローラ258を用いて光走査装置208のMEMS208aの動作を制御する。
CPU252は、HUD装置200の各機能を実現する。ROM253は、CPU252がHUD装置200の各機能を実現するために実行する画像処理用プログラム等の各種プログラムを記憶している。RAM254はCPU252のワークエリアとして使用される。
I/F255は、外部コントローラ等と通信するためのインタフェースであり、例えば、自車両301のCAN(Controller Area Network)を介して、車両ナビゲーション装置400、各種のセンサ500等に接続される。
また、I/F255には、自車両301の前方を撮影する前方撮影用カメラ110が接続される。前方撮影用カメラ110は、フロントガラス302にHUD装置200が表示する表示情報を撮影するとともに、その背景をフロントガラス302越しに撮影する。I/F255には更に、運転者300の視点位置を検出するために運転者カメラ150が接続される。
制御系250は、検出された運転者300の視点位置に基づいて、前方撮影用カメラ110により撮影される表示情報及びその背景の画像に対し画像処理を施すことにより、当該画像を運転者300の視点位置から見たときの画像に変換する。制御系250は、例えば運転者カメラ150が撮影した運転者300の頭部の画像を画像解析することによって、運転者300の視点位置を検出する。
図5は、HUD装置及び周辺装置の配置の一例を示す図である。
本実施形態においては、虚像Gによって運転者300へ提供される運転者提供情報を取得する情報取得部として車両ナビゲーション装置400、センサ500等が設けられている。HUD装置200は、表示部の一例である光学系230と、制御部の一例である制御系250とを含む。
本実施形態に係る車両ナビゲーション装置400としては、自動車等に搭載される公知の車両ナビゲーション装置を広く利用することができる。車両ナビゲーション装置400からは、虚像Gとして表示させるルートナビゲーション画像を生成するために用いられる情報が出力され、この情報は制御系250に入力される。
ルートナビゲーション画像には、例えば、図1に示すように、自車両301が走行している道路の車線(走行レーン)の数、次に進路変更(右折、左折、分岐等)すべき地点までの距離、次に進路変更する方向等の情報を示す画像が含まれている。これらの情報が車両ナビゲーション装置400から制御系250に入力される。
その結果、制御系250の制御の下、HUD装置200が、走行レーン指示画像711、車間距離提示画像712、進路指定画像721、残り距離画像722、交差点等名称画像723等のルートナビゲーション画像を虚像Gとして上段画像表示領域Aに表示する。
また、図1に示した画像例では、HUD装置200が下段画像表示領域Bに、道路の固有情報(道路名、制限速度等)を示す画像を虚像Gとして表示する。この道路の固有情報も、車両ナビゲーション装置400から制御系250に入力される。
その結果、制御系250の制御の下、HUD装置200が、当該道路固有情報に対応する道路名表示画像701、制限速度表示画像702、追い越し禁止表示画像703等を虚像として下段画像表示領域Bに表示する。
図5のセンサ500は、自車両301の挙動、自車両301の状態、自車両301の周囲の状況等を示す各種情報を検出するための1又は2以上のセンサを含む。センサ500からは、虚像Gとして表示させる画像を生成するために用いられるセンシング情報が出力され、このセンシング情報は制御系250に入力される。
例えば、図1に示した画像例では、自車両301の車速を示す車速表示画像704(図1の例では「83km/h」という文字画像)を、HUD装置200が虚像として下段画像表示領域Bに表示する。すなわち、自車両301のCAN情報に含まれる車速情報がセンサ500から制御系250に入力され、制御系250の制御の下、HUD装置200が当該車速を示す文字画像を虚像Gとして下段画像表示領域Bに表示する。
センサ500は、自車両301の車速を検出するセンサ以外には、例えば、(1)自車両301の周囲(前方、側方又は後方)に存在する他車両、歩行者又は建造物(ガードレールや電柱等)との距離を検出するレーザレーダ装置や撮像装置、自車両の外部環境情報(外気温、明るさ、天候等)を検出するためのセンサ、(2)運転者300の運転動作(ブレーキ操作、アクセル開閉度等)を検出するためのセンサ、(3)自車両301の燃料タンク内の燃料残量を検出するためのセンサ、(4)エンジンやバッテリー等の各種車載機器の状態を検出するセンサ等を含んでよい。
センサ500が検出した情報を制御系250へ送ることで、HUD装置200が情報を虚像Gとして表示して運転者300へ提供することができる。
次に、HUD装置200によって表示される虚像Gについて説明する。本実施形態におけるHUD装置200において、虚像Gによって運転者300へ提供される運転者提供情報は、運転者300にとって有用な情報であればどのような情報であってもよい。本実施形態では、便宜上、運転者提供情報を受動情報と能動情報とに大別する。
受動情報とは、所定の情報提供条件が満たされたタイミングで運転者300によって受動的に認知される情報である。したがって、HUD装置200が有する設定タイミングで運転者300へ提供される情報は受動情報に含まれる。また、情報が提供されるタイミングと提供する情報の内容との間に一定の関係性を有する情報も受動情報に含まれる。
受動情報としては、例えば、運転時の安全性に関わる情報、ルートナビゲーション情報等が挙げられる。運転時の安全性に関わる情報として、自車両301と先行車両350との車間距離を示す情報(車間距離提示画像712)、運転に関わる緊急性のある情報(運転者に緊急操作を指示する緊急操作指示情報等の警告情報あるいは注意喚起情報等)等がある。
また、ルートナビゲーション情報は、予め設定された目的地までの走行ルートを案内するための情報であり、公知の車両ナビゲーション装置によって運転者へ提供される情報と同様の情報であってよい。ルートナビゲーション情報としては、直近の交差点で走行すべき走行レーンを指示する走行レーン指示情報(走行レーン指示画像711)や、次に直進方向から進路変更すべき交差点や分岐点での進路変更操作を指示する進路変更操作指示情報等が挙げられる。
進路変更操作指示情報として、交差点等においていずれの進路をとるべきかを指定する進路指定を行う進路指定情報(進路指定画像721)、進路変更操作を行う交差点等までの残り距離を示す情報(残り距離画像722)、交差点等の名称を示す情報(交差点等名称画像723)等がある。
能動情報とは、運転者自らが決めるタイミングで運転者300によって能動的に認知される情報である。能動情報は、運転者300の希望するタイミングで運転者へ提供されれば十分な情報であり、例えば、情報が提供されるタイミングと情報の内容との間の関係性が低いか又はそのような関係性が無いような情報は能動情報に含まれる。
能動情報は、運転者300の希望するタイミングで運転者300が取得する情報であることから、ある程度の長い期間あるいは常時、表示され続けるような情報である。例えば、自車両301が走行している道路の固有情報、自車両301の車速情報(車速表示画像704)、現在時刻情報等が挙げられる。
道路の固有情報としては、例えば、その道路名を示す情報(道路名表示画像701)、その道路の制限速度等の規制内容を示す情報(制限速度表示画像702、追い越し禁止表示画像703)等、当該道路に関わる情報として運転者300にとって有用なものが挙げられる。
本実施形態では、このように大別される受動情報と能動情報とを、虚像Gを表示可能なそれぞれ対応する表示領域に表示する。具体的には、本実施形態では、HUD装置200が虚像を表示する領域として上下方向に並んだ2つの表示領域を設定する。
これらのうちの上段画像表示領域Aには主に受動情報に対応する受動情報画像を表示し、下段画像表示領域Bには主に能動情報に対応する能動情報画像を表示する。なお、能動情報画像の一部を上段画像表示領域Aに表示させる場合には、上段画像表示領域Aに表示される受動情報画像の視認性を優先する態様で能動情報画像を表示する。
また、本実施形態においては、HUD装置200が表示する虚像Gとして、立体視を用いて表現された立体視画像を用いる。具体的には、HUD装置200が虚像を表示する上段画像表示領域Aに表示される車間距離提示画像712及び走行レーン指示画像711として、遠近法により表現される遠近法画像を用いる。
図6は、HUD装置の制御系の機能の一例を示す図である。
制御系250は、車両情報取得部10と、周辺情報取得部20と、記憶部30と、画像生成部40と、表示制御部50と、を備える。
車両情報取得部10は、各種のセンサ500から車両情報を取得する。車両情報は、車両の走行状態を示す情報であって、例えば、車両の速度、加速度、運転操作、燃料タンク内の燃料残量等を含む。なお、前述の車速情報は、車両情報の一例である。
周辺情報取得部20は、各種のセンサ500から周辺情報を取得する。周辺情報は、車両の周辺の状態を示す情報であって、例えば、周囲(前方、側方又は後方)に存在する他車両、歩行者、建造物等の大きさ、位置、速度等を含む。
記憶部30は、制御系の処理に必要な各種の情報を記憶している。具体的には、記憶部30は、理想状態情報60を記憶している。理想状態情報60は、車両の理想的な走行状態を示す情報である。理想状態情報60は、例えば、車両の速度、自車両と先行車両との間の車間距離、TTC(Time-To-Collision)等の値または値の範囲によって安全性等を考慮してあらかじめ設定される。
TTCは、自車両と先行車両との間の車間距離を相対速度で除した時間である。TTCの値が大きいほど、安全な走行状態であることを表している。国土交通省の技術指針によれば、TTCが1.4秒以下であることが自動ブレーキの発動条件となっていることから、例えば、TTCが2.5秒から3.5秒までの範囲を理想の走行状態であると定義しても良い。
画像生成部40は、車両情報、周辺情報および理想状態情報に基づいて、虚像として光学系230に表示させるための画像を生成する。具体的には、画像生成部40は、理想の走行状態を示す画像(第1画像)と、現実の走行状態を示す画像(第2画像)と、を含む出力画像を生成する。
より詳細には、画像生成部40は、理想の走行状態と現実の走行状態との違いを示す値を算出する。そして、画像生成部40は、算出した値に基づいて、第1画像と第2画像との相対位置および第2画像の表示色を決定し、出力画像を生成する。
表示制御部50は、光学系230を制御して、画像生成部40が生成した出力画像を光学系230に表示させる。
次に、HUD装置200の動作について、図面を参照して説明する。
運転者300によって自車両301が走行を開始すると、HUD装置200の制御系250は、画像出力処理を開始する。なお、制御系250は、定期的に、例えば1秒ごとに、画像出力処理を実行する。
図7は、画像出力処理のフローチャートの一例を示す図である。
制御系250が画像出力処理を開始すると、車両情報取得部10は、車両情報を取得する(ステップS11)。車両情報には、例えば、自車両301の速度が含まれる。
次に、周辺情報取得部20は、周辺情報を取得する(ステップS12)。周辺情報には、例えば、先行車両の速度、自車両301と先行車両との間の車間距離が含まれる。
次に、画像生成部40は、現実の走行状態を示す値が、理想の走行状態を示す値の範囲内であるか否かを判定する(ステップS13)。
例えば、画像生成部40は、車両情報に含まれる自車両301の速度と、周辺情報に含まれる先行車両の速度と、に基づいて、自車両301と先行車両との間の相対速度を算出する。そして、画像生成部40は、周辺情報に含まれる自車両301と先行車両との間の車間距離を、算出された相対速度で除して、現実の走行状態を示す値としてTTCを算出する。
画像生成部40は、理想状態情報60を参照して、TTCが理想の走行状態を示す値の範囲内であるか否かを判定する。例えば、現実の走行状態を示す値がTTC=2.0秒であって、理想の走行状態を示す値の範囲が、TTCが2.5秒から3.5秒までの範囲であるとすると、画像生成部40は、現実の走行状態を示す値が、理想の走行状態を示す値の範囲内でないと判定する。
画像生成部40は、現実の走行状態を示す値が、理想の走行状態を示す値の範囲内であると判定すると(ステップS13:Yes)、画像生成部40は、理想の走行状態であることを示す第2画像を生成する(ステップS14)。理想の走行状態であることを示す第2画像は、例えば、緑色の画像である。
また、画像生成部40は、現実の走行状態を示す値が、理想の走行状態を示す値の範囲内でないと判定すると(ステップS13:No)、画像生成部40は、理想の走行状態でないことを示す第2画像を生成する(ステップS15)。理想の走行状態でないことを示す第2画像は、例えば、赤色の画像である。
次に、画像生成部40は、第1画像を生成する(ステップS16)。そして、画像生成部40は、現実の走行状態を示す値と理想の走行状態を示す値との差に基づく相対位置を有する第1画像と第2画像とを含む画像を生成する(ステップS17)。
具体的には、画像生成部40は、理想の走行状態を示す値を決定する。例えば、理想の走行状態を示す値は、理想の走行状態を示す値の範囲の中央値とする。この場合、理想の走行状態を示す値の範囲が、TTCが2.5秒から3.5秒までの範囲であるとすると、理想の走行状態を示す値は、TTC=3.0秒である。
そして、画像生成部40は、現実の走行状態を示す値と理想の走行状態を示す値との差分を算出する。例えば、画像生成部40は、現実の走行状態を示す値がTTC=2.0秒であって、理想の走行状態を示す値がTTC=3.0秒である場合、3.0秒−2.0秒=1.0秒という値を算出する。
次に、画像生成部40は、1.0秒という値に基づいて、第1画像と第2画像との相対位置を決定する。例えば、現実の走行状態を示す値と理想の走行状態を示す値との差が大きいほど、第1画像の上下方向の中心と第2画像の上下方向の中心との間の距離hを大きい値とする。
例えば、画像生成部40は、距離hを式(1)に基づいて算出しても良い。
h=w・|tb−ta|・・・(1)
ここで、taは現実の走行状態を示す値、tbは理想の走行状態を示す値、wはあらかじめ規定された係数である。また、tb≧taの場合には、第1画像を上、第2画像を下とし、tb<taの場合には、第1画像を下、第2画像を上とする。
そして、画像生成部40は、決定した相対位置で、第1画像と第2画像とを配置した画像を生成する。
表示制御部50は、生成された画像を出力する(ステップS18)。具体的には、表示制御部50は、光学系230を制御して、生成された画像を光学系230に表示させる。
図8は、画像出力結果の一例を示す図である。
HUD装置200は、上段画像表示領域Aに、第1画像100と第2画像101とを表示する。例えば、現実の走行状態を示す値がTTC=3.0秒であって、理想の走行状態を示す値がTTC=3.0秒である場合、図8に示すように、第1画像100の上下方向の中心と第2画像101の上下方向の中心とが同じ位置に配置され、第1画像100と第2画像101とは、一部重なり合って表示される。
第2画像101は、理想の走行状態であることを示す緑色である。
運転者300は、第1画像100と第2画像101との距離が近く、また第2画像101が緑色であることから、理想の走行状態で走行していることを認識することができる。
図9は、画像出力結果の別の一例を示す図である。
例えば、現実の走行状態を示す値がTTC=2.0秒であって、理想の走行状態を示す値がTTC=3.0秒である場合、図9に示すように、第1画像100の上下方向の中心と第2画像101の上下方向の中心とが距離hを隔てて配置される。第2画像101は、第1画像100よりも下方に表示される。
第2画像101は、理想の走行状態でないことを示す赤色である。
運転者300は、第1画像100と第2画像101との距離が離れていて、また第2画像101が赤色であることから、理想の走行状態で走行していないことを認識することができる。特に、運転者300は、距離hの大きさに応じて、どの程度、理想の走行状態と離れた走行をしているかを、直感的に認識することができる。
また、HUD装置200は、距離hの大きさに応じて、第2画像101の大きさを大きく表示しても良い。このようにすれば、危険が近くに迫っていることを運転者300に認識させることができる。
本実施形態に係るHUD装置200によれば、理想の走行状態を示す画像(第1画像100)と、現実の走行状態を示す画像(第2画像101)と、を表示する。これによって、運転者300は、理想の走行状態と現実の走行状態とを認識することができる。
また、第1画像100と第2画像101との間の距離hは、理想の走行状態を示す値と現実の走行状態を示す値との差に応じて決定される。これによって、運転者300は、現実の走行状態と理想の走行状態とを比較することができる。このことから運転者300に、自発的な調整を促すことができる。
また、現実の走行状態を示す値が、理想の走行状態を示す値の範囲内にあるか否かによって、第2画像の色が異なる。これによって、運転者300の注意を喚起することができる。
第2画像101は、現実の走行状態を示す値が、理想の走行状態を示す値の範囲内にあるか否かによって、2種類の色となる例を示したが、例えば3種類の色としても良い。
図7に示した画像出力処理のステップS15において、画像生成部40は、現実の走行状態を示す値taと理想の走行状態を示す値tbとを比較して、tb≧taの場合には、安全でないことを示す色(例えば赤色)とし、tb<taの場合には、安全であってかつ理想でないことを示す色(例えば黄色)として、第2画像101を生成しても良い。
図10は、変形例に係る画像出力結果の一例を示す図である。
例えば、tb<taの場合には、第2画像101が第1画像100よりも上に表示される。第2画像101は、安全であってかつ理想でないことを示す色(例えば黄色)である。
運転者300は、第1画像100と第2画像101との距離が離れていて、また第2画像101が第1画像100よりも上に表示され、黄色であることから、理想の走行状態で走行していないものの、安全であることを認識することができる。したがって、運転者300に、もう少し速度を上げるか、このままの速度を維持するかの自発的な選択を促すことができる。
また、理想状態情報60は、機械学習の学習効果によって生成されたものでもよい。また、理想の走行状態であるか否かを機械学習にて分類付けすることで、理想状態情報60を使用しなくてもよい。
ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータが、データ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。
また、理想状態情報60は、TTC以外の値によって規定されても良い。例えば、理想状態情報60は、道路の制限速度や、周辺車両の速度等によって規定されていても良い。その場合、理想状態情報60は、絶対的な値ではなく、道路の制限速度や、周辺車両の速度等をパラメータとする関数によって定義されていても良い。
また、理想状態情報60は、複数の値の組み合わせによって規定されていても良い。例えば、理想状態情報60は、TTCの値の範囲と、車両の速度の値の範囲と、が規定されていても良い。
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGAや従来の回路モジュール等のデバイスを含むものとする。
以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
10 車両情報取得部
20 周辺情報取得部
30 記憶部
40 画像生成部
50 表示制御部
60 理想状態情報
100 第1画像
101 第2画像
110 前方撮影用カメラ
150 運転者カメラ
200 HUD装置
230 光学系
250 制御系
301 自車両
302 フロントガラス
400 車両ナビゲーション装置
500 センサ
特開2017−117050号公報

Claims (8)

  1. 車両の状態を示す車両情報を取得する車両情報取得部と、
    前記車両の周辺の状態を示す周辺情報を取得する周辺情報取得部と、
    前記車両情報と前記周辺情報と、あらかじめ規定された前記車両の理想の走行状態を示す理想状態情報と、に基づいて、理想の走行状態を示す第1画像と、現実の走行状態を示す第2画像と、を含む画像を生成する画像生成部と、
    生成された前記画像を出力する表示制御部と、を備える、
    画像表示装置。
  2. 前記周辺情報取得部は、前記車両の前方を走行する先行車両の速度または前記車両と前記先行車両との間の車間距離を含む前記周辺情報を取得し、
    前記画像生成部は、前記先行車両の前記速度または、前記車両と前記先行車両との間の前記車間距離に基づいて、前記第1画像と前記第2画像とを含む画像を生成する、
    請求項1に記載の画像表示装置。
  3. 前記車両情報は、前記車両の速度を含む前記車両情報を取得し、
    前記理想状態情報は、先行車両との間の車間距離と、先行車両と前記車両との相対速度と、に基づいて算出されるTTCによって、前記車両の理想的な走行状態を示す、
    請求項2に記載の画像表示装置。
  4. 前記理想状態情報は、道路の制限速度または周辺車両の速度によって規定される、
    請求項1に記載の画像表示装置。
  5. 前記画像生成部は、前記理想状態情報に含まれる理想の走行状態を示す値と、前記車両情報と前記周辺情報とに含まれる現実の走行状態を示す値と、の差分を算出し、算出された前記差分に応じた相対位置を有する前記第1画像と前記第2画像とを含む画像を生成する、
    請求項1から4のいずれか1項に記載の画像表示装置。
  6. 前記車両情報と前記周辺情報とに含まれる現実の走行状態を示す値が、前記理想状態情報に含まれる理想の走行状態を示す値の範囲内にあるか否かによって、互いに異なる色を有する前記第2画像を生成する、
    請求項1から5のいずれか1項に記載の画像表示装置。
  7. 車両の状態を示す車両情報を取得し、
    前記車両の周辺の状態を示す周辺情報を取得し、
    前記車両情報と前記周辺情報と、あらかじめ規定された前記車両の理想の走行状態を示す理想状態情報と、に基づいて、理想の走行状態を示す第1画像と、現実の走行状態を示す第2画像と、を含む画像を生成し、
    生成された前記画像を出力する、
    画像表示方法。
  8. コンピュータに、
    車両の状態を示す車両情報を取得するステップと、
    前記車両の周辺の状態を示す周辺情報を取得するステップと、
    前記車両情報と前記周辺情報と、あらかじめ規定された前記車両の理想の走行状態を示す理想状態情報と、に基づいて、理想の走行状態を示す第1画像と、現実の走行状態を示す第2画像と、を含む画像を生成するステップと、
    生成された前記画像を出力するステップと、
    を実行させるためのプログラム。
JP2020012976A 2020-01-29 2020-01-29 画像表示装置、画像表示方法およびプログラム Active JP7505189B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012976A JP7505189B2 (ja) 2020-01-29 2020-01-29 画像表示装置、画像表示方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012976A JP7505189B2 (ja) 2020-01-29 2020-01-29 画像表示装置、画像表示方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021117938A true JP2021117938A (ja) 2021-08-10
JP7505189B2 JP7505189B2 (ja) 2024-06-25

Family

ID=77175039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012976A Active JP7505189B2 (ja) 2020-01-29 2020-01-29 画像表示装置、画像表示方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7505189B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163501A (ja) * 2004-12-02 2006-06-22 Denso Corp 適正車間距離表示制御装置
JP2015501455A (ja) * 2011-06-17 2015-01-15 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車道上で車両を誘導する際に運転者を支援するための方法および装置
WO2019130860A1 (ja) * 2017-12-27 2019-07-04 コニカミノルタ株式会社 ヘッドアップディスプレイ装置、および制御プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5066437B2 (ja) 2007-12-21 2012-11-07 富士重工業株式会社 車両の走行制御装置
JP2014240233A (ja) 2013-06-11 2014-12-25 株式会社東芝 運転支援システム
WO2016009628A1 (ja) 2014-07-15 2016-01-21 パナソニックIpマネジメント株式会社 車両用表示装置
US11458970B2 (en) 2015-06-29 2022-10-04 Hyundai Motor Company Cooperative adaptive cruise control system based on driving pattern of target vehicle
JP6857014B2 (ja) 2016-11-24 2021-04-14 株式会社Subaru 車両の走行制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163501A (ja) * 2004-12-02 2006-06-22 Denso Corp 適正車間距離表示制御装置
JP2015501455A (ja) * 2011-06-17 2015-01-15 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車道上で車両を誘導する際に運転者を支援するための方法および装置
WO2019130860A1 (ja) * 2017-12-27 2019-07-04 コニカミノルタ株式会社 ヘッドアップディスプレイ装置、および制御プログラム

Also Published As

Publication number Publication date
JP7505189B2 (ja) 2024-06-25

Similar Documents

Publication Publication Date Title
US10679496B2 (en) Information providing apparatus
JP6485732B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP6806097B2 (ja) 画像表示装置及び画像表示方法
JP6690657B2 (ja) 画像表示装置及び画像表示方法
JP6658859B2 (ja) 情報提供装置
JP6516151B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP2017211366A (ja) 移動体システム、情報表示装置
JPWO2020110580A1 (ja) ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
JP6504431B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
JP7300112B2 (ja) 制御装置、画像表示方法及びプログラム
JP2016107947A (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP7027992B2 (ja) 画像表示装置、移動体、画像表示方法およびプログラム
JP7505189B2 (ja) 画像表示装置、画像表示方法およびプログラム
JP6814416B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP2021105989A (ja) 車載表示装置およびプログラム
JP7552018B2 (ja) 車載表示装置およびプログラム
JP7571530B2 (ja) 画像表示装置、画像表示方法およびプログラム
JP2021117987A (ja) 画像表示装置、画像表示方法およびプログラム
JP7385834B2 (ja) 画像表示方法及び画像表示装置
JP7054483B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
WO2021153454A1 (en) Image display apparatus, image display method, program, and non-transitory recording medium
JP6726412B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
WO2021132250A1 (en) In-vehicle display device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240527