JP2019121140A - 表示制御装置、ヘッドアップディスプレイ装置 - Google Patents

表示制御装置、ヘッドアップディスプレイ装置 Download PDF

Info

Publication number
JP2019121140A
JP2019121140A JP2017255150A JP2017255150A JP2019121140A JP 2019121140 A JP2019121140 A JP 2019121140A JP 2017255150 A JP2017255150 A JP 2017255150A JP 2017255150 A JP2017255150 A JP 2017255150A JP 2019121140 A JP2019121140 A JP 2019121140A
Authority
JP
Japan
Prior art keywords
display
image
unit
related information
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017255150A
Other languages
English (en)
Inventor
康則 笹崎
Yasunori SASAZAKI
康則 笹崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2017255150A priority Critical patent/JP2019121140A/ja
Publication of JP2019121140A publication Critical patent/JP2019121140A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】前景に存在するオブジェクトの存在を認識しやすくする。【解決手段】注視判定部74は、自車両の前景200に存在するオブジェクト300の位置と視認者の注視範囲GZとに基づき、注視されたオブジェクト300を判定し、表示処理部70は、注視判定部74の判定により注視されたことを少なくとも含む所定の条件を満たしたオブジェクト300を、特定オブジェクト310として選択し、特定オブジェクト310に対応する関連情報画像V1を表示させる。【選択図】 図4A

Description

本発明は、車両で使用され、車両の前景に虚像を重畳して視認させるヘッドアップディスプレイ装置及びこれに用いられる表示制御装置に関する。
特許文献1に開示されているヘッドアップディスプレイ装置は、前景に存在するオブジェクトと異なる位置に、オブジェクトに関連する情報(関連情報)を表示する。これにより、前景に存在するオブジェクトが遠く、視認者から見て小さい場合であっても、関連情報により対象物の種類などを認識させることができる。
特開2005−69776号公報
しかしながら、複数のオブジェクトに対してそれぞれ関連情報を表示した場合、視覚的注意が散漫になり、関連情報自体及び関連情報が対応するオブジェクトを認識しづらくなるおそれがあった。
本発明は、上記の問題点に鑑みてなされたものであり、実景に存在するオブジェクトの認識性を向上させることを目的とする。
本発明の表示制御装置の第1の態様は、前景に存在するオブジェクト(300)の識別情報を取得する識別情報取得部(30)と、
前記識別情報に基づく関連情報画像(V1)を表示させる表示処理部(70)と、
前記オブジェクトの位置を取得する位置情報取得部(32)と、
視認者の注視範囲(GZ)を取得する注視位置取得部(40)と、
前記オブジェクトの前記位置と前記注視範囲とに基づき、注視された前記オブジェクトを判定する注視判定部(74)と、を備え、
前記表示処理部は、前記注視判定部の判定により注視されたことを少なくとも含む所定の条件を満たした前記オブジェクトを、特定オブジェクト(310)として選択し、前記特定オブジェクトに対応する前記関連情報画像を表示させる、ものである。
また、第1の態様に従属する第2の態様では、前記表示処理部は、前記オブジェクトの近傍に強調画像(V2)をさらに表示させることができ、
前記識別情報取得部が取得した前記識別情報に基づき、前記関連情報画像を表示可能とさせるか判定し、前記関連情報画像を表示可能とする前記オブジェクトに対する前記強調画像を第1の表示態様で表示させ、前記関連情報画像を表示可能としない前記オブジェクトに対する前記強調画像を前記第1の表示態様と異なる第2の表示態様で表示させてもよい。
また、第2の態様に従属する第3の態様では、前記表示処理部は、前記関連情報画像を表示させる際、前記特定オブジェクトに対する前記強調画像を前記第1及び第2の表示態様と異なる第3の表示態様で表示させてもよい。
また、第1乃至3のいずれかに従属する第4の態様では、前記表示処理部は、前記関連情報画像を、予め定められた表示位置(12、13)に表示させてもよい。
また、第4の態様に従属する第5の態様では、前記表示処理部は、前記関連情報画像を表示させる際、前記特定オブジェクトから前記表示位置に向けて移動させてもよい。
また、第6の態様におけるヘッドアップディスプレイ装置では、第1乃至第5の態様のいずれかの表示制御装置(20)と、前記表示制御装置の制御に基づき表示画像を表示する画像表示部(10)と、前記画像表示部が表示した前記表示画像を被投影部2に向けて投影することで、虚像を視認させるリレー光学部(10a)と、を備える。
本発明の実施形態に係るヘッドアップディスプレイ装置の構成を機能的に示すブロック図である。 上記実施形態のヘッドアップディスプレイ装置が表示する虚像の例を示す図である。 上記実施形態のヘッドアップディスプレイ装置の動作を示すフローチャートである。 上記実施形態に係るヘッドアップディスプレイ装置が表示する虚像の例を示す図である。 上記実施形態に係るヘッドアップディスプレイ装置が表示する虚像の例を示す図である。
以下、本発明に係る実施形態について図面を参照して説明する。なお、本発明は下記の実施形態(図面の内容も含む。)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができる。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。
図1は、本実施形態におけるヘッドアップディスプレイ装置(以下、HUD装置1と呼ぶ)の全体構成を示す模式図である。HUD装置1は、虚像Vの元となる表示画像を表示する画像表示部10と、画像表示部10が表示した表示画像の表示光を被投影部2に向けて適宜拡大して投射する反射光学系、屈折光学系、回折光学系などの単数又は複数の光学部材からなるリレー光学部10aと、画像表示部10の表示を制御する表示制御装置20と、によって構成される。
画像表示部10は、虚像Vを視認者に視認させる表示光を出射するものであり、例えば、図2に示すように、表示光を車両のウインドシールドガラスやコンバイナなどの被投影部2に投影することで、被投影部2を介して視認される車両の前景200に重ねて虚像Vを視認させる。なお、画像表示部10は、表示領域11内に虚像Vを表示することができる。画像表示部10は、後述する画像生成部80から画像データを取得し、この取得した画像データを表示光に変換して出力する。
表示制御装置20は、第1のインターフェース(識別情報取得部30、位置情報取得部32、距離情報取得部34、注視位置取得部40、車両状態取得部50)と、この第1のインターフェースに代えて、あるいは、第1のインターフェースとともに、表示処理部70の処理に必要な各種情報を取得する第2のインターフェース60と、後述する関連情報画像V1(虚像Vの一種)の表示制御を少なくとも実行する表示処理部70と、を備える。
前記第1のインターフェース(識別情報取得部30、位置情報取得部32、距離情報取得部34、注視位置取得部40、車両状態取得部50)、及び第2のインターフェース60は、外部機器と通信可能に連結されている。前記外部機器は、オブジェクト識別部31、オブジェクト位置検出部33、オブジェクト距離検出部35、視線検出部41、位置検出部51、方角検出部52、姿勢検出部53、クラウドサーバー(外部サーバー)500、車両ECU600、ナビゲーションシステム700、及び図示しない自車両内の他の車載機器、自車両内の携帯機器、他車両(車車間通信V2V)、路上の通信インフラ(路車間通信V2I)、歩行者の携帯機器(車両と歩行者との通信V2P)などである。HUD装置1は、外部機器からインターフェースを介して、各種情報、及び虚像Vの元となる画像要素データを取得し、表示処理部70の処理に従い虚像Vを表示する。なお、画像要素データの一部又は全部は、後述する記憶部71に記憶され、後述する画像生成部80が、表示処理部70からの指示に従い記憶部71に記憶された画像要素データを読み出し、画像表示部10に虚像Vの基となる表示画像を表示させる画像データを生成させる形態であってもよい。
識別情報取得部30は、自車両の前景200に存在するオブジェクト300の識別情報を取得する入力インターフェースであり、例えば、自車両に搭載された単数又は複数のカメラやセンサなどからなるオブジェクト識別部31から識別情報を取得し、表示処理部70に出力する。例えば、オブジェクト識別部31は、自車両の前景200を撮像(検出)し、その撮像(検出)データを解析して自車両の前景200のオブジェクト300の識別情報を生成する図示しない識別部を有する。例えば、識別情報取得部30が取得する識別情報は、オブジェクト300の種類である。オブジェクト300の種類とは、例えば、障害物(他車両、人物、動物、モノ),道路標識,道路,又は建物などであるが、前景200に存在し、識別可能であればこれらに限定されない。
位置情報取得部32は、自車両の前景200に存在するオブジェクト300の位置を取得する入力インターフェースであり、例えば、自車両に搭載された単数又は複数のカメラやセンサなどからなるオブジェクト位置検出部33からオブジェクト300の位置を取得し、表示処理部70に出力する。例えば、オブジェクト位置検出部33は、自車両の前景200を撮像(検出)し、その撮像(検出)データを解析して前景200のオブジェクト300の位置情報を生成する図示しない位置解析部を有する。この場合、位置情報取得部32が取得するオブジェクト300の位置情報は、自車両の前景200におけるオブジェクト300の実座標又は表示領域11におけるオブジェクト300の座標である。
距離情報取得部34は、自車両の前景200に存在するオブジェクト300までの距離を取得する入力インターフェースであり、例えば、自車両に搭載された単数又は複数のカメラやセンサなどからなるオブジェクト距離検出部35からオブジェクト300までの距離を取得し、表示処理部70に出力する。例えば、オブジェクト距離検出部35は、自車両の前景200を撮像(検出)し、その撮像(検出)データを解析してオブジェクト300までの距離情報を生成する図示しない距離解析部を有する。この場合、距離情報取得部34が取得するオブジェクト300の距離情報は、自車両から又はHUD装置1からオブジェクト300までの距離である。
なお、上記の解析部(識別部、位置解析部、距離解析部)は、HUD装置1内に設けられてもよい。具体的には、前記解析部は、表示処理部70内に設けられてもよく、この場合、識別情報取得部30が取得する識別情報、位置情報取得部32が取得する位置情報、距離情報取得部34が取得する距離情報は、オブジェクト識別部31が前景200を撮像(検出)した撮像(検出)データとなる。なお、識別情報取得部30、位置情報取得部32、距離情報取得部34の一部又は全部は、カメラ、センサ、解析部が共通であってもよい。なお、以下では、オブジェクト300の識別情報、位置情報、距離情報を総称してオブジェクト情報とも呼ぶ。
また、他の実施形態では、識別情報取得部30(又は/及び位置情報取得部32又は/及び距離情報取得部34)の代わりに、あるいは識別情報取得部30(又は/及び位置情報取得部32又は/及び距離情報取得部34)とともに、第2のインターフェース60が識別情報取得部30(位置情報取得部32、距離情報取得部34)として機能してもよい。言い換えると、第2のインターフェース60が、クラウドサーバー500、車両ECU600、ナビゲーションシステム700、及び図示しない自車両内の他の車載機器、自車両内の携帯機器、他車両(車車間通信V2V)、路上の通信インフラ(路車間通信V2I)、歩行者の携帯機器(車両と歩行者との通信V2P)からオブジェクト情報を取得してもよい。第2のインターフェース60は、例えば、クラウドサーバー500、車両ECU600、ナビゲーションシステム700、から、地図情報とともに、道路標識,道路,建物等のオブジェクト300の位置情報、識別情報、座標情報(距離情報)等を取得可能であり、また、図示しない他車両(車車間通信V2V)、路上の通信インフラ(路車間通信V2I)、歩行者の携帯機器(車両と歩行者との通信V2P)から、障害物(他車両、人物、動物、モノ),道路標識,道路等の位置情報、識別情報、座標情報(距離情報)等を取得可能である。表示処理部70は、自車両又はHUD装置1の位置情報(自車両の方角情報を追加してもよい)を、第2のインターフェース60を介して、前記外部機器に出力し、前記外部機器は、入力した自車両又はHUD装置1の位置情報(追加の方角情報)に基づき、自車両の前景200に存在するオブジェクト300の位置情報、識別情報、距離情報を第2のインターフェース60に出力してもよい。なお、前記識別情報は、オブジェクト300の種類より細かい個体識別情報であってもよい。
注視位置取得部40は、視認者が注視している範囲(注視範囲GZ)に関する注視情報を取得する入力インターフェースであり、例えば、車両に搭載されたカメラなどからなる視線検出部41から注視範囲GZを取得し、表示処理部70に出力する。視認者の注視範囲GZは、視認者が目視(注視)している領域であり、目視点(注視点)を含み、人が通常注視可能とされる一定範囲である。なお、視認者の注視範囲GZの設定方法は、これに限定されるものではなく、視線検出部41は、例えば、特開2015−126451号公報に記載されているように、所定の時間(例えば、1秒)内に測定される複数の目視点(注視点)を含む矩形領域を、注視範囲GZに設定してもよい。
車両状態取得部50は、車両の状態(位置、方角、姿勢)に関する情報を取得する。車両状態取得部50は、GNSS(全地球航法衛星システム)等からなる位置検出部51により検出された車両又はHUD装置1の位置情報を取得し、方角センサからなる方角検出部52により検出された車両又はHUD装置1の向きを示す方角情報を取得し、ハイトセンサや加速度センサからなる姿勢検出部53により検出された車両の路面からの高さ又は/及び路面に対する角度を示す姿勢情報を取得し、表示処理部70に出力する。
表示処理部70は、記憶部71を有し、記憶部71には、報知要否判定プログラム、関連情報有無判定プログラム、注視判定プログラム、距離判定プログラムなどが格納されており、これらを表示処理部70が実行することで、各機能ブロックが構成される。すなわち、表示処理部70は、報知要否判定部72と、関連情報有無判定部73と、注視判定部74と、距離判定部75と、を機能として有する。なお、表示処理部70は、画像表示部10に表示画像(虚像Vの元となる画像)を表示させるための画像データを生成する画像生成部80を有していてもよいが、画像生成部80の機能の一部又は全部は、表示制御装置20又はHUD装置1とは別に設けられてもよい。
報知要否判定部72は、識別情報取得部30,位置情報取得部32、距離情報取得部34などから取得した情報に基づき、オブジェクト300の報知必要度を判定し、視認者に報知するか否かを判定する。報知必要度が所定の閾値より高くなった場合に、視認者に報知する必要があると判定する。『報知必要度』は、オブジェクト300に対して、起こり得る自体の重大さの程度から導き出される危険度や、反応行動を起こすまでに要求される反応時間の長短から導かれる緊急度などであり、識別情報取得部30,位置情報取得部32、距離情報取得部34が取得するオブジェクト300に関するオブジェクト情報のみで決定されてもよく、前記オブジェクト情報に加えて、他のインターフェースから入力される各種情報に基づいて決定されてもよい。なお、報知要否判定部72は、本質的には、前記報知必要度に基づき視認者にオブジェクト300の存在を報知するかを判定する機能を有していればいいので、前記報知必要度を決定する機能を有していなくてもよく、前記報知必要度を決定する機能の一部又は全部は、表示制御装置20とは別に設けられてもよい。表示処理部70は、報知要否判定部72が報知を必要と判定したオブジェクト300に対して強調画像V2が表示されるように画像生成部80に指示する。なお、報知の要否は、前記危険度や前記緊急度を用いる方法に限定されない。例えば、クラウドサーバー500、車両ECU600、ナビゲーションシステム700から視認者にとって役立つオブジェクト300に関する情報が取得されれば、報知要否判定部72は、報知を必要と判定してもよい。なお、オブジェクト300は、視認者から見えている必要はなく、表示処理部70は、前景200で他のものの影に隠れている場合や遠方過ぎて視認できない場合でも、報知が必要とされたオブジェクト300の方向に強調画像V2が表示されるように画像生成部80に指示してもよい。
関連情報有無判定部73は、報知要否判定部72が報知を必要と判定したオブジェクト300の関連情報の有無を判定する。関連情報有無判定部73は、識別情報取得部30又は第2のインターフェース60からオブジェクト300の識別情報を取得し、この識別情報に対応した関連情報が記憶部71又は第2のインターフェース60を介した外部機器にあれば、関連情報が有ると判定する。表示処理部70は、関連情報があると判定されたオブジェクト300に対して表示される強調画像V2が第1の表示態様で表示され、関連情報がないと判定されたオブジェクト300に対して表示される強調画像V2が第1の表示態様とは異なる第2の表示態様で表示されるように画像生成部80に指示する。
注視判定部74は、視認者の注視範囲GZ内にあるオブジェクト300を特定オブジェクト310として決定する。注視判定部74は、位置情報取得部32又は第2のインターフェース60からオブジェクト300の位置情報を取得し、注視位置取得部40から注視範囲GZを取得し、オブジェクト300の位置情報と注視範囲GZと基づいて、特定オブジェクト310を決定する。表示処理部70は、決定された特定オブジェクト310の関連情報画像V1が表示されるように画像生成部80に指示する。
距離判定部75は、オブジェクト300までの距離が記憶部71に予め記憶された距離閾値より長いかを判定する。距離判定部75は、距離情報取得部34又は第2のインターフェース60からオブジェクト300の位置情報を取得し、オブジェクト300の位置情報と距離閾値とを比較する。表示処理部70は、オブジェクト300までの距離が長いと判定されたオブジェクト300を特定オブジェクト310に選択可能とし、オブジェクト300までの距離が短いと判定されたオブジェクト300を特定オブジェクト310に選択不能としてもよい。言い換えると、表示処理部70は、特定オブジェクト310が近傍になった場合、特定オブジェクト310に対応して表示されていた関連情報画像V1を非表示にさせてもよい。なお、距離閾値は、インターフェースから取得される各種情報に基づき、変更されてもよい。
次に、図2を用いて、HUD装置1が表示する虚像Vを説明するとともに、表示処理部70が行う関連情報有無処理について説明する。図2の例では、オブジェクト300は、人物と、駐車場であり、この人物と駐車場とを指示するように強調画像V2が表示され、駐車場を示す『P』を表示する関連情報画像V1が上端部12に表示されている。表示処理部70は、報知要否判定部72が報知を必要と判定したオブジェクト300の近傍又は視認されないがオブジェクト300が存在する位置に強調画像V2を表示し、注視判定部74が特定オブジェクト310として決定したオブジェクト300の関連情報画像V1を表示領域11の予め定められた特定の位置に表示する。「特定の位置」は、HUD10が虚像Vを表示可能な表示領域11の鉛直方向を4等分した場合の上端部12又は下端部13であることが好ましいが、表示領域11の鉛直方向を3等分した場合の上端部12又は表示領域11の鉛直方向を3等分した場合の下端部13であってもよい。言い換えると、表示領域11は、関連情報画像V1を表示する上端部12の鉛直方向の幅(表示領域11の上端と関連情報画像V1の下端との間の長さ)の2倍程度、上端部12の下側に虚像Vを表示可能な領域を有することが好ましく、又は、関連情報画像V1を表示する下端部13の鉛直方向の幅(表示領域11の下端と関連情報画像V1の上端との間の長さ)の2倍程度、下端部13の上側に虚像Vを表示可能な領域を有することが好ましい。
次に、この本実施形態の特徴部分に係わるHUD装置1の処理について、図3に示すフローチャートを用いて説明する。なお、本処理は、車両又はHUD装置1が起動されている間、繰り返し実行される。
まず、ステップS1において、表示処理部70は、識別情報取得部30、位置情報取得部32、及び距離情報取得部34からオブジェクト情報(識別情報、位置情報、距離情報)を取得する。これらのオブジェクト情報は、カメラやセンサなどを含むオブジェクト識別部31、オブジェクト位置検出部33、オブジェクト距離検出部35がオブジェクト300を検出することで生成されるが、車両の位置情報、方角情報に基づき、クラウドサーバー500又は/及び車両ECU600、0又は/及びナビゲーションシステム700により生成されてもよい。
ステップS2において、表示処理部70(報知要否判定部72)は、ステップS1にて入力したオブジェクト情報に基づいて、報知すべきオブジェクト300があるかを判定し、なければ(ステップS2でNo)、処理を終了し、再びステップS1から処理をやり直す。また、報知すべきオブジェクト300があった場合(ステップS2でYes)、ステップS3に移行する。
ステップS3において、表示処理部70は、ステップS2で報知すべきと判定されたオブジェクト300に対し、オブジェクト300の近傍、又の物体に隠れて視認されないオブジェクト300が存在する位置の近傍に、強調画像V2を表示させるように画像生成部80に指示する。なお、この強調画像V2を表示するに際し、表示処理部70は、関連情報有無判定部73の判定結果に基づき、関連情報があると判定されたオブジェクト300に対する強調画像V2を第1の表示態様で表示させ、関連情報がないと判定されたオブジェクト300に対する強調画像V2を第1の表示態様とは異なる第2の表示態様で表示させてもよい。
ステップS4において、表示処理部70(注視判定部74)は、注視位置取得部40を介して注視範囲GZを取得する。
続いて、ステップS5において、表示処理部70(注視判定部74)は、注視範囲GZ内に存在するオブジェクト300があるかを判定する。言い換えると、注視されているという条件を満たしたオブジェクト300があるかを判定する。例えば、1秒以上継続して注視範囲GZ内にオブジェクト300が存在していた場合(ステップS5でYes)、そのオブジェクト300を特定オブジェクト310として選択して、ステップS6に移行する。また、1秒以上継続して注視範囲GZ内に存在したオブジェクト300がなかった場合(ステップS5でNo)、特定オブジェクト310を未定として、処理を終了し、再びステップS1から処理をやり直す。なお、表示処理部70(注視判定部74)は、注視範囲GZ内に存在していたオブジェクト300であっても、関連情報有無判定部73の判定結果に基づき、関連情報がないと判定されたオブジェクト300であれば、特定オブジェクト310に選定せず、特定オブジェクト310を未定として、処理を終了し、再びステップS1から処理をやり直してもよい。
ステップS6において、表示処理部70(距離判定部75)は、ステップS1で取得したオブジェクト情報(距離情報)に基づいて、オブジェクト300が遠方であるか判定する。例えば、ステップS5で特定オブジェクト310に選択されたオブジェクト300が、20[m](距離閾値の一例)より遠方に存在していた場合(ステップS6でYes)、この特定オブジェクト310に対する関連情報画像V1を表示させる(ステップS7)。なお、表示処理部70は、関連情報画像V1を表示させる際、特定オブジェクト310に対する強調画像V2の表示態様を第1の表示態様から、第1,2の表示態様と異なる第3の表示態様に変化させてもよい。また、表示処理部70は、関連情報画像V1を表示させる際、特定オブジェクト310から所定の表示位置(上端部12、下端部13)に向けて移動させる動画表示をしてもよい。
続いて、ステップS8では、同じオブジェクト300に対する関連情報画像V1が時間閾値T1(例えば、20秒)以上、継続して表示されているかを判定し、時間閾値T1以上であれば(ステップS8でNo)、関連情報画像V1を非表示としてもよい。
一方、20[m]より近傍に存在していた場合(ステップS6でNo)、関連情報画像V1を表示させない(ステップS9)。なお、関連情報画像V1を表示していた場合でも、特定オブジェクト310が20[m]より近傍に接近した場合(ステップS6でNo)、関連情報画像V1を表示させない(ステップS9)。
次に、図4A、図4Bを参照し、注視範囲GZの変化に伴う虚像Vの推移を説明する。図4Aは、オブジェクト300である駐車場に注視範囲GZが向いた場合の例であり、駐車場であることを示す『P』を表示する関連情報画像V1が上端部12に表示されている。図4Bは、オブジェクト300である人物に注視範囲GZが向いた場合の例であり、人物であることを示す人形のマークを表示する関連情報画像V1が上端部12に表示されている。なお、「関連情報画像」は、テキスト、記号、マーク、写真などの静止画であってもよく、動画であってもよい。
1 :HUD装置(ヘッドアップディスプレイ装置)
2 :ウインドシールドガラス
10 :画像表示部
10a :リレー光学部
11 :表示領域
12 :上端部
13 :下端部
20 :表示制御装置
30 :識別情報取得部
31 :オブジェクト識別部
32 :位置情報取得部
33 :オブジェクト位置検出部
34 :距離情報取得部
35 :オブジェクト距離検出部
40 :注視位置取得部
41 :視線検出部
50 :車両状態取得部
51 :位置検出部
52 :方角検出部
53 :姿勢検出部
60 :第2のインターフェース
70 :表示処理部
71 :記憶部
72 :報知要否判定部
73 :関連情報有無判定部
74 :注視判定部
75 :距離判定部
80 :画像生成部
200 :前景
300 :オブジェクト
310 :特定オブジェクト
500 :クラウドサーバー
600 :車両ECU
700 :ナビゲーションシステム
GZ :注視範囲
T1 :時間閾値
V :虚像
V1 :関連情報画像
V2 :強調画像

Claims (6)

  1. 前景に存在するオブジェクト(300)の識別情報を取得する識別情報取得部(30)と、
    前記識別情報に基づく関連情報画像(V1)を表示させる表示処理部(70)と、
    前記オブジェクトの位置を取得する位置情報取得部(32)と、
    視認者の注視範囲(GZ)を取得する注視位置取得部(40)と、
    前記オブジェクトの前記位置と前記注視範囲とに基づき、注視された前記オブジェクトを判定する注視判定部(74)と、を備え、
    前記表示処理部は、前記注視判定部の判定により注視されたことを少なくとも含む所定の条件を満たした前記オブジェクトを、特定オブジェクト(310)として選択し、前記特定オブジェクトに対応する前記関連情報画像を表示させる、表示制御装置。
  2. 前記表示処理部は、前記オブジェクトの近傍に強調画像(V2)をさらに表示させることができ、
    前記識別情報取得部が取得した前記識別情報に基づき、前記関連情報画像を表示可能とさせるか判定し、前記関連情報画像を表示可能とする前記オブジェクトに対する前記強調画像を第1の表示態様で表示させ、前記関連情報画像を表示可能としない前記オブジェクトに対する前記強調画像を前記第1の表示態様と異なる第2の表示態様で表示させる、請求項1に記載の表示制御装置。
  3. 前記表示処理部は、前記関連情報画像を表示させる際、前記特定オブジェクトに対する前記強調画像を前記第1及び第2の表示態様と異なる第3の表示態様で表示させる、請求項2に記載の表示制御装置。
  4. 前記表示処理部は、前記関連情報画像を、予め定められた表示位置(12、13)に表示させる、請求項1乃至3のいずれかに記載の表示制御装置。
  5. 前記表示処理部は、前記関連情報画像を表示させる際、前記特定オブジェクトから前記表示位置に向けて移動させる、請求項4に記載の表示制御装置。
  6. 請求項1乃至5のいずれかの表示制御装置(20)と、
    前記表示制御装置の制御に基づき表示画像を表示する画像表示部(10)と、
    前記画像表示部が表示した前記表示画像を被投影部2に向けて投影することで、虚像を視認させるリレー光学部(10a)と、を備える、ヘッドアップディスプレイ装置。
JP2017255150A 2017-12-29 2017-12-29 表示制御装置、ヘッドアップディスプレイ装置 Pending JP2019121140A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017255150A JP2019121140A (ja) 2017-12-29 2017-12-29 表示制御装置、ヘッドアップディスプレイ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017255150A JP2019121140A (ja) 2017-12-29 2017-12-29 表示制御装置、ヘッドアップディスプレイ装置

Publications (1)

Publication Number Publication Date
JP2019121140A true JP2019121140A (ja) 2019-07-22

Family

ID=67306356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017255150A Pending JP2019121140A (ja) 2017-12-29 2017-12-29 表示制御装置、ヘッドアップディスプレイ装置

Country Status (1)

Country Link
JP (1) JP2019121140A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021037916A (ja) * 2019-09-05 2021-03-11 株式会社デンソー 表示制御装置及び表示制御プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021037916A (ja) * 2019-09-05 2021-03-11 株式会社デンソー 表示制御装置及び表示制御プログラム
JP7318431B2 (ja) 2019-09-05 2023-08-01 株式会社デンソー 表示制御装置及び表示制御プログラム

Similar Documents

Publication Publication Date Title
US9639990B2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US10600250B2 (en) Display system, information presentation system, method for controlling display system, computer-readable recording medium, and mobile body
JP6528139B2 (ja) 表示制御装置及び表示制御プログラム
US11181737B2 (en) Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program
JP6459205B2 (ja) 車両用表示システム
JP6591087B2 (ja) 表示制御装置、表示装置および表示制御方法
KR20180022374A (ko) 운전석과 보조석의 차선표시 hud와 그 방법
JP2016112984A (ja) 車両用虚像表示システム、ヘッドアップディスプレイ
JP2020032866A (ja) 車両用仮想現実提供装置、方法、及びコンピュータ・プログラム
CN111033607A (zh) 显示系统、信息呈现系统、显示系统的控制方法、程序以及移动体
JP2006350934A (ja) 情報表示装置
JP7255608B2 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP6186905B2 (ja) 車載表示装置およびプログラム
KR102719930B1 (ko) 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치.
JP4277678B2 (ja) 車両運転支援装置
JP2019121140A (ja) 表示制御装置、ヘッドアップディスプレイ装置
JP6365409B2 (ja) 車両の運転者のための画像表示装置
JP7255596B2 (ja) 表示制御装置、ヘッドアップディスプレイ装置
JP7338632B2 (ja) 表示装置
JP2019207632A (ja) 表示装置
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
JP2019064422A (ja) ヘッドアップディスプレイ装置
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法
JP2020086882A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP4858017B2 (ja) 運転支援装置