JP2020017006A - 車両用拡張現実画像表示装置 - Google Patents

車両用拡張現実画像表示装置 Download PDF

Info

Publication number
JP2020017006A
JP2020017006A JP2018138658A JP2018138658A JP2020017006A JP 2020017006 A JP2020017006 A JP 2020017006A JP 2018138658 A JP2018138658 A JP 2018138658A JP 2018138658 A JP2018138658 A JP 2018138658A JP 2020017006 A JP2020017006 A JP 2020017006A
Authority
JP
Japan
Prior art keywords
augmented reality
reality image
color
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018138658A
Other languages
English (en)
Inventor
雄治 猪坂
Yuji Inosaka
雄治 猪坂
康則 笹崎
Yasunori SASAZAKI
康則 笹崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2018138658A priority Critical patent/JP2020017006A/ja
Publication of JP2020017006A publication Critical patent/JP2020017006A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

【課題】前景の視認性を維持しつつ情報提供することができる車両用拡張現実画像表示装置を提供する。【解決手段】オブジェクト選択部は、前景の中から特定の実オブジェクトを選択し、表示位置調整部は、オブジェクト選択部が選択した実オブジェクトに隣接するまたは少なくとも一部が重なるように、拡張現実画像110の位置を制御し、色情報取得部は、拡張現実画像110が重なって視認される領域の周辺背景領域210の色情報を取得し、画像処理部は、ユーザーに視認される拡張現実画像110の少なくとも一部の色が、周辺背景領域210の色と同じあるいは近似する色になるように調整する。【選択図】図4

Description

本発明は、車両で使用され、車両の前景に画像を重畳して視認させる車両用拡張現実画像表示装置に関する。
風景と重ねて虚像を視認させる車両用拡張現実画像表示装置が知られている(例えば特許文献1参照)。車両用拡張現実画像表示装置は、例えば、頭部に装着するヘッドマウントディスプレイ(Head Mounted Display:HMD)装置を表示器として用い、表示器からの表示光を投射光学系や導光体などを用いてユーザーに向けて投射し、表示光が示す表示画像の虚像を視認させるものである。ユーザーは、HMD装置によって表示された虚像を前方の実風景に重ねて視認することができる。また、HMD装置は、拡張現実(Augmented Reality;AR)と称される技術を適用することができる。すなわち、実風景に存在する実オブジェクトの位置に対応付けた拡張現実画像を表示することで、実風景にあたかも拡張現実画像が存在するような感覚をユーザーに与えることができる。
また、HMD装置として、実風景に存在する実オブジェクトの色に応じて、拡張現実画像の色を変更する技術が特許文献2に開示されている。特許文献2に開示される技術は、色検出部によって検出された現実世界に存在する実オブジェクトの色を検出し、実オブジェクトと拡張現実画像とが重なって視認される場合であっても、実オブジェクトの色を考慮し拡張現実画像の色を調整することで、ユーザーに設計上の所望の色で拡張現実画像を視認させるものである。
特開2014−119786号公報 特開2016−81209号公報
前述したように、車両用拡張現実画像表示装置は、虚像によって実風景と重ねて情報を提供することができるものであるが、ユーザーの視界に常時虚像が視認されるため、表示する情報が多くなるとユーザーにとって煩わしく、ユーザーが情報を整理できずに各情報の認識性が低下するという問題点があった。
本発明は、上記の問題点に鑑みてなされたものであり、前景の視認性を維持しつつ情報提供可能な車両用拡張現実画像表示装置を提供することを目的とする。
本発明は、前記課題を解決するため、以下の手段を採用した。
本発明の車両用拡張現実画像表示装置は、拡張現実画像(110)の少なくとも一部の透過率を高くする、又は、拡張現実画像が重なって視認される背景の色を検出し、この背景の色と同じあるいは近似する色の拡張現実画像を、実オブジェクトに隣接するまたは一部が重なるように表示することで、ユーザーが視認する前景方向の視界を遮りにくく、虚像(拡張現実画像)に視覚的注意が奪われにくくする、ことをその要旨とする。
本実施形態の第1の態様における車両用拡張現実画像表示装置は、車両の前景200に提示情報を含む拡張現実画像110を重畳して表示する車両用拡張現実画像表示装置であって、前記拡張現実画像110をユーザーに視認させる画像表示部10と、前記前景200の中から特定の実オブジェクト300を選択するオブジェクト選択部21と、前記オブジェクト選択部21が選択した前記実オブジェクト300に隣接するまたは少なくとも一部が重なるように、前記拡張現実画像110の位置を制御する表示位置調整部22と、前記拡張現実画像110が重なって視認される背景の色情報を取得可能な色情報取得部30(70)と、前記ユーザーに視認される前記拡張現実画像110の少なくとも一部の色が、前記周辺背景領域(210)の色と同じあるいは近似する色になるように調整する画像処理部23と、を備える。この車両用拡張現実画像表示装置は、背景と同じ色で、実オブジェクトに隣接あるいは一部が重なる状態で拡張現実画像を表示する。したがって、実オブジェクトに隣接した位置に目立たない形で拡張現実画像が表示されるため、画像が目立ちにくく実景になじませる事ができ、画像に視覚的注意が奪われにくくユーザーに運転操作を集中させることができる。
本発明の実施形態に係る車両用拡張現実画像表示装置による拡張現実画像の表示例を示す図である。 上記実施形態の車両用拡張現実画像表示装置の変形例による拡張現実画像の表示例を示す図である。 上記実施形態の車両用拡張現実画像表示装置の構成を機能的に示すブロック図である。 点線で示された三角形の外郭を有する拡張現実画像と、周辺背景領域との関係を示す図である。 上記実施形態に係る車両用拡張現実画像表示装置による拡張現実画像の表示例を示す図である。 上記実施形態の車両用拡張現実画像表示装置の動作を示すフローチャートである。
以下、本発明に係る実施形態について図面を参照して説明する。なお、本発明は下記の実施形態(図面の内容も含む。)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。
図1は、本発明の実施形態に係る車両用拡張現実画像表示装置100(以下では、表示装置とも記載)の表示例を示す図である。本実施形態の表示装置100は、車両のフロントウインドシールドWSを介して視認される現実空間である前景200に存在する実オブジェクト300の近傍に拡張現実画像110を視認させることで、視覚的な拡張現実(AR、Augmented Reality)を形成する。車両に搭乗するユーザー(一般的に車両の運転者)は、ヘッドマウントディスプレイ(以下、HMD)装置からなる画像表示部10を頭部に装着して車両の座席に着座することで、画像表示部10によって表示される拡張現実画像110を、車両のフロントウインドシールドWSを介した前景200に重畳して視認する。本実施形態の表示装置100は、例えば、前景200に存在する道路標識である第一の実オブジェクト310の近傍に第一の拡張現実画像111を表示し、路面である第二の実オブジェクト320に重なるように第二の拡張現実画像112を表示し、及び、建物である第三の実オブジェクト330に重なるように第三の拡張現実画像113を表示する。また、図1に示した表示装置100の画像表示部10は、HMD装置であるため、例えば、Aピラーなどの車両の内部領域400に対しても内部拡張現実画像150を表示することができる。なお、HMD装置からなる画像表示部10は、所定の表示領域101を有し、この表示領域101に含まれる実オブジェクト300に対して拡張現実画像110を表示する。
(画像表示部10の他の例)
図2は、画像表示部10の他の例による拡張現実画像110の表示例を説明する図である。上述した図1の画像表示部10は、HMD装置であったが、図2に示す表示装置100の画像表示部10は、ヘッドアップディスプレイ(HUD:Head−Up Display)装置である点で異なり、それ以外は、共通する。この表示装置100では、フロントウインドシールドWS(被投影部材の一例である)の所定の領域が拡張現実画像110を表示可能な表示領域101とされ、この表示領域101を介した前景200に存在する実オブジェクト300に対して拡張現実画像110を表示する。
次に、図3を参照する。図3は、車両用拡張現実画像表示装置100のシステム構成を示す図である。
表示装置100は、画像表示部10と、表示制御部20と、入出力インターフェースである、前景情報取得部(色情報取得部)30、注視情報取得部40、位置情報取得部50、方角情報取得部60、及び通信インターフェース(色情報取得部)70と、を備える。表示制御部20は、入出力インターフェース(前景情報取得部30、注視情報取得部40、位置情報取得部50、方角情報取得部60、及び通信インターフェース70)を介して、前景検出部31、ユーザー検出部41、位置検出部51、方角検出部61、クラウドサーバー(外部サーバー)500、及び車両ECU600と通信可能に連結されている。入出力インターフェースは、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信機能を含むことができる。車両からのデータケーブルは、入出力インターフェースを介して、表示装置100の表示制御部20に連結される。なお、他の実施形態では、入出力インターフェースは、例えば、Bluetooth(登録商標)通信プロトコル、IEEE802.11プロトコル、IEEE802.16プロトコル、共有無線アクセスプロトコル、ワイヤレスUSBプロトコル、及び/又は他の任意の適切な無線電信技術を用いた無線通信インターフェースを含むことができる。表示装置100は、クラウドサーバー500や車両ECU600から通信インターフェース70を介して、拡張現実画像110の画像要素データを取得し、表示制御部20が定めた実オブジェクト300の近傍に、画像要素データに基づく拡張現実画像110を表示する。なお、画像要素データの一部または全部は、後述する表示制御部20の記憶部24に記憶され、表示制御部20は、クラウドサーバー500、車両ECU600などから得られる情報に応じて、記憶部24に記憶された画像要素データを読み出して拡張現実画像110を生成し、表示する形態であってもよい。
表示制御部20は、後述する前景情報取得部30が取得する実オブジェクト300の位置情報及び色情報を含む実オブジェクト情報、注視情報取得部40が取得するユーザーの注視位置を示す注視情報、位置情報取得部50が取得する車両または表示装置100の現在位置を示す位置情報、方角情報取得部60が取得する車両または表示装置100が向く方向を示す方角情報、及び通信インターフェース70がクラウドサーバー500または/および車両ECU600から取得する画像要素データを入力し、車両の前景200に存在する特定の実オブジェクト300の近傍に配置され、かつ拡張現実画像110の少なくとも一部が、拡張現実画像110が重なって視認される前景200(換言すると、拡張現実画像110の背景)と同色になるように、画像表示部10が拡張現実画像110の色を制御する。表示制御部20は、拡張現実画像110を近傍に配置させる特定の実オブジェクト300を選択するオブジェクト選択部21と、オブジェクト選択部21が選択した特定の実オブジェクト300に対する拡張現実画像110を表示する相対的な位置を調整する表示位置調整部22と、拡張現実画像110の色や輝度を調整可能な画像処理部23と、画像要素データを記憶する記憶部24と、を備える。
オブジェクト選択部21は、前景情報取得部30が前景200から抽出した実オブジェクト300の中から拡張現実画像110を近傍に表示する特定の実オブジェクト300を選定するものであり、拡張現実画像110が付加される実オブジェクト300は、例えば、道路標識、路面、建物、障害物(歩行者、自転車、自動二輪車、他車両)などである。なお、拡張現実画像110が付加される実オブジェクト300の選定条件は、固定ではなく、変更されてもよい。具体的には、車両が走行する環境の変化やユーザーの状態などにより自動的に変更されてもよく、ユーザーが行う操作により変更されてもよい。
また、オブジェクト選択部21は、選定条件(第一の選定条件)を満たす実オブジェクト300が前景200に存在しないと判定した場合、第一の選定条件と異なる第二の選定条件を満たす実オブジェクト300を選択する。言い換えると、オブジェクト選択部21は、第二の選定条件を満たす実オブジェクト300より、第一の選定条件を満たす実オブジェクト300を優先的に選定する。なお、オブジェクト選択部21は、条件を満たす実オブジェクト300が存在しなかった場合、特定の実オブジェクト300を選定しなくてもよい。この場合、拡張現実画像110は、表示領域101の所定の領域に固定して表示されてもよい。
表示位置調整部22は、前景情報取得部30が取得する実オブジェクト300の位置情報に基づき、オブジェクト選択部21が選定した特定の実オブジェクト300に対して、拡張現実画像110を表示する相対的な位置を決定するものである。
画像処理部23は、画像表示部10に表示させる拡張現実画像110の色を調整するものである。画像処理部23は、後述する前景情報取得部(色情報取得部)30が取得する拡張現実画像110が重なって視認される背景の色を示す色情報に基づき、拡張現実画像110の色を調整するものであり、拡張現実画像110の一部の色が、拡張現実画像110の背景の色と同じあるいは近似する色になるように調整する。なお、色情報取得部30が色情報を取得する前景200における背景の位置は、ユーザーの目の位置と、表示位置調整部22が決定する拡張現実画像110の位置とに基づいて、特定されてもよい。この場合、ユーザーの目の位置は、注視情報取得部40から取得されてもよい。なお、ユーザーの目の位置は、リアルタイムに測定された位置、断続的に測定された位置、又は特定のタイミングで測定された位置であってもよい。また、画像処理部23は、注視情報取得部40が取得するユーザーの注視位置を示す視注視情報に基づいて、拡張現実画像110の色を調整してもよい(詳細は後述する)。
前景情報取得部30は、車両周辺の外界(特に、車両前方の前景200)に存在する実オブジェクト300を検知するセンサ(図示しない)を有する。検知する実オブジェクト300としては、例えば、道路標識、路面、建物、障害物(歩行者、自転車、自動二輪車、他車両)がある。外界センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサとカメラセンサの両方でもよいし、どちらか一方だけでもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合にはその実オブジェクトの位置(車両からの相対的な距離、方向(横方向の位置)等)、大きさ(横方向、高さ方向等の大きさ)、種別等を取得する。外界センサでは、各センサの検知周期毎に、車両の前方の実オブジェクト300を検知し、実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、種別等の情報)を、前景情報取得部30を介して車両用拡張現実画像表示装置100の表示制御部20に送信する。なお、これら実オブジェクト情報は、車両のECU(車両ECU)を経由して表示制御部20に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクト300が検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。
(色情報取得部)
また、前景情報取得部30は、実オブジェクト300の色情報を取得可能な色情報取得部としての機能も兼ねていてもよい。具体的には、前景検出部31は、好ましくは、実オブジェクト300の色を検出可能なカラーカメラや赤外線カラーカメラであり、前景情報取得部30は、前景検出部31が前景200を撮像したカラー撮像画像を図示しない画像解析部で解析した結果である前景200上の拡張現実画像110が重なって視認される周辺背景領域210(図4参照)の色情報を取得してもよい。
図4を参照して、拡張現実画像110の色を変化させる際に参照される前景200上の周辺背景領域210について説明する。図4は、点線で示された三角形の外郭110aを有する拡張現実画像110と、周辺背景領域210との関係を示す図である。周辺背景領域210は、図4(a)に示されるように、拡張現実画像110の外側領域211と、内側領域212と、を含んでいてもよく、図4(b)に示されるように、拡張現実画像110の外側領域211のみであってもよい。なお、周辺背景領域210における外側領域211は、図4(a)、図4(b)に示すような、拡張現実画像110の外郭110aに沿った領域に限定されるものではなく、例えば、図4(c)に示すように、拡張現実画像110を囲む矩形領域であってもよい。
再び、図3を参照する。注視情報取得部40は、ユーザーを撮像する撮像カメラからなるユーザー検出部41がユーザーの眼を撮像した撮像画像を解析部42で解析した結果であるユーザーの注視位置を示す注視位置情報を取得する入力インターフェースである。視線検出の場合は、CCDカメラなどでユーザーの眼を撮像し、画像処理技術のパターンマッチング処理によって注視位置としてユーザーの視線方向を検出する。なお、注視情報取得部40は、ユーザーの眼の位置(アイポイント)を取得し、表示制御部20に出力してもよい。
位置情報取得部50は、GNSS(全地球航法衛星システム)等からなる位置検出部51により検出された車両または表示装置100の位置情報を取得し、表示制御部20に出力する。
方角情報取得部60は、方角センサからなる方角検出部61により検出された車両または表示装置100の向きを示す方角情報を取得し、表示制御部20に出力する。
表示制御部20は、位置情報取得部50が取得した車両または表示装置100の位置情報、及び方角情報取得部60が取得した車両または表示装置100の方角情報を、通信インターフェース70を介して、クラウドサーバー500又は/及び車両ECU600に出力する。続いて、クラウドサーバー500と車両ECU600は、入力した車両または表示装置100の位置情報、方角情報に基づき、表示装置100に表示させる拡張現実画像110の画像要素データを、通信インターフェース70を介して、表示制御部20に出力する。なお、他の例としては、クラウドサーバー500と車両ECU600は、入力した車両または表示装置100の位置情報、方角情報に基づき、表示装置100に表示させるべき拡張現実画像110を指示する指示データを、通信インターフェース70を介して、表示制御部20に出力し、表示制御部20は、入力した指示データに基づき、記憶部24に記憶された画像要素データを読み出して画像を生成してもよい。また、表示制御部20は、前景情報取得部30から取得した実オブジェクト情報に基づき、記憶部24に記憶された画像要素データを読み出して画像を生成してもよい。また、他の例としては、クラウドサーバー500と車両ECU600は、車両または表示装置100の位置情報、方角情報とは異なる他の情報に基づき、拡張現実画像110の画像要素データまたは表示させるべき拡張現実画像110を指示する指示データを、表示制御部20に出力してもよい。
図6は、車両用拡張現実画像表示装置100の主要な動作手順を示すフローチャートである。ステップS1において、入出力インターフェースから拡張現実画像110を指示する指示データが入力され、実オブジェクト300の種類情報、位置情報、色情報を含む実オブジェクト情報が入力され(ステップS2)、ステップS1で指示された拡張現実画像110の表示位置が決定される(ステップS3)。ステップS3における拡張現実画像110の表示位置は、ステップS2で取得した実オブジェクト300の種類情報、位置情報などを参照することで選択される実オブジェクト300の近傍に決定されてもよく、又はステップS1で取得した指示データが指示する拡張現実画像110の種類に応じて決定されてもよい。
次に、ステップS4で、拡張現実画像110の視認性を低くする条件が成立しているかを判定し、YESであれば、ステップS5に移行し、NOであれば、拡張現実画像110の色を変化させることなく、表示更新が行われ(ステップS6)、処理が終了され、再び、ステップS1からルーチンを開始する。ステップS4において、画像処理部23は、前景情報取得部30から取得した情報に基づき、実オブジェクト300の報知必要度を判定し、視認者に報知するか否かを判定する。報知必要度が所定の閾値より低くなった場合に、視認者に報知する必要が低いと判定し、視認性を低くする条件が成立したと判定する。『報知必要度』は、実オブジェクト300に対して、起こり得る自体の重大さの程度から導き出される危険度や、反応行動を起こすまでに要求される反応時間の長短から導かれる緊急度などであり、前景情報取得部30が取得する実オブジェクト300に関する実オブジェクト情報のみで決定されてもよく、前記オブジェクト情報に加えて、他のインターフェースから入力される各種情報に基づいて決定されてもよい。例えば、注視情報取得部40から視認者が注視していると判定できる拡張現実画像110について、既に内容が認識されており、視認性を維持しておく必要性が低下したと判定できる場合、ステップS4でYESと判定してもよい。なお、画像処理部23は、本質的には、前記報知必要度に基づき拡張現実画像110の視認性を低下させるかを判定する機能を有していればいいので、前記報知必要度を決定する機能を有していなくてもよく、前記報知必要度を決定する機能の一部又は全部は、表示制御部20とは別に設けられてもよい。なお、報知の必要度は、前記危険度や前記緊急度を用いる方法に限定されない。例えば、クラウドサーバー500、車両ECU600、ナビゲーションシステム700から視認者にとって役立つ実オブジェクト300に関する新たな情報が取得されれば、この新たな情報の拡張現実画像110に優先的に視覚的注意を向けやすくするために、それまで表示されていた優先度の低い拡張現実画像110の一部は、視認性を低く設定されてもよい。
ステップS5では、ステップS3で決定された拡張現実画像110の表示位置に基づき、前景200上の拡張現実画像110が重なって視認される周辺背景領域210を特定され、拡張現実画像110が、周辺背景領域210の同じあるいは近似する色になるように拡張現実画像110の色を決定され、拡張現実画像110が表示更新される(ステップS6)。
以下、第1〜第4の実施形態を主に図1を用いて具体的に説明する。
(第1の実施形態)
第1の実施形態では、画像処理部23は、ユーザーに視認される拡張現実画像110の少なくとも一部の色が、拡張現実画像110が表示される周辺背景領域210の色(色平均値)と同じあるいは近似する色になるように調整する。第一の拡張現実画像111の周辺背景領域210が青色であった場合、第一の拡張現実画像111の少なくとも一部の色を、青色あるいは青色の近似する色に設定する。なお、本発明における近似色とは、RGB空間におけるR,G,Bの値の差分が±15%以下の範囲に属す色、または/およびHSV空間におけるH(色相),S(彩度),V(明度)の値の差分が±15%以下の範囲に属す色とする。画像処理部23は、拡張現実画像110の全体を、実オブジェクト300の色と同じにする必要はなく、一部であってもよく、拡張現実画像110の全体の50%以上を、周辺背景領域210の類似色とすることで、前景200に拡張現実画像110をなじませることができる。なお、画像処理部23は、拡張現実画像110を構成する文字や図形などのアウトライン画像120(図6参照)の色が、周辺背景領域210の類似色にならないように調整してもよい。
図6は、拡張現実画像110の構成を説明する図である。拡張現実画像110は、図6(a)に示すように、文字や図形を形作るアウトライン画像120と、このアウトライン画像120に囲まれた塗り画像130と、で構成される。なお、拡張現実画像110は、塗り画像130を透過させる(無色)とした場合、図6(b)に示すようなアウトライン画像120のみが視認者に視認される。
(第2の実施形態)
第2の実施形態では、注視情報取得部40が検出したユーザーの注視位置が車両の内部領域400にある場合、またはユーザーの注視位置が内部領域400から外れてから所定時間が経過するまでの間、画像処理部23は、ユーザーに視認される拡張現実画像110の色が、周辺背景領域210の色と同じあるいは近似する色にならないように調整し、注視位置が内部領域400から他の領域に移動した場合、または注視位置が内部領域400から外れてから所定時間が経過した場合、拡張現実画像110の色を、周辺背景領域210の色と同じあるいは近似する色に徐々に近付けてもよい。
(第3の実施形態)
第3の実施形態では、拡張現実画像110の少なくとも一部の色が、周辺背景領域210の色と同じあるいは近似する色になるように調整される処理に代わって、拡張現実画像110の少なくとも一部(一部のアウトライン画像120を含んでいてもよい)の透過率が高くされてもよい。拡張現実画像110の塗り画像130の透過率を高く(透過率100%も含む)し、アウトライン画像120の透過率を変化させないことで、アウトライン画像120が示す情報を提示しつつ、拡張現実画像110としての誘目性を低下させることができる。
以上に説明したように、車両の前景200に提示情報を含む拡張現実画像110を重畳して表示する車両用拡張現実画像表示装置100であって、拡張現実画像110をユーザーに視認させる画像表示部10と、前景200の中から特定の実オブジェクト300を選択するオブジェクト選択部21と、オブジェクト選択部21が選択した実オブジェクト300に隣接するまたは少なくとも一部が重なるように、拡張現実画像110の位置を制御する表示位置調整部22と、前景200において拡張現実画像110が重なって視認される領域の周囲を少なくとも含む周辺背景領域210の色情報を取得可能な色情報取得部30(70)と、ユーザーに視認される拡張現実画像110の少なくとも一部の色が、周辺背景領域210の色と同じあるいは近似する色になるように調整する画像処理部23と、を備える。この車両用拡張現実画像表示装置によれば、拡張現実画像110の少なくとも一部が、背景(前景200)と同系色に変化するため、拡張現実画像110が目立ちにくく、前景200になじませることができ、画像に視覚的注意が奪われにくくユーザーに運転操作を集中させることができる。
また、車両の前景200に提示情報を含む拡張現実画像110を重畳して表示する車両用拡張現実画像表示装置であって、拡張現実画像110をユーザーに視認させる画像表示部10と、前景200の中から特定の実オブジェクト300を選択するオブジェクト選択部21と、オブジェクト選択部21が選択した実オブジェクト300に隣接するまたは少なくとも一部が重なるように、拡張現実画像110の位置を制御する表示位置調整部22と、ユーザーに視認される拡張現実画像110の少なくとも一部の透過率を高くする画像処理部23と、を備える。この車両用拡張現実画像表示装置によれば、拡張現実画像110の少なくとも一部の透過率が高く設定されるため、拡張現実画像110を透過した背景(前景200)が視認されやすくなり、前景200になじませることができ、画像に視覚的注意が奪われにくくユーザーに運転操作を集中させることができる。
また、拡張現実画像110は、提示情報のアウトライン画像120と、アウトライン画像120に囲まれた塗り画像130と、を含み、画像処理部23は、塗り画像130を、背景の色と同じあるいは近似する色にする、又は透過率を高くする調整量を、アウトライン画像120を、背景の色と同じあるいは近似する色にする、又は透過率を高くする調整量より大きくしてもよい。換言すると、拡張現実画像110の提示情報を形成する文字や図形などのアウトライン画像120を、塗り画像130よりも背景(前景200)の色に近づけない、または、塗り画像130よりも背景が透けて見えないようにする。これによれば、提示情報の認識性の低下を抑えつつ、拡張現実画像110の誘目性を低下させることができる。
また、ユーザーの注視位置を検出する注視情報取得部40をさらに備え、表示位置調整部22は、車両の内部領域400にも内部拡張現実画像150を配置することが可能であり、注視情報取得部40が検出した注視位置が内部領域400にある場合、または注視位置が内部領域400から外れてから所定時間が経過するまでの間、画像処理部23は、拡張現実画像110の少なくとも一部の色が背景の色と同じあるいは近似する色にならないようにする、又は拡張現実画像110の少なくとも一部の透過率を低くし、注視情報取得部40が検出した注視位置が内部領域400から他の領域に移動した場合、または注視位置が内部領域400から外れてから所定時間が経過した場合、拡張現実画像110の少なくとも一部の色が背景の色と同じあるいは近似する色に徐々に近づける、又は拡張現実画像110の少なくとも一部の透過率を徐々に高くしてもよい。これによれば、ユーザーの注視位置に応じて、拡張現実画像の色を変更可能になり、ユーザーが車両内部の領域を視認して、実オブジェクト300が存在する前景200をユーザーが注視していない場合、実オブジェクト300の近傍に表示された拡張現実画像110の色を背景(前景200)と異なる色になるように変更することで、実オブジェクトと拡張現実画像とをユーザーに区別させやすくでき、内部領域から前景200に視線を移した際に、瞬時に拡張現実画像が示す情報を認識させやすくすることができる。また、ユーザーが車両の内部領域400を視認しておらず、車両の外部に興味があると認識できる場合、実オブジェクト300の近傍に表示された拡張現実画像110の色を背景(前景200)と同系色表示することで、ユーザーの視覚的注意を拡張現実画像に奪われにくくすることができる。
10…画像表示部、20…表示制御部、21…オブジェクト選択部、22…表示位置調整部、23…画像処理部、24…記憶部、30…前景情報取得部(色情報取得部)、31…前景検出部、40…注視情報取得部、41…ユーザー検出部、42…解析部、50…位置情報取得部、51…位置検出部、60…方角情報取得部、61…方角検出部、70…通信インターフェース、100…車両用拡張現実画像表示装置(表示装置)、101…表示領域、110…拡張現実画像、110a…外郭、111…第一の拡張現実画像、112…第二の拡張現実画像、113…第三の拡張現実画像、114…拡張現実画像、120…アウトライン画像、130…塗り画像、150…内部拡張現実画像、200…前景、210…周辺背景領域、211…外側領域、212…内側領域、300…実オブジェクト、310…第一の実オブジェクト、320…第二の実オブジェクト、330…第三の実オブジェクト、400…内部領域、500…クラウドサーバー、600…車両ECU、700…ナビゲーションシステム、WS…フロントウインドシールド

Claims (5)

  1. 車両の前景(200)に提示情報を含む拡張現実画像(110)を重畳して表示する車両用拡張現実画像表示装置であって、
    前記拡張現実画像(110)をユーザーに視認させる画像表示部(10)と、
    前景(200)の中から特定の実オブジェクト(300)を選択するオブジェクト選択部(21)と、
    オブジェクト選択部(21)が選択した実オブジェクト(300)に隣接するまたは少なくとも一部が重なるように、拡張現実画像(110)の位置を制御する表示位置調整部(22)と、
    前景(200)において前記拡張現実画像(110)が重なって視認される領域の周囲を少なくとも含む周辺背景領域(210)の色情報を取得可能な色情報取得部(30,70)と、
    ユーザーに視認される拡張現実画像(110)の少なくとも一部の色が、前記周辺背景領域(210)の色と同じあるいは近似する色になるように調整する画像処理部(23)と、を備える、
    ことを特徴とする車両用拡張現実画像表示装置。
  2. 車両の前景(200)に提示情報を含む拡張現実画像(110)を重畳して表示する車両用拡張現実画像表示装置であって、
    前記拡張現実画像(110)をユーザーに視認させる画像表示部(10)と、
    前景(200)の中から特定の実オブジェクト(300)を選択するオブジェクト選択部(21)と、
    オブジェクト選択部(21)が選択した実オブジェクト(300)に隣接するまたは少なくとも一部が重なるように、拡張現実画像(110)の位置を制御する表示位置調整部(22)と、
    ユーザーに視認される拡張現実画像(110)の少なくとも一部の透過率を高くする画像処理部(23)と、を備える、
    ことを特徴とする車両用拡張現実画像表示装置。
  3. 前記拡張現実画像(110)は、提示情報のアウトライン画像(120)と、アウトライン画像(120)に囲まれた塗り画像(130)と、を含み、
    前記画像処理部(23)は、前記塗り画像(130)を、背景の色と同じあるいは近似する色にする、又は透過率を高くする調整量を、前記アウトライン画像(130)を、背景の色と同じあるいは近似する色にする、又は透過率を高くする調整量より大きくする、
    ことを特徴とする請求項1又は請求項2に記載の車両用拡張現実画像表示装置。
  4. ユーザーの注視位置を検出する注視情報取得部(40)をさらに備え、
    前記注視情報取得部(40)が検出した注視位置が前記実オブジェクト(300)上に移動した場合、前記画像処理部(23)は、ユーザーに視認される前記拡張現実画像(110)の色が背景の色と同じあるいは近似する色と区別可能な色に徐々に近づける、又は前記拡張現実画像(110)の透過率を徐々に低くする、
    ことを特徴とする請求項1乃至3のいずれかに記載の車両用拡張現実画像表示装置。
  5. ユーザーの注視位置を検出する注視情報取得部(40)をさらに備え、
    前記表示位置調整部(22)は、車両の内部領域(400)にも内部拡張現実画像(120)を配置することが可能であり、
    前記注視情報取得部(40)が検出した注視位置が前記内部領域(400)にある場合、または注視位置が内部領域(400)から外れてから所定時間が経過するまでの間、画像処理部(23)は、前記拡張現実画像(110)の少なくとも一部の色が背景の色と同じあるいは近似する色にならないようにする、又は前記拡張現実画像(110)の少なくとも一部の透過率を低くし、前記注視情報取得部(40)が検出した注視位置が前記内部領域(400)から他の領域に移動した場合、または注視位置が前記内部領域(400)から外れてから所定時間が経過した場合、前記拡張現実画像(110)の少なくとも一部の色が背景の色と同じあるいは近似する色に徐々に近づける、又は拡張現実画像(110)の少なくとも一部の透過率を徐々に高くする、
    ことを特徴とする請求項1乃至4のいずれかに記載の車両用拡張現実画像表示装置。
JP2018138658A 2018-07-24 2018-07-24 車両用拡張現実画像表示装置 Pending JP2020017006A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018138658A JP2020017006A (ja) 2018-07-24 2018-07-24 車両用拡張現実画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018138658A JP2020017006A (ja) 2018-07-24 2018-07-24 車両用拡張現実画像表示装置

Publications (1)

Publication Number Publication Date
JP2020017006A true JP2020017006A (ja) 2020-01-30

Family

ID=69580401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018138658A Pending JP2020017006A (ja) 2018-07-24 2018-07-24 車両用拡張現実画像表示装置

Country Status (1)

Country Link
JP (1) JP2020017006A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071776A1 (ko) * 2022-09-26 2024-04-04 삼성전자 주식회사 증강 현실 객체 표시 방법 및 이를 지원하는 전자 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071776A1 (ko) * 2022-09-26 2024-04-04 삼성전자 주식회사 증강 현실 객체 표시 방법 및 이를 지원하는 전자 장치

Similar Documents

Publication Publication Date Title
CN107850944B (zh) 在机动车辆中运行数据眼镜的方法以及带有数据眼镜的系统
JP5267660B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法
EP3147149B1 (en) Display device
KR20190028667A (ko) 화상 생성 장치, 화상 생성 방법, 및 프로그램
US20230249618A1 (en) Display system and display method
US20210110791A1 (en) Method, device and computer-readable storage medium with instructions for controllling a display of an augmented-reality head-up display device for a transportation vehicle
JP6669053B2 (ja) ヘッドアップディスプレイシステム
JP2005346177A (ja) 車両用情報提示装置
WO2020144974A1 (en) Display controller, display system, mobile object, image generation method, and carrier means
JP2021121536A (ja) 制御装置、画像表示方法及びプログラム
JP5131152B2 (ja) 視覚支援装置
JP7255608B2 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP6186905B2 (ja) 車載表示装置およびプログラム
US20200150432A1 (en) Augmented real image display device for vehicle
JP2020033003A (ja) 表示制御装置、及び表示制御プログラム
US20140049540A1 (en) Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device
JP2020017006A (ja) 車両用拡張現実画像表示装置
CN111086518B (zh) 显示方法、装置、车载平视显示设备及存储介质
JP2019047296A (ja) 表示装置、表示方法、制御プログラム、および電子ミラーシステム
JP7167918B2 (ja) 車両用表示装置
US10650601B2 (en) Information processing device and information processing method
US9529193B2 (en) Device for operating one or more optical display devices of a vehicle
US20150130938A1 (en) Vehicle Operational Display
JP2009206689A (ja) 車両用表示装置および車両用表示方法
JP2019081480A (ja) ヘッドアップディスプレイ装置