JP2023114273A - 画像表示装置及び画像表示方法 - Google Patents

画像表示装置及び画像表示方法 Download PDF

Info

Publication number
JP2023114273A
JP2023114273A JP2022016552A JP2022016552A JP2023114273A JP 2023114273 A JP2023114273 A JP 2023114273A JP 2022016552 A JP2022016552 A JP 2022016552A JP 2022016552 A JP2022016552 A JP 2022016552A JP 2023114273 A JP2023114273 A JP 2023114273A
Authority
JP
Japan
Prior art keywords
image
user
information
display device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022016552A
Other languages
English (en)
Inventor
純 河西
Jun Kawanishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2022016552A priority Critical patent/JP2023114273A/ja
Publication of JP2023114273A publication Critical patent/JP2023114273A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】現実空間に対してユーザに応じた情報を重畳して表示させることが可能な画像表示装置及び画像表示方法を提供する。【解決手段】仮想画像が景色に重畳するように、仮想画像を含む重畳画像を表示機器に表示させる画像表示部と、景色から、重畳画像において仮想画像が表示される表示領域を検出する領域検出部と、表示機器に関連付けられた、ユーザに関するユーザ情報を取得するユーザ情報取得部とを備え、画像表示部は、ユーザ情報に応じた仮想画像を表示機器に表示させる画像表示装置。【選択図】図1

Description

本発明は、画像表示装置及び画像表示方法に関するものである。
従来より、広告用車両を用いた広告システムが知られている(特許文献1)。広告用車両は、車体全体を覆うように取り付けられるボディー部と、ボディー部の表面に形成される面状の広告部を備えている。また、この広告システムは、画像又は動画を撮像する撮像手段と、撮像手段で撮像された画像中又は動画中に写った空間上の座標位置を示す座標ポイントを検出する検出手段と、検出手段によって検出された座標ポイントに基づいて、画像内又は動画内の空間座標及び立体形状を特定する解析手段と、解析手段が特定した空間座標及び立体形状に合致させてコンピューターグラフィックを画像又は動画に合成する合成手段と、合成手段が合成した画像又は動画を表示する表示手段とを備えている。また、この広告システムにおいて、広告用車両のボディー部の外表面又は広告部には、ボディー部表面上に複数の座標ポイントが表示され、広告コンテンツとしては、商社名や社名等のテキストデータや、3Dデータ等が配信される。
特開2017-181842号公報
従来技術での広告コンテンツは、ユーザの特性や状況に応じて変わるものではないため、従来技術では、広告用車両という現実空間に対して、ユーザの特性や状況に応じて変わる情報を重畳して表示させることができない、という問題がある。
本発明が解決しようとする課題は、現実空間に対してユーザに応じた情報を重畳して表示させることが可能な画像表示装置及び画像表示方法を提供することである。
本発明は、景色から、表示機器に表示される重畳画像において仮想画像が表示される表示領域を検出し、表示機器に関連付けられた、ユーザに関するユーザ情報を取得し、ユーザ情報に応じた仮想画像が景色に重畳するように、仮想画像を含む重畳画像を表示機器に表示させることにより、上記課題を解決する。
本発明によれば、現実空間に対してユーザに応じた情報を重畳して表示させることができる。
図1は、第1実施形態に係る画像表示システムの構成概略図である。 図2は、図1に示すコントローラの機能を説明するための図である。 図3は、仮想画像の表示対象領域である表示領域を説明するための図である。 図4は、第1実施形態に係る非透過型表示機器が表示する重畳画像において、広告画像の表示位置及び大きさを説明するための図である。 図5は、図4に示す非透過型表示機器に表示される広告画像の例を説明するための図である。 図6は、図1に示すコントローラにより実行される画像表示方法の手順の一例を示すフローチャートである。 図7は、第2実施形態に係る画像表示システムの構成概略図である。 図8は、第2実施形態に係る透過型表示機器が表示する重畳画像において、広告画像の表示位置及び大きさを説明するための図である。 図9は、第3実施形態に係る画像表示システムの構成概略図である。
以下、本発明に係る画像表示装置及び画像表示方法の実施の形態を図面に基づいて説明する。
≪第1実施形態≫
図1は、第1実施形態に係る画像表示システム100の構成概略図である。図1に示すように、画像表示システム100は、車両10に搭載されたシステムである。図1の例では、車両10に二人の人間(ユーザA、B)が乗車している。本実施形態に係る画像表示システム100は、ユーザAが携帯する携帯機器1と、車載機器2と、画像表示装置3を含む。画像表示システム100の各構成間は、所定の有線の通信規格(例えば、CAN)又は無線の通信規格(例えば、Bluetooth(登録商標))により通信可能となっており、構成間で情報の送受信が可能なように構成されている。なお、車両10は、図1に示す構成に限られず、例えばエンジン、モータ等の駆動類、車両10の室内を撮像する車内カメラ、車両10の室内に設けられた収音マイク及び車載スピーカーなどの補器類、及びバッテリ等を有している。また以降の説明において、現在地の周辺を表す「現在地周辺」の用語は、現在地を含む所定の範囲内という意味で用いられ、所定の範囲での現在地の場所や所定の範囲の大きさなどは特に限定されるものではない。例えば、所定の範囲の大きさは、ユーザの移動手段に応じて適宜変更することが可能である。また例えば、現在地が移動した場合、現在地周辺も移動先の現在地に応じて変わる。
本発明に係る画像表示装置及び画像表示方法は、情報の付加により現実空間を拡張する技術として知られている、拡張現実(拡張現実:AR:Augmented Reality)の分野に利用される。従来から、拡張現実の実現方法としては、非透過型表示機器を用いて拡張現実を実現するビデオシースルー方式と、透過型表示機器を用いて拡張現実を実現するシースルー方式とが知られている。本実施形態では、ビデオシースルー方式として、画像表示装置3が携帯機器1の表示機器に仮想画像を重畳して表示させる例を説明する。仮想画像とは、現実空間に存在しない仮想の画像である。また本実施形態では、仮想画像を視認するユーザとして、携帯機器1を介して仮想画像を視認するユーザAを例に挙げて説明する。また本実施形態では、図1に示すように、車両10にはユーザAの他に、ユーザBが乗車している場合を例に挙げて説明する。なお、ユーザA、Bは、車両10のドライバー及びドライバー以外のその他の乗員のいずれであってもよい。仮想画像の画像内容については後述する。
携帯機器1は、少なくとも、撮像装置(以降、携帯カメラともいう)と、ユーザーインターフェース(例えば、タッチパネル式ディスプレイ等)と、CPU、メモリ、記憶装置等を備えるコンピュータとを含むように構成されている。携帯機器1は、ユーザが携帯可能な機器であって、車両10とは別体の機器である。携帯カメラは、携帯機器1の所定の位置に設けられ、レンズが向く方向を撮像する。本実施形態において、携帯カメラにより撮像可能な画像は、少なくとも、静止画及び動画のうち何れか一つであればよい。携帯カメラにより撮像された撮像画像は、所定周期ごとに、画像情報として画像表示装置3に出力される。ユーザーインターフェースは、非透過型表示機器(以降、携帯ディスプレイともいう)を含む。携帯機器1としては、例えば、スマートフォン、タブレット等が挙げられる。
例えば、ユーザAが携帯機器1の拡張現実用アプリケーションを起動させると、携帯ディスプレイは、非透過型表示機器として機能する。携帯カメラにより撮像された景色の撮像画像(以降、景色画像ともいう)は、画像表示装置3に出力される。そして、後述する画像表示装置3での処理が終了して、画像表示装置3から景色画像及び仮想画像を含む重畳画像の情報が携帯機器1に入力されると、携帯ディスプレイには重畳画像が表示される。重畳画像は、現実空間を映しだす景色画像に対して仮想画像が重畳した画像である。ユーザは、携帯ディスプレイを介して、仮想画像が現実空間に重畳しているような感覚を感じる。ビデオシースルー方式の拡張現実により、ユーザは現実空間を認識するとともに、仮想画像により示される情報を認識することができる。
車載機器2は、画像表示システム100に関する車両10の搭載機器である。図1に示すように、車載機器2は、位置検出装置21、経路案内装置22、通信装置23、及びデータベース24を含む。
位置検出装置21は、車両10の現在地を検出するための装置であり、例えばGPS機器を用いることができる。本実施形態では、例えば、上述した携帯機器1において拡張現実機能が有効に設定されると、位置検出装置21は、拡張現実機能が有効に設定されたときの車両10の位置情報を取得する。位置検出装置21により取得された車両10の位置情報は、ユーザAの位置情報として画像表示装置3に出力される。また本実施形態では、位置検出装置21は、所定の期間ごとに車両10の位置情報を取得し、車両10の位置情報を経路案内装置22に出力する。
経路案内装置22は、車両10の乗員に経路案内するための装置であり、例えばカーナビゲーション装置を用いることができる。経路案内装置22には、位置検出装置21から車両10の位置情報が所定周期ごとに入力される。経路案内装置22は、車両10の現在地から車両10の目的地(例えば、乗員により設定された目的地)までの車両10の走行経路を生成し、生成した走行経路を乗員に案内する。例えば、経路案内装置22は、車載スピーカーを介して音声にて車両10の走行経路を案内し、又は経路案内装置22に備わる車載ディスプレイを介して画面表示にて車両10の走行経路に乗員に案内する。経路案内装置22により生成された車両10の走行経路は、ユーザAの移動手段を示す移動手段情報として画像表示装置3に出力される。
通信装置23は、車両10の外部との間で無線により情報を送受信する無線通信機能を備えた装置であって、例えば、テレマティクスコントロールユニット(TCU:Telematics Control Unit)が挙げられる。通信装置23は、無線通信機能により、例えば、4G/LTE、Wifi(登録商標)等の通信規格を利用して、インターネットに接続し、車両10の外部に設けられたサーバーやシステムとの間で様々な情報の送受信を行う。本実施形態では、通信装置23は、車両10の現在地周辺の天気に関する情報(以降、天気情報ともいう)、現在時刻の情報(以降、時間情報ともいう)を車両10の外部から取得する。通信装置23により取得された天気情報及び時間情報は、画像表示装置3に出力される。
データベース24は、画像表示システム100に関する様々な情報を格納する。本実施形態では、データベース24は、情報のカテゴリが異なる、ユーザ情報、広告情報、及び車両情報をそれぞれ格納する。ユーザ情報は、ユーザの特性及び状況のうち少なくとも何れか一つを示す情報であって、ユーザ情報としては、例えば、ユーザの性別を示す性別情報、ユーザの年齢を示す年齢情報、ユーザの嗜好を示す嗜好情報、ユーザを識別可能な個人識別情報、ユーザがインターネット経由で購入した物品又はサービスの購買履歴(以降、購買履歴情報ともいう)が挙げられる。本実施形態では、データベース24は、ユーザ情報として、上述した各種情報の例のうち少なくとも何れか一つを格納していればよい。データベース24から画像表示装置3には、画像表示装置3からの要求信号に応じた各種情報が出力される。例えば、ユーザが携帯機器1にユーザ情報の各項目を予め入力することで、携帯機器1からデータベース24にユーザ情報が出力され、データベース24にはユーザ情報が格納される。
広告情報は、ユーザに広告を提示するために画像表示装置3で用いられる情報であって、本実施形態では、地図情報に基づく広告の位置情報(以降、広告位置情報ともいう)と、広告内容に関する情報(以降、広告内容情報ともいう)を含む。広告の位置情報は、現存する看板広告の位置情報と、拡張現実により仮想画像を表示させるためのマーカー(以降、ARマーカーともいう)の位置情報とを含む。ARマーカーは、後述する画像表示装置3の機能において、仮想画像の表示位置を示すマーカーとして用いられる表示位置認識用のマーカーである。看板広告としては、屋上看板、壁面看板、突き出し看板、電柱広告、野立て看板等が例示できる。本実施形態では、道路に設けられ、通行人や車両10の乗員に店舗や企業などをPR、案内、誘導するための野点看板を例に挙げて説明する。広告内容情報は、画像表示装置3によって現実空間に対して重畳して表示される仮想画像の情報である。仮想画像は、図形の画像、文字の画像、及びこれらの組み合わせの画像を含む。本実施形態では、仮想画像として、店舗が広告するための広告画像を例に挙げて説明する。例えば、広告画像は、通信装置23により車両10の外部から予め取得された後、データベース24に格納される。
車両情報は、車両10の状態を示す情報であって、本実施形態では、車両10の駆動源の残量(ガソリン自動車やハイブリッド自動車の場合におけるガソリンの残量、電気自動車におけるバッテリの残量)を示す情報を含む。データベース24に格納される車両10の駆動源の残量情報は、駆動源の残量を管理する車載コンピュータ(図示しない)により所定の周期で更新される。
次に、画像表示装置3について説明する。画像表示装置3は、ハードウェア及びソフトウェアを備えたコンピュータにより構成され、プログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されている。図1に示すように、画像表示装置3は、コントローラ31を備えている。コントローラ31は、上述したコンピュータに相当する。
図2は、図1に示すコントローラ31の機能を説明するための図である。図2に示すように、コントローラ31には、広告情報取得部32と、ユーザ位置情報取得部33と、ユーザ情報取得部34と、同伴者認識部35と、表示領域検出部36と、表示情報判断部37と、画像表示部38が含まれる。これらのブロックは、ROMに確立されたソフトウェアによって、後述する各機能を実現する。
広告情報取得部32は、車載機器2から、広告位置情報及び広告内容情報を含む広告情報を取得する。本実施形態では、広告情報取得部32は、データベース24に格納される広告位置情報から、広告位置が車両10の現在地周辺を示す広告位置情報を抽出する。また広告情報取得部32は、データベース24に格納される広告内容情報から、車両10の現在地周辺に位置する店舗の広告内容情報を抽出する。広告情報取得部32により取得された広告情報は、表示情報判断部37に出力される。
ユーザ位置情報取得部33は、車載機器2からユーザ位置情報を取得する。本実施形態では、ユーザ位置情報取得部33は、ユーザAの現在地の情報として、位置検出装置21から車両10の現在地を取得する。またユーザ位置情報取得部33は、通信装置23を介して、車両10の現在地周辺の天気情報と、現在の時刻の情報を取得する。ユーザ位置情報取得部33により取得されたユーザ位置情報は、表示情報判断部37に出力される。なお、本実施形態では、ユーザ位置情報取得部33により取得されるユーザ位置情報として、ユーザAの現在地の情報、ユーザAの現在地周辺の天気情報、及び現在の時刻の情報を例に挙げて説明するが、ユーザ位置情報は、少なくとも、ユーザAの位置情報を含んでいればよい。また、ユーザ位置情報取得部33によるユーザAの位置情報の取得元は、位置検出装置21に限られず、例えば、携帯機器1が位置検出装置21と同等の機能(例えば、GPS機能)を備えている場合、ユーザ位置情報取得部33は、ユーザAの現在地の情報として、携帯機器1から携帯機器1の現在地を取得してもよい。
ユーザ情報取得部34は、表示機器に関連付けられたユーザ情報を取得する。本実施形態では、ユーザ情報取得部34は、車載機器2から、携帯機器1を携帯するユーザAに関するユーザ情報を取得する。ユーザ情報取得部34は、データベース24に格納されるユーザAの性別、年齢、嗜好、個人識別情報、及び購買履歴情報を取得し、また経路案内装置22から車両10の走行経路を取得する。ユーザ情報取得部34により取得されたユーザ情報は、表示情報判断部37に出力される。なお、本実施形態では、ユーザ情報取得部34に取得されるユーザ情報として、ユーザAの性別情報、ユーザAの年齢情報、ユーザAの嗜好情報、ユーザAの個人識別情報、ユーザAの購買履歴情報、及びユーザAの移動手段情報を例に挙げて説明するが、ユーザ情報は、性別情報、年齢情報、嗜好情報、個人識別情報、購買履歴情報、及び移動手段情報のうち少なくとも何れか一つ含んでいればよい。また、ユーザ情報取得部34によるユーザ情報の取得元は、車載機器2に限られず、例えば、携帯機器1にユーザ情報が登録されている場合、ユーザ情報取得部34は、携帯機器1からユーザ情報を取得してもよい。また例えば、拡張現実用アプリケーションを使用するために、ユーザ情報を含むユーザアカウント等の登録が必要な場合、ユーザ情報取得部34は、通信装置23を介して、拡張現実用アプリケーションのアカウントを管理するサーバーから、ユーザ情報を取得してもよい。
また、ユーザ情報取得部34は、携帯機器1を携帯するユーザAを識別するために、携帯機器1から携帯機器1の登録情報(アカウント等のユーザID)を取得する。そして、ユーザ情報取得部34は、データベース24に格納される情報から、携帯機器1に登録されたユーザAに関するユーザ情報を検索して取得する。これにより、ユーザ情報取得部34は、ユーザBではなく、携帯機器1に関連付けられた、ユーザAのユーザ情報を取得することができる。またユーザ情報取得部34は、重畳画像の提示対象として、携帯機器1に登録されているユーザAを、提示対象ユーザとして特定する。
同伴者認識部35は、ユーザ情報取得部34により認識された提示対象ユーザから、所定の範囲内に位置する同伴者を認識する。本実施形態では、同伴者認識部35は、車内カメラから、車両10の室内の様子を示す撮像画像を取得し、撮像画像に対して画像認識処理を実行することで、提示対象ユーザには同伴者が存在するか否かを判定する。同伴者認識部35により判定された同伴者の存否結果は、表示情報判断部37に出力される。図1の例では、同伴者認識部35は、車両10の室内の様子を示す撮像画像から、ユーザBを提示対象ユーザ(ユーザA)の同伴者として認識し、同伴者が存在すると判定する。
表示領域検出部36は、ユーザが視認する景色から、非透過型表示機器が表示する重畳画像において、仮想画像が表示される表示領域を検出する。表示領域検出部36は、表示機器の種別に応じた撮像装置から、画像情報を取得し、取得した画像情報に対して画像認識処理を実行する。例えば、本実施形態では、ユーザが携帯機器1の拡張現実用アプリケーションを起動させると、表示領域検出部36は、携帯機器1の携帯カメラから、撮像画像(携帯カメラが向むけられた方向の景色が写る撮像画像)を取得する。また、表示領域検出部36は、データベース24から、広告看板の位置又はARマーカーの位置が車両10の現在地周辺の位置を示す広告位置情報を取得する。
次に、図3を用いて、表示領域検出部36による表示領域の検出方法について説明する。図3は、仮想画像の表示対象領域である表示領域を説明するための図である。図3は、携帯カメラにより撮像された撮像画像の一例である。撮像画像には、車両10の前方景色が写されている。例えば、図3に示すように、車両10の前方には、野立て看板A1(以降、単に看板A1ともいう)と、ARマーカー用の看板M1(以降、単に看板M1ともいう)が存在したとする。看板A1には、店舗による広告Aを表示する広告板A2が設けられている。また看板M1には、ARマーカーMを表示するARマーカー用板M2が設けられている。
図3の例において、表示領域検出部36は、撮像画像に対して画像認識処理を実行することで、重畳画像全体において仮想画像が表示される表示領域を検出する。例えば、表示領域検出部36は、まず、撮像画像に写る看板A1を認識すると、看板A1における広告板A2の位置(撮像画像上での広告板A2の高さ)を検出する。表示領域検出部36は、次に、広告板A2が占有する大きさの領域を、仮想画像が表示される表示領域として検出する。また例えば、表示領域検出部36部は、まず、撮像画像に看板M1を認識すると、看板M1におけるARマーカー用板M2の位置(撮像画像上でのARマーカー用板M2の高さ)を検出する。表示領域検出部36は、次に、ARマーカー用板M2を特定することで、ARマーカーMを、仮想画像が表示される表示領域として検出する。図3の例では、表示領域検出部36による処理の結果、広告Aの位置及び大きさに相当する領域と、ARマーカーMの位置及び大きさに相当する領域は、それぞれ、表示領域として検出される。表示領域検出部36により検出された表示領域の情報は、図2に示す表示情報判断部37及び画像表示部38に出力される。なお、表示領域検出部36による画像認識処理は、本願出願時に知られた画像認識処理を適用できるものとする。また表示領域検出部36は、所定周期ごとに、表示領域の検出処理を実行する。これにより、例えば、車両10の移動に伴い、撮像画像に写る看板A1及び看板Bの位置及び/又はその大きさが変化しても、撮像画像における表示領域の大きさ及び位置を検出することができる。
図2に戻り、コントローラ31の機能について説明する。表示情報判断部37は、ユーザの特性及びユーザの状況のうち少なくとも何れか一つに基づき、非透過型表示機器に表示させる情報(以降、表示情報ともいう)を判断し、判断結果に基づき、ユーザに応じた仮想画像を生成する。
図2に示すように、表示情報判断部37には、広告情報取得部32から広告情報が入力され、ユーザ位置情報取得部33からユーザ位置情報が入力され、ユーザ情報取得部34からユーザ情報が入力され、同伴者認識部35から同伴者の存否結果が入力され、表示領域検出部36から表示領域情報が入力される。本実施形態では、表示情報判断部37は、入力される各種情報からユーザの特性及び状況を判定し、ユーザの特性及びユーザの状況に応じた広告画像を選択する。選択された広告画像の例については後述する。
画像表示部38は、表示情報判断部37から入力されたユーザ情報に応じた仮想画像が、ユーザが視認する景色に重畳するように、仮想画像を含む重畳画像を表示機器に表示させる。本実施形態では、例えば、ユーザAが携帯機器1の拡張現実用アプリケーションを起動させると、画像表示部38は、ユーザAのユーザ情報に応じた広告画像が携帯カメラにより撮像された景色画像に重畳するように、広告画像及び景色画像を含む重畳画像を携帯ディスプレイに表示させる。
図4は、携帯ディスプレイ(非透過型表示機器)が表示する重畳画像において、広告画像の表示位置及び大きさを説明するための図である。図4は、携帯機器1の携帯ディスプレイに、図3に示す車両10の前方景色が表示された様子を表す図である。図4に示すように、図3に示す車両10の前方景色が写る景色画像に対して、図3の広告Aに対応した位置には広告Bの広告画像B1が表示され、図3のARマーカーMに対応した位置には、広告Cの広告画像C1が表示されている。現実空間においてユーザAが携帯ディスプレイを介して視認する広告の位置に、広告画像B1、C1が表示されているため、ユーザAは、広告画像の表示位置に対して違和感を覚えることなく、広告画像B1、C1を視認できる。また現実空間においてユーザAが携帯ディスプレイを介して視認する広告の大きさに対応した広告画像B1、C1が表示されるため、ユーザAは、広告画像B1、C1の大きさに対して違和感を覚えることなく、広告画像B1、C1を視認できる。
図5は、図4に示す携帯ディスプレイに表示される広告画像の例を説明するための図である。図5において、左側の広告Aは、現存する広告看板の広告であり、例えば、図3に示す広告Aに対応する。上述したコントローラ31の処理によって、図3に示す広告Aに対して、ユーザ情報に応じて異なる広告画像が表示される。なお、図5に示すユーザD~ユーザFは、図1に示すユーザAのように、携帯機器1を携帯して車両10に乗車しているユーザとする。
例えば、ユーザDのユーザ情報が「性別:男性、年齢:40歳、同伴者なし、移動手段:車両」を示し、現在時刻が正午前後の場合、コントローラ31は、男性が一人で昼食をとることが可能な飲食店の情報を表示情報として判断する。そして、コントローラ31は、ユーザDの現在地周辺に位置するラーメン屋の広告画像D1を、図3に示す広告Aの位置に表示させる。また例えば、ユーザEのユーザ情報が「性別:女性、年齢:35歳、同伴者あり、移動手段:車両」を示し、現在時刻が午後3時前後であり、天気が雨の場合、コントローラ31は、女性が同伴者(図1に示すユーザBを参照)と一緒に休憩可能な飲食店の情報を表示情報として判断する。そして、コントローラ31は、ユーザEの現在地周辺に位置する喫茶店の広告画像E1を、図3に示す広告Aの位置に表示させる。また例えば、ユーザFのユーザ情報が「性別:女性、年齢:25歳、同伴者あり、移動手段:車両」を示し、車両10の駆動源の残量(ガソリンの残量)が所定量以下の場合、コントローラ31は、給油するためにガソリンスタンドの情報を表示情報として判断する。そして、コントローラ31は、ユーザFの現在地周辺に位置するガソリンスタンドの広告画像F1を、図3に示す広告Aの位置に表示させる。このように、同じ広告Aの位置に表示される広告画像であっても、ユーザの特性及びユーザの状況に応じて異なる広告画像D1~広告画像F1が表示される。
図6は、図1に示すコントローラ31により実行される画像表示方法の手順の一例を示すフローチャートである。ステップS1では、コントローラ31は、AR情報を提示するか否かを判定する。AR情報とは、現実空間に存在しない情報であって、本実施形態では、広告画像に相当する。例えば、コントローラ31は、携帯機器1から、ユーザAが携帯機器1の拡張現実用アプリケーションを起動させたことを示すユーザAの操作信号を取得した場合、AR情報を提示すると判定する。一方、コントローラ31は、携帯機器1から上記ユーザAの操作信号を取得できない場合、AR情報を提示しないと判定する。コントローラ31により肯定的な判定がされた場合、ステップS2に進み、否定的な判定がされた場合、コントローラ31は、図6に示す処理を終了させる。
ステップS2では、コントローラ31は、AR情報を表示させるために必要な各種情報を取得する。本実施形態では、コントローラ31は、車載機器2から、広告情報と、ユーザ位置情報と、天気情報と、時間情報と、ユーザ情報を取得する。またコントローラ31は、ユーザAを識別するために、携帯機器1から携帯機器1の登録情報を取得する。またコントローラ31は、ユーザAの同伴者の存否を判定するために、車内カメラから車両10の室内の撮像画像を取得する。
ステップS3では、コントローラ31は、ステップS2で取得した広告位置情報から、非透過型表示機器に表示される重畳画像において、広告画像が表示される表示領域を検出する。例えば、コントローラ31は、ユーザAの現在地周辺に設けられた看板広告又はARマーカーを抽出する。またコントローラ31は、携帯機器1により撮像された撮像画像に対して画像処理を実行することで、撮像画像に含まれる看板広告又はARマーカーを認識する。コントローラ31は、撮像画像に含まれる看板広告の領域を表示領域として検出する。またコントローラ31は、撮像画像に含まれるARマーカーの領域を表示領域として検出する。
ステップS4では、コントローラ31は、ステップS2で取得した広告情報、ユーザ位置情報、ユーザ情報、及びステップS3で検出した表示領域に基づき、非透過型表示機器に表示させる表示情報を判断する。例えば、図5を用いて説明したように、コントローラ31は、ユーザの性別、年齢、嗜好、同伴者の存否、及び移動手段(車両情報を含む)に応じて表示情報を判断する。本実施形態では、コントローラ31は、判断された表示情報に基づく広告画像を選択する。
ステップS5では、コントローラ31は、ステップS4で判断された表示情報に基づき、非透過型表示機器に表示させる重畳画像を生成する。本実施形態では、コントローラ31は、携帯カメラにより撮像された景色画像及びステップS4で選択した広告画像を含む重畳画像を生成する。コントローラ31は、ステップS3で検出した表示領域に広告画像が表示されるように、重畳画像を生成する。
ステップS6では、コントローラ31は、ステップS5で生成した重畳画像を非透過型表示機器に出力する。本実施形態では、コントローラ31は、ユーザ情報に応じた広告画像が景色画像に重畳するように、広告画像及び景色画像を含む重畳画像を非透過型表示機器に表示させる。
ステップS7では、コントローラ31は、AR情報の提示を継続するか否かを判定する。このステップは、ステップS1に対応するため、コントローラ31による処理内容については、ステップS1での説明を援用する。コントローラ31により肯定的な判定がされた場合、ステップS2に戻り、否定的な判定がされた場合、コントローラ31は、図6に示す処理を終了させる。ステップS2に戻ると、ステップS7で否定的な判定がされるまで、ステップS2~ステップS6の処理が繰り返し実行され、非透過型表示機器にはAR情報が表示し続ける。
以上のように、本実施形態に係る画像表示装置3は、広告画像が景色に重畳するように、広告画像を含む重畳画像を非透過型表示機器に表示させる画像表示部38と、携帯カメラにより撮像された景色画像から、重畳画像において広告画像が表示される表示領域を検出する表示領域検出部36と、非透過型表示機器に関連付けられた、ユーザに関するユーザ情報を取得するユーザ情報取得部34とを備える。画像表示部38は、ユーザ情報に応じた広告画像が景色画像に重畳するように、広告画像及び景色画像を含む重畳画像を非透過型表示機器に表示させる。これにより、現実空間にユーザに応じた広告画像の情報を重畳して表示させることができる。
また本実施形態では、ユーザ情報は、携帯ディスプレイに表示される画像を視認するユーザの特性及び状況のうち少なくとも何れか一方を示す情報である。これにより、ユーザの特性や状況に適した広告画像を表示させることができる。
また本実施形態では、ユーザ情報は、ユーザの個人識別情報、ユーザの移動手段情報、ユーザの嗜好情報、及びユーザの購買履歴情報のうち少なくとも何れか一つを含む。これにより、ユーザの特性や状況にあわせて、表示領域に広告画像の情報を表示させることができる。例えば、ユーザ個人の特性に特化した広告画像の情報、ユーザの移動手段や状況に応じた広告画像の情報、ユーザの嗜好に合わせた広告画像の情報、ユーザの購買履歴に合わせた広告画像の情報等をユーザに提示することができる。
また本実施形態では、現実空間に存在しない仮想画像は広告画像であり、広告画像が表示される表示領域は、景色の中にある看板の領域である。これにより、現存する看板の部分に広告画像の情報が表示されるため、ユーザは広告画像の情報があたかも現存する看板の情報に錯覚する。その結果、広告画像の表示位置に対するユーザの違和感を低減させることができる。ユーザは現実空間も同時に視認できるため、ユーザの視界を確保しつつ広告画像の情報をユーザに提示することができる。
また本実施形態では、表示領域検出部36は、景色画像から仮想画像の表示位置を示すARマーカーを特定することで、表示領域を検出する。これにより、表示領域の位置及び範囲を精度よく検出できる。また、表示領域とそれ以外の領域との識別が容易にできる。
また本実施形態に係る画像表示装置3は、ARマーカーの位置に関するマーカー位置情報を取得する広告情報取得部32と、ユーザの位置に関するユーザ位置情報を取得するユーザ位置情報取得部33とを備える。表示領域検出部36は、マーカー位置情報及びユーザ位置情報に基づいて、ユーザから所定の範囲内に位置するARマーカーを特定する。これにより、ユーザが携帯機器を介して視認可能なARマーカーを特定することができる。
また本実施形態に係る画像表示装置3は、ユーザから所定の範囲内に位置するユーザの同伴者を認識する同伴者認識部35を備える。画像表示部38は、同伴者が認識された場合、ユーザAと同伴者であるユーザBとの組み合わせに応じた広告画像を非透過型表示機器に表示させる。これにより、ユーザの同伴者を考慮した広告画像の情報をユーザに提示することができる。例えば、図5を用いて説明したように、同伴者と一緒に休憩可能な喫茶店の広告画像の情報を、ユーザに提示することができる。
また本実施形態では、非透過型表示機器に表示される重畳画像を視認するユーザは、車両10の乗員である。これにより、ユーザが車両10で移動する状況においても、ユーザに適した広告画像を表示させることができる。
≪第2実施形態≫
図7は、第2実施形態に係る画像表示システム200の構成概略図である。上述した第1実施形態では、携帯機器1を用いたビデオシースルー方式を説明したが、本実施形態では、シースルー方式として、画像表示装置3が車両10のフロントガラスに仮想画像を重畳して表示させる例を説明する。画像表示システム200は、車載機器2と、車両10のフロントガラスと一体的に構成されるヘッドアップディスプレイ4と、画像表示装置3を含む。図7において、画像表示システム100と同様の構成については、図1に示す符号と同様の符号を付している。画像表示システム100と同じ構成については既述の説明を援用し、画像表示システム100と異なる点を説明する。
ヘッドアップディスプレイ4は、例えば、車両10のフロントガラスの下部位置に設けられ、灯光器によりフロントガラスに画像を表示する機器である。ヘッドアップディスプレイ4において、フロントガラスは、透過型表示機器として機能する。ヘッドアップディスプレイ4は、少なくとも、CPU、メモリ、記憶装置等を備えるコンピュータを含むように構成されている。
例えば、ユーザAがヘッドアップディスプレイの拡張現実機能が有効となるように設定すると、後述する撮像装置25により撮像された画像は、ユーザAが車両10の前方を視認する範囲の画像(ユーザAの視界相当の画像)として、画像表示装置3に出力される。そして、後述する画像表示装置3での処理が終了して、画像表示装置3から仮想画像を含む重畳画像の情報がヘッドアップディスプレイ4に入力されると、フロントガラスには重畳画像が表示される。ユーザAは、フロントガラスを介して、フロントガラスに対して自身と反対側に位置する現実空間を認識することができる。フロントガラスに画像表示装置3からの重畳画像が表示された場合、ユーザAは、仮想画像が現実空間に重畳しているような感覚を感じる。シースルー方式の拡張現実により、ユーザAは現実空間を認識するとともに、仮想画像により示される情報を認識することができる。また本実施形態では、ユーザA及びユーザBに視認可能なヘッドアップディスプレイを用いたシースルー方式のため、ユーザAだけでなく、ユーザBも現実空間を認識するとともに、仮想画像により示される情報を認識することができる。
図7に示すように、本実施形態では、車載機器2は、位置検出装置21、経路案内装置22、通信装置23、データベース24、及び撮像装置25を含む。
撮像装置25は、車両10の室外を撮像する車外カメラ、及び車両10の室内を撮像する車内カメラを含む。車外カメラは、例えば、車両10の前方の所定位置に設けられ、車両10の前方を撮像する。また車内カメラは、車両10の室内の所定位置に設けられ、車両10の室内を撮像する。本実施形態において、撮像装置25により撮像可能な画像は、静止画及び動画のうち少なくとも何れか一つであればよい。車外カメラより撮像された撮像画像は、所定周期ごとに、画像情報として画像表示装置3に出力される。また車内カメラにより撮像された撮像画像は、乗車人数情報として画像表示装置3に出力される。なお、撮像装置25の種類、数、及び設置位置は特に限定されない。
次に、本実施形態に係る画像表示装置3の機能のうち、第1実施形態に係る画像表示装置3の機能と異なる点を説明する。
本実施形態では、ユーザ情報取得部34は、車載機器2から、ヘッドアップディスプレイ4を視認するユーザに関するユーザ情報を取得する。また、ユーザ情報取得部34は、ヘッドアップディスプレイ4を視認するユーザを識別するために、データベース24から車両10の登録情報(車両の所有者を示すID等)を取得する。そして、ユーザ情報取得部34は、データベース24に格納される情報から、車両10の所有者に関するユーザ情報を検索して取得する。これにより、ユーザ情報取得部34は、ヘッドアップディスプレイ4に関連付けられたユーザ情報を取得することができる。図7の例では、ユーザ情報取得部34は、ユーザBではなく、車両10の所有者であるユーザAに関するユーザ情報を取得する。またユーザ情報取得部34は、仮想画像を含む重畳画像の提示対象として、車両10の所有者であるユーザAを、提示対象ユーザとして特定する。
本実施形態に係る同伴者認識部35は、上述した第1実施形態と同様に、車内カメラから、車両10の室内の様子が写る撮像画像を取得し、撮像画像に対して画像認識処理を実行することで、提示対象ユーザには同伴者が存在するか否かを判定する。図7の例では、同伴者認識部35は、車両10の室内が写る撮像画像から、ユーザBを提示対象ユーザであるユーザAの同伴者として認識し、同伴者が存在すると判定する。
本実施形態では、表示領域検出部36は、ユーザが視認する景色から、透過型表示機器が表示する重畳画像において、仮想画像が表示される表示領域を検出する。例えば、ユーザAがヘッドアップディスプレイ4の拡張現実機能が有効となるように設定すると、表示領域検出部36は、撮像装置25により撮像された撮像画像(車両10の前方景色が写る撮像画像)を取得する。
本実施形態では、表示情報判断部37は、ユーザの特性及びユーザの状況のうち少なくとも何れか一つに基づき、透過型表示機器に表示させる表示情報を判断し、判断結果に基づき、ユーザに応じた広告画像を選択する。
本実施形態では、画像表示部38は、表示情報判断部37から入力された仮想画像が、ユーザが視認する景色に重畳するように、仮想画像を含む重畳画像を表示機器に表示させる。例えば、ユーザAがヘッドアップディスプレイ4の拡張現実機能が有効となるように設定すると、画像表示部38は、ユーザAのユーザ情報に応じた広告画像が、ユーザAが視認する車両10の前方景色に重畳するように、広告画像を含む重畳画像をフロントガラスに表示させる。
図8は、フロントガラス(透過型表示機器)が表示する重畳画像において、広告画像の表示位置及び大きさを説明するための図である。図8は、フロントガラスに、図3に示す車両10の前方景色が表示された様子を表す図である。図8に示すように、図3に示す車両10の前方景色に対して、図3の広告Aに対応した位置には広告Bの広告画像B1が表示され、図3のARマーカーMに対応した位置には、広告Cの広告画像C1が表示されている。現実空間においてユーザAがフロントガラスを介して視認する広告の位置に、広告画像B1、C1が表示されている。また現実空間においてユーザAがフロントガラスを介して視認する広告の大きさに対応した広告画像B1、C1が表示される。このため、第1実施形態において、図4を用いて説明した効果と同様の効果を得ることができる。
以上のように、本実施形態に係る画像表示部38は、ユーザ情報に応じた広告画像がフロントガラスを介したユーザの視界に重畳するように、広告画像を含む重畳画像を、車両10の前方に設けられたフロントガラスに表示させる。これにより、ユーザが車両10で移動する状況においても、ユーザに適した広告画像を車両の前方に表示させることができる。
≪第3実施形態≫
図9は、第3実施形態に係る画像表示システム300の構成概略図である。上述した第2実施形態では、ヘッドアップディスプレイ4を用いたシースルー方式を説明したが、本実施形態では、シースルー方式として、画像表示装置3がAR機器5の表示機器に仮想画像を重畳して表示させる例を説明する。画像表示システム300は、車載機器2と、ユーザAが装着しているAR機器5と、画像表示装置3を含む。図9において、画像表示システム100、200と同様の構成については、図1又は図7に示す符号と同様の符号を付している。画像表示システム100、200と同じ構成については既述の説明を援用し、画像表示システム100、200と異なる点を説明する。
AR機器5は、ユーザが装着可能な形態を有した機器(ウエアラブル機器ともいう)であって、車両10とは別体の機器である。AR機器5は、少なくとも、撮像装置(以降、ARカメラともいう)と、透過型表示機器(以降、ARディスプレイともいう)と、CPU、メモリ、記憶装置等を備えるコンピュータとを含むように構成されている。ARカメラは、ユーザの頭部が向く方向を撮像する外向きカメラと、ユーザの眼球を撮像する内向きカメラを含む。本実施形態において、ARカメラにより撮像可能な画像は、少なくとも、静止画及び動画のうち何れか一つであればよい。ARカメラにより撮像された撮像画像は、所定周期ごとに、画像情報として画像表示装置に出力される。AR機器5としては、例えば、ユーザの頭部に装着可能な眼鏡形状の機器(ARグラスともいう)が挙げられる。本実施形態では、ARグラスを例に挙げて説明するが、AR機器5の形状は眼鏡形状に限定されない。AR機器5の形状は、例えば、ユーザの頭部を覆う帽子形状又はヘルメット形状、ユーザの両目を覆うゴーグル形状であってもよい。
例えば、ユーザAがAR機器5を装着した状態で拡張現実機能が有効となるように設定すると、外向きカメラにより撮像された画像は、ユーザAの視界相当の画像として、画像表示装置3に出力される。そして、後述する画像表示装置3での処理が終了して、画像表示装置3から仮想画像を含む重畳画像の情報がAR機器5に入力されると、ARディスプレイには重畳画像が表示される。ユーザAは、ARディスプレイを介して、ARディスプレイに対して自身と反対側に位置する現実空間を認識することができる。ARディスプレイに画像表示装置3からの重畳画像が表示された場合、ユーザAは、仮想画像が現実空間に重畳しているような感覚を感じる。シースルー方式の拡張現実により、本実施形態でも、ヘッドアップディスプレイ4を用いた第2実施形態の場合と同様の効果を得ることができる。
次に、本実施形態に係る画像表示装置3の機能のうち、第1、2実施形態に係る画像表示装置3の機能と異なる点を説明する。
本実施形態では、ユーザ情報取得部34は、車載機器2から、ARディスプレイを視認するユーザに関するユーザ情報を取得する。また、ユーザ情報取得部34は、ARディスプレイを視認するユーザを識別するために、データベース24からAR機器5の登録情報を取得する。そして、ユーザ情報取得部34は、データベース24に格納される情報から、AR機器5を使用するユーザAに関するユーザ情報を検索して取得する。これにより、ユーザ情報取得部34は、ARディスプレイに関連付けられたユーザ情報を取得することができる。図9の例では、ユーザ情報取得部34は、ユーザBではなく、AR機器5を装着するユーザAに関するユーザ情報を取得する。またユーザ情報取得部34は、仮想画像を含む重畳画像の提示対象として、AR機器5を装着するユーザAを、提示対象ユーザとして特定する。
本実施形態では、表示領域検出部36及び画像表示部38は、第2実施形態に係る表示領域検出部36及び画像表示部38と同じ機能を有する。例えば、ユーザAがAR機器5を装着した状態で拡張現実機能が有効となるように設定すると、表示領域検出部36は、外向きカメラにより撮像された撮像画像(ユーザAの頭部の向く方向の景色が写る撮像画像)を取得する。また画像表示部38は、ユーザAのユーザ情報に応じた広告画像が、ユーザAが視認する景色に重畳するように、広告画像を含む重畳画像をARディスプレイに表示させる。
以上のように、本実施形態に係る画像表示部38は、ユーザ情報に応じた広告画像がARディスプレイを介したユーザの視界に重畳するように、広告画像を含む重畳画像をARディスプレイに表示させる。これにより、ユーザはAR機器を介してユーザに適した広告画像を視認することができる。
なお、以上に説明した実施形態及び変形例は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
例えば、上述した実施形態では、画像表示装置3が車両10に搭載されている場合を例に挙げて説明したが、画像表示装置3が設けられる場所は車両10以外であってもよい。例えば、画像表示装置3は、車両10の外部に設けられたサーバーであって、携帯機器1、AR機器5又は車両10と通信可能なサーバーに設けられてもよい。この場合、画像表示装置3は、携帯機器1、AR機器5、又は車両10との間で無線通信により情報の授受を行う。また例えば、上述した実施形態では、仮想画像を視認するユーザとして車両の乗員を例に挙げて説明したが、仮想画像を視認するユーザは車両に乗車していることに限定されない。本発明に係る画像表示装置及び画像表示方法は、例えば、歩道に位置するユーザにも適用することができる。なお、上述した実施形態と同様、本発明に係る画像表示装置及び画像表示方法は、ユーザが移動している状態か否かに関わらず、歩道に位置するユーザに適用できる。
また例えば、上述した実施形態では、撮像画像内のARマーカーの個数が一つの場合を例に挙げて説明したが、複数のARマーカーが存在する場合について説明する。表示領域検出部36は、ユーザから所定の範囲内に複数のARマーカーが存在する場合、ARマーカーの種類を判別することで、複数のARマーカーのそれぞれを特定する。例えば、表示領域検出部36は、ARマーカーごとに付された識別情報に基づき、ARマーカーの種類を判別する。複数のARマーカーそれぞれを識別して表示領域として特定することができるため、ユーザに合わせた広告画像の情報を複数の表示領域に表示させることができる。
また例えば、上述した実施形態では、車両情報として、車両の駆動源の残量情報を例に挙げて説明したが、車両情報はこれに限られず、例えば、車両情報は、車両の走行履歴の情報であってもよい。またユーザ情報取得部34は、経路案内装置22に格納された車両10の走行履歴から、ユーザ情報を特定してもよい。例えば、ユーザ情報取得部34は、車両10の走行履歴に含まれ、ユーザが経路案内装置22に入力した周辺地域の検索結果から、ユーザが検索する傾向にあるカテゴリ(駐車場、飲食店、遊園地)をユーザ情報として特定する。これにより、後段の表示情報判断部37は、ユーザが検索する傾向にあるカテゴリの情報を考慮して表示情報を判断するため、ユーザが検索する傾向にあるカテゴリの店舗の広告画像が表示機器に表示される。
1…携帯機器
2…車載機器
21…位置検出装置
22…経路案内装置
23…通信装置
24…データベース
25…撮像装置
3…画像表示装置
31…コントローラ
32…広告情報取得部
33…ユーザ位置情報取得部
34…ユーザ情報取得部
35…同伴者認識部
36…表示領域検出部
37…表示情報判断部
38…画像表示部
4…ヘッドアップディスプレイ
5…AR機器
10…車両
100、200、300…画像表示システム

Claims (14)

  1. 仮想画像が景色に重畳するように、前記仮想画像を含む重畳画像を表示機器に表示させる画像表示部と、
    前記景色から、前記重畳画像において前記仮想画像が表示される表示領域を検出する領域検出部と、
    前記表示機器に関連付けられた、ユーザに関するユーザ情報を取得するユーザ情報取得部と、を備え、
    前記画像表示部は、前記ユーザ情報に応じた前記仮想画像を前記表示機器に表示させる画像表示装置。
  2. 前記表示機器は、前記ユーザが携帯可能な携帯機器に備わる非透過型表示機器であり、
    前記景色は、前記携帯機器により撮像された前記景色の景色画像であり、
    前記画像表示部は、前記ユーザ情報に応じた前記仮想画像が前記景色画像に重畳するように、前記仮想画像及び前記景色画像を含む前記重畳画像を前記表示機器に表示させる請求項1に記載の画像表示装置。
  3. 前記表示機器は、前記ユーザの頭部に装着可能な装着機器に備わる透過型表示機器であり、
    前記景色は、前記表示機器を介した前記ユーザの視界であり、
    前記画像表示部は、前記ユーザ情報に応じた前記仮想画像が前記景色に重畳するように、前記仮想画像を含む前記重畳画像を前記表示機器に表示させる請求項1に記載の画像表示装置。
  4. 前記ユーザ情報は、前記表示機器に表示される画像を視認する前記ユーザの特性及び状況のうち少なくとも何れか一方を示す情報である請求項1~3の何れかに記載の画像表示装置。
  5. 前記ユーザ情報は、前記ユーザを識別する識別情報、前記ユーザの移動手段を示す移動手段情報、前記ユーザの嗜好を示す嗜好情報、及び前記ユーザの購買履歴を示す購買履歴情報のうち少なくとも何れか一つを含む請求項4に記載の画像表示装置。
  6. 前記仮想画像は、広告画像であり、
    前記表示領域は、前記景色の中にある看板の領域である請求項1~5の何れかに記載の画像表示装置。
  7. 前記領域検出部は、前記景色から前記仮想画像の表示位置を示すマーカーを特定することで、前記表示領域を検出する請求項1~6の何れかに記載の画像表示装置。
  8. 前記マーカーの位置に関するマーカー位置情報を取得する第1位置情報取得部と、
    前記ユーザの位置に関するユーザ位置情報を取得する第2位置取得部を備え、
    前記領域検出部は、前記マーカー位置情報及び前記ユーザ位置情報に基づいて、前記ユーザから所定の範囲内に位置する前記マーカーを特定する請求項7に記載の画像表示装置。
  9. 前記領域検出部は、前記ユーザから所定の範囲内に複数の前記マーカーが存在する場合、前記マーカーの種類を判別することで、前記複数のマーカーのそれぞれを特定する請求項8に記載の画像表示装置。
  10. 前記ユーザから所定の範囲内に位置する前記ユーザの同伴者を認識する同伴者認識部を備え、
    前記画像表示部は、前記同伴者が認識された場合、前記ユーザと前記同伴者との組み合わせに応じた前記仮想画像を前記表示機器に表示させる請求項1~9の何れかに記載の画像表示装置。
  11. 前記ユーザは、車両の乗員である請求項1~10の何れかに記載の画像表示装置。
  12. 前記表示機器は、前記車両の前方に設けられた透過型表示機器であり、
    前記景色は、前記表示機器を介した前記ユーザの視界であり、
    前記画像表示部は、前記ユーザ情報に応じた前記仮想画像が前記景色に重畳するように、前記仮想画像を含む前記重畳画像を前記表示機器に表示させる請求項11に記載の画像表示装置。
  13. 前記ユーザ情報取得部は、前記車両の走行履歴を含む前記車両に関する情報から、前記ユーザ情報を特定する請求項11又は12に記載の画像表示装置。
  14. コントローラが、重畳画像を表示機器に表示させる画像表示方法であって、
    景色から、前記重畳画像において仮想画像が表示される表示領域を検出し、
    前記表示機器に関連付けられた、ユーザに関するユーザ情報を取得し、
    前記ユーザ情報に応じた前記仮想画像が前記景色に重畳するように、前記仮想画像を含む前記重畳画像を前記表示機器に表示させる画像表示方法。
JP2022016552A 2022-02-04 2022-02-04 画像表示装置及び画像表示方法 Pending JP2023114273A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022016552A JP2023114273A (ja) 2022-02-04 2022-02-04 画像表示装置及び画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022016552A JP2023114273A (ja) 2022-02-04 2022-02-04 画像表示装置及び画像表示方法

Publications (1)

Publication Number Publication Date
JP2023114273A true JP2023114273A (ja) 2023-08-17

Family

ID=87569246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022016552A Pending JP2023114273A (ja) 2022-02-04 2022-02-04 画像表示装置及び画像表示方法

Country Status (1)

Country Link
JP (1) JP2023114273A (ja)

Similar Documents

Publication Publication Date Title
US20240127496A1 (en) Ar display apparatus and ar display method
US20170343375A1 (en) Systems to dynamically guide a user to an autonomous-driving vehicle pick-up location by augmented-reality walking directions
US10242457B1 (en) Augmented reality passenger experience
US9171214B2 (en) Projecting location based elements over a heads up display
CN107415938A (zh) 基于乘员位置和注意力控制自主车辆功能和输出
US20170140457A1 (en) Display control device, control method, program and storage medium
JP6946963B2 (ja) 重畳画像表示装置及びコンピュータプログラム
CN112750206A (zh) 用于车辆乘员的增强现实可穿戴系统
US11100718B2 (en) Method for operating a display device in a motor vehicle
US20190325219A1 (en) Integrated internal and external camera system in vehicles
US20120092370A1 (en) Apparatus and method for amalgamating markers and markerless objects
JP4604597B2 (ja) 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法
CN109849788B (zh) 信息提供方法、装置及系统
US20220327747A1 (en) Information processing device, information processing method, and program
JP2015041197A (ja) 表示制御装置
US11227494B1 (en) Providing transit information in an augmented reality environment
US20200294119A1 (en) Computer program product and computer-implemented method
JP2014220655A (ja) 車両用画像表示装置および車両用画像表示方法
US20230314156A1 (en) Information presentation method, information presentation system, and computer-readable medium
JP2023114273A (ja) 画像表示装置及び画像表示方法
KR102625688B1 (ko) 혼합 현실에 기반한 디스플레이 장치 및 경로 안내 시스템
JP6623657B2 (ja) 情報提供装置、情報提供システム及び情報提供方法
CN114842172A (zh) 显示控制方法、装置、介质、抬头显示系统和车辆
JP2022002117A (ja) Ar表示装置、ar表示方法、およびプログラム
CN113924461A (zh) 用于目标引导至目标人员的方法、目标人员的电子设备和接送者的电子设备以及机动车