JP2021162980A - 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム - Google Patents

拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP2021162980A
JP2021162980A JP2020061895A JP2020061895A JP2021162980A JP 2021162980 A JP2021162980 A JP 2021162980A JP 2020061895 A JP2020061895 A JP 2020061895A JP 2020061895 A JP2020061895 A JP 2020061895A JP 2021162980 A JP2021162980 A JP 2021162980A
Authority
JP
Japan
Prior art keywords
content
augmented reality
displayed
users
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020061895A
Other languages
English (en)
Other versions
JP6889304B1 (ja
Inventor
陽介 木下
Yosuke Kinoshita
慎吾 目黒
Shingo Meguro
慶和 佐藤
Yoshikazu Sato
千隼 青木
Chihaya Aoki
和斗 大森
Kazuto Omori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hakuhodo DY Holdings Inc
Original Assignee
Hakuhodo DY Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hakuhodo DY Holdings Inc filed Critical Hakuhodo DY Holdings Inc
Priority to JP2020061895A priority Critical patent/JP6889304B1/ja
Application granted granted Critical
Publication of JP6889304B1 publication Critical patent/JP6889304B1/ja
Publication of JP2021162980A publication Critical patent/JP2021162980A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】新しいAR表示技術を提供する。【解決手段】現実空間上の複数ユーザに共通する地点において複数ユーザのそれぞれに対して個別のコンテンツ130を表示するために、複数ユーザのそれぞれに対する表示対象のコンテンツ130が、予め用意されたコンテンツ群から選択される。表示対象のコンテンツ130が拡張現実表示されるように、複数ユーザのそれぞれが有するモバイルデバイス10のディスプレイ14に対する表示制御が行われる。【選択図】図1

Description

本開示は、拡張現実表示システム及び関連する方法に関する。
従来、共通の仮想オブジェクトを、複数ユーザのそれぞれが有するヘッドマウントディスプレイを通じて複数ユーザに表示するシステムが知られている(例えば特許文献1参照)。
このシステムでは、テーブル上に仮想オブジェクトが表示される。テーブルを囲む各ユーザには、テーブルに対するユーザの相対位置に応じた外観で仮想オブジェクトが表示される。このシステムは、医師による手術前カンファレンスにおいて、手術の対象となる部位を拡張現実表示するために使用される。
特開2016−170641号公報
ところで、本発明者らは、拡張現実(AR)表示技術を利用して、広告コンテンツなどの消費者向けのコンテンツを、ユーザに表示することを考えている。しかしながら、この種のコンテンツに関する従来技術は、決められた現実空間上の地点に、その地点に関連付けられた単一のコンテンツを、AR表示するという単純なものである。
そこで、本開示の一側面によれば、複数ユーザに対するコンテンツ表示に適した新しいAR表示技術を提供できることが望ましい。
本開示の一側面によれば、選択部と、表示制御部とを備える拡張現実表示システムが提供される。選択部は、現実空間上の複数ユーザに共通する地点において複数ユーザのそれぞれに対して個別のコンテンツを表示するために、複数ユーザのそれぞれに対する表示対象のコンテンツを、予め用意されたコンテンツ群から選択するように構成され得る。表示制御部は、上記共通する地点において上記選択された表示対象のコンテンツが拡張現実表示されるように、複数ユーザのそれぞれが有するモバイルデバイスのディスプレイに対する表示制御を行うように構成され得る。
複数ユーザに共通する地点でユーザ別のコンテンツを拡張現実表示することによれば、ユーザ間における拡張現実の情報共有を可能にしつつ、各ユーザに適したコンテンツを表示することができる。従って、本開示の一側面によれば、複数ユーザに対するコンテンツ表示に適した新しいAR表示技術を提供することができる。
本開示の一側面によれば、表示制御部は、表示対象のコンテンツが複数ユーザに共通する仮想オブジェクトを含む拡張現実画像として表示されるように、ディスプレイに対する表示制御を行う構成にされ得る。
表示制御によって、複数ユーザのそれぞれのディスプレイには、拡張現実画像に対応する三次元物体が仮に上記地点において現実に存在する場合の周囲からの三次元物体の外観を模倣するように、対応するユーザの位置及び向きに応じた形態で拡張現実画像が表示されてもよい。
共通地点で複数ユーザに共通する仮想オブジェクトを表示することによれば、ユーザ間で仮想オブジェクトの認識を共有することができる。コンテンツのユーザ別の表示によれば、各ユーザに対してより適したコンテンツを表示することができる。しかも、現実の三次元物体の見え方に即した拡張現実画像の表示は、現実空間に対して親和性が高い。
従って、本開示の一側面によれば、多様でありながら統一感のある、現実空間との調和のとれたコンテンツのAR表示技術を提供することができる。この技術は、消費者向けの多様なコンテンツのAR表示に適している。
本開示の一側面によれば、複数ユーザのそれぞれの位置及び向きは、対応するユーザのモバイルデバイスに搭載されたカメラからの映像データ又は測距デバイスからの測距データと、現実空間の三次元マップデータとに基づいて推定されてもよい。
拡張現実表示システムは、映像データ又は測距データに基づき、三次元マップデータを更新するように構成されるマップ更新部を更に備えていてもよい。三次元マップデータに基づけば、ユーザの位置及び向きを高精度に推定可能であり、高精度な推定は、地点に紐づいた拡張現実画像の適切な表示に役立つ。
本開示の一側面によれば、選択部は、複数ユーザのそれぞれの属性及び行動履歴の少なくとも一方を説明する説明データを取得してもよい。選択部は、説明データに基づき、複数ユーザのそれぞれに対する表示対象のコンテンツを、コンテンツ群から選択してもよい。こうした選択によれば、各ユーザに適切なコンテンツを表示可能である。
本開示の一側面によれば、選択部は、複数ユーザのそれぞれに対する過去のコンテンツの表示履歴を説明する表示履歴データを取得してもよい。選択部は、表示履歴データに基づき、複数ユーザのそれぞれに対する表示対象のコンテンツを、コンテンツ群から選択してもよい。
本開示の一側面によれば、拡張現実表示システムは、状態判別部を備えていてもよい。状態判別部は、現実空間を撮影するカメラからの映像データに基づき、複数ユーザのそれぞれの状態として、心理的な状態及び身体的な状態の少なくとも一方を判別するように構成されてもよい。
本開示の一側面によれば、選択部は、状態判別部により判別された複数ユーザのそれぞれの状態に基づき、複数ユーザのそれぞれに対する表示対象のコンテンツを、コンテンツ群から選択してもよい。こうした選択によれば、各ユーザの状態に応じた適切なコンテンツを表示可能である。
本開示の一側面によれば、拡張現実表示システムは、関係判別部を備えていてもよい。関係判別部は、ユーザ間の社会的関係を判別するように構成されてもよい。選択部は、関係判別部により判別された社会的関係に基づいて、複数ユーザのそれぞれに対する表示対象のコンテンツを、コンテンツ群から選択してもよい。
本開示の一側面によれば、関係判別部は、複数ユーザのそれぞれの予め登録された知人情報に基づき、社会的関係を判別してもよい。選択部は、知人関係にあるユーザグループに対して、同じコンテンツ又は相互に関連するコンテンツが表示されるように、複数ユーザのそれぞれに対する表示対象のコンテンツを、コンテンツ群から選択してもよい。こうした選択によれば、行動を共にしている可能性や目的を共有している可能性の高い知人関係にある複数ユーザに対して、より適切なコンテンツを表示可能である。
本開示の一側面によれば、拡張現実表示システムは、地点判別部を備えていてもよい。地点判別部は、コンテンツが表示される地点の特徴を判別するように構成されてもよい。選択部は、地点判別部により判別された地点の特徴に基づいて、複数ユーザのそれぞれに対する表示対象のコンテンツを、コンテンツ群から選択するように構成されてもよい。
本開示の一側面によれば、選択部は、上記地点の特徴に応じてコンテンツ群の一部を選択対象から除外し、残りのコンテンツ群の中から、複数ユーザのそれぞれに対する表示対象のコンテンツを選択するように構成されてもよい。
本開示の一側面によれば、選択部は、コンテンツ群における各コンテンツの特徴と地点の特徴との関係に基づいて、コンテンツ群の一部を選択対象から除外してもよい。コンテンツの表示に関する価値又は適切さは、そのコンテンツが表示される地点の特徴とコンテンツの特徴との関係に応じて変化する。従って、地点の特徴に応じて、その地点に相応しくないコンテンツ群の一部を選択対象から除外することは、大変有意義である。
本開示の一側面によれば、予め用意されたコンテンツ群から表示対象のコンテンツを選択する選択部と、表示対象のコンテンツがユーザの視界において現実空間に重ねて拡張現実表示されるように、ユーザが有するモバイルデバイスのディスプレイに対する表示制御を行うように構成される表示制御部と、コンテンツが表示される現実空間上の地点の特徴を判別するように構成される地点判別部と、を備え、選択部が、コンテンツ群における各コンテンツの特徴と地点の特徴との関係に基づいて、コンテンツ群の一部を選択対象から除外し、残りのコンテンツ群の中から、表示対象のコンテンツを選択する拡張現実表示システムが提供されてもよい。
本開示の一側面によれば、地点判別部は、地点の特徴として、地点に存在する施設の属性を判別してもよい。選択部は、コンテンツ群における各コンテンツの特徴と施設の属性との関係に基づいて、コンテンツ群の一部を選択対象から除外してもよい。こうした除外によれば、表示地点に存在する施設に対して相応しくない広告コンテンツ等のコンテンツを選択対象から除外することができる。
本開示の一側面によれば、拡張現実表示システムにおける選択部、表示制御部、状態判別部、関係判別部、地点判別部、及びマップ更新部の少なくとも一つとしてコンピュータを機能させるためのコンピュータプログラムが提供されてもよい。
本開示の一側面によれば、コンピュータによって実行される拡張現実表示方法が提供されてもよい。拡張現実表示方法は、現実空間上の複数ユーザに共通する地点において複数ユーザのそれぞれに対して個別のコンテンツを表示するために、複数ユーザのそれぞれに対する表示対象のコンテンツを、予め用意されたコンテンツ群から選択することと、当該共通する地点において表示対象のコンテンツが拡張現実表示されるように、複数ユーザのそれぞれが有するモバイルデバイスのディスプレイに対する表示制御を行うことと、を含んでいてもよい。
表示制御を行うことは、表示対象のコンテンツが複数ユーザに共通する仮想オブジェクトを含む拡張現実画像として表示されるように、ディスプレイに対する表示制御を行うことを含んでいてもよい。
表示制御によって、複数ユーザのそれぞれのディスプレイには、拡張現実画像に対応する三次元物体が仮に地点において現実に存在する場合の周囲からの三次元物体の外観を模倣するように、対応するユーザの位置及び向きに応じた形態で拡張現実画像が表示されてもよい。
本開示の一側面によれば、コンピュータによって実行される拡張現実表示方法であって、予め用意されたコンテンツ群から表示対象のコンテンツを選択することと、表示対象のコンテンツがユーザの視界において現実空間に重ねて拡張現実表示されるように、ユーザが有するモバイルデバイスのディスプレイに対する表示制御を行うことと、コンテンツが表示される現実空間上の地点の特徴を判別することと、を備える拡張現実表示方法が提供されてもよい。選択することは、コンテンツ群における各コンテンツの特徴と地点の特徴との関係に基づいて、コンテンツ群の一部を選択対象から除外し、残りのコンテンツ群の中から、表示対象のコンテンツを選択することを含んでいてもよい。
本開示の例示的実施形態に係るAR表示システムの構成を表すブロック図である。 図2Aは、コンテンツ関連データの構成を表す図であり、図2Bは、登録地点データの構成を表す図であり、図2Cは、選択制御データの構成を表す図である。 顧客データの構成を表す図である。 AR画像の表示に関する説明図である。 図5A、図5B、及び図5Cは、互いに異なる位置及び向きのユーザから見えるAR画像を説明する図である。 モバイルデバイスのプロセッサが実行する表示制御処理を表すフローチャートである。 サービス提供システムのプロセッサが実行する受信更新処理を表すフローチャートである。 サービス提供システムのプロセッサが実行する状態判別処理を表すフローチャートである。 サービス提供システムのプロセッサが実行する重み計算処理を表すフローチャートである。 サービス提供システムのプロセッサが実行する受信応答処理を表すフローチャートである。 サービス提供システムのプロセッサが実行する除外処理を表すフローチャートである。 建物と表示コンテンツとの関係に関する説明図である。 サービス提供システムのプロセッサが実行する選択処理を表すフローチャートである。
以下に本開示の例示的実施形態を、図面を参照しながら説明する。
本実施形態の拡張現実(AR)表示システム1は、ユーザ毎のモバイルデバイス10と、サービス提供システム50とを備える。このAR表示システム1では、モバイルデバイス10が、サービス提供システム50からAR画像データの提供を受けて、ユーザの視界にある現実空間に重ねてAR画像110を表示する。以下において「AR」は、拡張現実を意味すると理解されてよい。
モバイルデバイス10は、例えば、眼鏡、ゴーグル、又はコンタクトレンズ型のウェアラブル機器として構成される。モバイルデバイス10は、プロセッサ11と、メモリ12と、ストレージ13と、ディスプレイ14と、入力デバイス15と、カメラ16と、位置検出器17と、通信デバイス19とを備える。
プロセッサ11は、ストレージ13に格納されたコンピュータプログラムに従う処理を実行するように構成される。メモリ12は、プロセッサ11による処理実行時に作業領域として使用される。ストレージ13は、例えばフラッシュメモリで構成される。ストレージ13は、コンピュータプログラム及び各種データを記憶する。
ディスプレイ14は、例えば透過型ディスプレイとして構成され、ユーザの視界上に配置される。ディスプレイ14は、プロセッサ11により制御されて、ユーザの視界にある現実空間に重ねてAR画像110を表示する。
入力デバイス15は、モバイルデバイス10に対するユーザ操作を受付可能であり、ユーザからの操作信号をプロセッサ11に入力するように構成される。入力デバイス15の例には、ユーザからのタッチ操作を受付可能なデバイスの他、ユーザからの音声操作を受付可能なデバイスが含まれる。
カメラ16は、ユーザの視界に対応するユーザの前方領域を撮影可能に配置される。カメラ16は、ユーザ周りの複数方位を撮影可能な多眼カメラや全方位カメラであってもよい。位置検出器17は、現在の位置及び向きを検出するように構成される。位置検出器17は、例えばGPS受信機、モーションセンサ、及び電子コンパスを備えることができる。
位置検出器17は、GPS受信機を備えることに代えて、ペアリングされたスマートフォン等のユーザデバイスからのGPS位置情報を取得して、現在の位置及び向きを検出するように構成されてもよい。
通信デバイス19は、モバイルデバイス10とサービス提供システム50との間の広域ネットワークNTを通じた通信のために、セルラー通信及び/又は無線LAN(ローカルエリアネットワーク)通信可能に構成される。
このモバイルデバイス10は、位置検出器17によって得られる位置及び向きに関する粗い情報と、三次元マップデータ61と、カメラ16からの映像データと、に基づいた自己位置推定により、精度の高い位置及び向き、換言すれば、モバイルデバイス10を装着するユーザの位置及び向きを推定するように構成される。
モバイルデバイス10は、推定された位置及び向きに基づき、ユーザの視界に表示すべきAR画像110に対応するAR画像データをサービス提供システム50から取得し、ディスプレイ14を通じてAR画像110をユーザに表示するように構成される。
サービス提供システム50は、一つ以上のサーバ装置から構成される。図1において簡易表示されるサービス提供システム50は、プロセッサ51と、メモリ52と、ストレージ53と、通信デバイス59とを備える。
プロセッサ51は、ストレージ53に格納されたコンピュータプログラムに従う処理を実行するように構成される。メモリ52は、プロセッサ51による処理実行時に作業領域として使用される。
ストレージ53は、コンピュータプログラム及び各種データを記憶する。通信デバイス59は、広域ネットワークNTを通じて各ユーザのモバイルデバイス10と通信可能に構成される。
サービス提供システム50は、ストレージ53内に、三次元マップデータ61と、コンテンツ関連データベース63と、登録地点データベース65と、選択制御データベース67と、顧客データベース69とを備える。
三次元マップデータ61は、複数のモバイルデバイス10から収集される映像データに基づき生成される、現実空間の屋外及び屋内における三次元空間位置座標を示すデータである。三次元マップデータ61は、モバイルデバイス10での自己位置推定に利用される。
コンテンツ関連データベース63は、図2Aに示すように、予め用意されたコンテンツ毎のコンテンツ関連データ631を備える。コンテンツ関連データ631は、図2Aに示すように、対応するコンテンツの識別情報であるコンテンツIDに関連付けて、コンテンツそれ自体を定義するコンテンツデータ、及び、コンテンツ属性を示すコンテンツ属性データを備える。
コンテンツは、例えば、ユーザに訴求する商品又は役務に関する広告コンテンツであり得る。この場合、コンテンツ属性は、広告コンテンツが訴求しようとする商品又は役務の属性を示し得る。
別例として、コンテンツ属性は、コンテンツの配信対象として適切なユーザのデモグラフィック属性、ジオグラフィック属性、及びサイコグラフィック属性を示し得る。デモグラフィック属性の例には、性別、年齢及び職業が含まれる。ジオグラフィック属性の例には、居住地域が含まれる。コンテンツ属性は、複数種類の属性の組み合わせで定義され得る。
図2Bに示される登録地点データベース65は、コンテンツの表示地点として登録された現実空間上の地点毎に、登録地点データ651を有する。各登録地点データ651は、対応する地点の識別情報である地点IDに関連付けて、対応する地点の絶対位置座標及び場所属性の情報を有する。場所属性の情報は、対応する地点に相応しくない種類のコンテンツが表示対象として選択されるのを抑制する目的で利用される。
場所属性は、人が対応する地点に対して通常認識する場所の属性を示し得る。コンテンツの表示地点が屋外である場合、対応する地点の場所属性は、当該地点周辺に存在する施設の属性を示し得る。コンテンツの表示地点が屋内の商業施設である場合、対応する地点の場所属性は、当該対応する地点周辺に存在する店舗の属性を示し得る。
図2Cに示される選択制御データベース67は、場所属性毎の選択制御データ671を備える。選択制御データ671は、対応する場所属性の情報に関連付けて禁止リストを備える。禁止リストは、対応する場所属性を有するコンテンツの表示地点で、表示対象から除外されるべきコンテンツ群に対応するコンテンツ属性の一覧を示す。
図3に示される顧客データベース69は、サービス提供システム50に対して登録されたユーザ毎に、顧客データ691を備える。顧客データ691は、対応するユーザの識別コードであるユーザIDに関連付けて、ユーザ属性データ、表示履歴データ、行動履歴データ、フレンド登録データ、及び、ユーザ指定重みデータを備える。
ユーザ属性データは、対応するユーザのデモグラフィック属性、ジオグラフィック属性、及びサイコグラフィック属性を示す。具体的に、ユーザ属性データは、対応するユーザの性別、年齢、職業、居住地域、関心、及び好みの一以上を表す情報を有し得る。
表示履歴データは、対応するユーザに対するコンテンツの表示履歴を示す。表示履歴データは、対応するユーザに対する過去のコンテンツ表示毎に、当該コンテンツの表示日時及び表示コンテンツのコンテンツIDを示し得る。この表示履歴データによれば、ユーザに対する各コンテンツの表示回数を特定可能である。
行動履歴データは、対応するユーザの行動履歴を示す。具体的に、行動履歴データは、対応するユーザの過去の各時刻における位置情報を有し得る。位置情報は、絶対位置座標を示してもよいし、自宅、職場、カフェ、及びレストラン等の対応する位置の分類を示してもよい。
フレンド登録データは、対応するユーザによってフレンドとして登録されたユーザのリストを示す。すなわち、フレンド登録データは、対応するユーザの知人情報であり、対応するユーザの他のユーザとの社会的関係を示す。フレンド登録データは、ユーザIDのリストの形態で、フレンドとして登録されたユーザを示し得る。
ユーザ指定重みデータは、対応するユーザに配信するコンテンツの選択に用いられるデータである。ユーザ指定重みデータの詳細については後述する。
続いて、図4を用いてAR画像110の表示方法を説明する。本実施形態では、登録地点データベース65に登録された、現実空間上の絶対位置座標で規定される地点100にAR画像110が表示される。AR画像110は、地点100に現実に存在するかのように表示される。
すなわち、AR画像110は、対応する地点100において、AR画像110に対応する三次元物体が仮に現実に存在する場合の周囲からの三次元物体の外観を模倣するように、ユーザの地点100に対する相対位置及び向きに応じた外観で、当該ユーザに対応するモバイルデバイス10のディスプレイ14に表示される。
図4によれば、室内の地点100に存在するかのように表示されるAR画像110を見る三人のユーザU1,U2,U3が、室内の異なる位置に存在する。ユーザU1は、地点100の正面に位置し、ユーザU2は、地点100の左側に位置し、ユーザU3は、地点100の右側に位置する。
このとき、ユーザU1により使用されるディスプレイ14には、図5Aに示す外観でAR画像110が表示され、ユーザU2により使用されるディスプレイ14には、図5Bに示す外観でAR画像110が表示される。ユーザU3により使用されるディスプレイ14には、図5Cに示す外観でAR画像110が表示される。
図5A−5Cに示される例によれば、仮想的なディスプレイの形態を有する三次元の仮想オブジェクト120上に、ユーザ別のコンテンツ130を有するAR画像110が表示される。本実施形態では、例えば、複数ユーザに共通する仮想オブジェクト120と、仮想オブジェクト120上に表示されるユーザ別のコンテンツ130との組合せにより、ユーザ別のAR画像110が表示される。
同じ現実空間に位置する複数ユーザU1,U2,U3に対し、共通する地点100に、AR画像110が表示されることによって、ユーザU1,U2,U3間では、拡張現実の表示位置に関する情報を共有することができる。更に、複数ユーザU1,U2,U3に共通する仮想オブジェクト120が表示されることによって、ユーザU1,U2,U3間では、仮想オブジェクト120の認識を共有することができる。
更に、コンテンツ130のユーザ別の表示は、各ユーザに適したコンテンツ130の表示を可能にする。しかも、現実の三次元物体の見え方に即したAR画像110の表示は、現実空間に対して親和性が高い。
従って、本実施形態によれば、多様でありながら統一感のある、現実空間との調和のとれたコンテンツのAR表示が可能である。この表示技術は、特に広告コンテンツを含む消費者向けの多様なコンテンツのAR表示に適している。
仮想オブジェクト120は、図5A−5Cに示される仮想スクリーンの形態に限定されない。仮想オブジェクト120は、例えば商品ラベルの付されていない瓶、缶、袋の外形を有する仮想オブジェクトであってもよい。コンテンツ130は、仮想オブジェクト120に対応するポリゴン上のテクスチャであってもよい。
仮想オブジェクト120として、外形の異なる複数種類の仮想オブジェクトが用意されてもよい。更には、コンテンツの表示地点毎に異なる外形の仮想オブジェクトが表示されてもよい。
この場合、図2Bに破線で示すように、登録地点データ651には、対応する地点で表示すべき仮想オブジェクトのタイプを示す情報が含まれてもよい。また、図2Aに破線で示すように、コンテンツ関連データ631には、コンテンツに対応する仮想オブジェクトのタイプを示す情報が含まれてもよい。この場合、表示対象のコンテンツは、対応する地点のオブジェクトタイプに合致するコンテンツ群の中から選択される。
続いて、モバイルデバイス10のプロセッサ11が、AR画像表示のために繰返し実行する表示制御処理を、図6を用いて説明する。この表示制御処理を開始すると、プロセッサ11は、現在位置周辺の三次元マップデータ61を、広域ネットワークNTを通じてサービス提供システム50から通信により取得する(S110)。プロセッサ11は、現在位置周辺の三次元マップデータ61を取得するために、粗い現在の位置及び向きの情報を、位置検出器17から取得することができる。
その後、プロセッサ11は、位置検出器17から得られる粗い現在の位置及び向きの情報、カメラ16からの映像データ、及び、三次元マップデータ61に基づき、詳細な現在位置及び向きを推定する(S120)。この推定は、公知の自己推定技術に基づいて実現され得る。具体的にプロセッサ11は、映像データの解析により判別される三次元空間の形状と、三次元マップデータ61が示す三次元空間の形状との照合により、カメラ16の位置を高精度に推定し、それにより、モバイルデバイス10の現在の位置及び向きを高精度に推定することができる。
S120での推定後、プロセッサ11は、カメラ16からの映像データに、推定された位置及び向きの情報を付加してなる位置映像データを、サービス提供システム50に送信する(S130)。
その後、プロセッサ11は、カメラ16の映像データ及び推定された位置及び向きの情報に基づき、ユーザの視界にコンテンツの表示地点として登録された地点が存在するか否かを判断する(S140)。この判断のために、三次元マップデータ61は、コンテンツの表示地点の情報を含んだ構成にされ得る。例えば、三次元マップデータ61は、各表示地点の地点IDに関連付けて、その地点の絶対位置座標を示すデータを内包した構成にされ得る。
プロセッサ11は、ユーザの視界にコンテンツの表示地点がないと判断すると(S140でNo)、表示制御処理を終了する。プロセッサ11は、表示地点があると判断すると(S140でYes)、その地点でのAR表示のためにコンテンツリクエストをサービス提供システム50に通信デバイス19を通じて送信する(S150)。プロセッサ11は、ユーザの視界にある表示地点の地点IDと共に、S120で推定されたユーザの現在位置及び向きの情報を含んだコンテンツリクエストを送信することができる。
その後、プロセッサ11は、コンテンツリクエストに対する応答データを、通信デバイス19を通じてサービス提供システム50から受信する(S160)。プロセッサ11は、受信データに基づいて、表示地点に対するユーザの相対的な位置及び向きに応じた外観で、AR画像110が当該地点に表示されるように、ディスプレイ14に対するAR画像110の表示制御を行う(S170)。その後、プロセッサ11は、当該表示制御処理を終了する。
コンテンツリクエストに対するサービス提供システム50からの応答データは、AR画像データを含む。このAR画像データは、例えば、コンテンツの表示地点に対するユーザの相対的な位置及び向きを考慮して、AR画像110の形状及びテクスチャの最適化がなされたAR画像データであり得る。このAR画像データは、AR画像110の三次元データをディスプレイ表示用の二次元データに置換して形成され得る。すなわち、このAR画像データは、モバイルデバイス10が、回転やサイズ調整などの加工なしに、ユーザの視点からの外観を有するAR画像110を、ディスプレイ14に表示可能な画像データであり得る。
あるいは、サービス提供システム50から送信されるAR画像データは、ユーザの位置及び向きを考慮しないAR画像データであってもよい。AR画像データは、AR画像110の三次元データであってもよい。この場合、プロセッサ11は、受信したAR画像データに基づいて、ユーザの位置及び向きを考慮した回転及びサイズ調整などのAR画像110に対する加工を伴って、ディスプレイ14に、加工後のAR画像110を表示させる表示制御を行うことができる。
すなわち、プロセッサ11は、受信したAR画像110の三次元表現を含むAR画像データに対するレンダリング処理を実行して、AR画像データをユーザの位置及び向きを考慮したディスプレイ表示用の二次元データに変換し、ディスプレイ14に、ユーザの位置及び向きに応じたAR画像110を表示させてもよい。
続いて、サービス提供システム50のプロセッサ51が繰返し実行する受信更新処理の詳細を、図7を用いて説明する。受信更新処理は、ユーザ毎に実行される。受信更新処理では、対応するユーザのモバイルデバイス10からS130で送信されてくる位置映像データに基づく処理が実行される。
この受信更新処理を開始すると、プロセッサ51は、対応するユーザのモバイルデバイス10から送信されてくる位置映像データを受信する(S210)。その後、プロセッサ51は、受信した位置映像データに基づいて、対応するユーザの状態を判別する(S220)。
S220において、プロセッサ51は、図8に示す状態判別処理を実行する。状態判別処理において、プロセッサ51は、受信した位置映像データに対する映像解析を行う(S221)。この解析結果に基づいて、ユーザが手に把持しているものを判別する(S223)。現在の映像にユーザの手が写っていない場合、プロセッサ51は、映像の時間変化に基づいて、過去に把持されていると判別された物が依然として手に把持されているかを判別することができる。この判別は、ユーザの身体的な状態を判別することに対応する。
続くS225において、プロセッサ51は、ユーザが注視しているものを判別する。プロセッサ51は、現在の映像だけではなく一定期間前からの映像から特定される視線の時間変化に基づいて、ユーザが注視しているものを判別することができる。例えば、所定時間継続的にユーザの視界中心に映るものをユーザが注視しているものと判別することができる。
続くS227において、プロセッサ51は、共に行動するフレンドを判別する。プロセッサ51は、この判別のために、対応するユーザが登録するフレンドの位置情報を参照することができる。フレンドの位置情報は、そのフレンドのモバイルデバイス10からサービス提供システム50に送信される位置映像データに基づいて判別可能である。フレンドは、ユーザとの間に強い社会的関係が存在する知人に対応する。
プロセッサ51は、フレンドの移動軌跡とユーザの移動軌跡とが重なっており、更には、ユーザの視界に高頻度に入り込むフレンドがいると推定されるとき、対応するフレンドを、共に行動するフレンドとして判別することができる。
続くS229において、プロセッサ51は、ユーザの感情を判別する(S229)。モバイルデバイス10のカメラ16には、マイクロフォン(図示せず)も付属しており、位置映像データには、音声が含まれる。プロセッサ51は、この音声からユーザの感情を推定することができる(S229)。あるいは、プロセッサ51は、ユーザの現在位置及び向きに基づき、ユーザを視界に収める別のユーザの位置映像データを参照し、その位置映像データからユーザの顔の表情を分析して、ユーザの感情を判別することができる。ユーザの感情は、ユーザの心理的な状態に対応する。
その後、プロセッサ51は、S230に移行し、ユーザが現在いる場所の意味を判別する。ここでいう「場所の意味」は、ユーザがその場所にいる理由に対応する。「場所の意味」として、プロセッサ51は、「自宅」、「職場」、「休憩」、「食事」、「買い物」などの予め定められた「場所の意味」の選択肢の中から、最も合致する選択肢を選択することにより、場所の意味を判別することができる。この判別のために、顧客データ691は、ユーザの自宅及び職場の情報を有することができる(図示せず)。
続くS240において、プロセッサ51は、ユーザの顧客データ691が有する行動履歴データを更新する。プロセッサ51は、受信した位置映像データから、ユーザの現在の位置及び向きを判別することができる。
プロセッサ51は、位置映像データから、ユーザの現在の行為を判別することができる。プロセッサ51は、判別した行為の情報を、現在時刻、並びにユーザの位置及び向きと関連付けたレコードを、ユーザの行動履歴データに登録することによって、行動履歴データを更新することができる。
続くS250において、プロセッサ51は、図9に示す重み計算処理を実行する(S250)。上述したコンテンツ属性は、予め定められた範囲の属性値を採り得る。S250では、例えば、この採り得る属性値のそれぞれに対する重みを計算し得る。大きい重みが設定された属性値を有するコンテンツほど、表示対象コンテンツとして選択される可能性を高くする目的で重みは計算され得る。すなわち各属性値に対する重みは、対応する属性値を有するコンテンツを表示対象として選択する確率に対応し得る。以下、S250で計算される重みのことを、コンテンツ重みと表現する。
重み計算処理において、プロセッサ51は、S220で判別されたユーザが手に把持しているものに基づく、第一のコンテンツ重みW1を計算する(S251)。手に把持しているものが存在している場合には、把持しているものに関連する属性値を有するコンテンツの選択確率が上昇するようにコンテンツ重みW1を計算することができる。手に把持しているものが存在しない場合には、各属性値に対する重みが一律である形式的なコンテンツ重みW1を算出し得る。
サービス提供システム50は、予め重みの計算ルールを定義する定義データをストレージ53に記憶することができる。プロセッサ51は、記憶された定義データに従って、手に把持されているものに対応するコンテンツ重みW1を計算することができる。
続くS252において、プロセッサ51は、S220で判別されたユーザが注視しているものに基づく、第二のコンテンツ重みW2を算出する。ユーザが注視しているものが存在している場合には、注視しているものに関連する属性値を有するコンテンツの選択確率が上昇するようにコンテンツ重みW2を算出することができる。注視しているものが存在しない場合には、各属性値に対する重みが一律である形式的なコンテンツ重みW2を算出し得る。
続くS253において、プロセッサ51は、S220で判別された共に行動するフレンドに基づく、第三のコンテンツ重みW3を算出する。例えば、共に行動するフレンドが存在している場合には、集団行動に関連するコンテンツの選択確率が上昇するように、関連する属性値に対する重みを高くする方式で、コンテンツ重みW3を算出することができる。共に行動するフレンドが存在しない場合には、各属性値に対する重みが一律の形式的なコンテンツ重みW3を算出し得る。
続くS254において、プロセッサ51は、S220で判別されたユーザの感情に基づく、第四のコンテンツ重みW4を算出する。例えば、ユーザの感情に適したコンテンツの選択確率が上昇するように、関連する属性値に対する重みを高くする方式で、コンテンツ重みW4を算出することができる。
続くS255において、プロセッサ51は、ユーザの顧客データ691を参照して判別されるユーザ属性に基づく、第五のコンテンツ重みW5を算出する。例えば、ユーザの性別及び年齢に適したコンテンツの選択確率が上昇するように、関連する属性値に対する重みを高くする方式で、コンテンツ重みW5を算出することができる。
続くS256において、プロセッサ51は、S230で判別されたユーザの現在位置に対応する場所の意味に基づく、第六のコンテンツ重みW6を算出する。続くS257において、プロセッサ51は、ユーザの顧客データ691内の行動履歴データを参照して、ユーザの行動パターンに基づく、第七のコンテンツ重みW7を算出する。例えば、プロセッサ51は、ユーザの行動パターンに適したコンテンツの選択確率が上昇するように、コンテンツ重みW7を算出することができる。
続くS259において、プロセッサ51は、上記算出したコンテンツ重みW1〜W7を統合して、統合コンテンツ重みWSを算出し得る。統合コンテンツ重みWSは、コンテンツ重みW1〜W7の和に対応し得る。統合コンテンツ重みWSは、顧客データ691が有するユーザ指定重みデータを参照して、コンテンツ重みW1〜W7を重み付けしながら、統合コンテンツ重みWSを算出し得る。その後、重み計算処理(図9)を終了する。
ユーザ指定重みデータは、第一から第七のコンテンツ重みW1〜W7に対する重み係数を示し得る。この場合、統合コンテンツ重みWSは、重み係数に従うコンテンツ重みW1〜W7の重み付け和であり得る。重み係数を用いることにより、把持しているもの重視、感情重視、行動履歴重視といったユーザの好みに応じた重みで、コンテンツ選択及び表示を行うことができる。
上述した重み計算処理(S250)を終了すると、プロセッサ51は、ユーザのモバイルデバイス10から受信した位置映像データに基づき、三次元マップデータ61を更新して(S260)、受信更新処理(図7)を終了する。
続いて、サービス提供システム50のプロセッサ51が繰返し実行する受信応答処理の詳細を、図10を用いて説明する。受信応答処理は、ユーザ毎に実行される。受信応答処理では、対応するユーザのモバイルデバイス10からS150で送信されるコンテンツリクエストに基づく処理が実行される。
受信応答処理を開始すると、プロセッサ51は、対応するモバイルデバイス10からのコンテンツリクエストを受信するまで待機する(S310)。コンテンツリクエストを受信すると、そのコンテンツリクエストに含まれる地点IDに対応する登録地点データ651を参照して、対応する地点の場所属性を判別する(S320)。
プロセッサ51は、上記判別した場所属性に基づいて、表示対象コンテンツとして選択可能なコンテンツ群を絞り込む(S330)。プロセッサ51は、例えば図11に示す除外処理を実行することにより、選択可能なコンテンツ群を絞り込むことができる。
除外処理(図11)において、プロセッサ51は、S320で判別した場所属性に関連付けられた選択制御データ671内の禁止リストを読み出す(S331)。そして、コンテンツ関連データベース63に登録されたコンテンツ群のうち、禁止リストに列挙されたコンテンツ属性を有するコンテンツ群を、選択可能なコンテンツ群から除外することにより、選択可能なコンテンツ群を絞り込む(S335)。
禁止リストは、対応する場所属性を有する地点での表示が好ましくないコンテンツのコンテンツ属性を示す。例えば、図12に示すように建物200に関連付けて屋外でAR画像110が表示される場合を考える。この場合、AR画像110は、無意識のうちに、ユーザに建物200と関連付けて理解される可能性がある。
例えば、建物200が警察署である場合、ユーザは、表示されるAR画像110のコンテンツ130に信用があると錯覚する場合がある。また、建物200に対応する企業が、自社のブランド価値を守るために、特定の種類のコンテンツの表示を好ましくないと考える可能性がある。禁止リストは、こうした可能性を考慮して作成され得る。
本実施形態では、禁止リストに基づいて、場所属性にふさわしくないコンテンツ属性を有するコンテンツ群が除外され、残りのコンテンツ群から表示対象のコンテンツが選択されることにより、現実空間の地点と結び付けた適切なAR表示が可能である。
S330での選別を抑えると、続いてプロセッサ51は、ユーザと共に行動するフレンドがいるか否かを判断する(S340)。ここでは、S227での判別に従うことができる。
共に行動するフレンドがいないと判断すると(S340でNo)、プロセッサ51は、S250で算出された、対応するユーザの統合コンテンツ重みWSを参照する(S350)。この統合コンテンツ重みWSは、上述した通り、現在のユーザの状態、行動履歴、及び場所の意味が考慮された各コンテンツ属性の重みである。
プロセッサ51は、この統合コンテンツ重みWSに基づいて、表示対象コンテンツを、S330で絞り込まれたコンテンツ群の中から選択する(S360)。例えば、プロセッサ51は、統合コンテンツ重みWSに従う確率で選択するという条件の中で、無作為に一つのコンテンツを、上記絞り込まれたコンテンツ群の中から選択することができる。
選択に際して、プロセッサ51は、対応するユーザの顧客データ691内の表示履歴データを参照し、表示回数又は表示頻度の少ないコンテンツほど優先的に選択されるように、各コンテンツの選択確率に修正を加えて、上記コンテンツ群の中から、一つのコンテンツを、表示対象コンテンツとして選択することができる。
一方、共に行動するフレンドがいると判断すると(S340でYes)、プロセッサ51は、ユーザの統合コンテンツ重みWSと、共に行動する一人以上のフレンドの統合コンテンツ重みWSとを統合して、ユーザグループの統合コンテンツ重みWGを算出する(S370)。ここでいうユーザグループは、注目ユーザと、注目ユーザと共に行動する一人以上のフレンドからなるグループである。注目ユーザは、コンテンツリクエスト送信元のユーザである。
ユーザグループの統合コンテンツ重みWGは、ユーザグループに属する注目ユーザ及びフレンドの統合コンテンツ重みWGの平均であり得る。平均は、重み付け平均であってもよい。重み付け平均は、注目ユーザの重みよりも、フレンドの重みを小さくすることにより実現され得る。別例として重み付け平均は、ユーザグループ内の一人をランダムにグループリーダを選択し、グループリーダの重みを大きくすることにより実現され得る。
続くS380において、プロセッサ51は、ユーザグループの統合コンテンツ重みWGに基づいて、表示対象コンテンツを、S330で絞り込まれたコンテンツ群の中から選択する。S380での選択方法は、S360と同様であり得る。S380では、ユーザグループ全体におけるコンテンツの表示履歴を加味して、表示対象コンテンツを選択することができる。
S380で選択される表示対象コンテンツは、注目ユーザに対する表示対象コンテンツであってもよいし、ユーザグループ全体に対する表示対象コンテンツであってもよい。
ユーザグループ全体に対して共通する一つの表示対象コンテンツを選択する場合には、次のように表示対象コンテンツを選択することができる。すなわち、ユーザグループ内のグループリーダからのコンテンツリクエストに基づくS380の処理で表示対象コンテンツを統合コンテンツ重みWGに基づいて選択する。
ユーザグループ内のグループリーダ以外のユーザからのコンテンツリクエストに基づくS380の処理では、グループリーダに関するS380の処理で選択された表示対象コンテンツと同じコンテンツを、表示対象コンテンツに選択する。この場合、一つのユーザグループに属する知人関係のある行動を共にする全てのユーザに対して同一のコンテンツがAR画像110として各モバイルデバイス10で表示されることになる。
別例として、一部のコンテンツ属性の重みを他のコンテンツ属性の重みよりも顕著に大きくするように、ユーザグループ間で共通する統合コンテンツ重みWGを設定すれば、ユーザグループに属する知人関係のある行動を共にするユーザの夫々に対し相互に関連性の高いコンテンツが表示対象コンテンツとして選択される。サービス提供システム50は、S380における表示対象コンテンツの選択方法を、ユーザからの指示に基づき、又は確率的に切り替えるように構成され得る。
プロセッサ51は、S360又はS380において表示対象コンテンツを選択すると、続くS400において、コンテンツ関連データベース63から表示対象コンテンツに対応するコンテンツデータを読み出し、読み出したコンテンツデータと、S310でコンテンツリクエストと共に受信したユーザの位置及び向きの情報と、に基づいて、コンテンツの表示地点に対するユーザの相対位置及び向きに応じた外観で、表示対象コンテンツと仮想オブジェクトとの組合せからなるAR画像110をモバイルデバイス10に表示させるためのAR画像データを生成する。
その後、プロセッサ51は、S400で生成したAR画像データを格納した、コンテンツリクエストに対する応答データを、コンテンツリクエスト送信元に送信する(S410)。これにより、ユーザのモバイルデバイス10では、ユーザの位置及び向きに応じた外観でディスプレイ14にAR画像110が表示される。
プロセッサ51は、更に、応答データの送信によりモバイルデバイス10で表示されるコンテンツについての表示履歴を記録するように、対応するユーザの表示履歴データを更新する(S420)。その後、図10に示す受信応答処理を終了する。
以上に説明した本実施形態によれば、複数ユーザに共通する仮想オブジェクト120と、ユーザ別のコンテンツ130との組合せによる新規で有意義なAR表示が可能である。本実施形態によれば、AR画像110の表示が現実空間の地点と結びついている。そこで、表示地点の場所属性にふさわしくないコンテンツが表示されないように、禁止リストに基づき、一部属性のコンテンツが表示対象コンテンツに選択されないようにした。
従って、本実施形態によれば、現実空間との関係を考慮しつつ、ユーザの状態、行動特性、及び関心等に基づくユーザ別の適切なコンテンツを、AR画像110として、ユーザに表示可能である。
本開示が、上述した実施形態に限定されることなく、種々の態様を採り得ることは言うまでもない。例えば、時間的な変化の少ない静的な場所属性だけではなく、ユーザの視界に写る物体の属性である物属性に基づいて、表示対象コンテンツとして選択するコンテンツ群の絞り込みを行ってもよい。
例えば、サービス提供システム50は、選択制御データベース67に、場所属性に関連する禁止リストと共に、物属性に関連する禁止リストを備えることができる。プロセッサ51は、S360,S380において、図13に示す選択処理を実行することができる。
すなわち、プロセッサ51は、ユーザ又はユーザグループのモバイルデバイス10から受信した位置映像データに基づいて、ユーザ又はユーザグループの視界にある物の属性を判別し(S391)、その視界にある物属性に対応する禁止リストを読み出すことができる(S393)。
更に、プロセッサ51は、読み出した禁止リストに列挙されたコンテンツ属性に対応するコンテンツ群を、S330で絞り込まれたコンテンツ群から更に除外し(S395)、残りのコンテンツ群から表示対象コンテンツを選択する(S397)。S397での表示対象コンテンツの選択手法は、上述したS360,S380での選択手法と同様である。
こうした物属性に基づいた一部コンテンツ群の表示対象からの排除は、ユーザの視界に写る商品に競合する別の商品の広告コンテンツの表示を禁止するのに役立つ。
また、上述したモバイルデバイス10は、ウェアラブル機器ではなくスマートフォンやタブレットなどの携帯端末であってもよい。この他、サービス提供システム50で実行される処理の一部は、モバイルデバイス10で実行されてもよいし、モバイルデバイス10で実行される処理の一部は、サービス提供システム50で実行されてもよい。
モバイルデバイス10は、カメラ16に代えて、又は、カメラ16に加えて、LiDAR(Light Detection And Ranging)などの測距デバイスが周辺の空間位置座標の特定のために、及び、三次元マップの形成のために設けられてもよい。
モバイルデバイス10は、周辺の空間位置座標を示す測距デバイスからの測距データと、三次元マップデータ61とに基づいて、位置及び向きを推定するように構成されてもよい。測距データは、モバイルデバイス10からサービス提供システム50に送信されてもよい(S130)。三次元マップデータ61は、複数のモバイルデバイス10から収集される測距データに基づき生成されてもよい(S260)。モバイルデバイス10には、その他の周辺環境を捕捉するためのセンサが設けられてもよい。
コンテンツの選択手法も、上述した実施形態に説明した具体的手法に限定されない。例えば、ユーザの状態及び関心等に基づいたユーザの特徴を表す特徴ベクトルと、各コンテンツの特徴を表す特徴ベクトルとの間の特徴空間上の距離に基づいて、ユーザの特徴と各コンテンツの特徴との類似度を判別し、判別した類似度に基づいて表示対象コンテンツを選択するように、サービス提供システム50は構成されてもよい。
上述した共通する仮想オブジェクト120とユーザ別のコンテンツ130との組合せに基づくAR画像110の表示は、仮想オブジェクト120に対応する仮想的な缶の三次元画像に仮想的に貼り付けるコンテンツ130としてのラベルを、ユーザ別に選択することにより、ユーザの嗜好に合致した飲料の広告を行う目的にも活用できる。仮想オブジェクト120は、芸術性のある仮想的な外形を有することができる。この場合、コンテンツ130は、仮想オブジェクト120を装飾する模様及び色彩であってもよい。
フレンドの判別は、モバイルデバイス10がスマートフォンであるときの電話帳を参照して行われてもよいし、モバイルデバイス10内のチャットツールを参照して行われてもよい。
上記実施形態では、サービス提供システム50が、コンテンツ関連データベース63から表示対象コンテンツに対応するコンテンツデータを読み出し、コンテンツデータに基づくコンテンツ130を、仮想オブジェクト120と合成して、表示対象コンテンツと仮想オブジェクトとの組合せからなるAR画像110をモバイルデバイス10に表示させるためのAR画像データを生成した。
しかしながら、合成後のAR画像110を表すAR画像データが、最初からコンテンツ関連データベース63に、コンテンツデータとして格納されていてもよい。この場合、プロセッサ51は、S440において、表示対象コンテンツに対応するAR画像データを、コンテンツ関連データベース63から読み出し、このAR画像データを、ディスプレイ表示用の二次元データに変換して、応答データを、モバイルデバイス10に送信することができる。
この他、上記実施形態における1つの構成要素が有する機能は、複数の構成要素に分散して設けられてもよい。複数の構成要素が有する機能は、1つの構成要素に統合されてもよい。上記実施形態の構成の一部は、省略されてもよい。上記実施形態の構成の少なくとも一部は、他の上記実施形態の構成に対して付加又は置換されてもよい。特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
1…AR表示システム、10…モバイルデバイス、11…プロセッサ、12…メモリ、13…ストレージ、14…ディスプレイ、15…入力デバイス、16…カメラ、17…位置検出器、19…通信デバイス、50…サービス提供システム、51…プロセッサ、52…メモリ、53…ストレージ、59…通信デバイス、61…三次元マップデータ、63…コンテンツ関連データベース、65…登録地点データベース、67…選択制御データベース、69…顧客データベース、110…AR画像、120…仮想オブジェクト、130…コンテンツ、200…建物、631…コンテンツ関連データ、651…登録地点データ、671…選択制御データ、691…顧客データ、NT…広域ネットワーク。

Claims (17)

  1. 現実空間上の複数ユーザに共通する地点において前記複数ユーザのそれぞれに対して個別のコンテンツを表示するために、前記複数ユーザのそれぞれに対する表示対象のコンテンツを、予め用意されたコンテンツ群から選択する選択部と、
    前記共通する地点において前記表示対象のコンテンツが拡張現実表示されるように、前記複数ユーザのそれぞれが有するモバイルデバイスのディスプレイに対する表示制御を行う表示制御部と、
    を備える拡張現実表示システム。
  2. 請求項1記載の拡張現実表示システムであって、
    前記表示制御部は、前記表示対象のコンテンツが、前記複数ユーザに共通する仮想オブジェクトを含む拡張現実画像として表示されるように、前記ディスプレイに対する表示制御を行うように構成され、
    前記表示制御によって、前記複数ユーザのそれぞれの前記ディスプレイには、前記拡張現実画像に対応する三次元物体が仮に前記地点において現実に存在する場合の周囲からの前記三次元物体の外観を模倣するように、対応するユーザの位置及び向きに応じた形態で前記拡張現実画像が表示される拡張現実表示システム。
  3. 請求項2記載の拡張現実表示システムであって、
    前記複数ユーザのそれぞれの位置及び向きは、対応するユーザの前記モバイルデバイスに搭載されたカメラからの映像データ又は測距デバイスからの測距データと、前記現実空間の三次元マップデータとに基づいて推定され、
    前記拡張現実表示システムは、前記映像データ又は前記測距データに基づき、前記三次元マップデータを更新するように構成されるマップ更新部を更に備える拡張現実表示システム。
  4. 請求項1〜請求項3のいずれか一項記載の拡張現実表示システムであって、
    前記選択部は、前記複数ユーザのそれぞれの属性及び行動履歴の少なくとも一方を説明する説明データを取得し、前記説明データに基づき、前記複数ユーザのそれぞれに対する表示対象のコンテンツを、前記コンテンツ群から選択する拡張現実表示システム。
  5. 請求項1〜請求項4のいずれか一項記載の拡張現実表示システムであって、
    前記選択部は、前記複数ユーザのそれぞれに対する過去のコンテンツの表示履歴を説明する表示履歴データを取得し、前記表示履歴データに基づき、前記複数ユーザのそれぞれに対する表示対象のコンテンツを、前記コンテンツ群から選択する拡張現実表示システム。
  6. 請求項1〜請求項5のいずれか一項記載の拡張現実表示システムであって、
    前記現実空間を撮影するカメラからの映像データに基づき、前記複数ユーザのそれぞれの状態として、心理的な状態及び身体的な状態の少なくとも一方を判別するように構成される状態判別部
    を備え、
    前記選択部は、前記状態判別部により判別された前記複数ユーザのそれぞれの前記状態に基づき、前記複数ユーザのそれぞれに対する表示対象のコンテンツを、前記コンテンツ群から選択する拡張現実表示システム。
  7. 請求項1〜請求項6のいずれか一項記載の拡張現実表示システムであって、
    ユーザ間の社会的関係を判別するように構成される関係判別部
    を備え、
    前記選択部は、前記関係判別部により判別された前記社会的関係に基づいて、前記複数ユーザのそれぞれに対する表示対象のコンテンツを、前記コンテンツ群から選択する拡張現実表示システム。
  8. 請求項7記載の拡張現実表示システムであって、
    前記関係判別部は、前記複数ユーザのそれぞれの予め登録された知人情報に基づき、前記社会的関係を判別し、
    前記選択部は、知人関係にあるユーザグループに対して、同じコンテンツ又は相互に関連するコンテンツが表示されるように、前記複数ユーザのそれぞれに対する表示対象のコンテンツを、前記コンテンツ群から選択する拡張現実表示システム。
  9. 請求項1〜請求項8のいずれか一項記載の拡張現実表示システムであって、
    前記コンテンツが表示される前記地点の特徴を判別するように構成される地点判別部
    を備え、
    前記選択部は、前記地点判別部により判別された前記地点の特徴に基づいて、前記複数ユーザのそれぞれに対する表示対象のコンテンツを、前記コンテンツ群から選択するように構成される拡張現実表示システム。
  10. 請求項9記載の拡張現実表示システムであって、
    前記選択部は、前記地点の特徴に応じて前記コンテンツ群の一部を選択対象から除外し、残りのコンテンツ群の中から、前記複数ユーザのそれぞれに対する表示対象のコンテンツを選択するように構成される拡張現実表示システム。
  11. 請求項10記載の拡張現実表示システムであって、
    前記選択部は、前記コンテンツ群における各コンテンツの特徴と前記地点の特徴との関係に基づいて、前記コンテンツ群の一部を選択対象から除外する拡張現実表示システム。
  12. 拡張現実表示システムであって、
    予め用意されたコンテンツ群から表示対象のコンテンツを選択するように構成される選択部と、
    前記表示対象のコンテンツがユーザの視界において現実空間に重ねて拡張現実表示されるように、前記ユーザが有するモバイルデバイスのディスプレイに対する表示制御を行うように構成される表示制御部と、
    前記コンテンツが表示される前記現実空間上の地点の特徴を判別するように構成される地点判別部と、
    を備え、
    前記選択部は、前記コンテンツ群における各コンテンツの特徴と前記地点の特徴との関係に基づいて、前記コンテンツ群の一部を選択対象から除外し、残りのコンテンツ群の中から、前記表示対象のコンテンツを選択する拡張現実表示システム。
  13. 請求項11又は請求項12記載の拡張現実表示システムであって、
    前記地点判別部は、前記地点の特徴として、前記地点に存在する施設の属性を判別し、
    前記選択部は、前記施設の属性との関係に基づいて、前記コンテンツ群の一部を選択対象から除外する拡張現実表示システム。
  14. 請求項1〜請求項5のいずれか一項記載の拡張現実表示システムにおける前記選択部及び前記表示制御部としてコンピュータを機能させるためのコンピュータプログラム。
  15. コンピュータによって実行される拡張現実表示方法であって、
    現実空間上の複数ユーザに共通する地点において前記複数ユーザのそれぞれに対して個別のコンテンツを表示するために、前記複数ユーザのそれぞれに対する表示対象のコンテンツを、予め用意されたコンテンツ群から選択することと、
    前記共通する地点において前記表示対象のコンテンツが拡張現実表示されるように、前記複数ユーザのそれぞれが有するモバイルデバイスのディスプレイに対する表示制御を行うことと、
    を含む拡張現実表示方法。
  16. 請求項15記載の拡張現実表示方法であって、
    前記表示制御を行うことは、前記表示対象のコンテンツが前記複数ユーザに共通する仮想オブジェクトを含む拡張現実画像として表示されるように、前記ディスプレイに対する表示制御を行うことを含み、
    前記表示制御によって、前記複数ユーザのそれぞれの前記ディスプレイには、前記拡張現実画像に対応する三次元物体が仮に前記地点において現実に存在する場合の周囲からの前記三次元物体の外観を模倣するように、対応するユーザの位置及び向きに応じた形態で前記拡張現実画像が表示される拡張現実表示方法。
  17. コンピュータによって実行される拡張現実表示方法であって、
    予め用意されたコンテンツ群から表示対象のコンテンツを選択することと、
    前記表示対象のコンテンツがユーザの視界において現実空間に重ねて拡張現実表示されるように、前記ユーザが有するモバイルデバイスのディスプレイに対する表示制御を行うことと、
    前記コンテンツが表示される前記現実空間上の地点の特徴を判別することと、
    を備え、
    前記選択することは、前記コンテンツ群における各コンテンツの特徴と前記地点の特徴との関係に基づいて、前記コンテンツ群の一部を選択対象から除外し、残りのコンテンツ群の中から、前記表示対象のコンテンツを選択することを含む拡張現実表示方法。
JP2020061895A 2020-03-31 2020-03-31 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム Active JP6889304B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020061895A JP6889304B1 (ja) 2020-03-31 2020-03-31 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020061895A JP6889304B1 (ja) 2020-03-31 2020-03-31 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP6889304B1 JP6889304B1 (ja) 2021-06-18
JP2021162980A true JP2021162980A (ja) 2021-10-11

Family

ID=76429569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020061895A Active JP6889304B1 (ja) 2020-03-31 2020-03-31 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6889304B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220365990A1 (en) * 2021-05-11 2022-11-17 Google Llc Determining a visual theme in a collection of media items

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010231741A (ja) * 2009-03-30 2010-10-14 Nec Corp 電子タグ作成表示システム、電子タグ作成表示装置およびそれらの方法
JP2011186808A (ja) * 2010-03-09 2011-09-22 Sony Corp 情報処理装置、マップ更新方法、プログラム及び情報処理システム
WO2013108549A1 (ja) * 2012-01-16 2013-07-25 シャープ株式会社 Ar情報管理装置、ar情報管理方法
JP2014127148A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
JP2015114996A (ja) * 2013-12-13 2015-06-22 富士通株式会社 情報提供装置、方法、及びシステム
WO2016017253A1 (ja) * 2014-08-01 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2016071471A (ja) * 2014-09-29 2016-05-09 京セラドキュメントソリューションズ株式会社 物品情報提供装置、物品情報提供システム、物品情報提供方法及び物品情報提供プログラム
WO2018125766A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality personalized content
JP2018106696A (ja) * 2016-12-23 2018-07-05 雨暹 李 移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステム
US20200098012A1 (en) * 2018-09-25 2020-03-26 XRSpace CO., LTD. Recommendation Method and Reality Presenting Device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010231741A (ja) * 2009-03-30 2010-10-14 Nec Corp 電子タグ作成表示システム、電子タグ作成表示装置およびそれらの方法
JP2011186808A (ja) * 2010-03-09 2011-09-22 Sony Corp 情報処理装置、マップ更新方法、プログラム及び情報処理システム
WO2013108549A1 (ja) * 2012-01-16 2013-07-25 シャープ株式会社 Ar情報管理装置、ar情報管理方法
JP2014127148A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
JP2015114996A (ja) * 2013-12-13 2015-06-22 富士通株式会社 情報提供装置、方法、及びシステム
WO2016017253A1 (ja) * 2014-08-01 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2016071471A (ja) * 2014-09-29 2016-05-09 京セラドキュメントソリューションズ株式会社 物品情報提供装置、物品情報提供システム、物品情報提供方法及び物品情報提供プログラム
JP2018106696A (ja) * 2016-12-23 2018-07-05 雨暹 李 移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステム
WO2018125766A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality personalized content
US20200098012A1 (en) * 2018-09-25 2020-03-26 XRSpace CO., LTD. Recommendation Method and Reality Presenting Device

Also Published As

Publication number Publication date
JP6889304B1 (ja) 2021-06-18

Similar Documents

Publication Publication Date Title
US11659348B2 (en) Localizing binaural sound to objects
US11107368B1 (en) System for wireless devices and intelligent glasses with real-time connectivity
US11162796B2 (en) Interactive venue assistant
US9418481B2 (en) Visual overlay for augmenting reality
US11080310B2 (en) Information processing device, system, information processing method, and program
US10554870B2 (en) Wearable apparatus and methods for processing image data
US20180241708A1 (en) Controlling whether incoming information is blocked
US9645221B1 (en) Communication system and method
US20200004291A1 (en) Wearable apparatus and methods for processing audio signals
US20140195371A1 (en) Information processing apparatus, information processing method, program and terminal apparatus
US20120019557A1 (en) Displaying augmented reality information
CN110531847B (zh) 一种基于增强现实的社交方法及系统
US20210209676A1 (en) Method and system of an augmented/virtual reality platform
JP6720385B1 (ja) プログラム、情報処理方法、及び情報処理端末
US11016558B2 (en) Information processing apparatus, and information processing method to determine a user intention
KR20170121720A (ko) Vr 공간에서 컨텐트를 제공하는 방법, 디바이스 및 기록매체
TW201823983A (zh) 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
US20220346683A1 (en) Information processing system and information processing method
JP2013054494A (ja) 情報処理装置、情報処理方法、プログラム、記録媒体、及び情報処理システム
JP6889304B1 (ja) 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム
US20200334731A1 (en) Product comparison techniques
KR20150127472A (ko) 증강 현실 제공 장치 및 방법
US20200279110A1 (en) Information processing apparatus, information processing method, and program
US20210192844A1 (en) Passive Data Capture-based Environment Generation
WO2023026546A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200331

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200331

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210520

R150 Certificate of patent or registration of utility model

Ref document number: 6889304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150