JP6606312B2 - 情報処理装置、情報処理方法、および情報処理プログラム - Google Patents

情報処理装置、情報処理方法、および情報処理プログラム Download PDF

Info

Publication number
JP6606312B2
JP6606312B2 JP2019522596A JP2019522596A JP6606312B2 JP 6606312 B2 JP6606312 B2 JP 6606312B2 JP 2019522596 A JP2019522596 A JP 2019522596A JP 2019522596 A JP2019522596 A JP 2019522596A JP 6606312 B2 JP6606312 B2 JP 6606312B2
Authority
JP
Japan
Prior art keywords
region
overlaps
computer
time zone
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019522596A
Other languages
English (en)
Other versions
JPWO2019097726A1 (ja
Inventor
ケルビン カ シン チェング
宗 益子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP6606312B2 publication Critical patent/JP6606312B2/ja
Publication of JPWO2019097726A1 publication Critical patent/JPWO2019097726A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

本発明の一側面は、ユーザに拡張現実を提供する情報処理装置、情報処理方法、および情報処理プログラムに関する。
ユーザの視線の先にあるオブジェクトを特定してそのオブジェクトに関連する情報を拡張現実として該ユーザに提供する情報処理装置が知られている。例えば、特許文献1は、ユーザの目を撮影することでユーザの視線を検知する撮影手段と、検知したユーザの視線に基づいて、3次元データとして表示された対象物を特定し、対象物を関心対象データとして出力する関心データ出力手段とを備えるヘッドマウントディスプレイを記載する。
特開2017−33334号公報
ユーザに装着された情報処理装置が該ユーザの視界に入るすべてのオブジェクトの関連情報を取得しようとすると、その関連情報をサーバから取得し終えるのに時間が掛かる可能性がある。加えて、その端末が関連情報を取得できたとしても、その処理の間にユーザの視界が変化してしまうと、視界から外れたオブジェクトの関連情報は端末に表示されることなく破棄される。そのため、情報処理装置とサーバとの間のデータ通信が無駄なものになってしまう。
そこで、ユーザに拡張現実を提供する情報処理装置のデータ通信を効率良く実行することが望まれている。
本発明の一側面に係る情報処理装置は、ユーザの視覚に対応する注目領域を検出する検出部と、ユーザが存在する空間内にある1以上のオブジェクトの中から、注目領域と重なる第1オブジェクトを特定する特定部と、第1オブジェクトが注目領域と重なる第1時間帯において、第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求する要求部と、第1時間帯において、要求に応じて他のコンピュータから送信されてきた第1オブジェクト情報を受信する受信部とを備える。
本発明の一側面に係る情報処理方法は、プロセッサを備える情報処理装置により実行される情報処理方法であって、ユーザの視覚に対応する注目領域を検出する検出ステップと、ユーザが存在する空間内にある1以上のオブジェクトの中から、注目領域と重なる第1オブジェクトを特定する特定ステップと、第1オブジェクトが注目領域と重なる第1時間帯において、第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求する要求ステップと、第1時間帯において、要求に応じて他のコンピュータから送信されてきた第1オブジェクト情報を受信する受信ステップとを含む。
本発明の一側面に係る情報処理プログラムは、ユーザの視覚に対応する注目領域を検出する検出ステップと、ユーザが存在する空間内にある1以上のオブジェクトの中から、注目領域と重なる第1オブジェクトを特定する特定ステップと、第1オブジェクトが注目領域と重なる第1時間帯において、第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求する要求ステップと、第1時間帯において、要求に応じて他のコンピュータから送信されてきた第1オブジェクト情報を受信する受信ステップとをコンピュータに実行させる。
このような側面においては、オブジェクトが注目領域と重なる第1時間帯においてそのオブジェクトに関連する第1オブジェクト情報の要求および受信が実行される。この第1時間帯ではユーザはそのオブジェクトに注目していると推定されるので、通信ネットワークを介して提供される第1オブジェクトの情報はユーザにとって有用であり無駄にはならない。このように、ユーザがオブジェクトを注目していると推定される時間帯に情報を要求および受信することで、情報処理装置のデータ通信を効率良く実行することができる。
本発明の一側面によれば、ユーザに拡張現実を提供する情報処理装置のデータ通信を効率良く実行することができる。
拡張現実(AR)システムの全体構成の例を示す図である。 実施形態に係るヘッドマウントディスプレイ(HMD)のハードウェア構成の例を示す図である。 実施形態に係るサーバのハードウェア構成の例を示す図である。 実施形態に係るARシステムの機能構成の例を示す図である。 人間の視野の例を示す図である。 実施形態に係るHMDでの全体的な処理の例を示すフローチャートである。 HMDでの注目領域および周辺領域の検出の例を示すフローチャートである。 オブジェクト情報の取得に関するHMDとサーバとの連携の例を示すシーケンス図である。 一つのオブジェクトについてのオブジェクト情報の取得の例を示すフローチャートである。 実施形態に係るサーバでのオブジェクト検索の例を示すフローチャートである。 オブジェクト情報の表示の例を示す図である。 一つのオブジェクトについてのオブジェクト情報の取得の別の例を示すフローチャートである。 オブジェクト情報の表示の別の例を示す図である。 一つのオブジェクトについてのオブジェクト情報の取得のさらに別の例を示すフローチャートである。 実施形態に係る情報処理プログラムの構成を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。
[システムの構成]
本実施形態では、本発明に係る情報処理装置をヘッドマウントディスプレイ(HMD)10に適用する。HMD10は、ユーザの頭部に装着する表示装置であり、ウェアラブル端末の一種である。HMD10はユーザの両眼を覆うように装着され、ユーザはそのHMD10上に表示される情報を見ることができる。本実施形態では、HMD10はユーザに拡張現実を提供するために用いられる。拡張現実とは、コンピュータにより処理された情報が現実世界に付加された世界である。したがって、HMD10の表示方式は、光学透過やビデオ透過などの透過型である。ユーザとは、HMD10を装着して拡張現実を体験する人である。
図1は、HMD10を含む拡張現実(AR)システム1の全体構成の例を示す図である。ARシステム1は、HMD10のユーザに拡張現実を提供するコンピュータシステムである。ARシステム1はHMD10に加えてサーバ20およびデータベース群30を備える。図1では1台のHMD10を示すが、ARシステム1に含まれるHMD10の台数は限定されず、ARシステム1は複数のHMD10を備えてもよい。HMD10およびサーバ20は通信ネットワークNを介して互いにデータを送受信することができる。サーバ20は通信ネットワークNを介してデータベース群30にアクセスすることができる。サーバ20は、拡張現実を実現するための情報をHMD10に提供するコンピュータであり、HMD10にとって「他のコンピュータ」に相当する。データベース群30は、拡張現実の提供に必要なデータを記憶する装置である。通信ネットワークNの構成は限定されず、例えばインターネットまたはイントラネットを含んで構成されてもよい。通信ネットワークNのうちHMD10と接続する部分は一般には無線通信ネットワークである。
図2はHMD10のハードウェア構成の例を示す図である。例えば、HMD10はプロセッサ101、主記憶部102、補助記憶部103、通信モジュール104、ディスプレイ105、カメラ106、慣性計測ユニット(IMU)107、全地球測位システム(GPS)108、および深度センサ109を含む。プロセッサ101は、オペレーティングシステムやアプリケーション・プログラムなどを実行する演算装置である。主記憶部102はROMおよびRAMで構成され、ロードされたプログラムや演算結果などを一時的に記憶する。補助記憶部103はフラッシュメモリなどで構成され、プログラムまたはデータを永続的に記憶する。通信モジュール104は無線通信モジュールなどで構成され、他のコンピュータとの間でデータの送受信を実行する。ディスプレイ105はユーザが視認できるようにデータまたは情報を表示する装置であり、左眼用の画像および右眼用の画像を表示することで立体視を実現させる。カメラ106はユーザの周辺環境を撮影したり、ユーザの眼を撮影したりするためのセンサであり、HMD10はこのような撮影の目的毎に複数種類のカメラを搭載し得る。IMU107は、運動を規定する3軸の角度または角速度と加速度とを検出するセンサである。GPS108は複数の人工衛星から発信された電波を用いて現在位置を算出するシステムである。深度センサ109は対象物までの距離を測定するセンサであり、例えば赤外線深度センサで構成される。HMD10はこれらのハードウェア要素の一部を備えなくてもよいし、他のハードウェア要素を備えてもよい。HMD10の形状としては眼鏡型、ゴーグル型、ヘルメット型などがあるが、形状は限定されない。
HMD10の各機能要素は、プロセッサ101または主記憶部102の上に所定のソフトウェア(例えば、後述するクライアントプログラムP1)を読み込ませてそのソフトウェアを実行させることで実現される。プロセッサ101はそのソフトウェアに従って通信モジュール104、ディスプレイ105、カメラ106、IMU107、GPS108、または深度センサ109を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行う。処理に必要なデータまたはデータベースは主記憶部102または補助記憶部103内に格納される。
図3はサーバ20のハードウェア構成の例を示す図である。サーバ20は、オペレーティングシステムやアプリケーション・プログラムなどを実行するプロセッサ201と、ROMおよびRAMで構成される主記憶部202と、ハードディスクやフラッシュメモリなどで構成される補助記憶部203と、ネットワークカードまたは無線通信モジュールで構成される通信制御部204と、キーボードやマウスなどの入力装置205と、モニタなどの出力装置206とを備える。サーバ20はこれらのハードウェア要素の一部を備えなくてもよいし、他のハードウェア要素を備えてもよい。
サーバ20の各機能要素は、プロセッサ201または主記憶部202の上に所定のソフトウェア(例えば、後述するサーバプログラムP2)を読み込ませてそのソフトウェアを実行させることで実現される。プロセッサ201はそのソフトウェアに従って、通信制御部204、入力装置205、または出力装置206を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。処理に必要なデータまたはデータベースは主記憶部202または補助記憶部203内に格納される。
サーバ20は1台のコンピュータで構成されてもよいし、複数台のコンピュータで構成されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータがインターネットやイントラネットなどの通信ネットワークを介して接続されることで、論理的に一つのサーバ20が構築される。
図4はARシステム1の機能構成の例を示す図である。HMD10は機能的構成要素として視野設定部11、視野検出部12、オブジェクト特定部13、要求部14、受信部15、および表示制御部16を備える。言い換えると、プロセッサ101は視野設定部11、視野検出部12、オブジェクト特定部13、要求部14、受信部15、および表示制御部16として機能する。サーバ20は機能的構成要素としてユーザ検索部21、受信部22、オブジェクト検索部23、および送信部24を備える。すなわち、プロセッサ201はユーザ検索部21、受信部22、オブジェクト検索部23、および送信部24として機能する。
HMD10の各機能要素の概要を説明する。視野設定部11は、HMD10上でのユーザの視野を設定する機能要素である。より具体的には、視野設定部11は視野角に応じて複数種類の視野を設定する。例えば、視野設定部11はユーザの注視点(ユーザが見ている点)からの範囲(角度)を設定することで、該ユーザの中心視、有効視野、および周辺視野を設定する。視野設定部11は視野を設定するためにサーバ20からユーザ属性を取得してもよい。
中心視とは、人間が物体の属性(例えば形および色)を明確に認識できる領域であり、一般には注視点(ユーザが見ている(注目している)位置)から1〜2°までの非常に限られた範囲である。有効視野とは、人間が物体の属性をほぼ明確に認識できる、中心視およびその周りの領域であり、一般には注視点から4〜20°の範囲である。周辺視野とは、中心視および有効視野以外の領域(言い換えると、有効視野の外側の領域)であり、人間はこの周辺視野内の物体を明確に認識できない。周辺視野に関しては、人間は動く物体や目立つ物体については比較的認識し易いが、静止している物体や目立たない物体については認識しづらいという特性がある。中心視、有効視野、および周辺視野は年齢などによる個人差がある。図5は人間の視野を示す図である。中心視41、有効視野42、および周辺視野43は視点44および注視点45に基づいて定まる。視点とは視線の基点となる位置であり、例えば、ユーザの両眼の中間点が視点として設定され得る。この図では視野を2次元(水平方向に沿った範囲)で示すが、視野は鉛直方向についても同様に定義され、したがって、実際には立体的に定義される。
視野検出部12は、ユーザの視覚に対応する注目領域および周辺領域を検出する機能要素である。注目領域とは、HMD10上でのユーザの視野のうち、該ユーザが物体を明確に認識する領域であり、注視点を含む限定された領域である。周辺領域とは、HMD10上でのユーザの視野のうち注目領域以外の領域である。視野検出部12は中心視を含む注目領域を検出してもよく、例えば中心視のみを注目領域として検出してもよいし、中心視と有効視野の一部または全部とから成る領域を注目領域として検出してもよい。いずれにしても、注目領域は周辺視野を含まない。視野検出部12は注目領域以外の部分を周辺領域として特定する。「ユーザの視覚に対応する注目領域および周辺領域」とはユーザの現在の視線に基づいて設定される注目領域および周辺領域のことをいう。したがって、検出される注目領域および周辺領域はユーザの位置、向き、および動きにより変わる。
オブジェクト特定部13は、ユーザが存在する空間内にあるオブジェクトの中から、検出された注目領域と重なる第1オブジェクトと、検出された周辺領域と重なる第2オブジェクトとを特定する機能要素である。「ユーザが存在する空間」は、ユーザが存在する現実空間と、HMD10によりユーザに提供される仮想空間との少なくとも一方を含む概念である。したがって、「ユーザが存在する空間内にあるオブジェクト」とは、現実空間にある現実のオブジェクトと、HMD10のディスプレイ105上に表示されている仮想オブジェクトとの双方を含む概念である。オブジェクトとは、ユーザが視認可能な有体物または可視化された無体物である。「注目領域と重なる第1オブジェクト」とは、ユーザが視認するディスプレイ105上において、注目領域の少なくとも一部と重なるオブジェクトである。「周辺領域と重なる第2オブジェクト」とは、ユーザが視認するディスプレイ105上において、注目領域とは重なることなく周辺領域と重なるオブジェクトである。オブジェクト特定部13は1以上の第1オブジェクトと1以上の第2オブジェクトとを特定することができる。
要求部14は、オブジェクトに関連するオブジェクト情報をサーバ20に要求する機能要素である。要求部14はオブジェクト情報を要求するための信号である要求信号を生成し、この要求信号をサーバ20に送信する。本実施形態では、オブジェクト情報には、第1オブジェクトに関連する第1オブジェクト情報と、第2オブジェクトに関連する第2オブジェクト情報との2種類がある。第1オブジェクト情報も第2オブジェクト情報もHMD10上に表示される(すなわち可視化される)。オブジェクト情報のデータ項目および内容は限定されない。
受信部15は、要求部14による要求に応じてサーバ20から送信されてきた第1オブジェクト情報または第2オブジェクト情報を受信する機能要素である。受信されるオブジェクト情報は、要求信号に対する応答信号であるといえる。
表示制御部16は、受信された第1オブジェクト情報または第2オブジェクト情報をディスプレイ105上に表示する機能要素である。表示制御部16は、ユーザが既に見ている現実のまたは仮想の個々のオブジェクトと関連付けて個々のオブジェクト情報をHMD10上に表示する。
次に、サーバ20の各機能要素の概要を説明する。ユーザ検索部21は、視野設定部11からの要求に応じてユーザ属性を送信する機能要素である。受信部22は、要求部14から送信されてきた要求信号を受信する機能要素である。オブジェクト検索部23は、その要求信号に基づいてオブジェクト情報を検索する機能要素である。送信部24はそのオブジェクト情報をHMD10に送信する機能要素である。
データベース群30は、1以上のデータベースの集合である。データベースとは、プロセッサまたは外部のコンピュータからの任意のデータ操作(例えば、抽出、追加、削除、上書きなど)に対応できるようにデータ集合を記憶する機能要素(記憶部)である。データベースの実装方法は限定されず、例えばデータベース管理システムでもよいし、設定ファイルなどのテキストファイルでもよい。本実施形態では、データベース群30はユーザデータベース31およびオブジェクトデータベース32を含む。
ユーザデータベース31は、ユーザ情報を記憶する装置である。ユーザ情報はユーザの属性を示すデータ項目を含む情報である。ユーザ属性とはユーザの性質または特徴であり、いわゆる個人情報を含み得る。ユーザ情報の各レコードは、個々のユーザを一意に特定するための識別子であるユーザIDにより特定される。ユーザを識別することができるのであれば何をユーザIDとして用いてもよく、例えば、単なる連番または個人のアカウントをユーザIDとして用いてもよい。ユーザ属性は1以上のデータ項目で表され、その個数および種類は何ら限定されない。例えば、ユーザ属性は氏名、生年月日(年齢)、性別、住所、電話番号、メールアドレスなどのデータ項目を含んでもよい。
オブジェクトデータベース32は、オブジェクト情報を記憶する装置である。オブジェクト情報は、オブジェクトの属性(性質または特徴)を示すデータ項目を含む情報である。オブジェクト情報の各レコードは、個々のオブジェクトを一意に特定するための識別子であるオブジェクトIDにより特定される。オブジェクトを識別することができるのであれば何をオブジェクトIDとして用いてもよく、例えば、単なる連番、製品番号、または型番をオブジェクトIDとして用いてもよい。オブジェクト属性は1以上のデータ項目で表され、その個数および種類は何ら限定されない。例えば、オブジェクト属性は商品名、メーカ名、販売者名(店舗名)、販売価格、商品説明、ユーザによる評価またはコメントなどのデータ項目を含んでもよい。
[システムの動作]
図6〜図14を参照しながら、ARシステム1の動作を説明するとともに本実施形態に係る情報処理方法について説明する。図6はHMD10での全体的な処理の例を示すフローチャートである。図7はHMD10での注目領域および周辺領域の検出の例を示すフローチャートである。図8はオブジェクト情報の取得に関するHMD10とサーバ20との連携の例を示すシーケンス図である。図9は一つのオブジェクトについてのオブジェクト情報の取得の例を示すフローチャートである。図10はサーバ20でのオブジェクト検索の例を示すフローチャートである。図11はオブジェクト情報の表示の例を示す図である。図12は一つのオブジェクトについてのオブジェクト情報の取得の別の例を示すフローチャートである。図13はオブジェクト情報の表示の別の例を示す図である。図14は一つのオブジェクトについてのオブジェクト情報の取得のさらに別の例を示すフローチャートである。
図6を参照しながらHMD10での処理の概要を説明する。ステップS11では、視野設定部11がユーザの視野を設定する。視野設定部11はユーザの属性に基づいて中心視、有効視野、および周辺視野を設定してもよいし、ユーザの属性に関係なく予め設定された中心視、有効視野、および周辺視野をそのまま採用してもよい。視野設定部11はユーザ入力に基づいて中心視、有効視野、および周辺視野の大きさを変更する調整機能を有してもよい。
ステップS12では、視野検出部12が、ユーザの視覚に対応する注目領域および周辺領域を検出する。視野検出部12は視野設定部11により設定された視野とユーザの現在の状態とに基づいて、現在の注目領域および周辺領域を検出する。注目領域および周辺領域の検出とは、HMD10上での注目領域および周辺領域の範囲を特定する処理である。ユーザの現在の状態は、ユーザの姿勢と移動の有無とに基づいて特定され得る。
ステップS13では、オブジェクト特定部13が第1オブジェクトまたは第2オブジェクトを特定する。オブジェクト特定部13は、検出された注目領域と、ユーザが存在する空間内にあるオブジェクト(具体的には、ディスプレイ105を通じてユーザの視野に入っているオブジェクト)との重なりを検査することで第1オブジェクトを特定する。また、オブジェクト特定部13は、検出された周辺領域と、ユーザが存在する空間内にあるオブジェクトとの重なりを検査することで第2オブジェクトを特定する。
ステップS14では、要求部14および受信部が協働して第1オブジェクト情報または第2オブジェクト情報をサーバ20から取得する。
ステップS15では、表示制御部16が第1オブジェクトまたは第2オブジェクトをディスプレイ105上に表示する。表示制御部16はオブジェクト情報を任意の形式で表示してよく、例えばテキスト、記号、図形、静止画、動画などの形式でオブジェクト情報を表示してよい。表示制御部16は、それぞれのオブジェクト情報を対応するオブジェクトの近傍に表示してもよく、この表示手法によりオブジェクトとその情報との関係を視覚的にわかり易くユーザに伝えることができる。
ステップS16として示すように、ステップS12〜ステップS15の一連の処理は、処理の終了がユーザ入力などにより指示されるまで繰り返し実行され得る。
図7を参照しながら、注目領域および周辺領域の検出の例を詳細に説明する。ステップS111では、視野設定部11はメモリ(主記憶部102または補助記憶部103)を参照して視野情報が既に記憶されているか否かを検査する。視野情報は、ユーザの静止時における中心視、有効視野、および周辺視野を示す情報である。上述したように人間の視野には個人差があるので、HMD10上での視野を個々のユーザに合わせて設定することで、第1オブジェクトおよび第2オブジェクトを正確に特定することができる。
視野情報がまだHMD10のメモリ内に記憶されていない場合には(ステップS111においてNO)、ステップS112において、視野設定部11が、ユーザIDを含む信号をサーバ20に送信する(ステップS12)。
ステップS113では、サーバ20のユーザ検索部21がその信号を受信し、ユーザIDを用いてユーザデータベース31を検索することで、そのユーザIDに対応するユーザ属性を取得する。ステップS114では、ユーザ検索部21はそのユーザ属性を応答信号としてHMD10に送信する。
ステップS115では、視野設定部11がその応答信号を受信し、ユーザ属性に基づいて視野情報を生成する。視野設定部11は、中心視、有効視野、および周辺視野をユーザ属性から決定するための設定規則を予め保持しており、その規則を参照することで、ユーザ属性に対応する中心視、有効視野、および周辺視野を設定する。一例として、設定規則は、生体情報(例えば年齢)と、中心視、有効視野、および周辺視野のそれぞれの大きさ(注視点からの角度)との対応関係を示してもよい。例えば、設定規則は、年齢が65歳未満である場合には、有効視野が注視点から20°までの範囲であり、かつ周辺視野が注視点から100°までの範囲である、という対応関係を含んでもよい。その設定規則はさらに、年齢が65歳以上である場合には、有効視野が注視点から10°までの範囲であり、かつ周辺視野が注視点から90°までの範囲である、という対応関係を含んでもよい。設定規則の詳細はこれに限定されず、例えば異なる閾値および設定値を用いて定義されてもよいし、年齢以外のユーザ属性を用いて定義されてもよい。いずれにしても、視野設定部11はユーザ属性および設定規則に基づいてユーザの視野(中心視、有効視野、および周辺視野)を設定し、その視野を示す視野情報を生成する。そして、視野設定部11はその視野情報をメモリ(主記憶部102または補助記憶部103)に格納すると共に、その視野情報を以降の処理で用いる。
一方、視野情報が既にメモリ内に記憶されている場合には(ステップS111においてYES)、視野設定部11はその視野情報をメモリから読み出す。
ステップS116において、視野検出部12がユーザの現在の状態を取得する。例えば、視野設定部11は、カメラ106またはIMU107から得られるデータを用いて視線トラッキングやポジショントラッキングなどの追跡機能を実行することでユーザの視線(視点および注視点)を求める。さらに、視野設定部11はカメラ106、IMU107、またはGPS108から得られるデータを用いてユーザの現在の移動速度を求める。
ステップS117において、視野検出部12は、視野情報とユーザの現在の状態とに基づいて注目領域および周辺領域を検出する。具体的には、視野検出部12は、視野情報で示される視野(中心視、有効視野、および周辺視野)と算出された視線(視点および注視点)とに基づいて、ユーザが静止している場合の現在の注目領域および周辺領域を算出する。そして、視野検出部12は算出された移動速度に基づいてそれらの領域を調整する。一般に、人間は早く移動するほど視野は狭くなり、例えば、運転者の視野は自動車の速度が大きくなるほど狭くなる。移動速度に基づく注目領域および周辺領域の調整は、このような一般的な現象を考慮した処理である。視野検出部12は、移動速度に基づいて注目領域および周辺領域を調整するための調整規則を予め保持しており、その規則を参照することで注目領域および周辺領域を調整する。調整規則は、移動速度と、注目領域および周辺領域のそれぞれの大きさ(注視点からの角度)との対応関係を示してもよい。例えば、調整規則は、移動速度がVa未満である場合には注目領域および周辺領域を調整せず(すなわち、静止時の注目領域および周辺領域を用いる)、移動速度Va以上である場合には、移動速度の増加に応じて注目領域および周辺領域を狭めるように定義されてもよい。
視野検出部12による処理(ステップS116,S117)は、ユーザの状態の変化(具体的には、ユーザの姿勢および移動速度の変化)に応じて繰り返し実行される。
図8を参照しながら、オブジェクト情報の取得に関するHMD10とサーバ20との連携の例を詳細に説明する。ステップS121では、オブジェクト特定部13が注目領域と重なるオブジェクトを第1オブジェクトとして特定する。オブジェクト特定部13はカメラ106または深度センサ109から得られるデータ基づいて個々のオブジェクトの位置を推定する。そして、オブジェクト特定部13はディスプレイ105上におけるそれぞれのオブジェクトと注目領域との位置関係を求めることで、注目領域と重なるオブジェクトを第1オブジェクトとして特定する。なお、第1オブジェクトが一つも特定されない場合があり得る。1以上の第1オブジェクトを特定した場合には、オブジェクト特定部13は、第1オブジェクト情報を得るための第1検索キーをそれぞれの第1オブジェクトから取得する。第1検索キーおよびその取得方法は限定されない。例えば、オブジェクト特定部13はカメラ106の画像を解析することで、第1オブジェクト上に印刷、シールなどにより表現されているテキストまたは2次元バーコードを文字列に変換し、その文字列を第1検索キーとして取得してもよい。例えば、第1検索キーはオブジェクトIDを含んでもよい。
ステップS122では、オブジェクト特定部13は周辺領域と重なるオブジェクトを第2オブジェクトとして特定する。オブジェクト特定部13は第1オブジェクトと同様に、ディスプレイ105上におけるそれぞれのオブジェクトと周辺領域との位置関係を求めることで第2オブジェクトを特定する。1以上の第2オブジェクトを特定した場合には、オブジェクト特定部13は第1オブジェクトと同様の手法で、第2オブジェクト情報を得るための第2検索キーをそれぞれの第2オブジェクトから取得する。第2検索キーはオブジェクトIDを含んでもよい。
ステップS123では、要求部14が要求信号を生成してこの信号をサーバ20に送信する。要求部14は第1検索キーまたは第2検索キーを含む要求信号を生成する。この処理において、要求部14は、サーバ20が第1検索キーと第2検索キーとを区別できるようにこれら2種類の検索キーを要求信号に含める。
この要求信号に応じてサーバ20がオブジェクト情報を検索する。ステップS124では、オブジェクト検索部23が第1検索キーに従って第1オブジェクト情報をオブジェクトデータベース32から取得する。ステップS125では、オブジェクト検索部23はさらに第2検索キーに従って第2オブジェクト情報をオブジェクトデータベース32から取得する。要求信号が第1検索キーを含まない場合にはステップS124が省略され、要求信号が第2検索キーを含まない場合にはステップS125が省略される。ステップS126では、送信部24が、第1オブジェクト情報または第2オブジェクト情報を要求信号への応答としてHMD10に送信する。
この応答に応じてHMD10がオブジェクト情報を受信および表示する。ステップS127では、表示制御部16が受信された第1オブジェクト情報または第2オブジェクト情報をディスプレイ105上に表示する。表示制御部16はディスプレイ105上での各第1/第2オブジェクトの位置に基づいて各第1/第2オブジェクト情報を表示する。
ある一つのオブジェクトAが、第1オブジェクトとして処理されるか、第2オブジェクトとして処理されるか、あるいは処理されないかは、検出された注目領域および周辺領域と、オブジェクトAとの位置関係により変わる。言い換えると、HMD10がオブジェクトAに関してどのような情報を表示するかは、ユーザの視線に依存して時間の経過と共に変わり得る。図9を参照しながら、一つのオブジェクトAに着目して、オブジェクト情報を取得する処理の例を詳細に説明する。
オブジェクトAが注目領域と重なる場合には(ステップS131においてYES)、ステップS132においてオブジェクト特定部13はオブジェクトAを第1オブジェクトとして特定する。
ステップS133において、オブジェクト特定部13は、ユーザから、第1オブジェクトとして特定されたオブジェクトAまでの距離を推定する。オブジェクト特定部13は、カメラ106または深度センサ109から得られたデータを用いてHMD10からオブジェクトAまでの距離を求め、この距離をユーザからオブジェクトAまでの距離と見做す。
オブジェクトAが注目領域と重ならず(ステップS131においてNO)、周辺領域とも重ならない場合には(ステップS134においてNO)、オブジェクト特定部13はオブジェクトAを第1オブジェクトとも第2オブジェクトとも特定しない。
一方、オブジェクトAが注目領域とは重ならないが(ステップS131においてNO)、周辺領域と重なる場合には(ステップS134においてYES)、ステップS135においてオブジェクト特定部13はオブジェクトAが第2オブジェクトの条件に合致するか否かを判定する。すなわち、オブジェクト特定部13は、オブジェクトAについて第2オブジェクト情報を取得するか否かを判定する。オブジェクトAが第2オブジェクトの条件に合致する場合には(ステップS135においてYES)、ステップS136においてオブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定する。オブジェクトAが第2オブジェクトの条件に合致しない場合には(ステップS135においてNO)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定しない。
第2オブジェクトの条件は限定されない。例えば、第2オブジェクトの条件は、オブジェクトと該オブジェクトの背景領域(すなわち、オブジェクトの周辺)とのコントラストの大きさが閾値Tc以上であることと定義されてもよい。オブジェクト特定部13は予め定められた閾値Tcを予め保持する。オブジェクト特定部13はカメラ106から得られた画像を解析してオブジェクトAとオブジェクトAの背景領域とのコントラストを算出し、そのコントラストと閾値Tcとを比較する。コントラストが閾値Tc以上であれば(ステップS135においてYES)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定する(ステップS136)。コントラストが閾値Tc未満であれば(ステップS135においてNO)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定しない。
第2オブジェクトの条件は、オブジェクトが動いていること、と定義されてもよい。「オブジェクトが動いている」とは、オブジェクトの位置が変わることと、オブジェクトが位置を変えることなくその場で動くこととの双方を含む概念である。オブジェクト特定部13はカメラ106から得られた画像(動画像、または静止画の連続)を解析してオブジェクトAが動いているか否かを判定する。オブジェクトAが動いている場合には(ステップS135においてYES)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定する(ステップS136)。オブジェクトAが静止している場合には(ステップS135においてNO)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定しない。
第2オブジェクトの条件は、オブジェクトが第1オブジェクト(すなわち、注目領域と重なっているオブジェクト)と同じ属性を有すること、と定義されてもよい。例えば、オブジェクト特定部13はカメラ106の画像を解析することで、オブジェクトA上に印刷、シールなどにより表現されているテキストまたは2次元バーコードを文字列に変換し、その文字列を取得する。また、オブジェクト特定部13はその画像を解析することで、既に特定した第1オブジェクト上に印刷、シールなどにより表現されているテキストまたは2次元バーコードを文字列に変換し、その文字列を取得する。そして、オブジェクト特定部13は双方の文字列を比較することで、オブジェクトAが第1オブジェクトと同じ属性を有するか否かを判定する。オブジェクトAが少なくとも一つの第1オブジェクトと同じ属性を有する場合には(ステップS135においてYES)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定する(ステップS136)。オブジェクトAが第1オブジェクト同じ属性を有しない場合には(ステップS135においてNO)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定しない。
第2オブジェクトの条件は、ユーザからオブジェクトまでの距離が閾値Ta未満であることと定義されてもよい。オブジェクト特定部13は予め定められた閾値Taを予め保持する。オブジェクト特定部13は、カメラ106または深度センサ109から得られたデータを用いてHMD10からオブジェクトAまでの距離を求め、この距離をユーザからオブジェクトAまでの距離と見做す。そして、オブジェクト特定部13はその距離を閾値Taと比較する。距離が閾値Ta未満であれば(ステップS135においてYES)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定する(ステップS136)。距離が閾値Ta以上であれば(ステップS135においてNO)、オブジェクト特定部13はオブジェクトAを第2オブジェクトとして特定しない。
第2オブジェクトの条件はユーザからオブジェクトまでの距離とコントラストとの組合せでもよい。この場合には、オブジェクト特定部13は、距離が閾値Ta未満でありかつコントラストが閾値Tc以上である場合にはオブジェクトAを第2オブジェクトとして特定し、それ以外の場合にはオブジェクトAを第2オブジェクトとして特定しない。あるいは、第2オブジェクトの条件は距離とオブジェクトの動きとの組合せでもよい。この場合には、オブジェクト特定部13は、距離が閾値Ta未満でありかつオブジェクトAが動いている場合にはオブジェクトAを第2オブジェクトとして特定し、それ以外の場合にはオブジェクトAを第2オブジェクトとして特定しない。あるいは、第2オブジェクトの条件は距離と属性の一致との組合せでもよい。この場合には、オブジェクト特定部13は、距離が閾値Ta未満でありかつオブジェクトAが少なくとも一つの第1オブジェクトと同じ属性を有する場合にはオブジェクトAを第2オブジェクトとして特定し、それ以外の場合にはオブジェクトAを第2オブジェクトとして特定しない。
オブジェクトAを第1オブジェクトまたは第2オブジェクトとして特定すると、ステップS137において、要求部14が要求信号を生成および送信することで、オブジェクトAの第1または第2オブジェクト情報をサーバ20に要求する。オブジェクトAが第1オブジェクトとして特定された場合には、要求部14は第1検索キーとユーザからの距離との組合せを示す要求信号を生成し、オブジェクトAが第2オブジェクトとして特定された場合には、要求部14は第2検索キーを含む要求信号を生成する。そして、要求部14はその要求信号をサーバ20に送信する。
ステップS138では、受信部15がその要求信号に応じてサーバ20から送られてきた第1オブジェクト情報または第2オブジェクト情報を受信する。
ステップS139では、表示制御部16がその第1オブジェクト情報または第2オブジェクト情報をオブジェクトAと関連付けたかたちでディスプレイ105上に表示する。
処理はステップS139の後にS131に戻り、したがって、ステップS131〜S139の処理は繰り返し実行され得る。ステップS139において表示制御部16が第1オブジェクト情報を表示した後にオブジェクトAが引き続き注目領域と重なる場合には、第1オブジェクト情報の取得および表示が再び実行される。具体的には、要求部14が第1オブジェクト情報をサーバ20に要求し、受信部15が第1オブジェクト情報をサーバ20から受信し、表示制御部16がその第1オブジェクト情報をディスプレイ105上に表示する。すなわち、第1オブジェクトであるオブジェクトAが注目領域と重なる時間帯(第1時間帯)では、要求部14がオブジェクトAに関連する第1オブジェクト情報をサーバ20に繰り返し要求し、受信部15がその第1オブジェクト情報を繰り返しまたは継続して受信し、表示制御部16がその第1オブジェクト情報をディスプレイ105上に繰り返しまたは継続して表示する。第1オブジェクト情報は第1時間帯に限定して要求、受信、および表示される。
このような繰り返し処理は第2オブジェクト情報の取得および表示についても同様に実行され得る。ステップS139において表示制御部16が第2オブジェクト情報を表示した後にオブジェクトAが引き続き周辺領域と重なる場合には、第2オブジェクト情報の取得および表示が再び実行される。具体的には、要求部14が第2オブジェクト情報をサーバ20に要求し、受信部15が第2オブジェクト情報をサーバ20から受信し、表示制御部16がその第2オブジェクト情報をディスプレイ105上に表示する。すなわち、第2オブジェクトであるオブジェクトAが周辺領域と重なる時間帯(第3時間帯)では、要求部14がオブジェクトAに関連する第2オブジェクト情報をサーバ20に繰り返し要求し、受信部15がその第2オブジェクト情報を繰り返しまたは継続して受信し、表示制御部16がその第2オブジェクト情報をディスプレイ105上に繰り返しまたは継続して表示する。
オブジェクトAが第1オブジェクトとも第2オブジェクトとも特定されない場合に(ステップS134においてNO、またはステップS135においてNO)、もし第1オブジェクト情報または第2オブジェクト情報が受信または表示されていれば、ステップS140において、HMD10はその受信および表示を終了する。オブジェクトAのオブジェクト情報の受信が続いている場合には、受信部15がその受信を終了する。これは、受信部15が第1時間帯に限って第1オブジェクト情報を受信し、第3時間帯に限って第2オブジェクト情報を受信することを意味する。また、表示制御部16が第1オブジェクト情報または第2オブジェクト情報をディスプレイ105上から消去する。この時点でオブジェクト情報が受信も表示もされていなければ、ステップS140の処理は省略される。
図10を参照しながら、サーバ20によるオブジェクト情報の検索の例を詳細に説明する。ステップS141では、受信部22がHMD10から要求信号を受信する。
ステップS142では、オブジェクト検索部23が第1/第2オブジェクトのそれぞれについて、第1/第2オブジェクト情報の検索項目を設定する。例えば、オブジェクト検索部23は、第2オブジェクト情報のデータ項目数が第1オブジェクト情報のデータ項目数より小さくなるように検索項目を設定してもよい。第1オブジェクト情報を取得する場合に、オブジェクト検索部23は、第1オブジェクトとユーザ(HMD10)との距離に応じて検索項目を変更してもよい。
一つのオブジェクトAについて検索項目の設定の例を示す。オブジェクトAが第2オブジェクトとして特定された場合には、オブジェクト検索部23は商品名を検索項目として設定する。オブジェクトAが第1オブジェクトとして特定されたとして、オブジェクトAとユーザとの距離が閾値Td以上である場合には、オブジェクト検索部23は商品名、メーカ名、および価格を検索項目として設定する。オブジェクトAが第1オブジェクトとして特定されたとして、オブジェクトAとユーザとの距離が閾値Td未満である場合には、オブジェクト検索部23はオブジェクトに対するユーザの評価およびコメントを検索項目として設定する。この例では、第2オブジェクト情報のデータ項目は商品名のみなのでデータ項目数は1である。一方、第1オブジェクト情報については、データ項目が商品名、メーカ名、および価格であればデータ項目数は3であり、データ項目がユーザの評価およびコメントであればデータ項目数は2である。当然ながら第1/第2オブジェクト情報のデータ項目数はこれに限定されるものではなく、例えば第2オブジェクト情報のデータ項目数が2であり、第1オブジェクト情報のデータ項目数が少なくとも3であってもよい。第1オブジェクト情報に関して、少なくとも一つのデータ項目が距離に関係なく常に取得され、別のデータ項目が距離に応じて取得されたりされなかったりしてもよい。
ステップS143において、オブジェクト検索部23は設定した検索項目に従って第1オブジェクト情報または第2オブジェクト情報をオブジェクトデータベース32から取得する。オブジェクト検索部23は第1検索キーに基づいて第1オブジェクト情報を検索し、第2検索キーに基づいて第2オブジェクト情報を検索する。
ステップS134において、送信部24が検索された第1オブジェクト情報または第2オブジェクト情報をHMD10に送信する。
図11はオブジェクト情報の表示の例を示す図であり、具体的には、表示されるオブジェクト情報がユーザの視野の変化に伴って変化する例を模式的に示す。画面50は、HMD10のディスプレイ105を通してユーザが見る現実のおよび仮想のオブジェクトの少なくとも一部を表し、注目領域51を含む。画面50のうち注目領域51以外の領域を周辺領域とする。オブジェクトとして、テーブルの上に置かれたビール缶61、雑誌62、および皿63を示す。
この例では、まず雑誌62が注目領域51と重なっており、ビール缶61および皿63が周辺領域と重なっている。オブジェクト特定部13は雑誌62を第1オブジェクトとして特定し、ビール缶61を第2オブジェクトとして特定し、皿63を第2オブジェクトとして特定していない。例えば、オブジェクト特定部13は、ビール缶61のコントラストは閾値Tc以上であるが皿63のコントラストは閾値Tc未満であるため、ビール缶61のみを第2オブジェクトとして特定している。この特定に応じて雑誌62の第1オブジェクト情報621(商品名、メーカ名、および価格)と、ビール缶61の第2オブジェクト情報611(商品名)とが表示される。第1オブジェクト情報621を構成するデータ項目は雑誌62とユーザとの距離に応じて設定される。
その後、ユーザが雑誌62からビール缶61に視線を移すことで視野が変わり、ビール缶61が注目領域51と重なり、雑誌62および皿63が周辺領域と重なったものとする。オブジェクト特定部13はビール缶61を第1オブジェクトとして特定し、雑誌62を第2オブジェクトとして特定し、皿63を第2オブジェクトとして特定していない。例えば、オブジェクト特定部13は、雑誌62のコントラストは閾値Tc以上であるが皿63のコントラストは閾値Tc未満であるため、雑誌62のみを第2オブジェクトとして特定している。この特定に応じてビール缶61の第1オブジェクト情報612(商品名、メーカ名、および価格)と、雑誌62の第2オブジェクト情報622(商品名)とが表示される。第1オブジェクト情報612を構成するデータ項目はビール缶61とユーザとの距離に応じて設定される。
その後、ユーザがビール缶61を手に取って見ることで視野が変わり、ビール缶61が注目領域51と重なったまま、ユーザとビール缶61との距離が近くなったとする。オブジェクト特定部13は引き続きビール缶61を第1オブジェクトとして特定するが、ユーザとビール缶61との距離の短縮に伴い、ユーザの評価およびコメントが第1オブジェクト情報613として表示される。このように、第1オブジェクトとユーザとの距離が比較的遠い場合(距離が閾値Td以上である場合)には第1オブジェクトの基本的な情報を第1オブジェクト情報として表示させ、その距離が比較的近い場合(距離が閾値Td未満である場合)には第1オブジェクトの詳細な情報を表示させることが可能である。
HMD10は、第1オブジェクトとして特定されたオブジェクトについて、注目領域から外れた場合でも予め定められた時間内に限って第1オブジェクト情報を取得し続けてもよい。図12を参照しながら、一つのオブジェクトAに着目して、注目領域から外れたオブジェクトについても第1オブジェクト情報を取得する例を詳細に説明する。
図9に示す処理と異なるのは、オブジェクトAが注目領域と重ならなかった場合(ステップS131においてNO)の処理であり、図12ではこの処理をステップS131Aで示す。オブジェクト特定部13は、第1オブジェクトとして特定されたオブジェクトAが注目領域から外れた場合(第1時間帯を過ぎた場合)に(ステップS131においてNO)、その時点からの経過時間を計測し始める。ステップS131Aにおいて、オブジェクト特定部13はその経過時間を閾値T(秒)と比較する。オブジェクトAが注目領域から外れてからまだT秒経過していない場合(第2時間帯である場合)には(ステップS131AにおいてNO)、オブジェクト特定部13はステップS132,S133を実行する。すなわち、オブジェクト特定部13はオブジェクトAを第1オブジェクトとして特定し、ユーザからオブジェクトAまでの距離を推定する。その後、上述したステップS137〜S139の処理が実行される。
一方、オブジェクトAが注目領域から外れてからT秒経過した場合(第2時間帯を過ぎた場合)には(ステップS131AにおいてYES)、上述したステップS134以降の処理が実行される。ステップS140において、もし第1時間帯および第2時間帯にわたってオブジェクトAの第1オブジェクト情報の受信が続いている場合には受信部15がその受信を終了する。これは、受信部15が第1時間帯および第2時間帯に限って第1オブジェクト情報を受信することを意味する。
図13はオブジェクト情報の表示の別の例を示す図であり、具体的には、ある一つのオブジェクトが注目領域から外れる前後におけるオブジェクト情報の変化の例を模式的に示す。この図13における最初の状態は図11と同じであり、画面50では、雑誌62の第1オブジェクト情報621(商品名、メーカ名、および価格)と、ビール缶61の第2オブジェクト情報611(商品名)とが表示されている。
その後、ユーザが雑誌62からビール缶61に視線を移すことで視野が変わり、ビール缶61が注目領域51と重なり、雑誌62および皿63が周辺領域と重なったものとする。雑誌62が注目領域51から外れた時間が閾値T(秒)未満である場合には、オブジェクト特定部13は注目領域51と重なるビール缶61を第1オブジェクトとして特定するとともに、周辺領域と重なる雑誌62を引き続き第1オブジェクトとして特定する。この特定に応じて、ビール缶61の第1オブジェクト情報612(商品名、メーカ名、および価格)が表示されると共に、雑誌62の第1オブジェクト情報621(商品名、メーカ名、および価格)が引き続き表示される。第1オブジェクト情報を構成するデータ項目はオブジェクトとユーザとの距離に応じて設定される。
その後、雑誌62が注目領域51から外れた時間が閾値T(秒)以上になると、オブジェクト特定部13は、周辺領域と重なる雑誌62を第2オブジェクトとして特定する。この特定に応じて、雑誌62の第2オブジェクト情報622(商品名)が表示される。すなわち、雑誌62が注目領域51から周辺領域に移ってからT秒経過すると、雑誌62のオブジェクト情報が第1オブジェクト情報621から第2オブジェクト情報622に変わる。
HMD10は、第1オブジェクトとして特定されたオブジェクトが注目領域と重なり続ける間は、第1オブジェクト情報の要求を繰り返し行うことなく、第1オブジェクト情報の受信および表示を継続してもよい。すなわち、第1オブジェクト情報の要求は、注目領域外に位置していたオブジェクトが注目領域と重なった時点で一度だけ実行されてもよい。同様に、HMD10は、第2オブジェクトとして特定されたオブジェクトが周辺領域と重なり続ける間は、第2オブジェクト情報の要求を繰り返し行うことなく、第2オブジェクト情報の受信および表示を継続してもよい。すなわち、第2オブジェクト情報の要求は、周辺領域外に位置していたオブジェクトが周辺領域と重なった時点で一度だけ実行されてもよい。図14を参照しながら、一つのオブジェクトAに着目して、要求は一回であるが受信および表示を継続する処理の例を詳細に説明する。
図9に示す処理と異なるのは、オブジェクト情報を要求するか否かを判定する処理の追加であり、図14ではこの処理をステップS133A,S136Aで示す。また、図14では、図9におけるステップS137を、ステップS137A,137Bに分けて示す。
ステップS132,S133において、オブジェクト特定部13がオブジェクトAを第1オブジェクトとして特定して、ユーザからオブジェクトAまでの距離を推定したとする。この場合、ステップS133Aにおいて、要求部14が第1オブジェクト情報をサーバ20に要求するか否かを判定する。
オブジェクトAが注目領域と重なった後に未だ要求信号を送信していない場合には、要求部14は第1オブジェクト情報を要求すると判定する(ステップS133AにおいてYES)。要求部14は、要求信号を既に送信した場合でも、ユーザからオブジェクトAまでの距離の変化が閾値Tx以上であれば、オブジェクト情報を要求すると判定してもよい(ステップS133AにおいてYES)。ステップS137Aにおいて、要求部14は要求信号を生成および送信することで、オブジェクトAの第1オブジェクト情報をサーバ20に要求する。この場合、ステップS138,S139の処理が実行される。
一方、オブジェクトAが注目領域と重なった後に既に要求信号を送信した場合には、要求部14はオブジェクト情報を要求しないと判定し(ステップS133AにおいてNO)、ステップS137Aの処理を省略する。要求部14は、既に要求信号を送信しており、かつユーザからオブジェクトAまでの距離が閾値Tx未満の場合に、オブジェクト情報を要求しないと判定して(ステップS133AにおいてNO)、ステップS137Aの処理を省略してもよい。ステップS137Aが省略された場合に、受信部15が第1オブジェクト情報の受信を継続している可能性がある(ステップS138)。ステップS139の処理は図9に示す処理と同じである。
ステップS136においてオブジェクト特定部13がオブジェクトAを第2オブジェクトとして特定したとする。この場合、ステップS136Aにおいて、要求部14が第2オブジェクト情報をサーバ20に要求するか否かを判定する。
オブジェクトAが周辺領域と重なった後に未だ要求信号を送信していない場合には、要求部14は第2オブジェクト情報を要求すると判定する(ステップS136AにおいてYES)。ステップS137Bにおいて、要求部14は要求信号を生成および送信することで、オブジェクトAの第2オブジェクト情報をサーバ20に要求する。この場合、ステップS138,S139の処理が実行される。
一方、オブジェクトAが周辺領域と重なった後に既に要求信号を送信した場合には、要求部14はオブジェクト情報を要求しないと判定し(ステップS136AにおいてNO)、ステップS137Bの処理を省略する。ステップS137Bが省略された場合に、受信部15が第2オブジェクト情報の受信を継続している可能性がある(ステップS138)。ステップS139の処理は図9に示す処理と同じである。
HMD10は、第1オブジェクトとして特定されたオブジェクトが注目領域から外れた後も所定の時間内に限って第1オブジェクト情報を取得し続ける場合に、要求信号を再び生成および送信することなくその第1オブジェクト情報を受信および表示し続けてもよい。すなわち、図14に示す処理は、図12に示す処理と組み合わされてもよい。
[プログラム]
図15を参照しながら、コンピュータシステムをARシステム1として機能させるための拡張現実(AR)プログラムPを説明する。図14はARプログラムPの構成を示す図である。ARプログラムPは、コンピュータをHMD10として機能させるクライアントプログラムP1と、コンピュータをサーバ20として機能させるサーバプログラムP2とを含む。本実施形態では、本発明に係る情報処理プログラムをクライアントプログラムP1に適用する。
クライアントプログラムP1はメインモジュールP10、視野設定モジュールP11、視野検出モジュールP12、オブジェクト特定モジュールP13、要求モジュールP14、受信モジュールP15、および表示制御モジュールP16を含む。メインモジュールP10は、HMD10の機能を統括的に管理する部分である。視野設定モジュールP11、視野検出モジュールP12、オブジェクト特定モジュールP13、要求モジュールP14、受信モジュールP15、および表示制御モジュールP16を実行することで、視野設定部11、視野検出部12、オブジェクト特定部13、要求部14、受信部15、および表示制御部16が実現する。
サーバプログラムP2はメインモジュールP20、ユーザ検索モジュールP21、受信モジュールP22、オブジェクト検索モジュールP23、および送信モジュールP24を含む。メインモジュールP10は、サーバ20の機能を統括的に管理する部分である。ユーザ検索モジュールP21、受信モジュールP22、オブジェクト検索モジュールP23、および送信モジュールP24を実行することで、ユーザ検索部21、受信部22、オブジェクト検索部23、および送信部24が実現する。
クライアントプログラムP1およびサーバプログラムP2はそれぞれ、例えば、CD−ROM、DVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。あるいは、クライアントプログラムP1およびサーバプログラムP2はそれぞれ、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。クライアントプログラムP1およびサーバプログラムP2は一緒に提供されてもよいし、別々に提供されてもよい。
[効果]
以上説明したように、本発明の一側面に係る情報処理装置は、ユーザの視覚に対応する注目領域を検出する検出部と、ユーザが存在する空間内にある1以上のオブジェクトの中から、注目領域と重なる第1オブジェクトを特定する特定部と、第1オブジェクトが注目領域と重なる第1時間帯において、第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求する要求部と、第1時間帯において、要求に応じて他のコンピュータから送信されてきた第1オブジェクト情報を受信する受信部とを備える。
本発明の一側面に係る情報処理方法は、プロセッサを備える情報処理装置により実行される情報処理方法であって、ユーザの視覚に対応する注目領域を検出する検出ステップと、ユーザが存在する空間内にある1以上のオブジェクトの中から、注目領域と重なる第1オブジェクトを特定する特定ステップと、第1オブジェクトが注目領域と重なる第1時間帯において、第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求する要求ステップと、第1時間帯において、要求に応じて他のコンピュータから送信されてきた第1オブジェクト情報を受信する受信ステップとを含む。
本発明の一側面に係る情報処理プログラムは、ユーザの視覚に対応する注目領域を検出する検出ステップと、ユーザが存在する空間内にある1以上のオブジェクトの中から、注目領域と重なる第1オブジェクトを特定する特定ステップと、第1オブジェクトが注目領域と重なる第1時間帯において、第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求する要求ステップと、第1時間帯において、要求に応じて他のコンピュータから送信されてきた第1オブジェクト情報を受信する受信ステップとをコンピュータに実行させる。
このような側面においては、オブジェクトが注目領域と重なる第1時間帯においてそのオブジェクトに関連する第1オブジェクト情報の要求および受信が実行される。この第1時間帯ではユーザはそのオブジェクトに注目していると推定されるので、通信ネットワークを介して提供される第1オブジェクトの情報はユーザにとって有用であり無駄にはならない。このように、ユーザがオブジェクトを注目していると推定される時間帯に情報を要求および受信することで、情報処理装置のデータ通信を効率良く実行することができる。当然ながら、これは通信ネットワークに掛かる負荷を低減できることを意味する。
他の側面に係る情報処理装置では、要求部が、第1時間帯において第1オブジェクト情報を他のコンピュータに繰り返し要求してもよい。ユーザがオブジェクトを注目していると推定される時間帯に情報を繰り返し要求および受信することで、情報処理装置のデータ通信を効率良く実行することができる。
他の側面に係る情報処理装置では、受信部が、第1時間帯において第1オブジェクト情報を継続して受信してもよい。ユーザがオブジェクトを注目していると推定される時間帯に情報を受信し続けることで、情報処理装置のデータ通信を効率良く実行することができる。
他の側面に係る情報処理装置では、特定部が、第1オブジェクトとユーザとの距離を推定し、要求部が、距離に応じたデータ項目を含む第1オブジェクト情報を要求し、受信部が、距離に応じたデータ項目を含む第1オブジェクト情報を受信してもよい。オブジェクトとユーザとの距離が近いほどユーザがそのオブジェクトに興味を持っていると推定することができる。したがって、第1オブジェクト情報の内容をその距離に応じて設定することで、無駄なデータ通信を避けて、ユーザが欲する情報を提供することができる。
他の側面に係る情報処理装置では、要求部が、第1時間帯に限って第1オブジェクト情報を要求し、受信部が、第1時間帯に限って第1オブジェクト情報を受信してもよい。ユーザがオブジェクトに注目していると推定される時間帯に限定して第1オブジェクト情報を提供することで、無駄なデータ通信を確実に回避することができる。
他の側面に係る情報処理装置では、要求部が、第1オブジェクトが注目領域から外れてから所定時間が経過するまでの第2時間帯においても、第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、受信部が、第2時間帯においても、要求に応じて他のコンピュータから送信されてきた第1オブジェクト情報を受信してもよい。ユーザの視線が短時間の間に元に戻ることを考慮して、第1オブジェクトが注目領域から外れた場合でもその短時間の間は第1オブジェクト情報を取得することで、表示される情報が何度も切り替わることを避けて同じ情報を表示し続けることができる。
他の側面に係る情報処理装置では、要求部が、第1時間帯および第2時間帯に限って第1オブジェクト情報を要求し、受信部が、第1時間帯および第2時間帯に限って第1オブジェクト情報を受信してもよい。ユーザがオブジェクトに注目していると推定される時間帯と、ユーザの視線が元に戻ると推定される時間帯とに限定して第1オブジェクト情報を提供することで、無駄なデータ通信を確実に回避することができる。
他の側面に係る情報処理装置では、検出部が、注目領域の外側の周辺領域をさらに検出し、特定部が、1以上のオブジェクトの中から、周辺領域と重なる第2オブジェクトを特定し、要求部が、第2オブジェクトが周辺領域と重なる第3時間帯において、第2オブジェクトに関連する第2オブジェクト情報を他のコンピュータに要求し、受信部が、第3時間帯において、要求に応じて他のコンピュータから送信されてきた第2オブジェクト情報を受信してもよい。ユーザは視野の周辺領域に位置するオブジェクトにも着目する可能性があるので、通信ネットワークを介して提供される第2オブジェクトの情報もユーザにとって有用であり得る。したがって、周辺領域に位置する第2オブジェクトの情報を提供することで、データ通信の無駄を避けつつ、必要と推定される情報をユーザに提供することができる。
他の側面に係る情報処理装置では、要求部が、第3時間帯において第2オブジェクト情報を他のコンピュータに繰り返し要求してもよい。第2オブジェクトの情報を繰り返し要求することで、データ通信の無駄を避けつつ、必要と推定される情報をユーザに繰り返し提供できる。
他の側面に係る情報処理装置では、第2オブジェクト情報のデータ項目数が第1オブジェクト情報のデータ項目数よりも少なくてもよい。一般に、ユーザは周辺領域内のオブジェクトよりも注目領域内のオブジェクトを明確に認識して強い興味を持つ。したがって、周辺領域内のオブジェクトに関する第2オブジェクトのデータ項目の個数を第1オブジェクト情報よりも少なくすることで、第2オブジェクト情報のデータ量を抑制して、通信ネットワークに掛かる負荷を低減することができる。
他の側面に係る情報処理装置では、特定部が、周辺領域と重なる1以上のオブジェクトのうちユーザとの距離が閾値未満であるオブジェクトを第2オブジェクトとして特定してもよい。一般に人間は、周辺領域と重なる第2オブジェクトについては、自身との距離が近いものほどより強い興味を持つ。したがって、ユーザとの距離が近い第2オブジェクトに限って第2オブジェクト情報を取得することで、第2オブジェクト情報のデータ量を抑制して、通信ネットワークに掛かる負荷を低減することができる。
他の側面に係る情報処理装置では、特定部が、周辺領域と重なる1以上のオブジェクトのうち背景領域とのコントラストが閾値以上であるオブジェクトを第2オブジェクトとして特定してもよい。一般に人間は、周辺領域と重なる第2オブジェクトについては、コントラストが高いものほど容易に識別する。したがって、コントラストが高い第2オブジェクトに限って第2オブジェクト情報を取得することで、第2オブジェクト情報のデータ量を抑制して、通信ネットワークに掛かる負荷を低減することができる。
他の側面に係る情報処理装置では、特定部が、周辺領域と重なる1以上のオブジェクトのうち動いているオブジェクトを第2オブジェクトとして特定してもよい。一般に人間は、周辺領域と重なる第2オブジェクトについては、動いているものを容易に識別する。したがって、動いている第2オブジェクトに限って第2オブジェクト情報を取得することで、第2オブジェクト情報のデータ量を抑制して、通信ネットワークに掛かる負荷を低減することができる。
他の側面に係る情報処理装置では、特定部が、周辺領域と重なる1以上のオブジェクトのうち第1オブジェクトと同じ属性を有するオブジェクトを第2オブジェクトとして特定してもよい。ユーザは、周辺領域と重なる第2オブジェクトについては、現在注目している第1オブジェクトと同じ属性を持つものに注目する蓋然性が高い。したがって、第1オブジェクトと同じ属性を持つ第2オブジェクトに限って第2オブジェクト情報を取得することで、第2オブジェクト情報のデータ量を抑制して、通信ネットワークに掛かる負荷を低減することができる。
他の側面に係る情報処理装置では、ユーザの属性に基づいて注目領域を設定する設定部をさらに備えてもよい。個々のユーザ毎に注目領域を設定することで、それぞれのユーザにとって必要な量の第1オブジェクト情報が要求および受信される。したがって、情報処理装置のデータ通信を効率良く実行することができる。
他の側面に係る情報処理装置では、設定部がユーザの移動速度に基づいて注目領域を設定してもよい。人間の視野は移動速度が早いと狭まる傾向があり、人間がオブジェクトを明確に認識できる中心視および有効視野も狭まる。したがって、ユーザの移動速度に基づいて注目領域を設定することで、ユーザにとって必要な量の第1オブジェクト情報が要求および受信される。したがって、情報処理装置のデータ通信を効率良く実行することができる。
他の側面に係る情報処理装置では、第1時間帯において第1オブジェクト情報をディスプレイ上に表示する表示制御部をさらに備えてもよい。
他の側面に係る情報処理装置では、ディスプレイがヘッドマウントディスプレイであってもよい。
このような側面においては、第1時間帯ではユーザはオブジェクトに注目していると推定される第1時間帯において、ヘッドマウントディスプレイなどのディスプレイを介してユーザに第1オブジェクト情報を見せることができる。ユーザがオブジェクトを注目していると推定される時間帯に情報を表示することで、ディスプレイを効率良く制御することができる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
受信部は、レジュームダウンロード機能(resume download feature)を用いて第1オブジェクト情報または第2オブジェクト情報を受信してもよい。レジュームダウンロード機能は、ダウンロードが一時的に中止された場合でも、その中止された部分から再びダウンロードを開始する機能である。
上記実施形態ではHMD10が第1オブジェクト情報または第2オブジェクト情報をディスプレイ105上に表示するが、要求および受信したオブジェクト情報の用途は表示に限定されない。例えば、情報処理装置は要求および受信した第1オブジェクト情報または第2オブジェクト情報をメモリに格納してもよいし、他の情報処理装置に送信してもよい。
上記実施形態ではHMD10が注目領域および周辺領域の双方を検出するが、周辺領域の検出は情報処理装置の必須の処理ではない。したがって、情報処理装置は第2オブジェクトに関する処理を実行しなくてもよい。
上記実施形態ではHMD10を例示したが、情報処理装置の構成は限定されない。例えば、情報処理装置は、HMDなどのウェアラブル端末と、高機能携帯電話機(スマートフォン)などの他の端末との組合せであってもよい。
少なくとも一つのプロセッサにより実行される情報処理方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正または削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
本発明に係る情報処理装置を含むコンピュータシステム内で二つの数値の大小関係を比較する際には、「以上」および「よりも大きい」という二つの基準のどちらを用いてもよく、「以下」および「未満」の二つの基準のうちのどちらを用いてもよい。このような基準の選択は、二つの数値の大小関係を比較する処理についての技術的意義を変更するものではない。
1…拡張現実システム、10…ヘッドマウントディスプレイ(情報処理装置)、11…視野設定部、12…視野検出部、13…オブジェクト特定部、14…要求部、15…受信部、16…表示制御部、20…サーバ、21…ユーザ検索部、22…受信部、23…オブジェクト検索部、24…送信部、30…データベース群、31…ユーザデータベース、32…オブジェクトデータベース、P…拡張現実プログラム(情報処理プログラム) 、P1…クライアントプログラム、P10…メインモジュール、P11…視野設定モジュール、P12…視野検出モジュール、P13…オブジェクト特定モジュール、P14…要求モジュール、P15…受信モジュール、P16…表示制御モジュール、P2…サーバプログラム、P20…メインモジュール、P21…ユーザ検索モジュール、P22…受信モジュール、P23…オブジェクト検索モジュール、P24…送信モジュール。

Claims (21)

  1. ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出部と、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定部と、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求部と、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信部と
    を備え
    前記特定部が、前記周辺領域と重なる1以上の前記オブジェクトのうち前記ユーザとの距離が閾値未満である前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理装置。
  2. ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出部と、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定部と、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求部と、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信部と
    を備え、
    前記特定部が、前記周辺領域と重なる1以上の前記オブジェクトのうち背景領域とのコントラストが閾値以上である前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理装置。
  3. ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出部と、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定部と、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求部と、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信部と
    を備え、
    前記特定部が、前記周辺領域と重なる1以上の前記オブジェクトのうち動いている前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理装置。
  4. ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出部と、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定部と、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求部と、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信部と
    を備え、
    前記特定部が、前記周辺領域と重なる1以上の前記オブジェクトのうち前記第1オブジェクトと同じ属性を有する前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理装置。
  5. 前記要求部が、前記第1時間帯において前記第1オブジェクト情報を前記他のコンピュータに繰り返し要求する、
    請求項1〜4のいずれか一項に記載の情報処理装置。
  6. 前記受信部が、前記第1時間帯において前記第1オブジェクト情報を継続して受信する、
    請求項1〜5のいずれか一項に記載の情報処理装置。
  7. 前記特定部が、前記第1オブジェクトと前記ユーザとの距離を推定し、
    前記要求部が、前記距離に応じたデータ項目を含む前記第1オブジェクト情報を要求し、
    前記受信部が、前記距離に応じた前記データ項目を含む前記第1オブジェクト情報を受信する、
    請求項1〜のいずれか一項に記載の情報処理装置。
  8. 前記要求部が、前記第3時間帯において前記第2オブジェクト情報を前記他のコンピュータに繰り返し要求する、
    請求項1〜7のいずれか一項に記載の情報処理装置。
  9. 前記第2オブジェクト情報のデータ項目数が前記第1オブジェクト情報のデータ項目数よりも少ない、
    請求項1〜8のいずれか一項に記載の情報処理装置。
  10. 前記ユーザの属性に基づいて前記注目領域を設定する設定部
    をさらに備える請求項1〜のいずれか一項に記載の情報処理装置。
  11. 前記設定部が前記ユーザの移動速度に基づいて前記注目領域を設定する、
    請求項10に記載の情報処理装置。
  12. 前記第1時間帯において前記第1オブジェクト情報をディスプレイ上に表示する表示制御部をさらに備える、
    請求項1〜11のいずれか一項に記載の情報処理装置。
  13. 前記ディスプレイがヘッドマウントディスプレイである、
    請求項12に記載の情報処理装置。
  14. プロセッサを備える情報処理装置により実行される情報処理方法であって、
    ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
    を含み、
    前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち前記ユーザとの距離が閾値未満である前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理方法。
  15. プロセッサを備える情報処理装置により実行される情報処理方法であって、
    ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
    を含み、
    前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち背景領域とのコントラストが閾値以上である前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理方法。
  16. プロセッサを備える情報処理装置により実行される情報処理方法であって、
    ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
    を含み、
    前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち動いている前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理方法。
  17. プロセッサを備える情報処理装置により実行される情報処理方法であって、
    ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
    を含み、
    前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち前記第1オブジェクトと同じ属性を有する前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理方法。
  18. ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
    をコンピュータに実行させ
    前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち前記ユーザとの距離が閾値未満である前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理プログラム。
  19. ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
    をコンピュータに実行させ、
    前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち背景領域とのコントラストが閾値以上である前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理プログラム。
  20. ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
    をコンピュータに実行させ、
    前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち動いている前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理プログラム。
  21. ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
    前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
    前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
    前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
    をコンピュータに実行させ、
    前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち前記第1オブジェクトと同じ属性を有する前記オブジェクトを前記第2オブジェクトとして特定する、
    情報処理プログラム。
JP2019522596A 2017-11-20 2017-11-20 情報処理装置、情報処理方法、および情報処理プログラム Active JP6606312B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/041676 WO2019097726A1 (ja) 2017-11-20 2017-11-20 情報処理装置、情報処理方法、および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP6606312B2 true JP6606312B2 (ja) 2019-11-13
JPWO2019097726A1 JPWO2019097726A1 (ja) 2019-11-21

Family

ID=66540140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019522596A Active JP6606312B2 (ja) 2017-11-20 2017-11-20 情報処理装置、情報処理方法、および情報処理プログラム

Country Status (4)

Country Link
US (1) US11126848B2 (ja)
EP (1) EP3716220B1 (ja)
JP (1) JP6606312B2 (ja)
WO (1) WO2019097726A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102450899B1 (ko) * 2015-04-09 2022-10-04 오므론 가부시키가이샤 내장된 서버를 위한 웹 사용 가능 인터페이스
JP7056500B2 (ja) * 2018-10-04 2022-04-19 トヨタ自動車株式会社 画像生成装置、画像生成方法、およびプログラム
US10984534B2 (en) * 2019-03-28 2021-04-20 GM Global Technology Operations LLC Identification of attention region for enhancement of sensor-based detection in a vehicle
US11756259B2 (en) * 2019-04-17 2023-09-12 Rakuten Group, Inc. Display controlling device, display controlling method, program, and non-transitory computer-readable information recording medium
JP2022505999A (ja) * 2019-10-15 2022-01-17 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの提示方法、装置、機器および記憶媒体
US11380094B2 (en) * 2019-12-12 2022-07-05 At&T Intellectual Property I, L.P. Systems and methods for applied machine cognition
WO2021166747A1 (ja) * 2020-02-18 2021-08-26 株式会社Nttドコモ 情報処理システム
KR20240048409A (ko) * 2022-10-06 2024-04-15 재단법인 아산사회복지재단 햅틱 피드백 장치 및 방법
WO2024078686A1 (en) * 2022-10-10 2024-04-18 Telefonaktiebolaget Lm Ericsson (Publ) A computer software module arrangement, a circuitry arrangement, an arrangement and a method for improved human perception in xr systems

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6738804B1 (en) * 2000-09-15 2004-05-18 Yodlee.Com, Inc. Method and apparatus for enabling sectored data refreshing of Web-site data during session
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2006267887A (ja) * 2005-03-25 2006-10-05 Konica Minolta Photo Imaging Inc 映像認識手段を備えたヘッドマウントディスプレイ
TW201017474A (en) 2008-09-03 2010-05-01 Koninkl Philips Electronics Nv Method of performing a gaze-based interaction between a user and an interactive display system
WO2010073616A1 (ja) 2008-12-25 2010-07-01 パナソニック株式会社 情報表示装置および情報表示方法
US9280849B2 (en) * 2010-11-08 2016-03-08 Sony Corporation Augmented reality interface for video tagging and sharing
US9342610B2 (en) 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US20130191250A1 (en) * 2012-01-23 2013-07-25 Augme Technologies, Inc. System and method for augmented reality using multi-modal sensory recognition from artifacts of interest
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US20150331240A1 (en) * 2014-05-15 2015-11-19 Adam G. Poulos Assisted Viewing Of Web-Based Resources
WO2016153628A2 (en) * 2015-02-25 2016-09-29 Brian Mullins Augmented reality content creation
JP6488786B2 (ja) * 2015-03-17 2019-03-27 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
CN112130329B (zh) * 2015-03-17 2022-08-23 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
JP6275087B2 (ja) 2015-08-03 2018-02-07 株式会社オプティム ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。
CN116366906A (zh) * 2015-08-07 2023-06-30 苹果公司 用于显示图像流的系统和方法
EP3335096B1 (en) * 2015-08-15 2022-10-05 Google LLC System and method for biomechanically-based eye signals for interacting with real and virtual objects

Also Published As

Publication number Publication date
EP3716220B1 (en) 2024-02-21
US11126848B2 (en) 2021-09-21
EP3716220A1 (en) 2020-09-30
JPWO2019097726A1 (ja) 2019-11-21
EP3716220A4 (en) 2021-09-08
US20200184218A1 (en) 2020-06-11
WO2019097726A1 (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
JP6606312B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US11734336B2 (en) Method and apparatus for image processing and associated user interaction
US9262780B2 (en) Method and apparatus for enabling real-time product and vendor identification
EP2410490A2 (en) Displaying augmented reality information
CN103561635B (zh) 视线追踪系统
US9014754B2 (en) Information processing system and information processing method
JP5280590B2 (ja) 情報処理システム、情報処理方法及びプログラム
US20160070439A1 (en) Electronic commerce using augmented reality glasses and a smart watch
US8724853B2 (en) Identifying a target object using optical occlusion
US20180053055A1 (en) Integrating augmented reality content and thermal imagery
US20110140994A1 (en) Information Presenting Apparatus, Method, and Computer Program Product
US20180268453A1 (en) Composite image generation
CN109815409B (zh) 一种信息的推送方法、装置、穿戴设备及存储介质
KR20150129546A (ko) 안경형 단말기와 그 안경형 단말기의 제어 방법
WO2019187487A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US12039859B2 (en) Discovery of and connection to remote devices
US8199974B1 (en) Identifying a target object using optical occlusion
CN106164838B (zh) 信息显示方法和信息显示终端
JP2020129356A (ja) プログラム、情報処理方法、及び情報処理端末
US9626804B2 (en) Article information providing apparatus that provides information of article, article information providing system,and article information provision method
US20200279110A1 (en) Information processing apparatus, information processing method, and program
US20180158242A1 (en) Information processing method and program for executing the information processing method on computer
KR101777328B1 (ko) 스마트 글래스와 모바일 장치를 이용하여 상품에 관련된 데이터를 제공하는 방법
KR20170049219A (ko) 웨어러블 디바이스를 이용한 결제 정보 제공 시스템 및 이를 이용한 결제 정보 제공 방법
KR101737936B1 (ko) 스마트 글래스와 모바일 장치를 이용한 쿠폰 제공 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190425

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190425

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191017

R150 Certificate of patent or registration of utility model

Ref document number: 6606312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250