JP5961736B1 - ヘッドマウントディスプレイシステムを制御する方法、および、プログラム - Google Patents

ヘッドマウントディスプレイシステムを制御する方法、および、プログラム Download PDF

Info

Publication number
JP5961736B1
JP5961736B1 JP2015160451A JP2015160451A JP5961736B1 JP 5961736 B1 JP5961736 B1 JP 5961736B1 JP 2015160451 A JP2015160451 A JP 2015160451A JP 2015160451 A JP2015160451 A JP 2015160451A JP 5961736 B1 JP5961736 B1 JP 5961736B1
Authority
JP
Japan
Prior art keywords
user
virtual space
gaze
advertisement
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015160451A
Other languages
English (en)
Other versions
JP2017040970A (ja
Inventor
裕一郎 新井
裕一郎 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015160451A priority Critical patent/JP5961736B1/ja
Application granted granted Critical
Publication of JP5961736B1 publication Critical patent/JP5961736B1/ja
Priority to PCT/JP2016/073324 priority patent/WO2017030037A1/ja
Priority to US15/294,655 priority patent/US10311640B2/en
Publication of JP2017040970A publication Critical patent/JP2017040970A/ja
Priority to US16/384,930 priority patent/US20190244433A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。【解決手段】コンピュータに、ユーザが没入する仮想空間、および、仮想空間における対象オブジェクトを生成するステップと、仮想空間における基準位置、および、対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、基準位置に対するユーザの視線方向である基準方向を定義するステップと、対象オブジェクトに対するユーザの視線方向である注視方向を特定するステップと、ユーザが対象オブジェクトを注視した注視時間を特定するステップと、注視時間、注視方向、基準方向に基づいて、調整済注視時間を特定するステップと、調整済注視時間に基づいて、ユーザに所定のコンテンツを提供するステップと、を実行させる方法。【選択図】図10

Description

本発明は、ユーザがヘッドマウントディスプレイ(Head−Mounted Display:HMD)を用いて没入する仮想空間を、コンピュータに提供させる方法、および、プログラムに関するものである。
特許文献1には、仮想空間内の各場所にユーザ毎の地価を設定し、当該場所に対する各ユーザ間の地価を平均化することによって、その場所に広告を表示する場合の広告料を設定する手法が開示されている。地価は、各ユーザの移動操作履歴に基づいて設定される。また、特許文献2には、ユーザの行動状況に基づいて、表示アイテムの優先度を設定する技術が開示されている。
特許3732168号公報 特開2014−71811号公報
特許文献1,2に記載された技術においては、ユーザに適切な広告等のコンテンツを提供するために、多量のユーザ情報を収集する必要がある。従って、ユーザの関心に対して適時アプローチする上で、改善の余地がある。
本発明によれば、ヘッドマウントディスプレイを用いてユーザが没入する仮想空間を提供する方法であって、コンピュータに、前記想空間、および、前記仮想空間における対象オブジェクトを生成するステップと、前記対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、前記ヘッドマウントディスプレイの傾きに応じて特定される前記ユーザの視線方向に基づいて、前記ユーザの視界領域を定義するステップと、前記視界領域に含まれる記対象オブジェクトである複数の第1オブジェクトと、前記視界領域に含まれない前記対象オブジェクトである第2オブジェクトを特定するステップと、 複数の前記第1オブジェクトと前記第2オブジェクトに広告を表示させるステップと、複数の前記第1オブジェクトのいずれかに対する前記ユーザの注視を受け付けた場合には、複数の前記対象オブジェクトのうち前記ユーザの注視を受け付けた前記第1オブジェクト以外の前記第1オブジェクトに表示された広告のみを、前記ユーザの注視を受け付けた前記第1オブジェクトに表示された広告と関連するように変化させるステップと、を実行させる方法、が得られる。
本発明によれば、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
本発明の実施形態によるHMDシステムを示す図である。 HMDを装着しているユーザの頭部を中心に規定される3次元空間上の直交座標系を示す。 仮想空間の一例を示すXYZ空間図である。 視線方向を決定する方法の一例を示す図である。 HMDシステムの機能を実現するための、制御回路部の機能を示すブロック図である。 HMDシステムの機能を実現するための処理を示すフローチャートである。 視界領域をX方向から見たYZ面図である。 視界領域をY方向から見たXZ面図である。 ランチャー空間と第1仮想空間、第2仮想空間の関係を説明するための図である。 HMDシステムの機能を実現するための処理を示すフローチャートである。 第1仮想空間および第2仮想空間を説明するための図である。 HMDシステムの機能を実現するための処理を示すフローチャートである。 注視方向の基準方向に対する第1ずれ量を説明するYZ面図である。 注視方向の基準方向に対する第2ずれ量を説明するXZ面図である。 視界領域内における広告の、注視される前の状態を示す図である。 視界領域内における広告の、注視された後の状態を示す図である。 ユーザ行動管理テーブルを示す図である。 HMDシステムの機能を実現するための処理を示すフローチャートである。 ランチャー空間を説明するための図である。 優先度管理テーブルを示す図である。 HMDシステムの機能を実現するための処理を示すフローチャートである。 ランチャー空間を説明するための図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態によるヘッドマウントディスプレイシステムを制御する方法、および、プログラムは、以下のような構成を備える。
(項目1)
ユーザが没入する仮想空間を提供する方法であって、コンピュータに、
前記ユーザが没入する仮想空間、および、前記仮想空間における対象オブジェクトを生成するステップと、
前記仮想空間における基準位置、および、前記対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、
前記基準位置に対する前記ユーザの視線方向である基準方向を定義するステップと、
前記対象オブジェクトに対する前記ユーザの視線方向である注視方向を特定するステップと、
前記ユーザが前記対象オブジェクトを注視した注視時間を特定するステップと、
前記注視時間と、前記注視方向と、前記基準方向に基づいて、調整済注視時間を特定するステップと、
前記調整済注視時間に基づいて、前記ユーザに所定のコンテンツを提供するステップと、を実行させる方法。
本項目の方法によれば、ユーザが広告等の対象オブジェクトを注視した時間に基づいて、当該ユーザに広告に関連するコンテンツを提供する。その際、ユーザの注視方向と、仮想空間内に設定された基準方向との関係によって、注視した時間を調整することとしている。これにより、ユーザが関心を示した対象を容易に判別し、適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目2)
前記調整済注視時間は、前記注視時間を、前記注視方向の前記基準方向に対するずれ量に基づいて調整することによって算出される、項目1の方法。
本項目の方法によれば、ユーザが基準方向から遠くまで視線を逸らして対象オブジェクトを注視した場合には、当該対象に対する関心が高いものと推定する。これにより、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目3)
前記ずれ量は、垂直面内における前記注視方向の前記基準方向に対するずれ量である第1ずれ量と、前記垂直面に直交する水平面内における前記注視方向の前記基準方向に対するずれ量である第2ずれ量を含み、
前記第1ずれ量と前記第2ずれ量に所定の重みづけを付与して前記調整済注視時間を算出する、項目2の方法。
本項目の方法によれば、よりユーザが自発的にしにくい行動を重視することが可能になる。
(項目4)
前記重みづけは、前記第1ずれ量に対して大きく付与される、項目3の方法。
本項目の方法によれば、よりユーザが自発的にしにくい行動である、ユーザが垂直面内に視線を動かす行動を重視することにより、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目5)
前記ユーザの前記視線方向に基づいて、前記ユーザの視界領域を定義するステップと、
前記視界領域に含まれる複数の前記対象オブジェクトである第1オブジェクトと第2オブジェクトを特定するステップと、
前記第1オブジェクトに対する前記ユーザの前記調整済注視時間が所定の閾値を超過した場合には、前記第2オブジェクトの表示を、前記第1オブジェクトと関連するように変化させるステップと、をさらに含む、項目1〜4のいずれかの方法。
本項目の方法によれば、ユーザが所定の対象を注視した場合に、ユーザの視野内にある他のオブジェクトを、注視したオブジェクトに関連するように変化させる。これにより、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目6)
前記仮想空間を、ヘッドマウントディスプレイに出力することにより前記ユーザに提供し、
前記調整済注視時間に基づいて、前記ユーザに提供される前記コンテンツの優先度を設定し、
前記優先度に基づいて、前記コンテンツに関連する拡張コンテンツを特定し、
前記ヘッドマウントディスプレイが前記ユーザに装着されていない場合に、前記拡張コンテンツをダウンロードするためのダウンロード要求を出力する、項目1〜5のいずれかの方法。
本項目の方法によれば、広告に関連する拡張コンテンツ(例えば、ゲームの体験版。)を、ヘッドマウントディスプレイを使用していない時にダウンロードしておくことができる。これにより、ヘッドマウントディスプレイ使用中のユーザに通信状況が悪化する等の違和感を与えること無く、拡張コンテンツを提供することができる。
(項目7)
ランチャー空間を生成するステップをさらに備え、
前記ランチャー空間は、前記仮想空間および前記拡張コンテンツに関連付けられるとともに、前記コンテンツが前記優先度に応じて表示される、請求項6の方法。
本項目の方法によれば、ある仮想空間におけるユーザの関心を反映させた広告等のオブジェクトをランチャー空間に一覧として表示させることにより、ユーザの仮想空間に対する没入間を損なうことを防止することができる。
(項目8)
前記ユーザが没入する第2仮想空間を生成するステップと、
前記第2仮想空間に、前記第1仮想空間に配置された第1対象オブジェクトと関連する第2対象オブジェクトを生成するステップと、
前記ユーザが前記第1対象オブジェクトに対する調整済注視時間、および、前記第2対象オブジェクトに対する調整済注視時間を合算した合計調整済注視時間を特定するステップと、
前記注視時間に基づいて、前記ユーザに所定のコンテンツを提供するステップと、をさらに実行させる、項目1〜7のいずれかの方法。
本項目の方法によれば、複数のコンテンツにおけるユーザの視線履歴に関する行動を合算することで、より適切な広告をユーザ提案し得る。
(項目9)
項目1〜8のいずれかの方法を前記コンピュータに実行させるプログラム。
[本発明の実施形態の詳細]
本発明の実施形態に係る方法、および、プログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態にかかるHMD110を備えるHMDシステム100を示す。HMDシステム100は、ユーザの頭部に装着されるHMD110と、制御回路部120と、動きセンサ130と、注視センサ140を備える。
HMD110は、非透過型の表示装置であるディスプレイ112と、センサ部114と、注視センサ140を含む。制御回路部120は、ディスプレイ112に右目用画像と左目用画像を表示することにより、両目の視差を利用した3次元画像を仮想空間として提供する。ディスプレイ112がユーザの眼前に配置されることによって、ユーザは仮想空間に没入できる。仮想空間は、背景やユーザが操作可能な各種オブジェクト、メニュー画像等を含む。
ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。また、右目用画像と左目用画像を提供できれば、1つの表示装置で構成されていても良い。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。
制御回路部120は、HMD110に接続されるコンピュータであり、格納された所定のアプリケーションを実行することにより、ディスプレイ112に仮想空間を提示する。また、制御回路部120は、当該仮想空間内に表示される各種オブジェクトを操作したり、各種メニュー画像等を表示・制御するように処理を実行する。制御回路部120は、そのような動作の実行を制御するプログラムを格納する。制御回路部120はHMD110に搭載されていなくてもよく、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部120は、一部の機能のみをHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。
動きセンサ130は、HMD110の位置や傾きに関する情報を検出する。動きセンサ130は、センサ部114と、検知部132を含む。センサ部114は、複数の光源を含んでもよい。光源は、例えば赤外線を発するLEDである。検知部132は例えば赤外線センサであり、光源からの赤外線をHMD110の検知点として検知することで、ユーザの動きに応じたHMD110の現実空間内における位置や角度に関する情報を経時的に検出する。そして、検知部132により検出された情報の経時的変化に基づいて、HMD110の位置や角度の時間変化を決定し、HMD110の動きに関する情報を検知することができる。
動きセンサ130によって取得される位置や傾きに関する情報を、図2を参照して説明する。HMD110を装着したユーザの頭部を中心として、XYZ軸を規定する。ユーザが直立する垂直方向をY軸とし、Y軸と直交しディスプレイ112の中心とユーザを結ぶ前後方向をZ軸とし、Y軸およびZ軸と直交する横方向をX軸とする。これにより、ユーザのXYZ軸方向における位置の経時変化が取得される。また、各軸周りのHMD110の傾き角度θx(いわゆるピッチ角),θy(いわゆるヨー角),θz(いわゆるロール角)が取得される。
動きセンサ130は、ディスプレイ112の近くに固定されたセンサ部114と、検知部132の、一方のみから構成されてもよい。センサ部114が、地磁気センサ、加速度センサ、角速度(ジャイロ)センサであってもよく、これらの少なくとも1つを用いて、ユーザの頭部に装着されたHMD110(特に、ディスプレイ112)の位置および傾きを検出する。これにより、HMD110の動きに関する情報を検出することができる。例えば、角速度センサは、HMD110の動きに応じて、HMD110の3軸回りの角速度を経時的に検出し、各軸回りの角度の時間変化を決定することができる。この場合には、検知部132は不要である。また、検知部132は光学カメラを含んで構成されても良い。この場合には、画像情報に基づいてHMD110の動きに関する情報を検出することができ、センサ部114は不要である。
動きセンサ130を用いてHMD110の位置や傾きに関する情報を検出する機能をポジション・トラッキングと称する。動きセンサ130によるポジション・トラッキングと、仮想空間2内に配置される仮想カメラ1との関係を、図3を参照して説明する。仮想カメラ1と動きセンサ130の位置関係を説明するために、以下では動きセンサ130の位置は、検知部132を有する場合には検知部132の位置とし、検知部132を有しない場合にはセンサ部114の位置とする。仮想空間2の内部に仮想カメラ1が配置され、および仮想空間2の外部(現実空間)に動きセンサ130が仮想的に配置される。
仮想空間2は、略正方形または略長方形の複数のメッシュを有する天球状に形成される。各メッシュは仮想空間2の空間情報が関連付けられており、この空間情報に基づいて視界領域23が定義される。本実施形態では、XZ面において、天球の中心点21が仮想カメラ1とセンサ130を結ぶ線上に常に配置されるように調整することが好ましい。例えば、HMDを装着したユーザが移動して仮想カメラ1の位置がX方向に移動した場合には、中心21が仮想カメラ1と動きセンサ130の線分上に位置するように、仮想空間2の領域が変更される。この場合には、仮想空間2における仮想カメラ1の位置は固定され、傾きのみが変化する。一方、動きセンサ130のXYZ方向への移動に連動して仮想カメラ1の位置を移動させるようにすれば、仮想空間2における仮想カメラ1の位置は可変に設定される。
注視センサ140は、ユーザの右目および左目の視線が向けられる方向を検出するアイトラッキング機能を有する。注視センサ140は、右目用センサと左目用センサを備えていることが好ましく、それぞれが右目と左目の視線が向けられる方向を検出することにより、ユーザが注視する視線方向を検知する。注視センサ140はアイトラッキング機能を有する公知のセンサを採用することができ、例えば、右目及び左目に赤外光を照射し、角膜や虹彩からの反射光を取得することにより、眼球の回転角を求めることとしても良い。
図4に示すように、注視センサ140はユーザUの右目および左目の視線方向を検知する。ユーザUが近くを見ている場合には視線R1およびL1が検知され、両者の交点である注視点N1が特定される。また、ユーザが遠くを見ている場合には、視線R1およびL1よりZ方向とのなす角が小さい視線R2およびL2が特定される。注視点N1が特定されると、ユーザUの視線方向N0が特定される。視線方向N0はユーザUが両目により実際に視線が向けられている方向である。視線方向N0は、例えばユーザUの右目Rおよび左目Lの中心と中心点N1が通る直線の伸びる方向として定義される。
HMDシステム100はいずれかの要素にマイクを含むヘッドホンを備えていても良い。これにより、ユーザは仮想空間内の所定のオブジェクトに、音声による指示を与えることができる。また、仮想空間内の仮想テレビにテレビ番組の放送を受信するために、HMDシステム100はいずれかの要素にテレビジョン受像機を含んでいても良い。また、ユーザが取得した電子メール等を表示させるための、通信機能等を含んでいても良い。また、ユーザの各種指令を入力するための外部コントローラを含んでいても良い。
図5は、HMDシステム100における仮想空間2の表示処理や、当該仮想空間2内に表示される各種メニュー表示やオブジェクトの操作を実現するための、制御回路部120の機能を示すブロック図である。制御回路部120は、主に動きセンサ130および注視センサ140からの入力に基づいて、ディスプレイ112への出力画像を制御する。
制御回路部120は、表示制御部200と、オブジェクト制御部300と、通信制御部と、を備える。表示制御部200は、仮想空間画像生成部210と、HMD動作検知部220と、視線検知部230と、視界方向特定部240と、視界領域決定部250と、視界画像生成部260と、空間情報格納部270とを含む。オブジェクト制御部300は、広告特定部310と、注視時間計測部320と、調整部330と、判定部340と、描画部350と、オブジェクト情報格納部360と、仮想カメラ情報格納部370と、ユーザ行動記憶部と、を含む。
動きセンサ130および注視センサ140は、表示制御部200およびオブジェクト制御部300と互いに通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。表示制御部200、オブジェクト制御部300、通信制御部400は、HMD110(ディスプレイ112)と通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。通信制御部400は、ネットワーク150を介して外部サーバ160と通信可能である。空間情報格納部270、オブジェクト情報格納部360、仮想カメラ情報格納部370、ユーザ行動記憶部380は、動きセンサ130や注視センサ140からの入力に対応した出力情報をディスプレイ112へ提供するための各種データを含む。
図5,図6を参照して、仮想空間2を提供するためのHMDシステム100の処理フローを説明する。仮想空間2は、HMD110(注視センサ140、動きセンサ130)および制御回路部120の相互作用によって提供され得る。
まず、制御回路部120(仮想空間画像生成部210)はユーザが没入する仮想空間2を構成する天球状の仮想空間画像22を生成する(S120−1)。ユーザからHMD110に移動や傾きといった動作が入力されると(S110−1)、動きセンサ130によってHMD110の位置や傾きが検知される(S130−1)。動きセンサ130の検知情報は制御回路部120に送信され、HMD動作検出部220により、HMD110の位置情報や傾き情報が受け付けられる。これにより、HMD110の位置情報や傾き情報に基づく視界方向が決定される(S120−2)。
注視センサ140がユーザの左右の目の眼球の動きを検出すると(S140−1)、当該情報が制御回路部120に送信される。視線検知部230は、右目および左目の視線が向けられる方向を特定し、視線方向N0が特定される(S120−3)。基準視線特定部240は、HMD110の傾きにより特定された視界方向、または、ユーザの視線方向N0を基準視線5として特定する(S120−4)。
視界領域決定部250は、仮想空間2における仮想カメラ1の視界領域23を決定する(S120−5)。図3に示すように、視界領域23は仮想空間画像22のうちユーザの視界を構成する部分である。視界領域23は基準視線5に基づいて定められ、基準視線5は仮想カメラ1の位置および傾きに基づいて定められる。図7Aは視界領域23をX方向から見たYZ面図であり、図7Bは視界領域23をY方向から見たXZ面図である。
視界領域23は、基準視線5と仮想空間画像22のYZ断面によって定義される範囲である第1領域24(図7A参照)と、基準視線5と仮想空間画像22のXZ断面によって定義される範囲である第2領域25(図7B参照)とを有する。第1領域24は、基準視線5を中心として極角αを含む範囲として設定される。第2領域25は、基準視線5を中心として方位角βを含む範囲として設定される。
視界画像生成部260は、視界領域23に基づいて視界画像26を生成する(S120−6)。視界画像は左目用と右目用の2つの2次元画像を含み、これらがディスプレイ112に重畳されることにより、3次元画像としての仮想空間2がユーザに提供されるものである。HMD110は、視界画像26に関する情報を制御回路部120から受信して、ディスプレイ112に視界画像26を表示させる(S110−2)。
図5、および、図8以降を参照して、ユーザに提供される仮想空間の具体例、および、当該仮想空間をユーザに提供するためのHMDシステム100の処理フローを説明する。図8,図9に示すように、本実施形態における仮想空間は、ランチャー空間LAUと、ランチャー空間LAUに関連付けられた第1仮想空間VR1および第2仮想空間VR2を含む。HMDシステム100を起動してHMD110を装着したユーザには、まずランチャー空間LAUが提供される。ランチャー空間LAUは、仮想空間画像生成部210、視界画像生成部260によって生成され、HMD110に出力される(S120−7)。
ランチャー空間LAUには、第1仮想空間VR1を提供するためのアプリケーションAP1と、第2仮想空間VR2を提供するためのアプリケーションAP2が表示されている。ユーザはアプリケーションAP1,AP2に所定の操作(一定時間視線を送る、コントローラを操作する、など)を入力することにより、選択した仮想空間に移行することができる(S110−3)。ランチャー空間LAUには、後述する広告を表示する広告スペースADや、ダウンロード済の体験版コンテンツを表示するための体験版スペースTR1,TR2も表示されている。
第1仮想空間VR1の一例を図10に示す。アプリケーションAP1が選択されると、仮想空間画像生成部210は第1仮想空間VR1を構成する仮想空間画像22を生成する。また、オブジェクト制御部300の描画部350が、オブジェクト情報格納部360を参照して各種オブジェクトを生成し、第1仮想空間VR1内に描画して配置する(S120−8)。第1仮想空間VR1は、例えばライブステージといった興行を提供するコンテンツであり、第1仮想空間VR1内にステージS、ステージS上でパフォーマンスを提供するキャラクターC、各種広告OB1,OB2が配置されている。
オブジェクト制御部300は、仮想空間における基準位置BPと、後述するようにユーザの注視時間が計測される対象となる対象オブジェクトとしての広告OB1,OB2が配置された位置(対象オブジェクト位置)を特定する(S120−9)。ユーザに第1仮想空間VR1が提供された直後の状態では、ユーザは第1仮想空間VR1の天球の中心に位置し、ユーザの視線方向である基準視線5が基準位置BPに向けられた状態(後述する基準方向BD)とされている。本実施形態では、基準方向BDに基づいて生成された視界画像26は、ステージSと、キャラクターCと、複数の第1広告(第1対象オブジェクト)を含むようにされている。以下では、視界画像26に含まれる広告を第1広告(第1オブジェクト)OB1と、視界画像26に含まれない広告を第2広告(第2オブジェクト)OB2と称することがある。
なお、第2仮想空間VR2も図10と同様のものであるため、以下ではその説明を省略する。概略的には、アプリケーションAP2が選択されると、仮想空間画像生成部210は第2仮想空間VR2を構成する仮想空間画像22を生成する。また、オブジェクト制御部300の描画部350が、オブジェクト情報格納部360を参照して各種オブジェクトを生成し、第2仮想空間VR2内に描画して配置する(S120−8)。第2仮想空間VR2内にも、ステージS、キャラクターC、複数の第2広告(第2対象オブジェクト)、視界画像26に含まれる第1広告(第1オブジェクト)OB1、視界画像26に含まれない第2広告(第2オブジェクト)OB2が配置されている。
ユーザはHMD110に位置や傾きの変動といった各種動きを入力することにより、第1仮想空間VR1内で自由に行動することができる(S110−4)。動きセンサ130がユーザの動きを検知すると、HMD動作検知部220はこれを受け付けて、ユーザの仮想空間における位置を特定する(S120−10)。動きセンサ130または注視センサ140がユーザの基準視線5の変動を検知すると、基準視線特定部240はこれを受け付けて、ユーザの仮想空間における視線方向を特定する(S120−11)。オブジェクト制御部300は、ユーザの仮想空間における位置と、基準視線特定部240からのユーザの基準視線5に基づいて、ユーザの浸染方向を特定する。そして、広告特定部310は、各種広告OB1,OB2の配置位置に関する情報に基づいて、視線方向がいずれかの広告OB1,OB2に向けられているか否かを判定する(S120−12)。広告特定部310は、いずれかの広告OB1,OB2に向けられたユーザの視線方向を注視方向GDとして特定する。そして、注視時間計測部320が、当該広告に基準視線を送っている時間である注視時間の計測を開始する(S120−13)。注視時間計測部320は、ユーザの視線方向が所定の広告を含む一定の範囲(当該広告を中心に含む円形や楕円形、多角形など)に向けられている場合には、ユーザが当該広告を注視しているものと見なして、注視時間を計測する。
上記のようなユーザ行動の履歴のうち、ユーザが所定の広告を注視した行動が、ユーザ行動記憶部370に記憶される。ユーザ行動記憶部370は、例えば図14に示すユーザ行動管理テーブルT1を含む。ユーザ行動管理テーブルT1は、ユーザがいずれのアプリケーション(仮想空間)において、いつ、いずれのオブジェクトを、仮想空間内におけるどの位置から注視したかといった情報の他、当該オブジェクトを注視した時間が記憶される。
ここで、ユーザが所定の広告を注視した注視時間は、図11に示す処理フローに基づいて、調整済注視時間として記憶されても良い。図12Aは、ユーザから見た垂直面(YZ面)内における基準方向BD−Vおよび注視方向GD−Vを示す図である。図12Bは、ユーザから見た水平面(XZ面)内における基準方向BD−Hおよび注視方向GD−Hを示す図である。まず、上述したように、第1仮想空間VR1における基準位置BPとユーザの位置(仮想カメラ1の位置)に基づいて、基準方向BDを特定する(S120−14)。このとき、基準方向BDは、垂直面(YZ面)内における基準方向BD−Vと、水平面(XZ面)内における基準方向BD−Hが特定される。本実施形態では、コンテンツの主役となるキャラクターCがステージS上に配置されるため、ユーザの基準視線BD−Vはやや情報を向くように設定されている。また、第1仮想空間VR1における広告位置OB1とユーザの位置に基づいて、注視方向GDを特定する(S120−15)。このとき、注視方向GDは、垂直面(YZ面)内における注視方向GD−Vと、水平面(XZ面)内における注視方向GD−Hが特定される。
次に、オブジェクト制御部300は、注視方向GDと基準方向BDのずれ量を求める(S120−16)。本実施形態では、垂直面内における注視方向GD−Vの基準方向BD−Vに対するずれ量(角度の差分)である第1ずれ量DV1と(S120−17)、水平面内における注視方向GD−Hの基準方向BD−Hに対するずれ量(角度の差分)である第2ずれ量DV2を求める(S120−18)。
そして、調整部330は、注視時間に第1ずれ量DV1(角度:ラジアン)および第2ずれ量DV2(角度:ラジアン)を加味して、調整済注視時間を算出する(S120−20)。
β1は第1ずれ量DV1を重みづけするための係数である。β2は第2ずれ量DV2を重みづけするための係数である。調整部330は、予めβ1およびβ2を所定値に設定する(S120−19)ことによって、よりユーザが自発的にしにくい行動をとってまである広告を注視したという行動履歴を重視して、注視時間を調整することができる。
本実施形態では、第1ずれ量DV1に対する重みづけ係数β1が、第2ずれ量DV2に対する重みづけ係数β2より大きいことが好ましい。ユーザは、水平方向における頭部の動きより、垂直方向における頭部の動きに対して、よりストレスを感じることが推測される。このように、よりユーザが自発的にしにくい行動である、ユーザが垂直面内に視線を動かす行動を重視することにより、ユーザの関心に対して適時アプローチすることが可能となる。
DV1およびDV2は、−π以上π以下の値である。また、DV1およびDV2は累乗(2乗またはそれ以上の累乗)されて調整済注視時間の算出に適用される。これにより、ユーザが基準方向から遠くに視線を逸らしてまで広告を注視した行動をより重視して調整済注視時間を算出できる。調整済注視時間は、ユーザ行動記憶部370のユーザ行動管理テーブルT1に記憶される。
判定部340は、調整済注視時間が所定の閾値を超えたか否かを判定する(S120−21)。本実施形態では、調整済注視時間が5秒以上である場合にユーザが当該広告に関心を示したものと解釈することとし、閾値を5秒と設定する。調整済注視時間が所定の閾値を超えた場合には、ユーザが当該広告を注視したものとして受け付ける(S120−22)。
図13A,図13Bは、ユーザが広告を注視したものとして受け付けられた場合の処理の一例を示す。図13Aは、受け付けられる前の状態を示す。図13Bは、受け付けられた後の状態を示す。受け付けられる前の状態では、視界領域23内の広告OB1には、3種類の広告A,B,Cが表示されている。ユーザの広告Aが表示された広告OB1に対する注視が受け付けられると、描画部350は、広告Bが表示された広告OB1の表示を、広告Aに関連する広告A−1に変化させるとともに、広告Cが表示された広告OB1の表示を、広告Aに関連する広告A−2に変化させる。これにより、ユーザが所定のオブジェクトを注視した場合に、ユーザの視野内にある他のオブジェクトを、注視したオブジェクトに関連するように変化させる。これにより、ユーザの関心に対して適時アプローチすることが可能となる。
このように第1仮想空間VR1において所定の広告に対する調整済注視時間が特定された状態で(S120−23)、ユーザからHMD110に対し、第1仮想空間VR1を終了する指示が入力された場合(S110−5)を図15に示す。この場合、判定部340がユーザ行動記憶部370を参照し、各広告の優先度を特定する(S120−24)。広告の優先度は調整済注視時間の合計値によって特定され、図14に示すように、第1仮想空間VR1を終了した時点における広告の優先度は、A−2>A>A−1と特定される。
判定部340は広告の優先度に関する情報を視界画像生成部260に送信する。視界画像生成部260は、当該情報に基づいて、図16に示すようなランチャー空間LAUを生成し、HMD110に出力する(S120−25)。ランチャー空間LAUの広告スペースADには、複数の広告が優先度に応じて配置される。最も優先度が高いと判定された広告A−2は、大きく表示されたり、何らかの強調が施されて表示されても良い。
続いて、ユーザが第2仮想空間VR2を起動させるアプリケーションAP2を選択すると、HMD110には第2仮想空間VR2が提供される(S110−6)。第2仮想空間VR2においても、第1仮想空間VR1と同様の処理フローによって、広告に対するユーザの注視時間(調整済注視時間)が特定される(S120−26)。
ユーザがHMD110の使用を終了すると(S110−7)、判定部340は、合計注視時間としての合計調整済注視時間を特定する(S120−27)。合計調整済注視時間は、図17に示す優先度管理テーブルT2に管理されている。優先度管理テーブルT2は、ユーザ行動記憶部370に記憶されている。
優先度管理テーブルT2は、ユーザ行動管理テーブルT1に基づいて、広告毎の調整済注視時間の合計値を算出する。本実施形態では、ユーザ行動管理テーブルT1に示すように、ユーザは第1仮想空間VR1および第2仮想空間VR2において、広告A−2を注視している。その際、ユーザは異なるユーザ位置から広告A−2を注視していることから、ユーザの視線方向を加味した調整済注視時間を合計することによって、HMD装着中におけるユーザの関心をより正確に求めることができる。従って、優先度管理テーブルT2においては、調整済注視時間の合計値が管理されている。
判定部340は、合計調整済注視時間に基づいて、各広告の優先度を設定する。即ち、合計調整済注視時間が長い順に、高い優先度が付与される。このとき、閾値である5秒を超過していない広告A−1は、優先度の設定対象から除外される。
また、判定部340は、優先度が設定された各広告に関連する拡張コンテンツとしての体験版コンテンツの有無を判定する。本実施形態では、ランチャー空間LAUに2つの体験版スペースTR1,TR2が設定されているから、体験版コンテンツを有する広告のうち、上位2つの広告が特定される(広告B,B−1)。体験版コンテンツが特定されると、判定部340は通信制御部400に対して、当該体験版コンテンツをダウンロードするためのダウンロード要求を出力するよう指示する。通信制御部410は、当該指示と、HMD110からユーザがHMDの使用を終了したことを通知する情報を受信すると、通信処理部420に対してダウンロード要求を出力するよう指示する。通信処理部420はネットワーク150を介して外部サーバ160に接続し、体験版コンテンツのダウンロード要求を送信する。外部サーバ160は当該ダウンロード要求に基づいて、体験版コンテンツをネットワーク150を介して通信処理部420に送信する。
このように、本実施形態では広告に関連する拡張コンテンツ(例えば、ゲームの体験版。)を、ユーザがHMD110を使用していない時にダウンロードしておくことができる。これにより、HMD110使用中のユーザに通信状況が悪化する等の違和感を与えること無く、拡張コンテンツを提供することができる。
ユーザがHMD110の使用を再開すると、制御回路部120はダウンロード済の体験版コンテンツを特定する(S120−30)。本実施形態では、広告Bおよび広告B−1に関する体験版コンテンツのダウンロードが完了しているか否かを判定し、完了している場合にはダウンロード済の体験版コンテンツとして特定する。そして、前述と同様に優先度管理テーブルT2を参照して、ユーザの前回のHMD110使用時に設定された各広告の優先度を特定する(S120−31)。その後、視界画像生成部260は、図18に示すランチャー空間LAUを生成して、HMD110に出力する(S120−32)。ランチャー空間LAUの広告スペースADには優先度5までの広告が、上から順に配置されている。また、最も優先度の高い広告Bが大きく強調表示されている。また、体験版スペースTR1,TR2には、広告Bおよび広告B−1に関連する体験版コンテンツが配置される。
ユーザは、第1仮想空間VR1,第2体験版コンテンツVR2、体験版スペースTR1,TR2に配置された体験版コンテンツのいずれかを選択肢、対応する仮想空間を楽しむことができる。また、広告を選択することにより、それに関する情報を他の情報端末(パソコン、スマートフォン等)に送信するように、指示することもできる。
なお、一度HMD110を非装着とした場合には、その後に没入した仮想空間において広告を注視したとしても、前回HMD110を装着した際に広告を注視した時間に合算しないことが好ましい。即ち、広告を注視した時間を合算する処理は、一度のHMD110装着時間内に限って行われることが好ましい。これにより、ユーザの関心を一定の長期間にわたって平均化することなく、一時的なユーザの関心の高まりに対しても適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。
例えば、上述の実施形態においては、調整済注視時間に基づいてコンテンツの優先度を判定したが、調整前の注視時間に基づいて優先度を判定しても良い。
また、上述の実施形態においては、互いに関連するコンテンツである広告A,A−1,A−2を、注視時間または合計調整済注視時間を算定するに当たっては関連しないものとして取り扱ったが、これらを関連するものとして取り扱っても良い。例えば、広告A,A−1,A−2の注視時間または調整済注視時間を合計して、広告A,A−1,A−2を一体として優先度を判定してもよい。この場合、広告A,A−1,A−2の優先度が高いと判定された場合には、広告A,A−1,A−2に関連する全ての広告、および、拡張コンテンツを、ランチャー空間LAUに表示することとしてもよい。
100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、120…制御回路部、130…動きセンサ、132…検知部、140…注視センサ、200…表示制御部、300…オブジェクト制御部、400・・・通信制御部、1…仮想カメラ、2…仮想空間、5…基準視線、22…仮想空間画像、23…視界領域、26…視界画像、BP…基準点、BD…基準方向、GD…注視方向。

Claims (3)

  1. ヘッドマウントディスプレイを用いてユーザが没入する仮想空間を提供する方法であって、コンピュータに、
    前記想空間、および、前記仮想空間における対象オブジェクトを生成するステップと、
    前記対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、
    前記ヘッドマウントディスプレイの傾きに応じて特定される前記ユーザの視線方向に基づいて、前記ユーザの視界領域を定義するステップと、
    前記視界領域に含まれる記対象オブジェクトである複数の第1オブジェクトと、前記視界領域に含まれない前記対象オブジェクトである第2オブジェクトを特定するステップと、
    複数の前記第1オブジェクトと前記第2オブジェクトに広告を表示させるステップと、
    複数の前記第1オブジェクトのいずれかに対する前記ユーザの注視を受け付けた場合には、複数の前記対象オブジェクトのうち前記ユーザの注視を受け付けた前記第1オブジェクト以外の前記第1オブジェクトに表示された広告のみを、前記ユーザの注視を受け付けた前記第1オブジェクトに表示された広告と関連するように変化させるステップと、を実行させる方法。
  2. 前記対象オブジェクトに対して前記視線方向が向けられている時間が所定の閾値を超えた場合に、前記第1オブジェクトに対する前記注視が受け付けられる、請求項1の方法。
  3. 請求項1または2のいずれかの方法を前記コンピュータに実行させるプログラム。
JP2015160451A 2015-08-17 2015-08-17 ヘッドマウントディスプレイシステムを制御する方法、および、プログラム Active JP5961736B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015160451A JP5961736B1 (ja) 2015-08-17 2015-08-17 ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
PCT/JP2016/073324 WO2017030037A1 (ja) 2015-08-17 2016-08-08 仮想空間を提供するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、仮想空間を提供するための装置
US15/294,655 US10311640B2 (en) 2015-08-17 2016-10-14 Method and apparatus for providing virtual space, and non-transitory computer readable data storage medium storing program causing computer to perform method
US16/384,930 US20190244433A1 (en) 2015-08-17 2019-04-16 Method and apparatus for providing virtual space, and non-transitory computer readable data storage medium storing program causing computer to perform method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015160451A JP5961736B1 (ja) 2015-08-17 2015-08-17 ヘッドマウントディスプレイシステムを制御する方法、および、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016114844A Division JP2017041229A (ja) 2016-06-08 2016-06-08 ヘッドマウントディスプレイシステムを制御する方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP5961736B1 true JP5961736B1 (ja) 2016-08-02
JP2017040970A JP2017040970A (ja) 2017-02-23

Family

ID=56550561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015160451A Active JP5961736B1 (ja) 2015-08-17 2015-08-17 ヘッドマウントディスプレイシステムを制御する方法、および、プログラム

Country Status (3)

Country Link
US (2) US10311640B2 (ja)
JP (1) JP5961736B1 (ja)
WO (1) WO2017030037A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6215441B1 (ja) * 2016-12-27 2017-10-18 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP6228640B1 (ja) * 2016-08-17 2017-11-08 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2018120521A (ja) * 2017-01-27 2018-08-02 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
EP3493553A4 (en) * 2016-08-30 2019-06-05 Alpha Code Inc. SYSTEM FOR PROVIDING INFORMATION RELATING TO AN ATTENTION MATERIAL AND INFORMATION PROCESSING METHOD
JP2019105931A (ja) * 2017-12-11 2019-06-27 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2021099816A (ja) * 2017-01-31 2021-07-01 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3188132B1 (en) * 2014-08-27 2021-05-05 Sony Corporation Display control device, display control method, and program
JP5961736B1 (ja) * 2015-08-17 2016-08-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP6947661B2 (ja) * 2017-05-26 2021-10-13 株式会社コロプラ ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
JP6462059B1 (ja) * 2017-07-13 2019-01-30 株式会社コロプラ 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP6845111B2 (ja) 2017-08-23 2021-03-17 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
DE112018005160T5 (de) * 2017-09-15 2020-07-02 Sony Corporation Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm
WO2019135313A1 (ja) * 2018-01-04 2019-07-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6628331B2 (ja) * 2018-01-22 2020-01-08 株式会社コナミデジタルエンタテインメント プログラムおよび画像表示システム
WO2019142817A1 (ja) * 2018-01-22 2019-07-25 株式会社コナミデジタルエンタテインメント 画像表示システムおよびそのプログラムを記録した記録媒体
US10890979B2 (en) * 2018-04-23 2021-01-12 Industrial Technology Research Institute Controlling system and controlling method for virtual display
WO2020129115A1 (ja) * 2018-12-17 2020-06-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理方法およびコンピュータプログラム
JP6999538B2 (ja) * 2018-12-26 2022-01-18 株式会社コロプラ 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
SE543121C2 (en) * 2019-02-04 2020-10-13 Tobii Ab Method and system for determining a current gaze direction
KR102149732B1 (ko) * 2019-04-17 2020-08-31 라쿠텐 인코포레이티드 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체
US11630680B2 (en) * 2020-10-28 2023-04-18 International Business Machines Corporation Modifying user interface layout based on user focus
JPWO2023286312A1 (ja) * 2021-07-13 2023-01-19

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124603A (ja) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd 情報表示装置及び情報収集装置
JP2000285064A (ja) * 1999-03-31 2000-10-13 Fujitsu Ltd 仮想空間共有システム
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2006197373A (ja) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp 視聴者情報測定装置
JP2009545051A (ja) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 注視された商品の情報表示のための注視インタラクション
WO2011074198A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP2014052518A (ja) * 2012-09-07 2014-03-20 Toyota Motor Corp 広告配信システムおよび広告配信方法
JP2014529792A (ja) * 2011-08-18 2014-11-13 アザーヴァース デジタル インコーポレーテッドUtherverse Digital, Inc. 仮想世界の相互作用のシステムおよび方法
JP2015114798A (ja) * 2013-12-11 2015-06-22 キヤノン株式会社 情報処理装置および情報処理方法、プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3732168B2 (ja) 2001-12-18 2006-01-05 株式会社ソニー・コンピュータエンタテインメント 仮想世界におけるオブジェクトの表示装置、表示システム及び表示方法、ならびにそれらを利用可能な仮想世界における地価及び広告料の設定方法
US8156004B2 (en) * 2006-08-21 2012-04-10 Skyworks Ventures Inc. Method, system and apparatus for users to build and use digital products and for advertisers to communicate with users in a manner that does not mitigate user experience
US8542232B2 (en) * 2008-12-28 2013-09-24 Avaya Inc. Method and apparatus for monitoring user attention with a computer-generated virtual environment
US9201501B2 (en) * 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
JP5935640B2 (ja) 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US9235051B2 (en) * 2013-06-18 2016-01-12 Microsoft Technology Licensing, Llc Multi-space connected virtual data objects
US9766715B2 (en) * 2014-05-01 2017-09-19 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
JP5961736B1 (ja) * 2015-08-17 2016-08-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124603A (ja) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd 情報表示装置及び情報収集装置
JP2000285064A (ja) * 1999-03-31 2000-10-13 Fujitsu Ltd 仮想空間共有システム
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2006197373A (ja) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp 視聴者情報測定装置
JP2009545051A (ja) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 注視された商品の情報表示のための注視インタラクション
WO2011074198A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP2014529792A (ja) * 2011-08-18 2014-11-13 アザーヴァース デジタル インコーポレーテッドUtherverse Digital, Inc. 仮想世界の相互作用のシステムおよび方法
JP2014052518A (ja) * 2012-09-07 2014-03-20 Toyota Motor Corp 広告配信システムおよび広告配信方法
JP2015114798A (ja) * 2013-12-11 2015-06-22 キヤノン株式会社 情報処理装置および情報処理方法、プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6015049776; 亀津敦: '「マルチバース時代」に向かう仮想世界 「セカンドライフ」に見る新ビジネスの展望' 知的資産創造 第15巻,第8号, 20070720, 第48〜59ページ, 株式会社野村総合研究所 *
JPN6015049778; 野間田佑也ほか: 'ユーザの行動評価に基づく仮想世界の動的生成' 電子情報通信学会技術研究報告 第104巻,第196号, 20040709, 第1〜6ページ(MVE2004-26), 社団法人電子情報通信学会 *
JPN6016009796; 河野隆志ほか: '仮想空間におけるショッピング環境' NTT R&D 第48巻,第9号, 19990910, 第55〜61ページ, 社団法人電気通信協会 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6228640B1 (ja) * 2016-08-17 2017-11-08 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2018028597A (ja) * 2016-08-17 2018-02-22 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
US10277814B2 (en) 2016-08-17 2019-04-30 Colopl, Inc. Display control method and system for executing the display control method
EP3493553A4 (en) * 2016-08-30 2019-06-05 Alpha Code Inc. SYSTEM FOR PROVIDING INFORMATION RELATING TO AN ATTENTION MATERIAL AND INFORMATION PROCESSING METHOD
JP6215441B1 (ja) * 2016-12-27 2017-10-18 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
WO2018123553A1 (ja) * 2016-12-27 2018-07-05 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2018106498A (ja) * 2016-12-27 2018-07-05 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2018120521A (ja) * 2017-01-27 2018-08-02 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2021099816A (ja) * 2017-01-31 2021-07-01 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2019105931A (ja) * 2017-12-11 2019-06-27 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7302945B2 (ja) 2017-12-11 2023-07-04 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
US10311640B2 (en) 2019-06-04
JP2017040970A (ja) 2017-02-23
WO2017030037A1 (ja) 2017-02-23
US20170053452A1 (en) 2017-02-23
US20190244433A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP5961736B1 (ja) ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP6058184B1 (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP2019519020A (ja) 視野周辺の視覚的背光
JP6203369B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6097377B1 (ja) 画像表示方法及びプログラム
WO2016118388A1 (en) Augmented reality field of view object follower
WO2017033777A1 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
US10438418B2 (en) Information processing method for displaying a virtual screen and system for executing the information processing method
JP2019020908A (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
US20160320833A1 (en) Location-based system for sharing augmented reality content
JP6433862B2 (ja) ヘッドマウントディスプレイシステム制御プログラム、コンピュータ及び方法
JP2017021824A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP2018120520A (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019125215A (ja) 情報処理装置、情報処理方法、及び記録媒体
JP6598575B2 (ja) ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP2023095862A (ja) プログラム及び情報処理方法
JP2019021347A (ja) ヘッドマウントディスプレイシステム制御プログラム
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP2017041229A (ja) ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP2017033465A (ja) 方法、および、プログラム
JP2017162443A (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
US20240095877A1 (en) System and method for providing spatiotemporal visual guidance within 360-degree video
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160627

R150 Certificate of patent or registration of utility model

Ref document number: 5961736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250