JP2017041229A - Method and program for controlling head-mounted display system - Google Patents
Method and program for controlling head-mounted display system Download PDFInfo
- Publication number
- JP2017041229A JP2017041229A JP2016114844A JP2016114844A JP2017041229A JP 2017041229 A JP2017041229 A JP 2017041229A JP 2016114844 A JP2016114844 A JP 2016114844A JP 2016114844 A JP2016114844 A JP 2016114844A JP 2017041229 A JP2017041229 A JP 2017041229A
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual space
- gaze
- gaze time
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザがヘッドマウントディスプレイ(Head−Mounted Display:HMD)を用いて没入する仮想空間を、コンピュータに提供させる方法、および、プログラムに関するものである。 The present invention relates to a method and a program for causing a computer to provide a virtual space in which a user immerses using a head-mounted display (HMD).
特許文献1には、仮想空間内の各場所にユーザ毎の地価を設定し、当該場所に対する各ユーザ間の地価を平均化することによって、その場所に広告を表示する場合の広告料を設定する手法が開示されている。地価は、各ユーザの移動操作履歴に基づいて設定される。また、特許文献2には、ユーザの行動状況に基づいて、表示アイテムの優先度を設定する技術が開示されている。 In Patent Document 1, a land price for each user is set in each place in the virtual space, and an advertisement charge for displaying an advertisement in that place is set by averaging the land prices between the users for the place. A technique is disclosed. The land price is set based on the movement operation history of each user. Patent Document 2 discloses a technique for setting the priority of a display item based on a user's action situation.
特許文献1,2に記載された技術においては、ユーザに適切な広告等のコンテンツを提供するために、多量のユーザ情報を収集する必要がある。従って、ユーザの関心に対して適時アプローチする上で、改善の余地がある。 In the techniques described in Patent Documents 1 and 2, it is necessary to collect a large amount of user information in order to provide appropriate content such as advertisements to the user. Therefore, there is room for improvement in approaching the user's interest in a timely manner.
本発明によれば、ユーザが没入する仮想空間を提供する方法であって、コンピュータに、前記ユーザが没入する仮想空間、および、前記仮想空間における対象オブジェクトを生成するステップと、前記仮想空間における基準位置、および、前記対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、前記基準位置に対する前記ユーザの視線方向である基準方向を定義するステップと、前記対象オブジェクトに対する前記ユーザの視線方向である注視方向を特定するステップと、前記ユーザが前記対象オブジェクトを注視した注視時間を特定するステップと、前記注視時間と、前記注視方向と、前記基準方向に基づいて、調整済注視時間を特定するステップと、前記調整済注視時間に基づいて、前記ユーザに所定のコンテンツを提供するステップと、を実行させる方法、が得られる。 According to the present invention, there is provided a method for providing a virtual space in which a user is immersed, the step of generating a virtual space in which the user is immersed, and a target object in the virtual space, and a reference in the virtual space. Defining a position and a target object position where the target object is arranged; defining a reference direction that is the user's line-of-sight direction with respect to the reference position; and the user's line-of-sight direction with respect to the target object Identifying a gaze direction, identifying a gaze time when the user gazes the target object, identifying an adjusted gaze time based on the gaze time, the gaze direction, and the reference direction And a predetermined container for the user based on the adjusted gaze time. How to execute the steps of providing a tool, a, is obtained.
本発明によれば、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。 ADVANTAGE OF THE INVENTION According to this invention, the content provision means which can approach a user's interest timely can be provided.
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態によるヘッドマウントディスプレイシステムを制御する方法、および、プログラムは、以下のような構成を備える。
(項目1)
ユーザが没入する仮想空間を提供する方法であって、コンピュータに、
前記ユーザが没入する仮想空間、および、前記仮想空間における対象オブジェクトを生成するステップと、
前記仮想空間における基準位置、および、前記対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、
前記基準位置に対する前記ユーザの視線方向である基準方向を定義するステップと、
前記対象オブジェクトに対する前記ユーザの視線方向である注視方向を特定するステップと、
前記ユーザが前記対象オブジェクトを注視した注視時間を特定するステップと、
前記注視時間と、前記注視方向と、前記基準方向に基づいて、調整済注視時間を特定するステップと、
前記調整済注視時間に基づいて、前記ユーザに所定のコンテンツを提供するステップと、を実行させる方法。
本項目の方法によれば、ユーザが広告等の対象オブジェクトを注視した時間に基づいて、当該ユーザに広告に関連するコンテンツを提供する。その際、ユーザの注視方向と、仮想空間内に設定された基準方向との関係によって、注視した時間を調整することとしている。これにより、ユーザが関心を示した対象を容易に判別し、適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目2)
前記調整済注視時間は、前記注視時間を、前記注視方向の前記基準方向に対するずれ量に基づいて調整することによって算出される、項目1の方法。
本項目の方法によれば、ユーザが基準方向から遠くまで視線を逸らして対象オブジェクトを注視した場合には、当該対象に対する関心が高いものと推定する。これにより、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目3)
前記ずれ量は、垂直面内における前記注視方向の前記基準方向に対するずれ量である第1ずれ量と、前記垂直面に直交する水平面内における前記注視方向の前記基準方向に対するずれ量である第2ずれ量を含み、
前記第1ずれ量と前記第2ずれ量に所定の重みづけを付与して前記調整済注視時間を算出する、項目2の方法。
本項目の方法によれば、よりユーザが自発的にしにくい行動を重視することが可能になる。
(項目4)
前記重みづけは、前記第1ずれ量に対して大きく付与される、項目3の方法。
本項目の方法によれば、よりユーザが自発的にしにくい行動である、ユーザが垂直面内に視線を動かす行動を重視することにより、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目5)
前記ユーザの前記視線方向に基づいて、前記ユーザの視界領域を定義するステップと、
前記視界領域に含まれる複数の前記対象オブジェクトである第1オブジェクトと第2オブジェクトを特定するステップと、
前記第1オブジェクトに対する前記ユーザの前記調整済注視時間が所定の閾値を超過した場合には、前記第2オブジェクトの表示を、前記第1オブジェクトと関連するように変化させるステップと、をさらに含む、項目1〜4のいずれかの方法。
本項目の方法によれば、ユーザが所定の対象を注視した場合に、ユーザの視野内にある他のオブジェクトを、注視したオブジェクトに関連するように変化させる。これにより、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目6)
前記仮想空間を、ヘッドマウントディスプレイに出力することにより前記ユーザに提供し、
前記調整済注視時間に基づいて、前記ユーザに提供される前記コンテンツの優先度を設定し、
前記優先度に基づいて、前記コンテンツに関連する拡張コンテンツを特定し、
前記ヘッドマウントディスプレイが前記ユーザに装着されていない場合に、前記拡張コンテンツをダウンロードするためのダウンロード要求を出力する、項目1〜5のいずれかの方法。
本項目の方法によれば、広告に関連する拡張コンテンツ(例えば、ゲームの体験版。)を、ヘッドマウントディスプレイを使用していない時にダウンロードしておくことができる。これにより、ヘッドマウントディスプレイ使用中のユーザに通信状況が悪化する等の違和感を与えること無く、拡張コンテンツを提供することができる。
(項目7)
ランチャー空間を生成するステップをさらに備え、
前記ランチャー空間は、前記仮想空間および前記拡張コンテンツに関連付けられるとともに、前記コンテンツが前記優先度に応じて表示される、請求項6の方法。
本項目の方法によれば、ある仮想空間におけるユーザの関心を反映させた広告等のオブジェクトをランチャー空間に一覧として表示させることにより、ユーザの仮想空間に対する没入間を損なうことを防止することができる。
(項目8)
前記ユーザが没入する第2仮想空間を生成するステップと、
前記第2仮想空間に、前記第1仮想空間に配置された第1対象オブジェクトと関連する第2対象オブジェクトを生成するステップと、
前記ユーザが前記第1対象オブジェクトに対する調整済注視時間、および、前記第2対象オブジェクトに対する調整済注視時間を合算した合計調整済注視時間を特定するステップと、
前記注視時間に基づいて、前記ユーザに所定のコンテンツを提供するステップと、をさらに実行させる、項目1〜7のいずれかの方法。
本項目の方法によれば、複数のコンテンツにおけるユーザの視線履歴に関する行動を合算することで、より適切な広告をユーザ提案し得る。
(項目9)
項目1〜8のいずれかの方法を前記コンピュータに実行させるプログラム。
[Description of Embodiment of the Present Invention]
First, the contents of the embodiment of the present invention will be listed and described. A method and a program for controlling a head mounted display system according to an embodiment of the present invention have the following configuration.
(Item 1)
A method for providing an immersive virtual space for a computer,
Generating a virtual space in which the user is immersed, and a target object in the virtual space;
Defining a reference position in the virtual space and a target object position where the target object is arranged;
Defining a reference direction that is the line-of-sight direction of the user with respect to the reference position;
Identifying a gaze direction that is a gaze direction of the user with respect to the target object;
Identifying a gaze time when the user gazes at the target object;
Identifying an adjusted gaze time based on the gaze time, the gaze direction, and the reference direction;
Providing the user with predetermined content based on the adjusted gaze time.
According to the method of this item, the content related to the advertisement is provided to the user based on the time when the user gazes at the target object such as the advertisement. At that time, the gaze time is adjusted according to the relationship between the gaze direction of the user and the reference direction set in the virtual space. Accordingly, it is possible to provide a content providing unit that can easily determine an object that the user has shown interest in and can approach in a timely manner.
(Item 2)
The method according to item 1, wherein the adjusted gaze time is calculated by adjusting the gaze time based on a shift amount of the gaze direction with respect to the reference direction.
According to the method of this item, when the user looks away from the reference direction and looks closely at the target object, it is estimated that the user is highly interested in the target. Accordingly, it is possible to provide a content providing unit that can approach the user's interest in a timely manner.
(Item 3)
The shift amount is a first shift amount that is a shift amount of the gaze direction with respect to the reference direction in a vertical plane, and a second shift amount that is a shift amount of the gaze direction with respect to the reference direction in a horizontal plane perpendicular to the vertical plane. Including displacement
The method according to Item 2, wherein the adjusted gaze time is calculated by assigning a predetermined weight to the first deviation amount and the second deviation amount.
According to the method of this item, it is possible to place an emphasis on actions that are more difficult for the user to do spontaneously.
(Item 4)
Item 3. The method according to Item 3, wherein the weighting is largely applied to the first deviation amount.
According to the method of this item, content that can approach the user's interest in a timely manner by placing emphasis on the user's behavior that makes it difficult for the user to voluntarily move the line of sight in the vertical plane. Means may be provided.
(Item 5)
Defining a field of view of the user based on the line of sight of the user;
Identifying a first object and a second object that are a plurality of the target objects included in the field-of-view area;
Changing the display of the second object to be associated with the first object if the adjusted gaze time of the user for the first object exceeds a predetermined threshold; The method according to any of items 1 to 4.
According to the method of this item, when the user gazes at a predetermined target, other objects in the user's field of view are changed so as to relate to the gazed object. Accordingly, it is possible to provide a content providing unit that can approach the user's interest in a timely manner.
(Item 6)
Providing the virtual space to the user by outputting to a head mounted display;
Based on the adjusted gaze time, set the priority of the content provided to the user,
Based on the priority, identify extended content related to the content,
The method according to any one of items 1 to 5, wherein when the head mounted display is not attached to the user, a download request for downloading the extended content is output.
According to the method of this item, the extended content (for example, a trial version of a game) related to the advertisement can be downloaded when the head mounted display is not used. As a result, the extended content can be provided without giving the user who is using the head-mounted display a sense of incongruity such as deterioration of the communication status.
(Item 7)
And further comprising the step of generating a launcher space,
The method of claim 6, wherein the launcher space is associated with the virtual space and the extended content, and the content is displayed according to the priority.
According to the method of this item, by displaying objects such as advertisements reflecting the user's interest in a certain virtual space as a list in the launcher space, it is possible to prevent a loss of immersion in the user's virtual space. .
(Item 8)
Generating a second virtual space in which the user is immersed;
Generating a second target object related to the first target object arranged in the first virtual space in the second virtual space;
Identifying a total adjusted gaze time obtained by adding the adjusted gaze time for the first target object and the adjusted gaze time for the second target object by the user;
The method according to any one of items 1 to 7, further causing a step of providing predetermined content to the user based on the gaze time.
According to the method of this item, a user can propose a more appropriate advertisement by adding up the actions related to the user's line-of-sight history in a plurality of contents.
(Item 9)
A program for causing a computer to execute any one of items 1 to 8.
[本発明の実施形態の詳細]
本発明の実施形態に係る方法、および、プログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
[Details of the embodiment of the present invention]
A specific example of a method and a program according to an embodiment of the present invention will be described below with reference to the drawings. In addition, this invention is not limited to these illustrations, is shown by the claim, and intends that all the changes within the meaning and range equivalent to the claim are included. In the following description, the same reference numerals are given to the same elements in the description of the drawings, and redundant descriptions are omitted.
図1は、本実施形態にかかるHMD110を備えるHMDシステム100を示す。HMDシステム100は、ユーザの頭部に装着されるHMD110と、制御回路部120と、動きセンサ130と、注視センサ140を備える。 FIG. 1 shows an HMD system 100 including an HMD 110 according to the present embodiment. The HMD system 100 includes an HMD 110 that is worn on the user's head, a control circuit unit 120, a motion sensor 130, and a gaze sensor 140.
HMD110は、非透過型の表示装置であるディスプレイ112と、センサ部114と、注視センサ140を含む。制御回路部120は、ディスプレイ112に右目用画像と左目用画像を表示することにより、両目の視差を利用した3次元画像を仮想空間として提供する。ディスプレイ112がユーザの眼前に配置されることによって、ユーザは仮想空間に没入できる。仮想空間は、背景やユーザが操作可能な各種オブジェクト、メニュー画像等を含む。 The HMD 110 includes a display 112 that is a non-transmissive display device, a sensor unit 114, and a gaze sensor 140. The control circuit unit 120 displays a right-eye image and a left-eye image on the display 112, thereby providing a three-dimensional image using parallax between both eyes as a virtual space. By arranging the display 112 in front of the user's eyes, the user can be immersed in the virtual space. The virtual space includes a background, various objects that can be operated by the user, menu images, and the like.
ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。また、右目用画像と左目用画像を提供できれば、1つの表示装置で構成されていても良い。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。 The display 112 may include a right-eye sub-display that provides a right-eye image and a left-eye sub-display that provides a left-eye image. Moreover, as long as the image for right eyes and the image for left eyes can be provided, you may be comprised by one display apparatus. For example, the right-eye image and the left-eye image can be provided independently by switching the shutter so that the display image can be recognized by only one eye at high speed.
制御回路部120は、HMD110に接続されるコンピュータであり、格納された所定のアプリケーションを実行することにより、ディスプレイ112に仮想空間を提示する。また、制御回路部120は、当該仮想空間内に表示される各種オブジェクトを操作したり、各種メニュー画像等を表示・制御するように処理を実行する。制御回路部120は、そのような動作の実行を制御するプログラムを格納する。制御回路部120はHMD110に搭載されていなくてもよく、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部120は、一部の機能のみをHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。 The control circuit unit 120 is a computer connected to the HMD 110 and presents a virtual space on the display 112 by executing a stored predetermined application. In addition, the control circuit unit 120 performs processing so as to operate various objects displayed in the virtual space and to display and control various menu images and the like. The control circuit unit 120 stores a program for controlling execution of such operations. The control circuit unit 120 may not be mounted on the HMD 110 and may be configured as another hardware (for example, a known personal computer or a server computer via a network). In addition, the control circuit unit 120 may implement only a part of functions in the HMD 110 and implement the remaining functions in different hardware.
動きセンサ130は、HMD110の位置や傾きに関する情報を検出する。動きセンサ130は、センサ部114と、検知部132を含む。センサ部114は、複数の光源を含んでもよい。光源は、例えば赤外線を発するLEDである。検知部132は例えば赤外線センサであり、光源からの赤外線をHMD110の検知点として検知することで、ユーザの動きに応じたHMD110の現実空間内における位置や角度に関する情報を経時的に検出する。そして、検知部132により検出された情報の経時的変化に基づいて、HMD110の位置や角度の時間変化を決定し、HMD110の動きに関する情報を検知することができる。 The motion sensor 130 detects information related to the position and inclination of the HMD 110. The motion sensor 130 includes a sensor unit 114 and a detection unit 132. The sensor unit 114 may include a plurality of light sources. The light source is, for example, an LED that emits infrared rays. The detection unit 132 is, for example, an infrared sensor, and detects information about the position and angle of the HMD 110 in the real space according to the user's movement by detecting infrared rays from the light source as detection points of the HMD 110 over time. Then, it is possible to determine time-dependent changes in the position and angle of the HMD 110 based on changes over time in the information detected by the detection unit 132, and to detect information related to the movement of the HMD 110.
動きセンサ130によって取得される位置や傾きに関する情報を、図2を参照して説明する。HMD110を装着したユーザの頭部を中心として、XYZ軸を規定する。ユーザが直立する垂直方向をY軸とし、Y軸と直交しディスプレイ112の中心とユーザを結ぶ前後方向をZ軸とし、Y軸およびZ軸と直交する横方向をX軸とする。これにより、ユーザのXYZ軸方向における位置の経時変化が取得される。また、各軸周りのHMD110の傾き角度θx(いわゆるピッチ角),θy(いわゆるヨー角),θz(いわゆるロール角)が取得される。 Information regarding the position and tilt acquired by the motion sensor 130 will be described with reference to FIG. The XYZ axes are defined around the head of the user wearing the HMD 110. The vertical direction in which the user stands upright is the Y axis, the front-rear direction orthogonal to the Y axis and connecting the center of the display 112 and the user is the Z axis, and the horizontal direction orthogonal to the Y axis and the Z axis is the X axis. Thereby, the temporal change of the position in the XYZ axis direction of the user is acquired. Further, the inclination angle θx (so-called pitch angle), θy (so-called yaw angle), and θz (so-called roll angle) of the HMD 110 around each axis are acquired.
動きセンサ130は、ディスプレイ112の近くに固定されたセンサ部114と、検知部132の、一方のみから構成されてもよい。センサ部114が、地磁気センサ、加速度センサ、角速度(ジャイロ)センサであってもよく、これらの少なくとも1つを用いて、ユーザの頭部に装着されたHMD110(特に、ディスプレイ112)の位置および傾きを検出する。これにより、HMD110の動きに関する情報を検出することができる。例えば、角速度センサは、HMD110の動きに応じて、HMD110の3軸回りの角速度を経時的に検出し、各軸回りの角度の時間変化を決定することができる。この場合には、検知部132は不要である。また、検知部132は光学カメラを含んで構成されても良い。この場合には、画像情報に基づいてHMD110の動きに関する情報を検出することができ、センサ部114は不要である。 The motion sensor 130 may be configured by only one of the sensor unit 114 fixed near the display 112 and the detection unit 132. The sensor unit 114 may be a geomagnetic sensor, an acceleration sensor, or an angular velocity (gyro) sensor, and the position and inclination of the HMD 110 (particularly, the display 112) mounted on the user's head using at least one of them. Is detected. Thereby, the information regarding the motion of the HMD 110 can be detected. For example, the angular velocity sensor can detect the angular velocities around the three axes of the HMD 110 over time according to the movement of the HMD 110 and determine temporal changes in the angles around the respective axes. In this case, the detection unit 132 is not necessary. The detection unit 132 may include an optical camera. In this case, information related to the movement of the HMD 110 can be detected based on the image information, and the sensor unit 114 is unnecessary.
動きセンサ130を用いてHMD110の位置や傾きに関する情報を検出する機能をポジション・トラッキングと称する。動きセンサ130によるポジション・トラッキングと、仮想空間2内に配置される仮想カメラ1との関係を、図3を参照して説明する。仮想カメラ1と動きセンサ130の位置関係を説明するために、以下では動きセンサ130の位置は、検知部132を有する場合には検知部132の位置とし、検知部132を有しない場合にはセンサ部114の位置とする。仮想空間2の内部に仮想カメラ1が配置され、および仮想空間2の外部(現実空間)に動きセンサ130が仮想的に配置される。 The function of detecting information related to the position and tilt of the HMD 110 using the motion sensor 130 is referred to as position tracking. The relationship between the position tracking by the motion sensor 130 and the virtual camera 1 arranged in the virtual space 2 will be described with reference to FIG. In order to explain the positional relationship between the virtual camera 1 and the motion sensor 130, the position of the motion sensor 130 is the position of the detection unit 132 when the detection unit 132 is provided, and is the sensor when the detection unit 132 is not provided. The position of the portion 114 is assumed. The virtual camera 1 is disposed inside the virtual space 2, and the motion sensor 130 is virtually disposed outside the virtual space 2 (real space).
仮想空間2は、略正方形または略長方形の複数のメッシュを有する天球状に形成される。各メッシュは仮想空間2の空間情報が関連付けられており、この空間情報に基づいて視界領域23が定義される。本実施形態では、XZ面において、天球の中心点21が仮想カメラ1とセンサ130を結ぶ線上に常に配置されるように調整することが好ましい。例えば、HMDを装着したユーザが移動して仮想カメラ1の位置がX方向に移動した場合には、中心21が仮想カメラ1と動きセンサ130の線分上に位置するように、仮想空間2の領域が変更される。この場合には、仮想空間2における仮想カメラ1の位置は固定され、傾きのみが変化する。一方、動きセンサ130のXYZ方向への移動に連動して仮想カメラ1の位置を移動させるようにすれば、仮想空間2における仮想カメラ1の位置は可変に設定される。 The virtual space 2 is formed in a celestial sphere having a plurality of substantially square or substantially rectangular meshes. Each mesh is associated with the spatial information of the virtual space 2, and the visual field region 23 is defined based on this spatial information. In the present embodiment, it is preferable to adjust so that the center point 21 of the celestial sphere is always arranged on the line connecting the virtual camera 1 and the sensor 130 in the XZ plane. For example, when the user wearing the HMD moves and the position of the virtual camera 1 moves in the X direction, the center 21 is positioned on the line segment between the virtual camera 1 and the motion sensor 130. The area is changed. In this case, the position of the virtual camera 1 in the virtual space 2 is fixed, and only the tilt changes. On the other hand, if the position of the virtual camera 1 is moved in conjunction with the movement of the motion sensor 130 in the XYZ directions, the position of the virtual camera 1 in the virtual space 2 is variably set.
注視センサ140は、ユーザの右目および左目の視線が向けられる方向を検出するアイトラッキング機能を有する。注視センサ140は、右目用センサと左目用センサを備えていることが好ましく、それぞれが右目と左目の視線が向けられる方向を検出することにより、ユーザが注視する視線方向を検知する。注視センサ140はアイトラッキング機能を有する公知のセンサを採用することができ、例えば、右目及び左目に赤外光を照射し、角膜や虹彩からの反射光を取得することにより、眼球の回転角を求めることとしても良い。 The gaze sensor 140 has an eye tracking function that detects the direction in which the user's right eye and left eye gaze are directed. The gaze sensor 140 preferably includes a right eye sensor and a left eye sensor, and detects the gaze direction in which the user gazes by detecting the direction in which the gaze of the right eye and the left eye is directed respectively. A known sensor having an eye tracking function can be adopted as the gaze sensor 140. For example, the right eye and the left eye are irradiated with infrared light, and the reflected light from the cornea and the iris is acquired, whereby the rotation angle of the eyeball is adjusted. It may be asking.
図4に示すように、注視センサ140はユーザUの右目および左目の視線方向を検知する。ユーザUが近くを見ている場合には視線R1およびL1が検知され、両者の交点である注視点N1が特定される。また、ユーザが遠くを見ている場合には、視線R1およびL1よりZ方向とのなす角が小さい視線R2およびL2が特定される。注視点N1が特定されると、ユーザUの視線方向N0が特定される。視線方向N0はユーザUが両目により実際に視線が向けられている方向である。視線方向N0は、例えばユーザUの右目Rおよび左目Lの中心と中心点N1が通る直線の伸びる方向として定義される。 As shown in FIG. 4, the gaze sensor 140 detects the gaze direction of the right eye and the left eye of the user U. When the user U is looking near, the lines of sight R1 and L1 are detected, and the gazing point N1 that is the intersection of the two is specified. Further, when the user is looking far away, the lines of sight R2 and L2 whose angles to the Z direction are smaller than the lines of sight R1 and L1 are specified. When the gazing point N1 is specified, the line-of-sight direction N0 of the user U is specified. The line-of-sight direction N0 is a direction in which the user U is actually directed by his eyes. The line-of-sight direction N0 is defined as a direction in which a straight line passes through the center of the right eye R and the left eye L of the user U and the center point N1, for example.
HMDシステム100はいずれかの要素にマイクを含むヘッドホンを備えていても良い。これにより、ユーザは仮想空間内の所定のオブジェクトに、音声による指示を与えることができる。また、仮想空間内の仮想テレビにテレビ番組の放送を受信するために、HMDシステム100はいずれかの要素にテレビジョン受像機を含んでいても良い。また、ユーザが取得した電子メール等を表示させるための、通信機能等を含んでいても良い。また、ユーザの各種指令を入力するための外部コントローラを含んでいても良い。 The HMD system 100 may include headphones including a microphone as any element. Thereby, the user can give a voice instruction to a predetermined object in the virtual space. Further, in order to receive a broadcast of a television program on a virtual television in a virtual space, the HMD system 100 may include a television receiver in any element. Moreover, a communication function or the like for displaying an electronic mail or the like acquired by the user may be included. Further, an external controller for inputting various user commands may be included.
図5は、HMDシステム100における仮想空間2の表示処理や、当該仮想空間2内に表示される各種メニュー表示やオブジェクトの操作を実現するための、制御回路部120の機能を示すブロック図である。制御回路部120は、主に動きセンサ130および注視センサ140からの入力に基づいて、ディスプレイ112への出力画像を制御する。 FIG. 5 is a block diagram illustrating functions of the control circuit unit 120 for realizing display processing of the virtual space 2 in the HMD system 100 and various menu displays and object operations displayed in the virtual space 2. . The control circuit unit 120 controls an output image to the display 112 based mainly on inputs from the motion sensor 130 and the gaze sensor 140.
制御回路部120は、表示制御部200と、オブジェクト制御部300と、通信制御部と、を備える。表示制御部200は、仮想空間画像生成部210と、HMD動作検知部220と、視線検知部230と、視界方向特定部240と、視界領域決定部250と、視界画像生成部260と、空間情報格納部270とを含む。オブジェクト制御部300は、広告特定部310と、注視時間計測部320と、調整部330と、判定部340と、描画部350と、オブジェクト情報格納部360と、仮想カメラ情報格納部370と、ユーザ行動記憶部と、を含む。 The control circuit unit 120 includes a display control unit 200, an object control unit 300, and a communication control unit. The display control unit 200 includes a virtual space image generation unit 210, an HMD motion detection unit 220, a line-of-sight detection unit 230, a visual field direction identification unit 240, a visual field region determination unit 250, a visual field image generation unit 260, and spatial information. Storage unit 270. The object control unit 300 includes an advertisement specifying unit 310, a gaze time measurement unit 320, an adjustment unit 330, a determination unit 340, a drawing unit 350, an object information storage unit 360, a virtual camera information storage unit 370, a user An action storage unit.
動きセンサ130および注視センサ140は、表示制御部200およびオブジェクト制御部300と互いに通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。表示制御部200、オブジェクト制御部300、通信制御部400は、HMD110(ディスプレイ112)と通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。通信制御部400は、ネットワーク150を介して外部サーバ160と通信可能である。空間情報格納部270、オブジェクト情報格納部360、仮想カメラ情報格納部370、ユーザ行動記憶部380は、動きセンサ130や注視センサ140からの入力に対応した出力情報をディスプレイ112へ提供するための各種データを含む。 The motion sensor 130 and the gaze sensor 140 are communicably connected to the display control unit 200 and the object control unit 300, and can be connected via a wired or wireless communication interface. The display control unit 200, the object control unit 300, and the communication control unit 400 are communicably connected to the HMD 110 (display 112), and can be connected via a wired or wireless communication interface. The communication control unit 400 can communicate with the external server 160 via the network 150. The spatial information storage unit 270, the object information storage unit 360, the virtual camera information storage unit 370, and the user behavior storage unit 380 are various types for providing output information corresponding to inputs from the motion sensor 130 and the gaze sensor 140 to the display 112. Contains data.
図5,図6を参照して、仮想空間2を提供するためのHMDシステム100の処理フローを説明する。仮想空間2は、HMD110(注視センサ140、動きセンサ130)および制御回路部120の相互作用によって提供され得る。 A processing flow of the HMD system 100 for providing the virtual space 2 will be described with reference to FIGS. The virtual space 2 can be provided by the interaction of the HMD 110 (the gaze sensor 140 and the motion sensor 130) and the control circuit unit 120.
まず、制御回路部120(仮想空間画像生成部210)はユーザが没入する仮想空間2を構成する天球状の仮想空間画像22を生成する(S120−1)。ユーザからHMD110に移動や傾きといった動作が入力されると(S110−1)、動きセンサ130によってHMD110の位置や傾きが検知される(S130−1)。動きセンサ130の検知情報は制御回路部120に送信され、HMD動作検出部220により、HMD110の位置情報や傾き情報が受け付けられる。これにより、HMD110の位置情報や傾き情報に基づく視界方向が決定される(S120−2)。 First, the control circuit unit 120 (virtual space image generation unit 210) generates the celestial spherical virtual space image 22 constituting the virtual space 2 in which the user is immersed (S120-1). When an operation such as movement or tilt is input from the user to the HMD 110 (S110-1), the position and tilt of the HMD 110 are detected by the motion sensor 130 (S130-1). Detection information of the motion sensor 130 is transmitted to the control circuit unit 120, and position information and tilt information of the HMD 110 are received by the HMD motion detection unit 220. Thereby, the visual field direction based on the positional information and inclination information of the HMD 110 is determined (S120-2).
注視センサ140がユーザの左右の目の眼球の動きを検出すると(S140−1)、当該情報が制御回路部120に送信される。視線検知部230は、右目および左目の視線が向けられる方向を特定し、視線方向N0が特定される(S120−3)。基準視線特定部240は、HMD110の傾きにより特定された視界方向、または、ユーザの視線方向N0を基準視線5として特定する(S120−4)。 When the gaze sensor 140 detects the movement of the eyeballs of the left and right eyes of the user (S140-1), the information is transmitted to the control circuit unit 120. The line-of-sight detection unit 230 identifies the direction in which the line of sight of the right eye and the left eye is directed, and the line-of-sight direction N0 is identified (S120-3). The reference line-of-sight specifying unit 240 specifies the field-of-view direction specified by the inclination of the HMD 110 or the user's line-of-sight direction N0 as the reference line of sight 5 (S120-4).
視界領域決定部250は、仮想空間2における仮想カメラ1の視界領域23を決定する(S120−5)。図3に示すように、視界領域23は仮想空間画像22のうちユーザの視界を構成する部分である。視界領域23は基準視線5に基づいて定められ、基準視線5は仮想カメラ1の位置および傾きに基づいて定められる。図7Aは視界領域23をX方向から見たYZ面図であり、図7Bは視界領域23をY方向から見たXZ面図である。 The visual field area determination unit 250 determines the visual field area 23 of the virtual camera 1 in the virtual space 2 (S120-5). As shown in FIG. 3, the visual field region 23 is a part of the virtual space image 22 that constitutes the user's visual field. The visual field area 23 is determined based on the reference line of sight 5, and the reference line of sight 5 is determined based on the position and tilt of the virtual camera 1. 7A is a YZ plane view of the visual field area 23 as viewed from the X direction, and FIG. 7B is an XZ plane view of the visual field area 23 as viewed from the Y direction.
視界領域23は、基準視線5と仮想空間画像22のYZ断面によって定義される範囲である第1領域24(図7A参照)と、基準視線5と仮想空間画像22のXZ断面によって定義される範囲である第2領域25(図7B参照)とを有する。第1領域24は、基準視線5を中心として極角αを含む範囲として設定される。第2領域25は、基準視線5を中心として方位角βを含む範囲として設定される。 The visual field region 23 is a first region 24 (see FIG. 7A) that is a range defined by the reference line of sight 5 and the YZ cross section of the virtual space image 22, and a range defined by the reference line of sight 5 and the XZ cross section of the virtual space image 22. And a second region 25 (see FIG. 7B). The first region 24 is set as a range including the polar angle α with the reference line of sight 5 as the center. The second region 25 is set as a range including the azimuth angle β with the reference line of sight 5 as the center.
視界画像生成部260は、視界領域23に基づいて視界画像26を生成する(S120−6)。視界画像は左目用と右目用の2つの2次元画像を含み、これらがディスプレイ112に重畳されることにより、3次元画像としての仮想空間2がユーザに提供されるものである。HMD110は、視界画像26に関する情報を制御回路部120から受信して、ディスプレイ112に視界画像26を表示させる(S110−2)。 The view image generation unit 260 generates the view image 26 based on the view region 23 (S120-6). The field-of-view image includes two two-dimensional images for the left eye and the right eye, and these are superimposed on the display 112, whereby the virtual space 2 as a three-dimensional image is provided to the user. The HMD 110 receives information about the view image 26 from the control circuit unit 120 and displays the view image 26 on the display 112 (S110-2).
図5、および、図8以降を参照して、ユーザに提供される仮想空間の具体例、および、当該仮想空間をユーザに提供するためのHMDシステム100の処理フローを説明する。図8,図9に示すように、本実施形態における仮想空間は、ランチャー空間LAUと、ランチャー空間LAUに関連付けられた第1仮想空間VR1および第2仮想空間VR2を含む。HMDシステム100を起動してHMD110を装着したユーザには、まずランチャー空間LAUが提供される。ランチャー空間LAUは、仮想空間画像生成部210、視界画像生成部260によって生成され、HMD110に出力される(S120−7)。 A specific example of a virtual space provided to the user and a processing flow of the HMD system 100 for providing the virtual space to the user will be described with reference to FIG. 5 and FIG. As shown in FIGS. 8 and 9, the virtual space in the present embodiment includes a launcher space LAU, and a first virtual space VR1 and a second virtual space VR2 associated with the launcher space LAU. A launcher space LAU is first provided to a user who activates the HMD system 100 and wears the HMD 110. The launcher space LAU is generated by the virtual space image generation unit 210 and the visual field image generation unit 260 and is output to the HMD 110 (S120-7).
ランチャー空間LAUには、第1仮想空間VR1を提供するためのアプリケーションAP1と、第2仮想空間VR2を提供するためのアプリケーションAP2が表示されている。ユーザはアプリケーションAP1,AP2に所定の操作(一定時間視線を送る、コントローラを操作する、など)を入力することにより、選択した仮想空間に移行することができる(S110−3)。ランチャー空間LAUには、後述する広告を表示する広告スペースADや、ダウンロード済の体験版コンテンツを表示するための体験版スペースTR1,TR2も表示されている。 In the launcher space LAU, an application AP1 for providing the first virtual space VR1 and an application AP2 for providing the second virtual space VR2 are displayed. The user can move to the selected virtual space by inputting a predetermined operation (such as sending a line of sight for a certain period of time or operating a controller) to the applications AP1 and AP2 (S110-3). In the launcher space LAU, an advertisement space AD for displaying advertisements to be described later and trial version spaces TR1 and TR2 for displaying downloaded trial version contents are also displayed.
第1仮想空間VR1の一例を図10に示す。アプリケーションAP1が選択されると、仮想空間画像生成部210は第1仮想空間VR1を構成する仮想空間画像22を生成する。また、オブジェクト制御部300の描画部350が、オブジェクト情報格納部360を参照して各種オブジェクトを生成し、第1仮想空間VR1内に描画して配置する(S120−8)。第1仮想空間VR1は、例えばライブステージといった興行を提供するコンテンツであり、第1仮想空間VR1内にステージS、ステージS上でパフォーマンスを提供するキャラクターC、各種広告OB1,OB2が配置されている。 An example of the first virtual space VR1 is shown in FIG. When the application AP1 is selected, the virtual space image generation unit 210 generates the virtual space image 22 constituting the first virtual space VR1. In addition, the drawing unit 350 of the object control unit 300 generates various objects with reference to the object information storage unit 360, and draws and arranges them in the first virtual space VR1 (S120-8). The first virtual space VR1 is a content providing entertainment such as a live stage, for example, and the stage S, the character C providing performance on the stage S, and various advertisements OB1 and OB2 are arranged in the first virtual space VR1. .
オブジェクト制御部300は、仮想空間における基準位置BPと、後述するようにユーザの注視時間が計測される対象となる対象オブジェクトとしての広告OB1,OB2が配置された位置(対象オブジェクト位置)を特定する(S120−9)。ユーザに第1仮想空間VR1が提供された直後の状態では、ユーザは第1仮想空間VR1の天球の中心に位置し、ユーザの視線方向である基準視線5が基準位置BPに向けられた状態(後述する基準方向BD)とされている。本実施形態では、基準方向BDに基づいて生成された視界画像26は、ステージSと、キャラクターCと、複数の第1広告(第1対象オブジェクト)を含むようにされている。以下では、視界画像26に含まれる広告を第1広告(第1オブジェクト)OB1と、視界画像26に含まれない広告を第2広告(第2オブジェクト)OB2と称することがある。 The object control unit 300 specifies a reference position BP in the virtual space and a position (target object position) where the advertisements OB1 and OB2 as target objects to be measured are measured as described later. (S120-9). In a state immediately after the first virtual space VR1 is provided to the user, the user is located at the center of the celestial sphere of the first virtual space VR1, and the reference visual line 5 that is the user's visual line direction is directed to the reference position BP ( Reference direction BD described later). In the present embodiment, the view image 26 generated based on the reference direction BD includes a stage S, a character C, and a plurality of first advertisements (first target objects). Hereinafter, the advertisement included in the view image 26 may be referred to as a first advertisement (first object) OB1, and the advertisement not included in the view image 26 may be referred to as a second advertisement (second object) OB2.
なお、第2仮想空間VR2も図10と同様のものであるため、以下ではその説明を省略する。概略的には、アプリケーションAP2が選択されると、仮想空間画像生成部210は第2仮想空間VR2を構成する仮想空間画像22を生成する。また、オブジェクト制御部300の描画部350が、オブジェクト情報格納部360を参照して各種オブジェクトを生成し、第2仮想空間VR2内に描画して配置する(S120−8)。第2仮想空間VR2内にも、ステージS、キャラクターC、複数の第2広告(第2対象オブジェクト)、視界画像26に含まれる第1広告(第1オブジェクト)OB1、視界画像26に含まれない第2広告(第2オブジェクト)OB2が配置されている。 Note that the second virtual space VR2 is also the same as that in FIG. Schematically, when the application AP2 is selected, the virtual space image generation unit 210 generates the virtual space image 22 constituting the second virtual space VR2. In addition, the drawing unit 350 of the object control unit 300 generates various objects with reference to the object information storage unit 360, and draws and arranges them in the second virtual space VR2 (S120-8). Also in the second virtual space VR2, the stage S, the character C, the plurality of second advertisements (second target objects), the first advertisement (first object) OB1 included in the view image 26, and the view image 26 are not included. A second advertisement (second object) OB2 is arranged.
ユーザはHMD110に位置や傾きの変動といった各種動きを入力することにより、第1仮想空間VR1内で自由に行動することができる(S110−4)。動きセンサ130がユーザの動きを検知すると、HMD動作検知部220はこれを受け付けて、ユーザの仮想空間における位置を特定する(S120−10)。動きセンサ130または注視センサ140がユーザの基準視線5の変動を検知すると、基準視線特定部240はこれを受け付けて、ユーザの仮想空間における視線方向を特定する(S120−11)。オブジェクト制御部300は、ユーザの仮想空間における位置と、基準視線特定部240からのユーザの基準視線5に基づいて、ユーザの浸染方向を特定する。そして、広告特定部310は、各種広告OB1,OB2の配置位置に関する情報に基づいて、視線方向がいずれかの広告OB1,OB2に向けられているか否かを判定する(S120−12)。広告特定部310は、いずれかの広告OB1,OB2に向けられたユーザの視線方向を注視方向GDとして特定する。そして、注視時間計測部320が、当該広告に基準視線を送っている時間である注視時間の計測を開始する(S120−13)。注視時間計測部320は、ユーザの視線方向が所定の広告を含む一定の範囲(当該広告を中心に含む円形や楕円形、多角形など)に向けられている場合には、ユーザが当該広告を注視しているものと見なして、注視時間を計測する。 The user can act freely in the first virtual space VR1 by inputting various movements such as a change in position and inclination to the HMD 110 (S110-4). When the motion sensor 130 detects the movement of the user, the HMD motion detection unit 220 receives this and specifies the position of the user in the virtual space (S120-10). When the motion sensor 130 or the gaze sensor 140 detects a change in the user's reference line of sight 5, the reference line-of-sight specifying unit 240 receives this and specifies the line-of-sight direction in the user's virtual space (S120-11). The object control unit 300 specifies the user's dyeing direction based on the position of the user in the virtual space and the user's reference line of sight 5 from the reference line-of-sight specifying unit 240. Then, the advertisement specifying unit 310 determines whether the line-of-sight direction is directed to any one of the advertisements OB1 and OB2 based on the information regarding the arrangement positions of the various advertisements OB1 and OB2 (S120-12). The advertisement specifying unit 310 specifies the user's line-of-sight direction directed to one of the advertisements OB1 and OB2 as the gaze direction GD. Then, the gaze time measuring unit 320 starts measuring the gaze time, which is the time during which the reference line of sight is sent to the advertisement (S120-13). When the user's gaze direction is directed to a certain range including a predetermined advertisement (a circle, an ellipse, a polygon, etc. including the advertisement), the gaze time measuring unit 320 displays the advertisement. The gaze time is measured assuming that the user is gazing.
上記のようなユーザ行動の履歴のうち、ユーザが所定の広告を注視した行動が、ユーザ行動記憶部370に記憶される。ユーザ行動記憶部370は、例えば図14に示すユーザ行動管理テーブルT1を含む。ユーザ行動管理テーブルT1は、ユーザがいずれのアプリケーション(仮想空間)において、いつ、いずれのオブジェクトを、仮想空間内におけるどの位置から注視したかといった情報の他、当該オブジェクトを注視した時間が記憶される。 Of the user behavior history as described above, the behavior in which the user gazes at a predetermined advertisement is stored in the user behavior storage unit 370. The user behavior storage unit 370 includes, for example, a user behavior management table T1 illustrated in FIG. The user behavior management table T1 stores information on when and in what application (virtual space) the user gazes at which object and from which position in the virtual space, and the time when the user gazes at the object. .
ここで、ユーザが所定の広告を注視した注視時間は、図11に示す処理フローに基づいて、調整済注視時間として記憶されても良い。図12Aは、ユーザから見た垂直面(YZ面)内における基準方向BD−Vおよび注視方向GD−Vを示す図である。図12Bは、ユーザから見た水平面(XZ面)内における基準方向BD−Hおよび注視方向GD−Hを示す図である。まず、上述したように、第1仮想空間VR1における基準位置BPとユーザの位置(仮想カメラ1の位置)に基づいて、基準方向BDを特定する(S120−14)。このとき、基準方向BDは、垂直面(YZ面)内における基準方向BD−Vと、水平面(XZ面)内における基準方向BD−Hが特定される。本実施形態では、コンテンツの主役となるキャラクターCがステージS上に配置されるため、ユーザの基準視線BD−Vはやや情報を向くように設定されている。また、第1仮想空間VR1における広告位置OB1とユーザの位置に基づいて、注視方向GDを特定する(S120−15)。このとき、注視方向GDは、垂直面(YZ面)内における注視方向GD−Vと、水平面(XZ面)内における注視方向GD−Hが特定される。 Here, the gaze time when the user gazes at the predetermined advertisement may be stored as the adjusted gaze time based on the processing flow shown in FIG. FIG. 12A is a diagram illustrating a reference direction BD-V and a gaze direction GD-V in a vertical plane (YZ plane) viewed from the user. FIG. 12B is a diagram illustrating a reference direction BD-H and a gaze direction GD-H in a horizontal plane (XZ plane) viewed from the user. First, as described above, the reference direction BD is specified based on the reference position BP in the first virtual space VR1 and the position of the user (the position of the virtual camera 1) (S120-14). At this time, the reference direction BD specifies the reference direction BD-V in the vertical plane (YZ plane) and the reference direction BD-H in the horizontal plane (XZ plane). In the present embodiment, since the character C as the leading role of the content is arranged on the stage S, the user's reference line of sight BD-V is set to face a little information. Further, the gaze direction GD is specified based on the advertisement position OB1 and the user position in the first virtual space VR1 (S120-15). At this time, the gaze direction GD specifies the gaze direction GD-V in the vertical plane (YZ plane) and the gaze direction GD-H in the horizontal plane (XZ plane).
次に、オブジェクト制御部300は、注視方向GDと基準方向BDのずれ量を求める(S120−16)。本実施形態では、垂直面内における注視方向GD−Vの基準方向BD−Vに対するずれ量(角度の差分)である第1ずれ量DV1と(S120−17)、水平面内における注視方向GD−Hの基準方向BD−Hに対するずれ量(角度の差分)である第2ずれ量DV2を求める(S120−18)。 Next, the object control unit 300 obtains a deviation amount between the gaze direction GD and the reference direction BD (S120-16). In the present embodiment, first shift amounts DV1 and (S120-17), which are shift amounts (angle differences) of the gaze direction GD-V with respect to the reference direction BD-V in the vertical plane, and the gaze direction GD-H in the horizontal plane. The second displacement amount DV2 that is the displacement amount (angle difference) with respect to the reference direction BD-H is obtained (S120-18).
そして、調整部330は、注視時間に第1ずれ量DV1(角度:ラジアン)および第2ずれ量DV2(角度:ラジアン)を加味して、調整済注視時間を算出する(S120−20)。 Then, the adjustment unit 330 calculates the adjusted gaze time by adding the first deviation amount DV1 (angle: radians) and the second deviation amount DV2 (angle: radians) to the gaze time (S120-20).
β1は第1ずれ量DV1を重みづけするための係数である。β2は第2ずれ量DV2を重みづけするための係数である。調整部330は、予めβ1およびβ2を所定値に設定する(S120−19)ことによって、よりユーザが自発的にしにくい行動をとってまである広告を注視したという行動履歴を重視して、注視時間を調整することができる。 β1 is a coefficient for weighting the first deviation amount DV1. β2 is a coefficient for weighting the second deviation amount DV2. The adjustment unit 330 sets β1 and β2 to predetermined values in advance (S120-19), thereby placing an emphasis on the action history that the user has watched an advertisement that has taken actions that are less likely to be spontaneous. Can be adjusted.
本実施形態では、第1ずれ量DV1に対する重みづけ係数β1が、第2ずれ量DV2に対する重みづけ係数β2より大きいことが好ましい。ユーザは、水平方向における頭部の動きより、垂直方向における頭部の動きに対して、よりストレスを感じることが推測される。このように、よりユーザが自発的にしにくい行動である、ユーザが垂直面内に視線を動かす行動を重視することにより、ユーザの関心に対して適時アプローチすることが可能となる。 In the present embodiment, it is preferable that the weighting coefficient β1 for the first deviation amount DV1 is larger than the weighting coefficient β2 for the second deviation amount DV2. It is estimated that the user feels more stress on the head movement in the vertical direction than the head movement in the horizontal direction. In this way, it is possible to approach the user's interests in a timely manner by placing importance on the behavior of the user moving his / her line of sight in the vertical plane, which is a behavior that is more difficult for the user to voluntarily.
DV1およびDV2は、−π以上π以下の値である。また、DV1およびDV2は累乗(2乗またはそれ以上の累乗)されて調整済注視時間の算出に適用される。これにより、ユーザが基準方向から遠くに視線を逸らしてまで広告を注視した行動をより重視して調整済注視時間を算出できる。調整済注視時間は、ユーザ行動記憶部370のユーザ行動管理テーブルT1に記憶される。 DV1 and DV2 are values of −π or more and π or less. Further, DV1 and DV2 are raised to the power (square or higher) and applied to the calculation of the adjusted gaze time. As a result, the adjusted gaze time can be calculated with a greater emphasis on the action of the user gazing at the advertisement until the user turns away from the reference direction. The adjusted gaze time is stored in the user behavior management table T1 of the user behavior storage unit 370.
判定部340は、調整済注視時間が所定の閾値を超えたか否かを判定する(S120−21)。本実施形態では、調整済注視時間が5秒以上である場合にユーザが当該広告に関心を示したものと解釈することとし、閾値を5秒と設定する。調整済注視時間が所定の閾値を超えた場合には、ユーザが当該広告を注視したものとして受け付ける(S120−22)。 The determination unit 340 determines whether or not the adjusted gaze time has exceeded a predetermined threshold (S120-21). In this embodiment, when the adjusted gaze time is 5 seconds or more, the user interprets that the user has shown interest in the advertisement, and the threshold is set to 5 seconds. If the adjusted gaze time exceeds a predetermined threshold, it is accepted that the user gazes at the advertisement (S120-22).
図13A,図13Bは、ユーザが広告を注視したものとして受け付けられた場合の処理の一例を示す。図13Aは、受け付けられる前の状態を示す。図13Bは、受け付けられた後の状態を示す。受け付けられる前の状態では、視界領域23内の広告OB1には、3種類の広告A,B,Cが表示されている。ユーザの広告Aが表示された広告OB1に対する注視が受け付けられると、描画部350は、広告Bが表示された広告OB1の表示を、広告Aに関連する広告A−1に変化させるとともに、広告Cが表示された広告OB1の表示を、広告Aに関連する広告A−2に変化させる。これにより、ユーザが所定のオブジェクトを注視した場合に、ユーザの視野内にある他のオブジェクトを、注視したオブジェクトに関連するように変化させる。これにより、ユーザの関心に対して適時アプローチすることが可能となる。 FIG. 13A and FIG. 13B show an example of processing when the user is accepted as having watched the advertisement. FIG. 13A shows a state before being accepted. FIG. 13B shows the state after being accepted. In a state before being accepted, three types of advertisements A, B, and C are displayed in the advertisement OB1 in the view field area 23. When the user's gaze on the advertisement OB1 on which the advertisement A is displayed is received, the drawing unit 350 changes the display of the advertisement OB1 on which the advertisement B is displayed to the advertisement A-1 related to the advertisement A and the advertisement C The display of the advertisement OB1 on which is displayed is changed to the advertisement A-2 related to the advertisement A. Thereby, when a user gazes at a predetermined object, other objects in the user's field of view are changed so as to relate to the gaze object. This makes it possible to approach the user's interest in a timely manner.
このように第1仮想空間VR1において所定の広告に対する調整済注視時間が特定された状態で(S120−23)、ユーザからHMD110に対し、第1仮想空間VR1を終了する指示が入力された場合(S110−5)を図15に示す。この場合、判定部340がユーザ行動記憶部370を参照し、各広告の優先度を特定する(S120−24)。広告の優先度は調整済注視時間の合計値によって特定され、図14に示すように、第1仮想空間VR1を終了した時点における広告の優先度は、A−2>A>A−1と特定される。 As described above, when the adjusted gaze time for the predetermined advertisement is specified in the first virtual space VR1 (S120-23), an instruction to end the first virtual space VR1 is input from the user to the HMD 110 ( S110-5) is shown in FIG. In this case, the determination unit 340 refers to the user behavior storage unit 370 and specifies the priority of each advertisement (S120-24). The priority of the advertisement is specified by the total value of the adjusted gaze time. As shown in FIG. 14, the priority of the advertisement at the time when the first virtual space VR1 is finished is specified as A-2> A> A-1. Is done.
判定部340は広告の優先度に関する情報を視界画像生成部260に送信する。視界画像生成部260は、当該情報に基づいて、図16に示すようなランチャー空間LAUを生成し、HMD110に出力する(S120−25)。ランチャー空間LAUの広告スペースADには、複数の広告が優先度に応じて配置される。最も優先度が高いと判定された広告A−2は、大きく表示されたり、何らかの強調が施されて表示されても良い。 The determination unit 340 transmits information regarding the priority of the advertisement to the view image generation unit 260. The field-of-view image generation unit 260 generates a launcher space LAU as shown in FIG. 16 based on the information and outputs it to the HMD 110 (S120-25). In the advertisement space AD of the launcher space LAU, a plurality of advertisements are arranged according to priority. The advertisement A-2 determined to have the highest priority may be displayed larger or displayed with some emphasis.
続いて、ユーザが第2仮想空間VR2を起動させるアプリケーションAP2を選択すると、HMD110には第2仮想空間VR2が提供される(S110−6)。第2仮想空間VR2においても、第1仮想空間VR1と同様の処理フローによって、広告に対するユーザの注視時間(調整済注視時間)が特定される(S120−26)。 Subsequently, when the user selects the application AP2 that activates the second virtual space VR2, the second virtual space VR2 is provided to the HMD 110 (S110-6). Also in the second virtual space VR2, the user's gaze time (adjusted gaze time) for the advertisement is specified by the same processing flow as in the first virtual space VR1 (S120-26).
ユーザがHMD110の使用を終了すると(S110−7)、判定部340は、合計注視時間としての合計調整済注視時間を特定する(S120−27)。合計調整済注視時間は、図17に示す優先度管理テーブルT2に管理されている。優先度管理テーブルT2は、ユーザ行動記憶部370に記憶されている。 When the user finishes using the HMD 110 (S110-7), the determination unit 340 specifies the total adjusted gaze time as the total gaze time (S120-27). The total adjusted gaze time is managed in the priority management table T2 shown in FIG. The priority management table T2 is stored in the user behavior storage unit 370.
優先度管理テーブルT2は、ユーザ行動管理テーブルT1に基づいて、広告毎の調整済注視時間の合計値を算出する。本実施形態では、ユーザ行動管理テーブルT1に示すように、ユーザは第1仮想空間VR1および第2仮想空間VR2において、広告A−2を注視している。その際、ユーザは異なるユーザ位置から広告A−2を注視していることから、ユーザの視線方向を加味した調整済注視時間を合計することによって、HMD装着中におけるユーザの関心をより正確に求めることができる。従って、優先度管理テーブルT2においては、調整済注視時間の合計値が管理されている。 The priority management table T2 calculates the total value of adjusted gaze times for each advertisement based on the user behavior management table T1. In the present embodiment, as shown in the user behavior management table T1, the user is watching the advertisement A-2 in the first virtual space VR1 and the second virtual space VR2. At that time, since the user is gazing at the advertisement A-2 from different user positions, the user's interest during wearing of the HMD is obtained more accurately by adding the adjusted gazing time taking into account the user's line-of-sight direction. be able to. Therefore, in the priority management table T2, the total value of the adjusted gaze time is managed.
判定部340は、合計調整済注視時間に基づいて、各広告の優先度を設定する。即ち、合計調整済注視時間が長い順に、高い優先度が付与される。このとき、閾値である5秒を超過していない広告A−1は、優先度の設定対象から除外される。 The determination unit 340 sets the priority of each advertisement based on the total adjusted gaze time. That is, the higher priority is given in the order of the longer the total adjusted gaze time. At this time, the advertisement A-1 that does not exceed the threshold value of 5 seconds is excluded from the priority setting targets.
また、判定部340は、優先度が設定された各広告に関連する拡張コンテンツとしての体験版コンテンツの有無を判定する。本実施形態では、ランチャー空間LAUに2つの体験版スペースTR1,TR2が設定されているから、体験版コンテンツを有する広告のうち、上位2つの広告が特定される(広告B,B−1)。体験版コンテンツが特定されると、判定部340は通信制御部400に対して、当該体験版コンテンツをダウンロードするためのダウンロード要求を出力するよう指示する。通信制御部410は、当該指示と、HMD110からユーザがHMDの使用を終了したことを通知する情報を受信すると、通信処理部420に対してダウンロード要求を出力するよう指示する。通信処理部420はネットワーク150を介して外部サーバ160に接続し、体験版コンテンツのダウンロード要求を送信する。外部サーバ160は当該ダウンロード要求に基づいて、体験版コンテンツをネットワーク150を介して通信処理部420に送信する。 In addition, the determination unit 340 determines whether or not there is a trial version content as extended content related to each advertisement for which priority is set. In the present embodiment, since the two trial version spaces TR1 and TR2 are set in the launcher space LAU, the top two advertisements among the advertisements having the trial version contents are specified (ads B and B-1). When the trial version content is specified, the determination unit 340 instructs the communication control unit 400 to output a download request for downloading the trial version content. When receiving the instruction and information notifying that the user has finished using the HMD from the HMD 110, the communication control unit 410 instructs the communication processing unit 420 to output a download request. The communication processing unit 420 connects to the external server 160 via the network 150 and transmits a trial content download request. The external server 160 transmits the trial version content to the communication processing unit 420 via the network 150 based on the download request.
このように、本実施形態では広告に関連する拡張コンテンツ(例えば、ゲームの体験版。)を、ユーザがHMD110を使用していない時にダウンロードしておくことができる。これにより、HMD110使用中のユーザに通信状況が悪化する等の違和感を与えること無く、拡張コンテンツを提供することができる。 As described above, in this embodiment, the extended content related to the advertisement (for example, a trial version of the game) can be downloaded when the user is not using the HMD 110. As a result, the extended content can be provided without giving the user who is using the HMD 110 a sense of incongruity such as deterioration of the communication status.
ユーザがHMD110の使用を再開すると、制御回路部120はダウンロード済の体験版コンテンツを特定する(S120−30)。本実施形態では、広告Bおよび広告B−1に関する体験版コンテンツのダウンロードが完了しているか否かを判定し、完了している場合にはダウンロード済の体験版コンテンツとして特定する。そして、前述と同様に優先度管理テーブルT2を参照して、ユーザの前回のHMD110使用時に設定された各広告の優先度を特定する(S120−31)。その後、視界画像生成部260は、図18に示すランチャー空間LAUを生成して、HMD110に出力する(S120−32)。ランチャー空間LAUの広告スペースADには優先度5までの広告が、上から順に配置されている。また、最も優先度の高い広告Bが大きく強調表示されている。また、体験版スペースTR1,TR2には、広告Bおよび広告B−1に関連する体験版コンテンツが配置される。 When the user resumes using the HMD 110, the control circuit unit 120 specifies the downloaded trial version content (S120-30). In the present embodiment, it is determined whether or not the download of the trial version content regarding the advertisement B and the advertisement B-1 is completed, and when the download is completed, the trial version content is specified. Then, similarly to the above, the priority management table T2 is referred to, and the priority of each advertisement set when the user uses the previous HMD 110 is specified (S120-31). Thereafter, the field-of-view image generation unit 260 generates the launcher space LAU shown in FIG. 18 and outputs it to the HMD 110 (S120-32). In the advertisement space AD of the launcher space LAU, advertisements up to priority 5 are arranged in order from the top. Further, the advertisement B having the highest priority is greatly highlighted. In addition, the trial version contents related to the advertisement B and the advertisement B-1 are arranged in the trial version spaces TR1 and TR2.
ユーザは、第1仮想空間VR1,第2体験版コンテンツVR2、体験版スペースTR1,TR2に配置された体験版コンテンツのいずれかを選択肢、対応する仮想空間を楽しむことができる。また、広告を選択することにより、それに関する情報を他の情報端末(パソコン、スマートフォン等)に送信するように、指示することもできる。 The user can select any one of the first virtual space VR1, the second trial version content VR2, and the trial version content arranged in the trial version spaces TR1 and TR2 and enjoy the corresponding virtual space. Moreover, it can also instruct | indicate so that the information regarding it may be transmitted to other information terminals (a personal computer, a smart phone, etc.) by selecting an advertisement.
なお、一度HMD110を非装着とした場合には、その後に没入した仮想空間において広告を注視したとしても、前回HMD110を装着した際に広告を注視した時間に合算しないことが好ましい。即ち、広告を注視した時間を合算する処理は、一度のHMD110装着時間内に限って行われることが好ましい。これにより、ユーザの関心を一定の長期間にわたって平均化することなく、一時的なユーザの関心の高まりに対しても適時アプローチすることが可能なコンテンツ提供手段を提供し得る。 Note that once the HMD 110 is not attached, it is preferable not to add up to the time when the advertisement was watched when the HMD 110 was attached last time, even if the advertisement is watched in a virtual space that has been immersed thereafter. That is, it is preferable that the process of adding the time when the advertisement is watched is performed only within one HMD 110 wearing time. Accordingly, it is possible to provide a content providing means capable of approaching the user's interest in a timely manner without averaging the user's interest over a certain long period of time.
以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。 As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. Those skilled in the art will appreciate that various modifications of the embodiments can be made without departing from the spirit and scope of the invention as set forth in the appended claims.
例えば、上述の実施形態においては、調整済注視時間に基づいてコンテンツの優先度を判定したが、調整前の注視時間に基づいて優先度を判定しても良い。 For example, in the above-described embodiment, the priority of the content is determined based on the adjusted gaze time. However, the priority may be determined based on the gaze time before adjustment.
また、上述の実施形態においては、互いに関連するコンテンツである広告A,A−1,A−2を、注視時間または合計調整済注視時間を算定するに当たっては関連しないものとして取り扱ったが、これらを関連するものとして取り扱っても良い。例えば、広告A,A−1,A−2の注視時間または調整済注視時間を合計して、広告A,A−1,A−2を一体として優先度を判定してもよい。この場合、広告A,A−1,A−2の優先度が高いと判定された場合には、広告A,A−1,A−2に関連する全ての広告、および、拡張コンテンツを、ランチャー空間LAUに表示することとしてもよい。 In the above-described embodiment, the advertisements A, A-1, and A-2, which are contents related to each other, are treated as not relevant in calculating the gaze time or the total adjusted gaze time. It may be handled as related. For example, the gaze time or adjusted gaze time of the advertisements A, A-1, and A-2 may be summed, and the priority may be determined by integrating the advertisements A, A-1, and A-2. In this case, when it is determined that the priority of the advertisements A, A-1, and A-2 is high, all the advertisements related to the advertisements A, A-1, and A-2 and the extended content are displayed as launchers. It is good also as displaying on space LAU.
100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、120…制御回路部、130…動きセンサ、132…検知部、140…注視センサ、200…表示制御部、300…オブジェクト制御部、400・・・通信制御部、1…仮想カメラ、2…仮想空間、5…基準視線、22…仮想空間画像、23…視界領域、26…視界画像、BP…基準点、BD…基準方向、GD…注視方向。 DESCRIPTION OF SYMBOLS 100 ... Head mounted display (HMD) system, 110 ... HMD, 112 ... Display, 114 ... Sensor part, 120 ... Control circuit part, 130 ... Motion sensor, 132 ... Detection part, 140 ... Gaze sensor, 200 ... Display control part, DESCRIPTION OF SYMBOLS 300 ... Object control part, 400 ... Communication control part, 1 ... Virtual camera, 2 ... Virtual space, 5 ... Reference line of sight, 22 ... Virtual space image, 23 ... View field area, 26 ... View field image, BP ... Reference point, BD ... reference direction, GD ... gaze direction.
Claims (9)
前記ユーザが没入する仮想空間、および、前記仮想空間における対象オブジェクトを生成するステップと、
前記仮想空間における基準位置、および、前記対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、
前記基準位置に対する前記ユーザの視線方向である基準方向を定義するステップと、
前記対象オブジェクトに対する前記ユーザの視線方向である注視方向を特定するステップと、
前記ユーザが前記対象オブジェクトを注視した注視時間を特定するステップと、
前記注視時間と、前記注視方向と、前記基準方向に基づいて、調整済注視時間を特定するステップと、
前記調整済注視時間に基づいて、前記ユーザに所定のコンテンツを提供するステップと、
を実行させる方法。 A method for providing an immersive virtual space for a computer,
Generating a virtual space in which the user is immersed, and a target object in the virtual space;
Defining a reference position in the virtual space and a target object position where the target object is arranged;
Defining a reference direction that is the line-of-sight direction of the user with respect to the reference position;
Identifying a gaze direction that is a gaze direction of the user with respect to the target object;
Identifying a gaze time when the user gazes at the target object;
Identifying an adjusted gaze time based on the gaze time, the gaze direction, and the reference direction;
Providing predetermined content to the user based on the adjusted gaze time;
How to run.
前記第1ずれ量と前記第2ずれ量に所定の重みづけを付与して前記調整済注視時間を算出する、請求項2の方法。 The shift amount is a first shift amount that is a shift amount of the gaze direction with respect to the reference direction in a vertical plane, and a second shift amount that is a shift amount of the gaze direction with respect to the reference direction in a horizontal plane perpendicular to the vertical plane. Including displacement
The method of claim 2, wherein the adjusted gaze time is calculated by assigning a predetermined weight to the first deviation amount and the second deviation amount.
前記視界領域に含まれる複数の前記対象オブジェクトである第1オブジェクトと第2オブジェクトを特定するステップと、
前記第1オブジェクトに対する前記ユーザの前記調整済注視時間が所定の閾値を超過した場合には、前記第2オブジェクトの表示を、前記第1オブジェクトと関連するように変化させるステップと、
をさらに含む、請求項1〜4のいずれかの方法。 Defining a field of view of the user based on the line of sight of the user;
Identifying a first object and a second object that are a plurality of the target objects included in the field-of-view area;
Changing the display of the second object to be associated with the first object when the adjusted gaze time of the user for the first object exceeds a predetermined threshold;
The method according to claim 1, further comprising:
前記調整済注視時間に基づいて、前記ユーザに提供される前記コンテンツの優先度を設定し、
前記優先度に基づいて、前記コンテンツに関連する拡張コンテンツを特定し、
前記ヘッドマウントディスプレイが前記ユーザに装着されていない場合に、前記拡張コンテンツをダウンロードするためのダウンロード要求を出力する、
請求項1〜5のいずれかの方法。 Providing the virtual space to the user by outputting to a head mounted display;
Based on the adjusted gaze time, set the priority of the content provided to the user,
Based on the priority, identify extended content related to the content,
When the head mounted display is not attached to the user, a download request for downloading the extended content is output.
The method according to claim 1.
前記ランチャー空間は、前記仮想空間および前記拡張コンテンツに関連付けられるとともに、前記コンテンツが前記優先度に応じて表示される、請求項6の方法。 And further comprising the step of generating a launcher space,
The method of claim 6, wherein the launcher space is associated with the virtual space and the extended content, and the content is displayed according to the priority.
前記第2仮想空間に、前記第1仮想空間に配置された第1対象オブジェクトと関連する第2対象オブジェクトを生成するステップと、
前記ユーザが前記第1対象オブジェクトに対する調整済注視時間、および、前記第2対象オブジェクトに対する調整済注視時間を合算した合計調整済注視時間を特定するステップと、
前記注視時間に基づいて、前記ユーザに所定のコンテンツを提供するステップと、をさらに実行させる、請求項1〜7のいずれかの方法。 Generating a second virtual space in which the user is immersed;
Generating a second target object related to the first target object arranged in the first virtual space in the second virtual space;
Identifying a total adjusted gaze time obtained by adding the adjusted gaze time for the first target object and the adjusted gaze time for the second target object by the user;
The method according to claim 1, further comprising: providing predetermined content to the user based on the gaze time.
The program which makes the said computer perform the method in any one of Claims 1-8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016114844A JP2017041229A (en) | 2016-06-08 | 2016-06-08 | Method and program for controlling head-mounted display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016114844A JP2017041229A (en) | 2016-06-08 | 2016-06-08 | Method and program for controlling head-mounted display system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015160451A Division JP5961736B1 (en) | 2015-08-17 | 2015-08-17 | Method and program for controlling head mounted display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017041229A true JP2017041229A (en) | 2017-02-23 |
Family
ID=58206729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016114844A Pending JP2017041229A (en) | 2016-06-08 | 2016-06-08 | Method and program for controlling head-mounted display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017041229A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7524264B2 (en) | 2022-09-27 | 2024-07-29 | 株式会社コロプラ | Program and information processing system |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1124603A (en) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | Information display device and information collecting device |
JP2000285064A (en) * | 1999-03-31 | 2000-10-13 | Fujitsu Ltd | Virtual space sharing system |
JP2005038008A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Image processing method, image processor |
JP2006197373A (en) * | 2005-01-14 | 2006-07-27 | Mitsubishi Electric Corp | Viewer information measuring instrument |
WO2011074198A1 (en) * | 2009-12-14 | 2011-06-23 | パナソニック株式会社 | User interface apparatus and input method |
JP2011258108A (en) * | 2010-06-11 | 2011-12-22 | Nissan Motor Co Ltd | Information providing apparatus, and information providing method |
JP2013029958A (en) * | 2011-07-28 | 2013-02-07 | Sony Corp | Information processing apparatus, information processing method, and program |
JP2015114798A (en) * | 2013-12-11 | 2015-06-22 | キヤノン株式会社 | Information processor, information processing method, and program |
JP2015160452A (en) * | 2014-02-26 | 2015-09-07 | タカタ株式会社 | Air bag and air bag device |
-
2016
- 2016-06-08 JP JP2016114844A patent/JP2017041229A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1124603A (en) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | Information display device and information collecting device |
JP2000285064A (en) * | 1999-03-31 | 2000-10-13 | Fujitsu Ltd | Virtual space sharing system |
JP2005038008A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Image processing method, image processor |
JP2006197373A (en) * | 2005-01-14 | 2006-07-27 | Mitsubishi Electric Corp | Viewer information measuring instrument |
WO2011074198A1 (en) * | 2009-12-14 | 2011-06-23 | パナソニック株式会社 | User interface apparatus and input method |
JP2011258108A (en) * | 2010-06-11 | 2011-12-22 | Nissan Motor Co Ltd | Information providing apparatus, and information providing method |
JP2013029958A (en) * | 2011-07-28 | 2013-02-07 | Sony Corp | Information processing apparatus, information processing method, and program |
JP2015114798A (en) * | 2013-12-11 | 2015-06-22 | キヤノン株式会社 | Information processor, information processing method, and program |
JP2015160452A (en) * | 2014-02-26 | 2015-09-07 | タカタ株式会社 | Air bag and air bag device |
Non-Patent Citations (2)
Title |
---|
亀津敦: ""「マルチバース時代」に向かう仮想世界"", 知的資産創造, vol. 15, no. 8, JPN6019005271, 20 July 2007 (2007-07-20), pages 48 - 59, ISSN: 0003979845 * |
河野隆志,外3名: ""仮想空間におけるショッピング環境"", NTT R&D, vol. 第48巻,第9号, JPN6019005269, 10 September 1999 (1999-09-10), pages 705 - 711, ISSN: 0003979844 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7524264B2 (en) | 2022-09-27 | 2024-07-29 | 株式会社コロプラ | Program and information processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5961736B1 (en) | Method and program for controlling head mounted display system | |
JP6002286B1 (en) | Head mounted display control method and head mounted display control program | |
JP6058184B1 (en) | Method and program for controlling head mounted display system | |
CN107209386B (en) | Augmented reality view object follower | |
JP2019519020A (en) | Visual backlighting around the visual field | |
JP5996814B1 (en) | Method and program for providing image of virtual space to head mounted display | |
CN114995594A (en) | Interaction with 3D virtual objects using gestures and multi-DOF controllers | |
JP6203369B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6097377B1 (en) | Image display method and program | |
JP2019125215A (en) | Information processing apparatus, information processing method, and recording medium | |
US10438418B2 (en) | Information processing method for displaying a virtual screen and system for executing the information processing method | |
JP6433862B2 (en) | Head mounted display system control program, computer and method | |
WO2015095507A1 (en) | Location-based system for sharing augmented reality content | |
JP2017021824A (en) | Head-mounted display control method and head-mounted display control program | |
JP2018120520A (en) | Communication method through virtual space, program causing computer to execute method, and information processing device to execute program | |
JP6598575B2 (en) | Method and program for controlling head mounted display system | |
JP7560835B2 (en) | Program and information processing method | |
JP2019021347A (en) | Head-mounted display system control program | |
JP2017041229A (en) | Method and program for controlling head-mounted display system | |
JP6999538B2 (en) | Information processing methods, information processing programs, information processing systems, and information processing equipment | |
JP2018097847A (en) | Information processing method, and program for causing computer to execute the information processing method | |
JP2017033465A (en) | Method and program | |
US20240095877A1 (en) | System and method for providing spatiotemporal visual guidance within 360-degree video | |
JP2017162443A (en) | Method and program for controlling head-mounted display system | |
JP2017142769A (en) | Method and program for providing head-mounted display with virtual space image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180524 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190422 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190827 |