JP2017041019A - Head-mounted display system control program - Google Patents

Head-mounted display system control program Download PDF

Info

Publication number
JP2017041019A
JP2017041019A JP2015161247A JP2015161247A JP2017041019A JP 2017041019 A JP2017041019 A JP 2017041019A JP 2015161247 A JP2015161247 A JP 2015161247A JP 2015161247 A JP2015161247 A JP 2015161247A JP 2017041019 A JP2017041019 A JP 2017041019A
Authority
JP
Japan
Prior art keywords
user
virtual space
target object
gaze
advertisement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015161247A
Other languages
Japanese (ja)
Other versions
JP6433862B2 (en
Inventor
功淳 馬場
Naruatsu Baba
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015161247A priority Critical patent/JP6433862B2/en
Publication of JP2017041019A publication Critical patent/JP2017041019A/en
Application granted granted Critical
Publication of JP6433862B2 publication Critical patent/JP6433862B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user with various types of content without sacrificing a user's sense of immersion in a virtual space.SOLUTION: A program is configured to make a computer perform the steps of; generating a virtual space for a user to be immersed and a plurality of target objects in the virtual space, and outputting a result to a head-mounted display; detecting a history of actions taken by the user on the target objects in the virtual space; identifying priorities of the plurality of objects based on the history; generating delivery content representing information related to the target objects to be delivered based on the priorities; and outputting the delivery content to a device other than the head-mounted display.SELECTED DRAWING: Figure 20

Description

本発明は、ユーザがヘッドマウントディスプレイ(Head−Mounted Display:HMD)を用いて没入する仮想空間を、コンピュータに提供させるプログラムに関するものである。   The present invention relates to a program that allows a computer to provide a virtual space in which a user immerses using a head-mounted display (HMD).

特許文献1には、仮想空間内の各場所にユーザ毎の地価を設定し、当該場所に対する各ユーザ間の地価を平均化することによって、その場所に広告を表示する場合の広告料を設定する手法が開示されている。地価は、各ユーザの移動操作履歴に基づいて設定される。また、特許文献2には、ユーザの行動状況に基づいて、表示アイテムの優先度を設定する技術が開示されている。   In Patent Document 1, a land price for each user is set in each place in the virtual space, and an advertisement charge for displaying an advertisement in that place is set by averaging the land prices between the users for the place. A technique is disclosed. The land price is set based on the movement operation history of each user. Patent Document 2 discloses a technique for setting the priority of a display item based on a user's action situation.

特許3732168号公報Japanese Patent No. 3732168 特開2014−71811号公報JP 2014-71811 A

特許文献1,2に記載された技術においては、ユーザが没入する仮想空間に様々な広告を配置するため、仮想空間に対するユーザの没入感を損なうおそれがある。   In the techniques described in Patent Literatures 1 and 2, since various advertisements are arranged in a virtual space in which the user is immersed, there is a risk of impairing the user's immersion in the virtual space.

本発明によれば、コンピュータに、ユーザが没入する仮想空間、および、前記仮想空間に複数の対象オブジェクトを生成して、ヘッドマウントディスプレイに出力するステップと、前記対象オブジェクトに対して、前記ユーザが前記仮想空間内においてとった行動の履歴を検出するステップと、前記履歴に基づいて、複数の前記対象オブジェクトの優先度を特定するステップと、前記対象オブジェクトに関する情報が前記優先度に基づいて配置される配信コンテンツを生成するステップと、前記配信コンテンツを、前記ヘッドマウントディスプレイとは異なるデバイスに出力するステップと、を実行させるプログラム、が得られる。 According to the present invention, a virtual space in which a user is immersed in a computer, a step of generating a plurality of target objects in the virtual space, and outputting them to a head mounted display; A step of detecting a history of actions taken in the virtual space, a step of identifying priorities of the plurality of target objects based on the history, and information on the target objects are arranged based on the priorities And a program for executing the step of outputting the distribution content to a device different from the head mounted display.

本発明によれば、仮想空間に対するユーザの没入感を損なうことなく、ユーザに各種コンテンツを提供し得る。   According to the present invention, various contents can be provided to the user without impairing the user's immersion in the virtual space.

本発明の実施形態によるHMDシステムを示す図である。1 is a diagram illustrating an HMD system according to an embodiment of the present invention. HMDを装着しているユーザの頭部を中心に規定される3次元空間上の直交座標系を示す。An orthogonal coordinate system in a three-dimensional space defined around the head of a user wearing an HMD is shown. 仮想空間の一例を示すXYZ空間図である。It is an XYZ space figure which shows an example of virtual space. 視線方向を決定する方法の一例を示す図である。It is a figure which shows an example of the method of determining a gaze direction. HMDシステムの機能を実現するための、制御回路部の機能を示すブロック図である。It is a block diagram which shows the function of the control circuit part for implement | achieving the function of a HMD system. HMDシステムの機能を実現するための処理を示すフローチャートである。It is a flowchart which shows the process for implement | achieving the function of a HMD system. 視界領域をX方向から見たYZ面図である。It is the YZ plane view which looked at the visual field area from the X direction. 視界領域をY方向から見たXZ面図である。It is the XZ plane figure which looked at the visual field area from the Y direction. ランチャー空間と第1仮想空間、第2仮想空間の関係を説明するための図である。It is a figure for demonstrating the relationship between a launcher space, 1st virtual space, and 2nd virtual space. HMDシステムの機能を実現するための処理を示すフローチャートである。It is a flowchart which shows the process for implement | achieving the function of a HMD system. 第1仮想空間および第2仮想空間を説明するための図である。It is a figure for demonstrating the 1st virtual space and the 2nd virtual space. HMDシステムの機能を実現するための処理を示すフローチャートである。It is a flowchart which shows the process for implement | achieving the function of a HMD system. 注視方向の基準方向に対する第1ずれ量を説明するYZ面図である。It is a YZ plane view explaining the first deviation amount with respect to the reference direction of the gaze direction. 注視方向の基準方向に対する第2ずれ量を説明するXZ面図である。It is a XZ plane figure explaining the 2nd shift amount with respect to the reference direction of a gaze direction. 視界領域内における広告の、注視される前の状態を示す図である。It is a figure which shows the state before being watched of the advertisement in a visual field area | region. 視界領域内における広告の、注視された後の状態を示す図である。It is a figure which shows the state after being watched of the advertisement in a visual field area | region. ユーザ行動管理テーブルを示す図である。It is a figure which shows a user action management table. HMDシステムの機能を実現するための処理を示すフローチャートである。It is a flowchart which shows the process for implement | achieving the function of a HMD system. ランチャー空間を説明するための図である。It is a figure for demonstrating launcher space. 優先度管理テーブルを示す図である。It is a figure which shows a priority management table. HMDシステムの機能を実現するための処理を示すフローチャートである。It is a flowchart which shows the process for implement | achieving the function of a HMD system. ランチャー空間を説明するための図である。It is a figure for demonstrating launcher space. 外部デバイスを含むHMDシステムを示す図である。It is a figure which shows the HMD system containing an external device. 配信コンテンツの一例を示す図である。It is a figure which shows an example of a delivery content.

[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態によるヘッドマウントディスプレイシステム制御プログラムは、以下のような構成を備える。
(項目1)
コンピュータに、
ユーザが没入する仮想空間、および、前記仮想空間に複数の対象オブジェクトを生成して、ヘッドマウントディスプレイに出力するステップと、
前記対象オブジェクトに対して、前記ユーザが前記仮想空間内においてとった行動の履歴を検出するステップと、
前記履歴に基づいて、複数の前記対象オブジェクトの優先度を特定するステップと、
前記対象オブジェクトに関する情報が前記優先度に基づいて配置される配信コンテンツを生成するステップと、
前記配信コンテンツを、前記ヘッドマウントディスプレイとは異なるデバイスに出力するステップと、を実行させるプログラム。
本項目のプログラムによれば、ユーザが仮想空間において興味を示した対象オブジェクトに関連するコンテンツを、当該仮想空間外で閲覧可能なデバイスに送信する。これにより、仮想空間に対するユーザの没入感を損なうことなく、ユーザに広告や体験版等のコンテンツを提供できる。
(項目2)
前記配信コンテンツは、
前記デバイスに前記対象オブジェクトに関する詳細情報を表示させる第1リンクと、
前記ヘッドマウントディスプレイに出力される前記対象オブジェクトに関連する拡張コンテンツをダウンロードさせる第2リンクを含む、項目1のプログラム。
本項目のプログラムによれば、ユーザはヘッドマウントディスプレイを使用していない時にも、ヘッドマウントディスプレイで実行される広告や体験版等のコンテンツをダウンロードしておくことができる
(項目3)
前記第2リンクに入力されたユーザ指示を受け付けるステップと、
前記ヘッドマウントディスプレイがユーザに装着されているかを判定するステップと、
前記ヘッドマウントディスプレイがユーザに装着されていない場合には、前記拡張コンテンツをダウンロードするためのダウンロード要求を出力する、項目2のプログラム。
本項目のプログラムによれば、体験版等の拡張コンテンツを、ヘッドマウントディスプレイを使用していない時にダウンロードしておくことができる。これにより、ヘッドマウントディスプレイ使用中のユーザに通信状況が悪化する等の違和感を与えること無く、拡張コンテンツを提供することができる。
(項目4)
前記仮想空間は、第1仮想空間および第2仮想空間を含み、
前記対象オブジェクトは、前記第1仮想空間に表示される第1対象オブジェクトと、前記第2仮想空間に表示され、前記第1対象オブジェクトと関連する第2対象オブジェクトを含み、
前記履歴は、前記ユーザが前記第1対象オブジェクトおよび前記第2対象オブジェクトを注視した時間を合算した合計注視時間である、項目1〜3のいずれかのプログラム。
本項目のプログラムによれば、複数のコンテンツにおけるユーザの視線履歴に関する行動を合算することで、より適切なコンテンツをユーザ提案し得る。
(項目5)
前記コンピュータに、
前記仮想空間における基準位置、および、前記対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、
前記基準位置に対する前記ユーザの視線方向である基準方向を定義するステップと、
前記対象オブジェクトに対する前記ユーザの視線方向である注視方向を特定するステップと、
前記ユーザが前記対象オブジェクトを注視した注視時間を特定するステップと、
前記注視時間と、前記注視方向と、前記基準方向に基づいて、調整済注視時間を特定するステップと、をさらに実行させ、
前記履歴は、前記調整済注視時間である、項目1〜4のいずれかのプログラム。
本項目のプログラムによれば、ユーザが広告等の対象オブジェクトを注視した時間に基づいて、当該ユーザに広告に関連するコンテンツを提供する。その際、ユーザの注視方向と、仮想空間内に設定された基準方向との関係によって、注視した時間を調整することとしている。これにより、ユーザが関心を示した対象を容易に判別し、適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目6)
前記調整済注視時間は、前記注視時間を、前記注視方向の前記基準方向に対するずれ量に基づいて調整することによって算出される、項目5のプログラム。
本項目のプログラムによれば、ユーザが基準方向から遠くまで視線を逸らして対象オブジェクトを注視した場合には、当該対象に対する関心が高いものと推定する。これにより、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
(項目7)
前記ずれ量は、垂直面内における前記注視方向の前記基準方向に対するずれ量である第1ずれ量と、前記垂直面に直交する水平面内における前記注視方向の前記基準方向に対するずれ量である第2ずれ量を含み、
前記第1ずれ量と前記第2ずれ量に所定の重みづけを付与して前記調整済注視時間を算出する、項目6のプログラム。
本項目のプログラムによれば、よりユーザが自発的にしにくい行動を重視することが可能になる。
(項目8)
前記重みづけは、前記第1ずれ量に対して大きく付与される、項目7のプログラム。
本項目のプログラムによれば、よりユーザが自発的にしにくい行動である、ユーザが垂直面内に視線を動かす行動を重視することにより、ユーザの関心に対して適時アプローチすることが可能なコンテンツ提供手段を提供し得る。
[Description of Embodiment of the Present Invention]
First, the contents of the embodiment of the present invention will be listed and described. A head mounted display system control program according to an embodiment of the present invention has the following configuration.
(Item 1)
On the computer,
A virtual space in which the user is immersed, and a step of generating a plurality of target objects in the virtual space and outputting them to a head mounted display;
Detecting a history of actions taken by the user in the virtual space for the target object;
Identifying priorities of the plurality of target objects based on the history;
Generating distribution content in which information about the target object is arranged based on the priority;
Outputting the distribution content to a device different from the head-mounted display.
According to the program of this item, the content related to the target object that the user has shown interest in the virtual space is transmitted to a device that can be browsed outside the virtual space. Thereby, contents such as advertisements and trial versions can be provided to the user without impairing the user's immersion in the virtual space.
(Item 2)
The distribution content is:
A first link that causes the device to display detailed information about the target object;
Item 1. The program according to Item 1, including a second link for downloading an extended content related to the target object output to the head mounted display.
According to the program of this item, even when the user does not use the head mounted display, the user can download contents such as advertisements and trial versions executed on the head mounted display (item 3).
Receiving a user instruction input to the second link;
Determining whether the head mounted display is worn by a user;
The program according to item 2, wherein when the head mounted display is not attached to a user, a download request for downloading the extended content is output.
According to the program of this item, it is possible to download extended contents such as a trial version when the head mounted display is not used. As a result, the extended content can be provided without giving the user who is using the head-mounted display a sense of incongruity such as deterioration of the communication status.
(Item 4)
The virtual space includes a first virtual space and a second virtual space;
The target object includes a first target object displayed in the first virtual space and a second target object displayed in the second virtual space and related to the first target object,
The program according to any one of Items 1 to 3, wherein the history is a total gaze time obtained by adding up times when the user gazes at the first target object and the second target object.
According to the program of this item, the user can propose more appropriate content by adding up the actions related to the user's line-of-sight history in a plurality of contents.
(Item 5)
In the computer,
Defining a reference position in the virtual space and a target object position where the target object is arranged;
Defining a reference direction that is the line-of-sight direction of the user with respect to the reference position;
Identifying a gaze direction that is a gaze direction of the user with respect to the target object;
Identifying a gaze time when the user gazes at the target object;
Further executing the step of identifying an adjusted gaze time based on the gaze time, the gaze direction, and the reference direction;
The program according to any one of items 1 to 4, wherein the history is the adjusted gaze time.
According to the program of this item, the content related to the advertisement is provided to the user based on the time when the user gazes at the target object such as the advertisement. At that time, the gaze time is adjusted according to the relationship between the gaze direction of the user and the reference direction set in the virtual space. Accordingly, it is possible to provide a content providing unit that can easily determine an object that the user has shown interest in and can approach in a timely manner.
(Item 6)
The program according to item 5, wherein the adjusted gaze time is calculated by adjusting the gaze time based on a shift amount of the gaze direction with respect to the reference direction.
According to the program of this item, when the user looks away from the reference direction and looks closely at the target object, it is estimated that the user is highly interested in the target. Accordingly, it is possible to provide a content providing unit that can approach the user's interest in a timely manner.
(Item 7)
The shift amount is a first shift amount that is a shift amount of the gaze direction with respect to the reference direction in a vertical plane, and a second shift amount that is a shift amount of the gaze direction with respect to the reference direction in a horizontal plane perpendicular to the vertical plane. Including displacement
The program according to item 6, wherein the adjusted gaze time is calculated by assigning a predetermined weight to the first deviation amount and the second deviation amount.
According to the program of this item, it becomes possible to attach importance to actions that are more difficult for the user to do spontaneously.
(Item 8)
Item 7. The program according to Item 7, wherein the weight is given to the first deviation amount.
According to the program of this item, content that can approach the user's interests in a timely manner by placing emphasis on the user's behavior that makes it difficult for the user to voluntarily move the line of sight in the vertical plane Means may be provided.

[本発明の実施形態の詳細]
本発明の実施形態に係るプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
[Details of the embodiment of the present invention]
A specific example of the program according to the embodiment of the present invention will be described below with reference to the drawings. In addition, this invention is not limited to these illustrations, is shown by the claim, and intends that all the changes within the meaning and range equivalent to the claim are included. In the following description, the same reference numerals are given to the same elements in the description of the drawings, and redundant descriptions are omitted.

図1は、本実施形態にかかるHMD110を備えるHMDシステム100を示す。HMDシステム100は、ユーザの頭部に装着されるHMD110と、制御回路部120と、動きセンサ130と、注視センサ140を備える。   FIG. 1 shows an HMD system 100 including an HMD 110 according to the present embodiment. The HMD system 100 includes an HMD 110 that is worn on the user's head, a control circuit unit 120, a motion sensor 130, and a gaze sensor 140.

HMD110は、非透過型の表示装置であるディスプレイ112と、センサ部114と、注視センサ140を含む。制御回路部120は、ディスプレイ112に右目用画像と左目用画像を表示することにより、両目の視差を利用した3次元画像を仮想空間として提供する。ディスプレイ112がユーザの眼前に配置されることによって、ユーザは仮想空間に没入できる。仮想空間は、背景やユーザが操作可能な各種オブジェクト、メニュー画像等を含む。 The HMD 110 includes a display 112 that is a non-transmissive display device, a sensor unit 114, and a gaze sensor 140. The control circuit unit 120 displays a right-eye image and a left-eye image on the display 112, thereby providing a three-dimensional image using parallax between both eyes as a virtual space. By arranging the display 112 in front of the user's eyes, the user can be immersed in the virtual space. The virtual space includes a background, various objects that can be operated by the user, menu images, and the like.

ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。また、右目用画像と左目用画像を提供できれば、1つの表示装置で構成されていても良い。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。   The display 112 may include a right-eye sub-display that provides a right-eye image and a left-eye sub-display that provides a left-eye image. Moreover, as long as the image for right eyes and the image for left eyes can be provided, you may be comprised by one display apparatus. For example, the right-eye image and the left-eye image can be provided independently by switching the shutter so that the display image can be recognized by only one eye at high speed.

制御回路部120は、HMD110に接続されるコンピュータであり、格納された所定のアプリケーションを実行することにより、ディスプレイ112に仮想空間を提示する。また、制御回路部120は、当該仮想空間内に表示される各種オブジェクトを操作したり、各種メニュー画像等を表示・制御するように処理を実行する。制御回路部120は、そのような動作の実行を制御するプログラムを格納する。制御回路部120はHMD110に搭載されていなくてもよく、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部120は、一部の機能のみをHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。   The control circuit unit 120 is a computer connected to the HMD 110 and presents a virtual space on the display 112 by executing a stored predetermined application. In addition, the control circuit unit 120 performs processing so as to operate various objects displayed in the virtual space and to display and control various menu images and the like. The control circuit unit 120 stores a program for controlling execution of such operations. The control circuit unit 120 may not be mounted on the HMD 110 and may be configured as another hardware (for example, a known personal computer or a server computer via a network). In addition, the control circuit unit 120 may implement only a part of functions in the HMD 110 and implement the remaining functions in different hardware.

動きセンサ130は、HMD110の位置や傾きに関する情報を検出する。動きセンサ130は、センサ部114と、検知部132を含む。センサ部114は、複数の光源を含んでもよい。光源は、例えば赤外線を発するLEDである。検知部132は例えば赤外線センサであり、光源からの赤外線をHMD110の検知点として検知することで、ユーザの動きに応じたHMD110の現実空間内における位置や角度に関する情報を経時的に検出する。そして、検知部132により検出された情報の経時的変化に基づいて、HMD110の位置や角度の時間変化を決定し、HMD110の動きに関する情報を検知することができる。   The motion sensor 130 detects information related to the position and inclination of the HMD 110. The motion sensor 130 includes a sensor unit 114 and a detection unit 132. The sensor unit 114 may include a plurality of light sources. The light source is, for example, an LED that emits infrared rays. The detection unit 132 is, for example, an infrared sensor, and detects information about the position and angle of the HMD 110 in the real space according to the user's movement by detecting infrared rays from the light source as detection points of the HMD 110 over time. Then, it is possible to determine time-dependent changes in the position and angle of the HMD 110 based on changes over time in the information detected by the detection unit 132, and to detect information related to the movement of the HMD 110.

動きセンサ130によって取得される位置や傾きに関する情報を、図2を参照して説明する。HMD110を装着したユーザの頭部を中心として、XYZ軸を規定する。ユーザが直立する垂直方向をY軸とし、Y軸と直交しディスプレイ112の中心とユーザを結ぶ前後方向をZ軸とし、Y軸およびZ軸と直交する横方向をX軸とする。これにより、ユーザのXYZ軸方向における位置の経時変化が取得される。また、各軸周りのHMD110の傾き角度θx(いわゆるピッチ角),θy(いわゆるヨー角),θz(いわゆるロール角)が取得される。   Information regarding the position and tilt acquired by the motion sensor 130 will be described with reference to FIG. The XYZ axes are defined around the head of the user wearing the HMD 110. The vertical direction in which the user stands upright is the Y axis, the front-rear direction orthogonal to the Y axis and connecting the center of the display 112 and the user is the Z axis, and the horizontal direction orthogonal to the Y axis and the Z axis is the X axis. Thereby, the temporal change of the position in the XYZ axis direction of the user is acquired. Further, the inclination angle θx (so-called pitch angle), θy (so-called yaw angle), and θz (so-called roll angle) of the HMD 110 around each axis are acquired.

動きセンサ130は、ディスプレイ112の近くに固定されたセンサ部114と、検知部132の、一方のみから構成されてもよい。センサ部114が、地磁気センサ、加速度センサ、角速度(ジャイロ)センサであってもよく、これらの少なくとも1つを用いて、ユーザの頭部に装着されたHMD110(特に、ディスプレイ112)の位置および傾きを検出する。これにより、HMD110の動きに関する情報を検出することができる。例えば、角速度センサは、HMD110の動きに応じて、HMD110の3軸回りの角速度を経時的に検出し、各軸回りの角度の時間変化を決定することができる。この場合には、検知部132は不要である。また、検知部132は光学カメラを含んで構成されても良い。この場合には、画像情報に基づいてHMD110の動きに関する情報を検出することができ、センサ部114は不要である。   The motion sensor 130 may be configured by only one of the sensor unit 114 fixed near the display 112 and the detection unit 132. The sensor unit 114 may be a geomagnetic sensor, an acceleration sensor, or an angular velocity (gyro) sensor, and the position and inclination of the HMD 110 (particularly, the display 112) mounted on the user's head using at least one of them. Is detected. Thereby, the information regarding the motion of the HMD 110 can be detected. For example, the angular velocity sensor can detect the angular velocities around the three axes of the HMD 110 over time according to the movement of the HMD 110 and determine temporal changes in the angles around the respective axes. In this case, the detection unit 132 is not necessary. The detection unit 132 may include an optical camera. In this case, information related to the movement of the HMD 110 can be detected based on the image information, and the sensor unit 114 is unnecessary.

動きセンサ130を用いてHMD110の位置や傾きに関する情報を検出する機能をポジション・トラッキングと称する。動きセンサ130によるポジション・トラッキングと、仮想空間2内に配置される仮想カメラ1との関係を、図3を参照して説明する。仮想カメラ1と動きセンサ130の位置関係を説明するために、以下では動きセンサ130の位置は、検知部132を有する場合には検知部132の位置とし、検知部132を有しない場合にはセンサ部114の位置とする。仮想空間2の内部に仮想カメラ1が配置され、および仮想空間2の外部(現実空間)に動きセンサ130が仮想的に配置される。 The function of detecting information related to the position and tilt of the HMD 110 using the motion sensor 130 is referred to as position tracking. The relationship between the position tracking by the motion sensor 130 and the virtual camera 1 arranged in the virtual space 2 will be described with reference to FIG. In order to explain the positional relationship between the virtual camera 1 and the motion sensor 130, the position of the motion sensor 130 is the position of the detection unit 132 when the detection unit 132 is provided, and is the sensor when the detection unit 132 is not provided. The position of the portion 114 is assumed. The virtual camera 1 is disposed inside the virtual space 2, and the motion sensor 130 is virtually disposed outside the virtual space 2 (real space).

仮想空間2は、略正方形または略長方形の複数のメッシュを有する天球状に形成される。各メッシュは仮想空間2の空間情報が関連付けられており、この空間情報に基づいて視界領域23が定義される。本実施形態では、XZ面において、天球の中心点21が仮想カメラ1とセンサ130を結ぶ線上に常に配置されるように調整することが好ましい。例えば、HMDを装着したユーザが移動して仮想カメラ1の位置がX方向に移動した場合には、中心21が仮想カメラ1と動きセンサ130の線分上に位置するように、仮想空間2の領域が変更される。この場合には、仮想空間2における仮想カメラ1の位置は固定され、傾きのみが変化する。一方、動きセンサ130のXYZ方向への移動に連動して仮想カメラ1の位置を移動させるようにすれば、仮想空間2における仮想カメラ1の位置は可変に設定される。 The virtual space 2 is formed in a celestial sphere having a plurality of substantially square or substantially rectangular meshes. Each mesh is associated with the spatial information of the virtual space 2, and the visual field region 23 is defined based on this spatial information. In the present embodiment, it is preferable to adjust so that the center point 21 of the celestial sphere is always arranged on the line connecting the virtual camera 1 and the sensor 130 in the XZ plane. For example, when the user wearing the HMD moves and the position of the virtual camera 1 moves in the X direction, the center 21 is positioned on the line segment between the virtual camera 1 and the motion sensor 130. The area is changed. In this case, the position of the virtual camera 1 in the virtual space 2 is fixed, and only the tilt changes. On the other hand, if the position of the virtual camera 1 is moved in conjunction with the movement of the motion sensor 130 in the XYZ directions, the position of the virtual camera 1 in the virtual space 2 is variably set.

注視センサ140は、ユーザの右目および左目の視線が向けられる方向を検出するアイトラッキング機能を有する。注視センサ140は、右目用センサと左目用センサを備えていることが好ましく、それぞれが右目と左目の視線が向けられる方向を検出することにより、ユーザが注視する視線方向を検知する。注視センサ140はアイトラッキング機能を有する公知のセンサを採用することができ、例えば、右目及び左目に赤外光を照射し、角膜や虹彩からの反射光を取得することにより、眼球の回転角を求めることとしても良い。   The gaze sensor 140 has an eye tracking function that detects the direction in which the user's right eye and left eye gaze are directed. The gaze sensor 140 preferably includes a right eye sensor and a left eye sensor, and detects the gaze direction in which the user gazes by detecting the direction in which the gaze of the right eye and the left eye is directed respectively. A known sensor having an eye tracking function can be adopted as the gaze sensor 140. For example, the right eye and the left eye are irradiated with infrared light, and the reflected light from the cornea and the iris is acquired, whereby the rotation angle of the eyeball is adjusted. It may be asking.

図4に示すように、注視センサ140はユーザUの右目および左目の視線方向を検知する。ユーザUが近くを見ている場合には視線R1およびL1が検知され、両者の交点である注視点N1が特定される。また、ユーザが遠くを見ている場合には、視線R1およびL1よりZ方向とのなす角が小さい視線R2およびL2が特定される。注視点N1が特定されると、ユーザUの視線方向N0が特定される。視線方向N0はユーザUが両目により実際に視線が向けられている方向である。視線方向N0は、例えばユーザUの右目Rおよび左目Lの中心と中心点N1が通る直線の伸びる方向として定義される。 As shown in FIG. 4, the gaze sensor 140 detects the gaze direction of the right eye and the left eye of the user U. When the user U is looking near, the lines of sight R1 and L1 are detected, and the gazing point N1 that is the intersection of the two is specified. Further, when the user is looking far away, the lines of sight R2 and L2 whose angles to the Z direction are smaller than the lines of sight R1 and L1 are specified. When the gazing point N1 is specified, the line-of-sight direction N0 of the user U is specified. The line-of-sight direction N0 is a direction in which the user U is actually directed by his eyes. The line-of-sight direction N0 is defined as a direction in which a straight line passes through the center of the right eye R and the left eye L of the user U and the center point N1, for example.

HMDシステム100はいずれかの要素にマイクを含むヘッドホンを備えていても良い。これにより、ユーザは仮想空間内の所定のオブジェクトに、音声による指示を与えることができる。また、仮想空間内の仮想テレビにテレビ番組の放送を受信するために、HMDシステム100はいずれかの要素にテレビジョン受像機を含んでいても良い。また、ユーザが取得した電子メール等を表示させるための、通信機能等を含んでいても良い。また、ユーザの各種指令を入力するための外部コントローラを含んでいても良い。   The HMD system 100 may include headphones including a microphone as any element. Thereby, the user can give a voice instruction to a predetermined object in the virtual space. Further, in order to receive a broadcast of a television program on a virtual television in a virtual space, the HMD system 100 may include a television receiver in any element. Moreover, a communication function or the like for displaying an electronic mail or the like acquired by the user may be included. Further, an external controller for inputting various user commands may be included.

図5は、HMDシステム100における仮想空間2の表示処理や、当該仮想空間2内に表示される各種メニュー表示やオブジェクトの操作を実現するための、制御回路部120の機能を示すブロック図である。制御回路部120は、主に動きセンサ130および注視センサ140からの入力に基づいて、ディスプレイ112への出力画像を制御する。   FIG. 5 is a block diagram illustrating functions of the control circuit unit 120 for realizing display processing of the virtual space 2 in the HMD system 100 and various menu displays and object operations displayed in the virtual space 2. . The control circuit unit 120 controls an output image to the display 112 based mainly on inputs from the motion sensor 130 and the gaze sensor 140.

制御回路部120は、表示制御部200と、オブジェクト制御部300と、通信制御部と、を備える。表示制御部200は、仮想空間画像生成部210と、HMD動作検知部220と、視線検知部230と、視界方向特定部240と、視界領域決定部250と、視界画像生成部260と、空間情報格納部270とを含む。オブジェクト制御部300は、広告特定部310と、注視時間計測部320と、調整部330と、判定部340と、描画部350と、オブジェクト情報格納部360と、仮想カメラ情報格納部370と、ユーザ行動記憶部と、を含む。 The control circuit unit 120 includes a display control unit 200, an object control unit 300, and a communication control unit. The display control unit 200 includes a virtual space image generation unit 210, an HMD motion detection unit 220, a line-of-sight detection unit 230, a visual field direction identification unit 240, a visual field region determination unit 250, a visual field image generation unit 260, and spatial information. Storage unit 270. The object control unit 300 includes an advertisement specifying unit 310, a gaze time measurement unit 320, an adjustment unit 330, a determination unit 340, a drawing unit 350, an object information storage unit 360, a virtual camera information storage unit 370, a user An action storage unit.

動きセンサ130および注視センサ140は、表示制御部200およびオブジェクト制御部300と互いに通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。表示制御部200、オブジェクト制御部300、通信制御部400は、HMD110(ディスプレイ112)と通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。通信制御部400は、ネットワーク150を介して外部サーバ160と通信可能である。空間情報格納部270、オブジェクト情報格納部360、仮想カメラ情報格納部370、ユーザ行動記憶部380は、動きセンサ130や注視センサ140からの入力に対応した出力情報をディスプレイ112へ提供するための各種データを含む。 The motion sensor 130 and the gaze sensor 140 are communicably connected to the display control unit 200 and the object control unit 300, and can be connected via a wired or wireless communication interface. The display control unit 200, the object control unit 300, and the communication control unit 400 are communicably connected to the HMD 110 (display 112), and can be connected via a wired or wireless communication interface. The communication control unit 400 can communicate with the external server 160 via the network 150. The spatial information storage unit 270, the object information storage unit 360, the virtual camera information storage unit 370, and the user behavior storage unit 380 are various types for providing output information corresponding to inputs from the motion sensor 130 and the gaze sensor 140 to the display 112. Contains data.

図5,図6を参照して、仮想空間2を提供するためのHMDシステム100の処理フローを説明する。仮想空間2は、HMD110(注視センサ140、動きセンサ130)および制御回路部120の相互作用によって提供され得る。   A processing flow of the HMD system 100 for providing the virtual space 2 will be described with reference to FIGS. The virtual space 2 can be provided by the interaction of the HMD 110 (the gaze sensor 140 and the motion sensor 130) and the control circuit unit 120.

まず、制御回路部120(仮想空間画像生成部210)はユーザが没入する仮想空間2を構成する天球状の仮想空間画像22を生成する(S120−1)。ユーザからHMD110に移動や傾きといった動作が入力されると(S110−1)、動きセンサ130によってHMD110の位置や傾きが検知される(S130−1)。動きセンサ130の検知情報は制御回路部120に送信され、HMD動作検出部220により、HMD110の位置情報や傾き情報が受け付けられる。これにより、HMD110の位置情報や傾き情報に基づく視界方向が決定される(S120−2)。   First, the control circuit unit 120 (virtual space image generation unit 210) generates the celestial spherical virtual space image 22 constituting the virtual space 2 in which the user is immersed (S120-1). When an operation such as movement or tilt is input from the user to the HMD 110 (S110-1), the position and tilt of the HMD 110 are detected by the motion sensor 130 (S130-1). Detection information of the motion sensor 130 is transmitted to the control circuit unit 120, and position information and tilt information of the HMD 110 are received by the HMD motion detection unit 220. Thereby, the visual field direction based on the positional information and inclination information of the HMD 110 is determined (S120-2).

注視センサ140がユーザの左右の目の眼球の動きを検出すると(S140−1)、当該情報が制御回路部120に送信される。視線検知部230は、右目および左目の視線が向けられる方向を特定し、視線方向N0が特定される(S120−3)。基準視線特定部240は、HMD110の傾きにより特定された視界方向、または、ユーザの視線方向N0を基準視線5として特定する(S120−4)。   When the gaze sensor 140 detects the movement of the eyeballs of the left and right eyes of the user (S140-1), the information is transmitted to the control circuit unit 120. The line-of-sight detection unit 230 identifies the direction in which the line of sight of the right eye and the left eye is directed, and the line-of-sight direction N0 is identified (S120-3). The reference line-of-sight specifying unit 240 specifies the field-of-view direction specified by the inclination of the HMD 110 or the user's line-of-sight direction N0 as the reference line of sight 5 (S120-4).

視界領域決定部250は、仮想空間2における仮想カメラ1の視界領域23を決定する(S120−5)。図3に示すように、視界領域23は仮想空間画像22のうちユーザの視界を構成する部分である。視界領域23は基準視線5に基づいて定められ、基準視線5は仮想カメラ1の位置および傾きに基づいて定められる。図7Aは視界領域23をX方向から見たYZ面図であり、図7Bは視界領域23をY方向から見たXZ面図である。 The visual field area determination unit 250 determines the visual field area 23 of the virtual camera 1 in the virtual space 2 (S120-5). As shown in FIG. 3, the visual field region 23 is a part of the virtual space image 22 that constitutes the user's visual field. The visual field area 23 is determined based on the reference line of sight 5, and the reference line of sight 5 is determined based on the position and tilt of the virtual camera 1. 7A is a YZ plane view of the visual field area 23 as viewed from the X direction, and FIG. 7B is an XZ plane view of the visual field area 23 as viewed from the Y direction.

視界領域23は、基準視線5と仮想空間画像22のYZ断面によって定義される範囲である第1領域24(図7A参照)と、基準視線5と仮想空間画像22のXZ断面によって定義される範囲である第2領域25(図7B参照)とを有する。第1領域24は、基準視線5を中心として極角αを含む範囲として設定される。第2領域25は、基準視線5を中心として方位角βを含む範囲として設定される。 The visual field region 23 is a first region 24 (see FIG. 7A) that is a range defined by the reference line of sight 5 and the YZ cross section of the virtual space image 22, and a range defined by the reference line of sight 5 and the XZ cross section of the virtual space image 22. And a second region 25 (see FIG. 7B). The first region 24 is set as a range including the polar angle α with the reference line of sight 5 as the center. The second region 25 is set as a range including the azimuth angle β with the reference line of sight 5 as the center.

視界画像生成部260は、視界領域23に基づいて視界画像26を生成する(S120−6)。視界画像は左目用と右目用の2つの2次元画像を含み、これらがディスプレイ112に重畳されることにより、3次元画像としての仮想空間2がユーザに提供されるものである。HMD110は、視界画像26に関する情報を制御回路部120から受信して、ディスプレイ112に視界画像26を表示させる(S110−2)。 The view image generation unit 260 generates the view image 26 based on the view region 23 (S120-6). The field-of-view image includes two two-dimensional images for the left eye and the right eye, and these are superimposed on the display 112, whereby the virtual space 2 as a three-dimensional image is provided to the user. The HMD 110 receives information about the view image 26 from the control circuit unit 120 and displays the view image 26 on the display 112 (S110-2).

図5、および、図8以降を参照して、ユーザに提供される仮想空間の具体例、および、当該仮想空間をユーザに提供するためのHMDシステム100の処理フローを説明する。図8,図9に示すように、本実施形態における仮想空間は、ランチャー空間LAUと、ランチャー空間LAUに関連付けられた第1仮想空間VR1および第2仮想空間VR2を含む。HMDシステム100を起動してHMD110を装着したユーザには、まずランチャー空間LAUが提供される。ランチャー空間LAUは、仮想空間画像生成部210、視界画像生成部260によって生成され、HMD110に出力される(S120−7)。   A specific example of a virtual space provided to the user and a processing flow of the HMD system 100 for providing the virtual space to the user will be described with reference to FIG. 5 and FIG. As shown in FIGS. 8 and 9, the virtual space in the present embodiment includes a launcher space LAU, and a first virtual space VR1 and a second virtual space VR2 associated with the launcher space LAU. A launcher space LAU is first provided to a user who activates the HMD system 100 and wears the HMD 110. The launcher space LAU is generated by the virtual space image generation unit 210 and the visual field image generation unit 260 and is output to the HMD 110 (S120-7).

ランチャー空間LAUには、第1仮想空間VR1を提供するためのアプリケーションAP1と、第2仮想空間VR2を提供するためのアプリケーションAP2が表示されている。ユーザはアプリケーションAP1,AP2に所定の操作(一定時間視線を送る、コントローラを操作する、など)を入力することにより、選択した仮想空間に移行することができる(S110−3)。ランチャー空間LAUには、後述する広告を表示する広告スペースADや、ダウンロード済の体験版コンテンツを表示するための体験版スペースTR1,TR2も表示されている。 In the launcher space LAU, an application AP1 for providing the first virtual space VR1 and an application AP2 for providing the second virtual space VR2 are displayed. The user can move to the selected virtual space by inputting a predetermined operation (such as sending a line of sight for a certain period of time or operating a controller) to the applications AP1 and AP2 (S110-3). In the launcher space LAU, an advertisement space AD for displaying advertisements to be described later and trial version spaces TR1 and TR2 for displaying downloaded trial version contents are also displayed.

第1仮想空間VR1の一例を図10に示す。アプリケーションAP1が選択されると、仮想空間画像生成部210は第1仮想空間VR1を構成する仮想空間画像22を生成する。また、オブジェクト制御部300の描画部350が、オブジェクト情報格納部360を参照して各種オブジェクトを生成し、第1仮想空間VR1内に描画して配置する(S120−8)。第1仮想空間VR1は、例えばライブステージといった興行を提供するコンテンツであり、第1仮想空間VR1内にステージS、ステージS上でパフォーマンスを提供するキャラクターC、各種広告OB1,OB2が配置されている。   An example of the first virtual space VR1 is shown in FIG. When the application AP1 is selected, the virtual space image generation unit 210 generates the virtual space image 22 constituting the first virtual space VR1. In addition, the drawing unit 350 of the object control unit 300 generates various objects with reference to the object information storage unit 360, and draws and arranges them in the first virtual space VR1 (S120-8). The first virtual space VR1 is a content providing entertainment such as a live stage, for example, and the stage S, the character C providing performance on the stage S, and various advertisements OB1 and OB2 are arranged in the first virtual space VR1. .

オブジェクト制御部300は、仮想空間における基準位置BPと、後述するようにユーザの注視時間が計測される対象となる対象オブジェクトとしての広告OB1,OB2が配置された位置(対象オブジェクト位置)を特定する(S120−9)。ユーザに第1仮想空間VR1が提供された直後の状態では、ユーザは第1仮想空間VR1の天球の中心に位置し、ユーザの視線方向である基準視線5が基準位置BPに向けられた状態(後述する基準方向BD)とされている。本実施形態では、基準方向BDに基づいて生成された視界画像26は、ステージSと、キャラクターCと、複数の第1広告(第1対象オブジェクト)を含むようにされている。以下では、視界画像26に含まれる広告を第1広告(第1オブジェクト)OB1と、視界画像26に含まれない広告を第2広告(第2オブジェクト)OB2と称することがある。   The object control unit 300 specifies a reference position BP in the virtual space and a position (target object position) where the advertisements OB1 and OB2 as target objects to be measured are measured as described later. (S120-9). In a state immediately after the first virtual space VR1 is provided to the user, the user is located at the center of the celestial sphere of the first virtual space VR1, and the reference visual line 5 that is the user's visual line direction is directed to the reference position BP ( Reference direction BD described later). In the present embodiment, the view image 26 generated based on the reference direction BD includes a stage S, a character C, and a plurality of first advertisements (first target objects). Hereinafter, the advertisement included in the view image 26 may be referred to as a first advertisement (first object) OB1, and the advertisement not included in the view image 26 may be referred to as a second advertisement (second object) OB2.

なお、第2仮想空間VR2も図10と同様のものであるため、以下ではその説明を省略する。概略的には、アプリケーションAP2が選択されると、仮想空間画像生成部210は第2仮想空間VR2を構成する仮想空間画像22を生成する。また、オブジェクト制御部300の描画部350が、オブジェクト情報格納部360を参照して各種オブジェクトを生成し、第2仮想空間VR2内に描画して配置する(S120−8)。第2仮想空間VR2内にも、ステージS、キャラクターC、複数の第2広告(第2対象オブジェクト)、視界画像26に含まれる第1広告(第1オブジェクト)OB1、視界画像26に含まれない第2広告(第2オブジェクト)OB2が配置されている。   Note that the second virtual space VR2 is also the same as that in FIG. Schematically, when the application AP2 is selected, the virtual space image generation unit 210 generates the virtual space image 22 constituting the second virtual space VR2. In addition, the drawing unit 350 of the object control unit 300 generates various objects with reference to the object information storage unit 360, and draws and arranges them in the second virtual space VR2 (S120-8). Also in the second virtual space VR2, the stage S, the character C, the plurality of second advertisements (second target objects), the first advertisement (first object) OB1 included in the view image 26, and the view image 26 are not included. A second advertisement (second object) OB2 is arranged.

ユーザはHMD110に位置や傾きの変動といった各種動きを入力することにより、第1仮想空間VR1内で自由に行動することができる(S110−4)。動きセンサ130がユーザの動きを検知すると、HMD動作検知部220はこれを受け付けて、ユーザの仮想空間における位置を特定する(S120−10)。動きセンサ130または注視センサ140がユーザの基準視線5の変動を検知すると、基準視線特定部240はこれを受け付けて、ユーザの仮想空間における視線方向を特定する(S120−11)。オブジェクト制御部300は、ユーザの仮想空間における位置と、基準視線特定部240からのユーザの基準視線5に基づいて、ユーザの浸染方向を特定する。そして、広告特定部310は、各種広告OB1,OB2の配置位置に関する情報に基づいて、視線方向がいずれかの広告OB1,OB2に向けられているか否かを判定する(S120−12)。広告特定部310は、いずれかの広告OB1,OB2に向けられたユーザの視線方向を注視方向GDとして特定する。そして、注視時間計測部320が、当該広告に基準視線を送っている時間である注視時間の計測を開始する(S120−13)。注視時間計測部320は、ユーザの視線方向が所定の広告を含む一定の範囲(当該広告を中心に含む円形や楕円形、多角形など)に向けられている場合には、ユーザが当該広告を注視しているものと見なして、注視時間を計測する。   The user can act freely in the first virtual space VR1 by inputting various movements such as a change in position and inclination to the HMD 110 (S110-4). When the motion sensor 130 detects the movement of the user, the HMD motion detection unit 220 receives this and specifies the position of the user in the virtual space (S120-10). When the motion sensor 130 or the gaze sensor 140 detects a change in the user's reference line of sight 5, the reference line-of-sight specifying unit 240 receives this and specifies the line-of-sight direction in the user's virtual space (S120-11). The object control unit 300 specifies the user's dyeing direction based on the position of the user in the virtual space and the user's reference line of sight 5 from the reference line-of-sight specifying unit 240. Then, the advertisement specifying unit 310 determines whether the line-of-sight direction is directed to any one of the advertisements OB1 and OB2 based on the information regarding the arrangement positions of the various advertisements OB1 and OB2 (S120-12). The advertisement specifying unit 310 specifies the user's line-of-sight direction directed to one of the advertisements OB1 and OB2 as the gaze direction GD. Then, the gaze time measuring unit 320 starts measuring the gaze time, which is the time during which the reference line of sight is sent to the advertisement (S120-13). When the user's gaze direction is directed to a certain range including a predetermined advertisement (a circle, an ellipse, a polygon, etc. including the advertisement), the gaze time measuring unit 320 displays the advertisement. The gaze time is measured assuming that the user is gazing.

上記のようなユーザ行動の履歴のうち、ユーザが所定の広告を注視した行動が、ユーザ行動記憶部370に記憶される。ユーザ行動記憶部370は、例えば図14に示すユーザ行動管理テーブルT1を含む。ユーザ行動管理テーブルT1は、ユーザがいずれのアプリケーション(仮想空間)において、いつ、いずれのオブジェクトを、仮想空間内におけるどの位置から注視したかといった情報の他、当該オブジェクトを注視した時間が記憶される。   Of the user behavior history as described above, the behavior in which the user gazes at a predetermined advertisement is stored in the user behavior storage unit 370. The user behavior storage unit 370 includes, for example, a user behavior management table T1 illustrated in FIG. The user behavior management table T1 stores information on when and in what application (virtual space) the user gazes at which object and from which position in the virtual space, and the time when the user gazes at the object. .

ここで、ユーザが所定の広告を注視した注視時間は、図11に示す処理フローに基づいて、調整済注視時間として記憶されても良い。図12Aは、ユーザから見た垂直面(YZ面)内における基準方向BD−Vおよび注視方向GD−Vを示す図である。図12Bは、ユーザから見た水平面(XZ面)内における基準方向BD−Hおよび注視方向GD−Hを示す図である。まず、上述したように、第1仮想空間VR1における基準位置BPとユーザの位置(仮想カメラ1の位置)に基づいて、基準方向BDを特定する(S120−14)。このとき、基準方向BDは、垂直面(YZ面)内における基準方向BD−Vと、水平面(XZ面)内における基準方向BD−Hが特定される。本実施形態では、コンテンツの主役となるキャラクターCがステージS上に配置されるため、ユーザの基準視線BD−Vはやや情報を向くように設定されている。また、第1仮想空間VR1における広告位置OB1とユーザの位置に基づいて、注視方向GDを特定する(S120−15)。このとき、注視方向GDは、垂直面(YZ面)内における注視方向GD−Vと、水平面(XZ面)内における注視方向GD−Hが特定される。   Here, the gaze time when the user gazes at the predetermined advertisement may be stored as the adjusted gaze time based on the processing flow shown in FIG. FIG. 12A is a diagram illustrating a reference direction BD-V and a gaze direction GD-V in a vertical plane (YZ plane) viewed from the user. FIG. 12B is a diagram illustrating a reference direction BD-H and a gaze direction GD-H in a horizontal plane (XZ plane) viewed from the user. First, as described above, the reference direction BD is specified based on the reference position BP in the first virtual space VR1 and the position of the user (the position of the virtual camera 1) (S120-14). At this time, the reference direction BD specifies the reference direction BD-V in the vertical plane (YZ plane) and the reference direction BD-H in the horizontal plane (XZ plane). In the present embodiment, since the character C as the leading role of the content is arranged on the stage S, the user's reference line of sight BD-V is set to face a little information. Further, the gaze direction GD is specified based on the advertisement position OB1 and the user position in the first virtual space VR1 (S120-15). At this time, the gaze direction GD specifies the gaze direction GD-V in the vertical plane (YZ plane) and the gaze direction GD-H in the horizontal plane (XZ plane).

次に、オブジェクト制御部300は、注視方向GDと基準方向BDのずれ量を求める(S120−16)。本実施形態では、垂直面内における注視方向GD−Vの基準方向BD−Vに対するずれ量(角度の差分)である第1ずれ量DV1と(S120−17)、水平面内における注視方向GD−Hの基準方向BD−Hに対するずれ量(角度の差分)である第2ずれ量DV2を求める(S120−18)。   Next, the object control unit 300 obtains a deviation amount between the gaze direction GD and the reference direction BD (S120-16). In the present embodiment, first shift amounts DV1 and (S120-17), which are shift amounts (angle differences) of the gaze direction GD-V with respect to the reference direction BD-V in the vertical plane, and the gaze direction GD-H in the horizontal plane. The second displacement amount DV2 that is the displacement amount (angle difference) with respect to the reference direction BD-H is obtained (S120-18).

そして、調整部330は、注視時間に第1ずれ量DV1(角度:ラジアン)および第2ずれ量DV2(角度:ラジアン)を加味して、調整済注視時間を算出する(S120−20)。   Then, the adjustment unit 330 calculates the adjusted gaze time by adding the first deviation amount DV1 (angle: radians) and the second deviation amount DV2 (angle: radians) to the gaze time (S120-20).

β1は第1ずれ量DV1を重みづけするための係数である。β2は第2ずれ量DV2を重みづけするための係数である。調整部330は、予めβ1およびβ2を所定値に設定する(S120−19)ことによって、よりユーザが自発的にしにくい行動をとってまである広告を注視したという行動履歴を重視して、注視時間を調整することができる。   β1 is a coefficient for weighting the first deviation amount DV1. β2 is a coefficient for weighting the second deviation amount DV2. The adjustment unit 330 sets β1 and β2 to predetermined values in advance (S120-19), thereby placing an emphasis on the action history that the user has watched an advertisement that has taken actions that are less likely to be spontaneous. Can be adjusted.

本実施形態では、第1ずれ量DV1に対する重みづけ係数β1が、第2ずれ量DV2に対する重みづけ係数β2より大きいことが好ましい。ユーザは、水平方向における頭部の動きより、垂直方向における頭部の動きに対して、よりストレスを感じることが推測される。このように、よりユーザが自発的にしにくい行動である、ユーザが垂直面内に視線を動かす行動を重視することにより、ユーザの関心に対して適時アプローチすることが可能となる。   In the present embodiment, it is preferable that the weighting coefficient β1 for the first deviation amount DV1 is larger than the weighting coefficient β2 for the second deviation amount DV2. It is estimated that the user feels more stress on the head movement in the vertical direction than the head movement in the horizontal direction. In this way, it is possible to approach the user's interests in a timely manner by placing importance on the behavior of the user moving his / her line of sight in the vertical plane, which is a behavior that is more difficult for the user to voluntarily.

DV1およびDV2は、−π以上π以下の値である。また、DV1およびDV2は累乗(2乗またはそれ以上の累乗)されて調整済注視時間の算出に適用される。これにより、ユーザが基準方向から遠くに視線を逸らしてまで広告を注視した行動をより重視して調整済注視時間を算出できる。調整済注視時間は、ユーザ行動記憶部370のユーザ行動管理テーブルT1に記憶される。 DV1 and DV2 are values of −π or more and π or less. Further, DV1 and DV2 are raised to the power (square or higher) and applied to the calculation of the adjusted gaze time. As a result, the adjusted gaze time can be calculated with a greater emphasis on the action of the user gazing at the advertisement until the user turns away from the reference direction. The adjusted gaze time is stored in the user behavior management table T1 of the user behavior storage unit 370.

判定部340は、調整済注視時間が所定の閾値を超えたか否かを判定する(S120−21)。本実施形態では、調整済注視時間が5秒以上である場合にユーザが当該広告に関心を示したものと解釈することとし、閾値を5秒と設定する。調整済注視時間が所定の閾値を超えた場合には、ユーザが当該広告を注視したものとして受け付ける(S120−22)。   The determination unit 340 determines whether or not the adjusted gaze time has exceeded a predetermined threshold (S120-21). In this embodiment, when the adjusted gaze time is 5 seconds or more, the user interprets that the user has shown interest in the advertisement, and the threshold is set to 5 seconds. If the adjusted gaze time exceeds a predetermined threshold, it is accepted that the user gazes at the advertisement (S120-22).

図13A,図13Bは、ユーザが広告を注視したものとして受け付けられた場合の処理の一例を示す。図13Aは、受け付けられる前の状態を示す。図13Bは、受け付けられた後の状態を示す。受け付けられる前の状態では、視界領域23内の広告OB1には、3種類の広告A,B,Cが表示されている。ユーザの広告Aが表示された広告OB1に対する注視が受け付けられると、描画部350は、広告Bが表示された広告OB1の表示を、広告Aに関連する広告A−1に変化させるとともに、広告Cが表示された広告OB1の表示を、広告Aに関連する広告A−2に変化させる。これにより、ユーザが所定のオブジェクトを注視した場合に、ユーザの視野内にある他のオブジェクトを、注視したオブジェクトに関連するように変化させる。これにより、ユーザの関心に対して適時アプローチすることが可能となる。   FIG. 13A and FIG. 13B show an example of processing when the user is accepted as having watched the advertisement. FIG. 13A shows a state before being accepted. FIG. 13B shows the state after being accepted. In a state before being accepted, three types of advertisements A, B, and C are displayed in the advertisement OB1 in the view field area 23. When the user's gaze on the advertisement OB1 on which the advertisement A is displayed is received, the drawing unit 350 changes the display of the advertisement OB1 on which the advertisement B is displayed to the advertisement A-1 related to the advertisement A and the advertisement C The display of the advertisement OB1 on which is displayed is changed to the advertisement A-2 related to the advertisement A. Thereby, when a user gazes at a predetermined object, other objects in the user's field of view are changed so as to relate to the gaze object. This makes it possible to approach the user's interest in a timely manner.

このように第1仮想空間VR1において所定の広告に対する調整済注視時間が特定された状態で(S120−23)、ユーザからHMD110に対し、第1仮想空間VR1を終了する指示が入力された場合(S110−5)を図15に示す。この場合、判定部340がユーザ行動記憶部370を参照し、各広告の優先度を特定する(S120−24)。広告の優先度は調整済注視時間の合計値によって特定され、図14に示すように、第1仮想空間VR1を終了した時点における広告の優先度は、A−2>A>A−1と特定される。   As described above, when the adjusted gaze time for the predetermined advertisement is specified in the first virtual space VR1 (S120-23), an instruction to end the first virtual space VR1 is input from the user to the HMD 110 ( S110-5) is shown in FIG. In this case, the determination unit 340 refers to the user behavior storage unit 370 and specifies the priority of each advertisement (S120-24). The priority of the advertisement is specified by the total value of the adjusted gaze time. As shown in FIG. 14, the priority of the advertisement at the time when the first virtual space VR1 is finished is specified as A-2> A> A-1. Is done.

判定部340は広告の優先度に関する情報を視界画像生成部260に送信する。視界画像生成部260は、当該情報に基づいて、図16に示すようなランチャー空間LAUを生成し、HMD110に出力する(S120−25)。ランチャー空間LAUの広告スペースADには、複数の広告が優先度に応じて配置される。最も優先度が高いと判定された広告A−2は、大きく表示されたり、何らかの強調が施されて表示されても良い。   The determination unit 340 transmits information regarding the priority of the advertisement to the view image generation unit 260. The field-of-view image generation unit 260 generates a launcher space LAU as shown in FIG. 16 based on the information and outputs it to the HMD 110 (S120-25). In the advertisement space AD of the launcher space LAU, a plurality of advertisements are arranged according to priority. The advertisement A-2 determined to have the highest priority may be displayed larger or displayed with some emphasis.

続いて、ユーザが第2仮想空間VR2を起動させるアプリケーションAP2を選択すると、HMD110には第2仮想空間VR2が提供される(S110−6)。第2仮想空間VR2においても、第1仮想空間VR1と同様の処理フローによって、広告に対するユーザの注視時間(調整済注視時間)が特定される(S120−26)。   Subsequently, when the user selects the application AP2 that activates the second virtual space VR2, the second virtual space VR2 is provided to the HMD 110 (S110-6). Also in the second virtual space VR2, the user's gaze time (adjusted gaze time) for the advertisement is specified by the same processing flow as in the first virtual space VR1 (S120-26).

ユーザがHMD110の使用を終了すると(S110−7)、判定部340は、合計注視時間としての合計調整済注視時間を特定する(S120−27)。合計調整済注視時間は、図17に示す優先度管理テーブルT2に管理されている。優先度管理テーブルT2は、ユーザ行動記憶部370に記憶されている。   When the user finishes using the HMD 110 (S110-7), the determination unit 340 specifies the total adjusted gaze time as the total gaze time (S120-27). The total adjusted gaze time is managed in the priority management table T2 shown in FIG. The priority management table T2 is stored in the user behavior storage unit 370.

優先度管理テーブルT2は、ユーザ行動管理テーブルT1に基づいて、広告毎の調整済注視時間の合計値を算出する。本実施形態では、ユーザ行動管理テーブルT1に示すように、ユーザは第1仮想空間VR1および第2仮想空間VR2において、広告A−2を注視している。その際、ユーザは異なるユーザ位置から広告A−2を注視していることから、ユーザの視線方向を加味した調整済注視時間を合計することによって、HMD装着中におけるユーザの関心をより正確に求めることができる。従って、優先度管理テーブルT2においては、調整済注視時間の合計値が管理されている。   The priority management table T2 calculates the total value of adjusted gaze times for each advertisement based on the user behavior management table T1. In the present embodiment, as shown in the user behavior management table T1, the user is watching the advertisement A-2 in the first virtual space VR1 and the second virtual space VR2. At that time, since the user is gazing at the advertisement A-2 from different user positions, the user's interest during wearing of the HMD is obtained more accurately by adding the adjusted gazing time taking into account the user's line-of-sight direction. be able to. Therefore, in the priority management table T2, the total value of the adjusted gaze time is managed.

判定部340は、合計調整済注視時間に基づいて、各広告の優先度を設定する。即ち、合計調整済注視時間が長い順に、高い優先度が付与される。このとき、閾値である5秒を超過していない広告A−1は、優先度の設定対象から除外される。   The determination unit 340 sets the priority of each advertisement based on the total adjusted gaze time. That is, the higher priority is given in the order of the longer the total adjusted gaze time. At this time, the advertisement A-1 that does not exceed the threshold value of 5 seconds is excluded from the priority setting targets.

また、判定部340は、優先度が設定された各広告に関連する拡張コンテンツとしての体験版コンテンツの有無を判定する。本実施形態では、ランチャー空間LAUに2つの体験版スペースTR1,TR2が設定されているから、体験版コンテンツを有する広告のうち、上位2つの広告が特定される(広告B,B−1)。体験版コンテンツが特定されると、判定部340は通信制御部400に対して、当該体験版コンテンツをダウンロードするためのダウンロード要求を出力するよう指示する。通信制御部410は、当該指示と、HMD110からユーザがHMDの使用を終了したことを通知する情報を受信すると、通信処理部420に対してダウンロード要求を出力するよう指示する。通信処理部420はネットワーク150を介して外部サーバ160に接続し、体験版コンテンツのダウンロード要求を送信する。外部サーバ160は当該ダウンロード要求に基づいて、体験版コンテンツをネットワーク150を介して通信処理部420に送信する。 In addition, the determination unit 340 determines whether or not there is a trial version content as extended content related to each advertisement for which priority is set. In the present embodiment, since the two trial version spaces TR1 and TR2 are set in the launcher space LAU, the top two advertisements among the advertisements having the trial version contents are specified (ads B and B-1). When the trial version content is specified, the determination unit 340 instructs the communication control unit 400 to output a download request for downloading the trial version content. When receiving the instruction and information notifying that the user has finished using the HMD from the HMD 110, the communication control unit 410 instructs the communication processing unit 420 to output a download request. The communication processing unit 420 connects to the external server 160 via the network 150 and transmits a trial content download request. The external server 160 transmits the trial version content to the communication processing unit 420 via the network 150 based on the download request.

このように、本実施形態では広告に関連する拡張コンテンツ(例えば、ゲームの体験版。)を、ユーザがHMD110を使用していない時にダウンロードしておくことができる。これにより、HMD110使用中のユーザに通信状況が悪化する等の違和感を与えること無く、拡張コンテンツを提供することができる。 As described above, in this embodiment, the extended content related to the advertisement (for example, a trial version of the game) can be downloaded when the user is not using the HMD 110. As a result, the extended content can be provided without giving the user who is using the HMD 110 a sense of incongruity such as deterioration of the communication status.

ユーザがHMD110の使用を再開すると、制御回路部120はダウンロード済の体験版コンテンツを特定する(S120−30)。本実施形態では、広告Bおよび広告B−1に関する体験版コンテンツのダウンロードが完了しているか否かを判定し、完了している場合にはダウンロード済の体験版コンテンツとして特定する。そして、前述と同様に優先度管理テーブルT2を参照して、ユーザの前回のHMD110使用時に設定された各広告の優先度を特定する(S120−31)。その後、視界画像生成部260は、図18に示すランチャー空間LAUを生成して、HMD110に出力する(S120−32)。ランチャー空間LAUの広告スペースADには優先度5までの広告が、上から順に配置されている。また、最も優先度の高い広告Bが大きく強調表示されている。また、体験版スペースTR1,TR2には、広告Bおよび広告B−1に関連する体験版コンテンツが配置される。   When the user resumes using the HMD 110, the control circuit unit 120 specifies the downloaded trial version content (S120-30). In the present embodiment, it is determined whether or not the download of the trial version content regarding the advertisement B and the advertisement B-1 is completed, and when the download is completed, the trial version content is specified. Then, similarly to the above, the priority management table T2 is referred to, and the priority of each advertisement set when the user uses the previous HMD 110 is specified (S120-31). Thereafter, the field-of-view image generation unit 260 generates the launcher space LAU shown in FIG. 18 and outputs it to the HMD 110 (S120-32). In the advertisement space AD of the launcher space LAU, advertisements up to priority 5 are arranged in order from the top. Further, the advertisement B having the highest priority is greatly highlighted. In addition, the trial version contents related to the advertisement B and the advertisement B-1 are arranged in the trial version spaces TR1 and TR2.

ユーザは、第1仮想空間VR1,第2体験版コンテンツVR2、体験版スペースTR1,TR2に配置された体験版コンテンツのいずれかを選択肢、対応する仮想空間を楽しむことができる。また、広告を選択することにより、それに関する情報を他の情報端末(パソコン、スマートフォン等)に送信するように、指示することもできる。   The user can select any one of the first virtual space VR1, the second trial version content VR2, and the trial version content arranged in the trial version spaces TR1 and TR2 and enjoy the corresponding virtual space. Moreover, it can also instruct | indicate so that the information regarding it may be transmitted to other information terminals (a personal computer, a smart phone, etc.) by selecting an advertisement.

なお、一度HMD110を非装着とした場合には、その後に没入した仮想空間において広告を注視したとしても、前回HMD110を装着した際に広告を注視した時間に合算しないことが好ましい。即ち、広告を注視した時間を合算する処理は、一度のHMD110装着時間内に限って行われることが好ましい。これにより、ユーザの関心を一定の長期間にわたって平均化することなく、一時的なユーザの関心の高まりに対しても適時アプローチすることが可能なコンテンツ提供手段を提供し得る。   Note that once the HMD 110 is not attached, it is preferable not to add up to the time when the advertisement was watched when the HMD 110 was attached last time, even if the advertisement is watched in a virtual space that has been immersed thereafter. That is, it is preferable that the process of adding the time when the advertisement is watched is performed only within one HMD 110 wearing time. Accordingly, it is possible to provide a content providing means capable of approaching the user's interest in a timely manner without averaging the user's interest over a certain long period of time.

また、図20,図21に示すように、上記のようにしてユーザの仮想空間において対象オブジェクトに対してとった行動の履歴(注視時間の測定・調整)に基づいて、対象オブジェクトの優先度を特定した後に、当該対象オブジェクトに関する情報を含む配信コンテンツを、HMDとは異なるデバイス170に出力することとしてもよい。図20はデバイス170を含むHMDシステム100を説明するための図である。デバイス170は、ネットワーク150や各種ケーブルを介して制御回路部120と通信可能なデバイスである。デバイス170は、例えば、スマートフォン、PDA、タブレット型コンピュータ、ゲーム用コンソール、ノートPCを適用可能であり、互いにバス接続されたCPU、主記憶、補助記憶、送受信部、表示部(タッチパネル180)、および入力部を備える任意の携帯型デバイスとすることができる。デバイス170は、制御回路部120の通信制御部400と通信可能に接続され、各種コンテンツを含む配信コンテンツを受信し、表示部に表示させる。これにより、ユーザが仮想空間において興味を示した対象オブジェクトに関連するコンテンツを、当該仮想空間外で閲覧可能なデバイス170に送信することにより、仮想空間に対するユーザの没入感を損なうことなく、ユーザに各種コンテンツを提供できる。   Further, as shown in FIGS. 20 and 21, the priority of the target object is determined based on the history of actions taken on the target object in the user's virtual space (measurement / adjustment of gaze time) as described above. After the identification, the distribution content including information on the target object may be output to the device 170 different from the HMD. FIG. 20 is a diagram for explaining the HMD system 100 including the device 170. The device 170 is a device that can communicate with the control circuit unit 120 via the network 150 and various cables. For example, a smartphone, a PDA, a tablet computer, a game console, and a notebook PC can be applied to the device 170, and a CPU, a main memory, an auxiliary memory, a transmission / reception unit, a display unit (touch panel 180), and a display unit (touch panel 180), and Any portable device including an input unit can be provided. The device 170 is communicably connected to the communication control unit 400 of the control circuit unit 120, receives distribution content including various contents, and causes the display unit to display the distribution content. Accordingly, the content related to the target object that the user has shown interest in the virtual space is transmitted to the device 170 that can be browsed outside the virtual space, so that the user's immersion in the virtual space is not impaired. Various contents can be provided.

図21は、デバイス170に出力される配信コンテンツCONの一例を示す。配信コンテンツCONは、事前に登録されたユーザのメールアドレスや、事前にインストールされた専用アプリケーションに対して、プッシュ配信されることにより、デバイス170に出力される。配信コンテンツCONは、対象オブジェクトとしての広告ADと、第1リンクLNと、第2リンクTRを含む。広告スペースADには、ユーザの仮想空間における行動履歴によって設定された、図17に示す優先度管理テーブルT2において管理される優先度に基づいて、上から順に当該対象オブジェクトに関連する画像が配置される。また、最も優先度の高い広告Bが強調表示されている。 FIG. 21 shows an example of the distribution content CON output to the device 170. The distribution content CON is output to the device 170 by being push-distributed to a user's email address registered in advance or a dedicated application installed in advance. The distribution content CON includes an advertisement AD as a target object, a first link LN, and a second link TR. In the advertisement space AD, images related to the target object are arranged in order from the top, based on the priority set in the priority management table T2 shown in FIG. 17 set by the action history of the user in the virtual space. The Further, the advertisement B having the highest priority is highlighted.

第1リンクは、当該広告ADに関する詳細情報を表示させるものである。第1リンクは、ユーザのタッチ操作等を受け付けた場合に、デバイス170の表示部に広告ADに関する詳細情報を表示させるためのURLが関連付けられている。第2リンクは、HMD110に出力される体験版コンテンツを制御回路部120にダウンロードさせるためのURLが関連付けられている。第2リンクは、タッチ操作等を受け付けると、制御回路部120の通信制御部400に対し、当該URLから体験版コンテンツをダウンロードするようにダウンロード要求を出力させる。制御回路部120は、ネットワーク150を介して、外部サーバ160から体験版コンテンツをダウンロードする。これにより、ユーザはHMD110を使用していない時にも、HMD110で実行される広告や体験版等のコンテンツをダウンロードしておくことができる。 The first link displays detailed information regarding the advertisement AD. The first link is associated with a URL for displaying detailed information related to the advertisement AD on the display unit of the device 170 when a user's touch operation or the like is received. The second link is associated with a URL for causing the control circuit unit 120 to download the trial version content output to the HMD 110. When receiving the touch operation or the like, the second link causes the communication control unit 400 of the control circuit unit 120 to output a download request so as to download the trial version content from the URL. The control circuit unit 120 downloads the trial version content from the external server 160 via the network 150. Thereby, even when the user is not using the HMD 110, the user can download contents such as advertisements and trial versions executed by the HMD 110.

なお、制御回路部120は、ユーザがHMD110を装着しているか否かを判定し、装着されていない場合には、体験版コンテンツのダウンロード要求を出力することが好ましい。これにより、HMD110使用中のユーザに通信状況が悪化する等の違和感を与えること無く、体験版コンテンツを取得することができる。   It is preferable that the control circuit unit 120 determines whether or not the user is wearing the HMD 110, and if not, outputs a download request for the trial version content. Thereby, it is possible to acquire the trial version content without giving the user who is using the HMD 110 a sense of incongruity such as deterioration of the communication status.

以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. Those skilled in the art will appreciate that various modifications of the embodiments can be made without departing from the spirit and scope of the invention as set forth in the appended claims.

例えば、上述の実施形態においては、調整済注視時間に基づいてコンテンツの優先度を判定したが、調整前の注視時間に基づいて優先度を判定しても良い。   For example, in the above-described embodiment, the priority of the content is determined based on the adjusted gaze time. However, the priority may be determined based on the gaze time before adjustment.

また、上述の実施形態においては、互いに関連するコンテンツである広告A,A−1,A−2を、注視時間または合計調整済注視時間を算定するに当たっては関連しないものとして取り扱ったが、これらを関連するものとして取り扱っても良い。例えば、広告A,A−1,A−2の注視時間または調整済注視時間を合計して、広告A,A−1,A−2を一体として優先度を判定してもよい。この場合、広告A,A−1,A−2の優先度が高いと判定された場合には、広告A,A−1,A−2に関連する全ての広告、および、拡張コンテンツを、ランチャー空間LAUに表示することとしてもよい。 In the above-described embodiment, the advertisements A, A-1, and A-2, which are contents related to each other, are treated as not relevant in calculating the gaze time or the total adjusted gaze time. It may be handled as related. For example, the gaze time or adjusted gaze time of the advertisements A, A-1, and A-2 may be summed, and the priority may be determined by integrating the advertisements A, A-1, and A-2. In this case, when it is determined that the priority of the advertisements A, A-1, and A-2 is high, all the advertisements related to the advertisements A, A-1, and A-2 and the extended content are displayed as launchers. It is good also as displaying on space LAU.

100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、120…制御回路部、130…動きセンサ、132…検知部、140…注視センサ、200…表示制御部、300…オブジェクト制御部、400・・・通信制御部、1…仮想カメラ、2…仮想空間、5…基準視線、22…仮想空間画像、23…視界領域、26…視界画像、BP…基準点、BD…基準方向、GD…注視方向、CON…配信コンテンツ、AD…広告スペース、LN…第1リンク、TR…第2リンク。   DESCRIPTION OF SYMBOLS 100 ... Head mounted display (HMD) system, 110 ... HMD, 112 ... Display, 114 ... Sensor part, 120 ... Control circuit part, 130 ... Motion sensor, 132 ... Detection part, 140 ... Gaze sensor, 200 ... Display control part, DESCRIPTION OF SYMBOLS 300 ... Object control part, 400 ... Communication control part, 1 ... Virtual camera, 2 ... Virtual space, 5 ... Reference line of sight, 22 ... Virtual space image, 23 ... View field area, 26 ... View field image, BP ... Reference point, BD ... reference direction, GD ... gaze direction, CON ... distributed content, AD ... advertisement space, LN ... first link, TR ... second link.

Claims (8)

コンピュータに、
ユーザが没入する仮想空間、および、前記仮想空間に複数の対象オブジェクトを生成して、ヘッドマウントディスプレイに出力するステップと、
前記対象オブジェクトに対して、前記ユーザが前記仮想空間内においてとった行動の履歴を検出するステップと、
前記履歴に基づいて、複数の前記対象オブジェクトの優先度を特定するステップと、
前記対象オブジェクトに関する情報が前記優先度に基づいて配置される配信コンテンツを生成するステップと、
前記配信コンテンツを、前記ヘッドマウントディスプレイとは異なるデバイスに出力するステップと、
を実行させるプログラム。
On the computer,
A virtual space in which the user is immersed, and a step of generating a plurality of target objects in the virtual space and outputting them to a head mounted display;
Detecting a history of actions taken by the user in the virtual space for the target object;
Identifying priorities of the plurality of target objects based on the history;
Generating distribution content in which information about the target object is arranged based on the priority;
Outputting the delivery content to a device different from the head mounted display;
A program that executes
前記配信コンテンツは、
前記デバイスに前記対象オブジェクトに関する詳細情報を表示させる第1リンクと、
前記ヘッドマウントディスプレイに出力される前記対象オブジェクトに関連する拡張コンテンツをダウンロードさせる第2リンクを含む、
請求項1のプログラム。
The distribution content is:
A first link that causes the device to display detailed information about the target object;
Including a second link for downloading the extended content related to the target object output to the head mounted display;
The program of claim 1.
前記第2リンクに入力されたユーザ指示を受け付けるステップと、
前記ヘッドマウントディスプレイがユーザに装着されているかを判定するステップと、
前記ヘッドマウントディスプレイがユーザに装着されていない場合には、前記拡張コンテンツをダウンロードするためのダウンロード要求を出力する、
請求項2のプログラム。
Receiving a user instruction input to the second link;
Determining whether the head mounted display is worn by a user;
When the head mounted display is not worn by the user, a download request for downloading the extended content is output.
The program according to claim 2.
前記仮想空間は、第1仮想空間および第2仮想空間を含み、
前記対象オブジェクトは、前記第1仮想空間に表示される第1対象オブジェクトと、前記第2仮想空間に表示され、前記第1対象オブジェクトと関連する第2対象オブジェクトを含み、
前記履歴は、前記ユーザが前記第1対象オブジェクトおよび前記第2対象オブジェクトを注視した時間を合算した合計注視時間である、
請求項1〜3のいずれかのプログラム。
The virtual space includes a first virtual space and a second virtual space;
The target object includes a first target object displayed in the first virtual space and a second target object displayed in the second virtual space and related to the first target object,
The history is a total gaze time obtained by adding up times when the user gazes at the first target object and the second target object.
The program in any one of Claims 1-3.
前記コンピュータに、
前記仮想空間における基準位置、および、前記対象オブジェクトが配置された対象オブジェクト位置を定義するステップと、
前記基準位置に対する前記ユーザの視線方向である基準方向を定義するステップと、
前記対象オブジェクトに対する前記ユーザの視線方向である注視方向を特定するステップと、
前記ユーザが前記対象オブジェクトを注視した注視時間を特定するステップと、
前記注視時間と、前記注視方向と、前記基準方向に基づいて、調整済注視時間を特定するステップと、をさらに実行させ、
前記履歴は、前記調整済注視時間である、請求項1〜4のいずれかのプログラム。
In the computer,
Defining a reference position in the virtual space and a target object position where the target object is arranged;
Defining a reference direction that is the line-of-sight direction of the user with respect to the reference position;
Identifying a gaze direction that is a gaze direction of the user with respect to the target object;
Identifying a gaze time when the user gazes at the target object;
Further executing the step of identifying an adjusted gaze time based on the gaze time, the gaze direction, and the reference direction;
The program according to claim 1, wherein the history is the adjusted gaze time.
前記調整済注視時間は、前記注視時間を、前記注視方向の前記基準方向に対するずれ量に基づいて調整することによって算出される、請求項5のプログラム。 The program according to claim 5, wherein the adjusted gaze time is calculated by adjusting the gaze time based on a shift amount of the gaze direction with respect to the reference direction. 前記ずれ量は、垂直面内における前記注視方向の前記基準方向に対するずれ量である第1ずれ量と、前記垂直面に直交する水平面内における前記注視方向の前記基準方向に対するずれ量である第2ずれ量を含み、
前記第1ずれ量と前記第2ずれ量に所定の重みづけを付与して前記調整済注視時間を算出する、請求項6のプログラム。
The shift amount is a first shift amount that is a shift amount of the gaze direction with respect to the reference direction in a vertical plane, and a second shift amount that is a shift amount of the gaze direction with respect to the reference direction in a horizontal plane perpendicular to the vertical plane. Including displacement
The program according to claim 6, wherein the adjusted gaze time is calculated by assigning a predetermined weight to the first deviation amount and the second deviation amount.
前記重みづけは、前記第1ずれ量に対して大きく付与される、請求項7のプログラム。



The program according to claim 7, wherein the weighting is largely applied to the first shift amount.



JP2015161247A 2015-08-18 2015-08-18 Head mounted display system control program, computer and method Active JP6433862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015161247A JP6433862B2 (en) 2015-08-18 2015-08-18 Head mounted display system control program, computer and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015161247A JP6433862B2 (en) 2015-08-18 2015-08-18 Head mounted display system control program, computer and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018209360A Division JP2019021347A (en) 2018-11-07 2018-11-07 Head-mounted display system control program

Publications (2)

Publication Number Publication Date
JP2017041019A true JP2017041019A (en) 2017-02-23
JP6433862B2 JP6433862B2 (en) 2018-12-05

Family

ID=58203471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015161247A Active JP6433862B2 (en) 2015-08-18 2015-08-18 Head mounted display system control program, computer and method

Country Status (1)

Country Link
JP (1) JP6433862B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037755A (en) * 2016-08-30 2018-03-08 株式会社アルファコード Information provide system regarding target object and information provision method
JP2020027390A (en) * 2018-08-10 2020-02-20 日本電信電話株式会社 Attention object estimation device and attention object estimation method
JP2022075669A (en) * 2018-11-28 2022-05-18 株式会社コロプラ Program, information processing device, and method
US11678047B2 (en) 2019-02-19 2023-06-13 Samsung Electronics Co., Ltd. Electronic device and method providing content associated with image to application

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651901A (en) * 1992-06-29 1994-02-25 Nri & Ncc Co Ltd Communication equipment for glance recognition
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device
JP2012022589A (en) * 2010-07-16 2012-02-02 Hitachi Ltd Method of supporting selection of commodity
JP2012098410A (en) * 2010-10-29 2012-05-24 Brother Ind Ltd Learning apparatus, learning program, and learning system
WO2014054210A2 (en) * 2012-10-01 2014-04-10 Sony Corporation Information processing device, display control method, and program
JP2015087824A (en) * 2013-10-28 2015-05-07 オムロン株式会社 Screen operation device and screen operation method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651901A (en) * 1992-06-29 1994-02-25 Nri & Ncc Co Ltd Communication equipment for glance recognition
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device
JP2012022589A (en) * 2010-07-16 2012-02-02 Hitachi Ltd Method of supporting selection of commodity
JP2012098410A (en) * 2010-10-29 2012-05-24 Brother Ind Ltd Learning apparatus, learning program, and learning system
WO2014054210A2 (en) * 2012-10-01 2014-04-10 Sony Corporation Information processing device, display control method, and program
JP2014071811A (en) * 2012-10-01 2014-04-21 Sony Corp Information processing device, display control method, and program
JP2015087824A (en) * 2013-10-28 2015-05-07 オムロン株式会社 Screen operation device and screen operation method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037755A (en) * 2016-08-30 2018-03-08 株式会社アルファコード Information provide system regarding target object and information provision method
EP3493553A4 (en) * 2016-08-30 2019-06-05 Alpha Code Inc. Attention object-related information providing system and information providing method
US10452917B2 (en) 2016-08-30 2019-10-22 Alpha Code Inc. Attention object-related information providing system and information providing method
JP2020027390A (en) * 2018-08-10 2020-02-20 日本電信電話株式会社 Attention object estimation device and attention object estimation method
US11436751B2 (en) 2018-08-10 2022-09-06 Nippon Telegraph And Telephone Corporation Attention target estimating device, and attention target estimating method
JP2022075669A (en) * 2018-11-28 2022-05-18 株式会社コロプラ Program, information processing device, and method
JP7278442B2 (en) 2018-11-28 2023-05-19 株式会社コロプラ Program, Information Processing Apparatus, and Method
US11678047B2 (en) 2019-02-19 2023-06-13 Samsung Electronics Co., Ltd. Electronic device and method providing content associated with image to application

Also Published As

Publication number Publication date
JP6433862B2 (en) 2018-12-05

Similar Documents

Publication Publication Date Title
JP5961736B1 (en) Method and program for controlling head mounted display system
JP6058184B1 (en) Method and program for controlling head mounted display system
JP6002286B1 (en) Head mounted display control method and head mounted display control program
JP6342038B1 (en) Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
JP5996814B1 (en) Method and program for providing image of virtual space to head mounted display
JP6203369B1 (en) Information processing method and program for causing computer to execute information processing method
CN104380347A (en) Video processing device, video processing method, and video processing system
WO2017033777A1 (en) Program for controlling head-mounted display system
JP6433862B2 (en) Head mounted display system control program, computer and method
JP2017045294A (en) Program for controlling head-mounted display system
US10438418B2 (en) Information processing method for displaying a virtual screen and system for executing the information processing method
JP6275891B1 (en) Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP2018128966A (en) Method for presenting virtual space, program for causing computer to execute the same method, and information processing device for executing the same program
JP2017021824A (en) Head-mounted display control method and head-mounted display control program
JP2019125215A (en) Information processing apparatus, information processing method, and recording medium
JP2017045296A (en) Program for controlling head-mounted display system
JP6598575B2 (en) Method and program for controlling head mounted display system
JP2019021347A (en) Head-mounted display system control program
JP2023095862A (en) Program and information processing method
JP2018097847A (en) Information processing method, and program for causing computer to execute the information processing method
JP6999538B2 (en) Information processing methods, information processing programs, information processing systems, and information processing equipment
JP2017041229A (en) Method and program for controlling head-mounted display system
JP2017049738A (en) Program for controlling head-mounted display system
JP2017033465A (en) Method and program
JP2018156675A (en) Method for presenting virtual space, program for causing computer to execute the same method, and information processing device for executing the same program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180424

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181107

R150 Certificate of patent or registration of utility model

Ref document number: 6433862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250