JP6722316B1 - Distribution program, distribution method, computer, and viewing terminal - Google Patents

Distribution program, distribution method, computer, and viewing terminal Download PDF

Info

Publication number
JP6722316B1
JP6722316B1 JP2019039980A JP2019039980A JP6722316B1 JP 6722316 B1 JP6722316 B1 JP 6722316B1 JP 2019039980 A JP2019039980 A JP 2019039980A JP 2019039980 A JP2019039980 A JP 2019039980A JP 6722316 B1 JP6722316 B1 JP 6722316B1
Authority
JP
Japan
Prior art keywords
game
item
hmd
computer
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019039980A
Other languages
Japanese (ja)
Other versions
JP2020141813A (en
Inventor
功淳 馬場
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2019039980A priority Critical patent/JP6722316B1/en
Priority to JP2020104342A priority patent/JP7299197B2/en
Application granted granted Critical
Publication of JP6722316B1 publication Critical patent/JP6722316B1/en
Publication of JP2020141813A publication Critical patent/JP2020141813A/en
Priority to JP2023098381A priority patent/JP2023126796A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】アイテムの投入などの応援を視聴者に対して喚起することができる配信プログラム、配信方法、配信サーバおよび視聴端末を提供する。【解決手段】コンピュータは、所定の達成条件を成立させることによりクリアとなるゲームのゲームプレイ映像をユーザ端末において表示可能とするためのデータを配信する。このとき、コンピュータは、ゲームプレイ映像を表示しているユーザ端末の数、即ち視聴者数を特定し、当該視聴数に応じて、当該達成条件を成立させる難易度を調整する。【選択図】図21PROBLEM TO BE SOLVED: To provide a distribution program, a distribution method, a distribution server, and a viewing terminal capable of inviting a viewer to support such as the insertion of an item. A computer delivers data for enabling display of a game play image of a game that is cleared by satisfying a predetermined achievement condition on a user terminal. At this time, the computer specifies the number of user terminals displaying the game play video, that is, the number of viewers, and adjusts the degree of difficulty for satisfying the achievement condition in accordance with the number of viewers. [Selection diagram] Fig. 21

Description

本発明は、配信プログラム、配信方法、コンピュータ、および視聴端末に関する。 The present invention relates to a distribution program, a distribution method, a computer, and a viewing terminal.

特許文献1には、ライブ動画を視聴端末に配信する情報処理システムが記載されている。 Patent Document 1 describes an information processing system that delivers a live video to a viewing terminal.

特開2012−120098号公報JP 2012-120098 A

しかしながら、上述の従来技術には、コンテンツに対する視聴者の好趣性をより高めることができる余地がある。 However, the above-described conventional technique has room for increasing the viewer's preference for the content.

本発明は、かかる実情に鑑み考え出されたものであり、その目的は、コンテンツに対する視聴者の好趣性をより高めることができる、配信プログラム、配信方法、コンピュータ、および視聴端末を提供することである。 The present invention has been conceived in view of the above circumstances, and an object thereof is to provide a distribution program, a distribution method, a computer, and a viewing terminal that can further enhance the viewer's preference for content. Is.

本開示に示す一実施形態のある局面によれば、プロセッサおよびメモリを備え、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末において表示可能とするためのデータを配信するコンピュータにより実行される配信プログラムが提供される。配信プログラムは、プロセッサに、ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップと、当該視聴数に応じて、所定条件を成立させる難易度を調整するステップとを実行させる。 According to an aspect of an embodiment shown in the present disclosure, a computer including a processor and a memory, which distributes data for enabling display of a game play video of a game that is cleared by satisfying a predetermined condition on a viewing terminal. A distribution program executed by is provided. The distribution program causes the processor to execute a step of specifying the number of views of the viewing terminal displaying the game play video, and a step of adjusting the difficulty level for satisfying a predetermined condition according to the number of views.

一実施形態のある局面によれば、プロセッサおよびメモリを備え、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末において表示可能とするためのデータを配信するコンピュータにより実行される配信方法が提供される。配信方法は、コンピュータが、ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップと、当該視聴数に応じて、所定条件を成立させる難易度を調整するステップとを備える。 According to an aspect of one embodiment, executed by a computer that includes a processor and a memory, and that distributes data for enabling display of a game play video of a game that is cleared by satisfying a predetermined condition on a viewing terminal. Delivery methods are provided. The distribution method includes a step of causing the computer to specify the number of views of the viewing terminal displaying the game play video, and a step of adjusting the difficulty level for satisfying a predetermined condition according to the number of views.

一実施形態のある局面によれば、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末において表示可能とするためのデータを配信するコンピュータが提供される。コンピュータは、配信プログラムを記憶する記憶部と、配信プログラムを実行することにより、コンピュータの動作を制御する制御部とを備え、制御部は、ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップと、当該視聴数に応じて、所定条件を成立させる難易度を調整するステップとを実行する。 According to one aspect of one embodiment, there is provided a computer that distributes data for enabling display of a game play image of a game that is cleared by satisfying a predetermined condition on a viewing terminal. The computer includes a storage unit that stores the distribution program and a control unit that controls the operation of the computer by executing the distribution program. The control unit indicates the number of views of the viewing terminal displaying the game play video. The step of specifying and the step of adjusting the difficulty level for satisfying the predetermined condition are executed according to the number of views.

一実施形態のある局面によれば、プロセッサ、メモリ、および表示部を備える視聴端末により実行される視聴プログラムが提供される。視聴プログラムは、プロセッサに、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を特定可能とするためのデータを配信しているサーバに対して、当該ゲームプレイ映像を表示している視聴端末の視聴数を特定可能とするための情報を送信するステップと、サーバからの情報に基づいて、所定条件を成立させる難易度が視聴端末の視聴数に応じて調整されたゲームのゲームプレイ映像を表示するステップとを実行させる。 According to an aspect of one embodiment, a viewing program executed by a viewing terminal including a processor, a memory, and a display unit is provided. The viewing program displays the game play video to a server that distributes data for enabling the processor to specify the game play video of the game that will be cleared by satisfying a predetermined condition. A step of transmitting information for identifying the number of views of the terminal, and a game play image of a game in which the degree of difficulty for satisfying a predetermined condition is adjusted according to the number of views of the viewing terminal based on the information from the server. Perform the steps and to display.

本発明によれば、コンテンツに対する視聴者の好趣性をより高めることができる。 According to the present invention, it is possible to further enhance the viewer's preference for content.

ある実施の形態に従うHMDシステムの構成の概略を表す図である。It is a figure showing the outline of the composition of the HMD system according to a certain embodiment. ある実施の形態に従うコンピュータのハードウェア構成の一例を表すブロック図である。FIG. 16 is a block diagram showing an example of a hardware configuration of a computer according to an embodiment. ある実施の形態に従うHMDに設定されるuvw視野座標系を概念的に表す図である。It is a figure which represents notionally the uvw visual field coordinate system set to HMD according to a certain embodiment. ある実施の形態に従う仮想空間を表現する一態様を概念的に表す図である。It is a figure which represents notionally one aspect expressing the virtual space according to one embodiment. ある実施の形態に従うHMDを装着するユーザの頭部を上から表した図である。It is a figure showing from above the head of the user wearing the HMD according to an embodiment. 仮想空間において視界領域をX方向から見たYZ断面を表す図である。It is a figure showing the YZ section which looked at the field of view from the X direction in virtual space. 仮想空間において視界領域をY方向から見たXZ断面を表す図である。It is a figure showing the XZ section which looked at the field of view from the Y direction in virtual space. ある実施の形態に従うHMDセットにおいて規定される仮想空間と、当該仮想空間に配置されるオブジェクトとの一例を示す図である。It is a figure which shows an example of the virtual space prescribed|regulated in the HMD set according to a certain embodiment, and the object arrange|positioned at the said virtual space. (A)は、ある実施の形態に従うコントローラの概略構成を表す図であり、(B)は、ある実施の形態に従うユーザの右手に対して規定されるヨー、ロール、ピッチの各方向の一例を示す図である。(A) is a figure showing a schematic structure of a controller according to an embodiment, and (B) is an example of each direction of yaw, roll, and pitch defined with respect to a user's right hand according to an embodiment. FIG. ある実施の形態に従うサーバのハードウェア構成の一例を表すブロック図である。It is a block diagram showing an example of the hardware constitutions of the server according to a certain embodiment. ある実施の形態に従うコンピュータをモジュール構成として表わすブロック図である。FIG. 2 is a block diagram showing a computer according to an embodiment as a module configuration. ある実施の形態に従うコンピュータのモジュールの詳細構成を表わすブロック図である。It is a block diagram showing a detailed configuration of a module of a computer according to an embodiment. ある実施の形態に従うユーザ端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the user terminal according to a certain embodiment. (A)は、ある実施の形態に従うユーザ端末において規定される仮想空間と、当該仮想空間に配置されるオブジェクトとの一例を示す図であり、(B)は、当該ユーザ端末において表示される視界画像の一例を示す図である。(A) is a figure which shows an example of the virtual space prescribed|regulated in the user terminal according to a certain embodiment, and the object arrange|positioned at the said virtual space, (B) is a visual field displayed on the said user terminal. It is a figure which shows an example of an image. ある実施の形態に従うHMDシステムに含まれるユーザ端末、サーバおよびHMDセットの機能的構成を示すブロック図である。FIG. 4 is a block diagram showing a functional configuration of a user terminal, a server, and an HMD set included in the HMD system according to an embodiment. ある実施の形態に従うユーザ端末に含まれる仮想空間制御部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the virtual space control part contained in the user terminal according to a certain embodiment. ある実施の形態に従うHMDセットに含まれる仮想空間制御部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the virtual space control part contained in the HMD set according to a certain embodiment. (A)は、ユーザ端末において表示される視界画像の他の一例を示す図であり、(B)は、ユーザ端末において表示される視界画像のその他の一例を示す図であり、(C)は、ユーザ端末において表示される視界画像のさらにその他の一例を示す図であり、(D)は、ユーザ端末において表示される視界画像の他の一例を示す図である。(A) is a figure which shows another example of the visual field image displayed on a user terminal, (B) is a figure which shows another example of the visual field image displayed on a user terminal, (C) is FIG. 11 is a diagram showing still another example of the visual field image displayed on the user terminal, and FIG. 13D is a diagram showing another example of the visual field image displayed on the user terminal. アイテム投入操作に応じたユーザ端末およびコンピュータの動作の一部を示すタイミングチャートである。7 is a timing chart showing a part of the operation of the user terminal and the computer according to the item input operation. HMDシステムにおいて実行される処理の流れの一部を示すフローチャートである。It is a flowchart which shows a part of flow of the process performed in a HMD system. HMDシステムにおいて実行される処理の流れの他の一部を示すフローチャートである。It is a flowchart which shows another part of the flow of the process performed in a HMD system.

以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。 Hereinafter, embodiments of this technical idea will be described in detail with reference to the drawings. In the following description, the same parts are designated by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated. In one or more embodiments shown in the present disclosure, elements included in each embodiment can be combined with each other, and the resultant product is also a part of the embodiment shown in the present disclosure.

[HMDシステムの構成]
図1を参照して、HMD(Head-Mounted Device)システム100の構成について説明する。図1は、本実施の形態に従うHMDシステム100の構成の概略を表す図である。HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
[Configuration of HMD system]
The configuration of an HMD (Head-Mounted Device) system 100 will be described with reference to FIG. 1. FIG. 1 is a diagram showing a schematic configuration of an HMD system 100 according to the present embodiment. The HMD system 100 is provided as a home system or a business system.

HMDシステム100は、サーバ600と、HMDセット110と、外部機器700と、ネットワーク2と、複数のユーザ端末800とを含む。HMDセット110は、ネットワーク2を介してサーバ600や外部機器700やユーザ端末800と通信可能に構成される。HMDセット110は、HMD120と、コンピュータ200と、HMDセンサ410と、ディスプレイ430と、コントローラ300とを備える。HMD120は、モニタ130と、注視センサ140と、第1カメラ150と、第2カメラ160と、マイク170と、スピーカ180とを含む。コントローラ300は、モーションセンサ420を含み得る。 The HMD system 100 includes a server 600, an HMD set 110, an external device 700, a network 2, and a plurality of user terminals 800. The HMD set 110 is configured to be communicable with the server 600, the external device 700, and the user terminal 800 via the network 2. The HMD set 110 includes an HMD 120, a computer 200, an HMD sensor 410, a display 430, and a controller 300. The HMD 120 includes a monitor 130, a gaze sensor 140, a first camera 150, a second camera 160, a microphone 170, and a speaker 180. The controller 300 may include a motion sensor 420.

ある局面において、コンピュータ200は、インターネットその他のネットワーク2に接続可能であり、ネットワーク2に接続されているサーバ600その他のコンピュータと通信可能である。その他のコンピュータとしては、例えば、ユーザ端末800、外部機器700、他のHMDセット110のコンピュータなどが挙げられる。別の局面において、HMD120は、HMDセンサ410の代わりに、センサ190を含み得る。 In one aspect, the computer 200 can be connected to the Internet or other network 2 and can communicate with the server 600 or other computers connected to the network 2. Examples of other computers include a user terminal 800, an external device 700, and a computer of another HMD set 110. In another aspect, HMD 120 may include sensor 190 instead of HMD sensor 410.

HMD120は、プレイヤ5の頭部に装着され、動作中に仮想空間をプレイヤ5に提供し得る。より具体的には、HMD120は、右目用の画像および左目用の画像をモニタ130にそれぞれ表示する。プレイヤ5の各目がそれぞれの画像を視認すると、プレイヤ5は、両目の視差に基づき当該画像を3次元画像として認識し得る。HMD120は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。HMD120は、例えば、所定の達成条件を成立させることによりクリアとなるゲームをプレイヤ5にプレイさせるための仮想空間を提供する。プレイヤ5は、ゲームのプレイ画面をユーザ端末800において表示可能とするためのデータを配信するため、配信者ともいう。 The HMD 120 is attached to the head of the player 5 and can provide the player 5 with a virtual space during operation. More specifically, the HMD 120 displays an image for the right eye and an image for the left eye on the monitor 130, respectively. When each eye of the player 5 visually recognizes each image, the player 5 can recognize the image as a three-dimensional image based on the parallax of both eyes. The HMD 120 can include both a so-called head mounted display including a monitor and a head mounted device to which a terminal having a monitor such as a smartphone can be mounted. The HMD 120 provides a virtual space for allowing the player 5 to play a game that is cleared by satisfying a predetermined achievement condition, for example. The player 5 distributes data for enabling the play screen of the game to be displayed on the user terminal 800, and is therefore also referred to as a distributor.

なお、ゲームのジャンルは、特定のジャンルに限られず、HMDシステム100は、あらゆるジャンルのゲームを実行し得る。例えば、テニス、卓球、ドッジボール、野球、サッカーおよびホッケーなどのスポーツを題材としたゲーム、パズルゲーム、クイズゲーム、RPG(Role-Playing Game)、アドベンチャーゲーム、シューティングゲーム、シミュレーションゲーム、育成ゲーム、ならびに、アクションゲームなどであってもよい。 Note that the genre of the game is not limited to a particular genre, and the HMD system 100 can execute games of all genres. For example, games on sports such as tennis, table tennis, dodge ball, baseball, soccer and hockey, puzzle games, quiz games, RPG (Role-Playing Game), adventure games, shooting games, simulation games, training games, and It may be an action game or the like.

また、本ゲームのプレイ形態は、特定のプレイ形態に限られない。HMDシステム100は、あらゆるプレイ形態のゲームをプレイさせる仮想空間を提供し得る。例えば、単一のプレイヤ5によるシングルプレイゲーム、および、複数のプレイヤ5によるマルチプレイゲーム、また、マルチプレイゲームの中でも、複数のプレイヤ5が対戦する対戦ゲーム、および、複数のプレイヤ5が協力する協力プレイゲームなどであってもよい。 Further, the play mode of this game is not limited to a specific play mode. The HMD system 100 can provide a virtual space for playing a game of any play mode. For example, a single-player game played by a single player 5, a multi-player game played by a plurality of players 5, or, among the multi-player games, a battle game in which a plurality of players 5 compete, and a cooperative play in which a plurality of players 5 cooperate. It may be a game or the like.

モニタ130は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ130は、プレイヤ5の両目の前方に位置するようにHMD120の本体に配置されている。したがって、プレイヤ5は、モニタ130に表示される3次元画像を視認すると、仮想空間に没入することができる。ある局面において、仮想空間には、例えば、プレイヤ5が操作可能なアバターオブジェクトや、他のオブジェクトが配置される。ある局面において、モニタ130は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。 The monitor 130 is realized as, for example, a non-transmissive display device. In one aspect, the monitor 130 is arranged on the main body of the HMD 120 so as to be positioned in front of both eyes of the player 5. Therefore, the player 5 can immerse himself in the virtual space when viewing the three-dimensional image displayed on the monitor 130. In one aspect, for example, an avatar object that the player 5 can operate and other objects are arranged in the virtual space. In one aspect, the monitor 130 can be realized as a liquid crystal monitor or an organic EL (Electro Luminescence) monitor included in a so-called smartphone or other information display terminal.

別の局面において、モニタ130は、透過型の表示装置として実現され得る。この場合、HMD120は、図1に示されるようにプレイヤ5の目を覆う密閉型ではなく、メガネ型のような開放型であり得る。透過型のモニタ130は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。モニタ130は、仮想空間を構成する画像の一部と、現実空間とを同時に表示する構成を含んでいてもよい。例えば、モニタ130は、HMD120に搭載されたカメラで撮影した現実空間の画像を表示してもよいし、一部の透過率を高く設定することにより現実空間を視認可能にしてもよい。 In another aspect, the monitor 130 can be realized as a transmissive display device. In this case, the HMD 120 may be an open type such as a spectacle type instead of the closed type that covers the eyes of the player 5 as shown in FIG. 1. The transmissive monitor 130 may be temporarily configurable as a non-transmissive display device by adjusting the transmittance thereof. The monitor 130 may include a configuration for simultaneously displaying a part of an image forming the virtual space and the real space. For example, the monitor 130 may display an image of the real space taken by a camera mounted on the HMD 120, or may make the real space visible by setting a part of the transmittances high.

ある局面において、モニタ130は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ130は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ130は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。 In one aspect, monitor 130 may include a sub-monitor for displaying an image for the right eye and a sub-monitor for displaying an image for the left eye. In another aspect, the monitor 130 may be configured to integrally display an image for the right eye and an image for the left eye. In this case, the monitor 130 includes a high speed shutter. The high-speed shutter operates so that the image for the right eye and the image for the left eye can be displayed alternately so that the image is recognized by only one of the eyes.

ある局面において、HMD120は、図示せぬ複数の光源を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ410は、HMD120の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ410は、HMD120が発する複数の赤外線を読み取り、現実空間内におけるHMD120の位置および傾きを検出する。 In one aspect, the HMD 120 includes a plurality of light sources (not shown). Each light source is realized by, for example, an LED (Light Emitting Diode) that emits infrared rays. The HMD sensor 410 has a position tracking function for detecting the movement of the HMD 120. More specifically, the HMD sensor 410 reads a plurality of infrared rays emitted by the HMD 120 and detects the position and inclination of the HMD 120 in the physical space.

別の局面において、HMDセンサ410は、カメラにより実現されてもよい。この場合、HMDセンサ410は、カメラから出力されるHMD120の画像情報を用いて、画像解析処理を実行することにより、HMD120の位置および傾きを検出することができる。 In another aspect, the HMD sensor 410 may be implemented by a camera. In this case, the HMD sensor 410 can detect the position and inclination of the HMD 120 by executing the image analysis process using the image information of the HMD 120 output from the camera.

別の局面において、HMD120は、位置検出器として、HMDセンサ410の代わりに、あるいはHMDセンサ410に加えてセンサ190を備えてもよい。HMD120は、センサ190を用いて、HMD120自身の位置および傾きを検出し得る。例えば、センサ190が角速度センサ、地磁気センサ、あるいは加速度センサである場合、HMD120は、HMDセンサ410の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ190が角速度センサである場合、角速度センサは、現実空間におけるHMD120の3軸周りの角速度を経時的に検出する。HMD120は、各角速度に基づいて、HMD120の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD120の傾きを算出する。 In another aspect, the HMD 120 may include a sensor 190 as a position detector instead of the HMD sensor 410 or in addition to the HMD sensor 410. The HMD 120 can detect the position and the tilt of the HMD 120 itself using the sensor 190. For example, when the sensor 190 is an angular velocity sensor, a geomagnetic sensor, or an acceleration sensor, the HMD 120 may use any one of these sensors instead of the HMD sensor 410 to detect its own position and tilt. As an example, when the sensor 190 is an angular velocity sensor, the angular velocity sensor detects the angular velocity around the three axes of the HMD 120 in the physical space over time. The HMD 120 calculates the temporal change of the angle around the three axes of the HMD 120 based on each angular velocity, and further calculates the inclination of the HMD 120 based on the temporal change of the angle.

注視センサ140は、プレイヤ5の右目および左目の視線が向けられる方向を検出する。つまり、注視センサ140は、プレイヤ5の視線を検出する。視線の方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、例えば、プレイヤ5の右目および左目に赤外線を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、プレイヤ5の視線を検知することができる。 The gaze sensor 140 detects the directions in which the right and left eyes of the player 5 are directed. That is, the gaze sensor 140 detects the line of sight of the player 5. The detection of the direction of the line of sight is realized by, for example, a known eye tracking function. The gaze sensor 140 is realized by a sensor having the eye tracking function. In one aspect, the gaze sensor 140 preferably includes a sensor for the right eye and a sensor for the left eye. The gaze sensor 140 may be, for example, a sensor that emits infrared rays to the right and left eyes of the player 5 and detects the rotation angle of each eyeball by receiving reflected light from the cornea and iris with respect to the emitted light. The gaze sensor 140 can detect the line of sight of the player 5 based on each detected rotation angle.

第1カメラ150は、プレイヤ5の顔の下部を撮影する。より具体的には、第1カメラ150は、プレイヤ5の鼻および口などを撮影する。第2カメラ160は、プレイヤ5の目および眉などを撮影する。HMD120のプレイヤ5側の筐体をHMD120の内側、HMD120のプレイヤ5とは逆側の筐体をHMD120の外側と定義する。ある局面において、第1カメラ150は、HMD120の外側に配置され、第2カメラ160は、HMD120の内側に配置され得る。第1カメラ150および第2カメラ160が生成した画像は、コンピュータ200に入力される。別の局面において、第1カメラ150と第2カメラ160とを1台のカメラとして実現し、この1台のカメラでプレイヤ5の顔を撮影するようにしてもよい。 The first camera 150 photographs the lower part of the face of the player 5. More specifically, the first camera 150 photographs the nose and mouth of the player 5. The second camera 160 photographs the eyes and eyebrows of the player 5. The casing of the HMD 120 on the player 5 side is defined as the inside of the HMD 120, and the casing of the HMD 120 opposite to the player 5 is defined as the outside of the HMD 120. In an aspect, the first camera 150 may be arranged outside the HMD 120 and the second camera 160 may be arranged inside the HMD 120. The images generated by the first camera 150 and the second camera 160 are input to the computer 200. In another aspect, the first camera 150 and the second camera 160 may be realized as one camera, and the one camera may be used to capture the face of the player 5.

マイク170は、プレイヤ5の発話を音声信号(電気信号)に変換してコンピュータ200に出力する。スピーカ180は、音声信号を音声に変換してプレイヤ5に出力する。別の局面において、HMD120は、スピーカ180に替えてイヤホンを含み得る。 The microphone 170 converts the utterance of the player 5 into an audio signal (electrical signal) and outputs it to the computer 200. The speaker 180 converts the audio signal into audio and outputs the audio to the player 5. In another aspect, HMD 120 may include earphones instead of speaker 180.

コントローラ300は、有線または無線によりコンピュータ200に接続されている。コントローラ300は、プレイヤ5からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ300は、プレイヤ5によって把持可能に構成される。別の局面において、コントローラ300は、プレイヤ5の身体あるいは衣類の一部に装着可能に構成される。さらに別の局面において、コントローラ300は、コンピュータ200から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。さらに別の局面において、コントローラ300は、プレイヤ5から、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。 The controller 300 is connected to the computer 200 by wire or wirelessly. The controller 300 receives an instruction input from the player 5 to the computer 200. In one aspect, the controller 300 is configured to be held by the player 5. In another aspect, the controller 300 is configured to be attachable to a part of the body or clothing of the player 5. In yet another aspect, the controller 300 may be configured to output at least one of vibration, sound, and light based on a signal transmitted from the computer 200. In still another aspect, the controller 300 receives an operation from the player 5 for controlling the position and movement of the object arranged in the virtual space.

ある局面において、コントローラ300は、複数の光源を含む。各光源は例えば、赤外線を発するLEDにより実現される。HMDセンサ410は、ポジショントラッキング機能を有する。この場合、HMDセンサ410は、コントローラ300が発する複数の赤外線を読み取り、現実空間内におけるコントローラ300の位置および傾き、即ちプレイヤの身体の動きを検出する。別の局面において、HMDセンサ410は、カメラにより実現されてもよい。この場合、HMDセンサ410は、カメラから出力されるコントローラ300の画像情報を用いて、画像解析処理を実行することにより、コントローラ300の位置および傾きを検出することができる。 In one aspect, the controller 300 includes multiple light sources. Each light source is realized by, for example, an LED that emits infrared rays. The HMD sensor 410 has a position tracking function. In this case, the HMD sensor 410 reads a plurality of infrared rays emitted by the controller 300 and detects the position and inclination of the controller 300 in the physical space, that is, the movement of the player's body. In another aspect, the HMD sensor 410 may be implemented by a camera. In this case, the HMD sensor 410 can detect the position and inclination of the controller 300 by executing the image analysis process using the image information of the controller 300 output from the camera.

モーションセンサ420は、ある局面において、プレイヤ5の手に取り付けられて、プレイヤ5の手の動きを検出する。例えば、モーションセンサ420は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ420は、例えば、コントローラ300に設けられている。ある局面において、モーションセンサ420は、例えば、プレイヤ5に把持可能に構成されたコントローラ300に設けられている。別の局面において、現実空間における安全のため、コントローラ300は、手袋型のようにプレイヤ5の手に装着されることにより容易に飛んで行かないものに装着される。さらに別の局面において、プレイヤ5に装着されないセンサがプレイヤ5の手の動きを検出してもよい。例えば、プレイヤ5を撮影するカメラの信号が、プレイヤ5の動作を表わす信号として、コンピュータ200に入力されてもよい。モーションセンサ420とコンピュータ200とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。 The motion sensor 420 is attached to the hand of the player 5 in a certain situation, and detects the movement of the hand of the player 5. For example, the motion sensor 420 detects the rotation speed, the rotation speed, etc. of the hand. The detected signal is sent to the computer 200. The motion sensor 420 is provided in the controller 300, for example. In one aspect, the motion sensor 420 is provided, for example, in the controller 300 configured to be held by the player 5. In another aspect, for safety in the physical space, the controller 300 is attached to something that does not easily fly by being attached to the hand of the player 5, such as a glove type. In still another aspect, a sensor that is not attached to the player 5 may detect the movement of the hand of the player 5. For example, a signal from a camera that shoots the player 5 may be input to the computer 200 as a signal representing the operation of the player 5. The motion sensor 420 and the computer 200 are wirelessly connected to each other, for example. In the case of wireless, the communication form is not particularly limited, and, for example, Bluetooth (registered trademark) or other known communication methods are used.

ディスプレイ430は、モニタ130に表示されている画像と同様の画像を表示する。これにより、HMD120を装着しているプレイヤ5以外のデータ配信にかかわる者(プレイヤ5と同様に配信者ともいう)にも当該プレイヤ5と同様の画像を視聴させることができる。ディスプレイ430に表示される画像は、3次元画像である必要はなく、右目用の画像や左目用の画像であってもよい。ディスプレイ430としては、例えば、液晶ディスプレイや有機ELモニタなどが挙げられる。 The display 430 displays an image similar to the image displayed on the monitor 130. Accordingly, a person other than the player 5 wearing the HMD 120 who is involved in data distribution (also referred to as a distributor like the player 5) can view the same image as the player 5. The image displayed on the display 430 does not have to be a three-dimensional image, and may be an image for the right eye or an image for the left eye. Examples of the display 430 include a liquid crystal display and an organic EL monitor.

サーバ600は、コンピュータ200にプログラムを送信し得る。別の局面において、サーバ600は、コンピュータ200から提供された仮想空間を表示可能にするためのデータを、サーバ600と接続可能な複数のユーザ端末(例えばユーザ端末800A、800C、800D)に配信し得る。なお、コンピュータ200は、サーバ600を介することなく、当該データを配信するようにしてもよい。 The server 600 can send the program to the computer 200. In another aspect, the server 600 distributes the data provided from the computer 200 for displaying the virtual space to a plurality of user terminals (eg, user terminals 800A, 800C, 800D) connectable to the server 600. obtain. The computer 200 may deliver the data without going through the server 600.

サーバ600は、他のプレイヤによって使用されるHMD120に仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のプレイヤが参加型のゲームを行なう場合、各コンピュータ200は、各プレイヤの動作に基づく信号をサーバ600を介して他のコンピュータ200と通信して、同じ仮想空間において複数のプレイヤが共通のゲームを楽しむことを可能にする。各コンピュータ200は、各プレイヤの動作に基づく信号をサーバ600を介さずに他のコンピュータ200と通信するようにしてもよい。 The server 600 may communicate with other computers 200 for providing virtual reality to the HMD 120 used by other players. For example, when a plurality of players play a participation-type game in an amusement facility, each computer 200 communicates a signal based on the operation of each player with another computer 200 via the server 600, and a plurality of players in the same virtual space. It enables players to enjoy a common game. Each computer 200 may communicate a signal based on the action of each player with another computer 200 without passing through the server 600.

外部機器700は、コンピュータ200と通信可能な機器であればどのような機器であってもよい。外部機器700は、例えば、ネットワーク2を介してコンピュータ200と通信可能な機器であってもよいし、近距離無線通信や有線接続によりコンピュータ200と直接通信可能な機器であってもよい。外部機器700としては、例えば、スマートデバイス、PC(Personal Computer)、及びコンピュータ200の周辺機器などが挙げられるが、これらに限定されるものではない。 The external device 700 may be any device that can communicate with the computer 200. The external device 700 may be, for example, a device capable of communicating with the computer 200 via the network 2, or a device capable of directly communicating with the computer 200 by short-range wireless communication or wired connection. Examples of the external device 700 include, but are not limited to, smart devices, PCs (Personal Computers), and peripheral devices of the computer 200.

[コンピュータのハードウェア構成]
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、本実施の形態に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ210と、メモリ220と、ストレージ230と、入出力インターフェース(以下、IF)240と、通信IF250とを備える。各構成要素は、それぞれ、バス260に接続されている。
[Computer hardware configuration]
The computer 200 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing an example of a hardware configuration of computer 200 according to the present embodiment. The computer 200 includes a processor 210, a memory 220, a storage 230, an input/output interface (hereinafter, IF) 240, and a communication IF 250 as main components. Each component is connected to the bus 260.

プロセッサ210は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ220またはストレージ230に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ210は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。 The processor 210 executes a series of instructions included in a program stored in the memory 220 or the storage 230 based on a signal given to the computer 200 or when a predetermined condition is satisfied. In one aspect, the processor 210 is realized as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processor Unit), an FPGA (Field-Programmable Gate Array), or other device.

メモリ220は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ230からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ210によって生成されたデータとを含む。ある局面において、メモリ220は、RAM(Random Access Memory)その他の揮発メモリとして実現される。 The memory 220 temporarily stores programs and data. The program is loaded from the storage 230, for example. The data includes the data input to the computer 200 and the data generated by the processor 210. In one aspect, the memory 220 is implemented as a RAM (Random Access Memory) or other volatile memory.

ストレージ230は、プログラムおよびデータを永続的に保持する。ストレージ230は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。ストレージ230に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラムを含む。ストレージ230に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含む。 The storage 230 permanently holds programs and data. The storage 230 is realized as, for example, a ROM (Read-Only Memory), a hard disk device, a flash memory, or another non-volatile storage device. The programs stored in the storage 230 include a program for providing a virtual space in the HMD system 100, a simulation program, a game program, a user authentication program, and a program for realizing communication with another computer 200. The data stored in the storage 230 includes data and objects for defining the virtual space.

別の局面において、ストレージ230は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、コンピュータ200に内蔵されたストレージ230の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。 In another aspect, the storage 230 may be realized as a removable storage device such as a memory card. In yet another aspect, instead of storage 230 built in computer 200, a configuration using programs and data stored in an external storage device may be used. With such a configuration, for example, in a situation where a plurality of HMD systems 100 are used, such as in an amusement facility, it is possible to collectively update programs and data.

入出力IF240は、HMD120、HMDセンサ410、モーションセンサ420およびディスプレイ430との間で信号を通信する。HMD120に含まれるモニタ130,注視センサ140,第1カメラ150,第2カメラ160,マイク170およびスピーカ180は、HMD120の入出力IF240を介してコンピュータ200との通信を行ない得る。ある局面において、入出力IF240は、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。入出力IF240は上述のものに限られない。 The input/output IF 240 communicates signals with the HMD 120, the HMD sensor 410, the motion sensor 420, and the display 430. The monitor 130, the gaze sensor 140, the first camera 150, the second camera 160, the microphone 170, and the speaker 180 included in the HMD 120 can communicate with the computer 200 via the input/output IF 240 of the HMD 120. In one aspect, the input/output IF 240 is realized using a USB (Universal Serial Bus), a DVI (Digital Visual Interface), an HDMI (registered trademark) (High-Definition Multimedia Interface), and other terminals. The input/output IF 240 is not limited to the above.

ある局面において、入出力IF240は、さらに、コントローラ300と通信し得る。例えば、入出力IF240は、コントローラ300およびモーションセンサ420から出力された信号の入力を受ける。別の局面において、入出力IF240は、プロセッサ210から出力された命令を、コントローラ300に送る。当該命令は、振動、音声出力、発光等をコントローラ300に指示する。コントローラ300は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。 In certain aspects, the input/output IF 240 may also be in communication with the controller 300. For example, the input/output IF 240 receives input of signals output from the controller 300 and the motion sensor 420. In another aspect, the input/output IF 240 sends the instruction output from the processor 210 to the controller 300. The command instructs the controller 300 to perform vibration, voice output, light emission, or the like. Upon receiving the command, the controller 300 executes any one of vibration, voice output, and light emission according to the command.

通信IF250は、ネットワーク2に接続されて、ネットワーク2に接続されている他のコンピュータ(例えば、サーバ600)と通信する。ある局面において、通信IF250は、例えば、LAN(Local Area Network)その他の有線通信IF、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信IFとして実現される。通信IF250は上述のものに限られない。 The communication IF 250 is connected to the network 2 and communicates with another computer (for example, the server 600) connected to the network 2. In one aspect, the communication IF 250 is realized as, for example, a LAN (Local Area Network) or other wired communication IF, or a WiFi (Wireless Fidelity), Bluetooth (registered trademark), NFC (Near Field Communication), or other wireless communication IF. It The communication IF 250 is not limited to the above.

ある局面において、プロセッサ210は、ストレージ230にアクセスし、ストレージ230に格納されている1つ以上のプログラムをメモリ220にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ210は、入出力IF240を介して、仮想空間を提供するための信号をHMD120に送る。HMD120は、その信号に基づいてモニタ130に映像を表示する。 In one aspect, the processor 210 accesses the storage 230, loads one or more programs stored in the storage 230 into the memory 220, and executes a series of instructions included in the program. The one or more programs may include an operating system of the computer 200, an application program for providing a virtual space, game software executable in the virtual space, and the like. The processor 210 sends a signal for providing a virtual space to the HMD 120 via the input/output IF 240. The HMD 120 displays an image on the monitor 130 based on the signal.

図2に示される例では、コンピュータ200は、HMD120の外部に設けられる構成が示されているが、別の局面において、コンピュータ200は、HMD120に内蔵されてもよい。一例として、モニタ130を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。 In the example shown in FIG. 2, the computer 200 is shown to be provided outside the HMD 120, but in another aspect, the computer 200 may be built in the HMD 120. As an example, a portable information communication terminal (for example, a smartphone) including the monitor 130 may function as the computer 200.

コンピュータ200は、複数のHMD120に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のプレイヤに同一の仮想空間を提供することもできるので、各プレイヤは同一の仮想空間で他のプレイヤと同一のアプリケーションを楽しむことができる。 The computer 200 may be configured to be commonly used by the plurality of HMDs 120. With such a configuration, for example, the same virtual space can be provided to a plurality of players, so that each player can enjoy the same application as other players in the same virtual space.

ある実施の形態において、HMDシステム100では、現実空間における座標系である実座標系が予め設定されている。実座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、並びに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。実座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、実座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。 In one embodiment, in the HMD system 100, a real coordinate system that is a coordinate system in the real space is preset. The real coordinate system has three reference directions (axes) that are respectively parallel to the vertical direction in the real space, the horizontal direction orthogonal to the vertical direction, and the front-back direction orthogonal to both the vertical direction and the horizontal direction. The horizontal direction, vertical direction (vertical direction), and front-back direction in the real coordinate system are defined as the x-axis, the y-axis, and the z-axis, respectively. More specifically, in the real coordinate system, the x axis is parallel to the horizontal direction of the real space. The y-axis is parallel to the vertical direction of the real space. The z-axis is parallel to the front-back direction in real space.

ある局面において、HMDセンサ410は、赤外線センサを含む。赤外線センサが、HMD120の各光源から発せられた赤外線をそれぞれ検出すると、HMD120の存在を検出する。HMDセンサ410は、さらに、各点の値(実座標系における各座標値)に基づいて、HMD120を装着したプレイヤ5の動きに応じた、現実空間内におけるHMD120の位置および傾き(向き)を検出する。より詳しくは、HMDセンサ410は、経時的に検出された各値を用いて、HMD120の位置および傾きの時間的変化を検出できる。 In one aspect, HMD sensor 410 includes an infrared sensor. When the infrared sensor detects the infrared rays emitted from the respective light sources of the HMD 120, the presence of the HMD 120 is detected. The HMD sensor 410 further detects the position and inclination (direction) of the HMD 120 in the real space according to the movement of the player 5 wearing the HMD 120, based on the value of each point (each coordinate value in the actual coordinate system). To do. More specifically, the HMD sensor 410 can detect a temporal change in the position and inclination of the HMD 120 by using each value detected over time.

HMDセンサ410によって検出されたHMD120の各傾きは、実座標系におけるHMD120の3軸周りの各傾きに相当する。HMDセンサ410は、実座標系におけるHMD120の傾きに基づき、uvw視野座標系をHMD120に設定する。HMD120に設定されるuvw視野座標系は、HMD120を装着したプレイヤ5が仮想空間において物体を見る際の視点座標系に対応する。 Each inclination of the HMD 120 detected by the HMD sensor 410 corresponds to each inclination around the three axes of the HMD 120 in the real coordinate system. The HMD sensor 410 sets the uvw visual field coordinate system to the HMD 120 based on the inclination of the HMD 120 in the actual coordinate system. The uvw visual field coordinate system set in the HMD 120 corresponds to the viewpoint coordinate system when the player 5 wearing the HMD 120 views an object in the virtual space.

[uvw視野座標系]
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD120に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ410は、HMD120の起動時に、実座標系におけるHMD120の位置および傾きを検出する。プロセッサ210は、検出された値に基づいて、uvw視野座標系をHMD120に設定する。
[Uvw view coordinate system]
The uvw visual field coordinate system will be described with reference to FIG. FIG. 3 is a diagram conceptually showing a uvw visual field coordinate system set in HMD 120 according to an embodiment. The HMD sensor 410 detects the position and inclination of the HMD 120 in the real coordinate system when the HMD 120 is activated. The processor 210 sets the uvw visual field coordinate system in the HMD 120 based on the detected values.

図3に示されるように、HMD120は、HMD120を装着したプレイヤ5の頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD120は、実座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、実座標系内においてHMD120の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD120におけるuvw視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)として設定する。 As shown in FIG. 3, the HMD 120 sets a three-dimensional uvw visual field coordinate system with the head of the player 5 wearing the HMD 120 as the center (origin). More specifically, the HMD 120 defines the horizontal direction, the vertical direction, and the front-rear direction (x axis, y axis, z axis) that define the real coordinate system by the inclination around each axis of the HMD 120 within the real coordinate system. Three directions newly obtained by inclining about the axis are set as a pitch axis (u axis), a yaw axis (v axis), and a roll axis (w axis) of the uvw visual field coordinate system in the HMD 120.

ある局面において、HMD120を装着したプレイヤ5が直立し、かつ、正面を視認している場合、プロセッサ210は、実座標系に平行なuvw視野座標系をHMD120に設定する。この場合、実座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD120におけるuvw視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)に一致する。 In one aspect, when the player 5 wearing the HMD 120 stands upright and visually recognizes the front, the processor 210 sets the uvw visual field coordinate system parallel to the real coordinate system in the HMD 120. In this case, the horizontal direction (x axis), the vertical direction (y axis), and the front-back direction (z axis) in the real coordinate system are the pitch axis (u axis) and yaw axis (v axis) of the uvw visual field coordinate system in the HMD 120. , And the roll axis (w axis).

uvw視野座標系がHMD120に設定された後、HMDセンサ410は、HMD120の動きに基づいて、設定されたuvw視野座標系におけるHMD120の傾きを検出できる。この場合、HMDセンサ410は、HMD120の傾きとして、uvw視野座標系におけるHMD120のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ軸周りのHMD120の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー軸周りのHMD120の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール軸周りのHMD120の傾き角度を表す。 After the uvw visual field coordinate system is set in the HMD 120, the HMD sensor 410 can detect the tilt of the HMD 120 in the set uvw visual field coordinate system based on the movement of the HMD 120. In this case, the HMD sensor 410 detects the pitch angle (θu), the yaw angle (θv), and the roll angle (θw) of the HMD 120 in the uvw visual field coordinate system as the inclination of the HMD 120. The pitch angle (θu) represents the tilt angle of the HMD 120 around the pitch axis in the uvw visual field coordinate system. The yaw angle (θv) represents the tilt angle of the HMD 120 around the yaw axis in the uvw visual field coordinate system. The roll angle (θw) represents the tilt angle of the HMD 120 around the roll axis in the uvw visual field coordinate system.

HMDセンサ410は、検出されたHMD120の傾きに基づいて、HMD120が動いた後のHMD120におけるuvw視野座標系を、HMD120に設定する。HMD120と、HMD120のuvw視野座標系との関係は、HMD120の位置および傾きに関わらず、常に一定である。HMD120の位置および傾きが変わると、当該位置および傾きの変化に連動して、実座標系におけるHMD120のuvw視野座標系の位置および傾きが変化する。 The HMD sensor 410 sets the uvw visual field coordinate system in the HMD 120 after the HMD 120 has moved to the HMD 120 based on the detected inclination of the HMD 120. The relationship between the HMD 120 and the uvw visual field coordinate system of the HMD 120 is always constant regardless of the position and inclination of the HMD 120. When the position and the inclination of the HMD 120 change, the position and the inclination of the uvw visual field coordinate system of the HMD 120 in the actual coordinate system change in association with the change of the position and the inclination.

ある局面において、HMDセンサ410は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(例えば、各点間の距離など)に基づいて、HMD120の現実空間内における位置を、HMDセンサ410に対する相対位置として特定してもよい。プロセッサ210は、特定された相対位置に基づいて、現実空間内(実座標系)におけるHMD120のuvw視野座標系の原点を決定してもよい。 In one aspect, the HMD sensor 410 uses the HMD 120 based on the light intensity of infrared light acquired based on the output from the infrared sensor and the relative positional relationship between the points (for example, the distance between the points). The position in the real space may be specified as the relative position with respect to the HMD sensor 410. The processor 210 may determine the origin of the uvw visual field coordinate system of the HMD 120 in the real space (real coordinate system) based on the specified relative position.

[仮想空間]
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施の形態に従う仮想空間11を表現する一態様を概念的に表す図である。仮想空間11は、中心12の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間11のうちの上半分の天球が例示されている。仮想空間11では各メッシュが規定される。各メッシュの位置は、仮想空間11に規定されるグローバル座標系であるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間11に展開可能なパノラマ画像13(静止画、動画等)を構成する各部分画像を、仮想空間11において対応する各メッシュにそれぞれ対応付ける。
[Virtual space]
The virtual space will be further described with reference to FIG. FIG. 4 is a diagram conceptually showing one aspect of expressing virtual space 11 according to an embodiment. The virtual space 11 has a spherical structure that covers the entire center 12 in the 360° direction. In FIG. 4, the celestial sphere in the upper half of the virtual space 11 is illustrated in order not to complicate the description. Each mesh is defined in the virtual space 11. The position of each mesh is defined in advance as coordinate values in the XYZ coordinate system, which is the global coordinate system defined in the virtual space 11. The computer 200 associates each partial image forming the panoramic image 13 (still image, moving image, etc.) expandable in the virtual space 11 with each corresponding mesh in the virtual space 11.

ある局面において、仮想空間11では、中心12を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、実座標系に平行である。XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)が実座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)が実座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)が実座標系のz軸と平行である。 In a certain aspect, in the virtual space 11, an XYZ coordinate system whose origin is the center 12 is defined. The XYZ coordinate system is, for example, parallel to the real coordinate system. The horizontal direction, the vertical direction (vertical direction), and the front-back direction in the XYZ coordinate system are defined as the X axis, the Y axis, and the Z axis, respectively. Therefore, the X axis of the XYZ coordinate system (horizontal direction) is parallel to the x axis of the real coordinate system, the Y axis of the XYZ coordinate system (vertical direction) is parallel to the y axis of the real coordinate system, and the X axis of the XYZ coordinate system is The Z axis (front-back direction) is parallel to the z axis of the real coordinate system.

HMD120の起動時、すなわちHMD120の初期状態において、仮想カメラ14が、仮想空間11の中心12に配置される。ある局面において、プロセッサ210は、仮想カメラ14が撮影する画像をHMD120のモニタ130に表示する。仮想カメラ14は、現実空間におけるHMD120の動きに連動して、仮想空間11を同様に移動する。これにより、現実空間におけるHMD120の位置および傾きの変化が、仮想空間11において同様に再現され得る。 When the HMD 120 is activated, that is, in the initial state of the HMD 120, the virtual camera 14 is arranged at the center 12 of the virtual space 11. In an aspect, the processor 210 displays the image captured by the virtual camera 14 on the monitor 130 of the HMD 120. The virtual camera 14 similarly moves in the virtual space 11 in association with the movement of the HMD 120 in the physical space. As a result, changes in the position and inclination of the HMD 120 in the physical space can be reproduced in the virtual space 11 as well.

仮想カメラ14には、HMD120の場合と同様に、uvw視野座標系が規定される。仮想空間11における仮想カメラ14のuvw視野座標系は、現実空間(実座標系)におけるHMD120のuvw視野座標系に連動するように規定されている。したがって、HMD120の傾きが変化すると、それに応じて、仮想カメラ14の傾きも変化する。仮想カメラ14は、HMD120を装着したプレイヤ5の現実空間における移動に連動して、仮想空間11において移動することもできる。 The uvw visual field coordinate system is defined for the virtual camera 14 as in the case of the HMD 120. The uvw visual field coordinate system of the virtual camera 14 in the virtual space 11 is defined so as to be linked to the uvw visual field coordinate system of the HMD 120 in the real space (real coordinate system). Therefore, when the inclination of the HMD 120 changes, the inclination of the virtual camera 14 also changes accordingly. The virtual camera 14 can also move in the virtual space 11 in conjunction with the movement of the player 5 wearing the HMD 120 in the real space.

コンピュータ200のプロセッサ210は、仮想カメラ14の位置と傾き(基準視線16)とに基づいて、仮想空間11における視界領域15を規定する。視界領域15は、仮想空間11のうち、HMD120を装着したプレイヤ5が視認する領域に対応する。つまり、仮想カメラ14の位置は、仮想空間11におけるプレイヤ5の視点と言える。 The processor 210 of the computer 200 defines the view area 15 in the virtual space 11 based on the position and the inclination (reference line of sight 16) of the virtual camera 14. The field of view 15 corresponds to a region of the virtual space 11 that the player 5 wearing the HMD 120 visually recognizes. That is, it can be said that the position of the virtual camera 14 is the viewpoint of the player 5 in the virtual space 11.

注視センサ140によって検出されるプレイヤ5の視線は、プレイヤ5が物体を視認する際の視点座標系における方向である。HMD120のuvw視野座標系は、プレイヤ5がモニタ130を視認する際の視点座標系に等しい。仮想カメラ14のuvw視野座標系は、HMD120のuvw視野座標系に連動している。したがって、ある局面に従うHMDシステム100は、注視センサ140によって検出されたプレイヤ5の視線を、仮想カメラ14のuvw視野座標系におけるプレイヤ5の視線とみなすことができる。 The line of sight of the player 5 detected by the gaze sensor 140 is the direction in the viewpoint coordinate system when the player 5 visually recognizes an object. The uvw visual field coordinate system of the HMD 120 is equal to the viewpoint coordinate system when the player 5 visually recognizes the monitor 130. The uvw view coordinate system of the virtual camera 14 is linked to the uvw view coordinate system of the HMD 120. Therefore, HMD system 100 according to a certain aspect can regard the line of sight of player 5 detected by gaze sensor 140 as the line of sight of player 5 in the uvw visual field coordinate system of virtual camera 14.

[プレイヤの視線]
図5を参照して、プレイヤ5の視線の決定について説明する。図5は、ある実施の形態に従うHMD120を装着するプレイヤ5の頭部を上から表した図である。
[Player's line of sight]
The determination of the line of sight of the player 5 will be described with reference to FIG. FIG. 5 is a diagram showing the head of player 5 wearing HMD 120 according to an embodiment from above.

ある局面において、注視センサ140は、プレイヤ5の右目および左目の各視線を検出する。ある局面において、プレイヤ5が近くを見ている場合、注視センサ140は、視線R1およびL1を検出する。別の局面において、プレイヤ5が遠くを見ている場合、注視センサ140は、視線R2およびL2を検出する。この場合、ロール軸wに対して視線R2およびL2が成す角度は、ロール軸wに対して視線R1およびL1が成す角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。 In a certain aspect, the gaze sensor 140 detects each line of sight of the right eye and the left eye of the player 5. In a certain aspect, when the player 5 is looking close, the gaze sensor 140 detects the sight lines R1 and L1. In another aspect, when the player 5 is looking far away, the gaze sensor 140 detects the sight lines R2 and L2. In this case, the angle formed by the lines of sight R2 and L2 with respect to the roll axis w is smaller than the angle formed by the lines of sight R1 and L1 with respect to the roll axis w. The gaze sensor 140 transmits the detection result to the computer 200.

コンピュータ200が、視線の検出結果として、視線R1およびL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1およびL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2およびL2の検出値を注視センサ140から受信した場合には、視線R2およびL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、プレイヤ5の視線N0を特定する。コンピュータ200は、例えば、プレイヤ5の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線N0として検出する。視線N0は、プレイヤ5が両目により実際に視線を向けている方向である。視線N0は、視界領域15に対してプレイヤ5が実際に視線を向けている方向に相当する。 When the computer 200 receives the detection values of the sight lines R1 and L1 from the gaze sensor 140 as the detection result of the sight line, the computer 200 specifies the attention point N1 which is the intersection of the sight lines R1 and L1 based on the detection value. On the other hand, when the computer 200 receives the detection values of the sight lines R2 and L2 from the gaze sensor 140, the computer 200 specifies the intersection of the sight lines R2 and L2 as the gaze point. The computer 200 specifies the line of sight N0 of the player 5 based on the specified position of the gazing point N1. The computer 200 detects, as the line of sight N0, for example, a direction in which a straight line passing through the midpoint of a straight line connecting the right eye R and the left eye L of the player 5 and the gazing point N1 extends. The line of sight N0 is the direction in which the player 5 is actually directing his or her eyes with both eyes. The line of sight N0 corresponds to the direction in which the player 5 is actually directing his or her line of sight to the visual field region 15.

別の局面において、HMDシステム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、HMDシステム100は、仮想空間11においてテレビ番組を表示することができる。 In another aspect, the HMD system 100 may include a television broadcast receiving tuner. With such a configuration, the HMD system 100 can display a television program in the virtual space 11.

さらに別の局面において、HMDシステム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。 In still another aspect, the HMD system 100 may include a communication circuit for connecting to the Internet or a call function for connecting to a telephone line.

[視界領域]
図6および図7を参照して、視界領域15について説明する。図6は、仮想空間11において視界領域15をX方向から見たYZ断面を表す図である。図7は、仮想空間11において視界領域15をY方向から見たXZ断面を表す図である。
[Field of view]
The visibility region 15 will be described with reference to FIGS. 6 and 7. FIG. 6 is a view showing a YZ cross section of the view field 15 in the virtual space 11 as seen from the X direction. FIG. 7 is a view showing an XZ cross section of the view field 15 in the virtual space 11 as seen from the Y direction.

図6に示されるように、YZ断面における視界領域15は、領域18を含む。領域18は、仮想カメラ14の位置と基準視線16と仮想空間11のYZ断面とによって定義される。プロセッサ210は、仮想空間における基準視線16を中心として極角αを含む範囲を、領域18として規定する。 As shown in FIG. 6, the view field region 15 in the YZ section includes a region 18. The area 18 is defined by the position of the virtual camera 14, the reference line of sight 16, and the YZ section of the virtual space 11. The processor 210 defines a range including the polar angle α around the reference line of sight 16 in the virtual space as a region 18.

図7に示されるように、XZ断面における視界領域15は、領域19を含む。領域19は、仮想カメラ14の位置と基準視線16と仮想空間11のXZ断面とによって定義される。プロセッサ210は、仮想空間11における基準視線16を中心とした方位角βを含む範囲を、領域19として規定する。極角αおよびβは、仮想カメラ14の位置と仮想カメラ14の傾き(向き)とに応じて定まる。 As shown in FIG. 7, the view region 15 in the XZ section includes a region 19. The area 19 is defined by the position of the virtual camera 14, the reference line of sight 16, and the XZ section of the virtual space 11. The processor 210 defines a range including the azimuth angle β around the reference line of sight 16 in the virtual space 11 as a region 19. The polar angles α and β are determined according to the position of the virtual camera 14 and the inclination (direction) of the virtual camera 14.

ある局面において、HMDシステム100は、コンピュータ200からの信号に基づいて、視界画像17をモニタ130に表示させることにより、プレイヤ5に仮想空間11における視界を提供する。視界画像17は、パノラマ画像13のうち視界領域15に対応する部分に相当する画像である。プレイヤ5が、頭部に装着したHMD120を動かすと、その動きに連動して仮想カメラ14も動く。その結果、仮想空間11における視界領域15の位置が変化する。これにより、モニタ130に表示される視界画像17は、パノラマ画像13のうち、仮想空間11においてプレイヤ5が向いた方向の視界領域15に重畳する画像に更新される。プレイヤ5は、仮想空間11における所望の方向を視認することができる。 In one aspect, the HMD system 100 provides the player 5 with a view in the virtual space 11 by displaying the view image 17 on the monitor 130 based on a signal from the computer 200. The visual field image 17 is an image corresponding to a portion of the panoramic image 13 corresponding to the visual field region 15. When the player 5 moves the HMD 120 mounted on the head, the virtual camera 14 also moves in conjunction with the movement. As a result, the position of the view field 15 in the virtual space 11 changes. As a result, the visual field image 17 displayed on the monitor 130 is updated to the image of the panoramic image 13 that is superimposed on the visual field area 15 in the direction in which the player 5 is facing in the virtual space 11. The player 5 can visually recognize a desired direction in the virtual space 11.

このように、仮想カメラ14の傾きは仮想空間11におけるプレイヤ5の視線(基準視線16)に相当し、仮想カメラ14が配置される位置は、仮想空間11におけるプレイヤ5の視点に相当する。したがって、仮想カメラ14の位置または傾きを変更することにより、モニタ130に表示される画像が更新され、プレイヤ5の視界が移動される。 Thus, the inclination of the virtual camera 14 corresponds to the line of sight (reference line of sight 16) of the player 5 in the virtual space 11, and the position where the virtual camera 14 is arranged corresponds to the viewpoint of the player 5 in the virtual space 11. Therefore, by changing the position or the inclination of the virtual camera 14, the image displayed on the monitor 130 is updated and the field of view of the player 5 is moved.

プレイヤ5は、HMD120を装着している間、現実世界を視認することなく、仮想空間11に展開されるパノラマ画像13のみを視認できる。そのため、HMDシステム100は、仮想空間11への高い没入感覚をプレイヤ5に与えることができる。 While wearing the HMD 120, the player 5 can visually recognize only the panoramic image 13 developed in the virtual space 11 without visually recognizing the real world. Therefore, the HMD system 100 can give the player 5 a high sense of immersion in the virtual space 11.

ある局面において、プロセッサ210は、HMD120を装着したプレイヤ5の現実空間における移動に連動して、仮想空間11において仮想カメラ14を移動し得る。この場合、プロセッサ210は、仮想空間11における仮想カメラ14の位置および傾きに基づいて、HMD120のモニタ130に投影される画像領域(視界領域15)を特定する。 In an aspect, the processor 210 may move the virtual camera 14 in the virtual space 11 in conjunction with the movement of the player 5 wearing the HMD 120 in the real space. In this case, the processor 210 specifies the image area (visual field area 15) projected on the monitor 130 of the HMD 120 based on the position and inclination of the virtual camera 14 in the virtual space 11.

ある局面において、仮想カメラ14は、2つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含み得る。プレイヤ5が3次元の仮想空間11を認識できるように、適切な視差が、2つの仮想カメラに設定される。別の局面において、仮想カメラ14を1つの仮想カメラにより実現してもよい。この場合、1つの仮想カメラにより得られた画像から、右目用の画像と左目用の画像とを生成するようにしてもよい。本実施の形態においては、仮想カメラ14が2つの仮想カメラを含み、2つの仮想カメラのロール軸が合成されることによって生成されるロール軸(w)がHMD120のロール軸(w)に適合されるように構成されているものとして、本開示に係る技術思想を例示する。 In one aspect, virtual camera 14 may include two virtual cameras, a virtual camera for providing an image for the right eye and a virtual camera for providing an image for the left eye. Appropriate parallax is set in the two virtual cameras so that the player 5 can recognize the three-dimensional virtual space 11. In another aspect, the virtual camera 14 may be realized by one virtual camera. In this case, the image for the right eye and the image for the left eye may be generated from the image obtained by one virtual camera. In the present embodiment, the virtual camera 14 includes two virtual cameras, and the roll axis (w) generated by combining the roll axes of the two virtual cameras is adapted to the roll axis (w) of the HMD 120. The technical idea according to the present disclosure will be exemplified as one configured as described above.

[仮想空間に配置されるオブジェクト]
図8を参照して、仮想空間11の一例について説明する。仮想空間11には、複数種類のオブジェクトが配置される。複数種類のオブジェクトには、プレイヤ5の分身であるアバターオブジェクト6、コントローラ300によって操作される仮想手などの操作オブジェクト、キャラクタオブジェクト、ゲームのストーリーの進行に従って配置される森、山その他を含む風景、街並み、動物等の背景オブジェクトなどが含まれる。図8には、アバターオブジェクト6、およびオブジェクトA〜Dが配置されている例が示されている。オブジェクトA〜Dとしては、例えば、キャラクタオブジェクトや背景オブジェクトなどが挙げられるが、これらに限定されるものではない。アバターオブジェクト6は、プレイヤ5の動きに応じた位置において動作・配置される。また、オブジェクトA〜Dなど(以下、他のオブジェクトともいう)は、ゲームプログラムに基づき、ゲームの進行に応じた位置において動作・配置される。
[Objects placed in virtual space]
An example of the virtual space 11 will be described with reference to FIG. Multiple types of objects are arranged in the virtual space 11. The plurality of types of objects include an avatar object 6 that is an alternation of the player 5, operation objects such as virtual hands operated by the controller 300, character objects, landscapes including forests, mountains, and the like arranged according to the progress of the game story, This includes background objects such as cityscapes and animals. FIG. 8 shows an example in which the avatar object 6 and the objects A to D are arranged. Examples of the objects A to D include, but are not limited to, character objects and background objects. The avatar object 6 is moved/placed at a position corresponding to the movement of the player 5. Further, the objects A to D and the like (hereinafter, also referred to as other objects) are operated/placed at positions according to the progress of the game based on the game program.

例えば、アバターオブジェクト6を敵キャラクタと対戦させる対戦ゲームでは、敵キャラクタのオブジェクト、当該敵キャラクタの攻撃を妨害する障害物のオブジェクト等が、他のオブジェクトに相当する。また、アバターオブジェクトにブロックの配置を並び替えさせるパズルゲームでは、色や形状が異なる複数のブロックのオブジェクト等が、他のオブジェクトに相当する。 For example, in a battle game in which the avatar object 6 is played against an enemy character, the object of the enemy character, the obstacle object that interferes with the attack of the enemy character, and the like correspond to other objects. Further, in a puzzle game in which the arrangement of blocks is rearranged in an avatar object, objects of a plurality of blocks having different colors and shapes correspond to other objects.

さらに、アバターオブジェクトを密室から脱出させる脱出ゲームでは、室内に配置される家具(テーブル、椅子、タンス、ベッド等)のオブジェクト、脱出のためのアイテム(鍵や日記)のオブジェクト等が、他のオブジェクトに相当する。また、アバターオブジェクトに楽器を弾かせる音楽ゲームでは、楽器(ピアノ、バイオリン等)のオブジェクト、当該アバターオブジェクトとともに共演する他のキャラクタのオブジェクト等が、他のオブジェクトに相当する。 Furthermore, in the escape game in which an avatar object escapes from a closed room, objects such as furniture (tables, chairs, chests, beds, etc.) placed in the room, objects for items to escape (keys and diaries), etc. Equivalent to. Further, in a music game in which a musical instrument is played by an avatar object, an object of a musical instrument (piano, violin, etc.), an object of another character co-starring with the avatar object, and the like correspond to other objects.

[コントローラ]
図9を参照して、コントローラ300の一例について説明する。図9は、ある実施の形態に従うコントローラ300の概略構成を表す図である。
[controller]
An example of the controller 300 will be described with reference to FIG. 9. FIG. 9 is a diagram showing a schematic configuration of the controller 300 according to an embodiment.

図9に示されるように、ある局面において、コントローラ300は、右コントローラ300Rと図示せぬ左コントローラとを含み得る。右コントローラ300Rは、プレイヤ5の右手で操作される。左コントローラは、プレイヤ5の左手で操作される。ある局面において、右コントローラ300Rと左コントローラとは、別個の装置として対称に構成される。したがって、プレイヤ5は、右コントローラ300Rを把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の局面において、コントローラ300は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ300Rについて説明する。 As shown in FIG. 9, in one aspect, the controller 300 may include a right controller 300R and a left controller (not shown). The right controller 300R is operated by the right hand of the player 5. The left controller is operated by the left hand of the player 5. In one aspect, the right controller 300R and the left controller are symmetrically configured as separate devices. Therefore, the player 5 can freely move the right hand holding the right controller 300R and the left hand holding the left controller, respectively. In another aspect, the controller 300 may be an integrated controller that receives operations of both hands. The right controller 300R will be described below.

右コントローラ300Rは、グリップ310と、フレーム320と、天面330とを備える。グリップ310は、プレイヤ5の右手によって把持されるように構成されている。たとえば、グリップ310は、プレイヤ5の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。 The right controller 300R includes a grip 310, a frame 320, and a top surface 330. The grip 310 is configured to be gripped by the right hand of the player 5. For example, the grip 310 can be held by the palm of the right hand of the player 5 and three fingers (middle finger, ring finger, little finger).

グリップ310は、ボタン340,350と、モーションセンサ420とを含む。ボタン340は、グリップ310の側面に配置され、右手の中指による操作を受け付ける。ボタン350は、グリップ310の前面に配置され、右手の人差し指による操作を受け付ける。ある局面において、ボタン340,350は、トリガー式のボタンとして構成される。モーションセンサ420は、グリップ310の筐体に内蔵されている。プレイヤ5の動作がカメラその他の装置によってプレイヤ5の周りから検出可能である場合には、グリップ310は、モーションセンサ420を備えなくてもよい。 The grip 310 includes buttons 340 and 350 and a motion sensor 420. The button 340 is arranged on the side surface of the grip 310 and receives an operation by the middle finger of the right hand. The button 350 is arranged on the front surface of the grip 310 and receives an operation by the index finger of the right hand. In one aspect, buttons 340 and 350 are configured as trigger-type buttons. The motion sensor 420 is built in the housing of the grip 310. If the movement of the player 5 can be detected from around the player 5 by a camera or other device, the grip 310 may not include the motion sensor 420.

フレーム320は、その円周方向に沿って配置された複数の赤外線LED360を含む。赤外線LED360は、コントローラ300を使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED360から発せられた赤外線は、右コントローラ300Rと左コントローラとの各位置や姿勢(傾き、向き)を検出するために使用され得る。図9に示される例では、二列に配置された赤外線LED360が示されているが、配列の数は図9に示されるものに限られない。一列あるいは3列以上の配列が使用されてもよい。 The frame 320 includes a plurality of infrared LEDs 360 arranged along the circumferential direction thereof. The infrared LED 360 emits infrared light according to the progress of the program while the program using the controller 300 is being executed. The infrared rays emitted from the infrared LED 360 can be used to detect each position and posture (tilt, orientation) of the right controller 300R and the left controller. In the example shown in FIG. 9, the infrared LEDs 360 arranged in two rows are shown, but the number of arrays is not limited to that shown in FIG. 9. A single row or an array of three or more rows may be used.

天面330は、ボタン370,380と、アナログスティック390とを備える。ボタン370,380は、プッシュ式ボタンとして構成される。ボタン370,380は、プレイヤ5の右手の親指による操作を受け付ける。アナログスティック390は、ある局面において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、たとえば、仮想空間11に配置されるオブジェクトを移動するための操作を含む。 The top surface 330 includes buttons 370 and 380 and an analog stick 390. Buttons 370 and 380 are configured as push buttons. Buttons 370 and 380 accept an operation by the thumb of the player 5's right hand. The analog stick 390 receives an operation in an arbitrary direction of 360 degrees from an initial position (neutral position) in a certain aspect. The operation includes, for example, an operation for moving an object arranged in the virtual space 11.

ある局面において、右コントローラ300Rおよび左コントローラは、赤外線LED360その他の部材を駆動するための電池を含む。電池は、充電式、ボタン型、乾電池型などを含むが、これらに限定されない。別の局面において、右コントローラ300Rと左コントローラは、たとえば、コンピュータ200のUSBIFに接続され得る。この場合、右コントローラ300Rおよび左コントローラは、電池を必要としない。 In one aspect, the right controller 300R and the left controller include batteries for driving the infrared LEDs 360 and other components. Batteries include, but are not limited to, rechargeable, button type, dry cell type, and the like. In another aspect, the right controller 300R and the left controller may be connected to the USBIF of the computer 200, for example. In this case, the right controller 300R and the left controller do not require batteries.

図9の状態(A)および状態(B)に示されるように、例えば、プレイヤ5の右手に対して、ヨー、ロール、ピッチの各方向が規定される。プレイヤ5が親指と人差し指とを伸ばした場合に、親指の伸びる方向がヨー方向、人差し指の伸びる方向がロール方向、ヨー方向の軸およびロール方向の軸によって規定される平面に垂直な方向がピッチ方向として規定される。 As shown in states (A) and (B) of FIG. 9, for example, the yaw, roll, and pitch directions are defined for the right hand of the player 5. When the player 5 extends his thumb and forefinger, the direction in which the thumb extends is the yaw direction, the direction in which the index finger extends is the roll direction, and the direction perpendicular to the plane defined by the yaw direction axis and the roll direction axis is the pitch direction. Is defined as

[サーバのハードウェア構成]
図10を参照して、本実施の形態に係るサーバ600について説明する。図10は、ある実施の形態に従うサーバ600のハードウェア構成の一例を表すブロック図である。サーバ600は、主たる構成要素として、プロセッサ610と、メモリ620と、ストレージ630と、入出力IF640と、通信IF650とを備える。各構成要素は、それぞれ、バス660に接続されている。
[Server hardware configuration]
The server 600 according to the present embodiment will be described with reference to FIG. FIG. 10 is a block diagram showing an example of a hardware configuration of server 600 according to an embodiment. The server 600 includes a processor 610, a memory 620, a storage 630, an input/output IF 640, and a communication IF 650 as main components. Each component is connected to the bus 660.

プロセッサ610は、サーバ600に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ620またはストレージ630に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ610は、CPU、GPU、MPU、FPGAその他のデバイスとして実現される。 Processor 610 executes a series of instructions included in a program stored in memory 620 or storage 630 based on a signal provided to server 600 or when a predetermined condition is satisfied. In one aspect, processor 610 is implemented as a CPU, GPU, MPU, FPGA or other device.

メモリ620は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ630からロードされる。データは、サーバ600に入力されたデータと、プロセッサ610によって生成されたデータとを含む。ある局面において、メモリ620は、RAMその他の揮発メモリとして実現される。 The memory 620 temporarily stores programs and data. The program is loaded from the storage 630, for example. The data includes data input to the server 600 and data generated by the processor 610. In one aspect, memory 620 is implemented as RAM or other volatile memory.

ストレージ630は、プログラムおよびデータを永続的に保持する。ストレージ630は、例えば、ROM、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。ストレージ630に格納されるプログラムは、HMDシステム100およびユーザ端末800の各々において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、コンピュータ200およびユーザ端末800との通信を実現するためのプログラムを含んでもよい。ストレージ630に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含んでもよい。 The storage 630 permanently holds programs and data. The storage 630 is realized as, for example, a ROM, a hard disk device, a flash memory, or another non-volatile storage device. The program stored in the storage 630 realizes a program for providing a virtual space in each of the HMD system 100 and the user terminal 800, a simulation program, a game program, a user authentication program, and communication with the computer 200 and the user terminal 800. The program may be included. The data stored in the storage 630 may include data and objects for defining the virtual space.

別の局面において、ストレージ630は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、サーバ600に内蔵されたストレージ630の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。 In another aspect, the storage 630 may be realized as a removable storage device such as a memory card. In still another aspect, instead of the storage 630 built in the server 600, a configuration using programs and data stored in an external storage device may be used. With such a configuration, for example, in a situation where a plurality of HMD systems 100 are used, such as in an amusement facility, it is possible to collectively update programs and data.

入出力IF640は、入出力機器との間で信号を通信する。ある局面において、入出力IF640は、USB、DVI、HDMI(登録商標)その他の端子を用いて実現される。入出力IF640は上述のものに限られない。 The input/output IF 640 communicates signals with input/output devices. In one aspect, the input/output IF 640 is realized by using a USB, DVI, HDMI (registered trademark) or other terminal. The input/output IF 640 is not limited to the above.

通信IF650は、ネットワーク2に接続されて、ネットワーク2に接続されているコンピュータ200およびユーザ端末800の各々と通信する。ある局面において、通信IF650は、例えば、LANその他の有線通信IF、あるいは、WiFi、Bluetooth(登録商標)、NFCその他の無線通信IFとして実現される。通信IF650は上述のものに限られない。 The communication IF 650 is connected to the network 2 and communicates with each of the computer 200 and the user terminal 800 connected to the network 2. In one aspect, the communication IF 650 is realized, for example, as a LAN or other wired communication IF, or as a WiFi, Bluetooth (registered trademark), NFC, or other wireless communication IF. The communication IF 650 is not limited to the above.

ある局面において、プロセッサ610は、ストレージ630にアクセスし、ストレージ630に格納されている1つ以上のプログラムをメモリ620にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、サーバ600のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ610は、入出力IF640を介して、仮想空間を提供するための信号をコンピュータ200およびユーザ端末800の各々に送ってもよい。 In one aspect, the processor 610 accesses the storage 630, loads one or more programs stored in the storage 630 into the memory 620, and executes a series of instructions included in the program. The one or more programs may include an operating system of the server 600, an application program for providing a virtual space, game software executable in the virtual space, and the like. The processor 610 may send a signal for providing a virtual space to each of the computer 200 and the user terminal 800 via the input/output IF 640.

[HMDの制御装置]
図11を参照して、HMD120の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図11は、ある実施の形態に従うコンピュータ200をモジュール構成として表わすブロック図である。
[HMD controller]
The control device of the HMD 120 will be described with reference to FIG. 11. In one embodiment, the control device is realized by computer 200 having a well-known configuration. FIG. 11 is a block diagram showing a computer 200 according to an embodiment as a module configuration.

図11に示されるように、コンピュータ200は、コントロールモジュール510と、レンダリングモジュール520と、メモリモジュール530と、通信制御モジュール540とを備える。ある局面において、コントロールモジュール510とレンダリングモジュール520とは、プロセッサ210によって実現される。別の局面において、複数のプロセッサ210がコントロールモジュール510とレンダリングモジュール520として作動してもよい。メモリモジュール530は、メモリ220またはストレージ230によって実現される。通信制御モジュール540は、通信IF250によって実現される。 As shown in FIG. 11, the computer 200 includes a control module 510, a rendering module 520, a memory module 530, and a communication control module 540. In one aspect, control module 510 and rendering module 520 are implemented by processor 210. In another aspect, multiple processors 210 may operate as control module 510 and rendering module 520. The memory module 530 is realized by the memory 220 or the storage 230. The communication control module 540 is realized by the communication IF 250.

コントロールモジュール510は、プレイヤ5に提供される仮想空間11を制御する。コントロールモジュール510は、仮想空間11を表す仮想空間データを用いて、HMDシステム100における仮想空間11を規定する。仮想空間データは、例えば、メモリモジュール530に記憶されている。コントロールモジュール510が、仮想空間データを生成したり、サーバ600などから仮想空間データを取得するようにしたりしてもよい。 The control module 510 controls the virtual space 11 provided to the player 5. The control module 510 uses the virtual space data representing the virtual space 11 to define the virtual space 11 in the HMD system 100. The virtual space data is stored in, for example, the memory module 530. The control module 510 may generate virtual space data or acquire virtual space data from the server 600 or the like.

コントロールモジュール510は、オブジェクトを表すオブジェクトデータ(オブジェクトを配置(表示)するための配置用データ(表示用データ))を用いて、仮想空間11にオブジェクトを配置する。オブジェクトデータは、例えば、メモリモジュール530に記憶されている。コントロールモジュール510が、オブジェクトデータを生成したり、サーバ600などからオブジェクトデータを取得するようにしたりしてもよい。 The control module 510 arranges the object in the virtual space 11 using the object data representing the object (arrangement data for arranging (displaying) the object (display data)). The object data is stored in the memory module 530, for example. The control module 510 may generate the object data or acquire the object data from the server 600 or the like.

コントロールモジュール510は、プレイヤ5を含む画像に基づいて、プレイヤ5を模したアバターオブジェクトを仮想空間11に配置する。ある局面において、コントロールモジュール510は、複数種類のアバターオブジェクト(例えば、動物を模したオブジェクトや、デフォルメされた人のオブジェクト)の中からプレイヤ5による選択を受け付けたアバターオブジェクトを仮想空間11に配置する。ある局面において、コントロールモジュール510は、ネットワーク2を介して接続される他のコンピュータ200のプレイヤ5のアバターオブジェクトを仮想空間11に配置する。別の局面において、コントロールモジュール510は、プレイヤ5のアバターオブジェクトを仮想空間11に配置してもよい。 The control module 510 arranges an avatar object imitating the player 5 in the virtual space 11 based on the image including the player 5. In one aspect, the control module 510 arranges in the virtual space 11 an avatar object that has been selected by the player 5 from a plurality of types of avatar objects (for example, an object imitating an animal or an object of a deformed person). .. In one aspect, control module 510 arranges the avatar object of player 5 of another computer 200 connected via network 2 in virtual space 11. In another aspect, the control module 510 may arrange the avatar object of the player 5 in the virtual space 11.

コントロールモジュール510は、HMDセンサ410の出力に基づいてHMD120の傾きを特定する。別の局面において、コントロールモジュール510は、モーションセンサとして機能するセンサ190の出力に基づいてHMD120の傾きを特定する。コントロールモジュール510は、第1カメラ150および第2カメラ160が生成するプレイヤ5の顔の画像から、プレイヤ5の顔を構成する器官(例えば、口,目,眉)を検出する。コントロールモジュール510は、検出した各器官の動き(形状)を検出する。 The control module 510 identifies the inclination of the HMD 120 based on the output of the HMD sensor 410. In another aspect, control module 510 identifies the tilt of HMD 120 based on the output of sensor 190 that functions as a motion sensor. The control module 510 detects organs (for example, mouth, eyes, eyebrows) forming the face of the player 5 from the images of the face of the player 5 generated by the first camera 150 and the second camera 160. The control module 510 detects the movement (shape) of each detected organ.

コントロールモジュール510は、注視センサ140からの信号に基づいて、プレイヤ5の仮想空間11における視線を検出する。コントロールモジュール510は、検出したプレイヤ5の視線と仮想空間11の天球とが交わる視点位置(XYZ座標系における座標値)を検出する。より具体的には、コントロールモジュール510は、uvw座標系で規定されるプレイヤ5の視線と、仮想カメラ14の位置および傾きとに基づいて、視点位置を検出する。コントロールモジュール510は、検出した視点位置をサーバ600に送信する。別の局面において、コントロールモジュール510は、プレイヤ5の視線を表す視線情報をサーバ600に送信するように構成されてもよい。係る場合、サーバ600が受信した視線情報に基づいて視点位置を算出し得る。 The control module 510 detects the line of sight of the player 5 in the virtual space 11 based on the signal from the gaze sensor 140. The control module 510 detects a viewpoint position (coordinate value in the XYZ coordinate system) at which the detected line of sight of the player 5 and the celestial sphere in the virtual space 11 intersect. More specifically, the control module 510 detects the viewpoint position based on the line of sight of the player 5 defined by the uvw coordinate system and the position and inclination of the virtual camera 14. The control module 510 transmits the detected viewpoint position to the server 600. In another aspect, the control module 510 may be configured to transmit the sight line information representing the sight line of the player 5 to the server 600. In this case, the viewpoint position can be calculated based on the line-of-sight information received by the server 600.

コントロールモジュール510は、HMDセンサ410が検出するプレイヤ5の身体の動きをアバターオブジェクトに反映する。例えば、コントロールモジュール510は、プレイヤ5がしゃがみこんだことを検知して、アバターオブジェクトをしゃがみこませる。コントロールモジュール510は、検出した顔器官の動作を、仮想空間11に配置されるアバターオブジェクトの顔に反映させる。ある局面において、コントロールモジュール510は、コントローラ300の動きをアバターオブジェクトや操作オブジェクトに反映する。この場合、コントローラ300は、コントローラ300の動きを検知するためのモーションセンサ、加速度センサ、または複数の発光素子(例えば、赤外線LED)などを備える。別の局面において、コントロールモジュール510は、サーバ600から他のプレイヤ5の視線情報を受信し、当該他のプレイヤ5のアバターオブジェクトの視線に反映させてもよい。 The control module 510 reflects the movement of the body of the player 5 detected by the HMD sensor 410 in the avatar object. For example, the control module 510 detects that the player 5 is crouching and causes the avatar object to crouch down. The control module 510 reflects the detected motion of the facial organ on the face of the avatar object arranged in the virtual space 11. In one aspect, control module 510 reflects the movement of controller 300 on an avatar object or an operation object. In this case, the controller 300 includes a motion sensor for detecting the movement of the controller 300, an acceleration sensor, or a plurality of light emitting elements (for example, infrared LEDs). In another aspect, the control module 510 may receive the line-of-sight information of the other player 5 from the server 600 and reflect it on the line-of-sight of the avatar object of the other player 5.

コントロールモジュール510は、仮想空間11においてプレイヤ5の操作を受け付けるための操作オブジェクトを含むオブジェクトを仮想空間11に配置する。プレイヤ5は、操作オブジェクトを操作することにより、例えば、仮想空間11に配置されるオブジェクトを操作する。ある局面において、操作オブジェクトは、例えば、プレイヤ5の手に相当する仮想手である手オブジェクト等を含み得る。ある局面において、コントロールモジュール510は、モーションセンサ420の出力に基づいて現実空間におけるプレイヤ5の手の動きに連動するように仮想空間11において手オブジェクトを動かす。ある局面において、操作オブジェクトは、アバターオブジェクトの手の部分に相当し得る。 The control module 510 arranges an object including an operation object for receiving the operation of the player 5 in the virtual space 11, in the virtual space 11. By operating the operation object, the player 5 operates, for example, an object arranged in the virtual space 11. In one aspect, the operation object may include, for example, a hand object that is a virtual hand corresponding to the hand of the player 5. In one aspect, the control module 510 moves the hand object in the virtual space 11 based on the output of the motion sensor 420 so as to interlock with the movement of the hand of the player 5 in the real space. In an aspect, the operation object may correspond to the hand part of the avatar object.

コントロールモジュール510は、仮想空間11に配置されるオブジェクトのそれぞれが、他のオブジェクトと衝突した場合に、当該衝突を検出する。コントロールモジュール510は、例えば、あるオブジェクトのコリジョンエリアと、別のオブジェクトのコリジョンエリアとが触れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行なう。コントロールモジュール510は、オブジェクトとオブジェクトとが触れている状態から離れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行なう。コントロールモジュール510は、オブジェクトとオブジェクトとが触れている状態であることを検出することができる。例えば、コントロールモジュール510は、操作オブジェクトと、他のオブジェクトとが触れたときに、これら操作オブジェクトと他のオブジェクトとが触れたことを検出して、予め定められた処理を行なう。 When each of the objects arranged in the virtual space 11 collides with another object, the control module 510 detects the collision. The control module 510 can detect, for example, a timing at which a collision area of a certain object and a collision area of another object touch, and when the detection is performed, a predetermined process is performed. The control module 510 can detect the timing when the object is separated from the state in which the objects are in contact with each other, and when the detection is performed, a predetermined process is performed. The control module 510 can detect that the objects are in contact with each other. For example, control module 510, when the operation object touches another object, detects that the operation object touches the other object and performs a predetermined process.

ある局面において、コントロールモジュール510は、HMD120のモニタ130における画像表示を制御する。例えば、コントロールモジュール510は、仮想空間11に仮想カメラ14を配置する。コントロールモジュール510は、仮想空間11における仮想カメラ14の位置と、仮想カメラ14の傾き(向き)を制御する。コントロールモジュール510は、HMD120を装着したプレイヤ5の頭部の傾きと、仮想カメラ14の位置に応じて、視界領域15を規定する。レンダリングモジュール520は、決定された視界領域15に基づいて、モニタ130に表示される視界画像17を生成する。レンダリングモジュール520により生成された視界画像17は、通信制御モジュール540によってHMD120に出力される。 In one aspect, control module 510 controls image display on monitor 130 of HMD 120. For example, the control module 510 arranges the virtual camera 14 in the virtual space 11. The control module 510 controls the position of the virtual camera 14 in the virtual space 11 and the inclination (direction) of the virtual camera 14. The control module 510 defines the field of view 15 according to the tilt of the head of the player 5 wearing the HMD 120 and the position of the virtual camera 14. The rendering module 520 generates the visual field image 17 displayed on the monitor 130 based on the determined visual field area 15. The visual field image 17 generated by the rendering module 520 is output to the HMD 120 by the communication control module 540.

コントロールモジュール510は、HMD120から、プレイヤ5のマイク170を用いた発話を検出すると、当該発話に対応する音声データの送信対象のコンピュータ200を特定する。音声データは、コントロールモジュール510によって特定されたコンピュータ200に送信される。コントロールモジュール510は、ネットワーク2を介して他のユーザのコンピュータ200から音声データを受信すると、当該音声データに対応する音声(発話)をスピーカ180から出力する。 When the control module 510 detects an utterance using the microphone 170 of the player 5 from the HMD 120, the control module 510 identifies the computer 200 to which the voice data corresponding to the utterance is transmitted. The voice data is transmitted to the computer 200 specified by the control module 510. When the control module 510 receives voice data from another user's computer 200 via the network 2, the control module 510 outputs a voice (utterance) corresponding to the voice data from the speaker 180.

メモリモジュール530は、コンピュータ200が仮想空間11をプレイヤ5に提供するために使用されるデータを保持している。ある局面において、メモリモジュール530は、空間情報と、オブジェクト情報と、プレイヤ情報とを保持している。 The memory module 530 holds data used by the computer 200 to provide the virtual space 11 to the player 5. In one aspect, the memory module 530 holds space information, object information, and player information.

空間情報は、仮想空間11を提供するために規定された1つ以上のテンプレートを保持している。 The spatial information holds one or more templates defined to provide the virtual space 11.

オブジェクト情報は、仮想空間11を構成する複数のパノラマ画像13、仮想空間11にオブジェクトを配置するためのオブジェクトデータを含む。パノラマ画像13は、静止画像および動画像を含み得る。パノラマ画像13は、非現実空間の画像と現実空間の画像とを含み得る。非現実空間の画像としては、例えば、コンピュータグラフィックスで生成された画像が挙げられる。 The object information includes a plurality of panoramic images 13 forming the virtual space 11, and object data for arranging objects in the virtual space 11. The panoramic image 13 may include a still image and a moving image. The panoramic image 13 may include an image in unreal space and an image in real space. Examples of the image in the unreal space include an image generated by computer graphics.

プレイヤ情報は、プレイヤ5を識別するプレイヤIDを保持する。プレイヤIDは、例えば、プレイヤが使用するコンピュータ200に設定されるIP(Internet Protocol)アドレスまたはMAC(Media Access Control)アドレスであり得る。別の局面において、プレイヤIDはプレイヤによって設定され得る。プレイヤ情報は、HMDシステム100の制御装置としてコンピュータ200を機能させるためのプログラム等を含む。 The player information holds a player ID that identifies the player 5. The player ID may be, for example, an IP (Internet Protocol) address or a MAC (Media Access Control) address set in the computer 200 used by the player. In another aspect, the player ID may be set by the player. The player information includes a program or the like for causing the computer 200 to function as a control device of the HMD system 100.

メモリモジュール530に格納されているデータおよびプログラムは、HMD120のプレイヤ5によって入力される。あるいは、プロセッサ210が、当該コンテンツを提供する事業者が運営するコンピュータ(例えば、サーバ600)からプログラムあるいはデータをダウンロードして、ダウンロードされたプログラムあるいはデータをメモリモジュール530に格納する。 The data and programs stored in the memory module 530 are input by the player 5 of the HMD 120. Alternatively, the processor 210 downloads a program or data from a computer (for example, the server 600) operated by a business operator that provides the content, and stores the downloaded program or data in the memory module 530.

通信制御モジュール540は、ネットワーク2を介して、サーバ600その他の情報通信装置と通信し得る。 The communication control module 540 can communicate with the server 600 and other information communication devices via the network 2.

ある局面において、コントロールモジュール510及びレンダリングモジュール520は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。別の局面において、コントロールモジュール510及びレンダリングモジュール520は、各処理を実現する回路素子の組み合わせとしても実現され得る。 In one aspect, the control module 510 and the rendering module 520 can be implemented using Unity (registered trademark) provided by Unity Technologies, Inc., for example. In another aspect, the control module 510 and the rendering module 520 can be implemented as a combination of circuit elements that implement each process.

コンピュータ200における処理は、ハードウェアと、プロセッサ210により実行されるソフトウェアとによって実現される。このようなソフトウェアは、ハードディスクその他のメモリモジュール530に予め格納されている場合がある。ソフトウェアは、CD−ROMその他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信制御モジュール540を介してサーバ600その他のコンピュータからダウンロードされた後、記憶モジュールに一旦格納される。そのソフトウェアは、プロセッサ210によって記憶モジュールから読み出され、実行可能なプログラムの形式でRAMに格納される。プロセッサ210は、そのプログラムを実行する。 The processing in the computer 200 is realized by hardware and software executed by the processor 210. Such software may be stored in advance in the memory module 530 such as a hard disk. The software may be stored in a computer-readable non-volatile data recording medium such as a CD-ROM and distributed as a program product. Alternatively, the software may be provided as a downloadable program product by an information provider connected to the Internet or other network. Such software is read from a data recording medium by an optical disk drive or other data reading device, or downloaded from the server 600 or other computer via the communication control module 540, and then temporarily stored in the storage module. .. The software is read from the storage module by the processor 210 and stored in the RAM in the form of an executable program. The processor 210 executes the program.

[モジュールの詳細構成]
図12を参照して、コンピュータ200のモジュール構成の詳細について説明する。図12は、ある実施の形態に従うコンピュータ200のモジュールの詳細構成を表わすブロック図である。図12に示されるように、コントロールモジュール510は、仮想オブジェクト生成モジュール1421、仮想カメラ制御モジュール1422、操作オブジェクト制御モジュール1423、アバターオブジェクト制御モジュール1424、動き検出モジュール1425、衝突検出モジュール1426、および仮想オブジェクト制御モジュール1427を備えている。
[Detailed module configuration]
The module configuration of the computer 200 will be described in detail with reference to FIG. FIG. 12 is a block diagram showing a detailed configuration of modules of computer 200 according to an embodiment. As shown in FIG. 12, the control module 510 includes a virtual object generation module 1421, a virtual camera control module 1422, an operation object control module 1423, an avatar object control module 1424, a motion detection module 1425, a collision detection module 1426, and a virtual object. A control module 1427 is provided.

仮想オブジェクト生成モジュール1421は、各種の仮想オブジェクトを仮想空間11に配置するためのデータを生成する。ある局面において、仮想オブジェクトは、例えば、ゲームのストーリーの進行に従って配置される森、山その他を含む風景、街並み、動物等を含み得る。ある局面において、仮想オブジェクトは、アバターオブジェクト、操作オブジェクト、およびステージオブジェクトを含み得る。 The virtual object generation module 1421 generates data for arranging various virtual objects in the virtual space 11. In an aspect, the virtual object may include, for example, landscapes including forests, mountains, and the like, cityscapes, animals, and the like arranged according to the progress of the game story. In one aspect, virtual objects can include avatar objects, control objects, and stage objects.

仮想カメラ制御モジュール1422は、仮想空間11における仮想カメラ14の挙動を制御する。仮想カメラ制御モジュール1422は、例えば、仮想空間11における仮想カメラ14の配置位置と、仮想カメラ14の向き(傾き)とを制御する。 The virtual camera control module 1422 controls the behavior of the virtual camera 14 in the virtual space 11. The virtual camera control module 1422 controls, for example, the arrangement position of the virtual camera 14 in the virtual space 11 and the orientation (tilt) of the virtual camera 14.

操作オブジェクト制御モジュール1423は、仮想空間11においてプレイヤ5の操作を受け付けるための操作オブジェクトを制御する。プレイヤ5は、操作オブジェクトを操作することによって、例えば、仮想空間11に配置される仮想オブジェクトを操作する。ある局面において、操作オブジェクトは、例えば、HMD120を装着したプレイヤ5の手に相当する手オブジェクト(仮想手)等を含み得る。ある局面において、操作オブジェクトは、後述するアバターオブジェクトの手の部分に相当し得る。 The operation object control module 1423 controls an operation object for receiving the operation of the player 5 in the virtual space 11. The player 5 operates, for example, a virtual object arranged in the virtual space 11 by operating the operation object. In one aspect, the operation object may include, for example, a hand object (virtual hand) corresponding to the hand of the player 5 wearing the HMD 120. In one aspect, the operation object may correspond to the hand portion of the avatar object described below.

アバターオブジェクト制御モジュール1424は、HMDセンサ410が検出するプレイヤ5の動きをアバターオブジェクトに反映する。例えば、アバターオブジェクト制御モジュール1424は、プレイヤ5がしゃがみこんだことを検知して、アバターオブジェクトをしゃがみこませるためのデータを生成する。ある局面において、アバターオブジェクト制御モジュール1424は、コントローラ300の動きをアバターオブジェクトに反映する。この場合、コントローラ300は、コントローラ300の動きを検知するためのモーションセンサ、加速度センサ、または複数の発光素子(例えば、赤外線LED)などを備える。アバターオブジェクト制御モジュール1424は、動き検出モジュール1425が検出した顔器官の動作を、仮想空間11に配置されるアバターオブジェクトの顔に反映させる。つまり、アバターオブジェクト制御モジュール1424は、プレイヤ5の顔の動作をアバターオブジェクトに反映する。 The avatar object control module 1424 reflects the movement of the player 5 detected by the HMD sensor 410 on the avatar object. For example, the avatar object control module 1424 detects that the player 5 has crouched and generates data for crouching the avatar object. In an aspect, the avatar object control module 1424 reflects the movement of the controller 300 on the avatar object. In this case, the controller 300 includes a motion sensor for detecting the movement of the controller 300, an acceleration sensor, or a plurality of light emitting elements (for example, infrared LEDs). The avatar object control module 1424 reflects the motion of the facial organs detected by the motion detection module 1425 on the face of the avatar object placed in the virtual space 11. That is, the avatar object control module 1424 reflects the action of the face of the player 5 on the avatar object.

動き検出モジュール1425は、プレイヤ5の動きを検出する。動き検出モジュール1425は、例えば、コントローラ300の出力に応じて、プレイヤ5の手の動きを検出する。動き検出モジュール1425は、例えば、HMDセンサ410の出力に応じて、プレイヤ5の身体の動きを検出する。動き検出モジュール1425は、プレイヤ5の顔器官の動作を検出することもできる。 The movement detection module 1425 detects the movement of the player 5. The movement detection module 1425 detects the movement of the hand of the player 5, for example, according to the output of the controller 300. The movement detection module 1425 detects the movement of the body of the player 5 according to the output of the HMD sensor 410, for example. The motion detection module 1425 can also detect the motion of the facial organs of the player 5.

衝突検出モジュール1426は、仮想空間11に配置される仮想オブジェクトのそれぞれが、他の仮想オブジェクトと衝突した場合に、当該衝突を検出する。衝突検出モジュール1426は、例えば、ある仮想オブジェクトと、別の仮想オブジェクトとが触れたタイミングを検出することができる。衝突検出モジュール1426は、ある仮想オブジェクトと他の仮想オブジェクトとが触れている状態から離れたタイミングを検出することができる。衝突検出モジュール1426は、ある仮想オブジェクトと他の仮想オブジェクトとが触れている状態であることを検出することもできる。衝突検出モジュール1426は、例えば、操作オブジェクトと、他の仮想オブジェクトとが触れたときに、これら操作オブジェクトと他のオブジェクトとが触れたことを検出する。衝突検出モジュール1426は、これらの検出結果に基づいて、予め定められた処理を実行する。 The collision detection module 1426 detects a collision when each of the virtual objects arranged in the virtual space 11 collides with another virtual object. The collision detection module 1426 can detect the timing at which a certain virtual object touches another virtual object, for example. The collision detection module 1426 can detect the timing when the virtual object and the other virtual object are apart from each other. The collision detection module 1426 can also detect that one virtual object is in contact with another virtual object. The collision detection module 1426 detects, for example, when the operation object touches another virtual object, the operation object touches the other object. The collision detection module 1426 executes a predetermined process based on these detection results.

仮想オブジェクト制御モジュール1427は、仮想空間11において、アバターオブジェクトを除く仮想オブジェクトの挙動を制御する。一例として、仮想オブジェクト制御モジュール1427は、仮想オブジェクトを変形させる。別の例として、仮想オブジェクト制御モジュール1427は、仮想オブジェクトの配置位置を変更する。別の例として、仮想オブジェクト制御モジュール1427は、仮想オブジェクトを移動させる。 The virtual object control module 1427 controls the behavior of virtual objects other than the avatar object in the virtual space 11. As an example, the virtual object control module 1427 transforms the virtual object. As another example, the virtual object control module 1427 changes the placement position of the virtual object. As another example, virtual object control module 1427 moves a virtual object.

[ユーザ端末のハードウェア構成]
図13を参照して、本実施の形態に係るユーザ端末(視聴者端末)800について説明する。図13は、ある実施の形態に従うユーザ端末800のハードウェア構成の一例を表すブロック図である。ユーザ端末800(コンピュータ、情報処理装置)は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。ユーザ端末800は、ゲームプレイに適したゲーム装置であってもよい。ユーザ端末800は図示の通り、プロセッサ810と、メモリ820と、ストレージ830と、通信IF13と、入出力IF840と、タッチスクリーン870(表示部)と、カメラ860と、測距センサ880とを備える。ユーザ端末800が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、ユーザ端末800は、タッチスクリーン870に代えて、または、加えて、ユーザ端末800本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF840を備えていてもよい。
[Hardware configuration of user terminal]
A user terminal (viewer terminal) 800 according to the present embodiment will be described with reference to FIG. FIG. 13 is a block diagram showing an example of a hardware configuration of user terminal 800 according to an embodiment. The user terminal 800 (computer, information processing device) may be a mobile terminal such as a smartphone, a feature phone, a PDA (Personal Digital Assistant), or a tablet computer. The user terminal 800 may be a game device suitable for game play. As illustrated, the user terminal 800 includes a processor 810, a memory 820, a storage 830, a communication IF 13, an input/output IF 840, a touch screen 870 (display unit), a camera 860, and a distance measuring sensor 880. These components included in the user terminal 800 are electrically connected to each other by a communication bus. Note that the user terminal 800 may include an input/output IF 840 to which a display (display unit) configured separately from the main body of the user terminal 800 can be connected instead of or in addition to the touch screen 870.

また、図13に示すように、ユーザ端末800は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、ユーザ端末800と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザ8の入力操作に基づく出力値をユーザ端末800へ送信する。なお、ユーザ8は、配信されるコンテンツを視聴する者でもあるため、視聴者ともいう。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値をユーザ端末800へ送信する。 Further, as shown in FIG. 13, the user terminal 800 may be configured to be able to communicate with one or more controllers 1020. The controller 1020 establishes communication with the user terminal 800 according to a communication standard such as Bluetooth (registered trademark). The controller 1020 may have one or more buttons or the like, and transmits an output value based on the input operation of the user 8 to the buttons or the like to the user terminal 800. Note that the user 8 is also a viewer because he/she is also a viewer of the distributed content. Further, the controller 1020 may include various sensors such as an acceleration sensor and an angular velocity sensor, and outputs output values of the various sensors to the user terminal 800.

なお、ユーザ端末800がカメラ860および測距センサ880を備えることに代えて、または、加えて、コントローラ1020がカメラ860および測距センサ880を有していてもよい。 Note that instead of or in addition to the user terminal 800 including the camera 860 and the distance measuring sensor 880, the controller 1020 may include the camera 860 and the distance measuring sensor 880.

ユーザ端末800は、例えばゲーム(あるいは視聴)開始時に、コントローラ1020を使用するユーザ8に、該ユーザ8の名前またはログインID等のユーザ識別情報を、該コントローラ1020を介して入力させることが望ましい。これにより、ユーザ端末800は、コントローラ1020とユーザ8とを紐付けることが可能となり、受信した出力値の送信元(コントローラ1020)に基づいて、該出力値がどのユーザ8のものであるかを特定することができる。 It is desirable that the user terminal 800 causes the user 8 who uses the controller 1020 to input the user identification information such as the name or login ID of the user 8 via the controller 1020 when the game (or viewing) is started, for example. As a result, the user terminal 800 can associate the controller 1020 with the user 8 and determine which user 8 the output value belongs to based on the transmission source (controller 1020) of the received output value. Can be specified.

ユーザ端末800が複数のコントローラ1020と通信する場合、各コントローラ1020を各ユーザ8が把持することで、ネットワーク2を介してサーバ600などの他の装置と通信せずに、該1台のユーザ端末800でマルチプレイを実現することができる。また、各ユーザ端末800が無線LAN規格等の無線規格により互いに通信接続する(サーバ600を介さずに通信接続する)ことで、複数台のユーザ端末800によりローカルでマルチプレイを実現することもできる。1台のユーザ端末800によりローカルで上述のマルチプレイを実現する場合、ユーザ端末800は、さらに、サーバ600が備える後述する種々の機能の少なくとも一部を備えていてもよい。また、複数のユーザ端末800によりローカルで上述のマルチプレイを実現する場合、複数のユーザ端末800は、サーバ600が備える後述する種々の機能を分散して備えていてもよい。 When the user terminal 800 communicates with a plurality of controllers 1020, each user 10 holds each controller 1020 so that the user terminal 800 does not communicate with other devices such as the server 600 via the network 2 and the one user terminal Multiplay can be realized with 800. In addition, each user terminal 800 communicates with each other according to a wireless standard such as a wireless LAN standard (communication is connected without passing through the server 600), so that a plurality of user terminals 800 can locally realize multi-play. When the above-described multiplay is locally realized by one user terminal 800, the user terminal 800 may further include at least a part of various functions of the server 600, which will be described later. When the above-described multiplay is locally realized by the plurality of user terminals 800, the plurality of user terminals 800 may be provided with various functions of the server 600, which will be described later, in a distributed manner.

なお、ローカルで上述のマルチプレイを実現する場合であっても、ユーザ端末800はサーバ600と通信を行ってもよい。例えば、あるゲームにおける成績または勝敗等のプレイ結果を示す情報と、ユーザ識別情報とを対応付けてサーバ600に送信してもよい。 Note that the user terminal 800 may communicate with the server 600 even when the above-described multiplay is realized locally. For example, information indicating a play result such as a score or a win or loss in a game and user identification information may be associated with each other and transmitted to the server 600.

また、コントローラ1020は、ユーザ端末800に着脱可能な構成であるとしてもよい。この場合、ユーザ端末800の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線によりユーザ端末800とコントローラ1020とが結合している場合は、ユーザ端末800とコントローラ1020とは、有線を介して信号を送受信する。 Moreover, the controller 1020 may be configured to be attachable to and detachable from the user terminal 800. In this case, a coupling part with the controller 1020 may be provided on at least one surface of the housing of the user terminal 800. When the user terminal 800 and the controller 1020 are connected by wire via the connecting unit, the user terminal 800 and the controller 1020 send and receive signals via wire.

図13に示すように、ユーザ端末800は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF840を介して受け付けてもよい。これにより、ユーザ端末800は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えばゲームプログラムである。 As shown in FIG. 13, the user terminal 800 may accept mounting of the storage medium 1030 such as an external memory card via the input/output IF 840. As a result, the user terminal 800 can read the program and data recorded in the storage medium 1030. The program recorded in the storage medium 1030 is, for example, a game program.

ユーザ端末800は、サーバ600等の外部の装置と通信することにより取得したゲームプログラムをユーザ端末800のメモリ820に記憶してもよいし、記憶媒体1030から読み込むことにより取得したゲームプログラムをメモリ820に記憶してもよい。 The user terminal 800 may store the game program acquired by communicating with an external device such as the server 600 in the memory 820 of the user terminal 800, or the game program acquired by reading from the storage medium 1030 in the memory 820. May be stored in.

以上で説明したとおり、ユーザ端末800は、該ユーザ端末800に対して情報を入力する機構の一例として、通信IF850、入出力IF840、タッチスクリーン870、カメラ860、測距センサ880、およびスピーカ890を備える。入力する機構としての上述の各部は、ユーザ8の入力操作を受け付けるように構成された操作部と捉えることができる。 As described above, the user terminal 800 includes the communication IF 850, the input/output IF 840, the touch screen 870, the camera 860, the distance measuring sensor 880, and the speaker 890 as an example of a mechanism for inputting information to the user terminal 800. Prepare Each of the above-described units as a mechanism for inputting can be regarded as an operation unit configured to receive the input operation of the user 8.

例えば、操作部が、カメラ860および測距センサ880の少なくともいずれか一方で構成される場合、該操作部が、ユーザ端末800の近傍の物体1010を検出し、当該物体の検出結果から入力操作を特定する。一例として、物体1010としてのユーザ8の手、予め定められた形状のマーカーなどが検出され、検出結果として得られた物体1010の色、形状、動き、または、種類などに基づいて入力操作が特定される。より具体的には、ユーザ端末800は、カメラ860の撮影画像からユーザ8の手が検出された場合、該撮影画像に基づき検出されるジェスチャ(ユーザ8の手の一連の動き)を、ユーザ8の入力操作として特定し、受け付ける。なお、撮影画像は静止画であっても動画であってもよい。 For example, when the operation unit is configured by at least one of the camera 860 and the distance measuring sensor 880, the operation unit detects the object 1010 near the user terminal 800 and performs an input operation from the detection result of the object. Identify. As an example, the hand of the user 8 as the object 1010, a marker having a predetermined shape, or the like is detected, and the input operation is specified based on the color, shape, movement, or type of the object 1010 obtained as a detection result. To be done. More specifically, when the hand of the user 8 is detected from the captured image of the camera 860, the user terminal 800 uses the gesture (a series of movements of the hand of the user 8) detected based on the captured image to the user 8 Is specified and accepted as the input operation of. The captured image may be a still image or a moving image.

あるいは、操作部がタッチスクリーン870で構成される場合、ユーザ端末800は、タッチスクリーン870の入力部8701に対して実施されたユーザ8の操作をユーザ8の入力操作として特定し、受け付ける。あるいは、操作部が通信IF850で構成される場合、ユーザ端末800は、コントローラ1020から送信される信号(例えば、出力値)をユーザ8の入力操作として特定し、受け付ける。あるいは、操作部が入出力IF840で構成される場合、該入出力IF840と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザ8の入力操作として特定し、受け付ける。 Alternatively, when the operation unit includes the touch screen 870, the user terminal 800 identifies and accepts the operation of the user 8 performed on the input unit 8701 of the touch screen 870 as the input operation of the user 8. Alternatively, when the operation unit is configured by the communication IF 850, the user terminal 800 identifies and receives a signal (for example, output value) transmitted from the controller 1020 as the input operation of the user 8. Alternatively, when the operation unit is configured by the input/output IF 840, a signal output from an input device (not shown) different from the controller 1020 connected to the input/output IF 840 is specified and accepted as the input operation of the user 8. ..

プロセッサ810は、ユーザ端末800全体の動作を制御する。プロセッサ810は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。 The processor 810 controls the operation of the entire user terminal 800. The processor 810 includes a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit).

プロセッサ810はストレージ830からプログラムを読み出し、メモリ820に展開する。プロセッサ810は展開したプログラムを実行する。 The processor 810 reads the program from the storage 830 and loads it in the memory 820. The processor 810 executes the expanded program.

メモリ820は主記憶装置である。メモリ820は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ820は、プロセッサ810が後述するストレージ830から読み出したプログラムや仮想空間データ、オブジェクトデータ等を一時的に記憶することにより、プロセッサ810に作業領域を提供する。メモリ820は、プロセッサ810がプログラムに従って動作している間に生成した各種データも一時的に記憶する。 The memory 820 is a main storage device. The memory 820 is configured by a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The memory 820 provides a work area to the processor 810 by temporarily storing a program, virtual space data, object data, and the like read by the processor 810 from a storage 830 described later. The memory 820 also temporarily stores various data generated while the processor 810 operates according to the program.

本実施形態においてプログラムとは、ゲームをユーザ端末800により実現するためのゲームプログラムであってもよい。あるいは、該プログラムは、該ゲームをユーザ端末800とサーバ600との協働により実現するためのゲームプログラムであってもよい。あるいは、該プログラムは、該ゲームをユーザ端末800とサーバ600とHMDセット110との協働により実現するためのゲームプログラムであってもよい。なお、ユーザ端末800とサーバ600との協働により実現されるゲームおよびユーザ端末800とサーバ600とHMDセット110との協働により実現されるゲームは、一例として、ユーザ端末800において起動されたブラウザ上で実行されるゲームであってもよい。あるいは、該プログラムは、該ゲームを複数のユーザ端末800の協働により実現するためのゲームプログラムであってもよい。また、各種データとは、ユーザ情報およびゲーム情報などのゲームに関するデータ、ならびに、HMDシステム100の各装置間で送受信する指示または通知を含んでいる。 In the present embodiment, the program may be a game program for realizing the game on the user terminal 800. Alternatively, the program may be a game program for realizing the game by cooperation between the user terminal 800 and the server 600. Alternatively, the program may be a game program for realizing the game by cooperation of the user terminal 800, the server 600, and the HMD set 110. Note that the game realized by the cooperation of the user terminal 800 and the server 600 and the game realized by the cooperation of the user terminal 800, the server 600, and the HMD set 110 are, for example, a browser activated in the user terminal 800. It may be a game executed above. Alternatively, the program may be a game program for realizing the game by cooperation of a plurality of user terminals 800. In addition, the various data includes data regarding the game such as user information and game information, and instructions or notifications transmitted and received between the respective devices of the HMD system 100.

ストレージ830は補助記憶装置である。ストレージ830は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ830には、仮想空間データおよびオブジェクトデータ等が格納される。当該仮想空間データおよびオブジェクトデータ等は、ユーザ端末800が本ゲームに係るアプリケーション(視聴用のアプリケーションを含む)を初めてダウンロードするときや、本ゲームに係るアプリケーション(視聴用のアプリケーションを含む)を更新するときなどに、サーバ600から当該ユーザ端末800に提供される。 The storage 830 is an auxiliary storage device. The storage 830 is configured by a storage device such as a flash memory or an HDD (Hard Disk Drive). The storage 830 stores virtual space data, object data, and the like. The virtual space data and object data are updated when the user terminal 800 first downloads an application (including a viewing application) related to the game, or updates an application (including a viewing application) related to the game. At the time, it is provided from the server 600 to the user terminal 800.

通信IF850は、ユーザ端末800における各種データの送受信を制御する。通信IF850は、例えば、無線LANを介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。 The communication IF 850 controls transmission/reception of various data in the user terminal 800. The communication IF 850 controls, for example, communication using a wireless LAN, wired LAN, wireless LAN, or Internet communication via a mobile phone network, and communication using short-distance wireless communication.

入出力IF840は、ユーザ端末800がデータの入力を受け付けるためのインターフェースであり、またユーザ端末800がデータを出力するためのインターフェースである。入出力IF840は、USB等を介してデータの入出力を行ってもよい。入出力IF840は、例えば、ユーザ端末800の物理ボタン、カメラ、マイク、または、スピーカ等を含み得る。 The input/output IF 840 is an interface for the user terminal 800 to accept data input, and is an interface for the user terminal 800 to output data. The input/output IF 840 may input/output data via a USB or the like. The input/output IF 840 may include, for example, a physical button of the user terminal 800, a camera, a microphone, a speaker, or the like.

ユーザ端末800のタッチスクリーン870は、入力部8701と表示部8702とを組み合わせた電子部品である。入力部8701は、例えばタッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部8702は、例えば液晶ディスプレイ、または有機ELディスプレイ等によって構成される。入力部8701は、入力面に対しユーザ8の操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部8701は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。 The touch screen 870 of the user terminal 800 is an electronic component that combines an input unit 8701 and a display unit 8702. The input unit 8701 is, for example, a touch-sensitive device, and is configured by, for example, a touch pad. The display unit 8702 is composed of, for example, a liquid crystal display, an organic EL display, or the like. The input unit 8701 detects a position at which an operation of the user 8 (mainly a physical contact operation such as a touch operation, a slide operation, a swipe operation, and a tap operation) on the input surface is detected, and information indicating the position is displayed. It has a function of transmitting as an input signal. The input unit 8701 may include a touch sensing unit (not shown). The touch sensing unit may be of any type such as a capacitance type or a resistance film type.

HMDセット110のディスプレイ430は、ユーザ端末800のタッチスクリーン870と同様に、入力部と表示部とを組み合わせたタッチスクリーンによって構成されていてもよい。 Like the touch screen 870 of the user terminal 800, the display 430 of the HMD set 110 may be configured by a touch screen in which an input unit and a display unit are combined.

図示していないが、ユーザ端末800は、該ユーザ端末800の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。ユーザ端末800がセンサを備えている場合、プロセッサ810は、センサの出力からユーザ端末800の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ810は、ユーザ端末800が縦向きに保持されているときには、縦長の画像を表示部8702に表示させる縦画面表示としてもよい。一方、ユーザ端末800が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ810は、ユーザ端末800の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。 Although not shown, the user terminal 800 may include one or more sensors for specifying the holding posture of the user terminal 800. This sensor may be, for example, an acceleration sensor or an angular velocity sensor. When the user terminal 800 includes a sensor, the processor 810 can also specify the holding posture of the user terminal 800 from the output of the sensor and perform processing according to the holding posture. For example, the processor 810 may perform vertical screen display in which a vertically long image is displayed on the display unit 8702 when the user terminal 800 is held vertically. On the other hand, when the user terminal 800 is held in the horizontal orientation, a horizontally long image may be displayed on the display unit. As described above, the processor 810 may be capable of switching between the vertical screen display and the horizontal screen display according to the holding posture of the user terminal 800.

スピーカ890は、音声データに基づき音声を出力する。カメラ860は、イメージセンサ等を含み、レンズから入射する入射光を電気信号に変換することで撮影画像を生成する。 The speaker 890 outputs a sound based on the sound data. The camera 860 includes an image sensor and the like, and converts the incident light incident from the lens into an electric signal to generate a captured image.

測距センサ880は、測定対象物までの距離を測定するセンサである。測距センサ880は、例えば、パルス変換した光を発する光源と、光を受ける受光素子とを含む。測距センサ880は、光源からの発光タイミングと、該光源から発せられた光が測定対象物にあたって反射されて生じる反射光の受光タイミングとにより、測定対象物までの距離を測定する。測距センサ880は、指向性を有する光を発する光源を有することとしてもよい。 The distance measuring sensor 880 is a sensor that measures the distance to the measurement target. The distance measuring sensor 880 includes, for example, a light source that emits pulse-converted light and a light receiving element that receives the light. The distance measuring sensor 880 measures the distance to the measurement object by the light emission timing from the light source and the light reception timing of the reflected light generated by the light emitted from the light source reflected on the measurement object. The distance measuring sensor 880 may include a light source that emits light having directivity.

ここで、ユーザ端末800が、カメラ860と測距センサ880とを用いて、ユーザ端末800の近傍の物体1010を検出した検出結果を、ユーザ8の入力操作として受け付ける例をさらに説明する。カメラ860および測距センサ880は、例えば、ユーザ端末800の筐体の側面に設けられてもよい。カメラ860の近傍に測距センサ880が設けられてもよい。カメラ860としては、例えば赤外線カメラを用いることができる。この場合、赤外線を照射する照明装置および可視光を遮断するフィルタ等が、カメラ860に設けられてもよい。これにより、屋外か屋内かにかかわらず、カメラ860の撮影画像に基づく物体の検出精度をいっそう向上させることができる。 Here, an example in which the user terminal 800 receives the detection result of detecting the object 1010 near the user terminal 800 using the camera 860 and the distance measuring sensor 880 as the input operation of the user 8 will be further described. The camera 860 and the distance measuring sensor 880 may be provided, for example, on the side surface of the housing of the user terminal 800. A distance measuring sensor 880 may be provided near the camera 860. As the camera 860, for example, an infrared camera can be used. In this case, the camera 860 may be provided with a lighting device that emits infrared rays, a filter that blocks visible light, and the like. Thereby, the detection accuracy of the object based on the image captured by the camera 860 can be further improved regardless of whether it is outdoors or indoors.

プロセッサ810は、カメラ860の撮影画像に対して、例えば以下の(1)〜(5)に示す処理のうち1つ以上の処理を行ってもよい。(1)プロセッサ810は、カメラ860の撮影画像に対し画像認識処理を行うことで、該撮影画像にユーザ8の手が含まれているか否かを特定する。プロセッサ810は、上述の画像認識処理において採用する解析技術として、例えばパターンマッチング等の技術を用いてよい。(2)また、プロセッサ810は、ユーザ8の手の形状から、ユーザ8のジェスチャを検出する。プロセッサ810は、例えば、撮影画像から検出されるユーザ8の手の形状から、ユーザ8の指の本数(伸びている指の本数)を特定する。プロセッサ810はさらに、特定した指の本数から、ユーザ8が行ったジェスチャを特定する。例えば、プロセッサ810は、指の本数が5本である場合、ユーザ8が「パー」のジェスチャを行ったと判定する。また、プロセッサ810は、指の本数が0本である(指が検出されなかった)場合、ユーザ8が「グー」のジェスチャを行ったと判定する。また、プロセッサ810は、指の本数が2本である場合、ユーザ8が「チョキ」のジェスチャを行ったと判定する。(3)プロセッサ810は、カメラ860の撮影画像に対し、画像認識処理を行うことにより、ユーザ8の指が人差し指のみ立てた状態であるか、ユーザ8の指がはじくような動きをしたかを検出する。(4)プロセッサ810は、カメラ860の撮影画像の画像認識結果、および、測距センサ880の出力値等の少なくともいずれか1つに基づいて、ユーザ端末800の近傍の物体1010(ユーザ8の手など)とユーザ端末800との距離を検出する。例えば、プロセッサ810は、カメラ860の撮影画像から特定されるユーザ8の手の形状の大小により、ユーザ8の手がユーザ端末800の近傍(例えば所定値未満の距離)にあるのか、遠く(例えば所定値以上の距離)にあるのかを検出する。なお、撮影画像が動画の場合、プロセッサ810は、ユーザ8の手がユーザ端末800に接近しているのか遠ざかっているのかを検出してもよい。(5)カメラ860の撮影画像の画像認識結果等に基づいて、ユーザ8の手が検出されている状態で、ユーザ端末800とユーザ8の手との距離が変化していることが判明した場合、プロセッサ810は、ユーザ8が手をカメラ860の撮影方向において振っていると認識する。カメラ860の撮影範囲よりも指向性が強い測距センサ880において、物体が検出されたりされなかったりする場合に、プロセッサ810は、ユーザ8が手をカメラの撮影方向に直交する方向に振っていると認識する。 The processor 810 may perform one or more processes of the following processes (1) to (5) on the captured image of the camera 860. (1) The processor 810 identifies whether or not the hand of the user 8 is included in the captured image by performing image recognition processing on the captured image of the camera 860. The processor 810 may use, for example, a technique such as pattern matching as the analysis technique used in the above-described image recognition processing. (2) Further, the processor 810 detects the gesture of the user 8 from the shape of the hand of the user 8. The processor 810 specifies the number of fingers of the user 8 (the number of extended fingers) from the shape of the hand of the user 8 detected from the captured image, for example. The processor 810 further specifies the gesture made by the user 8 from the specified number of fingers. For example, when the number of fingers is 5, the processor 810 determines that the user 8 has made a “par” gesture. Further, when the number of fingers is 0 (no finger is detected), the processor 810 determines that the user 8 has made a gesture of “goo”. Further, when the number of fingers is two, the processor 810 determines that the user 8 has made a gesture of “cutting”. (3) The processor 810 performs the image recognition process on the image captured by the camera 860 to determine whether the user's 8 finger is in the state where only the forefinger is raised or the user's 8 finger is repelled. To detect. (4) The processor 810, based on at least one of the image recognition result of the image captured by the camera 860, the output value of the distance measuring sensor 880, and the like, the object 1010 near the user terminal 800 (the hand of the user 8). Etc.) and the user terminal 800. For example, the processor 810 determines whether the hand of the user 8 is near the user terminal 800 (for example, a distance less than a predetermined value) or far (for example, depending on the size of the shape of the hand of the user 8 specified from the image captured by the camera 860). It is detected whether the distance is a predetermined value or more). If the captured image is a moving image, the processor 810 may detect whether the hand of the user 8 is approaching or moving away from the user terminal 800. (5) When it is determined that the distance between the user terminal 800 and the hand of the user 8 changes while the hand of the user 8 is detected based on the image recognition result of the image captured by the camera 860 and the like. The processor 810 recognizes that the user 8 is shaking his hand in the shooting direction of the camera 860. When an object is detected or not detected by the distance measuring sensor 880, which has a higher directivity than the shooting range of the camera 860, the processor 810 causes the user 8 to shake his hand in a direction orthogonal to the shooting direction of the camera. Recognize that.

このように、プロセッサ810は、カメラ860の撮影画像に対する画像認識により、ユーザ8が手を握りこんでいるか否か(「グー」のジェスチャであるか、それ以外のジェスチャ(例えば「パー」)であるか)を検出する。また、プロセッサ810は、ユーザ8の手の形状とともに、ユーザ8がこの手をどのように移動させているかを検出する。また、プロセッサ810は、ユーザ8がこの手をユーザ端末800に対して接近させているのか遠ざけているのかを検出する。このような操作は、例えば、マウスまたはタッチパネルなどのポインティングデバイスを用いた操作に対応させることができる。ユーザ端末800は、例えば、ユーザ8の手の移動に応じて、タッチスクリーン870においてポインタを移動させ、ユーザ8のジェスチャ「グー」を検出する。この場合、ユーザ端末800は、ユーザ8が選択操作を継続中であると認識する。選択操作の継続とは、例えば、マウスがクリックされて押し込まれた状態が維持されること、または、タッチパネルに対してタッチダウン操作がなされた後タッチされた状態が維持されることに対応する。また、ユーザ端末800は、ユーザ8のジェスチャ「グー」が検出されている状態で、さらにユーザ8が手を移動させると、このような一連のジェスチャを、スワイプ操作(またはドラッグ操作)に対応する操作として認識することもできる。また、ユーザ端末800は、カメラ860の撮影画像によるユーザ8の手の検出結果に基づいて、ユーザ8が指をはじくようなジェスチャを検出した場合に、当該ジェスチャを、マウスのクリックまたはタッチパネルへのタップ操作に対応する操作として認識してもよい。 In this way, the processor 810 recognizes whether the user 8 is clasping his/her hand based on the image recognition of the image captured by the camera 860 (whether the gesture is “goo” or another gesture (for example, “par”)). If there is). The processor 810 also detects the shape of the hand of the user 8 and how the user 8 is moving this hand. Further, the processor 810 detects whether the user 8 is moving this hand close to or away from the user terminal 800. Such an operation can correspond to an operation using a pointing device such as a mouse or a touch panel. The user terminal 800, for example, moves the pointer on the touch screen 870 according to the movement of the hand of the user 8 to detect the gesture “goo” of the user 8. In this case, the user terminal 800 recognizes that the user 8 is continuing the selection operation. The continuation of the selection operation corresponds to, for example, maintaining the state where the mouse is clicked and pressed, or maintaining the state where the touch panel is touched after the touchdown operation. Further, when the user 8 further moves the hand while the gesture “goo” of the user 8 is detected, the user terminal 800 responds to such a series of gestures with a swipe operation (or a drag operation). It can also be recognized as an operation. Further, when the user terminal 8 detects a gesture such that the user 8 repels a finger based on the detection result of the hand of the user 8 by the image captured by the camera 860, the user terminal 800 transmits the gesture to a mouse click or a touch panel. It may be recognized as an operation corresponding to the tap operation.

<ユーザ端末800における仮想空間>
図14は、ユーザ端末800において規定される仮想空間11及び視界画像1400の一例を模式的に示す図である。図14(A)では、仮想空間11に、アバターオブジェクト6と他のオブジェクトA〜Dとが配置される。コンピュータ200は、図8に示す仮想空間11におけるアバターオブジェクト6および他のオブジェクトA〜Dの配置・動作等を特定するための動作指図データ(後述)を、ユーザ端末800に配信する。このため、図14に示す仮想空間11におけるアバターオブジェクト6および他のオブジェクトA〜Dの配置や動きは、図8に示す仮想空間11におけるアバターオブジェクト6および他のオブジェクトA〜Dの配置や動きと一致する。ユーザ8Aは、左手にユーザ端末800Aを把持している。図14の例では、ユーザ8Aは、アバターオブジェクト6が実演する番組であるライブゲーム進行パートを、ユーザ端末800Aの画面を視認しながら視聴する。
<Virtual space in user terminal 800>
FIG. 14 is a diagram schematically showing an example of the virtual space 11 and the view field image 1400 defined in the user terminal 800. In FIG. 14A, an avatar object 6 and other objects A to D are arranged in the virtual space 11. The computer 200 delivers, to the user terminal 800, operation instruction data (described later) for specifying the arrangement and operation of the avatar object 6 and the other objects A to D in the virtual space 11 shown in FIG. Therefore, the arrangement and movement of the avatar object 6 and the other objects A to D in the virtual space 11 shown in FIG. 14 are the same as the arrangement and movement of the avatar object 6 and the other objects A to D in the virtual space 11 shown in FIG. Match. The user 8A holds the user terminal 800A in the left hand. In the example of FIG. 14, the user 8A views the live game progress part, which is a program demonstrated by the avatar object 6, while viewing the screen of the user terminal 800A.

ユーザ端末800において規定される仮想空間11において、アバターオブジェクト6は、動作指図データに基づいて、図8に示す仮想空間11におけるアバターオブジェクト6の動きと同じ動きをする。ユーザ8Aは、ユーザ端末800Aの画面を通じて、ライブゲーム進行パートの参加者としてアバターオブジェクト6のパフォーマンスを視聴する。また、他のユーザ8C、8Dは、他のユーザ端末800C、800Dの画面を通じて、ライブゲーム進行パートの参加者としてアバターオブジェクト6のパフォーマンスを視聴する。このように、アバターオブジェクト6によって進行するライブゲーム進行パートは、複数のユーザ8に対して同時に配信される。 In the virtual space 11 defined by the user terminal 800, the avatar object 6 makes the same movement as the movement of the avatar object 6 in the virtual space 11 shown in FIG. 8 based on the movement instruction data. The user 8A views the performance of the avatar object 6 as a participant of the live game progression part through the screen of the user terminal 800A. In addition, the other users 8C and 8D view the performance of the avatar object 6 as participants of the live game progression part through the screens of the other user terminals 800C and 800D. In this way, the live game progress part progressed by the avatar object 6 is simultaneously delivered to the plurality of users 8.

図14(A)の例では、ユーザ端末800Aにより規定された仮想空間11において、アバターオブジェクト6の前方に、仮想カメラ20Aが配置される。仮想カメラ20Aは、当該仮想カメラ20Aの位置および向きに応じた視界領域21を規定する。プロセッサ810は、視界領域21に対応する視界画像1400を生成して、図14(B)に示すように、タッチスクリーン870の表示部8702に表示する。即ち、視界領域21は、仮想カメラ20Aの視点で規定され、視界画像1400も仮想カメラ20Aの視点で表示される。視界画像1400には、パフォーマンスを実行するアバターオブジェクト6が少なくとも含まれる。ユーザ8Aは、視界画像1400を視認することによって、アバターオブジェクト6と、アバターオブジェクト6が登場する仮想空間11の一部とを、視認する。これにより、ユーザ8Aは、あたかもアバターオブジェクト6が実際の配信者であるかのような仮想体験を、得ることができる。 In the example of FIG. 14A, the virtual camera 20A is arranged in front of the avatar object 6 in the virtual space 11 defined by the user terminal 800A. The virtual camera 20A defines the view field 21 according to the position and orientation of the virtual camera 20A. The processor 810 generates a visual field image 1400 corresponding to the visual field region 21 and displays it on the display unit 8702 of the touch screen 870 as shown in FIG. That is, the view field 21 is defined from the viewpoint of the virtual camera 20A, and the view image 1400 is also displayed from the viewpoint of the virtual camera 20A. The view image 1400 includes at least the avatar object 6 that performs the performance. The user 8A visually recognizes the view image 1400 to visually recognize the avatar object 6 and a part of the virtual space 11 in which the avatar object 6 appears. As a result, the user 8A can obtain a virtual experience as if the avatar object 6 were an actual distributor.

<HMDシステム100の機能的構成>
図15は、HMDシステム100に含まれるHMDセット110、ユーザ端末800、およびサーバ600の機能的構成を示すブロック図である。HMDセット110、ユーザ端末800、サーバ600のそれぞれは、図示しない、一般的なコンピュータとして機能する場合に必要な機能的構成、および、ゲームにおける公知の機能を実現するために必要な機能的構成を含み得る。
<Functional configuration of the HMD system 100>
FIG. 15 is a block diagram showing the functional configurations of the HMD set 110, the user terminal 800, and the server 600 included in the HMD system 100. Each of the HMD set 110, the user terminal 800, and the server 600 has a functional configuration necessary for functioning as a general computer (not shown) and a functional configuration necessary for realizing a known function in a game. May be included.

HMDセット110は、図8に示す仮想空間11にオブジェクトを配置・動作等させるとともに、当該オブジェクトを図14に示す仮想空間11に配置・動作等させるための動作指図データを生成し、ユーザ端末800に供給する機能を有する。当該動作指図データは、アバターオブジェクト6によって進行するライブゲーム進行パートにおけるゲームプレイ映像をユーザ端末800において表示可能とするためのデータであればよく、例えば、プレイヤ5(モデルなど)の動きをモーションセンサ420を介して入力したモーションキャプチャデータ(モーションデータともいう)を含んでいてもよいし、プレイヤ5(声優など)の音声を録音した音声データを含んでいてもよいし、プレイヤ5によって他のオブジェクトを動作させるための入力操作の履歴を示す操作履歴データを含んでいてもよいし、一連の入力操作に対応付けられたコマンドや、ゲームプログラムに基づいてオブジェクトを仮想空間11に配置したり移動させるコマンドを時系列に並べたモーションコマンド群を含んでいてもよい。HMDセット110は、プロセッサ210、メモリ220、ストレージ230、通信IF250、および入出力IF240等の協働によって、制御部2100(コントロールモジュール510、レンダリングモジュール520)および記憶部2200(メモリモジュール530)として機能する。 The HMD set 110 arranges/moves an object in the virtual space 11 shown in FIG. 8 and generates movement instruction data for placing/moving the object in the virtual space 11 shown in FIG. Has a function of supplying to. The motion instruction data may be any data as long as it is data for allowing the user terminal 800 to display the game play video in the live game progression part progressed by the avatar object 6. For example, the motion of the movement of the player 5 (model, etc.) Motion capture data (also referred to as motion data) input via 420 may be included, audio data in which the voice of the player 5 (voice actor, etc.) is recorded may be included, and other objects by the player 5 may be included. May include operation history data indicating a history of input operations for moving the object, and arrange or move an object in the virtual space 11 based on a command associated with a series of input operations or a game program. It may include a motion command group in which commands are arranged in time series. The HMD set 110 functions as a control unit 2100 (control module 510, rendering module 520) and a storage unit 2200 (memory module 530) in cooperation with the processor 210, the memory 220, the storage 230, the communication IF 250, the input/output IF 240, and the like. To do.

ユーザ端末800は、ユーザ8の入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。ユーザ端末800は、プロセッサ810、メモリ820、ストレージ830、通信IF850、および入出力IF840等の協働によって、制御部8100および記憶部8200として機能する。 The user terminal 800 has a function as an input device that receives an input operation of the user 8 and a function as an output device that outputs a game image or sound. The user terminal 800 functions as the control unit 8100 and the storage unit 8200 in cooperation with the processor 810, the memory 820, the storage 830, the communication IF 850, the input/output IF 840, and the like.

サーバ600は、各ユーザ端末800と通信して、ユーザ端末800におけるゲーム画像の視聴を支援する機能を有する。例えば、ユーザ端末800が本ゲームに係るアプリケーションを初めてダウンロードするときや更新するときには、ゲームプレイ映像を表示するためにユーザ端末800において記憶させておくべきデータであって、ゲームプレイ映像に含まれ得るオブジェクトのデータ(オブジェクト表示用データ、オブジェクトデータともいう)をユーザ端末800に提供する。 The server 600 has a function of communicating with each user terminal 800 and supporting viewing of a game image on the user terminal 800. For example, when the user terminal 800 first downloads or updates the application related to this game, it is data that should be stored in the user terminal 800 in order to display the game play image, and may be included in the game play image. The object data (also referred to as object display data or object data) is provided to the user terminal 800.

サーバ600は、ユーザ端末800とHMDセット110とを仲介する機能を備えている。これにより、HMDセット110は、適時に、宛先を誤ることなく、ユーザ端末800または複数のユーザ端末800のグループに対して動作指図データを供給することが可能となる。サーバ600は、プロセッサ610、メモリ620、ストレージ630、通信IF650、および入出力IF640等の協働によって、制御部6100および記憶部6200として機能する。 The server 600 has a function of mediating between the user terminal 800 and the HMD set 110. As a result, the HMD set 110 can supply the operation instruction data to the user terminal 800 or a group of a plurality of user terminals 800 in a timely manner and without mistaking the destination. The server 600 functions as the control unit 6100 and the storage unit 6200 in cooperation with the processor 610, the memory 620, the storage 630, the communication IF 650, the input/output IF 640, and the like.

なお、本ゲームがマルチプレイゲームである場合には、サーバ600は、ゲームに参加する各HMDセット110と通信して、HMDセット110同士のやりとりを仲介する機能および同期制御機能を有していてもよい。 If the present game is a multi-play game, the server 600 may have a function of communicating with each HMD set 110 participating in the game to mediate exchange between the HMD sets 110 and a synchronization control function. Good.

記憶部2200は、ゲームプログラム231を格納する。記憶部8200は、ゲームプログラム831を格納する。記憶部6200は、ゲームプログラム631を格納する。ゲームプログラム231は、HMDセット110が実行するゲームプログラムである。ゲームプログラム831は、ユーザ端末800が実行するゲームプログラムである。ゲームプログラム631は、サーバ600が実行するゲームプログラムである。ゲームプログラム231、631、831に基づいて各装置が協働して動作することにより、HMDシステム100に係るゲームが実現される。なお、ゲームプログラム231、831は、記憶部6200に格納され、記憶部2200、8200にそれぞれダウンロードされる構成でもよい。 The storage unit 2200 stores the game program 231. The storage unit 8200 stores a game program 831. The storage unit 6200 stores the game program 631. The game program 231 is a game program executed by the HMD set 110. The game program 831 is a game program executed by the user terminal 800. The game program 631 is a game program executed by the server 600. A game related to the HMD system 100 is realized by the devices operating in cooperation with each other based on the game programs 231, 631, and 831. The game programs 231 and 831 may be stored in the storage unit 6200 and downloaded to the storage units 2200 and 8200, respectively.

また、記憶部2200、8200および6200は、それぞれ、ゲーム情報132およびユーザ情報133を格納する。ゲーム情報132は、制御部2100、8100および6100が、ゲームプログラム231、831、631をそれぞれ実行する際に参照するデータである。ユーザ情報133は、ユーザ8のアカウントに関するデータである。記憶部2200および6200において、ゲーム情報132およびユーザ情報133は、ユーザ端末800ごとに格納されている。なお、ユーザ情報133には、仮想通貨(課金アイテム)の購入履歴、特定のアイテムの購入または取得履歴が含まれていてもよい。 The storage units 2200, 8200, and 6200 store game information 132 and user information 133, respectively. The game information 132 is data that the control units 2100, 8100 and 6100 refer to when executing the game programs 231, 831 and 631, respectively. The user information 133 is data regarding the account of the user 8. In the storage units 2200 and 6200, the game information 132 and the user information 133 are stored for each user terminal 800. The user information 133 may include a purchase history of virtual currency (billing item) and a purchase or acquisition history of a specific item.

(HMDセット110の機能的構成)
制御部2100は、記憶部2200に格納されたゲームプログラム231を実行することにより、HMDセット110を統括的に制御する。例えば、制御部2100は、ゲームプログラム231およびプレイヤ5の操作に従って図8に示す仮想空間11にオブジェクトを配置・動作等させるとともに、当該配置・動作に伴う動作指図データを生成し、ユーザ端末800に供給する。制御部2100は、必要に応じて、さらにゲームプログラム231を実行してもよい。また、制御部2100は、サーバ600および本ゲームを実行中のユーザ端末800と通信して、情報の送受信を行う。
(Functional configuration of the HMD set 110)
The control unit 2100 executes the game program 231 stored in the storage unit 2200 to integrally control the HMD set 110. For example, the control unit 2100 arranges/moves an object in the virtual space 11 shown in FIG. 8 according to the operations of the game program 231 and the player 5, generates operation instruction data associated with the arrangement/motion, and causes the user terminal 800 to generate the motion instruction data. Supply. The control unit 2100 may further execute the game program 231 if necessary. Further, the control unit 2100 communicates with the server 600 and the user terminal 800 that is executing the present game to send and receive information.

制御部2100は、ゲームプログラム231の記述に応じて、操作受付部2101、表示制御部2102、UI制御部2103、アニメーション生成部2104、ゲーム進行部2105、仮想空間制御部2106、および反応処理部2107として機能する。制御部2100は、HMDシステム100において実行されるゲームの性質に応じて、該ゲームに登場するオブジェクトを制御するために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 2100, according to the description of the game program 231, the operation reception unit 2101, the display control unit 2102, the UI control unit 2103, the animation generation unit 2104, the game progress unit 2105, the virtual space control unit 2106, and the reaction processing unit 2107. Function as. The control unit 2100 can also function as another functional block (not shown) in order to control an object that appears in the game according to the property of the game executed in the HMD system 100.

操作受付部2101は、プレイヤ5の入力操作を検知し受け付ける。入力操作は、例えば、HMD120、モーションセンサ420、ディスプレイ430がタッチスクリーンである場合に表示部と一体に形成された入力部、マウス(図示せず)、キーボード(図示せず)等の各種の入力装置から、入出力IF34を介して入力される。操作受付部2101は、プレイヤ5が及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部2100の各要素に出力する。 The operation receiving unit 2101 detects and receives the input operation of the player 5. The input operation is, for example, an input unit integrally formed with the display unit when the HMD 120, the motion sensor 420, and the display 430 are touch screens, a mouse (not shown), a keyboard (not shown), and the like. It is input from the device through the input/output IF 34. The operation reception unit 2101 determines what input operation is performed based on the action exerted by the player 5, and outputs the result to each element of the control unit 2100.

ユーザインターフェース(以下、UI)制御部2103は、HMD120又はディスプレイ430に表示させるUI画像を制御する。 A user interface (hereinafter, UI) control unit 2103 controls the UI image displayed on the HMD 120 or the display 430.

アニメーション生成部2104は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部2104は、通信相手となるユーザ端末800上実際に表示されているゲーム画面を再現したアニメーション等を生成してもよい。 The animation generation unit 2104 generates animations showing the motions of various objects based on the control modes of various objects. For example, the animation generation unit 2104 may generate an animation or the like that reproduces the game screen actually displayed on the user terminal 800 that is the communication partner.

表示制御部2102は、HMD120又はディスプレイ430に対して、上述の各要素によって実行された処理結果が反映された画像を出力する。 The display control unit 2102 outputs, to the HMD 120 or the display 430, an image in which the processing result executed by each of the above-described elements is reflected.

ゲーム進行部2105は、プレイヤ5による入力操作に応じたアバターオブジェクト6と、ユーザ端末800のユーザ8の操作とに基づいて、ゲームを進行する。例えば、ゲーム進行部2105は、アバターオブジェクト6が所定の動作を行った場合に、所定のゲーム処理を行う。また、例えば、ゲーム進行部2105は、ユーザ端末800におけるユーザ8の操作を表す情報を受信し、当該ユーザ8の操作に基づいてゲーム処理を行う。ゲーム進行部2105は、当該ゲーム処理に基づいて各種のゲームパラメータを更新する。当該ゲームパラメータを含むゲーム情報は、サーバ600を介してユーザ端末800に供給される。 The game progression unit 2105 progresses the game based on the avatar object 6 according to the input operation by the player 5 and the operation of the user 8 of the user terminal 800. For example, the game progression unit 2105 performs a predetermined game process when the avatar object 6 performs a predetermined action. Further, for example, the game progression unit 2105 receives information indicating the operation of the user 8 on the user terminal 800, and performs the game process based on the operation of the user 8. The game progression unit 2105 updates various game parameters based on the game process. The game information including the game parameter is supplied to the user terminal 800 via the server 600.

仮想空間制御部2106は、図12を参照して説明したコントロールモジュール510のモジュール1421〜1427を含む。これらの詳細については、既に説明した通りである。 The virtual space control unit 2106 includes the modules 1421 to 1427 of the control module 510 described with reference to FIG. These details are as already described.

仮想空間制御部2106は、ユーザ端末800との間で仮想空間11を共有するための各種の制御を行う。図16は、仮想空間制御部2106の詳細な構成を示す図である。図16に示すように、仮想空間制御部2106は、図12を参照して説明したモジュール1421〜1427を含む。仮想空間制御部2106は、これらのモジュール1421〜1427の動作により、当該HMDセット110において、アバターオブジェクト6を動作させるとともに仮想オブジェクトの挙動を制御する。また、仮想空間制御部2106は、モジュール1421〜1427の動作に基づいて、ユーザ端末800においてアバターオブジェクト6を動作させるための動作指図データ、各仮想オブジェクトの挙動を制御するための動作指図データを生成する。これらの動作指図データは、サーバ600を介してユーザ端末800に供給される。例えば、仮想空間制御部2106は、プレイヤ5(声優など)が、マイク170を介して入力した音声データに基づいて、制御対象のオブジェクトに発言させることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述の音声データが少なくとも含まれる。また、例えば、プレイヤ5(モデルなど)が、モーションセンサ420を介して入力したモーションキャプチャデータに基づく動きを、制御対象のオブジェクトに行わせることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述のモーションキャプチャデータが少なくとも含まれる。また、例えば、プレイヤ5が、コントローラ300などの入力機構またはタッチスクリーン、マウス、キーボード等の操作部を介して入力した入力操作の履歴、すなわち、操作履歴データに基づいて、制御対象のオブジェクトを動作させることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述の操作履歴データが少なくとも含まれる。操作履歴データは、例えば、HMD120にどの画面が表示されているときに、プレイヤ5が、コントローラ300のどのボタンをどのタイミングで押したのかを示す操作ログが時系列で整理されている情報である。あるいは、仮想空間制御部2106は、プレイヤ5が上述の入力機構または操作部を介して入力した入力操作に対応付けられた、オブジェクトの動作を指示するコマンドを特定する。そして、仮想空間制御部2106は、該コマンドを入力された順に並べてオブジェクトの一連の動作を示すモーションコマンド群を生成し、該モーションコマンド群にしたがってオブジェクトを動作させることを指示する動作指図データを生成してもよい。このようにして生成された動作指図データには、上述のモーションコマンド群が少なくとも含まれる。 The virtual space control unit 2106 performs various controls for sharing the virtual space 11 with the user terminal 800. FIG. 16 is a diagram showing a detailed configuration of the virtual space control unit 2106. As shown in FIG. 16, the virtual space control unit 2106 includes the modules 1421 to 1427 described with reference to FIG. The virtual space control unit 2106 operates the avatar object 6 in the HMD set 110 and controls the behavior of the virtual object by the operations of these modules 1421 to 1427. In addition, the virtual space control unit 2106 generates the operation instruction data for operating the avatar object 6 in the user terminal 800 and the operation instruction data for controlling the behavior of each virtual object based on the operation of the modules 1421 to 1427. To do. These operation instruction data are supplied to the user terminal 800 via the server 600. For example, the virtual space control unit 2106 generates motion instruction data for instructing the object to be controlled to speak based on the voice data input by the player 5 (voice actor, etc.) via the microphone 170. The operation instruction data thus generated includes at least the above-mentioned voice data. In addition, for example, the player 5 (model or the like) generates motion instruction data for instructing the object to be controlled to perform a motion based on the motion capture data input via the motion sensor 420. The motion instruction data thus generated includes at least the above-mentioned motion capture data. In addition, for example, the player 5 operates an object to be controlled based on a history of input operations input by the player 5 via an input mechanism such as the controller 300 or an operation unit such as a touch screen, a mouse, and a keyboard, that is, operation history data. The motion instruction data for instructing the action is generated. The motion instruction data thus generated includes at least the above-mentioned operation history data. The operation history data is, for example, information in which an operation log indicating which button of the controller 300 is pressed by the player 5 when the screen is displayed on the HMD 120 is arranged in chronological order. .. Alternatively, the virtual space control unit 2106 identifies a command instructing the operation of the object, which is associated with the input operation input by the player 5 via the above-described input mechanism or operation unit. Then, the virtual space control unit 2106 arranges the commands in the input order to generate a motion command group indicating a series of motions of the object, and generates motion instruction data instructing to operate the object according to the motion command group. You may. The motion command data thus generated includes at least the above-mentioned motion command group.

反応処理部2107は、ユーザ端末800からユーザ8の反応についてフィードバックを受け付けて、これをHMDセット110のプレイヤ5に対して出力する。本実施形態では、例えば、ユーザ端末800は、上述の動作指図データに従ってオブジェクトを動作させている間、該オブジェクトに宛てて、ユーザ8がコメントを作成することができる。反応処理部2107は、該コメントのコメントデータを受け付けて、これを、出力する。反応処理部2107は、ユーザ8のコメントに対応するテキストデータを、表示部352に表示してもよいし、ユーザ8のコメントに対応する音声データを、図示しないスピーカから出力してもよい。 The reaction processing unit 2107 receives feedback regarding the reaction of the user 8 from the user terminal 800 and outputs it to the player 5 of the HMD set 110. In the present embodiment, for example, the user terminal 800 allows the user 8 to create a comment for the object while operating the object according to the above-described operation instruction data. The reaction processing unit 2107 receives the comment data of the comment and outputs it. The reaction processing unit 2107 may display the text data corresponding to the comment of the user 8 on the display unit 352, or may output the voice data corresponding to the comment of the user 8 from a speaker (not shown).

(サーバ600の機能的構成)
制御部6100は、記憶部6200に格納されたゲームプログラム631を実行することにより、サーバ600を統括的に制御する。例えば、制御部6100は、ユーザ端末800に各種データおよびプログラム等を送信する。制御部6100は、ゲーム情報もしくはユーザ情報の一部または全部をユーザ端末800から受信する。ゲームがマルチプレイゲームである場合には、制御部6100は、HMDセット110からマルチプレイの同期の要求を受信して、同期のためのデータをHMDセット110に送信してもよい。また、制御部6100は、必要に応じて、ユーザ端末800およびHMDセット110と通信して、情報の送受信を行う。
(Functional configuration of server 600)
The control unit 6100 controls the server 600 by executing the game program 631 stored in the storage unit 6200. For example, the control unit 6100 transmits various data and programs to the user terminal 800. The control unit 6100 receives part or all of the game information or the user information from the user terminal 800. When the game is a multi-play game, the control unit 6100 may receive a request for multi-play synchronization from the HMD set 110 and transmit data for synchronization to the HMD set 110. Further, the control unit 6100 communicates with the user terminal 800 and the HMD set 110 to send and receive information as necessary.

制御部6100は、ゲームプログラム631の記述に応じて、進行支援部6101および共有支援部6102として機能する。制御部6100は、実行するゲームの性質に応じて、ユーザ端末800におけるゲームの進行を支援するために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 6100 functions as the progress support unit 6101 and the sharing support unit 6102 according to the description of the game program 631. The control unit 6100 can also function as other functional blocks (not shown) in order to support the progress of the game on the user terminal 800, depending on the nature of the game to be executed.

進行支援部6101は、ユーザ端末800と通信し、ユーザ端末800が、本ゲームに含まれる各種パートを進行するための支援を行う。例えば、進行支援部6101は、ユーザ端末800が、ゲームを進行させるとき、該ゲームを進行させるために必要な情報をユーザ端末800に提供する。 The progress support unit 6101 communicates with the user terminal 800 and provides support for the user terminal 800 to progress various parts included in the present game. For example, the progress support unit 6101 provides the user terminal 800 with information necessary for proceeding the game when the user terminal 800 progresses the game.

共有支援部6102は、複数のユーザ端末800及びHMDセット110と通信し、これらの装置間でゲームの進行及び仮想空間11を共有するための支援を行う。また、共有支援部6102は、オンラインのユーザ端末800とHMDセット110とをマッチングする機能を有していてもよい。これにより、ユーザ端末800とHMDセット110との間の情報の送受信が円滑に実施される。 The sharing support unit 6102 communicates with the plurality of user terminals 800 and the HMD set 110, and supports the progress of the game and sharing of the virtual space 11 between these devices. The sharing support unit 6102 may have a function of matching the online user terminal 800 with the HMD set 110. As a result, information can be smoothly transmitted and received between the user terminal 800 and the HMD set 110.

(ユーザ端末800の機能的構成)
制御部8100は、記憶部8200に格納されたゲームプログラム831を実行することにより、ユーザ端末800を統括的に制御する。例えば、制御部8100は、ゲームプログラム831およびユーザ8の操作に従って、プレイヤ5によるゲームの進行を支援する。また、制御部8100は、プレイヤ5によるゲームの進行中、必要に応じて、サーバ600を介してHMDセット110と通信して、情報の送受信を行う。
(Functional configuration of user terminal 800)
The control unit 8100 centrally controls the user terminal 800 by executing the game program 831 stored in the storage unit 8200. For example, the control unit 8100 supports the progress of the game by the player 5 according to the operations of the game program 831 and the user 8. Further, the control unit 8100 communicates with the HMD set 110 via the server 600 to send and receive information as needed during the progress of the game by the player 5.

制御部8100は、ゲームプログラム831の記述に応じて、操作受付部8101、表示制御部8102、UI制御部113、アニメーション生成部8104、ゲーム進行部8105、仮想空間制御部8106、および進捗情報生成部8107として機能する。制御部8100は、実行するゲームの性質に応じて、ゲームを進行させるために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 8100, according to the description of the game program 831, the operation reception unit 8101, the display control unit 8102, the UI control unit 113, the animation generation unit 8104, the game progress unit 8105, the virtual space control unit 8106, and the progress information generation unit. 8107. The control unit 8100 can also function as other functional blocks (not shown) in order to progress the game depending on the nature of the game to be executed.

操作受付部8101は、入力部8701に対するユーザ8の入力操作を検知し受け付ける。操作受付部8101は、タッチスクリーン870およびその他の入出力IF14を介したコンソールに対してユーザ8が及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部8100の各要素に出力する。操作受付部8101の機能の詳細は、HMDセット110における操作受付部2101のそれとほぼ同様である。 The operation receiving unit 8101 detects and receives the input operation of the user 8 on the input unit 8701. The operation reception unit 8101 determines what input operation has been performed based on the action exerted by the user 8 on the console via the touch screen 870 and other input/output IFs 14, and outputs the result to each element of the control unit 8100. Output. The details of the function of the operation receiving unit 8101 are almost the same as those of the operation receiving unit 2101 in the HMD set 110.

例えば、操作受付部8101は、入力部8701に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部8101は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部8101は、連続して検知されていた入力が途切れると、タッチスクリーン870から接触入力が解除されたことを検知する。 For example, the operation receiving unit 8101 receives an input operation on the input unit 8701, detects the coordinates of the input position of the input operation, and specifies the type of the input operation. The operation reception unit 8101 identifies, as the type of input operation, for example, a touch operation, a slide operation, a swipe operation, a tap operation, or the like. Further, the operation receiving unit 8101 detects that the contact input is released from the touch screen 870 when the input that is continuously detected is interrupted.

UI制御部8103は、UIを構築するために表示部8702に表示させるUI画像を制御する。UI画像は、ユーザ8が、ゲームの進行上必要な入力をユーザ端末800に対して行うためのツール、または、ゲームの進行中に出力される情報をユーザ端末800から得るためのツールである。UI画像は、これには限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。 The UI control unit 8103 controls a UI image displayed on the display unit 8702 to construct a UI. The UI image is a tool for the user 8 to perform input necessary for the progress of the game to the user terminal 800, or a tool for obtaining information output during the progress of the game from the user terminal 800. The UI image is, for example, but not limited to, an icon, a button, a list, a menu screen, or the like.

アニメーション生成部8104は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部8104は、オブジェクトがまるでそこにいるかのように動いたり、口を動かしたり、表情を変えたりする様子を表現したアニメーション等を生成してもよい。 The animation generation unit 8104 generates animations showing the motions of various objects based on the control modes of various objects. For example, the animation generation unit 8104 may generate an animation or the like that represents a state in which an object moves as if it were there, moved its mouth, or changed its facial expression.

表示制御部8102は、タッチスクリーン870の表示部8702に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部8102は、アニメーション生成部8104によって生成されたアニメーションを含むゲーム画面を表示部8702に表示してもよい。また、表示制御部8102は、UI制御部8103によって制御される上述のUI画像を、該ゲーム画面に重畳して描画してもよい。さらに、表示制御部8102は、HMDセット110から供給されたゲーム情報に基づいて、各種ゲームパラメータを該ゲーム画面に重畳して描画してもよい。 The display control unit 8102 outputs, to the display unit 8702 of the touch screen 870, the game screen on which the processing result executed by each element described above is reflected. The display control unit 8102 may display a game screen including the animation generated by the animation generating unit 8104 on the display unit 8702. Also, the display control unit 8102 may superimpose and draw the above-mentioned UI image controlled by the UI control unit 8103 on the game screen. Further, the display control unit 8102 may superimpose and draw various game parameters on the game screen based on the game information supplied from the HMD set 110.

仮想空間制御部8106は、HMDセット110との間で仮想空間11を共有するための各種の制御を行う。図17は、仮想空間制御部8106の詳細な構成を示す図である。図17に示すように、仮想空間制御部8106は、仮想オブジェクト生成モジュール8121と、仮想カメラ制御モジュール8122と、アバターオブジェクト制御モジュール8124と、仮想オブジェクト制御モジュール8127とを含む。 The virtual space control unit 8106 performs various controls for sharing the virtual space 11 with the HMD set 110. FIG. 17 is a diagram showing a detailed configuration of the virtual space control unit 8106. As shown in FIG. 17, the virtual space control unit 8106 includes a virtual object generation module 8121, a virtual camera control module 8122, an avatar object control module 8124, and a virtual object control module 8127.

仮想オブジェクト生成モジュール8121は、図12を参照して説明した仮想オブジェクト生成モジュール1421と同様に構成される。ここで、ユーザ端末800において生成される仮想オブジェクトは、HMDセット110において生成される仮想オブジェクトに同期する。ただし、各仮想オブジェクトを同期するか否かは、仮想オブジェクト毎に定められていてもよい。例えば、HMDセット110で生成された仮想オブジェクトのうち、ユーザ端末800では生成されないものがあってもよい。また、HMDセット110で生成された仮想オブジェクトのうち、ユーザ端末800において異なる表示形態で生成されるものがあってもよい。表示形態とは、例えば、色、透明度等であってもよいが、これらに限られない。さらに、ユーザ端末800において生成される仮想空間11においては、HMDセット110で生成された仮想オブジェクト以外の仮想オブジェクトが含まれるものであってもよい。 The virtual object generation module 8121 has the same configuration as the virtual object generation module 1421 described with reference to FIG. Here, the virtual object generated in the user terminal 800 is synchronized with the virtual object generated in the HMD set 110. However, whether or not to synchronize each virtual object may be determined for each virtual object. For example, among the virtual objects generated by the HMD set 110, some virtual objects may not be generated by the user terminal 800. Further, among the virtual objects generated by the HMD set 110, there may be virtual objects generated in different display modes on the user terminal 800. The display form may be, for example, color, transparency, etc., but is not limited to these. Furthermore, the virtual space 11 created in the user terminal 800 may include virtual objects other than the virtual objects created in the HMD set 110.

仮想カメラ制御モジュール8122は、図12を参照して説明した仮想カメラ制御モジュール1422と同様に構成される。ここで、ユーザ端末800A、800C、800Dにおいて実現される仮想空間11A、11C、11Dに配置される仮想カメラ20A、20C、20Dは、HMDセット110において実現される仮想空間11に配置される仮想カメラ14とは異なるものである。つまり、HMDセット110及びユーザ端末800間で共有される仮想空間11の視界画像は、HMDセット110及びユーザ端末800間で異なり得る。 The virtual camera control module 8122 is configured similarly to the virtual camera control module 1422 described with reference to FIG. Here, the virtual cameras 20A, 20C, 20D arranged in the virtual spaces 11A, 11C, 11D realized in the user terminals 800A, 800C, 800D are the virtual cameras arranged in the virtual space 11 realized in the HMD set 110. It is different from 14. That is, the view image of the virtual space 11 shared between the HMD set 110 and the user terminal 800 may be different between the HMD set 110 and the user terminal 800.

ユーザ端末800A、800C、800Dにおいて、仮想カメラ20A、20C、20Dの位置及び方向は、ユーザ8A、8C、8Dによって操作可能であってもよいし、操作不能であってもよい。また、操作不能である場合、仮想カメラ20A、20C、20Dの位置及び方向は、同一であってもよい。この場合、複数のユーザ8は、各ユーザ端末800を通して、共通の視界画像を視聴することになる。つまり、この場合、複数のユーザ8は、共通の仮想カメラで撮影された視界画像(ライブ映像)を視聴することができる。 In the user terminals 800A, 800C, and 800D, the positions and directions of the virtual cameras 20A, 20C, and 20D may or may not be operable by the users 8A, 8C, and 8D. When the operation is impossible, the positions and directions of the virtual cameras 20A, 20C, 20D may be the same. In this case, the plurality of users 8 will view the common view image through each user terminal 800. That is, in this case, the plurality of users 8 can view the view image (live image) captured by the common virtual camera.

本実施形態では、仮想カメラ20A、20C、20Dの位置及び方向がユーザ8A、8C、8Dによって操作可能であり、複数のユーザ8が互いに異なる視界画像を視聴する例を中心に説明する。ある局面では、仮想カメラ20Aの位置および方向は、ユーザ端末800Aのタッチスクリーンに対するスライド操作(あるいはスワイプ操作)等に応じて変化する。例えば、仮想カメラ20Aの位置は、左方向へのスライド操作に応じて左方向に移動し、右方向へのスライド操作に応じて右方向に移動し、上方向へのスライド操作に応じて上方向に移動し、下方向へのスライド操作に応じて下方向に移動する。このとき、仮想カメラ20Aの向きは、例えば、アバターオブジェクト6が視界領域21に収まるように(具体的にはアバターオブジェクト6が視界領域21の中心となるように)調整される。 In this embodiment, the positions and directions of the virtual cameras 20A, 20C, and 20D can be operated by the users 8A, 8C, and 8D, and a description will be centered on an example in which a plurality of users 8 view different view images. In a certain aspect, the position and direction of the virtual camera 20A change according to a slide operation (or a swipe operation) on the touch screen of the user terminal 800A. For example, the position of the virtual camera 20A moves to the left in response to a slide operation to the left, to the right in response to a slide operation to the right, and upward in response to a slide operation to the up. Move to, and move downward according to the downward slide operation. At this time, the orientation of the virtual camera 20A is adjusted, for example, so that the avatar object 6 fits within the visual field area 21 (specifically, the avatar object 6 becomes the center of the visual field area 21).

アバターオブジェクト制御モジュール8124は、図12を参照して説明したアバターオブジェクト制御モジュール1424に対して、HMD120の動き又はコントローラ300の動きに応じて動作することに替えて、動作指図データに応じて動作する点が異なる他は、同様に構成される。動作指図データは、HMD120動き又はコントローラ300の動きに応じてHMDセット110において生成され、ユーザ端末800に配信される。 The avatar object control module 8124 operates according to the motion instruction data instead of operating according to the movement of the HMD 120 or the movement of the controller 300 with respect to the avatar object control module 1424 described with reference to FIG. The configuration is similar except that the points are different. The operation instruction data is generated in the HMD set 110 according to the movement of the HMD 120 or the movement of the controller 300, and is distributed to the user terminal 800.

仮想オブジェクト制御モジュール8127は、図12を参照して説明した仮想オブジェクト制御モジュール1427に対して、動作指図データに応じて動作する点が異なる他は、同様に構成される。動作指図データは、HMDセット110におけるアバターオブジェクト6以外の仮想オブジェクトの挙動を表すようHMDセット110において生成され、ユーザ端末800に配信される。 The virtual object control module 8127 has the same configuration as the virtual object control module 1427 described with reference to FIG. 12 except that it operates according to the operation instruction data. The motion instruction data is generated in the HMD set 110 so as to represent the behavior of virtual objects other than the avatar object 6 in the HMD set 110, and is distributed to the user terminal 800.

このように、仮想空間制御部8106は、動作指図データを解析して(レンダリングして)、解析結果に基づいてアバターオブジェクト6および仮想オブジェクトなどを動作させる。本実施形態では、仮想空間制御部8106は、HMDセット110によって供給された動作指図データが通信IF33を介して受信されたことをトリガにして、該データに基づいてアバターオブジェクト6又は他の仮想オブジェクトを動作させる。これにより、リアルタイムで動作するアバターオブジェクト6及び他の仮想オブジェクトを、ユーザ8に見せることが可能となる。 In this way, the virtual space control unit 8106 analyzes (renders) the motion instruction data and causes the avatar object 6 and the virtual object to operate based on the analysis result. In the present embodiment, the virtual space control unit 8106 uses the operation instruction data supplied by the HMD set 110 as a trigger to be received via the communication IF 33, and based on the data, the avatar object 6 or another virtual object. To operate. This allows the user 8 to show the avatar object 6 and other virtual objects that operate in real time.

ゲーム進行部8105は、操作受付部8101を介して入力されるユーザ8の入力操作に応じて、HMDセット110のプレイヤ5によるゲームの進行を支援する。例えば、ゲーム進行部8105は、ゲームの進行中に、アイテムオブジェクトを仮想空間11に配置することにより、プレイヤ5によるゲームの進行を支援する。 The game progression unit 8105 supports the progress of the game by the player 5 of the HMD set 110 according to the input operation of the user 8 input through the operation reception unit 8101. For example, the game progression unit 8105 supports the progress of the game by the player 5 by arranging the item objects in the virtual space 11 during the progress of the game.

進捗情報生成部8107は、ゲーム進行部8105が実行しているゲーム支援の進捗を示す進捗情報を生成し、適時、サーバ600またはHMDセット110に送信する。進捗情報は、例えば、現在表示されているゲーム画面を指定する情報を含んでいてもよいし、ゲームの進捗を、時系列で文字および記号等によって示した進行ログを含んでいてもよい。HMDシステム100において、サーバ600およびHMDセット110が進捗情報を必要としない実施形態では、進捗情報生成部8017は省略されてもよい。 The progress information generation unit 8107 generates progress information indicating the progress of the game support executed by the game progress unit 8105, and transmits the progress information to the server 600 or the HMD set 110 at appropriate times. The progress information may include, for example, information designating the currently displayed game screen, or may include a progress log showing the progress of the game in time series by characters and symbols. In the HMD system 100, in an embodiment in which the server 600 and the HMD set 110 do not need progress information, the progress information generation unit 8017 may be omitted.

なお、図15に示すHMDセット110、サーバ600およびユーザ端末800の機能は一例にすぎない。HMDセット110、サーバ600およびユーザ端末800の各装置は、他の装置が備える機能の少なくとも一部を備えていてもよい。さらに、HMDセット110、サーバ600およびユーザ端末800以外のさらに別の装置をHMDシステム100の構成要素とし、該別の装置にHMDシステム100における処理の一部を実行させてもよい。すなわち、本実施形態においてゲームプログラムを実行するコンピュータは、HMDセット110、サーバ600およびユーザ端末800およびそれ以外の別の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。 Note that the functions of the HMD set 110, the server 600, and the user terminal 800 shown in FIG. 15 are merely examples. Each device of the HMD set 110, the server 600, and the user terminal 800 may have at least a part of the functions of another device. Furthermore, another device other than the HMD set 110, the server 600, and the user terminal 800 may be a constituent element of the HMD system 100, and the other device may execute a part of the processing in the HMD system 100. That is, the computer that executes the game program in the present embodiment may be any of the HMD set 110, the server 600, the user terminal 800, and another device other than the HMD set 110, and is realized by a combination of a plurality of these devices. May be.

なお、図15に示すサーバ600およびユーザ端末800の機能は一例にすぎない。サーバ600は、ユーザ端末800が備える機能の少なくとも一部を備えていてもよい。また、ユーザ端末800は、サーバ600が備える機能の少なくとも一部を備えていてもよい。さらに、ユーザ端末800およびサーバ600以外の他の装置をHMDシステム100の構成要素とし、該他の装置にHMDシステム100における処理の一部を実行させてもよい。すなわち、本実施形態においてゲームプログラムを実行するコンピュータは、ユーザ端末800、サーバ600、および他の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。 Note that the functions of the server 600 and the user terminal 800 shown in FIG. 15 are merely examples. The server 600 may include at least a part of the functions included in the user terminal 800. In addition, the user terminal 800 may include at least a part of the functions included in the server 600. Further, an apparatus other than the user terminal 800 and the server 600 may be a constituent element of the HMD system 100, and the other apparatus may be caused to execute a part of the processing in the HMD system 100. That is, the computer that executes the game program in the present embodiment may be any of the user terminal 800, the server 600, and other devices, or may be realized by a combination of a plurality of these devices.

<ゲーム概要>
図18(A)〜図18(D)を参照して、本実施形態に係るHMDシステム100が実行するゲーム(以下、本ゲーム)は、一例として、銃、ナイフ等の武器を操作するアバターオブジェクト6と、複数の敵オブジェクト23とを仮想空間11に登場させ、アバターオブジェクト6に敵オブジェクト23との対戦を行わせるゲームである。アバターオブジェクト6の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト23の残数等の各種ゲームパラメータは、ゲームの進行に応じて更新される。
<Game outline>
With reference to FIGS. 18A to 18D, the game executed by the HMD system 100 according to the present embodiment (hereinafter, this game) is, for example, an avatar object for operating a weapon such as a gun or a knife. 6 and a plurality of enemy objects 23 are made to appear in the virtual space 11, and the avatar object 6 is made to compete with the enemy objects 23. Various game parameters such as the physical strength of the avatar object 6, the number of magazines that can be used, the number of remaining bullets of the gun, the number of remaining enemy objects 23, etc. are updated according to the progress of the game.

本ゲームには、複数のステージが用意されており、プレイヤ5は、各ステージに関連付けられている所定の達成条件を成立させることにより、当該ステージをクリアすることができる。所定の達成条件としては、例えば、出現する敵オブジェクト23をすべて倒すことや、出現する敵オブジェクト23のうちボスオブジェクトを倒すこと、所定のアイテムを獲得すること、所定位置に到達することなどにより成立する条件を含むものであってもよい。 A plurality of stages are prepared in this game, and the player 5 can clear the stage by satisfying a predetermined achievement condition associated with each stage. The predetermined achievement condition is established by, for example, defeating all the appearing enemy objects 23, defeating a boss object among the appearing enemy objects 23, acquiring a predetermined item, or reaching a predetermined position. It may include a condition to do.

本ゲームでは、HMDセット110及び複数のユーザ端末800の間で仮想空間11を共有するために、上記各種ゲームパラメータを含むゲーム情報と、オブジェクトを配置・動作等させるための動作指図データとが、所定時間毎に複数のユーザ端末800にライブ配信される。 In this game, in order to share the virtual space 11 between the HMD set 110 and the plurality of user terminals 800, game information including the above-mentioned various game parameters and operation instruction data for arranging/moving an object, It is delivered live to a plurality of user terminals 800 every predetermined time.

この結果、ゲームを視聴中のユーザ端末800のタッチスクリーン870には、仮想空間11のうち、ユーザ端末800に対応する仮想カメラ20によって規定される視界領域21の視界画像1400が表示される。また、視界画像1400の右上段および左上段には、アバターオブジェクト6の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト23の残数等を表すパラメータ画像が重畳的に表示される。 As a result, on the touch screen 870 of the user terminal 800 that is watching the game, the view image 1400 of the view area 21 defined by the virtual camera 20 corresponding to the user terminal 800 in the virtual space 11 is displayed. In addition, in the upper right and upper left of the view image 1400, parameter images representing the physical strength of the avatar object 6, the number of usable magazines, the number of remaining bullets of the gun, the number of remaining enemy objects 23, and the like are superimposed and displayed. It

動作指図データの詳細は次のとおりである。即ち、ライブ配信中、HMDセット110のコンピュータ200は、プレイヤ5の操作に応じてアバターオブジェクト6の動作を制御するための動作指図データ、ゲームプログラムに従って敵オブジェクト23等の他のオブジェクトの配置・動作等を制御するための動作指図データなどを生成し、当該動作指図データをサーバ600を介して複数のユーザ端末800に配信する。複数のユーザ端末800の各々は、当該動作指図データを受信したことをトリガにして、当該動作指図データを解析する(レンダリングする)。 Details of the operation instruction data are as follows. That is, during the live distribution, the computer 200 of the HMD set 110 causes the operation instruction data for controlling the operation of the avatar object 6 according to the operation of the player 5, and the placement and operation of other objects such as the enemy object 23 according to the game program. For example, operation instruction data for controlling the above is generated, and the operation instruction data is distributed to the plurality of user terminals 800 via the server 600. Each of the plurality of user terminals 800 analyzes (renders) the operation instruction data, triggered by receiving the operation instruction data.

即ち、当該動作指図データは、配置するオブジェクトの種別、オブジェクトの位置、姿勢、向き等を特定するための情報を含んでおり、ユーザ端末800は、当該動作指図データを解析することにより、どのオブジェクトを仮想空間11内のどの位置にどのような姿勢・向きで配置するか等を特定する。 That is, the action instruction data includes information for specifying the type of the object to be placed, the position, the posture, the orientation, etc. of the object, and the user terminal 800 analyzes which object by analyzing the action instruction data. At what position in the virtual space 11 and in what attitude and orientation, etc. are specified.

ユーザ端末800のメモリ820には、アバターオブジェクト6、敵オブジェクト23等のオブジェクトデータが予め記憶されている。ユーザ端末800は、当該オブジェクトデータを用いて、当該動作指図データの解析結果に応じた種別のオブジェクトを、当該解析結果に応じた仮想空間11内の位置に、当該解析結果に応じた姿勢・向き等で配置する。ユーザ端末800により規定された仮想空間11におけるアバターオブジェクト6、敵オブジェクト23等の配置や動きは、コンピュータ200により規定された仮想空間11におけるアバターオブジェクト6、敵オブジェクト23等の配置や動きと一致する。 Object data such as the avatar object 6 and the enemy object 23 is stored in advance in the memory 820 of the user terminal 800. The user terminal 800 uses the object data to set an object of a type according to the analysis result of the operation instruction data at a position in the virtual space 11 according to the analysis result, and a posture/orientation according to the analysis result. And so on. The arrangement and movement of the avatar object 6, the enemy object 23, etc. in the virtual space 11 defined by the user terminal 800 match the arrangement and movement of the avatar object 6, the enemy object 23, etc. in the virtual space 11 specified by the computer 200. ..

HMDセット110のコンピュータ200は、本ゲームを視聴中のユーザ端末800の数(視聴者数)に応じて、本ゲームの難易度に相当するレベルデザインを変動させる。即ち、コンピュータ200は、複数のステージの各々が開始される際の視聴者数に応じて、当該ステージに関連付けられた達成条件を成立させる難易度を調整する。ある局面では、コンピュータ200は、視聴者数が多くなると後述するように視聴者から多くの支援を期待できる結果、プレイヤ5がゲームを簡単にクリアしてしまうことを防止するために、ゲームの難易度を高くする。 The computer 200 of the HMD set 110 changes the level design corresponding to the difficulty level of the game according to the number of user terminals 800 (viewers) who are viewing the game. That is, the computer 200 adjusts the degree of difficulty for satisfying the achievement condition associated with the stage according to the number of viewers when each of the plurality of stages is started. In one aspect, the computer 200 can expect a lot of support from viewers as will be described later when the number of viewers increases, and as a result, the difficulty of the game is prevented in order to prevent the player 5 from easily clearing the game. Increase the degree.

当該難易度は、例えば、敵オブジェクト23の戦闘能力および出現量と、アバターオブジェクト6の戦闘能力とに基づいて規定される。ある局面では、コンピュータ200は、視聴者数が0人であるとき、敵オブジェクト23の戦闘能力および出現量、アバターオブジェクト6の戦闘能力の各々を初期値に設定し、視聴者数が多くなるほど、敵オブジェクト23の戦闘能力や出現量の各々を当該初期値から増大させたりしてもよいし、アバターオブジェクト6の戦闘能力を当該初期値から減少させたりしてもよい。初期値が設定される視聴者の人数は、視聴者数が0人である場合でなく、0人以外の任意の人数である場合としてもよい。 The difficulty level is defined based on, for example, the fighting ability and appearance amount of the enemy object 23 and the fighting ability of the avatar object 6. In one aspect, when the number of viewers is 0, the computer 200 sets each of the combat ability and the appearance amount of the enemy object 23 and the battle ability of the avatar object 6 to initial values, and as the number of viewers increases, Each of the combat ability and the appearance amount of the enemy object 23 may be increased from the initial value, or the combat ability of the avatar object 6 may be decreased from the initial value. The number of viewers to which the initial value is set is not limited to the case where the number of viewers is 0, and may be the case where the number is any number other than 0.

ある局面では、敵オブジェクト23の戦闘能力は、当該敵オブジェクト23の移動速度(俊敏さ)および体力により規定され、敵オブジェクト23の出現量は、現ステージに出現する敵オブジェクト23の総数および出現頻度により規定される。また、アバターオブジェクト6の戦闘能力は、当該アバターオブジェクト6の移動速度(俊敏さ)、体力、および装備する武器・防具の種類による補正値などにより規定される。 In one aspect, the combat ability of the enemy object 23 is defined by the moving speed (agility) and physical strength of the enemy object 23, and the appearance amount of the enemy object 23 is the total number and the appearance frequency of the enemy objects 23 appearing in the current stage. Stipulated by Further, the fighting ability of the avatar object 6 is defined by the moving speed (agility) of the avatar object 6, the physical strength, and a correction value depending on the type of weapon/armor to be equipped.

ユーザ端末800のタッチスクリーン870においては、アバターオブジェクト6を支援するためのアイテム投入操作をユーザ8から受け付けるためのUI画像22が、仮想空間11を表す画像に重畳して表示される。UI画像22には、例えば、マガジン、救急箱、障害物(三角コーン、バリケード等)のアイコンが描かれており、アイテム投入操作は、いずれかのアイコンをタップする操作に相当する。 On the touch screen 870 of the user terminal 800, a UI image 22 for accepting an item input operation for supporting the avatar object 6 from the user 8 is displayed so as to be superimposed on the image representing the virtual space 11. Icons such as magazines, first-aid kits, and obstacles (triangular cones, barricades, etc.) are drawn on the UI image 22, and the item insertion operation corresponds to the operation of tapping one of the icons.

ユーザ8が当該アイテム投入操作を行うと、ユーザ端末800は、ユーザ8が購入して所有している仮想通貨(価値アイテム)を消費し、プレゼント箱のような予め定められた演出オブジェクト24(図18(C)参照)を仮想空間11に配置する。演出オブジェクト24による演出(以下、投入時演出ともいう)は、所定時間(例えば2秒)に亘り実行される。当該投入時演出は、例えば、プレゼント箱を配置すると同時にカウントダウンを表示し、カウント値が0になったタイミングで当該プレゼント箱の蓋を開くというものである。なお、当該プレゼント箱の大きさ、形、色等は、投入されたアイテムの種別にかかわらず同じであってもよく、アイテムの種別や消費した仮想通貨の量に応じて異なるものであってもよい。仮想通貨は、例えば課金やゲーム内のクエストクリア等によりユーザ8に関連付けられる。仮想通貨は、有償であってもよいし、無償であってもよい。 When the user 8 performs the item input operation, the user terminal 800 consumes the virtual currency (value item) that the user 8 purchases and owns, and a predetermined effect object 24 such as a present box (see FIG. 18(C)) is arranged in the virtual space 11. The effect by the effect object 24 (hereinafter, also referred to as a throwing effect) is executed for a predetermined time (for example, 2 seconds). The presentation effect is, for example, to display a countdown at the same time as arranging the present box, and open the present box lid at the timing when the count value becomes zero. The size, shape, color, etc. of the present box may be the same regardless of the type of the inserted item, or may be different depending on the type of the item or the amount of virtual currency consumed. Good. The virtual currency is associated with the user 8 by, for example, billing or clearing a quest in the game. The virtual currency may be paid or free.

また、図19を参照して、ユーザ端末800は、当該アイテム投入操作に応じて、アイテム投入情報をサーバ600を介してコンピュータ200に送信する。当該アイテム投入情報には、アイテム投入操作により指定されたアイテムの種別を特定するための情報や、コンピュータ200が当該アイテムを仮想空間11に配置し、または仮想空間11内で使用可能とするという支援効果(支援作用)を発動させるタイミングを特定するための情報が含まれる。ここで、当該支援効果の発動タイミングは、演出オブジェクト24による演出が終了するタイミング(即ち、演出オブジェクト24が仮想空間11に配置されてから当該所定時間が経過したタイミング)と一致するように定められている。なお、演出を行わず、アイテム投入が行われてから、即時あるいは一定時間経過後に当該アイテムの支援効果を発動するようにしてもよい。 Further, with reference to FIG. 19, the user terminal 800 transmits the item input information to the computer 200 via the server 600 according to the item input operation. The item input information is information for identifying the type of the item designated by the item input operation, and assistance that the computer 200 arranges the item in the virtual space 11 or makes it available in the virtual space 11. Information for specifying the timing of activating the effect (supporting effect) is included. Here, the activation timing of the support effect is set so as to coincide with the timing at which the effect by the effect object 24 ends (that is, the timing when the predetermined time has elapsed since the effect object 24 was placed in the virtual space 11). ing. It should be noted that the support effect of the item may be activated immediately or after a certain period of time has elapsed since the item was inserted without performing the effect.

投入するアイテムが障害物であれば、ユーザ端末800は、仮想カメラ20の視野内の一部の範囲をアイテム投入範囲として特定する。このとき、当該アイテム投入情報には、当該アイテム投入範囲を特定するための情報が含まれる。なお、アイテム投入範囲は、例えばアバターオブジェクト6の周辺の範囲である。 If the item to be thrown in is an obstacle, the user terminal 800 specifies a partial range within the visual field of the virtual camera 20 as the item throwing range. At this time, the item input information includes information for specifying the item input range. The item input range is, for example, a range around the avatar object 6.

アイテム投入情報を受信したとき、コンピュータ200は、アバターオブジェクト6を支援するべく、当該アイテム投入情報から特定されるアイテム種別に対応するアイテムを、当該アイテム投入情報から特定される発動タイミング(より具体的には、当該アイテム投入情報を受信してから当該所定時間が経過したタイミング)で、仮想空間11に配置し、または仮想空間11内で使用可能とする。 Upon receiving the item input information, the computer 200, in order to support the avatar object 6, the item corresponding to the item type specified by the item input information, and the activation timing (more specifically, the item specified by the item input information). In addition, at the timing when the predetermined time has elapsed after receiving the item input information), the item placement information is placed in the virtual space 11 or can be used in the virtual space 11.

この結果、当該アイテム種別がマガジンであれば、コンピュータ200は、アバターオブジェクト6が使用する銃の残弾数を、当該発動タイミングで回復させる。また、当該アイテム種別が救急箱であれば、コンピュータ200は、アバターオブジェクト6の体力を、当該発動タイミングで回復させる。さらに、当該アイテム種別が障害物であれば、コンピュータ200は、当該アイテム投入情報から特定されるアイテム投入範囲内のいずれかの位置をアイテム投入位置として特定し、当該障害物を表すオブジェクトを当該発動タイミングで当該アイテム投入位置に配置する。障害物は、例えば、敵オブジェクト23の進行や攻撃を阻害する機能を有するアイテムである。このため、障害物は、障害物を配置することにより、アバターオブジェクト6を支援するアイテムであるといえる。 As a result, if the item type is magazine, the computer 200 restores the remaining number of guns used by the avatar object 6 at the activation timing. If the item type is the first aid kit, the computer 200 restores the physical strength of the avatar object 6 at the activation timing. Further, if the item type is an obstacle, the computer 200 specifies any position within the item input range specified from the item input information as an item input position, and activates the object representing the obstacle. It is placed at the item insertion position at the timing. The obstacle is, for example, an item having a function of inhibiting the progress and attack of the enemy object 23. Therefore, it can be said that the obstacle is an item that supports the avatar object 6 by disposing the obstacle.

コンピュータ200は、現ステージが開始される際の視聴者数に応じて、当該支援効果の程度(大きさ)を調整する。ある局面では、コンピュータ200は、視聴者数が0人であるとき、当該支援効果の程度を初期値に設定し、視聴者数が多くなるほど、当該支援効果の程度を減少させる。当該支援効果の程度は、アバターオブジェクト6が使用する銃の残弾数およびアバターオブジェクト6の体力については回復量により規定され、障害物については大きさ、強度、重さ等により規定される。 The computer 200 adjusts the degree (size) of the support effect according to the number of viewers when the current stage is started. In one aspect, the computer 200 sets the degree of the support effect to an initial value when the number of viewers is 0, and decreases the degree of the support effect as the number of viewers increases. The degree of the support effect is defined by the recovery amount for the number of remaining bullets of the gun used by the avatar object 6 and the physical strength of the avatar object 6, and for the obstacle by size, strength, weight and the like.

このため、当該支援効果の程度が増大されると、銃の残弾数の回復量またはアバターオブジェクト6の体力の回復量が増大し、障害物の大きさ、強度、重さ等が増大する。銃の残弾数の回復量またはアバターオブジェクト6の体力の回復量の増大は、アバターオブジェクト6の戦闘時間の延長をもたらし、障害物の大きさ、強度、重さ等の増大は、敵オブジェクト23がアバターオブジェクト6に到達するまでの時間の長期化をもたらす。 Therefore, when the degree of the support effect is increased, the recovery amount of the number of remaining bullets of the gun or the recovery amount of the physical strength of the avatar object 6 is increased, and the size, strength, weight, etc. of the obstacle are increased. An increase in the amount of remaining bullets or an increase in the amount of physical strength of the avatar object 6 increases the combat time of the avatar object 6, and an increase in the size, strength, weight, etc. of the obstacle causes the enemy object 23 to increase. It takes longer to reach the avatar object 6.

投入されたアイテムが障害物であるとき、コンピュータ200は、当該障害物のオブジェクトの種別、当該オブジェクトの位置および姿勢を特定するための情報を含む動作指図データを生成し、当該動作指図データをサーバ600を介して複数のユーザ端末800に配信する(図19参照)。 When the input item is an obstacle, the computer 200 generates action instruction data including information for identifying the object type of the obstacle, the position and the posture of the object, and stores the action instruction data in the server. It is delivered to a plurality of user terminals 800 via 600 (see FIG. 19).

各ユーザ端末800は、当該動作指図データを解析することにより、配置するアイテムオブジェクトの種別、アイテムオブジェクトの位置および姿勢を特定する。また、各ユーザ端末800は、当該解析結果に基づき、メモリ820に予め記憶されているオブジェクトデータを用いて、アイテムオブジェクトを仮想空間11に配置する。 Each user terminal 800 specifies the type of item object to be placed, the position and posture of the item object by analyzing the operation instruction data. In addition, each user terminal 800 arranges the item object in the virtual space 11 based on the analysis result using the object data stored in advance in the memory 820.

このように、オブジェクトデータを予めユーザ端末800側において格納し、オブジェクトを配置させる際には、動画データよりも格段にデータ量が少ない動作指図データを複数のユーザ端末800に送信する。その結果、アイテムが投入されてからアイテムオブジェクトをユーザ端末800において表示させるまでの期間を短縮しつつ、アイテムオブジェクトの配置タイミングを複数のユーザ端末800各々において同期させることができる。また、アイテム投入操作を行ったユーザ端末800においては、演出オブジェクト24による演出が終了すると同時に、当該アイテムオブジェクトが仮想空間11に配置される。 In this way, the object data is stored in advance on the user terminal 800 side, and when arranging the object, the operation instruction data having a significantly smaller data amount than the moving image data is transmitted to the plurality of user terminals 800. As a result, it is possible to shorten the period from when the item is input until the item object is displayed on the user terminal 800, and at the same time, the arrangement timing of the item object can be synchronized in each of the plurality of user terminals 800. In the user terminal 800 that has performed the item input operation, the item object is placed in the virtual space 11 at the same time when the effect by the effect object 24 ends.

(動作について)
図20および図21は、本ゲームの基本的なゲーム進行についてその一例を示すフローチャートである。ここで、図20に示すフローチャートに従う処理は、ユーザ端末800の制御部8100に設けられた操作受付部8101、表示制御部8102、UI制御部8103、アニメーション生成部8104、ゲーム進行部8105、仮想空間制御部8106、進捗情報生成部8107が協働することにより実行される。また、図21に示すフローチャートに従う処理は、コンピュータ200の制御部2100に設けられた操作受付部2101、表示制御部2102、UI制御部2103、アニメーション生成部2104、ゲーム進行部2105、仮想空間制御部2106、反応処理部2107が協働することにより、所定時間(例えば1/60秒)毎に実行される。
(About operation)
20 and 21 are flowcharts showing an example of the basic game progress of this game. Here, the process according to the flowchart shown in FIG. 20 is performed by the operation receiving unit 8101, the display control unit 8102, the UI control unit 8103, the animation generation unit 8104, the game progress unit 8105, and the virtual space provided in the control unit 8100 of the user terminal 800. It is executed by cooperation of the control unit 8106 and the progress information generation unit 8107. Further, the processing according to the flowchart shown in FIG. 21 is performed by the operation accepting unit 2101, the display controlling unit 2102, the UI controlling unit 2103, the animation generating unit 2104, the game progressing unit 2105, the virtual space controlling unit provided in the control unit 2100 of the computer 200. By the cooperation of the 2106 and the reaction processing unit 2107, the processing is performed every predetermined time (for example, 1/60 seconds).

なお、図20および図21に示すフローチャートの処理の一部はサーバ600において実行し、処理結果をユーザ端末800またはコンピュータ200に送信するようにしてもよい。また、ユーザ端末800とコンピュータ200との間での情報の送受信は、サーバ600を介して実行されるものであるが、これに限らず、サーバ600を介することなく実行されるものであってもよい。 Note that a part of the processing of the flowcharts shown in FIGS. 20 and 21 may be executed by the server 600 and the processing result may be transmitted to the user terminal 800 or the computer 200. In addition, the transmission/reception of information between the user terminal 800 and the computer 200 is performed via the server 600, but is not limited to this, and may be performed without passing through the server 600. Good.

図20を参照して、ステップS01では、ユーザ8によって視聴開始操作が行われたか否かを、タッチスクリーン870からの操作入力に基づいて判定する。視聴開始操作が行われたと判定されると、ステップS02に進み、コンピュータ200に対して視聴開始情報を送信する。ステップS03では、ストレージ830に記憶されている仮想空間データに基づいて仮想空間11を規定する。ステップS04では、仮想カメラ20を当該仮想空間11の予め定められた初期位置に配置する。仮想カメラ20の初期位置は、例えば、図4に示す仮想空間11の中心12を斜め上から捉える位置である。 Referring to FIG. 20, in step S01, it is determined based on an operation input from touch screen 870 whether or not the user 8 has performed a viewing start operation. If it is determined that the viewing start operation has been performed, the process proceeds to step S02, and the viewing start information is transmitted to the computer 200. In step S03, the virtual space 11 is defined based on the virtual space data stored in the storage 830. In step S04, the virtual camera 20 is arranged at a predetermined initial position in the virtual space 11. The initial position of the virtual camera 20 is, for example, a position where the center 12 of the virtual space 11 shown in FIG.

ステップS05では、コンピュータ200から配信された動作指図データおよびゲーム情報を受信する。ステップS06では、当該動作指図データを解析することにより、アバターオブジェクト6、敵オブジェクト23等の仮想オブジェクトをどの位置にどのような姿勢で配置するかを特定する。ステップS06では、当該解析結果とメモリ820に記憶されているオブジェクトデータとに基づいて、アバターオブジェクト6、敵オブジェクト23等の仮想オブジェクトを仮想空間11に配置し、または既に配置されている仮想オブジェクトを動作させる。ステップS06では、アバターオブジェクト6の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト23の残数等の各種ゲームパラメータ値を、当該ゲーム情報に基づいて特定する。 In step S05, the operation instruction data and the game information distributed from the computer 200 are received. In step S06, the action instruction data is analyzed to identify the position and the posture of the virtual object such as the avatar object 6 and the enemy object 23. In step S06, virtual objects such as the avatar object 6 and the enemy object 23 are placed in the virtual space 11 or the already placed virtual objects are set based on the analysis result and the object data stored in the memory 820. Make it work. In step S06, various game parameter values such as the physical strength of the avatar object 6, the number of magazines that can be used, the number of bullets remaining in the gun, the number of remaining enemy objects 23, and the like are specified based on the game information.

後述するように、動作指図データおよびゲーム情報は、コンピュータ200から所定時間(1/60秒)毎に送信される。このため、ステップS06においては、受信した動作指図データに基づき仮想空間11内のオブジェクトを当該所定時間毎に更新し、受信したゲーム情報に基づき各種ゲームパラメータ値を当該所定時間毎に更新する。なお、仮想空間11に配置されるオブジェクトには、ユーザ8により投入されたアイテムのオブジェクトも含まれる。 As will be described later, the operation instruction data and the game information are transmitted from the computer 200 at predetermined time intervals (1/60 seconds). Therefore, in step S06, the object in the virtual space 11 is updated every predetermined time based on the received motion instruction data, and various game parameter values are updated every predetermined time based on the received game information. The objects arranged in the virtual space 11 also include the object of the item input by the user 8.

ステップS07では、現在の仮想カメラ20の位置および向きに応じた視界領域21を規定し、当該視界領域21に対応する視界画像1400を生成する。ステップS08では、アイテム投入操作をユーザ8から受け付けるためのUI画像22と、上記の各種ゲームパラメータ値を表すパラメータ画像とを、当該視界画像1400に重畳し、タッチスクリーン870に表示する(図18参照)。この結果、タッチスクリーン870には、本ゲームのゲームプレイ映像が表示される。 In step S07, the visual field area 21 is defined according to the current position and orientation of the virtual camera 20, and the visual field image 1400 corresponding to the visual field area 21 is generated. In step S08, the UI image 22 for accepting the item input operation from the user 8 and the parameter image representing the various game parameter values are superimposed on the view image 1400 and displayed on the touch screen 870 (see FIG. 18). ). As a result, the game play image of the present game is displayed on the touch screen 870.

UI画像22には、ユーザ8からアイテム投入操作を受け付けるためのアイコン等が描かれる。ある局面では、アイテムは、アバターオブジェクト6が使用する銃のマガジン、アバターオブジェクト6の体力を回復させるための救急箱、敵オブジェクト23の攻撃を妨害するための三角コーンやバリケード等の障害物を含む。 On the UI image 22, an icon or the like for accepting an item input operation from the user 8 is drawn. In one aspect, the items include a magazine of guns used by the avatar object 6, a first aid box for restoring the physical strength of the avatar object 6, and obstacles such as triangular cones and barricades for blocking the attack of the enemy object 23. ..

なお、各々のアイテムには、当該アイテムの投入するために必要な仮想通貨の消費量と、アバターオブジェクト6を応援するためのポイントとが関連付けられている。アイテムに関連付けられているポイントは、当該アイテムの投入するために必要な仮想通貨の消費量に応じた値が定められており、例えば、仮想通貨の消費量が大きい程、大きなポイントが定められている。 It should be noted that each item is associated with a consumption amount of virtual currency required for throwing the item and points for supporting the avatar object 6. The point associated with the item is set to a value according to the consumption amount of virtual currency required to throw the item, for example, the larger the consumption amount of virtual currency is, the larger the point is set. There is.

また、アバターオブジェクト6の体力、使用可能なマガジンの数、銃の残弾数を表すパラメータ画像は、視界画像1400の右上段に重畳して表示され、敵オブジェクト23の残数を表すパラメータ画像は、視界画像1400の左上段に重畳して表示される。 A parameter image showing the physical strength of the avatar object 6, the number of magazines that can be used, and the number of remaining bullets of the gun is displayed in the upper right of the view image 1400 in a superimposed manner, and the parameter image showing the remaining number of the enemy object 23 is , Is displayed in the upper left of the view image 1400 in a superimposed manner.

ステップS09では、UI画像22上でアイテム投入操作が行われたか否かを、タッチスクリーン870からの操作入力に基づいて判定する。当該アイテム投入操作が行われたと判定されたときは、ステップS10に進む。 In step S09, it is determined whether or not an item input operation is performed on the UI image 22 based on the operation input from the touch screen 870. If it is determined that the item input operation has been performed, the process proceeds to step S10.

ステップS10では、ユーザ8所有の仮想通貨のうちから、投入したアイテムに対応する仮想通貨を消費する。即ち、仮想通貨は、アイテム投入操作が行われると当該アイテムに応じた量だけ消費される。 In step S10, the virtual currency corresponding to the inserted item is consumed from the virtual currency owned by the user 8. That is, when the item insertion operation is performed, the virtual currency is consumed by the amount corresponding to the item.

アイテム投入操作により指定されたアイテムが障害物であれば、ステップS11において、仮想カメラ20の位置および向き(視点)に基づいて、視界画像1400内の一部の範囲をアイテム投入範囲として特定する。例えば、図18(B)に示すように、仮想カメラ20がアバターオブジェクト6の右側から仮想空間11を広角で捉えている状況では、アバターオブジェクト6の前方の床面をアイテム投入範囲として特定する。ステップS11の処理が完了すると、ステップS12に進む。また、アイテム投入操作により指定されたアイテムがマガジンまたは救急箱であれば、ステップS11の処理を実行することなくステップS12に進む。 If the item designated by the item input operation is an obstacle, a part of the range in the visual field image 1400 is specified as the item input range based on the position and orientation (viewpoint) of the virtual camera 20 in step S11. For example, as shown in FIG. 18B, in a situation where the virtual camera 20 captures the virtual space 11 from the right side of the avatar object 6 at a wide angle, the floor surface in front of the avatar object 6 is specified as the item input range. When the process of step S11 is completed, the process proceeds to step S12. If the item designated by the item insertion operation is the magazine or the first aid kit, the process proceeds to step S12 without executing the process of step S11.

ステップS12では、アイテム投入情報をコンピュータ200に対して送信する。アイテム投入情報には、アイテム投入操作により指定されたアイテムの種別、当該アイテムによる支援効果を発動させるタイミング、当該アイテムに関連付けられたポイントの量、当該アイテム投入操作を行ったユーザ8のIDを特定するための情報が含まれる。また、ステップS11の処理が実行された場合、当該アイテム投入情報には、当該アイテム投入範囲(仮想カメラ20の視点)を特定するための情報も含まれる。なお、当該アイテムに関連付けられたポイントの量をコンピュータ200で管理する場合、当該ポイントの量はアイテム投入情報に含まれていなくてもよい。 In step S12, the item input information is transmitted to the computer 200. In the item input information, the type of the item specified by the item input operation, the timing at which the support effect by the item is activated, the amount of points associated with the item, and the ID of the user 8 who performed the item input operation are specified. Contains information to do so. Further, when the process of step S11 is executed, the item input information also includes information for specifying the item input range (viewpoint of the virtual camera 20). When the amount of points associated with the item is managed by the computer 200, the amount of points need not be included in the item input information.

ステップS13では、投入されたアイテムとは異なる(投入アイテムにかかわらない)所定の演出オブジェクト24を仮想空間11に配置する。演出オブジェクト24は、例えば、仮想空間11における仮想カメラ20の位置とアバターオブジェクト6の位置との間に配置される。ここで、演出オブジェクト24は、例えば、プレセント箱である。当該演出オブジェクト24による演出では、プレゼント箱が配置されると同時にカウントダウンが開始され、カウント値が0になると蓋が開かれる。また、当該演出は、演出オブジェクト24が仮想空間11に配置されてから所定時間(2秒)が経過したタイミングで終了する。 In step S13, a predetermined effect object 24 different from the input item (regardless of the input item) is arranged in the virtual space 11. The effect object 24 is arranged, for example, between the position of the virtual camera 20 and the position of the avatar object 6 in the virtual space 11. Here, the effect object 24 is, for example, a present box. In the effect by the effect object 24, the countdown is started at the same time when the present box is arranged, and when the count value becomes 0, the lid is opened. Further, the effect ends at the timing when a predetermined time (2 seconds) has elapsed since the effect object 24 was placed in the virtual space 11.

図19を参照して、アイテム投入操作により指定されたアイテムのオブジェクトは、当該オブジェクトに対応する動作指図データをコンピュータ200から受信することにより、複数のユーザ端末800の各々において規定された仮想空間11に配置される。 Referring to FIG. 19, the object of the item designated by the item input operation receives the action instruction data corresponding to the object from the computer 200, and thereby the virtual space 11 defined in each of the plurality of user terminals 800. Is located in.

即ち、アイテム投入操作を行ったユーザ端末800においては、当該ユーザ端末800により規定される仮想空間11において、当該アイテム投入操作に応じて演出オブジェクト24が配置され、当該配置から所定時間が経過したときに送信される動作指図データに基づいてアイテムオブジェクトが配置される。一方、他のユーザ端末800においては、演出オブジェクト24が仮想空間11に配置されることはなく、アイテム投入操作を行ったユーザ端末800においてアイテムオブジェクトが配置されるタイミングと同じタイミングで、当該アイテムオブジェクトが当該仮想空間11に配置される。ステップS13の処理が完了したとき、またはステップS09でアイテム投入操作が行われたと判定されなかったときは、ステップS14に進む。 That is, in the user terminal 800 that has performed the item input operation, when the effect object 24 is arranged according to the item input operation in the virtual space 11 defined by the user terminal 800 and a predetermined time has elapsed from the arrangement. Item objects are arranged based on the operation instruction data transmitted to the. On the other hand, in another user terminal 800, the effect object 24 is not placed in the virtual space 11, and the item object is placed at the same timing as the item object is placed in the user terminal 800 that has performed the item input operation. Are arranged in the virtual space 11. When the process of step S13 is completed, or when it is not determined in step S09 that the item input operation is performed, the process proceeds to step S14.

なお、ユーザ8は、ユーザ端末800を操作することによりアバターオブジェクト6に対するコメントを入力して送信することも可能である。当該コメントは、視聴している期間(例えばステップS05〜S14の処理が実行される期間)にコンピュータ200に送信される。コンピュータ200は、ユーザ端末800から当該コメントを受信したとき、ユーザ名をディスプレイ430に表示可能である。プレイヤ5は、当該コメントに対するコメントを入力できる。ユーザおよびプレイヤ5が入力したコメントは、コンピュータ200から複数のユーザ端末800に配信される。各ユーザ端末800において、当該コメントは、視界画像1400に重畳してタッチスクリーン870に表示される。 The user 8 can also input and send a comment to the avatar object 6 by operating the user terminal 800. The comment is transmitted to the computer 200 during the viewing period (for example, the period in which the processes of steps S05 to S14 are executed). When the computer 200 receives the comment from the user terminal 800, the computer 200 can display the user name on the display 430. The player 5 can input a comment for the comment. The comments input by the user and the player 5 are distributed from the computer 200 to the plurality of user terminals 800. In each user terminal 800, the comment is displayed on the touch screen 870 while being superimposed on the view image 1400.

ステップS14では、ユーザ8によって視聴終了操作が行われたか否かを、タッチスクリーン870からの操作入力に基づいて判定する。視聴終了操作が行われたと判定されなかったときは、ステップS05に戻る。これにより、コンピュータ200から動作指図データを受信する毎に、オブジェクトの動きや配置などを制御する処理が繰返し実行される。 In step S14, it is determined based on the operation input from the touch screen 870 whether or not the viewing end operation has been performed by the user 8. If it is not determined that the viewing end operation has been performed, the process returns to step S05. As a result, every time the operation instruction data is received from the computer 200, the process of controlling the movement and arrangement of the object is repeatedly executed.

一方、視聴終了操作が行われたと判定されたときは、ステップS15でコンピュータ200に対して視聴終了情報を送信し、その後に処理を終了する。 On the other hand, when it is determined that the viewing end operation has been performed, the viewing end information is transmitted to the computer 200 in step S15, and then the process ends.

図21を参照して、ステップS21では、本ゲームのステージが開始されるタイミングであるか否かを、ゲームの進行状況を示すゲームパラメータに基づいて判定する。ステージが開始されるタイミングであると判定されたときは、ステップS22に進む。ステップS22では、ユーザ端末800から視聴開始時に送信(図20のステップS02)される視聴開始情報と、ユーザ端末800から視聴終了時に送信(図20のステップS15)される視聴終了情報とに基づいて、現在の視聴者数、即ち現時点でゲームを視聴しているユーザ端末800の数を特定する。 With reference to FIG. 21, in step S21, it is determined whether or not it is the timing to start the stage of the present game, based on the game parameter indicating the progress status of the game. When it is determined that it is the timing to start the stage, the process proceeds to step S22. In step S22, based on the viewing start information transmitted from the user terminal 800 at the start of viewing (step S02 in FIG. 20) and the viewing end information transmitted from the user terminal 800 at the end of viewing (step S15 in FIG. 20). , The current number of viewers, that is, the number of user terminals 800 currently watching the game is specified.

ステップS23では、ユーザ8により投入されたアイテムに関連付けられているポイントをプラス(増大)方向に調整するためのポイント調整量を、当該視聴者数に応じて特定する。具体的には、視聴者数が増大するほど、ポイント調整量を増大させる。例えば、視聴者数が0人のときは、ポイント調整量を0%増に設定し、視聴者数が1人以上100人未満のときは、ポイント調整量を5%増に設定し、視聴者数が101人以上200人未満のときは、ポイント調整量は10%増に設定し、視聴者数が201人以上のときは、ポイント調整量を20%増に設定する。 In step S23, the point adjustment amount for adjusting the points associated with the item input by the user 8 in the plus (increasing) direction is specified according to the number of viewers. Specifically, as the number of viewers increases, the point adjustment amount is increased. For example, when the number of viewers is 0, the point adjustment amount is set to 0% increase, and when the number of viewers is 1 or more and less than 100, the point adjustment amount is set to 5% increase. When the number is 101 or more and less than 200, the point adjustment amount is set to 10% increase, and when the number of viewers is 201 or more, the point adjustment amount is set to 20% increase.

後述するように、当該ポイントは、アバターオブジェクト6に付与される。アバターオブジェクト6は、付与されたポイントが所定値に到達したときにガチャ操作を行うことによって、アイテムを取得できる。当該アバターオブジェクト6は、取得したアイテムを用いることにより、達成条件を成立させる可能性を高めることが可能となり、ゲームの進行をプレイヤにとって有利にすることができる。 As will be described later, the points are given to the avatar object 6. The avatar object 6 can acquire an item by performing a gacha operation when the given points reach a predetermined value. By using the acquired item, the avatar object 6 can increase the possibility of satisfying the achievement condition, and can make the progress of the game advantageous to the player.

ステップS24では、今から開始するステージの難易度と、アバターオブジェクト6を支援するための支援効果の程度とを、当該ステージを視聴する視聴者数に応じて調整する。具体的に、ステージの難易度については、視聴者数が多くなるほど、敵オブジェクト23の戦闘能力や出現量を増大させ、アバターオブジェクト6の戦闘能力を減少させることにより、達成条件が成立し難くなるように調整する。また、支援効果の程度については、視聴者数が多くなるほど、銃の残弾数の回復量またはアバターオブジェクト6の体力の回復量を減少させ、障害物の大きさ、強度、重さ等を減少させることにより、当該支援効果を減少させる。 In step S24, the difficulty level of the stage to be started from now and the degree of the support effect for supporting the avatar object 6 are adjusted according to the number of viewers viewing the stage. Specifically, with respect to the difficulty level of the stage, the more the number of viewers increases, the more the combat ability and appearance amount of the enemy object 23 increase, and the battle ability of the avatar object 6 decreases. To adjust. Regarding the extent of the support effect, as the number of viewers increases, the amount of remaining bullets or the amount of physical strength of the avatar object 6 is reduced to reduce the size, strength, weight, etc. of obstacles. By doing so, the support effect is reduced.

例えば、視聴者数が0人のときは、敵オブジェクト23の戦闘能力および出現量、アバターオブジェクト6の戦闘能力、銃の残弾数の回復量、アバターオブジェクト6の体力の回復量、障害物の大きさ、強度、重さを初期値に設定する。視聴者数が1人以上100人未満のときは、敵オブジェクト23の戦闘能力および出現量を初期値に対して5%増に設定し、アバターオブジェクト6の戦闘能力を初期値に対して5%減に設定し、銃の残弾数の回復量、アバターオブジェクト6の体力の回復量、障害物の大きさ、強度、重さを初期値に対して5%減に設定する。 For example, when the number of viewers is 0, the combat ability and appearance amount of the enemy object 23, the battle ability of the avatar object 6, the recovery amount of the remaining number of guns, the recovery amount of the physical strength of the avatar object 6, and the obstacles. Set the size, strength, and weight to the initial values. When the number of viewers is 1 or more and less than 100, the combat ability and appearance amount of the enemy object 23 are set to 5% increase from the initial value, and the battle ability of the avatar object 6 is 5% from the initial value. The amount of remaining bullets is restored, the amount of physical strength of the avatar object 6 is restored, and the size, strength, and weight of obstacles are set to be 5% less than the initial values.

視聴者数が101人以上200人未満のときは、敵オブジェクト23の戦闘能力および出現量を初期値に対して10%増に設定し、アバターオブジェクト6の戦闘能力を初期値に対して10%減に設定し、銃の残弾数の回復量、アバターオブジェクト6の体力の回復量、障害物の大きさ、強度、重さを初期値に対して10%減に設定する。視聴者数が201人以上のときは、敵オブジェクト23の戦闘能力および出現量を初期値に対して20%増に設定し、アバターオブジェクト6の戦闘能力を初期値に対して20%減に設定し、銃の残弾数の回復量、アバターオブジェクト6の体力の回復量、障害物の大きさ、強度、重さを初期値に対して20%減に設定する。 When the number of viewers is 101 or more and less than 200, the combat ability and appearance amount of the enemy object 23 are set to 10% increase from the initial value, and the battle ability of the avatar object 6 is 10% from the initial value. The amount of remaining bullets is restored, the amount of physical strength of the avatar object 6 is restored, and the size, strength, and weight of obstacles are set to be 10% less than the initial values. When the number of viewers is 201 or more, the combat ability and the appearance amount of the enemy object 23 are set to 20% increase from the initial value, and the battle ability of the avatar object 6 is set to 20% decrease from the initial value. Then, the recovery amount of the remaining number of bullets of the gun, the recovery amount of the physical strength of the avatar object 6, the size, strength, and weight of the obstacle are set to be reduced by 20% from the initial values.

なお、敵オブジェクト23の戦闘能力は、例えば、敵オブジェクト23の移動速度(俊敏さ)や現ステージの戦闘開始時の体力により規定される。また、敵オブジェクト23の出現量は、例えば、現ステージに出現する敵オブジェクト23の総数や、現ステージにおける敵オブジェクト23の出現頻度により規定される。アバターオブジェクト6の戦闘能力は、例えば、アバターオブジェクト6の移動速度(俊敏さ)、現ステージの戦闘開始時の体力、装備する武器・防具の種類による補正値などにより規定される。 The battle ability of the enemy object 23 is defined by, for example, the moving speed (agility) of the enemy object 23 and the physical strength of the current stage at the start of battle. Further, the appearance amount of the enemy objects 23 is defined by, for example, the total number of the enemy objects 23 appearing in the current stage and the appearance frequency of the enemy objects 23 in the current stage. The fighting ability of the avatar object 6 is defined by, for example, the moving speed (agility) of the avatar object 6, the physical strength of the avatar object 6 at the start of the battle in the current stage, and the correction value depending on the type of weapon/armor to be equipped.

ステップS24の処理が完了すると、ステップS25に進む。また、ステップS21でステージが開始されたと判定されなかったときは、ステップS22〜S24の処理を実行することなくステップS25に進む。 When the process of step S24 is completed, the process proceeds to step S25. If it is not determined in step S21 that the stage has started, the process proceeds to step S25 without executing the processes of steps S22 to S24.

ステップS25では、ユーザ端末800からアイテム投入情報を受信したか否かを、通信IF250からの入力に基づいて判定する。当該アイテム投入情報を受信したと判定されたときは、ステップS26に進み、アバターオブジェクト6に応援ポイントを付与する。具体的には、アイテム投入情報に含まれているポイントの量をステップS23で特定されたポイント調整量に基づいて補正し、補正されたポイントの量をアバターオブジェクト6に付与する。例えば、アイテム投入情報に含まれているポイントの量が50ポイントで、ステップS23で特定されたポイント調整量が10%増であれば、55ポイント(=50×1.1)が応援ポイントとしてアバターオブジェクト6に付与される。 In step S25, it is determined whether the item input information is received from the user terminal 800 based on the input from the communication IF 250. When it is determined that the item insertion information is received, the process proceeds to step S26, and the avatar object 6 is given support points. Specifically, the amount of points included in the item input information is corrected based on the point adjustment amount specified in step S23, and the corrected amount of points is given to the avatar object 6. For example, if the amount of points included in the item input information is 50 points and the point adjustment amount specified in step S23 is increased by 10%, 55 points (=50×1.1) are set as the support points for the avatar. It is attached to the object 6.

ステップS27では、アイテム投入範囲を特定するための情報が当該アイテム投入情報に含まれている場合に、当該アイテム投入範囲内の任意の位置をアイテム投入位置として特定する。ただし、アイテム投入範囲の中央位置を当該アイテム投入位置として特定するようにしてもよく、アイテム投入範囲内の位置のうちアバターオブジェクト6と敵オブジェクト23との位置関係に応じた位置(例えば、アバターオブジェクト6と、アバターオブジェクト6に最も近い敵オブジェクト23との間の位置)を当該アイテム投入位置として特定するようにしてもよい。 In step S27, when the information for specifying the item input range is included in the item input information, an arbitrary position within the item input range is specified as the item input position. However, the center position of the item input range may be specified as the item input position, and a position corresponding to the positional relationship between the avatar object 6 and the enemy object 23 among the positions within the item input range (for example, the avatar object). 6 and the enemy object 23 closest to the avatar object 6) may be specified as the item insertion position.

ステップS27の処理が完了すると、ステップS28に進む。また、アイテム投入範囲を特定するための情報が当該アイテム投入情報に含まれていなければ、ステップS27の処理を実行することなく、ステップS28に進む。ステップS28では、当該アイテム投入情報に基づいて、アイテム投入操作により指定されたアイテムの種別と、アイテムオブジェクトを仮想空間11に配置させて支援効果を発動させるタイミングとを特定する。具体的には、図示しない発動管理テーブルに、当該アイテムの種別と、当該支援効果の発動タイミング(即ち、当該アイテム投入情報を受信してから当該所定時間が経過したタイミング)とを設定する。 When the process of step S27 is completed, the process proceeds to step S28. If the information for specifying the item input range is not included in the item input information, the process proceeds to step S28 without executing the process of step S27. In step S28, the type of the item designated by the item input operation and the timing of arranging the item object in the virtual space 11 and activating the support effect are specified based on the item input information. Specifically, in the activation management table (not shown), the type of the item and the activation timing of the support effect (that is, the timing when the predetermined time has elapsed after receiving the item input information) are set.

ステップS28の処理が完了すると、ステップS29に進む。また、ステップS25でアイテム投入情報を受信したと判定されなかったときも、ステップS29に進む。ステップS29では、当該発動管理テーブルに設定されている発動タイミング(アイテムオブジェクトの配置タイミング)が到来したか否かを、コンピュータ200に設けられているタイマ(図示せず)に基づいて判定する。 When the process of step S28 is completed, the process proceeds to step S29. Also, when it is not determined in step S25 that the item input information is received, the process proceeds to step S29. In step S29, whether or not the activation timing (arrangement timing of the item objects) set in the activation management table has arrived is determined based on a timer (not shown) provided in the computer 200.

アイテム投入情報を未だ受信していないときや、アイテム投入情報を受信したものの当該発動タイミングが到来していないときは、ステップS29において発動タイミングが到来したとは判定されない。このときは、ステップS30の処理を実行することなくステップS31に進む。 If the item input information has not been received yet, or if the item input information has been received but the activation timing has not yet arrived, it is not determined in step S29 that the activation timing has arrived. At this time, the process proceeds to step S31 without executing the process of step S30.

一方、当該発動タイミングが到来したと判定されたときは、ステップS30に進み、発動管理テーブルに設定されているアイテムの種別に応じた支援効果を発動させる。このとき、アイテムを投入したユーザのユーザIDを複数のユーザ端末800に配信するようにしてもよい。各ユーザ端末800において、当該ユーザIDを表す画像は、視界画像1400に重畳してタッチスクリーン870に表示される。 On the other hand, when it is determined that the activation timing has arrived, the process proceeds to step S30, and the support effect according to the type of item set in the activation management table is activated. At this time, the user ID of the user who has input the item may be distributed to the plurality of user terminals 800. In each user terminal 800, the image representing the user ID is displayed on the touch screen 870 while being superimposed on the view image 1400.

ステップS30では、具体的には、当該アイテムがマガジンであれば、アバターオブジェクト6が使用する銃の残弾数を回復させてゲーム進行をプレイヤ5に有利にし、当該アイテムが救急箱であれば、アバターオブジェクト6の体力を回復させてゲーム進行をプレイヤ5に有利にする。また、当該アイテムが障害物であれば、仮想空間11内の位置のうちステップS27で特定したアイテム投入位置に、当該障害物のオブジェクトを配置してゲーム進行をプレイヤ5に有利にする。なお、弾数や体力の回復量、障害物の大きさ、強度、重さ等は、ステップS24で調整された支援効果の程度に応じて規定される。ステップS30の処理が完了すると、ステップS31に進む。 In step S30, specifically, if the item is a magazine, the remaining number of guns used by the avatar object 6 is restored to make the game progress to the player 5's advantage, and if the item is a first aid kit, The physical strength of the avatar object 6 is restored, and the game progress is favored to the player 5. If the item is an obstacle, the object of the obstacle is placed at the item insertion position specified in step S27 among the positions in the virtual space 11 to make the game progress to the player 5 advantageously. The number of bullets, the amount of recovery of physical strength, the size, strength, and weight of the obstacle are defined according to the degree of the support effect adjusted in step S24. When the process of step S30 is completed, the process proceeds to step S31.

ステップS31では、アバターオブジェクト6によりガチャ操作が行われたか否かを、コントローラ300またはモーションセンサ420からの入力に基づいて判定する。ガチャ操作は、アバターオブジェクト6に付与された応援ポイントが所定値に到達することにより可能となる。当該ガチャ操作が行われたと判定されたときは、ステップS32に進み、アバターオブジェクト6に付与された応援ポイントを消費してアイテムを取得する。 In step S31, it is determined whether or not the gacha operation is performed by the avatar object 6 based on the input from the controller 300 or the motion sensor 420. The gacha operation can be performed when the support points given to the avatar object 6 reach a predetermined value. When it is determined that the gacha operation has been performed, the process proceeds to step S32, and the cheering points given to the avatar object 6 are consumed to obtain the item.

ガチャ操作により取得するアイテムは、例えば、ユーザ8により投入可能なアイテムと異なるユニークなアイテムを含む。また、ガチャ操作により取得するアイテムは、ユーザの支援の有無にかかわらず使用できるアイテムを含む。なお、取得するアイテムは、ユーザ8により投入可能なアイテムと同じアイテムであったり、ユーザ8による支援により使用可能となるアイテムであってもよい。 The items acquired by the gacha operation include, for example, unique items different from the items that can be input by the user 8. The items acquired by the gacha operation include items that can be used with or without the support of the user. The item to be acquired may be the same item that can be input by the user 8 or an item that can be used with the support of the user 8.

ステップS33では、取得したアイテムに応じた成立可能性向上効果(達成条件が成立する可能性を向上させる向上作用)を発動させる。具体的には、当該アイテム(例えばナイフ)のオブジェクトをアバターオブジェクト6の前方の床面に配置する(例えば、ナイフを落下)。アバターオブジェクト6は、当該オブジェクトを使用して敵オブジェクト23と対戦できる。これにより、ゲームをクリアする可能性を高めることができる。なお、当該オブジェクトの威力(例えば、大きさ)は、ステップS24で調整された支援効果の程度に応じて規定するようにしてもよい。 In step S33, the effect of improving the possibility of establishment (improvement of improving the possibility of establishing the achievement condition) according to the acquired item is activated. Specifically, the object of the item (for example, knife) is placed on the floor surface in front of the avatar object 6 (for example, the knife is dropped). The avatar object 6 can compete with the enemy object 23 using the object. This can increase the possibility of clearing the game. The power (for example, size) of the object may be defined according to the degree of the support effect adjusted in step S24.

ステップS33の処理が完了すると、ステップS34に進む。また、ステップS31でガチャ操作が行われたと判定されなかったときは、ステップS32およびS33の処理を実行することなく、ステップS34に進む。ステップS34では、ゲームプログラムに基づいてゲームを進行させる。具体的には、ステップS24で調整された難易度に応じた態様で、アバターオブジェクト6、敵オブジェクト23、その他オブジェクト(ステップS30で投入されたアイテムオブジェクトを含む)について、仮想空間11内における配置・移動・変更等の更新を行う。また、当該難易度に応じた態様で、アバターオブジェクト6の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト23の残数等の各種ゲームパラメータを初期設定または更新等する。 When the process of step S33 is completed, the process proceeds to step S34. If it is not determined in step S31 that the gacha operation has been performed, the process proceeds to step S34 without executing the processes of steps S32 and S33. In step S34, the game progresses based on the game program. Specifically, the avatar object 6, the enemy object 23, and the other objects (including the item object input in step S30) are arranged in the virtual space 11 according to the difficulty level adjusted in step S24. Updates such as moves and changes. Further, various game parameters such as the physical strength of the avatar object 6, the number of usable magazines, the number of remaining bullets of the gun, the remaining number of the enemy object 23, etc. are initialized or updated in a mode according to the difficulty level.

ステップS35では、ステップS34において更新された仮想空間11内のオブジェクトに基づいて、アバターオブジェクト6の配置・動作等や、敵オブジェクト23等の他のオブジェクトの配置・動作等を特定可能にするための動作指図データを生成し、当該動作指図データを複数のユーザ端末800に配信する。ステップS30の処理によって障害物のオブジェクトが仮想空間11に配置された場合、当該オブジェクトが配置されたことを特定するための動作指図データは、このステップで配信する。ステップS35では、ステップS34において初期設定または更新等された各種ゲームパラメータを含むゲーム情報を生成し、当該ゲーム情報を複数のユーザ端末800に配信する。 In step S35, in order to make it possible to specify the placement/motion of the avatar object 6 and the placement/motion of another object such as the enemy object 23 based on the objects in the virtual space 11 updated in step S34. The operation instruction data is generated, and the operation instruction data is distributed to the plurality of user terminals 800. When the obstacle object is placed in the virtual space 11 by the process of step S30, the action instruction data for specifying that the object is placed is distributed in this step. In step S35, game information including various game parameters initialized or updated in step S34 is generated, and the game information is distributed to the plurality of user terminals 800.

上述のように、図21に示すフローチャートに従う処理は、所定時間(1/60秒)毎に実行される。このため、動作指図データおよびゲーム情報は、当該所定時間毎に、サーバ600を介して複数のユーザ端末800に配信される。各ユーザ端末800においては、当該動作指図データおよびゲーム情報に基づいて、ゲームプレイ映像がタッチスクリーン870に表示される。ステップS35の処理が完了すると、リターンする。 As described above, the process according to the flowchart shown in FIG. 21 is executed every predetermined time (1/60 seconds). Therefore, the operation instruction data and the game information are distributed to the plurality of user terminals 800 via the server 600 at each predetermined time. In each user terminal 800, a game play image is displayed on the touch screen 870 based on the operation instruction data and the game information. When the process of step S35 is completed, the process returns.

<本実施形態の効果>
本実施形態によれば、仮想空間11に登場するアバターオブジェクト6が所定の達成条件を成立させることによりクリアとなるゲームのゲームプレイ映像は、コンピュータ200から配信される動作指図データに基づいて、複数のユーザ端末800の各々に表示される。コンピュータ200は、ゲームプレイ映像を表示しているユーザ端末800の数、即ち視聴者数を特定し、当該視聴者数に応じて達成条件を成立させる難易度を調整する。
<Effect of this embodiment>
According to the present embodiment, a plurality of game play images of a game that is cleared by the avatar object 6 appearing in the virtual space 11 satisfying a predetermined achievement condition are generated based on operation instruction data distributed from the computer 200. Displayed on each of the user terminals 800. The computer 200 identifies the number of user terminals 800 displaying the game play video, that is, the number of viewers, and adjusts the difficulty level for establishing the achievement condition according to the number of viewers.

これによって、アイテムの投入などの応援を視聴者に対して喚起することができる。即ち、視聴者数が多い程、難易度が高くなるため、多くの視聴者がアイテムを投入することによる仮想通貨の消費量の増大が期待できる。 As a result, it is possible to encourage the viewer to support such as the introduction of an item. That is, the greater the number of viewers, the higher the difficulty level, so that it can be expected that the consumption of virtual currency will increase due to the large number of viewers throwing in items.

また、本実施形態によれば、ユーザ8によるアイテム投入操作に応じてユーザ端末800からアイテム投入情報を受信すると、コンピュータ200は、達成条件の成立を支援する支援効果を発動させる。これによって、ユーザ8はプレイヤ5によるゲームプレイに積極的に関与することができ、ひいてはゲームの好趣および視聴意欲を向上させることができる。 Further, according to the present embodiment, when the item input information is received from the user terminal 800 in response to the item input operation by the user 8, the computer 200 activates the support effect for supporting the establishment of the achievement condition. As a result, the user 8 can be actively involved in the game play by the player 5, and, in turn, the taste and viewing motivation of the game can be improved.

さらに、本実施形態によれば、当該アイテム投入操作は、ユーザ8所有の仮想通貨の消費を伴う操作である。この結果、ユーザ8は、アバターオブジェクト6によるゲームの進行状況や他のユーザ8による支援状況を見極めながら、慎重にアイテム投入操作を行うこととなり、無制限にアイテム投入を可能とする場合よりもゲーム展開を面白くすることができる。 Further, according to the present embodiment, the item insertion operation is an operation that involves consumption of virtual currency owned by the user 8. As a result, the user 8 will carefully perform the item insertion operation while checking the progress of the game by the avatar object 6 and the support situation of the other users 8, and the game can be expanded more than the case where the item can be inserted indefinitely. Can be interesting.

また、本実施形態によれば、達成条件の成立を支援する支援効果の程度が、視聴者数に応じて調整される。具体的には、視聴者数が多い程、支援効果の程度が小さくなる。これによって、視聴者数が多い場合には、視聴者からの支援機会が多くなることを期待できるものの、難易度が高くなるとともに支援効果の程度が小さくなる。一方、視聴者数が少ない場合には、視聴者からの支援機会が少なくなることが予想されるものの、難易度が低くなるとともに支援効果の程度が大きくなる。その結果、視聴者数にかかわらず、プレイヤ5がゲームをクリアできる可能性を一定範囲内に収束させることを期待でき、プレイヤ5によりゲームクリアの可能性を視聴者数に応じて極端に変化させてしまう(簡単あるいは難しくなる)ことなどを防止できる。 Further, according to the present embodiment, the degree of the support effect for supporting the establishment of the achievement condition is adjusted according to the number of viewers. Specifically, the larger the number of viewers, the smaller the degree of support effect. As a result, when the number of viewers is large, it can be expected that the number of support opportunities from the viewers increases, but the difficulty level increases and the degree of support effect decreases. On the other hand, when the number of viewers is small, it is expected that the support opportunities from the viewers will decrease, but the difficulty level will decrease and the degree of support effect will increase. As a result, regardless of the number of viewers, it can be expected that the possibility that the player 5 can clear the game will converge within a certain range, and the possibility that the game will be cleared by the player 5 will be extremely changed according to the number of viewers. It is possible to prevent it (easy or difficult).

さらに、本実施形態によれば、投入されるアイテムにはポイントが関連付けられており、当該ポイントは、アイテム投入操作によってアバターオブジェクト6に付与される。付与されたポイントが所定値に到達すると、アバターオブジェクト6はガチャ操作によりアイテムを仮想空間11に投入可能となる。プレイヤ5がゲームをクリアできる可能性は、当該ガチャ操作によりアイテムを投入することにより向上する。また、アバターオブジェクト6に付与されるポイントのプラス方向の調整量は、視聴者数に応じて変化する。具体的には、視聴者数が増大するほど、当該プラス方向の調整量を増大させる。このため、視聴者を増やしてアイテム投入によりポイントをより多く獲得できるようにすべく、よりレベルの高いゲームプレイ映像や視聴者にとって面白いゲームプレイ映像を配信しようとする動機をプレイヤ5に働かせることができる。 Furthermore, according to the present embodiment, points are associated with the items to be input, and the points are given to the avatar object 6 by the item input operation. When the given points reach a predetermined value, the avatar object 6 can put the item into the virtual space 11 by operating the gacha. The possibility that the player 5 can clear the game is improved by inserting an item by the gacha operation. Further, the amount of adjustment in the plus direction of the points given to the avatar object 6 changes according to the number of viewers. Specifically, as the number of viewers increases, the adjustment amount in the plus direction is increased. Therefore, in order to increase the number of viewers and obtain more points by inserting items, it is possible to motivate the player 5 to distribute a higher level game play video or a game play video that is interesting to the viewer. it can.

さらに、本実施形態によれば、アイテムに関連付けられるポイントの量は、当該アイテムを投入するときに消費される仮想通貨の量に応じた量に設定される。これによって、ユーザ8の思い(支援する気持ちの大きさ)をアバターオブジェクト6に付与されるポイントの量に反映させることができる。 Furthermore, according to this embodiment, the amount of points associated with an item is set to an amount corresponding to the amount of virtual currency consumed when the item is inserted. As a result, the feeling of the user 8 (size of feeling to support) can be reflected in the amount of points given to the avatar object 6.

また、本実施形態によれば、ゲームは、各々に達成条件が関連付けられた複数のステージを含み、各ステージの難易度は、当該ステージが開始される際の視聴者数に応じて調整される。これによって、例えば最初のステージの開始時の視聴者数に応じて難易度を調整するようなものと比較して、きめ細かく難易度を調整することができる。また、ステージ途中であっても視聴者数を随時特定して難易度を調整するようなものと比較して、難易度を調整するための処理負担を軽減できる。 Further, according to the present embodiment, the game includes a plurality of stages, each of which is associated with an achievement condition, and the difficulty level of each stage is adjusted according to the number of viewers when the stage is started. .. As a result, the difficulty level can be finely adjusted as compared with, for example, the difficulty level being adjusted according to the number of viewers at the start of the first stage. Further, the processing load for adjusting the difficulty level can be reduced as compared with the case where the number of viewers is specified at any time to adjust the difficulty level even during the stage.

さらに、本実施形態によれば、ゲームは、アバターオブジェクト6が敵オブジェクト23と対戦する対戦ゲームであり、アバターオブジェクト6の戦闘能力、敵オブジェクト23の戦闘能力および出現量は、視聴者数に応じて調整される。具体的には、視聴者数が少ない程、アバターオブジェクト6の戦闘能力が高くなり、視聴者数が多い程、敵オブジェクト23の戦闘能力が高くなるとともに、敵オブジェクト23の出現量が多くなる。これによって、視聴者数が少ないために、プレイヤ5がゲームをなかなかクリアできないといった状況を生じさせ難くすることができる。また、視聴者に対してプレイヤ5を支援する動機を適正に働かせることができる。 Further, according to the present embodiment, the game is a battle game in which the avatar object 6 plays against the enemy object 23, and the fighting ability of the avatar object 6, the fighting ability of the enemy object 23, and the appearance amount depend on the number of viewers. Be adjusted. Specifically, the smaller the number of viewers, the higher the fighting ability of the avatar object 6, and the larger the number of viewers, the higher the fighting ability of the enemy object 23 and the larger the appearance amount of the enemy object 23. As a result, it is possible to prevent the situation in which the player 5 cannot easily clear the game because the number of viewers is small. In addition, the motivation for supporting the player 5 can be properly exercised for the viewer.

また、本実施形態によれば、難易度に応じた態様でゲームが進行し、当該ゲームの進行状況を表すゲームパラメータを含むゲーム情報がユーザ端末800に配信される。これによって、アバターオブジェクト6の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト23の残数等をユーザ端末800において表示することが可能となる。 Further, according to the present embodiment, the game progresses in a mode according to the difficulty level, and the game information including the game parameter indicating the progress status of the game is distributed to the user terminal 800. As a result, the physical strength of the avatar object 6, the number of magazines that can be used, the number of remaining bullets of the gun, the number of remaining enemy objects 23, and the like can be displayed on the user terminal 800.

また、本実施形態によれば、視聴者数に応じて難易度を調整するため、アバターオブジェクト6を操作するプレイヤ5においては、ゲーム操作を上達させてよりレベルの高いゲームプレイ映像や視聴者にとって面白いゲームプレイ映像を配信することにより、視聴者数をさらに増やし、さらに難易度の高くレベルの高いゲームプレイ映像等を配信するという動機付けが働く。この結果、ゲーム操作の上達→視聴者数の増大→ゲーム操作の上達→…といった好循環が促される。さらに、難易度を調整することにより、ゲームの展開を視聴者によって予測されてしまうことが困難になるため、ゲームプレイ映像の好趣および視聴者側の視聴意欲を向上させることができる。 Further, according to the present embodiment, the difficulty level is adjusted according to the number of viewers. Therefore, in the player 5 who operates the avatar object 6, the game operation is improved so that a higher level game play video or viewers can enjoy it. By distributing interesting gameplay videos, the motivation is to increase the number of viewers and distribute more difficult and high-level gameplay videos. As a result, a virtuous cycle of promotion of game operation→increased number of viewers→improvement of game operation→... is promoted. Furthermore, by adjusting the difficulty level, it becomes difficult for the viewer to predict the development of the game, so that the taste of the game play video and the viewer's willingness to watch can be improved.

本実施形態によれば、ユーザ端末800は、本ゲームの仮想空間11を表すゲームプレイ映像をタッチスクリーン870に表示する。また、当該仮想空間11に配置するアイテムオブジェクトを指定するためのアイテム投入操作をユーザ8から受け付けると、当該ユーザ8のユーザ端末800は、アイテム投入情報をサーバ600を介してコンピュータ200に送信するとともに、演出オブジェクト24による演出画像をタッチスクリーン870に表示する。 According to the present embodiment, the user terminal 800 displays the game play image representing the virtual space 11 of the present game on the touch screen 870. When an item input operation for designating an item object to be placed in the virtual space 11 is received from the user 8, the user terminal 800 of the user 8 transmits the item input information to the computer 200 via the server 600. , The effect image by the effect object 24 is displayed on the touch screen 870.

コンピュータ200は、アイテム投入情報に応じたタイミングでアイテムを仮想空間に配置するとともに、当該アイテムに関する動作指図データを生成し、当該動作指図データをサーバ600を介して複数のユーザ端末800に配信する。ゲームを視聴中のユーザ端末800は、当該動作指図データに基づいて、ユーザが指定したアイテムオブジェクトを仮想空間11に配置する。また、動作指図データのデータ量は、例えばオブジェクトデータなどに比べて格段に少なく、当該動作指図データの生成および送信に要する時間を短縮できる。これにより、複数のユーザ端末800の間でアイテムオブジェクトの配置に関して同期させることができるとともに、アイテム投入操作からアイテムオブジェクトが配置されるまでの期間を極力短縮できる。 The computer 200 arranges the item in the virtual space at a timing according to the item input information, generates operation instruction data regarding the item, and distributes the operation instruction data to the plurality of user terminals 800 via the server 600. The user terminal 800 viewing the game arranges the item object designated by the user in the virtual space 11 based on the operation instruction data. In addition, the data amount of the motion instruction data is significantly smaller than that of, for example, object data, and the time required to generate and transmit the motion instruction data can be shortened. As a result, the arrangement of the item objects can be synchronized among the plurality of user terminals 800, and the period from the item input operation to the arrangement of the item objects can be shortened as much as possible.

また、アイテム投入操作が行われたユーザ端末800において規定された仮想空間11においては、アイテムオブジェクトが配置されるまでの間において、演出オブジェクト24による演出画像が表示される。これによって、ユーザがアイテム投入操作を行ってからアイテムオブジェクトが仮想空間11に配置されるまでの間を持たせることができるとともに、ユーザに違和感を抱かせてしまうことを防止できる。 Further, in the virtual space 11 defined in the user terminal 800 where the item input operation is performed, the effect image by the effect object 24 is displayed until the item object is arranged. As a result, it is possible to provide a period from when the user performs the item input operation until the item object is arranged in the virtual space 11, and it is possible to prevent the user from feeling uncomfortable.

また、本実施形態によれば、演出画像は、演出オブジェクト24を仮想空間11に配置することにより表示される。このため、仮想オブジェクト以外の画像(例えばアイテムを投入したユーザ8のユーザIDや、ユーザやプレイヤが入力したコメントなどを表す画像)を視界画像1400に重畳して表示される場合であっても、当該重畳された仮想オブジェクト以外の画像が当該演出オブジェクト24によって隠れて確認できなくなってしまうことを防止でき、ゲームプレイ映像の好趣が低下してしまうことを防止することができる。 Further, according to the present embodiment, the effect image is displayed by disposing the effect object 24 in the virtual space 11. Therefore, even when an image other than the virtual object (for example, an image representing the user ID of the user 8 who has inserted the item, a comment input by the user or the player, etc.) is superimposed on the view image 1400 and displayed. It is possible to prevent the image other than the superimposed virtual object from being hidden by the effect object 24 and being invisible, and to prevent the taste of the game play image from being deteriorated.

さらに、本実施形態によれば、アイテムオブジェクトが複数種類設けられている一方、演出オブジェクト24は、投入されたアイテムオブジェクトの種類にかかわらないオブジェクトに定められている。これによって、ユーザ端末800の処理負担を極力軽くすることができる。 Furthermore, according to the present embodiment, a plurality of types of item objects are provided, while the effect object 24 is defined as an object regardless of the type of the thrown item object. As a result, the processing load on the user terminal 800 can be reduced as much as possible.

また、本実施形態によれば、仮想空間11にオブジェクトを表示するための表示用データは、仮想空間11に配置するタイミングにおいて受信するものではなく、ストレージ830に予め記憶されている。ゲームを視聴中の複数のユーザ端末800の各々は、動作指図データに基づいて、当該表示用データを用いてアイテムオブジェクトを仮想空間11に配置する。また、アイテム投入操作が行われたユーザ端末800は、所定時間に亘り演出オブジェクト24による演出を実行する。 Further, according to the present embodiment, the display data for displaying the object in the virtual space 11 is not received at the timing of arranging in the virtual space 11, but is stored in the storage 830 in advance. Each of the plurality of user terminals 800 watching the game arranges the item object in the virtual space 11 based on the operation instruction data and using the display data. In addition, the user terminal 800 on which the item input operation is performed executes the effect by the effect object 24 for a predetermined time.

ここで、アイテム投入情報には、演出オブジェクト24による演出が終了するタイミング(支援効果の発動タイミング)が含まれ、ユーザ端末800は、アイテム投入操作を受け付けたときに当該アイテム投入情報をサーバ600を介してコンピュータ200に送信する。これによって、コンピュータ200は、アイテム投入情報から特定されるタイミングでアイテムオブジェクトを仮想空間11に配置するとともに動作指図データを生成して複数のユーザ端末800各々に送信する。この結果、アイテム投入操作を行ったユーザ端末800においては、演出オブジェクト24による演出が終了すると同時に、アイテムオブジェクトを仮想空間11に配置することができる。即ち、演出オブジェクト24による演出とアイテムオブジェクトの配置とをシームレスでつなげることができる。 Here, the item input information includes the timing (timing of the support effect) at which the effect by the effect object 24 ends, and the user terminal 800 sends the item input information to the server 600 when the item input operation is received. Via the computer 200. As a result, the computer 200 arranges the item object in the virtual space 11 at the timing specified by the item input information, generates motion instruction data, and transmits the motion instruction data to each of the plurality of user terminals 800. As a result, in the user terminal 800 that has performed the item input operation, the item object can be placed in the virtual space 11 at the same time when the effect by the effect object 24 is completed. That is, the effect produced by the effect object 24 and the arrangement of the item objects can be seamlessly connected.

また、本実施形態によれば、ユーザ端末800は、仮想空間11に仮想カメラ20を配置し、当該仮想カメラ20の視界を表す視界画像1400をタッチスクリーン870に表示する。このとき、ユーザ端末800は、当該視界画像1400の範囲に応じてアイテム投入範囲を特定し、当該アイテム投入範囲を含むアイテム投入情報をサーバ600を介してコンピュータ200に送信する。これによって、仮想カメラ20の視界にアイテムオブジェクトを配置することができる。また、アイテム投入範囲は、ユーザの操作により仮想カメラ20の位置および向きに伴って変更される。これによって、アバターオブジェクト6と敵オブジェクト23との間の位置に障害物オブジェクトを投入するなどの戦略的な支援が可能となる。 Further, according to the present embodiment, the user terminal 800 arranges the virtual camera 20 in the virtual space 11 and displays the view image 1400 showing the view of the virtual camera 20 on the touch screen 870. At this time, the user terminal 800 specifies the item input range according to the range of the view image 1400, and transmits the item input information including the item input range to the computer 200 via the server 600. Thereby, the item object can be arranged in the field of view of the virtual camera 20. Further, the item input range is changed according to the position and orientation of the virtual camera 20 by a user operation. This enables strategic support such as throwing an obstacle object at a position between the avatar object 6 and the enemy object 23.

さらに、本実施形態によれば、投入されたアイテムオブジェクトを配置する位置は、アイテム投入範囲のうちからコンピュータ200により決定される。この際、コンピュータ200は、既に配置されている他のオブジェクトとの位置関係を考慮して位置を決定することができ、当該決定された位置を特定するための動作指図データを配信できる。その結果、ユーザ8の操作により投入されたアイテムオブジェクトと既に配置されている他のオブジェクトとの間で予期しない衝突ないし干渉が発生することを未然に防止することができる。 Further, according to the present embodiment, the position at which the thrown item object is arranged is determined by the computer 200 from the item throw range. At this time, the computer 200 can determine the position in consideration of the positional relationship with other objects that have already been arranged, and can distribute the action instruction data for specifying the determined position. As a result, it is possible to prevent unexpected collision or interference between the item object input by the operation of the user 8 and the other objects already arranged.

<変形例>
以上説明した実施形態の変形例などを以下に列挙する。
<Modification>
Modifications and the like of the embodiment described above are listed below.

(1) 上記実施形態においては、アバターオブジェクト6に付与されるポイントの量を、視聴者数に応じて変化させるようにしている。しかし、当該ポイントを変化させることに替えてあるいは加えて、アバターオブジェクト6がガチャ操作を行うために到達する必要がある所定値を視聴者数に応じて変化させるようにしてもよい。 (1) In the above embodiment, the amount of points given to the avatar object 6 is changed according to the number of viewers. However, instead of or in addition to changing the point, the predetermined value that the avatar object 6 needs to reach to perform the gacha operation may be changed according to the number of viewers.

(2) 上記実施形態においては、演出オブジェクト24による演出が終了するタイミングがアイテム投入情報に含まれ、ユーザ端末800は、アイテム投入操作を受付けたときに、当該アイテム投入情報をサーバ600を介してコンピュータ200に送信する。しかし、当該演出の終了タイミングをアイテム投入情報に含めることなく、当該演出が終了するとき(所定時間が経過したとき)に、当該アイテム投入情報をサーバ600を介してコンピュータ200に送信するようにしてもよい。この場合、コンピュータ200は、アイテム投入情報を受信したときに対応するアイテムを配置等させ、動作指図データを生成・配信するようにしてもよい。動作指図データのデータ量は、オブジェクトデータに比べて格段に少ない。このため、演出が終了するときにアイテム投入情報を送信することによっても、演出オブジェクト24による演出の終了とほぼ同時にアイテムオブジェクトを仮想空間11に配置するとともに動作指図データを複数のユーザ端末800各々に送信することができる。また、演出オブジェクト24による演出時間が固定的であり、当該演出時間がコンピュータ200側で既知であれば、演出の終了タイミングをアイテム投入情報に含めなくても、演出オブジェクト24による演出の終了と同時にアイテムオブジェクトを仮想空間11に配置するとともに動作指図データを複数のユーザ端末800各々に送信することが可能となる。 (2) In the above-described embodiment, the timing at which the effect by the effect object 24 ends is included in the item input information, and when the user terminal 800 receives the item input operation, the user terminal 800 transmits the item input information via the server 600. It is transmitted to the computer 200. However, the item input information is transmitted to the computer 200 via the server 600 when the effect ends (when a predetermined time elapses) without including the end timing of the effect in the item input information. Good. In this case, the computer 200 may arrange the corresponding items when the item input information is received, and generate/distribute the operation instruction data. The amount of motion instruction data is much smaller than that of object data. Therefore, by transmitting the item insertion information when the effect is finished, the item object is placed in the virtual space 11 almost at the same time as the end of the effect by the effect object 24, and the operation instruction data is sent to each of the plurality of user terminals 800. Can be sent. Further, if the effect time by the effect object 24 is fixed and the effect time is known by the computer 200 side, the effect by the effect object 24 is ended at the same time as the effect even if the end timing of the effect is not included in the item insertion information. It becomes possible to arrange the item object in the virtual space 11 and transmit the operation instruction data to each of the plurality of user terminals 800.

(3) 上記実施形態においては、アイテム投入操作が行われると、ユーザ8所有の仮想通貨が消費される。ここで、仮想通貨の消費額は、視聴者数に応じて変動させるようにしてもよい。同じアイテムを投入する場合であっても、例えば、視聴者数が多い程、多くの仮想通貨が必要となる(消費量が多くなる)ようにしてもよい。この場合、アイテムに関連付けられているポイントの量は、仮想通貨の消費量にかかわらず、固定的に設定するようにしてもよい。 (3) In the above embodiment, when the item insertion operation is performed, the virtual currency owned by the user 8 is consumed. Here, the consumption amount of virtual currency may be changed according to the number of viewers. Even when the same item is inserted, for example, as the number of viewers increases, more virtual currency may be required (the consumption amount increases). In this case, the amount of points associated with the item may be fixedly set regardless of the amount of virtual currency consumed.

(4) 上記実施形態においては、難易度を低くする際に、敵キャラクタの戦闘能力および出現量のいずれも減少させるようにしている。しかし、当該戦闘能力および当該出現量に基づいて難易度を総合的に評価し、当該難易度が低くなる限り、戦闘能力を上げる一方で出現量を減らしたり、戦闘能力を下げる一方で出現量を増やすようにしてもよい。また、難易度を調整する際に、当該戦闘能力および出現量のいずれか一方のみを変化させるようにしてもよい。 (4) In the above embodiment, both the fighting ability and the appearance amount of the enemy character are reduced when the difficulty level is lowered. However, the difficulty level is comprehensively evaluated based on the battle ability and the appearance amount, and as long as the difficulty level is low, the appearance amount is decreased while increasing the battle ability while decreasing the appearance amount while decreasing the appearance amount. You may make it increase. Further, when adjusting the difficulty level, only one of the battle ability and the appearance amount may be changed.

(5) 上記実施形態においては、現ステージの視聴者数がゲームプレイ映像上に表示されることはない。しかし、当該視聴者数を当該ゲームプレイ映像上に表示するようにしてもよい。また、これに替えてあるいは加えて、視聴者数に応じた難易度を特定可能な情報を当該ゲームプレイ映像上に表示するようにしてもよい。 (5) In the above embodiment, the number of viewers at the current stage is not displayed on the game play video. However, the number of viewers may be displayed on the game play video. Instead of or in addition to this, information that can specify the degree of difficulty according to the number of viewers may be displayed on the game play video.

(6) 上記実施形態においては、プレイヤ5は、HMDセット110を装着してアバターオブジェクト6の動作を制御する。しかし、プレイヤ5は、デスクトップPC用のモニタのような据え置き型モニタにアバターオブジェクト6を表示させ、ハンドコントローラやキーボードによって当該アバターオブジェクト6の動作を制御するようにしてもよい。また、携帯情報端末の画面にアバターオブジェクト6を表示させ、当該画面に対するタッチ操作によってアバターオブジェクト6の動作を制御するようにしてもよい。 (6) In the above embodiment, the player 5 wears the HMD set 110 and controls the motion of the avatar object 6. However, the player 5 may display the avatar object 6 on a stationary monitor such as a monitor for desktop PC, and control the operation of the avatar object 6 with a hand controller or a keyboard. Alternatively, the avatar object 6 may be displayed on the screen of the mobile information terminal, and the operation of the avatar object 6 may be controlled by a touch operation on the screen.

(7) 上記実施形態においては、UI画像22上のアイコンに対するタップ操作に応じて、アイテムオブジェクトが仮想空間11に投入される。しかし、フリック操作やスワイプ操作に応じてアイテムオブジェクトを仮想空間11に投入するようにしてもよい。この場合、アイテム投入範囲は、フリック操作の態様(操作方向)やスワイプ操作の態様(速度、タッチ操作された時間あるいは距離)に基づいて特定するようにしてもよい。さらに、画面に対するタッチ操作ではなく、声入力に応じてアイテムオブジェクトを仮想空間11に投入するようにしてもよい。 (7) In the above embodiment, the item object is put into the virtual space 11 in response to the tap operation on the icon on the UI image 22. However, the item object may be thrown into the virtual space 11 in response to a flick operation or a swipe operation. In this case, the item input range may be specified based on the mode of flick operation (operation direction) and the mode of swipe operation (speed, time or distance of touch operation). Further, the item object may be thrown into the virtual space 11 in response to a voice input instead of a touch operation on the screen.

(8) 上記実施形態においては、ユーザ端末800においてアイテム投入範囲が特定され、コンピュータ200において当該アイテム投入範囲内のいずれかの位置がアイテム投入位置として特定される。しかし、ユーザ端末800において投入されるアイテムオブジェクトを配置する位置(アイテム投入位置)そのものを直接的に特定するようにしてもよい。この場合、フリック操作またはスワイプ操作に応じてアイテムオブジェクトを仮想空間11に投入するのであれば、当該フリック操作またはスワイプ操作の態様(速度、タッチ操作された時間あるいは距離)に基づいてアイテム投入位置を特定するようにしてもよい。また、アイテム投入位置は、投入したいアイテムをタッチ操作により選択した後、続けて当該アイテムを配置したい位置をタッチ操作することや、投入したいアイテムを選択したタッチ操作の位置を配置したい位置まで移動させて解除することなどにより特定するようにしてもよい。 (8) In the above embodiment, the user terminal 800 specifies the item input range, and the computer 200 specifies any position within the item input range as the item input position. However, the position itself where the item object to be input in the user terminal 800 is placed (item input position) itself may be directly specified. In this case, if the item object is thrown into the virtual space 11 in response to the flick operation or the swipe operation, the item throwing position is determined based on the mode (speed, touch operation time or distance) of the flick operation or the swipe operation. You may specify. In addition, as for the item insertion position, after selecting the item you want to insert by touch operation, touch the position where you want to place the item continuously, or move the touch operation position where you selected the item you want to insert to the position you want to arrange. It may be specified by canceling it.

(9) 上記実施形態においては、視点変更操作が行われると、仮想カメラ20の視点が変更されるが、このとき、特定の視点変更操作(所定の視点変更アイコンへのタッチ操作など)に応じて、仮想カメラ20の視点をアバターオブジェクト6の視点または敵オブジェクト23の視点に設定するようにしてもよい。また、当該視点が敵オブジェクト23の視点である場合において、当該敵オブジェクト23が倒されたときには、仮想カメラ20の視点は、初期位置に配置するか、または他の敵オブジェクト23の視点に設定するようにしてもよい。 (9) In the above embodiment, when the viewpoint changing operation is performed, the viewpoint of the virtual camera 20 is changed. At this time, depending on a specific viewpoint changing operation (such as a touch operation on a predetermined viewpoint changing icon). The viewpoint of the virtual camera 20 may be set to the viewpoint of the avatar object 6 or the viewpoint of the enemy object 23. Further, when the viewpoint is the viewpoint of the enemy object 23, when the enemy object 23 is defeated, the viewpoint of the virtual camera 20 is arranged at the initial position or set to the viewpoint of another enemy object 23. You may do it.

(10) 上記実施形態においては、視聴者数が多いほど、敵オブジェクト23の戦闘能力や出現量を増大させ、アバターオブジェクト6の戦闘能力を減少させ、アバターオブジェクト6を支援するための支援効果を減少させる例について説明した。しかし、これに代えて、視聴者数が多いほど、敵オブジェクト23の戦闘能力や出現量を減少させ、アバターオブジェクト6の戦闘能力を増大させ、アバターオブジェクト6を支援するための支援効果を増大させるようにしてもよい。即ち、プレイヤ5がゲームの達成条件を成立させる難易度は、視聴者数が多いほど低くなり、視聴者数が少ないほど高くなるようにしてもよい。 (10) In the above embodiment, as the number of viewers increases, the combat ability and appearance amount of the enemy object 23 increase, the combat ability of the avatar object 6 decreases, and the support effect for supporting the avatar object 6 is provided. An example of reducing the number has been described. However, instead of this, as the number of viewers increases, the fighting ability and appearance amount of the enemy object 23 decrease, the fighting ability of the avatar object 6 increases, and the support effect for supporting the avatar object 6 increases. You may do it. That is, the difficulty level for the player 5 to satisfy the achievement condition of the game may decrease as the number of viewers increases and increase as the number of viewers decreases.

(11) 上記実施形態においては、アバターオブジェクト6または敵オブジェクト23の戦闘能力を現ステージの戦闘開始時の体力に基づいて規定し、当該体力を視聴者数に応じて増減させるようにしている。しかし、当該体力を増減させることに替えてあるいは加えて、ダメージを受けたことによる当該体力の減少量を視聴者数に応じて増減させるようにしてもよい。 (11) In the above embodiment, the fighting ability of the avatar object 6 or the enemy object 23 is defined based on the physical strength at the start of battle in the current stage, and the physical strength is increased or decreased according to the number of viewers. However, instead of or in addition to increasing or decreasing the physical strength, the amount of decrease in the physical strength due to damage may be increased or decreased according to the number of viewers.

(12) 上記実施形態においては、敵オブジェクト23は、ゲームプログラムに従って動作し、プレイヤ5が直接操作できないノンプレイヤオブジェクトである。しかし、敵オブジェクト23は、他のプレイヤ5が直接操作可能なプレイヤオブジェクトであってもよい。この場合、ある敵オブジェクト23が、あるステージではプレイヤオブジェクトとなり、別のステージではノンプレイヤオブジェクトとなるといったように、ステージごとに敵オブジェクト23の性質を異ならせるようにしてもよい。また、敵オブジェクト23は、あるユーザがユーザ端末を用いて操作可能なプレイヤオブジェクトであってもよい。 (12) In the above embodiment, the enemy object 23 is a non-player object that operates according to the game program and cannot be directly operated by the player 5. However, the enemy object 23 may be a player object that can be directly operated by another player 5. In this case, a certain enemy object 23 may be a player object on a certain stage and a non-player object on another stage, and the properties of the enemy object 23 may be different for each stage. Further, the enemy object 23 may be a player object that a certain user can operate using a user terminal.

(13) 上記実施形態においては、アバターオブジェクト6に付与されるポイントのプラス方向の調整量は、視聴者数が多いほど増大される。しかし、視聴者数が減少するほど、当該プラス方向の調整量を増大させるようにしてもよい。この場合、ユーザ8には、人気のないアバターオブジェクト6を積極的に応援して、当該ユーザ8のことをプレイヤ5に覚えて貰おうという動機付けが働く。 (13) In the above embodiment, the amount of adjustment in the plus direction of the points given to the avatar object 6 increases as the number of viewers increases. However, as the number of viewers decreases, the adjustment amount in the plus direction may be increased. In this case, the user 8 is motivated to actively support the unpopular avatar object 6 and have the player 5 remember the user 8.

(14) 上記実施形態においては、ユーザ端末800においてアイテム投入操作が行われると、投入されるアイテムにかかわらない所定のプレゼント箱のような演出オブジェクト24を当該ユーザ端末800における仮想空間11に配置するようにしている。しかし、アイテム投入操作が行われたときには、演出オブジェクト24の代わりに、投入されたアイテムのオブジェクトを所定位置に表示するようにしてもよい。この場合、アイテム投入操作から所定時間が経過すると、当該演出オブジェクト24による演出が終了し、コンピュータ200から配信された動作指図データに基づくオブジェクトが当該仮想空間11に配置される。 (14) In the above embodiment, when an item input operation is performed on the user terminal 800, a presentation object 24 such as a predetermined present box that is not related to the item to be input is arranged in the virtual space 11 of the user terminal 800. I am trying. However, when the item input operation is performed, the object of the input item may be displayed at a predetermined position instead of the effect object 24. In this case, when a predetermined time elapses from the item input operation, the effect produced by the effect object 24 ends, and the object based on the operation instruction data distributed from the computer 200 is placed in the virtual space 11.

(15) 上記実施形態においては、アバターオブジェクト6を敵オブジェクト23と対戦させるゲームのゲームプレイ映像をユーザ端末800において表示することを想定している。しかし、単にお喋りをするアバターオブジェクトをユーザ端末800において表示するようにしてもよい。 (15) In the above embodiment, it is assumed that the user terminal 800 displays a game play image of a game in which the avatar object 6 is played against the enemy object 23. However, an avatar object that simply talks may be displayed on the user terminal 800.

(16) 上記実施形態においては、ユーザ8により投入されたアイテムのオブジェクトを仮想空間11に配置するタイミングは、アイテム投入操作を行ったユーザ端末800と他のユーザ端末800とのいずれにおいても、コンピュータ200から配信された動作指図データに基づいて特定される。しかし、アイテム投入操作を行ったユーザ端末800については、当該動作指図データに基づかなくても、当該配置タイミングを特定することができる。このため、アイテム投入操作を行ったユーザ端末800と他のユーザ端末800とで異なる処理を実行することにより、アイテムオブジェクトを仮想空間11に配置するようにしてもよい。具体的には、アイテム投入操作を行ったユーザ端末800については、アイテム投入操作から所定時間後に当該アイテムオブジェクトを配置する処理を行う一方、その他のユーザ端末800については、コンピュータ200から配信された動作指図データに基づいて当該アイテムオブジェクトを配置する処理を行うようにしてもよい。 (16) In the above-described embodiment, the timing of arranging the object of the item input by the user 8 in the virtual space 11 is the computer in both the user terminal 800 performing the item input operation and the other user terminal 800. It is specified based on the operation instruction data distributed from 200. However, with respect to the user terminal 800 that has performed the item input operation, the arrangement timing can be specified without being based on the operation instruction data. Therefore, the item object may be arranged in the virtual space 11 by executing different processes between the user terminal 800 that performed the item input operation and the other user terminal 800. Specifically, the user terminal 800 that has performed the item input operation performs the process of arranging the item object after a predetermined time has passed from the item input operation, while the other user terminals 800 are the operations distributed from the computer 200. You may make it perform the process which arrange|positions the said item object based on order data.

(17) 上記実施形態においては、複数のステージを用意し、各ステージが開始される際の視聴者数に応じてゲームの難易度を調整するようにしている。しかし、当該視聴者数をリアルタイムで(あるいは一定時間(1分)毎に)把握し、ステージの途中でも難易度を調整するようにしてもよい。 (17) In the above embodiment, a plurality of stages are prepared, and the difficulty level of the game is adjusted according to the number of viewers when each stage is started. However, the number of viewers may be grasped in real time (or every fixed time (1 minute)), and the difficulty level may be adjusted even during the stage.

(18) 上記実施形態においては、ユーザ8の操作(アイテム投入操作等)により、アバターオブジェクト6により進行するゲームにおける達成条件の成立を支援することを想定している。しかし、ユーザ8の操作により、アバターオブジェクト6により進行するゲームにおける達成条件の成立を阻害する(プレイヤ5にとって不利にする)阻害作用を及ぼすものであってもよい。具体的には、ユーザ8の操作により、上記実施形態における敵オブジェクト23に救急箱を提供して当該敵オブジェクト23の体力に関するゲームパラメータを回復させたり、当該敵オブジェクト23が使用可能な斧や鍬を仮想空間11に投入して当該敵オブジェクト23の攻撃力に関するゲームパラメータを高めたりして、アバターオブジェクト6によるゲーム進行を阻害する(即ち、ゲーム進行をプレイヤ5に不利にする)ものであってもよい。 (18) In the above-described embodiment, it is assumed that the operation of the user 8 (item insertion operation or the like) is provided to support the establishment of the achievement condition in the game progressed by the avatar object 6. However, the operation of the user 8 may have an obstructive effect that obstructs the achievement of the achievement condition in the game progressed by the avatar object 6 (makes the player 5 disadvantageous). Specifically, by the operation of the user 8, the first aid box is provided to the enemy object 23 in the above-described embodiment to restore the game parameter relating to the physical strength of the enemy object 23, or the ax or the hoe that the enemy object 23 can use. Is introduced into the virtual space 11 to increase the game parameter relating to the attack power of the enemy object 23, thereby hindering the progress of the game by the avatar object 6 (that is, making the progress of the game disadvantageous to the player 5). Good.

(19) 上記実施形態においては、視聴者数を100人単位で分類し、200人以下の範囲において視聴者数が多くなるほど、難易度の増大量を大きくするようにしている。しかし、難易度の増大量は、必ずしも視聴者数の増大に対応させる必要はない。即ち、視聴者数が1人以上100人未満のときの難易度の増大量を、視聴者数が101人以上200人未満のときの難易度の増大量よりも大きくするようにしてもよい。また、難易度は、視聴者数100人単位で調整するものに限らず、視聴者数1人単位で調整するものであってもよく、また、視聴者数が多くなるほど大きな単位(0人〜10人、11人〜50人、51人〜150人、151人〜300人等)で調整するものであってもよい。 (19) In the above embodiment, the number of viewers is classified in units of 100, and the greater the number of viewers in the range of 200 or less, the larger the degree of difficulty increase. However, the increase in the degree of difficulty does not necessarily have to correspond to the increase in the number of viewers. That is, the amount of increase in difficulty when the number of viewers is 1 or more and less than 100 may be made larger than the amount of increase in difficulty when the number of viewers is 101 or more and less than 200. Further, the difficulty level is not limited to adjustment in units of 100 viewers, and may be adjusted in units of 1 viewer. Further, as the number of viewers increases, a larger unit (0 to 10 people, 11 people-50 people, 51 people-150 people, 151 people-300 people, etc.) may be adjusted.

(20) 上記実施形態においては、アバターオブジェクト6が敵オブジェクト23と対戦する対戦ゲームを想定し、敵オブジェクト23の戦闘能力および出現量と、アバターオブジェクト6の戦闘能力とに基づいて難易度を規定するとともに、アバターオブジェクト6を支援するために、ユーザ8が投入可能なアイテムとして、マガジン、救急箱、障害物等のアイテムを設けている。 (20) In the above embodiment, a battle game in which the avatar object 6 competes with the enemy object 23 is assumed, and the difficulty level is defined based on the combat ability and appearance amount of the enemy object 23 and the battle ability of the avatar object 6. In addition, in order to support the avatar object 6, items such as a magazine, a first aid box, and obstacles are provided as items that the user 8 can insert.

しかし、アバターオブジェクト6にブロックの配置を並び替えさせるパズルゲームを本ゲームとして想定した場合、難易度は、達成条件を成立させるために必要なブロック数、ブロックの大きさ、ブロックの種類等に基づいて規定し、ユーザ8が投入可能なアイテムとして、邪魔なオブジェクト(不要なブロック、壁、置物)を破壊するためのハンマーや爆弾を設けるようにしてもよい。 However, assuming that a puzzle game in which the arrangement of blocks is rearranged in the avatar object 6 is assumed as the main game, the difficulty level is based on the number of blocks, the size of blocks, the type of blocks, and the like required to satisfy the achievement condition. As an item that the user 8 can insert, a hammer or a bomb for destroying obstructive objects (unnecessary blocks, walls, figurines) may be provided.

また、アバターオブジェクト6を密室から脱出させる脱出ゲームを本ゲームとして想定した場合、難易度は、室内の配置物の多様性、脱出するための鍵の位置、鍵の在り処を示唆する脱出支援アイテムの数等に基づいて規定し、ユーザ8が投入可能なアイテムとして、当該脱出支援アイテムのいずれかを設けるようにしてもよい。なお、この場合、支援効果の程度は、投入可能な脱出支援アイテムの数に基づいて規定される。 Also, assuming an escape game in which the avatar object 6 escapes from a closed room as the main game, the degree of difficulty is the escape support item that suggests the variety of indoor arrangements, the position of the key to escape, and the location of the key. It may be defined based on the number of items, etc., and any of the escape support items may be provided as an item that the user 8 can insert. In this case, the degree of the support effect is defined based on the number of escape support items that can be input.

(21) 上記実施形態においては、演出オブジェクト24は、アバターオブジェクト6と重複しない位置であってアバターオブジェクト6の視認性を阻害しない位置に演出画像が表示されるように配置される例について説明した。しかし、演出オブジェクト24は、アバターオブジェクト6と一部が重複する位置に表示されるように配置してもよく、また、透過性を有するオブジェクト(例えば半透明のオブジェクト)としてもよ。 (21) In the above embodiment, the example in which the effect object 24 is arranged so that the effect image is displayed at a position that does not overlap the avatar object 6 and that does not impair the visibility of the avatar object 6 has been described. .. However, the effect object 24 may be arranged so as to be displayed at a position partially overlapping the avatar object 6, or may be a transparent object (for example, a semitransparent object).

(22) 上記実施形態においては、演出画像は、演出オブジェクト24を仮想空間11に配置することにより表示するようにしている。しかし、演出オブジェクト24を仮想空間11に配置することに替えて、演出画像を視界画像1400に重畳することにより、当該演出画像をタッチスクリーン870に表示するようにしてもよい。 (22) In the above embodiment, the effect image is displayed by disposing the effect object 24 in the virtual space 11. However, instead of arranging the effect object 24 in the virtual space 11, the effect image may be displayed on the touch screen 870 by superimposing the effect image on the view field image 1400.

(23) 上記実施形態においては、当該アイテム投入情報には、当該アイテム投入範囲を特定するための情報が含まれる。しかし、アイテム投入範囲を特定するための情報に替えて、仮想カメラ20の視点を特定するための情報をアイテム投入情報に含めるようにしてもよい。 (23) In the above embodiment, the item input information includes information for specifying the item input range. However, instead of the information for specifying the item input range, information for specifying the viewpoint of the virtual camera 20 may be included in the item input information.

(24) 上記実施形態においては、コンピュータ200は、図8に示す仮想空間11においてアイテムオブジェクトを配置する際には、当該アイテムオブジェクトを配置する前の段階において、当該配置および配置タイミングを特定可能にするための動作指図データを生成し、ユーザ端末800に配信するようにしてもよい。この場合、当該動作指図データには、当該アイテムオブジェクトの配置・動作等を特定するための情報に加えて、当愛アイテムオブジェクトを配置するタイミングを特定するための情報も含まれる。また、ユーザ端末800は、当該タイミングで図14に示す仮想空間11にオブジェクトを配置する。 (24) In the above embodiment, when arranging an item object in the virtual space 11 shown in FIG. 8, the computer 200 can specify the arrangement and the arrangement timing at a stage before the item object is arranged. You may make it generate|occur|produce the operation|movement instruction|indication data for performing, and deliver it to the user terminal 800. In this case, the action instruction data includes, in addition to the information for identifying the placement/action of the item object, information for identifying the timing for placing the love item object. Also, the user terminal 800 arranges the object in the virtual space 11 shown in FIG. 14 at the timing.

(25) 上記実施形態においては、コンピュータ200は、動作指図データを所定時間毎に複数のユーザ端末800に配信する。しかし、動作指図データは、図8に示す仮想空間11においてオブジェクトに変化が生じたときに配信するようにしてもよい。 (25) In the above embodiment, the computer 200 distributes the operation instruction data to the plurality of user terminals 800 every predetermined time. However, the motion instruction data may be distributed when the object changes in the virtual space 11 shown in FIG.

(26) 上記実施形態においては、アバターオブジェクト6に応援ポイントを付与する際、アイテム投入情報に含まれているポイントの量をステップS23で特定されたポイント調整量に基づいて補正するようにしている。しかし、ステップS23で特定されたポイント調整量は、ゲーム情報に含めてユーザ端末800に配信し、アイテムに応じてポイント調整量(あるいは調整後のポイント)を視界画像1400に重畳して表示するようにしてもよい。この場合、ユーザは、アバターオブジェクト6に付与されるポイントがどの程度調整されるのか(あるいは調整後のポイント)をアイテム投入操作の前に把握することができる。 (26) In the above embodiment, when granting support points to the avatar object 6, the amount of points included in the item input information is corrected based on the point adjustment amount specified in step S23. .. However, the point adjustment amount specified in step S23 is included in the game information and distributed to the user terminal 800 so that the point adjustment amount (or the adjusted point) is displayed on the visual field image 1400 in accordance with the item. You may In this case, the user can grasp how much the points given to the avatar object 6 are adjusted (or the adjusted points) before the item input operation.

(27) 上記実施形態においては、ゲームの難易度がコンピュータ200において調整されるところ、当該難易度はゲーム情報に含めてユーザ端末800に配信し、視界画像1400に重畳して表示したり、ユーザ8が投入できるアイテムの種類・数などを当該難易度に応じて異ならせるようにしてもよい。 (27) In the embodiment described above, when the game difficulty level is adjusted by the computer 200, the difficulty level is included in the game information, distributed to the user terminal 800, and displayed on the visual field image 1400 in a superimposed manner or displayed by the user. The type and number of items that 8 can throw may be made different according to the difficulty level.

(28) 上記実施形態においては、複数のステージがゲームに用意されており、各ステージの開始時の視聴者数に応じて難易度が調整される。しかし、ゲームに用意するステージを1つとして、当該ステージの開始時の視聴者数に応じて当該難易度を調整するようにしてもよい。また、ステージ数にかかわらず、ゲームの進行における所定のタイミングの視聴者数に応じて、当該難易度を調整するようにしてもよい。 (28) In the above embodiment, a plurality of stages are prepared for the game, and the difficulty level is adjusted according to the number of viewers at the start of each stage. However, one stage may be prepared for the game, and the difficulty level may be adjusted according to the number of viewers at the start of the stage. Further, regardless of the number of stages, the difficulty level may be adjusted according to the number of viewers at a predetermined timing in the progress of the game.

<付記>
以上の各実施形態で説明した事項を、以下に付記する。
<Appendix>
The matters described in each of the above embodiments will be additionally described below.

(付記1):
本開示に示す一実施形態のある局面によれば、プロセッサおよびメモリを備え、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末(800)において表示可能とするためのデータを配信するコンピュータ(200)により実行される配信プログラムであって、前記配信プログラムは、前記プロセッサに、前記ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップ(S22)と、当該視聴数に応じて、前記所定条件を成立させる難易度を調整するステップ(S24)とを実行させる。
(Appendix 1):
According to an aspect of an embodiment shown in the present disclosure, data for enabling display of a game play image of a game, which includes a processor and a memory and is cleared by satisfying a predetermined condition, on the viewing terminal (800). A distribution program executed by a distribution computer (200), wherein the distribution program specifies, in the processor, the number of views of a viewing terminal displaying the game play video (S22), and the viewing. According to the number, the step (S24) of adjusting the difficulty level for satisfying the predetermined condition is executed.

(付記2):
(付記1)において、前記配信プログラムは、前記プロセッサに、視聴者による所定操作に基づき前記視聴端末から送信される操作情報を受信したことに応じて、前記所定条件の成立を支援する支援作用を及ぼすステップ(S30)を実行させる。
(Appendix 2):
In (Supplementary Note 1), the distribution program causes the processor to support the establishment of the predetermined condition in response to receipt of operation information transmitted from the viewing terminal based on a predetermined operation by a viewer. The step of exerting (S30) is executed.

(付記3):
(付記2)において、前記所定操作は、前記視聴者に関連付けられている仮想通貨の消費を伴う操作である。
(Appendix 3):
In (Supplementary Note 2), the predetermined operation is an operation involving consumption of virtual currency associated with the viewer.

(付記4):
(付記2)または(付記3)において、前記配信プログラムは、前記プロセッサに、前記視聴数に応じて前記支援作用の大きさを変化させるステップ(S24)を実行させる。
(Appendix 4):
In (Supplementary Note 2) or (Supplementary Note 3), the distribution program causes the processor to execute a step (S24) of changing the magnitude of the support effect in accordance with the number of views.

(付記5):
(付記4)において、前記変化させるステップは、前記視聴数が第1数であるときには当該第1数よりも小さい第2数であるときよりも前記支援作用が小さくなるように変化させる。
(Appendix 5):
In (Supplementary Note 4), in the changing step, when the number of viewings is a first number, the supporting action is smaller than when the number of viewings is a second number smaller than the first number.

(付記6):
(付記2)から(付記5)のいずれかにおいて、前記ゲームは、前記操作情報を受信することにより、ポイントが関連付けられたアイテムを出現させるゲームであり、前記及ぼすステップは、当該アイテムに応じた支援作用を及ぼし、前記配信プログラムは、前記プロセッサに、前記アイテムに関連付けられたポイントを配信者に付与するステップ(S26)と、配信者に付与されたポイントが所定値に到達することにより、前記所定条件が成立する可能性を向上させる向上作用を及ぼすステップ(S33)とを実行させる。
(Appendix 6):
In any one of (Supplementary note 2) to (Supplementary note 5), the game is a game that causes an item associated with points to appear by receiving the operation information, and the step of exerting depends on the item. The distribution program exerts a supporting action, and the distribution program provides the processor with points associated with the item to the distributor (S26), and when the points allocated to the distributor reach a predetermined value, The step (S33) of improving the possibility that the predetermined condition is satisfied is executed.

(付記7):
(付記6)において、前記配信プログラムは、前記プロセッサに、前記視聴数に応じて、前記所定値を変化させるステップを実行させる。
(Appendix 7):
In (Supplementary Note 6), the distribution program causes the processor to execute a step of changing the predetermined value according to the number of views.

(付記8):
(付記6)から(付記7)において、前記配信プログラムは、前記プロセッサに、前記視聴数に応じて、前記配信者に付与するポイントの量を変化させるステップ(S23)を実行させる。
(Appendix 8):
In (Supplementary Note 6) to (Supplementary Note 7), the distribution program causes the processor to execute a step (S23) of changing the amount of points given to the distributor according to the number of views.

(付記9):
(付記6)から(付記8)のいずれかにおいて、前記所定操作は、前記視聴者に関連付けられている仮想通貨の消費を伴う操作であり、前記アイテムに関連付けられるポイントの量は、当該アイテムの出現に要する仮想通貨の消費量に応じて設定されている。
(Appendix 9):
In any one of (Supplementary note 6) to (Supplementary note 8), the predetermined operation is an operation involving consumption of virtual currency associated with the viewer, and the amount of points associated with the item is It is set according to the consumption of virtual currency required for appearance.

(付記10):
(付記1)から(付記9)のいずれかにおいて、前記調整するステップは、ゲームが開始されるときの前記視聴数に応じて、前記難易度を調整する。
(Appendix 10):
In any one of (Supplementary Note 1) to (Supplementary Note 9), the adjusting step adjusts the difficulty level according to the number of views when the game is started.

(付記11):
(付記10)において、前記ゲームは、各々に所定条件が関連付けられた複数のステージを含み、前記調整するステップは、前記複数のステージの各々が開始されるときの前記視聴数に応じて、当該ステージに関連付けられた所定条件を成立させる難易度を調整する。
(Appendix 11):
In (Supplementary Note 10), the game includes a plurality of stages, each of which is associated with a predetermined condition, and the adjusting step is performed according to the number of views when each of the plurality of stages is started. Adjust the degree of difficulty for satisfying a predetermined condition associated with the stage.

(付記12):
(付記1)から(付記11)のいずれかにおいて、前記データは、配信者の動きを示すモーションデータを少なくとも含み、前記ゲームは、前記モーションデータに基づいて動作するプレイヤオブジェクトが他のオブジェクトと戦うゲームであり、前記調整するステップは、前記視聴数に応じて、前記プレイヤオブジェクトの能力、前記他のオブジェクトの能力、および前記他のオブジェクトの出現量の少なくともいずれかを変化させることにより、前記難易度を調整する。
(Appendix 12):
In any one of (Supplementary Note 1) to (Supplementary Note 11), the data includes at least motion data indicating a movement of a distributor, and in the game, a player object that operates based on the motion data fights another object. In the game, the adjusting step changes the difficulty by changing at least one of the ability of the player object, the ability of the other object, and the appearance amount of the other object according to the number of views. Adjust the degree.

(付記13)
(付記1)から(付記12)のいずれかにおいて、前記配信プログラムは、前記プロセッサに、前記調整するステップにより調整される難易度に応じた態様で、ゲームの進行を制御するステップ(S34)と、前記ゲームの進行に応じて配置されるゲームオブジェクトの種類および位置を特定するためのオブジェクト情報を生成するステップ(S35)と、前記ゲームの進行に応じて更新されるゲームパラメータを特定するためのパラメータ情報を生成するステップ(S35)と、を更に実行させ、前記データは、前記オブジェクト情報と前記パラメータ情報とを少なくとも含む。
(Appendix 13)
In any one of (Supplementary Note 1) to (Supplementary Note 12), the distribution program causes the processor to control the progress of the game in a mode according to the degree of difficulty adjusted by the adjusting step (S34). A step of generating object information for specifying the type and position of the game object arranged according to the progress of the game (S35), and specifying a game parameter updated according to the progress of the game. The step of generating parameter information (S35) is further executed, and the data includes at least the object information and the parameter information.

(付記14):
(付記1)において、前記配信プログラムは、前記プロセッサに、視聴者による所定操作に応じて前記視聴端末から送信される操作情報を受信したときに、前記所定条件の成立を阻害する阻害作用を及ぼすステップと、前記視聴数に応じて前記阻害作用の大きさを変化させるステップとを実行させる。
(Appendix 14):
In (Supplementary Note 1), the distribution program exerts an inhibitory effect on the processor that inhibits the establishment of the predetermined condition when receiving operation information transmitted from the viewing terminal in response to a predetermined operation by a viewer. The step and the step of changing the magnitude of the inhibition effect according to the number of views are executed.

(付記15):
(付記14)において、前記データは、配信者の動きを示すモーションデータを少なくとも含み、前記ゲームは、前記モーションデータに基づいて動作するプレイヤオブジェクトが他のオブジェクトと戦うゲームであり、前記及ぼすステップは、前記プレイヤオブジェクトが不利になるようにゲームパラメータを更新する。
(Appendix 15):
In (Supplementary Note 14), the data includes at least motion data indicating a movement of a distributor, the game is a game in which a player object that operates based on the motion data battles another object, and the step of exerting is , Update game parameters so that the player object is at a disadvantage.

(付記16):
本開示に示す一実施形態のある局面によれば、プロセッサおよびメモリを備え、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末(800)において表示可能とするためのデータを配信するコンピュータ(200)により実行される配信方法であって、前記配信方法は、前記コンピュータが、前記ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップ(S22)と、当該視聴数に応じて、前記所定条件を成立させる難易度を調整するステップ(S24)とを備える。
(Appendix 16):
According to an aspect of an embodiment shown in the present disclosure, data for enabling display of a game play image of a game, which includes a processor and a memory and is cleared by satisfying a predetermined condition, on the viewing terminal (800). A distribution method executed by a distribution computer (200), which comprises the step of the computer identifying the number of views of a viewing terminal displaying the game play video (S22), A step (S24) of adjusting the difficulty level for satisfying the predetermined condition according to the number.

(付記17):
本開示に示す一実施形態のある局面によれば、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末(800)において表示可能とするためのデータを配信するコンピュータ(200)であって、配信プログラムを記憶する記憶部(2200)と、前記配信プログラムを実行することにより、前記コンピュータの動作を制御する制御部(2100)とを備え、前記制御部は、前記ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップ(S22)と、当該視聴数に応じて、前記所定条件を成立させる難易度を調整するステップ(S24)とを実行する。
(Appendix 17):
According to an aspect of an embodiment shown in the present disclosure, a computer (200) that distributes data for enabling display of a game play video of a game that is cleared by satisfying a predetermined condition on a viewing terminal (800). A storage unit (2200) for storing a distribution program and a control unit (2100) for controlling the operation of the computer by executing the distribution program, wherein the control unit is the game play video. The step of specifying the number of views of the viewing terminal displaying (S22) and the step of adjusting the degree of difficulty for satisfying the predetermined condition according to the number of views (S24) are executed.

(付記18):
本開示に示す一実施形態のある局面によれば、プロセッサ、メモリ、および表示部を備える視聴端末(800)により実行される視聴プログラムであって、前記視聴プログラムは、前記プロセッサに、ゲームをクリアさせるための所定条件を成立させる難易度を前記ゲームのゲームプレイ映像を表示する視聴端末の視聴数に応じて調整するコンピュータに対して、前記視聴数を特定可能とするための情報を送信するステップ(S02、S15)と、前記コンピュータから、前記難易度が調整された前記ゲームのゲームプレイ映像を前記視聴端末において表示可能とするためのデータを受信するステップ(S05)と、前記データに基づいて、前記難易度が調整された前記ゲームのゲームプレイ映像を表示するステップ(S06〜S08)とを実行させる。
(Appendix 18):
According to an aspect of one embodiment shown in the present disclosure, a viewing program executed by a viewing terminal (800) including a processor, a memory, and a display unit, the viewing program causing the processor to clear a game. A step of transmitting information for allowing the number of views to be specified to a computer that adjusts the degree of difficulty for satisfying a predetermined condition for making the number of views of a viewing terminal displaying a game play video of the game. (S02, S15), receiving from the computer data for enabling display of the game play video of the game with the adjusted difficulty level on the viewing terminal (S05), and based on the data , Displaying the game play image of the game with the adjusted difficulty level (S06 to S08).

〔ソフトウェアによる実現例〕
制御部2100、6100、および8100の各制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Each control block of the control units 2100, 6100, and 8100 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or by software using a CPU (Central Processing Unit). May be realized.

後者の場合、制御部2100、6100、および8100の少なくとも1つ備えた情報処理装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the information processing apparatus including at least one of the control units 2100, 6100, and 8100 has a CPU that executes instructions of a program that is software that realizes each function, and the program and various data are a computer (or CPU). A ROM (Read Only Memory) or a storage device (these are referred to as a "recording medium") recorded so as to be readable by a RAM, a RAM (Random Access Memory) for expanding the program, and the like. Then, the computer (or CPU) reads the program from the recording medium and executes the program to achieve the object of the present invention. As the recording medium, a "non-transitory tangible medium", for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments Is also included in the technical scope of the present invention.

今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

2 ネットワーク、5 プレイヤ、6 アバターオブジェクト、8 ユーザ、11 仮想空間、12 中心、13 パノラマ画像、14,20 仮想カメラ、15,21 視界領域、16 基準視線、17,1400 視界画像、18,19 領域、100 HMDシステム、110 HMDセット、120 HMD、130 モニタ、140 注視センサ、150 第1カメラ、160 第2カメラ、170 マイク、180 スピーカ、190 センサ、200 コンピュータ、210,610,810 プロセッサ、220,620,820 メモリ、230,630,830 ストレージ、240,640,840 入出力インターフェイス、250,650,850 通信インターフェイス、260,660 バス、300 コントローラ、300R 右コントローラ、300L 左コントローラ、310 グリップ、320 フレーム、330 天面、340,350,370,380 ボタン、360 赤外線LED、390 アナログスティック、410 HMDセンサ、420 モーションセンサ、430 ディスプレイ、510 コントロールモジュール、520 レンダリングモジュール、530 メモリモジュール、540 通信制御モジュール、600 サーバ、700 外部機器、1421,8121 仮想オブジェクト生成モジュール、1422,8122 仮想カメラ制御モジュール、1423 操作オブジェクト制御モジュール、1424,8124 アバターオブジェクト制御モジュール、1425 動き検出モジュール、1426 衝突検出モジュール、1427,8127 仮想オブジェクト制御モジュール、800 ユーザ端末、860 カメラ、870 タッチスクリーン、880 測距センサ、2100,6100,8100 制御部、2200,6200,8200 記憶部 2101,8101 操作受付部、2102,8102 表示制御部、2103,8103 UI制御部、2104,8104 アニメーション生成部、2105,8105 ゲーム進行部、2106,8106 仮想空間制御部、2107 反応処理部、8107 進捗情報生成部、6101 進行支援部、6102 共有支援部、231,631,831 ゲームプログラム、132 ゲーム情報、133 ユーザ情報、1020 コントローラ、1030 記憶媒体

2 network, 5 player, 6 avatar object, 8 user, 11 virtual space, 12 center, 13 panoramic image, 14,20 virtual camera, 15,21 view area, 16 reference line of sight, 17,1400 view image, 18,19 area , 100 HMD system, 110 HMD set, 120 HMD, 130 monitor, 140 gaze sensor, 150 first camera, 160 second camera, 170 microphone, 180 speaker, 190 sensor, 200 computer, 210, 610, 810 processor, 220, 620,820 memory, 230,630,830 storage, 240,640,840 input/output interface, 250,650,850 communication interface, 260,660 bus, 300 controller, 300R right controller, 300L left controller, 310 grip, 320 frame , 330 top surface, 340, 350, 370, 380 button, 360 infrared LED, 390 analog stick, 410 HMD sensor, 420 motion sensor, 430 display, 510 control module, 520 rendering module, 530 memory module, 540 communication control module, 600 server, 700 external device, 1421, 8121 virtual object generation module, 1422, 8122 virtual camera control module, 1423 operation object control module, 1424, 8124 avatar object control module, 1425 motion detection module, 1426 collision detection module, 1427, 8127 Virtual object control module, 800 user terminal, 860 camera, 870 touch screen, 880 distance measuring sensor, 2100, 6100, 8100 control unit, 2200, 6200, 8200 storage unit 2101, 8101 operation reception unit, 2102, 8102 display control unit, 2103, 8103 UI control section, 2104, 8104 animation generation section, 2105, 8105 game progress section, 2106, 8106 virtual space control section, 2107 reaction processing section, 8107 progress information generation section, 6101 progress support section, 6102 sharing support section, 231, 631, 831 game program, 132 game information, 133 user information, 1020 controller, 1030 storage medium

Claims (13)

プロセッサおよびメモリを備え、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末において表示可能とするためのデータを配信するコンピュータにより実行される配信プログラムであって、
前記配信プログラムは、前記プロセッサに、
前記ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップと、
視聴者による所定操作に基づき前記視聴端末から送信される操作情報を受信したことに応じて、前記所定条件の成立を支援する支援作用を及ぼすステップと、
前記視聴数が第1数であるときには当該第1数よりも小さい第2数であるときよりも前記支援作用が小さくなるように変化させるステップとを実行させる、配信プログラム。
A distribution program executed by a computer including a processor and a memory, which distributes data for enabling display of a game play image of a game that is cleared by satisfying a predetermined condition,
The distribution program causes the processor to
Identifying the number of views of the viewing terminal displaying the game play video,
In response to receiving operation information transmitted from the viewing terminal based on a predetermined operation by a viewer, exerting a support action for supporting the establishment of the predetermined condition;
A distribution program that executes a step of changing the number of views so that the support effect is smaller than when the number of views is a first number and a second number that is smaller than the first number .
前記所定操作は、前記視聴者に関連付けられている仮想通貨の消費を伴う操作である、請求項に記載の配信プログラム。 The distribution program according to claim 1 , wherein the predetermined operation is an operation involving consumption of virtual currency associated with the viewer. 前記ゲームは、前記操作情報を受信することにより、ポイントが関連付けられたアイテムを出現させるゲームであり、
前記及ぼすステップは、当該アイテムに応じた支援作用を及ぼし、
前記配信プログラムは、前記プロセッサに、
前記アイテムに関連付けられたポイントを配信者に付与するステップと、
配信者に付与されたポイントが所定値に到達することにより、前記所定条件が成立する可能性を向上させる向上作用を及ぼすステップとを実行させる、請求項1または請求項2に記載の配信プログラム。
The game is a game that causes an item associated with points to appear by receiving the operation information.
The step of exerting exerts a supporting action according to the item,
The distribution program causes the processor to
Awarding points to the distributor associated with the item;
The delivery program according to claim 1 or 2 , wherein when the number of points given to the distributor reaches a predetermined value, a step of exerting an improving action of improving the possibility that the predetermined condition is satisfied is executed.
前記配信プログラムは、前記プロセッサに、
前記視聴数に応じて、前記所定値を変化させるステップを実行させる、請求項に記載の配信プログラム。
The distribution program causes the processor to
The distribution program according to claim 3 , wherein a step of changing the predetermined value is executed according to the number of views.
前記配信プログラムは、前記プロセッサに、
前記視聴数に応じて、前記配信者に付与するポイントの量を変化させるステップを実行させる、請求項または請求項に記載の配信プログラム。
The distribution program causes the processor to
The distribution program according to claim 3 or 4 , wherein a step of changing the amount of points given to the distributor according to the number of views is executed.
前記所定操作は、前記視聴者に関連付けられている仮想通貨の消費を伴う操作であり、
前記アイテムに関連付けられるポイントの量は、当該アイテムの出現に要する仮想通貨の消費量に応じて設定されている、請求項〜請求項のいずれかに記載の配信プログラム。
The predetermined operation is an operation involving consumption of virtual currency associated with the viewer,
The distribution program according to any one of claims 3 to 5 , wherein the amount of points associated with the item is set according to the consumption amount of virtual currency required for the appearance of the item.
前記配信プログラムは、前記プロセッサに、
前記視聴数に応じて、前記所定条件を成立させる難易度を調整するステップを実行させ、
前記調整するステップは、ゲームが開始されるときの前記視聴数に応じて、前記難易度を調整する、請求項1〜請求項のいずれかに記載の配信プログラム。
The distribution program causes the processor to
Executing a step of adjusting the difficulty level for satisfying the predetermined condition according to the number of views,
The distribution program according to any one of claims 1 to 6 , wherein the adjusting step adjusts the difficulty level according to the number of views when the game is started.
前記ゲームは、各々に所定条件が関連付けられた複数のステージを含み、
前記調整するステップは、前記複数のステージの各々が開始されるときの前記視聴数に応じて、当該ステージに関連付けられた所定条件を成立させる難易度を調整する、請求項に記載の配信プログラム。
The game includes a plurality of stages, each of which is associated with a predetermined condition,
The distribution program according to claim 7 , wherein the adjusting step adjusts a difficulty level for satisfying a predetermined condition associated with the stage according to the number of views when each of the plurality of stages is started. ..
前記データは、配信者の動きを示すモーションデータを少なくとも含み、
前記ゲームは、前記モーションデータに基づいて動作するプレイヤオブジェクトが他のオブジェクトと戦うゲームであり、
前記配信プログラムは、前記プロセッサに、
前記視聴数に応じて、前記所定条件を成立させる難易度を調整するステップを実行させ、
前記調整するステップは、前記視聴数に応じて、前記プレイヤオブジェクトの能力、前記他のオブジェクトの能力、および前記他のオブジェクトの出現量の少なくともいずれかを変化させることにより、前記難易度を調整する、請求項1〜請求項のいずれかに記載の配信プログラム。
The data includes at least motion data indicating a movement of a distributor,
The game is a game in which a player object that operates based on the motion data fights another object,
The distribution program causes the processor to
Executing a step of adjusting the difficulty level for satisfying the predetermined condition according to the number of views,
In the adjusting step, the difficulty level is adjusted by changing at least one of the ability of the player object, the ability of the other object, and the appearance amount of the other object according to the number of views. The distribution program according to any one of claims 1 to 8 .
前記配信プログラムは、前記プロセッサに、
前記視聴数に応じて、前記所定条件を成立させる難易度を調整するステップと、
前記調整するステップにより調整される難易度に応じた態様で、ゲームの進行を制御するステップと、
前記ゲームの進行に応じて配置されるゲームオブジェクトの種類および位置を特定するためのオブジェクト情報を生成するステップと、
前記ゲームの進行に応じて更新されるゲームパラメータを特定するためのパラメータ情報を生成するステップと、を更に実行させ、
前記データは、前記オブジェクト情報と前記パラメータ情報とを少なくとも含む、請求項1〜請求項のいずれかに記載の配信プログラム。
The distribution program causes the processor to
Adjusting the degree of difficulty for satisfying the predetermined condition according to the number of views,
Controlling the progress of the game in a manner according to the difficulty level adjusted by the adjusting step,
Generating object information for specifying the type and position of the game object arranged according to the progress of the game,
Generating parameter information for specifying game parameters updated according to the progress of the game,
Wherein the data comprises at least said said object information parameter information distribution program according to any one of claims 1 to 9.
プロセッサおよびメモリを備え、所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末において表示可能とするためのデータを配信するコンピュータにより実行される配信方法であって、
前記配信方法は、前記コンピュータが、
前記ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップと、
視聴者による所定操作に基づき前記視聴端末から送信される操作情報を受信したことに応じて、前記所定条件の成立を支援する支援作用を及ぼすステップと、
前記視聴数が第1数であるときには当該第1数よりも小さい第2数であるときよりも前記支援作用が小さくなるように変化させるステップとを備える、配信方法。
A distribution method executed by a computer including a processor and a memory, which distributes data for enabling display of a game play image of a game that is cleared by satisfying a predetermined condition,
In the distribution method, the computer
Identifying the number of views of the viewing terminal displaying the game play video,
In response to receiving operation information transmitted from the viewing terminal based on a predetermined operation by a viewer, exerting a support action for supporting the establishment of the predetermined condition;
And a step of changing the number of viewings so that the support effect is smaller than when the number of viewings is a first number and a second number that is smaller than the first number .
所定条件を成立させることによりクリアとなるゲームのゲームプレイ映像を視聴端末において表示可能とするためのデータを配信するコンピュータであって、
配信プログラムを記憶する記憶部と、
前記配信プログラムを実行することにより、前記コンピュータの動作を制御する制御部とを備え、
前記制御部は、
前記ゲームプレイ映像を表示している視聴端末の視聴数を特定するステップと、
視聴者による所定操作に基づき前記視聴端末から送信される操作情報を受信したことに応じて、前記所定条件の成立を支援する支援作用を及ぼすステップと、
前記視聴数が第1数であるときには当該第1数よりも小さい第2数であるときよりも前記支援作用が小さくなるように変化させるステップとを実行する、コンピュータ。
A computer that distributes data for enabling display of a gameplay image of a game that is cleared by satisfying a predetermined condition on a viewing terminal,
A storage unit for storing the distribution program,
A control unit that controls the operation of the computer by executing the distribution program,
The control unit is
Identifying the number of views of the viewing terminal displaying the game play video,
In response to receiving operation information transmitted from the viewing terminal based on a predetermined operation by a viewer, exerting a support action for supporting the establishment of the predetermined condition;
A computer, when the number of viewings is a first number, changing so that the support effect is smaller than when the number of viewings is a second number smaller than the first number .
プロセッサ、メモリ、および表示部を備える視聴端末により実行される視聴プログラムであって、
前記視聴プログラムは、前記プロセッサに、
ゲームをクリアさせるための所定条件成立を支援する支援作用を視聴者による所定操作に基づいて及ぼすコンピュータであって、前記ゲームのゲームプレイ映像を表示する視聴端末の視聴数に応じて、前記視聴数が第1数であるときには当該第1数よりも小さい第2数であるときよりも前記支援作用が小さくなるように変化させるコンピュータに対して、前記視聴数を特定可能とするための情報を送信するステップと、
前記コンピュータから、前記支援作用変化させられた前記ゲームのゲームプレイ映像を前記視聴端末において表示可能とするためのデータを受信するステップと、
前記データに基づいて、前記支援作用変化させられた前記ゲームのゲームプレイ映像を表示するステップとを実行させる、視聴プログラム。
A viewing program executed by a viewing terminal including a processor, a memory, and a display unit,
The viewing program causes the processor to
A computer on the basis of a predetermined operation by the viewer support action to support the establishment of a predetermined condition for clearing the game, according to the number of viewing of the viewing terminal that displays the game play image of the game, the viewing When the number is the first number, information for enabling the computer to change the assisting action to be smaller than when the second number is smaller than the first number is specified so that the number of views can be specified. The step of sending,
From the computer, receiving data for a game play image of the game the assistance effects were found varied displayable in the viewing terminal,
The data on the basis, and a step of displaying a game play image of the game the assistance effects were found varied, viewing program.
JP2019039980A 2019-03-05 2019-03-05 Distribution program, distribution method, computer, and viewing terminal Active JP6722316B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019039980A JP6722316B1 (en) 2019-03-05 2019-03-05 Distribution program, distribution method, computer, and viewing terminal
JP2020104342A JP7299197B2 (en) 2019-03-05 2020-06-17 DELIVERY PROGRAM, DELIVERY METHOD, AND COMPUTER
JP2023098381A JP2023126796A (en) 2019-03-05 2023-06-15 Distribution program and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019039980A JP6722316B1 (en) 2019-03-05 2019-03-05 Distribution program, distribution method, computer, and viewing terminal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020104342A Division JP7299197B2 (en) 2019-03-05 2020-06-17 DELIVERY PROGRAM, DELIVERY METHOD, AND COMPUTER

Publications (2)

Publication Number Publication Date
JP6722316B1 true JP6722316B1 (en) 2020-07-15
JP2020141813A JP2020141813A (en) 2020-09-10

Family

ID=71523894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019039980A Active JP6722316B1 (en) 2019-03-05 2019-03-05 Distribution program, distribution method, computer, and viewing terminal

Country Status (1)

Country Link
JP (1) JP6722316B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7043558B1 (en) 2020-09-23 2022-03-29 グリー株式会社 Computer programs, methods, and server equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6908867B1 (en) 2020-09-29 2021-07-28 株式会社ミクシィ Information processing equipment, information processing methods, and programs

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3464469B2 (en) * 2001-12-12 2003-11-10 コナミ株式会社 Watching mode program
US7458894B2 (en) * 2004-09-15 2008-12-02 Microsoft Corporation Online gaming spectator system
JP5283150B2 (en) * 2007-03-30 2013-09-04 株式会社バンダイナムコゲームス Program, game machine, and game system
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US9789392B1 (en) * 2010-07-09 2017-10-17 Open Invention Network Llc Action or position triggers in a game play mode
US20120200667A1 (en) * 2011-02-08 2012-08-09 Gay Michael F Systems and methods to facilitate interactions with virtual content
JP5497825B2 (en) * 2012-03-29 2014-05-21 株式会社コナミデジタルエンタテインメント GAME SYSTEM, SERVER DEVICE, SERVER DEVICE CONTROL METHOD, AND PROGRAM
JP5960623B2 (en) * 2013-02-20 2016-08-02 株式会社スクウェア・エニックス GAME SYSTEM, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
US10155167B2 (en) * 2014-12-29 2018-12-18 Ebay Inc. Audience adjusted gaming
EP3316980A1 (en) * 2015-06-30 2018-05-09 Amazon Technologies Inc. Integrating games systems with a spectating system
JP6659479B2 (en) * 2016-06-28 2020-03-04 Line株式会社 Information processing apparatus control method, information processing apparatus, and program
JP6382468B1 (en) * 2018-05-08 2018-08-29 グリー株式会社 Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7043558B1 (en) 2020-09-23 2022-03-29 グリー株式会社 Computer programs, methods, and server equipment
JP2022053562A (en) * 2020-09-23 2022-04-06 グリー株式会社 Computer program, method, and server device

Also Published As

Publication number Publication date
JP2020141813A (en) 2020-09-10

Similar Documents

Publication Publication Date Title
US20240013502A1 (en) Storage medium, method, and information processing apparatus
JP6776400B1 (en) Programs, methods, and information terminals
JP6770598B2 (en) Game programs, methods, and information processing equipment
JP6785325B2 (en) Game programs, methods, and information processing equipment
JP7344189B2 (en) Viewing programs, viewing methods, and information terminal devices
JP7305599B2 (en) program
JP2020167606A (en) Viewing program, viewing method, and information terminal device
JP2021020074A (en) Game program, method, and information processor
JP2021053365A (en) Program, method and viewing terminal
JP2021053179A (en) Program, method and viewing terminal
JP6726322B1 (en) Game program, method, and information processing device
JP6722320B1 (en) Game program, game method, and information terminal device
JP6722316B1 (en) Distribution program, distribution method, computer, and viewing terminal
EP3991816A1 (en) Game program, game method, and information terminal device
US12029973B2 (en) Game program, game method, and information terminal device
JP2019086848A (en) Program, information processing device and method
JP6813618B2 (en) Viewing program, viewing method, viewing terminal, distribution program, distribution method, and information terminal device
JP6826626B2 (en) Viewing program, viewing method, and viewing terminal
JP2019087262A (en) Program, information processing device and method
JP7332562B2 (en) Program, method, and information terminal
US20220355188A1 (en) Game program, game method, and terminal device
JP7282731B2 (en) Program, method and terminal
JP7299197B2 (en) DELIVERY PROGRAM, DELIVERY METHOD, AND COMPUTER
WO2022137375A1 (en) Method, computer-readable medium, and information processing device
JP7132374B2 (en) GAME PROGRAM, GAME METHOD, AND INFORMATION TERMINAL DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200205

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6722316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250