JP7463322B2 - Programs, information processing systems - Google Patents
Programs, information processing systems Download PDFInfo
- Publication number
- JP7463322B2 JP7463322B2 JP2021122912A JP2021122912A JP7463322B2 JP 7463322 B2 JP7463322 B2 JP 7463322B2 JP 2021122912 A JP2021122912 A JP 2021122912A JP 2021122912 A JP2021122912 A JP 2021122912A JP 7463322 B2 JP7463322 B2 JP 7463322B2
- Authority
- JP
- Japan
- Prior art keywords
- viewing
- game
- terminal
- user
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 3
- 230000000694 effects Effects 0.000 claims description 87
- 230000033001 locomotion Effects 0.000 claims description 54
- 238000004891 communication Methods 0.000 description 61
- 238000009877 rendering Methods 0.000 description 44
- 238000000034 method Methods 0.000 description 31
- 230000004044 response Effects 0.000 description 27
- 230000008569 process Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 22
- 230000009471 action Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 18
- 230000008859 change Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000007704 transition Effects 0.000 description 11
- 230000007423 decrease Effects 0.000 description 5
- 238000010079 rubber tapping Methods 0.000 description 5
- 238000005315 distribution function Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 206010034719 Personality change Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000001094 effect on targets Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 231100000614 poison Toxicity 0.000 description 1
- 230000007096 poisonous effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本開示は、プログラム、及び情報処理システムに関する。 The present disclosure relates to a program and an information processing system .
特許文献1は、第1ユーザのゲームプレイを含む動画を、第2ユーザが視聴できるように構成されたゲームシステムを開示する。ゲームシステムにおいて、第2ユーザは、第1ユーザがゲームを行う仮想空間に配置された攻撃用タワーから、モンスターを射撃できる。つまり、第2ユーザは、第1ユーザのゲームプレイに、間接的に参加できる。このため、第2ユーザは、動画を視聴することとは違った楽しさを得ることができる。 Patent Document 1 discloses a game system configured to allow a second user to watch a video including a first user's gameplay. In the game system, the second user can shoot monsters from an attack tower placed in the virtual space where the first user plays the game. In other words, the second user can indirectly participate in the first user's gameplay. This allows the second user to enjoy a different experience to that of watching a video.
従来のゲームシステムにおいて、第2ユーザのプレイ結果は、第1ユーザが行うゲームに反映されることによって、第1ユーザと第2ユーザとで共有される。このため、第1ユーザは、自分のゲームプレイが第2ユーザよって過剰に干渉された場合に、それを不快に感じる虞がある。 In conventional game systems, the results of the second user's play are reflected in the game played by the first user, and are shared between the first and second users. For this reason, the first user may feel uncomfortable if the second user interferes excessively with his or her gameplay.
本開示の一態様に係るプログラムは、コンピュータを、仮想空間に1以上のオブジェクトが配置されるゲームを、第1ユーザが第1端末を使用してプレイできるように実行する実行手段と、前記第1ユーザのプレイに係る配信情報を、第2ユーザが使用する第2端末へ送信する送信手段と、前記第2端末が送信する第2操作情報を受信する受信手段と、前記第2操作情報に基づいて、前記仮想空間に配置された第1所定オブジェクトへの影響を示す情報を、前記第1端末に表示させず、かつ前記第2端末に表示させる表示制御手段と、として機能させ、前記仮想空間に配置されるオブジェクトには、前記第1ユーザに対応するキャラクタと、第2所定オブジェクトとがあり、前記第2所定オブジェクトは、前記第1所定オブジェクトへの影響に基づいて前記仮想空間に配置されるオブジェクトであって、前記キャラクタに対して効果を発揮するオブジェクトである。 A program according to one aspect of the present disclosure causes a computer to function as: an execution means for executing a game in which one or more objects are placed in a virtual space so that a first user can play using a first terminal; a transmission means for transmitting distribution information related to the first user's play to a second terminal used by a second user; a receiving means for receiving second operation information transmitted by the second terminal; and a display control means for causing information indicating an effect on a first specified object placed in the virtual space based on the second operation information to not be displayed on the first terminal but to be displayed on the second terminal , wherein the objects placed in the virtual space include a character corresponding to the first user and a second specified object, and the second specified object is an object that is placed in the virtual space based on the effect it has on the first specified object and that has an effect on the character .
本開示によれば、ゲームプレイに対する過剰な干渉を抑制することができる。 This disclosure makes it possible to suppress excessive interference with gameplay.
本開示に係るゲームシステムについて図面を参照しつつ説明する。
(第1実施形態)
[ゲームシステムの概要]
図1に示すように、ゲームシステム10は、ネットワーク90と、複数の端末100と、1以上のサーバ200と、を含む。ゲームシステム10は、家庭用のシステムとして、又は業務用のシステムとして提供される。複数の端末100は、ネットワーク90を介してサーバ200と通信するように構成される。一例として、ゲームシステム10は、マルチプレイヤゲームを提供する。以下の説明において、単に「ゲーム」と示す場合、ゲームシステム10が提供するゲームを意味する。複数の端末100は、コンピュータの一例である。1以上のサーバ200は、コンピュータの一例である。
The game system according to the present disclosure will be described with reference to the drawings.
First Embodiment
[Game System Overview]
As shown in Fig. 1, the game system 10 includes a network 90, a plurality of terminals 100, and one or more servers 200. The game system 10 is provided as a system for home use or a system for business use. The plurality of terminals 100 are configured to communicate with the server 200 via the network 90. As an example, the game system 10 provides a multiplayer game. In the following description, when simply referring to a "game", it means a game provided by the game system 10. The plurality of terminals 100 are an example of a computer. The one or more servers 200 are an example of a computer.
[ネットワーク]
一例として、ネットワーク90は、インターネット、及び無線基地局を含む移動通信システムで構成される。一例として、移動通信システムは、3G、4G、5G移動通信システム、LTE(Long Term Evolution)、又は、アクセスポイントによってインターネットに接続可能な無線ネットワークとして実現できる。
[network]
As an example, the network 90 is configured with the Internet and a mobile communication system including a wireless base station. As an example, the mobile communication system can be realized as a 3G, 4G, or 5G mobile communication system, LTE (Long Term Evolution), or a wireless network that can be connected to the Internet via an access point.
[端末のハードウェア構成]
複数の端末100は、ゲームを行うゲーム端末として使用され得る。ゲーム端末として使用される端末100は、ゲームシステム10が提供するゲームをプレイするゲーム機能をユーザに提供する。いくつかの端末100は、一般端末100Aとして使用され得る。一般端末100Aは、ゲーム端末として使用され得る。一般端末100Aは、配信ユーザ、及び視聴ユーザ以外の一般ユーザによって使用される。
[Device hardware configuration]
A plurality of terminals 100 may be used as game terminals for playing games. The terminals 100 used as game terminals provide users with game functions for playing games provided by the game system 10. Some of the terminals 100 may be used as general terminals 100A. The general terminals 100A may be used as game terminals. The general terminals 100A are used by general users other than broadcasting users and viewing users.
いくつかの端末100は、配信端末100Bとして使用され得る。配信端末100Bは、視聴用コンテンツを配信する配信機能をユーザに提供する。視聴用コンテンツは、配信ユーザによるゲームプレイに応じた動画を含む。配信端末100Bは、配信ユーザによって使用される。配信ユーザは、ゲームのプレイヤである。つまり、配信端末100Bは、ゲーム端末でもある。いくつかの端末100は、視聴端末100Cとして使用され得る。視聴端末100Cは、配信ユーザが配信する視聴用コンテンツを視聴する視聴機能をユーザに提供する。視聴端末100Cは、視聴者である視聴ユーザによって使用される。配信ユーザは、第1ユーザの一例である。視聴ユーザは、第2ユーザの一例である。1人の視聴ユーザを基準とした場合に、当該視聴ユーザが視聴している視聴用コンテンツを配信しているユーザは、視聴対象の配信ユーザである。 Some terminals 100 may be used as a distribution terminal 100B. The distribution terminal 100B provides the user with a distribution function for distributing viewing content. The viewing content includes video corresponding to game play by the distribution user. The distribution terminal 100B is used by the distribution user. The distribution user is a game player. In other words, the distribution terminal 100B is also a game terminal. Some terminals 100 may be used as a viewing terminal 100C. The viewing terminal 100C provides the user with a viewing function for viewing viewing content distributed by the distribution user. The viewing terminal 100C is used by a viewing user who is a viewer. The distribution user is an example of a first user. The viewing user is an example of a second user. When one viewing user is used as a reference, the user who distributes the viewing content that the viewing user is viewing is the distribution user to be viewed.
一例として、端末100は、スマートフォンである。端末100は、フィーチャーフォン、PDA(Personal Digital Assistant)、又はタブレット型コンピュータといった、携帯端末装置であってもよい。端末100は、パーソナルコンピュータ(PC)、又はワークステーションといった、固定端末装置であってもよい。例えば、端末100は、プロセッサ110と、メモリ120と、ストレージ130と、を備える。端末100は、さらに、通信インターフェース(IF)140と、入出力IF150と、を備えてもよい。端末100は、さらに、マイク160と、スピーカ162と、タッチスクリーン164と、を備えてもよい。端末100が備える複数の構成要素の各々は、通信バス180に接続される。 As an example, the terminal 100 is a smartphone. The terminal 100 may be a mobile terminal device such as a feature phone, a PDA (Personal Digital Assistant), or a tablet computer. The terminal 100 may be a fixed terminal device such as a personal computer (PC) or a workstation. For example, the terminal 100 includes a processor 110, a memory 120, and a storage 130. The terminal 100 may further include a communication interface (IF) 140 and an input/output IF 150. The terminal 100 may further include a microphone 160, a speaker 162, and a touch screen 164. Each of the multiple components included in the terminal 100 is connected to a communication bus 180.
プロセッサ110は、端末100に与えられる信号に応じて、又は予め定めた条件が成立したことに応じて、メモリ120又はストレージ130に記憶されているプログラムに含まれる一連の命令を実行する。例えば、プロセッサ110は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)、又は、その他の演算装置として実現される。 The processor 110 executes a series of instructions contained in a program stored in the memory 120 or the storage 130 in response to a signal provided to the terminal 100 or in response to the satisfaction of a predetermined condition. For example, the processor 110 is realized as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processor Unit), an FPGA (Field-Programmable Gate Array), or other computing device.
メモリ120は、プログラム、及びデータを一時的に保存する。一例として、プログラムは、ストレージ130から読み出される。データは、端末100へ送信されたデータと、プロセッサ110によって生成されたデータと、を含み得る。例えば、メモリ120は、RAM(Random Access Memory)、又はその他の揮発性メモリとして実現される。 The memory 120 temporarily stores programs and data. As an example, the programs are read from the storage 130. The data may include data transmitted to the terminal 100 and data generated by the processor 110. For example, the memory 120 is realized as a RAM (Random Access Memory) or other volatile memory.
ストレージ130は、プログラム、及びデータを永続的に保持する。例えば、ストレージ130は、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、又はその他の不揮発性記憶装置として実現される。ストレージ130は、メモリカードのように、着脱可能な記憶装置として実現されてもよい。 Storage 130 permanently stores programs and data. For example, storage 130 is realized as a ROM (Read-Only Memory), a hard disk drive, flash memory, or other non-volatile storage device. Storage 130 may also be realized as a removable storage device, such as a memory card.
ストレージ130に格納されるプログラムは、ゲームプログラム、配信プログラム、視聴プログラム、及び、通信プログラムを含む。ゲームプログラムは、仮想空間の1つであるゲーム空間の提供と、当該ゲーム空間におけるゲームプレイを提供するゲーム機能を実現する。一例として、ゲームプレイは、ゲーム空間に配置されるオブジェクトを操作することを含む。一例として、端末100を使用して操作されるオブジェクトは、端末100を使用するユーザに対応するキャラクタである。このキャラクタは、端末100を使用するユーザのアバターである。 The programs stored in storage 130 include game programs, distribution programs, viewing programs, and communication programs. The game programs provide a game space, which is one type of virtual space, and provide a game function of providing game play in the game space. As an example, the game play includes manipulating an object placed in the game space. As an example, the object operated using terminal 100 is a character corresponding to the user using terminal 100. This character is an avatar of the user using terminal 100.
配信プログラムは、ゲーム空間におけるゲームのプレイ状況に応じた動画(以下、プレイ動画と示す)を含む視聴用コンテンツを配信する配信機能を実現する。この配信機能を実現している間、端末100は、配信端末100Bとなる。視聴プログラムは、仮想空間の1つである視聴空間の提供と、当該視聴空間を介した視聴用コンテンツの視聴を提供する視聴機能を実現する。この視聴機能を実現している間、端末100は、視聴端末100Cとなる。一例として、視聴用コンテンツの視聴は、プレイ動画を視聴することを含む。通信プログラムは、他のコンピュータ(例えば、サーバ200)と通信する機能を実現する。ストレージ130に格納されるプログラムは、オペレーティングシステム、シミュレーションプログラム、ユーザ認証プログラム、及びその他のプログラムを含んでもよい。 The distribution program realizes a distribution function of distributing viewing content including video (hereinafter referred to as gameplay video) according to the game play status in the game space. While this distribution function is realized, the terminal 100 becomes a distribution terminal 100B. The viewing program realizes a viewing function of providing a viewing space, which is one of the virtual spaces, and viewing viewing content via the viewing space. While this viewing function is realized, the terminal 100 becomes a viewing terminal 100C. As an example, viewing viewing content includes viewing gameplay video. The communication program realizes a function of communicating with other computers (e.g., the server 200). Programs stored in the storage 130 may include an operating system, a simulation program, a user authentication program, and other programs.
例えば、ストレージ130に格納されるデータは、仮想空間の定義データ、及び仮想空間に配置される各種のオブジェクトを定義するオブジェクトデータを含む。端末100A~100Cにおいて、仮想空間は、同じオブジェクトデータを使用して、1以上のオブジェクトが配置される。つまり、端末100A~100Cは、仮想空間における事象の一部又は全部を共有し得る。仮想空間は、3次元で表現される空間に限らない。例えば、仮想空間は、2次元で表現される空間、又は、静止画で表現される空間でもよい。例えば、仮想空間は、音や声、又は文字データなどの入力データによって表現される空間でもよい。 For example, the data stored in storage 130 includes definition data for the virtual space, and object data that defines various objects to be placed in the virtual space. In terminals 100A to 100C, one or more objects are placed in the virtual space using the same object data. In other words, terminals 100A to 100C may share some or all of the events in the virtual space. The virtual space is not limited to a space represented in three dimensions. For example, the virtual space may be a space represented in two dimensions, or a space represented by still images. For example, the virtual space may be a space represented by input data such as sound, voice, or text data.
通信IF140は、ネットワーク90に接続される。通信IF140は、ネットワーク90に接続されている他のコンピュータ(例えば、サーバ200)と通信する。例えば、通信IF140は、LAN(Local Area Network)、又はその他の有線通信IFとして実現される。例えば、通信IF140は、Wi-Fi(登録商標)、Bluetooth(登録商標)、NFC(Near Field Communication)、又はその他の無線通信IFとして実現される。通信IF140は、上述のものに限られない。 The communication IF 140 is connected to the network 90. The communication IF 140 communicates with other computers (e.g., the server 200) connected to the network 90. For example, the communication IF 140 is realized as a LAN (Local Area Network) or other wired communication IF. For example, the communication IF 140 is realized as Wi-Fi (registered trademark), Bluetooth (registered trademark), NFC (Near Field Communication), or other wireless communication IF. The communication IF 140 is not limited to the above.
入出力IF150は、外部の入出力機器190と通信する。例えば、入出力IF150は、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はその他の有線通信IFとして実現される。例えば、入出力IF150は、Bluetooth(登録商標)、又はその他の無線通信IFとして実現される。 The input/output IF 150 communicates with an external input/output device 190. For example, the input/output IF 150 is realized as a Universal Serial Bus (USB), a Digital Visual Interface (DVI), a High-Definition Multimedia Interface (HDMI (registered trademark)), or other wired communication IF. For example, the input/output IF 150 is realized as a Bluetooth (registered trademark) or other wireless communication IF.
一例として、入出力機器190は、コントローラである。例えば、入出力IF150は、プロセッサ110から出力された命令を、コントローラへ送信する。この命令は、振動、音声出力、又は発光をコントローラに指示する。コントローラは、命令を受信すると、この命令に応じて、振動、音声出力、又は発光を実行する。コントローラは、1以上の操作パーツを有する。例えば、1以上の操作パーツは、ボタン、キー、スイッチ、ハンドル、バー、タッチパッド、又はスティックを含む。コントローラは、操作パーツに対するユーザの操作に基づく出力値を端末100へ送信する。一例として、コントローラは、加速度センサ、又は角速度センサといったモーションセンサを備えてもよい。コントローラは、モーションセンサの出力値を端末100へ送信するように構成されてもよい。コントローラは、端末100に対して取付け、及び取外しできてもよい。 As an example, the input/output device 190 is a controller. For example, the input/output IF 150 transmits an instruction output from the processor 110 to the controller. This instruction instructs the controller to vibrate, output sound, or emit light. When the controller receives the instruction, it executes vibration, sound output, or light emission in response to the instruction. The controller has one or more operation parts. For example, the one or more operation parts include a button, a key, a switch, a handle, a bar, a touch pad, or a stick. The controller transmits an output value based on a user's operation on the operation part to the terminal 100. As an example, the controller may include a motion sensor such as an acceleration sensor or an angular velocity sensor. The controller may be configured to transmit an output value of the motion sensor to the terminal 100. The controller may be attached to and detached from the terminal 100.
入出力機器190は、上述のものに限られない。例えば、入出力機器190は、カメラであってもよい。カメラは、ユーザを撮影した撮影画像を端末100へ送信するように構成されてもよい。例えば、入出力機器190は、測距センサであってもよい。測距センサは、ユーザの手、又はマーカー等の検知に基づく出力値を端末100へ送信するように構成されてもよい。 The input/output device 190 is not limited to the above. For example, the input/output device 190 may be a camera. The camera may be configured to transmit an image of the user to the terminal 100. For example, the input/output device 190 may be a distance measurement sensor. The distance measurement sensor may be configured to transmit an output value based on detection of the user's hand, a marker, or the like to the terminal 100.
マイク160は、ユーザの発話を音声信号(電気信号)に変換してプロセッサ110へ送信する。スピーカ162は、音声信号を音声に変換してユーザへ出力する。各端末100は、スピーカ162に加えて、又は代えて、イヤホン、又はイヤホンを接続できるイヤホンジャックを備えてもよい。 The microphone 160 converts the user's speech into an audio signal (electrical signal) and transmits it to the processor 110. The speaker 162 converts the audio signal into sound and outputs it to the user. In addition to or instead of the speaker 162, each terminal 100 may be provided with an earphone or an earphone jack to which an earphone can be connected.
タッチスクリーン164は、モニタ166と、タッチセンサ167と、を含むとよい。モニタ166は、透過型又は非透過型の表示装置として実現される。例えば、モニタ166は、液晶モニタ、有機EL(Electro Luminescence)モニタ、又はその他の表示装置として実現される。モニタ166は、各種の画像を表示する。モニタ166に表示する画像は、背景、ユーザのアバター、その他のキャラクタ、障害物、ウィンドウ、ボタン、メニュー、リスト、及びアイコンといった各種のオブジェクトを含む。モニタ166は、上述のものに限られない。例えば、モニタ166は、左目用の画像を表示するサブモニタと、右目用の画像を表示するサブモニタと、を含む3Dモニタであってもよい。 The touch screen 164 may include a monitor 166 and a touch sensor 167. The monitor 166 is realized as a transmissive or non-transmissive display device. For example, the monitor 166 is realized as a liquid crystal monitor, an organic EL (Electro Luminescence) monitor, or other display device. The monitor 166 displays various images. The images displayed on the monitor 166 include various objects such as backgrounds, user avatars, other characters, obstacles, windows, buttons, menus, lists, and icons. The monitor 166 is not limited to the above. For example, the monitor 166 may be a 3D monitor including a sub-monitor that displays an image for the left eye and a sub-monitor that displays an image for the right eye.
タッチセンサ167は、モニタ166に対するユーザの操作に基づく出力値をプロセッサ110へ送信する。一例として、タッチセンサ167は、静電容量式タッチセンサ、抵抗膜式タッチセンサ(感圧式タッチセンサ)、超音波式タッチセンサ、又はその他のタッチセンサとして実現される。一例として、タッチセンサ167の入力面は、モニタ166の表示面の一部又は全部である。タッチセンサ167は、ユーザの入力操作を受け付けるように構成された操作部として使用され得る。例えば、操作部がタッチセンサ167である場合、プロセッサ110は、タッチセンサ167の入力面に対するユーザの物理的な接触操作をユーザの入力操作として受け付ける。例えば、タッチセンサ167に対するユーザの入力操作は、タッチ操作、スライド操作、スワイプ操作、タップ操作、ドラッグ操作、及びその他の態様による操作を含み得る。 The touch sensor 167 transmits an output value based on the user's operation on the monitor 166 to the processor 110. As an example, the touch sensor 167 is realized as a capacitive touch sensor, a resistive touch sensor (pressure-sensitive touch sensor), an ultrasonic touch sensor, or other touch sensors. As an example, the input surface of the touch sensor 167 is a part or the whole of the display surface of the monitor 166. The touch sensor 167 can be used as an operation unit configured to accept a user's input operation. For example, when the operation unit is the touch sensor 167, the processor 110 accepts the user's physical contact operation on the input surface of the touch sensor 167 as the user's input operation. For example, the user's input operation on the touch sensor 167 can include a touch operation, a slide operation, a swipe operation, a tap operation, a drag operation, and operations in other modes.
操作部は、上述した構成に限られない。例えば、操作部が通信IF140である場合、プロセッサ110は、ネットワーク90を介して接続された操作機器(不図示)から送信される信号を、ユーザの入力操作として受け付ける。例えば、操作部が入出力IF150である場合、プロセッサ110は、外部の入出力機器190から送信される信号をユーザの入力操作として受け付ける。例えば、入出力機器190がカメラ及び測距センサである場合、プロセッサ110は、受信した撮影画像からユーザの手が検出されると、撮影画像及び出力値に基づき検出されるジェスチャ(ユーザの手の一連の動き)をユーザの入力操作として受け付ける。例えば、入出力機器190がコントローラである場合、プロセッサ110は、コントローラから送信される出力値をユーザの入力操作として受け付ける。 The operation unit is not limited to the above-mentioned configuration. For example, when the operation unit is the communication IF 140, the processor 110 accepts a signal transmitted from an operation device (not shown) connected via the network 90 as a user's input operation. For example, when the operation unit is the input/output IF 150, the processor 110 accepts a signal transmitted from an external input/output device 190 as a user's input operation. For example, when the input/output device 190 is a camera and a distance measuring sensor, when the processor 110 detects a user's hand from a received captured image, the processor 110 accepts a gesture (a series of movements of the user's hand) detected based on the captured image and the output value as a user's input operation. For example, when the input/output device 190 is a controller, the processor 110 accepts an output value transmitted from the controller as a user's input operation.
[サーバのハードウェア構成]
サーバ200は、ワークステーション、又はPC等の汎用コンピュータであってもよい。サーバ200は、プロセッサ210と、メモリ220と、ストレージ230と、通信IF240と、入出力IF250と、を備える。サーバ200が備える複数の構成要素の各々は、通信バス280に接続される。
[Server hardware configuration]
The server 200 may be a general-purpose computer such as a workstation or a PC. The server 200 includes a processor 210, a memory 220, a storage 230, a communication IF 240, and an input/output IF 250. Each of the components included in the server 200 is connected to a communication bus 280.
プロセッサ210は、サーバ200に与えられる信号に応じて、又は予め定めた条件が成立したことに応じて、メモリ220又はストレージ230に格納されているプログラムに含まれる一連の命令を実行する。例えば、プロセッサ210は、CPU、GPU、MPU、FPGA、又はその他の演算装置として実現される。 The processor 210 executes a series of instructions contained in a program stored in the memory 220 or the storage 230 in response to a signal provided to the server 200 or in response to the establishment of a predetermined condition. For example, the processor 210 is realized as a CPU, a GPU, an MPU, an FPGA, or other computing device.
メモリ220は、プログラム、及びデータを一時的に保存する。一例として、プログラムは、ストレージ230から読み出される。データは、サーバ200へ送信されたデータと、プロセッサ210によって生成されたデータと、を含み得る。例えば、メモリ220は、RAM、又はその他の揮発性メモリとして実現される。 The memory 220 temporarily stores programs and data. As an example, the programs are read from the storage 230. The data may include data sent to the server 200 and data generated by the processor 210. For example, the memory 220 is realized as a RAM or other volatile memory.
ストレージ230は、プログラム、及びデータを永続的に保持する。例えば、ストレージ230は、ROM、ハードディスク装置、フラッシュメモリ、又はその他の不揮発性記憶装置として実現される。ストレージ230は、メモリカードのように、着脱可能な記憶装置として実現されてもよい。サーバ200は、ストレージ230に代えて、外部の記憶装置に格納されているプログラムを使用してもよい。例えば、アミューズメント施設のように、複数のゲームシステム10が使用される場面において、プログラム及びデータの更新を一括して行なうことができる。 Storage 230 permanently holds programs and data. For example, storage 230 is realized as a ROM, a hard disk drive, a flash memory, or other non-volatile storage device. Storage 230 may also be realized as a removable storage device, such as a memory card. Server 200 may use programs stored in an external storage device instead of storage 230. For example, in situations where multiple game systems 10 are used, such as an amusement facility, programs and data can be updated all at once.
ストレージ230に格納されるプログラムは、ゲームプログラム、配信プログラム、及び、通信プログラムを含む。ゲームプログラムは、ゲームシステム10におけるゲーム空間の提供と、ゲーム空間を複数のユーザで共有したゲームプレイを提供する機能を実現する。配信プログラムは、ゲームシステム10における視聴空間の提供と、ゲーム空間における事象を、視聴空間を介して複数の視聴ユーザが視聴できるようにする機能を実現する。つまり、配信プログラムは、配信ユーザのプレイ動画を含む視聴用コンテンツを、視聴端末100Cへ配信する機能を実現する。通信プログラムは、他のコンピュータ(例えば、端末100A~100C)と通信する機能を実現する。ストレージ230に格納されるプログラムは、オペレーティングシステム、シミュレーションプログラム、ユーザ認証プログラム、及びその他のプログラムを含んでもよい。例えば、ストレージ130に格納されるデータは、仮想空間を定義するデータ、及び仮想空間に配置される各種のオブジェクトを定義するオブジェクトデータを含み得る。 The programs stored in the storage 230 include a game program, a distribution program, and a communication program. The game program provides a game space in the game system 10 and provides a game play in which multiple users share the game space. The distribution program provides a viewing space in the game system 10 and enables multiple viewing users to view events in the game space through the viewing space. In other words, the distribution program provides a function to distribute viewing content including gameplay videos of the distribution user to the viewing terminal 100C. The communication program provides a function to communicate with other computers (e.g., terminals 100A to 100C). The programs stored in the storage 230 may include an operating system, a simulation program, a user authentication program, and other programs. For example, the data stored in the storage 130 may include data that defines a virtual space and object data that defines various objects to be placed in the virtual space.
通信IF240は、ネットワーク90に接続される。通信IF240は、ネットワーク90に接続されている他のコンピュータ(例えば、端末100A~100C)と通信する。例えば、通信IF240は、LAN、又はその他の有線通信IFとして実現される。例えば、通信IF240は、Wi-Fi(登録商標)、Bluetooth(登録商標)、NFC、又はその他の無線通信IFとして実現される。通信IF240は、上述のものに限られない。 The communication IF 240 is connected to the network 90. The communication IF 240 communicates with other computers (e.g., terminals 100A to 100C) connected to the network 90. For example, the communication IF 240 is realized as a LAN or other wired communication IF. For example, the communication IF 240 is realized as a Wi-Fi (registered trademark), Bluetooth (registered trademark), NFC, or other wireless communication IF. The communication IF 240 is not limited to the above.
入出力IF250は、外部の入出力機器と通信する。例えば、入出力IF250は、USB、DVI、HDMI、又はその他の有線通信IFとして実現される。例えば、入出力IF250は、Bluetooth(登録商標)、又はその他の無線通信IFとして実現される。 The input/output IF 250 communicates with an external input/output device. For example, the input/output IF 250 is realized as a USB, DVI, HDMI, or other wired communication IF. For example, the input/output IF 250 is realized as a Bluetooth (registered trademark) or other wireless communication IF.
サーバ200は、上述した構成に限らない。例えば、サーバ200は、ゲーム空間におけるゲームを提供するためのゲームサーバ200Aと、視聴用コンテンツの配信を行う配信サーバ200Bと、を含んでもよい。ゲームプログラムは、ゲームサーバ200Aのストレージ230に格納される。ゲームプログラムは、ゲームサーバ200Aのプロセッサ210によって実行される。配信プログラムは、配信サーバ200Bのストレージ230に格納される。配信プログラムは、配信サーバ200Bのプロセッサ210によって実行される。ゲームサーバ200Aは、通信IF240を介して、配信サーバ200Bとの間で、各種の情報、及び各種の要求を送受信する。ゲームサーバ200Aは、通信IF240を介して、端末100A,100Bとの間で、各種の情報、及び各種の要求の送受信を行う。配信サーバ200Bは、通信IF240を介して、視聴端末100Cとの間で、各種の情報、及び各種の要求の送受信を行う。 The server 200 is not limited to the above-mentioned configuration. For example, the server 200 may include a game server 200A for providing a game in a game space and a distribution server 200B for distributing viewing content. The game program is stored in the storage 230 of the game server 200A. The game program is executed by the processor 210 of the game server 200A. The distribution program is stored in the storage 230 of the distribution server 200B. The distribution program is executed by the processor 210 of the distribution server 200B. The game server 200A transmits and receives various information and various requests to and from the distribution server 200B via the communication IF 240. The game server 200A transmits and receives various information and various requests to and from the terminals 100A and 100B via the communication IF 240. The distribution server 200B transmits and receives various information and various requests to and from the viewing terminal 100C via the communication IF 240.
[端末のモジュール構成]
図2に示すように、端末100は、コントロールモジュール101と、レンダリングモジュール104と、メモリモジュール105と、通信モジュール106と、入出力モジュール107と、を備える。コントロールモジュール101は、ゲームモジュール101Aと、配信モジュール101Bと、視聴モジュール101Cと、を備える。
[Device module configuration]
2, the terminal 100 includes a control module 101, a rendering module 104, a memory module 105, a communication module 106, and an input/output module 107. The control module 101 includes a game module 101A, a distribution module 101B, and a viewing module 101C.
ゲームモジュール101A、配信モジュール101B、視聴モジュール101C、及びレンダリングモジュール104は、プロセッサ110によって実現される。メモリモジュール105は、メモリ120、及びストレージ130によって実現される。通信モジュール106は、通信IF140によって実現される。入出力モジュール107は、プロセッサ110、タッチセンサ167、及び入出力IF150によって実現される。 The game module 101A, the distribution module 101B, the viewing module 101C, and the rendering module 104 are realized by the processor 110. The memory module 105 is realized by the memory 120 and the storage 130. The communication module 106 is realized by the communication IF 140. The input/output module 107 is realized by the processor 110, the touch sensor 167, and the input/output IF 150.
入出力モジュール107は、タッチセンサ167に対するユーザの入力操作、及び、入出力IF150を介した外部の操作機器に対するユーザの入力操作を検知し、受け付ける。一例として、入出力モジュール107は、タッチセンサ167に対するユーザの入力操作を受け付けた場合、入力位置の座標を検出することによって、当該入力操作の種類を特定する。例えば、入出力モジュール107が特定できる入力操作の種類は、タッチ操作、スライド操作、スワイプ操作、タップ操作、ドラッグ操作、及びその他の態様による操作を含み得る。入出力モジュール107は、連続して検知されていた入力操作が途切れると、タッチセンサ167から接触入力が解除されたことを検知する。 The input/output module 107 detects and accepts a user's input operation on the touch sensor 167, and a user's input operation on an external operating device via the input/output IF 150. As an example, when the input/output module 107 accepts a user's input operation on the touch sensor 167, it detects the coordinates of the input position to identify the type of the input operation. For example, the types of input operations that the input/output module 107 can identify may include a touch operation, a slide operation, a swipe operation, a tap operation, a drag operation, and operations in other modes. When a continuous input operation that has been detected is interrupted, the input/output module 107 detects that the contact input from the touch sensor 167 has been released.
通信モジュール106は、1以上のサーバ200から、各種の情報、及び各種の要求を受信する。一例として、通信モジュール106がサーバ200から受信する情報は、進行情報、配信情報、及びユーザ情報を含み得る。一例として、進行情報は、ゲーム空間におけるゲームの進行状況を示す。一例として、進行情報は、ゲーム空間に配置された1以上のアバターの種類情報、アバターの座標情報、アバターのアクション情報、及びその他の情報を含み得る。アバターは、ゲーム空間においてユーザが操作する対象となるオブジェクトである。アバターは、ユーザの分身となるキャラクタである。一例として、アバターの座標情報は、ゲーム空間における位置を示す。一例として、アクション情報は、アバターのアクション内容を示す。一例として、アバターのアクションは、アバターの姿勢、アイテムの使用、スキルの使用、攻撃、防御、回避、又はジャンプなどを含み得る。進行情報は、アバターの設定に関する設定情報を含み得る。一例として、アバターの設定は、ゲーム空間において、又はゲーム空間へ移動する前段階において、ユーザが変更し得る。一例として、アバターの設定は、アバターの種類、アバターの装備、又はアバターの容姿などを含み得る。 The communication module 106 receives various information and various requests from one or more servers 200. As an example, the information that the communication module 106 receives from the server 200 may include progress information, distribution information, and user information. As an example, the progress information indicates the progress of the game in the game space. As an example, the progress information may include type information of one or more avatars placed in the game space, avatar coordinate information, avatar action information, and other information. The avatar is an object that the user operates in the game space. The avatar is a character that is the user's alter ego. As an example, the avatar coordinate information indicates a position in the game space. As an example, the action information indicates the action content of the avatar. As an example, the avatar action may include the avatar's posture, use of an item, use of a skill, attack, defense, evasion, or jump. The progress information may include setting information regarding the avatar settings. As an example, the avatar settings may be changed by the user in the game space or before moving to the game space. As an example, avatar settings may include the type of avatar, the avatar's equipment, or the avatar's appearance.
一例として、配信情報は、ゲーム空間における事象を、視聴空間に再現するための情報を含む。一例として、配信情報は、進行情報に含まれる情報の一部又は全部を含む。一例として、配信情報は、ゲーム空間におけるゲームの進行状況を視聴空間に再現するための情報として、ゲーム空間に配置された1以上のアバターの種類情報、アバターの座標情報、アバターのアクション情報、及びその他の情報を含んでもよい。配信情報は、アバターの設定に関する設定情報を含んでもよい。一例として、ユーザ情報は、ユーザ名、アカウントID、性別、年齢、及び住所等を含み得る。 As an example, the distribution information includes information for reproducing events in the game space in the viewing space. As an example, the distribution information includes some or all of the information included in the progress information. As an example, the distribution information may include type information of one or more avatars placed in the game space, avatar coordinate information, avatar action information, and other information as information for reproducing the progress of the game in the game space in the viewing space. The distribution information may include setting information regarding avatar settings. As an example, the user information may include a user name, an account ID, gender, age, address, etc.
ゲームモジュール101Aは、ゲームを進行させるための処理を行う。ゲームモジュール101Aは、メモリモジュール105からゲーム空間の定義データを読み出す。ゲームモジュール101Aは、読み出した定義データに応じて、ゲーム空間を定義する。ゲームモジュール101Aは、オブジェクトデータをメモリモジュール105から読み出す。ゲームモジュール101Aは、読み出したオブジェクトデータに応じて、ゲーム空間にオブジェクトを配置する。ゲームモジュール101Aは、入出力モジュール107が受け付けた入力位置の座標と、入力操作の種類と、進行情報(ゲームの進行状況)と、に応じて、ユーザの指示を特定する。 The game module 101A performs processing to progress the game. The game module 101A reads definition data for the game space from the memory module 105. The game module 101A defines the game space according to the read definition data. The game module 101A reads object data from the memory module 105. The game module 101A places objects in the game space according to the read object data. The game module 101A identifies the user's instructions according to the coordinates of the input position accepted by the input/output module 107, the type of input operation, and progress information (progress status of the game).
ゲームの進行状況は、ゲーム空間における自分のアバターの種類情報、座標情報、及びアクション情報を含み得る。ゲームの進行状況は、ゲーム空間における他ユーザのアバターの種類情報、座標情報、及びアクション情報を含み得る。ゲームの進行状況は、自分のアバターの設定情報を含み得る。ゲームの進行状況は、他ユーザのアバターの設定情報を含み得る。 The game progress may include type information, coordinate information, and action information of the player's avatar in the game space. The game progress may include type information, coordinate information, and action information of other users' avatars in the game space. The game progress may include setting information of the player's avatar. The game progress may include setting information of other users' avatars.
ゲームモジュール101Aは、ゲームの進行に関する各種の判定を行う。ゲームモジュール101Aは、ゲームの進行に関する各種の抽選を行う。ゲームモジュール101Aは、ユーザの指示、各種の判定結果、及び各種の抽選結果に応じて、各種の要求、及びプレイ情報を生成する。ゲームモジュール101Aが生成した各種の要求、及びプレイ情報は、通信モジュール106によってサーバ200へ送信される。 The game module 101A makes various judgments regarding the progress of the game. The game module 101A performs various lotteries regarding the progress of the game. The game module 101A generates various requests and play information in response to the user's instructions, various judgment results, and various lottery results. The various requests and play information generated by the game module 101A are transmitted to the server 200 by the communication module 106.
配信モジュール101Bは、視聴用コンテンツ(プレイ動画)を配信するための処理を行う。配信モジュール101Bは、入出力モジュール107が受け付けた入力位置の座標と、入力操作の種類と、ゲームの進行状況と、に応じて、ユーザの指示を特定する。配信モジュール101Bは、ユーザの指示内容に応じて、視聴用コンテンツの配信開始要求、及び配信終了要求を生成し得る。配信モジュール101Bは、ユーザの指示に応じて、視聴用コンテンツの配信内容を変更する要求を生成し得る。配信モジュール101Bが生成した各種の要求は、通信モジュール106によってサーバ200へ送信される。 The distribution module 101B performs processing for distributing viewing content (play video). The distribution module 101B identifies the user's instructions according to the coordinates of the input position accepted by the input/output module 107, the type of input operation, and the progress of the game. The distribution module 101B can generate a request to start distributing viewing content and a request to end distribution according to the user's instructions. The distribution module 101B can generate a request to change the distribution content of the viewing content according to the user's instructions. The various requests generated by the distribution module 101B are transmitted to the server 200 by the communication module 106.
視聴モジュール101Cは、配信ユーザが配信する視聴用コンテンツ(プレイ動画)を視聴するための処理を行う。視聴モジュール101Cは、メモリモジュール105から視聴空間の定義データを読み出す。視聴モジュール101Cは、読み出した定義データに応じて、視聴空間を定義する。視聴モジュール101Cは、オブジェクトデータをメモリモジュール105から読み出す。視聴モジュール101Cは、読み出したオブジェクトデータに応じて、視聴空間にオブジェクトを配置する。一例として、定義データ及びオブジェクトデータは、ゲーム空間と視聴空間とで同じ内容である。つまり、ゲーム空間及び視聴空間は、1つの仮想空間として兼用されるように構成されてもよい。 The viewing module 101C performs processing for viewing viewing content (play video) distributed by a distribution user. The viewing module 101C reads definition data of the viewing space from the memory module 105. The viewing module 101C defines the viewing space according to the read definition data. The viewing module 101C reads object data from the memory module 105. The viewing module 101C places objects in the viewing space according to the read object data. As an example, the definition data and object data are the same for the game space and the viewing space. In other words, the game space and the viewing space may be configured to be used together as a single virtual space.
視聴モジュール101Cは、入出力モジュール107が受け付けた入力位置の座標と、入力操作の種類と、配信情報(ゲームの進行状況)と、に応じて、ユーザの指示を特定する。視聴モジュール101Cは、ユーザの指示に応じて、視聴用コンテンツの視聴開始要求、及び視聴終了要求を生成する。視聴モジュール101Cは、ユーザの指示に応じて、視聴用コンテンツの配信内容を変更する要求を生成する。視聴モジュール101Cが生成した各種の要求は、通信モジュール106によってサーバ200へ送信される。 The viewing module 101C identifies the user's instructions based on the coordinates of the input position received by the input/output module 107, the type of input operation, and the distribution information (game progress status). The viewing module 101C generates a request to start viewing and a request to end viewing of the viewing content in response to the user's instructions. The viewing module 101C generates a request to change the distribution content of the viewing content in response to the user's instructions. The various requests generated by the viewing module 101C are transmitted to the server 200 by the communication module 106.
レンダリングモジュール104は、所定の画面画像を作成する。レンダリングモジュール104は、通信モジュール106が受信した進行情報、配信情報、及び各種の要求に応じて所定の画面画像を作成する。レンダリングモジュール104は、ゲームモジュール101Aが生成したプレイ情報、及び各種の要求に応じて所定の画面画像を作成する。レンダリングモジュール104は、視聴モジュール101Cが生成した情報、及び各種の要求に応じて所定の画面画像を作成する。 The rendering module 104 creates a predetermined screen image. The rendering module 104 creates a predetermined screen image in response to the progress information, distribution information, and various requests received by the communication module 106. The rendering module 104 creates a predetermined screen image in response to the play information generated by the game module 101A, and various requests. The rendering module 104 creates a predetermined screen image in response to the information generated by the viewing module 101C, and various requests.
レンダリングモジュール104は、作成した画面画像をモニタ166に表示する。レンダリングモジュール104は、入出力IF150を介して、外部の表示装置に画面画像を表示するように構成されてもよい。レンダリングモジュール104は、通信IF140を介して、外部の表示装置に画面画像を表示するように構成されてもよい。画面画像は、2D、又は3Dのオブジェクトを制御、及び描画した画像である。上述したように、画面画像として描画されるオブジェクトは、アバター(キャラクタ)、背景、及び障害物等を含み得る。 The rendering module 104 displays the created screen image on the monitor 166. The rendering module 104 may be configured to display the screen image on an external display device via the input/output IF 150. The rendering module 104 may be configured to display the screen image on an external display device via the communication IF 140. The screen image is an image in which 2D or 3D objects are controlled and drawn. As described above, objects drawn as the screen image may include avatars (characters), backgrounds, obstacles, etc.
レンダリングモジュール104は、UI(User Interface)を構築するための2D、又は3Dのゲームオブジェクト(UIオブジェクト)を制御、及び描画してもよい。レンダリングモジュール104は、アイコン、ボタン、リスト、ウィンドウ、及びメニューといった、ユーザの入力操作に必要なUIオブジェクトを含む画面画像を作成する。UIオブジェクトは、ゲームを進行するために必要なユーザの入力操作を補助する。また、UIオブジェクトは、ゲームの進行中に生成される情報を端末100から得るために必要なユーザの入力操作を補助する。本開示で示す各種のUIオブジェクトは、何れも1つの例に過ぎず、それらの態様に限らない。 The rendering module 104 may control and draw 2D or 3D game objects (UI objects) for constructing a UI (User Interface). The rendering module 104 creates a screen image including UI objects necessary for user input operations, such as icons, buttons, lists, windows, and menus. The UI objects assist the user in performing input operations necessary to progress through the game. The UI objects also assist the user in performing input operations necessary to obtain information generated during the progress of the game from the terminal 100. Each of the various UI objects shown in this disclosure is merely an example, and is not limited to these aspects.
端末100における各種の処理は、ハードウェアと、プロセッサ110により実行されるソフトウェアと、によって実現される。このようなソフトウェアは、ハードディスク等のメモリモジュール105に予め格納されていてもよい。ソフトウェアは、CD-ROM等のように、コンピュータが読み取りできる不揮発性のデータ記録媒体に格納されて、プログラム製品として流通してもよい。このソフトウェアは、インターネット等のネットワークに接続されているデータ提供事業者体によって、ダウンロードできるプログラム製品として提供されてもよい。このようなソフトウェアは、光ディスク駆動装置等のデータ読取装置によってデータ記録媒体から読み取られて、又は、通信モジュール106を介してサーバ200といった他のコンピュータからダウンロードされた後、メモリモジュールに一旦格納される。そのソフトウェアは、プロセッサ110によってメモリモジュールから読み出され、実行可能なプログラムの形式でRAM等に格納される。プロセッサ110は、そのプログラムを実行する。 The various processes in the terminal 100 are realized by hardware and software executed by the processor 110. Such software may be pre-stored in the memory module 105, such as a hard disk. The software may be stored in a non-volatile data recording medium that can be read by a computer, such as a CD-ROM, and distributed as a program product. This software may be provided as a downloadable program product by a data provider connected to a network such as the Internet. Such software is read from the data recording medium by a data reading device such as an optical disk drive, or downloaded from another computer such as the server 200 via the communication module 106, and then temporarily stored in the memory module. The software is read from the memory module by the processor 110 and stored in the RAM or the like in the form of an executable program. The processor 110 executes the program.
[サーバのモジュール構成]
図3に示すように、サーバ200は、コントロールモジュール201と、メモリモジュール205と、通信モジュール206と、入出力モジュール207と、を備える。コントロールモジュール201は、ゲームモジュール201Aと、配信モジュール201Bと、を備える。ゲームモジュール201A、及び配信モジュール201Bは、プロセッサ210によって実現される。メモリモジュール205は、メモリ220、及びストレージ230によって実現される。通信モジュール206は、通信IF240によって実現される。入出力モジュール207は、プロセッサ210、及び入出力IF250によって実現される。
[Server module configuration]
3, the server 200 includes a control module 201, a memory module 205, a communication module 206, and an input/output module 207. The control module 201 includes a game module 201A and a distribution module 201B. The game module 201A and the distribution module 201B are realized by a processor 210. The memory module 205 is realized by a memory 220 and a storage 230. The communication module 206 is realized by a communication IF 240. The input/output module 207 is realized by the processor 210 and an input/output IF 250.
通信モジュール206は、各端末100から、各種の情報、及び各種の要求を受信する。一例として、通信モジュール206が各端末100から受信する情報は、プレイ情報、及びユーザ情報を含み得る。通信モジュール206は、各端末100に対して、各種の情報、及び各種の要求を送信する。一例として、通信モジュール206が各端末100へ送信する情報は、進行情報、配信情報、及びユーザ情報を含み得る。入出力モジュール107は、入出力IF250を介した外部の操作機器に対するユーザの入力操作を検知し、受け付ける。 The communication module 206 receives various information and various requests from each terminal 100. As an example, the information that the communication module 206 receives from each terminal 100 may include play information and user information. The communication module 206 transmits various information and various requests to each terminal 100. As an example, the information that the communication module 206 transmits to each terminal 100 may include progress information, distribution information, and user information. The input/output module 107 detects and accepts user input operations on an external operating device via the input/output IF 250.
ゲームモジュール201Aは、直接的又は間接的に1つのゲーム空間を複数のユーザによって共有する環境を提供するための処理を行う。ゲームモジュール201Aは、メモリモジュール205から、ゲーム空間の定義データを読み出す。ゲームモジュール201Aは、読み出した定義データに応じて、ゲーム空間を定義する。ゲームモジュール201Aは、オブジェクトデータをメモリモジュール205から読み出す。ゲームモジュール201Aは、読み出したオブジェクトデータに応じて、各種のオブジェクトをゲーム空間に配置する。 The game module 201A performs processing to provide an environment in which one game space is shared directly or indirectly by multiple users. The game module 201A reads definition data of the game space from the memory module 205. The game module 201A defines the game space according to the read definition data. The game module 201A reads object data from the memory module 205. The game module 201A places various objects in the game space according to the read object data.
ゲームモジュール201Aは、複数の端末100から通信モジュール206が受信したプレイ情報に含まれる座標情報に応じて、複数のユーザの各々に対応するアバターをゲーム空間に配置する。ゲームモジュール201Aは、複数の端末100から通信モジュール206が受信したプレイ情報に含まれるアクション情報、及びアバターの設定情報に応じて、アバター同士の相互作用を判定する。相互作用は、1のアバターがアクションを行った場合に別のアバターが受ける影響である。ゲームモジュール201Aは、これらの処理の結果に応じて、進行情報を生成する。通信モジュール206は、進行情報を1以上の端末100へ送信する。ゲームモジュール201Aは、生成した進行情報を配信モジュール201Bへ送信する。 The game module 201A places avatars corresponding to each of the multiple users in the game space according to coordinate information included in the play information received by the communication module 206 from the multiple terminals 100. The game module 201A determines interactions between avatars according to action information included in the play information received by the communication module 206 from the multiple terminals 100 and avatar setting information. An interaction is the effect that an action performed by one avatar has on another avatar. The game module 201A generates progress information according to the results of these processes. The communication module 206 transmits the progress information to one or more terminals 100. The game module 201A transmits the generated progress information to the distribution module 201B.
配信モジュール201Bは、ゲーム空間におけるゲームプレイの様子を、複数のユーザが視聴できる環境を提供するための処理を行う。配信モジュール201Bは、メモリモジュール205から、視聴空間の定義データを読み出す。配信モジュール201Bは、読み出した定義データに応じて、視聴空間を定義する。一例として、配信モジュール201Bは、オブジェクトデータをメモリモジュール205から読み出す。一例として、配信モジュール201Bは、読み出したオブジェクトデータに応じて、各種のオブジェクトを視聴空間に配置する。 The distribution module 201B performs processing to provide an environment in which multiple users can view gameplay in the game space. The distribution module 201B reads definition data for the viewing space from the memory module 205. The distribution module 201B defines the viewing space according to the read definition data. As an example, the distribution module 201B reads object data from the memory module 205. As an example, the distribution module 201B places various objects in the viewing space according to the read object data.
配信モジュール201Bは、ゲームモジュール201Aが生成した進行情報に応じて、配信情報を生成する。通信モジュール206は、配信情報を1以上の端末100へ送信する。一例として、配信情報は、進行情報の一部又は全部と同じ情報を含んでもよい。一例として、配信情報は、進行情報そのものであってもよい。配信モジュール201Bは、通信モジュール206が視聴端末100Cから受信した各種の要求に応じて、各種の要求をゲームモジュール201Aへ送信する。配信モジュール201Bは、通信モジュール206が端末100から受信した各種の情報に応じて、各種の情報をゲームモジュール201Aへ送信する。 The distribution module 201B generates distribution information in response to the progress information generated by the game module 201A. The communication module 206 transmits the distribution information to one or more terminals 100. As an example, the distribution information may include the same information as some or all of the progress information. As an example, the distribution information may be the progress information itself. The distribution module 201B transmits various requests to the game module 201A in response to various requests received by the communication module 206 from the viewing terminal 100C. The distribution module 201B transmits various information to the game module 201A in response to various information received by the communication module 206 from the terminal 100.
サーバ200は、上述したモジュール構成に限らない。例えば、ゲームモジュール201Aは、ゲームサーバ200Aが備えてもよい。例えば、配信モジュール201Bは、配信サーバ200Bが備えてもよい。ゲームモジュール201Aは、通信モジュール206を介して、配信モジュール201Bとの間で、各種の情報、及び各種の要求の送受信を行う。 The server 200 is not limited to the module configuration described above. For example, the game module 201A may be provided in the game server 200A. For example, the distribution module 201B may be provided in the distribution server 200B. The game module 201A transmits and receives various information and various requests to and from the distribution module 201B via the communication module 206.
サーバ200における処理は、ハードウェアと、プロセッサ210により実行されるソフトウェアと、によって実現される。このようなソフトウェアは、ハードディスク等のメモリモジュール205に予め格納されてもよい。ソフトウェアは、CD-ROM等のように、コンピュータが読み取りできる不揮発性のデータ記録媒体に格納されて、プログラム製品として流通してもよい。このソフトウェアは、インターネット等のネットワークに接続されているデータ提供事業者体によって、ダウンロードできるプログラム製品として提供されてもよい。このようなソフトウェアは、光ディスク駆動装置等のデータ読取装置によってデータ記録媒体から読み取られて、又は、通信モジュール206を介して外部記憶装置といった他のコンピュータからダウンロードされた後、メモリモジュールに一旦格納される。そのソフトウェアは、プロセッサ210によってメモリモジュールから読み出され、実行可能なプログラムの形式でRAM等のメモリに格納される。プロセッサ210は、そのプログラムを実行する。 The processing in the server 200 is realized by hardware and software executed by the processor 210. Such software may be stored in advance in the memory module 205, such as a hard disk. The software may be stored in a non-volatile data recording medium that can be read by a computer, such as a CD-ROM, and distributed as a program product. The software may be provided as a downloadable program product by a data provider connected to a network, such as the Internet. Such software is read from the data recording medium by a data reading device, such as an optical disk drive, or downloaded from another computer, such as an external storage device, via the communication module 206, and then temporarily stored in the memory module. The software is read from the memory module by the processor 210 and stored in a memory, such as a RAM, in the form of an executable program. The processor 210 executes the program.
[ゲームの概要]
一例として、本開示に係るゲームは、性質が異なる複数のパートを含む。一例として、複数のパートは、第1パートと、第2パートと、を含む。第1パートにおいて、一般ユーザ及び配信ユーザは、第2パートの準備を行い得る。第1パートにおいて、視聴ユーザは、配信ユーザが配信する視聴用コンテンツを視聴し得る。視聴用コンテンツは、第1パート及び第2パートのうち少なくとも第2パートにおけるゲームのプレイ動画を含み得る。
[Game Overview]
As an example, a game according to the present disclosure includes multiple parts having different characteristics. As an example, the multiple parts include a first part and a second part. In the first part, general users and broadcasting users may prepare for the second part. In the first part, viewing users may view viewing content broadcast by the broadcasting user. The viewing content may include gameplay video of at least the second part of the first part and the second part.
一例として、第2パートは、複数の陣営が何らかの基準に基づいて勝敗を決めるパートである。複数の陣営は、それぞれ複数のユーザを含み得る。複数のユーザが所属するものは、陣営であることに限らず、パーティ、グループ、チーム、又は組などであってもよい。一例として、第2パートは、複数のパーティが何らかの基準に基づいて勝敗を決めるパートであってもよい。一例として、第2パートは、複数のユーザが何らかの基準に基づいて勝敗を決めるパートであってもよい。 As an example, the second part may be a part where multiple camps decide who wins and who loses based on some criteria. Each of the multiple camps may include multiple users. The multiple users may belong to a camp, but may also be a party, group, team, or pair. As an example, the second part may be a part where multiple parties decide who wins and who loses based on some criteria. As an example, the second part may be a part where multiple users decide who wins and who loses based on some criteria.
第2パートにおいて、一般ユーザ及び配信ユーザは、ゲーム空間における第1ゲームに参加できる。第1ゲームは、アバターを移動させることを含む。視聴ユーザは、第1ゲームのプレイ動画を視聴している場合に、視聴空間における第2ゲームに参加できる。第2ゲームは、アバターを移動させることを含まない。ゲーム空間における事象は、視聴空間において、リアルタイムで再現され得る。つまり、第2ゲームは、第1ゲームと並行して実行される。第2ゲームは、第1ゲームに付随する。 In the second part, general users and broadcasting users can participate in a first game in the game space. The first game includes moving an avatar. A viewing user can participate in a second game in the viewing space while watching a gameplay video of the first game. The second game does not include moving an avatar. Events in the game space can be reproduced in real time in the viewing space. In other words, the second game is executed in parallel with the first game. The second game is incidental to the first game.
一例として、複数の陣営には、第1陣営と、第2陣営と、を含む。各陣営には、第1ゲームに参加する1以上の一般ユーザ、及び第1ゲームに参加する1以上の配信ユーザの、一方又は両方が所属する。第1陣営に所属することは、第1属性であることの一例である。第2陣営に所属することは、第2属性であることの一例である。これに限らず、属性は、フレンド登録がされているか否か、複数のユーザが所属し得るギルドが同じであるか否か、又は複数のパーティが所属し得るユニオンが同じであるか否かなどであってもよい。 As an example, the multiple camps include a first camp and a second camp. Each camp is made up of one or both of one or more general users participating in the first game and one or more broadcast users participating in the first game. Belonging to the first camp is an example of a first attribute. Belonging to the second camp is an example of a second attribute. Without being limited to this, attributes may be whether or not friends are registered, whether or not multiple users can belong to the same guild, or whether or not multiple parties can belong to the same union, etc.
一例として、ゲームの第2パートは、以下のような仕様である。
第1ゲームの一例について説明する。
第1ゲームは、複数の陣営が勝敗を争う対戦型のゲームである。第1ゲームは、自分のアバターと敵方ユーザのアバターとでバトルを行うバトルゲームである。一般ユーザ、及び配信ユーザの一方又は両方は、1つのパーティを形成してバトルゲームに参加する。つまり、複数の陣営は、バトルゲームに参加する1以上のパーティをそれぞれ含む。複数の陣営は、それぞれ複数のパーティを含んでもよい。
As an example, the second part of the game may have the following specifications:
An example of the first game will be described.
The first game is a competitive game in which multiple camps compete for victory or defeat. The first game is a battle game in which a battle is conducted between a player's avatar and an avatar of an opposing user. Either or both of the general user and the broadcast user form a party and participate in the battle game. In other words, each of the multiple camps includes one or more parties participating in the battle game. Each of the multiple camps may include multiple parties.
第1ゲームでは、1つのパーティに所属できるユーザの最大数が定められている。一例として、1つのパーティに所属できるユーザの最大数は、6人である。1つのパーティに所属できるユーザの最大数は、2人~5人であってもよく、7人以上であってもよい。一例として、第1ゲームにおけるパーティは、別のパートにおいて構成された少人数グループやフレンド等の関係にあった者同士によって構成される少人数のグループを所属させることも可能である。ある2人グループと3人グループと個人ユーザを組み合わせて上限人数6人のパーティとして構成させてもよいし、個人プレイヤ6人を所属させて第2パートにおけるパーティとしてもよい。 In the first game, the maximum number of users that can belong to one party is set. As an example, the maximum number of users that can belong to one party is six. The maximum number of users that can belong to one party may be two to five, or seven or more. As an example, a party in the first game may include a small group formed in another part, or a small group formed of people who have a relationship such as friends. A party with a maximum of six people may be formed by combining a group of two and a group of three with an individual user, or a party in the second part may include six individual players.
第2パートにおいて、勝敗を決めるための基準は、1つの陣営が、この陣営と敵対する敵方陣営よりも先に、予め定めた勝利条件を満たすことである。勝利条件は、第1ゲームにおいて、敵方陣営の全アバターの状態が、第1状態から第2状態へ変更されることを含む。アバターの状態は、予め定めた変更条件が成立した場合に、第1状態から第2状態へ変更される。一例として、変更条件は、アバターのヒットポイントが0になることである。この場合、第1状態は、生存状態である。第2状態は、死亡状態である。つまり、勝利条件は、敵方陣営のアバターを全滅させることである。バトルゲームにおいて、各ユーザは、自分のアバターを移動させたり、敵方陣営のアバターを攻撃したりできる。自分のアバターのヒットポイントは、敵方陣営のアバターによる攻撃が命中した場合に減少する。敵方陣営のアバターのヒットポイントは、味方陣営のアバターによる攻撃が命中した場合に減少する。 In the second part, the criterion for determining victory is whether one camp satisfies a predetermined victory condition before the opposing camp. The victory condition includes changing the state of all avatars in the opposing camp from a first state to a second state in the first game. The state of the avatars is changed from the first state to the second state when a predetermined change condition is met. As an example, the change condition is that the hit points of the avatars become 0. In this case, the first state is a survival state. The second state is a death state. In other words, the victory condition is to annihilate all avatars in the opposing camp. In the battle game, each user can move their own avatar and attack avatars in the opposing camp. The hit points of the user's avatar are reduced when an attack by an avatar in the opposing camp hits. The hit points of an avatar in the opposing camp are reduced when an attack by an avatar in the friendly camp hits.
第2パートは、敵方陣営のアバターが全滅していなくても、予め定めた制限時間が経過した場合に終了する。勝利条件は、第2パートの制限時間が経過する時点において、1つの陣営が、敵方陣営よりも多くのスコアを獲得していることを含む。スコアは、第1ゲームにおいて、ゲーム空間に配置された特別オブジェクトを回収することで獲得できる。 The second part ends when a predetermined time limit has elapsed, even if all avatars on the opposing camp have not been annihilated. Victory conditions include one camp having earned a greater score than the opposing camp at the end of the time limit of the second part. Scores can be earned by collecting special objects placed in the game space in the first game.
第2パートにおける第1ゲームは、上述した仕様に限らない。例えば、第1ゲームは、サッカー、テニス、卓球、ボクシング、又はバスケットボール等のスポーツであってもよい。例えば、第1ゲームは、カーレース、ヨットレース、スキーレース、又は飛行レース等のレースであってもよい。 The first game in the second part is not limited to the above-mentioned specifications. For example, the first game may be a sport such as soccer, tennis, table tennis, boxing, or basketball. For example, the first game may be a race such as a car race, a yacht race, a ski race, or an airplane race.
第2ゲームの一例について説明する。
第2ゲームは、1以上の視聴ユーザが、視聴空間に配置された1以上の標的オブジェクトを射撃する「射撃ゲーム」である。一例として、標的オブジェクトは、一般ユーザのアバター、及び配信ユーザのアバターとは異なるオブジェクトである。これに限らず、標的オブジェクトは、一般ユーザのアバター、又は配信ユーザのアバターであってもよい。射撃ゲームは、オブジェクトに影響を与えることの一例として、特定オブジェクトを標的オブジェクトに接触させることを含んでもよい。射撃ゲームは、オブジェクトに影響を与えることの一例として、特定オブジェクトを標的オブジェクトに命中させることを含んでもよい。射撃ゲームは、標的オブジェクトに照準を合わせることを含んでもよい。照準は、特定オブジェクトの移動先を指示することの一例である。詳しくは後述するが、特定オブジェクトが標的オブジェクトに命中したか否かは、標的オブジェクトが特定オブジェクトの移動線上に配置されているか否かに応じて特定される。一例として、移動線は、特定オブジェクトの射線である。
An example of the second game will be described.
The second game is a "shooting game" in which one or more viewing users shoot at one or more target objects arranged in the viewing space. As an example, the target object is an object different from the avatar of the general user and the avatar of the broadcasting user. Without being limited thereto, the target object may be the avatar of the general user or the avatar of the broadcasting user. The shooting game may include, as an example of affecting an object, bringing a specific object into contact with the target object. The shooting game may include, as an example of affecting an object, hitting a specific object with the target object. The shooting game may include aiming at the target object. Aiming is an example of indicating the destination of the specific object. As will be described in detail later, whether or not the specific object has hit the target object is determined depending on whether or not the target object is located on the movement line of the specific object. As an example, the movement line is a line of fire of the specific object.
射撃ゲームは、特定オブジェクトを標的オブジェクトに命中させることに応じて、特定条件を成立させることを含んでもよい。一例として、特定条件は、標的オブジェクトごとに定められたパラメータ値を特定値にすることであってもよい。一例として、パラメータ値は、標的オブジェクトの耐久値Pdであり、特定値は、0であるとよい。 The shooting game may include satisfying a specific condition in response to hitting a target object with a specific object. As one example, the specific condition may be that a parameter value determined for each target object is set to a specific value. As one example, the parameter value may be a durability value Pd of the target object, and the specific value may be 0.
一例として、射撃ゲームでは、当該ゲームに参加できる視聴ユーザの最大数が定められていない。つまり、バトルゲームのプレイ動画を視聴している全ての視聴ユーザは、そのバトルゲームに付随する射撃ゲームに参加できる。射撃ゲームでは、当該ゲームに参加できる視聴ユーザの最大数が定められていてもよい。この場合、射撃ゲームに参加できる視聴ユーザの最大数は、バトルゲームに参加できるユーザの最大数と同じでもよく、多くてもよく、少なくてもよい。射撃ゲームに参加できる視聴ユーザの最大数は、1つの視聴用コンテンツを視聴できる視聴ユーザの最大数と同じでもよく、少なくてもよい。 As an example, in a shooting game, the maximum number of viewing users who can participate in the game is not set. In other words, all viewing users who are watching the play video of the battle game can participate in the shooting game that accompanies the battle game. In a shooting game, the maximum number of viewing users who can participate in the game may be set. In this case, the maximum number of viewing users who can participate in the shooting game may be the same as the maximum number of users who can participate in the battle game, or it may be more or less. The maximum number of viewing users who can participate in the shooting game may be the same as the maximum number of viewing users who can watch one viewing content, or it may be less.
一例として、射撃ゲームは、バトルゲームと並行して実行される。一例として、射撃ゲームは、バトルゲームと間接的に共通化された仮想空間を使用して実行される。詳しくは後述するが、標的オブジェクトは、サーバ200、又は視聴端末100Cによって定義された仮想空間の1つである視聴空間に配置される。標的オブジェクトは、サーバ200、一般端末100A、又は配信端末100Bによって定義された仮想空間の1つであるゲーム空間に配置されなくてもよい。 As an example, the shooting game is executed in parallel with the battle game. As an example, the shooting game is executed using a virtual space indirectly shared with the battle game. As will be described in detail later, the target object is placed in a viewing space that is one of the virtual spaces defined by the server 200 or the viewing terminal 100C. The target object does not have to be placed in a game space that is one of the virtual spaces defined by the server 200, the general terminal 100A, or the distribution terminal 100B.
仮想空間における事象には、バトルゲームに関連したバトル関連事象と、射撃ゲームに関連した射撃関連事象と、バトルゲーム及び射撃ゲームで共通化された共通事象と、がある。バトル関連事象は、仮想空間におけるアバターの位置、アバターのアクション、アバターの設定、アバターのステータス、及びアバターのヒットポイントを含み得る。射撃関連事象は、標的オブジェクトの位置、標的オブジェクトの耐久値Pd、特定オブジェクトの位置、特定オブジェクトが標的オブジェクトに命中したか否か、及び特定オブジェクトの移動線を含み得る。射撃関連事象は、後述する命中情報を含み得る。共通事象は、仮想空間において、バトルゲーム及び射撃ゲームの舞台を構成するフィールドを含み得る。一例として、ゲーム空間は、バトル関連事象、及び共通事象を含み得る。一例として、ゲーム空間は、射撃関連情報を含まない。一例として、視聴空間は、バトル関連事象、射撃関連事象、及び共通事象を含み得る。 Events in the virtual space include battle-related events associated with battle games, shooting-related events associated with shooting games, and common events common to battle games and shooting games. Battle-related events may include the position of the avatar in the virtual space, the action of the avatar, the settings of the avatar, the status of the avatar, and the hit points of the avatar. Shooting-related events may include the position of the target object, the durability value Pd of the target object, the position of a specific object, whether or not the specific object hit the target object, and the movement line of the specific object. Shooting-related events may include hit information, which will be described later. Common events may include fields that form the stage for the battle game and the shooting game in the virtual space. As an example, the game space may include battle-related events and common events. As an example, the game space does not include shooting-related information. As an example, the viewing space may include battle-related events, shooting-related events, and common events.
射撃ゲームにおいて、特定オブジェクトが標的オブジェクトに命中したか否かは、バトルゲームの結果に直接的な影響を及ぼさない。射撃ゲームでは、標的オブジェクトについて特定条件が成立した場合に、視聴ユーザに対して報酬が付与され得る。一例として、報酬は、第1パート、又は第2パートで消費可能な報酬ポイントPである。ユーザは、報酬ポイントPを消費することで、アイテム、武器、防具、通貨、称号、又はキャラクタを獲得可能であるとよい。これに限らず、報酬は、ゲーム内で使用可能なアイテム、武器、防具、通貨、称号、又はキャラクタそのものであってもよい。 In a shooting game, whether or not a specific object hits a target object does not directly affect the outcome of the battle game. In a shooting game, if a specific condition is met for the target object, a reward may be given to the viewing user. As an example, the reward is reward points P that can be consumed in the first part or the second part. By consuming reward points P, the user may be able to acquire an item, weapon, armor, currency, title, or character. Without being limited to this, the reward may be an item, weapon, armor, currency, title, or character that can be used in the game.
一例として、ゲームの第1パートは、以下のような仕様である。
第1パートにおいて、一般ユーザ及び配信ユーザは、第2パートに含まれるバトルゲームの準備を行う。バトルゲームの準備は、ユーザが所持するキャラクタの中から、自分のアバターとして、バトルゲームにおいて使用するキャラクタを選択することを含む。バトルゲームの準備は、アバターの装備、アバターのスキル、及びアバターの所持アイテムの追加、交換、及び削除を含む。バトルゲームの準備は、アバターの容姿を変更することを含んでもよい。例えば、アバターの容姿は、種族、性別、体形、髪型、又は表情を含む。バトルゲームの準備は、アバターの設定を変更することである。
As an example, the first part of the game has the following specifications:
In the first part, general users and broadcast users prepare for the battle game included in the second part. Preparation for the battle game includes selecting a character to be used in the battle game as the user's avatar from among the characters owned by the user. Preparation for the battle game includes adding, exchanging, and deleting avatar equipment, avatar skills, and items owned by the avatar. Preparation for the battle game may include changing the appearance of the avatar. For example, the appearance of the avatar includes the race, gender, body shape, hairstyle, or facial expression. Preparation for the battle game involves changing the settings of the avatar.
[端末における画面遷移の概要]
図4に示すように、一例として、各端末100における表示画面には、第1ホーム画面40A、第2ホーム画面40B、マッチング画面45、第1バトル画面50A、及び第2バトル画面50Bを含み得る。一例として、各端末100における表示画面には、第1リザルト画面55、第2リザルト画面60、リスト画面65、及び視聴画面70を含み得る。ここでは、画面遷移の概要について説明する。各表示画面の具体的な一例については後述する。
[Overview of screen transitions on devices]
4, as an example, the display screen on each terminal 100 may include a first home screen 40A, a second home screen 40B, a matching screen 45, a first battle screen 50A, and a second battle screen 50B. As an example, the display screen on each terminal 100 may include a first result screen 55, a second result screen 60, a list screen 65, and a viewing screen 70. An overview of screen transitions will be described below. Specific examples of each display screen will be described later.
第1ホーム画面40Aは、ゲームが第1パートである場合であって、端末100が初期状態である場合に表示される。初期状態は、配信状態、及び視聴状態の何れでもない状態である。初期状態である場合に、端末100は、一般端末100Aになる。配信状態である場合に、端末100は、配信端末100Bになる。視聴状態である場合に、端末100は、視聴端末100Cになる。第2ホーム画面40Bは、ゲームが第1パートである場合であって、端末100が配信状態である場合に表示される。 The first home screen 40A is displayed when the game is in the first part and the terminal 100 is in the initial state. The initial state is a state in which the terminal 100 is neither in the streaming state nor in the viewing state. When in the initial state, the terminal 100 becomes a general terminal 100A. When in the streaming state, the terminal 100 becomes a streaming terminal 100B. When in the viewing state, the terminal 100 becomes a viewing terminal 100C. The second home screen 40B is displayed when the game is in the first part and the terminal 100 is in the streaming state.
マッチング画面45は、ゲームが第1パートから、第2パートのバトルゲームへ移行する場合に表示される。第1バトル画面50Aは、ゲームが第2パートのバトルゲームである場合であって、かつ端末100が初期状態であるときに表示される。第2バトル画面50Bは、ゲームが第2パートのバトルゲームである場合であって、かつ端末100が配信状態であるときに表示される。第1リザルト画面55は、ゲームが第2パートから第1パートへ移行するときに表示される。なお、第1リザルト画面55において、続けて第2パートのゲームを実行することを指示する操作がされた場合に、ホーム画面40A,40Bを経由せずに、マッチング画面45が表示されてもよい。 The matching screen 45 is displayed when the game transitions from the first part to the second part of the battle game. The first battle screen 50A is displayed when the game is the second part of the battle game and the terminal 100 is in an initial state. The second battle screen 50B is displayed when the game is the second part of the battle game and the terminal 100 is in a broadcasting state. The first result screen 55 is displayed when the game transitions from the second part to the first part. Note that if an operation is performed on the first result screen 55 to instruct the player to continue playing the second part of the game, the matching screen 45 may be displayed without going through the home screens 40A and 40B.
リスト画面65は、画面が第1ホーム画面40Aから視聴画面70へ移行する場合に表示される。リスト画面65は、その時点で視聴できる1以上の視聴用コンテンツのリストを含む。ユーザは、リストから任意の視聴用コンテンツを選択することによって、その視聴用コンテンツを視聴することができる。 The list screen 65 is displayed when the screen transitions from the first home screen 40A to the viewing screen 70. The list screen 65 includes a list of one or more viewing contents that can be viewed at that time. The user can view any viewing content by selecting that viewing content from the list.
視聴画面70は、ゲームが第1パートである場合であって、端末100が視聴状態である場合に表示される。視聴画面70において視聴できる視聴用コンテンツは、リスト画面65において、ユーザによって選択された視聴用コンテンツである。視聴画面70において視聴できる視聴用コンテンツは、その視聴用コンテンツを配信する配信端末100Bにおけるゲームの状況に応じたプレイ動画を含み得る。 The viewing screen 70 is displayed when the game is in the first part and the terminal 100 is in a viewing state. The viewing content that can be viewed on the viewing screen 70 is the viewing content selected by the user on the list screen 65. The viewing content that can be viewed on the viewing screen 70 may include gameplay video that corresponds to the status of the game on the distribution terminal 100B that distributes the viewing content.
視聴画面70において、視聴ユーザは、第1パートのゲームにおける配信ユーザのゲームプレイを視聴できる。視聴画面70において、視聴ユーザは、第2パートのバトルゲームにおける配信ユーザのゲームプレイを視聴できる。つまり、視聴画面70は、バトルゲームのプレイ動画を視聴できる。第2リザルト画面60は、配信ユーザがプレイするゲームが第2パートから第1パートへ移行するときに表示される。第2リザルト画面60が表示された後には、視聴画面70へ移行することによって、視聴ユーザは、第1パートにおける配信ユーザのゲームプレイを視聴できる。 On the viewing screen 70, the viewing user can watch the broadcasting user's gameplay in the first part of the game. On the viewing screen 70, the viewing user can watch the broadcasting user's gameplay in the battle game in the second part. In other words, the viewing screen 70 allows the viewing user to watch a gameplay video of the battle game. The second result screen 60 is displayed when the game played by the broadcasting user transitions from the second part to the first part. After the second result screen 60 is displayed, the viewing user can transition to the viewing screen 70 and watch the broadcasting user's gameplay in the first part.
[配信処理、及び視聴処理の流れ]
視聴用コンテンツを配信するための配信処理、及び視聴用コンテンツを視聴するための視聴処理の流れの一例について説明する。
[Flow of distribution process and viewing process]
An example of the flow of a distribution process for distributing viewing content and a viewing process for viewing the viewing content will be described.
図5に示すように、ステップS100において、配信端末100Bのプロセッサ110は、配信モジュール101Bとして、配信開始を指示する操作を受け付けた場合に、配信開始要求をサーバ200へ送信する。 As shown in FIG. 5, in step S100, when the processor 110 of the distribution terminal 100B, which serves as the distribution module 101B, receives an operation to instruct the start of distribution, it sends a distribution start request to the server 200.
ステップS102において、ゲームが第1パートである場合に、配信端末100Bのプロセッサ110は、ゲームモジュール101Aとして、プレイ情報をサーバ200へ送信する。プレイ情報は、アバターの種類情報、座標情報、アクション情報、設定情報、及びその他の情報を含み得る。 In step S102, if the game is in the first part, the processor 110 of the distribution terminal 100B transmits play information to the server 200 as the game module 101A. The play information may include avatar type information, coordinate information, action information, setting information, and other information.
ステップS104において、サーバ200のプロセッサ210は、配信モジュール201Bとして、配信開始要求を受信する。ステップS106において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、プレイ情報を受信する。つまり、サーバ200は、配信ユーザが配信端末100Bで行うゲームプレイに応じたプレイ情報を、配信端末100Bから受信する。これに限らず、サーバ200のプロセッサ210は、配信モジュール201Bとして、プレイ情報を受信してもよい。 In step S104, the processor 210 of the server 200 receives a distribution start request as the distribution module 201B. In step S106, the processor 210 of the server 200 receives play information as the game module 201A. That is, the server 200 receives play information from the distribution terminal 100B according to the game play performed by the distribution user on the distribution terminal 100B. Not limited to this, the processor 210 of the server 200 may receive play information as the distribution module 201B.
ステップS108において、サーバ200のプロセッサ210は、配信モジュール201Bとして、配信情報を生成する。ステップS110において、サーバ200のプロセッサ210は、配信モジュール201Bとして、配信リストを生成する。一例として、配信リストは、配信中である視聴用コンテンツのリストである。一例として、配信リストは、視聴用コンテンツを配信中である配信ユーザのリストであってもよい。 In step S108, the processor 210 of the server 200, as the distribution module 201B, generates distribution information. In step S110, the processor 210 of the server 200, as the distribution module 201B, generates a distribution list. As an example, the distribution list is a list of viewing content that is being distributed. As an example, the distribution list may be a list of distribution users to which viewing content is being distributed.
ステップS114において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、配信リストの表示を指示するリスト表示操作を受け付けた場合に、配信リスト要求をサーバ200へ送信する。 In step S114, when the processor 110 of the viewing terminal 100C, as the viewing module 101C, receives a list display operation instructing the display of the distribution list, it sends a distribution list request to the server 200.
ステップS116において、サーバ200のプロセッサ210は、配信モジュール201Bとして、配信リスト要求を受信する。ステップS118において、サーバ200のプロセッサ210は、配信モジュール201Bとして、配信リストを視聴端末100Cへ送信する。 In step S116, the processor 210 of the server 200, functioning as the distribution module 201B, receives the distribution list request. In step S118, the processor 210 of the server 200, functioning as the distribution module 201B, transmits the distribution list to the viewing terminal 100C.
ステップS120において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、配信リストを受信する。ステップS122において、視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、配信リストをモニタ166に表示する。 In step S120, the processor 110 of the viewing terminal 100C, functioning as the viewing module 101C, receives the distribution list. In step S122, the processor 110 of the viewing terminal 100C, functioning as the rendering module 104, displays the distribution list on the monitor 166.
ステップS124において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、視聴を開始する視聴用コンテンツを指示する配信開始操作を受け付けた場合に、視聴開始要求をサーバ200へ送信する。一例として、視聴開始要求は、視聴端末100Cへの配信を要求する視聴用コンテンツを示す情報を含む。 In step S124, when the processor 110 of the viewing terminal 100C, as the viewing module 101C, receives a distribution start operation indicating the viewing content to be started, it transmits a viewing start request to the server 200. As an example, the viewing start request includes information indicating the viewing content to be requested to be distributed to the viewing terminal 100C.
ステップS126において、サーバ200のプロセッサ210は、配信モジュール201Bとして、視聴開始要求を受信する。ステップS128において、サーバ200のプロセッサ210は、配信モジュール201Bとして、配信情報を視聴端末100Cへ送信する。つまり、サーバ200は、受信したプレイ情報に応じて、配信情報を1以上の視聴端末100Cへ送信する。サーバ200は、配信ユーザによるゲームのプレイ動画を含む視聴用コンテンツを、視聴端末100Cを使用する視聴ユーザが視聴できるようにする。ステップS128は、仮想空間における配信ユーザのゲームプレイに応じた配信情報を、視聴ユーザが使用する端末へ送信することの一例である。ステップS128は、視聴ユーザが使用する端末を使用して、ゲームプレイに応じた動画を視聴できるようにすることの一例である。より好ましくは、プレイ動画を視聴できるようにすることは、複数の視聴端末100Cが存在する場合に、複数の視聴端末100Cのそれぞれにおいてプレイ動画を視聴できるようにすることである。 In step S126, the processor 210 of the server 200 receives a viewing start request as the distribution module 201B. In step S128, the processor 210 of the server 200 transmits distribution information to the viewing terminal 100C as the distribution module 201B. That is, the server 200 transmits distribution information to one or more viewing terminals 100C according to the received play information. The server 200 enables the viewing user using the viewing terminal 100C to view viewing content including a game play video by the distribution user. Step S128 is an example of transmitting distribution information according to the game play of the distribution user in the virtual space to the terminal used by the viewing user. Step S128 is an example of enabling a video according to the game play to be viewed using the terminal used by the viewing user. More preferably, enabling the play video to be viewed means that, when there are multiple viewing terminals 100C, the play video can be viewed on each of the multiple viewing terminals 100C.
ステップS130において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、配信情報を受信する。ステップS132において、視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、配信情報に応じて視聴画面70をモニタ166に表示する。 In step S130, the processor 110 of the viewing terminal 100C, functioning as the viewing module 101C, receives the distribution information. In step S132, the processor 110 of the viewing terminal 100C, functioning as the rendering module 104, displays the viewing screen 70 on the monitor 166 in accordance with the distribution information.
視聴端末100Cのプロセッサ110は、配信端末100Bにおけるゲームが第1パートである場合に、第1パートにおけるゲームプレイを含む視聴画面70をモニタ166に表示する。視聴端末100Cのプロセッサ110は、配信端末100Bにおけるゲームが第2パートの第1ゲームである場合に、第2パートにおける第1ゲームのプレイ動画を含む視聴画面70をモニタ166に表示する。視聴画面70は、配信ユーザによるゲームのプレイ動画を含む視聴用コンテンツの一例である。 When the game on the distribution terminal 100B is the first part, the processor 110 of the viewing terminal 100C displays a viewing screen 70 including game play in the first part on the monitor 166. When the game on the distribution terminal 100B is the first game in the second part, the processor 110 of the viewing terminal 100C displays a viewing screen 70 including game play video of the first game in the second part on the monitor 166. The viewing screen 70 is an example of viewing content including a game play video by the distribution user.
視聴端末100Cのプロセッサ110は、配信端末100Bにおけるゲームが第2パートから第1パートへ移行した場合に、レンダリングモジュール104として、第2リザルト画面60をモニタ166に表示する。つまり、配信情報は、第2パートの終了を示す情報を含み得る。その後、視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、第1パートにおけるゲームプレイを含む視聴画面70をモニタ166に表示する。 When the game in the distribution terminal 100B transitions from the second part to the first part, the processor 110 of the viewing terminal 100C functions as the rendering module 104 to display the second result screen 60 on the monitor 166. In other words, the distribution information may include information indicating the end of the second part. Thereafter, the processor 110 of the viewing terminal 100C functions as the rendering module 104 to display the viewing screen 70 including the game play in the first part on the monitor 166.
[マッチング処理、及びゲーム処理の流れ]
マッチング処理、及びゲーム処理の流れの一例について説明する。
以下の説明では、特に断らない限り、一般ユーザ又は配信ユーザと示す場合に、同じバトルゲームに参加している各ユーザを意図する。また、特に断らない限り、視聴ユーザと示す場合に、同じ配信ユーザによって配信されている視聴用コンテンツを視聴しているユーザを意図する。視聴ユーザは、射撃ゲームに参加しているユーザになり得る。
[Matching process and game process flow]
An example of the flow of the matching process and the game process will be described.
In the following description, unless otherwise specified, when referring to a general user or a distribution user, it means each user participating in the same battle game. Furthermore, unless otherwise specified, when referring to a viewing user, it means a user viewing viewing content distributed by the same distribution user. A viewing user can be a user participating in a shooting game.
図6に示すように、ステップS200において、ゲームが第1パートである場合に、端末100のプロセッサ110は、レンダリングモジュール104として、第1ホーム画面40A、又は第2ホーム画面40Bをモニタ166に表示する。プロセッサ110は、初期状態である場合に、第1ホーム画面40Aをモニタ166に表示する。プロセッサ110は、配信状態である場合に、第2ホーム画面40Bをモニタ166に表示する。 As shown in FIG. 6, in step S200, when the game is in the first part, the processor 110 of the terminal 100, as the rendering module 104, displays the first home screen 40A or the second home screen 40B on the monitor 166. When the terminal 100 is in the initial state, the processor 110 displays the first home screen 40A on the monitor 166. When the terminal 100 is in the distribution state, the processor 110 displays the second home screen 40B on the monitor 166.
ステップS202において、端末100のプロセッサ110は、ゲームモジュール101Aとして、第2パートの開始を指示する開始操作を受け付けた場合に、マッチング開始要求をサーバ200へ送信する。一例として、プロセッサ110は、端末100のユーザが所属するパーティに、規定数のユーザが所属している場合に、開始操作を受け付ける。つまり、プロセッサ110は、端末100のユーザが所属するパーティに、規定数のユーザが所属していない場合に、開始操作を受け付けない。一例として、規定数は、1人でもよく、2人以上であってもよく、1つのパーティに所属できるユーザの最大数であってもよい。マッチング開始要求を送信した場合に、プロセッサ110は、レンダリングモジュール104として、マッチング画面45をモニタ166に表示する。 In step S202, when the processor 110 of the terminal 100 as the game module 101A receives a start operation instructing the start of the second part, the processor 110 transmits a matching start request to the server 200. As an example, the processor 110 receives the start operation when a prescribed number of users belong to the party to which the user of the terminal 100 belongs. In other words, the processor 110 does not receive the start operation when the prescribed number of users does not belong to the party to which the user of the terminal 100 belongs. As an example, the prescribed number may be one person, two or more people, or the maximum number of users that can belong to one party. When the matching start request is transmitted, the processor 110 as the rendering module 104 displays the matching screen 45 on the monitor 166.
ステップS204において、サーバ200のプロセッサ210は、ゲームモジュール101Aとして、マッチング開始要求を受信する。ステップS206において、サーバ200のプロセッサ210は、マッチング処理を行う。マッチング処理において、プロセッサ210は、ゲームモジュール201Aとして、マッチング待ち状態である1以上のパーティの中から、端末100を使用するユーザが所属するパーティと対戦するための条件に適合するパーティを検索する。マッチング待ち状態は、マッチング開始要求を受信済みであり、かつ対戦相手となるパーティが決定されていない状態である。 In step S204, the processor 210 of the server 200, as the game module 101A, receives a matching start request. In step S206, the processor 210 of the server 200 performs matching processing. In the matching processing, the processor 210, as the game module 201A, searches for a party that meets the conditions for playing against a party to which the user using the terminal 100 belongs, from among one or more parties waiting for matching. The matching wait state is a state in which a matching start request has been received, but an opponent party has not yet been determined.
ステップS208において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、条件に適合するパーティを敵方陣営のパーティとして決定してから、マッチングを完了する。つまり、プロセッサ210は、1つの第2パートのゲームに参加する複数のパーティを決定する。この複数のパーティは、味方陣営に所属する1以上の味方パーティと、敵方陣営に所属する1以上の敵方パーティと、を含むとよい。以下の説明では、1つの第1ゲームに参加する複数のパーティを「参加パーティ」と示す。参加パーティは、第1陣営に所属する1以上の第1パーティと、第2陣営に所属する1以上の第2パーティと、を含む。 In step S208, the processor 210 of the server 200, as the game module 201A, determines the parties that meet the conditions as parties in the enemy camp, and then completes the matching. That is, the processor 210 determines multiple parties that will participate in one second part game. These multiple parties may include one or more friendly parties that belong to the friendly camp, and one or more enemy parties that belong to the enemy camp. In the following description, multiple parties that participate in one first game are referred to as "participating parties." The participating parties include one or more first parties that belong to the first camp, and one or more second parties that belong to the second camp.
ステップS210において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、ゲーム空間を定義する。ステップS210は、仮想空間を定義することの一例である。ステップS212において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、ゲーム空間に1以上のオブジェクトを配置する。1以上のオブジェクトは、複数の参加パーティのそれぞれに所属するユーザのアバターを含む。同じ陣営に所属するユーザ同士は、同じ属性を有する味方ユーザである。互いに敵対する複数の陣営に分かれて所属するユーザ同士は、異なる属性を有する敵方ユーザである。 In step S210, the processor 210 of the server 200 defines a game space as the game module 201A. Step S210 is an example of defining a virtual space. In step S212, the processor 210 of the server 200 places one or more objects in the game space as the game module 201A. The one or more objects include avatars of users belonging to each of the multiple participating parties. Users belonging to the same camp are friendly users with the same attributes. Users belonging to multiple opposing camps are enemy users with different attributes.
ステップS212では、1人のユーザから見たときに、この1人のユーザのアバター、味方ユーザのアバター、及び敵方ユーザのアバターが、ゲーム空間に配置される。一例として、1以上のオブジェクトは、バトルゲームの舞台を構成するフィールドオブジェクトを含んでもよい。つまり、ゲーム空間は、アバターの移動を許容又は制限するフィールドを含み得る。一例として、1以上のオブジェクトは、複数の陣営にとって共通の敵方キャラクタを含んでもよい。一例として、1以上のオブジェクトは、複数の陣営にとって共通である障害物、又は共通であるトラップを含んでもよい。ステップS212は、仮想空間に1以上のオブジェクトを配置することの一例である。1以上のオブジェクトを配置することは、第1ユーザに対応するキャラクタを配置することを含む。 In step S212, an avatar of a single user, an avatar of a friendly user, and an avatar of an enemy user are placed in a game space as viewed from the single user. As an example, the one or more objects may include a field object that constitutes the stage of a battle game. That is, the game space may include a field that allows or restricts the movement of the avatar. As an example, the one or more objects may include an enemy character that is common to multiple camps. As an example, the one or more objects may include an obstacle or a trap that is common to multiple camps. Step S212 is an example of placing one or more objects in a virtual space. Placing one or more objects includes placing a character corresponding to the first user.
ステップS214において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、第2パート開始要求を端末100へ送信する。プロセッサ210は、第2パート開始要求を、参加パーティに所属するユーザが使用する全ての端末100A,100Bへ送信する。 In step S214, the processor 210 of the server 200, as the game module 201A, transmits a second part start request to the terminal 100. The processor 210 transmits the second part start request to all terminals 100A and 100B used by users belonging to the participating party.
ステップS216において、端末100のプロセッサ110は、ゲームモジュール101Aとして、第2パート開始要求を受信する。ステップS218において、端末100のプロセッサ110は、レンダリングモジュール104として、第1バトル画面50A又は第2バトル画面50Bをモニタ166に表示する。プロセッサ110は、初期状態である場合に、第1バトル画面50Aをモニタ166に表示する。プロセッサ110は、配信状態である場合に、第2バトル画面50Bをモニタ166に表示する。つまり、第2パートのゲームに使用される1以上の端末100において、ゲームは、第1パートから第2パートへ移行する。ステップS216,S218は、一般端末100A又は配信端末100Bで実行される。 In step S216, the processor 110 of the terminal 100, as the game module 101A, receives a request to start the second part. In step S218, the processor 110 of the terminal 100, as the rendering module 104, displays the first battle screen 50A or the second battle screen 50B on the monitor 166. When the processor 110 is in the initial state, it displays the first battle screen 50A on the monitor 166. When the processor 110 is in the broadcasting state, it displays the second battle screen 50B on the monitor 166. That is, in one or more terminals 100 used for the game in the second part, the game transitions from the first part to the second part. Steps S216 and S218 are executed in the general terminal 100A or the broadcasting terminal 100B.
ステップS220において、端末100のプロセッサ110は、ゲームモジュール101Aとして、端末側のゲーム処理を行う。一例として、端末100A,100Bのプロセッサ110は、ゲームモジュール101Aとして、自分のアバターの移動を指示する操作、他のアバターへの攻撃を指示する操作、又は所定のオブジェクトへの攻撃を指示する操作を受け付けた場合に、各々の操作内容を示すプレイ情報をサーバ200へ送信する。 In step S220, the processor 110 of the terminal 100 performs terminal-side game processing as the game module 101A. As an example, when the processor 110 of the terminal 100A or 100B receives an operation to instruct the player to move their own avatar, an operation to instruct an attack on another avatar, or an operation to instruct an attack on a specific object as the game module 101A, the processor 110 transmits play information indicating the content of each operation to the server 200.
一例として、一般端末100A又は配信端末100Bのプロセッサ110は、進行情報を受信する。一般端末100Aのプロセッサ110は、レンダリングモジュール104として、進行情報に応じて、第1バトル画面50Aをモニタ166に表示する。配信端末100Bのプロセッサ110は、レンダリングモジュール104として、進行情報に応じて、第2バトル画面50Bをモニタ166に表示する。 As an example, the processor 110 of the general terminal 100A or the broadcasting terminal 100B receives the progress information. The processor 110 of the general terminal 100A, as the rendering module 104, displays the first battle screen 50A on the monitor 166 in accordance with the progress information. The processor 110 of the broadcasting terminal 100B, as the rendering module 104, displays the second battle screen 50B on the monitor 166 in accordance with the progress information.
ステップS222において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、サーバ側のゲーム処理を行う。ステップS222において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、1以上の一般端末100A、及び1以上の配信端末100Bから、プレイ情報を受信し得る。プレイ情報は、配信端末100Bが、アバターの移動を指示する操作を受け付けた場合に、当該配信端末100Bが送信する第1操作情報の一例である。ステップS222は、第1操作情報を受信することの一例である。 In step S222, the processor 210 of the server 200 performs server-side game processing as the game module 201A. In step S222, the processor 210 of the server 200 may receive play information as the game module 201A from one or more general terminals 100A and one or more broadcasting terminals 100B. The play information is an example of first operation information transmitted by the broadcasting terminal 100B when the broadcasting terminal 100B receives an operation instructing the movement of an avatar. Step S222 is an example of receiving first operation information.
一例として、ステップS222において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、プレイ情報に応じて、ゲーム空間におけるアバターの移動動作を管理する。プロセッサ210は、アバターが第2状態である場合に、プレイ情報に応じてアバターを移動させない。プロセッサ210は、アバターが第1状態である場合に、プレイ情報に応じてアバターを移動させる。これに限定されず、アバターが第2状態である場合に、一般端末100A及び配信端末100Bのプロセッサ110は、アバターの移動を指示する操作を受け付けないように構成されてもよい。アバターが第2状態である場合に、一般端末100A及び配信端末100Bのプロセッサ110は、アバターの移動を指示する操作を受け付けても、アバターの移動を指示するプレイ情報を送信しないように構成されてもよい。 As an example, in step S222, the processor 210 of the server 200, as the game module 201A, manages the movement operation of the avatar in the game space according to the play information. When the avatar is in the second state, the processor 210 does not move the avatar according to the play information. When the avatar is in the first state, the processor 210 moves the avatar according to the play information. Without being limited to this, when the avatar is in the second state, the processor 110 of the general terminal 100A and the broadcasting terminal 100B may be configured not to accept an operation instructing the movement of the avatar. When the avatar is in the second state, the processor 110 of the general terminal 100A and the broadcasting terminal 100B may be configured not to transmit play information instructing the movement of the avatar even if it accepts an operation instructing the movement of the avatar.
一例として、ステップS222において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、プレイ情報に応じて、ゲーム空間におけるアバターの攻撃動作を管理する。プロセッサ210は、アバターが第2状態である場合に、プレイ情報に応じて攻撃動作を行わせない。プロセッサ210は、アバターが第1状態である場合に、プレイ情報に応じて攻撃動作を行わせる。これに限定されず、アバターが第2状態である場合に、一般端末100A及び配信端末100Bのプロセッサ110は、攻撃を指示する操作を受け付けない構成であってもよい。アバターが第2状態である場合に、一般端末100A及び配信端末100Bのプロセッサ110は、攻撃を指示する操作を受け付けたとしても、攻撃を指示するプレイ情報を送信しない構成であってもよい。 As an example, in step S222, the processor 210 of the server 200, as the game module 201A, manages the attacking action of the avatar in the game space according to the play information. When the avatar is in the second state, the processor 210 does not cause the avatar to perform an attacking action according to the play information. When the avatar is in the first state, the processor 210 causes the avatar to perform an attacking action according to the play information. Without being limited to this, when the avatar is in the second state, the processor 110 of the general terminal 100A and the broadcasting terminal 100B may be configured not to accept an operation instructing an attack. When the avatar is in the second state, the processor 110 of the general terminal 100A and the broadcasting terminal 100B may be configured not to transmit play information instructing an attack even if an operation instructing an attack is accepted.
一例として、プロセッサ210は、敵方陣営のアバターに、攻撃が命中したか否かを判定する。プロセッサ210は、敵方陣営のアバターに、攻撃が命中したと判定した場合に、そのアバターのヒットポイントを減少させる。つまり、プロセッサ210は、1人のユーザから見たときに、当該1人のユーザのアバター、味方陣営のアバター、及び敵方陣営のアバターの各々に対応するヒットポイントを管理する。アバターの攻撃は、フィールドオブジェクトに命中する場合がある。また、フィールドオブジェクトの効果が、アバターに発揮される場合がある。 As an example, processor 210 determines whether an attack has hit an avatar in the enemy camp. If processor 210 determines that an attack has hit an avatar in the enemy camp, it reduces the hit points of that avatar. In other words, processor 210 manages the hit points corresponding to each of the avatar of the single user, the avatar in the friendly camp, and the avatar in the enemy camp, as seen from the perspective of the single user. An attack by the avatar may hit a field object. Also, the effect of the field object may be exerted on the avatar.
このように、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、プレイ情報に応じて、アバターの移動動作、及び攻撃動作を管理することによって、アバター同士の相互作用を特定する。そして、プロセッサ210は、その特定結果に応じて進行情報を生成する。プロセッサ210は、生成した進行情報を、各端末100A,100Bへ送信する。ステップS222は、仮想空間80を使用するゲームを、配信ユーザが配信端末100Bを使用してプレイできるようにすることの一例である。なお、サーバ200のプロセッサ210は、ステップS222において生成した進行情報を使用して、ステップS128において配信情報を生成する。 In this way, the processor 210 of the server 200, as the game module 201A, identifies interactions between avatars by managing the movement and attacking actions of the avatars according to the play information. The processor 210 then generates progress information according to the identification results. The processor 210 transmits the generated progress information to each of the terminals 100A and 100B. Step S222 is an example of allowing the broadcasting user to play a game that uses the virtual space 80 using the broadcasting terminal 100B. The processor 210 of the server 200 generates broadcast information in step S128 using the progress information generated in step S222.
ステップS224において、サーバ200のプロセッサ210は、第2パートの終了条件が満たされた場合に、ゲームモジュール201Aとして、同じ第2パートのゲームに参加するユーザがそれぞれ使用する全ての端末100へ、第2パート終了要求を送信する。一例として、第2パートの終了条件は、第2パートの制限時間が経過する前に1以上の陣営が勝利条件を満たした場合、又は、第2パートの制限時間が経過した場合に成立する。なお、第2パートの終了条件が満たされた場合に、サーバ200のプロセッサ210は、配信モジュール201Bとして、ステップS128において、第2パートの終了を示す情報を含む配信情報を生成し、視聴端末100Cへ送信するとよい。 In step S224, when the end condition of the second part is satisfied, the processor 210 of the server 200, as the game module 201A, transmits a second part end request to all terminals 100 used by the users participating in the same game of the second part. As an example, the end condition of the second part is met when one or more camps satisfy the victory condition before the time limit of the second part has elapsed, or when the time limit of the second part has elapsed. Note that when the end condition of the second part is satisfied, the processor 210 of the server 200, as the distribution module 201B, may generate distribution information including information indicating the end of the second part in step S128 and transmit the information to the viewing terminal 100C.
ステップS226において、端末100のプロセッサ110は、ゲームモジュール101Aとして、第2パート終了要求を受信する。ステップS228において、一般端末100Aのプロセッサ110は、レンダリングモジュール104として、第1バトル画面50Aの表示を終了するとともに、第1リザルト画面55をモニタ166に表示する。その後、一般端末100Aのプロセッサ110は、レンダリングモジュール104として、第1ホーム画面40Aをモニタ166に表示する。ステップS228において、配信端末100Bのプロセッサ110は、レンダリングモジュール104として、第2バトル画面50Bの表示を終了するとともに、第1リザルト画面55をモニタ166に表示する。その後、配信端末100Bのプロセッサ110は、レンダリングモジュール104として、第2ホーム画面40Bをモニタ166に表示する。つまり、端末100A,100Bにおいて、ゲームは、第2パートから第1パートへ移行する。 In step S226, the processor 110 of the terminal 100, as the game module 101A, receives a request to end the second part. In step S228, the processor 110 of the general terminal 100A, as the rendering module 104, ends the display of the first battle screen 50A and displays the first result screen 55 on the monitor 166. Thereafter, the processor 110 of the general terminal 100A, as the rendering module 104, displays the first home screen 40A on the monitor 166. In step S228, the processor 110 of the distribution terminal 100B, as the rendering module 104, ends the display of the second battle screen 50B and displays the first result screen 55 on the monitor 166. Thereafter, the processor 110 of the distribution terminal 100B, as the rendering module 104, displays the second home screen 40B on the monitor 166. That is, the game transitions from the second part to the first part in the terminals 100A and 100B.
[射撃処理]
射撃処理の流れの一例について説明する。射撃処理は、射撃ゲームを実行するための処理の一例である。
[Fire Processing]
An example of the flow of the shooting process will now be described. The shooting process is an example of a process for executing a shooting game.
図7に示すように、ステップS300において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、カメラ処理を実行する。カメラ処理において、プロセッサ110は、視聴モジュール101Cとして、視聴空間における仮想カメラの配置情報を取得する。仮想カメラの配置情報は、視聴空間における仮想カメラの位置を示す情報、仮想カメラの向き(角度)を示す情報を含む。プロセッサ110は、視聴モジュール101Cとして、視聴ユーザによるカメラ操作を受け付けると、そのカメラ操作に応じて、仮想カメラの配置情報を更新する。プロセッサ110は、レンダリングモジュール104として、視聴空間のうち、仮想カメラ85の撮影範囲に入る部分をレンダリングし、モニタ166に表示する。 As shown in FIG. 7, in step S300, the processor 110 of the viewing terminal 100C executes camera processing as the viewing module 101C. In the camera processing, the processor 110, as the viewing module 101C, acquires virtual camera placement information in the viewing space. The virtual camera placement information includes information indicating the position of the virtual camera in the viewing space and information indicating the orientation (angle) of the virtual camera. When the processor 110, as the viewing module 101C, accepts camera operation by the viewing user, it updates the virtual camera placement information in accordance with the camera operation. The processor 110, as the rendering module 104, renders the portion of the viewing space that falls within the shooting range of the virtual camera 85, and displays it on the monitor 166.
一例として、図8に示すように、仮想空間80のうち視聴空間80Bには、仮想カメラ85の位置、及び向きを特定するための仮想球面85Aが定義される。仮想球面85Aは、その中心85Cに基準キャラクタが位置するように定義される。仮想球面85Aは、基準キャラクタに対する相対的な位置が固定される。視聴空間80Bにおいて、基準キャラクタが移動する場合に、仮想球面85Aは、その基準キャラクタと一緒に移動する。一例として、基準キャラクタは、配信ユーザが所属する味方陣営又は味方パーティに所属するユーザの中から、視聴ユーザが選択したユーザのアバターである。これに限らず、基準キャラクタは、視聴空間80Bに配置されたフィールドオブジェクトであってもよく、敵方陣営又は敵方パーティに所属するユーザのアバターであってもよい。 As an example, as shown in FIG. 8, a virtual sphere 85A is defined in the viewing space 80B of the virtual space 80 to specify the position and orientation of the virtual camera 85. The virtual sphere 85A is defined so that the reference character is located at its center 85C. The position of the virtual sphere 85A relative to the reference character is fixed. When the reference character moves in the viewing space 80B, the virtual sphere 85A moves together with the reference character. As an example, the reference character is an avatar of a user selected by the viewing user from among users belonging to the friendly camp or friendly party to which the broadcasting user belongs. Without being limited to this, the reference character may be a field object placed in the viewing space 80B, or may be an avatar of a user belonging to the enemy camp or enemy party.
一例として、仮想カメラ85の位置は、視聴端末100Cを使用したカメラ操作に応じて、仮想球面85Aに沿って、上下方向Dv及び水平方向Dhへ移動させることができる。一例として、仮想カメラ85の向きは、常に、仮想球面85A内に定められた撮影点85Pに向かう方向に保たれる。撮影点85Pは、中心85Cと重なる位置に定められていてもよく、中心85Cより上方に定められていてもよい。つまり、仮想カメラ85は、基準キャラクタに向かう向きに維持される。 As an example, the position of the virtual camera 85 can be moved in the vertical direction Dv and horizontal direction Dh along the virtual sphere 85A in response to camera operations using the viewing terminal 100C. As an example, the orientation of the virtual camera 85 is always maintained in a direction toward an imaging point 85P defined within the virtual sphere 85A. The imaging point 85P may be defined at a position that overlaps with the center 85C, or may be defined above the center 85C. In other words, the virtual camera 85 is maintained in a direction toward the reference character.
視聴端末100Cでは、視聴空間80Bのうち、撮影範囲85Dに含まれる1以上のオブジェクトがレンダリングされ、プレイ動画としてモニタ166に表示される。撮影範囲85Dは、仮想カメラ85を頂点とした錐体状の空間である。仮想カメラ85から、撮影範囲85Dを上下方向Dvに二等分する平面と、撮影範囲85Dを水平方向Dhに二等分する平面との交線85dに沿って延びる方向を、仮想カメラ85の視線方向Dsと示す。仮想カメラ85の視線方向Dsは、仮想カメラ85と撮影点85Pとを結んだ直線に沿った方向である。仮想カメラ85から見た場合に、視線方向Dsにおける撮影範囲85Dの長さを表示可能距離と示す。一例として、撮影範囲85Dは、仮想カメラ85を起点として、視線方向Dsに沿った表示可能距離までの有限の範囲である。 In the viewing terminal 100C, one or more objects included in the shooting range 85D of the viewing space 80B are rendered and displayed on the monitor 166 as a play video. The shooting range 85D is a cone-shaped space with the virtual camera 85 as the apex. The direction extending from the virtual camera 85 along the intersection line 85d between a plane that bisects the shooting range 85D in the vertical direction Dv and a plane that bisects the shooting range 85D in the horizontal direction Dh is indicated as the line of sight Ds of the virtual camera 85. The line of sight Ds of the virtual camera 85 is a direction along a straight line connecting the virtual camera 85 and the shooting point 85P. When viewed from the virtual camera 85, the length of the shooting range 85D in the line of sight Ds is indicated as the displayable distance. As an example, the shooting range 85D is a finite range from the virtual camera 85 as a starting point to the displayable distance along the line of sight Ds.
ここで、特定オブジェクトの移動線について説明する。
視聴空間80Bには、特定オブジェクト87の移動線86が設定される。視聴空間80Bにおいて、特定オブジェクト87は、始点86Aと終点86Bとを結んだ移動線86に沿って、始点86Aから終点86Bまで移動される。一例として、移動線86は、始点86Aと終点86Bとを結んだ線分又は直線である。一例として、移動線86は、放物線であってもよく、らせん状の曲線であってもよい。移動線86は、特定オブジェクト87を弾丸と見立てた場合の射線である。
Here, the movement line of the specific object will be described.
A movement line 86 of the specific object 87 is set in the viewing space 80B. In the viewing space 80B, the specific object 87 is moved from a starting point 86A to an end point 86B along the movement line 86 connecting the starting point 86A and the end point 86B. As an example, the movement line 86 is a line segment or a straight line connecting the starting point 86A and the end point 86B. As an example, the movement line 86 may be a parabola or a spiral curve. The movement line 86 is a ray of fire when the specific object 87 is considered to be a bullet.
一例として、始点86Aは、仮想カメラ85の配置位置に設定される。一例として、終点86Bは、交線85d上にある位置であって、かつ、始点86Aから視線方向Dsに離れた位置に定められる。つまり、移動線86は、仮想カメラ85の視線方向Dsと一致する。移動線86は、仮想カメラ85の撮影範囲85Dに対する相対的な位置が固定される。 As an example, the starting point 86A is set to the position of the virtual camera 85. As an example, the end point 86B is set to a position on the intersection line 85d and away from the starting point 86A in the line of sight Ds. In other words, the movement line 86 coincides with the line of sight Ds of the virtual camera 85. The position of the movement line 86 relative to the shooting range 85D of the virtual camera 85 is fixed.
これに限らず、移動線86は、仮想カメラ85の視線方向Dsと一致しなくてもよい。一例として、始点86Aは、仮想カメラ85の配置位置とは異なる位置に設定されてもよい。始点86Aは、基準キャラクタの配置位置に設定されてもよく、基準キャラクタの前方位置に配置されてもよい。一例として、終点86Bは、視線方向Dsとは異なる位置に設定されていてもよい。始点86Aから終点86Bまでの距離は、特定オブジェクト87が到達可能な距離となる。以下の説明では、始点86Aから終点86Bまでの距離を、特定オブジェクト87の射程と示す。また、移動線86は、仮想カメラ85の撮影範囲85Dに対する相対的な位置が固定されなくてもよい。一例として、移動線86は、配信ユーザによる操作に応じて、撮影範囲85Dに対する相対的な位置が変更されてもよい。 Not limited to this, the movement line 86 does not have to coincide with the line of sight Ds of the virtual camera 85. As an example, the start point 86A may be set at a position different from the position of the virtual camera 85. The start point 86A may be set at the position of the reference character, or may be placed in a position in front of the reference character. As an example, the end point 86B may be set at a position different from the line of sight Ds. The distance from the start point 86A to the end point 86B is the reachable distance of the specific object 87. In the following description, the distance from the start point 86A to the end point 86B is referred to as the range of the specific object 87. In addition, the position of the movement line 86 relative to the shooting range 85D of the virtual camera 85 does not have to be fixed. As an example, the position of the movement line 86 relative to the shooting range 85D may be changed in response to an operation by the broadcast user.
図7及び図8に示すように、ステップS302において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、射撃操作を受け付けたか否かを判定する。ステップS302において、視聴端末100Cのプロセッサ110は、射撃操作を受け付けていない場合に、ステップS330へ進む。この場合に、視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、特定オブジェクト87をモニタ166に表示しない。つまり、視聴端末100Cのモニタ166では、特定オブジェクト87の発射が開始されない。 As shown in Figures 7 and 8, in step S302, the processor 110 of the viewing terminal 100C, as the viewing module 101C, determines whether or not a shooting operation has been received. In step S302, if the processor 110 of the viewing terminal 100C has not received a shooting operation, the process proceeds to step S330. In this case, the processor 110 of the viewing terminal 100C, as the rendering module 104, does not display the specific object 87 on the monitor 166. In other words, the firing of the specific object 87 does not start on the monitor 166 of the viewing terminal 100C.
ステップS302において、視聴端末100Cのプロセッサ110は、射撃操作を受け付けた場合に、ステップS304へ進む。この場合に、視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、特定オブジェクト87が移動線86に沿って移動する様子をモニタ166に表示する。つまり、視聴端末100Cのモニタ166では、特定オブジェクト87の発射が開始される。 If the processor 110 of the viewing terminal 100C receives a shooting operation in step S302, the process proceeds to step S304. In this case, the processor 110 of the viewing terminal 100C, as the rendering module 104, displays on the monitor 166 the movement of the specific object 87 along the movement line 86. In other words, on the monitor 166 of the viewing terminal 100C, the firing of the specific object 87 begins.
ステップS304において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、射撃情報をサーバ200へ送信する。一例として、射撃情報は、視聴空間80Bにおける移動線86の位置を特定可能な情報であるとよい。一例として、射撃情報は、特定オブジェクト87を使用した射撃の開始を特定可能な情報であってもよい。 In step S304, the processor 110 of the viewing terminal 100C, functioning as the viewing module 101C, transmits shooting information to the server 200. As an example, the shooting information may be information capable of identifying the position of the movement line 86 in the viewing space 80B. As an example, the shooting information may be information capable of identifying the start of shooting using a specific object 87.
ステップS306において、サーバ200のプロセッサ210は、配信モジュール201Bとして、射撃情報を受信する。ステップS306は、視聴端末100Cが射撃操作を受け付けた場合に、当該視聴端末100Cが送信する射撃情報を受信することの一例である。射撃情報は、第2操作情報の一例である。射撃操作は、第2操作の一例である。次に、ステップS308において、サーバ200のプロセッサ210は、配信モジュール201Bとして、特定オブジェクト87が標的オブジェクト88に命中したか否かを判定する。以下の説明では、ステップS308の判定を、命中判定と示す。ステップS308は、視聴端末100Cから受信した射撃情報に基づいて、仮想空間80に配置された標的オブジェクト88への影響を特定することの一例である。仮想空間80に配置された標的オブジェクト88への影響を特定することは、配信端末100Bから受信したプレイ情報に基づいて実行されない。 In step S306, the processor 210 of the server 200 receives shooting information as the distribution module 201B. Step S306 is an example of receiving shooting information transmitted by the viewing terminal 100C when the viewing terminal 100C accepts a shooting operation. The shooting information is an example of second operation information. The shooting operation is an example of a second operation. Next, in step S308, the processor 210 of the server 200 as the distribution module 201B determines whether the specific object 87 hits the target object 88. In the following description, the determination in step S308 is referred to as a hit determination. Step S308 is an example of identifying an effect on the target object 88 arranged in the virtual space 80 based on the shooting information received from the viewing terminal 100C. Identifying an effect on the target object 88 arranged in the virtual space 80 is not performed based on the play information received from the distribution terminal 100B.
一例として、ステップS308において、プロセッサ210は、受信された射撃情報に応じて、視聴空間80Bにおける移動線86の位置を特定する。プロセッサ210は、移動線86が、視聴空間80Bにおける標的オブジェクト88を通過するか否かを特定する。プロセッサ210は、移動線86が標的オブジェクト88を通過すると特定された場合に、特定オブジェクト87が標的オブジェクト88に命中したと判定する。プロセッサ210は、移動線86が標的オブジェクト88を通過しないと特定された場合に、特定オブジェクト87が標的オブジェクト88に命中していないと判定する。このように、射撃情報は、仮想空間80の一例である視聴空間80Bにおける特定オブジェクト87の移動を示す。 As an example, in step S308, the processor 210 identifies the position of the movement line 86 in the viewing space 80B in response to the received shooting information. The processor 210 identifies whether the movement line 86 passes through the target object 88 in the viewing space 80B. If the processor 210 identifies that the movement line 86 passes through the target object 88, it determines that the specific object 87 has hit the target object 88. If the processor 210 identifies that the movement line 86 does not pass through the target object 88, it determines that the specific object 87 has not hit the target object 88. In this way, the shooting information indicates the movement of the specific object 87 in the viewing space 80B, which is an example of the virtual space 80.
これに限らず、サーバ200のプロセッサ210は、視聴空間80Bにおける位置を特定された移動線86の一部又は全部が、視聴空間80Bにおける標的オブジェクト88に含まれるか否かを特定してもよい。この場合、プロセッサ210は、移動線86の一部又は全部が標的オブジェクト88に含まれる場合に、特定オブジェクト87が標的オブジェクト88に命中したと判定するとよい。 Without being limited thereto, the processor 210 of the server 200 may determine whether or not a part or all of the movement line 86, the position of which has been identified in the viewing space 80B, is included in the target object 88 in the viewing space 80B. In this case, the processor 210 may determine that the specific object 87 has hit the target object 88 when a part or all of the movement line 86 is included in the target object 88.
また、サーバ200のプロセッサ210は、移動線86を軸心とした柱状の空間(以下、当たり判定空間と示す)の一部又は全部が、視聴空間80Bにおける標的オブジェクト88に含まれるか否かを特定してもよい。この場合、プロセッサ210は、当たり判定空間の一部又は全部が標的オブジェクト88に含まれる場合に、特定オブジェクト87が標的オブジェクト88に命中したと判定するとよい。移動線86と直交する平面で当たり判定空間を切断したと仮定した場合における当たり判定空間の断面積は、移動線86と直交する平面で切断したと仮定した場合における特定オブジェクト87の断面積のうち最も広い断面積と同じであることが好ましい。 The processor 210 of the server 200 may also determine whether or not a part or all of the columnar space (hereinafter referred to as the hit determination space) with the movement line 86 as its axis is included in the target object 88 in the viewing space 80B. In this case, the processor 210 may determine that the specific object 87 has hit the target object 88 when a part or all of the hit determination space is included in the target object 88. It is preferable that the cross-sectional area of the hit determination space when it is assumed that the hit determination space is cut by a plane perpendicular to the movement line 86 is the same as the widest cross-sectional area of the specific object 87 when it is assumed that the hit determination space is cut by a plane perpendicular to the movement line 86.
図7に示すように、ステップS308において、サーバ200のプロセッサ210は、配信モジュール201Bとして、特定オブジェクト87が標的オブジェクト88に命中していないと判定された場合に、ステップS332へ進む。サーバ200のプロセッサ210は、配信モジュール201Bとして、特定オブジェクト87が標的オブジェクト88に命中したと判定された場合に、ステップS310へ進む。 As shown in FIG. 7, in step S308, if the processor 210 of the server 200, acting as the distribution module 201B, determines that the specific object 87 has not hit the target object 88, the process proceeds to step S332. If the processor 210 of the server 200, acting as the distribution module 201B, determines that the specific object 87 has hit the target object 88, the process proceeds to step S310.
ステップS310において、サーバ200のプロセッサ210は、配信モジュール201Bとして、特定オブジェクト87が命中した標的オブジェクト88の耐久値Pdを減少させる。一例として、標的オブジェクト88への影響は、仮想空間80の一例である視聴空間80Bにおいて、特定オブジェクト87が標的オブジェクト88に命中すると生じる。次に、ステップS312において、サーバ200のプロセッサ210は、配信モジュール201Bとして、効果表示指示を視聴端末100Cへ送信する。一例として、効果表示指示は、標的オブジェクト88の耐久値Pdを示す情報を含んでもよい。 In step S310, the processor 210 of the server 200, as the distribution module 201B, reduces the durability value Pd of the target object 88 that has been hit by the specific object 87. As an example, the effect on the target object 88 occurs when the specific object 87 hits the target object 88 in the viewing space 80B, which is an example of the virtual space 80. Next, in step S312, the processor 210 of the server 200, as the distribution module 201B, transmits an effect display instruction to the viewing terminal 100C. As an example, the effect display instruction may include information indicating the durability value Pd of the target object 88.
一例として、ステップS312において、サーバ200のプロセッサ210は、配信モジュール201Bとして、同じ視聴用コンテンツを視聴している視聴端末100Cが複数ある場合に、当該複数の視聴端末100Cへ効果表示指示を送信する。これに限らず、プロセッサ210は、ステップS306において受信された射撃情報を送信した視聴端末100Cに対してのみ効果表示指示を送信してもよい。ステップS312を終了すると、サーバ200のプロセッサ210は、ステップS318へ進む。 As an example, in step S312, the processor 210 of the server 200, as the distribution module 201B, transmits an effect display instruction to a plurality of viewing terminals 100C that are viewing the same viewing content. Without being limited to this, the processor 210 may transmit an effect display instruction only to the viewing terminal 100C that transmitted the shooting information received in step S306. After completing step S312, the processor 210 of the server 200 proceeds to step S318.
ステップS314において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、効果表示指示を受信する。ステップS316において、視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、特定オブジェクト87が標的オブジェクト88に命中したことを示す表示(以下、効果表示と示す)をモニタ166にて行う。一例として、効果表示は、特定オブジェクト87が標的オブジェクト88に命中したことを示す情報(以下、命中情報と示す)をモニタ166に表示することである。 In step S314, the processor 110 of the viewing terminal 100C, as the viewing module 101C, receives an effect display instruction. In step S316, the processor 110 of the viewing terminal 100C, as the rendering module 104, performs a display (hereinafter referred to as effect display) on the monitor 166 indicating that the specific object 87 has hit the target object 88. As an example, the effect display is to display information (hereinafter referred to as hit information) on the monitor 166 indicating that the specific object 87 has hit the target object 88.
一例として、命中情報は、特定オブジェクト87が爆発する様子を示すオブジェクト(画像)である。命中情報は、標的オブジェクト88への影響を示す情報の一例である。上述のように、効果表示指示は、同じ視聴用コンテンツを視聴している視聴端末100Cが複数ある場合に、当該複数の視聴端末100Cへ送信され得る。つまり、標的オブジェクト88への影響を示す情報は、複数の視聴端末100Cにおいて表示され得る。 As an example, the hit information is an object (image) showing a specific object 87 exploding. The hit information is an example of information showing the effect on the target object 88. As described above, when there are multiple viewing terminals 100C viewing the same viewing content, the effect display instruction can be transmitted to the multiple viewing terminals 100C. In other words, the information showing the effect on the target object 88 can be displayed on the multiple viewing terminals 100C.
ステップS318において、サーバ200のプロセッサ210は、配信モジュール201Bとして、特定オブジェクト87が命中した標的オブジェクト88の耐久値Pdが、規定値の一例である0となったか否かを判定する。耐久値Pdが規定値となっていない場合に、サーバ200のプロセッサ210は、配信モジュール201Bとして、ステップS332へ進む。耐久値Pdが規定値となっている場合に、サーバ200のプロセッサ210は、ステップS320へ進む。 In step S318, the processor 210 of the server 200, as the distribution module 201B, determines whether the durability value Pd of the target object 88 hit by the specific object 87 has become 0, which is an example of a specified value. If the durability value Pd has not become the specified value, the processor 210 of the server 200, as the distribution module 201B, proceeds to step S332. If the durability value Pd has become the specified value, the processor 210 of the server 200 proceeds to step S320.
ステップS320において、サーバ200のプロセッサ210は、配信モジュール201Bとして、視聴ユーザが保有する報酬ポイントPを増加させる。一例として、プロセッサ210は、報酬ポイントPを増加させる視聴ユーザと、報酬ポイントPの増加量と、を特定する。プロセッサ210は、特定された視聴ユーザが保有する報酬ポイントPを、特定された増加量に応じて増加させる。なお、サーバ200のメモリ220は、メモリモジュール205として、ユーザごとに区別して報酬ポイントPを記憶する。 In step S320, the processor 210 of the server 200, as the distribution module 201B, increases the reward points P held by the viewing user. As an example, the processor 210 identifies the viewing user who will increase the reward points P and the amount of increase in reward points P. The processor 210 increases the reward points P held by the identified viewing user according to the identified amount of increase. Note that the memory 220 of the server 200, as the memory module 205, stores the reward points P separately for each user.
ステップS320において、サーバ200のプロセッサ210は、配信モジュール201Bとして、耐久値Pdが規定値となった標的オブジェクト88を、視聴空間80Bから取り除くとよい。標的オブジェクト88の耐久値Pdが規定値となった場合に、当該標的オブジェクト88は、同じ視聴用コンテンツを視聴している全ての視聴端末100Cにおいて、視聴空間80Bから取り除かれるとよい。これに限らず、標的オブジェクト88は、耐久値Pdを規定値とした視聴端末100Cのみを対象として、視聴空間80Bから取り除かれるように構成されてもよい。 In step S320, the processor 210 of the server 200, as the distribution module 201B, may remove the target object 88 whose durability value Pd has reached a specified value from the viewing space 80B. When the durability value Pd of the target object 88 reaches a specified value, the target object 88 may be removed from the viewing space 80B in all viewing terminals 100C that are viewing the same viewing content. Without being limited to this, the target object 88 may be configured to be removed from the viewing space 80B only from viewing terminals 100C whose durability value Pd has reached the specified value.
ステップS324において、サーバ200のプロセッサ210は、配信モジュール201Bとして、ポイント獲得指示を視聴端末100Cへ送信する。ポイント獲得指示は、同じ視聴用コンテンツを視聴している全ての視聴端末100Cに対して送信されるように構成されるとよい。これに限らず、ポイント獲得指示は、耐久値Pdを規定値とした視聴端末100Cのみに対して送信されるように構成されてもよい。ステップS326において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、ポイント獲得指示を受信する。一例として、ポイント付与要求は、視聴ユーザが保有する報酬ポイントPの増加量を示す情報を含む。 In step S324, the processor 210 of the server 200, as the distribution module 201B, transmits a point acquisition instruction to the viewing terminal 100C. The point acquisition instruction may be configured to be transmitted to all viewing terminals 100C that are viewing the same viewing content. Without being limited to this, the point acquisition instruction may be configured to be transmitted only to viewing terminals 100C whose durability value Pd is set to a specified value. In step S326, the processor 110 of the viewing terminal 100C, as the viewing module 101C, receives the point acquisition instruction. As an example, the point granting request includes information indicating the amount of increase in reward points P held by the viewing user.
ステップS328において、視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、報酬ポイントPを獲得したことを報知する表示(以下、ポイント獲得表示と示す)をモニタ166にて行う。一例として、ポイント獲得表示は、報酬ポイントPを獲得したことを示す情報(以下、報酬獲得情報と示す)をモニタ166に表示することである。ステップS328が終了すると、視聴端末100Cのプロセッサ110は、ステップS330へ進む。 In step S328, the processor 110 of the viewing terminal 100C, as the rendering module 104, displays on the monitor 166 a display (hereinafter referred to as a point acquisition display) notifying the user that reward points P have been acquired. As an example, the point acquisition display is displaying information indicating that reward points P have been acquired (hereinafter referred to as reward acquisition information) on the monitor 166. When step S328 ends, the processor 110 of the viewing terminal 100C proceeds to step S330.
ステップS330において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、第2パートの終了条件が満たされたか否かを判定する。一例として、第2パートの終了条件は、第2パートの制限時間が経過する前に、1以上の陣営が勝利条件を満たした場合、又は、第2パートの制限時間が経過した場合に成立する。一例として、視聴端末100Cのプロセッサ110は、サーバ200から受信した配信情報が、第2パートの終了を示す情報を含むか否かによって、第2パートの終了条件が満たされたか否かを特定する。視聴端末100Cのプロセッサ110は、第2パートのゲームの終了条件が満たされていない場合、ステップS300へ進む。視聴端末100Cのプロセッサ110は、第2パートのゲームの終了条件が満たされた場合、射撃処理を終了する。 In step S330, the processor 110 of the viewing terminal 100C, as the viewing module 101C, determines whether the end condition of the second part has been met. As an example, the end condition of the second part is met when one or more camps meet the victory condition before the time limit of the second part has elapsed, or when the time limit of the second part has elapsed. As an example, the processor 110 of the viewing terminal 100C determines whether the end condition of the second part has been met depending on whether the distribution information received from the server 200 includes information indicating the end of the second part. If the end condition of the game of the second part has not been met, the processor 110 of the viewing terminal 100C proceeds to step S300. If the end condition of the game of the second part has been met, the processor 110 of the viewing terminal 100C ends the shooting process.
ステップS332において、サーバ200のプロセッサ210は、配信モジュール201Bとして、第2パートの終了条件が満たされたか否かを判定する。サーバ200のプロセッサ210は、第2パートのゲームの終了条件が満たされていない場合、ステップS306へ進む。サーバ200のプロセッサ210は、射撃情報を受信するまで待機する。サーバ200のプロセッサ210は、配信モジュール201Bとして、第2パートのゲームの終了条件が満たされた場合、射撃処理を終了する。 In step S332, the processor 210 of the server 200, as the distribution module 201B, determines whether the end condition of the second part of the game is satisfied. If the end condition of the second part of the game is not satisfied, the processor 210 of the server 200 proceeds to step S306. The processor 210 of the server 200 waits until it receives shooting information. If the end condition of the second part of the game is satisfied, the processor 210 of the server 200, as the distribution module 201B, ends the shooting process.
[端末における表示画面の一例と表示に関する処理の流れ]
[仮想空間の概略]
図9に示すように、サーバ200(ゲームモジュール201A)によって定義されたゲーム空間80Aにおける事象は、各端末100A,100Bのそれぞれによって定義されたゲーム空間80Aにおいて、リアルタイムで再現され得る。各端末100A,100Bは、同じバトルゲームに参加するユーザが使用する端末100である。
[An example of a display screen on a terminal and a process flow related to display]
[Outline of virtual space]
9, events in a game space 80A defined by the server 200 (game module 201A) can be reproduced in real time in game spaces 80A defined by each of the terminals 100A and 100B. Each of the terminals 100A and 100B is a terminal 100 used by a user who participates in the same battle game.
サーバ200が管理するゲーム空間80Aにおける事象は、各端末100A,100Bから受信するプレイ情報に応じて更新される。サーバ200は、ゲーム空間80Aにおける事象を更新した結果に応じて、進行情報を各端末100A,100Bへ送信する。各端末100A,100Bが管理するゲーム空間80Aにおける事象は、サーバ200から受信する進行情報に応じて、その都度、更新され得る。一例として、ゲーム空間80Aでは、ゲーム関連事象及び共通事象が再現される。 Events in the game space 80A managed by the server 200 are updated according to play information received from each terminal 100A, 100B. The server 200 transmits progress information to each terminal 100A, 100B according to the results of updating the events in the game space 80A. Events in the game space 80A managed by each terminal 100A, 100B may be updated each time according to the progress information received from the server 200. As an example, game-related events and common events are reproduced in the game space 80A.
サーバ200(ゲームモジュール201A)によって定義されたゲーム空間80Aにおける事象は、サーバ200(配信モジュール201B)によって定義された視聴空間80Bにおいて、リアルタイムで再現され得る。サーバ200によって定義された視聴空間80Bにおける事象は、各視聴端末100Cのそれぞれによって定義された視聴空間80Bにおいて、リアルタイムで再現され得る。各視聴端末100Cは、同じバトルゲームのプレイ動画の視聴に使用されている端末100である。 Events in the game space 80A defined by the server 200 (game module 201A) can be reproduced in real time in the viewing space 80B defined by the server 200 (distribution module 201B). Events in the viewing space 80B defined by the server 200 can be reproduced in real time in the viewing space 80B defined by each of the viewing terminals 100C. Each viewing terminal 100C is a terminal 100 that is being used to watch gameplay videos of the same battle game.
サーバ200が管理する視聴空間80Bにおける事象は、生成された進行情報に応じて更新される。サーバ200は、進行情報に応じて生成された配信情報を、視聴端末100Cへ送信する。視聴端末100Cが管理する視聴空間80Bにおける事象は、サーバ200から受信する配信情報に応じて、その都度、更新され得る。一例として、視聴空間80Bでは、ゲーム関連事象、射撃関連事象、及び共通事象が再現される。 Events in the viewing space 80B managed by the server 200 are updated according to the generated progress information. The server 200 transmits distribution information generated according to the progress information to the viewing terminal 100C. Events in the viewing space 80B managed by the viewing terminal 100C can be updated each time according to the distribution information received from the server 200. As an example, game-related events, shooting-related events, and common events are reproduced in the viewing space 80B.
以上のように、仮想空間80では、当該仮想空間80における事象の一部又は全部が、サーバ200及び端末100A~100Cにおいて共有される。以下の説明において、単に「仮想空間80」と示す場合、ゲーム空間80Aと視聴空間80Bとを区別しない意図である。 As described above, in the virtual space 80, some or all of the events in the virtual space 80 are shared by the server 200 and the terminals 100A to 100C. In the following description, when simply referring to the "virtual space 80," there is no intention to distinguish between the game space 80A and the viewing space 80B.
仮想空間80に配置され得る各種のオブジェクトは、ユーザのアバター81を含む。一例として、複数のアバター81は、第1陣営に所属する1以上のユーザに対応するキャラクタとして、アバター811Aを含んでもよい。例えば、アバター811Aは、配信ユーザに対応するキャラクタである。一例として、複数のアバター81は、第2陣営に所属する1以上のユーザに対応するキャラクタとして、1以上のアバター812Aを含んでもよい。仮想空間80に配置され得る各種のオブジェクトは、第2状態となったアバター81を示すオブジェクトの一例として、墓標オブジェクト81Dを含んでもよい。 The various objects that may be placed in the virtual space 80 include a user's avatar 81. As an example, the multiple avatars 81 may include avatar 811A as a character corresponding to one or more users belonging to the first camp. For example, avatar 811A is a character corresponding to a broadcasting user. As an example, the multiple avatars 81 may include one or more avatars 812A as characters corresponding to one or more users belonging to the second camp. The various objects that may be placed in the virtual space 80 may include a gravestone object 81D as an example of an object indicating an avatar 81 that has entered the second state.
仮想空間80に配置され得る各種のオブジェクトは、フィールド82Aを構成するための、1以上のフィールドオブジェクト82を含んでもよい。一例として、フィールドオブジェクト82は、アバター81の移動に影響を与える地形オブジェクトを含んでもよい。例えば、フィールドオブジェクト82は、樹木、岩、川、海、及び山など、アバター81の移動を制限するオブジェクトを含んでもよい。例えば、フィールドオブジェクト82は、沼地など、アバター81の移動速度を減少させるオブジェクトを含んでもよい。例えば、フィールドオブジェクト82は、氷床など、アバター81の移動速度を増加させるオブジェクトを含んでもよい。一例として、フィールドオブジェクト82は、アバター81のパラメータ値に影響を与えるオブジェクトを含んでもよい。例えば、フィールドオブジェクト82は、毒沼など、アバター81のヒットポイントを減少させるオブジェクトを含んでもよい。例えば、フィールドオブジェクト82は、回復の泉など、アバター81のヒットポイントを増加させるオブジェクトを含んでもよい。 Various objects that may be placed in the virtual space 80 may include one or more field objects 82 for constituting a field 82A. As an example, the field object 82 may include a terrain object that affects the movement of the avatar 81. For example, the field object 82 may include objects that limit the movement of the avatar 81, such as trees, rocks, rivers, oceans, and mountains. For example, the field object 82 may include an object that reduces the movement speed of the avatar 81, such as a swamp. For example, the field object 82 may include an object that increases the movement speed of the avatar 81, such as an ice sheet. As an example, the field object 82 may include an object that affects the parameter value of the avatar 81. For example, the field object 82 may include an object that reduces the hit points of the avatar 81, such as a poisonous swamp. For example, the field object 82 may include an object that increases the hit points of the avatar 81, such as a recovery spring.
視聴空間80Bに配置され得る各種のオブジェクトは、特定オブジェクト87を含んでもよい。視聴空間80Bに配置され得る各種のオブジェクトは、標的オブジェクト88を含んでもよい。一例として、特定オブジェクト87及び標的オブジェクト88は、ゲーム空間80Aに配置されない。つまり、特定オブジェクト87及び標的オブジェクト88は、視聴端末100Cのモニタ166に表示され得る。特定オブジェクト87及び標的オブジェクト88は、一般端末100A及び配信端末100Bのモニタ166に表示されない。これに限らず、特定オブジェクト87及び標的オブジェクト88は、ゲーム空間80Aに配置され得るが、レンダリングモジュール104によるレンダリングの対象とならず、モニタ166に表示されない構成であってもよい。 The various objects that may be placed in the viewing space 80B may include a specific object 87. The various objects that may be placed in the viewing space 80B may include a target object 88. As an example, the specific object 87 and the target object 88 are not placed in the game space 80A. That is, the specific object 87 and the target object 88 may be displayed on the monitor 166 of the viewing terminal 100C. The specific object 87 and the target object 88 are not displayed on the monitor 166 of the general terminal 100A and the distribution terminal 100B. Not limited to this, the specific object 87 and the target object 88 may be placed in the game space 80A, but may not be subject to rendering by the rendering module 104 and may not be displayed on the monitor 166.
[ホーム画面]
図10に示すように、ゲームの第1パートにおいて、一般端末100Aのモニタ166には、第1ホーム画面40Aが表示される。ゲームの第1パートにおいて、配信端末100Bのモニタ166には、第2ホーム画面40Bが表示される。ホーム画面40A,40Bは、各種のオブジェクトを含み得る。一例として、ホーム画面40A,40Bは、アバターウィンドウ401、バトルアイコン404、及びキャラクタアイコン406を含み得る。ホーム画面40A,40Bは、プレイ動画を配信する場合に使用する配信開始アイコン407を含み得る。第2ホーム画面40Bは、プレイ動画の配信を終了する場合に使用する配信終了アイコン、及び、プレイ動画を配信中であることを示す配信中アイコンを含んでもよい。
[Home Screen]
As shown in FIG. 10, in the first part of the game, a first home screen 40A is displayed on the monitor 166 of the general terminal 100A. In the first part of the game, a second home screen 40B is displayed on the monitor 166 of the distribution terminal 100B. The home screens 40A and 40B may include various objects. As an example, the home screens 40A and 40B may include an avatar window 401, a battle icon 404, and a character icon 406. The home screens 40A and 40B may include a distribution start icon 407 used when distributing a gameplay video. The second home screen 40B may include a distribution end icon used when ending the distribution of the gameplay video, and a distribution in progress icon indicating that a gameplay video is being distributed.
一例として、アバターウィンドウ401には、自分のアバター81が表示される。アバター81の外観は、第1パートのゲームプレイを通して、アバターの設定が変更されることに応じて変化する。一例として、バトルアイコン404が表示されている部分をタップ操作することによって、第2パートの開始を指示する開始操作を行うことができる。一例として、キャラクタアイコン406が表示されている部分をタップ操作することによって、バトルゲームの準備を行うための準備ウィンドウ(不図示)の表示を指示する操作を行うことができる。各端末100A,100Bのプロセッサ110は、準備ウィンドウ(不図示)に対する操作を受け付けると、その操作に応じて、アバター81の設定を変更する。上述したように、アバター81の設定は、アバターの種類、アバターの装備、又はアバターの容姿などを含み得る。一例として、配信開始アイコン407が表示されている部分をタップ操作することによって、配信開始を指示する操作を行うことができる。 As an example, the avatar 81 is displayed in the avatar window 401. The appearance of the avatar 81 changes as the settings of the avatar are changed through gameplay of the first part. As an example, a start operation to instruct the start of the second part can be performed by tapping on the portion where the battle icon 404 is displayed. As an example, an operation to instruct the display of a preparation window (not shown) for preparing for the battle game can be performed by tapping on the portion where the character icon 406 is displayed. When the processor 110 of each terminal 100A, 100B accepts an operation on the preparation window (not shown), it changes the settings of the avatar 81 in response to the operation. As described above, the settings of the avatar 81 may include the type of avatar, the equipment of the avatar, or the appearance of the avatar. As an example, an operation to instruct the start of distribution can be performed by tapping on the portion where the distribution start icon 407 is displayed.
[マッチング画面]
図11に示すように、サーバ200がマッチング処理(ステップS206)を実行している場合に、一般端末100A又は配信端末100Bのモニタ166には、マッチング画面45が表示される。マッチング画面45は、各種のオブジェクトを含み得る。マッチング画面45は、ユーザのアバター81を表示するアバターウィンドウ451を含む。一例として、アバターウィンドウ451には、自分のアバター81が表示されてもよいし、自分のアバター81と味方陣営の味方ユーザの一部または全員のアバターとが表示されてもよい。マッチング画面45は、マッチングを行っていることを示す文字データ等の情報を含む。
[Matching screen]
11, when the server 200 is executing the matching process (step S206), a matching screen 45 is displayed on the monitor 166 of the general terminal 100A or the broadcasting terminal 100B. The matching screen 45 may include various objects. The matching screen 45 includes an avatar window 451 that displays the user's avatar 81. As an example, the avatar window 451 may display the user's own avatar 81, or may display the user's own avatar 81 and the avatars of some or all of the friendly users in the friendly camp. The matching screen 45 includes information such as text data indicating that matching is being performed.
[バトル画面]
図12に示すように、第2パートのバトルゲームにおいて、一般端末100Aのモニタ166には、第1バトル画面50Aが表示される。第2パートのバトルゲームにおいて、配信端末100Bのモニタ166には、第2バトル画面50Bが表示される。バトル画面50A,50Bは、各種のオブジェクトを含む。一例として、バトル画面50A,50Bは、それぞれ端末100を使用するユーザのアバター81を含む。一例として、バトル画面50A,50Bは、ユーザが所属する陣営のスコア表示欄、自分のアバターのヒットポイントを示すHPバー61、及び他人のアバターのヒットポイントを示すHPバー62を含み得る。第1バトル画面50Aは、プレイ動画を配信する場合に使用する配信開始アイコン(不図示)を含んでもよい。第2バトル画面50Bは、プレイ動画の配信を終了する場合に使用する配信終了アイコン(不図示)、及び、プレイ動画を配信中であることを示す配信中アイコン(不図示)を含んでもよい。
[Battle screen]
As shown in FIG. 12, in the battle game of the second part, the first battle screen 50A is displayed on the monitor 166 of the general terminal 100A. In the battle game of the second part, the second battle screen 50B is displayed on the monitor 166 of the distribution terminal 100B. The battle screens 50A and 50B include various objects. As an example, the battle screens 50A and 50B each include an avatar 81 of the user using the terminal 100. As an example, the battle screens 50A and 50B may include a score display field of the camp to which the user belongs, an HP bar 61 indicating the hit points of the user's avatar, and an HP bar 62 indicating the hit points of another person's avatar. The first battle screen 50A may include a distribution start icon (not shown) used when distributing a gameplay video. The second battle screen 50B may include a distribution end icon (not shown) used when ending the distribution of the gameplay video, and a distribution in progress icon (not shown) indicating that a gameplay video is being distributed.
一例として、ステップS220において、一般端末100A又は配信端末100Bのプロセッサ110は、レンダリングモジュール104として、その端末100を使用するユーザのアバター81をモニタ166の中央に表示する。一般端末100A又は配信端末100Bのプロセッサ110は、ゲーム空間80Aにおいて、アバター81の頭上後方に仮想カメラ85を配置することによって、当該仮想カメラ85の撮影範囲に収められる範囲をモニタ166に表示する。これに限らず、バトル画面50A,50Bにおける仮想カメラ85は、アバター81の頭部からフィールド82Aを見た一人称視点となる位置、又はアバター81を中心としてフィールド82Aを見た俯瞰視点となる位置であってもよい。 As an example, in step S220, the processor 110 of the general terminal 100A or the broadcasting terminal 100B, as the rendering module 104, displays the avatar 81 of the user using the terminal 100 in the center of the monitor 166. The processor 110 of the general terminal 100A or the broadcasting terminal 100B places a virtual camera 85 above and behind the head of the avatar 81 in the game space 80A, and displays on the monitor 166 the range that can be captured by the virtual camera 85. Without being limited to this, the virtual camera 85 on the battle screens 50A and 50B may be located at a position that is a first-person viewpoint looking at the field 82A from the head of the avatar 81, or a bird's-eye viewpoint looking at the field 82A with the avatar 81 at the center.
一般端末100A又は配信端末100Bのプロセッサ110は、サーバ200から受信する進行情報に応じて、味方陣営のアバター81、及び敵方陣営のアバター81をゲーム空間80Aに配置する。一般端末100A又は配信端末100Bのプロセッサ110は、仮想カメラ85の撮影範囲に他ユーザのアバター81が収まる場合に、それらアバター81を、モニタ166に表示し得る。それらアバター81は、モニタ166に表示される場合に、アクション情報に応じたアクションを伴う。また、一般端末100A又は配信端末100Bのプロセッサ110は、レンダリングモジュール104として、敵方陣営のアバター81を表示する場合に、そのアバターのヒットポイントを示すHPバー62を、モニタ166に表示する。一例として、HPバー62は、敵方陣営のアバター81の頭上に配置される。HPバー62は、味方陣営のアバター81の頭上に配置されてもよい。 The processor 110 of the general terminal 100A or the broadcasting terminal 100B places the avatar 81 of the friendly camp and the avatar 81 of the enemy camp in the game space 80A according to the progress information received from the server 200. The processor 110 of the general terminal 100A or the broadcasting terminal 100B may display the avatar 81 of another user on the monitor 166 when the avatar 81 falls within the shooting range of the virtual camera 85. When the avatar 81 is displayed on the monitor 166, the avatar 81 is accompanied by an action according to the action information. In addition, when the processor 110 of the general terminal 100A or the broadcasting terminal 100B displays the avatar 81 of the enemy camp as the rendering module 104, the processor 110 of the general terminal 100A or the broadcasting terminal 100B displays the HP bar 62 indicating the hit points of the avatar on the monitor 166 when displaying the avatar 81 of the enemy camp. As an example, the HP bar 62 is placed above the head of the avatar 81 of the enemy camp. The HP bar 62 may be placed above the head of the avatar 81 of the friendly camp.
[視聴画面]
図13に示すように、視聴画面70は、視聴端末100Cのモニタ166に表示される。視聴画面70は、各種のオブジェクトを含み得る。一例として、視聴画面70は、視聴ウィンドウ701を含む。一例として、視聴画面70は、メンバーアイコン703、チャットウィンドウ704、戻るボタン705、及び獲得数アイコン706を含み得る。
[Watching screen]
13, the viewing screen 70 is displayed on the monitor 166 of the viewing terminal 100C. The viewing screen 70 may include various objects. As an example, the viewing screen 70 may include a viewing window 701. As an example, the viewing screen 70 may include member icons 703, a chat window 704, a back button 705, and an acquisition number icon 706.
一例として、チャットウィンドウ704には、視聴ユーザ間で送受信される文字データを表示するとよい。一例として、視聴端末100Cのプロセッサ110は、他の視聴端末100Cから送信される文字データを、サーバ200経由で受信し、受信した文字データを、時系列順にモニタ166に表示する。一例として、視聴端末100Cのプロセッサ110は、視聴ユーザの入力操作により指示される文字データを、他の視聴端末100Cへサーバ200経由で送信する。一例として、獲得数アイコン706は、今回の射撃ゲームを通して視聴ユーザが獲得した報酬ポイントPを特定可能な数字データを含むとよい。 As an example, the chat window 704 may display text data transmitted and received between viewing users. As an example, the processor 110 of the viewing terminal 100C receives text data transmitted from another viewing terminal 100C via the server 200, and displays the received text data in chronological order on the monitor 166. As an example, the processor 110 of the viewing terminal 100C transmits text data specified by an input operation of the viewing user to the other viewing terminal 100C via the server 200. As an example, the acquisition number icon 706 may include numerical data that can identify the reward points P acquired by the viewing user through the current shooting game.
視聴ウィンドウ701には、配信端末100Bにおけるゲームのプレイ動画が表示され得る。一例として、視聴ウィンドウ701には、視聴中のゲームが第1パートである場合に、配信ユーザのアバター81が表示される。視聴ウィンドウ701には、視聴中のゲームが第2パートのバトルゲームである場合に、ゲーム空間80Aにおけるバトルの様子が表示される。 The viewing window 701 may display a gameplay video of the game on the distribution terminal 100B. As an example, when the game being viewed is the first part, the viewing window 701 displays the avatar 81 of the distribution user. When the game being viewed is the second part of a battle game, the viewing window 701 displays the state of the battle in the game space 80A.
視聴端末100Cのプロセッサ110は、サーバ200から受信する配信情報(配信モジュール201B)に応じて、フィールドオブジェクト82を視聴空間80Bに配置する。つまり、視聴空間80Bは、ゲーム空間80Aと同様に、フィールド82Aを含む。視聴端末100Cのプロセッサ110は、サーバ200から受信する配信情報に応じて、一般ユーザのアバター81、及び配信ユーザのアバター81を視聴空間80Bに配置する。つまり、視聴空間80Bは、ゲーム空間80Aと同様に、各ユーザのアバター81を含む。視聴端末100Cのプロセッサ110は、視聴空間80Bにおいて、基準キャラクタに対応する初期位置に仮想カメラ85を配置し、当該仮想カメラ85の撮影範囲85Dに収められる範囲をモニタ166に表示する。 The processor 110 of the viewing terminal 100C places a field object 82 in the viewing space 80B in response to the distribution information (distribution module 201B) received from the server 200. That is, the viewing space 80B includes a field 82A, similar to the game space 80A. The processor 110 of the viewing terminal 100C places an avatar 81 of a general user and an avatar 81 of a distribution user in the viewing space 80B in response to the distribution information received from the server 200. That is, the viewing space 80B includes an avatar 81 of each user, similar to the game space 80A. The processor 110 of the viewing terminal 100C places a virtual camera 85 at an initial position corresponding to the reference character in the viewing space 80B, and displays the range contained in the shooting range 85D of the virtual camera 85 on the monitor 166.
一例として、メンバーアイコン703は、配信ユーザと同じ陣営に所属する各ユーザを示すとよい。メンバーアイコン703が表示されている部分をタップ操作することによって、基準キャラクタとして設定するアバター81を変更する操作(以下、キャラクタ変更操作と示す)を行うことができる。視聴端末100Cのプロセッサ110は、キャラクタ変更操作を受け付けると、当該操作によって指定されたユーザのアバター81を基準キャラクタとして設定する。視聴端末100Cのプロセッサ110は、変更後の基準キャラクタに応じた仮想球面85A上に仮想カメラ85を配置する。 As an example, the member icons 703 may indicate each user who belongs to the same camp as the broadcasting user. By tapping the portion where the member icon 703 is displayed, an operation to change the avatar 81 set as the reference character (hereinafter referred to as a character change operation) can be performed. When the processor 110 of the viewing terminal 100C accepts the character change operation, it sets the avatar 81 of the user specified by the operation as the reference character. The processor 110 of the viewing terminal 100C places a virtual camera 85 on a virtual sphere 85A that corresponds to the changed reference character.
視聴端末100Cのプロセッサ110は、カメラ操作を受け付けた場合に、当該カメラ操作に応じて、仮想カメラ85を、仮想球面85Aに沿って上下方向Dv及び水平方向Dhへ移動させる。視聴端末100Cのプロセッサ110は、仮想球面85A内に定められた撮影点85Pに向かう方向に、仮想カメラ85の向きを保つ。一例として、撮影点85Pは、基準キャラクタが配置される位置である。よって、基準キャラクタは、視聴ウィンドウ701の中央に表示される。 When the processor 110 of the viewing terminal 100C receives a camera operation, it moves the virtual camera 85 in the vertical direction Dv and horizontal direction Dh along the virtual sphere 85A in accordance with the camera operation. The processor 110 of the viewing terminal 100C keeps the orientation of the virtual camera 85 toward the shooting point 85P defined within the virtual sphere 85A. As an example, the shooting point 85P is the position where the reference character is placed. Therefore, the reference character is displayed in the center of the viewing window 701.
視聴端末100Cのプロセッサ110は、仮想カメラ85の撮影範囲85Dに1以上のアバター81が収まる場合に、その1以上のアバターを、モニタ166に表示し得る。1以上のアバター81は、モニタ166に表示される場合に、配信情報に含まれるアクション情報に応じたアクションを伴う。つまり、視聴ウィンドウ701には、配信ユーザが行うゲームのプレイ動画が表示され得る。ゲームシステム10では、仮想空間80のうち、当該仮想空間80に配置された仮想カメラ85の視野に入る部分が、プレイ動画として視聴端末100Cに表示される。 When one or more avatars 81 fall within the shooting range 85D of the virtual camera 85, the processor 110 of the viewing terminal 100C may display the one or more avatars on the monitor 166. When the one or more avatars 81 are displayed on the monitor 166, they are accompanied by an action corresponding to the action information included in the distribution information. In other words, the viewing window 701 may display a gameplay video of the game played by the distribution user. In the game system 10, the part of the virtual space 80 that is within the field of view of the virtual camera 85 placed in the virtual space 80 is displayed on the viewing terminal 100C as a gameplay video.
視聴ウィンドウ701は、照準オブジェクト89を含む。一例として、照準オブジェクト89は、照準フレーム89Aと、照準マーク89Bと、を含む。一例として、照準フレーム89Aは、四角形である。これに限らず、照準フレーム89Aは、円形であってもよく、三角形や五角形といった多角形であってもよい。照準マーク89Bは、移動線86に沿って特定オブジェクト87が移動したと仮定した場合に、当該特定オブジェクト87が到達する位置を示す。つまり、特定オブジェクト87は、視聴ウィンドウ701において、照準マーク89Bと標的オブジェクト88とが重なった状態である場合に、標的オブジェクト88に命中し得る。照準マーク89Bは、標的オブジェクト88に照準を合わせるための情報(以下、照準情報と示す)の一例である。 The viewing window 701 includes an aiming object 89. As an example, the aiming object 89 includes an aiming frame 89A and an aiming mark 89B. As an example, the aiming frame 89A is a rectangle. Without being limited to this, the aiming frame 89A may be a circle or a polygon such as a triangle or a pentagon. The aiming mark 89B indicates the position where the specific object 87 will arrive if the specific object 87 moves along the movement line 86. In other words, the specific object 87 may hit the target object 88 when the aiming mark 89B and the target object 88 overlap in the viewing window 701. The aiming mark 89B is an example of information for aiming at the target object 88 (hereinafter referred to as aiming information).
一例として、照準マーク89Bは、照準フレーム89Aの中央を示す十字型の記号である。これに限らず、照準マーク89Bは、丸、点、又は矢印であってもよい。照準マーク89Bは、色調を他の部分と異ならせることで形成されてもよい。つまり、照準マーク89Bは、視聴ユーザが特定オブジェクト87の到達位置を認識可能であれば、どのような態様であってもよい。一例として、照準マーク89Bは、視聴ウィンドウ701に対する相対的な位置及び範囲が固定されている。これに限らず、照準マーク89Bは、視聴ユーザの操作に応じて、視聴ウィンドウ701に対する相対的な位置及び範囲を変更可能であってもよい。 As an example, the aiming mark 89B is a cross-shaped symbol indicating the center of the aiming frame 89A. Without being limited thereto, the aiming mark 89B may be a circle, a dot, or an arrow. The aiming mark 89B may be formed by making the color tone different from other parts. In other words, the aiming mark 89B may be in any form as long as the viewing user can recognize the arrival position of the specific object 87. As an example, the position and range of the aiming mark 89B relative to the viewing window 701 are fixed. Without being limited thereto, the position and range of the aiming mark 89B relative to the viewing window 701 may be changeable in response to the operation of the viewing user.
上述のように、一例として、ステップS308の命中判定において、サーバ200のプロセッサ210は、視聴空間80Bにおいて、移動線86が標的オブジェクト88を通過する場合に、特定オブジェクト87が標的オブジェクト88に命中したと判定する。移動線86は、プレイ動画に標的オブジェクト88が含まれ、かつ標的オブジェクト88を表示している領域と照準マーク89Bを表示している領域とが重なる部分が生じる場合に、標的オブジェクト88を通過する。 As described above, as an example, in the hit determination in step S308, the processor 210 of the server 200 determines that the specific object 87 has hit the target object 88 when the movement line 86 passes through the target object 88 in the viewing space 80B. The movement line 86 passes through the target object 88 when the gameplay video includes the target object 88 and there is an overlapping portion between the area displaying the target object 88 and the area displaying the aiming mark 89B.
これに限らず、ステップS308において、サーバ200のプロセッサ210は、プレイ動画に標的オブジェクト88が含まれ、かつ標的オブジェクト88を表示している領域と照準マーク89Bを表示している領域とが重なる部分が生じる場合に、特定オブジェクト87が標的オブジェクト88に命中したと判定してもよい。ステップS308において、サーバ200のプロセッサ210は、照準マーク89Bを含む仮想平面に対して、当該仮想平面と直交する方向から標的オブジェクト88を投影した場合、当該投影された部分に照準マーク89Bが入っているときに、特定オブジェクト87が標的オブジェクト88に命中したと判定してもよい。 Without being limited thereto, in step S308, the processor 210 of the server 200 may determine that the specific object 87 has hit the target object 88 when the gameplay video includes the target object 88 and there is an overlapping portion between the area displaying the target object 88 and the area displaying the aiming mark 89B. In step S308, the processor 210 of the server 200 may determine that the specific object 87 has hit the target object 88 when the target object 88 is projected onto a virtual plane including the aiming mark 89B from a direction perpendicular to the virtual plane and the aiming mark 89B is within the projected portion.
一例として、ステップS308において、サーバ200のプロセッサ210は、移動線86の延長線上に標的オブジェクト88があっても、標的オブジェクト88が特定オブジェクト87の射程を超えた位置にある場合に、特定オブジェクト87が標的オブジェクト88に命中していないと判定してもよい。特定オブジェクト87の射程は、仮想カメラ85の表示可能距離と比べて、長くてもよく、短くてもよく、同じであってもよい。 As an example, in step S308, the processor 210 of the server 200 may determine that the specific object 87 did not hit the target object 88 if the target object 88 is located on an extension of the movement line 86 but is beyond the range of the specific object 87. The range of the specific object 87 may be longer, shorter, or the same as the displayable distance of the virtual camera 85.
一例として、ステップS302において、視聴端末100Cのプロセッサ110は、プレイ動画に標的オブジェクト88が含まれており、かつ、標的オブジェクト88の表示領域と照準フレーム89Aの表示領域とが重なる部分が生じる場合に、射撃操作を受け付けたと判定する。ステップS302において、視聴端末100Cのプロセッサ110は、プレイ動画に標的オブジェクト88が含まれていない場合に、射撃操作を受け付けていないと判定する。ステップS302において、視聴端末100Cのプロセッサ110は、プレイ動画に標的オブジェクト88が含まれていても、標的オブジェクト88の表示領域と照準フレーム89Aの表示領域とが重なる部分が生じない場合に、射撃操作を受け付けていないと判定する。つまり、標的オブジェクト88が照準フレーム89Aに入るように仮想カメラ85の位置及び向きを調整するカメラ操作は、射撃操作の一例となる。射撃操作は、標的オブジェクト88と照準マーク89Bとが重なるように、仮想カメラ85の位置及び向きを調整するカメラ操作を含む。 As an example, in step S302, the processor 110 of the viewing terminal 100C determines that a shooting operation has been received if the gameplay video includes a target object 88 and there is a portion where the display area of the target object 88 overlaps with the display area of the aiming frame 89A. In step S302, the processor 110 of the viewing terminal 100C determines that a shooting operation has not been received if the gameplay video does not include a target object 88. In step S302, the processor 110 of the viewing terminal 100C determines that a shooting operation has not been received if there is no portion where the display area of the target object 88 overlaps with the display area of the aiming frame 89A even if the gameplay video includes a target object 88. In other words, a camera operation that adjusts the position and orientation of the virtual camera 85 so that the target object 88 falls within the aiming frame 89A is an example of a shooting operation. The shooting operation includes a camera operation that adjusts the position and orientation of the virtual camera 85 so that the target object 88 overlaps with the aiming mark 89B.
視聴端末100Cのプロセッサ110は、射撃操作を受け付けている場合に、レンダリングモジュール104として、特定オブジェクト87が移動線86に沿って移動する様子をモニタ166に表示する。つまり、視聴端末100Cでは、特定オブジェクト87を使用した射撃が開始される。視聴端末100Cのプロセッサ110は、射撃操作を受け付けていない場合に、特定オブジェクト87が移動線86に沿って移動する様子をモニタ166に表示しない。このように、標的オブジェクト88が照準フレーム89Aに入ると、射撃開始条件が満たされて、特定オブジェクト87を使用した射撃が開始される。標的オブジェクト88が照準フレーム89Aから出ると、射撃開始条件が満たされず、特定オブジェクト87を使用した射撃が停止される。 When the processor 110 of the viewing terminal 100C has received a shooting operation, the rendering module 104 displays on the monitor 166 the specific object 87 moving along the movement line 86. That is, the viewing terminal 100C starts shooting using the specific object 87. When the processor 110 of the viewing terminal 100C has not received a shooting operation, the processor 110 does not display on the monitor 166 the specific object 87 moving along the movement line 86. In this way, when the target object 88 enters the aiming frame 89A, the shooting start condition is met and shooting using the specific object 87 starts. When the target object 88 leaves the aiming frame 89A, the shooting start condition is not met and shooting using the specific object 87 is stopped.
一例として、標的オブジェクト88は、バトルゲームを構成するための各種のオブジェクトとは異なるオブジェクトである。一例として、標的オブジェクト88は、第1陣営に所属するユーザに対応する1以上のアバター81の何れとも異なるオブジェクトである。一例として、標的オブジェクト88は、第2陣営に所属するユーザに対応する1以上のアバター81の何れとも異なるオブジェクトである。一例として、標的オブジェクト88は、第2状態となったアバターを示す墓標オブジェクト81Dとは異なるオブジェクトである。一例として、標的オブジェクト88は、フィールドオブジェクト82とは異なるオブジェクトである。一例として、標的オブジェクト88は、味方陣営及び敵方陣営の双方にとって共通の敵方キャラクタとは異なるオブジェクトである。例えば、標的オブジェクト88は、弓で射る的である。これに限らず、標的オブジェクト88は、果実、動物、又は乗り物であってもよい。なお、標的オブジェクト88は、複数のフィールドオブジェクト82のうち1つ又は複数であってもよい。標的オブジェクト88は、共通の敵方キャラクタのうち、1つ又は複数であってもよい。 As an example, the target object 88 is an object different from various objects for constituting a battle game. As an example, the target object 88 is an object different from any of one or more avatars 81 corresponding to users belonging to the first camp. As an example, the target object 88 is an object different from any of one or more avatars 81 corresponding to users belonging to the second camp. As an example, the target object 88 is an object different from the gravestone object 81D indicating an avatar in the second state. As an example, the target object 88 is an object different from the field object 82. As an example, the target object 88 is an object different from an enemy character common to both the friendly camp and the enemy camp. For example, the target object 88 is a target to be shot with a bow. Without being limited thereto, the target object 88 may be a fruit, an animal, or a vehicle. The target object 88 may be one or more of the multiple field objects 82. The target object 88 may be one or more of the common enemy characters.
一例として、視聴ウィンドウ701は、耐久値ゲージ89Cを含み得る。耐久値ゲージ89Cは、標的オブジェクト88の耐久値Pdの残量を、視聴ユーザが認識できるようにする情報(以下、残量情報と示す)の一例である。これに限らず、残量情報は、耐久値Pdの残量を示す数字データであってもよい。ステップS316において、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、効果表示指示に基づいて耐久値Pdの残量を特定するとよい。プロセッサ110は、レンダリングモジュール104として、特定された残量に応じた耐久値ゲージ89Cをモニタ166に表示するとよい。 As an example, the viewing window 701 may include a durability gauge 89C. The durability gauge 89C is an example of information (hereinafter referred to as remaining amount information) that allows the viewing user to recognize the remaining durability value Pd of the target object 88. Without being limited to this, the remaining amount information may be numerical data indicating the remaining amount of the durability value Pd. In step S316, the processor 110 of the viewing terminal 100C as the viewing module 101C may specify the remaining amount of the durability value Pd based on the effect display instruction. The processor 110 as the rendering module 104 may display the durability gauge 89C corresponding to the specified remaining amount on the monitor 166.
例えば、図14は、標的オブジェクト88の全体が、照準オブジェクト89に入っていない状態を示す。つまり、標的オブジェクト88の全体が、照準フレーム89Aと重なっておらず、かつ、照準マーク89Bと重なっていない。この場合に、視聴端末100Cのプロセッサ110は、射撃操作を受け付けていないと判定する。視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、特定オブジェクト87が移動線86に沿って移動する様子をモニタ166に表示しない。視聴端末100Cのプロセッサ110は、耐久値ゲージ89Cをモニタ166に表示しない。また、サーバ200のプロセッサ210は、ステップS308の命中判定を否定と判定する。視聴端末100Cのプロセッサ110は、カメラ操作を受け付けると、当該カメラ操作に応じて、仮想カメラ85の位置又は向きを変更する。 For example, FIG. 14 shows a state in which the entire target object 88 is not within the aiming object 89. In other words, the entire target object 88 does not overlap the aiming frame 89A and does not overlap the aiming mark 89B. In this case, the processor 110 of the viewing terminal 100C determines that the shooting operation has not been accepted. The processor 110 of the viewing terminal 100C, as the rendering module 104, does not display on the monitor 166 the movement of the specific object 87 along the movement line 86. The processor 110 of the viewing terminal 100C does not display the durability gauge 89C on the monitor 166. The processor 210 of the server 200 also determines that the hit judgment in step S308 is negative. When the processor 110 of the viewing terminal 100C accepts the camera operation, it changes the position or orientation of the virtual camera 85 in accordance with the camera operation.
図15は、仮想カメラ85の位置又は向きの変更に応じて、標的オブジェクト88の一部又は全部が、照準フレーム89Aに入っており、かつ、照準マーク89Bと重なっていない状態を示す。この場合に、視聴端末100Cのプロセッサ110は、射撃操作を受け付けていると判定する。視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、特定オブジェクト87が移動線86に沿って移動する様子をモニタ166に表示する。また、サーバ200のプロセッサ210は、ステップS308の命中判定を否定と判定する。視聴端末100Cのプロセッサ110は、照準フレーム89Aに入っている標的オブジェクト88の耐久値ゲージ89Cをモニタ166に表示する。視聴端末100Cのプロセッサ110は、カメラ操作を受け付けると、当該カメラ操作に応じて、仮想カメラ85の位置又は向きを変更する。 Figure 15 shows a state in which a part or all of the target object 88 is within the aiming frame 89A and does not overlap with the aiming mark 89B in response to a change in the position or orientation of the virtual camera 85. In this case, the processor 110 of the viewing terminal 100C determines that a shooting operation has been accepted. The processor 110 of the viewing terminal 100C, as the rendering module 104, displays on the monitor 166 the state in which the specific object 87 moves along the movement line 86. The processor 210 of the server 200 also determines that the hit determination in step S308 is negative. The processor 110 of the viewing terminal 100C displays on the monitor 166 the durability gauge 89C of the target object 88 within the aiming frame 89A. When the processor 110 of the viewing terminal 100C accepts the camera operation, it changes the position or orientation of the virtual camera 85 in response to the camera operation.
図16は、仮想カメラ85の位置又は向きの変更に応じて、標的オブジェクト88の一部又は全部が、照準フレーム89Aに入っており、かつ、照準マーク89Bと重なっている状態を示す。この場合に、視聴端末100Cのプロセッサ110は、射撃操作を受け付けていると判定する。視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、特定オブジェクト87が移動線86に沿って移動する様子をモニタ166に表示する。また、サーバ200のプロセッサ210は、ステップS308の命中判定を肯定と判定する。 Figure 16 shows a state in which a part or all of the target object 88 is within the aiming frame 89A and overlaps with the aiming mark 89B in response to a change in the position or orientation of the virtual camera 85. In this case, the processor 110 of the viewing terminal 100C determines that a shooting operation has been accepted. The processor 110 of the viewing terminal 100C, as the rendering module 104, displays on the monitor 166 the state in which the specific object 87 moves along the movement line 86. The processor 210 of the server 200 also determines that the hit determination in step S308 is positive.
ステップS316において、視聴端末100Cのプロセッサ110は、効果表示指示に基づいて、レンダリングモジュール104として、命中情報の一例であるエフェクトオブジェクト87Aをモニタ166に表示する。一例として、エフェクトオブジェクト87Aは、特定オブジェクト87が爆発する様子を示すオブジェクト(画像)である。視聴ユーザは、エフェクトオブジェクト87Aが表示された状況から、特定オブジェクト87が標的オブジェクト88に命中したことを認識できる。つまり、視聴ユーザは、標的オブジェクト88に影響を与えたことを認識できる。 In step S316, the processor 110 of the viewing terminal 100C, in response to the effect display instruction, displays an effect object 87A, which is an example of hit information, on the monitor 166 as the rendering module 104. As an example, the effect object 87A is an object (image) showing a specific object 87 exploding. The viewing user can recognize that the specific object 87 has hit the target object 88 from the situation in which the effect object 87A is displayed. In other words, the viewing user can recognize that an impact has been made on the target object 88.
ここで、特定オブジェクト87、標的オブジェクト88、及び照準オブジェクト89は、視聴空間80Bに配置されるが、ゲーム空間80Aに配置されない。また、視聴端末100Cから送信され得る射撃情報は、進行情報及びプレイ情報の何れにも含まれない。つまり、これらのオブジェクト87~89は、視聴端末100Cのモニタ166に表示されるが、一般端末100A及び配信端末100Bのモニタ166に表示されない。 Here, the specific object 87, the target object 88, and the aiming object 89 are located in the viewing space 80B, but not in the game space 80A. Furthermore, the shooting information that may be transmitted from the viewing terminal 100C is not included in either the progress information or the play information. In other words, these objects 87 to 89 are displayed on the monitor 166 of the viewing terminal 100C, but are not displayed on the monitors 166 of the general terminal 100A and the distribution terminal 100B.
ステップS312において、サーバ200のプロセッサ210は、配信モジュール201Bとして、効果表示指示を視聴端末100Cへ送信するが、一般端末100A及び配信端末100Bへ送信しない。よって、エフェクトオブジェクト87Aは、視聴端末100Cのモニタ166に表示され得るが、一般端末100A及び配信端末100Bのモニタ166に表示されない。ステップS312は、標的オブジェクト88への影響を示す命中情報を、配信端末100Bに表示させず、かつ視聴端末100Cに表示させることの一例である。 In step S312, the processor 210 of the server 200, acting as the distribution module 201B, transmits an effect display instruction to the viewing terminal 100C, but does not transmit it to the general terminal 100A or the distribution terminal 100B. Thus, the effect object 87A may be displayed on the monitor 166 of the viewing terminal 100C, but is not displayed on the monitors 166 of the general terminal 100A and the distribution terminal 100B. Step S312 is an example of displaying hit information indicating the effect on the target object 88 on the viewing terminal 100C, but not on the distribution terminal 100B.
図17は、特定オブジェクト87が標的オブジェクト88に命中したことに応じて、標的オブジェクト88の耐久値Pdが0になった状態を示す。視聴ユーザは、耐久値ゲージ89Cに示される耐久値Pdの残量が0になった状況から、当該標的オブジェクト88についての特定条件が満たされたことを認識できる。 Figure 17 shows a state in which the durability value Pd of the target object 88 becomes 0 as a result of the specific object 87 hitting the target object 88. The viewing user can recognize that a specific condition for the target object 88 has been met from the situation in which the remaining durability value Pd shown in the durability value gauge 89C has become 0.
この場合に、ステップS328において、視聴端末100Cのプロセッサ110は、レンダリングモジュール104として、標的オブジェクト88から星709が飛び出した様子をモニタ166に表示する。星709が飛び出した様子を示す表示は、ポイント獲得表示の一例である。視聴ユーザは、ポイント獲得表示が行われた状況から、報酬ポイントPを獲得したことを認識できる。星709は、報酬獲得情報の一例である。 In this case, in step S328, the processor 110 of the viewing terminal 100C, as the rendering module 104, displays on the monitor 166 an image of a star 709 popping out from the target object 88. The display showing the star 709 popping out is an example of a point acquisition display. The viewing user can recognize that reward points P have been acquired from the situation in which the point acquisition display has been made. The star 709 is an example of reward acquisition information.
ポイント獲得表示は、標的オブジェクト88の特定条件を成立させた視聴端末100Cにおいてのみ行われてもよい。ポイント獲得表示は、同じ視聴用コンテンツの視聴に使用されている複数の視聴端末100Cにおいてのみ行われてもよい。ポイント獲得表示は、さらに、一般端末100A、又は配信端末100Bにおいて行われてもよい。ポイント獲得表示を行うためのオブジェクトは、ポイント獲得表示を実行しようとする端末100において定義された視聴空間80Bに配置されるとよい。 The point acquisition display may be displayed only on the viewing terminal 100C that has satisfied a specific condition for the target object 88. The point acquisition display may be displayed only on multiple viewing terminals 100C that are being used to view the same viewing content. The point acquisition display may also be displayed on the general terminal 100A or the distribution terminal 100B. The object for displaying the point acquisition display may be placed in the viewing space 80B defined on the terminal 100 that is to execute the point acquisition display.
[リザルト画面]
第2パートが終了し、第1パートに移行する場合に、各端末100A,100Bのモニタ166には、それぞれ第1リザルト画面55が表示される。第1リザルト画面55は、各種のオブジェクトを含み得る。第1リザルト画面55は、第2パートで勝利した陣営を示すアイコン、スコアの獲得数が最も多いユーザを示すアイコン、又はアバターの討伐数が最も多いユーザを示すアイコン等の情報を含み得る。
[Results screen]
When the second part ends and the game moves to the first part, the monitor 166 of each of the terminals 100A and 100B displays the first result screen 55. The first result screen 55 may include various objects. The first result screen 55 may include information such as an icon indicating the camp that won the second part, an icon indicating the user who has obtained the most scores, or an icon indicating the user who has defeated the most avatars.
図18に示すように、第2パートが終了し、第1パートに移行する場合に、視聴端末100Cのモニタ166には、第2リザルト画面60が表示される。第2リザルト画面60は、各種のオブジェクトを含み得る。第2リザルト画面60は、第2パートで勝利した陣営を示すアイコン、スコアの獲得数が最も多いユーザを示すアイコン、又はアバターの討伐数が最も多いユーザを示すアイコン等の情報を含み得る。 As shown in FIG. 18, when the second part ends and the first part begins, the second result screen 60 is displayed on the monitor 166 of the viewing terminal 100C. The second result screen 60 may include various objects. The second result screen 60 may include information such as an icon indicating the camp that won the second part, an icon indicating the user who has obtained the most scores, or an icon indicating the user who has defeated the most avatars.
図19に示すように、第2リザルト画面60は、獲得ポイントパネル605を含み得る。獲得ポイントパネル605は、今回の射撃ゲームを通して、視聴ユーザが獲得した報酬ポイントPを、当該視聴ユーザが認識できるようにする情報の一例である。 As shown in FIG. 19, the second result screen 60 may include an earned points panel 605. The earned points panel 605 is an example of information that allows the viewing user to recognize the reward points P that the viewing user has earned through the current shooting game.
視聴端末100Cのプロセッサ110は、第2パートの終了を示す配信情報を受信した場合に、レンダリングモジュール104として第2リザルト画面60をモニタ166に表示する。配信情報には、今回の射撃ゲームを通して視聴ユーザが獲得した報酬ポイントPが含まれ得る。視聴端末100Cのプロセッサ110は、視聴情報に示される報酬ポイントPに応じて、獲得ポイントパネル605をモニタ166に表示する。 When the processor 110 of the viewing terminal 100C receives distribution information indicating the end of the second part, the rendering module 104 displays the second result screen 60 on the monitor 166. The distribution information may include the reward points P that the viewing user has earned through this shooting game. The processor 110 of the viewing terminal 100C displays an earned points panel 605 on the monitor 166 according to the reward points P indicated in the viewing information.
第1実施形態の効果について説明する。
(1-1)視聴ユーザは、視聴者として、配信ユーザが配信するプレイ動画を視聴することができる。視聴ユーザは、仮想空間80(視聴空間80B)に配置された標的オブジェクト88に対して影響を与えることができる。よって、視聴ユーザは、プレイ動画を視聴することとは違った楽しみを得ることができる。一方、標的オブジェクト88への影響を示す命中情報は、配信ユーザが使用する配信端末100Bに表示されないが、視聴ユーザが使用する視聴端末100Cに表示される。よって、ゲームプレイに対する過剰な干渉を抑制することができる。
The effects of the first embodiment will be described.
(1-1) As a viewer, the viewing user can watch the gameplay video broadcast by the broadcasting user. The viewing user can affect the target object 88 arranged in the virtual space 80 (viewing space 80B). Thus, the viewing user can enjoy a different experience from watching the gameplay video. Meanwhile, the hit information indicating the effect on the target object 88 is not displayed on the broadcasting terminal 100B used by the broadcasting user, but is displayed on the viewing terminal 100C used by the viewing user. Thus, excessive interference with the gameplay can be suppressed.
(1-2)視聴ユーザは、特定オブジェクト87を標的オブジェクト88に命中させることによって、標的オブジェクト88に対して影響を与えることができる。よって、プレイ動画を視聴することとは違った楽しさを増すことができる。 (1-2) The viewing user can affect the target object 88 by hitting the specific object 87 with the target object 88. This provides a different kind of enjoyment to the experience than simply watching a gameplay video.
(1-3)配信ユーザが使用する配信端末100Bには、特定オブジェクト87が標的オブジェクト88に命中したことを示す命中情報が表示されない。よって、配信ユーザの不快感をさらに抑制することができる。 (1-3) On the broadcasting terminal 100B used by the broadcasting user, hit information indicating that the specific object 87 has hit the target object 88 is not displayed. This further reduces the broadcasting user's discomfort.
(1-4)標的オブジェクト88への影響を示す命中情報は、複数の視聴端末100Cにおいて表示される。よって、視聴者である複数の視聴ユーザは、標的オブジェクト88に対する影響を共有することができる。 (1-4) Hit information indicating the effect on the target object 88 is displayed on multiple viewing terminals 100C. Thus, multiple viewing users who are viewers can share the effect on the target object 88.
(1-5)配信ユーザは、標的オブジェクト88に対して影響を与えることができない。このため、配信ユーザができることと、視聴ユーザができることと、を明確に区別できる。 (1-5) The broadcasting user cannot affect the target object 88. This allows a clear distinction between what the broadcasting user can do and what the viewing user can do.
(1-6)視聴ユーザは、味方陣営のアバターの中から基準キャラクタを変更できる。よって、視聴ユーザは、様々な視点から、標的オブジェクト88を射撃できる。また、配信ユーザのアバターとは異なるアバターを基準とした視点から、視聴ユーザが配信ユーザのプレイを視聴する機会を増やすことができる。 (1-6) The viewing user can change the reference character from among the avatars of the friendly camp. This allows the viewing user to shoot at the target object 88 from various viewpoints. This also increases the opportunities for the viewing user to watch the broadcasting user's play from a viewpoint based on an avatar different from the broadcasting user's avatar.
(1-7)配信端末100Bでは、特定オブジェクト87、エフェクトオブジェクト87A、照準オブジェクト89、標的オブジェクト88、及び星709が表示されない。配信端末100Bでは、視聴端末100Cにおける仮想カメラ85の位置及び向きを示す情報が表示されない。つまり、配信ユーザは、視聴ユーザが何れの標的オブジェクト88を射撃しているかを特定できない。 (1-7) The specific object 87, effect object 87A, aiming object 89, target object 88, and star 709 are not displayed on the distribution terminal 100B. Information indicating the position and orientation of the virtual camera 85 on the viewing terminal 100C is not displayed on the distribution terminal 100B. In other words, the distribution user cannot identify which target object 88 the viewing user is shooting at.
(1-8)射撃ゲームは、ゲーム空間80Aにおける事象が同期された仮想空間80(視聴空間80B)を使用して実行される。つまり、射撃ゲームは、配信ユーザのプレイ動画を利用して実行される。よって、視聴ユーザは、配信ユーザがバトルを繰り広げている様子を視認しながら、並行して射撃ゲームをプレイできる。このため、プレイ動画を配信する意欲が減退することを抑制しながら、プレイ動画を視聴することとは違った楽しさを与えることができる。 (1-8) The shooting game is executed using a virtual space 80 (viewing space 80B) in which events in the game space 80A are synchronized. In other words, the shooting game is executed using gameplay videos of the broadcasting user. Therefore, the viewing user can play the shooting game in parallel while visually watching the broadcasting user battling. This makes it possible to provide a different kind of enjoyment to watching gameplay videos while preventing a decline in the desire to broadcast gameplay videos.
(第2実施形態)
ゲームシステム10は、標的オブジェクト88への影響が特定された場合に、報酬ポイントPを付与することに加えて、又は代えて、第3オブジェクトを仮想空間80に配置するように構成されてもよい。第2実施形態において、標的オブジェクト88は、一般端末100A及び配信端末100Bのモニタ166に表示されてもよい。
Second Embodiment
When an effect on the target object 88 is identified, in addition to or instead of awarding the reward points P, the game system 10 may be configured to place a third object in the virtual space 80. In the second embodiment, the target object 88 may be displayed on the monitors 166 of the general terminal 100A and the broadcasting terminal 100B.
図20に示すように、サーバ200のプロセッサ210は、配信モジュール201Bとして、ステップS324を終了すると、ステップS325へ進む。ステップS325において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、第3オブジェクトの一例である特殊オブジェクトをゲーム空間80Aに配置する。つまり、視聴ユーザは、標的オブジェクト88に影響を与えることによって、特殊オブジェクトを生成できる。特殊オブジェクトは、第2パートにおいて、仮想空間80に配置されることができる。特殊オブジェクトは、第1パートにおいて発生しない。 As shown in FIG. 20, when the processor 210 of the server 200 as the distribution module 201B ends step S324, the process proceeds to step S325. In step S325, the processor 210 of the server 200 as the game module 201A places a special object, which is an example of a third object, in the game space 80A. In other words, the viewing user can generate the special object by influencing the target object 88. The special object can be placed in the virtual space 80 in the second part. The special object does not occur in the first part.
特殊オブジェクトは、視聴空間80Bに配置されてもよく、視聴空間80Bに配置されなくてもよい。ステップS325は、ステップS212とともに、1以上のオブジェクトを配置することの一例を構成する。また、ステップS325は、標的オブジェクト88への影響が特定された場合に、特殊オブジェクトを仮想空間80に配置することの一例である。ステップS325は、ステップS320に続けて実行されてもよく、ステップS318に続けて実行されてもよい。 The special object may or may not be placed in viewing space 80B. Step S325, together with step S212, constitutes an example of placing one or more objects. Step S325 is also an example of placing a special object in virtual space 80 when an effect on target object 88 is identified. Step S325 may be executed following step S320, or may be executed following step S318.
ステップS222において、サーバ200のプロセッサ210は、ゲームモジュール201Aとして、特殊オブジェクトの効果を発揮させる条件(以下、効果発揮条件と示す)が満たされたか否かを判定する。一例として、効果発揮条件は、アバター81が特殊オブジェクトに接触したことであってもよく、アバター81の攻撃が命中したことであってもよい。サーバ200のプロセッサ210は、ゲームモジュール201Aとして、特殊オブジェクトの効果発揮条件が満たされたと判定した場合に、当該特殊オブジェクトの効果をアバター81に対して発揮させる。 In step S222, the processor 210 of the server 200, as the game module 201A, determines whether or not a condition for exerting the effect of the special object (hereinafter referred to as the effect exertion condition) has been met. As an example, the effect exertion condition may be that the avatar 81 has come into contact with the special object, or that the attack of the avatar 81 has hit. When the processor 210 of the server 200, as the game module 201A, determines that the effect exertion condition of the special object has been met, it exerts the effect of the special object on the avatar 81.
特殊オブジェクトの効果発揮条件を成立させ得るアバター81は、特殊オブジェクトを生成させた視聴ユーザからみて、視聴対象の配信ユーザ、又は当該配信ユーザの味方ユーザのアバター81であるとよい。この場合に、特殊オブジェクトの効果は、アバター81のヒットポイントを回復させる効果であってもよく、アバター81のステータスを向上させる効果であってもよく、アバター81にスキルを覚えさせる効果であってもよい。つまり、特殊オブジェクトは、配信ユーザに対応するキャラクタに対して効果を発揮することができるとよい。また、特殊オブジェクトは、味方ユーザに対応するキャラクタに対して効果を発揮することができてもよい。 The avatar 81 that can satisfy the conditions for the special object to exert its effect may be the avatar 81 of the broadcasting user being viewed from the perspective of the viewing user who generated the special object, or of an allied user of the broadcasting user. In this case, the effect of the special object may be an effect of recovering the hit points of the avatar 81, an effect of improving the status of the avatar 81, or an effect of causing the avatar 81 to learn a skill. In other words, the special object may be capable of exerting an effect on a character corresponding to the broadcasting user. The special object may also be capable of exerting an effect on a character corresponding to an allied user.
これに限らず、特殊オブジェクトの効果発揮条件を成立させ得るアバター81は、視聴対象の配信ユーザから見て敵方ユーザのアバター81であるとよい。この場合に、特殊オブジェクトの効果は、アバター81のヒットポイントを減少させる効果であってもよく、アバター81のステータスを低下させる効果であってもよく、アバター81のスキルを使用不能にする効果であってもよい。つまり、特殊オブジェクトは、敵方ユーザに対応するキャラクタに対して効果を発揮することができてもよい。 Without being limited to this, the avatar 81 that can satisfy the conditions for the special object to exert its effect may be the avatar 81 of an enemy user as viewed by the broadcast user who is the viewing target. In this case, the effect of the special object may be an effect of reducing the hit points of the avatar 81, an effect of lowering the status of the avatar 81, or an effect of disabling the use of a skill of the avatar 81. In other words, the special object may be capable of exerting an effect on a character corresponding to an enemy user.
一例として、図21及び図22に示すように、標的オブジェクト88は、端末100A~100Cのモニタ166に表示され得るフィールドオブジェクト82のうち、リンゴ88Aとすることができる。リンゴ88Aの耐久値Pdが0になると、特殊オブジェクト88Bの一例として、アバター81のヒットポイントを回復させる効果を有する回復アイテムが一般端末100A及び配信端末100Bに表示されるとよい。つまり、視聴ユーザは、射撃ゲームを通じて、配信ユーザに対して特殊オブジェクト88Bを提供できる。 As an example, as shown in Figures 21 and 22, the target object 88 can be an apple 88A, one of the field objects 82 that can be displayed on the monitor 166 of the terminals 100A to 100C. When the durability value Pd of the apple 88A becomes 0, a recovery item that has the effect of recovering the hit points of the avatar 81 can be displayed on the general terminal 100A and the broadcasting terminal 100B as an example of a special object 88B. In other words, the viewing user can provide the broadcasting user with the special object 88B through the shooting game.
一般端末100A及び配信端末100Bのモニタ166では、特殊オブジェクト88Bが出現する場合に、特殊オブジェクト88Bが出現することを示す情報(以下、出現情報88Cと示す)が表示される。一例として、出現情報88Cは、リンゴ88Aが木から落ちる様子を示す動画であってもよい。 When the special object 88B appears, information indicating that the special object 88B will appear (hereinafter referred to as appearance information 88C) is displayed on the monitor 166 of the general terminal 100A and the distribution terminal 100B. As an example, the appearance information 88C may be a video showing an apple 88A falling from a tree.
第2実施形態の効果について説明する。
(2-1)視聴ユーザは、標的オブジェクト88に対して影響を与えることによって、特殊オブジェクト88Bを新たに出現させることができる。よって、プレイ動画を視聴することとは違った楽しみを増すことができる。
The effects of the second embodiment will be described.
(2-1) The viewing user can make a special object 88B appear by exerting an influence on the target object 88. This can add to the enjoyment of the game in a different way than simply viewing the gameplay video.
(2-2)特殊オブジェクト88Bは、配信ユーザに対応するキャラクタに対して効果を発揮し得る。よって、配信ユーザの不快感を抑制しながら、視聴ユーザの参加意欲を高めることができる。 (2-2) The special object 88B can have an effect on the character corresponding to the broadcasting user. This can increase the viewing user's motivation to participate while minimizing the broadcasting user's discomfort.
(2-3)特殊オブジェクト88Bは、第2パートで出現させることができる。しかしながら、特殊オブジェクトは、第1パートで出現させることができない。つまり、特殊オブジェクト88Bが出現する場面が制限されるから、特殊オブジェクト88Bの希少性を高めることができる。よって、配信ユーザの不快感を抑制しながら、視聴ユーザの参加意欲を高めることができる。 (2-3) Special object 88B can be made to appear in the second part. However, special objects cannot be made to appear in the first part. In other words, the scenes in which special object 88B appears are limited, so the rarity of special object 88B can be increased. This makes it possible to increase the willingness of viewing users to participate while minimizing discomfort felt by the distribution user.
上記実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・標的オブジェクト88は、仮想空間80を構成するゲーム空間80A及び視聴空間80Bの両方に配置されてもよい。本変更例において、標的オブジェクト88は、一般端末100A及び配信端末100Bにおけるレンダリングの対象とされてもよいし、レンダリングの対象とされなくてもよい。つまり、標的オブジェクト88は、一般端末100A及び配信端末100Bのモニタ166に表示されてもよく、表示されなくてもよい。本変更例において、エフェクトオブジェクト87Aは、一般端末100A及び配信端末100Bのモニタ166に表示されないとよい。つまり、エフェクトオブジェクト87Aは、ゲーム空間80Aに配置されない構成であってもよく、ゲーム空間80Aに配置されるがレンダリングの対象とならない構成であってもよい。
The above embodiment can be modified as follows: The above embodiment and the following modifications can be combined with each other to the extent that no technical contradiction occurs.
The target object 88 may be placed in both the game space 80A and the viewing space 80B that constitute the virtual space 80. In this modified example, the target object 88 may or may not be subject to rendering in the general terminal 100A and the streaming terminal 100B. That is, the target object 88 may or may not be displayed on the monitors 166 of the general terminal 100A and the streaming terminal 100B. In this modified example, the effect object 87A may not be displayed on the monitors 166 of the general terminal 100A and the streaming terminal 100B. That is, the effect object 87A may be configured not to be placed in the game space 80A, or may be configured to be placed in the game space 80A but not to be rendered.
・ゲームシステム10は、ゲーム空間80A及び視聴空間80Bの両方として機能し得る仮想空間80を備えてもよい。本変更例において、エフェクトオブジェクト87Aは、視聴端末100Cのモニタ166に表示されるが、一般端末100A及び配信端末100Bのモニタ166に表示されないように構成されるとよい。 - The game system 10 may have a virtual space 80 that can function as both a game space 80A and a viewing space 80B. In this modified example, the effect object 87A is preferably configured to be displayed on the monitor 166 of the viewing terminal 100C, but not on the monitor 166 of the general terminal 100A or the distribution terminal 100B.
・端末100A,100Bのモニタ166では、エフェクトオブジェクト87Aは表示されないが、端末100A,100Bのスピーカ162では、標的オブジェクト88に対して影響が与えられたことを示す音声を出力してもよい。 - The effect object 87A is not displayed on the monitor 166 of the terminal 100A, 100B, but the speaker 162 of the terminal 100A, 100B may output a sound indicating that an effect has been applied to the target object 88.
・標的オブジェクト88は、視聴端末100Cのモニタ166に表示されないオブジェクト(以下、隠れオブジェクトと示す)を含んでもよい。サーバ200のプロセッサ210は、特定オブジェクト87が隠れオブジェクトに命中したと判定した場合に、報酬ポイントPとは異なる特別な報酬を視聴ユーザに付与してもよい。視聴空間80Bには、複数の隠れオブジェクトが配置されてもよい。この場合に、特別な報酬は、複数の隠れオブジェクトの全てに特定オブジェクト87を命中させた場合に付与されるとよい。 - The target object 88 may include an object (hereinafter referred to as a hidden object) that is not displayed on the monitor 166 of the viewing terminal 100C. When the processor 210 of the server 200 determines that the specific object 87 has hit the hidden object, it may award the viewing user a special reward that is different from the reward points P. Multiple hidden objects may be placed in the viewing space 80B. In this case, the special reward may be awarded when the specific object 87 hits all of the multiple hidden objects.
・標的オブジェクト88は、1種類であることに限定されず、複数種類あってもよい。本変更例において、標的オブジェクト88の種類に応じて、耐久値Pdの初期値が異なっていてもよい。標的オブジェクト88の種類に応じて、特定条件が成立した場合に視聴ユーザが獲得可能な報酬ポイントPが異なっていてもよい。 - The number of target objects 88 is not limited to one, and there may be multiple types. In this modified example, the initial value of the durability value Pd may differ depending on the type of target object 88. The reward points P that the viewing user can acquire when a specific condition is met may differ depending on the type of target object 88.
・ステップS308において、サーバ200のプロセッサ210が特定する標的オブジェクト88への影響は、特定オブジェクト87が標的オブジェクト88に命中することに限定されない。つまり、サーバ200のプロセッサ210が特定する標的オブジェクト88への影響は、視聴ユーザによる操作に応じて標的オブジェクト88に生じ得る影響であれば、どのような影響であってもよい。一例として、サーバ200のプロセッサ210が特定する標的オブジェクト88への影響は、標的オブジェクト88の位置又は姿勢が変更されることであってもよく、標的オブジェクト88の種類又は機能が変更されることであってもよい。 - In step S308, the effect on the target object 88 identified by the processor 210 of the server 200 is not limited to the specific object 87 hitting the target object 88. In other words, the effect on the target object 88 identified by the processor 210 of the server 200 may be any effect that may occur on the target object 88 in response to an operation by the viewing user. As an example, the effect on the target object 88 identified by the processor 210 of the server 200 may be a change in the position or orientation of the target object 88, or a change in the type or function of the target object 88.
・標的オブジェクト88は、耐久値Pdを備えなくてもよい。本変更例において、サーバ200のプロセッサ210は、特定オブジェクト87が標的オブジェクト88に命中した回数(以下、命中回数と示す)を管理するとよい。そして、プロセッサ210は、命中回数が予め定めた回数に達した場合に、標的オブジェクト88の特定条件が成立したと判定するとよい。 - The target object 88 does not need to have a durability value Pd. In this modified example, the processor 210 of the server 200 may manage the number of times that the specific object 87 hits the target object 88 (hereinafter referred to as the number of hits). Then, the processor 210 may determine that a specific condition for the target object 88 has been met when the number of hits reaches a predetermined number.
・標的オブジェクト88の耐久値Pdは、予め定めた条件(以下、変化条件と示す)に応じて変化してもよい。一例として、耐久値Pdは、配信ユーザが獲得した報酬ポイントPの合計値、バトルゲームが開始されてからの経過時間、及び配信ユーザのアバターとして設定されているキャラクタの種類のうち、1つ又は複数の事柄に応じて変化してもよい。つまり、耐久値Pdは、同じ種類の標的オブジェクト88であっても、変化条件に応じて、第1耐久値である場合と、当該第1耐久値よりも多い第2耐久値である場合とが生じ得るとよい。 - The durability value Pd of the target object 88 may change according to a predetermined condition (hereinafter referred to as the change condition). As an example, the durability value Pd may change according to one or more of the total value of reward points P acquired by the broadcasting user, the elapsed time since the start of the battle game, and the type of character set as the broadcasting user's avatar. In other words, even for the same type of target object 88, the durability value Pd may be a first durability value or a second durability value greater than the first durability value depending on the change condition.
・第2リザルト画面60は、報酬ポイントPに応じた視聴ユーザの順位を示す情報を含んでもよい。視聴画面70は、報酬ポイントPに応じた視聴ユーザの順位を示す情報を含んでもよい。報酬ポイントPが多いことは、標的オブジェクト88に多くの影響を与えたことと同じ意味であるとよい。 - The second result screen 60 may include information indicating the ranking of the viewing users according to the reward points P. The viewing screen 70 may include information indicating the ranking of the viewing users according to the reward points P. A large number of reward points P may be equivalent to having a large impact on the target object 88.
・視聴画面70は、視聴空間80Bに配置された標的オブジェクト88の残り個数を示す情報(以下、標的個数情報と示す)を含んでもよい。標的個数情報は、標的オブジェクト88の残り個数を示す数字データであってもよく、標的オブジェクト88の残り個数と同じ個数のアイコンであってもよい。標的個数情報は、バトルゲームが開始されるときに表示されてもよく、バトルゲームを通して表示されてもよい。 - The viewing screen 70 may include information indicating the remaining number of target objects 88 placed in the viewing space 80B (hereinafter referred to as target number information). The target number information may be numerical data indicating the remaining number of target objects 88, or may be icons in the same number as the remaining number of target objects 88. The target number information may be displayed when the battle game starts, or may be displayed throughout the battle game.
・視聴画面70は、射撃ゲームのプレイ方法を示す情報(以下、プレイ方法情報と示す)を含んでもよい。プレイ方法情報は、射撃ゲームにおいて報酬を獲得する方法を示す情報を含むとよい。 - The viewing screen 70 may include information indicating how to play the shooting game (hereinafter referred to as "play method information"). The play method information may include information indicating how to obtain a reward in the shooting game.
・視聴画面70は、視聴ユーザが影響を与え得るオブジェクトであることを示す情報(以下、標的情報と示す)を含んでもよい。一例として、標的情報は、標的オブジェクト88を囲う枠であってもよく、標的オブジェクト88の色調を変更させることであってもよい。視聴ユーザは、同じ種類のオブジェクトであっても、標的オブジェクト88となっているか否かを明確に把握できる。 - The viewing screen 70 may include information (hereinafter referred to as target information) indicating that the object is one that the viewing user can affect. As an example, the target information may be a frame surrounding the target object 88, or may be information that changes the color tone of the target object 88. The viewing user can clearly understand whether or not an object is a target object 88, even if the object is the same type.
・視聴画面70は、視聴ユーザが獲得し得る報酬の内容を示す情報(以下、報酬内容情報と示す)を含んでもよい。報酬内容情報は、標的オブジェクト88について特定条件が成立された場合に視聴ユーザが獲得し得る報酬の内容を示す。 - The viewing screen 70 may include information indicating the content of the reward that the viewing user may obtain (hereinafter referred to as reward content information). The reward content information indicates the content of the reward that the viewing user may obtain if a specific condition is met for the target object 88.
・視聴画面70は、視聴ユーザが射撃ゲームにおいて使用可能な特定オブジェクト87の残り個数を示す情報(以下、残数情報と示す)を含んでもよい。本変更例において、視聴端末100Cのプロセッサ110は、特定オブジェクト87の残り個数が0である場合に、射撃操作を受け付けないように構成されてもよく、射撃情報をサーバ200へ送信しないように構成されてもよい。特定オブジェクト87の残り個数は、予め定めた条件(以下、補充条件と示す)が満たされると補充されるように構成されるとよい。一例として、補充条件は、予め定められた時間が経過する毎に成立してもよく、視聴ウィンドウ701に補充オブジェクトが表示された場合に成立してもよい。 - The viewing screen 70 may include information indicating the remaining number of specific objects 87 that the viewing user can use in the shooting game (hereinafter referred to as remaining number information). In this modified example, the processor 110 of the viewing terminal 100C may be configured not to accept a shooting operation when the remaining number of specific objects 87 is 0, and may be configured not to transmit shooting information to the server 200. The remaining number of specific objects 87 may be configured to be replenished when a predetermined condition (hereinafter referred to as a replenishment condition) is satisfied. As an example, the replenishment condition may be met every time a predetermined time has elapsed, or may be met when a replenishment object is displayed in the viewing window 701.
・射撃操作は、カメラ操作に加えて、又は代えて、所定の操作(以下、射撃開始操作と示す)を含んでもよい。射撃開始操作は、照準フレーム89Aが表示されている部分をタップ操作することであってもよく、標的オブジェクト88が表示されている部分をタップ操作することであってもよい。射撃開始操作は、射撃開始操作をするための発射ボタンを操作することであってもよい。 The shooting operation may include a predetermined operation (hereinafter, referred to as a shooting start operation) in addition to or instead of the camera operation. The shooting start operation may be a tap operation on the part where the aiming frame 89A is displayed, or a tap operation on the part where the target object 88 is displayed. The shooting start operation may be an operation of a fire button to perform the shooting start operation.
・射撃操作は、視聴ウィンドウ701のうち標的オブジェクト88が表示されている部分をタップ操作することであってもよい。この場合に、視聴端末100Cのプロセッサ110は、照準オブジェクト89を表示しないように構成されてもよい。 The shooting operation may be a tap operation on a portion of the viewing window 701 where the target object 88 is displayed. In this case, the processor 110 of the viewing terminal 100C may be configured not to display the aiming object 89.
・ゲームシステム10は、配信ユーザが、視聴ユーザに影響を与えて欲しいと考える標的オブジェクトを、配信ユーザが視聴ユーザに対して通知できるように構成されていてもよい。本変更例では、第2バトル画面50Bにおいて、標的オブジェクト88が表示されることを前提とする。配信端末100Bのプロセッサ110は、レンダリングモジュール104として、標的オブジェクト88をモニタ166に表示する。配信端末100Bのプロセッサ110は、ゲームモジュール101Aとして、標的オブジェクト88を指定する操作(以下、標的指定操作と示す)を受け付けた場合に、第1指定情報をサーバ200へ送信する。一例として、標的指定操作は、モニタ166のうち、標的オブジェクト88が表示された部分をタップ操作することによって行うことができる。サーバ200のプロセッサ210は、配信モジュール201Bとして、受信された第1指定情報に応じて、第2指定情報を視聴端末100Cへ送信する。視聴端末100Cのプロセッサ110は、第2指定情報を受信した場合に、当該情報に示される標的オブジェクト88に対して、上記標的情報を付加してモニタ166に表示する。本変更例において、配信ユーザは、視聴ユーザに対して、標的オブジェクト88を指定し、影響を与えて貰えるように依頼できる。 - The game system 10 may be configured so that the broadcasting user can notify the viewing user of a target object that the broadcasting user wants the viewing user to affect. In this modified example, it is assumed that the target object 88 is displayed on the second battle screen 50B. The processor 110 of the broadcasting terminal 100B, as the rendering module 104, displays the target object 88 on the monitor 166. The processor 110 of the broadcasting terminal 100B, as the game module 101A, transmits first designation information to the server 200 when it receives an operation to designate the target object 88 (hereinafter, referred to as a target designation operation). As an example, the target designation operation can be performed by tapping the part of the monitor 166 where the target object 88 is displayed. The processor 210 of the server 200, as the distribution module 201B, transmits second designation information to the viewing terminal 100C in accordance with the received first designation information. When the processor 110 of the viewing terminal 100C receives the second designation information, it adds the target information to the target object 88 indicated in the information and displays it on the monitor 166. In this modified example, the distribution user can request the viewing user to designate a target object 88 and have it affect the target object 88.
・仮想空間80に配置された標的オブジェクト88への影響を特定する手法は、上記実施形態とは異なる手法に変更してもよい。
例えば、視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、特定オブジェクト87が標的オブジェクト88に命中したか否かの命中判定を行ってもよい。視聴端末100Cのプロセッサ110は、特定オブジェクト87が標的オブジェクト88に命中したと判定した場合に、その旨を示す情報(以下、命中判定情報と示す)をサーバ200へ送信する。サーバ200のプロセッサ210は、配信モジュール201Bとして、命中判定情報を受信した場合に、特定オブジェクト87が標的オブジェクト88に命中したと特定する影響特定ステップを実行するとよい。この場合に、影響特定ステップは、視聴端末100Cから受信した第2操作情報に基づいて、仮想空間80に配置された標的オブジェクト88への影響を特定することの一例となる。本変更例において、命中判定情報は、第2操作情報の一例である。
The method for identifying the effect on the target object 88 placed in the virtual space 80 may be changed to a method different from that in the above embodiment.
For example, the processor 110 of the viewing terminal 100C may perform a hit determination as the viewing module 101C as to whether or not the specific object 87 hits the target object 88. When the processor 110 of the viewing terminal 100C determines that the specific object 87 hits the target object 88, it transmits information indicating that (hereinafter, referred to as hit determination information) to the server 200. When the processor 210 of the server 200 receives the hit determination information as the delivery module 201B, it may execute an influence determination step of determining that the specific object 87 hits the target object 88. In this case, the influence determination step is an example of determining an influence on the target object 88 arranged in the virtual space 80 based on the second operation information received from the viewing terminal 100C. In this modification, the hit determination information is an example of the second operation information.
例えば、視聴端末100Cのプロセッサ110は、上記命中判定において、特定オブジェクト87が標的オブジェクト88に命中したと判定した場合に、標的オブジェクト88の耐久値Pdを減少させる。視聴端末100Cのプロセッサ110は、減少後の耐久値Pdが0になった場合に、その旨を示す情報(以下、特定条件成立情報と示す)をサーバ200へ送信してもよい。サーバ200のプロセッサ210は、配信モジュール201Bとして、特定条件成立情報を受信した場合に、標的オブジェクト88の耐久値Pdが0になったと特定する影響特定ステップを実行するとよい。この場合に、影響特定ステップは、視聴端末100Cから受信した第2操作情報に基づいて、仮想空間80に配置された標的オブジェクト88への影響を特定することの一例となる。本変更例において、特定条件成立情報は、第2操作情報の一例である。 For example, when the processor 110 of the viewing terminal 100C determines in the hit determination that the specific object 87 has hit the target object 88, it reduces the durability value Pd of the target object 88. When the durability value Pd after the reduction becomes 0, the processor 110 of the viewing terminal 100C may transmit information indicating that (hereinafter, referred to as specific condition establishment information) to the server 200. When the processor 210 of the server 200 receives the specific condition establishment information as the distribution module 201B, it is preferable to execute an effect identification step of identifying that the durability value Pd of the target object 88 has become 0. In this case, the effect identification step is an example of identifying an effect on the target object 88 arranged in the virtual space 80 based on the second operation information received from the viewing terminal 100C. In this modified example, the specific condition establishment information is an example of the second operation information.
・標的オブジェクト88には、特定条件を第1回数にわたって成立させることができるオブジェクトと、特定条件を、第1回数と比べて多い第2回数にわたって成立させることができるオブジェクトとがあってもよい。一例として、第1回数は、1回であってもよく、第2回数は、2回以上であってもよい。つまり、1回しか報酬ポイントPを獲得できないオブジェクトと、2回以上、報酬ポイントPを獲得できるオブジェクトと、が存在してもよい。よって、標的オブジェクト88に影響を与える遊びにバリエーションを持たせることができる。 - The target objects 88 may include objects that can satisfy a specific condition a first number of times, and objects that can satisfy a specific condition a second number of times that is greater than the first number of times. As an example, the first number of times may be one time, and the second number of times may be two or more times. In other words, there may be objects that can earn reward points P only once, and objects that can earn reward points P two or more times. This allows for variation in play that affects the target object 88.
・基準キャラクタは、視聴対象である配信ユーザのアバターが第2状態となった場合に、当該配信ユーザが所属する陣営に所属するユーザのアバターの中から選択できなくてもよい。本変更例において、基準キャラクタは、第2状態となった配信ユーザのアバター81を示す墓標オブジェクト81Dに固定されてもよい。本変更例において、基準キャラクタは、配信ユーザが仮想空間80に配置した特殊オブジェクトの中から選択できてもよい。 - When the avatar of the broadcast user being viewed enters the second state, the reference character does not have to be selectable from among the avatars of users belonging to the camp to which the broadcast user belongs. In this modified example, the reference character may be fixed to a gravestone object 81D representing the avatar 81 of the broadcast user who has entered the second state. In this modified example, the reference character may be selectable from among special objects placed in the virtual space 80 by the broadcast user.
・仮想空間80には、標的オブジェクト88が複数段階にわたって配置されてもよい。一例として、サーバ200のプロセッサ210は、耐久値Pdが0になったことを特定した場合に、視聴ユーザに対して報酬ポイントP1を付与するとよい。視聴空間80Bには、標的オブジェクト88の耐久値Pdが0になった場合に、星、コイン、又は風船などのように、標的オブジェクト88とは異なる追加オブジェクトが配置されるとよい。一例として、サーバ200のプロセッサ210は、特定オブジェクト87が追加オブジェクトに命中したと判定した場合に、視聴ユーザに対して報酬ポイントP2を付与するとよい。本変更例において、報酬ポイントP2は、報酬ポイントP1と比べて、多くてもよく、少なくてもよく、同じであってもよい。 - Target objects 88 may be arranged in multiple stages in the virtual space 80. As an example, when the processor 210 of the server 200 determines that the durability value Pd has become 0, the processor 210 may award reward points P1 to the viewing user. When the durability value Pd of the target object 88 becomes 0, an additional object different from the target object 88, such as a star, coin, or balloon, may be arranged in the viewing space 80B. As an example, when the processor 210 of the server 200 determines that the specific object 87 has hit the additional object, the processor 210 of the server 200 may award reward points P2 to the viewing user. In this modified example, the reward points P2 may be more, less, or the same as the reward points P1.
・追加オブジェクトは、標的オブジェクト88の耐久値Pdを0にさせた視聴端末100Cにおいてのみ表示されてもよい。一例として、追加オブジェクトは、配信ユーザのプレイ動画の視聴に使用されている複数の視聴端末100Cにおいてのみ表示されてもよい。追加オブジェクトは、さらに、一般端末100A、及び配信端末100Bにおいて表示されてもよい。追加オブジェクトは、当該追加オブジェクトを表示しようとする端末100において定義された仮想空間80に配置されるとよい。 - The additional object may be displayed only on the viewing terminal 100C that has set the durability value Pd of the target object 88 to 0. As an example, the additional object may be displayed only on multiple viewing terminals 100C that are being used to watch the broadcasting user's gameplay video. The additional object may also be displayed on the general terminal 100A and the broadcasting terminal 100B. The additional object may be placed in the virtual space 80 defined on the terminal 100 on which the additional object is to be displayed.
・特定オブジェクト87が命中したときの耐久値Pdの減少量は、耐久値Pdが最後に0にされてから時間が経過するほど減少されてもよい。特定オブジェクト87が命中したときの耐久値Pdの減少量は、耐久値Pdが最後に0にされてから時間が経過するほど増加されてもよい。 - The amount by which the durability value Pd decreases when a specific object 87 is hit may be decreased as more time passes since the durability value Pd was last set to 0. The amount by which the durability value Pd decreases when a specific object 87 is hit may be increased as more time passes since the durability value Pd was last set to 0.
・特定オブジェクト87が命中したときの耐久値Pdの減少量は、標的オブジェクト88が仮想カメラ85から離間するほど減少されてもよい。特定オブジェクト87が命中したときの耐久値Pdの減少量は、標的オブジェクト88が仮想カメラ85から離間するほど増加されてもよい。 - The amount by which the durability value Pd decreases when the specific object 87 is hit may be decreased as the target object 88 moves farther away from the virtual camera 85. The amount by which the durability value Pd decreases when the specific object 87 is hit may be increased as the target object 88 moves farther away from the virtual camera 85.
・射撃ゲームは、バトルゲームを実行中である期間のうち一部の期間において実行されてもよい。
・射撃ゲームでは、基礎報酬の一例として、予め定めた報酬ポイントPを視聴ユーザに対して付与してもよい。一例として、サーバ200のプロセッサ210は、配信モジュール201Bとして、第2パートのゲームが終了するときに、耐久値Pdを0にした標的オブジェクト88の個数に依存せず、予め定めた報酬ポイントPを視聴ユーザへ付与するとよい。
The shooting game may be executed during a portion of the period during which the battle game is being executed.
In a shooting game, as an example of a basic reward, a predetermined reward point P may be awarded to the viewing user. As an example, the processor 210 of the server 200 as the distribution module 201B may award the predetermined reward point P to the viewing user when the game of the second part ends, regardless of the number of target objects 88 whose durability value Pd has been set to 0.
・報酬ポイントPは、補助ポイントPaが規定ポイントに達する毎に付与されてもよい。一例として、サーバ200のプロセッサ210は、標的オブジェクト88の耐久値Pdが0にされた場合に、補助ポイントPaを視聴ユーザに付与する。プロセッサ210は、補助ポイントPaが規定ポイントに達すると、報酬ポイントPを視聴ユーザに付与するとよい。 - Reward points P may be awarded each time the auxiliary points Pa reach a specified point. As an example, the processor 210 of the server 200 awards auxiliary points Pa to the viewing user when the durability value Pd of the target object 88 is set to 0. The processor 210 may award reward points P to the viewing user when the auxiliary points Pa reach a specified point.
・報酬ポイントPは、配信ユーザが特定ユーザである場合に、配信ユーザが特定ユーザではないときと比べて、増加されてもよい。一例として、サーバ200のプロセッサ210は、配信ユーザが特定ユーザであると決定している場合に、特定ユーザであると決定していないときに比べて、標的オブジェクト88への影響が特定されるごとに付与する報酬ポイントPを多くする。サーバ200のプロセッサ210は、複数の配信ユーザの中から、抽選によって、1以上の特定ユーザを決定するとよい。 - The reward points P may be increased when the broadcast user is a specified user, compared to when the broadcast user is not a specified user. As an example, when the processor 210 of the server 200 has determined that the broadcast user is a specified user, the processor 210 of the server 200 may award more reward points P each time an effect on the target object 88 is identified, compared to when the processor 210 has not determined that the broadcast user is a specified user. The processor 210 of the server 200 may determine one or more specified users by lottery from among multiple broadcast users.
・一般端末100A、配信端末100B、及び視聴端末100Cは、互いに構成が異なるコンピュータとして実現されてもよい。
・サーバ200のプロセッサ210は、配信モジュール201Bとして、受信したプレイ情報に応じてゲームのプレイ動画を生成し、ストリーミング配信するように構成されてもよい。視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、ストリーミング配信されるゲームのプレイ動画を、視聴ウィンドウ701に表示してもよい。
The general terminal 100A, the distribution terminal 100B, and the viewing terminal 100C may be realized as computers having different configurations.
The processor 210 of the server 200 may be configured as the distribution module 201B to generate game play videos in accordance with the received play information and distribute the game play videos by streaming. The processor 110 of the viewing terminal 100C may be configured as the viewing module 101C to display the game play videos to be distributed by streaming in the viewing window 701.
・視聴用コンテンツは、配信ユーザの音声を含んでもよい。配信端末100Bのプロセッサ110は、配信モジュール101Bとして、マイク160から受信する音声信号を音声データに変換し、その音声データをサーバ200へ送信する。サーバ200のプロセッサ210は、配信モジュール201Bとして、受信した音声データに応じて配信情報を生成する。視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、配信情報に応じた音声をスピーカ162から出力する。 - The viewing content may include the voice of the distribution user. The processor 110 of the distribution terminal 100B, as the distribution module 101B, converts the audio signal received from the microphone 160 into audio data and transmits the audio data to the server 200. The processor 210 of the server 200, as the distribution module 201B, generates distribution information according to the received audio data. The processor 110 of the viewing terminal 100C, as the viewing module 101C, outputs audio according to the distribution information from the speaker 162.
・視聴用コンテンツは、一般ユーザの音声を含んでもよい。一般端末100Aのプロセッサ110は、配信モジュール101Bとして、マイク160から受信する音声信号を音声データに変換し、その音声データをサーバ200へ送信する。サーバ200のプロセッサ210は、配信モジュール201Bとして、一般端末100Aから受信した音声データに応じて配信情報を生成する。 - The viewing content may include the voice of the general user. The processor 110 of the general terminal 100A, as the distribution module 101B, converts the voice signal received from the microphone 160 into voice data and transmits the voice data to the server 200. The processor 210 of the server 200, as the distribution module 201B, generates distribution information according to the voice data received from the general terminal 100A.
・視聴用コンテンツは、文字データを含んでもよい。配信端末100Bのプロセッサ110は、配信モジュール101Bとして、文字データの入力操作を受け付けると、当該入力操作によって指示された文字データをサーバ200へ送信する。サーバ200のプロセッサ210は、配信モジュール201Bとして、受信した文字データを視聴端末100Cへ送信する。視聴端末100Cのプロセッサ110は、視聴モジュール101Cとして、受信した文字データをモニタ166に表示する。 - The viewing content may include text data. When the processor 110 of the distribution terminal 100B, acting as the distribution module 101B, accepts an input operation for text data, it transmits the text data specified by the input operation to the server 200. The processor 210 of the server 200, acting as the distribution module 201B, transmits the received text data to the viewing terminal 100C. The processor 110 of the viewing terminal 100C, acting as the viewing module 101C, displays the received text data on the monitor 166.
・コントロールモジュール101,201が備える1以上のモジュールは、ASIC、PLD、FPGA、MCU等の回路により実現してもよい。
・コントロールモジュール101,201が備える1以上のモジュールは、プロセッサを用いるソフトウェアによって実現してもよい。コントロールモジュール101,201の少なくとも1つを備えるコンピュータは、プロセッサ、メモリ、及びストレージを備える。上記プログラム及び各種のデータは、プロセッサが読み取りできるように、ストレージに記録される。プログラムは、メモリに展開される。そして、プロセッサが上記プログラムをストレージから読み取り、実行することにより、本開示の作用が実現される。ストレージは、既に説明の通り、不揮発性の記憶装置として実現され得る。
One or more modules included in the control modules 101 and 201 may be realized by circuits such as an ASIC, a PLD, an FPGA, or an MCU.
One or more modules included in the control modules 101, 201 may be realized by software using a processor. A computer including at least one of the control modules 101, 201 includes a processor, a memory, and a storage. The above programs and various data are recorded in the storage so that they can be read by the processor. The programs are deployed in the memory. The processor then reads the programs from the storage and executes them to realize the effects of the present disclosure. As already explained, the storage may be realized as a non-volatile storage device.
・プログラムは、このプログラムを伝送可能な任意の伝送媒体(通信ネットワーク、又は放送波等)を介して上記コンピュータに供給されてもよい。
・プログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に記録してもよい。
The program may be supplied to the computer via any transmission medium capable of transmitting the program (such as a communication network or broadcast waves).
The program may be recorded on a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, MO, etc.), or a semiconductor memory (ROM, RAM, flash memory, etc.).
本開示は以下の実施例を包含する。限定のためでなく理解の補助として実施形態の構成要素の参照符号を付した。
(付記1)コンピュータ(200)に、仮想空間(80,80A,80B)を定義すること(S210)と、前記仮想空間に1以上のオブジェクトを配置すること(S212,S325)と、前記仮想空間を使用するゲームを、第1ユーザが第1端末(100B)を使用してプレイできるようにすること(S222)と、前記第1ユーザのゲームプレイに応じた配信情報を、第2ユーザが使用する第2端末(100C)へ送信することによって、当該第2端末を使用して前記ゲームプレイに応じた動画を視聴できるようにすること(S128)と、前記第2端末が第2操作を受け付けた場合に、当該第2端末が送信する第2操作情報を受信すること(S306)と、前記第2端末から受信した前記第2操作情報に基づいて、前記仮想空間に配置された第1オブジェクト(88)への影響を特定すること(S308)と、前記第1オブジェクトへの影響を示す情報(87A)を、前記第1端末に表示させず、かつ前記第2端末に表示させること(S324)と、を実行させるプログラム。
This disclosure includes the following examples, in which elements of the embodiments are numbered as an aid to understanding and not by way of limitation.
(Supplementary Note 1) A program that causes a computer (200) to execute the following operations: define a virtual space (80, 80A, 80B) (S210); place one or more objects in the virtual space (S212, S325); enable a first user to play a game that uses the virtual space using a first terminal (100B) (S222); transmit distribution information corresponding to the game play of the first user to a second terminal (100C) used by a second user, thereby enabling a video corresponding to the game play to be viewed using the second terminal (S128); receive second operation information transmitted by the second terminal when the second terminal accepts a second operation (S306); identify an effect on a first object (88) placed in the virtual space based on the second operation information received from the second terminal (S308); and cause information (87A) indicating the effect on the first object to be displayed on the second terminal without being displayed on the first terminal (S324).
(付記2)前記第2操作情報は、前記仮想空間(80,80A,80B)における第2オブジェクト(87)の移動を示し、前記第1オブジェクト(88)への影響は、前記仮想空間において、前記第2オブジェクトが前記第1オブジェクトに命中すると生じる付記1に記載のプログラム。 (Appendix 2) The program described in Appendix 1, in which the second operation information indicates a movement of a second object (87) in the virtual space (80, 80A, 80B), and an effect on the first object (88) occurs when the second object hits the first object in the virtual space.
(付記3)前記第1オブジェクト(88)への影響を示す情報(87A)は、前記第2オブジェクト(87)が前記第1オブジェクトに命中したことを示す情報である付記2に記載のプログラム。 (Appendix 3) The program described in Appendix 2, in which the information (87A) indicating the effect on the first object (88) is information indicating that the second object (87) has hit the first object.
(付記4)前記動画を視聴できるようにすることは、複数の前記第2端末(100C)が存在する場合に、複数の前記第2端末のそれぞれにおいて前記動画を視聴できるようにすることであり、前記第1オブジェクト(88)への影響を示す情報(87A)は、複数の前記第2端末において表示される付記1~付記3のうち何れか一項に記載のプログラム。 (Appendix 4) Making the video viewable means, when there are multiple second terminals (100C), making the video viewable on each of the multiple second terminals, and the information (87A) indicating the effect on the first object (88) is displayed on the multiple second terminals, the program described in any one of Appendices 1 to 3.
(付記5)前記1以上のオブジェクトを配置すること(S212,S325)は、前記第1オブジェクトへの影響が特定された場合に、第3オブジェクトを前記仮想空間に配置することを含む付記1~付記4のうち何れか一項に記載のプログラム。 (Appendix 5) The program described in any one of appendices 1 to 4, wherein placing the one or more objects (S212, S325) includes placing a third object in the virtual space if an effect on the first object is identified.
(付記6)前記1以上のオブジェクトを配置すること(S212,S325)は、前記第1ユーザに対応するキャラクタ(81)を配置することを含み、前記第3オブジェクトは、前記第1ユーザに対応するキャラクタに対して効果を発揮することができる付記5に記載のプログラム。 (Appendix 6) The program described in Appendix 5, in which placing the one or more objects (S212, S325) includes placing a character (81) corresponding to the first user, and the third object can exert an effect on the character corresponding to the first user.
(付記7)前記ゲームは、第1パートと、第2パートと、を含み、前記第3オブジェクトは、前記第2パートにおいて、前記仮想空間(80,80A,80B)に配置されることができる付記5又は付記6に記載のプログラム。 (Appendix 7) The program described in appendix 5 or 6, in which the game includes a first part and a second part, and the third object can be placed in the virtual space (80, 80A, 80B) in the second part.
(付記8)前記第1端末(100B)が第1操作を受け付けた場合に、当該第1端末が送信する第1操作情報を受信すること(S222)、をさらに実行させ、前記第1オブジェクト(88)への影響を特定することは、前記第2端末(100C)から受信した前記第2操作情報に基づいて実行され、かつ前記第1端末から受信した前記第1操作情報に基づいて実行されない付記1~付記7のうち何れか一項に記載のプログラム。 (Appendix 8) The program described in any one of appendices 1 to 7, further comprising: receiving (S222) first operation information transmitted by the first terminal when the first terminal (100B) accepts a first operation; and identifying the effect on the first object (88) based on the second operation information received from the second terminal (100C), and not based on the first operation information received from the first terminal.
(付記9)付記1~付記8のうち何れか一項に記載のプログラムを記憶した記憶装置(220)と、前記記憶装置が記憶したプログラムを実行するプロセッサ(210)と、を備えるコンピュータ(200)。 (Appendix 9) A computer (200) comprising a storage device (220) that stores a program described in any one of appendices 1 to 8, and a processor (210) that executes the program stored in the storage device.
(付記10)請求項9に記載のコンピュータ(200)を備えるシステム(10)。
(付記11)コンピュータ(200)が、仮想空間(80,80A,80B)を定義すること(S210)と、前記仮想空間に1以上のオブジェクトを配置すること(S212,S325)と、前記仮想空間を使用するゲームを、第1ユーザが第1端末(100B)を使用してプレイできるようにすること(S222)と、前記第1ユーザのゲームプレイに応じた配信情報を、第2ユーザが使用する第2端末(100C)へ送信することによって、当該第2端末を使用して前記ゲームプレイに応じた動画を視聴できるようにすること(S128)と、前記第2端末が第2操作を受け付けた場合に、当該第2端末が送信する第2操作情報を受信すること(S306)と、前記第2端末から受信した前記第2操作情報に基づいて、前記仮想空間に配置された第1オブジェクト(88)への影響を特定すること(S308)と、前記第1オブジェクトへの影響を示す情報(87A)を、前記第1端末に表示させず、かつ前記第2端末に表示させることと、を実行する方法。
(Supplementary Note 10) A system (10) comprising the computer (200) according to claim 9.
(Supplementary Note 11) A method in which a computer (200) defines a virtual space (80, 80A, 80B) (S210); places one or more objects in the virtual space (S212, S325); enables a first user to play a game using the virtual space using a first terminal (100B) (S222); transmits distribution information corresponding to the game play of the first user to a second terminal (100C) used by a second user, thereby enabling a video corresponding to the game play to be viewed using the second terminal (S128); receives second operation information transmitted by the second terminal when the second terminal accepts a second operation (S306); identifies an effect on a first object (88) placed in the virtual space based on the second operation information received from the second terminal (S308); and causes information (87A) indicating the effect on the first object to be displayed on the second terminal without being displayed on the first terminal.
本発明がその技術的思想から逸脱しない範囲で他の特有の形態で具体化されてもよいということは当業者にとって明らかであろう。例えば、実施形態(あるいはその1つ又は複数の態様)において説明した部品のうちの一部を省略してもよいし、いくつかの部品を組合せてもよい。本発明の範囲は、添付の請求の範囲を参照して、請求の範囲が権利を与えられる均等物の全範囲と共に確定されるべきである。 It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit and scope of the present invention. For example, some of the components described in the embodiment (or one or more aspects thereof) may be omitted, or several components may be combined. The scope of the present invention should be determined with reference to the appended claims, along with the full scope of equivalents to which such claims are entitled.
Dh…水平方向、Ds…視線方向、Dv…上下方向、10…ゲームシステム、40A…第1ホーム画面、40B…第2ホーム画面、45…マッチング画面、50A…第1バトル画面、50B…第2バトル画面、55…第1リザルト画面、60…第2リザルト画面、61…HPバー、62…HPバー、65…リスト画面、70…視聴画面、80…仮想空間、80A…ゲーム空間、80B…視聴空間、81…アバター、81D…墓標オブジェクト、82…フィールドオブジェクト、82A…フィールド、85…仮想カメラ、85A…仮想球面、85C…中心、85D…撮影範囲、85d…交線、85P…撮影点、86…移動線、86A…始点、86B…終点、87…特定オブジェクト、87A…エフェクトオブジェクト、88…標的オブジェクト、88A…リンゴ、88B…特殊オブジェクト、88C…出現情報、89…照準オブジェクト、89A…照準フレーム、89B…照準マーク、89C…耐久値ゲージ、90…ネットワーク、100…端末、100A…一般端末、100B…配信端末、100C…視聴端末、101…コントロールモジュール、101A…ゲームモジュール、101B…配信モジュール、101C…視聴モジュール、104…レンダリングモジュール、105…メモリモジュール、106…通信モジュール、107…入出力モジュール、110…プロセッサ、120…メモリ、130…ストレージ、140…通信インターフェース、150…入出力インターフェース、160…マイク、162…スピーカ、164…タッチスクリーン、166…モニタ、167…タッチセンサ、180…通信バス、190…入出力機器、200…サーバ、200A…ゲームサーバ、200B…配信サーバ、201…コントロールモジュール、201A…ゲームモジュール、201B…配信モジュール、205…メモリモジュール、206…通信モジュール、207…入出力モジュール、210…プロセッサ、220…メモリ、230…ストレージ、240…通信インターフェース、250…入出力インターフェース、280…通信バス、401…アバターウィンドウ、404…バトルアイコン、406…キャラクタアイコン、407…配信開始アイコン、451…アバターウィンドウ、605…獲得ポイントパネル、701…視聴ウィンドウ、703…メンバーアイコン、704…チャットウィンドウ、705…ボタン、706…獲得数アイコン、709…星、811A…アバター、812A…アバター。 Dh...horizontal direction, Ds...line of sight direction, Dv...vertical direction, 10...game system, 40A...first home screen, 40B...second home screen, 45...matching screen, 50A...first battle screen, 50B...second battle screen, 55...first result screen, 60...second result screen, 61...HP bar, 62...HP bar, 65...list screen, 70...viewing screen, 80...virtual space, 80A...game space, 80B...viewing space, 81...avatar, 81D...gravestone object, 82...field object, 82A...field, 85...virtual camera, 85A...virtual sphere, 85C...center, 85D...shooting range, 8 5d...intersection line, 85P...shooting point, 86...movement line, 86A...starting point, 86B...ending point, 87...specific object, 87A...effect object, 88...target object, 88A...apple, 88B...special object, 88C...appearance information, 89...aiming object, 89A...aiming frame, 89B...aiming mark, 89C...durability gauge, 90...network, 100...terminal, 100A...general terminal, 100B...distribution terminal, 100C...viewing terminal, 101...control module, 101A...game module, 101B...distribution module, 101C...viewing module, 104...rendering 1. A processing module, 105... memory module, 106... communication module, 107... input/output module, 110... processor, 120... memory, 130... storage, 140... communication interface, 150... input/output interface, 160... microphone, 162... speaker, 164... touch screen, 166... monitor, 167... touch sensor, 180... communication bus, 190... input/output device, 200... server, 200A... game server, 200B... distribution server, 201... control module, 201A... game module, 201B... distribution module, 205... memory module, 206...communication module, 207...input/output module, 210...processor, 220...memory, 230...storage, 240...communication interface, 250...input/output interface, 280...communication bus, 401...avatar window, 404...battle icon, 406...character icon, 407...distribution start icon, 451...avatar window, 605...acquired points panel, 701...viewing window, 703...member icon, 704...chat window, 705...button, 706...acquired number icon, 709...star, 811A...avatar, 812A...avatar.
Claims (7)
仮想空間に1以上のオブジェクトが配置されるゲームを、第1ユーザが第1端末を使用してプレイできるように実行する実行手段と、
前記第1ユーザのプレイに係る配信情報を、第2ユーザが使用する第2端末へ送信する送信手段と、
前記第2端末が送信する第2操作情報を受信する受信手段と、
前記第2操作情報に基づいて、前記仮想空間に配置された第1所定オブジェクトへの影響を示す情報を、前記第1端末に表示させず、かつ前記第2端末に表示させる表示制御手段と、として機能させ、
前記仮想空間に配置されるオブジェクトには、前記第1ユーザに対応するキャラクタと、第2所定オブジェクトとがあり、
前記第2所定オブジェクトは、前記第1所定オブジェクトへの影響に基づいて前記仮想空間に配置されるオブジェクトであって、前記キャラクタに対して効果を発揮するオブジェクトであるプログラム。 Computer,
An execution means for executing a game in which one or more objects are placed in a virtual space so that a first user can play the game using a first terminal;
A transmitting means for transmitting distribution information related to a play of the first user to a second terminal used by a second user;
A receiving means for receiving second operation information transmitted by the second terminal;
a display control means for not displaying information indicating an effect on a first predetermined object arranged in the virtual space on the first terminal and for displaying the information on the second terminal based on the second operation information ;
The objects to be placed in the virtual space include a character corresponding to the first user and a second predetermined object;
The second predetermined object is an object that is placed in the virtual space based on an influence on the first predetermined object, and that exerts an effect on the character .
前記第1所定オブジェクトへの影響は、前記仮想空間において、前記第3所定オブジェクトが前記第1所定オブジェクトに命中すると生じる請求項1に記載のプログラム。 the second operation information indicates a movement of a third predetermined object in the virtual space;
2 . The program according to claim 1 , wherein the effect on the first predetermined object occurs when the third predetermined object hits the first predetermined object in the virtual space.
前記第1所定オブジェクトへの影響を示す情報は、複数の前記第2端末において表示される請求項1~請求項3のうち何れか一項に記載のプログラム。 When a plurality of the second terminals are present, the distribution information is transmitted to each of the plurality of the second terminals;
4. The program according to claim 1, wherein the information indicating the effect on the first predetermined object is displayed on a plurality of the second terminals.
前記第2所定オブジェクトは、前記第2パートにおいて、前記仮想空間に配置される請求項1に記載のプログラム。 the game includes a first part and a second part;
The program according to claim 1 , wherein the second predetermined object is placed in the virtual space in the second part.
前記第1ユーザのプレイに係る配信情報を、第2ユーザが使用する第2端末へ送信する送信手段と、
前記第2端末が送信する第2操作情報を受信する受信手段と、
前記第2操作情報に基づいて、前記仮想空間に配置された第1所定オブジェクトへの影響を示す情報を、前記第1端末に表示させず、かつ前記第2端末に表示させる表示制御手段と、を備え、
前記仮想空間に配置されるオブジェクトには、前記第1ユーザに対応するキャラクタと、第2所定オブジェクトとがあり、
前記第2所定オブジェクトは、前記第1所定オブジェクトへの影響に基づいて前記仮想空間に配置されるオブジェクトであって、前記キャラクタに対して効果を発揮するオブジェクトである情報処理システム。 An execution means for executing a game in which one or more objects are placed in a virtual space so that a first user can play the game using a first terminal;
A transmitting means for transmitting distribution information related to a play of the first user to a second terminal used by a second user;
A receiving means for receiving second operation information transmitted by the second terminal;
a display control means for not displaying information indicating an effect on a first predetermined object arranged in the virtual space on the first terminal and for displaying the information on the second terminal based on the second operation information ,
The objects to be placed in the virtual space include a character corresponding to the first user and a second predetermined object;
An information processing system in which the second specified object is an object that is placed in the virtual space based on an influence on the first specified object and that exerts an effect on the character .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021122912A JP7463322B2 (en) | 2021-07-28 | 2021-07-28 | Programs, information processing systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021122912A JP7463322B2 (en) | 2021-07-28 | 2021-07-28 | Programs, information processing systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023018712A JP2023018712A (en) | 2023-02-09 |
JP7463322B2 true JP7463322B2 (en) | 2024-04-08 |
Family
ID=85160457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021122912A Active JP7463322B2 (en) | 2021-07-28 | 2021-07-28 | Programs, information processing systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7463322B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011143172A (en) | 2010-01-18 | 2011-07-28 | Konami Digital Entertainment Co Ltd | Game device, game processing method and program |
JP2015077299A (en) | 2013-10-17 | 2015-04-23 | 株式会社ソニー・コンピュータエンタテインメント | Game system, game control method, and game control program |
JP2020044136A (en) | 2018-09-19 | 2020-03-26 | 株式会社コロプラ | Viewing program, distribution program, method for executing viewing program, method for executing distribution program, information processing device, and information processing system |
JP2020167526A (en) | 2019-03-29 | 2020-10-08 | 株式会社バンダイナムコエンターテインメント | Server system and moving image distribution system |
-
2021
- 2021-07-28 JP JP2021122912A patent/JP7463322B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011143172A (en) | 2010-01-18 | 2011-07-28 | Konami Digital Entertainment Co Ltd | Game device, game processing method and program |
JP2015077299A (en) | 2013-10-17 | 2015-04-23 | 株式会社ソニー・コンピュータエンタテインメント | Game system, game control method, and game control program |
JP2020044136A (en) | 2018-09-19 | 2020-03-26 | 株式会社コロプラ | Viewing program, distribution program, method for executing viewing program, method for executing distribution program, information processing device, and information processing system |
JP2020167526A (en) | 2019-03-29 | 2020-10-08 | 株式会社バンダイナムコエンターテインメント | Server system and moving image distribution system |
Also Published As
Publication number | Publication date |
---|---|
JP2023018712A (en) | 2023-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2478944B1 (en) | Apparatus and method for displaying player character showing special movement state in network game | |
JP6494176B2 (en) | Program, game device, and server system | |
JP7511708B2 (en) | Computer system, game system, game execution control method and program | |
JP7463322B2 (en) | Programs, information processing systems | |
JP7500510B2 (en) | Programs, information processing systems | |
WO2023058482A1 (en) | Program, computer, system, and method | |
WO2023054247A1 (en) | Program, computer, system, and method | |
JP7487142B2 (en) | Programs, information processing systems | |
WO2023032267A1 (en) | Program, computer, system, and method | |
JP7513516B2 (en) | Programs, game systems | |
JP7434381B2 (en) | program, system | |
JP7494102B2 (en) | Programs, information processing systems | |
WO2022254846A1 (en) | Program, computer, system, and method | |
JP2020058512A (en) | Game program, method, and information processing device | |
WO2024071030A1 (en) | Program and game system | |
JP6908866B1 (en) | Information processing equipment, information processing methods and programs | |
JP7266982B2 (en) | program | |
JP2024036918A (en) | Program and game system | |
JP2024146201A (en) | Programs, information processing systems | |
JP2024141476A (en) | Programs, information processing systems | |
JP2024134643A (en) | Program and information processing system | |
JP2023073472A (en) | Computer system, game system, and program | |
JP2020075117A (en) | Game program, method, and information processing device | |
JP2011206483A (en) | Program, information storage medium, game device, and game server device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7463322 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |