JP2023085458A - program and system - Google Patents

program and system Download PDF

Info

Publication number
JP2023085458A
JP2023085458A JP2023061336A JP2023061336A JP2023085458A JP 2023085458 A JP2023085458 A JP 2023085458A JP 2023061336 A JP2023061336 A JP 2023061336A JP 2023061336 A JP2023061336 A JP 2023061336A JP 2023085458 A JP2023085458 A JP 2023085458A
Authority
JP
Japan
Prior art keywords
user
game
character
user terminal
action instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023061336A
Other languages
Japanese (ja)
Inventor
潤哉 福重
Junya Fukushige
哲 木村
Satoshi Kimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2023061336A priority Critical patent/JP2023085458A/en
Publication of JP2023085458A publication Critical patent/JP2023085458A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a game program capable of improving amusement of a game by enhancing a sense of unity among users playing the same game.SOLUTION: A game program is a game program which allows a processor to execute: a step S302 for proceeding a first part by allowing a character to act on user terminals 100 on the basis of action instruction data transmitted to a plurality of user terminals 100 from an action instruction device 300; a step S307 for selecting any of digital contents according to an operation of a user and giving it to the user while the first part is proceeding; a step S309 for acquiring first information based on the selection result of the step S307 for giving executed in at least one of the plurality of user terminals 100; and a step S310 for displaying the first information on a display unit while the first part is proceeding.SELECTED DRAWING: Figure 12

Description

本開示はプログラム、およびシステムに関する。 The present disclosure relates to programs and systems.

従来、ユーザが選択した選択肢に応じて結末が異なるように物語が進行するゲームが広く知られている。例えば、非特許文献1には、女の子のキャラクタと仮想的に親睦を深めることを主たる目的とする恋愛シミュレーションゲームが開示されている。ユーザは、提示された選択肢の中からキャラクタに対する働きかけとして最適と思うものを選択し、その働きかけに対して該キャラクタが反応することを繰り返すことで物語が進行する。 2. Description of the Related Art Conventionally, games are widely known in which a story progresses with different endings depending on options selected by a user. For example, Non-Patent Document 1 discloses a love simulation game whose main purpose is to deepen virtual friendships with girl characters. The user selects what he thinks is the most appropriate action for the character from among the presented options, and the story progresses by repeating the character's reaction to the action.

“電撃オンライン - ゲーム・アプリ・漫画・アニメ情報サイト”、[online]、KADOKAWA CORPORATION、[2018年5月8日検索]、インターネット(URL:http://dengekionline.com/elem/000/000/279/279193/index-2.html)"Dengeki Online - Game/App/Manga/Anime Information Site", [online], KADOKAWA CORPORATION, [Searched May 8, 2018], Internet (URL: http://dengekionline.com/elem/000/000/ 279/279193/index-2.html)

非特許文献1に開示されるようなゲームにおいて、同じゲームをプレイするユーザ間の一体感を高めることにより、ゲームの興趣性を高める余地がある。 In a game such as that disclosed in Non-Patent Document 1, there is room for enhancing the interest of the game by enhancing the sense of unity between users playing the same game.

本開示の一態様は、同じゲームをプレイするユーザ間の一体感を高めてゲームの興趣性を向上させることを目的とする。 An object of one aspect of the present disclosure is to enhance the sense of unity between users playing the same game and improve the interest of the game.

本開示に係るプログラムは、コンピュータを、少なくとも1つのキャラクタを制御するキャラクタ制御装置から、複数のユーザ端末に対して送信された、キャラクタの動作を指定する動作指図データに基づいて、キャラクタをユーザ端末で動作させることにより、プログラムに基づくゲームに含まれる第1パートを進行する進行手段と、第1パートの進行中のうちの所定期間における第1パートのユーザの操作に応じて、ゲームにおいて利用可能なデジタルコンテンツの何れかを選択し、選択したデジタルコンテンツを、ユーザに関連付けて記憶する記憶手段と、複数のユーザ端末のうち少なくとも1つにおいて実行された記憶手段の選択結果に基づく第1情報を取得する取得手段と、して機能させ、記憶手段は、所定期間外にゲームにおいて利用可能なデジタルコンテンツの何れかを選択する処理が実行される場合に比べて、ユーザにとって有利となる選択処理を実行する。 A program according to the present disclosure causes a computer to control a character on a user terminal based on action instruction data specifying the action of the character, which is transmitted from a character control device that controls at least one character to a plurality of user terminals. progressing means for progressing the first part included in the game based on the program, and the first part can be used in the game according to the user's operation of the first part during a predetermined period of time during the progress of the first part storage means for selecting any one of the digital contents, and storing the selected digital contents in association with the user; The storage means functions as an acquisition means for acquiring, and the storage means performs a selection process that is advantageous to the user compared to the case where the process of selecting any of the digital contents available in the game is executed outside the predetermined period. Execute.

本開示に係るシステムは、少なくとも1つのキャラクタの動作を指定する動作指図データを送信するキャラクタ制御装置と、キャラクタ制御装置から送信された動作指図データに基づいてキャラクタを動作させるユーザ端末とを含むシステムであって、ユーザ端末は、キャラクタ制御装置からの動作指図データに基づいて、キャラクタを動作させることにより、ゲームに含まれる第1パートを進行する進行手段と、第1パートの進行中のうちのc第1パートのユーザの操作に応じて、ゲームにおいて利用可能なデジタルコンテンツの何れかを選択し、選択したデジタルコンテンツを、ユーザに関連付けて記憶する記憶手段と、複数のユーザ端末のうち少なくとも1つにおいて実行された記憶手段の選択結果に基づく第1情報を取得する取得手段とを備え、記憶手段は、所定期間外にゲームにおいて利用可能なデジタルコンテンツの何れかを選択する処理が実行される場合に比べて、ユーザにとって有利となる選択処理を実行する。 A system according to the present disclosure includes a character control device that transmits action instruction data specifying an action of at least one character, and a user terminal that causes the character to act based on the action instruction data transmitted from the character control device. The user terminal includes progress means for progressing the first part included in the game by causing the character to act based on action instruction data from the character control device, and progress means for progressing the first part. c Storage means for selecting any digital content available in the game according to the user's operation in the first part, and storing the selected digital content in association with the user; and at least one of a plurality of user terminals acquisition means for acquiring the first information based on the selection result of the storage means executed in the first step, and the storage means is subjected to a process of selecting any of the digital contents available in the game outside the predetermined period. A selection process that is more advantageous to the user than the case is executed.

本開示の一態様によれば、同じゲームをプレイするユーザ間の一体感を高めてゲームの興趣性を向上させる効果を奏する。 Advantageous Effects of Invention According to one aspect of the present disclosure, there is an effect of enhancing the sense of unity between users playing the same game and improving the interest of the game.

また、所定期間において記憶手段を実行させることに対するユーザの動機付けをさらに向上させることができる。 In addition, it is possible to further improve the user's motivation to execute the storage means for the predetermined period.

ゲームシステムのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a game system. ユーザ端末、サーバおよび動作指図装置の機能的構成を示すブロック図である。3 is a block diagram showing functional configurations of a user terminal, a server, and a motion instruction device; FIG. 本実施形態に係るゲームプログラムに基づいて実行されるゲームの基本的なゲーム進行についてその一例を示すフローチャートである。4 is a flowchart showing an example of basic game progress of a game executed based on the game program according to the embodiment; 動作指図データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of action instruction data. ゲーム情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of game information. ユーザ端末の表示部に表示されるクエスト提示画面の一例を示す図である。It is a figure which shows an example of the quest presentation screen displayed on the display part of a user terminal. ユーザ端末の表示部に表示されるクエスト解決画面の一例を示す図である。It is a figure which shows an example of the quest solution screen displayed on the display part of a user terminal. ユーザ端末の表示部に表示される報酬画面の一例を示す図である。It is a figure which shows an example of the reward screen displayed on the display part of a user terminal. ユーザ端末の表示部に表示される動画再生画面の一例及び動作指図装置の設置場所の構成例を示す図である。FIG. 3 is a diagram showing an example of a video playback screen displayed on a display unit of a user terminal and a configuration example of an installation location of a motion instruction device; ゲームシステムにおいて実行される処理の流れを示すフローチャートである。4 is a flow chart showing the flow of processing executed in the game system; ユーザ端末によって実行される、動作指図データを解析する処理の流れを示すフローチャートである。4 is a flow chart showing a flow of processing for analyzing action instruction data, which is executed by a user terminal; 実施形態3に係るゲームシステムにおいて実行される処理の流れを示すフローチャートである。10 is a flow chart showing the flow of processing executed in the game system according to Embodiment 3. FIG. 実施形態3においてユーザ端末の表示部に表示される動画再生画面の一例及び動作指図装置の設置場所の構成例を示す図である。FIG. 14 is a diagram showing an example of a video playback screen displayed on a display unit of a user terminal and an example of a configuration of an installation location of a motion instruction device in Embodiment 3; (A)及び(B)は、実施形態3においてユーザ端末の表示部に表示される抽選パート画面の一例を示す図である。(A) and (B) are diagrams showing an example of a lottery part screen displayed on the display unit of the user terminal in the third embodiment. 実施形態3においてユーザ端末の表示部に表示される動画再生画面の一例及び動作指図装置の設置場所の構成例を示す図である。FIG. 14 is a diagram showing an example of a video playback screen displayed on a display unit of a user terminal and an example of a configuration of an installation location of a motion instruction device in Embodiment 3; (A)及び(B)は、実施形態3において動作指図装置の表示部に表示される「みんなの抽選結果」の一例を示す図である。(A) and (B) are diagrams showing an example of "lottery results for everyone" displayed on the display unit of the action instruction device in the third embodiment. (A)及び(B)は、実施形態3においてユーザ端末の表示部に表示される「みんなの抽選結果」の提示画面の一例を示す図である。(A) and (B) are diagrams showing an example of a presentation screen of "everyone's lottery results" displayed on the display unit of the user terminal in the third embodiment. 実施形態3の変形例1に係るゲームシステムにおいて実行される処理の流れを示すフローチャートである。14 is a flow chart showing the flow of processing executed in a game system according to Modification 1 of Embodiment 3. FIG. 実施形態3の変形例1においてユーザ端末の表示部に表示される動画再生画面の一例及び動作指図装置の設置場所の構成例を示す図である。FIG. 12 is a diagram showing an example of a video playback screen displayed on a display unit of a user terminal and a configuration example of an installation location of a motion instruction device in Modification 1 of Embodiment 3; 実施形態3の変形例2に係るゲームシステムにおいて実行される処理の流れを示すフローチャートである。14 is a flow chart showing the flow of processing executed in a game system according to Modification 2 of Embodiment 3. FIG. 実施形態3の変形例2においてユーザ端末の表示部に表示される動画再生画面の一例及び動作指図装置の設置場所の構成例を示す図である。FIG. 14 is a diagram showing an example of a video playback screen displayed on a display unit of a user terminal and an example of a configuration of an installation location of a motion instruction device in Modification 2 of Embodiment 3; (A)及び(B)は、実施形態3の変形例2においてユーザ端末の表示部に表示されるみんなでプレイ対象の一例を示す図である。(A) and (B) are diagrams showing an example of a group play target displayed on the display unit of the user terminal in Modification 2 of Embodiment 3. FIG. 実施形態3の変形例2においてユーザ端末の表示部に表示されるストーリーパート開始画面の一例を示す図である。FIG. 16 is a diagram showing an example of a story part start screen displayed on the display unit of the user terminal in Modification 2 of Embodiment 3;

〔実施形態1〕
本開示に係るゲームシステムは、複数のユーザにゲームを提供するためのシステムである。以下、ゲームシステムについて図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
[Embodiment 1]
A game system according to the present disclosure is a system for providing a game to a plurality of users. The game system will be described below with reference to the drawings. The present invention is not limited to these examples, but is indicated by the scope of the claims, and is intended to include all modifications within the meaning and scope of equivalents to the scope of the claims. be. In the following description, the same reference numerals are given to the same elements in the description of the drawings, and redundant description will not be repeated.

<ゲームシステム1のハードウェア構成>
図1は、ゲームシステム1のハードウェア構成を示す図である。ゲームシステム1は図示の通り、複数のユーザ端末100と、サーバ200とを含む。各ユーザ端末100は、サーバ200とネットワーク2を介して接続する。ネットワーク2は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
<Hardware Configuration of Game System 1>
FIG. 1 is a diagram showing the hardware configuration of the game system 1. As shown in FIG. The game system 1 includes a plurality of user terminals 100 and a server 200 as shown. Each user terminal 100 is connected to the server 200 via the network 2 . The network 2 includes the Internet and various mobile communication systems constructed by wireless base stations (not shown). Examples of mobile communication systems include so-called 3G, 4G mobile communication systems, LTE (Long Term Evolution), and wireless networks (eg, Wi-Fi (registered trademark)) that can be connected to the Internet through a predetermined access point. be done.

サーバ200(コンピュータ、情報処理装置)は、ワークステーションまたはパーソナルコンピュータ等の汎用コンピュータであってよい。サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。 The server 200 (computer, information processing device) may be a workstation or a general-purpose computer such as a personal computer. The server 200 includes a processor 20, a memory 21, a storage 22, a communication IF 23, and an input/output IF 24. These components provided in the server 200 are electrically connected to each other by a communication bus.

ユーザ端末100(コンピュータ、情報処理装置)は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。ユーザ端末100は、ゲームプレイに適したゲーム装置であってもよい。ユーザ端末100は図示の通り、プロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15(表示部)と、カメラ17と、測距センサ18とを備える。ユーザ端末100が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、ユーザ端末100は、タッチスクリーン15に代えて、または、加えて、ユーザ端末100本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。 The user terminal 100 (computer, information processing device) may be a mobile terminal such as a smart phone, a feature phone, a PDA (Personal Digital Assistant), or a tablet computer. The user terminal 100 may be a game device suitable for playing games. As illustrated, the user terminal 100 includes a processor 10, a memory 11, a storage 12, a communication interface (IF) 13, an input/output IF 14, a touch screen 15 (display unit), a camera 17, and a range sensor 18. and These components provided in the user terminal 100 are electrically connected to each other by a communication bus. Note that the user terminal 100 may include an input/output IF 14 to which a display (display unit) configured separately from the user terminal 100 main body can be connected instead of or in addition to the touch screen 15 .

また、図1に示すように、ユーザ端末100は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、ユーザ端末100と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの入力操作に基づく出力値をユーザ端末100へ送信する。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値をユーザ端末100へ送信する。 Also, as shown in FIG. 1, user terminal 100 may be configured to communicate with one or more controllers 1020 . The controller 1020 establishes communication with the user terminal 100 according to communication standards such as Bluetooth (registered trademark), for example. The controller 1020 may have one or more buttons or the like, and transmits to the user terminal 100 an output value based on the user's input operation on the buttons or the like. Also, the controller 1020 may have various sensors such as an acceleration sensor and an angular velocity sensor, and transmits output values of the various sensors to the user terminal 100 .

なお、ユーザ端末100がカメラ17および測距センサ18を備えることに代えて、または、加えて、コントローラ1020がカメラ17および測距センサ18を有していてもよい。 Note that the controller 1020 may have the camera 17 and the ranging sensor 18 instead of or in addition to the user terminal 100 having the camera 17 and the ranging sensor 18 .

ユーザ端末100は、例えばゲーム開始時に、コントローラ1020を使用するユーザに、該ユーザの名前またはログインID等のユーザ識別情報を、該コントローラ1020を介して入力させることが望ましい。これにより、ユーザ端末100は、コントローラ1020とユーザとを紐付けることが可能となり、受信した出力値の送信元(コントローラ1020)に基づいて、該出力値がどのユーザのものであるかを特定することができる。 The user terminal 100 preferably allows the user using the controller 1020 to input user identification information such as the user's name or login ID via the controller 1020, for example, at the start of the game. As a result, the user terminal 100 can associate the controller 1020 with the user, and identifies which user the output value belongs to based on the transmission source (controller 1020) of the received output value. be able to.

ユーザ端末100が複数のコントローラ1020と通信する場合、各コントローラ1020を各ユーザが把持することで、ネットワーク2を介してサーバ200などの他の装置と通信せずに、該1台のユーザ端末100でマルチプレイを実現することができる。また、各ユーザ端末100が無線LAN(Local Area Network)規格等の無線規格により互いに通信接続する(サーバ200を介さずに通信接続する)ことで、複数台のユーザ端末100によりローカルでマルチプレイを実現することもできる。1台のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、ユーザ端末100は、さらに、サーバ200が備える後述する種々の機能の少なくとも一部を備えていてもよい。また、複数のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、複数のユーザ端末100は、サーバ200が備える後述する種々の機能を分散して備えていてもよい。 When the user terminal 100 communicates with a plurality of controllers 1020 , each user can hold each controller 1020 to communicate with the one user terminal 100 without communicating with other devices such as the server 200 via the network 2 . You can play multiplayer with. In addition, by connecting each user terminal 100 to each other for communication according to a wireless standard such as a wireless LAN (Local Area Network) standard (connecting for communication without going through the server 200), a plurality of user terminals 100 can realize local multiplay. You can also When the above-described multiplay is locally realized by one user terminal 100, the user terminal 100 may further include at least a part of various functions of the server 200, which will be described later. Also, in the case where multiple user terminals 100 locally implement the above-described multiplay, the multiple user terminals 100 may be provided with various functions of the server 200, which will be described later, in a distributed manner.

なお、ローカルで上述のマルチプレイを実現する場合であっても、ユーザ端末100はサーバ200と通信を行ってもよい。例えば、あるゲームにおける成績または勝敗等のプレイ結果を示す情報と、ユーザ識別情報とを対応付けてサーバ200に送信してもよい。 Note that the user terminal 100 may communicate with the server 200 even when the multiplay described above is implemented locally. For example, information indicating a play result such as score or win/loss in a certain game may be associated with user identification information and transmitted to the server 200 .

また、コントローラ1020は、ユーザ端末100に着脱可能な構成であるとしてもよい。この場合、ユーザ端末100の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線によりユーザ端末100とコントローラ1020とが結合している場合は、ユーザ端末100とコントローラ1020とは、有線を介して信号を送受信する。 Also, the controller 1020 may be detachable from the user terminal 100 . In this case, at least one surface of the housing of the user terminal 100 may be provided with a coupling portion for the controller 1020 . When the user terminal 100 and the controller 1020 are connected by wire through the connecting unit, the user terminal 100 and the controller 1020 transmit and receive signals via the wire.

図1に示すように、ユーザ端末100は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF14を介して受け付けてもよい。これにより、ユーザ端末100は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えばゲームプログラムである。 As shown in FIG. 1 , the user terminal 100 may accept the attachment of an external storage medium 1030 such as a memory card via the input/output IF 14 . This allows the user terminal 100 to read programs and data recorded on the storage medium 1030 . A program recorded in the storage medium 1030 is, for example, a game program.

ユーザ端末100は、サーバ200等の外部の装置と通信することにより取得したゲームプログラムをユーザ端末100のメモリ11に記憶してもよいし、記憶媒体1030から読み込むことにより取得したゲームプログラムをメモリ11に記憶してもよい。 User terminal 100 may store a game program acquired by communicating with an external device such as server 200 in memory 11 of user terminal 100, or may store a game program acquired by reading from storage medium 1030 in memory 11. may be stored in

以上で説明したとおり、ユーザ端末100は、該ユーザ端末100に対して情報を入力する機構の一例として、通信IF13、入出力IF14、タッチスクリーン15、カメラ17、および、測距センサ18を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。 As described above, the user terminal 100 includes the communication IF 13, the input/output IF 14, the touch screen 15, the camera 17, and the ranging sensor 18 as an example of a mechanism for inputting information to the user terminal 100. FIG. Each unit described above as an input mechanism can be regarded as an operation unit configured to receive a user's input operation.

例えば、操作部が、カメラ17および測距センサ18の少なくともいずれか一方で構成される場合、該操作部が、ユーザ端末100の近傍の物体1010を検出し、当該物体の検出結果から入力操作を特定する。一例として、物体1010としてのユーザの手、予め定められた形状のマーカーなどが検出され、検出結果として得られた物体1010の色、形状、動き、または、種類などに基づいて入力操作が特定される。より具体的には、ユーザ端末100は、カメラ17の撮影画像からユーザの手が検出された場合、該撮影画像に基づき検出されるジェスチャ(ユーザの手の一連の動き)を、ユーザの入力操作として特定し、受け付ける。なお、撮影画像は静止画であっても動画であってもよい。 For example, when the operation unit is composed of at least one of the camera 17 and the ranging sensor 18, the operation unit detects an object 1010 near the user terminal 100, and performs an input operation based on the detection result of the object. Identify. As an example, a user's hand as object 1010, a marker of a predetermined shape, or the like is detected, and an input operation is specified based on the color, shape, movement, type, or the like of object 1010 obtained as a detection result. be. More specifically, when the user's hand is detected from the image captured by the camera 17, the user terminal 100 detects a gesture (a series of movements of the user's hand) detected based on the captured image as an input operation of the user. identified and accepted as Note that the captured image may be a still image or a moving image.

あるいは、操作部がタッチスクリーン15で構成される場合、ユーザ端末100は、タッチスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、ユーザ端末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。 Alternatively, when the operation unit is configured by the touch screen 15, the user terminal 100 identifies and accepts the user's operation performed on the input unit 151 of the touch screen 15 as the user's input operation. Alternatively, when the operation unit is configured by the communication IF 13, the user terminal 100 identifies and accepts a signal (for example, an output value) transmitted from the controller 1020 as the user's input operation. Alternatively, when the operation unit is configured by the input/output IF 14, a signal output from an input device (not shown) different from the controller 1020 connected to the input/output IF 14 is specified as the user's input operation and accepted.

本実施形態では、ゲームシステム1は、さらに、動作指図装置300を含む。動作指図装置300は、サーバ200およびユーザ端末100のそれぞれと、ネットワーク2を介して接続する。動作指図装置300は、ゲームシステム1に少なくとも1台設けられている。動作指図装置300は、サーバ200が提供するサービスを利用するユーザ端末100の数に応じて、複数台設けられていてもよい。1台のユーザ端末100に対して、1台の動作指図装置300が設けられていてもよい。複数台のユーザ端末100に対して、1台の動作指図装置300が設けられていてもよい。 In this embodiment, the game system 1 further includes an action instruction device 300 . Action instruction device 300 connects to server 200 and user terminal 100 via network 2 . At least one motion instruction device 300 is provided in the game system 1 . A plurality of motion instruction devices 300 may be provided according to the number of user terminals 100 that use the service provided by the server 200 . One motion instruction device 300 may be provided for one user terminal 100 . One motion instruction device 300 may be provided for a plurality of user terminals 100 .

動作指図装置300(NPC制御装置、キャラクタ制御装置)は、サーバ、デスクトップパソコン、ノートパソコン、または、タブレットなどのコンピュータ、および、これらを組み合わせたコンピュータ群であってもよい。動作指図装置300は、図示の通り、プロセッサ30と、メモリ31と、ストレージ32と、通信IF33と、入出力IF34と、タッチスクリーン35(表示部)とを備える。動作指図装置300が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、動作指図装置300は、タッチスクリーン35に代えて、または、加えて、動作指図装置300本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF34を備えていてもよい。 The action instruction device 300 (NPC control device, character control device) may be a computer such as a server, a desktop computer, a notebook computer, or a tablet, or a group of computers combining these. The motion instruction device 300 includes a processor 30, a memory 31, a storage 32, a communication IF 33, an input/output IF 34, and a touch screen 35 (display unit), as shown. These components provided in the operation instruction device 300 are electrically connected to each other by a communication bus. Note that the action instruction device 300 may include an input/output IF 34 to which a display (display unit) configured separately from the action instruction device 300 main body can be connected instead of or in addition to the touch screen 35 .

また、図1に示すように、動作指図装置300は、1つ以上のマイク3010、1つ以上のモーションキャプチャ装置3020、および、1つ以上のコントローラ3030などの周辺機器と、無線または有線を介して、通信可能に構成されてもよい。無線で接続される周辺機器は、例えば、Bluetooth(登録商標)等の通信規格に従って、動作指図装置300と通信を確立する。 Also, as shown in FIG. 1, the motion instruction device 300 may be connected to peripheral devices, such as one or more microphones 3010, one or more motion capture devices 3020, and one or more controllers 3030, wirelessly or via wires. may be configured to be communicable with each other. A wirelessly connected peripheral device establishes communication with the motion instruction device 300 according to a communication standard such as Bluetooth (registered trademark), for example.

マイク3010は、周囲で発生した音声を取得し、これを電気信号に変換する。電気信号に変換された音声は、音声データとして、動作指図装置300に送信され、通信IF33を介して動作指図装置300に受け付けられる。 A microphone 3010 acquires sounds generated in the surroundings and converts them into electrical signals. The voice converted into the electrical signal is transmitted as voice data to action instruction device 300 and received by action instruction device 300 via communication IF 33 .

モーションキャプチャ装置3020は、追跡対象(例えば、人)のモーション(顔の表情、口の動きなども含む)を追跡し、追跡結果としての出力値を動作指図装置300へ送信する。出力値であるモーションデータは、通信IF33を介して動作指図装置300に受け付けられる。モーションキャプチャ装置3020のモーションキャプチャ方式は特に限定されない。モーションキャプチャ装置3020は、採用された方式に応じて、カメラ、各種センサ、マーカー、モデル(人物)が着用するスーツ、信号送出器など、モーションをキャプチャするためのあらゆる機構を選択的に備えている。 Motion capture device 3020 tracks the motion (including facial expression, mouth movement, etc.) of a tracked object (for example, a person), and transmits an output value as a tracking result to motion instruction device 300 . Motion data, which is an output value, is received by the motion instruction device 300 via the communication IF 33 . The motion capture method of motion capture device 3020 is not particularly limited. The motion capture device 3020 selectively includes any mechanism for capturing motion, such as a camera, various sensors, markers, a suit worn by a model (person), a signal transmitter, etc., depending on the adopted method. .

コントローラ3030は、1つ以上のボタン、レバー、スティック、ホイール等の物理的な入力機構を有していてもよい。コントローラ3030は、動作指図装置300のオペレータが、該入力機構に対して入力した入力操作に基づく出力値を動作指図装置300へ送信する。また、コントローラ3030は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を動作指図装置300へ送信してもよい。上述の出力値は、通信IF33を介して動作指図装置300に受け付けられる。なお、以下では、動作指図装置300に備えられた操作部または動作指図装置300と通信可能に接続された各種の入力機構を用いて、動作指図装置300に対して、何らかの入力操作を行う人をオペレータと称する。オペレータには、入力部351、コントローラ3030などを用いて動作指図装置300を操作する人も含まれるし、マイク3010を介して音声を入力する声優も含まれるし、モーションキャプチャ装置3020を介して動きを入力するモデルも含まれる。 Controller 3030 may have physical input mechanisms such as one or more buttons, levers, sticks, wheels, or the like. Controller 3030 transmits to action instruction device 300 an output value based on an input operation input to the input mechanism by an operator of action instruction device 300 . Further, the controller 3030 may have various sensors such as an acceleration sensor and an angular velocity sensor, and may transmit the output values of the various sensors to the motion instruction device 300 . The output values described above are received by the motion instruction device 300 via the communication IF 33 . It should be noted that hereinafter, a person who performs some input operation on the action instruction device 300 using an operation unit provided in the action instruction device 300 or various input mechanisms communicably connected to the action instruction device 300 will be described. called an operator. The operator includes a person who operates the motion instruction device 300 using the input unit 351, the controller 3030, etc., a voice actor who inputs voice via the microphone 3010, and a motion capture device 3020. It also includes a model that inputs .

動作指図装置300は、図示しない、カメラと、測距センサとを備えていてもよい。動作指図装置300が備えることに代えて、または、加えて、モーションキャプチャ装置3020およびコントローラ3030がカメラと、測距センサとを有してしてもよい。 The motion instruction device 300 may include a camera and a range sensor (not shown). The motion capture device 3020 and the controller 3030 may have a camera and a range sensor instead of or in addition to the motion instruction device 300 .

以上で説明したとおり、動作指図装置300は、該動作指図装置300に対して情報を入力する機構の一例として、通信IF33、入出力IF34、タッチスクリーン35を備える。必要に応じて、カメラ、および、測距センサをさらに備えていてもよい。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。 As described above, the action instruction device 300 includes the communication IF 33 , the input/output IF 34 and the touch screen 35 as an example of a mechanism for inputting information to the action instruction device 300 . A camera and a distance measuring sensor may be further provided as necessary. Each unit described above as an input mechanism can be regarded as an operation unit configured to receive a user's input operation.

操作部がタッチスクリーン35で構成されていてもよい。この場合、動作指図装置300は、タッチスクリーン35の入力部351に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF33で構成される場合、動作指図装置300は、コントローラ3030から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF34で構成される場合、該入出力IF34と接続されるコントローラ3030とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。 The operation unit may be composed of the touch screen 35 . In this case, the action instruction device 300 identifies and accepts the user's operation performed on the input unit 351 of the touch screen 35 as the user's input operation. Alternatively, when the operation unit is configured by the communication IF 33, the action instruction device 300 identifies and accepts a signal (for example, an output value) transmitted from the controller 3030 as the user's input operation. Alternatively, when the operation unit is configured by the input/output IF 34, a signal output from an input device (not shown) different from the controller 3030 connected to the input/output IF 34 is specified as the user's input operation and accepted.

<ゲーム概要>
実施形態1に係るゲームシステム1が実行するゲーム(以下、本ゲーム)は、一例として、1以上のキャラクタを登場させて、そのキャラクタの少なくとも1つを動作指図データに基づいて動作させるゲームである。該ゲームに登場するキャラクタは、プレイヤキャラクタ(以下、PC)であってもよいし、ノンプレイヤキャラクタ(以下、NPC)であってもよい。PCは、ユーザが直接操作可能なキャラクタである。NPCは、ゲームプログラムおよび動作指図データにしたがって動作する、すなわち、ユーザが直接操作できないキャラクタである。以下では、両者を特に区別する必要がない場合には、総称として、“キャラクタ”を用いる。
<Game Overview>
A game executed by the game system 1 according to the first embodiment (hereinafter referred to as the game) is, for example, a game in which one or more characters appear and at least one of the characters moves based on action instruction data. . A character appearing in the game may be a player character (hereinafter referred to as PC) or a non-player character (hereinafter referred to as NPC). PC is a character that can be directly operated by the user. NPCs are characters that act according to game programs and action instruction data, that is, characters that cannot be directly operated by the user. Hereinafter, when there is no particular need to distinguish between the two, the generic term "character" is used.

一例として、本ゲームは、育成シミュレーションゲームである。具体的には、該育成シミュレーションゲームは、ユーザたる主人公が、キャラクタとの交流を深め、働きかけていくことで、該キャラクタを有名な動画配信者に仕立て上げ、該キャラクタが抱く夢を実現することを目的としている。さらに、該育成シミュレーションゲームは、主人公が、キャラクタとの交流を通じて親密度を高めることを目的とする恋愛シミュレーションゲームの要素を含んでいてもよい。 As an example, this game is a breeding simulation game. Specifically, in the breeding simulation game, the main character, who is the user, interacts with and works with the character to make the character a famous video distributor and realize the dream of the character. It is an object. Furthermore, the breeding simulation game may include elements of a romance simulation game in which the main character aims to increase intimacy with the character through interaction.

さらに、本ゲームには、一例として、ライブ配信パートが少なくとも含まれていることが好ましい。ゲームシステム1において、動作指図データが、本ゲームを実行中のユーザ端末100に対して、該ユーザ端末100以外の他の装置から、任意のタイミングで供給される。ユーザ端末100は、該動作指図データを受信したことをトリガにして、該動作指図データを解析する(レンダリングする)。ライブ配信パートとは、ユーザ端末100が、上述の解析された動作指図データにしたがって動作するキャラクタを、ユーザにリアルタイムに提示するパートである。これにより、ユーザは、キャラクタが本当に存在するかのような現実感を覚えることができ、より一層ゲームの世界に没入して本ゲームに興じることができる。 Furthermore, the game preferably includes at least a live distribution part, as an example. In the game system 1, action instruction data is supplied at arbitrary timing from a device other than the user terminal 100 to the user terminal 100 that is executing the game. The user terminal 100 analyzes (renders) the action instruction data triggered by the reception of the action instruction data. The live distribution part is a part in which the user terminal 100 presents to the user in real time a character that moves according to the above-described analyzed action instruction data. As a result, the user can have a realistic feeling as if the character really exists, and can enjoy the game while being more immersed in the game world.

本実施形態では、ゲームは、複数のプレイパートで構成されていてもよい。この場合、1つのキャラクタが、あるパートでは、PCであって、別のパートでは、NPCである、というように、パートごとにキャラクタの性質が異なっていてもよい。 In this embodiment, the game may consist of a plurality of play parts. In this case, one character may be a PC in one part and an NPC in another part.

ゲームのジャンルは、特定のジャンルに限られない。ゲームシステム1は、あらゆるジャンルのゲームを実行し得る。例えば、テニス、卓球、ドッジボール、野球、サッカーおよびホッケーなどのスポーツを題材としたゲーム、パズルゲーム、クイズゲーム、RPG(Role-Playing Game)、アドベンチャーゲーム、シューティングゲーム、シミュレーションゲーム、育成ゲーム、ならびに、アクションゲームなどであってもよい。 The game genre is not limited to a specific genre. The game system 1 can execute games of all genres. For example, sports-themed games such as tennis, table tennis, dodgeball, baseball, soccer and hockey, puzzle games, quiz games, RPGs (Role-Playing Games), adventure games, shooting games, simulation games, training games, and It may be an action game or the like.

また、ゲームシステム1において実行されるゲームのプレイ形態は、特定のプレイ形態に限られない。ゲームシステム1は、あらゆるプレイ形態のゲームを実行し得る。例えば、単一のユーザによるシングルプレイゲーム、および、複数のユーザによるマルチプレイゲーム、また、マルチプレイゲームの中でも、複数のユーザが対戦する対戦ゲーム、および、複数のユーザが協力する協力プレイゲームなどであってもよい。 Also, the play pattern of the game executed in the game system 1 is not limited to a specific play pattern. The game system 1 can execute games of all play types. For example, a single-player game played by a single user, a multiplayer game played by a plurality of users, and among multiplayer games, a competitive game in which a plurality of users compete against each other, and a cooperative play game in which a plurality of users cooperate with each other. may

<各装置のハードウェア構成要素>
プロセッサ10は、ユーザ端末100全体の動作を制御する。プロセッサ20は、サーバ200全体の動作を制御する。プロセッサ30は、動作指図装置300全体の動作を制御する。プロセッサ10、20および30は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。
<Hardware components of each device>
Processor 10 controls the overall operation of user terminal 100 . The processor 20 controls the operation of the server 200 as a whole. Processor 30 controls the overall operation of motion instruction device 300 . Processors 10, 20 and 30 include a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit).

プロセッサ10は後述するストレージ12からプログラムを読み出し、後述するメモリ11に展開する。プロセッサ20は後述するストレージ22からプログラムを読み出し、後述するメモリ21に展開する。プロセッサ30は後述するストレージ32からプログラムを読み出し、後述するメモリ31に展開する。プロセッサ10、プロセッサ20およびプロセッサ30は展開したプログラムを実行する。 The processor 10 reads a program from a storage 12, which will be described later, and develops it in a memory 11, which will be described later. The processor 20 reads a program from a storage 22, which will be described later, and develops it in a memory 21, which will be described later. The processor 30 reads a program from a storage 32, which will be described later, and develops it in a memory 31, which will be described later. Processor 10, processor 20 and processor 30 execute the expanded program.

メモリ11、21および31は主記憶装置である。メモリ11、21および31は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ31は、プロセッサ30が後述するストレージ32から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ30に作業領域を提供する。メモリ31は、プロセッサ30がプログラムに従って動作している間に生成した各種データも一時的に記憶する。 Memories 11, 21 and 31 are main storage devices. The memories 11, 21 and 31 are composed of storage devices such as ROM (Read Only Memory) and RAM (Random Access Memory). The memory 11 provides a work area for the processor 10 by temporarily storing programs and various data read by the processor 10 from a storage 12 described later. The memory 11 also temporarily stores various data generated while the processor 10 is operating according to the program. The memory 21 provides a work area for the processor 20 by temporarily storing various programs and data read by the processor 20 from a storage 22 described later. The memory 21 also temporarily stores various data generated while the processor 20 is operating according to the program. The memory 31 provides a working area for the processor 30 by temporarily storing various programs and data read by the processor 30 from a storage 32 described later. The memory 31 also temporarily stores various data generated while the processor 30 is operating according to the program.

本実施形態においてプログラムとは、ゲームをユーザ端末100により実現するためのゲームプログラムであってもよい。あるいは、該プログラムは、該ゲームをユーザ端末100とサーバ200との協働により実現するためのゲームプログラムであってもよい。
あるいは、該プログラムは、該ゲームをユーザ端末100とサーバ200と動作指図装置300との協働により実現するためのゲームプログラムであってもよい。なお、ユーザ端末100とサーバ200との協働により実現されるゲームおよびユーザ端末100とサーバ200と動作指図装置300との協働により実現されるゲームは、一例として、ユーザ端末100において起動されたブラウザ上で実行されるゲームであってもよい。あるいは、該プログラムは、該ゲームを複数のユーザ端末100の協働により実現するためのゲームプログラムであってもよい。また、各種データとは、ユーザ情報およびゲーム情報などのゲームに関するデータ、ならびに、ゲームシステム1の各装置間で送受信する指示または通知を含んでいる。
The program in this embodiment may be a game program for realizing a game by the user terminal 100 . Alternatively, the program may be a game program for realizing the game through cooperation between user terminal 100 and server 200 .
Alternatively, the program may be a game program for realizing the game by cooperation of the user terminal 100, the server 200, and the action instruction device 300. FIG. It should be noted that, as an example, the game realized by the cooperation of the user terminal 100 and the server 200 and the game realized by the cooperation of the user terminal 100, the server 200, and the motion instruction device 300 are started in the user terminal 100. It may be a game that runs on a browser. Alternatively, the program may be a game program for realizing the game by cooperation of a plurality of user terminals 100 . Further, the various data includes game-related data such as user information and game information, and instructions or notifications transmitted and received between the devices of the game system 1 .

ストレージ12、22および32は補助記憶装置である。ストレージ12、22および32は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ12、22および32には、ゲームに関する各種データが格納される。 Storages 12, 22 and 32 are auxiliary storage devices. The storages 12, 22 and 32 are composed of storage devices such as flash memories or HDDs (Hard Disk Drives). The storages 12, 22 and 32 store various data related to the game.

通信IF13は、ユーザ端末100における各種データの送受信を制御する。通信IF23は、サーバ200における各種データの送受信を制御する。通信IF33は、動作指図装置300における各種データの送受信を制御する。通信IF13、23および33は例えば、無線LAN(Local Area Network)を介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。 The communication IF 13 controls transmission and reception of various data in the user terminal 100 . The communication IF 23 controls transmission and reception of various data in the server 200 . The communication IF 33 controls transmission and reception of various data in the motion instruction device 300 . The communication IFs 13, 23 and 33 control, for example, communication via a wireless LAN (Local Area Network), Internet communication via a wired LAN, wireless LAN, or mobile phone network, and communication using short-range wireless communication. .

入出力IF14は、ユーザ端末100がデータの入力を受け付けるためのインターフェースであり、またユーザ端末100がデータを出力するためのインターフェースである。入出力IF14は、USB(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14は、例えば、ユーザ端末100の物理ボタン、カメラ、マイク、または、スピーカ等を含み得る。サーバ200の入出力IF24は、サーバ200がデータの入力を受け付けるためのインターフェースであり、またサーバ200がデータを出力するためのインターフェースである。入出力IF24は、例えば、マウスまたはキーボード等の情報入力機器である入力部と、画像を表示出力する機器である表示部とを含み得る。動作指図装置300の入出力IF34は、動作指図装置300がデータの入力を受け付けるためのインターフェースであり、また動作指図装置300がデータを出力するためのインターフェースである。入出力IF34は、例えば、マウス、キーボード、スティック、レバー等の情報入力機器、液晶ディスプレイなどの画像を表示出力する機器、および、周辺機器(マイク3010、モーションキャプチャ装置3020、および、コントローラ3030)との間でデータを送受信するための接続部を含み得る。 The input/output IF 14 is an interface for the user terminal 100 to receive data input, and an interface for the user terminal 100 to output data. The input/output IF 14 may input/output data via a USB (Universal Serial Bus) or the like. The input/output IF 14 may include physical buttons, a camera, a microphone, or a speaker of the user terminal 100, for example. The input/output IF 24 of the server 200 is an interface for the server 200 to receive data input and an interface for the server 200 to output data. The input/output IF 24 may include, for example, an input section that is an information input device such as a mouse or a keyboard, and a display section that is a device for displaying and outputting images. The input/output IF 34 of the action instruction device 300 is an interface for the action instruction device 300 to receive data input and an interface for the action instruction device 300 to output data. The input/output IF 34 includes, for example, information input devices such as a mouse, keyboard, stick, and lever, devices for displaying images such as a liquid crystal display, and peripheral devices (microphone 3010, motion capture device 3020, and controller 3030). may include a connection for sending and receiving data between.

ユーザ端末100のタッチスクリーン15は、入力部151と表示部152とを組み合わせた電子部品である。動作指図装置300のタッチスクリーン35は、入力部351と表示部352とを組み合わせた電子部品である。入力部151、351は、例えばタッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部152、352は、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等によって構成される。 The touch screen 15 of the user terminal 100 is an electronic component in which an input section 151 and a display section 152 are combined. The touch screen 35 of the motion instruction device 300 is an electronic component in which an input section 351 and a display section 352 are combined. The input units 151 and 351 are, for example, touch-sensitive devices, and are configured by, for example, touch pads. The display units 152 and 352 are configured by, for example, liquid crystal displays or organic EL (Electro-Luminescence) displays.

入力部151、351は、入力面に対しユーザの操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部151、351は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。 The input units 151 and 351 detect the position at which the user's operation (mainly physical contact operation such as touch operation, slide operation, swipe operation, and tap operation) is input on the input surface, and provide information indicating the position. as an input signal. The input units 151 and 351 may include a touch sensing unit (not shown). The touch sensing unit may employ any type of system, such as a capacitive system or a resistive film system.

図示していないが、ユーザ端末100は、該ユーザ端末100の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。ユーザ端末100がセンサを備えている場合、プロセッサ10は、センサの出力からユーザ端末100の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10は、ユーザ端末100が縦向きに保持されているときには、縦長の画像を表示部152に表示させる縦画面表示としてもよい。一方、ユーザ端末100が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ10は、ユーザ端末100の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。 Although not shown, the user terminal 100 may include one or more sensors for identifying the holding posture of the user terminal 100 . This sensor may be, for example, an acceleration sensor or an angular velocity sensor. If the user terminal 100 is equipped with a sensor, the processor 10 can identify the holding posture of the user terminal 100 from the output of the sensor and perform processing according to the holding posture. For example, when the user terminal 100 is held vertically, the processor 10 may display a vertically long image on the display unit 152 for vertical screen display. On the other hand, when the user terminal 100 is held horizontally, a horizontal screen display may be used in which a horizontally long image is displayed on the display unit. Thus, the processor 10 may be able to switch between vertical screen display and horizontal screen display according to the holding posture of the user terminal 100 .

カメラ17は、イメージセンサ等を含み、レンズから入射する入射光を電気信号に変換することで撮影画像を生成する。 The camera 17 includes an image sensor or the like, and generates a captured image by converting incident light from a lens into an electrical signal.

測距センサ18は、測定対象物までの距離を測定するセンサである。測距センサ18は、例えば、パルス変換した光を発する光源と、光を受ける受光素子とを含む。測距センサ18は、光源からの発光タイミングと、該光源から発せられた光が測定対象物にあたって反射されて生じる反射光の受光タイミングとにより、測定対象物までの距離を測定する。測距センサ18は、指向性を有する光を発する光源を有することとしてもよい。 The distance sensor 18 is a sensor that measures the distance to the object to be measured. The ranging sensor 18 includes, for example, a light source that emits pulse-converted light and a light receiving element that receives the light. The distance measuring sensor 18 measures the distance to the measurement object based on the light emission timing from the light source and the light reception timing of the reflected light generated when the light emitted from the light source hits the measurement object and is reflected. The ranging sensor 18 may have a light source that emits directional light.

ここで、ユーザ端末100が、カメラ17と測距センサ18とを用いて、ユーザ端末100の近傍の物体1010を検出した検出結果を、ユーザの入力操作として受け付ける例をさらに説明する。カメラ17および測距センサ18は、例えば、ユーザ端末100の筐体の側面に設けられてもよい。カメラ17の近傍に測距センサ18が設けられてもよい。カメラ17としては、例えば赤外線カメラを用いることができる。この場合、赤外線を照射する照明装置および可視光を遮断するフィルタ等が、カメラ17に設けられてもよい。これにより、屋外か屋内かにかかわらず、カメラ17の撮影画像に基づく物体の検出精度をいっそう向上させることができる。 Here, an example in which the user terminal 100 uses the camera 17 and the ranging sensor 18 to detect the object 1010 near the user terminal 100 and accepts the detection result as the user's input operation will be further described. The camera 17 and the ranging sensor 18 may be provided on the side of the housing of the user terminal 100, for example. A ranging sensor 18 may be provided near the camera 17 . As the camera 17, for example, an infrared camera can be used. In this case, the camera 17 may be provided with an illumination device that emits infrared light, a filter that blocks visible light, and the like. This makes it possible to further improve the object detection accuracy based on the image captured by the camera 17, regardless of whether it is outdoors or indoors.

プロセッサ10は、カメラ17の撮影画像に対して、例えば以下の(1)~(5)に示す処理のうち1つ以上の処理を行ってもよい。(1)プロセッサ10は、カメラ17の撮影画像に対し画像認識処理を行うことで、該撮影画像にユーザの手が含まれているか否かを特定する。プロセッサ10は、上述の画像認識処理において採用する解析技術として、例えばパターンマッチング等の技術を用いてよい。(2)また、プロセッサ10は、ユーザの手の形状から、ユーザのジェスチャを検出する。プロセッサ10は、例えば、撮影画像から検出されるユーザの手の形状から、ユーザの指の本数(伸びている指の本数)を特定する。プロセッサ10はさらに、特定した指の本数から、ユーザが行ったジェスチャを特定する。例えば、プロセッサ10は、指の本数が5本である場合、ユーザが「パー」のジェスチャを行ったと判定する。また、プロセッサ10は、指の本数が0本である(指が検出されなかった)場合、ユーザが「グー」のジェスチャを行ったと判定する。また、プロセッサ10は、指の本数が2本である場合、ユーザが「チョキ」のジェスチャを行ったと判定する。(3)プロセッサ10は、カメラ17の撮影画像に対し、画像認識処理を行うことにより、ユーザの指が人差し指のみ立てた状態であるか、ユーザの指がはじくような動きをしたかを検出する。(4)プロセッサ10は、カメラ17の撮影画像の画像認識結果、および、測距センサ18の出力値等の少なくともいずれか1つに基づいて、ユーザ端末100の近傍の物体1010(ユーザの手など)とユーザ端末100との距離を検出する。例えば、プロセッサ10は、カメラ17の撮影画像から特定されるユーザの手の形状の大小により、ユーザの手がユーザ端末100の近傍(例えば所定値未満の距離)にあるのか、遠く(例えば所定値以上の距離)にあるのかを検出する。なお、撮影画像が動画の場合、プロセッサ10は、ユーザの手がユーザ端末100に接近しているのか遠ざかっているのかを検出してもよい。(5)カメラ17の撮影画像の画像認識結果等に基づいて、ユーザの手が検出されている状態で、ユーザ端末100とユーザの手との距離が変化していることが判明した場合、プロセッサ10は、ユーザが手をカメラ17の撮影方向において振っていると認識する。カメラ17の撮影範囲よりも指向性が強い測距センサ18において、物体が検出されたりされなかったりする場合に、プロセッサ10は、ユーザが手をカメラの撮影方向に直交する方向に振っていると認識する。 The processor 10 may perform one or more of the following processes (1) to (5) on the image captured by the camera 17, for example. (1) The processor 10 performs image recognition processing on the captured image of the camera 17 to identify whether or not the captured image includes the user's hand. The processor 10 may use a technique such as pattern matching, for example, as the analysis technique employed in the image recognition processing described above. (2) The processor 10 also detects a user's gesture from the shape of the user's hand. For example, the processor 10 identifies the number of fingers of the user (the number of extended fingers) from the shape of the user's hand detected from the captured image. Processor 10 further identifies the gesture made by the user from the identified number of fingers. For example, when the number of fingers is five, processor 10 determines that the user has performed the "pa" gesture. In addition, when the number of fingers is 0 (no fingers are detected), the processor 10 determines that the user has performed the "goo" gesture. In addition, when the number of fingers is two, the processor 10 determines that the user has made the "Scissors" gesture. (3) The processor 10 performs image recognition processing on the image captured by the camera 17 to detect whether the user's finger is in a state in which only the index finger is raised or whether the user's finger is flicking. . (4) The processor 10 detects an object 1010 (such as a user's hand) near the user terminal 100 based on at least one of the image recognition result of the captured image of the camera 17 and the output value of the distance measuring sensor 18. ) and the user terminal 100 is detected. For example, the processor 10 determines whether the user's hand is close to the user terminal 100 (for example, a distance less than a predetermined value) or far away from the user terminal 100 (for example, a predetermined value or more distance). Note that when the captured image is a moving image, the processor 10 may detect whether the user's hand is approaching or moving away from the user terminal 100 . (5) When it is found that the distance between the user terminal 100 and the user's hand has changed while the user's hand is detected based on the image recognition result of the captured image of the camera 17, the processor 10 recognizes that the user is waving his hand in the photographing direction of the camera 17 . When an object is detected or not detected by the ranging sensor 18, which has a stronger directivity than the imaging range of the camera 17, the processor 10 detects that the user is waving his hand in a direction orthogonal to the imaging direction of the camera. recognize.

このように、プロセッサ10は、カメラ17の撮影画像に対する画像認識により、ユーザが手を握りこんでいるか否か(「グー」のジェスチャであるか、それ以外のジェスチャ(例えば「パー」)であるか)を検出する。また、プロセッサ10は、ユーザの手の形状とともに、ユーザがこの手をどのように移動させているかを検出する。また、プロセッサ10は、ユーザがこの手をユーザ端末100に対して接近させているのか遠ざけているのかを検出する。このような操作は、例えば、マウスまたはタッチパネルなどのポインティングデバイスを用いた操作に対応させることができる。ユーザ端末100は、例えば、ユーザの手の移動に応じて、タッチスクリーン15においてポインタを移動させ、ユーザのジェスチャ「グー」を検出する。この場合、ユーザ端末100は、ユーザが選択操作を継続中であると認識する。選択操作の継続とは、例えば、マウスがクリックされて押し込まれた状態が維持されること、または、タッチパネルに対してタッチダウン操作がなされた後タッチされた状態が維持されることに対応する。また、ユーザ端末100は、ユーザのジェスチャ「グー」が検出されている状態で、さらにユーザが手を移動させると、このような一連のジェスチャを、スワイプ操作(またはドラッグ操作)に対応する操作として認識することもできる。また、ユーザ端末100は、カメラ17の撮影画像によるユーザの手の検出結果に基づいて、ユーザが指をはじくようなジェスチャを検出した場合に、当該ジェスチャを、マウスのクリックまたはタッチパネルへのタップ操作に対応する操作として認識してもよい。 In this way, the processor 10 determines whether or not the user is clenching his/her hand (a "goo" gesture or another gesture (for example, "pa") by image recognition of the captured image of the camera 17. or) is detected. The processor 10 also detects how the user is moving the hand together with the shape of the user's hand. The processor 10 also detects whether the user is moving his/her hand closer to or away from the user terminal 100 . Such operations can correspond to operations using a pointing device such as a mouse or a touch panel, for example. For example, the user terminal 100 moves the pointer on the touch screen 15 according to the movement of the user's hand, and detects the user's gesture "goo". In this case, the user terminal 100 recognizes that the user is continuing the selection operation. The continuation of the selection operation corresponds to, for example, maintaining the state in which the mouse is clicked and pushed in, or maintaining the state of being touched after performing a touchdown operation on the touch panel. Further, when the user moves his/her hand while the user's gesture "goo" is detected, the user terminal 100 performs such a series of gestures as an operation corresponding to the swipe operation (or drag operation). can also recognize. Further, when the user terminal 100 detects a gesture such as flicking a finger based on the detection result of the user's hand from the captured image of the camera 17, the user terminal 100 detects the gesture by clicking the mouse or tapping the touch panel. may be recognized as an operation corresponding to

<ゲームシステム1の機能的構成>
図2は、ゲームシステム1に含まれるユーザ端末100、サーバ200および動作指図装置300の機能的構成を示すブロック図である。ユーザ端末100、サーバ200および動作指図装置300のそれぞれは、図示しない、一般的なコンピュータとして機能する場合に必要な機能的構成、および、ゲームにおける公知の機能を実現するために必要な機能的構成を含み得る。
<Functional Configuration of Game System 1>
FIG. 2 is a block diagram showing functional configurations of the user terminal 100, the server 200, and the action instruction device 300 included in the game system 1. As shown in FIG. Each of the user terminal 100, the server 200, and the action instruction device 300 has a functional configuration (not shown) required to function as a general computer and a functional configuration required to realize known functions in the game. can include

ユーザ端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。ユーザ端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、および入出力IF14等の協働によって、制御部110および記憶部120として機能する。 The user terminal 100 has a function as an input device that receives user input operations and a function as an output device that outputs game images and sounds. The user terminal 100 functions as a control unit 110 and a storage unit 120 through cooperation of the processor 10, memory 11, storage 12, communication IF 13, input/output IF 14, and the like.

サーバ200は、各ユーザ端末100と通信して、ユーザ端末100がゲームを進行させるのを支援する機能を有する。例えば、ユーザ端末100が本ゲームに係るアプリケーションを始めてダウンロードするときには、初回ゲーム開始時にユーザ端末100に記憶させておくべきデータをユーザ端末100に提供する。例えば、サーバ200は、キャラクタを動作させるための動作指図データをユーザ端末100に送信する。動作指図データは、予め、モデルなどのアクターの動きを取り込んだモーションキャプチャデータを含んでいてもよいし、声優などのアクターの音声を録音した音声データを含んでいてもよいし、キャラクタを動作させるための入力操作の履歴を示す操作履歴データを含んでいてもよいし、上述の一連の入力操作に対応付けられたコマンドを時系列に並べたモーションコマンド群を含んでいてもよい。本ゲームがマルチプレイゲームである場合には、サーバ200は、ゲームに参加する各ユーザ端末100と通信して、ユーザ端末100同士のやりとりを仲介する機能および同期制御機能を有していてもよい。また、サーバ200は、ユーザ端末100と動作指図装置300とを仲介する機能を備えている。これにより、動作指図装置300は、適時に、宛先を誤ることなく、ユーザ端末100または複数のユーザ端末100のグループに対して動作指図データを供給することが可能となる。サーバ200は、プロセッサ20、メモリ21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部210および記憶部220として機能する。 The server 200 has a function of communicating with each user terminal 100 and assisting the user terminal 100 in progressing the game. For example, when the user terminal 100 downloads an application related to this game for the first time, the user terminal 100 is provided with data to be stored in the user terminal 100 when the game is started for the first time. For example, the server 200 transmits action instruction data for causing a character to act to the user terminal 100 . The action instruction data may include motion capture data in which the motion of an actor such as a model is captured in advance, may include audio data in which the voice of an actor such as a voice actor is recorded, or may include movement of a character. It may include operation history data indicating a history of input operations for , or may include a motion command group in which commands associated with the series of input operations described above are arranged in chronological order. If the game is a multiplayer game, the server 200 may have a function of communicating with each user terminal 100 participating in the game to mediate communication between the user terminals 100 and a synchronization control function. The server 200 also has a function of intermediating between the user terminal 100 and the motion instruction device 300 . As a result, the action instruction device 300 can timely supply the action instruction data to the user terminal 100 or a group of a plurality of user terminals 100 without making a mistake in the destination. The server 200 functions as a control unit 210 and a storage unit 220 through cooperation of the processor 20, memory 21, storage 22, communication IF 23, input/output IF 24, and the like.

動作指図装置300は、ユーザ端末100におけるキャラクタの動作を指示するための動作指図データを生成し、ユーザ端末100に供給する機能を有する。動作指図装置300は、プロセッサ30、メモリ31、ストレージ32、通信IF33、および入出力IF34等の協働によって、制御部310および記憶部320として機能する。 The action instruction device 300 has a function of generating action instruction data for instructing the action of the character on the user terminal 100 and supplying it to the user terminal 100 . Operation instruction device 300 functions as control unit 310 and storage unit 320 through cooperation of processor 30, memory 31, storage 32, communication IF 33, input/output IF 34, and the like.

記憶部120、220および320は、ゲームプログラム131、ゲーム情報132およびユーザ情報133を格納する。ゲームプログラム131は、ユーザ端末100、サーバ200および動作指図装置300が実行するゲームプログラムである。ゲーム情報132は、制御部110、210および310がゲームプログラム131を実行する際に参照するデータである。ユーザ情報133は、ユーザのアカウントに関するデータである。記憶部220および320において、ゲーム情報132およびユーザ情報133は、ユーザ端末100ごとに格納されている。記憶部320は、さらに、キャラクタ制御プログラム134を格納する。キャラクタ制御プログラム134は、動作指図装置300が実行するプログラムであり、上述のゲームプログラム131に基づくゲームに登場させるキャラクタの動作を制御するためのプログラムである。 Storage units 120 , 220 and 320 store game program 131 , game information 132 and user information 133 . The game program 131 is a game program executed by the user terminal 100 , the server 200 and the motion instruction device 300 . Game information 132 is data referred to when control units 110 , 210 and 310 execute game program 131 . User information 133 is data relating to a user's account. Game information 132 and user information 133 are stored in storage units 220 and 320 for each user terminal 100 . Storage unit 320 further stores character control program 134 . The character control program 134 is a program executed by the action instruction device 300, and is a program for controlling the action of the character appearing in the game based on the game program 131 described above.

(サーバ200の機能的構成)
制御部210は、記憶部220に格納されたゲームプログラム131を実行することにより、サーバ200を統括的に制御する。例えば、制御部210は、ユーザ端末100に各種データおよびプログラム等を送信する。制御部210は、ゲーム情報もしくはユーザ情報の一部または全部をユーザ端末100から受信する。ゲームがマルチプレイゲームである場合には、制御部210は、ユーザ端末100からマルチプレイの同期の要求を受信して、同期のためのデータをユーザ端末100に送信してもよい。また、制御部210は、必要に応じて、ユーザ端末100および動作指図装置300と通信して、情報の送受信を行う。
(Functional Configuration of Server 200)
The control unit 210 performs overall control of the server 200 by executing the game program 131 stored in the storage unit 220 . For example, the control unit 210 transmits various data, programs, etc. to the user terminal 100 . The control unit 210 receives part or all of the game information or user information from the user terminal 100 . If the game is a multi-play game, the control unit 210 may receive a multi-play synchronization request from the user terminal 100 and transmit data for synchronization to the user terminal 100 . In addition, the control unit 210 communicates with the user terminal 100 and the motion instruction device 300 as necessary to transmit and receive information.

制御部210は、ゲームプログラム131の記述に応じて、進行支援部211および共有支援部212として機能する。制御部210は、実行するゲームの性質に応じて、ユーザ端末100におけるゲームの進行を支援するために、図示しないその他の機能ブロックとしても機能することができる。 Control unit 210 functions as progress support unit 211 and sharing support unit 212 according to the description of game program 131 . The control unit 210 can also function as other functional blocks (not shown) in order to support the progress of the game on the user terminal 100 according to the nature of the game to be executed.

進行支援部211は、ユーザ端末100と通信し、ユーザ端末100が、本ゲームに含まれる各種パートを進行するための支援を行う。例えば、進行支援部211は、ユーザ端末100が、ゲームを進行させるとき、該ゲームを進行させるために必要な情報をユーザ端末100に提供する。 The progress support unit 211 communicates with the user terminal 100 and supports the user terminal 100 to progress various parts included in the game. For example, when the user terminal 100 progresses the game, the progress support unit 211 provides the user terminal 100 with information necessary for progressing the game.

共有支援部212は、複数のユーザ端末100と通信し、複数のユーザが、各々のユーザ端末100にて互いのデッキを共有し合うための支援を行う。また、共有支援部212は、オンラインのユーザ端末100と動作指図装置300とをマッチングする機能を有していてもよい。これにより、ユーザ端末100と動作指図装置300との間の情報の送受信が円滑に実施される。 The sharing support unit 212 communicates with a plurality of user terminals 100 and supports a plurality of users to share each other's decks in their respective user terminals 100 . Further, the sharing support unit 212 may have a function of matching the online user terminal 100 and the action instruction device 300 . As a result, information can be smoothly transmitted and received between the user terminal 100 and the motion instruction device 300 .

(ユーザ端末100の機能的構成)
制御部110は、記憶部120に格納されたゲームプログラム131を実行することにより、ユーザ端末100を統括的に制御する。例えば、制御部110は、ゲームプログラム131およびユーザの操作にしたがって、ゲームを進行させる。また、制御部110は、ゲームを進行させている間、必要に応じて、サーバ200および動作指図装置300と通信して、情報の送受信を行う。
(Functional Configuration of User Terminal 100)
The control unit 110 comprehensively controls the user terminal 100 by executing the game program 131 stored in the storage unit 120 . For example, the control unit 110 progresses the game according to the game program 131 and user's operation. Further, while the game is progressing, the control unit 110 communicates with the server 200 and the action instruction device 300 as necessary to transmit and receive information.

制御部110は、ゲームプログラム131の記述に応じて、操作受付部111、表示制御部112、ユーザインターフェース(以下、UI)制御部113、アニメーション生成部114、ゲーム進行部115、解析部116および進捗情報生成部117として機能する。制御部110は、実行するゲームの性質に応じて、ゲームを進行させるために、図示しないその他の機能ブロックとしても機能することができる。 Control unit 110 controls operation receiving unit 111, display control unit 112, user interface (hereinafter referred to as UI) control unit 113, animation generation unit 114, game progression unit 115, analysis unit 116, and progress It functions as an information generator 117 . The control unit 110 can also function as other functional blocks (not shown) in order to advance the game according to the nature of the game to be executed.

操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソールに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部110の各要素に出力する。 The operation accepting unit 111 detects and accepts a user's input operation on the input unit 151 . The operation reception unit 111 determines what kind of input operation has been performed from the user's action on the console via the touch screen 15 and other input/output IF 14, and outputs the result to each element of the control unit 110. do.

例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッチスクリーン15から接触入力が解除されたことを検知する。 For example, the operation accepting unit 111 accepts an input operation on the input unit 151, detects the coordinates of the input position of the input operation, and identifies the type of the input operation. The operation reception unit 111 identifies, for example, a touch operation, a slide operation, a swipe operation, a tap operation, and the like, as types of input operations. Further, when the continuously detected input is interrupted, the operation reception unit 111 detects that the contact input from the touch screen 15 has been cancelled.

UI制御部113は、UIを構築するために表示部152に表示させるUIオブジェクトを制御する。UIオブジェクトは、ユーザが、ゲームの進行上必要な入力をユーザ端末100に対して行うためのツール、または、ゲームの進行中に出力される情報をユーザ端末100から得るためのツールである。UIオブジェクトは、これには限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。 The UI control unit 113 controls UI objects to be displayed on the display unit 152 to construct the UI. The UI object is a tool for the user to make inputs necessary for the progress of the game to the user terminal 100, or a tool for obtaining information output from the user terminal 100 during the progress of the game. UI objects include, but are not limited to, icons, buttons, lists, menu screens, and the like.

アニメーション生成部114は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部114は、キャラクタがまるでそこにいるかのように動いたり、口を動かしたり、表情を変えたりする様子を表現したアニメーション等を生成してもよい。 The animation generation unit 114 generates animations showing motions of various objects based on control modes of the various objects. For example, the animation generation unit 114 may generate an animation or the like that expresses how a character moves, moves its mouth, or changes its facial expression as if it were there.

表示制御部112は、タッチスクリーン15の表示部152に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部112は、アニメーション生成部114によって生成されたアニメーションを含むゲーム画面を表示部152に表示してもよい。また、表示制御部112は、UI制御部113によって制御される上述のUIオブジェクトを、該ゲーム画面に重畳して描画してもよい。 The display control unit 112 outputs to the display unit 152 of the touch screen 15 a game screen on which the processing results executed by the elements described above are reflected. The display control section 112 may display the game screen including the animation generated by the animation generation section 114 on the display section 152 . Further, the display control unit 112 may draw the above-described UI objects controlled by the UI control unit 113 so as to be superimposed on the game screen.

ゲーム進行部115は、ゲームを進行させる。本実施形態では、ゲーム進行部115は、本ゲームを、操作受付部111を介して入力されるユーザの入力操作に応じて進行させる。ゲーム進行部115は、ゲームの進行中、1以上のキャラクタを登場させ、該キャラクタを動作させる。ゲーム進行部115は、キャラクタを、事前にダウンロードされたゲームプログラム131にしたがって動作させてもよいし、ユーザの入力操作にしたがって動作させてもよいし、動作指図装置300から供給される動作指図データにしたがって動作させてもよい。 The game progression unit 115 advances the game. In this embodiment, the game progression unit 115 advances the game in accordance with the user's input operation input via the operation reception unit 111 . During the progress of the game, the game progress section 115 makes one or more characters appear and causes the characters to act. The game progression unit 115 may cause the character to act according to the game program 131 downloaded in advance, may cause the character to act according to the user's input operation, or may act according to the action instruction data supplied from the action instruction device 300 . may be operated according to

本ゲームが、第1パート、第2パート・・・というように複数のパートに分かれて構成されている場合、ゲーム進行部115は、パートごとの仕様にしたがってゲームを進行させる。 When the game is divided into a plurality of parts such as a first part, a second part, and so on, the game progression section 115 progresses the game according to the specifications of each part.

一例を挙げて具体的に説明すると、第1パートが、キャラクタと対話することによってゲーム中の物語が進行するストーリーパートであるとする。この場合、ゲーム進行部115は、以下のようにストーリーパートを進行させる。具体的には、ゲーム進行部115は、キャラクタを、予めダウンロードされたゲームプログラム131または同じく予めダウンロードされた動作指図データ(第1動作指図データ)などにしたがってキャラクタを動作させる。ゲーム進行部115は、操作受付部111が受け付けたユーザの入力操作に基づいて、該ユーザが選んだ選択肢を特定し、該選択肢に対応付けられている動作をキャラクタに行わせる。第2パートが、動作指図装置300から供給された動作指図データに基づいてキャラクタを動作させるライブ配信パートであるとする。この場合、ゲーム進行部115は、動作指図装置300から動作指図データに基づいて、キャラクタを動作させてライブ配信パートを進行させる。 To give a concrete example, let us say that the first part is a story part in which the story in the game progresses through interaction with the character. In this case, the game progression unit 115 progresses the story part as follows. Specifically, the game progression unit 115 causes the character to move according to the pre-downloaded game program 131 or pre-downloaded action instruction data (first action instruction data). The game progression unit 115 identifies an option selected by the user based on the user's input operation received by the operation reception unit 111, and causes the character to perform an action associated with the option. Assume that the second part is a live distribution part in which a character moves based on the action instruction data supplied from the action instruction device 300 . In this case, based on the action instruction data from the action instruction device 300, the game progression unit 115 moves the character to progress the live distribution part.

解析部116は、動作指図データを解析して(レンダリングして)、解析結果に基づいてキャラクタを動作させるようにゲーム進行部115に指示する。本実施形態では、解析部116は、動作指図装置300によって供給された動作指図データが通信IF33を介して受信されたことをトリガにして、該動作指図データのレンダリングを開始する。動作指図装置300は、解析結果をゲーム進行部115に伝達し、すぐに動作指図データに基づいてキャラクタを動作させるよう指示する。すなわち、ゲーム進行部115は、動作指図データが受信されたことをトリガにして、該動作指図データに基づいてキャラクタを動作させる。これにより、リアルタイムで動作するキャラクタをユーザに見せることが可能となる。 The analysis unit 116 analyzes (renders) the action instruction data and instructs the game progression unit 115 to move the character based on the analysis result. In this embodiment, the analysis unit 116 is triggered by the action instruction data supplied by the action instruction device 300 being received via the communication IF 33, and starts rendering the action instruction data. The action instruction device 300 transmits the analysis result to the game progression section 115 and immediately instructs the character to move based on the action instruction data. That is, the game progression unit 115 is triggered by the reception of the action instruction data, and moves the character based on the action instruction data. This makes it possible to show the user a character that moves in real time.

進捗情報生成部117は、ゲーム進行部115が実行しているゲームの進捗を示す進捗情報を生成し、適時、サーバ200または動作指図装置300に送信する。進捗情報は、例えば、現在表示されているゲーム画面を指定する情報を含んでいてもよいし、ゲームの進捗を、時系列で文字および記号等によって示した進行ログを含んでいてもよい。ゲームシステム1において、サーバ200および動作指図装置300が進捗情報を必要としない実施形態では、進捗情報生成部117は省略されてもよい。 The progress information generation unit 117 generates progress information indicating the progress of the game being executed by the game progression unit 115, and transmits the progress information to the server 200 or the action instruction device 300 as appropriate. The progress information may include, for example, information specifying the currently displayed game screen, or may include a progress log indicating the progress of the game in chronological order using characters, symbols, and the like. In an embodiment in which the server 200 and the action instruction device 300 do not require progress information in the game system 1, the progress information generation section 117 may be omitted.

(動作指図装置300の機能的構成)
制御部310は、記憶部320に格納されたキャラクタ制御プログラム134を実行することにより、動作指図装置300を統括的に制御する。例えば、制御部310は、キャラクタ制御プログラム134およびオペレータの操作にしたがって、動作指図データを生成し、ユーザ端末100に供給する。制御部310は、必要に応じて、さらにゲームプログラム131を実行してもよい。また、制御部310は、サーバ200および本ゲームを実行中のユーザ端末100と通信して、情報の送受信を行う。
(Functional configuration of motion instruction device 300)
Control unit 310 executes character control program 134 stored in storage unit 320 to comprehensively control action instruction device 300 . For example, the control unit 310 generates action instruction data according to the character control program 134 and operator's operation, and supplies the data to the user terminal 100 . Control unit 310 may further execute game program 131 as necessary. In addition, the control unit 310 communicates with the server 200 and the user terminal 100 executing the game to transmit and receive information.

制御部310は、キャラクタ制御プログラム134の記述に応じて、操作受付部311、表示制御部312、UI制御部313、アニメーション生成部314、進捗模擬部315およびキャラクタ制御部316として機能する。制御部310は、ゲームシステム1において実行されるゲームの性質に応じて、該ゲームに登場するキャラクタを制御するために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 310 functions as an operation reception unit 311 , a display control unit 312 , a UI control unit 313 , an animation generation unit 314 , a progress simulation unit 315 and a character control unit 316 according to the description of the character control program 134 . Control unit 310 can also function as other functional blocks (not shown) in order to control characters appearing in the game according to the nature of the game executed in game system 1 .

操作受付部311は、入力部351に対するオペレータの入力操作を検知し受け付ける。操作受付部311は、タッチスクリーン35およびその他の入出力IF34を介したコンソールに対して、オペレータが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部310の各要素に出力する。操作受付部311の機能の詳細は、ユーザ端末100における操作受付部111のそれとほぼ同様である。 The operation reception unit 311 detects and receives an operator's input operation to the input unit 351 . The operation reception unit 311 determines what kind of input operation has been performed from the operator's action on the console via the touch screen 35 and other input/output IFs 34, and sends the result to each element of the control unit 310. Output. The details of the functions of the operation reception unit 311 are substantially the same as those of the operation reception unit 111 in the user terminal 100 .

UI制御部313は、表示部352に表示させるUIオブジェクトを制御する。 The UI control unit 313 controls UI objects displayed on the display unit 352 .

アニメーション生成部314は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部314は、通信相手となるユーザ端末100上実際に表示されているゲーム画面を再現したアニメーション等を生成してもよい。 The animation generation unit 314 generates animations showing motions of various objects based on control modes of the various objects. For example, the animation generation unit 314 may generate an animation or the like that reproduces the game screen actually displayed on the user terminal 100 that is the communication partner.

表示制御部312は、タッチスクリーン35の表示部352に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部312の機能の詳細は、ユーザ端末100における表示制御部112のそれとほぼ同様である。 The display control unit 312 outputs a game screen on which the processing results executed by the above-described elements are reflected to the display unit 352 of the touch screen 35 . The details of the functions of the display control unit 312 are substantially the same as those of the display control unit 112 in the user terminal 100 .

進捗模擬部315は、ユーザ端末100から受信するゲームの進捗を示す進捗情報に基づいて、ユーザ端末100におけるゲームの進捗を把握する。そして、進捗模擬部315は、該ユーザ端末100の挙動を動作指図装置300において模擬的に再現することで、オペレータに対して、ユーザ端末100の進捗を提示する。 The progress simulating unit 315 grasps the progress of the game in the user terminal 100 based on the progress information indicating the progress of the game received from the user terminal 100 . Then, the progress simulating unit 315 presents the progress of the user terminal 100 to the operator by simulatively reproducing the behavior of the user terminal 100 in the action instruction device 300 .

例えば、進捗模擬部315は、ユーザ端末100で表示されているゲーム画面を再現したものを自装置の表示部352に表示してもよい。また、進捗模擬部315は、ユーザ端末100において、ゲームの進捗を上述の進行ログとして表示部352に表示してもよい。 For example, the progress simulating unit 315 may display a reproduction of the game screen displayed on the user terminal 100 on the display unit 352 of its own device. Further, the progress simulating unit 315 may display the progress of the game on the display unit 352 in the user terminal 100 as the progress log described above.

また、進捗模擬部315の機能の一部は、制御部310がゲームプログラム131を実行することにより実現されてもよい。例えば、まず進捗模擬部315は、進捗情報に基づいて、ユーザ端末100のゲームの進捗を把握する。そして、進捗模擬部315は、ユーザ端末100においてゲームプログラム131基づき現在表示されている、ゲーム画面を、完全にまたは簡略化して自装置の表示部352に再現してもよい。あるいは、進捗模擬部315は、現時点のゲームの進捗を把握し、ゲームプログラム131に基づいて現時点以降のゲーム進行を予測し、予測結果を表示部352に出力してもよい。 Also, part of the functions of the progress simulating unit 315 may be realized by the control unit 310 executing the game program 131 . For example, first, the progress simulating unit 315 grasps the progress of the game of the user terminal 100 based on the progress information. Then, the progress simulating unit 315 may reproduce the game screen currently displayed on the user terminal 100 based on the game program 131 completely or in a simplified manner on the display unit 352 of its own device. Alternatively, the progress simulating unit 315 may grasp the current game progress, predict the game progress after the current time based on the game program 131 , and output the prediction result to the display unit 352 .

キャラクタ制御部316は、ユーザ端末100に表示させるキャラクタの挙動を制御する。具体的には、キャラクタを動作させるための動作指図データを生成し、ユーザ端末100に供給する。例えば、キャラクタ制御部316は、オペレータ(声優など)が、マイク3010を介して入力した音声データに基づいて、制御対象のキャラクタに発言させることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述の音声データが少なくとも含まれる。また、例えば、オペレータ(モデルなど)が、モーションキャプチャ装置3020を介して入力したモーションキャプチャデータに基づく動きを制御対象のキャラクタに行わせることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述のモーションキャプチャデータが少なくとも含まれる。また、例えば、オペレータが、コントローラ3030などの入力機構または入力部351などの操作部を介して入力した入力操作の履歴、すなわち、操作履歴データに基づいて、制御対象のキャラクタを動作させることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述の操作履歴データが少なくとも含まれる。操作履歴データは、例えば、表示部にどの画面が表示されているときに、オペレータが、コントローラ3030のどのボタンをどのタイミングで押したのかを示す操作ログが時系列で整理されている情報である。ここでの表示部は、コントローラ3030と連動した表示部であって、タッチスクリーン35の表示部352であってもよいし、入出力IF34を介して接続された別の表示部であってもよい。あるいは、キャラクタ制御部316は、オペレータが上述の入力機構または操作部を介して入力した入力操作に対応付けられた、キャラクタの動作を指示するコマンドを特定する。そして、キャラクタ制御部316は、該コマンドを入力された順に並べてキャラクタの一連の動作を示すモーションコマンド群を生成し、該モーションコマンド群にしたがってキャラクタを動作させることを指示する動作指図データを生成してもよい。このようにして生成された動作指図データには、上述のモーションコマンド群が少なくとも含まれる。 The character control unit 316 controls behavior of characters displayed on the user terminal 100 . Specifically, action instruction data for causing the character to act is generated and supplied to the user terminal 100 . For example, the character control unit 316 generates action instruction data for instructing the character to be controlled to speak, based on voice data input by an operator (voice actor, etc.) via the microphone 3010 . The action instruction data generated in this manner includes at least the voice data described above. Also, for example, an operator (model or the like) generates action instruction data for instructing a character to be controlled to move based on motion capture data input via the motion capture device 3020 . The motion instruction data generated in this manner includes at least the motion capture data described above. Also, for example, the operator instructs to move the character to be controlled based on the history of input operations input via the input mechanism such as the controller 3030 or the operation unit such as the input unit 351, that is, based on the operation history data. Generate operation instruction data to The action instruction data generated in this manner includes at least the operation history data described above. The operation history data is, for example, information in which an operation log indicating which button of the controller 3030 was pressed by the operator at what timing when which screen was displayed on the display unit is arranged in chronological order. . The display unit here is a display unit linked with the controller 3030, and may be the display unit 352 of the touch screen 35, or may be another display unit connected via the input/output IF 34. . Alternatively, the character control unit 316 identifies a command that instructs the action of the character associated with the input operation input by the operator via the above-described input mechanism or operation unit. Then, the character control unit 316 arranges the commands in the input order to generate a motion command group indicating a series of actions of the character, and generates action instruction data instructing the character to move according to the motion command group. may The action instruction data generated in this manner includes at least the motion command group described above.

反応処理部317は、ユーザ端末100からユーザの反応についてフィードバックを受け付けて、これを動作指図装置300のオペレータに対して出力する。本実施形態では、例えば、ユーザ端末100は、上述の動作指図データにしたがってキャラクタを動作させている間、該キャラクタに宛てて、ユーザがコメントを作成することができる。反応処理部317は、該コメントのコメントデータを受け付けて、これを、出力する。反応処理部317は、ユーザのコメントに対応するテキストデータを、表示部352に表示してもよいし、ユーザのコメントに対応する音声データを、図示しないスピーカから出力してもよい。 The reaction processing unit 317 receives feedback on the user's reaction from the user terminal 100 and outputs it to the operator of the action instruction device 300 . In this embodiment, for example, the user terminal 100 allows the user to create a comment addressed to the character while the character is moving according to the action instruction data described above. The reaction processing unit 317 receives the comment data of the comment and outputs it. The reaction processing unit 317 may display text data corresponding to the user's comment on the display unit 352, or may output audio data corresponding to the user's comment from a speaker (not shown).

なお、図2に示すユーザ端末100、サーバ200および動作指図装置300の機能は一例にすぎない。ユーザ端末100、サーバ200および動作指図装置300の各装置は、他の装置が備える機能の少なくとも一部を備えていてもよい。さらに、ユーザ端末100、サーバ200および動作指図装置300以外のさらに別の装置をゲームシステム1の構成要素とし、該別の装置にゲームシステム1における処理の一部を実行させてもよい。すなわち、本実施形態においてゲームプログラムを実行するコンピュータは、ユーザ端末100、サーバ200、動作指図装置300およびそれ以外の別の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。 Note that the functions of the user terminal 100, the server 200, and the motion instruction device 300 shown in FIG. 2 are merely examples. Each of user terminal 100, server 200, and action instruction device 300 may have at least part of the functions of other devices. Further, a device other than the user terminal 100, the server 200, and the action instruction device 300 may be used as a component of the game system 1, and the other device may be caused to execute part of the processing in the game system 1. FIG. That is, the computer that executes the game program in this embodiment may be any of the user terminal 100, the server 200, the motion instruction device 300, and other devices, or may be realized by combining a plurality of these devices. may be

なお、本実施形態では、進捗模擬部315は、省略されてもよい。また、本実施形態では、制御部310は、キャラクタ制御プログラム134の記述に応じて、反応処理部317として機能することができる。 Note that the progress simulating unit 315 may be omitted in the present embodiment. Also, in this embodiment, the control unit 310 can function as a reaction processing unit 317 according to the description of the character control program 134 .

<ゲームの構成>
図3は、本ゲームの基本的なゲーム進行についてその一例を示すフローチャートである。本ゲームは、例えば、2つのゲームプレイパートに分かれている。一例として、第1パートは、ストーリーパート、第2パートは、ライブ配信パートである。本ゲームには、その他にも、ユーザが保有する有価データと引き換えに、ゲームで利用可能なデジタルデータであるゲーム媒体をユーザに獲得させる獲得パートが含まれていてもよい。本実施形態では、各パートのプレイ順序は特に限定されない。図3には、ユーザ端末100が、ストーリーパート、獲得パート、ライブ配信パートの順にゲームを実行した場合が示されている。
<Game configuration>
FIG. 3 is a flow chart showing an example of basic game progress of this game. The game is, for example, divided into two gameplay parts. As an example, the first part is the story part and the second part is the live distribution part. The game may also include an acquisition part in which the user acquires game media, which are digital data that can be used in the game, in exchange for valuable data owned by the user. In this embodiment, the play order of each part is not particularly limited. FIG. 3 shows a case where the user terminal 100 executes the game in order of story part, acquisition part, and live distribution part.

ステップS1では、ゲーム進行部115は、ストーリーパートを実行する。ストーリーパートには、例えば、ユーザが操作する主人公とキャラクタとが対話するシーンが含まれる。本実施形態では、一例として、デジタルデータとしてひとまとめにされた「シナリオ」は、キャラクタにまつわる物語の1話分に対応し、サーバ200から供給されて、一旦記憶部120に格納される。ゲーム進行部115は、ストーリーパートにおいて、記憶部120に格納されているシナリオを1つ読み出し、結末を迎えるまで1つシナリオをユーザの入力操作に応じて進行させる。シナリオには、ユーザに選択させる選択肢、該選択肢に対応するキャラクタの応答パターンなどが含まれており、ユーザがどの選択肢を選択するのかによって、1つのシナリオの中でも、異なる結末が得られてもよい。具体的には、ゲーム進行部115は、主人公からキャラクタに対しての働きかけに対応する複数の選択肢をユーザが選択可能に提示し、該ユーザが選択した選択肢に応じて、シナリオを進行させる。 In step S1, the game progression unit 115 executes the story part. The story part includes, for example, scenes in which the main character operated by the user interacts with the character. In this embodiment, as an example, a “scenario” grouped together as digital data corresponds to one episode of a story about a character, is supplied from the server 200 and is temporarily stored in the storage unit 120 . In the story part, the game progression unit 115 reads out one scenario stored in the storage unit 120 and advances the scenario according to the user's input operation until the end of the scenario is reached. A scenario includes options to be selected by the user, response patterns of characters corresponding to the options, etc. Depending on which option the user selects, different endings may be obtained even in one scenario. . Specifically, the game progression unit 115 presents a plurality of options corresponding to the actions of the protagonist to the character so that the user can select them, and progresses the scenario according to the options selected by the user.

ステップS2では、ユーザが最後までシナリオをプレイすると、ゲーム進行部115は、結末に応じた報酬を該ユーザに獲得させてもよい。報酬は、例えば、ゲーム上で利用可能なデジタルデータであるゲーム媒体としてユーザに提供される。ゲーム媒体は、例えば、キャラクタに身に付けさせることができる服飾品などのアイテムであってもよい。ここで、「報酬をユーザに獲得させる」とは、一例として、ユーザに対応付けて管理されている報酬としてのゲーム媒体のステータスを、使用不可から使用可能に遷移させることであってもよい。あるいは、ゲーム媒体を、ユーザ識別情報またはユーザ端末IDなどに対応付けて、ゲームシステム1に含まれる少なくともいずれかのメモリ(メモリ11、メモリ21、メモリ31)に記憶させることであってもよい。 In step S2, when the user plays the scenario to the end, the game progression unit 115 may cause the user to obtain a reward according to the ending. The reward is provided to the user, for example, as game media, which is digital data that can be used in the game. Game media may be, for example, items such as accessories that can be worn by characters. Here, "allowing the user to obtain a reward" may mean, for example, transitioning the status of the game content as a reward managed in association with the user from unusable to usable. Alternatively, game media may be stored in at least one of the memories (memory 11, memory 21, memory 31) included in game system 1 in association with user identification information or user terminal ID.

ステップS3では、ゲーム進行部115が獲得パートを実行する。獲得パートにおいて、ユーザに獲得させるゲーム媒体は、初回ダウンロード時にユーザ端末100に提供されるシナリオとは別の新しいシナリオであってもよい。以下では、前者のシナリオを固定シナリオ、後者のシナリオを獲得シナリオと称する。両者を区別する必要が無い場合は、単に、シナリオと称する。 At step S3, the game progression unit 115 executes the acquisition part. In the acquisition part, the game content to be acquired by the user may be a new scenario different from the scenario provided to the user terminal 100 at the time of initial download. Hereinafter, the former scenario will be referred to as a fixed scenario, and the latter scenario will be referred to as an acquisition scenario. When there is no need to distinguish between the two, they are simply referred to as scenarios.

獲得パートでは、例えば、ゲーム進行部115は、ユーザの有価データを消費することと引き換えに、ユーザがすでに保有している固定シナリオとは別の獲得シナリオをユーザに保有させる。ユーザに獲得させるシナリオは、ゲーム進行部115、または、サーバ200の進行支援部211によって、所定の規則にしたがって決定されてもよい。より具体的には、ゲーム進行部115、または、進行支援部211は、抽選を実行し、複数の獲得シナリオの中からランダムに、ユーザに獲得させるシナリオを決定してもよい。獲得パートは、ストーリーパートおよびライブ配信パートの前後の任意のタイミングで実行されてもよい。 In the acquisition part, for example, the game progression unit 115 allows the user to possess an acquisition scenario different from the fixed scenario already possessed by the user in exchange for consuming the user's valuable data. The scenario to be acquired by the user may be determined by the game progress section 115 or the progress support section 211 of the server 200 according to a predetermined rule. More specifically, the game progress unit 115 or the progress support unit 211 may execute a lottery to randomly determine a scenario to be acquired by the user from a plurality of acquisition scenarios. The acquisition part may be performed at any timing before or after the story part and the live distribution part.

ステップS4では、ゲーム進行部115は、ネットワークを介して外部の装置から、動作指図データを受信したか否かを判定する。動作指図データを外部の装置から受信しないうちは、ゲーム進行部115は、ステップS4のNOから、例えば、ステップS1に戻り、ストーリーパートを実行してもよい。あるいは、ゲーム進行部115は、ステップS3の獲得パートを実行してもよい。一方、動作指図データを外部の装置から受信した場合は、ゲーム進行部115は、ステップS4のYESからステップS5に進む。 In step S4, the game progression unit 115 determines whether or not action instruction data has been received from an external device via the network. Until the action instruction data is received from the external device, the game progression unit 115 may return from NO in step S4 to, for example, step S1 to execute the story part. Alternatively, the game progression unit 115 may execute the acquisition part of step S3. On the other hand, when the action instruction data is received from the external device, the game progression unit 115 advances from YES in step S4 to step S5.

ステップS5では、ゲーム進行部115は、ライブ配信パート(第2パート)を実行する。具体的には、ゲーム進行部115は、ステップS4にて受信した動作指図データにしたがってキャラクタを動作させることにより、ライブ配信パートを進行させる。ユーザは、ステップS1では、シナリオにおいて、決め打ちの反応を示すキャラクタと単にUIを介して対話するだけであった。しかし、ユーザは、ライブ配信パートにおいては、外部の装置から送信された動作指図データに基づいてリアルタイムに動作するキャラクタと自由にインタラクティブに対話することができる。より具体的には、解析部116は、ユーザの入力操作の内容に応じて生成された音声データおよびモーションデータを含む動作指図データを動作指図装置300から受信する。そして、ゲーム進行部115は、受信された動作指図データに含まれる音声データに基づいて、キャラクタに発話させるともに、上述のモーションデータに基づいてキャラクタに動きをつける。これにより、上述のユーザの入力操作に対するキャラクタの反応を、ユーザに提示することができる。 In step S5, the game progression unit 115 executes the live distribution part (second part). Specifically, the game progression unit 115 advances the live delivery part by causing the character to act according to the action instruction data received in step S4. In step S1, the user simply interacts with a character who shows a fixed response in the scenario via the UI. However, in the live distribution part, the user can freely interact with the character acting in real time based on the action instruction data transmitted from the external device. More specifically, analysis unit 116 receives, from action instruction device 300, action instruction data including voice data and motion data generated according to the details of the user's input operation. Then, the game progression unit 115 causes the character to speak based on the voice data included in the received action instruction data, and moves the character based on the motion data. Thereby, the reaction of the character to the user's input operation can be presented to the user.

<処理概要>
本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、ゲームの興趣性を向上させるために以下のステップを実行するように構成されている。具体的には、ユーザ端末100は、ユーザおよび他のユーザのいずれもが操作しないNPCの動作を指定する動作指図データであって、メモリ11に予め記憶されている第1動作指図データに基づいてNPCを動作させ、操作部(入出力IF14、タッチスクリーン15、カメラ17、測距センサ18)を介して入力されたユーザの入力操作に応じて第1パートを進行させるステップと、NPC制御装置(動作指図装置300)から受信した第2動作指図データに基づいてNPCを動作させることにより第2パートを進行させるステップと、を実行する。
<Overview of processing>
In this embodiment, based on the game program 131, the user terminal 100 is configured to perform the following steps in order to improve the interest of the game. Specifically, the user terminal 100 operates on the basis of first action instruction data, which is action instruction data specifying an action of an NPC that neither the user nor another user operates, and which is pre-stored in the memory 11. A step of operating the NPC and advancing the first part according to the user's input operation input via the operation unit (input/output IF 14, touch screen 15, camera 17, distance measuring sensor 18); and advancing the second part by operating the NPC based on the second action instruction data received from the action instruction device 300).

上述の構成によれば、ユーザ端末100は、第1パートにおいて、予めダウンロードされた第1動作指図データに基づいてNPCを動作させる。これに加えて、ユーザ端末100は、動作指図装置300から第2動作指図データを受信し、第2パートにおいて、第2動作指図データに基づいてNPCを動作させる。動作指図装置300から受信した第2動作指図データに基づいてNPCを動作させることができるため、NPCの動作は、型にはまらず、その表現は大幅に広がる。そのため、ユーザは、ゲームプレイ中のNPCとの関わり合いを通じて、該NPCがまるで現実の世界にいるかのような現実感を覚えることができる。結果として、ゲームの世界への没入感を高め、該ゲームの興趣性を向上させるという効果を奏する。 According to the above configuration, in the first part, the user terminal 100 operates the NPC based on the pre-downloaded first action instruction data. In addition, the user terminal 100 receives the second action instruction data from the action instruction device 300, and operates the NPC based on the second action instruction data in the second part. Since the NPC can be operated based on the second action instruction data received from the action instruction device 300, the action of the NPC is unconventional and its expressions are greatly expanded. Therefore, the user can get a sense of reality as if the NPC were in the real world through interaction with the NPC during game play. As a result, it is possible to enhance the sense of immersion in the world of the game and improve the interest of the game.

<データ構造>
(動作指図データ)
図4は、本実施形態に係るゲームシステム1にて処理される動作指図データのデータ構造の一例を示す図である。一例として、動作指図データは、メタ情報である、「宛先」、「作成元」の各項目と、データの中身である、「キャラクタID」、「音声」、「動き」の各項目とを含んで構成されている。
<Data structure>
(Operation instruction data)
FIG. 4 is a diagram showing an example of the data structure of action instruction data processed by the game system 1 according to this embodiment. As an example, the action instruction data includes items of “destination” and “originator” as meta information, and items of “character ID”, “voice”, and “movement” as contents of the data. consists of

項目「宛先」には、宛先指定情報が格納されている。宛先指定情報は、該動作指図データが、どの装置宛てに送信されたものであるのかを示す情報である。宛先指定情報は、例えば、ユーザ端末100固有のアドレスであってもよいし、ユーザ端末100が所属しているグループの識別情報であってもよい。ある条件を満たすすべてのユーザ端末100を宛先としていることを示す記号(例えば、「ALL」など)であってもよい。 The item "destination" stores destination designation information. The destination specification information is information indicating to which device the action instruction data is sent. The destination designation information may be, for example, an address unique to the user terminal 100 or identification information of a group to which the user terminal 100 belongs. It may be a symbol (for example, "ALL") indicating that all user terminals 100 satisfying a certain condition are addressed.

項目「作成元」には、作成元情報が格納されている。作成元情報は、該動作指図データが、どの装置によって作成されたものであるのかを示す情報である。作成元情報は、例えば、ユーザID、ユーザ端末ID、ユーザ端末の固有アドレスなど、ある特定のユーザを特定可能な、ユーザに関連する情報(以下、ユーザ関連情報)である。作成元情報は、サーバ200または動作指図装置300を指し示すIDまたはアドレスであってもよいし、作成元が、サーバ200または動作指図装置300である場合には、該項目の値を空のままにしておいてもよいし、該項目自体を動作指図データに設けないようにしてもよい。 The item "creator" stores creator information. The creator information is information indicating which device created the action instruction data. The source information is user-related information (hereinafter referred to as user-related information) that can identify a specific user, such as a user ID, a user terminal ID, and a unique address of a user terminal. The creator information may be an ID or an address pointing to the server 200 or the action instruction device 300. When the creator is the server 200 or the action instruction device 300, the value of this item is left blank. Alternatively, the item itself may not be provided in the action instruction data.

項目「キャラクタID」には、本ゲームに登場するキャラクタを一意に識別するためのキャラクタIDが格納されている。ここに格納されているキャラクタIDは、該動作指図データがどのキャラクタの動作を指示するためのものであるのかを表している。 The item "character ID" stores character IDs for uniquely identifying characters appearing in the game. The character ID stored here indicates which character's action is to be instructed by the action instruction data.

項目「音声」には、キャラクタに発現させる音声データが格納されている。項目「動き」には、キャラクタの動きを指定するモーションデータが格納されている。モーションデータは、一例として、モーションキャプチャ装置3020を介して動作指図装置300が取得したモーションキャプチャデータであってもよい。モーションキャプチャデータは、アクターの体全体の動きを追跡したデータであってもよいし、アクターの顔の表情および口の動きを追跡したデータであってもよいし、その両方であってもよい。モーションデータは、他の例として、コントローラ3030を介して動作指図装置300のオペレータが入力した操作によって特定された、キャラクタの一連の動きを指示するモーションコマンド群であってもよい。例えば、コントローラ3030のボタンA、ボタンB、ボタンC、ボタンDにそれぞれ、「右手を上げる」、「左手を上げる」、「歩く」、「走る」のコマンドが割り付けられている場合に、オペレータが、ボタンA、ボタンB、ボタンC、ボタンDを続けて順に押したとする。この場合には、「右手を上げる」、「左手を上げる」、「歩く」、「走る」の各コマンドが上述の順に並べられたモーションコマンド群が、モーションデータとして、「動き」の項目に格納される。なお、本実施形態では、音声データとモーションデータとは同期がとれた状態で、動作指図データに含まれている。 The item "audio" stores audio data to be expressed by the character. The item "movement" stores motion data specifying the movement of the character. The motion data may be, for example, motion capture data acquired by the motion instruction device 300 via the motion capture device 3020 . The motion capture data may be data that tracks the movement of the actor's entire body, data that tracks the actor's facial expressions and mouth movements, or both. As another example, the motion data may be a group of motion commands specifying a series of movements of the character specified by the operation input by the operator of the action instruction device 300 via the controller 3030 . For example, when the commands "raise right hand", "raise left hand", "walk", and "run" are assigned to button A, button B, button C, and button D of controller 3030, respectively, the operator , button A, button B, button C, and button D are successively pressed. In this case, a group of motion commands in which the commands "raise right hand", "raise left hand", "walk", and "run" are arranged in the above order are stored as motion data in the item "movement". be done. Note that, in this embodiment, the voice data and the motion data are included in the action instruction data in a synchronized state.

このような動作指図データを受信することにより、ゲーム進行部115は、ゲームに登場するキャラクタを、該動作指図データの作成元の意図通りに動作させることができる。具体的には、ゲーム進行部115は、動作指図データに音声データが含まれている場合には、該音声データに基づいてキャラクタに発話させる。また、ゲーム進行部115は、動作指図データにモーションデータが含まれている場合には、該モーションデータに基づいてキャラクタを動かす、すなわち、モーションデータに基づく動きをするように該キャラクタのアニメーションを生成する。 By receiving such action instruction data, the game progression unit 115 can cause a character appearing in the game to act as intended by the creator of the action instruction data. Specifically, if the action instruction data includes voice data, the game progression unit 115 causes the character to speak based on the voice data. In addition, when motion data is included in the action instruction data, the game progression unit 115 moves the character based on the motion data, that is, generates an animation of the character so that the character moves based on the motion data. do.

(ゲーム情報)
図5は、本実施形態に係るゲームシステム1にて処理されるゲーム情報132のデータ構造の一例を示す図である。ゲーム情報132において設けられる項目は、ゲームのジャンル、性質、内容等に応じて適宜決定されるものであり、例示の項目は、本発明の範囲を限定するものではない。一例として、ゲーム情報132は、「プレイ履歴」、「アイテム」、「親密度」、「知名度」および「配信履歴」の各項目を含んで構成されている。これらの各項目は、ゲーム進行部115がゲームを進行させるときに適宜参照される。
(game information)
FIG. 5 is a diagram showing an example of the data structure of the game information 132 processed by the game system 1 according to this embodiment. The items provided in the game information 132 are appropriately determined according to the genre, nature, contents, etc. of the game, and the illustrated items do not limit the scope of the present invention. As an example, the game information 132 includes items of "play history,""item,""familiarity,""famousness," and "distribution history." Each of these items is appropriately referred to when the game progression unit 115 progresses the game.

項目「プレイ履歴」には、ユーザのプレイ履歴が格納されている。プレイ履歴は、記憶部120に記憶されているシナリオごとに、ユーザのプレイが完遂しているかどうかを示す情報である。例えば、プレイ履歴は、プレイ初回にダウンロードされた固定シナリオのリストと、獲得パートにおいて後から獲得された獲得シナリオのリストとを含む。それぞれのリストにおいて、シナリオごとに、「プレイ済」、「未プレイ」、「プレイ可」、「プレイ不可」などのステータスが紐付けられている。 The item "play history" stores the user's play history. The play history is information indicating whether or not the user's play has been completed for each scenario stored in the storage unit 120 . For example, the play history includes a list of fixed scenarios downloaded at the first play and a list of acquired scenarios acquired later in the acquisition part. In each list, a status such as "played", "not played", "playable", or "playable" is associated with each scenario.

項目「アイテム」には、ユーザが保有するゲーム媒体としてのアイテム一覧が格納されている。本ゲームにおいて、アイテムは、一例として、キャラクタに身に付けさせる服飾品である。ユーザは、シナリオをプレイすることによって得られたアイテムを、キャラクタに身に付けさせ、キャラクタの見た目をカスタマイズすることができる。 The item "item" stores a list of items as game media possessed by the user. In this game, the items are, for example, accessories worn by the character. The user can equip the character with items obtained by playing the scenario to customize the appearance of the character.

項目「親密度」には、キャラクタのステータスの1つである親密度が格納されている。新密度は、ユーザのいわば分身である「主人公」を、キャラクタとの仲の良さを示すパラメータである。例えば、ゲーム進行部115は、親密度が高いほど、ゲームをユーザにとって有利に進行させてもよい。例えば、ゲーム進行部115は、シナリオのプレイ結果の良し悪しに応じて、親密度を増減してもよい。一例として、ゲーム進行部115は、ユーザがうまく選択肢を選び、シナリオにおいて迎えられた結末が良い内容であるほど、親密度を多く増分する。反対に、ゲーム進行部115は、ユーザが、シナリオをバッドエンドで迎えた場合には、親密度を減じてもよい。 The item "familiarity" stores intimacy, which is one of the character statuses. The new density is a parameter that indicates how close the user's alter ego, the "main character", is to the character. For example, the game progression unit 115 may advance the game in a more advantageous manner for the user as the degree of intimacy increases. For example, the game progression unit 115 may increase or decrease the degree of intimacy according to the play result of the scenario. As an example, the game progression unit 115 increments the degree of intimacy as the user selects options better and the outcome of the scenario is better. Conversely, the game progression unit 115 may reduce the degree of intimacy when the user reaches the scenario with a bad ending.

項目「知名度」には、キャラクタのステータスの1つのである知名度が格納されている。知名度は、キャラクタが、動画配信者として持つ人気の高さおよび認知度などを示すパラメータである。キャラクタの動画配信活動を応援して、該キャラクタの知名度を上げ、該キャラクタの夢を実現することが本ゲームの目的の一つとなる。一例として、一定以上の知名度を達成することができたユーザに対しては、特別なシナリオが報酬として提供されてもよい。 The item “famousness” stores the famousness, which is one of the character statuses. The name recognition is a parameter that indicates the degree of popularity and recognition that a character has as a video distributor. One of the purposes of this game is to support the animation distribution activities of the character, raise the name recognition of the character, and realize the dream of the character. As an example, a special scenario may be provided as a reward to a user who has achieved a certain level of popularity.

項目「配信履歴」には、ライブ配信パートにおいて、過去にキャラクタからライブ配信された動画、いわゆるバックナンバーの一覧が格納されている。ライブ配信パートにおいて、リアルタイムにPUSH配信されている動画は、そのときにしか閲覧できない。一方、過去の配信分の動画は、サーバ200または動作指図装置300において録画されており、ユーザ端末100からのリクエストに応じて、PULL配信することが可能である。本実施形態では、一例として、バックナンバーは、ユーザが課金することにより、ダウンロードできるようにしてもよい。 The item "distribution history" stores a list of moving pictures that have been live-distributed from characters in the past in the live distribution part, so-called back numbers. In the live distribution part, the moving picture being PUSH-distributed in real time can only be viewed at that time. On the other hand, moving images for past distribution are recorded in the server 200 or the action instruction device 300 and can be PULL distributed in response to a request from the user terminal 100 . In this embodiment, as an example, the back number may be downloaded by the user by charging a fee.

<ストーリーパートの画面例>
図6は、ユーザ端末100の表示部152に表示されるクエスト提示画面400の一例を示す図である。ゲーム進行部115は、ストーリーパートにおいて、シナリオを進行中、ゲームプログラム131にしたがって、ユーザに対してクエストを提示する。具体的には、ゲーム進行部115は、主人公とキャラクタとの対話の中で、キャラクタから主人公に対して、クエストに相当する依頼事項を発言させる。このとき、例えば、ゲーム進行部115は、図6に示すクエスト提示画面400を表示部152に表示させてもよい。
<Story part screen example>
FIG. 6 is a diagram showing an example of a quest presentation screen 400 displayed on the display unit 152 of the user terminal 100. As shown in FIG. The game progression unit 115 presents quests to the user according to the game program 131 during the progression of the scenario in the story part. Specifically, the game progression unit 115 causes the character to say a request corresponding to a quest to the hero during the conversation between the hero and the character. At this time, for example, the game progression unit 115 may cause the display unit 152 to display a quest presentation screen 400 shown in FIG.

「キャラクタに依頼事項を発言させる」という一連の動作を行うキャラクタを提示する方法は特に限定されない。例えば、ゲーム進行部115は、予め記憶部120に記憶されている、依頼事項に対応するテキストデータに基づいて、それを発話するキャラクタを静止画で表示してもよい。具体的には、ゲーム進行部115は、キャラクタ401と、キャラクタ401の発言であることを示す吹き出し402と、吹き出し402内に配置された依頼事項のテキストデータとを含むクエスト提示画面400を表示部152に表示させる。あるいは、ゲーム進行部115は、予め記憶部120に記憶されている、依頼事項を発話するシーンに対応する動作指図データに基づいて、それを発話するキャラクタのアニメーションを表示してもよい。具体的には、ゲーム進行部115は、キャラクタ401を、動作指図データに含まれるモーションキャプチャデータにしたがって動かしつつ、該動作指図データに含まれる音声データをユーザ端末100が備える図示しないスピーカから音声として出力する。 There is no particular limitation on the method of presenting the character performing a series of actions of "making the character say a requested matter". For example, the game progression unit 115 may display a still image of a character speaking the text data corresponding to the requested item, which is stored in advance in the storage unit 120 . Specifically, the game progression unit 115 displays the quest presentation screen 400 including the character 401, a balloon 402 indicating that the character 401 is speaking, and the text data of the requested item placed in the balloon 402. 152. Alternatively, the game progression unit 115 may display an animation of a character who speaks the requested item based on action instruction data corresponding to a scene in which the request item is spoken, which is stored in advance in the storage unit 120 . Specifically, the game progression unit 115 moves the character 401 according to the motion capture data included in the action instruction data, and outputs the voice data included in the action instruction data as voice from a speaker (not shown) provided in the user terminal 100. Output.

本実施形態では、一例として、ゲーム進行部115は、クエストを、ユーザ端末100の位置登録情報を利用した位置情報ゲームによって実現してもよい。ゲーム進行部115は、ユーザ端末100に備えられている不図示の位置登録システムから、ユーザ端末100の現在位置情報(例えば、住所情報、緯度経度情報など)を取得する。そして、取得した現在位置情報に基づいて、ユーザ端末100がある場所周辺の地図403を生成し、クエスト提示画面400に配置する。なお地図403を生成する元になる地図データは、予めユーザ端末100の記憶部120に記憶されていてもよいし、地図データを提供する他のサービス提供装置からネットワークを介して取得されてもよい。 In the present embodiment, as an example, the game progression unit 115 may realize the quest by a positional information game using the positional registration information of the user terminal 100 . The game progression unit 115 acquires current location information (for example, address information, latitude and longitude information, etc.) of the user terminal 100 from a location registration system (not shown) provided in the user terminal 100 . Then, based on the acquired current position information, a map 403 around the location where the user terminal 100 is located is generated and arranged on the quest presentation screen 400 . The map data from which the map 403 is generated may be stored in advance in the storage unit 120 of the user terminal 100, or may be acquired via a network from another service providing device that provides map data. .

続いて、ゲーム進行部115は、依頼事項を解決できる事物(以下、目標物)を獲得できる位置(住所、緯度経度など)を決定し、決定した位置に対応する地図上の位置に、目標アイコン404を重畳表示させる。これにより、ユーザは、ユーザ端末100を持って、地図403上の目標アイコン404の位置まで移動すれば、目標物を獲得し、クエストをクリアできると理解することができる。目標物の位置について、ゲーム進行部115は、ランダムに決定してもよいし、シナリオ、クエスト、目標物の内容に応じて予め決定されていてもよい。 Subsequently, the game progression unit 115 determines a position (address, latitude/longitude, etc.) where an item (hereinafter referred to as a target) that can solve the request can be obtained, and displays a target icon at a position on the map corresponding to the determined position. 404 is superimposed and displayed. Accordingly, the user can understand that by holding the user terminal 100 and moving to the position of the target icon 404 on the map 403, the target can be obtained and the quest cleared. The position of the target may be determined randomly by the game progression unit 115, or may be determined in advance according to the scenario, the quest, and the content of the target.

ユーザが、目標アイコン404の位置に相当する実際の位置にユーザ端末100を持ち込むと、ゲーム進行部115は、主人公が目標物に到達したと判定し、ユーザに、目標物を獲得させる。ゲーム進行部115は、これにより、クエストがクリアされたと判定する。 When the user brings the user terminal 100 to the actual position corresponding to the position of the target icon 404, the game progression unit 115 determines that the hero has reached the target and allows the user to obtain the target. The game progression unit 115 thereby determines that the quest has been cleared.

本実施形態では、ゲーム進行部115は、クエストがクリアされると、クエスト解決画面500を生成し、表示部152に表示させてもよい。図7は、ユーザ端末100の表示部152に表示されるクエスト解決画面500の一例を示す図である。一例として、クエスト解決画面500は、キャラクタ401を含む。例えば、ゲーム進行部115は、キャラクタ401に、「依頼事項が解決されたことについて主人公に対して礼を言う」という動作を行わせる。ゲーム進行部115は、この動作を、予め記憶されている動作指図データに基づいてキャラクタ401に行わせてもよい。あるいは、ゲーム進行部115は、キャラクタ401の静止画と発言内容に対応するテキストデータ501とをクエスト解決画面500に配置することにより、キャラクタ401がお礼を言っているシーンを再現してもよい。 In this embodiment, the game progression unit 115 may generate a quest solution screen 500 and display it on the display unit 152 when the quest is cleared. FIG. 7 is a diagram showing an example of a quest solution screen 500 displayed on the display unit 152 of the user terminal 100. As shown in FIG. As an example, the quest resolution screen 500 includes a character 401 . For example, the game progression unit 115 causes the character 401 to perform an action of "thank the hero for solving the request". The game progression unit 115 may cause the character 401 to perform this action based on pre-stored action instruction data. Alternatively, the game progression unit 115 may reproduce a scene in which the character 401 is thanking by arranging the still image of the character 401 and the text data 501 corresponding to the statement content on the quest resolution screen 500 .

本実施形態では、ゲーム進行部115は、クエストがクリアされた報酬として、依頼主であるキャラクタ401にまつわる新たな固定シナリオを1つ解放し、ユーザがプレイ可能な状態に遷移させてもよい。具体的には、ゲーム進行部115は、図5に示すプレイ履歴を読み出し、所定の固定シナリオのステータスを「プレイ不可」から「プレイ可」に更新する。 In this embodiment, the game progression unit 115 may release one new fixed scenario related to the character 401 who is the requester as a reward for clearing the quest, and transition the scenario to a playable state for the user. Specifically, the game progression unit 115 reads out the play history shown in FIG. 5 and updates the status of the predetermined fixed scenario from "unplayable" to "playable".

さらに、ゲーム進行部115は、クエストがクリアされたことに基づいて、主人公とキャラクタとの親密度を増分してもよい。ゲーム進行部115は、クエストのプレイ内容(所要時間、移動距離、獲得個数、キャラクタの喜びの度合い、獲得された目標物のレア度など)が良いほど、親密度を上げる構成であってもよい。 Furthermore, the game progression unit 115 may increase the degree of intimacy between the hero and the character based on the clearing of the quest. The game progression unit 115 may be configured to increase intimacy as the play content of the quest (required time, movement distance, number of acquisitions, degree of joy of the character, rarity of the acquired target, etc.) is better. .

ユーザが1以上のクエストをクリアしたり、選択肢を選択したりすることにより、キャラクタとの対話が進み、シナリオが進行していく。シナリオが1つの結末を迎えると、ユーザは、シナリオのプレイを完遂したことになる。 As the user clears one or more quests or selects an option, dialogue with the character progresses and the scenario progresses. When the scenario reaches one ending, the user has completed playing the scenario.

ゲーム進行部115は、シナリオをユーザがプレイしたことの報酬として、アイテムをユーザに獲得させてもよい。アイテムは、例えば、キャラクタ401に身に付けさせる服飾品である。ゲーム進行部115は、ユーザに獲得させるアイテムを所定の規則に基づいて決定する。例えば、ゲーム進行部115は、プレイされたシナリオに予め対応付けられているアイテムをユーザに付与してもよいし、シナリオのプレイ内容(クエストクリアの所要時間、獲得された親密度、よい選択肢を選択したか、など)に応じて決定されたアイテムを付与してもよい。あるいは、ユーザに付与するアイテムは、複数の候補の中からランダムで決定されてもよい。 The game progression unit 115 may allow the user to acquire items as a reward for playing the scenario. The items are, for example, accessories worn by the character 401 . The game progression unit 115 determines items to be acquired by the user based on a predetermined rule. For example, the game progression unit 115 may give the user an item that is pre-associated with the scenario being played, or the scenario play content (required time to clear the quest, acquired intimacy, good choices, etc.). selected, etc.). Alternatively, the item to be given to the user may be randomly determined from among multiple candidates.

本実施形態では、ゲーム進行部115は、ユーザに獲得させたアイテムを通知するための報酬画面600を生成し、表示部152に表示させてもよい。図8は、ユーザ端末100の表示部152に表示される報酬画面600の一例を示す図である。一例として、報酬画面600は、獲得されたアイテムのアイコン601、および、該アイテムの名称602を含んでいてもよい。これにより、ユーザは、自身が獲得できたアイテムを確認することができる。また、ゲーム進行部115は、図5に示す項目「アイテム」に格納されているアイテムリストに、上述の獲得されたアイテムを追加する。 In the present embodiment, the game progression unit 115 may generate a reward screen 600 for notifying the user of the items acquired, and cause the display unit 152 to display the reward screen 600 . FIG. 8 is a diagram showing an example of a reward screen 600 displayed on the display unit 152 of the user terminal 100. As shown in FIG. As an example, the reward screen 600 may include an icon 601 of the acquired item and the name 602 of the item. This allows the user to check the items that he/she has obtained. In addition, the game progression unit 115 adds the acquired item to the item list stored in the item "item" shown in FIG.

<ライブ配信パートの画面例>
ゲーム進行部115は、例えば動作指図装置300などの外部の装置から動作指図データを受信すると、ライブ配信パートにおいて、キャラクタを該動作指図データに基づいて動作させる。例えば、ライブ配信パートにおいて動作指図データに基づいて動作するキャラクタを含む動画再生画面800を生成し、表示部152に表示させる。
<Screen example of the live distribution part>
When the game progression unit 115 receives action instruction data from an external device such as the action instruction apparatus 300, the game progress unit 115 causes the character to act based on the action instruction data in the live distribution part. For example, a moving image reproduction screen 800 including a character that moves based on the action instruction data is generated in the live distribution part and displayed on the display unit 152 .

図9は、ユーザ端末100の表示部152に表示される動画再生画面800の一例を示す図である。動画再生画面800は、一例として、ストーリーパートで対話相手であったキャラクタ(図示の例では、キャラクタ802)を少なくとも含む。 FIG. 9 is a diagram showing an example of a video playback screen 800 displayed on the display unit 152 of the user terminal 100. As shown in FIG. As an example, the video playback screen 800 includes at least a character (character 802 in the illustrated example) who was a dialogue partner in the story part.

本実施形態では、ゲーム進行部115は、外部の装置(以下、動作指図装置300とする)から供給された動作指図データに含まれているモーションキャプチャデータが示す動きをキャラクタ802の動きに反映させる。モーションキャプチャデータは、動作指図装置300の設置場所において、モデル702の動きを、モーションキャプチャ装置3020を介して取得したものである。したがって、モデル702の動きが、そのまま、表示部152に表示されるキャラクタ802の動きに反映される。 In this embodiment, the game progression unit 115 reflects the movement indicated by the motion capture data included in the action instruction data supplied from an external device (hereinafter referred to as the action instruction device 300) in the movement of the character 802. . The motion capture data is the motion of the model 702 acquired via the motion capture device 3020 at the installation location of the motion instruction device 300 . Therefore, the motion of the model 702 is directly reflected in the motion of the character 802 displayed on the display unit 152 .

本実施形態では、ゲーム進行部115は、動作指図装置300から供給された動作指図データに含まれている音声データ801を、キャラクタ802が発した音声として、キャラクタ802の動きと同期して出力する。音声データは、動作指図装置300の設置場所において、声優701の音声700を、マイク3010を介して取得したものである。したがって、声優701が発した音声700に対応する音声データ801が、そのまま、ユーザ端末100のスピーカから出力される。 In this embodiment, the game progression unit 115 outputs the sound data 801 contained in the action instruction data supplied from the action instruction device 300 as the sound uttered by the character 802 in synchronization with the movement of the character 802. . The voice data is obtained by acquiring the voice 700 of the voice actor 701 through the microphone 3010 at the installation location of the action instruction device 300 . Therefore, the voice data 801 corresponding to the voice 700 uttered by the voice actor 701 is output from the speaker of the user terminal 100 as it is.

上述の構成によれば、動作指図装置300の設置場所において、実在する声優701およびモデル702の音声および動きが、そのまま、キャラクタ802の音声および動きに反映される。このような動作を行うキャラクタ802を見て、ユーザは、キャラクタ802に対して、まるで、現実の世界に存在するかのような現実感を覚えることができ、ゲームの世界に没入することができる。 According to the above configuration, the voice and motion of the voice actor 701 and the model 702 that actually exist at the installation location of the action instruction device 300 are directly reflected in the voice and motion of the character 802 . Seeing the character 802 performing such actions, the user can feel the reality of the character 802 as if it exists in the real world, and can be immersed in the game world. .

さらに、本実施形態では、ゲーム進行部115は、ストーリーパート(第1パート)におけるユーザの入力操作に基づいて、ストーリーパートのプレイ結果を決定してもよい。そして、ゲーム進行部115は、ライブ配信パート(第2パート)において、動作指図データに基づいて動作させるキャラクタを、該プレイ結果に応じた表示態様にて、表示部152に表示させてもよい。 Furthermore, in the present embodiment, the game progression unit 115 may determine the play result of the story part based on the user's input operation in the story part (first part). Then, in the live distribution part (second part), the game progression unit 115 may cause the display unit 152 to display the character to be moved based on the action instruction data in a display mode according to the play result.

一例として、ゲーム進行部115は、これまでにプレイされたストーリーパートにおいて、上述のキャラクタに身に付けさせることが可能なアイテムが獲得されていれば、そのアイテムのオブジェクトをキャラクタ802のオブジェクトに合成することが好ましい。
上述の構成によれば、ユーザがストーリーパートをプレイすることにより獲得したアイテムを、ライブ配信パートで動作するキャラクタ802の服飾品に反映させることができる。例えば、図8に示すとおり、ストーリーパートにおいてシナリオをプレイしたことによって服飾品としてのアイテム(例えば、うさみみバンド)が獲得されている。この場合には、ゲーム進行部115は、図5に示すゲーム情報132から、該服飾品の情報を読み出し、該アイテムのオブジェクト(図示の例では、服飾品803)を、キャラクタ802に合成する。
As an example, the game progress unit 115 synthesizes the object of the item with the object of the character 802 if an item that can be worn by the character has been acquired in the story parts that have been played so far. preferably.
According to the above configuration, the items acquired by the user by playing the story part can be reflected in the accessories of the character 802 acting in the live distribution part. For example, as shown in FIG. 8, an item (for example, a rabbit ear band) is obtained as a furnishing item by playing the scenario in the story part. In this case, the game progression unit 115 reads the information on the furnishings from the game information 132 shown in FIG.

これにより、ユーザは、キャラクタ802により愛着を感じてライブ配信パートをより一層楽しむことができる。さらに、キャラクタ802の服飾品をバージョンアップさせたいというユーザの意欲を育むことができ、結果として、ストーリーパートをプレイする動機付けを強化することが可能となる。 This allows the user to feel more attached to the character 802 and enjoy the live distribution part even more. Furthermore, it is possible to nurture the desire of the user to upgrade the furnishings of the character 802, and as a result, it is possible to strengthen the motivation to play the story part.

さらに、本実施形態では、ゲーム進行部115は、キャラクタ802の動作に反応して、キャラクタ802に宛てたコメントを入力することが可能であってもよい。一例として、ゲーム進行部115は、動画再生画面800に、コメント入力ボタン804を配置する。ユーザは、コメント入力ボタン804にタッチして、コメントを入力するためのUIを呼び出し、該UIを操作して、キャラクタ802に宛てたコメントを入力する。該UIは、予め準備されたいくつかのコメントの中からユーザが所望のコメントを選択するためのものであってもよい。該UIは、ユーザが文字を編集してコメントを入力するためのものであってもよい。該UIは、ユーザが音声にてコメントを入力するためのものであってもよい。 Furthermore, in the present embodiment, the game progression unit 115 may be able to input comments addressed to the character 802 in response to actions of the character 802 . As an example, the game progression unit 115 arranges a comment input button 804 on the video playback screen 800 . The user touches the comment input button 804 to call up a UI for inputting a comment, operates the UI, and inputs a comment addressed to the character 802 . The UI may be for the user to select a desired comment from several comments prepared in advance. The UI may be for the user to edit characters and enter comments. The UI may be for the user to input comments by voice.

<処理フロー>
図10は、ゲームシステム1を構成する各装置が実行する処理の流れを示すフローチャートである。
<Processing flow>
FIG. 10 is a flow chart showing the flow of processing executed by each device constituting the game system 1. FIG.

ステップS101にて、ユーザ端末100のゲーム進行部115は、ユーザからゲーム開始の入力操作を受け付けると、サーバ200にアクセスし、ログインの要求を行う。 In step S<b>101 , the game progression unit 115 of the user terminal 100 accesses the server 200 and requests login upon receiving an input operation to start the game from the user.

ステップS102にて、サーバ200の進行支援部211は、ユーザ端末100のステータスがオンラインであることを確認し、ログインを受け付けた旨応答する。 In step S102, the progress support unit 211 of the server 200 confirms that the status of the user terminal 100 is online, and responds that the login has been accepted.

ステップS103にて、ゲーム進行部115は、必要に応じて、サーバ200と通信しながら、ユーザの入力操作に応じてゲームを進行させる。ゲーム進行部115は、ストーリーパートを進行させてもよいし、新たなシナリオを獲得するための獲得パートを進行させてもよい。 In step S103, the game progression unit 115 progresses the game according to the user's input operation while communicating with the server 200 as necessary. The game progression unit 115 may progress the story part, or progress the acquisition part for acquiring a new scenario.

ステップS104にて、進行支援部211は、必要に応じて、ユーザ端末100に対して必要な情報を提供するなどして、ユーザ端末100におけるゲーム進行を支援する。 In step S104, the progress support unit 211 supports the progress of the game on the user terminal 100 by, for example, providing necessary information to the user terminal 100 as necessary.

ステップS105にて、ライブ配信時刻になると、サーバ200の共有支援部212は、ステップS105のYESからステップS106に進む。ライブ配信時刻は、例えば、ゲームマスターによって予め決定されており、サーバ200および動作指図装置300において管理されている。また、ユーザ端末100に対して、ライブ配信時刻は予め通知されていてもよいし、実際にライブ配信時刻になるまで秘密にされていてもよい。前者の場合、ユーザに対して安定的にライブ配信を供給することができ、後者の場合、サプライズ配信として、ユーザに特別な付加価値が付いたライブ配信を供給することが可能となる。 In step S105, when the live distribution time comes, the sharing support unit 212 of the server 200 proceeds from YES in step S105 to step S106. The live distribution time is determined in advance by the game master, for example, and managed by the server 200 and the action instruction device 300 . Further, the user terminal 100 may be notified of the live distribution time in advance, or may be kept secret until the actual live distribution time. In the former case, it is possible to stably supply live distribution to users, and in the latter case, it is possible to supply live distribution with special added value to users as a surprise distribution.

ステップS106にて、共有支援部212は、ライブ配信を受ける権利がある1以上のユーザ端末100を探索する。ライブ配信を受けられる条件は、適宜ゲームマスターが設定すればよいが、少なくとも、本ゲームのアプリケーションをインストールしていること、および、ライブ配信時刻時点でオンラインであることなどが条件として挙げられる。本実施形態では一例として、ライブ配信時刻時点でオンラインである、すなわち、本ゲームのアプリケーションを起動しているユーザ端末100を、ライブ配信を受ける権利があるユーザ端末100として探索する。あるいは、共有支援部212は、さらに、ライブ配信を受けるための対価を支払い済みのユーザが所有するユーザ端末100であることを条件に加えてもよい。あるいは、共有支援部212は、事前に、上述のライブ配信時刻において、ライブ配信を受ける旨の予約を行った特定のユーザ端末100を、ライブ配信を受ける権利があるユーザ端末100として探索してもよい。 In step S106, the sharing support unit 212 searches for one or more user terminals 100 that have the right to receive live distribution. The conditions for receiving the live distribution may be appropriately set by the game master, but at least the conditions include having the application for this game installed and being online at the time of the live distribution. In this embodiment, as an example, user terminals 100 that are online at the time of the live distribution, that is, that are running the application of the game, are searched for as user terminals 100 that have the right to receive the live distribution. Alternatively, the sharing support unit 212 may add a condition that the user terminal 100 is owned by a user who has already paid for live distribution. Alternatively, the sharing support unit 212 may search in advance for a specific user terminal 100 that has made a reservation to receive the live distribution at the above-described live distribution time as the user terminal 100 that has the right to receive the live distribution. good.

ステップS107にて、共有支援部212は、検出した1以上のユーザ端末100を動作指図装置300に通知する。例えば、共有支援部212は、ユーザ端末100の端末ID、ユーザ端末100の所有者であるユーザのユーザID、および、ユーザ端末100のアドレスなどを動作指図装置300に通知してもよい。 In step S<b>107 , sharing support unit 212 notifies motion instruction device 300 of one or more detected user terminals 100 . For example, the sharing support unit 212 may notify the action instruction device 300 of the terminal ID of the user terminal 100, the user ID of the user who is the owner of the user terminal 100, the address of the user terminal 100, and the like.

一方、ステップS108にて、動作指図装置300のキャラクタ制御部316は、ライブ配信時刻になると、ステップS108のYESからステップS109~S110に進む。ステップS109~S110は、いずれが先に実行されても構わない。 On the other hand, in step S108, when the live distribution time comes, the character control unit 316 of the action instruction device 300 advances from YES in step S108 to steps S109 to S110. It does not matter which of steps S109 to S110 is executed first.

ステップS109にて、キャラクタ制御部316は、声優などのアクターがマイク3010を介して入力した音声を音声データとして取得する。 In step S109, the character control unit 316 acquires the voice input by the actor such as the voice actor through the microphone 3010 as voice data.

ステップS110にて、キャラクタ制御部316は、モデルなどのアクターがモーションキャプチャ装置3020を介して入力した動きをモーションキャプチャデータとして取得する。 In step S110, the character control unit 316 acquires motion captured by an actor such as a model via the motion capture device 3020 as motion capture data.

ステップS111にて、キャラクタ制御部316は、動作指図データ(第2動作指図データ)を生成する。具体的には、キャラクタ制御部316は、上述のライブ配信開始時刻に動画を配信させるキャラクタを特定し、該キャラクタのキャラクタIDを、動作指図データの「キャラクタID」の項目に格納する。いつの時刻にどのキャラクタの動画を配信するのかは、ゲームマスターによって予めスケジューリングされ、動作指図装置300に登録されていてもよい。あるいは、動作指図装置300のオペレータが、どのキャラクタの動作指図データを作成するのかを動作指図装置300に対して予め指定しておいてもよい。キャラクタ制御部316は、ステップS109で取得した音声データを、動作指図データの「音声」の項目に格納する。キャラクタ制御部316は、ステップS110で取得したモーションキャプチャデータを、動作指図データの「動き」の項目に格納する。キャラクタ制御部316は、音声データとモーションキャプチャデータとが同期するように、音声データとモーションキャプチャデータとを紐付ける。キャラクタ制御部316は、ステップS107にてサーバ200より通知された1以上のユーザ端末100が宛先となるように、これらのユーザ端末100のグループのグループ識別情報、または、1台のユーザ端末100のアドレスを、宛先指定情報として、動作指図データの「宛先」の項目に格納する。 In step S111, the character control unit 316 generates action instruction data (second action instruction data). Specifically, the character control unit 316 identifies a character whose moving image is to be distributed at the above-described live distribution start time, and stores the character ID of the character in the "character ID" item of the action instruction data. The game master may pre-schedule and register in the action instruction device 300 which character's animation is to be distributed at what time. Alternatively, the operator of the action instruction device 300 may specify to the action instruction device 300 in advance which character's action instruction data is to be created. The character control unit 316 stores the voice data acquired in step S109 in the "voice" item of the action instruction data. The character control unit 316 stores the motion capture data acquired in step S110 in the "movement" item of the action instruction data. The character control unit 316 links the audio data and the motion capture data so that the audio data and the motion capture data are synchronized. The character control unit 316 receives the group identification information of the group of these user terminals 100, or the group identification information of one user terminal 100 so that one or more user terminals 100 notified by the server 200 in step S107 become the destination. The address is stored in the "destination" item of the operation instruction data as destination designation information.

ステップS112にて、キャラクタ制御部316は、通信IF33を介して、上述のように生成した動作指図データを、宛先として指定した各ユーザ端末100に送信する。キャラクタ制御部316は、アクターが声を出したり、動いたりして得られた音声データおよびモーションキャプチャデータを、取得してすぐさま動作指図データへとレンダリングし、リアルタイムで、各ユーザ端末100に配信することが望ましい。 In step S<b>112 , the character control unit 316 transmits the action instruction data generated as described above to each user terminal 100 designated as a destination via the communication IF 33 . The character control unit 316 acquires voice data and motion capture data obtained by an actor speaking or moving, immediately renders them into action instruction data, and distributes them to each user terminal 100 in real time. is desirable.

ステップS113にて、ユーザ端末100の解析部116は、通信IF13を介して、上述の動作指図データを受信する。例えば、解析部116は、動作指図装置300またはサーバ200から予めライブ配信すると予告された時刻に、動作指図データを受信してもよい。 At step S<b>113 , analysis unit 116 of user terminal 100 receives the above-described action instruction data via communication IF 13 . For example, the analysis unit 116 may receive the action instruction data at the time when the action instruction device 300 or the server 200 has notified in advance that the live distribution will be performed.

ステップS114にて、解析部116は、受信したことをトリガにして、受信した動作指図データを解析する。 At step S114, analysis unit 116 analyzes the received action instruction data, triggered by the reception.

ステップS115にて、ゲーム進行部115は、上述の動作指図データを受信したときに、ライブ配信パートを実行していなければ、該ライブ配信パートを開始する。このとき、ゲーム進行部115は、別のパートを実行していれば、該パートの進行を中断してから、ライブ配信パートを開始する。ここで、ゲーム進行部115は、ライブ配信が開始されたために実行中のパートを一時中断する旨のメッセージを表示部152に出力し、該パートの進捗を記憶部120に保存しておくことが望ましい。なお、上述の動作指図データを受信した時点で、すでに、ライブ配信パートを実行していれば、ゲーム進行部115は、ステップS115を省略してもよい。この場合、ゲーム進行部115は、動作指図データ(すなわち、キャラクタがライブ配信する体の動画)の配信が開始された旨のメッセージを表示部152に出力してもよい。 In step S115, if the game progression unit 115 has not executed the live distribution part when the above-described action instruction data is received, the live distribution part is started. At this time, if another part is being executed, the game progression unit 115 interrupts the progress of that part and then starts the live distribution part. Here, the game progress unit 115 outputs a message to the display unit 152 to the effect that the part being executed is temporarily interrupted due to the start of the live distribution, and saves the progress of the part in the storage unit 120. desirable. It should be noted that if the live distribution part has already been executed when the above-described action instruction data is received, the game progression unit 115 may omit step S115. In this case, the game progression unit 115 may output to the display unit 152 a message to the effect that the distribution of the action instruction data (that is, the moving image of the character's body distributed live) has started.

ステップS116にて、ゲーム進行部115は、解析部116によって解析された動画指図データに基づいてキャラクタを動作させることにより、ライブ配信パートを進行させる。具体的には、ゲーム進行部115は、図9に示す動画再生画面800などを表示部152に表示させる。ゲーム進行部115は、声優701、モデル702などのアクターが動作指図装置300の設置場所で、声を出したり、動いたりしているのとほぼ同時に、リアルタイムで、その音声および動きを、動画再生画面800におけるキャラクタ802の発言および動きに反映させる。解析部116およびゲーム進行部115は、リアルタイムの動画のレンダリングおよび再生を、動作指図装置300から動作指図データを継続して受信し続けている間継続する。具体的には、ゲーム進行部115は、ユーザから何の入力操作も受け付けず、動作指図データが受信されている間は、ステップS117のNOからステップS113に戻り、以降の各ステップを繰り返す。 In step S<b>116 , the game progression unit 115 causes the character to act based on the animation instruction data analyzed by the analysis unit 116 , thereby advancing the live distribution part. Specifically, the game progression unit 115 causes the display unit 152 to display the video playback screen 800 shown in FIG. 9 or the like. The game progression unit 115 reproduces the voices and movements of the actors such as the voice actor 701 and the model 702 in real time almost at the same time when the actors such as the voice actor 701 and the model 702 are speaking and moving at the place where the motion instruction device 300 is installed. This is reflected in the utterances and movements of the character 802 on the screen 800 . The analysis unit 116 and the game progression unit 115 continue rendering and playing the moving image in real time while continuously receiving action instruction data from the action instruction device 300 . Specifically, the game progression unit 115 does not receive any input operation from the user, returns from NO in step S117 to step S113, and repeats the subsequent steps while action instruction data is being received.

ステップS117にて、動作指図データに基づいてキャラクタが動作している間に、操作受付部111が、ユーザから入力操作を受け付けると、ゲーム進行部115は、ステップS117のYESからステップS118に進む。例えば、操作受付部111は、動画再生画面800におけるコメント入力ボタン804に対する入力操作を受け付ける。 In step S117, when the operation reception unit 111 receives an input operation from the user while the character is moving based on the action instruction data, the game progression unit 115 advances from YES in step S117 to step S118. For example, the operation reception unit 111 receives an input operation on the comment input button 804 on the video playback screen 800 .

ステップS118にて、ゲーム進行部115は、上述の入力操作に応じて生成したコメントデータを動作指図装置300に送信する。具体的には、ゲーム進行部115は、選択されたコメントのコメントIDをコメントデータとして送信してもよい。あるいは、ゲーム進行部115は、ユーザにより入力された文章のテキストデータをコメントデータとして送信してもよい。あるいは、ゲーム進行部115は、ユーザにより入力された音声の音声データをコメントデータとして送信してもよい。あるいは、ゲーム進行部115は、ユーザにより入力された音声を認識し、テキストデータに変換したものをコメントデータとして送信してもよい。 In step S<b>118 , game progression unit 115 transmits the comment data generated according to the input operation described above to action instruction device 300 . Specifically, the game progression unit 115 may transmit the comment ID of the selected comment as comment data. Alternatively, the game progression unit 115 may transmit text data of sentences input by the user as comment data. Alternatively, the game progression unit 115 may transmit voice data of voice input by the user as comment data. Alternatively, the game progression unit 115 may recognize the voice input by the user, convert it into text data, and transmit it as comment data.

ステップS119にて、動作指図装置300の反応処理部317は、通信IF33を介して、ユーザ端末100から送信されたコメントデータを受信する。 In step S<b>119 , reaction processing unit 317 of action instruction device 300 receives the comment data transmitted from user terminal 100 via communication IF 33 .

ステップS120にて、反応処理部317は、受信したコメントデータを、動作指図装置300に出力する。例えば、反応処理部317は、コメントデータに含まれるテキストデータを表示部352に表示する。これにより、オペレータは、自分たちが動かしたキャラクタに対して、ユーザがどのような反応を示したのかを示すフィードバックを受けることが可能となる。そして、オペレータは、このフィードバックに合わせて、さらなるキャラクタの動作を決定することができる。すなわち、動作指図装置300は、ステップS109に戻り、音声データおよびモーションキャプチャデータの取得を継続し、動作指図データをユーザ端末100に提供し続ける。ユーザ端末100は、自端末における入力操作の内容が動作指図装置300によって受信された後、該動作指図装置300から送信された動作指図データを受信する。具体的には、ユーザ端末100は、キャラクタの発言内容に対応する音声データ、および、キャラクタの動きに対応するモーションキャプチャデータなどが含まれた動作指図データを受信する。そして、ユーザ端末100は、継続的に、該動作指図データに基づいて、キャラクタを動作させる。結果として、ユーザに、キャラクタとのリアルタイムでインタラクティブなやりとりを体験させることが可能となる。なお、モーションキャプチャデータに代えて、キャラクタの動作を指示する1以上のコマンドが、動作指図装置300のオペレータが指示した順に並んでいるモーションコマンド群が、ユーザ端末100によって受信されてもよい。 In step S<b>120 , reaction processing unit 317 outputs the received comment data to action instruction device 300 . For example, the reaction processing section 317 displays text data included in the comment data on the display section 352 . This allows the operator to receive feedback indicating how the user reacted to the characters they moved. The operator can then determine further character actions in accordance with this feedback. That is, the action instruction device 300 returns to step S<b>109 , continues acquiring voice data and motion capture data, and continues to provide the user terminal 100 with action instruction data. The user terminal 100 receives the action instruction data transmitted from the action instruction device 300 after the action instruction device 300 receives the content of the input operation in the user terminal 100 . Specifically, the user terminal 100 receives action instruction data including voice data corresponding to the character's utterance content, motion capture data corresponding to the character's movement, and the like. Then, the user terminal 100 continuously moves the character based on the action instruction data. As a result, it is possible for the user to experience real-time interactive interaction with the character. Instead of the motion capture data, the user terminal 100 may receive a motion command group in which one or more commands for instructing the motion of the character are arranged in the order instructed by the operator of the motion instruction device 300.

<変形例>
実施形態1の変形例では、ライブ配信パートにおいて動画をライブ配信するキャラクタは、他のパートにおいて、NPCでなくてもよい。すなわち、他のパートにおいて、ユーザの操作に基づいて動作するPCが、ライブ配信パートにおいてNPCとして動画をライブ配信するゲームに対しても、本発明を適用することができる。
<Modification>
In the modified example of Embodiment 1, the character whose moving image is live-delivered in the live-delivery part does not have to be an NPC in other parts. That is, the present invention can also be applied to a game in which a PC that operates based on a user's operation in another part distributes moving images live as an NPC in the live distribution part.

本変形例では、ユーザ端末100は、ゲームプログラム131に基づいて、ゲームの興趣性を向上させるために以下のステップを実行するように構成されている。具体的には、ユーザ端末100は、操作部(入出力IF14、タッチスクリーン15、カメラ17、測距センサ18)を介してコンピュータ(ユーザ端末100)に入力されたユーザの入力操作に応じてキャラクタを動作させることにより第1パートを進行させるステップと、NPC制御装置(動作指図装置300)から受信した、キャラクタの動作を指定する動作指図データに基づいてキャラクタを動作させることにより第2パートを進行させるステップとを実行する。ここで、動作指図データは、音声データおよびモーションキャプチャデータの少なくともいずれか1つを含む。ユーザ端末100は、第2パートを進行させるステップでは、ユーザの入力操作の内容をNPC制御装置に送信し、該入力操作の内容を踏まえてNPC制御装置において決定された動作指図データを受信し、動作指図データを受信したことをトリガにして、キャラクタを動作させる。 In this modified example, the user terminal 100 is configured to execute the following steps based on the game program 131 in order to improve the interest of the game. Specifically, the user terminal 100 generates a character according to a user's input operation input to the computer (user terminal 100) via the operation unit (input/output IF 14, touch screen 15, camera 17, distance measuring sensor 18). and progressing the second part by causing the character to act based on action instruction data specifying the character's action received from the NPC control device (action instruction device 300). and perform the step of Here, the action instruction data includes at least one of voice data and motion capture data. In the step of advancing the second part, the user terminal 100 transmits the content of the user's input operation to the NPC control device, receives the action instruction data determined by the NPC control device based on the content of the input operation, Receipt of action instruction data is used as a trigger to move the character.

〔実施形態2〕
<ゲーム概要>
実施形態2に係るゲームシステム1が実行するゲーム(以下、本ゲーム)は、実施形態1と同様に、一例として、恋愛シミュレーションゲームの要素を含んだ育成シミュレーションゲームである。本実施形態では、本ゲームには、少なくともライブ配信パートが含まれる。本ゲームは、単一のライブ配信パートで構成されていてもよいし、複数のパートで構成されていてもよい。また、ライブ配信パートにおいて、動作指図装置300によって動作を制御されるキャラクタは、PCであっても、NPCであっても構わない。例えば、ライブ配信パートにてNPCとして動作するキャラクタであっても、別のパートでは、PCとしてユーザの入力操作にしたがって動作することがあってもよい。あるいは、動作指図データが動作指図装置300からライブ配信されていない期間、キャラクタは、ライブ配信パート内で、PCとして、ユーザの入力操作にしたがって動作してもよい。そして、ライブ配信が開始されたら、該キャラクタは、NPCに切り替えられ、動作指図装置300から供給された動作指図データにしたがって動作してもよい。
[Embodiment 2]
<Game Overview>
A game executed by the game system 1 according to the second embodiment (hereinafter referred to as "this game") is, as an example, a training simulation game including elements of a love simulation game, as in the first embodiment. In this embodiment, the game includes at least a live distribution part. This game may consist of a single live distribution part, or may consist of a plurality of parts. Also, in the live distribution part, the character whose motion is controlled by the motion instruction device 300 may be either a PC or an NPC. For example, a character that acts as an NPC in a live distribution part may act as a PC in another part according to a user's input operation. Alternatively, while the action instruction data is not live distributed from the action instruction device 300, the character may act as a PC in the live distribution part according to the user's input operation. Then, when the live distribution is started, the character may be switched to NPC and move according to the action instruction data supplied from the action instruction device 300 .

<処理概要>
本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、ゲームの興趣性を向上させるために以下のステップを実行するように構成されている。具体的には、ユーザ端末100は、例えば入力部151などの操作部を介してユーザ端末100(コンピュータ)に入力されたユーザの入力操作に応じてキャラクタを動作させるステップと、サーバ200または動作指図装置300(キャラクタ制御装置)からマルチキャストで送信されたキャラクタの動作を指定する動作指図データを受信するステップと、受信した動作指図データに基づいて、キャラクタを動作させるステップとを実行する。
<Overview of processing>
In this embodiment, based on the game program 131, the user terminal 100 is configured to perform the following steps in order to improve the interest of the game. Specifically, the user terminal 100 moves a character according to a user's input operation input to the user terminal 100 (computer) via an operation unit such as the input unit 151; A step of receiving action instruction data specifying an action of the character transmitted by multicast from the device 300 (character control device) and a step of causing the character to act based on the received action instruction data are executed.

さらに、キャラクタを動作させるステップは、マルチキャストで送信された動作指図データが、受信するステップにおいて受信されたことをトリガにして開始されることが好ましい。 Furthermore, it is preferable that the step of causing the character to act is triggered by the fact that the action instruction data transmitted by multicast is received in the receiving step.

あるいは、本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、ゲームの興趣性を向上させるために以下のステップを実行するように構成されていてもよい。具体的には、ユーザ端末100は、操作部を介してユーザ端末100に入力されたユーザの入力操作に応じてキャラクタを動作させるステップと、サーバ200または動作指図装置300からユーザ端末100に宛てて送信された、キャラクタの動作を指定する動作指図データであって、該動作指図データの作成元として他のユーザのユーザ端末100が指定されていない動作指図データを受信するステップと、受信した動作指図データに基づいて、キャラクタを動作させるステップとを実行する。なお、動作指図データが「ユーザ端末100に宛てて送信された」とは、例えば、動作指図データがユニキャストで送信されたことを意味する。例えば、ユーザ端末100は、宛先指定情報に、自端末固有のアドレスが含まれている場合に、動作指図データが自端末に宛てて、すなわち、ユニキャストで送信されたと判断することができる。 Alternatively, in the present embodiment, the user terminal 100 may be configured to perform the following steps based on the game program 131 in order to make the game more interesting. Specifically, the user terminal 100 moves a character according to the user's input operation input to the user terminal 100 via the operation unit, a step of receiving transmitted action instruction data designating an action of a character, wherein the action instruction data is not designated by a user terminal 100 of another user as a creator of the action instruction data; and the received action instruction. and activating the character based on the data. It should be noted that the action instruction data "transmitted to the user terminal 100" means, for example, that the action instruction data is unicast. For example, the user terminal 100 can determine that the operation instruction data is addressed to the terminal itself, i.e., transmitted by unicast, when the destination specification information includes an address unique to the terminal itself.

さらに、キャラクタを動作させるステップは、ユニキャストで送信された動作指図データであって、ユーザまたはユーザ端末の識別情報が紐付けられていない動作指図データが、受信するステップにおいて受信されたことをトリガにして開始されることが好ましい。 Furthermore, the step of causing the character to act triggers the reception in the receiving step of action instruction data transmitted by unicast and not associated with the identification information of the user or the user terminal. is preferably started with

<ゲームシステム1の機能的構成>
本実施形態に係るユーザ端末100において、解析部116は、さらに、動作指図データのメタ情報も解析する。メタ情報とは、動作指図データの中身とは別に、動作指図データの性質を定義する情報である。メタ情報は、例えば、宛先指定情報、および、作成元情報などである。具体的には、解析部116は、送信された動作指図データの宛先指定情報に基づいて、該動作指図データが、マルチキャスト送信されたものであるのか、ユニキャスト送信されたものであるのかを判断する。マルチキャスト送信とは、サーバ200または動作指図装置300が、自端末を含む所定のグループに対して同じ内容の情報を送信することを意味する。例えば、宛先指定情報として「ALL」が設定されている動作指図データは、本ゲームのアプリケーションを起動中のすべてのユーザ端末に宛てて同送される。ユニキャスト送信とは、サーバ200または動作指図装置300が、自端末に宛てて情報を送信することを意味する。宛先指定情報は、例えば、図4に示す動作指図データの項目「宛先」に格納されている。
<Functional Configuration of Game System 1>
In the user terminal 100 according to this embodiment, the analysis unit 116 also analyzes the meta information of the action instruction data. Meta information is information that defines properties of the action instruction data separately from the content of the action instruction data. The meta information is, for example, destination specification information, creator information, and the like. Specifically, analysis unit 116 determines whether the action instruction data has been multicast-transmitted or unicast-transmitted, based on the destination designation information of the transmitted action instruction data. do. Multicast transmission means that server 200 or operation instruction device 300 transmits information of the same content to a predetermined group including its own terminal. For example, action instruction data in which "ALL" is set as destination designation information is sent together to all user terminals that are running the application of this game. Unicast transmission means that server 200 or operation instruction device 300 transmits information to its own terminal. The destination designation information is stored, for example, in the item "destination" of the action instruction data shown in FIG.

マルチキャスト送信された動作指図データは、特定のユーザではなく、ゲームマスターによって作成されたものと考えられる。具体的には、上述の動作指図データは、ゲームシステム1において本ゲームのサービスを提供するプロバイダ(運営団体)に帰属する装置によって作成されたものであってもよい。例えば、サーバ200または動作指図装置300は、すべてのユーザおよびユーザ端末についての情報を把握しているので、動作指図データを作成し、アプリケーション起動中のユーザ端末にマルチキャスト送信することが可能である。したがって、ユーザ端末100は、マルチキャスト送信された動作指図データを、ゲームマスターによって作成されたものであると判断することができる。 The action instruction data that is multicast is considered to have been created by the game master, not by any particular user. Specifically, the above-described action instruction data may be created by a device belonging to a provider (operating organization) that provides the game service in the game system 1 . For example, since the server 200 or the action instruction device 300 has information on all users and user terminals, it is possible to create action instruction data and multicast it to user terminals that are running applications. Therefore, the user terminal 100 can determine that the multicast-transmitted action instruction data was created by the game master.

本実施形態では、解析部116は、一例として、以下の機能を有していてもよい。具体的には、解析部116は、マルチキャスト送信された動作指図データをレンダリングする。そして、解析部116は、レンダリングの結果に基づいてキャラクタを動作させるように、ゲーム進行部115に指示する。より好ましくは、解析部116は、マルチキャスト送信された動作指図データが受信されたことをトリガにして、該動作指図データをリアルタイムにレンダリングする。続けて、解析部116は、レンダリングの結果に基づいてキャラクタを動作させるように、ゲーム進行部115に指示する。 In this embodiment, the analysis unit 116 may have the following functions as an example. Specifically, the analysis unit 116 renders the multicast-transmitted action instruction data. The analysis unit 116 then instructs the game progression unit 115 to move the character based on the rendering result. More preferably, the analysis unit 116 is triggered by the reception of multicast-transmitted action instruction data and renders the action instruction data in real time. Subsequently, the analysis unit 116 instructs the game progression unit 115 to move the character based on the rendering result.

別の実施形態では、解析部116は、上述の機能に代えて、あるいは、加えて、以下の機能を有していてもよい。具体的には、解析部116は、ユニキャスト送信された動作指図データであって、例えば、ユーザIDまたはユーザ端末IDなどの特定のユーザに関連する情報が紐付けられていない動作指図データをレンダリングする。そして、解析部116は、レンダリングの結果に基づいてキャラクタを動作させるように、ゲーム進行部115に指示する。より好ましくは、解析部116は、動作指図データがユニキャスト送信されたものであると判断した場合には、該動作指図データの作成元情報に基づいて、該動作指図データが特定のユーザ端末によって作成されたものかどうか判断する。例えば、作成元情報として、特定のユーザに関連する情報が紐付けられている動作指図データについて、解析部116は、特定のユーザ端末によって作成されたものであると判断する。作成元情報の値が空である動作指図データ、および、そもそも作成元情報が紐付けられていない動作指図データについて、解析部116は、特定のユーザ端末によって作成されたものではないと判断する。特定のユーザ端末によって作成されたものではない動作指図データは、ゲームマスターによって作成されたものと考えられる。 In another embodiment, the analysis unit 116 may have the following functions instead of or in addition to the functions described above. Specifically, the analysis unit 116 renders the unicast-transmitted action instruction data that is not associated with information related to a specific user, such as a user ID or a user terminal ID. do. The analysis unit 116 then instructs the game progression unit 115 to move the character based on the rendering result. More preferably, when the analysis unit 116 determines that the action instruction data has been unicast-transmitted, the action instruction data is transmitted by a specific user terminal based on the creator information of the action instruction data. Determine if it was created. For example, the analysis unit 116 determines that action instruction data associated with information related to a specific user as creator information was created by a specific user terminal. The analysis unit 116 determines that the action instruction data whose creator information value is empty and the action instruction data to which the creator information is not linked in the first place are not created by a specific user terminal. Action instruction data not created by a specific user terminal is considered to be created by a game master.

解析部116は、ユニキャスト送信された、特定のユーザの関連情報が作成元情報として紐付けられていない動作指図データを受信したことをトリガにして、該動作指図データをリアルタイムにレンダリングする。続けて、解析部116は、レンダリングの結果に基づいてキャラクタを動作させるように、ゲーム進行部115に指示する。 The analysis unit 116 is triggered by the reception of unicast-transmitted action instruction data in which related information of a specific user is not linked as creator information, and renders the action instruction data in real time. Subsequently, the analysis unit 116 instructs the game progression unit 115 to move the character based on the rendering result.

これにより、ユーザ端末100は、ゲームマスターから配信された動作指図データに基づいて、キャラクタを、該ゲームマスターの意図を反映してリアルタイムに動作させることができる。そのため、キャラクタがまるでそこに本当に存在しているかのような現実感を、該キャラクタに備えさせることができる。 As a result, the user terminal 100 can move the character in real time while reflecting the intent of the game master based on the action instruction data distributed by the game master. Therefore, it is possible to make the character feel as if the character really exists there.

<処理フロー>
図11は、本実施形態に係るユーザ端末100が実行する、動作指図データを解析する処理の流れを示すフローチャートである。本実施形態では、ゲームシステム1の各装置が実行する処理は、図10に示す処理とほぼ同様である。ステップS114にて、ユーザ端末100は、以下に示すとおり、動作指図データを解析する。
<Processing flow>
FIG. 11 is a flow chart showing the flow of processing for analyzing action instruction data, which is executed by the user terminal 100 according to this embodiment. In this embodiment, the processing executed by each device of the game system 1 is substantially the same as the processing shown in FIG. In step S114, the user terminal 100 analyzes the action instruction data as described below.

ステップS201にて、解析部116は、動作指図データの項目「宛先」から宛先指定情報を取得する。 In step S201, analysis unit 116 acquires destination designation information from the item "destination" of the action instruction data.

ステップS202にて、解析部116は、宛先指定情報に基づいて、該動作指図データが、マルチキャストで送信されたものか否かを判断する。宛先指定情報がグループ識別子(例えば、「ALL」など)を指している場合には、解析部116は、該動作指図データがマルチキャストで送信されたものであると判断する。そして、解析部116は、ステップS202のYESから、図10に示すステップS115以降に進む。すなわち、ゲーム進行部115は、マルチキャストで送信された動作指図データが自端末において受信されたことをトリガにして、該動作指図データに基づいてキャラクタをリアルタイムで動作させる。一方、宛先指定情報が自端末のアドレスを指している場合には、解析部116は、該動作指図データが、ユニキャストで送信されたものであると判断する。本実施形態では、解析部116は、ユニキャストで送信されたものは、リアルタイムで再生する必要はないと判断し、受信した動作指図データを記憶部120に保存して、図10に示すステップS103以降に戻ってもよい。ステップS103では、例えば、ゲーム進行部115は、ユーザ端末100に入力されたユーザの入力操作に応じてキャラクタを動作させるパートを進行させてもよい。別の実施形態では、ユニキャストで送信された動作指図データが受信された場合には、解析部116は、ステップS202のNOからステップS203に進んでもよい。 In step S202, analysis unit 116 determines whether or not the action instruction data has been transmitted by multicast based on the destination designation information. If the destination designation information points to a group identifier (for example, "ALL"), analysis unit 116 determines that the action instruction data has been transmitted by multicast. Then, from YES in step S202, the analysis unit 116 proceeds to step S115 and subsequent steps shown in FIG. That is, the game progression unit 115 is triggered by the fact that the action instruction data transmitted by multicast is received at its own terminal, and causes the character to move in real time based on the action instruction data. On the other hand, when the destination designation information points to the address of the own terminal, analysis unit 116 determines that the action instruction data was transmitted by unicast. In this embodiment, the analysis unit 116 determines that the data transmitted by unicast does not need to be reproduced in real time, stores the received action instruction data in the storage unit 120, and stores the data in step S103 shown in FIG. You can return later. In step S<b>103 , for example, the game progression unit 115 may progress a part in which a character moves according to the user's input operation input to the user terminal 100 . In another embodiment, when action instruction data transmitted by unicast is received, the analysis unit 116 may proceed from NO in step S202 to step S203.

ステップS203にて、解析部116は、該動作指図データの項目「作成元」から、作成元情報を取得する。 In step S203, analysis unit 116 acquires creator information from the item "creator" of the action instruction data.

ステップS204にて、解析部116は、作成元情報が特定のユーザに関連するユーザ関連情報を指しているか否かを判断する。ユーザ関連情報は、例えば、ユーザID、ユーザ端末100の端末ID、ユーザ端末100のアドレスなどである。作成元情報が、特定のユーザのユーザ関連情報でない場合、解析部116は、該動作指図データが、特定のユーザによって作成されたものではなく、ゲームマスターによって作成されたものであると判断する。そして、解析部116は、ステップS204のNOから、図10に示すステップS115以降に進む。すなわち、ゲーム進行部115が、ユーザ関連情報が紐付けられていない動作指図データが自端末において受信されたことをトリガにして、該動作指図データに基づいてキャラクタをリアルタイムで動作させる。一方、作成元情報が、特定のユーザのユーザ関連情報である場合、解析部116は、該動作指図データが、特定のユーザによって作成されたものであると判断する。したがって、解析部116は、ゲームマスターから供給された動作指図データではないので、リアルタイムで再生する必要はないと判断し、ステップS204のYESからステップS205に進む。 In step S204, analysis unit 116 determines whether or not the creator information indicates user-related information related to a specific user. The user-related information is, for example, the user ID, the terminal ID of the user terminal 100, the address of the user terminal 100, and the like. If the creator information is not user-related information of a specific user, the analysis unit 116 determines that the action instruction data was not created by a specific user but by a game master. Then, from NO in step S204, the analysis unit 116 proceeds to step S115 and subsequent steps shown in FIG. That is, the game progression unit 115 causes the character to move in real time based on the action instruction data, triggered by the reception of the action instruction data to which the user-related information is not linked. On the other hand, when the creator information is user-related information of a specific user, analysis unit 116 determines that the action instruction data was created by a specific user. Therefore, the analysis unit 116 determines that the data does not need to be reproduced in real time since it is not the action instruction data supplied from the game master, and proceeds from YES in step S204 to step S205.

ステップS205にて、解析部116は、特定のユーザによって作成された動作指図データを記憶部120に保存して、図10に示すステップS103以降に戻る。 In step S205, analysis unit 116 saves the action instruction data created by the specific user in storage unit 120, and returns to step S103 and subsequent steps shown in FIG.

上述の構成および方法によれば、ユーザ端末100において、ユーザの入力操作に応じてキャラクタを動作させることに加えて、サーバ200または動作指図装置300から受信した動作指図データに基づいてキャラクタを動作させることができる。そのためキャラクタの動作は、型にはまらずに表現が大幅に広がる。これにより、ユーザは、キャラクタの動作を見て、該キャラクタがまるで現実の世界にいるかのような現実感を覚えることができる。そして、ユーザは、該キャラクタとの現実感が豊かなやりとりの体験を通じて、よりキャラクタに愛着を感じるので、該キャラクタを操作する別のパートもよりいっそう興味を持ってプレイすることができる。結果として、ゲームの世界への没入感を高め、該ゲームの興趣性を向上させるという効果を奏する。 According to the above configuration and method, in user terminal 100, in addition to causing the character to act according to the user's input operation, the character is caused to act based on the action instruction data received from server 200 or action instruction device 300. be able to. As a result, the character's actions are unconventional and can be expressed in a wide range of ways. This allows the user to see the action of the character and feel as if the character is in the real world. Since the user feels more attached to the character through the experience of interacting with the character with a rich sense of reality, the user can play the other part in which the character is operated with even greater interest. As a result, it is possible to enhance the sense of immersion in the world of the game and improve the interest of the game.

<変形例>
実施形態2の変形例において、解析部116は、宛先指定情報に基づいて、動作指図データがマルチキャスト送信されたか否かを判断するステップを省略し、動作指図データに特定のユーザのユーザ関連情報が紐付いているか否かを、作成元情報に基づいて判断するステップを実行してもよい。
<Modification>
In a modification of the second embodiment, the analysis unit 116 omits the step of determining whether or not the action instruction data has been multicast-transmitted based on the destination designation information, and the action instruction data includes user-related information of a specific user. A step of judging whether or not it is linked based on the creator information may be executed.

〔実施形態3〕
本実施形態に係るゲームシステム1が実行するゲームは、ライブ配信パートと、ストーリーパートと、獲得パートとを含む。本実施形態に係るゲームシステム1は、実施形態1と同様に構成されて同様に動作することに加えて、ライブ配信パートの進行中に、獲得パートを進行するよう構成される。なお、本実施形態に係るゲームシステム1の構成、動作及びゲーム画面例のうち、実施形態1と同様のものについては既に説明した通りであるため、詳細な説明を繰り返さない。
[Embodiment 3]
A game executed by the game system 1 according to this embodiment includes a live distribution part, a story part, and an acquisition part. The game system 1 according to this embodiment is configured and operates in the same manner as in the first embodiment, and in addition, is configured to proceed with the acquisition part while the live distribution part is in progress. Among the configuration, operation, and game screen examples of the game system 1 according to the present embodiment, those similar to those of the first embodiment have already been described, and detailed description thereof will not be repeated.

<ユーザ端末100の機能的構成>
本実施形態において、ユーザ端末100は、ゲームプログラム131に基づいて、次のように動作するよう構成される。具体的には、ユーザ端末100は、少なくとも1つのキャラクタを制御するキャラクタ制御装置から、当該ユーザ端末100を含む複数のユーザ端末100に対して送信された、キャラクタの動作を指定する動作指図データに基づいて、キャラクタを当該ユーザ端末100で動作させることにより、ゲームに含まれる第1ゲームパートを進行させる。本実施形態では、キャラクタ制御装置の一例として、上述した動作指図装置300を適用する。また、ここでいう第1ゲームパートとは、本願の特許請求の範囲に記載された第1パートに相当する。本実施形態では、第1ゲームパートの一例として、上述したライブ配信パートを適用する。
<Functional Configuration of User Terminal 100>
In this embodiment, the user terminal 100 is configured to operate as follows based on the game program 131 . Specifically, the user terminal 100 responds to action instruction data specifying character actions transmitted from a character control device that controls at least one character to a plurality of user terminals 100 including the user terminal 100 concerned. Based on this, the first game part included in the game is progressed by causing the character to act on the user terminal 100 concerned. In this embodiment, the above-described action instruction device 300 is applied as an example of the character control device. Also, the first game part here corresponds to the first part described in the claims of the present application. In this embodiment, the live delivery part described above is applied as an example of the first game part.

また、ユーザ端末100は、第1ゲームパート(ライブ配信パート)の進行中に、ユーザの操作に応じて、ゲームにおいて利用可能なデジタルコンテンツの何れかを選択し、選択したデジタルコンテンツを、ユーザに付与されたものとしてユーザに関連付けてメモリに記憶させる。換言すると、ユーザ端末100は、ライブ配信パートの進行中に、ユーザの操作に応じて獲得パートを進行させる。本実施形態では、デジタルコンテンツの一例として、上述した獲得シナリオを適用する。 In addition, during the progress of the first game part (live distribution part), the user terminal 100 selects any of the digital contents that can be used in the game according to the user's operation, and sends the selected digital contents to the user. It is associated with the user as given and stored in the memory. In other words, the user terminal 100 advances the acquisition part according to the user's operation while the live distribution part is in progress. In this embodiment, the acquisition scenario described above is applied as an example of digital content.

なお、本実施形態では、獲得シナリオには、ランクが設定されているものとする。ランクは、複数の段階によって表される。獲得シナリオは、ランクが高いものほど、獲得パートにおいて付与される確率が低くなるよう定められていてもよい。 In this embodiment, it is assumed that ranks are set for acquisition scenarios. A rank is represented by a number of stages. Acquisition scenarios may be determined such that the higher the rank, the lower the probability of being granted in the acquisition part.

また、本実施形態では、獲得パートにおいて、ゲームにおいて利用可能な獲得シナリオの何れかを選択する際に、所定の規則に基づいて選択を行うものとする。また、所定の規則に基づく選択として、あらかじめ定められた抽選確率に基づく抽選を行うものとする。ただし、獲得パートにおける選択は、他の規則に基づくものであってもよい。以降、獲得パートにおける選択及び選択結果を、抽選及び抽選結果とも記載し、獲得パートを、抽選パートとも記載する。また、以降、各種のデジタルコンテンツをユーザに付与されたものものとして記憶部110に記憶させることを、単に、「ユーザに付与する」とも記載し、ユーザに付与されたデジタルコンテンツを、「ユーザが保有するデジタルコンテンツ」等とも記載する。 Further, in this embodiment, in the acquisition part, when selecting one of acquisition scenarios that can be used in the game, the selection is made based on a predetermined rule. Also, a lottery based on a predetermined lottery probability is performed as a selection based on a predetermined rule. However, the selection in the winning part may be based on other rules. Hereinafter, the selection and selection results in the acquisition part will also be referred to as the lottery and the lottery results, and the acquisition part will also be referred to as the lottery part. Further, hereinafter, storing various digital contents in the storage unit 110 as those given to the user will be simply referred to as "given to the user", and the digital content given to the user will be referred to as "the "Owned digital content" etc.

また、ユーザ端末100は、第1情報を取得する。本実施形態では、ユーザ端末100は、サーバ200から送信された第1情報を、受信することにより取得するものとする。また、ユーザ端末100は、第1ゲームパート(ライブ配信パート)の進行中に、第1情報を表示部152に表示する。 Also, the user terminal 100 acquires the first information. In this embodiment, the user terminal 100 acquires the first information transmitted from the server 200 by receiving it. Also, the user terminal 100 displays the first information on the display unit 152 while the first game part (live delivery part) is in progress.

ここで、第1情報とは、複数のユーザ端末100の少なくとも1つにおいて、ライブ配信パートの進行中に実行された抽選パートにおける抽選結果に基づく情報である。本実施形態では、第1情報は、複数のユーザ端末100の各々において、ライブ配信パートの進行中に実行された抽選パートにおける抽選結果を含むものとする。また、複数のユーザ端末100とは、同一の動作指図データに基づいて同時にライブ配信パートを進行中のユーザ端末100であるものとする。以降、第1情報を、みんなの抽選結果を表す情報とも記載する。 Here, the first information is information based on the lottery result in the lottery part executed during the progress of the live distribution part in at least one of the plurality of user terminals 100 . In this embodiment, the first information includes the lottery result of the lottery part executed during the live distribution part in each of the plurality of user terminals 100 . Also, the plurality of user terminals 100 are assumed to be the user terminals 100 that are simultaneously performing the live distribution part based on the same action instruction data. Henceforth, the 1st information is also described as the information showing everyone's lottery result.

<サーバ200の機能的構成>
本実施形態において、サーバ200は、ゲームプログラム131に基づいて、次のように動作するよう構成される。
<Functional Configuration of Server 200>
In this embodiment, the server 200 is configured to operate as follows based on the game program 131 .

サーバ200は、複数のユーザ端末100の各々においてライブ配信パートの進行中に実行された抽選パートの抽選結果に基づく第1情報(みんなの抽選結果を表す情報)を、複数のユーザ端末100及び動作指図装置300に対して送信する。 The server 200 transmits the first information (information representing everyone's lottery results) based on the lottery results of the lottery part executed during the live distribution part in each of the plurality of user terminals 100 and the operation instructions. Send to device 300 .

例えば、サーバ200は、複数のユーザ端末100の各々における抽選結果に基づいて、みんなの抽選結果を表す情報を生成し、生成した情報を送信してもよい。みんなの抽選結果を表す情報は、複数のユーザ端末100の各々について、そのユーザを表す名称と、抽選により決定された獲得シナリオの名称を表す情報とを含んでいてもよい。みんなの抽選結果を表す情報は、例えば、複数のユーザ端末100における抽選結果を集計した情報であってもよい。 For example, the server 200 may generate information representing everyone's lottery results based on the lottery results of each of the plurality of user terminals 100, and transmit the generated information. The information representing everyone's lottery results may include, for each of the plurality of user terminals 100, the name representing the user and the information representing the name of the acquisition scenario determined by lottery. The information representing everyone's lottery results may be, for example, information obtained by tallying the lottery results of a plurality of user terminals 100 .

<動作指図装置300の機能的構成>
本実施形態において、動作指図装置300は、キャラクタ制御プログラム134に基づいて、次のように動作するよう構成される。
<Functional configuration of motion instruction device 300>
In this embodiment, the action instruction device 300 is configured to operate as follows based on the character control program 134 .

動作指図装置300は、動作指図データを複数のユーザ端末100に対して送信することにより、各ユーザ端末100において少なくとも1つのキャラクタを制御する装置である。動作指図装置300は、みんなの抽選結果を表す情報を取得する。本実施形態では、動作指図装置300は、サーバ200によって送信されたみんなの抽選結果を表す情報を、受信することにより取得するものとする。また、動作指図装置300は、みんなの抽選結果を表す情報を、表示部352に表示する。 The action instruction device 300 is a device that controls at least one character in each user terminal 100 by transmitting action instruction data to a plurality of user terminals 100 . The action instruction device 300 acquires information representing everyone's lottery results. In the present embodiment, the action instruction device 300 acquires by receiving the information indicating everyone's lottery result transmitted by the server 200 . In addition, the action instruction device 300 displays information representing the lottery result of everyone on the display unit 352 .

なお、動作指図装置300は、動作指図データとして、第1動作を指定する動作指図データを送信してもよい。この場合、ユーザ端末100は、第1動作を指定する動作指図データを受信してから所定期間内に抽選パートを進行させる。また、この場合、みんなの抽選結果を表す情報は、複数のユーザ端末100においてライブ配信パート進行中の所定期間内に進行した抽選パートにおける抽選結果に基づく情報を表す。 Note that the action instruction device 300 may transmit action instruction data designating the first action as the action instruction data. In this case, the user terminal 100 advances the lottery part within a predetermined period of time after receiving the action instruction data specifying the first action. Also, in this case, the information representing everyone's lottery results represents information based on the lottery results of the lottery parts that progressed within a predetermined period during the live distribution part progressing on the plurality of user terminals 100 .

なお、この場合、動作指図装置300は、第1動作を指定する動作指図データを複数のユーザ端末100に送信するとともに、所定期間を表す情報を、複数のユーザ端末100及びサーバ200に送信する。所定期間を表す情報は、所定期間の開始時刻及び終了時刻を含んでいてもよい。また、所定期間を表す情報は、所定期間の開始時刻及び期間の長さを表す情報を含んでいてもよい。また、所定期間を表す情報に所定期間の開始時刻を含める代わりに、当該所定期間を表す情報の受信時刻を、所定期間の開始時刻とみなしてもよい。また、所定期間を表す情報に所定期間の終了時刻を含める代わりに、当該所定期間を表す情報の受信時刻を、所定期間の終了時刻とみなしてもよい。以降、所定期間を、「抽選タイム」とも記載する。 In this case, the action instruction device 300 transmits the action instruction data designating the first action to the plurality of user terminals 100 and also transmits information representing the predetermined period to the plurality of user terminals 100 and the server 200 . The information representing the predetermined period may include the start time and end time of the predetermined period. Further, the information representing the predetermined period may include information representing the start time of the predetermined period and the length of the period. Further, instead of including the start time of the predetermined period in the information indicating the predetermined period, the reception time of the information indicating the predetermined period may be regarded as the start time of the predetermined period. Further, instead of including the end time of the predetermined period in the information representing the predetermined period, the reception time of the information representing the predetermined period may be regarded as the end time of the predetermined period. Henceforth, a predetermined period is also described as "lottery time."

ここで、第1動作とは、ライブ配信パート進行中に抽選パートを進行させるための動作であってもよい。このような第1動作を指定する動作指図データが複数のユーザ端末100に送信されることにより、複数のユーザ端末100の各々のユーザに対して、ライブ配信パート進行中に抽選パートを進行させるためのユーザ操作を共に行うことが促される。以降、複数のユーザ端末100においてライブ配信パート進行中に抽選パートを共に進行させることを、「みんなで抽選」とも記載し、第1動作を、「みんなで抽選を促す動作」とも記載する。なお、「共に」何等かの処理を行うとは、複数のユーザ端末100が定められた期間内に何らかの処理を少なくとも開始することであり、必ずしも、処理の開始タイミングが同一であることを意味するものではない。 Here, the first action may be an action for advancing the lottery part while the live distribution part is in progress. By transmitting the action instruction data designating such a first action to the plurality of user terminals 100, each user of the plurality of user terminals 100 can proceed with the lottery part while the live distribution part is in progress. user operation together. Hereafter, progressing the lottery part together while the live distribution part is in progress in a plurality of user terminals 100 is also referred to as ``lottery drawing together'', and the first action is also described as ``action prompting the lottery drawing together''. Note that "together" to perform some processing means that a plurality of user terminals 100 at least start some processing within a predetermined period, and it necessarily means that the processing start timings are the same. not a thing

また、動作指図装置300は、みんなの抽選結果を表す情報に基づく第2動作を指定する動作指図データを、複数のユーザ端末100に対して送信してもよい。第2動作を指定する動作指図データは、みんなの抽選結果を表す情報が動作指図装置300の表示部352に表示された後に、入力操作に基づいて生成されてもよい。例えば、第2動作は、みんなの抽選結果に対する反応を表す動作である。以降、第2動作を、みんなの抽選結果に対する反応を表す動作とも記載する。ユーザ端末100は、当該動作指図データに基づいて、キャラクタを動作させる。 In addition, the action instruction device 300 may transmit action instruction data designating the second action based on the information representing the result of everyone's lottery to the plurality of user terminals 100 . The action instruction data specifying the second action may be generated based on an input operation after the information indicating the lottery result of everyone is displayed on the display unit 352 of the action instruction device 300 . For example, the second action is an action representing everyone's reaction to the result of the lottery. Henceforth, the 2nd operation|movement is also described as the operation|movement showing reaction with respect to a lottery result of everyone. The user terminal 100 causes the character to act based on the action instruction data.

<処理フロー>
図12は、本実施形態におけるゲームシステム1が実行する処理の流れを示すフローチャートである。
<Processing flow>
FIG. 12 is a flow chart showing the flow of processing executed by the game system 1 in this embodiment.

ステップS301において、動作指図装置300は、ライブ配信開始時刻が到来すると、ライブ配信を開始する。具体的には、キャラクタ制御部316は、動作指図データを複数のユーザ端末100に対して送信する処理を開始する。本ステップの詳細は、図10におけるステップS108~S112で説明した通りである。 In step S301, the action instruction device 300 starts live distribution when the live distribution start time arrives. Specifically, the character control unit 316 starts processing for transmitting action instruction data to a plurality of user terminals 100 . Details of this step are as described in steps S108 to S112 in FIG.

ステップS302において、ユーザ端末100は、ライブ配信パートを開始する。具体的には、ゲーム進行部115は、解析部116によって解析された動作指図データに基づいてキャラクタを動作させる。本ステップの詳細は、図10におけるステップS113~S116で説明した通りである。 In step S302, the user terminal 100 starts the live distribution part. Specifically, the game progression unit 115 causes the character to act based on the action instruction data analyzed by the analysis unit 116 . Details of this step are as described in steps S113 to S116 in FIG.

ステップS303において、動作指図装置300のキャラクタ制御部316は、動作指図データとして、みんなで抽選を促す動作を指定する動作指図データを生成し、複数のユーザ端末100に対して送信する。本ステップを含む以降のステップにおいて、動作指図装置300が動作指図データを生成して送信するステップの詳細は、図10におけるステップS109~S112で説明した通りである。 In step S<b>303 , the character control unit 316 of the action instruction device 300 generates, as action instruction data, action instruction data designating an action to encourage everyone to participate in a lottery, and transmits the data to the plurality of user terminals 100 . In the subsequent steps including this step, the details of the steps in which the action instruction device 300 generates and transmits the action instruction data are as described in steps S109 to S112 in FIG.

ステップS304において、キャラクタ制御部316は、抽選タイムを表す情報を、複数のユーザ端末100及びサーバ200に送信する。 In step S<b>304 , the character control unit 316 transmits information representing the lottery time to the plurality of user terminals 100 and the server 200 .

ステップS305において、ユーザ端末100のゲーム進行部115は、動作指図装置300からみんなで抽選を促す動作を指定する動作指図データを受信し、当該動作指図データに基づいてキャラクタを動作させる。本ステップを含む以降のステップにおいて、ユーザ端末100が動作指図データに基づいてキャラクタを動作させるステップの詳細は、図10におけるステップS113~S116で説明した通りである。 In step S305, the game progression unit 115 of the user terminal 100 receives action instruction data designating an action to encourage everyone to draw a lottery from the action instruction device 300, and causes the character to act based on the action instruction data. In the subsequent steps including this step, the details of the steps in which the user terminal 100 causes the character to act based on the action instruction data are as described in steps S113 to S116 in FIG.

ステップS306において、ゲーム進行部115は、抽選タイムの期間内に抽選パートを進行させる操作が受け付けられたか否かを判断する。ステップS306においてNoの場合、後述するステップS310の処理が実行される。ステップS306においてYesの場合、次のステップS307の処理が実行される。 In step S306, the game progression unit 115 determines whether or not an operation to advance the lottery part is received within the period of the lottery time. If No in step S306, the process of step S310, which will be described later, is executed. If Yes in step S306, the process of next step S307 is executed.

ステップS307において、ゲーム進行部115は、ライブ配信パートの進行中に抽選パートを進行させる。ステップS308において、サーバ200の進行支援部211は、ユーザ端末100が抽選パートを進行させることを支援する。 In step S307, the game progression unit 115 advances the lottery part while the live distribution part is in progress. In step S308, the progress support unit 211 of the server 200 supports the user terminal 100 to progress the lottery part.

具体的には、ゲーム進行部115は、サーバ200に対して抽選処理を要求する。次に、サーバ200の共有支援部212は、ユーザ端末100からの要求に応じて、ゲームにおいて利用可能な獲得シナリオのうち何れかを抽選により決定し、ユーザ端末100に通知する。次に、ゲーム進行部115は、サーバ200から通知された獲得シナリオを、ユーザに付与する。 Specifically, the game progression unit 115 requests the server 200 to perform lottery processing. Next, in response to a request from the user terminal 100, the sharing support unit 212 of the server 200 determines one of the acquisition scenarios that can be used in the game by lottery, and notifies the user terminal 100 of it. Next, the game progression unit 115 gives the acquisition scenario notified from the server 200 to the user.

ステップS309において、サーバ200の共有支援部212は、みんなの抽選結果を表す情報を生成する。具体的には、共有支援部212は、抽選タイムの期間内に各ユーザ端末100からの要求に応じて進行支援部211が実行した抽選結果を取得する。そして、共有支援部212は、取得した各抽選結果に基づいて、みんなの抽選結果を表す情報を生成すればよい。また、共有支援部212は、生成したみんなの抽選結果を表す情報を、複数のユーザ端末100及び動作指図装置300に対して送信する。 In step S309, the sharing support unit 212 of the server 200 generates information representing everyone's lottery results. Specifically, the sharing support unit 212 acquires the lottery result executed by the progress support unit 211 in response to a request from each user terminal 100 within the lottery time period. Then, the sharing support unit 212 may generate information representing everyone's lottery results based on the acquired lottery results. In addition, the sharing support unit 212 transmits the generated information representing everyone's lottery results to the plurality of user terminals 100 and the action instruction devices 300 .

ステップS310において、ユーザ端末100のゲーム進行部115は、みんなの抽選結果を表す情報をサーバ200から受信し、表示部152に表示する。 In step S<b>310 , the game progression unit 115 of the user terminal 100 receives the information representing the lottery result of everyone from the server 200 and displays it on the display unit 152 .

ステップS311において、動作指図装置300のキャラクタ制御部316は、みんなの抽選結果を表す情報をサーバ200から受信し、表示部352に表示する。 In step S<b>311 , character control unit 316 of action instruction device 300 receives information representing everyone's lottery result from server 200 and displays it on display unit 352 .

ステップS312において、キャラクタ制御部316は、みんなの抽選結果に対する反応を表す動作を指定する動作指図データを生成し、複数のユーザ端末100に対して送信する。 In step S<b>312 , the character control unit 316 generates action instruction data designating an action representing everyone's reaction to the lottery result, and transmits the action instruction data to the plurality of user terminals 100 .

ステップS313において、ユーザ端末100のゲーム進行部115は、みんなの抽選結果に対する反応を表す動作を、動作指図装置300から受信し、当該動作指図データに基づいてキャラクタを動作させる。 In step S313, the game progression unit 115 of the user terminal 100 receives the action representing the reaction to the lottery result of everyone from the action instruction device 300, and causes the character to act based on the action instruction data.

以上で、本実施形態に係るゲームシステム1は処理を終了する。 Thus, the game system 1 according to this embodiment ends the processing.

なお、ユーザ端末100及び動作指図装置300の少なくとも一方は、複数のユーザ端末100の何れかにおいてライブ配信パート中に抽選パートが進行する度に、当該抽選パートにおける抽選結果を表す情報を表示してもよい。つまり、みんなの抽選結果を表す情報は、リアルタイムに更新されながら表示されてもよい。 At least one of the user terminal 100 and the motion instruction device 300 displays information representing the lottery result of the lottery part every time the lottery part progresses during the live distribution part on any of the plurality of user terminals 100. good too. In other words, the information representing everyone's lottery results may be displayed while being updated in real time.

例えば、ステップS309において、サーバ200の共有支援部212は、複数のユーザ端末100の何れかにおいてライブ配信パート中に抽選パートが進行する度に、当該抽選パートにおける抽選結果を表す情報を、複数のユーザ端末100又は動作指図装置300に送信すればよい。具体的には、共有支援部212は、複数のユーザ端末100のうち何れかからの要求に応じて進行支援部211により抽選結果が決定される度に、当該抽選結果を表す情報を、複数のユーザ端末100に対して送信すればよい。 For example, in step S309, the sharing support unit 212 of the server 200 sends information representing the lottery result of the lottery part to a plurality of user terminals 100 each time the lottery part progresses during the live distribution part. It may be transmitted to the user terminal 100 or the motion instruction device 300 . Specifically, each time a lottery result is determined by the progress support unit 211 in response to a request from any one of the plurality of user terminals 100, the sharing support unit 212 transmits information representing the lottery result to a plurality of user terminals 100. It is sufficient to transmit to the user terminal 100 .

そして、ステップS310又はS311において、ユーザ端末100又は動作指図装置300は、複数のユーザ端末100のうち何れかについての抽選結果を表す情報を受信する度に、当該抽選結果を表す情報を表示する。 Then, in step S310 or S311, the user terminal 100 or the action instruction device 300 displays the information representing the lottery result each time it receives the information representing the lottery result for any one of the plurality of user terminals 100. FIG.

そして、サーバ200、ユーザ端末100及び動作指図装置300は、抽選タイムが終了するまでステップS309~S311の処理を繰り返す。この場合、みんなの抽選結果を表す情報は、ステップS309において繰り返し送信された「抽選結果を表す情報」からなる。 Then, the server 200, the user terminal 100, and the action instruction device 300 repeat the processing of steps S309 to S311 until the lottery time ends. In this case, the information representing everyone's lottery results consists of the "information representing lottery results" repeatedly transmitted in step S309.

<ゲーム画面例>
図13~図17を用いて、ユーザ端末100の表示部152に表示されるゲーム画面例について説明する。
<Game screen example>
Examples of game screens displayed on the display unit 152 of the user terminal 100 will be described with reference to FIGS. 13 to 17. FIG.

(みんなで抽選を促すライブ配信パート画面例)
図13は、ステップS305において表示される動画再生画面810の一例を示す図である。なお、図13は、当該動画再生画面810に加えて、動作指図装置300の設置場所の一例を表す模式図を含んでいる。
(Example of live distribution part screen that encourages everyone to draw lots)
FIG. 13 is a diagram showing an example of the video playback screen 810 displayed in step S305. Note that FIG. 13 includes a schematic diagram showing an example of an installation location of the motion instruction device 300 in addition to the moving image playback screen 810 .

動作指図装置300の設置場所において、マイク3010に入力されるデータ及びモーションキャプチャ装置3010に入力されるデータに基づいて動画指図データが生成されることについては、図9を参照して説明した通りである。この例では、マイク3010に対して、声優701が「これから3分以内は、みんなで抽選タイム!」といったように、みんなで抽選を促すための音声700aを発している。なお、マイク3010から取得される音声の内容は一例であり、これに限られない。これにより、当該音声700aを表す音声データ801aを含む動作指図データが生成される。 The generation of moving image instruction data based on the data input to the microphone 3010 and the data input to the motion capture device 3010 at the installation location of the motion instruction device 300 is as described with reference to FIG. be. In this example, a voice actor 701 utters a voice 700a to a microphone 3010 to prompt everyone to participate in the lottery, such as "Within three minutes, it's time for the lottery!" Note that the content of the voice acquired from the microphone 3010 is an example, and is not limited to this. As a result, action instruction data including voice data 801a representing the voice 700a is generated.

また、動作指図装置300の設置場所には、タッチスクリーン35が設置されている。タッチスクリーン35は、声優701によって視認可能に設置される。 A touch screen 35 is installed at the installation location of the motion instruction device 300 . The touch screen 35 is placed so that it can be viewed by the voice actor 701 .

動画再生画面810は、キャラクタ802と、コメント入力ボタン804と、抽選パートボタン811と、ストーリーパートボタン812とを含む。キャラクタ802が、動作指図装置300から受信された動画指図データに基づいて動作することについては、図9を参照して説明した通りである。この具体例では、キャラクタ802は、音声データ801aを発話する。これにより、抽選タイム内にみんなで抽選することがユーザに対して促され、みんなで抽選を促されたユーザ間における一体感を向上させることができる。 A moving image playback screen 810 includes a character 802 , a comment input button 804 , a lottery part button 811 and a story part button 812 . The movement of the character 802 based on the animation instruction data received from the action instruction device 300 has been described with reference to FIG. In this specific example, the character 802 speaks audio data 801a. As a result, the users are urged to participate in the lottery during the lottery time, and the sense of unity among the users who are urged to participate in the lottery can be improved.

コメント入力ボタン804については、図9を参照して説明した通りである。 Comment input button 804 is as described with reference to FIG.

抽選パートボタン811は、抽選パートを開始することを指示する操作を受け付けるUIオブジェクトの一例である。抽選パートボタン811に対する操作が受け付けられると、ライブ配信パートを進行させたまま、抽選パート画面に遷移する。 The lottery part button 811 is an example of a UI object that receives an operation instructing the start of the lottery part. When an operation on the lottery part button 811 is accepted, the screen transitions to the lottery part screen while the live distribution part is being progressed.

ストーリーパートボタン812は、ストーリーパートを開始することを指示する操作を受け付けるUIオブジェクトの一例である。なお、ストーリーパートボタン812に対する操作に応じてストーリーパートの画面に遷移する際に、ライブ配信パートを進行させたままにしてもよいし、ライブ配信パートを終了させてもよい。 A story part button 812 is an example of a UI object that receives an operation instructing to start a story part. It should be noted that when the screen transitions to the story part screen in accordance with the operation of the story part button 812, the live distribution part may be left in progress, or the live distribution part may be terminated.

(ライブ配信中の抽選パート画面例)
図14(A)は、ステップS307において表示される抽選パート画面の一例である。抽選パート画面900は、図13において抽選パートボタン811に対する操作が受け付けられた場合に表示される。この例では、抽選パート画面900は、進行中のライブ配信パートにおける動画再生画面810に重畳されて表示される。抽選パート画面900は、情報901と、抽選ボタン902と、やめるボタン903とを含む。
(Example of lottery part screen during live distribution)
FIG. 14A is an example of the lottery part screen displayed in step S307. The lottery part screen 900 is displayed when an operation to the lottery part button 811 in FIG. 13 is accepted. In this example, the lottery part screen 900 is displayed superimposed on the video playback screen 810 in the ongoing live distribution part. A lottery part screen 900 includes information 901 , a lottery button 902 , and a stop button 903 .

情報901は、抽選を実行することによってユーザに付与され得る獲得シナリオについての情報である。ここでは、獲得シナリオのそれぞれには、ランクが高い順にS、A、B、Cの何れかが設定されており、そのうち何れかのランクの獲得シナリオが付与され得る。 Information 901 is information about acquisition scenarios that can be given to the user by executing a lottery. Here, one of S, A, B, and C is set for each acquisition scenario in descending order of rank, and an acquisition scenario of any of these ranks can be given.

抽選ボタン902は、抽選の実行を指示する操作を受け付けるUIオブジェクトの一例である。抽選ボタン902に対する操作が受け付けられると、獲得シナリオの抽選処理が、サーバ200によって実行され、その結果がユーザ端末100に通知される。 The lottery button 902 is an example of a UI object that receives an operation to instruct execution of a lottery. When an operation on the lottery button 902 is accepted, the server 200 executes the acquisition scenario lottery process, and notifies the user terminal 100 of the result.

やめるボタン903は、抽選を実行せずにライブ配信パートに戻ることを指示する操作を受け付けるUIオブジェクトの一例である。やめるボタン903に対する操作が受け付けられると、図13に示した動画再生画面810が表示される。 A stop button 903 is an example of a UI object that receives an operation instructing to return to the live distribution part without executing the lottery. When an operation on the stop button 903 is accepted, the video playback screen 810 shown in FIG. 13 is displayed.

図14(B)は、ステップS307において表示される抽選パート画面の他の一例である。抽選パート画面910は、図14(A)において、抽選ボタン902に対する操作が受け付けられた場合に表示される。抽選パート画面910は、抽選パート画面900と同様に、引き続き動画再生画面810に重畳されて表示される。抽選パート画面910は、情報911と、もどるボタン912とを含む。 FIG. 14B is another example of the lottery part screen displayed in step S307. The lottery part screen 910 is displayed when an operation to the lottery button 902 is accepted in FIG. 14(A). Like the lottery part screen 900, the lottery part screen 910 continues to be superimposed on the video playback screen 810 and displayed. The lottery part screen 910 includes information 911 and a return button 912 .

情報911は、抽選結果を表している。ここでは、「シナリオC1」という名称のCランクの獲得シナリオが抽選によりユーザに付与されている。 Information 911 represents a lottery result. Here, a C-rank acquisition scenario named "scenario C1" is given to the user by lottery.

戻るボタン912は、ライブ配信パートに戻ることを指示する操作を受け付けるUIオブジェクトの一例である。もどるボタン912に対する操作が受け付けられると、後述する図15に示す動画再生画面820が表示される。 A return button 912 is an example of a UI object that receives an operation to return to the live distribution part. When an operation on the return button 912 is accepted, a video playback screen 820 shown in FIG. 15, which will be described later, is displayed.

なお、図14(A)及び(B)において、抽選パート画面900及び910は、動画再生画面810に重畳された状態で表示されなくてもよい。例えば、表示部152における表示エリア(画面全体)が複数の領域に分割され、1つの領域に動画再生画面800が表示され、他の1つの領域に抽選パート画面900が表示されてもよい。また、画面全体に抽選パート画面900が表示された状態で、ライブ配信パートにおける音声が出力されながら、抽選パートが進行してもよい。抽選パート画面900及び910は、ライブ配信パート進行中に抽選パートが進行していることを示す態様であれば、どのような態様で表示されてもよい。 In addition, in FIGS. 14A and 14B, the lottery part screens 900 and 910 do not have to be displayed in a state of being superimposed on the video playback screen 810. FIG. For example, the display area (entire screen) of the display unit 152 may be divided into a plurality of areas, the video playback screen 800 may be displayed in one area, and the lottery part screen 900 may be displayed in another area. Further, the lottery part may proceed while the audio of the live delivery part is output while the lottery part screen 900 is displayed on the entire screen. The lottery part screens 900 and 910 may be displayed in any form as long as it shows that the lottery part is in progress while the live distribution part is in progress.

(みんなの抽選結果を伝えるライブ配信パート画面例)
図15は、ステップS310において表示される動画再生画面820の一例を示す図である。なお、図15は、当該動画再生画面820に加えて、動作指図装置300の設置場所の一例を表す模式図を含んでいる。
(Example screen of the live distribution part that conveys everyone's lottery results)
FIG. 15 is a diagram showing an example of a video playback screen 820 displayed in step S310. Note that FIG. 15 includes a schematic diagram showing an example of the installation location of the motion instruction device 300 in addition to the moving image playback screen 820 .

動作指図装置300の設置場所において、タッチスクリーン35の表示部351に表示された画面は、抽選結果3510を含んでいる。抽選結果3510は、みんなの抽選結果を表す情報を表しており、ステップS311において表示される。みんなの抽選結果を表す情報の詳細については後述する。 A screen displayed on the display unit 351 of the touch screen 35 at the installation location of the motion instruction device 300 includes a lottery result 3510 . The lottery result 3510 represents information representing everyone's lottery result, and is displayed in step S311. The details of the information representing everyone's lottery results will be described later.

また、みんなの抽選結果を表す情報は、タッチスクリーン35に表示されることにより、声優701によって視認される。その後、声優701は、マイク3010に対して、「Cさん、Dさん、Eさん、Sランクのシナリオ当選おめでとう!」といったように、みんなの抽選結果に対する反応を表す音声700bを発する。マイク3010から取得される音声の内容は一例であり、これに限られない。これにより、当該音声700bを表す音声データ801bを含む動作指図データが生成される。音声データ801bは、みんなの抽選結果に対する反応を表しており、例えば、この例のように、特定のユーザの抽選結果に注目する内容を含んでいてもよい。 In addition, the information representing the lottery result of everyone is displayed on the touch screen 35 and visually recognized by the voice actor 701 . After that, the voice actor 701 utters a voice 700b expressing everyone's reaction to the lottery result into the microphone 3010, such as "Mr. C, Mr. D, Mr. E, congratulations on winning the S-rank scenario!" The content of the voice acquired from the microphone 3010 is an example, and is not limited to this. As a result, action instruction data including voice data 801b representing the voice 700b is generated. The voice data 801b represents everyone's reaction to the lottery result, and may include, for example, content focusing on a specific user's lottery result, as in this example.

動画再生画面820は、動画再生画面810と同一の要素に加えて、抽選結果821を含んでいる。抽選結果821は、みんなの抽選結果を表す情報を表している。抽選結果821の詳細については後述する。なお、みんなの抽選結果を表す情報の詳細な内容としては、様々なバリエーションが考えられ、抽選結果3510の内容と、抽選結果821の内容とは、同一であってもよいし、同一でなくてもよい。例えば、みんなの抽選結果を表す情報として、動作指図装置300に表示させる内容の抽選結果3510と、ユーザ端末100に表示させる内容の抽選結果821とが生成されてもよい。なお、抽選結果3510及び抽選結果821は、サーバ200において生成されてもよいし、ユーザ端末100及び動作指図装置300においてそれぞれ生成されてもよい。 The video playback screen 820 includes the same elements as the video playback screen 810 and a lottery result 821 . The lottery result 821 represents information representing everyone's lottery result. Details of the lottery result 821 will be described later. Various variations are conceivable as the detailed contents of the information representing the results of everyone's lottery, and the contents of the lottery results 3510 and 821 may or may not be the same. good. For example, as information representing everyone's lottery results, a lottery result 3510 to be displayed on the action instruction device 300 and a lottery result 821 to be displayed on the user terminal 100 may be generated. The lottery result 3510 and the lottery result 821 may be generated by the server 200, or may be generated by the user terminal 100 and the action instruction device 300, respectively.

また、動画再生画面820において、キャラクタ802は、動作指図装置300から受信された動画指図データに基づいて、音声データ801bを発話する。これにより、ユーザは、みんなの抽選結果に対するキャラクタの反応を視聴することで、みんなで抽選を実行したユーザ間での一体感を感じることができる。また、ユーザは、みんなの抽選結果に対するキャラクタの反応に、自分の抽選結果に対する反応が含まれていれば、さらに、同時に抽選パートを実行したユーザの中で特別感を感じることができる。 Also, on the moving image reproduction screen 820 , the character 802 utters voice data 801 b based on the moving image instruction data received from the action instruction device 300 . Thereby, the users can feel a sense of unity among the users who have executed the lottery by watching the reactions of the characters to everyone's lottery results. In addition, if the character's reaction to everyone's lottery result includes the reaction to his own lottery result, the user can further feel special among the users who performed the lottery part at the same time.

なお、みんなの抽選結果に対する反応を表す動作は、上述したように、より有利な抽選結果が得られた特定のユーザに対する反応を含む例の他、より有利でない抽選結果が得られた特定のユーザに対する反応を含んでいてもよい。具体的には、「Yさん、残念、次は頑張って」といった音声を発話する動作が挙げられる。また、みんなの抽選結果に対する反応を表す動作は、ライブ配信パートを同時に進行させているユーザ端末100のうち、みんなで抽選を実行しなかったユーザ端末100のユーザ(特定のユーザ)に対する反応を含んでいてもよい。具体的には、「Zさん、次は、みんなで抽選に参加してほしいな」といった音声を発話する動作が挙げられる。このような場合も、特定のユーザは、同時にライブ配信パートを進行させているユーザの中で特別感を感じることができる。 It should be noted that, as described above, the action representing everyone's reaction to the lottery result includes the reaction to a specific user who obtained a more favorable lottery result, and the reaction to a specific user who obtained a less favorable lottery result. It may contain a reaction. Specifically, an operation of uttering a voice such as "Mr. Y, I'm sorry. Try your best next time." In addition, the operation representing everyone's reaction to the result of the lottery includes the reaction to the user (specific user) of the user terminal 100 that did not execute the lottery together among the user terminals 100 that are simultaneously progressing the live distribution part. You can Specifically, there is an operation of uttering a voice such as "Mr. Z, I want everyone to participate in the lottery next time." Even in such a case, a specific user can feel special among the users who are simultaneously progressing the live distribution part.

(みんなの抽選結果を表す情報の具体例)
図16~図17を参照して、みんなの抽選結果を表す情報の具体例について説明する。
(Concrete example of information representing everyone's lottery results)
A specific example of information representing everyone's lottery results will be described with reference to FIGS. 16 and 17. FIG.

図16(A)は、動作指図装置300に表示される抽選結果3510の一例を示す図である。抽選結果3510aは、抽選結果3510の一例であり、集計結果3511と、詳細ボタン3512を含む。 FIG. 16A is a diagram showing an example of a lottery result 3510 displayed on the action instruction device 300. FIG. The lottery result 3510a is an example of the lottery result 3510, and includes a tabulation result 3511 and a details button 3512.

集計結果3511は、複数のユーザ端末100において、みんなで抽選の抽選結果を集計した情報を表している。集計結果3511は、例えば、みんなで抽選の参加人数を含み、この例では1211人である。また、集計結果3511は、当選した獲得シナリオの種類毎に、当選者数を集計した情報を含む。獲得シナリオの種類として、ここでは、ランクが適用される。例えば、Sランクの獲得シナリオが当選した人数は3人である。 The tally result 3511 represents information obtained by tallying the lottery results of the lottery by all the user terminals 100 . The counting result 3511 includes, for example, the number of participants in the lottery together, and is 1211 in this example. In addition, the tally result 3511 includes information that tallies the number of winners for each type of winning scenario. Here, rank is applied as the type of acquisition scenario. For example, the number of people who won the S rank acquisition scenario is three.

詳細ボタン3512は、獲得シナリオの種類別の当選者の詳細を表示させることを指示する操作を受け付けるUIオブジェクトの一例である。この例では、詳細ボタン3512は、種類別の当選者数の近傍に表示されている。 The details button 3512 is an example of a UI object that accepts an operation instructing to display the details of winners for each type of acquisition scenario. In this example, the details button 3512 is displayed near the number of winners by type.

図16(B)は、動作指図装置300に表示される抽選結果3510の他の一例を示す図である。抽選結果3510bは、抽選結果3510の他の一例であり、集計結果3513を含む。集計結果3513は、図16(A)において詳細ボタン3512に対する操作が受け付けられると表示される。集計結果3513は、該当する種類の獲得シナリオについて、獲得シナリオの名称毎に、当選したユーザの名称を表す情報を含んでいる。この例では、例えば、Sランクの獲得シナリオ「シナリオS1」が当選したユーザの名称は「Cさん」である。例えば、集計結果3513を視認した声優701は、みんなの抽選結果に対する反応として、Sランクの獲得シナリオが当選したユーザの名称「Cさん」、「Dさん」、「Eさん」という特定のユーザに注目する音声をマイク3010に対して発することができる。このように、当選したユーザの名称を表す情報を含む集計結果3513が表示されることにより、特定のユーザに注目する内容を含む動作指図データが生成可能となる。 FIG. 16B is a diagram showing another example of the lottery result 3510 displayed on the action instruction device 300. As shown in FIG. A lottery result 3510 b is another example of the lottery result 3510 and includes a tally result 3513 . Aggregation result 3513 is displayed when an operation on detail button 3512 in FIG. 16A is accepted. The counting result 3513 includes information representing the name of the winning user for each name of the acquired scenario for the corresponding type of acquired scenario. In this example, for example, the name of the user who won the S-rank acquisition scenario “scenario S1” is “Mr. C”. For example, the voice actor 701, who has visually confirmed the tally result 3513, pays attention to specific users named "Mr. C," "Mr. D," and "Mr. E," who won the S-rank acquisition scenario, as a reaction to everyone's lottery results. A voice can be emitted to the microphone 3010 . In this way, by displaying the counting result 3513 including the information representing the name of the winning user, it becomes possible to generate the action instruction data including the content that focuses on the specific user.

図17(A)は、ユーザ端末100に表示される抽選結果821の一例を示す図である。抽選結果821aは、抽選結果821の一例であり、図15に示した動画再生画面820における抽選結果821の領域に表示される。抽選結果821aは、実況8211と、スクロールバー8212とを含む。 FIG. 17A is a diagram showing an example of a lottery result 821 displayed on the user terminal 100. FIG. A lottery result 821a is an example of the lottery result 821, and is displayed in the area of the lottery result 821 on the video playback screen 820 shown in FIG. The lottery result 821a includes a commentary 8211 and a scroll bar 8212 .

実況8211は、複数のユーザ端末100の各々における抽選結果としてリアルタイムに更新される。実況8211の各行は、複数のユーザ端末100の何れかにおける抽選結果を表す。具体的には、各行は、該当するユーザ端末100のユーザの名称と、当選した獲得シナリオの名称とを含んでいる。さらに、各行は、当選した獲得シナリオの種類を含んでいてもよい。各行は、ユーザ端末100の何れかにおける抽選結果が決定される度に、最下行に追加される。したがって、各行は、抽選結果が取得された順に上から下へ並んでいる。また、実況8211の行数が、実況8211の表示領域に表示可能な行数よりも多くなった場合、実況8211は、取得順がより新しい最下行が表示されるよう自動的にスクロールしてもよい。この場合、スクロールバー8212に対する操作が受け付けられることにより、取得順がより古い行を再度表示させることが可能である。 The commentary 8211 is updated in real time as the lottery results for each of the plurality of user terminals 100 . Each row of the commentary 8211 represents a lottery result for any of the plurality of user terminals 100 . Specifically, each line includes the name of the user of the corresponding user terminal 100 and the name of the won acquisition scenario. Additionally, each row may include the type of winning scenario that was won. Each row is added to the bottom row each time a lottery result on any of the user terminals 100 is determined. Therefore, each row is arranged from top to bottom in the order in which the lottery results were obtained. Also, if the number of lines in the commentary 8211 becomes larger than the number of lines that can be displayed in the display area of the commentary 8211, the commentary 8211 will automatically scroll to the bottom line with the latest acquisition order. good. In this case, by accepting an operation on the scroll bar 8212, it is possible to redisplay the line with the earlier acquisition order.

図17(B)は、ユーザ端末100に表示される抽選結果821の他の一例を示す図である。抽選結果821bは、抽選結果821の他の一例であり、複数の実況8213を含む。各実況8213は、複数のユーザ端末100の何れかにおける抽選結果を表す。具体的には、各実況8213は、該当するユーザ端末100のユーザの名称と、当選した獲得シナリオの名称とを含んでいる。さらに、各実況8213は、当選した獲得シナリオの種類を含んでいてもよい。各実況8213は、図15に示した動画再生画面820における抽選結果821の領域に表示される代わりに、次のように表示される。すなわち、各実況8213は、ユーザ端末100の何れかにおける抽選結果が決定される度に、動画再生画面820の任意の位置に重畳して表示される。各実況8213が表示される位置は、ランダムに決定されてもよい。 FIG. 17B is a diagram showing another example of the lottery result 821 displayed on the user terminal 100. As shown in FIG. The lottery result 821 b is another example of the lottery result 821 and includes a plurality of commentary 8213 . Each commentary 8213 represents a lottery result for any one of the plurality of user terminals 100 . Specifically, each commentary 8213 includes the name of the user of the corresponding user terminal 100 and the name of the won acquisition scenario. In addition, each play-by-play 8213 may include the type of winning scenario that was won. Each commentary 8213 is displayed as follows instead of being displayed in the area of the lottery result 821 on the moving image playback screen 820 shown in FIG. That is, each commentary 8213 is superimposed and displayed at an arbitrary position on the video playback screen 820 each time a lottery result is determined for any of the user terminals 100 . The position at which each commentary 8213 is displayed may be randomly determined.

なお、図16(A)及び(B)を参照して説明したみんなの抽選結果の具体例は、動作指図装置300に表示される例として説明したが、これらの具体例のうち少なくとも何れかは、ユーザ端末100に表示されてもよい。また、図16(B)は、図16(A)における詳細ボタン3512に対する操作に応じて表示されるものとして説明したが、必ずしも図16(A)の詳細として表示されなくてもよい。例えば、図16(B)に対応する各種類のみんなの抽選結果の詳細が、種類毎に順次切り替わって表示されてもよい。 Note that the specific examples of everyone's lottery results explained with reference to FIGS. It may be displayed on the user terminal 100 . Also, FIG. 16B has been described as being displayed in response to the operation of the details button 3512 in FIG. 16A, but the details need not necessarily be displayed as in FIG. For example, the details of everyone's lottery results for each type corresponding to FIG. 16B may be displayed while being sequentially switched for each type.

また、図17(A)及び(B)を参照して説明したみんなの抽選結果の具体例は、ユーザ端末100に表示される例として説明したが、これらの具体例のうち少なくとも何れかは、動作指図装置300に表示されてもよい。 Further, the specific examples of everyone's lottery results explained with reference to FIGS. It may be displayed on the pointing device 300 .

このように、みんなの抽選結果が動作指図装置300に表示されることにより、動作指図装置300は、みんなの抽選結果に対する反応を表す動作を指定する動作指図データを、複数のユーザ端末100に配信することができる。また、みんなの抽選結果がユーザ端末100に表示されることにより、ユーザは、みんなの抽選結果を知ることができ、みんなで抽選を実行したユーザ間、同時にライブ配信パートを視聴しているユーザ間で、一体感を感じることができる。 In this way, by displaying everyone's lottery results on the action instruction device 300, the movement instruction device 300 distributes to a plurality of user terminals 100 action instruction data designating actions representing reactions to everyone's lottery results. can be done. In addition, by displaying everyone's lottery results on the user terminal 100, users can know everyone's lottery results. You can feel a sense of unity.

〔変形例1〕
実施形態3に係るゲームシステム1において、みんなの抽選結果が、各ユーザによって報告された抽選結果に基づいて生成されるよう変形してもよい。
[Modification 1]
The game system 1 according to the third embodiment may be modified so that everyone's lottery results are generated based on the lottery results reported by each user.

本変形例では、動作指図装置300のキャラクタ制御部316は、第4動作を指定する動作指図データを生成し、複数のユーザ端末100に対して送信する。第4動作とは、複数のユーザ端末100の各々において実行されたみんなで抽選の抽選結果を表す情報を、サーバ200に送信させるための動作である。具体的には、第4動作は、ユーザに対して、みんなで抽選の抽選結果の報告を促す動作であってもよい。以降、第4動作を、抽選結果の報告を促す動作とも記載する。第4動作は、例えば、みんなで抽選を促す動作を指定する動作指図データを送信後、抽選タイムの終了後に送信されてもよい。 In this modification, the character control unit 316 of the action instruction device 300 generates action instruction data designating the fourth action, and transmits the data to the plurality of user terminals 100 . The fourth operation is an operation for causing the server 200 to transmit information representing the lottery results of the joint lottery executed in each of the plurality of user terminals 100 . Specifically, the fourth action may be an action of prompting the users to report the lottery result of the lottery together. Henceforth, the 4th operation|movement is also described as the operation|movement which prompts the report of a lottery result. For example, the fourth action may be transmitted after the lottery time is over after the action instruction data specifying the action to prompt everyone to participate in the lottery is transmitted.

ユーザ端末100のゲーム進行部115は、みんなで抽選の抽選結果を表す情報を、ユーザの操作に応じてサーバ200に対して送信することにより、みんなの抽選結果を表す情報を取得する。なお、抽選結果を表す情報を送信可能な報告期間が定められていてもよい。例えば、ゲーム進行部115は、抽選結果を表す情報として、コメントとして入力された情報を送信してもよい。 The game progress unit 115 of the user terminal 100 acquires the information representing the result of everyone's lottery by transmitting the information representing the lottery result of the everyone's lottery to the server 200 according to the user's operation. Note that a reporting period during which information representing the lottery result can be transmitted may be set. For example, the game progression unit 115 may transmit information input as a comment as information representing the lottery result.

サーバ200の共有支援部212は、複数のユーザ端末100の各々から当該ユーザ端末100のユーザの操作に応じて送信された抽選結果を表す情報に基づいて、みんなの抽選結果を表す情報を生成する。例えば、サーバ200は、受信した各抽選結果を表す情報と、当該情報の送信元であるユーザ端末100のユーザの名称とを関連付けることにより、みんなの抽選結果を表す情報を生成してもよい。また、サーバ200は、受信した各抽選結果を表す情報を解析することにより、当選した獲得シナリオに関する情報(例えば、名称、種類等)を取得してもよい。この場合、サーバ200は、ユーザの名称と、当選した獲得シナリオに関する情報とを関連付けることにより、みんなの抽選結果を表す情報を生成してもよい。 The sharing support unit 212 of the server 200 generates information representing everyone's lottery results based on the information representing the lottery results transmitted from each of the plurality of user terminals 100 according to the operation of the user of the user terminal 100. For example, the server 200 may generate information representing everyone's lottery results by associating the received information representing each lottery result with the name of the user of the user terminal 100 who sent the information. Further, the server 200 may acquire information (for example, name, type, etc.) related to the winning scenario by analyzing the received information representing each lottery result. In this case, the server 200 may generate information representing everyone's lottery results by associating the user's name with the information about the winning scenario.

<処理フロー>
図18は、本変形例におけるゲームシステム1が実行する処理の流れを示すフローチャートである。本変形例における処理の流れは、図12を参照して説明した実施形態3における処理の流れに対して、ステップS308とS309との間に、一連の処理S400が実行される点と、ステップS309における処理の詳細とが異なる。ステップS308以前及びステップS310以降の処理については、既に説明した通りであるため、詳細な説明を繰り返さない。一連の処理S400は、ステップS401~S405からなる。
<Processing flow>
FIG. 18 is a flow chart showing the flow of processing executed by the game system 1 in this modified example. The flow of processing in this modified example differs from the flow of processing in the third embodiment described with reference to FIG. differs from the details of processing in . The processes before step S308 and after step S310 have already been described, and detailed description thereof will not be repeated. A series of processes S400 consists of steps S401 to S405.

ステップS401において、動作指図装置300のキャラクタ制御部316は、抽選結果の報告を促す動作を指定する動作指図データを生成し、複数のユーザ端末100に対して送信する。 In step S<b>401 , the character control unit 316 of the action instruction device 300 generates action instruction data designating an action prompting the report of the lottery result, and transmits the action instruction data to a plurality of user terminals 100 .

ステップS402において、キャラクタ制御部316は、報告期間を表す情報を、複数のユーザ端末100及びサーバ200に対して送信する。 In step S<b>402 , the character control unit 316 transmits information representing the reporting period to the multiple user terminals 100 and the server 200 .

ステップS403において、ユーザ端末100のゲーム進行部115は、抽選結果の報告を促す動作を指定する動作指図データを動作指図装置300から受信し、当該動作指図データに基づいてキャラクタを動作させる。 In step S403, the game progression unit 115 of the user terminal 100 receives action instruction data designating an action for prompting the report of the lottery result from the action instruction device 300, and causes the character to act based on the action instruction data.

ステップS404において、ゲーム進行部115は、報告期間中に、コメントを入力する操作が受け付けられたか否かを判断する。ステップS404でNoの場合、ステップS310が実行される。ステップS404でYesの場合、次のステップS405の処理が実行される。 In step S404, the game progression unit 115 determines whether or not an operation to input a comment has been received during the reporting period. If No in step S404, step S310 is executed. If Yes in step S404, the process of next step S405 is executed.

ステップS405において、ゲーム進行部115は、コメントとして入力された情報を、抽選結果を表す情報としてサーバ200に対して送信する。 In step S405, the game progression unit 115 transmits the information input as the comment to the server 200 as information representing the lottery result.

ステップS309において、サーバ200の共有支援部212は、複数のユーザ端末100の各々からステップS405で送信された抽選結果を表す情報に基づいて、みんなの抽選結果を表す情報を生成する。 In step S309, the sharing support unit 212 of the server 200 generates information representing everyone's lottery results based on the information representing the lottery results transmitted from each of the plurality of user terminals 100 in step S405.

<ゲーム画面例>
図19を用いて、本変形例においてユーザ端末100の表示部152に表示されるゲーム画面例について説明する。本変形例では、図13に示したゲーム画面が表示された後、報告期間が経過すると、次のようなゲーム画面が表示される。
<Game screen example>
An example of a game screen displayed on the display unit 152 of the user terminal 100 in this modified example will be described with reference to FIG. In this modification, after the game screen shown in FIG. 13 is displayed, the following game screen is displayed when the reporting period has elapsed.

図19は、ステップS403において表示される動画再生画面830の一例を示す図である。なお、図19は、当該動画再生画面830に加えて、動作指図装置300の設置場所の一例を表す模式図を含んでいる。 FIG. 19 is a diagram showing an example of the video playback screen 830 displayed in step S403. Note that FIG. 19 includes a schematic diagram showing an example of an installation location of the motion instruction device 300 in addition to the moving image playback screen 830 .

動作指図装置300の設置場所において、この例では、マイク3010に対して、声優701が「何が当選したか教えて!」といったように、抽選結果の報告を促すための音声700cを発している。マイク3010から取得される音声の内容は一例であり、これに限られない。これにより、当該音声700cを表す音声データ801cを含む動作指図データが生成される。 In this example, voice actor 701 emits voice 700c to microphone 3010 at the location where action instruction device 300 is installed to prompt the report of the lottery result, such as "Tell me what you won!" . The content of the voice acquired from the microphone 3010 is an example, and is not limited to this. As a result, action instruction data including voice data 801c representing the voice 700c is generated.

動画再生画面830において、キャラクタ802は、動作指図装置300から受信された動画指図データに基づいて、音声データ801cを発話する。これにより、これにより、抽選結果の報告のためにコメント入力ボタン804を操作することを、ユーザに対して促すことができる。 On the moving image reproduction screen 830 , the character 802 speaks the voice data 801 c based on the moving image instruction data received from the action instruction device 300 . Thereby, it is possible to prompt the user to operate the comment input button 804 to report the lottery result.

〔変形例2〕
実施形態3に係るゲームシステム1において、何れかのユーザの抽選結果に基づいて、複数のユーザ端末100において共に第2ゲームパートをプレイ可能となるよう変形してもよい。なお、第2ゲームパートとは、本願の特許請求の範囲に記載した第2パートに相当する。
[Modification 2]
The game system 1 according to the third embodiment may be modified so that a plurality of user terminals 100 can play the second game part together based on the lottery result of any user. The second game part corresponds to the second part described in the claims of the present application.

本変形例では、第2ゲームパートの一例として、上述したストーリーパートを適用する。また、本変形例では、ユーザ端末100は、みんなで抽選を実行した複数のユーザ端末100のうち少なくとも1つにおいて実行された抽選によって、当該少なくとも1つのユーザ端末100において付与された獲得シナリオに基づいて、ユーザの操作に応じてストーリーパートを進行させることができる。 In this modified example, the story part described above is applied as an example of the second game part. In addition, in this modification, the user terminal 100 performs the lottery performed by at least one of the plurality of user terminals 100 that have performed the lottery, based on the acquisition scenario given by the at least one user terminal 100 Thus, the story part can be advanced according to the user's operation.

ここで、ストーリーパートでプレイ可能なシナリオは、他のユーザに付与された獲得シナリオを含む場合がある。例えば、他のユーザに付与された獲得シナリオのうち、所定条件を満たすものが、当該ユーザによってプレイ可能であってもよい。具体的には、所定条件とは、当該ユーザと共にみんなで抽選を実行した他のユーザに対して、当該みんなで抽選において付与されたとの条件であってもよい。 Here, scenarios that can be played in story parts may include acquired scenarios given to other users. For example, among acquisition scenarios given to other users, those that satisfy a predetermined condition may be playable by the user. Specifically, the predetermined condition may be a condition that the prize is given in the lottery by the lottery to other users who have executed the lottery together with the user.

また、当該他のユーザに付与された獲得シナリオについて、当該ユーザによってプレイ可能な期間が定められていてもよい。プレイ可能な期間は、当該獲得シナリオが他のユーザに付与された時点から所定の長さの期間が経過するまでである。 In addition, a playable period may be set by the user for the acquired scenario given to the other user. The playable period is from when the acquired scenario is given to another user until a predetermined length of time has passed.

換言すると、みんなで抽選を実行した複数のユーザ端末100の何れかにおいて付与された獲得シナリオは、みんなで抽選を実行した複数のユーザ端末100の各々において、プレイ可能な期間中にプレイ可能である。以降、「みんなで抽選を実行した複数のユーザ端末100の各々においてプレイ可能な期間中にプレイ」することを、「みんなでプレイ」とも記載する。 In other words, the acquired scenario provided by any one of the plurality of user terminals 100 that have jointly executed the lottery can be played during the playable period on each of the plurality of user terminals 100 that has jointly executed the lottery. . Hereinafter, "playing during a playable period in each of the plurality of user terminals 100 that have executed the lottery with everyone" is also referred to as "playing with everyone".

獲得シナリオが、みんなでプレイの対象となるための上述の所定条件は、さらに、他の条件を含んでいてもよい。他の条件とは、例えば、所定の種類であるとの条件であってもよい。例えば、みんなで抽選を実行した複数のユーザ端末100の各々において付与された獲得シナリオのうち、Sランクの獲得シナリオが、みんなでプレイの対象であってもよい。また、他の条件とは、所定の規則に基づき選択されたことであってもよい。所定の規則とは、抽選であってもよい。例えば、みんなで抽選を実行した複数のユーザ端末100の各々において付与された獲得シナリオのうち、ランダムに選択された獲得シナリオが、みんなでプレイの対象であってもよい。 The above-mentioned predetermined conditions for the acquired scenario to be played by everyone may further include other conditions. Another condition may be, for example, a condition that the object is of a predetermined type. For example, of the acquisition scenarios given to each of the plurality of user terminals 100 that have performed the lottery together, the acquisition scenario of the S rank may be the target of everyone's play. Also, another condition may be selection based on a predetermined rule. The predetermined rule may be a lottery. For example, among acquisition scenarios given to each of a plurality of user terminals 100 that have drawn a lottery together, a randomly selected acquisition scenario may be played by everyone.

サーバ200の共有支援部212は、複数のユーザ端末100における抽選結果を表す情報に基づいて、みんなでプレイの対象となる獲得シナリオを決定する。また、共有支援部212は、決定した獲得シナリオについて、みんなでプレイの対象としてプレイ可能な期間を決定してもよい。 The sharing support unit 212 of the server 200 determines an acquisition scenario to be played by everyone based on the information representing the lottery results of the plurality of user terminals 100 . Further, the sharing support unit 212 may determine a period during which everyone can play the determined acquisition scenario.

ユーザ端末100のゲーム進行部115は、みんなでプレイ対象の獲得シナリオを、ストーリーパートにおいてプレイ可能に表示する。 The game progression unit 115 of the user terminal 100 displays the acquisition scenario to be played by everyone so that it can be played in the story part.

動作指図装置300のキャラクタ制御部316は、第3動作を指定する動作指図データを生成し、複数のユーザ端末100に対して送信する。第3動作とは、みんなで抽選を実行した複数のユーザ端末100のうち少なくとも1つにおける抽選結果が表す獲得シナリオに基づいて、みんなで抽選を実行した複数のユーザ端末100の各々においてストーリーパートをプレイさせるための動作である、具体的には、第3動作は、ストーリーパートをみんなでプレイすることを促す動作であってもよい。以降、第3動作を、みんなでプレイを促す動作とも記載する。第3動作は、動作指図装置300にみんなでプレイ対象の獲得シナリオが表示された後、入力操作に基づいて生成されてもよい。 The character control unit 316 of the action instruction device 300 generates action instruction data designating the third action and transmits it to the plurality of user terminals 100 . The third action is to play a story part on each of the plurality of user terminals 100 who have jointly executed the lottery based on the winning scenario represented by the lottery results of at least one of the plurality of user terminals 100 which have jointly executed the lottery. Specifically, the third action, which is an action for making the player play, may be an action for prompting everyone to play the story part. Henceforth, the 3rd operation|movement is also described as the operation|movement which encourages everyone to play. The third action may be generated based on an input operation after the acquisition scenario to be played by everyone is displayed on action instruction device 300 .

<処理フロー>
図20は、本変形例におけるゲームシステム1が実行する処理の流れを示すフローチャートである。本変形例における処理の流れは、図12を参照して説明した実施形態3における処理の流れに対して、ステップS309~S311における処理の詳細と、ステップS313の処理後に一連の処理S500が実行される点とが異なる。ステップS309~S311以外のステップS301~S313の処理については、既に説明した通りであるため、詳細な説明を繰り返さない。一連の処理S500は、ステップS501~S506からなる。
<Processing flow>
FIG. 20 is a flow chart showing the flow of processing executed by the game system 1 in this modified example. The flow of processing in this modification is different from the flow of processing in the third embodiment described with reference to FIG. It is different from The processing of steps S301 to S313 other than steps S309 to S311 has already been described, and detailed description thereof will not be repeated. A series of processes S500 consists of steps S501 to S506.

ステップS309において、サーバ200の共有支援部212は、実施形態3と同様に動作してみんなの抽選結果を表す情報を生成する。また、共有支援部212は、複数のユーザ端末100の各々における抽選結果を表す情報に基づいて、みんなでプレイの対象となる獲得シナリオを決定する。また、共有支援部212は、みんなでプレイ対象の獲得シナリオがプレイ可能な期間を決定する。 In step S309, the sharing support unit 212 of the server 200 operates in the same manner as in the third embodiment to generate information representing everyone's lottery results. Also, the sharing support unit 212 determines an acquisition scenario to be played by everyone, based on information representing the lottery results of each of the plurality of user terminals 100 . In addition, the sharing support unit 212 determines a period during which everyone can play the acquisition scenario to be played.

そして、共有支援部212は、複数のユーザ端末100及び動作指図装置300に対して、みんなの抽選結果を表す情報を送信すると共に、みんなでプレイの対象となる獲得シナリオ及びプレイ可能な期間を表す情報を送信する。なお、みんなの抽選結果を表す情報と、みんなでプレイの対象となる獲得シナリオ及びプレイ可能な期間を表す情報とは、共に送信してもよいし、順次送信してもよい。順次送信する場合、その順序は限定されない。 Then, the sharing support unit 212 transmits to the plurality of user terminals 100 and the action instruction devices 300 information representing the results of everyone's lottery, as well as information representing the acquisition scenario to be played by everyone and the playable period. to send. The information representing the lottery results of everyone and the information representing the acquisition scenario to be played by everyone and the playable period may be transmitted together, or may be transmitted sequentially. In the case of sequential transmission, the order is not limited.

ステップS310において、ゲーム進行部115は、サーバ200から受信したみんなの抽選結果を表す情報と、みんなでプレイ対象の獲得シナリオとを、表示部152に表示する。 In step S<b>310 , the game progression unit 115 displays on the display unit 152 the information representing the lottery results of everyone received from the server 200 and the acquisition scenario to be played by everyone.

また、ステップS310において、ユーザ端末100のゲーム進行部115は、サーバ200からの通知されたみんなでプレイ対象の獲得シナリオを、みんなでプレイ対象として、ユーザに関連付けてメモリ11に記憶させる。また、ゲーム進行部115は、プレイ可能な期間を表す情報を、メモリ11に記憶させる。なお、ゲーム進行部115は、サーバ200からの通知されたプレイ可能な期間が経過後に、みんなでプレイ対象の獲得シナリオを、メモリ11から削除してもよい。 In step S310, the game progression unit 115 of the user terminal 100 causes the memory 11 to store the acquisition scenario for everyone's play notified from the server 200 as a everyone's play object in association with the user. In addition, the game progression unit 115 causes the memory 11 to store information representing a playable period. Note that the game progression unit 115 may delete the acquisition scenario to be played by everyone from the memory 11 after the playable period notified from the server 200 has passed.

ステップS311において、動作指図装置300のキャラクタ制御部316は、サーバ200から受信したみんなの抽選結果を表す情報と、みんなでプレイ対象の獲得シナリオとを、表示部152に表示する。 In step S<b>311 , the character control unit 316 of the action instruction device 300 displays on the display unit 152 the information representing the lottery result of everyone received from the server 200 and the acquisition scenario to be played by everyone.

ステップS501において、動作指図装置300のキャラクタ制御部316は、みんなでプレイを促す動作を指定する動作指図データを生成し、複数のユーザ端末100に対して送信する。 In step S<b>501 , the character control unit 316 of the action instruction device 300 generates action instruction data designating an action to prompt everyone to play, and transmits the data to a plurality of user terminals 100 .

ステップS502において、ユーザ端末100のゲーム進行部115は、みんなでプレイを促す動作を指定する動作指図データを動作指図装置300から受信し、当該動作指図データに基づいてキャラクタを動作させる。 In step S502, the game progression unit 115 of the user terminal 100 receives action instruction data designating an action to encourage everyone to play from the action instruction device 300, and causes the character to act based on the action instruction data.

ステップS503において、ゲーム進行部115は、プレイ可能な期間中に、ストーリーパートの開始時を指示する操作が受け付けられたか否かを判断する。ステップS503でNoの場合、本変形例に係るゲームシステム1の処理が終了する。ステップS503でYesの場合、次のステップS504の処理が実行される。 In step S503, the game progress unit 115 determines whether or not an operation for instructing the start of the story part has been received during the playable period. If No in step S503, the processing of the game system 1 according to this modification ends. If Yes in step S503, the process of next step S504 is executed.

ステップS504において、ゲーム進行部115は、ストーリーパートを進行させる。具体的には、ゲーム進行部115は、プレイ可能なシナリオとして、みんなでプレイ対象の獲得シナリオを、選択可能に表示する。 In step S504, the game progress unit 115 progresses the story part. Specifically, the game progression unit 115 selectably displays an acquisition scenario to be played by everyone as a playable scenario.

ステップS505において、ゲーム進行部115は、みんなでプレイ対象の獲得シナリオが選択された場合、当該獲得シナリオに基づいて、サーバ200と通信しながらストーリーパートを進行させる。 In step S505, when an acquisition scenario to be played by everyone is selected, the game progression unit 115 advances the story part while communicating with the server 200 based on the acquisition scenario.

ステップS506において、サーバ200の進行支援部211は、ステップS505においてユーザ端末100がストーリーパートを進行させるのを支援する。 In step S506, the progress support unit 211 of the server 200 supports the progress of the story part by the user terminal 100 in step S505.

<ゲーム画面例>
図21~23を用いて、本変形例においてユーザ端末100の表示部152に表示されるゲーム画面例について説明する。本変形例では、図15に示したゲーム画面が表示された後、次のようなゲーム画面が表示される。
<Game screen example>
Examples of game screens displayed on the display unit 152 of the user terminal 100 in this modified example will be described with reference to FIGS. In this modification, after the game screen shown in FIG. 15 is displayed, the following game screen is displayed.

(みんなでプレイを促すライブ配信パート画面例)
図21は、ステップS502において表示される動画再生画面840の一例を示す図である。なお、図21は、当該動画再生画面840に加えて、動作指図装置300の設置場所の一例を表す模式図を含んでいる。
(Example of live streaming part screen that encourages everyone to play)
FIG. 21 is a diagram showing an example of a video playback screen 840 displayed in step S502. Note that FIG. 21 includes a schematic diagram showing an example of an installation location of the motion instruction device 300 in addition to the moving image playback screen 840 .

動作指図装置300の設置場所において、タッチスクリーン35の表示部351に表示された画面は、図15に示した抽選結果3510に加えて、みんなでプレイ対象3520を含んでおり、ステップS311において表示される。みんなでプレイ対象3520の詳細については後述する。抽選結果3510の詳細については、前述した通りである。 The screen displayed on the display unit 351 of the touch screen 35 at the installation location of the motion instruction device 300 includes the lottery result 3510 shown in FIG. be. The details of the play with everyone target 3520 will be described later. The details of the lottery result 3510 are as described above.

また、みんなでプレイ対象3520は、声優701によって視認される。その後、声優701は、マイク3010に対して、「Eさんが当選したシナリオS2をみんなでプレイしよう」といったように、みんなでプレイ対象の獲得シナリオを用いてストーリーパートをプレイさせるための音声700dを発する。マイク3010から取得される音声の内容は一例であり、これに限られない。これにより、当該音声700dを表す音声データ801dを含む動作指図データが生成される。音声データ801dは、みんなでプレイ対象の獲得シナリオを用いてストーリーパートをプレイさせるための音声を表している。 In addition, the voice actor 701 visually recognizes the play target 3520 with everyone. After that, the voice actor 701 sends a voice 700d to the microphone 3010 to make everyone play the story part using the acquisition scenario to be played, such as "Let's all play the scenario S2 in which Mr. E won the prize." emit. The content of the voice acquired from the microphone 3010 is an example, and is not limited to this. As a result, action instruction data including voice data 801d representing the voice 700d is generated. The audio data 801d represents audio for playing the story part using the acquisition scenario to be played by everyone.

動画再生画面840は、動画再生画面810と同一の要素に加えて、抽選結果821と、みんなでプレイ対象841を含んでいる。みんなでプレイ対象841は、ステップS310において表示される。みんなでプレイ対象841の詳細については後述する。抽選結果821の詳細については前述した通りである。 In addition to the same elements as the video playback screen 810, the video playback screen 840 includes a lottery result 821 and a play target 841 for everyone. The play with everyone target 841 is displayed in step S310. The details of the play with everyone target 841 will be described later. The details of the lottery result 821 are as described above.

図22(A)は、みんなでプレイ対象3520の一例を示す図である。ここでは、抽選結果3510の一例である抽選結果3510bに、みんなでプレイ対象3520を表すアイコンが重畳表示されている。当該アイコンは、当該アイコンの近傍に表示された獲得シナリオが、みんなでプレイ対象であることを表している。ここでは、Eさんに当選したシナリオS2が、みんなでプレイ対象である。 FIG. 22A is a diagram showing an example of a play target 3520 for everyone. Here, a lottery result 3510b, which is an example of the lottery result 3510, is superimposed with an icon representing a play target 3520 for everyone. The icon indicates that the acquisition scenario displayed near the icon is to be played by everyone. Here, the scenario S2 in which Mr. E won the prize is to be played by everyone.

図22(B)は、みんなでプレイ対象841の一例を示す図である。ここでは、ここでは、抽選結果821の一例である抽選結果821bに、みんなでプレイ対象841を表すアイコンが重畳表示されている。当該アイコンは、当該アイコンの近傍に表示された獲得シナリオが、みんなでプレイ対象であることを表している。ここでは、Eさんに当選したシナリオS2が、みんなでプレイ対象である。 FIG. 22B is a diagram showing an example of an object 841 to be played by everyone. Here, a lottery result 821b, which is an example of the lottery result 821, is superimposed with an icon representing a play target 841 for everyone. The icon indicates that the acquisition scenario displayed near the icon is to be played by everyone. Here, the scenario S2 in which Mr. E won the prize is to be played by everyone.

なお、図22(A)に示した「みんなでプレイ対象」の一例は、動作指図装置300に表示されるものとして説明したが、ユーザ端末100に表示されてもよい。また、図22(B)に示した「みんなでプレイ対象」の一例は、ユーザ端末100に表示されるものとして説明したが、動作指図装置300に表示されてもよい。また、ユーザ端末100及び動作指図装置300におけるみんなでプレイ対象の表示態様は、図22に示した例に限られない。 It should be noted that although the example of the “together play target” shown in FIG. Also, the example of the “players to be played by everyone” shown in FIG. In addition, the display mode of the target to be played by everyone on the user terminal 100 and the action instruction device 300 is not limited to the example shown in FIG. 22 .

図23は、ストーリーパートの開始画面の一例を示す図であり、ステップS505において表示される。この例では、ストーリーパートの開始画面950は、みんなでプレイ対象領域951と、固定シナリオ領域952と、獲得シナリオ領域953と、シナリオボタン954a~954eとを含む。 FIG. 23 is a diagram showing an example of the story part start screen, which is displayed in step S505. In this example, the story part start screen 950 includes a play-all area 951, a fixed scenario area 952, an acquired scenario area 953, and scenario buttons 954a to 954e.

シナリオボタン954a~954eは、ストーリーパートでプレイ可能な各シナリオのプレイを開始させる操作を受け付けるUIオブジェクトの一例である。シナリオボタン954a~954eの何れかに対する操作が受け付けられると、当該シナリオボタンに関連付けられたシナリオに基づいてストーリーパートが開始する。 Scenario buttons 954a to 954e are examples of UI objects that accept an operation for starting play of each playable scenario in the story part. When an operation for one of the scenario buttons 954a to 954e is accepted, the story part starts based on the scenario associated with that scenario button.

みんなでプレイ対象領域951に含まれるシナリオボタン954aには、みんなでプレイ対象の一例であるシナリオS2が関連付けられている。 A scenario button 954a included in the play-for-all region 951 is associated with scenario S2, which is an example of a play-for-all.

固定シナリオ領域952に含まれるシナリオボタン954b及び954cには、固定シナリオの一例であるシナリオM1及びM2がそれぞれ関連付けられている。 Scenario buttons 954b and 954c included in the fixed scenario area 952 are respectively associated with scenarios M1 and M2, which are examples of fixed scenarios.

獲得シナリオ領域953に含まれるシナリオボタン954d及び955eには、獲得シナリオの一例であるシナリオC1及びシナリオA2が関連付けられている。 Scenario buttons 954d and 955e included in the acquired scenario area 953 are associated with scenario C1 and scenario A2, which are examples of acquired scenarios.

みんなでプレイ対象領域951に含まれるシナリオボタン954aは、シナリオS2がみんなでプレイ対象としてプレイ可能な期間が経過した後、非表示となってもよいし、選択不可能な状態に変更されてもよい。 The scenario button 954a included in the joint play area 951 may be hidden after the period in which the scenario S2 is playable by everyone, or may be changed to a non-selectable state. good.

〔その他の変形例〕
実施形態3において、みんなで抽選を実行した場合、ライブ配信パートを進行させていないときに抽選パートを進行させた場合に比べて、ユーザにとって有利な処理が実行されてもよい。例えば、ライブ配信パート進行中に抽選パートを進行させた場合は、より高ランクの獲得シナリオの抽選確率が、より高くなるよう変更された上で、抽選が実行されてもよい。また、ライブ配信パート進行中に抽選パートを進行させた場合は、獲得シナリオの抽選処理に加えて、ユーザにとって有利な他の処理が実行されてもよい。ユーザにとって有利な他の処理とは、例えば、ユーザにおいて利用可能なアイテムを付与する処理、ゲーム画面を構成する要素の視覚効果を高くする処理等が挙げられるが、これらに限られない。これにより、みんなで抽選を実行することに対するユーザの動機付けがさらに向上する。
[Other Modifications]
In the third embodiment, when everyone participates in the lottery, a process more advantageous to the user may be executed than when the lottery part is advanced while the live distribution part is not in progress. For example, if the lottery part is progressed while the live distribution part is in progress, the lottery may be executed after changing the lottery probability of the winning scenario with a higher rank to be higher. Further, when the lottery part is progressed while the live distribution part is in progress, in addition to the lottery process for the winning scenario, other processes that are advantageous to the user may be executed. Examples of other processing that is advantageous to the user include, but are not limited to, processing for giving items that can be used by the user, processing for enhancing visual effects of elements that form the game screen, and the like. This further improves the user's motivation for executing the lottery together.

実施形態3において、第1動作~第4動作が、それぞれ音声出力を伴うセリフの発話である例について説明した。ただし、第1動作~第4動作は、必ずしも、音声出力を伴わなくてもよい。第1動作~第4動作は、例えば、セリフを発話するキャラクタの動作と共に、セリフを表すテキストが表示される動作であってもよい。 In the third embodiment, an example has been described in which the first to fourth actions are utterances of lines accompanied by voice output. However, the first to fourth actions do not necessarily have to be accompanied by audio output. The first to fourth actions may be, for example, actions in which a text representing a line is displayed together with the action of the character speaking the line.

また、第1動作~第4動作は、セリフの発話に限定されない。例えば、第1動作は、みんなで抽選を実行する合図として定められた合図音を、キャラクタ本人又はキャラクタが用いるアイテム等から発生させる動作であってもよい。また、例えば、第1動作は、抽選パートを進行させるユーザインタフェースオブジェクトをキャラクタが指し示す動作であってもよい。また、例えば、第3動作は、ストーリーパートを進行させるユーザインタフェースオブジェクトをキャラクタが指し示す動作であってもよい。また、例えば、第4動作は、コメントを入力するユーザインタフェースオブジェクトをキャラクタが指し示す動作であってもよい。 Also, the first to fourth actions are not limited to speech. For example, the first action may be an action in which the character himself/herself or an item or the like used by the character generates a signal sound defined as a signal for executing the lottery with everyone. Also, for example, the first action may be an action in which the character points to a user interface object that advances the lottery part. Also, for example, the third action may be an action in which the character points to a user interface object that advances the story part. Also, for example, the fourth action may be an action in which the character points to a user interface object for inputting a comment.

また、実施形態3において、動作指図データは、声優701の入力操作に基づいてリアルタイムに生成される例について説明した。これに限らず、第1動作~第4動作を指定する動作指図データの少なくとも一部が、あらかじめメモリ31に記憶されていてもよい。また、第1動作~第4動作を指定する動作指図データの少なくとも一部が、複数のユーザ端末100の少なくとも何れかにおけるライブ配信パート及び抽選パートの進行状況に応じて自動で生成されてもよい。また、第1動作~第4動作を指定する動作指図データの少なくとも何れかは、送信タイミングを指定する入力操作に基づいて、送信されてもよい。また、第1動作~第4動作を指定する動作指図データの少なくとも何れかは、複数のユーザ端末100の少なくとも何れかにおけるライブ配信パート及び抽選パートの進行状況に応じて自動で決定されたタイミングで送信されてもよい。 Also, in the third embodiment, an example in which the action instruction data is generated in real time based on the voice actor 701's input operation has been described. Not limited to this, at least a part of the action instruction data designating the first action to the fourth action may be stored in the memory 31 in advance. Also, at least part of the action instruction data specifying the first action to the fourth action may be automatically generated according to the progress of the live distribution part and the lottery part in at least one of the plurality of user terminals 100. . At least one of the action instruction data specifying the first action to the fourth action may be transmitted based on an input operation specifying transmission timing. Also, at least one of the action instruction data specifying the first action to the fourth action is automatically determined according to the progress of the live distribution part and the lottery part on at least one of the plurality of user terminals 100. may be sent.

また、実施形態3において、みんなの抽選結果を表す情報には、同時にライブ配信パートを進行中に抽選パートを進行させた複数のユーザ端末100各々の抽選結果が含まれるものとして説明した。これに限らず、みんなの抽選結果を表す情報には、一部のユーザ端末100の抽選結果が含まれ、他の一部のユーザ端末100の抽選結果が含まれていなくてもよい。 Further, in the third embodiment, the information representing everyone's lottery results includes the lottery results of each of the plurality of user terminals 100 that progressed the lottery part while the live distribution part was in progress at the same time. The information indicating the lottery results for everyone may include the lottery results of some of the user terminals 100 and may not include the lottery results of some of the other user terminals 100 .

また、実施形態3において、サーバ200がみんなの抽選結果を表す情報を生成し、複数のユーザ端末100及び動作指図装置300に送信する例について説明した。ただし、みんなの抽選結果を表す情報を生成する装置は、必ずしもサーバ200でなくてもよい。例えば、抽選パート及びストーリーパート等のゲームの進行を支援するサーバ200とは異なる外部装置が、図12、18、20におけるステップS309を実行してみんなの抽選結果を表す情報を生成してもよい。また、例えば、複数のユーザ端末100の何れかが、ステップS309の処理を実行するよう構成されていてもよい。また、複数のユーザ端末100の各々が互いに抽選結果を送受信することにより、各々がステップS309の処理を実行してもよい。 Also, in the third embodiment, an example has been described in which the server 200 generates information representing everyone's lottery results and transmits the information to the plurality of user terminals 100 and the action instruction devices 300 . However, the server 200 does not necessarily have to be a device that generates information representing everyone's lottery results. For example, an external device different from the server 200 that supports the progress of the game, such as the lottery part and the story part, may execute step S309 in FIGS. Further, for example, any one of the plurality of user terminals 100 may be configured to execute the process of step S309. Moreover, each of the plurality of user terminals 100 may execute the process of step S309 by transmitting and receiving the lottery result to and from each other.

また、実施形態3において、動作指図装置300は、ユーザ端末100の1つとしても機能するよう構成されていてもよい。 Further, in the third embodiment, the action instruction device 300 may be configured to function as one of the user terminals 100 as well.

〔ソフトウェアによる実現例〕
制御部110の制御ブロック(特に、操作受付部111、表示制御部112、UI制御部113、アニメーション生成部114、ゲーム進行部115、解析部116および進捗情報生成部117)、制御部210の制御ブロック(特に、進行支援部211および共有支援部212)、ならびに、制御部310の制御ブロック(特に、操作受付部311、表示制御部312、UI制御部313、アニメーション生成部314、進捗模擬部315、キャラクタ制御部316および反応処理部317)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of realization by software]
Control blocks of control unit 110 (in particular, operation receiving unit 111, display control unit 112, UI control unit 113, animation generation unit 114, game progression unit 115, analysis unit 116, and progress information generation unit 117), control of control unit 210 blocks (in particular, progress support unit 211 and sharing support unit 212), and control blocks of control unit 310 (in particular, operation reception unit 311, display control unit 312, UI control unit 313, animation generation unit 314, progress simulation unit 315 , character control unit 316 and reaction processing unit 317) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or by software using a CPU (Central Processing Unit). You may

後者の場合、制御部110、制御部210または制御部310、もしくは、これらのうち複数を備えた情報処理装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the control unit 110, the control unit 210, or the control unit 310, or an information processing apparatus having a plurality of these, includes a CPU that executes instructions of a program that is software for realizing each function, the above program, and various Equipped with ROM (Read Only Memory) or storage device (these are referred to as “recording media”) in which data is recorded so that it can be read by a computer (or CPU), RAM (Random Access Memory) for developing the above program, etc. . The object of the present invention is achieved by a computer (or CPU) reading and executing the program from the recording medium. As the recording medium, a "non-temporary tangible medium" such as a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

〔付記事項〕
本発明の一側面に係る内容を列記すると以下のとおりである。
[Additional notes]
The contents of one aspect of the present invention are listed below.

(項目1) プロセッサ(10)と、メモリ(11)と、表示部(152)とを備えるユーザ端末(100)により実行されるゲームプログラム(131)について説明した。本開示のある局面によると、ゲームプログラムは、プロセッサに、少なくとも1つのキャラクタを制御するキャラクタ制御装置から、当該ユーザ端末を含む複数のユーザ端末に対して送信された、キャラクタの動作を指定する動作指図データに基づいて、キャラクタを当該ユーザ端末で動作させることにより、ゲームプログラムに基づくゲームに含まれる第1パートを進行させるステップと、第1パートの進行中に、ユーザの操作に応じて、ゲームにおいて利用可能なデジタルコンテンツの何れかを選択し、選択したデジタルコンテンツを、ユーザに付与されたものとしてユーザに関連付けてメモリに記憶させるステップと、複数のユーザ端末のうち少なくとも1つにおいて実行された記憶させるステップの選択結果に基づく第1情報を取得するステップと、第1パートの進行中に、第1情報を表示部に表示するステップと、を実行させる。上記の構成によれば、複数のユーザ端末間で、同一の動作指図データに基づいてキャラクタが同様に動作する第1パートを同時に進行させながら、当該複数のユーザ端末でデジタルコンテンツが付与される処理を一斉に実行させた結果として第1情報を表示するので、複数のユーザ間での一体感を高めることができる。 (Item 1) The game program (131) executed by the user terminal (100) having the processor (10), memory (11), and display section (152) has been described. According to one aspect of the present disclosure, the game program includes a processor, an action designating a character action transmitted from a character control device that controls at least one character to a plurality of user terminals including the user terminal. a step of progressing a first part included in a game based on a game program by causing a character to act on the user terminal based on instruction data; a step of selecting any of the available digital content in and storing the selected digital content in a memory in association with the user as given to the user; A step of acquiring the first information based on the selection result of the step to be stored, and a step of displaying the first information on the display unit during the progress of the first part are executed. According to the above configuration, while the first part in which the character moves in the same manner based on the same action instruction data progresses simultaneously among the plurality of user terminals, the digital content is provided at the plurality of user terminals. are executed all at once, the first information is displayed, so that a sense of unity among a plurality of users can be enhanced.

(項目2) (項目1)において、第1パートを進行させるステップは、動作指図データとして、第1動作を指定する動作指図データを受信し、記憶させるステップは、第1動作を指定する動作指図データが受信されてから所定期間内に実行されてもよい。これにより、ユーザにとって、第1パートを進行中の所定期間内に、デジタルコンテンツが付与される処理を実行させることに対する動機付けが向上する。 (Item 2) In (Item 1), the step of progressing the first part receives, as the action instruction data, action instruction data designating the first action, and the step of storing the action instruction data designating the first action. It may be performed within a predetermined period of time after the data is received. As a result, the user is more motivated to execute the process of adding the digital content within the predetermined period during which the first part is in progress.

(項目3) (項目1)又は(項目2)において、第1パートを進行させるステップは、第1情報に基づく第2動作を指定する動作指図データをさらに受信し、当該動作指図データに基づいてキャラクタを動作させてもよい。これにより、複数のユーザ端末で一斉に実行されたデジタルコンテンツが付与される処理結果のうち少なくとも1つに基づいて第2動作が提示されるので、ユーザは、デジタルコンテンツが付与される処理を一斉に実行させたことに対する評価が得られたという満足感を得ることができる。 (Item 3) In (Item 1) or (Item 2), the step of advancing the first part includes further receiving action instruction data designating a second action based on the first information, and performing the action based on the action instruction data. You can move the character. As a result, the second action is presented based on at least one of the results of the process of adding the digital content simultaneously executed by the plurality of user terminals, so that the user can perform the process of adding the digital content all at once. You can get a sense of satisfaction that you have received an evaluation for what you have done.

(項目4) (項目1)から(項目3)の何れか1項目において、ゲームプログラムは、プロセッサに、複数のユーザ端末のうち少なくとも1つのユーザ端末において実行された記憶させるステップによって、当該少なくとも1つのユーザ端末において付与されたデジタルコンテンツに基づき、ユーザの操作に応じて第2パートを進行させるステップをさらに実行させてもよい。これにより、ユーザは、複数のユーザ端末のうち少なくとも何れかにおいて付与されたデジタルコンテンツに基づいて第2パートをプレイできるので、複数のユーザ間での一体感をさらに高めることができる。 (Item 4) In any one item from (Item 1) to (Item 3), the game program causes the processor to store the at least one user terminal among the plurality of user terminals. A step of progressing the second part according to the user's operation may be further executed based on the digital content provided by one user terminal. As a result, the user can play the second part based on the digital content assigned to at least one of the plurality of user terminals, thereby further enhancing the sense of unity among the plurality of users.

(項目5) (項目1)から(項目4)の何れか1項目において、第1情報を取得するステップは、記憶させるステップの選択結果を表す情報を、ユーザの操作に応じてサーバに送信することにより、サーバから送信される第1情報を取得してもよい。これにより、ユーザは、自身に付与されたデジタルコンテンツを表す情報を、自身の操作に応じてサーバに提供するので、当該情報に基づく第1情報が共有されることに対する納得感が高まる。 (Item 5) In any one item from (Item 1) to (Item 4), the step of acquiring the first information transmits information representing the selection result of the storing step to the server according to the user's operation. Thus, the first information transmitted from the server may be obtained. As a result, the user provides the server with the information representing the digital content provided to the user in accordance with the user's operation, so that the user is more satisfied with the sharing of the first information based on the information.

(項目6) (項目1)から(項目5)の何れか1項目において、第1情報を取得するステップは、第1情報として、複数のユーザ端末の各々における記憶させるステップの選択結果が集計された情報を取得してもよい。これにより、ユーザは、複数のユーザ端末においてデジタルコンテンツが付与される処理が一斉に実行された結果の概要を閲覧することができる。 (Item 6) In any one item from (Item 1) to (Item 5), in the step of acquiring the first information, the selection results of the storing step in each of the plurality of user terminals are aggregated as the first information. information may be obtained. This allows the user to view an overview of the results of simultaneous execution of the process of adding digital content to a plurality of user terminals.

(項目7) (項目1)から(項目6)の何れか1項目において、第1情報を取得するステップは、複数のユーザ端末の何れかにおいて記憶させるステップが実行される度に、当該ユーザ端末における選択結果を表す情報を表示してもよい。これにより、ユーザに対して、複数のユーザ端末でデジタルコンテンツが付与される処理が一斉に実行されているというリアルタイム感を提供することができる。 (Item 7) In any one item from (Item 1) to (Item 6), the step of acquiring the first information is performed each time the step of storing is executed in any of the plurality of user terminals. You may display the information showing the selection result in. As a result, it is possible to provide the user with a real-time feeling that the process of adding the digital content is being simultaneously executed by a plurality of user terminals.

(項目8) (項目2)において、記憶させるステップは、所定期間外にゲームにおいて利用可能なデジタルコンテンツの何れかを選択する処理が実行される場合に比べて、ユーザにとってより有利なデジタルコンテンツが選択される期待値を大きくするか、または、デジタルコンテンツを記憶させる処理に加えてユーザにとって有利な処理を実行してもよい。これにより、ユーザにとって、第1パートを進行中の所定期間内に、デジタルコンテンツが付与される処理を実行させることに対する動機付けがさらに向上する。 (Item 8) In (Item 2), the step of storing digital content that is more advantageous to the user than when the process of selecting any of the digital content available in the game is executed outside the predetermined period. The expected value that is selected may be increased, or a process beneficial to the user may be performed in addition to the process of storing the digital content. This further increases the user's motivation to execute the process of adding the digital content within the predetermined period during which the first part is in progress.

(項目9) プロセッサ(30)と、メモリ(31)と、表示部(352)とを備えるキャラクタ制御装置(動作指図装置300)により実行されるゲームプログラム(キャラクタ制御プログラム134)について説明した。本開示のある局面によると、キャラクタ制御装置は、(項目1)のゲームプログラムを実行するユーザ端末における少なくとも1つのキャラクタを制御するものである。ゲームプログラムは、プロセッサに、第1情報を取得するステップと、第1情報を表示部に表示するステップと、を実行させる。上記構成により、複数のユーザ端末において第1パート進行中にデジタルコンテンツが付与される処理を一斉に実行させた結果としての第1情報を提示することができる。 (Item 9) The game program (character control program 134) executed by the character control device (action instruction device 300) including the processor (30), memory (31), and display section (352) has been described. According to one aspect of the present disclosure, a character control device controls at least one character in a user terminal executing the game program of (item 1). The game program causes the processor to acquire the first information and display the first information on the display. With the above configuration, it is possible to present the first information as a result of simultaneously executing the process of adding the digital content during the progress of the first part on a plurality of user terminals.

(項目10) (項目9)において、ゲームプログラムは、プロセッサに動作指図データとして、ユーザ端末において記憶させるステップを実行させるための第1動作を指定する動作指図データを送信する第1送信ステップをさらに実行させてもよい。これにより、複数のユーザ端末に対して、第1パート進行中にデジタルコンテンツが付与される処理を実行させることができる。 (Item 10) In (Item 9), the game program further includes a first transmitting step of transmitting action instruction data designating a first action for causing the processor to execute a step to be stored in the user terminal as action instruction data. may be executed. As a result, it is possible to cause a plurality of user terminals to execute the process of giving the digital content during the progress of the first part.

(項目11) (項目9)又は(項目10)において、ゲームプログラムは、プロセッサに動作指図データとして、第1情報に基づく第2動作を指定する動作指図データを送信する第2送信ステップをさらに実行させてもよい。これにより、複数のユーザ端末でデジタルコンテンツが付与される処理が一斉に実行された結果に基づく動作として、第2動作を配信することができる。 (Item 11) In (Item 9) or (Item 10), the game program further executes a second transmission step of transmitting to the processor, as the action instruction data, action instruction data designating a second action based on the first information. You may let Thereby, the second action can be distributed as an action based on the result of simultaneous execution of the process of giving the digital content by a plurality of user terminals.

(項目12) (項目9)から(項目11)の何れか1項目において、ゲームプログラムは、プロセッサに動作指図データとして、第3動作を指定する動作指図データを送信する第3送信ステップをさらに実行させ、第3動作は、複数のユーザ端末のうち少なくとも1つのユーザ端末において実行された記憶させるステップによって、当該少なくとも1つのユーザ端末において付与されたデジタルコンテンツに基づいて、複数のユーザ端末の各々において当該ユーザ端末のユーザの操作に応じて第2パートを進行させるための動作であってもよい。これにより、複数のユーザ端末のうち何れかにおいて付与されたデジタルコンテンツに基づいて、複数のユーザ端末の各々において第2パートをプレイさせることができる。 (Item 12) In any one of (Item 9) to (Item 11), the game program further executes a third transmission step of transmitting action instruction data designating a third action to the processor as action instruction data. and a third operation is performed at each of the plurality of user terminals based on the digital content provided at the at least one user terminal by the step of storing performed at the at least one user terminal of the plurality of user terminals It may be an operation for advancing the second part according to the operation of the user of the user terminal. Thereby, the second part can be played on each of the plurality of user terminals based on the digital content given to any one of the plurality of user terminals.

(項目13) (項目9)から(項目12)の何れか1項目において、ゲームプログラムは、プロセッサに動作指図データとして、第4動作を指定する動作指図データを送信する第4送信ステップをさらに実行させ、第4動作は、複数のユーザ端末の各々において実行された記憶させるステップの選択結果を表す情報を外部装置に送信させるための動作であってもよい。これにより、複数のユーザ端末から、第1パート進行中に実行されたデジタルコンテンツが付与される処理の結果を、サーバに送信させることができる。 (Item 13) In any one of (Item 9) to (Item 12), the game program further executes a fourth transmission step of transmitting action instruction data designating a fourth action to the processor as action instruction data. and the fourth operation may be an operation for causing the external device to transmit information representing the selection result of the storing step executed in each of the plurality of user terminals. As a result, it is possible to cause the plurality of user terminals to transmit to the server the result of the process of adding the digital content executed during the progress of the first part.

(項目14) プロセッサ(20)と、メモリ(21)とを備えるサーバ(200)により実行されるゲームプログラム(131)について説明した。本開示のある局面によると、サーバは、(項目1)のゲームプログラムを実行する複数のユーザ端末の各々と、(項目9)のゲームプログラムを実行するキャラクタ制御装置と、通信可能に接続される。ゲームプログラムは、プロセッサに、複数のユーザ端末の各々における記憶させるステップの選択結果に基づいて、第1情報を複数のユーザ端末及びキャラクタ制御装置に対して送信するステップを実行させる。上記構成により、第1パートを同時に進行させる複数のユーザ端末間で、当該複数のユーザ端末のうち少なくとも何れかにおける選択結果に基づく第1情報を共有させることができる。 (Item 14) The game program (131) executed by the server (200) comprising the processor (20) and the memory (21) has been described. According to one aspect of the present disclosure, a server is communicably connected to each of a plurality of user terminals executing the game program of (item 1) and a character control device executing the game program of (item 9). . The game program causes the processor to execute the step of transmitting the first information to the plurality of user terminals and the character control device based on the selection result of the step to be stored in each of the plurality of user terminals. With the above configuration, the first information based on the selection result of at least one of the plurality of user terminals can be shared among the plurality of user terminals that progress the first part at the same time.

(項目15) (項目14)において、第1情報を送信するステップは、複数のユーザ端末の各々によって当該ユーザ端末のユーザの操作に応じてサーバに対して送信された選択結果を表す情報に基づいて、第1情報を送信してもよい。これにより、第1パートの進行中にデジタルコンテンツが付与される処理を一斉に実行した複数のユーザ端末間で、第1情報を共有することに対する各ユーザの納得感を高めることができる。 (Item 15) In (Item 14), the step of transmitting the first information is based on the information representing the selection result transmitted to the server by each of the plurality of user terminals in response to the operation of the user of the user terminal. , the first information may be transmitted. As a result, it is possible to increase the satisfaction of each user in sharing the first information among a plurality of user terminals that simultaneously executed the process of adding the digital content during the progress of the first part.

(項目16) (項目14)又は(項目15)において、 第1情報を送信するステップは、第1情報として、複数のユーザ端末の各々における選択結果が集計された情報を送信してもよい。これにより、第1パートを同時に進行させる複数のユーザ端末のユーザ各々に対して、複数のユーザ端末においてデジタルコンテンツが付与される処理が一斉に実行された結果の概要を提示することができる。 (Item 16) In (Item 14) or (Item 15), the step of transmitting the first information may transmit, as the first information, information obtained by summarizing the selection results of each of the plurality of user terminals. Accordingly, it is possible to present an overview of the result of concurrent execution of the process of providing the digital content in a plurality of user terminals to each of the users of the plurality of user terminals who are simultaneously progressing the first part.

(項目17) (項目14)から(項目16)の何れか1項目において、第1情報を送信するステップは、複数のユーザ端末の何れかにおいて記憶させるステップが実行される度に、当該ユーザ端末における選択結果を表す情報を、第1情報として送信してもよい。これにより、第1パートを同時に進行させる複数のユーザ端末のユーザ各々に対して、デジタルコンテンツが付与される処理を一斉に実行させていることのリアルタイム感を提供することができる。 (Item 17) In any one item from (Item 14) to (Item 16), the step of transmitting the first information is performed each time the step of storing is executed in any of the plurality of user terminals. may be transmitted as the first information. As a result, it is possible to provide each user of a plurality of user terminals simultaneously progressing the first part with a real-time feeling of simultaneously executing the process of adding the digital content.

(項目18) ゲームプログラムを実行する方法を説明した。本開示のある局面によると、ゲームプログラムは、プロセッサおよびメモリを備えるコンピュータにより実行される。該方法は、プロセッサが(項目1)に記載の各ステップを実行する方法である。(項目18)に係る方法は、(項目1)に係るゲームプログラムと同様の作用効果を奏する。 (Item 18) A method for executing a game program has been described. According to one aspect of the present disclosure, a game program is executed by a computer comprising a processor and memory. The method is a method in which a processor performs each step described in (item 1). The method according to (item 18) has the same effects as the game program according to (item 1).

(項目19) 情報処理装置を説明した。本開示のある局面によると、該情報処理装置は、(項目1)に係るゲームプログラムを記憶するメモリ(11)と、該ゲームプログラムを実行することにより、情報処理装置(ユーザ端末100)の動作を制御するプロセッサ(10)とを備える。(項目19)に係る情報処理装置は、(項目1)に係るゲームプログラムと同様の作用効果を奏する。 (Item 19) The information processing apparatus has been described. According to one aspect of the present disclosure, the information processing device includes a memory (11) that stores the game program according to (item 1), and the operation of the information processing device (user terminal 100) by executing the game program. a processor (10) for controlling the The information processing apparatus according to (item 19) has the same effects as the game program according to (item 1).

(項目20) ゲームプログラムを実行する方法を説明した。本開示のある局面によると、ゲームプログラムは、プロセッサおよびメモリを備えるコンピュータにより実行される。該方法は、プロセッサが(項目1)に記載の各ステップを実行する方法である。(項目20)に係る方法は、(項目1)に係るゲームプログラムと同様の作用効果を奏する。 (Item 20) A method of executing a game program has been described. According to one aspect of the present disclosure, a game program is executed by a computer comprising a processor and memory. The method is a method in which a processor performs each step described in (item 1). The method according to (item 20) has the same effects as the game program according to (item 1).

(項目21) 情報処理装置を説明した。本開示のある局面によると、該情報処理装置は、(項目1)に係るゲームプログラムを記憶するメモリ(31)と、該ゲームプログラムを実行することにより、情報処理装置(ユーザ端末100)の動作を制御するプロセッサ(30)とを備える。(項目21)に係る情報処理装置は、(項目1)に係るゲームプログラムと同様の作用効果を奏する。 (Item 21) The information processing apparatus has been described. According to one aspect of the present disclosure, the information processing device includes a memory (31) that stores the game program according to (item 1), and the operation of the information processing device (user terminal 100) by executing the game program. a processor (30) for controlling the The information processing apparatus according to (item 21) has the same effects as the game program according to (item 1).

(項目22) ゲームプログラムを実行する方法を説明した。本開示のある局面によると、ゲームプログラムは、プロセッサおよびメモリを備えるコンピュータにより実行される。該方法は、プロセッサが(項目1)に記載の各ステップを実行する方法である。(項目22)に係る方法は、(項目1)に係るゲームプログラムと同様の作用効果を奏する。 (Item 22) A method for executing a game program has been described. According to one aspect of the present disclosure, a game program is executed by a computer comprising a processor and memory. The method is a method in which a processor performs each step described in (item 1). The method according to (item 22) has the same effects as the game program according to (item 1).

(項目23) 情報処理装置を説明した。本開示のある局面によると、該情報処理装置は、(項目1)に係るゲームプログラムを記憶するメモリ(21)と、該ゲームプログラムを実行することにより、情報処理装置(ユーザ端末100)の動作を制御するプロセッサ(20)とを備える。(項目23)に係る情報処理装置は、(項目1)に係るゲームプログラムと同様の作用効果を奏する。 (Item 23) The information processing apparatus has been described. According to one aspect of the present disclosure, the information processing device includes a memory (21) that stores the game program according to (item 1), and by executing the game program, the operation of the information processing device (user terminal 100) a processor (20) for controlling the The information processing apparatus according to (item 23) has the same effects as the game program according to (item 1).

1 ゲームシステム、2 ネットワーク、10,20,30 プロセッサ、11,21,31 メモリ、12,22,32 ストレージ、13,23,33 通信IF(操作部)、14,24,34 入出力IF(操作部)、15,35 タッチスクリーン(表示部、操作部)、17 カメラ(操作部)、18 測距センサ(操作部)、100 ユーザ端末(コンピュータ、情報処理装置)、110,113,210,310 制御部、111,311 操作受付部、112,312 表示制御部、113,313 UI制御部、114,314 アニメーション生成部、115 ゲーム進行部、116 解析部、117 進捗情報生成部、120,220,320 記憶部、131 ゲームプログラム、132 ゲーム情報、133 ユーザ情報、134 キャラクタ制御プログラム、151,351 入力部(操作部)、152,352 表示部、200 サーバ(コンピュータ)、211 進行支援部、212 共有支援部、300 動作指図装置(NPC制御装置、キャラクタ制御装置)、315 進捗模擬部、316 キャラクタ制御部、317 反応処理部、1010 物体、1020,3030 コントローラ、1030 記憶媒体、3010 マイク、3020 モーションキャプチャ装置

1 game system, 2 network, 10, 20, 30 processor, 11, 21, 31 memory, 12, 22, 32 storage, 13, 23, 33 communication IF (operation unit), 14, 24, 34 input/output IF (operation part), 15, 35 touch screen (display part, operation part), 17 camera (operation part), 18 ranging sensor (operation part), 100 user terminal (computer, information processing device), 110, 113, 210, 310 control unit 111,311 operation reception unit 112,312 display control unit 113,313 UI control unit 114,314 animation generation unit 115 game progression unit 116 analysis unit 117 progress information generation unit 120,220, 320 storage unit, 131 game program, 132 game information, 133 user information, 134 character control program, 151, 351 input unit (operation unit), 152, 352 display unit, 200 server (computer), 211 progress support unit, 212 sharing Support unit 300 Action instruction device (NPC control device, character control device) 315 Progress simulation unit 316 Character control unit 317 Reaction processing unit 1010 Object 1020, 3030 Controller 1030 Storage medium 3010 Microphone 3020 Motion capture Device

Claims (9)

コンピュータを、
少なくとも1つのキャラクタを制御するキャラクタ制御装置から、複数のユーザ端末に対して送信された、前記キャラクタの動作を指定する動作指図データに基づいて、前記キャラクタをユーザ端末で動作させることにより、プログラムに基づくゲームに含まれる第1パートを進行する進行手段と、
前記第1パートの進行中のうちの所定期間における前記第1パートのユーザの操作に応じて、前記ゲームにおいて利用可能なデジタルコンテンツの何れかを選択し、選択したデジタルコンテンツを、前記ユーザに関連付けて記憶する記憶手段と、
前記複数のユーザ端末のうち少なくとも1つにおいて実行された前記記憶手段の選択結果に基づく第1情報を取得する取得手段と、
して機能させ、
前記記憶手段は、前記所定期間外に前記ゲームにおいて利用可能なデジタルコンテンツの何れかを選択する処理が実行される場合に比べて、前記ユーザにとって有利となる選択処理を実行する、プログラム。
the computer,
By causing the character to move at the user terminal based on the motion instruction data specifying the motion of the character, transmitted from a character control device that controls at least one character to a plurality of user terminals, progress means for progressing the first part included in the game based on;
Any digital content available in the game is selected according to the user's operation of the first part during a predetermined period of time during the progress of the first part, and the selected digital content is associated with the user. a storage means for storing the
acquisition means for acquiring first information based on the selection result of the storage means executed in at least one of the plurality of user terminals;
to make it work,
A program, wherein the storage means executes a selection process that is more advantageous to the user than when the process of selecting one of the digital contents available in the game is executed outside the predetermined period.
前記選択処理は、前記ユーザにとってより有利なデジタルコンテンツが選択される期待値を大きくする処理を含む、請求項1に記載のプログラム。 2. The program according to claim 1, wherein said selection process includes a process of increasing an expected value that digital content more advantageous to said user will be selected. 前記選択処理は、前記デジタルコンテンツを選択して記憶させる処理に加えて、前記ユーザにとって有利な処理を含む、請求項1または請求項2に記載のプログラム。 3. The program according to claim 1 or 2, wherein the selection process includes a process advantageous to the user in addition to the process of selecting and storing the digital content. 前記進行手段は、前記第1情報に基づく第2動作を指定する動作指図データをさらに受信し、当該動作指図データに基づいて前記キャラクタを動作させる、請求項1~請求項3のいずれかに記載のプログラム。 4. The advancing means according to any one of claims 1 to 3, wherein the advancing means further receives action instruction data designating a second action based on the first information, and causes the character to act based on the action instruction data. program. コンピュータを、
前記複数のユーザ端末のうち少なくとも1つのユーザ端末において実行された前記記憶手段によって、当該少なくとも1つのユーザ端末において付与されたデジタルコンテンツに基づき、前記ユーザの操作に応じて第2パートを進行させる手段と、して機能させる、請求項1~請求項4のいずれかに記載のプログラム。
the computer,
Means for progressing the second part according to the operation of the user based on the digital content given to the at least one user terminal by the storage means executed in at least one user terminal among the plurality of user terminals. The program according to any one of claims 1 to 4, which functions as .
前記取得手段は、前記記憶手段の選択結果を表す情報を、前記ユーザの操作に応じてサーバに送信することにより、前記サーバから送信される前記第1情報を取得する、請求項1~請求項5のいずれかに記載のプログラム。 wherein said acquisition means acquires said first information transmitted from said server by transmitting information representing a selection result of said storage means to said server according to said user's operation. 6. The program according to any one of 5. 前記取得手段は、前記第1情報として、前記複数のユーザ端末の各々における前記記憶手段の選択結果が集計された情報を取得する、請求項1~請求項6のいずれかに記載のプログラム。 7. The program according to any one of claims 1 to 6, wherein said acquisition means acquires, as said first information, information obtained by summarizing selection results of said storage means in each of said plurality of user terminals. 前記取得手段は、前記複数のユーザ端末の何れかにおいて前記記憶手段が実行される度に、当該ユーザ端末における前記選択結果を表す情報を取得する、請求項1~請求項7のいずれかに記載のプログラム。 8. The acquiring means according to any one of claims 1 to 7, wherein each time the storing means is executed in any one of the plurality of user terminals, the acquiring means acquires the information representing the selection result in the user terminal. program. 少なくとも1つのキャラクタの動作を指定する動作指図データを送信するキャラクタ制御装置と、当該キャラクタ制御装置から送信された動作指図データに基づいて前記キャラクタを動作させるユーザ端末とを含むシステムであって、
前記ユーザ端末は、
前記キャラクタ制御装置からの動作指図データに基づいて、前記キャラクタを動作させることにより、ゲームに含まれる第1パートを進行する進行手段と、
前記第1パートの進行中のうちの所定期間における前記第1パートのユーザの操作に応じて、前記ゲームにおいて利用可能なデジタルコンテンツの何れかを選択し、選択したデジタルコンテンツを、前記ユーザに関連付けて記憶する記憶手段と、
複数のユーザ端末のうち少なくとも1つにおいて実行された前記記憶手段の選択結果に基づく第1情報を取得する取得手段とを備え、
前記記憶手段は、前記所定期間外に前記ゲームにおいて利用可能なデジタルコンテンツの何れかを選択する処理が実行される場合に比べて、前記ユーザにとって有利となる選択処理を実行する、システム。

A system comprising: a character control device that transmits action instruction data specifying an action of at least one character; and a user terminal that causes the character to move based on the action instruction data transmitted from the character control device,
The user terminal is
progress means for progressing a first part included in a game by causing the character to act based on action instruction data from the character control device;
Any digital content available in the game is selected according to the user's operation of the first part during a predetermined period of time during the progress of the first part, and the selected digital content is associated with the user. a storage means for storing the
obtaining means for obtaining first information based on the selection result of the storage means executed in at least one of a plurality of user terminals;
The system according to claim 1, wherein the storage means executes a selection process that is more advantageous to the user than when the process of selecting one of the digital contents available in the game is executed outside the predetermined period.

JP2023061336A 2021-01-14 2023-04-05 program and system Pending JP2023085458A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023061336A JP2023085458A (en) 2021-01-14 2023-04-05 program and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021003978A JP7258923B2 (en) 2021-01-14 2021-01-14 program
JP2023061336A JP2023085458A (en) 2021-01-14 2023-04-05 program and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021003978A Division JP7258923B2 (en) 2021-01-14 2021-01-14 program

Publications (1)

Publication Number Publication Date
JP2023085458A true JP2023085458A (en) 2023-06-20

Family

ID=75381009

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021003978A Active JP7258923B2 (en) 2021-01-14 2021-01-14 program
JP2023061336A Pending JP2023085458A (en) 2021-01-14 2023-04-05 program and system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021003978A Active JP7258923B2 (en) 2021-01-14 2021-01-14 program

Country Status (1)

Country Link
JP (2) JP7258923B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6987521B2 (en) 2016-07-08 2022-01-05 株式会社 ディー・エヌ・エー Game provision system and game program

Also Published As

Publication number Publication date
JP2021058746A (en) 2021-04-15
JP7258923B2 (en) 2023-04-17

Similar Documents

Publication Publication Date Title
JP7349348B2 (en) Character control program, method, and information processing device
JP6595043B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP7170077B2 (en) program
JP6796115B2 (en) Game programs, game methods, and information processing equipment
JP7344948B2 (en) system
JP6672380B2 (en) Game program, character control program, method, and information processing device
JP2024086965A (en) Program and system
JP6826573B2 (en) Game programs, methods, and information processing equipment
JP6639561B2 (en) Game program, method, and information processing device
JP2023085442A (en) program
JP7258923B2 (en) program
JP7386927B2 (en) Program, method, and information processing device
JP6923726B1 (en) Methods, computer-readable media, and information processing equipment
JP7457753B2 (en) PROGRAM AND INFORMATION PROCESSING APPARATUS
WO2022137376A1 (en) Method, computer-readable medium, and information processing device
WO2022137340A1 (en) Information processing method, computer-readable medium, and information processing device
WO2022137343A1 (en) Information processing method, computer-readable medium, and information processing device
WO2022113330A1 (en) Method, computer-readable medium, and information processing device
WO2022113335A1 (en) Method, computer-readable medium, and information processing device
JP2021045557A (en) Game program, game method, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240528