JP2020072804A - Game program, method, and information processing device - Google Patents

Game program, method, and information processing device Download PDF

Info

Publication number
JP2020072804A
JP2020072804A JP2019173626A JP2019173626A JP2020072804A JP 2020072804 A JP2020072804 A JP 2020072804A JP 2019173626 A JP2019173626 A JP 2019173626A JP 2019173626 A JP2019173626 A JP 2019173626A JP 2020072804 A JP2020072804 A JP 2020072804A
Authority
JP
Japan
Prior art keywords
character
user
game
instruction data
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019173626A
Other languages
Japanese (ja)
Other versions
JP7078585B2 (en
JP2020072804A5 (en
Inventor
功淳 馬場
Naruatsu Baba
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2019173626A priority Critical patent/JP7078585B2/en
Publication of JP2020072804A publication Critical patent/JP2020072804A/en
Publication of JP2020072804A5 publication Critical patent/JP2020072804A5/ja
Priority to JP2022082036A priority patent/JP7386927B2/en
Application granted granted Critical
Publication of JP7078585B2 publication Critical patent/JP7078585B2/en
Priority to JP2023193542A priority patent/JP2024020384A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve the amusement of a game.SOLUTION: A game program (131) causes a processor (10) to execute a step (S103) for operating a non-player character (hereafter referred to as an NPC) on the basis of operation instruction data for designating an operation of the NPC which is not operated by any of a user or the other users and being first operation instruction data preliminarily stored in a memory (11), and progressing a first part in accordance with an input operation of the user that is input through an operation part (151), and a step (S115) for progressing a second part by operating the NPC on the basis of second operation instruction data received from a character control device (300) for controlling the operation of the NPC.SELECTED DRAWING: Figure 10

Description

本開示はゲームプログラム、ゲームプログラムを実行する方法および情報処理装置に関する。   The present disclosure relates to a game program, a method for executing the game program, and an information processing device.

従来、ユーザが選択した選択肢に応じて結末が異なるように物語が進行するゲームが広く知られている。例えば、非特許文献1には、女の子のキャラクタと仮想的に親睦を深めることを主たる目的とする恋愛シミュレーションゲームが開示されている。ユーザは、提示された選択肢の中からキャラクタに対する働きかけとして最適と思うものを選択し、その働きかけに対して該キャラクタが反応することを繰り返すことで物語が進行する。   2. Description of the Related Art Conventionally, a game in which a story progresses with a different ending depending on the option selected by the user is widely known. For example, Non-Patent Document 1 discloses a love simulation game whose main purpose is to virtually get close to a girl character. The user advances the story by selecting, from the presented choices, the one that the character thinks is the best, and repeating the reaction of the character to the action.

“電撃オンライン - ゲーム・アプリ・漫画・アニメ情報サイト”、[online]、KADOKAWA CORPORATION、[2018年5月8日検索]、インターネット(URL:http://dengekionline.com/elem/000/000/279/279193/index-2.html)"Dengeki Online-Game / App / Manga / Anime Information Site", [online], KADOKAWA CORPORATION, [May 8, 2018 Search], Internet (URL: http://dengekionline.com/elem/000/000/ (279/279193 / index-2.html)

非特許文献1に開示されているゲームでは、キャラクタの応答パターンが予め用意されている。そして、ユーザの入力操作に応じて、該キャラクタの応答が、該応答パターンの中から決定されて出力され、ゲームが進行する。したがって、キャラクタの動作のバリエーションは、予め用意されたデータの内容を超えて広がることがない。そのため、ユーザは、キャラクタとの関わり合いに対して、該キャラクタがまるで現実の世界にいるかのような現実感を覚えることができず、いずれ飽きるという問題がある。一般に、ユーザに長くプレイさせることを意図して開発されたゲームにおいては、ユーザがゲームに飽きるという問題に如何に対処するかが重要である。ゲームには、常に、ユーザにプレイを動機付けるような魅力的なコンテンツを提供することが求められる。とりわけ、ユーザが、キャラクタとの関わり合いに興趣性を見出すようなゲームにおいては、キャラクタは、ユーザがゲームの世界に没入できるほどの高い現実感を備えていることが好ましい。   In the game disclosed in Non-Patent Document 1, the response pattern of the character is prepared in advance. Then, in response to the input operation of the user, the response of the character is determined from the response pattern and output, and the game proceeds. Therefore, the variation of the motion of the character does not extend beyond the content of the data prepared in advance. Therefore, the user cannot feel the reality as if the character were in the real world with respect to the relationship with the character, and there is a problem that the user eventually gets tired. Generally, in a game developed with the intention of making the user play for a long time, how to deal with the problem that the user gets tired of the game is important. Games are always required to provide engaging content that motivates users to play. Particularly, in a game in which the user finds interest in the relationship with the character, the character preferably has a high sense of reality that allows the user to immerse himself in the game world.

本開示の一態様は、ゲームの世界への没入感を高め、該ゲームの興趣性を向上させることを目的とする。   One aspect of the present disclosure aims to enhance the immersive feeling of the game world and improve the fun of the game.

本開示に係るゲームプログラムは、プロセッサ、メモリおよび操作部を備えるコンピュータにより実行される。ゲームプログラムは、プロセッサに、ユーザおよび他のユーザのいずれもが操作しないノンプレイヤキャラクタ(以下、NPC)の動作を指定する動作指図データであって、メモリに予め記憶されている第1動作指図データに基づいてNPCを動作させ、操作部を介して入力されたユーザの入力操作に応じて第1パートを進行させるステップと、NPCの動作を制御するキャラクタ制御装置から受信した第2動作指図データに基づいてNPCを動作させることにより第2パートを進行させるステップと、を実行させる。   The game program according to the present disclosure is executed by a computer including a processor, a memory, and an operation unit. The game program is motion instruction data that specifies, in the processor, a motion of a non-player character (hereinafter, NPC) that neither a user nor another user operates, and is first motion instruction data stored in advance in a memory. To move the first part in accordance with the user's input operation input through the operation unit, and the second action instruction data received from the character control device controlling the NPC action. Activating the NPC on the basis of the step of advancing the second part.

本開示に係るゲームプログラムは、プロセッサ、メモリおよび操作部を備えるコンピュータにより実行される。ゲームプログラムは、プロセッサに、操作部を介してコンピュータに入力されたユーザの入力操作に応じてキャラクタを動作させることにより第1パートを進行させるステップと、キャラクタの動作を制御するキャラクタ制御装置から受信した、キャラクタの動作を指定する動作指図データに基づいてキャラクタを動作させることにより第2パートを進行させるステップとを実行させる。動作指図データは、音声データおよびモーションキャプチャデータの少なくともいずれか1つを含む。第2パートを進行させるステップでは、ユーザの入力操作の内容をキャラクタ制御装置に送信し、キャラクタ制御装置によって入力操作の内容が受信された後該キャラクタ制御装置から送信された動作指図データを受信し、動作指図データを受信したことをトリガにして、キャラクタを動作させる。   The game program according to the present disclosure is executed by a computer including a processor, a memory, and an operation unit. The game program is received from the step of causing the processor to advance the first part by operating the character in response to the user's input operation input to the computer via the operation unit, and the character control device controlling the operation of the character. And a step of advancing the second part by moving the character based on the motion instruction data designating the motion of the character. The motion instruction data includes at least one of voice data and motion capture data. In the step of advancing the second part, the content of the user's input operation is transmitted to the character control device, and after the content of the input operation is received by the character control device, the operation instruction data transmitted from the character control device is received. , The action of the character is triggered by receiving the action instruction data.

本開示の一態様によれば、ゲームの興趣性を向上させる効果を奏する。   According to one aspect of the present disclosure, an effect of improving the interest of the game is achieved.

ゲームシステムのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a game system. ユーザ端末、サーバおよび動作指図装置の機能的構成を示すブロック図である。It is a block diagram showing functional composition of a user terminal, a server, and an operation command device. 本実施形態に係るゲームプログラムに基づいて実行されるゲームの基本的なゲーム進行についてその一例を示すフローチャートである。It is a flow chart which shows an example about the basic game progress of the game performed based on the game program concerning this embodiment. 動作指図データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of operation instruction data. ゲーム情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of game information. ユーザ端末の表示部に表示されるクエスト提示画面の一例を示す図である。It is a figure which shows an example of the quest presentation screen displayed on the display part of a user terminal. ユーザ端末の表示部に表示されるクエスト解決画面の一例を示す図である。It is a figure which shows an example of the quest resolution screen displayed on the display part of a user terminal. ユーザ端末の表示部に表示される報酬画面の一例を示す図である。It is a figure which shows an example of the reward screen displayed on the display part of a user terminal. ユーザ端末の表示部に表示される動画再生画面の一例を示す図である。It is a figure which shows an example of the moving image reproduction screen displayed on the display part of a user terminal. ゲームシステムにおいて実行される処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing performed in a game system. ユーザ端末によって実行される、動作指図データを解析する処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing which analyzes operation direction data performed by a user terminal.

〔実施形態1〕
本開示に係るゲームシステムは、複数のユーザにゲームを提供するためのシステムである。以下、ゲームシステムについて図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
[Embodiment 1]
The game system according to the present disclosure is a system for providing a game to a plurality of users. Hereinafter, the game system will be described with reference to the drawings. It should be noted that the present invention is not limited to these exemplifications, and is shown by the scope of claims, and it is intended that all modifications within the meaning and range equivalent to the scope of claims are included in the present invention. It In the following description, the same elements will be denoted by the same reference symbols in the description of the drawings, without redundant description.

<ゲームシステム1のハードウェア構成>
図1は、ゲームシステム1のハードウェア構成を示す図である。ゲームシステム1は図示の通り、複数のユーザ端末100と、サーバ200とを含む。各ユーザ端末100は、サーバ200とネットワーク2を介して接続する。ネットワーク2は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
<Hardware configuration of game system 1>
FIG. 1 is a diagram showing a hardware configuration of the game system 1. As shown, the game system 1 includes a plurality of user terminals 100 and a server 200. Each user terminal 100 is connected to the server 200 via the network 2. The network 2 includes various mobile communication systems and the like constructed by the Internet and a wireless base station (not shown). Examples of the mobile communication system include so-called 3G and 4G mobile communication systems, LTE (Long Term Evolution), and a wireless network (for example, Wi-Fi (registered trademark)) connectable to the Internet by a predetermined access point. Be done.

サーバ200(コンピュータ、情報処理装置)は、ワークステーションまたはパーソナルコンピュータ等の汎用コンピュータであってよい。サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。   The server 200 (computer, information processing device) may be a general-purpose computer such as a workstation or a personal computer. The server 200 includes a processor 20, a memory 21, a storage 22, a communication IF 23, and an input / output IF 24. These components included in the server 200 are electrically connected to each other by a communication bus.

ユーザ端末100(コンピュータ、情報処理装置)は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。ユーザ端末100は、ゲームプレイに適したゲーム装置であってもよい。ユーザ端末100は図示の通り、プロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15(表示部)と、カメラ17と、測距センサ18とを備える。ユーザ端末100が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、ユーザ端末100は、タッチスクリーン15に代えて、または、加えて、ユーザ端末100本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。   The user terminal 100 (computer, information processing device) may be a mobile terminal such as a smartphone, a feature phone, a PDA (Personal Digital Assistant), or a tablet computer. The user terminal 100 may be a game device suitable for game play. As illustrated, the user terminal 100 includes a processor 10, a memory 11, a storage 12, a communication interface (IF) 13, an input / output IF 14, a touch screen 15 (display unit), a camera 17, and a distance measuring sensor 18. With. These components included in the user terminal 100 are electrically connected to each other by a communication bus. Note that the user terminal 100 may include an input / output IF 14 to which a display (display unit) configured separately from the main body of the user terminal 100 can be connected instead of or in addition to the touch screen 15.

また、図1に示すように、ユーザ端末100は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、ユーザ端末100と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの入力操作に基づく出力値をユーザ端末100へ送信する。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値をユーザ端末100へ送信する。   Further, as shown in FIG. 1, the user terminal 100 may be configured to be able to communicate with one or more controllers 1020. The controller 1020 establishes communication with the user terminal 100 according to a communication standard such as Bluetooth (registered trademark). The controller 1020 may have one or more buttons or the like, and transmits an output value based on a user's input operation to the buttons or the like to the user terminal 100. Further, the controller 1020 may have various sensors such as an acceleration sensor and an angular velocity sensor, and outputs output values of the various sensors to the user terminal 100.

なお、ユーザ端末100がカメラ17および測距センサ18を備えることに代えて、または、加えて、コントローラ1020がカメラ17および測距センサ18を有していてもよい。   Note that instead of or in addition to the user terminal 100 including the camera 17 and the distance measuring sensor 18, the controller 1020 may include the camera 17 and the distance measuring sensor 18.

ユーザ端末100は、例えばゲーム開始時に、コントローラ1020を使用するユーザに、該ユーザの名前またはログインID等のユーザ識別情報を、該コントローラ1020を介して入力させることが望ましい。これにより、ユーザ端末100は、コントローラ1020とユーザとを紐付けることが可能となり、受信した出力値の送信元(コントローラ1020)に基づいて、該出力値がどのユーザのものであるかを特定することができる。   It is desirable that the user terminal 100 causes a user who uses the controller 1020 to input user identification information such as a name or a login ID of the user via the controller 1020, for example, at the start of the game. This allows the user terminal 100 to associate the controller 1020 with the user, and identifies which user the output value belongs to based on the transmission source (controller 1020) of the received output value. be able to.

ユーザ端末100が複数のコントローラ1020と通信する場合、各コントローラ1020を各ユーザが把持することで、ネットワーク2を介してサーバ200などの他の装置と通信せずに、該1台のユーザ端末100でマルチプレイを実現することができる。また、各ユーザ端末100が無線LAN(Local Area Network)規格等の無線規格により互いに通信接続する(サーバ200を介さずに通信接続する)ことで、複数台のユーザ端末100によりローカルでマルチプレイを実現することもできる。1台のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、ユーザ端末100は、さらに、サーバ200が備える後述する種々の機能の少なくとも一部を備えていてもよい。また、複数のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、複数のユーザ端末100は、サーバ200が備える後述する種々の機能を分散して備えていてもよい。   When the user terminal 100 communicates with the plurality of controllers 1020, each controller 1020 is held by each user so that the user terminal 100 does not communicate with other devices such as the server 200 via the network 2 and the one user terminal 100. Multiplayer can be realized with. In addition, each user terminal 100 communicates with each other according to a wireless standard such as a wireless LAN (Local Area Network) standard (communicatively connects without passing through the server 200), thereby realizing multi-play locally by a plurality of user terminals 100. You can also do it. When the above-described multiplay is locally realized by one user terminal 100, the user terminal 100 may further include at least a part of various functions of the server 200, which will be described later. Further, when the above-described multi-play is locally realized by the plurality of user terminals 100, the plurality of user terminals 100 may be provided with various functions of the server 200, which will be described later, in a distributed manner.

なお、ローカルで上述のマルチプレイを実現する場合であっても、ユーザ端末100はサーバ200と通信を行ってもよい。例えば、あるゲームにおける成績または勝敗等のプレイ結果を示す情報と、ユーザ識別情報とを対応付けてサーバ200に送信してもよい。   Note that the user terminal 100 may communicate with the server 200 even when the above-described multiplay is realized locally. For example, information indicating a play result such as a score or a win or loss in a game and user identification information may be associated with each other and transmitted to the server 200.

また、コントローラ1020は、ユーザ端末100に着脱可能な構成であるとしてもよい。この場合、ユーザ端末100の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線によりユーザ端末100とコントローラ1020とが結合している場合は、ユーザ端末100とコントローラ1020とは、有線を介して信号を送受信する。   Further, the controller 1020 may be configured to be attachable to and detachable from the user terminal 100. In this case, a coupling portion with the controller 1020 may be provided on at least one surface of the housing of the user terminal 100. When the user terminal 100 and the controller 1020 are connected by wire via the connecting unit, the user terminal 100 and the controller 1020 send and receive signals via wire.

図1に示すように、ユーザ端末100は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF14を介して受け付けてもよい。これにより、ユーザ端末100は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えばゲームプログラムである。   As shown in FIG. 1, the user terminal 100 may receive mounting of a storage medium 1030 such as an external memory card via the input / output IF 14. As a result, the user terminal 100 can read the program and data recorded in the storage medium 1030. The program recorded in the storage medium 1030 is, for example, a game program.

ユーザ端末100は、サーバ200等の外部の装置と通信することにより取得したゲームプログラムをユーザ端末100のメモリ11に記憶してもよいし、記憶媒体1030から読み込むことにより取得したゲームプログラムをメモリ11に記憶してもよい。   The user terminal 100 may store the game program acquired by communicating with an external device such as the server 200 in the memory 11 of the user terminal 100, or the game program acquired by reading from the storage medium 1030 in the memory 11. May be stored in.

以上で説明したとおり、ユーザ端末100は、該ユーザ端末100に対して情報を入力する機構の一例として、通信IF13、入出力IF14、タッチスクリーン15、カメラ17、および、測距センサ18を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。   As described above, the user terminal 100 includes the communication IF 13, the input / output IF 14, the touch screen 15, the camera 17, and the distance measuring sensor 18 as an example of a mechanism for inputting information to the user terminal 100. Each of the above-described units as a mechanism for inputting can be regarded as an operation unit configured to receive an input operation of the user.

例えば、操作部が、カメラ17および測距センサ18の少なくともいずれか一方で構成される場合、該操作部が、ユーザ端末100の近傍の物体1010を検出し、当該物体の検出結果から入力操作を特定する。一例として、物体1010としてのユーザの手、予め定められた形状のマーカーなどが検出され、検出結果として得られた物体1010の色、形状、動き、または、種類などに基づいて入力操作が特定される。より具体的には、ユーザ端末100は、カメラ17の撮影画像からユーザの手が検出された場合、該撮影画像に基づき検出されるジェスチャ(ユーザの手の一連の動き)を、ユーザの入力操作として特定し、受け付ける。なお、撮影画像は静止画であっても動画であってもよい。   For example, when the operation unit is configured by at least one of the camera 17 and the distance measuring sensor 18, the operation unit detects an object 1010 near the user terminal 100 and performs an input operation from the detection result of the object. Identify. As an example, the user's hand as the object 1010, a marker having a predetermined shape, or the like is detected, and the input operation is specified based on the color, shape, movement, or type of the object 1010 obtained as a detection result. It More specifically, when the user's hand is detected from the captured image of the camera 17, the user terminal 100 operates the gesture (a series of movements of the user's hand) detected based on the captured image, by the user's input operation. As specified and accepted. The captured image may be a still image or a moving image.

あるいは、操作部がタッチスクリーン15で構成される場合、ユーザ端末100は、タッチスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、ユーザ端末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。   Alternatively, when the operation unit includes the touch screen 15, the user terminal 100 identifies and accepts the user operation performed on the input unit 151 of the touch screen 15 as the user's input operation. Alternatively, when the operation unit is configured with the communication IF 13, the user terminal 100 identifies and receives a signal (for example, an output value) transmitted from the controller 1020 as a user input operation. Alternatively, when the operation unit is configured by the input / output IF 14, a signal output from an input device (not shown) different from the controller 1020 connected to the input / output IF 14 is specified and accepted as the user's input operation.

本実施形態では、ゲームシステム1は、さらに、動作指図装置300を含む。動作指図装置300は、サーバ200およびユーザ端末100のそれぞれと、ネットワーク2を介して接続する。動作指図装置300は、ゲームシステム1に少なくとも1台設けられている。動作指図装置300は、サーバ200が提供するサービスを利用するユーザ端末100の数に応じて、複数台設けられていてもよい。1台のユーザ端末100に対して、1台の動作指図装置300が設けられていてもよい。複数台のユーザ端末100に対して、1台の動作指図装置300が設けられていてもよい。   In the present embodiment, the game system 1 further includes a motion command device 300. The operation command device 300 is connected to each of the server 200 and the user terminal 100 via the network 2. At least one operation command device 300 is provided in the game system 1. A plurality of operation command devices 300 may be provided according to the number of user terminals 100 that use the service provided by the server 200. One operation command device 300 may be provided for one user terminal 100. One operation command device 300 may be provided for a plurality of user terminals 100.

動作指図装置300(NPC制御装置、キャラクタ制御装置)は、サーバ、デスクトップパソコン、ノートパソコン、または、タブレットなどのコンピュータ、および、これらを組み合わせたコンピュータ群であってもよい。動作指図装置300は、図示の通り、プロセッサ30と、メモリ31と、ストレージ32と、通信IF33と、入出力IF34と、タッチスクリーン35(表示部)とを備える。動作指図装置300が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、動作指図装置300は、タッチスクリーン35に代えて、または、加えて、動作指図装置300本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF34を備えていてもよい。   The motion instruction device 300 (NPC control device, character control device) may be a server, a desktop personal computer, a notebook personal computer, a computer such as a tablet, or a computer group combining these. As illustrated, the operation command device 300 includes a processor 30, a memory 31, a storage 32, a communication IF 33, an input / output IF 34, and a touch screen 35 (display unit). These components included in the operation command device 300 are electrically connected to each other by a communication bus. The operation command device 300 may include, instead of or in addition to the touch screen 35, an input / output IF 34 to which a display (display unit) configured separately from the main body of the operation command device 300 can be connected.

また、図1に示すように、動作指図装置300は、1つ以上のマイク3010、1つ以上のモーションキャプチャ装置3020、および、1つ以上のコントローラ3030などの周辺機器と、無線または有線を介して、通信可能に構成されてもよい。無線で接続される周辺機器は、例えば、Bluetooth(登録商標)等の通信規格に従って、動作指図装置300と通信を確立する。   Further, as shown in FIG. 1, the motion command device 300 is connected to one or more microphones 3010, one or more motion capture devices 3020, and one or more peripheral devices such as a controller 3030 via a wireless or wired connection. And may be configured to be communicable. The peripheral device wirelessly connected establishes communication with the operation command device 300 according to a communication standard such as Bluetooth (registered trademark).

マイク3010は、周囲で発生した音声を取得し、これを電気信号に変換する。電気信号に変換された音声は、音声データとして、動作指図装置300に送信され、通信IF33を介して動作指図装置300に受け付けられる。   The microphone 3010 acquires a sound generated in the surroundings and converts it into an electric signal. The voice converted into the electric signal is transmitted to the operation command device 300 as voice data, and is accepted by the operation command device 300 via the communication IF 33.

モーションキャプチャ装置3020は、追跡対象(例えば、人)のモーション(顔の表情、口の動きなども含む)を追跡し、追跡結果としての出力値を動作指図装置300へ送信する。出力値であるモーションデータは、通信IF33を介して動作指図装置300に受け付けられる。モーションキャプチャ装置3020のモーションキャプチャ方式は特に限定されない。モーションキャプチャ装置3020は、採用された方式に応じて、カメラ、各種センサ、マーカー、モデル(人物)が着用するスーツ、信号送出器など、モーションをキャプチャするためのあらゆる機構を選択的に備えている。   The motion capture device 3020 tracks the motion of the tracking target (for example, a person) (including facial expressions, mouth movements, etc.) and transmits the output value as the tracking result to the motion command device 300. The motion data, which is an output value, is accepted by the motion command device 300 via the communication IF 33. The motion capture method of the motion capture device 3020 is not particularly limited. The motion capture device 3020 is selectively equipped with various mechanisms for capturing motion, such as a camera, various sensors, markers, a suit worn by a model (person), a signal transmitter, etc., depending on the adopted system. ..

コントローラ3030は、1つ以上のボタン、レバー、スティック、ホイール等の物理的な入力機構を有していてもよい。コントローラ3030は、動作指図装置300のオペレータが、該入力機構に対して入力した入力操作に基づく出力値を動作指図装置300へ送信する。また、コントローラ3030は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を動作指図装置300へ送信してもよい。上述の出力値は、通信IF33を介して動作指図装置300に受け付けられる。なお、以下では、動作指図装置300に備えられた操作部または動作指図装置300と通信可能に接続された各種の入力機構を用いて、動作指図装置300に対して、何らかの入力操作を行う人をオペレータと称する。オペレータには、入力部351、コントローラ3030などを用いて動作指図装置300を操作する人も含まれるし、マイク3010を介して音声を入力する声優も含まれるし、モーションキャプチャ装置3020を介して動きを入力するモデルも含まれる。   The controller 3030 may have a physical input mechanism such as one or more buttons, levers, sticks, wheels and the like. The controller 3030 transmits an output value based on an input operation input to the input mechanism by the operator of the motion command device 300 to the motion command device 300. Further, the controller 3030 may have various sensors such as an acceleration sensor and an angular velocity sensor, and may output the output values of the various sensors to the operation command device 300. The above-mentioned output value is accepted by the operation command device 300 via the communication IF 33. In the following, a person who performs some input operation on the motion instruction device 300 using the operation unit provided in the motion instruction device 300 or various input mechanisms communicatively connected to the motion instruction device 300. Called an operator. The operator includes a person who operates the operation instruction device 300 using the input unit 351, the controller 3030, and the like, a voice actor who inputs a voice through the microphone 3010, and a movement through the motion capture device 3020. A model for inputting is also included.

動作指図装置300は、図示しない、カメラと、測距センサとを備えていてもよい。動作指図装置300が備えることに代えて、または、加えて、モーションキャプチャ装置3020およびコントローラ3030がカメラと、測距センサとを有してしてもよい。   The operation command device 300 may include a camera and a distance measuring sensor (not shown). Instead of, or in addition to, the operation command device 300, the motion capture device 3020 and the controller 3030 may include a camera and a distance measuring sensor.

以上で説明したとおり、動作指図装置300は、該動作指図装置300に対して情報を入力する機構の一例として、通信IF33、入出力IF34、タッチスクリーン35を備える。必要に応じて、カメラ、および、測距センサをさらに備えていてもよい。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。   As described above, the motion instruction device 300 includes the communication IF 33, the input / output IF 34, and the touch screen 35 as an example of a mechanism for inputting information to the motion instruction device 300. A camera and a distance measuring sensor may be further provided as necessary. Each of the above-described units as a mechanism for inputting can be regarded as an operation unit configured to receive an input operation of the user.

操作部がタッチスクリーン35で構成されていてもよい。この場合、動作指図装置300は、タッチスクリーン35の入力部351に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF33で構成される場合、動作指図装置300は、コントローラ3030から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF34で構成される場合、該入出力IF34と接続されるコントローラ3030とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。   The operation unit may be configured by the touch screen 35. In this case, the motion command device 300 identifies and accepts the user operation performed on the input unit 351 of the touch screen 35 as the user input operation. Alternatively, when the operation unit is configured by the communication IF 33, the motion instruction device 300 identifies and receives a signal (for example, an output value) transmitted from the controller 3030 as a user input operation. Alternatively, when the operation unit includes the input / output IF 34, a signal output from an input device (not shown) different from the controller 3030 connected to the input / output IF 34 is specified and accepted as the user's input operation.

<ゲーム概要>
実施形態1に係るゲームシステム1が実行するゲーム(以下、本ゲーム)は、一例として、1以上のキャラクタを登場させて、そのキャラクタの少なくとも1つを動作指図データに基づいて動作させるゲームである。該ゲームに登場するキャラクタは、プレイヤキャラクタ(以下、PC)であってもよいし、ノンプレイヤキャラクタ(以下、NPC)であってもよい。PCは、ユーザが直接操作可能なキャラクタである。NPCは、ゲームプログラムおよび動作指図データにしたがって動作する、すなわち、ユーザが直接操作できないキャラクタである。以下では、両者を特に区別する必要がない場合には、総称として、“キャラクタ”を用いる。
<Game outline>
The game executed by the game system 1 according to the first embodiment (hereinafter, this game) is, for example, a game in which one or more characters are made to appear and at least one of the characters is operated based on the operation instruction data. .. The character appearing in the game may be a player character (hereinafter, PC) or a non-player character (hereinafter, NPC). The PC is a character that the user can directly operate. The NPC is a character that operates according to the game program and the operation instruction data, that is, a character that the user cannot directly operate. In the following, when there is no particular need to distinguish between the two, "character" is used as a generic name.

一例として、本ゲームは、育成シミュレーションゲームである。具体的には、該育成シミュレーションゲームは、ユーザたる主人公が、キャラクタとの交流を深め、働きかけていくことで、該キャラクタを有名な動画配信者に仕立て上げ、該キャラクタが抱く夢を実現することを目的としている。さらに、該育成シミュレーションゲームは、主人公が、キャラクタとの交流を通じて親密度を高めることを目的とする恋愛シミュレーションゲームの要素を含んでいてもよい。   As an example, this game is a training simulation game. Specifically, in the training simulation game, the main character as a user deepens interaction with the character and works on it to make the character a famous moving image distributor and realize the dream held by the character. It is an object. Furthermore, the breeding simulation game may include elements of a love simulation game in which the hero aims to increase intimacy through interaction with the character.

さらに、本ゲームには、一例として、ライブ配信パートが少なくとも含まれていることが好ましい。ゲームシステム1において、動作指図データが、本ゲームを実行中のユーザ端末100に対して、該ユーザ端末100以外の他の装置から、任意のタイミングで供給される。ユーザ端末100は、該動作指図データを受信したことをトリガにして、該動作指図データを解析する(レンダリングする)。ライブ配信パートとは、ユーザ端末100が、上述の解析された動作指図データにしたがって動作するキャラクタを、ユーザにリアルタイムに提示するパートである。これにより、ユーザは、キャラクタが本当に存在するかのような現実感を覚えることができ、より一層ゲームの世界に没入して本ゲームに興じることができる。   Furthermore, it is preferable that the present game includes at least a live distribution part as an example. In the game system 1, the operation instruction data is supplied to the user terminal 100 that is executing this game from another device other than the user terminal 100 at an arbitrary timing. The user terminal 100 analyzes (renders) the operation instruction data by using the reception of the operation instruction data as a trigger. The live distribution part is a part in which the user terminal 100 presents to the user, in real time, a character that operates according to the analyzed operation instruction data. As a result, the user can have a sense of reality as if the character really exists, and can further immerse himself in the game world and enjoy this game.

本実施形態では、ゲームは、複数のプレイパートで構成されていてもよい。この場合、1つのキャラクタが、あるパートでは、PCであって、別のパートでは、NPCである、というように、パートごとにキャラクタの性質が異なっていてもよい。   In the present embodiment, the game may be composed of a plurality of play parts. In this case, one character may be a PC in one part and an NPC in another part, and the character characteristics may be different for each part.

ゲームのジャンルは、特定のジャンルに限られない。ゲームシステム1は、あらゆるジャンルのゲームを実行し得る。例えば、テニス、卓球、ドッジボール、野球、サッカーおよびホッケーなどのスポーツを題材としたゲーム、パズルゲーム、クイズゲーム、RPG(Role-Playing Game)、アドベンチャーゲーム、シューティングゲーム、シミュレーションゲーム、育成ゲーム、ならびに、アクションゲームなどであってもよい。   The genre of the game is not limited to a particular genre. The game system 1 can execute games of all genres. For example, games on sports such as tennis, table tennis, dodge ball, baseball, soccer and hockey, puzzle games, quiz games, RPG (Role-Playing Game), adventure games, shooting games, simulation games, training games, and It may be an action game or the like.

また、ゲームシステム1において実行されるゲームのプレイ形態は、特定のプレイ形態に限られない。ゲームシステム1は、あらゆるプレイ形態のゲームを実行し得る。例えば、単一のユーザによるシングルプレイゲーム、および、複数のユーザによるマルチプレイゲーム、また、マルチプレイゲームの中でも、複数のユーザが対戦する対戦ゲーム、および、複数のユーザが協力する協力プレイゲームなどであってもよい。   Moreover, the play mode of the game executed in the game system 1 is not limited to a specific play mode. The game system 1 can execute a game of any play mode. For example, a single-player game by a single user, a multi-player game by a plurality of users, a multi-player game, a competitive game in which a plurality of users play a match, and a cooperative play game in which a plurality of users cooperate. May be.

<各装置のハードウェア構成要素>
プロセッサ10は、ユーザ端末100全体の動作を制御する。プロセッサ20は、サーバ200全体の動作を制御する。プロセッサ30は、動作指図装置300全体の動作を制御する。プロセッサ10、20および30は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。
<Hardware components of each device>
The processor 10 controls the operation of the entire user terminal 100. The processor 20 controls the operation of the entire server 200. The processor 30 controls the operation of the operation command device 300 as a whole. The processors 10, 20 and 30 include a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit).

プロセッサ10は後述するストレージ12からプログラムを読み出し、後述するメモリ11に展開する。プロセッサ20は後述するストレージ22からプログラムを読み出し、後述するメモリ21に展開する。プロセッサ30は後述するストレージ32からプログラムを読み出し、後述するメモリ31に展開する。プロセッサ10、プロセッサ20およびプロセッサ30は展開したプログラムを実行する。   The processor 10 reads a program from a storage 12 described later and loads it into a memory 11 described later. The processor 20 reads a program from a storage 22 described later and loads it into a memory 21 described later. The processor 30 reads a program from a storage 32 described later and loads it into a memory 31 described later. The processor 10, the processor 20, and the processor 30 execute the expanded program.

メモリ11、21および31は主記憶装置である。メモリ11、21および31は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ31は、プロセッサ30が後述するストレージ32から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ30に作業領域を提供する。メモリ31は、プロセッサ30がプログラムに従って動作している間に生成した各種データも一時的に記憶する。   The memories 11, 21 and 31 are main storage devices. The memories 11, 21 and 31 are configured by storage devices such as ROM (Read Only Memory) and RAM (Random Access Memory). The memory 11 provides a work area to the processor 10 by temporarily storing a program and various data read by the processor 10 from a storage 12 described later. The memory 11 also temporarily stores various data generated while the processor 10 operates according to a program. The memory 21 provides a work area to the processor 20 by temporarily storing various programs and data read by the processor 20 from a storage 22 described later. The memory 21 also temporarily stores various data generated while the processor 20 operates according to the program. The memory 31 provides a work area to the processor 30 by temporarily storing various programs and data read by the processor 30 from a storage 32 described later. The memory 31 also temporarily stores various data generated while the processor 30 operates according to the program.

本実施形態においてプログラムとは、ゲームをユーザ端末100により実現するためのゲームプログラムであってもよい。あるいは、該プログラムは、該ゲームをユーザ端末100とサーバ200との協働により実現するためのゲームプログラムであってもよい。あるいは、該プログラムは、該ゲームをユーザ端末100とサーバ200と動作指図装置300との協働により実現するためのゲームプログラムであってもよい。なお、ユーザ端末100とサーバ200との協働により実現されるゲームおよびユーザ端末100とサーバ200と動作指図装置300との協働により実現されるゲームは、一例として、ユーザ端末100において起動されたブラウザ上で実行されるゲームであってもよい。あるいは、該プログラムは、該ゲームを複数のユーザ端末100の協働により実現するためのゲームプログラムであってもよい。また、各種データとは、ユーザ情報およびゲーム情報などのゲームに関するデータ、ならびに、ゲームシステム1の各装置間で送受信する指示または通知を含んでいる。   In the present embodiment, the program may be a game program for realizing the game on the user terminal 100. Alternatively, the program may be a game program for realizing the game by cooperation between the user terminal 100 and the server 200. Alternatively, the program may be a game program for realizing the game by cooperation of the user terminal 100, the server 200, and the operation command device 300. Note that the game realized by the cooperation of the user terminal 100 and the server 200 and the game realized by the cooperation of the user terminal 100, the server 200, and the operation command device 300 are started in the user terminal 100 as an example. It may be a game executed on a browser. Alternatively, the program may be a game program for realizing the game by cooperation of a plurality of user terminals 100. In addition, the various data includes data relating to the game such as user information and game information, and instructions or notifications transmitted and received between the respective devices of the game system 1.

ストレージ12、22および32は補助記憶装置である。ストレージ12、22および32は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ12、22および32には、ゲームに関する各種データが格納される。   The storages 12, 22 and 32 are auxiliary storage devices. The storages 12, 22 and 32 are configured by a storage device such as a flash memory or an HDD (Hard Disk Drive). Various data relating to the game is stored in the storages 12, 22 and 32.

通信IF13は、ユーザ端末100における各種データの送受信を制御する。通信IF23は、サーバ200における各種データの送受信を制御する。通信IF33は、動作指図装置300における各種データの送受信を制御する。通信IF13、23および33は例えば、無線LAN(Local Area Network)を介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。   The communication IF 13 controls transmission / reception of various data in the user terminal 100. The communication IF 23 controls transmission / reception of various data in the server 200. The communication IF 33 controls transmission / reception of various data in the operation command device 300. The communication IFs 13, 23, and 33 control, for example, communication using a wireless LAN (Local Area Network), wired LAN, wireless LAN, or Internet communication via a mobile phone network, and communication using short-range wireless communication or the like. ..

入出力IF14は、ユーザ端末100がデータの入力を受け付けるためのインターフェースであり、またユーザ端末100がデータを出力するためのインターフェースである。入出力IF14は、USB(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14は、例えば、ユーザ端末100の物理ボタン、カメラ、マイク、または、スピーカ等を含み得る。サーバ200の入出力IF24は、サーバ200がデータの入力を受け付けるためのインターフェースであり、またサーバ200がデータを出力するためのインターフェースである。入出力IF24は、例えば、マウスまたはキーボード等の情報入力機器である入力部と、画像を表示出力する機器である表示部とを含み得る。動作指図装置300の入出力IF34は、動作指図装置300がデータの入力を受け付けるためのインターフェースであり、また動作指図装置300がデータを出力するためのインターフェースである。入出力IF34は、例えば、マウス、キーボード、スティック、レバー等の情報入力機器、液晶ディスプレイなどの画像を表示出力する機器、および、周辺機器(マイク3010、モーションキャプチャ装置3020、および、コントローラ3030)との間でデータを送受信するための接続部を含み得る。   The input / output IF 14 is an interface for the user terminal 100 to receive data input, and is an interface for the user terminal 100 to output data. The input / output IF 14 may input / output data via a USB (Universal Serial Bus) or the like. The input / output IF 14 may include, for example, a physical button of the user terminal 100, a camera, a microphone, a speaker, or the like. The input / output IF 24 of the server 200 is an interface for the server 200 to receive data input, and is an interface for the server 200 to output data. The input / output IF 24 may include, for example, an input unit that is an information input device such as a mouse or a keyboard, and a display unit that is a device for displaying and outputting an image. The input / output IF 34 of the operation command device 300 is an interface for the operation command device 300 to receive input of data, and is an interface for the operation command device 300 to output data. The input / output IF 34 includes, for example, an information input device such as a mouse, a keyboard, a stick, and a lever, a device for displaying and outputting an image such as a liquid crystal display, and peripheral devices (a microphone 3010, a motion capture device 3020, and a controller 3030). A connection may be included for sending and receiving data between.

ユーザ端末100のタッチスクリーン15は、入力部151と表示部152とを組み合わせた電子部品である。動作指図装置300のタッチスクリーン35は、入力部351と表示部352とを組み合わせた電子部品である。入力部151、351は、例えばタッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部152、352は、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等によって構成される。   The touch screen 15 of the user terminal 100 is an electronic component that combines the input unit 151 and the display unit 152. The touch screen 35 of the operation command device 300 is an electronic component in which an input unit 351 and a display unit 352 are combined. The input units 151 and 351 are, for example, touch-sensitive devices, and are configured by, for example, touch pads. The display units 152 and 352 are configured by, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.

入力部151、351は、入力面に対しユーザの操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部151、351は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。   The input units 151 and 351 detect a position at which a user operation (mainly a physical contact operation such as a touch operation, a slide operation, a swipe operation, and a tap operation) is input on the input surface, and indicate information indicating the position. Is provided as an input signal. The input units 151 and 351 may include a touch sensing unit (not shown). The touch sensing unit may be of any type such as a capacitance type or a resistance film type.

図示していないが、ユーザ端末100は、該ユーザ端末100の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。ユーザ端末100がセンサを備えている場合、プロセッサ10は、センサの出力からユーザ端末100の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10は、ユーザ端末100が縦向きに保持されているときには、縦長の画像を表示部152に表示させる縦画面表示としてもよい。一方、ユーザ端末100が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ10は、ユーザ端末100の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。   Although not shown, the user terminal 100 may include one or more sensors for specifying the holding posture of the user terminal 100. This sensor may be, for example, an acceleration sensor or an angular velocity sensor. When the user terminal 100 includes a sensor, the processor 10 can also specify the holding attitude of the user terminal 100 from the output of the sensor and perform processing according to the holding attitude. For example, the processor 10 may perform vertical screen display in which a vertically long image is displayed on the display unit 152 when the user terminal 100 is held vertically. On the other hand, when the user terminal 100 is held in the horizontal orientation, a horizontally long image may be displayed on the display unit in a horizontal screen display. In this way, the processor 10 may be capable of switching between the vertical screen display and the horizontal screen display according to the holding posture of the user terminal 100.

カメラ17は、イメージセンサ等を含み、レンズから入射する入射光を電気信号に変換することで撮影画像を生成する。   The camera 17 includes an image sensor and the like, and converts a light incident from a lens into an electric signal to generate a captured image.

測距センサ18は、測定対象物までの距離を測定するセンサである。測距センサ18は、例えば、パルス変換した光を発する光源と、光を受ける受光素子とを含む。測距センサ18は、光源からの発光タイミングと、該光源から発せられた光が測定対象物にあたって反射されて生じる反射光の受光タイミングとにより、測定対象物までの距離を測定する。測距センサ18は、指向性を有する光を発する光源を有することとしてもよい。   The distance measuring sensor 18 is a sensor that measures the distance to the measurement target. The distance measuring sensor 18 includes, for example, a light source that emits pulse-converted light and a light receiving element that receives the light. The distance measuring sensor 18 measures the distance to the measurement object by the light emission timing from the light source and the light reception timing of the reflected light generated when the light emitted from the light source is reflected by the measurement object. The distance measuring sensor 18 may include a light source that emits light having directivity.

ここで、ユーザ端末100が、カメラ17と測距センサ18とを用いて、ユーザ端末100の近傍の物体1010を検出した検出結果を、ユーザの入力操作として受け付ける例をさらに説明する。カメラ17および測距センサ18は、例えば、ユーザ端末100の筐体の側面に設けられてもよい。カメラ17の近傍に測距センサ18が設けられてもよい。カメラ17としては、例えば赤外線カメラを用いることができる。この場合、赤外線を照射する照明装置および可視光を遮断するフィルタ等が、カメラ17に設けられてもよい。これにより、屋外か屋内かにかかわらず、カメラ17の撮影画像に基づく物体の検出精度をいっそう向上させることができる。   Here, an example in which the user terminal 100 receives the detection result of detecting the object 1010 near the user terminal 100 by using the camera 17 and the distance measuring sensor 18 as the user's input operation will be further described. The camera 17 and the distance measuring sensor 18 may be provided, for example, on the side surface of the housing of the user terminal 100. A distance measuring sensor 18 may be provided near the camera 17. As the camera 17, for example, an infrared camera can be used. In this case, the camera 17 may be provided with a lighting device that emits infrared rays, a filter that blocks visible light, and the like. This makes it possible to further improve the detection accuracy of the object based on the image captured by the camera 17, regardless of whether it is outdoors or indoors.

プロセッサ10は、カメラ17の撮影画像に対して、例えば以下の(1)〜(5)に示す処理のうち1つ以上の処理を行ってもよい。(1)プロセッサ10は、カメラ17の撮影画像に対し画像認識処理を行うことで、該撮影画像にユーザの手が含まれているか否かを特定する。プロセッサ10は、上述の画像認識処理において採用する解析技術として、例えばパターンマッチング等の技術を用いてよい。(2)また、プロセッサ10は、ユーザの手の形状から、ユーザのジェスチャを検出する。プロセッサ10は、例えば、撮影画像から検出されるユーザの手の形状から、ユーザの指の本数(伸びている指の本数)を特定する。プロセッサ10はさらに、特定した指の本数から、ユーザが行ったジェスチャを特定する。例えば、プロセッサ10は、指の本数が5本である場合、ユーザが「パー」のジェスチャを行ったと判定する。また、プロセッサ10は、指の本数が0本である(指が検出されなかった)場合、ユーザが「グー」のジェスチャを行ったと判定する。また、プロセッサ10は、指の本数が2本である場合、ユーザが「チョキ」のジェスチャを行ったと判定する。(3)プロセッサ10は、カメラ17の撮影画像に対し、画像認識処理を行うことにより、ユーザの指が人差し指のみ立てた状態であるか、ユーザの指がはじくような動きをしたかを検出する。(4)プロセッサ10は、カメラ17の撮影画像の画像認識結果、および、測距センサ18の出力値等の少なくともいずれか1つに基づいて、ユーザ端末100の近傍の物体1010(ユーザの手など)とユーザ端末100との距離を検出する。例えば、プロセッサ10は、カメラ17の撮影画像から特定されるユーザの手の形状の大小により、ユーザの手がユーザ端末100の近傍(例えば所定値未満の距離)にあるのか、遠く(例えば所定値以上の距離)にあるのかを検出する。なお、撮影画像が動画の場合、プロセッサ10は、ユーザの手がユーザ端末100に接近しているのか遠ざかっているのかを検出してもよい。(5)カメラ17の撮影画像の画像認識結果等に基づいて、ユーザの手が検出されている状態で、ユーザ端末100とユーザの手との距離が変化していることが判明した場合、プロセッサ10は、ユーザが手をカメラ17の撮影方向において振っていると認識する。カメラ17の撮影範囲よりも指向性が強い測距センサ18において、物体が検出されたりされなかったりする場合に、プロセッサ10は、ユーザが手をカメラの撮影方向に直交する方向に振っていると認識する。   The processor 10 may perform, for example, one or more of the following processes (1) to (5) on the image captured by the camera 17. (1) The processor 10 performs image recognition processing on a captured image of the camera 17 to identify whether or not the captured image includes the user's hand. The processor 10 may use, for example, a technique such as pattern matching as the analysis technique used in the above-described image recognition processing. (2) Further, the processor 10 detects the gesture of the user from the shape of the hand of the user. The processor 10 specifies the number of fingers of the user (the number of extended fingers) from the shape of the user's hand detected from the captured image, for example. The processor 10 further identifies the gesture made by the user from the identified number of fingers. For example, when the number of fingers is 5, the processor 10 determines that the user has made a “par” gesture. In addition, the processor 10 determines that the user has performed the gesture of “goo” when the number of fingers is 0 (no finger is detected). Further, when the number of fingers is two, the processor 10 determines that the user has made a gesture of “cutting”. (3) The processor 10 performs image recognition processing on the image captured by the camera 17 to detect whether the user's finger is in a state where only the index finger is raised or whether the user's finger makes a repulsive movement. .. (4) The processor 10 determines, based on at least one of the image recognition result of the image captured by the camera 17 and the output value of the distance measuring sensor 18, an object 1010 (such as a user's hand) near the user terminal 100. ) And the user terminal 100 are detected. For example, the processor 10 determines whether the user's hand is near the user terminal 100 (for example, a distance less than a predetermined value) or far (for example, a predetermined value) depending on the size of the shape of the user's hand identified from the image captured by the camera 17. The above distance) is detected. If the captured image is a moving image, the processor 10 may detect whether the user's hand is approaching or moving away from the user terminal 100. (5) If it is determined that the distance between the user terminal 100 and the user's hand changes while the user's hand is detected, based on the image recognition result of the image captured by the camera 17, etc., the processor 10 recognizes that the user is shaking his hand in the shooting direction of the camera 17. When an object is not detected or not detected by the distance measuring sensor 18 whose directivity is stronger than the shooting range of the camera 17, the processor 10 determines that the user shakes his hand in a direction orthogonal to the shooting direction of the camera. recognize.

このように、プロセッサ10は、カメラ17の撮影画像に対する画像認識により、ユーザが手を握りこんでいるか否か(「グー」のジェスチャであるか、それ以外のジェスチャ(例えば「パー」)であるか)を検出する。また、プロセッサ10は、ユーザの手の形状とともに、ユーザがこの手をどのように移動させているかを検出する。また、プロセッサ10は、ユーザがこの手をユーザ端末100に対して接近させているのか遠ざけているのかを検出する。このような操作は、例えば、マウスまたはタッチパネルなどのポインティングデバイスを用いた操作に対応させることができる。ユーザ端末100は、例えば、ユーザの手の移動に応じて、タッチスクリーン15においてポインタを移動させ、ユーザのジェスチャ「グー」を検出する。この場合、ユーザ端末100は、ユーザが選択操作を継続中であると認識する。選択操作の継続とは、例えば、マウスがクリックされて押し込まれた状態が維持されること、または、タッチパネルに対してタッチダウン操作がなされた後タッチされた状態が維持されることに対応する。また、ユーザ端末100は、ユーザのジェスチャ「グー」が検出されている状態で、さらにユーザが手を移動させると、このような一連のジェスチャを、スワイプ操作(またはドラッグ操作)に対応する操作として認識することもできる。また、ユーザ端末100は、カメラ17の撮影画像によるユーザの手の検出結果に基づいて、ユーザが指をはじくようなジェスチャを検出した場合に、当該ジェスチャを、マウスのクリックまたはタッチパネルへのタップ操作に対応する操作として認識してもよい。   In this way, the processor 10 recognizes whether or not the user is clasping his / her hand by the image recognition of the image captured by the camera 17 (whether the gesture is “Goo” or other gesture (for example, “Par”)). Or) is detected. The processor 10 also detects the shape of the user's hand and how the user is moving this hand. Further, the processor 10 detects whether the user is moving this hand close to or away from the user terminal 100. Such an operation can correspond to an operation using a pointing device such as a mouse or a touch panel. The user terminal 100, for example, moves the pointer on the touch screen 15 in accordance with the movement of the user's hand, and detects the gesture “goo” of the user. In this case, the user terminal 100 recognizes that the user is continuing the selection operation. The continuation of the selection operation corresponds to, for example, maintaining the state where the mouse is clicked and pushed in, or maintaining the state where the touch panel is touched and then touched. Further, when the user further moves his / her hand while the user's gesture “goo” is detected, the user terminal 100 regards such a series of gestures as an operation corresponding to the swipe operation (or the drag operation). You can also recognize. Further, when the user terminal 100 detects a gesture such that the user repels a finger based on the detection result of the user's hand from the image captured by the camera 17, the user terminal 100 clicks the gesture or taps the touch panel. May be recognized as an operation corresponding to.

<ゲームシステム1の機能的構成>
図2は、ゲームシステム1に含まれるユーザ端末100、サーバ200および動作指図装置300の機能的構成を示すブロック図である。ユーザ端末100、サーバ200および動作指図装置300のそれぞれは、図示しない、一般的なコンピュータとして機能する場合に必要な機能的構成、および、ゲームにおける公知の機能を実現するために必要な機能的構成を含み得る。
<Functional configuration of game system 1>
FIG. 2 is a block diagram showing the functional configurations of the user terminal 100, the server 200, and the operation command device 300 included in the game system 1. Each of the user terminal 100, the server 200, and the operation command device 300 has a functional configuration required to function as a general computer (not shown) and a functional configuration required to realize a known function in a game. Can be included.

ユーザ端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。ユーザ端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、および入出力IF14等の協働によって、制御部110および記憶部120として機能する。   The user terminal 100 has a function as an input device that receives an input operation of a user and a function as an output device that outputs a game image or sound. The user terminal 100 functions as the control unit 110 and the storage unit 120 in cooperation with the processor 10, the memory 11, the storage 12, the communication IF 13, the input / output IF 14, and the like.

サーバ200は、各ユーザ端末100と通信して、ユーザ端末100がゲームを進行させるのを支援する機能を有する。例えば、ユーザ端末100が本ゲームに係るアプリケーションを始めてダウンロードするときには、初回ゲーム開始時にユーザ端末100に記憶させておくべきデータをユーザ端末100に提供する。例えば、サーバ200は、キャラクタを動作させるための動作指図データをユーザ端末100に送信する。動作指図データは、予め、モデルなどのアクターの動きを取り込んだモーションキャプチャデータを含んでいてもよいし、声優などのアクターの音声を録音した音声データを含んでいてもよいし、キャラクタを動作させるための入力操作の履歴を示す操作履歴データを含んでいてもよいし、上述の一連の入力操作に対応付けられたコマンドを時系列に並べたモーションコマンド群を含んでいてもよい。本ゲームがマルチプレイゲームである場合には、サーバ200は、ゲームに参加する各ユーザ端末100と通信して、ユーザ端末100同士のやりとりを仲介する機能および同期制御機能を有していてもよい。また、サーバ200は、ユーザ端末100と動作指図装置300とを仲介する機能を備えている。これにより、動作指図装置300は、適時に、宛先を誤ることなく、ユーザ端末100または複数のユーザ端末100のグループに対して動作指図データを供給することが可能となる。サーバ200は、プロセッサ20、メモリ21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部210および記憶部220として機能する。   The server 200 has a function of communicating with each user terminal 100 to assist the user terminal 100 in proceeding with a game. For example, when the user terminal 100 downloads the application related to the present game for the first time, the user terminal 100 is provided with data to be stored in the user terminal 100 at the start of the first game. For example, the server 200 transmits motion instruction data for moving the character to the user terminal 100. The motion instruction data may include motion capture data in which the motion of an actor such as a model is captured in advance, may include voice data in which the voice of an actor such as a voice actor is recorded, or the character may be operated. May include operation history data indicating a history of input operations, and may include a motion command group in which commands associated with the series of input operations described above are arranged in time series. When the present game is a multi-play game, the server 200 may have a function of communicating with each user terminal 100 participating in the game to mediate the exchange between the user terminals 100 and a synchronization control function. Further, the server 200 has a function of mediating between the user terminal 100 and the operation command device 300. As a result, the motion instruction apparatus 300 can supply the motion instruction data to the user terminal 100 or a group of a plurality of user terminals 100 in a timely manner and without mistaking the destination. The server 200 functions as the control unit 210 and the storage unit 220 in cooperation with the processor 20, the memory 21, the storage 22, the communication IF 23, the input / output IF 24, and the like.

動作指図装置300は、ユーザ端末100におけるキャラクタの動作を指示するための動作指図データを生成し、ユーザ端末100に供給する機能を有する。動作指図装置300は、プロセッサ30、メモリ31、ストレージ32、通信IF33、および入出力IF34等の協働によって、制御部310および記憶部320として機能する。   The motion command device 300 has a function of generating motion command data for instructing the motion of the character in the user terminal 100 and supplying the motion command data to the user terminal 100. The operation command device 300 functions as the control unit 310 and the storage unit 320 in cooperation with the processor 30, the memory 31, the storage 32, the communication IF 33, the input / output IF 34, and the like.

記憶部120、220および320は、ゲームプログラム131、ゲーム情報132およびユーザ情報133を格納する。ゲームプログラム131は、ユーザ端末100、サーバ200および動作指図装置300が実行するゲームプログラムである。ゲーム情報132は、制御部110、210および310がゲームプログラム131を実行する際に参照するデータである。ユーザ情報133は、ユーザのアカウントに関するデータである。記憶部220および320において、ゲーム情報132およびユーザ情報133は、ユーザ端末100ごとに格納されている。記憶部320は、さらに、キャラクタ制御プログラム134を格納する。キャラクタ制御プログラム134は、動作指図装置300が実行するプログラムであり、上述のゲームプログラム131に基づくゲームに登場させるキャラクタの動作を制御するためのプログラムである。   The storage units 120, 220 and 320 store the game program 131, the game information 132 and the user information 133. The game program 131 is a game program executed by the user terminal 100, the server 200, and the motion command device 300. The game information 132 is data that the control units 110, 210 and 310 refer to when executing the game program 131. The user information 133 is data regarding a user's account. In the storage units 220 and 320, the game information 132 and the user information 133 are stored for each user terminal 100. The storage unit 320 further stores a character control program 134. The character control program 134 is a program executed by the motion command device 300, and is a program for controlling the motion of the character that appears in the game based on the game program 131 described above.

(サーバ200の機能的構成)
制御部210は、記憶部220に格納されたゲームプログラム131を実行することにより、サーバ200を統括的に制御する。例えば、制御部210は、ユーザ端末100に各種データおよびプログラム等を送信する。制御部210は、ゲーム情報もしくはユーザ情報の一部または全部をユーザ端末100から受信する。ゲームがマルチプレイゲームである場合には、制御部210は、ユーザ端末100からマルチプレイの同期の要求を受信して、同期のためのデータをユーザ端末100に送信してもよい。また、制御部210は、必要に応じて、ユーザ端末100および動作指図装置300と通信して、情報の送受信を行う。
(Functional configuration of the server 200)
The control unit 210 centrally controls the server 200 by executing the game program 131 stored in the storage unit 220. For example, the control unit 210 transmits various data and programs to the user terminal 100. The control unit 210 receives part or all of the game information or the user information from the user terminal 100. When the game is a multi-play game, the control unit 210 may receive a request for multi-play synchronization from the user terminal 100 and transmit data for synchronization to the user terminal 100. In addition, the control unit 210 communicates with the user terminal 100 and the operation command device 300 as necessary to send and receive information.

制御部210は、ゲームプログラム131の記述に応じて、進行支援部211および共有支援部212として機能する。制御部210は、実行するゲームの性質に応じて、ユーザ端末100におけるゲームの進行を支援するために、図示しないその他の機能ブロックとしても機能することができる。   The control unit 210 functions as the progress support unit 211 and the sharing support unit 212 according to the description of the game program 131. The control unit 210 can also function as other functional blocks (not shown) in order to support the progress of the game on the user terminal 100, depending on the nature of the game to be executed.

進行支援部211は、ユーザ端末100と通信し、ユーザ端末100が、本ゲームに含まれる各種パートを進行するための支援を行う。例えば、進行支援部211は、ユーザ端末100が、ゲームを進行させるとき、該ゲームを進行させるために必要な情報をユーザ端末100に提供する。   The progress support unit 211 communicates with the user terminal 100 and provides support for the user terminal 100 to progress various parts included in the present game. For example, when the user terminal 100 progresses a game, the progress support unit 211 provides the user terminal 100 with information necessary to progress the game.

共有支援部212は、複数のユーザ端末100と通信し、複数のユーザが、各々のユーザ端末100にて互いのデッキを共有し合うための支援を行う。また、共有支援部212は、オンラインのユーザ端末100と動作指図装置300とをマッチングする機能を有していてもよい。これにより、ユーザ端末100と動作指図装置300との間の情報の送受信が円滑に実施される。   The sharing support unit 212 communicates with the plurality of user terminals 100 and provides support for a plurality of users to share their decks with each other. Further, the sharing support unit 212 may have a function of matching the online user terminal 100 and the motion command device 300. As a result, information can be transmitted and received smoothly between the user terminal 100 and the motion command device 300.

(ユーザ端末100の機能的構成)
制御部110は、記憶部120に格納されたゲームプログラム131を実行することにより、ユーザ端末100を統括的に制御する。例えば、制御部110は、ゲームプログラム131およびユーザの操作にしたがって、ゲームを進行させる。また、制御部110は、ゲームを進行させている間、必要に応じて、サーバ200および動作指図装置300と通信して、情報の送受信を行う。
(Functional configuration of the user terminal 100)
The control unit 110 centrally controls the user terminal 100 by executing the game program 131 stored in the storage unit 120. For example, the control unit 110 advances the game according to the operation of the game program 131 and the user. Further, the control unit 110 communicates with the server 200 and the operation command device 300 as needed to transmit and receive information during the progress of the game.

制御部110は、ゲームプログラム131の記述に応じて、操作受付部111、表示制御部112、ユーザインターフェース(以下、UI)制御部113、アニメーション生成部114、ゲーム進行部115、解析部116および進捗情報生成部117として機能する。制御部110は、実行するゲームの性質に応じて、ゲームを進行させるために、図示しないその他の機能ブロックとしても機能することができる。   The control unit 110, in accordance with the description of the game program 131, the operation receiving unit 111, the display control unit 112, the user interface (hereinafter UI) control unit 113, the animation generation unit 114, the game progress unit 115, the analysis unit 116, and the progress. It functions as the information generation unit 117. The control unit 110 can also function as other functional blocks (not shown) in order to progress the game depending on the nature of the game to be executed.

操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソールに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部110の各要素に出力する。   The operation accepting unit 111 detects and accepts a user's input operation on the input unit 151. The operation reception unit 111 determines what input operation has been performed based on the action exerted by the user on the console via the touch screen 15 and the other input / output IF 14, and outputs the result to each element of the control unit 110. To do.

例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッチスクリーン15から接触入力が解除されたことを検知する。   For example, the operation receiving unit 111 receives an input operation on the input unit 151, detects the coordinates of the input position of the input operation, and specifies the type of the input operation. The operation receiving unit 111 identifies, as the type of input operation, for example, a touch operation, a slide operation, a swipe operation, a tap operation, or the like. Further, the operation accepting unit 111 detects that the touch input is released from the touch screen 15 when the continuously detected input is interrupted.

UI制御部113は、UIを構築するために表示部152に表示させるUIオブジェクトを制御する。UIオブジェクトは、ユーザが、ゲームの進行上必要な入力をユーザ端末100に対して行うためのツール、または、ゲームの進行中に出力される情報をユーザ端末100から得るためのツールである。UIオブジェクトは、これには限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。   The UI control unit 113 controls a UI object displayed on the display unit 152 to construct a UI. The UI object is a tool for the user to make an input necessary for the progress of the game to the user terminal 100, or a tool for obtaining information output during the progress of the game from the user terminal 100. The UI object is, for example, but not limited to, an icon, a button, a list, a menu screen, or the like.

アニメーション生成部114は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部114は、キャラクタがまるでそこにいるかのように動いたり、口を動かしたり、表情を変えたりする様子を表現したアニメーション等を生成してもよい。   The animation generation unit 114 generates animations showing the motions of various objects based on the control modes of various objects. For example, the animation generation unit 114 may generate an animation or the like that represents a character moving as if it were there, moving its mouth, or changing its facial expression.

表示制御部112は、タッチスクリーン15の表示部152に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部112は、アニメーション生成部114によって生成されたアニメーションを含むゲーム画面を表示部152に表示してもよい。また、表示制御部112は、UI制御部113によって制御される上述のUIオブジェクトを、該ゲーム画面に重畳して描画してもよい。   The display control unit 112 outputs, to the display unit 152 of the touch screen 15, a game screen in which the processing result executed by each of the above-described elements is reflected. The display control unit 112 may display the game screen including the animation generated by the animation generation unit 114 on the display unit 152. Further, the display control unit 112 may superimpose and draw the above-mentioned UI object controlled by the UI control unit 113 on the game screen.

ゲーム進行部115は、ゲームを進行させる。本実施形態では、ゲーム進行部115は、本ゲームを、操作受付部111を介して入力されるユーザの入力操作に応じて進行させる。ゲーム進行部115は、ゲームの進行中、1以上のキャラクタを登場させ、該キャラクタを動作させる。ゲーム進行部115は、キャラクタを、事前にダウンロードされたゲームプログラム131にしたがって動作させてもよいし、ユーザの入力操作にしたがって動作させてもよいし、動作指図装置300から供給される動作指図データにしたがって動作させてもよい。   The game progression unit 115 advances the game. In the present embodiment, the game progression unit 115 advances the present game according to the user's input operation input via the operation reception unit 111. The game progression unit 115 causes one or more characters to appear during the progress of the game and causes the characters to move. The game progression unit 115 may operate the character according to the game program 131 downloaded in advance, or may be operated according to a user's input operation, or operation instruction data supplied from the operation instruction device 300. You may operate according to.

本ゲームが、第1パート、第2パート・・・というように複数のパートに分かれて構成されている場合、ゲーム進行部115は、パートごとの仕様にしたがってゲームを進行させる。   When the present game is divided into a plurality of parts such as the first part, the second part, ..., The game progression unit 115 advances the game according to the specifications of each part.

一例を挙げて具体的に説明すると、第1パートが、キャラクタと対話することによってゲーム中の物語が進行するストーリーパートであるとする。この場合、ゲーム進行部115は、以下のようにストーリーパートを進行させる。具体的には、ゲーム進行部115は、キャラクタを、予めダウンロードされたゲームプログラム131または同じく予めダウンロードされた動作指図データ(第1動作指図データ)などにしたがってキャラクタを動作させる。ゲーム進行部115は、操作受付部111が受け付けたユーザの入力操作に基づいて、該ユーザが選んだ選択肢を特定し、該選択肢に対応付けられている動作をキャラクタに行わせる。第2パートが、動作指図装置300から供給された動作指図データに基づいてキャラクタを動作させるライブ配信パートであるとする。この場合、ゲーム進行部115は、動作指図装置300から動作指図データに基づいて、キャラクタを動作させてライブ配信パートを進行させる。   Explaining it concretely by taking an example, it is assumed that the first part is a story part in which the story in the game progresses by interacting with the character. In this case, the game progression unit 115 advances the story part as follows. Specifically, the game progression unit 115 causes the character to move in accordance with the game program 131 downloaded in advance or the action instruction data (first action instruction data) similarly downloaded in advance. The game progression unit 115 specifies the option selected by the user based on the user's input operation accepted by the operation accepting unit 111, and causes the character to perform the action associated with the option. It is assumed that the second part is a live distribution part that causes the character to move based on the action instruction data supplied from the action instruction device 300. In this case, the game progression unit 115 causes the character to move based on the action instruction data from the action instruction device 300 to advance the live distribution part.

解析部116は、動作指図データを解析して(レンダリングして)、解析結果に基づいてキャラクタを動作させるようにゲーム進行部115に指示する。本実施形態では、解析部116は、動作指図装置300によって供給された動作指図データが通信IF33を介して受信されたことをトリガにして、該動作指図データのレンダリングを開始する。動作指図装置300は、解析結果をゲーム進行部115に伝達し、すぐに動作指図データに基づいてキャラクタを動作させるよう指示する。すなわち、ゲーム進行部115は、動作指図データが受信されたことをトリガにして、該動作指図データに基づいてキャラクタを動作させる。これにより、リアルタイムで動作するキャラクタをユーザに見せることが可能となる。   The analysis unit 116 analyzes (renders) the motion instruction data and instructs the game progression unit 115 to move the character based on the analysis result. In the present embodiment, the analysis unit 116 starts rendering of the operation instruction data, triggered by reception of the operation instruction data supplied by the operation instruction device 300 via the communication IF 33. The motion instruction device 300 transmits the analysis result to the game progression unit 115 and immediately instructs the game to move the character based on the motion instruction data. That is, the game progression unit 115 uses the reception of the motion instruction data as a trigger to move the character based on the motion instruction data. As a result, it is possible to show the character moving in real time to the user.

進捗情報生成部117は、ゲーム進行部115が実行しているゲームの進捗を示す進捗情報を生成し、適時、サーバ200または動作指図装置300に送信する。進捗情報は、例えば、現在表示されているゲーム画面を指定する情報を含んでいてもよいし、ゲームの進捗を、時系列で文字および記号等によって示した進行ログを含んでいてもよい。ゲームシステム1において、サーバ200および動作指図装置300が進捗情報を必要としない実施形態では、進捗情報生成部117は省略されてもよい。   The progress information generation unit 117 generates progress information indicating the progress of the game being executed by the game progress unit 115, and transmits the progress information to the server 200 or the operation command device 300 at a suitable time. The progress information may include, for example, information designating the currently displayed game screen, or may include a progress log showing the progress of the game in time series by characters and symbols. In the game system 1, in an embodiment in which the server 200 and the operation command device 300 do not need progress information, the progress information generation unit 117 may be omitted.

(動作指図装置300の機能的構成)
制御部310は、記憶部320に格納されたキャラクタ制御プログラム134を実行することにより、動作指図装置300を統括的に制御する。例えば、制御部310は、キャラクタ制御プログラム134およびオペレータの操作にしたがって、動作指図データを生成し、ユーザ端末100に供給する。制御部310は、必要に応じて、さらにゲームプログラム131を実行してもよい。また、制御部310は、サーバ200および本ゲームを実行中のユーザ端末100と通信して、情報の送受信を行う。
(Functional configuration of operation command device 300)
The control unit 310 executes the character control program 134 stored in the storage unit 320 to control the operation instruction device 300 in a centralized manner. For example, the control unit 310 generates the action instruction data according to the operation of the character control program 134 and the operator, and supplies the action instruction data to the user terminal 100. The control unit 310 may further execute the game program 131 as necessary. Further, the control unit 310 communicates with the server 200 and the user terminal 100 that is executing the present game to send and receive information.

制御部310は、キャラクタ制御プログラム134の記述に応じて、操作受付部311、表示制御部312、UI制御部313、アニメーション生成部314、進捗模擬部315およびキャラクタ制御部316として機能する。制御部310は、ゲームシステム1において実行されるゲームの性質に応じて、該ゲームに登場するキャラクタを制御するために、図示しないその他の機能ブロックとしても機能することができる。   The control unit 310 functions as an operation reception unit 311, a display control unit 312, a UI control unit 313, an animation generation unit 314, a progress simulation unit 315, and a character control unit 316 according to the description of the character control program 134. The control unit 310 can also function as other functional blocks (not shown) in order to control the characters that appear in the game according to the nature of the game executed in the game system 1.

操作受付部311は、入力部351に対するオペレータの入力操作を検知し受け付ける。操作受付部311は、タッチスクリーン35およびその他の入出力IF34を介したコンソールに対して、オペレータが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部310の各要素に出力する。操作受付部311の機能の詳細は、ユーザ端末100における操作受付部111のそれとほぼ同様である。   The operation receiving unit 311 detects and receives an input operation of the operator on the input unit 351. The operation reception unit 311 determines what input operation has been performed from the action exerted by the operator on the console via the touch screen 35 and the other input / output IF 34, and outputs the result to each element of the control unit 310. Output. The details of the function of the operation receiving unit 311 are almost the same as those of the operation receiving unit 111 in the user terminal 100.

UI制御部313は、表示部352に表示させるUIオブジェクトを制御する。   The UI control unit 313 controls the UI object displayed on the display unit 352.

アニメーション生成部314は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部314は、通信相手となるユーザ端末100上実際に表示されているゲーム画面を再現したアニメーション等を生成してもよい。   The animation generation unit 314 generates animations showing the motions of various objects based on the control modes of various objects. For example, the animation generation unit 314 may generate an animation or the like that reproduces the game screen that is actually displayed on the user terminal 100 that is the communication partner.

表示制御部312は、タッチスクリーン35の表示部352に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部312の機能の詳細は、ユーザ端末100における表示制御部112のそれとほぼ同様である。   The display control unit 312 outputs, to the display unit 352 of the touch screen 35, a game screen in which the processing results executed by the above-described elements are reflected. The details of the function of the display control unit 312 are almost the same as those of the display control unit 112 in the user terminal 100.

進捗模擬部315は、ユーザ端末100から受信するゲームの進捗を示す進捗情報に基づいて、ユーザ端末100におけるゲームの進捗を把握する。そして、進捗模擬部315は、該ユーザ端末100の挙動を動作指図装置300において模擬的に再現することで、オペレータに対して、ユーザ端末100の進捗を提示する。   The progress simulation unit 315 grasps the progress of the game on the user terminal 100 based on the progress information indicating the progress of the game received from the user terminal 100. Then, the progress simulating unit 315 presents the progress of the user terminal 100 to the operator by simulatingly reproducing the behavior of the user terminal 100 in the operation command device 300.

例えば、進捗模擬部315は、ユーザ端末100で表示されているゲーム画面を再現したものを自装置の表示部352に表示してもよい。また、進捗模擬部315は、ユーザ端末100において、ゲームの進捗を上述の進行ログとして表示部352に表示してもよい。   For example, the progress simulation unit 315 may display a reproduction of the game screen displayed on the user terminal 100 on the display unit 352 of the own device. Further, the progress simulation unit 315 may display the progress of the game on the display unit 352 as the above-described progress log in the user terminal 100.

また、進捗模擬部315の機能の一部は、制御部310がゲームプログラム131を実行することにより実現されてもよい。例えば、まず進捗模擬部315は、進捗情報に基づいて、ユーザ端末100のゲームの進捗を把握する。そして、進捗模擬部315は、ユーザ端末100においてゲームプログラム131基づき現在表示されている、ゲーム画面を、完全にまたは簡略化して自装置の表示部352に再現してもよい。あるいは、進捗模擬部315は、現時点のゲームの進捗を把握し、ゲームプログラム131に基づいて現時点以降のゲーム進行を予測し、予測結果を表示部352に出力してもよい。   Further, a part of the function of the progress simulation unit 315 may be realized by the control unit 310 executing the game program 131. For example, the progress simulation unit 315 first grasps the progress of the game of the user terminal 100 based on the progress information. Then, the progress simulation unit 315 may reproduce the game screen currently displayed on the user terminal 100 based on the game program 131 on the display unit 352 of the own device completely or in a simplified form. Alternatively, the progress simulation unit 315 may grasp the progress of the game at the present time, predict the game progress after the present time based on the game program 131, and output the prediction result to the display unit 352.

キャラクタ制御部316は、ユーザ端末100に表示させるキャラクタの挙動を制御する。具体的には、キャラクタを動作させるための動作指図データを生成し、ユーザ端末100に供給する。例えば、キャラクタ制御部316は、オペレータ(声優など)が、マイク3010を介して入力した音声データに基づいて、制御対象のキャラクタに発言させることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述の音声データが少なくとも含まれる。また、例えば、オペレータ(モデルなど)が、モーションキャプチャ装置3020を介して入力したモーションキャプチャデータに基づく動きを制御対象のキャラクタに行わせることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述のモーションキャプチャデータが少なくとも含まれる。また、例えば、オペレータが、コントローラ3030などの入力機構または入力部351などの操作部を介して入力した入力操作の履歴、すなわち、操作履歴データに基づいて、制御対象のキャラクタを動作させることを指示する動作指図データを生成する。このようにして生成された動作指図データには、上述の操作履歴データが少なくとも含まれる。操作履歴データは、例えば、表示部にどの画面が表示されているときに、オペレータが、コントローラ3030のどのボタンをどのタイミングで押したのかを示す操作ログが時系列で整理されている情報である。ここでの表示部は、コントローラ3030と連動した表示部であって、タッチスクリーン35の表示部352であってもよいし、入出力IF34を介して接続された別の表示部であってもよい。あるいは、キャラクタ制御部316は、オペレータが上述の入力機構または操作部を介して入力した入力操作に対応付けられた、キャラクタの動作を指示するコマンドを特定する。そして、キャラクタ制御部316は、該コマンドを入力された順に並べてキャラクタの一連の動作を示すモーションコマンド群を生成し、該モーションコマンド群にしたがってキャラクタを動作させることを指示する動作指図データを生成してもよい。このようにして生成された動作指図データには、上述のモーションコマンド群が少なくとも含まれる。   The character control unit 316 controls the behavior of the character displayed on the user terminal 100. Specifically, motion instruction data for moving the character is generated and supplied to the user terminal 100. For example, the character control unit 316 generates motion instruction data for instructing the character to be controlled to speak based on the voice data input by the operator (voice actor or the like) via the microphone 3010. The operation instruction data thus generated includes at least the above-mentioned voice data. In addition, for example, an operator (model or the like) generates motion instruction data instructing the character to be controlled to perform a motion based on the motion capture data input via the motion capture device 3020. The motion instruction data thus generated includes at least the above-mentioned motion capture data. In addition, for example, the operator is instructed to move the character to be controlled based on the history of input operations input via the input mechanism such as the controller 3030 or the operation unit such as the input unit 351, that is, the operation history data. Motion instruction data to be generated. The motion instruction data thus generated includes at least the above-mentioned operation history data. The operation history data is, for example, information in which an operation log indicating which button of the controller 3030 is pressed by the operator when the screen is displayed on the display unit is arranged in chronological order. .. The display unit here is a display unit that is interlocked with the controller 3030 and may be the display unit 352 of the touch screen 35, or another display unit connected via the input / output IF 34. .. Alternatively, the character control unit 316 identifies a command instructing the action of the character, which is associated with the input operation input by the operator via the input mechanism or the operation unit described above. Then, the character control unit 316 arranges the commands in the input order to generate a motion command group indicating a series of motions of the character, and generates motion instruction data instructing to move the character in accordance with the motion command group. May be. The motion instruction data thus generated includes at least the above-mentioned motion command group.

反応処理部317は、ユーザ端末100からユーザの反応についてフィードバックを受け付けて、これを動作指図装置300のオペレータに対して出力する。本実施形態では、例えば、ユーザ端末100は、上述の動作指図データにしたがってキャラクタを動作させている間、該キャラクタに宛てて、ユーザがコメントを作成することができる。反応処理部317は、該コメントのコメントデータを受け付けて、これを、出力する。反応処理部317は、ユーザのコメントに対応するテキストデータを、表示部352に表示してもよいし、ユーザのコメントに対応する音声データを、図示しないスピーカから出力してもよい。   The reaction processing unit 317 receives feedback on the user's reaction from the user terminal 100, and outputs it to the operator of the motion instruction apparatus 300. In the present embodiment, for example, the user terminal 100 allows the user to create a comment for the character while the character is moving in accordance with the above-described motion instruction data. The reaction processing unit 317 receives the comment data of the comment and outputs it. The reaction processing unit 317 may display the text data corresponding to the user's comment on the display unit 352, or may output the voice data corresponding to the user's comment from a speaker (not shown).

なお、図2に示すユーザ端末100、サーバ200および動作指図装置300の機能は一例にすぎない。ユーザ端末100、サーバ200および動作指図装置300の各装置は、他の装置が備える機能の少なくとも一部を備えていてもよい。さらに、ユーザ端末100、サーバ200および動作指図装置300以外のさらに別の装置をゲームシステム1の構成要素とし、該別の装置にゲームシステム1における処理の一部を実行させてもよい。すなわち、本実施形態においてゲームプログラムを実行するコンピュータは、ユーザ端末100、サーバ200、動作指図装置300およびそれ以外の別の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。   The functions of the user terminal 100, the server 200, and the operation command device 300 illustrated in FIG. 2 are merely examples. Each of the user terminal 100, the server 200, and the operation command device 300 may have at least a part of the functions of another device. Furthermore, another device other than the user terminal 100, the server 200, and the operation command device 300 may be a constituent element of the game system 1, and the other device may execute a part of the processing in the game system 1. That is, the computer that executes the game program in this embodiment may be any of the user terminal 100, the server 200, the operation command device 300, and another device other than the user terminal 100, and is realized by a combination of a plurality of these devices. May be done.

なお、本実施形態では、進捗模擬部315は、省略されてもよい。また、本実施形態では、制御部310は、キャラクタ制御プログラム134の記述に応じて、反応処理部317として機能することができる。   In the present embodiment, the progress simulation unit 315 may be omitted. Further, in the present embodiment, the control unit 310 can function as the reaction processing unit 317 according to the description of the character control program 134.

<ゲームの構成>
図3は、本ゲームの基本的なゲーム進行についてその一例を示すフローチャートである。本ゲームは、例えば、2つのゲームプレイパートに分かれている。一例として、第1パートは、ストーリーパート、第2パートは、ライブ配信パートである。本ゲームには、その他にも、ユーザが保有する有価データと引き換えに、ゲームで利用可能なデジタルデータであるゲーム媒体をユーザに獲得させる獲得パートが含まれていてもよい。本実施形態では、各パートのプレイ順序は特に限定されない。図3には、ユーザ端末100が、ストーリーパート、獲得パート、ライブ配信パートの順にゲームを実行した場合が示されている。
<Game structure>
FIG. 3 is a flowchart showing an example of the basic game progress of this game. This game is divided into, for example, two game play parts. As an example, the first part is a story part and the second part is a live distribution part. In addition to this, the game may include an acquisition part that allows the user to acquire the game content that is digital data that can be used in the game in exchange for valuable data that the user holds. In this embodiment, the play order of each part is not particularly limited. FIG. 3 shows a case where the user terminal 100 executes the game in the order of the story part, the acquisition part, and the live distribution part.

ステップS1では、ゲーム進行部115は、ストーリーパートを実行する。ストーリーパートには、例えば、ユーザが操作する主人公とキャラクタとが対話するシーンが含まれる。本実施形態では、一例として、デジタルデータとしてひとまとめにされた「シナリオ」は、キャラクタにまつわる物語の1話分に対応し、サーバ200から供給されて、一旦記憶部120に格納される。ゲーム進行部115は、ストーリーパートにおいて、記憶部120に格納されているシナリオを1つ読み出し、結末を迎えるまで1つシナリオをユーザの入力操作に応じて進行させる。シナリオには、ユーザに選択させる選択肢、該選択肢に対応するキャラクタの応答パターンなどが含まれており、ユーザがどの選択肢を選択するのかによって、1つのシナリオの中でも、異なる結末が得られてもよい。具体的には、ゲーム進行部115は、主人公からキャラクタに対しての働きかけに対応する複数の選択肢をユーザが選択可能に提示し、該ユーザが選択した選択肢に応じて、シナリオを進行させる。   In step S1, the game progression unit 115 executes a story part. The story part includes, for example, a scene in which the main character operated by the user and the character interact. In the present embodiment, as an example, a “scenario” collected as digital data corresponds to one story of a story related to a character, is supplied from the server 200, and is temporarily stored in the storage unit 120. In the story part, the game progression unit 115 reads one scenario stored in the storage unit 120, and advances the scenario according to the user's input operation until the end is reached. The scenario includes options to be selected by the user, a response pattern of the character corresponding to the option, and the like, and different endings may be obtained in one scenario depending on which option the user selects. .. Specifically, the game progression unit 115 presents a plurality of choices corresponding to how the main character works on the character in a selectable manner, and advances the scenario in accordance with the choices selected by the user.

ステップS2では、ユーザが最後までシナリオをプレイすると、ゲーム進行部115は、結末に応じた報酬を該ユーザに獲得させてもよい。報酬は、例えば、ゲーム上で利用可能なデジタルデータであるゲーム媒体としてユーザに提供される。ゲーム媒体は、例えば、キャラクタに身に付けさせることができる服飾品などのアイテムであってもよい。ここで、「報酬をユーザに獲得させる」とは、一例として、ユーザに対応付けて管理されている報酬としてのゲーム媒体のステータスを、使用不可から使用可能に遷移させることであってもよい。あるいは、ゲーム媒体を、ユーザ識別情報またはユーザ端末IDなどに対応付けて、ゲームシステム1に含まれる少なくともいずれかのメモリ(メモリ11、メモリ21、メモリ31)に記憶させることであってもよい。   In step S2, when the user plays the scenario to the end, the game progression unit 115 may cause the user to obtain a reward according to the ending. The reward is provided to the user as a game medium that is digital data that can be used in the game, for example. The game medium may be, for example, an item such as clothing that can be worn by the character. Here, "making the user obtain the reward" may be, for example, to change the status of the game content as the reward managed in association with the user from unavailable to usable. Alternatively, the game content may be stored in at least one of the memories (memory 11, memory 21, memory 31) included in the game system 1 in association with the user identification information or the user terminal ID.

ステップS3では、ゲーム進行部115が獲得パートを実行する。獲得パートにおいて、ユーザに獲得させるゲーム媒体は、初回ダウンロード時にユーザ端末100に提供されるシナリオとは別の新しいシナリオであってもよい。以下では、前者のシナリオを固定シナリオ、後者のシナリオを獲得シナリオと称する。両者を区別する必要が無い場合は、単に、シナリオと称する。   In step S3, the game progression unit 115 executes the acquisition part. In the acquisition part, the game content to be acquired by the user may be a new scenario different from the scenario provided to the user terminal 100 at the time of the first download. Hereinafter, the former scenario will be referred to as a fixed scenario, and the latter scenario will be referred to as an acquisition scenario. When there is no need to distinguish between the two, it is simply called a scenario.

獲得パートでは、例えば、ゲーム進行部115は、ユーザの有価データを消費することと引き換えに、ユーザがすでに保有している固定シナリオとは別の獲得シナリオをユーザに保有させる。ユーザに獲得させるシナリオは、ゲーム進行部115、または、サーバ200の進行支援部211によって、所定の規則にしたがって決定されてもよい。より具体的には、ゲーム進行部115、または、進行支援部211は、抽選を実行し、複数の獲得シナリオの中からランダムに、ユーザに獲得させるシナリオを決定してもよい。獲得パートは、ストーリーパートおよびライブ配信パートの前後の任意のタイミングで実行されてもよい。   In the acquisition part, for example, the game progression unit 115 causes the user to acquire an acquisition scenario different from the fixed scenario that the user already has, in exchange for consuming the valuable data of the user. The scenario to be acquired by the user may be determined by the game progress unit 115 or the progress support unit 211 of the server 200 according to a predetermined rule. More specifically, the game progression unit 115 or the progress support unit 211 may perform a lottery and randomly determine a scenario to be acquired by the user from a plurality of acquisition scenarios. The acquisition part may be executed at any timing before and after the story part and the live distribution part.

ステップS4では、ゲーム進行部115は、ネットワークを介して外部の装置から、動作指図データを受信したか否かを判定する。動作指図データを外部の装置から受信しないうちは、ゲーム進行部115は、ステップS4のNOから、例えば、ステップS1に戻り、ストーリーパートを実行してもよい。あるいは、ゲーム進行部115は、ステップS3の獲得パートを実行してもよい。一方、動作指図データを外部の装置から受信した場合は、ゲーム進行部115は、ステップS4のYESからステップS5に進む。   In step S4, the game progression unit 115 determines whether or not operation instruction data has been received from an external device via the network. While the operation instruction data is not received from the external device, the game progress section 115 may return from step S4 NO to step S1 and execute the story part, for example. Alternatively, the game progression unit 115 may execute the acquisition part of step S3. On the other hand, when the operation instruction data is received from the external device, the game progress section 115 proceeds from YES in step S4 to step S5.

ステップS5では、ゲーム進行部115は、ライブ配信パート(第2パート)を実行する。具体的には、ゲーム進行部115は、ステップS4にて受信した動作指図データにしたがってキャラクタを動作させることにより、ライブ配信パートを進行させる。ユーザは、ステップS1では、シナリオにおいて、決め打ちの反応を示すキャラクタと単にUIを介して対話するだけであった。しかし、ユーザは、ライブ配信パートにおいては、外部の装置から送信された動作指図データに基づいてリアルタイムに動作するキャラクタと自由にインタラクティブに対話することができる。より具体的には、解析部116は、ユーザの入力操作の内容に応じて生成された音声データおよびモーションデータを含む動作指図データを動作指図装置300から受信する。そして、ゲーム進行部115は、受信された動作指図データに含まれる音声データに基づいて、キャラクタに発話させるともに、上述のモーションデータに基づいてキャラクタに動きをつける。これにより、上述のユーザの入力操作に対するキャラクタの反応を、ユーザに提示することができる。   In step S5, the game progression unit 115 executes a live distribution part (second part). Specifically, the game progression unit 115 advances the live distribution part by moving the character according to the operation instruction data received in step S4. In step S1, the user simply interacts with the character showing a definite reaction in the scenario via the UI. However, in the live distribution part, the user can freely and interactively interact with the character operating in real time based on the operation instruction data transmitted from the external device. More specifically, the analysis unit 116 receives, from the motion instruction apparatus 300, motion instruction data including voice data and motion data generated according to the content of the input operation by the user. Then, the game progression unit 115 causes the character to speak based on the voice data included in the received motion instruction data, and moves the character based on the motion data described above. As a result, the character's reaction to the above-described user's input operation can be presented to the user.

<処理概要>
本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、ゲームの興趣性を向上させるために以下のステップを実行するように構成されている。具体的には、ユーザ端末100は、ユーザおよび他のユーザのいずれもが操作しないNPCの動作を指定する動作指図データであって、メモリ11に予め記憶されている第1動作指図データに基づいてNPCを動作させ、操作部(入出力IF14、タッチスクリーン15、カメラ17、測距センサ18)を介して入力されたユーザの入力操作に応じて第1パートを進行させるステップと、NPC制御装置(動作指図装置300)から受信した第2動作指図データに基づいてNPCを動作させることにより第2パートを進行させるステップと、を実行する。
<Outline of processing>
In the present embodiment, the user terminal 100 is configured to execute the following steps based on the game program 131 in order to improve the interest of the game. Specifically, the user terminal 100 is operation instruction data that specifies an operation of the NPC that neither the user nor other users operate, and is based on the first operation instruction data stored in advance in the memory 11. A step of operating the NPC and advancing the first part according to a user's input operation input through the operation unit (the input / output IF 14, the touch screen 15, the camera 17, the distance measuring sensor 18); The step of advancing the second part by operating the NPC based on the second operation instruction data received from the operation instruction device 300).

上述の構成によれば、ユーザ端末100は、第1パートにおいて、予めダウンロードされた第1動作指図データに基づいてNPCを動作させる。これに加えて、ユーザ端末100は、動作指図装置300から第2動作指図データを受信し、第2パートにおいて、第2動作指図データに基づいてNPCを動作させる。動作指図装置300から受信した第2動作指図データに基づいてNPCを動作させることができるため、NPCの動作は、型にはまらず、その表現は大幅に広がる。そのため、ユーザは、ゲームプレイ中のNPCとの関わり合いを通じて、該NPCがまるで現実の世界にいるかのような現実感を覚えることができる。結果として、ゲームの世界への没入感を高め、該ゲームの興趣性を向上させるという効果を奏する。   According to the above configuration, in the first part, the user terminal 100 operates the NPC based on the first motion instruction data downloaded in advance. In addition to this, the user terminal 100 receives the second motion instruction data from the motion instruction device 300, and in the second part, operates the NPC based on the second motion instruction data. Since the NPC can be operated based on the second operation instruction data received from the operation instruction device 300, the operation of the NPC does not have to be a model, and its expression is greatly expanded. Therefore, the user can feel the reality as if the NPC is in the real world through the interaction with the NPC during the game play. As a result, the effect of increasing the immersive feeling in the game world and improving the fun of the game is achieved.

<データ構造>
(動作指図データ)
図4は、本実施形態に係るゲームシステム1にて処理される動作指図データのデータ構造の一例を示す図である。一例として、動作指図データは、メタ情報である、「宛先」、「作成元」の各項目と、データの中身である、「キャラクタID」、「音声」、「動き」の各項目とを含んで構成されている。
<Data structure>
(Operation instruction data)
FIG. 4 is a diagram showing an example of a data structure of motion instruction data processed by the game system 1 according to the present embodiment. As an example, the motion instruction data includes each item of “destination” and “creation source”, which is meta information, and each item of “character ID”, “voice”, and “movement”, which are the contents of the data. It is composed of.

項目「宛先」には、宛先指定情報が格納されている。宛先指定情報は、該動作指図データが、どの装置宛てに送信されたものであるのかを示す情報である。宛先指定情報は、例えば、ユーザ端末100固有のアドレスであってもよいし、ユーザ端末100が所属しているグループの識別情報であってもよい。ある条件を満たすすべてのユーザ端末100を宛先としていることを示す記号(例えば、「ALL」など)であってもよい。   Destination designation information is stored in the item "destination". The destination designation information is information indicating to which device the operation instruction data is transmitted. The destination designation information may be, for example, an address unique to the user terminal 100 or may be identification information of a group to which the user terminal 100 belongs. It may be a symbol (for example, "ALL") indicating that all the user terminals 100 satisfying a certain condition are addressed.

項目「作成元」には、作成元情報が格納されている。作成元情報は、該動作指図データが、どの装置によって作成されたものであるのかを示す情報である。作成元情報は、例えば、ユーザID、ユーザ端末ID、ユーザ端末の固有アドレスなど、ある特定のユーザを特定可能な、ユーザに関連する情報(以下、ユーザ関連情報)である。作成元情報は、サーバ200または動作指図装置300を指し示すIDまたはアドレスであってもよいし、作成元が、サーバ200または動作指図装置300である場合には、該項目の値を空のままにしておいてもよいし、該項目自体を動作指図データに設けないようにしてもよい。   In the item “creator”, creator information is stored. The creation source information is information indicating by which device the operation instruction data was created. The creation source information is user-related information (hereinafter referred to as user-related information), such as a user ID, a user terminal ID, and a unique address of the user terminal, which can identify a specific user. The creation source information may be an ID or an address that points to the server 200 or the operation instruction device 300. If the creation source is the server 200 or the operation instruction device 300, leave the value of the item empty. Alternatively, the item itself may not be provided in the motion instruction data.

項目「キャラクタID」には、本ゲームに登場するキャラクタを一意に識別するためのキャラクタIDが格納されている。ここに格納されているキャラクタIDは、該動作指図データがどのキャラクタの動作を指示するためのものであるのかを表している。   The item “character ID” stores a character ID for uniquely identifying a character appearing in this game. The character ID stored here indicates which character the motion instruction data is for instructing the motion of the character.

項目「音声」には、キャラクタに発現させる音声データが格納されている。項目「動き」には、キャラクタの動きを指定するモーションデータが格納されている。モーションデータは、一例として、モーションキャプチャ装置3020を介して動作指図装置300が取得したモーションキャプチャデータであってもよい。モーションキャプチャデータは、アクターの体全体の動きを追跡したデータであってもよいし、アクターの顔の表情および口の動きを追跡したデータであってもよいし、その両方であってもよい。モーションデータは、他の例として、コントローラ3030を介して動作指図装置300のオペレータが入力した操作によって特定された、キャラクタの一連の動きを指示するモーションコマンド群であってもよい。例えば、コントローラ3030のボタンA、ボタンB、ボタンC、ボタンDにそれぞれ、「右手を上げる」、「左手を上げる」、「歩く」、「走る」のコマンドが割り付けられている場合に、オペレータが、ボタンA、ボタンB、ボタンC、ボタンDを続けて順に押したとする。この場合には、「右手を上げる」、「左手を上げる」、「歩く」、「走る」の各コマンドが上述の順に並べられたモーションコマンド群が、モーションデータとして、「動き」の項目に格納される。なお、本実施形態では、音声データとモーションデータとは同期がとれた状態で、動作指図データに含まれている。   The item “voice” stores voice data to be expressed by the character. The item “motion” stores motion data that specifies the motion of the character. The motion data may be, for example, motion capture data acquired by the motion command device 300 via the motion capture device 3020. The motion capture data may be data that tracks the movement of the entire actor's body, may be data that tracks the facial expression and mouth movement of the actor, or both. As another example, the motion data may be a motion command group that specifies a series of movements of the character, which is specified by an operation input by the operator of the motion command device 300 via the controller 3030. For example, when the commands “raise right hand”, “raise left hand”, “walk”, and “run” are assigned to button A, button B, button C, and button D of the controller 3030, respectively, the operator , Button A, button B, button C, and button D are successively pressed. In this case, a group of motion commands in which the commands "raise right hand", "raise left hand", "walk", and "run" are arranged in the above-mentioned order are stored in the "motion" item as motion data. To be done. In this embodiment, the voice data and the motion data are included in the motion instruction data in a synchronized state.

このような動作指図データを受信することにより、ゲーム進行部115は、ゲームに登場するキャラクタを、該動作指図データの作成元の意図通りに動作させることができる。具体的には、ゲーム進行部115は、動作指図データに音声データが含まれている場合には、該音声データに基づいてキャラクタに発話させる。また、ゲーム進行部115は、動作指図データにモーションデータが含まれている場合には、該モーションデータに基づいてキャラクタを動かす、すなわち、モーションデータに基づく動きをするように該キャラクタのアニメーションを生成する。   By receiving such motion instruction data, the game progression unit 115 can move the character appearing in the game as intended by the creator of the motion instruction data. Specifically, when the action instruction data includes voice data, the game progression unit 115 causes the character to speak based on the voice data. Further, when the motion instruction data includes motion data, the game progression unit 115 moves the character based on the motion data, that is, generates an animation of the character so as to make a motion based on the motion data. To do.

(ゲーム情報)
図5は、本実施形態に係るゲームシステム1にて処理されるゲーム情報132のデータ構造の一例を示す図である。ゲーム情報132において設けられる項目は、ゲームのジャンル、性質、内容等に応じて適宜決定されるものであり、例示の項目は、本発明の範囲を限定するものではない。一例として、ゲーム情報132は、「プレイ履歴」、「アイテム」、「親密度」、「知名度」および「配信履歴」の各項目を含んで構成されている。これらの各項目は、ゲーム進行部115がゲームを進行させるときに適宜参照される。
(Game information)
FIG. 5: is a figure which shows an example of the data structure of the game information 132 processed by the game system 1 which concerns on this embodiment. The items provided in the game information 132 are appropriately determined according to the genre, nature, content, etc. of the game, and the exemplified items do not limit the scope of the present invention. As an example, the game information 132 is configured to include each item of “play history”, “item”, “intimacy”, “popularity”, and “distribution history”. Each of these items is appropriately referred to when the game progression unit 115 advances the game.

項目「プレイ履歴」には、ユーザのプレイ履歴が格納されている。プレイ履歴は、記憶部120に記憶されているシナリオごとに、ユーザのプレイが完遂しているかどうかを示す情報である。例えば、プレイ履歴は、プレイ初回にダウンロードされた固定シナリオのリストと、獲得パートにおいて後から獲得された獲得シナリオのリストとを含む。それぞれのリストにおいて、シナリオごとに、「プレイ済」、「未プレイ」、「プレイ可」、「プレイ不可」などのステータスが紐付けられている。   The play history of the user is stored in the item “play history”. The play history is information indicating whether or not the user's play is completed for each scenario stored in the storage unit 120. For example, the play history includes a list of fixed scenarios downloaded at the first play time and a list of acquisition scenarios acquired later in the acquisition part. In each list, statuses such as “played”, “unplayed”, “playable”, and “not playable” are associated with each scenario.

項目「アイテム」には、ユーザが保有するゲーム媒体としてのアイテム一覧が格納されている。本ゲームにおいて、アイテムは、一例として、キャラクタに身に付けさせる服飾品である。ユーザは、シナリオをプレイすることによって得られたアイテムを、キャラクタに身に付けさせ、キャラクタの見た目をカスタマイズすることができる。   The item “item” stores a list of items as game contents owned by the user. In this game, the item is, for example, a clothing item that the character wears. The user can make the character wear the item obtained by playing the scenario and customize the appearance of the character.

項目「親密度」には、キャラクタのステータスの1つである親密度が格納されている。新密度は、ユーザのいわば分身である「主人公」を、キャラクタとの仲の良さを示すパラメータである。例えば、ゲーム進行部115は、親密度が高いほど、ゲームをユーザにとって有利に進行させてもよい。例えば、ゲーム進行部115は、シナリオのプレイ結果の良し悪しに応じて、親密度を増減してもよい。一例として、ゲーム進行部115は、ユーザがうまく選択肢を選び、シナリオにおいて迎えられた結末が良い内容であるほど、親密度を多く増分する。反対に、ゲーム進行部115は、ユーザが、シナリオをバッドエンドで迎えた場合には、親密度を減じてもよい。   The item “intimacy” stores intimacy, which is one of the character statuses. The new density is a parameter that indicates how close the "hero" is, which is the alter ego of the user, to the character. For example, the game progress section 115 may advance the game more advantageously to the user as the degree of intimacy is higher. For example, the game progression unit 115 may increase or decrease the degree of intimacy depending on whether the scenario play result is good or bad. As an example, the game progression unit 115 increases the degree of intimacy more as the user selects the option better and the content of the scenario is better. Conversely, the game progression unit 115 may reduce the degree of intimacy when the user welcomes the scenario at the bad end.

項目「知名度」には、キャラクタのステータスの1つのである知名度が格納されている。知名度は、キャラクタが、動画配信者として持つ人気の高さおよび認知度などを示すパラメータである。キャラクタの動画配信活動を応援して、該キャラクタの知名度を上げ、該キャラクタの夢を実現することが本ゲームの目的の一つとなる。一例として、一定以上の知名度を達成することができたユーザに対しては、特別なシナリオが報酬として提供されてもよい。   In the item “name recognition”, the name recognition, which is one of the character statuses, is stored. The name recognition is a parameter indicating the degree of popularity and recognition of the character as a moving image distributor. One of the purposes of this game is to support the animation distribution activity of the character, raise the name recognition of the character, and realize the dream of the character. As an example, a special scenario may be provided as a reward to a user who has been able to achieve a certain level of popularity.

項目「配信履歴」には、ライブ配信パートにおいて、過去にキャラクタからライブ配信された動画、いわゆるバックナンバーの一覧が格納されている。ライブ配信パートにおいて、リアルタイムにPUSH配信されている動画は、そのときにしか閲覧できない。一方、過去の配信分の動画は、サーバ200または動作指図装置300において録画されており、ユーザ端末100からのリクエストに応じて、PULL配信することが可能である。本実施形態では、一例として、バックナンバーは、ユーザが課金することにより、ダウンロードできるようにしてもよい。   The item “delivery history” stores a list of moving images, so-called back numbers, which have been live-delivered by the character in the past in the live-delivery part. In the live distribution part, the video distributed in real time by PUSH can be viewed only at that time. On the other hand, the videos distributed in the past are recorded in the server 200 or the operation command device 300, and can be PULL-distributed in response to a request from the user terminal 100. In the present embodiment, as an example, the back number may be downloaded by the user by charging.

<ストーリーパートの画面例>
図6は、ユーザ端末100の表示部152に表示されるクエスト提示画面400の一例を示す図である。ゲーム進行部115は、ストーリーパートにおいて、シナリオを進行中、ゲームプログラム131にしたがって、ユーザに対してクエストを提示する。具体的には、ゲーム進行部115は、主人公とキャラクタとの対話の中で、キャラクタから主人公に対して、クエストに相当する依頼事項を発言させる。このとき、例えば、ゲーム進行部115は、図6に示すクエスト提示画面400を表示部152に表示させてもよい。
<Screen example of story part>
FIG. 6 is a diagram showing an example of the quest presentation screen 400 displayed on the display unit 152 of the user terminal 100. In the story part, the game progression unit 115 presents a quest to the user according to the game program 131 while the scenario is in progress. Specifically, in the dialogue between the hero and the character, the game progression unit 115 causes the character to speak to the hero about requested items corresponding to the quest. At this time, for example, the game progression unit 115 may display the quest presentation screen 400 shown in FIG.

「キャラクタに依頼事項を発言させる」という一連の動作を行うキャラクタを提示する方法は特に限定されない。例えば、ゲーム進行部115は、予め記憶部120に記憶されている、依頼事項に対応するテキストデータに基づいて、それを発話するキャラクタを静止画で表示してもよい。具体的には、ゲーム進行部115は、キャラクタ401と、キャラクタ401の発言であることを示す吹き出し402と、吹き出し402内に配置された依頼事項のテキストデータとを含むクエスト提示画面400を表示部152に表示させる。あるいは、ゲーム進行部115は、予め記憶部120に記憶されている、依頼事項を発話するシーンに対応する動作指図データに基づいて、それを発話するキャラクタのアニメーションを表示してもよい。具体的には、ゲーム進行部115は、キャラクタ401を、動作指図データに含まれるモーションキャプチャデータにしたがって動かしつつ、該動作指図データに含まれる音声データをユーザ端末100が備える図示しないスピーカから音声として出力する。   There is no particular limitation on the method of presenting a character that performs a series of actions of "letting the character speak out a request item". For example, the game progression unit 115 may display a character that utters it as a still image based on the text data corresponding to the request item, which is stored in the storage unit 120 in advance. Specifically, the game progression unit 115 displays a quest presentation screen 400 including a character 401, a balloon 402 indicating that the character 401 is speaking, and text data of request items arranged in the balloon 402. 152 to display. Alternatively, the game progression unit 115 may display the animation of the character who speaks the request item based on the action instruction data that is stored in advance in the storage unit 120 and corresponds to the scene that speaks the request item. Specifically, the game progression unit 115 moves the character 401 according to the motion capture data included in the action instruction data, and converts the voice data included in the action instruction data into a voice from a speaker (not shown) included in the user terminal 100. Output.

本実施形態では、一例として、ゲーム進行部115は、クエストを、ユーザ端末100の位置登録情報を利用した位置情報ゲームによって実現してもよい。ゲーム進行部115は、ユーザ端末100に備えられている不図示の位置登録システムから、ユーザ端末100の現在位置情報(例えば、住所情報、緯度経度情報など)を取得する。そして、取得した現在位置情報に基づいて、ユーザ端末100がある場所周辺の地図403を生成し、クエスト提示画面400に配置する。なお地図403を生成する元になる地図データは、予めユーザ端末100の記憶部120に記憶されていてもよいし、地図データを提供する他のサービス提供装置からネットワークを介して取得されてもよい。   In the present embodiment, as an example, the game progression unit 115 may realize the quest by a position information game using the position registration information of the user terminal 100. The game progression unit 115 acquires current position information (for example, address information, latitude / longitude information) of the user terminal 100 from a position registration system (not shown) provided in the user terminal 100. Then, based on the acquired current position information, a map 403 around the place where the user terminal 100 is located is generated and placed on the quest presentation screen 400. The map data that is the source for generating the map 403 may be stored in advance in the storage unit 120 of the user terminal 100, or may be acquired from another service providing apparatus that provides the map data via the network. ..

続いて、ゲーム進行部115は、依頼事項を解決できる事物(以下、目標物)を獲得できる位置(住所、緯度経度など)を決定し、決定した位置に対応する地図上の位置に、目標アイコン404を重畳表示させる。これにより、ユーザは、ユーザ端末100を持って、地図403上の目標アイコン404の位置まで移動すれば、目標物を獲得し、クエストをクリアできると理解することができる。目標物の位置について、ゲーム進行部115は、ランダムに決定してもよいし、シナリオ、クエスト、目標物の内容に応じて予め決定されていてもよい。   Subsequently, the game progression unit 115 determines a position (address, latitude / longitude, etc.) where a thing (hereinafter, a target) that can solve the requested item can be acquired, and a target icon is displayed at a position on the map corresponding to the determined position. 404 is superimposed and displayed. Accordingly, the user can understand that if the user holds the user terminal 100 and moves to the position of the target icon 404 on the map 403, the target object can be acquired and the quest can be cleared. The position of the target object may be randomly determined by the game progression unit 115, or may be determined in advance according to the scenario, the quest, and the content of the target object.

ユーザが、目標アイコン404の位置に相当する実際の位置にユーザ端末100を持ち込むと、ゲーム進行部115は、主人公が目標物に到達したと判定し、ユーザに、目標物を獲得させる。ゲーム進行部115は、これにより、クエストがクリアされたと判定する。   When the user brings the user terminal 100 to the actual position corresponding to the position of the target icon 404, the game progression unit 115 determines that the hero has reached the target object, and causes the user to acquire the target object. Thereby, the game progression unit 115 determines that the quest has been cleared.

本実施形態では、ゲーム進行部115は、クエストがクリアされると、クエスト解決画面500を生成し、表示部152に表示させてもよい。図7は、ユーザ端末100の表示部152に表示されるクエスト解決画面500の一例を示す図である。一例として、クエスト解決画面500は、キャラクタ401を含む。例えば、ゲーム進行部115は、キャラクタ401に、「依頼事項が解決されたことについて主人公に対して礼を言う」という動作を行わせる。ゲーム進行部115は、この動作を、予め記憶されている動作指図データに基づいてキャラクタ401に行わせてもよい。あるいは、ゲーム進行部115は、キャラクタ401の静止画と発言内容に対応するテキストデータ501とをクエスト解決画面500に配置することにより、キャラクタ401がお礼を言っているシーンを再現してもよい。   In the present embodiment, when the quest is cleared, the game progression unit 115 may generate the quest solution screen 500 and display it on the display unit 152. FIG. 7 is a diagram showing an example of the quest resolution screen 500 displayed on the display unit 152 of the user terminal 100. As an example, the quest resolution screen 500 includes a character 401. For example, the game progression unit 115 causes the character 401 to perform an action of saying “thanks to the hero about that the requested matter has been solved”. The game progression unit 115 may cause the character 401 to perform this action based on the action instruction data stored in advance. Alternatively, the game progression unit 115 may reproduce the scene in which the character 401 is thanking by arranging the still image of the character 401 and the text data 501 corresponding to the utterance content on the quest resolution screen 500.

本実施形態では、ゲーム進行部115は、クエストがクリアされた報酬として、依頼主であるキャラクタ401にまつわる新たな固定シナリオを1つ解放し、ユーザがプレイ可能な状態に遷移させてもよい。具体的には、ゲーム進行部115は、図5に示すプレイ履歴を読み出し、所定の固定シナリオのステータスを「プレイ不可」から「プレイ可」に更新する。   In the present embodiment, the game progression unit 115 may release one new fixed scenario related to the client character 401 as a reward for clearing the quest, and transition the user to a playable state. Specifically, the game progression unit 115 reads the play history shown in FIG. 5 and updates the status of the predetermined fixed scenario from “unplayable” to “playable”.

さらに、ゲーム進行部115は、クエストがクリアされたことに基づいて、主人公とキャラクタとの親密度を増分してもよい。ゲーム進行部115は、クエストのプレイ内容(所要時間、移動距離、獲得個数、キャラクタの喜びの度合い、獲得された目標物のレア度など)が良いほど、親密度を上げる構成であってもよい。   Furthermore, the game progression unit 115 may increase the degree of intimacy between the hero and the character based on the fact that the quest has been cleared. The game progress unit 115 may be configured to increase the degree of intimacy as the play content of the quest (the required time, the moving distance, the number of acquisitions, the degree of joy of the character, the degree of rareness of the acquired target, etc.) is improved. ..

ユーザが1以上のクエストをクリアしたり、選択肢を選択したりすることにより、キャラクタとの対話が進み、シナリオが進行していく。シナリオが1つの結末を迎えると、ユーザは、シナリオのプレイを完遂したことになる。   When the user clears one or more quests or selects an option, the dialogue with the character progresses and the scenario progresses. When the scenario reaches one end, the user has completed playing the scenario.

ゲーム進行部115は、シナリオをユーザがプレイしたことの報酬として、アイテムをユーザに獲得させてもよい。アイテムは、例えば、キャラクタ401に身に付けさせる服飾品である。ゲーム進行部115は、ユーザに獲得させるアイテムを所定の規則に基づいて決定する。例えば、ゲーム進行部115は、プレイされたシナリオに予め対応付けられているアイテムをユーザに付与してもよいし、シナリオのプレイ内容(クエストクリアの所要時間、獲得された親密度、よい選択肢を選択したか、など)に応じて決定されたアイテムを付与してもよい。あるいは、ユーザに付与するアイテムは、複数の候補の中からランダムで決定されてもよい。   The game progression unit 115 may cause the user to acquire an item as a reward for the user playing the scenario. The item is, for example, clothing accessories that the character 401 wears. The game progression unit 115 determines an item to be acquired by the user based on a predetermined rule. For example, the game progression unit 115 may give the user an item that is associated with the played scenario in advance, or play content of the scenario (the time required to clear the quest, the intimacy acquired, and a good option). An item determined depending on whether it is selected or the like) may be added. Alternatively, the item given to the user may be randomly determined from a plurality of candidates.

本実施形態では、ゲーム進行部115は、ユーザに獲得させたアイテムを通知するための報酬画面600を生成し、表示部152に表示させてもよい。図8は、ユーザ端末100の表示部152に表示される報酬画面600の一例を示す図である。一例として、報酬画面600は、獲得されたアイテムのアイコン601、および、該アイテムの名称602を含んでいてもよい。これにより、ユーザは、自身が獲得できたアイテムを確認することができる。また、ゲーム進行部115は、図5に示す項目「アイテム」に格納されているアイテムリストに、上述の獲得されたアイテムを追加する。   In the present embodiment, the game progression unit 115 may generate a reward screen 600 for notifying the user of the item acquired and display the reward screen 600 on the display unit 152. FIG. 8 is a diagram showing an example of the reward screen 600 displayed on the display unit 152 of the user terminal 100. As an example, the reward screen 600 may include an icon 601 of the acquired item and a name 602 of the item. As a result, the user can check the items that he / she has acquired. Further, the game progression unit 115 adds the acquired item to the item list stored in the item “item” shown in FIG.

<ライブ配信パートの画面例>
ゲーム進行部115は、例えば動作指図装置300などの外部の装置から動作指図データを受信すると、ライブ配信パートにおいて、キャラクタを該動作指図データに基づいて動作させる。例えば、ライブ配信パートにおいて動作指図データに基づいて動作するキャラクタを含む動画再生画面800を生成し、表示部152に表示させる。
<Screen example of live distribution part>
Upon receiving the action instruction data from an external device such as the action instruction device 300, the game progression unit 115 causes the character to act based on the action instruction data in the live distribution part. For example, in the live distribution part, a moving image reproduction screen 800 including a character that operates based on the operation instruction data is generated and displayed on the display unit 152.

図9は、ユーザ端末100の表示部152に表示される動画再生画面800の一例を示す図である。動画再生画面800は、一例として、ストーリーパートで対話相手であったキャラクタ(図示の例では、キャラクタ802)を少なくとも含む。   FIG. 9 is a diagram showing an example of the moving image reproduction screen 800 displayed on the display unit 152 of the user terminal 100. The moving image playback screen 800 includes, as an example, at least a character (a character 802 in the illustrated example) that was a dialogue partner in the story part.

本実施形態では、ゲーム進行部115は、外部の装置(以下、動作指図装置300とする)から供給された動作指図データに含まれているモーションキャプチャデータが示す動きをキャラクタ802の動きに反映させる。モーションキャプチャデータは、動作指図装置300の設置場所において、モデル702の動きを、モーションキャプチャ装置3020を介して取得したものである。したがって、モデル702の動きが、そのまま、表示部152に表示されるキャラクタ802の動きに反映される。   In the present embodiment, the game progression unit 115 reflects the motion indicated by the motion capture data included in the motion instruction data supplied from the external device (hereinafter, motion command device 300) on the motion of the character 802. .. The motion capture data is obtained by acquiring the movement of the model 702 via the motion capture device 3020 at the installation location of the operation command device 300. Therefore, the movement of the model 702 is directly reflected in the movement of the character 802 displayed on the display unit 152.

本実施形態では、ゲーム進行部115は、動作指図装置300から供給された動作指図データに含まれている音声データ801を、キャラクタ802が発した音声として、キャラクタ802の動きと同期して出力する。音声データは、動作指図装置300の設置場所において、声優701の音声700を、マイク3010を介して取得したものである。したがって、声優701が発した音声700に対応する音声データ801が、そのまま、ユーザ端末100のスピーカから出力される。   In the present embodiment, the game progression unit 115 outputs the voice data 801 included in the action instruction data supplied from the action instruction device 300 as the voice uttered by the character 802, in synchronization with the movement of the character 802. .. The voice data is obtained by acquiring the voice 700 of the voice actor 701 via the microphone 3010 at the installation location of the operation command device 300. Therefore, the voice data 801 corresponding to the voice 700 generated by the voice actor 701 is output as it is from the speaker of the user terminal 100.

上述の構成によれば、動作指図装置300の設置場所において、実在する声優701およびモデル702の音声および動きが、そのまま、キャラクタ802の音声および動きに反映される。このような動作を行うキャラクタ802を見て、ユーザは、キャラクタ802に対して、まるで、現実の世界に存在するかのような現実感を覚えることができ、ゲームの世界に没入することができる。   According to the above configuration, the voice and motion of the actual voice actor 701 and model 702 are directly reflected in the voice and motion of the character 802 at the installation location of the motion command device 300. By seeing the character 802 performing such an action, the user can feel as if he / she were in the real world, and can immerse himself in the game world. ..

さらに、本実施形態では、ゲーム進行部115は、ストーリーパート(第1パート)におけるユーザの入力操作に基づいて、ストーリーパートのプレイ結果を決定してもよい。そして、ゲーム進行部115は、ライブ配信パート(第2パート)において、動作指図データに基づいて動作させるキャラクタを、該プレイ結果に応じた表示態様にて、表示部152に表示させてもよい。   Furthermore, in the present embodiment, the game progression unit 115 may determine the play result of the story part based on the user's input operation in the story part (first part). Then, the game progression unit 115 may cause the display unit 152 to display the character to be operated based on the operation instruction data in the live distribution part (second part) in a display mode according to the play result.

一例として、ゲーム進行部115は、これまでにプレイされたストーリーパートにおいて、上述のキャラクタに身に付けさせることが可能なアイテムが獲得されていれば、そのアイテムのオブジェクトをキャラクタ802のオブジェクトに合成することが好ましい。上述の構成によれば、ユーザがストーリーパートをプレイすることにより獲得したアイテムを、ライブ配信パートで動作するキャラクタ802の服飾品に反映させることができる。例えば、図8に示すとおり、ストーリーパートにおいてシナリオをプレイしたことによって服飾品としてのアイテム(例えば、うさみみバンド)が獲得されている。この場合には、ゲーム進行部115は、図5に示すゲーム情報132から、該服飾品の情報を読み出し、該アイテムのオブジェクト(図示の例では、服飾品803)を、キャラクタ802に合成する。   As an example, if the item that can be worn by the character is acquired in the story part that has been played so far, the game progression unit 115 combines the object of the item with the object of the character 802. Preferably. According to the above configuration, the item acquired by the user playing the story part can be reflected in the clothing item of the character 802 operating in the live distribution part. For example, as shown in FIG. 8, by playing a scenario in the story part, an item (for example, a rabbit band) as a clothing item has been acquired. In this case, the game progression unit 115 reads the information on the clothing item from the game information 132 shown in FIG. 5, and combines the object of the item (the clothing item 803 in the illustrated example) with the character 802.

これにより、ユーザは、キャラクタ802により愛着を感じてライブ配信パートをより一層楽しむことができる。さらに、キャラクタ802の服飾品をバージョンアップさせたいというユーザの意欲を育むことができ、結果として、ストーリーパートをプレイする動機付けを強化することが可能となる。   This allows the user to feel more attached to the character 802 and further enjoy the live distribution part. Furthermore, the user's motivation to upgrade the clothing item of the character 802 can be cultivated, and as a result, the motivation for playing the story part can be strengthened.

さらに、本実施形態では、ゲーム進行部115は、キャラクタ802の動作に反応して、キャラクタ802に宛てたコメントを入力することが可能であってもよい。一例として、ゲーム進行部115は、動画再生画面800に、コメント入力ボタン804を配置する。ユーザは、コメント入力ボタン804にタッチして、コメントを入力するためのUIを呼び出し、該UIを操作して、キャラクタ802に宛てたコメントを入力する。該UIは、予め準備されたいくつかのコメントの中からユーザが所望のコメントを選択するためのものであってもよい。該UIは、ユーザが文字を編集してコメントを入力するためのものであってもよい。該UIは、ユーザが音声にてコメントを入力するためのものであってもよい。   Further, in the present embodiment, the game progression unit 115 may be able to input a comment addressed to the character 802 in response to the motion of the character 802. As an example, the game progression unit 115 arranges a comment input button 804 on the moving image reproduction screen 800. The user touches the comment input button 804 to call a UI for inputting a comment, operates the UI, and inputs a comment addressed to the character 802. The UI may be for the user to select a desired comment from among some prepared comments. The UI may be for a user to edit characters and input a comment. The UI may be for the user to input a comment by voice.

<処理フロー>
図10は、ゲームシステム1を構成する各装置が実行する処理の流れを示すフローチャートである。
<Processing flow>
FIG. 10 is a flowchart showing a flow of processing executed by each device constituting the game system 1.

ステップS101にて、ユーザ端末100のゲーム進行部115は、ユーザからゲーム開始の入力操作を受け付けると、サーバ200にアクセスし、ログインの要求を行う。   In step S101, when the game progression unit 115 of the user terminal 100 receives a game start input operation from the user, the game progression unit 115 accesses the server 200 and makes a login request.

ステップS102にて、サーバ200の進行支援部211は、ユーザ端末100のステータスがオンラインであることを確認し、ログインを受け付けた旨応答する。   In step S102, the progress support unit 211 of the server 200 confirms that the status of the user terminal 100 is online, and responds that the login is accepted.

ステップS103にて、ゲーム進行部115は、必要に応じて、サーバ200と通信しながら、ユーザの入力操作に応じてゲームを進行させる。ゲーム進行部115は、ストーリーパートを進行させてもよいし、新たなシナリオを獲得するための獲得パートを進行させてもよい。   In step S103, the game progression unit 115 progresses the game in response to the user's input operation while communicating with the server 200 as necessary. The game progression unit 115 may advance a story part or an acquisition part for obtaining a new scenario.

ステップS104にて、進行支援部211は、必要に応じて、ユーザ端末100に対して必要な情報を提供するなどして、ユーザ端末100におけるゲーム進行を支援する。   In step S104, the progress support unit 211 supports the progress of the game on the user terminal 100 by providing necessary information to the user terminal 100 as necessary.

ステップS105にて、ライブ配信時刻になると、サーバ200の共有支援部212は、ステップS105のYESからステップS106に進む。ライブ配信時刻は、例えば、ゲームマスターによって予め決定されており、サーバ200および動作指図装置300において管理されている。また、ユーザ端末100に対して、ライブ配信時刻は予め通知されていてもよいし、実際にライブ配信時刻になるまで秘密にされていてもよい。前者の場合、ユーザに対して安定的にライブ配信を供給することができ、後者の場合、サプライズ配信として、ユーザに特別な付加価値が付いたライブ配信を供給することが可能となる。   When the live distribution time comes in step S105, the sharing support unit 212 of the server 200 proceeds from YES in step S105 to step S106. The live distribution time is determined in advance by, for example, the game master, and is managed by the server 200 and the operation command device 300. In addition, the live distribution time may be notified to the user terminal 100 in advance, or may be kept secret until the actual live distribution time. In the former case, the live distribution can be stably supplied to the user, and in the latter case, the live distribution with a special added value can be supplied to the user as a surprise distribution.

ステップS106にて、共有支援部212は、ライブ配信を受ける権利がある1以上のユーザ端末100を探索する。ライブ配信を受けられる条件は、適宜ゲームマスターが設定すればよいが、少なくとも、本ゲームのアプリケーションをインストールしていること、および、ライブ配信時刻時点でオンラインであることなどが条件として挙げられる。本実施形態では一例として、ライブ配信時刻時点でオンラインである、すなわち、本ゲームのアプリケーションを起動しているユーザ端末100を、ライブ配信を受ける権利があるユーザ端末100として探索する。あるいは、共有支援部212は、さらに、ライブ配信を受けるための対価を支払い済みのユーザが所有するユーザ端末100であることを条件に加えてもよい。あるいは、共有支援部212は、事前に、上述のライブ配信時刻において、ライブ配信を受ける旨の予約を行った特定のユーザ端末100を、ライブ配信を受ける権利があるユーザ端末100として探索してもよい。   In step S106, the sharing support unit 212 searches for one or more user terminals 100 that have a right to receive live distribution. The condition for receiving the live distribution may be appropriately set by the game master, but at least the condition that the application of this game is installed and that it is online at the time of the live distribution is mentioned. In the present embodiment, as an example, the user terminal 100 that is online at the time of the live distribution time, that is, the user terminal 100 that is running the application of the present game is searched as the user terminal 100 that is entitled to the live distribution. Alternatively, the sharing support unit 212 may further add to the condition that the sharing support unit 212 is the user terminal 100 owned by the user who has paid the price for receiving the live distribution. Alternatively, the sharing support unit 212 searches for the specific user terminal 100 that has made a reservation to receive the live distribution at the above-described live distribution time in advance as the user terminal 100 that has the right to receive the live distribution. Good.

ステップS107にて、共有支援部212は、検出した1以上のユーザ端末100を動作指図装置300に通知する。例えば、共有支援部212は、ユーザ端末100の端末ID、ユーザ端末100の所有者であるユーザのユーザID、および、ユーザ端末100のアドレスなどを動作指図装置300に通知してもよい。   In step S107, the sharing support unit 212 notifies the motion command device 300 of the detected one or more user terminals 100. For example, the sharing support unit 212 may notify the operation instruction device 300 of the terminal ID of the user terminal 100, the user ID of the user who owns the user terminal 100, the address of the user terminal 100, and the like.

一方、ステップS108にて、動作指図装置300のキャラクタ制御部316は、ライブ配信時刻になると、ステップS108のYESからステップS109〜S110に進む。ステップS109〜S110は、いずれが先に実行されても構わない。   On the other hand, in step S108, when the live distribution time comes, the character control unit 316 of the motion command device 300 proceeds from YES in step S108 to steps S109 to S110. Any of steps S109 to S110 may be executed first.

ステップS109にて、キャラクタ制御部316は、声優などのアクターがマイク3010を介して入力した音声を音声データとして取得する。   In step S109, the character control unit 316 acquires, as voice data, a voice input by an actor such as a voice actor via the microphone 3010.

ステップS110にて、キャラクタ制御部316は、モデルなどのアクターがモーションキャプチャ装置3020を介して入力した動きをモーションキャプチャデータとして取得する。   In step S110, the character control unit 316 acquires a motion input by an actor such as a model via the motion capture device 3020 as motion capture data.

ステップS111にて、キャラクタ制御部316は、動作指図データ(第2動作指図データ)を生成する。具体的には、キャラクタ制御部316は、上述のライブ配信開始時刻に動画を配信させるキャラクタを特定し、該キャラクタのキャラクタIDを、動作指図データの「キャラクタID」の項目に格納する。いつの時刻にどのキャラクタの動画を配信するのかは、ゲームマスターによって予めスケジューリングされ、動作指図装置300に登録されていてもよい。あるいは、動作指図装置300のオペレータが、どのキャラクタの動作指図データを作成するのかを動作指図装置300に対して予め指定しておいてもよい。キャラクタ制御部316は、ステップS109で取得した音声データを、動作指図データの「音声」の項目に格納する。キャラクタ制御部316は、ステップS110で取得したモーションキャプチャデータを、動作指図データの「動き」の項目に格納する。キャラクタ制御部316は、音声データとモーションキャプチャデータとが同期するように、音声データとモーションキャプチャデータとを紐付ける。キャラクタ制御部316は、ステップS107にてサーバ200より通知された1以上のユーザ端末100が宛先となるように、これらのユーザ端末100のグループのグループ識別情報、または、1台のユーザ端末100のアドレスを、宛先指定情報として、動作指図データの「宛先」の項目に格納する。   In step S111, the character control unit 316 generates motion instruction data (second motion instruction data). Specifically, the character control unit 316 identifies the character to which the moving image is to be distributed at the above-mentioned live distribution start time, and stores the character ID of the character in the item “character ID” of the motion instruction data. The time and time of which character's video to be distributed may be scheduled in advance by the game master and registered in the motion command device 300. Alternatively, the operator of the motion command device 300 may previously specify to the motion command device 300 which character the motion command data is to be created. The character control unit 316 stores the voice data acquired in step S109 in the "voice" item of the motion instruction data. The character control unit 316 stores the motion capture data acquired in step S110 in the "movement" item of the motion instruction data. The character control unit 316 links the voice data and the motion capture data so that the voice data and the motion capture data are synchronized with each other. The character control unit 316 sets the group identification information of the group of the user terminals 100 or the one of the user terminals 100 so that the destination is the one or more user terminals 100 notified by the server 200 in step S107. The address is stored in the "destination" item of the operation instruction data as destination designation information.

ステップS112にて、キャラクタ制御部316は、通信IF33を介して、上述のように生成した動作指図データを、宛先として指定した各ユーザ端末100に送信する。キャラクタ制御部316は、アクターが声を出したり、動いたりして得られた音声データおよびモーションキャプチャデータを、取得してすぐさま動作指図データへとレンダリングし、リアルタイムで、各ユーザ端末100に配信することが望ましい。   In step S112, the character control unit 316 transmits the motion instruction data generated as described above to each user terminal 100 designated as the destination via the communication IF 33. The character control unit 316 acquires voice data and motion capture data obtained by the actor's voice or moves, and immediately renders them as motion instruction data, and delivers them to each user terminal 100 in real time. Is desirable.

ステップS113にて、ユーザ端末100の解析部116は、通信IF13を介して、上述の動作指図データを受信する。例えば、解析部116は、動作指図装置300またはサーバ200から予めライブ配信すると予告された時刻に、動作指図データを受信してもよい。   In step S113, the analysis unit 116 of the user terminal 100 receives the above-described operation instruction data via the communication IF 13. For example, the analysis unit 116 may receive the motion instruction data at the time when the motion instruction apparatus 300 or the server 200 previously announces the live distribution.

ステップS114にて、解析部116は、受信したことをトリガにして、受信した動作指図データを解析する。   In step S114, analysis unit 116 analyzes the received motion instruction data, triggered by the reception.

ステップS115にて、ゲーム進行部115は、上述の動作指図データを受信したときに、ライブ配信パートを実行していなければ、該ライブ配信パートを開始する。このとき、ゲーム進行部115は、別のパートを実行していれば、該パートの進行を中断してから、ライブ配信パートを開始する。ここで、ゲーム進行部115は、ライブ配信が開始されたために実行中のパートを一時中断する旨のメッセージを表示部152に出力し、該パートの進捗を記憶部120に保存しておくことが望ましい。なお、上述の動作指図データを受信した時点で、すでに、ライブ配信パートを実行していれば、ゲーム進行部115は、ステップS115を省略してもよい。この場合、ゲーム進行部115は、動作指図データ(すなわち、キャラクタがライブ配信する体の動画)の配信が開始された旨のメッセージを表示部152に出力してもよい。   In step S115, the game progression unit 115 starts the live distribution part if the live distribution part is not executed when the above-mentioned operation instruction data is received. At this time, the game progression unit 115, if another part is being executed, interrupts the progression of the part and then starts the live distribution part. Here, the game progression unit 115 may output a message to the display unit 152 to temporarily suspend the part that is being executed because the live distribution has started, and save the progress of the part in the storage unit 120. desirable. Note that, if the live distribution part has already been executed at the time of receiving the above-described operation instruction data, the game progression unit 115 may omit step S115. In this case, the game progression unit 115 may output to the display unit 152 a message indicating that the distribution of the motion instruction data (that is, the moving image of the body to which the character is live distributed) has started.

ステップS116にて、ゲーム進行部115は、解析部116によって解析された動画指図データに基づいてキャラクタを動作させることにより、ライブ配信パートを進行させる。具体的には、ゲーム進行部115は、図9に示す動画再生画面800などを表示部152に表示させる。ゲーム進行部115は、声優701、モデル702などのアクターが動作指図装置300の設置場所で、声を出したり、動いたりしているのとほぼ同時に、リアルタイムで、その音声および動きを、動画再生画面800におけるキャラクタ802の発言および動きに反映させる。解析部116およびゲーム進行部115は、リアルタイムの動画のレンダリングおよび再生を、動作指図装置300から動作指図データを継続して受信し続けている間継続する。具体的には、ゲーム進行部115は、ユーザから何の入力操作も受け付けず、動作指図データが受信されている間は、ステップS117のNOからステップS113に戻り、以降の各ステップを繰り返す。   In step S116, the game progression unit 115 advances the live distribution part by operating the character based on the moving image instruction data analyzed by the analysis unit 116. Specifically, the game progression unit 115 causes the display unit 152 to display the moving image reproduction screen 800 shown in FIG. The game progression unit 115 reproduces the voice and movement of the actors such as the voice actor 701 and the model 702 in real time at the same time that the actors such as the voice actor 701 and the model 702 are making voices or moving at the installation location of the operation command device 300 in real time. It is reflected in the statement and movement of the character 802 on the screen 800. The analysis unit 116 and the game progression unit 115 continue rendering and playing of a real-time moving image while continuing to receive action instruction data from the action instruction device 300. Specifically, the game progression unit 115 does not accept any input operation from the user, and while the operation instruction data is being received, the process returns from NO in step S117 to step S113, and the subsequent steps are repeated.

ステップS117にて、動作指図データに基づいてキャラクタが動作している間に、操作受付部111が、ユーザから入力操作を受け付けると、ゲーム進行部115は、ステップS117のYESからステップS118に進む。例えば、操作受付部111は、動画再生画面800におけるコメント入力ボタン804に対する入力操作を受け付ける。   In step S117, when the operation receiving unit 111 receives an input operation from the user while the character is moving based on the motion instruction data, the game progressing unit 115 proceeds from YES in step S117 to step S118. For example, the operation reception unit 111 receives an input operation on the comment input button 804 on the video playback screen 800.

ステップS118にて、ゲーム進行部115は、上述の入力操作に応じて生成したコメントデータを動作指図装置300に送信する。具体的には、ゲーム進行部115は、選択されたコメントのコメントIDをコメントデータとして送信してもよい。あるいは、ゲーム進行部115は、ユーザにより入力された文章のテキストデータをコメントデータとして送信してもよい。あるいは、ゲーム進行部115は、ユーザにより入力された音声の音声データをコメントデータとして送信してもよい。あるいは、ゲーム進行部115は、ユーザにより入力された音声を認識し、テキストデータに変換したものをコメントデータとして送信してもよい。   In step S118, game progress section 115 transmits the comment data generated in response to the above-described input operation, to operation command device 300. Specifically, the game progression unit 115 may transmit the comment ID of the selected comment as comment data. Alternatively, the game progression unit 115 may transmit the text data of the sentence input by the user as comment data. Alternatively, the game progression unit 115 may transmit voice data of voice input by the user as comment data. Alternatively, the game progression unit 115 may recognize the voice input by the user, convert it into text data, and send it as comment data.

ステップS119にて、動作指図装置300の反応処理部317は、通信IF33を介して、ユーザ端末100から送信されたコメントデータを受信する。   In step S119, the reaction processing unit 317 of the operation command device 300 receives the comment data transmitted from the user terminal 100 via the communication IF 33.

ステップS120にて、反応処理部317は、受信したコメントデータを、動作指図装置300に出力する。例えば、反応処理部317は、コメントデータに含まれるテキストデータを表示部352に表示する。これにより、オペレータは、自分たちが動かしたキャラクタに対して、ユーザがどのような反応を示したのかを示すフィードバックを受けることが可能となる。そして、オペレータは、このフィードバックに合わせて、さらなるキャラクタの動作を決定することができる。すなわち、動作指図装置300は、ステップS109に戻り、音声データおよびモーションキャプチャデータの取得を継続し、動作指図データをユーザ端末100に提供し続ける。ユーザ端末100は、自端末における入力操作の内容が動作指図装置300によって受信された後、該動作指図装置300から送信された動作指図データを受信する。具体的には、ユーザ端末100は、キャラクタの発言内容に対応する音声データ、および、キャラクタの動きに対応するモーションキャプチャデータなどが含まれた動作指図データを受信する。そして、ユーザ端末100は、継続的に、該動作指図データに基づいて、キャラクタを動作させる。結果として、ユーザに、キャラクタとのリアルタイムでインタラクティブなやりとりを体験させることが可能となる。なお、モーションキャプチャデータに代えて、キャラクタの動作を指示する1以上のコマンドが、動作指図装置300のオペレータが指示した順に並んでいるモーションコマンド群が、ユーザ端末100によって受信されてもよい。   In step S120, reaction processing unit 317 outputs the received comment data to operation command device 300. For example, the reaction processing unit 317 displays the text data included in the comment data on the display unit 352. This allows the operator to receive feedback indicating how the user reacts to the character they moved. Then, the operator can determine a further motion of the character in accordance with this feedback. That is, the motion instruction device 300 returns to step S109, continues to acquire the voice data and the motion capture data, and continues to provide the motion instruction data to the user terminal 100. The user terminal 100 receives the operation instruction data transmitted from the operation instruction device 300 after the content of the input operation in the own terminal is received by the operation instruction device 300. Specifically, the user terminal 100 receives the action instruction data including the voice data corresponding to the utterance content of the character and the motion capture data corresponding to the movement of the character. Then, the user terminal 100 continuously operates the character based on the motion instruction data. As a result, it is possible for the user to experience a real-time interactive interaction with the character. Instead of the motion capture data, the user terminal 100 may receive a motion command group in which one or more commands for instructing the motion of the character are arranged in the order instructed by the operator of the motion instruction device 300.

<変形例>
実施形態1の変形例では、ライブ配信パートにおいて動画をライブ配信するキャラクタは、他のパートにおいて、NPCでなくてもよい。すなわち、他のパートにおいて、ユーザの操作に基づいて動作するPCが、ライブ配信パートにおいてNPCとして動画をライブ配信するゲームに対しても、本発明を適用することができる。
<Modification>
In the modified example of the first embodiment, the character that delivers the moving image live in the live delivery part may not be an NPC in the other part. That is, the present invention can be applied to a game in which a PC that operates based on a user operation in another part distributes a moving image as an NPC in the live distribution part.

本変形例では、ユーザ端末100は、ゲームプログラム131に基づいて、ゲームの興趣性を向上させるために以下のステップを実行するように構成されている。具体的には、ユーザ端末100は、操作部(入出力IF14、タッチスクリーン15、カメラ17、測距センサ18)を介してコンピュータ(ユーザ端末100)に入力されたユーザの入力操作に応じてキャラクタを動作させることにより第1パートを進行させるステップと、NPC制御装置(動作指図装置300)から受信した、キャラクタの動作を指定する動作指図データに基づいてキャラクタを動作させることにより第2パートを進行させるステップとを実行する。ここで、動作指図データは、音声データおよびモーションキャプチャデータの少なくともいずれか1つを含む。ユーザ端末100は、第2パートを進行させるステップでは、ユーザの入力操作の内容をNPC制御装置に送信し、該入力操作の内容を踏まえてNPC制御装置において決定された動作指図データを受信し、動作指図データを受信したことをトリガにして、キャラクタを動作させる。   In this modification, the user terminal 100 is configured to execute the following steps based on the game program 131 in order to improve the interest of the game. Specifically, the user terminal 100 displays the character according to the user's input operation input to the computer (user terminal 100) via the operation unit (input / output IF 14, touch screen 15, camera 17, distance measuring sensor 18). Moving the first part by moving the second part, and moving the second part by moving the character based on the motion instruction data specifying the motion of the character received from the NPC control device (motion instruction device 300). Perform the steps and Here, the motion instruction data includes at least one of voice data and motion capture data. In the step of advancing the second part, the user terminal 100 transmits the content of the user's input operation to the NPC control device, receives the operation instruction data determined by the NPC control device based on the content of the input operation, The reception of the motion instruction data triggers the character to move.

〔実施形態2〕
<ゲーム概要>
実施形態2に係るゲームシステム1が実行するゲーム(以下、本ゲーム)は、実施形態1と同様に、一例として、恋愛シミュレーションゲームの要素を含んだ育成シミュレーションゲームである。本実施形態では、本ゲームには、少なくともライブ配信パートが含まれる。本ゲームは、単一のライブ配信パートで構成されていてもよいし、複数のパートで構成されていてもよい。また、ライブ配信パートにおいて、動作指図装置300によって動作を制御されるキャラクタは、PCであっても、NPCであっても構わない。例えば、ライブ配信パートにてNPCとして動作するキャラクタであっても、別のパートでは、PCとしてユーザの入力操作にしたがって動作することがあってもよい。あるいは、動作指図データが動作指図装置300からライブ配信されていない期間、キャラクタは、ライブ配信パート内で、PCとして、ユーザの入力操作にしたがって動作してもよい。そして、ライブ配信が開始されたら、該キャラクタは、NPCに切り替えられ、動作指図装置300から供給された動作指図データにしたがって動作してもよい。
[Embodiment 2]
<Game outline>
The game executed by the game system 1 according to the second embodiment (hereinafter, this game) is, as an example, a training simulation game including the elements of the love simulation game, as in the first embodiment. In this embodiment, the game includes at least a live distribution part. The present game may be composed of a single live distribution part, or may be composed of a plurality of parts. In the live distribution part, the character whose motion is controlled by the motion command device 300 may be a PC or an NPC. For example, even a character acting as an NPC in a live distribution part may act as a PC in another part in accordance with a user's input operation. Alternatively, the character may operate as a PC in the live distribution part in accordance with a user's input operation while the motion instruction data is not live-distributed from the motion instruction device 300. Then, when the live distribution is started, the character may be switched to the NPC and operate according to the motion instruction data supplied from the motion instruction device 300.

<処理概要>
本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、ゲームの興趣性を向上させるために以下のステップを実行するように構成されている。具体的には、ユーザ端末100は、例えば入力部151などの操作部を介してユーザ端末100(コンピュータ)に入力されたユーザの入力操作に応じてキャラクタを動作させるステップと、サーバ200または動作指図装置300(キャラクタ制御装置)からマルチキャストで送信されたキャラクタの動作を指定する動作指図データを受信するステップと、受信した動作指図データに基づいて、キャラクタを動作させるステップとを実行する。
<Outline of processing>
In the present embodiment, the user terminal 100 is configured to execute the following steps based on the game program 131 in order to improve the interest of the game. Specifically, the user terminal 100 has a step of operating the character in accordance with a user's input operation input to the user terminal 100 (computer) via the operation unit such as the input unit 151, the server 200, or the operation instruction. The step of receiving the motion instruction data that specifies the motion of the character transmitted by multicast from the device 300 (character control device) and the step of moving the character based on the received motion instruction data are executed.

さらに、キャラクタを動作させるステップは、マルチキャストで送信された動作指図データが、受信するステップにおいて受信されたことをトリガにして開始されることが好ましい。   Furthermore, it is preferable that the step of moving the character is started by using the fact that the operation instruction data transmitted by multicast is received in the step of receiving.

あるいは、本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、ゲームの興趣性を向上させるために以下のステップを実行するように構成されていてもよい。具体的には、ユーザ端末100は、操作部を介してユーザ端末100に入力されたユーザの入力操作に応じてキャラクタを動作させるステップと、サーバ200または動作指図装置300からユーザ端末100に宛てて送信された、キャラクタの動作を指定する動作指図データであって、該動作指図データの作成元として他のユーザのユーザ端末100が指定されていない動作指図データを受信するステップと、受信した動作指図データに基づいて、キャラクタを動作させるステップとを実行する。なお、動作指図データが「ユーザ端末100に宛てて送信された」とは、例えば、動作指図データがユニキャストで送信されたことを意味する。例えば、ユーザ端末100は、宛先指定情報に、自端末固有のアドレスが含まれている場合に、動作指図データが自端末に宛てて、すなわち、ユニキャストで送信されたと判断することができる。   Alternatively, in the present embodiment, the user terminal 100 may be configured to execute the following steps based on the game program 131 in order to improve the interest of the game. Specifically, the user terminal 100 moves the character in response to the user's input operation input to the user terminal 100 via the operation unit, and sends the character from the server 200 or the operation command device 300 to the user terminal 100. A step of receiving the transmitted motion instruction data that specifies the motion of the character, wherein the user terminal 100 of the other user is not specified as the source of the motion instruction data, and the received motion instruction data. Performing the step of moving the character based on the data. In addition, "the operation instruction data is transmitted to the user terminal 100" means that the operation instruction data is transmitted by unicast, for example. For example, the user terminal 100 can determine that the operation instruction data has been transmitted to its own terminal, that is, has been transmitted by unicast, when the destination designation information includes an address unique to the own terminal.

さらに、キャラクタを動作させるステップは、ユニキャストで送信された動作指図データであって、ユーザまたはユーザ端末の識別情報が紐付けられていない動作指図データが、受信するステップにおいて受信されたことをトリガにして開始されることが好ましい。   Further, the step of moving the character is triggered by the fact that the operation instruction data transmitted by unicast, which is not associated with the identification information of the user or the user terminal, is received in the step of receiving. It is preferable to start by.

<ゲームシステム1の機能的構成>
本実施形態に係るユーザ端末100において、解析部116は、さらに、動作指図データのメタ情報も解析する。メタ情報とは、動作指図データの中身とは別に、動作指図データの性質を定義する情報である。メタ情報は、例えば、宛先指定情報、および、作成元情報などである。具体的には、解析部116は、送信された動作指図データの宛先指定情報に基づいて、該動作指図データが、マルチキャスト送信されたものであるのか、ユニキャスト送信されたものであるのかを判断する。マルチキャスト送信とは、サーバ200または動作指図装置300が、自端末を含む所定のグループに対して同じ内容の情報を送信することを意味する。例えば、宛先指定情報として「ALL」が設定されている動作指図データは、本ゲームのアプリケーションを起動中のすべてのユーザ端末に宛てて同送される。ユニキャスト送信とは、サーバ200または動作指図装置300が、自端末に宛てて情報を送信することを意味する。宛先指定情報は、例えば、図4に示す動作指図データの項目「宛先」に格納されている。
<Functional configuration of game system 1>
In the user terminal 100 according to this embodiment, the analysis unit 116 further analyzes the meta information of the motion instruction data. The meta information is information that defines the nature of the motion instruction data, apart from the contents of the motion instruction data. The meta information is, for example, destination designation information and creation source information. Specifically, the analysis unit 116 determines whether the operation instruction data is multicast-transmitted or unicast-transmitted, based on the destination designation information of the transmitted operation instruction data. To do. Multicast transmission means that the server 200 or the operation command device 300 transmits information of the same content to a predetermined group including its own terminal. For example, the operation instruction data in which "ALL" is set as the destination designation information is sent to all the user terminals that are activating the application of this game. Unicast transmission means that the server 200 or the operation command device 300 transmits information to its own terminal. The destination designation information is stored, for example, in the item “destination” of the operation instruction data shown in FIG.

マルチキャスト送信された動作指図データは、特定のユーザではなく、ゲームマスターによって作成されたものと考えられる。具体的には、上述の動作指図データは、ゲームシステム1において本ゲームのサービスを提供するプロバイダ(運営団体)に帰属する装置によって作成されたものであってもよい。例えば、サーバ200または動作指図装置300は、すべてのユーザおよびユーザ端末についての情報を把握しているので、動作指図データを作成し、アプリケーション起動中のユーザ端末にマルチキャスト送信することが可能である。したがって、ユーザ端末100は、マルチキャスト送信された動作指図データを、ゲームマスターによって作成されたものであると判断することができる。   It is considered that the operation instruction data transmitted by multicast is created by the game master, not by a specific user. Specifically, the above-mentioned operation instruction data may be created by a device belonging to a provider (operating organization) that provides the service of this game in the game system 1. For example, the server 200 or the operation command device 300 knows the information about all the users and the user terminals, so that it is possible to create the operation command data and perform the multicast transmission to the user terminal in which the application is running. Therefore, the user terminal 100 can determine that the operation instruction data transmitted by multicast is created by the game master.

本実施形態では、解析部116は、一例として、以下の機能を有していてもよい。具体的には、解析部116は、マルチキャスト送信された動作指図データをレンダリングする。そして、解析部116は、レンダリングの結果に基づいてキャラクタを動作させるように、ゲーム進行部115に指示する。より好ましくは、解析部116は、マルチキャスト送信された動作指図データが受信されたことをトリガにして、該動作指図データをリアルタイムにレンダリングする。続けて、解析部116は、レンダリングの結果に基づいてキャラクタを動作させるように、ゲーム進行部115に指示する。   In the present embodiment, the analysis unit 116 may have the following functions as an example. Specifically, the analysis unit 116 renders the operation instruction data transmitted by multicast. Then, the analysis unit 116 instructs the game progression unit 115 to move the character based on the rendering result. More preferably, the analysis unit 116 renders the operation instruction data in real time, triggered by reception of the operation instruction data transmitted by multicast. Subsequently, the analysis unit 116 instructs the game progression unit 115 to move the character based on the rendering result.

別の実施形態では、解析部116は、上述の機能に代えて、あるいは、加えて、以下の機能を有していてもよい。具体的には、解析部116は、ユニキャスト送信された動作指図データであって、例えば、ユーザIDまたはユーザ端末IDなどの特定のユーザに関連する情報が紐付けられていない動作指図データをレンダリングする。そして、解析部116は、レンダリングの結果に基づいてキャラクタを動作させるように、ゲーム進行部115に指示する。より好ましくは、解析部116は、動作指図データがユニキャスト送信されたものであると判断した場合には、該動作指図データの作成元情報に基づいて、該動作指図データが特定のユーザ端末によって作成されたものかどうか判断する。例えば、作成元情報として、特定のユーザに関連する情報が紐付けられている動作指図データについて、解析部116は、特定のユーザ端末によって作成されたものであると判断する。作成元情報の値が空である動作指図データ、および、そもそも作成元情報が紐付けられていない動作指図データについて、解析部116は、特定のユーザ端末によって作成されたものではないと判断する。特定のユーザ端末によって作成されたものではない動作指図データは、ゲームマスターによって作成されたものと考えられる。   In another embodiment, the analysis unit 116 may have the following functions instead of or in addition to the above functions. Specifically, the analysis unit 116 renders motion instruction data that has been unicast transmitted, for example, motion instruction data that is not associated with information related to a specific user such as a user ID or a user terminal ID. To do. Then, the analysis unit 116 instructs the game progression unit 115 to move the character based on the rendering result. More preferably, when the analysis unit 116 determines that the operation instruction data is transmitted by unicast, the operation instruction data is transmitted by a specific user terminal based on the source information of the operation instruction data. Determine if it was created. For example, the analysis unit 116 determines that the action instruction data associated with the information related to the specific user as the creation source information is created by the specific user terminal. The analysis unit 116 determines that the action instruction data in which the value of the creation source information is empty and the action instruction data that is not associated with the creation source information in the first place are not created by a specific user terminal. The motion instruction data that is not created by the specific user terminal is considered to be created by the game master.

解析部116は、ユニキャスト送信された、特定のユーザの関連情報が作成元情報として紐付けられていない動作指図データを受信したことをトリガにして、該動作指図データをリアルタイムにレンダリングする。続けて、解析部116は、レンダリングの結果に基づいてキャラクタを動作させるように、ゲーム進行部115に指示する。   The analysis unit 116 renders the motion instruction data in real time, triggered by the reception of the motion instruction data that is unicast-transmitted and is not associated with the related information of the specific user as the creation source information. Subsequently, the analysis unit 116 instructs the game progression unit 115 to move the character based on the rendering result.

これにより、ユーザ端末100は、ゲームマスターから配信された動作指図データに基づいて、キャラクタを、該ゲームマスターの意図を反映してリアルタイムに動作させることができる。そのため、キャラクタがまるでそこに本当に存在しているかのような現実感を、該キャラクタに備えさせることができる。   Thereby, the user terminal 100 can move the character in real time based on the operation instruction data distributed from the game master, reflecting the intention of the game master. Therefore, the character can be provided with a sense of reality as if the character really exists there.

<処理フロー>
図11は、本実施形態に係るユーザ端末100が実行する、動作指図データを解析する処理の流れを示すフローチャートである。本実施形態では、ゲームシステム1の各装置が実行する処理は、図10に示す処理とほぼ同様である。ステップS114にて、ユーザ端末100は、以下に示すとおり、動作指図データを解析する。
<Processing flow>
FIG. 11 is a flowchart showing a flow of processing for analyzing operation instruction data, which is executed by the user terminal 100 according to the present embodiment. In the present embodiment, the process executed by each device of the game system 1 is almost the same as the process shown in FIG. In step S114, the user terminal 100 analyzes the motion instruction data, as shown below.

ステップS201にて、解析部116は、動作指図データの項目「宛先」から宛先指定情報を取得する。   In step S201, the analysis unit 116 acquires the destination designation information from the item “destination” of the action instruction data.

ステップS202にて、解析部116は、宛先指定情報に基づいて、該動作指図データが、マルチキャストで送信されたものか否かを判断する。宛先指定情報がグループ識別子(例えば、「ALL」など)を指している場合には、解析部116は、該動作指図データがマルチキャストで送信されたものであると判断する。そして、解析部116は、ステップS202のYESから、図10に示すステップS115以降に進む。すなわち、ゲーム進行部115は、マルチキャストで送信された動作指図データが自端末において受信されたことをトリガにして、該動作指図データに基づいてキャラクタをリアルタイムで動作させる。一方、宛先指定情報が自端末のアドレスを指している場合には、解析部116は、該動作指図データが、ユニキャストで送信されたものであると判断する。本実施形態では、解析部116は、ユニキャストで送信されたものは、リアルタイムで再生する必要はないと判断し、受信した動作指図データを記憶部120に保存して、図10に示すステップS103以降に戻ってもよい。ステップS103では、例えば、ゲーム進行部115は、ユーザ端末100に入力されたユーザの入力操作に応じてキャラクタを動作させるパートを進行させてもよい。別の実施形態では、ユニキャストで送信された動作指図データが受信された場合には、解析部116は、ステップS202のNOからステップS203に進んでもよい。   In step S202, analysis unit 116 determines, based on the destination designation information, whether the operation instruction data has been transmitted by multicast. When the destination designation information points to a group identifier (for example, “ALL”), the analysis unit 116 determines that the operation instruction data has been transmitted by multicast. Then, the analysis unit 116 proceeds from YES in step S202 to step S115 and subsequent steps shown in FIG. That is, the game progression unit 115 causes the character to move in real time based on the action instruction data, triggered by the fact that the action instruction data transmitted by multicast is received by the terminal itself. On the other hand, when the destination designation information indicates the address of the own terminal, the analysis unit 116 determines that the operation instruction data is transmitted by unicast. In the present embodiment, the analysis unit 116 determines that the unicast transmission is not required to be reproduced in real time, saves the received operation instruction data in the storage unit 120, and performs step S103 illustrated in FIG. You may return later. In step S103, for example, the game progression unit 115 may advance the part in which the character is operated according to the user's input operation input to the user terminal 100. In another embodiment, when the operation instruction data transmitted by unicast is received, the analysis unit 116 may proceed from NO in step S202 to step S203.

ステップS203にて、解析部116は、該動作指図データの項目「作成元」から、作成元情報を取得する。   In step S203, the analysis unit 116 acquires the creator information from the item "creator" of the action instruction data.

ステップS204にて、解析部116は、作成元情報が特定のユーザに関連するユーザ関連情報を指しているか否かを判断する。ユーザ関連情報は、例えば、ユーザID、ユーザ端末100の端末ID、ユーザ端末100のアドレスなどである。作成元情報が、特定のユーザのユーザ関連情報でない場合、解析部116は、該動作指図データが、特定のユーザによって作成されたものではなく、ゲームマスターによって作成されたものであると判断する。そして、解析部116は、ステップS204のNOから、図10に示すステップS115以降に進む。すなわち、ゲーム進行部115が、ユーザ関連情報が紐付けられていない動作指図データが自端末において受信されたことをトリガにして、該動作指図データに基づいてキャラクタをリアルタイムで動作させる。一方、作成元情報が、特定のユーザのユーザ関連情報である場合、解析部116は、該動作指図データが、特定のユーザによって作成されたものであると判断する。したがって、解析部116は、ゲームマスターから供給された動作指図データではないので、リアルタイムで再生する必要はないと判断し、ステップS204のYESからステップS205に進む。   In step S204, analysis unit 116 determines whether or not the creation source information points to the user-related information related to the specific user. The user-related information is, for example, the user ID, the terminal ID of the user terminal 100, the address of the user terminal 100, or the like. When the creation source information is not the user-related information of the specific user, the analysis unit 116 determines that the motion instruction data is not created by the specific user but created by the game master. Then, the analysis unit 116 proceeds from NO in step S204 to step S115 and subsequent steps shown in FIG. That is, the game progression unit 115 causes the character to move in real time based on the action instruction data, triggered by the fact that the action instruction data not associated with the user-related information is received by the terminal itself. On the other hand, when the creation source information is the user-related information of the specific user, the analysis unit 116 determines that the operation instruction data is created by the specific user. Therefore, the analysis unit 116 determines that it is not necessary to reproduce in real time because it is not the operation instruction data supplied from the game master, and proceeds from YES in step S204 to step S205.

ステップS205にて、解析部116は、特定のユーザによって作成された動作指図データを記憶部120に保存して、図10に示すステップS103以降に戻る。   In step S205, the analysis unit 116 saves the operation instruction data created by the specific user in the storage unit 120, and returns to step S103 and subsequent steps shown in FIG.

上述の構成および方法によれば、ユーザ端末100において、ユーザの入力操作に応じてキャラクタを動作させることに加えて、サーバ200または動作指図装置300から受信した動作指図データに基づいてキャラクタを動作させることができる。そのためキャラクタの動作は、型にはまらずに表現が大幅に広がる。これにより、ユーザは、キャラクタの動作を見て、該キャラクタがまるで現実の世界にいるかのような現実感を覚えることができる。そして、ユーザは、該キャラクタとの現実感が豊かなやりとりの体験を通じて、よりキャラクタに愛着を感じるので、該キャラクタを操作する別のパートもよりいっそう興味を持ってプレイすることができる。結果として、ゲームの世界への没入感を高め、該ゲームの興趣性を向上させるという効果を奏する。   According to the above configuration and method, in the user terminal 100, in addition to moving the character in response to the user's input operation, the character is also moved based on the motion instruction data received from the server 200 or the motion instruction device 300. be able to. Therefore, the motion of the character can be greatly expanded in its expression without going into the form. As a result, the user can see the motion of the character and feel as if the character were in the real world. Then, the user feels more attached to the character through the experience of interaction with the character having a high sense of reality, so that another part operating the character can be played with even more interest. As a result, the effect of increasing the immersive feeling in the game world and improving the fun of the game is achieved.

<変形例>
実施形態2の変形例において、解析部116は、宛先指定情報に基づいて、動作指図データがマルチキャスト送信されたか否かを判断するステップを省略し、動作指図データに特定のユーザのユーザ関連情報が紐付いているか否かを、作成元情報に基づいて判断するステップを実行してもよい。
<Modification>
In the modified example of the second embodiment, the analysis unit 116 omits the step of determining whether or not the operation instruction data is multicast-transmitted based on the destination designation information, and the operation instruction data includes the user-related information of the specific user. The step of determining whether or not they are linked may be executed based on the creation source information.

〔ソフトウェアによる実現例〕
制御部110の制御ブロック(特に、操作受付部111、表示制御部112、UI制御部113、アニメーション生成部114、ゲーム進行部115、解析部116および進捗情報生成部117)、制御部210の制御ブロック(特に、進行支援部211および共有支援部212)、ならびに、制御部310の制御ブロック(特に、操作受付部311、表示制御部312、UI制御部313、アニメーション生成部314、進捗模擬部315、キャラクタ制御部316および反応処理部317)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Control blocks of the control unit 110 (in particular, the operation reception unit 111, the display control unit 112, the UI control unit 113, the animation generation unit 114, the game progression unit 115, the analysis unit 116, and the progress information generation unit 117), and the control of the control unit 210. Blocks (in particular, the progress support unit 211 and sharing support unit 212) and control blocks of the control unit 310 (in particular, the operation reception unit 311, the display control unit 312, the UI control unit 313, the animation generation unit 314, the progress simulation unit 315. The character control unit 316 and the reaction processing unit 317 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or realized by software using a CPU (Central Processing Unit). You may.

後者の場合、制御部110、制御部210または制御部310、もしくは、これらのうち複数を備えた情報処理装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the control unit 110, the control unit 210 or the control unit 310, or an information processing device including a plurality of these units is a CPU that executes the instructions of a program that is software that realizes each function, the above-mentioned program, and various types. A ROM (Read Only Memory) or a storage device (these are referred to as a “recording medium”) in which data is recorded so that the data can be read by a computer (or a CPU), a RAM (Random Access Memory) for expanding the program, and the like are provided. .. Then, the computer (or CPU) reads the program from the recording medium and executes the program to achieve the object of the present invention. As the recording medium, a “non-transitory tangible medium”, for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

〔付記事項〕
本発明の一側面に係る内容を列記すると以下のとおりである。
[Appendix]
The contents according to one aspect of the present invention are listed below.

(項目1) ゲームプログラム(131)について説明した。本開示のある局面によると、ゲームプログラムは、プロセッサ(10)、メモリ(11)、操作部(通信IF13、入出力IF14、タッチスクリーン15、カメラ17、測距センサ18、入力部151など)を備えるコンピュータ(ユーザ端末100)により実行される。ゲームプログラムは、プロセッサに、ユーザおよび他のユーザのいずれもが操作しないノンプレイヤキャラクタ(以下、NPC)の動作を指定する動作指図データであって、前記メモリに予め記憶されている第1動作指図データに基づいて前記NPCを動作させ、前記操作部を介して入力された前記ユーザの入力操作に応じて第1パート(ストーリーパート)を進行させるステップ(S103)と、前記NPCの動作を制御するキャラクタ制御装置(動作指図装置300)から受信した第2動作指図データに基づいて前記NPCを動作させることにより第2パート(ライブ配信パート)を進行させるステップ(S115)と、を実行させる。   (Item 1) The game program (131) has been described. According to an aspect of the present disclosure, a game program includes a processor (10), a memory (11), an operation unit (communication IF 13, input / output IF 14, touch screen 15, camera 17, distance measuring sensor 18, input unit 151, etc.). It is executed by a computer provided (user terminal 100). The game program is motion instruction data that specifies, in the processor, a motion of a non-player character (hereinafter, NPC) that neither a user nor another user operates, and is a first motion instruction stored in advance in the memory. Operating the NPC based on the data, and advancing the first part (story part) according to the input operation of the user input through the operation unit (S103), and controlling the operation of the NPC. The step (S115) of advancing the second part (live distribution part) by operating the NPC based on the second operation instruction data received from the character control device (action instruction device 300) is executed.

上述の構成によれば、第1パートにおいて、予め用意された第1動作指図データに基づいてNPCを動作させることに加えて、キャラクタ制御装置から第2動作指図データを受信し、第2パートにおいて、第2動作指図データに基づいてNPCを動作させる。キャラクタ制御装置から受信した第2動作指図データに基づいてNPCを動作させることができるため、NPCの動作は、型にはまらずに表現が大幅に広がる。そのため、ユーザは、NPCとの関わり合いを通じて、該NPCがまるで現実の世界にいるかのような現実感を覚えることができる。結果として、ゲームの世界への没入感を高め、該ゲームの興趣性を向上させるという効果を奏する。   According to the above configuration, in the first part, in addition to operating the NPC based on the first action instruction data prepared in advance, the second action instruction data is received from the character control device, and in the second part. , NPC is operated based on the second operation instruction data. Since the NPC can be operated based on the second operation instruction data received from the character control device, the expression of the NPC operation is greatly expanded without becoming a model. Therefore, the user can feel the reality as if the NPC were in the real world through the interaction with the NPC. As a result, the effect of increasing the immersive feeling in the game world and improving the fun of the game is achieved.

(項目2) (項目1)において、第2パートを進行させるステップは、第2動作指図データに音声データが含まれている場合には、該音声データに基づいてNPCに発話させ、第2動作指図データにモーションデータが含まれている場合には、該モーションデータに基づいてNPCを動かす。これにより、キャラクタ制御装置において、オペレータなどによって作成された音声または動きを、コンピュータ(ユーザ端末100)で表示されるNPCの音声または動きに反映させることができる。結果として、NPCの表現が非常に豊かになり、NPCの現実感を高めることが可能となる。   (Item 2) In (Item 1), the step of advancing the second part is such that, if the second motion instruction data includes voice data, the NPC is caused to speak based on the voice data, and the second motion is performed. If the instruction data includes motion data, the NPC is moved based on the motion data. Thereby, in the character control device, the voice or movement created by the operator or the like can be reflected in the voice or movement of the NPC displayed on the computer (user terminal 100). As a result, the expression of NPC becomes very rich, and it becomes possible to enhance the reality of NPC.

(項目3) (項目1)または(項目2)において、第2パートを進行させるステップは、キャラクタ制御装置から第2動作指図データを受信したことをトリガにして、該第2動作指図データに基づいてNPCを動作させる。これにより、キャラクタ制御装置による制御にしたがいリアルタイムで動作するNPCをユーザに提示できる。   (Item 3) In (Item 1) or (Item 2), the step of advancing the second part is triggered by receiving the second action instruction data from the character control device, and is based on the second action instruction data. To operate the NPC. As a result, the NPC that operates in real time according to the control by the character control device can be presented to the user.

(項目4) (項目3)において、第2パートを進行させるステップは、キャラクタ制御装置または他の装置から予め指定された時刻に、第2動作指図データを受信する。これにより、ユーザは、リアルタイムに配信されたNPCの動画を見逃すことがなくなる。   (Item 4) In (Item 3), the step of advancing the second part receives the second motion instruction data from the character control device or another device at a time designated in advance. As a result, the user will not miss the NPC moving image delivered in real time.

(項目5) (項目1)から(項目4)までのいずれか1項目において、ゲームプログラムは、プロセッサに、第2パートの進行中に、操作部を介してコンピュータに入力されたユーザの入力操作の内容を、キャラクタ制御装置に送信するステップ(S118)と、入力操作の内容をキャラクタ制御装置に送信した後、該キャラクタ制御装置から第2動作指図データを受信するステップ(S119の後のS113)と、を実行させる。これにより、キャラクタ制御装置のオペレータは、ユーザの入力操作の内容を踏まえて、NPCの動作を決定することができる。オペレータは、動作(音声または動きなど)を、コンピュータ(ユーザ端末100)で表示されるNPCの発話または動きに反映させることができる。したがって、ユーザは、NPCとのやりとりを、現実の人とのやりとりと同様に楽しむことができ、NPCの現実感がより一層高まる。   (Item 5) In any one of (Item 1) to (Item 4), the game program causes the processor to input an operation input to the computer via the operation unit by the user while the second part is in progress. The step of transmitting the contents of the above to the character control device (S118) and the step of transmitting the contents of the input operation to the character control device and then receiving the second action instruction data from the character control device (S113 after S119). And execute. Thereby, the operator of the character control device can determine the operation of the NPC based on the content of the input operation by the user. The operator can reflect the action (voice or movement) on the utterance or the movement of the NPC displayed on the computer (user terminal 100). Therefore, the user can enjoy interacting with the NPC in the same way as interacting with a real person, and the sense of reality of the NPC is further enhanced.

(項目6) (項目5)において、受信するステップは、入力操作の内容をキャラクタ制御装置が受信した後該キャラクタ制御装置に入力された、NPCの発言に対応する音声データを、第2動作指図データとして受信してもよい。これにより、リアルタイムに、NPCとのインタラクティブなやりとり(例えば、会話)を実現できる。   (Item 6) In (Item 5), the step of receiving is that the character control device receives the voice data corresponding to the utterance of the NPC, which is input to the character control device after the character control device receives the second operation instruction. It may be received as data. This makes it possible to realize an interactive exchange (for example, a conversation) with the NPC in real time.

(項目7) (項目5)または(項目6)において、受信するステップは、入力操作の内容をキャラクタ制御装置が受信した後該キャラクタ制御装置に入力された、NPCの動きに対応するモーションキャプチャデータを、第2動作指図データとして受信してもよい。これにより、NPCとのリアルタイムでインタラクティブなやりとりを実現し、NPCの動きをそれに合わせることができる。   (Item 7) In (Item 5) or (Item 6), the step of receiving is the motion capture data corresponding to the movement of the NPC, which is input to the character control device after the content of the input operation is received by the character control device. May be received as the second motion instruction data. As a result, real-time interactive interaction with the NPC can be realized and the movement of the NPC can be adjusted accordingly.

(項目8) (項目5)または(項目6)において、受信するステップは、入力操作の内容をキャラクタ制御装置が受信した後該キャラクタ制御装置に入力された入力操作により特定された、NPCの動作を指示するコマンドを1以上含むモーションコマンド群を、第2動作指図データとして受信してもよい。これにより、NPCとのリアルタイムでインタラクティブなやりとりを実現し、NPCの動きをそれに合わせることができる。   (Item 8) In (Item 5) or (Item 6), the step of receiving is the action of the NPC specified by the input operation input to the character control device after the content of the input operation is received by the character control device. A motion command group including one or more commands instructing may be received as the second motion instruction data. As a result, real-time interactive interaction with the NPC can be realized and the movement of the NPC can be adjusted accordingly.

(項目9) (項目5)から(項目8)までのいずれか1項目において、受信するステップは、ユーザの入力操作の内容に応じて生成された音声データおよびモーションデータを含む第2動作指図データを受信し、第2パートを進行させるステップは、受信された第2動作指図データに含まれる音声データに基づいてNPCに発話させるともに、モーションデータに基づいてNPCを動かすことにより、ユーザの入力操作に対するNPCの反応をユーザに提示してもよい。これにより、NPCとのリアルタイムでインタラクティブなやりとりを実現することが可能となる。   (Item 9) In any one of the items (Item 5) to (Item 8), the step of receiving is the second action instruction data including voice data and motion data generated according to the content of the input operation by the user. And the step of advancing the second part is performed by causing the NPC to speak based on the voice data included in the received second operation instruction data and moving the NPC based on the motion data, thereby performing an input operation by the user. The NPC's response to may be presented to the user. This enables real-time interactive interaction with the NPC.

(項目10) (項目1)から(項目9)までのいずれか1項目において、第1パートを進行させるステップは、ユーザの入力操作に基づいて、第1パートのプレイ結果を決定し(図8)、第2パートを進行させるステップは、第1パートのプレイ結果に応じた表示態様にて、第2動作指図データに基づいて動作させるNPCを表示部(152)に表示させ(図9)てもよい。   (Item 10) In any one of (Item 1) to (Item 9), the step of advancing the first part determines the play result of the first part based on the input operation by the user (see FIG. 8). ), In the step of advancing the second part, the NPC to be operated based on the second operation instruction data is displayed on the display unit (152) in a display mode according to the play result of the first part (FIG. 9). Good.

(項目11) ゲームプログラム(131)について説明した。本開示のある局面によると、ゲームプログラムは、プロセッサ(10)、メモリ(11)、操作部(通信IF13、入出力IF14、タッチスクリーン15、カメラ17、測距センサ18、入力部151など)を備えるコンピュータ(ユーザ端末100)により実行される。ゲームプログラムは、プロセッサに、操作部を介してコンピュータに入力されたユーザの入力操作に応じてキャラクタを動作させることにより第1パートを進行させるステップ(S103)と、キャラクタの動作を制御するキャラクタ制御装置(動作指図装置300)から受信した、キャラクタの動作を指定する動作指図データに基づいてキャラクタを動作させることにより第2パートを進行させるステップ(S115)とを実行させる。動作指図データは、音声データおよびモーションキャプチャデータの少なくともいずれか1つを含む。第2パートを進行させるステップでは、ユーザの入力操作の内容をキャラクタ制御装置に送信し(S118)、キャラクタ制御装置によって入力操作の内容が受信された後(S119)該キャラクタ制御装置から送信された動作指図データを受信し(S113)、動作指図データを受信したことをトリガにして、キャラクタを動作させる(S116)。(項目11)に係るゲームプログラムは、(項目1)に係るゲームプログラムと同様の作用効果を奏する。   (Item 11) The game program (131) has been described. According to an aspect of the present disclosure, a game program includes a processor (10), a memory (11), an operation unit (communication IF 13, input / output IF 14, touch screen 15, camera 17, distance measuring sensor 18, input unit 151, etc.). It is executed by a computer provided (user terminal 100). The game program causes the processor to advance the first part by operating the character in response to the user's input operation input to the computer via the operation unit (S103), and character control for controlling the character's operation. The step (S115) of advancing the second part by moving the character based on the motion instruction data that specifies the motion of the character received from the device (motion instruction device 300) is executed. The motion instruction data includes at least one of voice data and motion capture data. In the step of advancing the second part, the content of the user's input operation is transmitted to the character control device (S118), and after the content of the input operation is received by the character control device (S119), it is transmitted from the character control device. The action instruction data is received (S113), and the reception of the action instruction data is used as a trigger to move the character (S116). The game program according to (Item 11) has the same effects as the game program according to (Item 1).

(項目12) ゲームプログラム(131)について説明した。本開示のある局面によると、ゲームプログラムは、コンピュータ(ユーザ端末100)により実行される。コンピュータは、オペレータの操作にしたがって、キャラクタの動作内容を示す動作指図データを生成するキャラクタ制御装置(動作指図装置300)と通信可能に構成されている。ゲームプログラムは、コンピュータのプロセッサ(10)に、前記キャラクタ制御装置から配信される、ユーザおよび他のユーザのいずれもが操作対象としないノンプレイヤキャラクタ(以下、NPC)の動作内容を示す動作指図データを受信するステップ(S113)と、前記動作指図データを受信したことに応答して、前記動作指図データにしたがって前記NPCを動作させるステップ(S116)とを実行させる。(項目12)に係るゲームプログラムは、(項目1)に係るゲームプログラムと同様の作用効果を奏する。   (Item 12) The game program (131) has been described. According to an aspect of the present disclosure, a game program is executed by a computer (user terminal 100). The computer is configured to be communicable with a character control device (motion instruction device 300) that generates motion instruction data indicating the motion content of the character according to the operation of the operator. The game program is operation instruction data that is distributed from the character control device to the processor (10) of the computer and indicates the operation content of a non-player character (hereinafter, NPC) that neither the user nor other users operate on. Is received (S113), and in response to receiving the operation instruction data, the step (S116) of operating the NPC in accordance with the operation instruction data is executed. The game program according to (Item 12) has the same effects as the game program according to (Item 1).

(項目13) ゲームプログラムを実行する方法を説明した。本開示のある局面によると、ゲームプログラムは、プロセッサ、メモリおよび操作部を備えるコンピュータにより実行される。該方法は、プロセッサが(項目1)に記載の各ステップを実行する方法である。(項目13)に係る方法は、(項目1)に係るゲームプログラムと同様の作用効果を奏する。   (Item 13) The method of executing the game program has been described. According to an aspect of the present disclosure, a game program is executed by a computer including a processor, a memory, and an operation unit. The method is a method in which the processor executes the steps described in (Item 1). The method according to (Item 13) has the same effects as the game program according to (Item 1).

(項目14) 情報処理装置を説明した。本開示のある局面によると、該情報処理装置は、(項目1)に係るゲームプログラムを記憶する記憶部(120)と、操作部(例えば、通信IF13、入出力IF14、タッチスクリーン15、カメラ17、測距センサ18、入力部151など)と、該ゲームプログラムを実行することにより、情報処理装置(ユーザ端末100)の動作を制御する制御部(110)とを備える。(項目14)に係る情報処理装置は、(項目1)に係るゲームプログラムと同様の作用効果を奏する。   (Item 14) The information processing device has been described. According to an aspect of the present disclosure, the information processing apparatus includes a storage unit (120) that stores a game program according to (Item 1), an operation unit (for example, communication IF 13, input / output IF 14, touch screen 15, camera 17). , Distance measuring sensor 18, input unit 151, and the like), and a control unit (110) that controls the operation of the information processing device (user terminal 100) by executing the game program. The information processing device according to (Item 14) has the same effects as the game program according to (Item 1).

1 ゲームシステム、2 ネットワーク、10,20,30 プロセッサ、11,21,31 メモリ、12,22,32 ストレージ、13,23,33 通信IF(操作部)、14,24,34 入出力IF(操作部)、15,35 タッチスクリーン(表示部、操作部)、17 カメラ(操作部)、18 測距センサ(操作部)、100 ユーザ端末(コンピュータ、情報処理装置)、110,113,210,310 制御部、111,311 操作受付部、112,312 表示制御部、113,313 UI制御部、114,314 アニメーション生成部、115 ゲーム進行部、116 解析部、117 進捗情報生成部、120,220,320 記憶部、131 ゲームプログラム、132 ゲーム情報、133 ユーザ情報、134 キャラクタ制御プログラム、151,351 入力部(操作部)、152,352 表示部、200 サーバ(コンピュータ)、211 進行支援部、212 共有支援部、300 動作指図装置(NPC制御装置、キャラクタ制御装置)、315 進捗模擬部、316 キャラクタ制御部、317 反応処理部、1010 物体、1020,3030 コントローラ、1030 記憶媒体、3010 マイク、3020 モーションキャプチャ装置 1 game system, 2 network, 10, 20, 30 processor, 11, 21, 31 memory, 12, 22, 32 storage, 13, 23, 33 communication IF (operation unit), 14, 24, 34 input / output IF (operation Part), 15, 35 touch screen (display part, operation part), 17 camera (operation part), 18 distance measuring sensor (operation part), 100 user terminal (computer, information processing device), 110, 113, 210, 310 Control unit, 111, 311 operation receiving unit, 112, 312 display control unit, 113, 313 UI control unit, 114, 314 animation generation unit, 115 game progress unit, 116 analysis unit, 117 progress information generation unit, 120, 220, 320 storage unit, 131 game program, 132 game information, 133 user information, 134 Character control program, 151, 351 input unit (operation unit), 152, 352 display unit, 200 server (computer), 211 progress support unit, 212 sharing support unit, 300 motion instruction device (NPC control device, character control device), 315 progress simulation unit, 316 character control unit, 317 reaction processing unit, 1010 object, 1020, 3030 controller, 1030 storage medium, 3010 microphone, 3020 motion capture device

Claims (14)

ゲームプログラムであって、
前記ゲームプログラムは、プロセッサ、メモリおよび操作部を備えるコンピュータにより実行されるものであり、
前記ゲームプログラムは、前記プロセッサに、
ユーザおよび他のユーザのいずれもが操作しないノンプレイヤキャラクタ(以下、NPC)の動作を指定する動作指図データであって、前記メモリに予め記憶されている第1動作指図データに基づいて前記NPCを動作させ、前記操作部を介して入力された前記ユーザの入力操作に応じて第1パートを進行させるステップと、
前記NPCの動作を制御するキャラクタ制御装置から受信した第2動作指図データに基づいて前記NPCを動作させることにより第2パートを進行させるステップと、
を実行させる、ゲームプログラム。
A game program,
The game program is executed by a computer including a processor, a memory and an operation unit,
The game program, in the processor,
It is motion instruction data that specifies the motion of a non-player character (hereinafter, NPC) that neither the user nor other users operate, and the NPC is controlled based on the first motion instruction data stored in advance in the memory. Operating and advancing the first part in accordance with the input operation of the user input through the operation unit,
Advancing the second part by operating the NPC based on second operation instruction data received from a character control device that controls the operation of the NPC;
A game program that executes.
前記第2パートを進行させるステップは、前記第2動作指図データに音声データが含まれている場合には、該音声データに基づいて前記NPCに発話させ、前記第2動作指図データにモーションデータが含まれている場合には、該モーションデータに基づいて前記NPCを動かす、請求項1に記載のゲームプログラム。   In the step of advancing the second part, when the second motion instruction data includes voice data, the NPC is caused to speak based on the voice data, and the second motion instruction data includes motion data. The game program according to claim 1, wherein, if included, the NPC is moved based on the motion data. 前記第2パートを進行させるステップは、前記キャラクタ制御装置から前記第2動作指図データを受信したことをトリガにして、該第2動作指図データに基づいて前記NPCを動作させる、請求項1または2に記載のゲームプログラム。   The step of advancing the second part is triggered by reception of the second action instruction data from the character control device, and causes the NPC to act based on the second action instruction data. The game program described in. 前記第2パートを進行させるステップは、前記キャラクタ制御装置または他の装置から予め指定された時刻に、前記第2動作指図データを受信する、請求項3に記載のゲームプログラム。   The game program according to claim 3, wherein the step of advancing the second part receives the second action instruction data from the character control device or another device at a predetermined time. 前記ゲームプログラムは、前記プロセッサに、
前記第2パートの進行中に、前記操作部を介して前記コンピュータに入力された前記ユーザの入力操作の内容を、前記キャラクタ制御装置に送信するステップと、
前記入力操作の内容を前記キャラクタ制御装置に送信した後、該キャラクタ制御装置から第2動作指図データを受信するステップと、
を実行させる、請求項1から4のいずれか1項に記載のゲームプログラム。
The game program, in the processor,
Transmitting the content of the user's input operation input to the computer through the operation unit during the progress of the second part to the character control device;
Transmitting the content of the input operation to the character control device, and then receiving second action instruction data from the character control device,
The game program according to any one of claims 1 to 4, which executes the program.
前記受信するステップは、前記入力操作の内容を前記キャラクタ制御装置が受信した後該キャラクタ制御装置に入力された、前記NPCの発言に対応する音声データを、前記第2動作指図データとして受信する、請求項5に記載のゲームプログラム。   In the receiving step, the voice data corresponding to the utterance of the NPC, which is input to the character control device after the content of the input operation is received by the character control device, is received as the second action instruction data, The game program according to claim 5. 前記受信するステップは、前記入力操作の内容を前記キャラクタ制御装置が受信した後該キャラクタ制御装置に入力された、前記NPCの動きに対応するモーションキャプチャデータを、前記第2動作指図データとして受信する、請求項5または6に記載のゲームプログラム。   In the receiving step, the motion capture data corresponding to the movement of the NPC, which is input to the character control device after the content of the input operation is received by the character control device, is received as the second motion instruction data. The game program according to claim 5 or 6. 前記受信するステップは、前記入力操作の内容を前記キャラクタ制御装置が受信した後該キャラクタ制御装置に入力された入力操作により特定された、前記NPCの動作を指示するコマンドを1以上含むモーションコマンド群を、前記第2動作指図データとして受信する、請求項5または6に記載のゲームプログラム。   The receiving step includes a group of motion commands including one or more commands for instructing an operation of the NPC, which is specified by an input operation input to the character control device after the content of the input operation is received by the character control device. 7. The game program according to claim 5, wherein the game program is received as the second action instruction data. 前記受信するステップは、前記ユーザの入力操作の内容に応じて生成された音声データおよびモーションデータを含む第2動作指図データを受信し、
前記第2パートを進行させるステップは、受信された前記第2動作指図データに含まれる前記音声データに基づいて前記NPCに発話させるともに、前記モーションデータに基づいて前記NPCを動かすことにより、前記ユーザの入力操作に対する前記NPCの反応を前記ユーザに提示する、請求項5から8までのいずれか1項に記載のゲームプログラム。
The step of receiving receives second operation instruction data including voice data and motion data generated according to the content of the input operation of the user,
In the step of advancing the second part, the NPC is caused to speak based on the voice data included in the received second operation command data, and the NPC is moved based on the motion data, whereby the user The game program according to any one of claims 5 to 8, which presents to the user a reaction of the NPC to the input operation of.
前記第1パートを進行させるステップは、前記ユーザの入力操作に基づいて、前記第1パートのプレイ結果を決定し、
前記第2パートを進行させるステップは、前記第1パートのプレイ結果に応じた表示態様にて、前記第2動作指図データに基づいて動作させる前記NPCを表示部に表示させる、請求項1から9のいずれか1項に記載のゲームプログラム。
The step of advancing the first part determines a play result of the first part based on an input operation by the user,
The step of advancing the second part causes the display unit to display the NPC to be operated based on the second operation instruction data in a display mode according to a play result of the first part. The game program according to any one of 1.
ゲームプログラムであって、
前記ゲームプログラムは、プロセッサ、メモリおよび操作部を備えるコンピュータにより実行されるものであり、
前記ゲームプログラムは、前記プロセッサに、
前記操作部を介して前記コンピュータに入力されたユーザの入力操作に応じてキャラクタを動作させることにより第1パートを進行させるステップと、
前記キャラクタの動作を制御するキャラクタ制御装置から受信した、前記キャラクタの動作を指定する動作指図データに基づいて前記キャラクタを動作させることにより第2パートを進行させるステップとを実行させ、
前記動作指図データは、音声データおよびモーションキャプチャデータの少なくともいずれか1つを含み、
前記第2パートを進行させるステップでは、
前記ユーザの入力操作の内容を前記キャラクタ制御装置に送信し、
前記キャラクタ制御装置によって前記入力操作の内容が受信された後該キャラクタ制御装置から送信された前記動作指図データを受信し、
前記動作指図データを受信したことをトリガにして、前記キャラクタを動作させる、ゲームプログラム。
A game program,
The game program is executed by a computer including a processor, a memory and an operation unit,
The game program, in the processor,
Advancing the first part by operating a character in response to a user's input operation input to the computer via the operation unit;
Performing a step of advancing the second part by operating the character based on motion instruction data that specifies the motion of the character received from the character control device that controls the motion of the character,
The operation instruction data includes at least one of voice data and motion capture data,
In the step of advancing the second part,
Send the contents of the user's input operation to the character control device,
After receiving the contents of the input operation by the character control device, receiving the action instruction data transmitted from the character control device,
A game program for causing the character to move, triggered by receiving the action instruction data.
コンピュータにより実行されるゲームプログラムであって、
前記コンピュータは、オペレータの操作にしたがって、キャラクタの動作内容を示す動作指図データを生成するキャラクタ制御装置と通信可能に構成されており、
前記ゲームプログラムは、前記コンピュータのプロセッサに、
前記キャラクタ制御装置から配信される、ユーザおよび他のユーザのいずれもが操作対象としないノンプレイヤキャラクタ(以下、NPC)の動作内容を示す動作指図データを受信するステップと、
前記動作指図データを受信したことに応答して、前記動作指図データにしたがって前記NPCを動作させるステップとを実行させる、プログラム。
A game program executed by a computer,
The computer is configured to be communicable with a character control device that generates motion instruction data indicating the motion content of the character according to the operation of the operator,
The game program, the processor of the computer,
Receiving action instruction data distributed from the character control device, the action instruction data indicating the action content of a non-player character (hereinafter, NPC) which is not operated by either a user or another user,
And a step of operating the NPC according to the operation instruction data in response to receiving the operation instruction data.
コンピュータがゲームプログラムを実行する方法であって、
前記コンピュータは、プロセッサ、メモリおよび操作部を備え、
前記プロセッサが請求項1に記載の各ステップを実行する方法。
A method for a computer to execute a game program, the method comprising:
The computer includes a processor, a memory and an operation unit,
A method by which the processor performs the steps of claim 1.
情報処理装置であって、
前記情報処理装置は、
請求項1に記載のゲームプログラムを記憶する記憶部と、
操作部と、
該ゲームプログラムを実行することにより、情報処理装置の動作を制御する制御部とを備えている、情報処理装置。
An information processing device,
The information processing device,
A storage unit for storing the game program according to claim 1;
Operation part,
An information processing apparatus, comprising: a control unit that controls the operation of the information processing apparatus by executing the game program.
JP2019173626A 2019-09-25 2019-09-25 Game programs, methods, and information processing equipment Active JP7078585B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019173626A JP7078585B2 (en) 2019-09-25 2019-09-25 Game programs, methods, and information processing equipment
JP2022082036A JP7386927B2 (en) 2019-09-25 2022-05-19 Program, method, and information processing device
JP2023193542A JP2024020384A (en) 2019-09-25 2023-11-14 Programs and delivery systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173626A JP7078585B2 (en) 2019-09-25 2019-09-25 Game programs, methods, and information processing equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018102679A Division JP6595043B1 (en) 2018-05-29 2018-05-29 GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022082036A Division JP7386927B2 (en) 2019-09-25 2022-05-19 Program, method, and information processing device

Publications (3)

Publication Number Publication Date
JP2020072804A true JP2020072804A (en) 2020-05-14
JP2020072804A5 JP2020072804A5 (en) 2021-08-12
JP7078585B2 JP7078585B2 (en) 2022-05-31

Family

ID=70610445

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019173626A Active JP7078585B2 (en) 2019-09-25 2019-09-25 Game programs, methods, and information processing equipment
JP2022082036A Active JP7386927B2 (en) 2019-09-25 2022-05-19 Program, method, and information processing device
JP2023193542A Pending JP2024020384A (en) 2019-09-25 2023-11-14 Programs and delivery systems

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022082036A Active JP7386927B2 (en) 2019-09-25 2022-05-19 Program, method, and information processing device
JP2023193542A Pending JP2024020384A (en) 2019-09-25 2023-11-14 Programs and delivery systems

Country Status (1)

Country Link
JP (3) JP7078585B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11319322A (en) * 1998-05-20 1999-11-24 Sega Enterp Ltd Game device and recording medium recording game processing method and program
JP2002052256A (en) * 2000-08-07 2002-02-19 Konami Co Ltd Supporting device of game winning, terminal device, and recording medium
JP2010246650A (en) * 2009-04-13 2010-11-04 Square Enix Co Ltd Game device, method of advancing game, and game program
JP2014008067A (en) * 2012-06-27 2014-01-20 Namco Bandai Games Inc Program, storage medium, terminal device, and server system
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2018011850A (en) * 2016-07-22 2018-01-25 株式会社タイトー Moving image recording device, moving image distribution method, and program
JP2018033107A (en) * 2016-08-26 2018-03-01 株式会社holo Video distribution device and distribution method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018011138A (en) 2016-07-11 2018-01-18 株式会社サイバーエージェント Video distribution system and video distribution method
JP6809830B2 (en) 2016-07-13 2021-01-06 株式会社バンダイナムコエンターテインメント Programs and electronics

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11319322A (en) * 1998-05-20 1999-11-24 Sega Enterp Ltd Game device and recording medium recording game processing method and program
JP2002052256A (en) * 2000-08-07 2002-02-19 Konami Co Ltd Supporting device of game winning, terminal device, and recording medium
JP2010246650A (en) * 2009-04-13 2010-11-04 Square Enix Co Ltd Game device, method of advancing game, and game program
JP2014008067A (en) * 2012-06-27 2014-01-20 Namco Bandai Games Inc Program, storage medium, terminal device, and server system
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2018011850A (en) * 2016-07-22 2018-01-25 株式会社タイトー Moving image recording device, moving image distribution method, and program
JP2018033107A (en) * 2016-08-26 2018-03-01 株式会社holo Video distribution device and distribution method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"『ファンタシースターオンライン2』小林幸子さん、『PSO2』に降臨! 「地球親善大使」として、8月中旬、圧", セガ 製品情報サイト [ONLINE], JPN6022015234, 15 June 2016 (2016-06-15), ISSN: 0004753261 *
"GM", FF14 ONLINE WIKI [ONLINE], JPN6022015235, 6 July 2017 (2017-07-06), ISSN: 0004753260 *

Also Published As

Publication number Publication date
JP7386927B2 (en) 2023-11-27
JP7078585B2 (en) 2022-05-31
JP2022107658A (en) 2022-07-22
JP2024020384A (en) 2024-02-14

Similar Documents

Publication Publication Date Title
JP7349348B2 (en) Character control program, method, and information processing device
JP7170077B2 (en) program
JP6796115B2 (en) Game programs, game methods, and information processing equipment
JP6595043B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP7344948B2 (en) system
JP6672380B2 (en) Game program, character control program, method, and information processing device
JP6785325B2 (en) Game programs, methods, and information processing equipment
JP6826573B2 (en) Game programs, methods, and information processing equipment
JP2020110376A (en) Game program, method, and information processing device
JP6639561B2 (en) Game program, method, and information processing device
JP7078585B2 (en) Game programs, methods, and information processing equipment
JP6923726B1 (en) Methods, computer-readable media, and information processing equipment
JP7258923B2 (en) program
JP7095006B2 (en) Game programs, character control programs, methods, and information processing equipment
WO2022137340A1 (en) Information processing method, computer-readable medium, and information processing device
WO2022137376A1 (en) Method, computer-readable medium, and information processing device
WO2022137343A1 (en) Information processing method, computer-readable medium, and information processing device
JP2020110449A (en) Game program, method, and information processing device
JP2021045557A (en) Game program, game method, and information processing device
WO2022113330A1 (en) Method, computer-readable medium, and information processing device
WO2022113335A1 (en) Method, computer-readable medium, and information processing device
JP2021037302A (en) Game program, method, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220519

R150 Certificate of patent or registration of utility model

Ref document number: 7078585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150