JP2022138642A - Game system, computer program used for the same and control method - Google Patents

Game system, computer program used for the same and control method Download PDF

Info

Publication number
JP2022138642A
JP2022138642A JP2021038638A JP2021038638A JP2022138642A JP 2022138642 A JP2022138642 A JP 2022138642A JP 2021038638 A JP2021038638 A JP 2021038638A JP 2021038638 A JP2021038638 A JP 2021038638A JP 2022138642 A JP2022138642 A JP 2022138642A
Authority
JP
Japan
Prior art keywords
character
action
performance
user
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021038638A
Other languages
Japanese (ja)
Inventor
祐 佐原
Yu Sahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2021038638A priority Critical patent/JP2022138642A/en
Priority to CN202280019694.6A priority patent/CN116997395A/en
Priority to PCT/JP2022/009922 priority patent/WO2022191170A1/en
Priority to KR1020237029469A priority patent/KR20230136648A/en
Publication of JP2022138642A publication Critical patent/JP2022138642A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat

Abstract

To provide a game system which can evaluate the performance by a plurality of characters from the view point of a performer of the performance.SOLUTION: An HMD-type game machine 4 provides a music game including a playing performance executed by a plurality of character images 54 including a third character image 54C operated by a user. The HMD-type game machine 4, when a pressing operation or the like for executing thumb-up or the like as an evaluation action executed so as to be added to the playing performance to a second character image 54B from the third character image 54C is executed with a touch button TB or the like of an operation stick OS connected to the HMD-type game machine 4, evaluates the playing performance by the second character image 54B on the basis of the operation of the thumb-up or the like corresponding to the pressing operation or the like, and provides the evaluation result to each user.SELECTED DRAWING: Figure 6

Description

本発明は、各ユーザのプレイ行為を入力するための入力装置、及びプレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、そのゲーム画面を通じて複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム等に関する。 The present invention is connected to an input device for inputting a play action of each user and a display device for displaying a game screen on which a plurality of characters including at least one user character operated by each user through the play action are displayed. The present invention relates to a game system that provides a game including performances executed by a plurality of characters through the game screen.

各ユーザのプレイ行為を入力するための入力装置、及びプレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、そのゲーム画面を通じて複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムが存在する。このような複数のキャラクタ、及びパフォーマンスとして、各ユーザによってそれぞれ操作される多数のアバター、及び特定のアバターによって実行される一発芸等のパフォーマンスをそれぞれ利用する仮想空間を提供するヘッドマウントデバイス(HMD)型のユーザ端末が知られている(例えば特許文献1参照)。 It is connected to an input device for inputting the play action of each user and a display device for displaying a game screen on which a plurality of characters including at least one user character operated by each user through the play action are displayed, and the game Gaming systems exist that provide games that include performances performed by multiple characters through a screen. A head-mounted device (HMD) that provides a virtual space that uses multiple characters and performances such as a large number of avatars operated by each user, and performances such as one-shot tricks performed by specific avatars. ) type user terminal is known (see, for example, Patent Document 1).

特開2019-36239号公報JP 2019-36239 A

特許文献1の仮想空間では、特定のアバターによるパフォーマンスは他のアバターを介してそれぞれ複数のユーザ(そのパフォーマンスを視聴する観客)によって視聴され、笑った観客の人数がそのパフォーマンスの評価値として算出される。つまり、特定のアバターによるパフォーマンスは、観客というそのパフォーマンスの実行者とは別のユーザによって評価されている。 In the virtual space of Patent Document 1, a performance by a specific avatar is viewed by a plurality of users (spectators viewing the performance) via other avatars, and the number of spectators who laugh is calculated as an evaluation value of the performance. be. In other words, the performance by a particular avatar is evaluated by the audience, a user other than the performer of the performance.

一方、パフォーマンスが複数のキャラクタによって実行される場合、そのパフォーマンスを実行している実行者にしか評価できない要素が存在する。例えば、他のキャラクタによるパフォーマンスの部分に自分のパフォーマンスと親和性があるか、或いはシンクロ性があるかといった要素が実行者にとって重要な場合もあるが、これらはパフォーマンスを一緒に実行している実行者にしか評価できない。しかし、特許文献1の仮想空間はパフォーマンスを一緒に実行する実行者がそのパフォーマンスにおける他の実行者のパフォーマンス部分を評価する構成ではない。そもそもパフォーマンスとは別の行動として評価のために実行者によって実行される行動が許容される構成か否かも明らかではない。少なくとも特許文献1の仮想空間において、それらの構成を備える必要性はない。 On the other hand, when a performance is performed by multiple characters, there are elements that can only be evaluated by the performer performing the performance. For example, elements such as whether the part of the performance by another character has an affinity with one's own performance or whether there is synchronicity may be important for the performer, but these are the executions performing the performance together. can only be evaluated by However, the virtual space of Patent Literature 1 is not a configuration in which performers performing performance together evaluate the performance portion of other performers in the performance. In the first place, it is not clear whether the action performed by the executor for the purpose of evaluation as a separate action from the performance is permissible or not. At least in the virtual space of Patent Document 1, there is no need to have those configurations.

そこで、本発明は、複数のキャラクタによるパフォーマンスをそのパフォーマンスの実行者の視点から評価することができるゲームシステム等を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a game system or the like capable of evaluating the performance of a plurality of characters from the viewpoint of the performer of the performance.

本発明のゲームシステムは、各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムであって、前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手段と、前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手段と、を備えるものである。 A game system of the present invention displays an input device for inputting a play action of each user, and a game screen on which a plurality of characters including at least one user character operated by each user through the play action are displayed. A game system that is connected to a display device and provides a game including performances performed by the plurality of characters through the game screen, wherein the performance is added from the user character to other characters of the plurality of characters. an instruction evaluation for evaluating the performance by the other character based on the additional instruction action for causing the user character to perform the additional action executed as the play action, when the additional instruction action is executed as the play action means, and result providing means for providing each user with an evaluation result of the performance by the other character.

一方、本発明のコンピュータプログラムは、前記入力装置、及び前記表示装置に接続されるコンピュータを、上述のゲームシステムの各手段として機能させるように構成されたものである。 On the other hand, a computer program of the present invention is configured to cause a computer connected to the input device and the display device to function as each means of the game system described above.

また、本発明の制御方法は、各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムに組み込まれるコンピュータに、前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手順と、前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手順と、を実行させるものである。 Further, the control method of the present invention includes an input device for inputting a play action of each user, and a game screen on which a plurality of characters including at least one user character operated by each user through the play action are displayed. A computer that is connected to a display device for displaying and incorporated in a game system that provides a game including performances executed by the plurality of characters through the game screen, from the user character to another character among the plurality of characters. When an additional instructive action for causing the user character to perform an additional action to be executed in addition to the performance is executed as the play action, the performance by the other character is performed based on the additional instructive action. An instruction evaluation procedure for evaluation and a result providing procedure for providing each user with the evaluation result of the performance by the other character are executed.

本発明の一形態に係るゲームシステムの概略構成を示す図。1 is a diagram showing a schematic configuration of a game system according to one embodiment of the present invention; FIG. ゲームシステムの制御系の要部を示す機能ブロック図。FIG. 3 is a functional block diagram showing the essential parts of the control system of the game system; ゲーム画面の一例を模式的に示す図。The figure which shows an example of a game screen typically. 仮想三次元空間における各キャラクタの位置関係を説明するための説明図。FIG. 4 is an explanatory diagram for explaining the positional relationship of each character in the virtual three-dimensional space; 視界範囲が図4の例の右傾斜範囲に移動した場合のゲーム画面の一例を模式的に示す図。FIG. 5 is a diagram schematically showing an example of a game screen when the visual field range has moved to the right tilt range in the example of FIG. 4; 演奏パフォーマンスの評価の流れを説明するための説明図。Explanatory diagram for explaining the flow of performance evaluation. 連携アクションの一例を説明するための説明図。Explanatory drawing for demonstrating an example of a cooperation action. 応答アクションの一例を説明するための説明図。Explanatory drawing for demonstrating an example of a response action. 評価アクションに基づく演奏パフォーマンスの評価結果の一例を説明するための説明図。FIG. 4 is an explanatory diagram for explaining an example of performance performance evaluation results based on evaluation actions; 評価アクションに基づく演奏パフォーマンスの評価結果の他の例を説明するための説明図。FIG. 11 is an explanatory diagram for explaining another example of performance performance evaluation results based on evaluation actions; 演奏データの構成の一例を示す図。The figure which shows an example of a structure of performance data. 演奏選択処理の手順の一例を示すフローチャート。4 is a flowchart showing an example of the procedure of performance selection processing; 連携応答処理の手順の一例を示すフローチャート。4 is a flowchart showing an example of a procedure for cooperation response processing; パフォーマンス評価処理の手順の一例を示すフローチャート。4 is a flowchart showing an example of the procedure of performance evaluation processing; 演奏データ生成処理の手順の一例を示すフローチャート。4 is a flowchart showing an example of the procedure of performance data generation processing;

以下、本発明の一形態に係るゲームシステムの一例を説明する。まず、図1を参照して、本発明の一形態に係るゲームシステムの全体構成を説明する。ゲームシステム1は、サーバ装置としてのセンターサーバ2を含んでいる。なお、センターサーバ2は、複数のコンピュータ装置としてのサーバユニットが組み合わされることにより一台の論理的なサーバ装置として構成されてもよい。あるいは、クラウドコンピューティングを利用して論理的にセンターサーバ2が構成されてもよい。 An example of a game system according to one embodiment of the present invention will be described below. First, referring to FIG. 1, the overall configuration of a game system according to one embodiment of the present invention will be described. The game system 1 includes a center server 2 as a server device. Note that the center server 2 may be configured as one logical server device by combining server units as a plurality of computer devices. Alternatively, the center server 2 may be logically configured using cloud computing.

センターサーバ2には、ネットワーク3を介して接続可能なクライアント装置として一台、或いは複数台の適宜の数のゲーム装置が接続される。ゲーム装置は、アーケードゲーム機(アミューズメント店舗等の施設に設置され、所定の対価の支払いと引き換えにそのプレイ料金に対応した範囲でユーザにゲームをプレイさせる業務用ゲーム機)等の各種のゲーム機を適宜に含んでいてよいが、図1の例ではユーザ端末装置4が示されている。具体的には、センターサーバ2には、ゲーム装置の一例として、ネットワーク3を介して複数のユーザ端末装置4が接続されている。 An appropriate number of one or a plurality of game devices are connected to the center server 2 as client devices connectable via the network 3 . Game devices include arcade game machines (commercial game machines installed in facilities such as amusement stores that allow users to play games within a range corresponding to the play fee in exchange for payment of a predetermined consideration). , where user terminal 4 is shown in the example of FIG. Specifically, a plurality of user terminal devices 4 are connected to the center server 2 via the network 3 as an example of a game device.

ユーザ端末装置4は、ネットワーク接続が可能でかつユーザの個人用途に供されるコンピュータ装置である。ユーザ端末装置4は、各種のコンピュータソフトウエアを実装することにより、センターサーバ2が提供する種々のサービスをユーザに享受させることが可能である。このようなコンピュータソフトウエア(アプリケーション)には、有償或いは無償のゲームを提供するためのゲーム用のアプリケーションが含まれる。そして、ユーザ端末装置4は、そのようなゲーム用のアプリケーションの実行を通じて、ゲーム機として機能する。このようなユーザ端末装置4は、例えば、据置型又はブック型のパーソナルコンピュータ、据置型の家庭用ゲーム機、或いは携帯型タブレット端末装置や携帯電話(スマートフォンを含む。)等の各種モバイル端末装置を含んでいる。ユーザ端末装置4として、これらが適宜に利用されてよいが、図1の例ではHMD(ヘッドマウントディスプレイ、或いはヘッドマウントデバイス)型のゲーム機が利用されている。 The user terminal device 4 is a computer device that can be connected to a network and is used for personal use by the user. The user terminal device 4 can allow users to enjoy various services provided by the center server 2 by installing various computer software. Such computer software (applications) includes game applications for providing paid or free games. The user terminal device 4 functions as a game machine through the execution of such game applications. Such a user terminal device 4 is, for example, a stationary or book-type personal computer, a stationary home-use game machine, or various mobile terminal devices such as a portable tablet terminal device and a mobile phone (including a smart phone). contains. As the user terminal device 4, these may be used as appropriate, but in the example of FIG. 1, an HMD (head mounted display or head mounted device) type game machine is used.

HMD型のゲーム機は、ユーザの視界の大部分をディスプレイの表示面が占めるように頭部に装着されて使用される周知のゲーム装置である。HMD型のゲーム機には、例えばHMD型の専用のゲーム装置、携帯電話等の適宜のモバイル端末装置とユーザの視界を表示面に向けるようにそれを収容するケースとの組合せにより構成されるゲーム装置、及び眼球の奥に焦点が合うように映像を投影するメガネ型のプロジェクタ(いわゆるスマートグラス)が含まれる。また、HMD型の専用のゲーム装置には、タブレット端末装置、或いはスマートフォン等に接続され、それらのタブレット端末装置のアプリケーションを通じてゲーム機として機能する連動型のゲーム装置も含まれる。これらの各種のHMD型のゲーム機のいずれがユーザ端末装置4として利用されてもよい。以下、ユーザ端末装置4として機能するHMD型のゲーム機にはユーザ端末装置4と同様の符号を付して、HMD型のゲーム機4と呼ぶ場合がある。 The HMD type game machine is a well-known game machine worn on the head so that the display surface of the display occupies most of the user's field of view. The HMD type game machine includes, for example, a dedicated HMD type game device, a game composed of a combination of an appropriate mobile terminal device such as a mobile phone, and a case accommodating it so that the user's field of vision is directed toward the display surface. It includes a device and a glasses-type projector (so-called smart glasses) that projects an image so that the image is focused on the back of the eyeball. The HMD-type dedicated game device also includes an interlocking game device that is connected to a tablet terminal device, a smartphone, or the like and functions as a game machine through the application of the tablet terminal device. Any of these various HMD type game machines may be used as the user terminal device 4 . Hereinafter, an HMD-type game machine functioning as the user terminal device 4 may be denoted by the same reference numerals as the user terminal device 4 and may be referred to as an HMD-type game machine 4 .

HMD型のゲーム機4には、ユーザのプレイ行為を入力するための各種の入力装置が適宜に設けられる。例えば、HMD型のゲーム機4には、頭部の動作をプレイ行為として検知するセンサが内蔵され、そのセンサが入力装置として機能してもよい。あるいは、HMD型のゲーム機4とは別の装置が適宜の手法でHMD型のゲーム機4に接続され、その別の装置が入力装置として機能してもよい。このようにHMD型のゲーム機4には、各種の入力装置が適宜に設けられてよいが、このような入力装置として図1の例では操作スティックOSが設けられている。操作スティックOSは、所定の無線通信規格を通じてHMD型のゲーム機4に接続される周知の入力装置である。操作スティックOSは各種の操作(プレイ行為)の入力に使用されてよく、それに応じて適宜の数の操作スティックOSが各HMD型のゲーム機4に接続されてよいが、一例として左右の手でそれぞれ操作されるように各HMD型のゲーム機4には二つの操作スティックOS(図1ではそれらのうちの一つのみが示されている)がそれぞれ接続される。HMD型のゲーム機4は、このような操作スティックOSを介して入力されるプレイ行為を通じて進行するゲームを提供する。 The HMD-type game machine 4 is appropriately provided with various input devices for inputting user's play actions. For example, the HMD-type game machine 4 may incorporate a sensor that detects the movement of the head as a play action, and the sensor may function as an input device. Alternatively, a device other than the HMD type game machine 4 may be connected to the HMD type game machine 4 by an appropriate method, and the other device may function as an input device. As described above, the HMD type game machine 4 may be appropriately provided with various input devices, and in the example of FIG. 1, an operation stick OS is provided as such an input device. The operation stick OS is a well-known input device connected to the HMD-type game machine 4 through a predetermined wireless communication standard. The operation stick OS may be used for inputting various operations (play actions), and an appropriate number of operation stick OS may be connected to each HMD type game machine 4 accordingly. Two operation sticks OS (only one of them is shown in FIG. 1) are connected to each HMD type game machine 4 so as to be operated respectively. The HMD-type game machine 4 provides a game that progresses through play actions input via such an operation stick OS.

各操作スティックOSには、プレイ行為の一種としての操作が実行されるべき各種の操作部が適宜に設けられてよいが、図1の例ではタッチボタンTBが設けられている。タッチボタンTBは、ユーザの押す操作、或いは指をタッチする(接触させる)タッチ操作が実行される操作部である。つまり、押す操作或いはタッチ操作がプレイ行為の一種としてタッチボタンTBを介して実行される。 Each operation stick OS may be appropriately provided with various operation units on which an operation as a kind of play action is to be executed, and in the example of FIG. 1, a touch button TB is provided. The touch button TB is an operation unit on which a user's pressing operation or a touch operation of touching (contacting) a finger is performed. That is, a pressing operation or a touch operation is executed via the touch button TB as a kind of play action.

HMD型のゲーム機4は、各種のゲームを適宜に提供してよく、例えばアクションゲーム、シミュレーションゲーム、ロールプレイングゲーム等を提供してよいが、一例として音楽ゲームを提供する。音楽ゲームは、タイミングゲームの一種である。タイミングゲームは、適切なプレイ行為の実行時期を評価するタイプのゲームである。音楽ゲームの場合、その適切なプレイ行為を実行すべき実行時期が楽曲とともに提供される。また、音楽ゲームでは、楽曲のリズムと一致する時期が実行時期として利用される。つまり、音楽ゲームは、適切なプレイ行為を実行すべき時期を楽曲のリズムに合わせてユーザに案内し、実際にプレイ行為が実行された時期を評価するタイプのゲームである。また、例えば、音楽ゲームにはプレイ用に複数の楽曲が用意され、そこから選択された楽曲が実際のプレイに使用される。そのような音楽ゲームは、各種の出力装置を介して適宜に提供されてよいが、一例としてHMD型のゲーム機4のディスプレイに表示されるゲーム画面を通じて提供される。 The HMD-type game machine 4 may appropriately provide various games, such as an action game, a simulation game, and a role-playing game, and provides a music game as an example. A music game is a kind of timing game. A timing game is a type of game that evaluates when to perform appropriate play actions. In the case of a music game, the execution time when the appropriate play action should be performed is provided with the music. Also, in the music game, the timing that matches the rhythm of the music is used as the execution timing. In other words, the music game is a type of game that guides the user when to perform appropriate play actions in accordance with the rhythm of music, and evaluates when the play action is actually performed. Also, for example, a music game is prepared with a plurality of songs for play, and a song selected therefrom is used for actual play. Such a music game may be appropriately provided via various output devices, but is provided through a game screen displayed on the display of the HMD type game machine 4 as an example.

また、HMD型のゲーム機4が提供するゲームは、複数のキャラクタ(車或いは動物等の各種の物を含む)、及びこれらの複数のキャラクタが実行するパフォーマンスを含んでいる。複数のキャラクタは、アクションゲーム等の種類に応じて各種のパフォーマンスを適宜に実行してよいが、音楽ゲームの場合、一例として楽器を演奏するパフォーマンス(以下、演奏パフォーマンス)を実行する。このため、ゲーム画面は、このような演奏パフォーマンスを実行する複数のキャラクタを含む場合がある。このようなゲーム画面の詳細は後述する。 The game provided by the HMD type game machine 4 includes a plurality of characters (including various objects such as cars and animals) and performances executed by these characters. A plurality of characters may appropriately perform various performances according to the type of action game or the like. In the case of a music game, for example, a performance of playing a musical instrument (hereinafter referred to as performance performance) is performed. Therefore, a game screen may include multiple characters performing such musical performances. Details of such a game screen will be described later.

ネットワーク3は、センターサーバ2に対してHMD型のゲーム機4を接続させることができる限り、適宜に構成されてよい。一例として、ネットワーク3は、TCP/IPプロトコルを利用してネットワーク通信を実現するように構成される。典型的には、WANとしてのインターネットと、LANとしてのイントラネットと、を組み合わせてネットワーク3が構成される。図1の例では、センターサーバ2はルータ3aを介して、HMD型のゲーム機4はアクセスポイント3bを介して、それぞれネットワーク3に接続されている。なお、ネットワーク3は、TCP/IPプロトコルを利用する形態に限定されない。ネットワーク3として、通信用の有線回線、或いは無線回線(赤外線通信、近距離無線通信等を含む)等を利用する各種の形態が利用されてよい。 The network 3 may be configured appropriately as long as the HMD type game machine 4 can be connected to the center server 2 . As an example, the network 3 is configured to implement network communication using the TCP/IP protocol. Typically, the network 3 is configured by combining the Internet as a WAN and an intranet as a LAN. In the example of FIG. 1, the center server 2 is connected to the network 3 via the router 3a, and the HMD type game machine 4 is connected to the network 3 via the access point 3b. Note that the network 3 is not limited to a form using the TCP/IP protocol. As the network 3, various forms using a wired line for communication or a wireless line (including infrared communication, short-range wireless communication, etc.) may be used.

センターサーバ2は、ネットワーク3を介してHMD型のゲーム機4のユーザに各種のWebサービスを提供する。Webサービスは、各HMD型のゲーム機4に各種データ或いはソフトウエアを配信(データ等のアップデートを含む)する配信サービスを含んでいる。なお、Webサービスは、音楽ゲームが対戦型、或いは協力型のゲームとしてプレイされる場合においてネットワーク3を介して他のHMD型のゲーム機4のユーザ(対戦者、或いは協力者)をマッチングするマッチングサービス、及び各ユーザを識別するためのユーザIDを付与するサービス等の各種のサービスを適宜に含んでいてよい。 The center server 2 provides various web services to the user of the HMD type game machine 4 via the network 3 . The Web service includes a distribution service for distributing various data or software (including updating data, etc.) to each HMD type game machine 4 . The Web service is a matching service that matches users (competitors or cooperators) of other HMD-type game machines 4 via the network 3 when the music game is played as a competitive or cooperative game. Various services such as a service and a service of assigning a user ID for identifying each user may be included as appropriate.

次に、図2を参照してゲームシステム1の制御系の要部を説明する。まず、センターサーバ2には、制御ユニット21、及び記憶手段としての記憶部22が設けられる。制御ユニット21は、所定のコンピュータプログラムに従って各種の演算処理及び動作制御を実行するプロセッサの一例としてのCPUと、その動作に必要な内部メモリその他の周辺装置とを組み合わせたコンピュータとして構成されている。 Next, the main part of the control system of the game system 1 will be described with reference to FIG. First, the center server 2 is provided with a control unit 21 and a storage section 22 as storage means. The control unit 21 is configured as a computer that combines a CPU as an example of a processor that executes various arithmetic processing and operation control according to a predetermined computer program, and an internal memory and other peripheral devices required for the operation.

記憶部22は、ハードディスクアレイ等の不揮発性記憶媒体(コンピュータ読み取り可能な記憶媒体)を含んだ記憶ユニットによって実現される外部記憶装置である。記憶部22は、一の記憶ユニット上に全てのデータを保持するように構成されてもよいし、複数の記憶ユニットにデータを分散して記憶するように構成されてもよい。記憶部22には、ユーザに各種のサービスを提供するために必要な各種の処理を制御ユニット21に実行させるコンピュータプログラムの一例として、プログラムPG1が記録される。また、記憶部22には、各種のサービスの提供に必要なサーバ用データが記憶される。そのようなサーバ用データは、サービス用の各種のデータを含んでいるが、図2の例ではそのような各種のデータの一種として、楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODが示されている。 The storage unit 22 is an external storage device realized by a storage unit including a non-volatile storage medium (computer-readable storage medium) such as a hard disk array. The storage unit 22 may be configured to hold all data in one storage unit, or may be configured to store data in a distributed manner in a plurality of storage units. A program PG1 is recorded in the storage unit 22 as an example of a computer program that causes the control unit 21 to execute various processes necessary for providing various services to the user. The storage unit 22 also stores server data necessary for providing various services. Such server data includes various data for services, and in the example of FIG. 2, music data MD, sequence data QD, play data PD, and performance data OD is shown.

楽曲データMDは、各楽曲を再生するためのデータである。楽曲データMDは、例えば音楽ゲームにおいて各楽曲の再生に使用される。シーケンスデータQDは、音楽ゲームにおいて適切なプレイ行為を実行すべき各実行時期が記述されたデータである。シーケンスデータQDは、このような各実行時期をユーザに案内するために使用される。また、ユーザによって実際にプレイ行為が実行された場合には、シーケンスデータQDの実行時期に基づいてそのプレイ行為が評価される。つまり、シーケンスデータQDは各実行時期の案内及びその評価に使用される。このため、シーケンスデータQDには、各実行時期、及びその実行時期に実行されるべき適切なプレイ行為の情報が互いに関連付けられるように記述される。また、音楽ゲームにおいて、複数の楽曲或いは複数の難易度が用意される場合には、シーケンスデータQDは楽曲毎或いは難易度毎に用意される。さらに、複数のキャラクタがプレイ対象に含まれるときには、選択されるキャラクタ(あるいは後述のようにキャラクタ毎に相違する楽器)に応じて各実行時期や適切なプレイ行為が相違する場合もある。このような場合、シーケンスデータQDはそのようなキャラクタ(あるいは楽器)毎にも用意される。プレイデータPDは、各ユーザの過去のプレイ実績に関する情報が記述されたデータである。プレイデータPDは、前回までのプレイ結果(過去の実績)を次回以降に引き継ぐため、或いは各ユーザに固有の設定内容を引き継ぐために使用される。演奏データODは、演奏パフォーマンスを実現するためのデータである。演奏データODの詳細は後述する。 The music data MD is data for reproducing each music. The music data MD is used, for example, to reproduce each music in a music game. The sequence data QD is data describing each execution time at which appropriate play actions should be executed in the music game. The sequence data QD is used to guide the user about each execution time. Further, when the user actually performs a play action, the play action is evaluated based on the execution timing of the sequence data QD. That is, the sequence data QD is used for guidance and evaluation of each execution timing. For this reason, the sequence data QD is described so as to associate each execution time and appropriate play action information to be executed at that execution time. Also, in a music game, when a plurality of songs or a plurality of difficulty levels are prepared, the sequence data QD is prepared for each song or difficulty level. Furthermore, when a plurality of characters are included in the play target, each execution time and appropriate play action may differ depending on the selected character (or different musical instruments for each character as described later). In such a case, sequence data QD is also prepared for each such character (or musical instrument). The play data PD is data describing information about the past play performance of each user. The play data PD is used to hand over the play results (past achievements) up to the previous time to the next and subsequent times, or to hand over the setting specific to each user. The musical performance data OD is data for realizing musical performance. Details of the performance data OD will be described later.

なお、サーバ用データは、その他にも各種のサービスを実現するための各種のデータを含んでよい。例えば、そのようなデータには、画像データ、或いはID管理データ等が含まれてよい。画像データはゲーム画面等の各種画像を表示装置に表示させるためのデータである。ID管理データは、ユーザID等の各種IDを管理するためのデータである。しかし、それらの図示は省略した。 In addition, the server data may include various data for realizing various services. For example, such data may include image data, ID management data, or the like. The image data is data for displaying various images such as game screens on the display device. The ID management data is data for managing various IDs such as user IDs. However, illustration of them is omitted.

制御ユニット21には、制御ユニット21のハードウエア資源とソフトウエア資源としてのプログラムPG1との組合せによって実現される論理的装置として、Webサービス管理部24が設けられる。Webサービス管理部24は、HMD型のゲーム機4に対して上述のWebサービスを提供するための各種処理を実行する。 The control unit 21 is provided with a web service management section 24 as a logical device implemented by a combination of the hardware resources of the control unit 21 and the program PG1 as software resources. The web service management unit 24 executes various processes for providing the above web services to the HMD type game machine 4 .

一方、HMD型のゲーム機4には、制御ユニット41と、記憶手段としての記憶部42とが設けられる。所定のコンピュータプログラムに従って各種の演算処理及び動作制御を実行するプロセッサの一例としてのCPUと、その動作に必要な内部メモリその他の周辺装置とを組み合わせたコンピュータとして構成されている。 On the other hand, the HMD type game machine 4 is provided with a control unit 41 and a storage section 42 as storage means. The computer is configured by combining a CPU as an example of a processor that executes various kinds of arithmetic processing and operation control according to a predetermined computer program, and an internal memory and other peripheral devices necessary for the operation.

記憶部42は、ハードディスク、半導体記憶装置といった不揮発性記憶媒体(コンピュータ読み取り可能な記憶媒体)を含んだ記憶ユニットによって実現される外部記憶装置である。記憶部42には、ユーザに各種のサービスを提供するために必要な各種の処理を制御ユニット41に実行させるコンピュータプログラムの一例として、プログラムPG2が記録される。また、記憶部42には、音楽ゲームの提供に必要なゲームデータが記録される。そのようなゲームデータには、音楽ゲーム用の各種のデータが含まれるが、図2の例ではその一例として楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODが示されている。 The storage unit 42 is an external storage device implemented by a storage unit including a nonvolatile storage medium (computer-readable storage medium) such as a hard disk or a semiconductor storage device. A program PG2 is recorded in the storage unit 42 as an example of a computer program that causes the control unit 41 to execute various processes necessary for providing various services to the user. The storage unit 42 also records game data necessary for providing the music game. Such game data includes various data for music games, and the example in FIG. 2 shows music data MD, sequence data QD, play data PD, and performance data OD as examples.

楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODは、初期インストール、各種記憶媒体を通じた提供等の各種の手法により記憶部42に提供されてよいが、一例として配信サービスを通じてセンターサーバ2から提供される。なお、ゲームデータには、例えば、その他にも楽曲とは別の音声が存在する場合にそのような各種の音声を再生するための音声データ等、ゲーム用の各種のデータが含まれ得る。そのようなデータには、楽曲データMD等と同様に配信サービス等を通じて提供される画像データ、或いはID管理データ等が適宜に含まれ得る。しかし、これらの図示は省略した。 The music data MD, sequence data QD, play data PD, and performance data OD may be provided to the storage unit 42 by various methods such as initial installation and provision through various storage media. provided from 2. Note that the game data may include various data for the game, such as audio data for reproducing various sounds when there are other sounds different from the music. Such data may appropriately include image data provided through a distribution service or the like, or ID management data or the like, similar to the music data MD or the like. However, illustration of these is omitted.

制御ユニット41には、制御ユニット41のハードウエア資源とソフトウエア資源としてのプログラムPG2との組合せによって各種の論理的装置が構成される。そして、それらの論理的装置を通じて音楽ゲームの提供に必要な各種の処理(センターサーバ2のWebサービス管理部24が提供するWebサービスを享受するために必要な処理を含む)が実行されるが、図2の例では、音楽ゲームに関連する論理的装置として、進行制御部43、及びデータ管理部44が示されている。 Various logical devices are configured in the control unit 41 by combining the hardware resources of the control unit 41 and the program PG2 as a software resource. Various processes necessary for providing the music game (including processes necessary for enjoying the web services provided by the web service management unit 24 of the center server 2) are executed through these logical devices. In the example of FIG. 2, a progress control section 43 and a data management section 44 are shown as logical devices related to the music game.

進行制御部43は、ゲームの進行に必要な各種の処理を行う論理的装置である。このような処理には、例えば、プレイのための各種準備を実行する処理、プレイ行為の各実行時期をユーザに案内する処理、或いはユーザが実行するプレイ行為等を評価する処理も含まれる。また、プレイのための準備には各種設定等の適宜の要素が含まれるが、例えば選択機会の提供、及びプレイの開始時期の判別等が含まれる。具体的には、進行制御部43は、このような各種の処理の一例として、演奏選択処理、連携応答処理、及びパフォーマンス評価処理を実行する。一方、データ管理部44は、記憶部42に記録されるゲームデータの管理に関する各種の処理を行う論理的装置である。例えば、データ管理部44は、センターサーバ2から提供されるゲームデータを取得したり記憶部42に保存したりする処理を実行する。例えば、データ管理部44は、このような各種の処理の一例として、演奏データ生成処理を実行する。演奏選択処理、連携応答処理、パフォーマンス評価処理、及び演奏データ生成処理の手順の詳細は後述する。 The progress control unit 43 is a logical device that performs various processes necessary for progressing the game. Such processing includes, for example, processing for executing various preparations for play, processing for guiding the user when to perform each play act, and processing for evaluating the play act performed by the user. Preparations for play include appropriate elements such as various settings, and include, for example, provision of selection opportunities and determination of play start time. Specifically, the progress control unit 43 executes performance selection processing, cooperation response processing, and performance evaluation processing as examples of such various types of processing. On the other hand, the data management unit 44 is a logical device that performs various processes related to management of game data recorded in the storage unit 42 . For example, the data management unit 44 acquires game data provided from the center server 2 and stores the game data in the storage unit 42 . For example, the data management unit 44 executes performance data generation processing as an example of such various processing. The details of the performance selection process, the cooperation response process, the performance evaluation process, and the performance data generation process will be described later.

HMD型のゲーム機4には、各種の出力装置、及び入力装置が適宜に設けられ得るが、図2の例では出力装置の一例としてディスプレイ47、及びスピーカSPが、入力装置の一例としてセンサSMAが、それぞれ設けられている。ディスプレイ47は、ゲーム画面等を表示するための周知の表示装置である。スピーカSPは、楽曲を含む各種音声を再生するための周知の音声再生装置である。センサSMAは、HMD型のゲーム機4の各種の状態を検出するための周知の検出装置(検出手段)である。センサSMAは検出対象の状態に応じた各種の検出装置を適宜に含んでいてよく、例えばユーザの視線をトラッキングするアイトラッキング用のセンサ等を適宜に含んでいてよいが、図2の例ではそのような各種のセンサの一例として加速度センサSM1、ジャイロセンサSM2、及び位置検出センサSM3が示されている。 Various output devices and input devices can be appropriately provided in the HMD type game machine 4. In the example of FIG. are provided respectively. The display 47 is a well-known display device for displaying game screens and the like. The speaker SP is a well-known audio reproduction device for reproducing various sounds including music. The sensor SMA is a well-known detection device (detection means) for detecting various states of the HMD type game machine 4 . The sensor SMA may appropriately include various detection devices according to the state of the object to be detected, and may include, for example, an eye-tracking sensor for tracking the line of sight of the user. An acceleration sensor SM1, a gyro sensor SM2, and a position detection sensor SM3 are shown as examples of such various sensors.

加速度センサSM1は、HMD型のゲーム機4に生じる加速度(例えば三軸方向の加速度)を検出するための周知の検出装置である。このような加速度の検出を通じて加速度センサSM1は適宜に活用されてよいが、一例として水平状態、HMD型のゲーム機4の傾き、或いは向きといった状態の検出に使用される。同様に、ジャイロセンサSM2は、基準軸(一例として三軸)に対する角度の変化を検出するための周知の検出装置である。このような角度の検出を通じてジャイロセンサSM2は適宜に活用されてよいが、一例としてHMD型のゲーム機4の回転、傾き、或いは向きといった状態の検出に使用される。また、これらの加速度センサSM1、及びジャイロセンサSM2の検出結果は、それぞれ単独で使用されてもよい(単独で使用される場合、いずれか一方は省略されてもよい)が、一例としてHMD型のゲーム機4の向き等の各種状態の検出に組み合わされて使用される。 The acceleration sensor SM1 is a well-known detection device for detecting acceleration (for example, acceleration in three axial directions) generated in the HMD type game machine 4 . The acceleration sensor SM1 may be used as appropriate through such detection of acceleration, but as an example, it is used to detect a state such as a horizontal state, inclination of the HMD type game machine 4, or orientation. Similarly, the gyro sensor SM2 is a well-known detection device for detecting changes in angle with respect to reference axes (three axes as an example). The gyro sensor SM2 may be used appropriately through such angle detection, but as an example, it is used to detect the state of rotation, tilt, or orientation of the HMD-type game machine 4 . Further, the detection results of these acceleration sensor SM1 and gyro sensor SM2 may be used individually (when used alone, one of them may be omitted). It is used in combination with detection of various states such as the orientation of the game machine 4 .

位置検出センサSM3は、操作スティックOSの位置、及びその変化を検出するための検出装置である。操作スティックOSの位置等を検出可能な限り、位置検出センサSM3として各種のセンサが利用されてよいが、一例としてカメラが利用される。また、位置検出センサSM3(カメラ)は各種の手法で操作スティックOSの位置を検出してよいが、一例として操作スティックOSに内蔵、或いは装着されるトラッカ(不図示)の位置を検出することによりその位置を操作スティックOSの位置として利用する。 The position detection sensor SM3 is a detection device for detecting the position of the operation stick OS and its change. Various sensors may be used as the position detection sensor SM3 as long as the position of the operation stick OS can be detected, and a camera is used as an example. Further, the position detection sensor SM3 (camera) may detect the position of the operation stick OS by various methods. The position is used as the position of the operation stick OS.

HMD型のゲーム機4には、その他にも各種の出力装置、或いは入力装置が適宜に接続され得るが、図2の例では上述の操作スティックOSが接続されている。操作スティックOSは上述のとおりであるが、制御ユニット41に接続され、プレイ行為に応じた各種の入力信号を制御ユニット41に出力する。操作スティックOSには、上述のトラッカを含む各種の出力装置、或いは上述のタッチボタンTB等の各種の入力装置が適宜に設けられ得るが、図2の例ではセンサSMBが示されている。 Various other output devices or input devices can be connected to the HMD type game machine 4 as appropriate, but in the example of FIG. 2, the above-described operation stick OS is connected. As described above, the operation stick OS is connected to the control unit 41 and outputs various input signals to the control unit 41 according to the play action. Various output devices including the tracker described above, or various input devices such as the touch button TB described above can be appropriately provided on the operation stick OS, but the sensor SMB is shown in the example of FIG.

センサSMBは操作スティックOSの状態(動き)、換言すれば操作スティックOSに実行される各種のプレイ行為を検出するためのセンサである。このようなセンサSMBは、検出対象の状態に応じた各種の検出装置を適宜に含んでいてよいが、一例としてHMD型のゲーム機4の加速度センサSM1、及びジャイロセンサSM2と同様の周知な加速度センサ、及びジャイロセンサを含んでいる。そして、これらの加速度センサ、及びジャイロセンサ(センサSMB)は、HMD型のゲーム機4の加速度センサSM1、及びジャイロセンサSM2と同様に、操作スティックOSの向き等の各種状態の検出のために適宜に組み合わされて使用される。 The sensor SMB is a sensor for detecting the state (movement) of the operation stick OS, in other words, various play actions executed by the operation stick OS. Such a sensor SMB may appropriately include various detection devices according to the state of the object to be detected. sensor, and gyro sensor. These acceleration sensors and gyro sensors (sensor SMB) are used to detect various states such as the orientation of the operation stick OS, similarly to the acceleration sensor SM1 and gyro sensor SM2 of the HMD game machine 4. used in combination with

次に、図3を参照して音楽ゲームをプレイするためのゲーム画面の一例について説明する。図3は、HMD型のゲーム機4のディスプレイ47に表示されるゲーム画面の一例を模式的に示す図である。音楽ゲームは各種のゲーム画面を含み得るが、図3の例はプレイ行為を実行すべき各実行時期を案内するためのゲーム画面を示している。また、音楽ゲームは適宜に構成されてよく、楽器の演奏を演出するようにプレイ行為に伴い楽器の演奏音が再生される場合も多い。このような場合、臨場感の向上のためにプレイ行為に伴い楽器の演奏動作を実行するキャラクタがゲーム画面に登場する場合もある。他のユーザ(協力者若しくは対戦者)、或いはコンピュータにそれぞれ対応する同様の複数のキャラクタが登場する場合もある。図3の例は、これらのキャラクタを含む場合のゲーム画面を示している。より具体的には、ユーザのプレイ行為に伴い楽器の一例としてドラムを演奏する演奏動作を実行するキャラクタ、及び他のユーザ等のプレイ行為に伴い他の楽器を演奏する演奏動作を実行するキャラクタの両方を含むゲーム画面を示している。このようなゲーム画面は適宜に構成されてよいが、図3の例はゲーム画面が仮想三次元空間を演出するように構成される場合を示している。さらに、このような仮想三次元空間は仮想カメラの撮影結果として適宜に切り取られてゲーム画面として表示されてよいが、図3の例はユーザに対応するキャラクタ(以下、ユーザキャラクタと呼ぶ場合がある)の視界を演出するように仮想三次元空間が切り取られ(概ねキャラクタの目の位置に設定された仮想カメラにより撮影され)、ゲーム画面として表示される場合を示している。この場合、ゲーム画面50は、指示用オブジェクト51、スコア表示領域52、ステージ領域53、キャラクタ画像54、及びドラムセット画像55を含んでいる。 Next, an example of a game screen for playing a music game will be described with reference to FIG. FIG. 3 is a diagram schematically showing an example of a game screen displayed on the display 47 of the HMD type game machine 4. As shown in FIG. A music game can include various game screens, but the example of FIG. 3 shows a game screen for guiding each execution time when a play act should be executed. Also, the music game may be configured as appropriate, and in many cases, musical instrument performance sounds are reproduced along with the playing action so as to produce the performance of the musical instrument. In such a case, in order to improve the sense of realism, a character performing an action of playing a musical instrument may appear on the game screen along with the action of playing. Other users (collaborators or opponents) or similar characters may appear, each corresponding to a computer. The example in FIG. 3 shows a game screen including these characters. More specifically, a character that performs a performance action of playing a musical instrument, such as a drum, in accordance with the user's play action, and a character that performs a performance action of playing another musical instrument in accordance with another user's play action. A game screen including both is shown. Such a game screen may be configured as appropriate, but the example of FIG. 3 shows a case where the game screen is configured to produce a virtual three-dimensional space. Furthermore, such a virtual three-dimensional space may be appropriately cut out as a result of photographing by a virtual camera and displayed as a game screen. ) is cropped (taken by a virtual camera set approximately at the position of the character's eyes) and displayed as a game screen. In this case, the game screen 50 includes an instruction object 51 , a score display area 52 , a stage area 53 , a character image 54 and a drum set image 55 .

ドラムセット画像55は、楽器のドラムセットを模した画像である。ドラムセット画像55は、適宜のドラムセットに対応していてよいが、図3の例では二つのドラム画像55a、及び四つのシンバル画像55bを含んでいる。各ドラム画像55a、及び各シンバル画像55bは、それぞれドラムセットにおけるドラム、及びシンバルに対応する画像である。これらは実際のドラムセットと同様の配置に表示される。具体的には、二つのドラム画像55aは左右に並ぶようにドラムセット画像55において中央付近に配置される。一方、四つのシンバル画像55bは、ドラムセット画像55において二つのドラム画像55aを挟むようにそれらの左右に二つずつ配置される。また、左側の二つのシンバル画像55b、及び右側の二つのシンバル画像55bは、いずれもそれぞれ上下に分かれるように配置される。 The drum set image 55 is an image imitating a drum set of musical instruments. The drum set image 55 may correspond to any drum set, but in the example of FIG. 3 includes two drum images 55a and four cymbal images 55b. Each drum image 55a and each cymbal image 55b are images corresponding to the drums and cymbals in the drum set, respectively. These are displayed in an arrangement similar to that of a real drum set. Specifically, the two drum images 55a are arranged near the center of the drum set image 55 so as to be aligned horizontally. On the other hand, the four cymbal images 55b are arranged two by two on the left and right sides of the drum set image 55 so as to sandwich the two drum images 55a. Also, the two cymbal images 55b on the left side and the two cymbal images 55b on the right side are arranged so as to be separated vertically.

スコア表示領域52は、スコア(獲得得点)を表示するための領域である。スコア表示領域52は適宜に構成されてよいが、図3の例では正方形状に形成され、仮想三次元空間において奥側(ユーザ側が手前)に位置するように表示される。指示用オブジェクト51は、各実行時期に対応する画像(換言すれば各実行時期を示す標識画像)である。指示用オブジェクト51は、適宜の時期に仮想三次元空間における奥側の適宜の位置に出現し、手前側、つまりユーザに近づくように所定の移動経路に沿って移動する。このような移動経路は適宜に設定されてよいが、各ドラム画像55a、及び各シンバル画像55bのいずれかを通過するように設定される。各移動経路において各ドラム画像55a、及び各シンバル画像55bは現在時刻の基準を示す標識画像として機能する。このため、各指示用オブジェクト51は、そのような移動経路に沿って、対応する実行時期において各ドラム画像55a、及び各シンバル画像55bのいずれかと一致するように移動する。移動経路は表示されてもよいが、図3の例では移動経路は表示されていない。各実行時期は指示用オブジェクト51(指示用の標識画像)と各ドラム画像55a等(現在時刻の標識画像)のいずれかとの間の相対的変位を通じて適宜に案内されてよいが、一例として指示用オブジェクト51の各ドラム画像55a等への移動を通じて案内される。 The score display area 52 is an area for displaying scores (acquired points). The score display area 52 may be configured as appropriate, but in the example of FIG. 3, it is formed in a square shape and displayed so as to be located on the back side (the user side is on the front side) in the virtual three-dimensional space. The instruction object 51 is an image corresponding to each execution time (in other words, an indicator image indicating each execution time). The instruction object 51 appears at an appropriate position on the back side in the virtual three-dimensional space at an appropriate time, and moves along a predetermined movement path so as to approach the near side, that is, the user. Although such a moving path may be set as appropriate, it is set so as to pass through either each drum image 55a or each cymbal image 55b. In each movement route, each drum image 55a and each cymbal image 55b functions as a marker image indicating the reference of the current time. For this reason, each instruction object 51 moves along such a movement path so as to coincide with either each drum image 55a or each cymbal image 55b at the corresponding execution time. Although the route of travel may be displayed, the route of travel is not shown in the example of FIG. Each execution time may be appropriately guided through relative displacement between the instruction object 51 (instruction indicator image) and each drum image 55a (current time indicator image). The movement of the object 51 to each drum image 55a etc. is guided.

また、指示用オブジェクト51は各種に分類されてよいが、図3の例では第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bの二種類を含んでいる。第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは、各実行時期において互いに異なるプレイ行為を要求する指示用オブジェクト51である。具体的には、第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bはいずれも下側のシンバル画像55bを叩く動作をプレイ行為としてユーザに要求するが、第1指示用オブジェクト51Aは左側のシンバル画像55bに対する叩く動作の要求に、第2指示用オブジェクト51Bは右側のシンバル画像55bに対する叩く動作の要求に、それぞれ対応している。このため、第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは適宜の位置に出現した後、各実行時期において、左右の下側のシンバル画像55bの位置とそれぞれ一致するように、手前側に向かって移動する。 Also, the instruction object 51 may be classified into various types, but in the example of FIG. 3, it includes two types of a first instruction object 51A and a second instruction object 51B. The first instructing object 51A and the second instructing object 51B are instructing objects 51 that request different play actions in each execution period. Specifically, both the first instruction object 51A and the second instruction object 51B require the user to hit the cymbal image 55b on the lower side as a play action, but the first instruction object 51A asks the user to hit the cymbal image 55b on the left side. The second instruction object 51B corresponds to a request for a hitting action on the cymbal image 55b, and a request for a hitting action on the right cymbal image 55b. For this reason, after the first instruction object 51A and the second instruction object 51B appear at appropriate positions, they are moved to the front side so as to match the positions of the left and right lower cymbal images 55b, respectively, at each execution time. move towards

ユーザに要求される叩く動作は、操作スティックOSを通じて入力される。具体的には、例えば第1指示用オブジェクト51Aと右側の下に位置するシンバル画像55bとの一致に合わせてユーザには、仮想三次元空間におけるそのシンバル画像55bの位置に対して叩く動作を実行するように操作スティックOSを振る動作が要求される。このため、このような各シンバル画像55b等への叩く動作が各実行時期における適切なプレイ行為として機能するように、シーケンスデータQDには、各指示用オブジェクト51の移動経路、或いはその移動経路上の各シンバル画像55b等の情報が適切なプレイ行為の情報として記述される。そして、その叩く動作の実際の実行時期と実際の一致時期(シーケンスデータQDに記述された実行時期)との間のずれ時間が少ないほど高く評価される。第2指示用オブジェクト51Bに関しても同様である。 A tapping motion requested by the user is input through the operation stick OS. Specifically, for example, when the first pointing object 51A and the cymbal image 55b located on the lower right side match, the user is asked to perform a tapping action on the position of the cymbal image 55b in the virtual three-dimensional space. A motion of swinging the operation stick OS is required. For this reason, the sequence data QD includes the movement path of each instruction object 51 or the motion on the movement path so that the action of hitting each cymbal image 55b or the like functions as an appropriate play action at each execution time. Information such as each cymbal image 55b is described as appropriate play action information. Then, the smaller the deviation time between the actual execution timing of the hitting action and the actual coincidence timing (execution timing described in the sequence data QD), the higher the evaluation. The same applies to the second instruction object 51B.

各ドラム画像55a等を叩く動作の判定は適宜に実現されてよいが、一例として次のように実現される。まず各ドラム画像55a、及び各シンバル画像55bは仮想三次元空間における空間座標で定義された所定位置に配置され、その所定位置(空間座標)の各ドラム画像55a等に向かって各指示用オブジェクト51は移動する。また、各ドラム画像55a等には、その所定位置を基準に評価範囲(各ドラム画像55a等と同一またはそれよりちょっと大きい範囲)が設定される。スティック画像56は操作スティックOSへの操作に伴い仮想三次元空間において移動するが、その先端部の位置(空間座標)が各ドラム画像55a、或いはシンバル画像55bの評価範囲に入ったか否かにより、叩く動作が実行されたか否か判別される。そして、その評価範囲にスティック画像56が入った時期(実際のプレイ行為の時期)と、各ドラム画像55a等に指示用オブジェクト51が到達すべき時期(シーケンスデータQDの実行時期)との間のずれ時間が算出され、そのずれ時間に応じて評価が決定される。この評価は適宜に実行されてよいが、一例としてパーフェクト、グレート、グッド、或いはバッドといった評価結果を示す基準を通じて実現される。また、各実行時期を基準に所定時間内に叩く動作が実行されなければ、ミス操作(ミスに対応する評価結果)として判定される。同様に、バッドに属する期間より早く、若しくは遅く、叩く動作が実行された場合、ミスと判定される。なお、これらのいずれにも属さない時期に叩く動作が実行された場合には、その動作は何にも使用されず、無視されてよい。 Determination of the action of hitting each drum image 55a or the like may be realized as appropriate, but as an example, it is realized as follows. First, each drum image 55a and each cymbal image 55b are arranged at a predetermined position defined by spatial coordinates in a virtual three-dimensional space, and each pointing object 51 is directed toward each drum image 55a and the like at the predetermined position (spatial coordinates). moves. An evaluation range (the same range as or slightly larger than each drum image 55a, etc.) is set for each drum image 55a, etc. with reference to a predetermined position. The stick image 56 moves in the virtual three-dimensional space according to the operation of the operation stick OS. It is determined whether or not a tapping action has been performed. Then, the timing between when the stick image 56 enters the evaluation range (the timing of the actual play action) and when the instruction object 51 should reach each drum image 55a (timing of executing the sequence data QD) is determined. A lag time is calculated, and an evaluation is determined according to the lag time. This evaluation may be carried out as appropriate, but as an example, it is realized through criteria indicating evaluation results such as perfect, great, good, or bad. Also, if the hitting action is not executed within a predetermined period of time based on each execution time, it is determined as a mistake operation (evaluation result corresponding to a mistake). Similarly, if the hitting action is performed earlier or later than the period belonging to the bad, it is determined to be a miss. It should be noted that if the hitting action is performed at a time that does not belong to any of these, the action is not used for anything and may be ignored.

指示用オブジェクト51は、その他にも左右の上側に位置するシンバル画像55bに対応する種類、各ドラム画像55aに対応する種類等の種類を含み、これらの種類を通じて第1指示用オブジェクト51Aと同様にドラム画像55a等を叩く動作を適宜に要求し得るが、図3の例ではそれらの表示は省略されている。また、第1指示用オブジェクト51A等の各種の指示用オブジェクト51は、適宜の形態で表示されてよいが、一例としていずれもシンバル画像55b等の移動経路上に位置する現在時刻の標識画像と同様の形状に表示される。同様に、第1指示用オブジェクト51A等の各種の指示用オブジェクト51は、互いに区別可能に適宜に表示されてよいが、一例として第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは互いに異なる配色で表示される。ドラムセット画像55における各ドラム画像55a等も同様である。例えば、各ドラム画像55aは互いに異なる配色で表示されてよい。この場合、プレイ対象をユーザが容易に識別できるように、各指示用オブジェクト51は、対応する各ドラム画像55a等と同じ色で表示されてよい。 The instruction object 51 also includes other types such as a type corresponding to the cymbal image 55b located on the left and right upper side and a type corresponding to each drum image 55a. An action of hitting the drum image 55a or the like can be requested as appropriate, but the display thereof is omitted in the example of FIG. Various instruction objects 51 such as the first instruction object 51A may be displayed in an appropriate form. is displayed in the shape of Similarly, various instruction objects 51 such as the first instruction object 51A may be appropriately displayed in a distinguishable manner from each other, but as an example, the first instruction object 51A and the second instruction object 51B are different displayed in color scheme. The same applies to each drum image 55a in the drum set image 55 and the like. For example, each drum image 55a may be displayed in a different color scheme. In this case, each instruction object 51 may be displayed in the same color as each corresponding drum image 55a or the like so that the user can easily identify the play target.

ステージ領域53は、仮想三次元空間に形成されるステージに対応する領域である。仮想三次元空間において各キャラクタは、そのステージにおいて演奏動作を実行する。このため、ステージ領域53には、各キャラクタに対応するキャラクタ画像54、及びドラムセット画像55が配置される。ステージ領域53には、適宜の数のキャラクタ画像54が配置されてよいが、図3の例では三つのキャラクタ画像54が表示されている。具体的には、キャラクタ画像54は、キーボードを演奏する第1キャラクタ画像54A、ギターを演奏する第2キャラクタ画像54B、及びドラムを演奏する第3キャラクタ画像54Cを含んでいる。これらのキャラクタ画像54A、54B、54Cは、仮想三次元空間においてキーボード、ギター、及びドラム(いずれも楽器の一例)を演奏するための一つの演奏ユニットを形成する三体のキャラクタにそれぞれ対応している。これらの三体のキャラクタは、ユーザ、及び協力者(コンピュータを含む)に適宜に対応してよく、それらのいずれのプレイ行為に基づいて演奏動作を実行してもよいが、一例として第1キャラクタ画像54A、及び第2キャラクタ画像54Bがコンピュータに、第3キャラクタ画像54Cがユーザに、それぞれ対応している。この例において、第1キャラクタ画像54A~第3キャラクタ画像54Cが本発明の複数のキャラクタとして機能する。また、第3キャラクタ画像54Cが本発明のユーザキャラクタとして機能する。 The stage area 53 is an area corresponding to a stage formed in the virtual three-dimensional space. Each character in the virtual three-dimensional space performs a performance action on its stage. Therefore, a character image 54 and a drum set image 55 corresponding to each character are arranged in the stage area 53 . An appropriate number of character images 54 may be arranged in the stage area 53, and three character images 54 are displayed in the example of FIG. Specifically, the character image 54 includes a first character image 54A playing a keyboard, a second character image 54B playing a guitar, and a third character image 54C playing a drum. These character images 54A, 54B, and 54C respectively correspond to three characters forming one performance unit for playing a keyboard, a guitar, and a drum (all examples of musical instruments) in the virtual three-dimensional space. there is These three characters may appropriately correspond to the user and collaborators (including computers), and may perform performance actions based on any of these play actions. The image 54A and the second character image 54B correspond to the computer, and the third character image 54C corresponds to the user. In this example, the first character image 54A to the third character image 54C function as a plurality of characters of the invention. Also, the third character image 54C functions as a user character of the present invention.

第1キャラクタ画像54A~第3キャラクタ画像54Cは適宜に表示されてよいが、図3の例ではユーザキャラクタ(第3キャラクタ画像54C)の視界に対応するように、第1キャラクタ画像54A、及び第2キャラクタ画像54Bは全身が、第3キャラクタ画像54C(ユーザキャラクタ)は両手(身体の一部)が、それぞれ表示されている。また、仮想三次元空間においてユーザキャラクタがドラムを叩くためのスティックを握っている状況を示すように、第3キャラクタ画像54Cの左右の両手には二つのスティック画像56がそれぞれ表示されている。この場合、ユーザによる叩く動作の実行に伴い、第3キャラクタ画像54Cもその叩く動作を再現するように動作する。より具体的には、叩く動作の実行に伴い、第3キャラクタ画像54Cはスティック画像56において対象のシンバル画像55b等を叩く動作(演奏動作)を実行する。第1キャラクタ画像54A、及び第2キャラクタ画像54Bも同様である。つまり、協力者(コンピュータを含む)によるプレイ行為(対象の楽器、或いは入力装置の種類に応じて適宜でよいが、例えばキーボードの場合は鍵を弾く動作、ギターであれば弦を弾く動作)に伴い、第1キャラクタ画像54A、及び第2キャラクタ画像54Bも同様の演奏動作をゲーム画面50において実行する。 The first character image 54A to the third character image 54C may be displayed as appropriate, but in the example of FIG. The entire body of the second character image 54B is displayed, and both hands (part of the body) are displayed of the third character image 54C (user character). Also, two stick images 56 are displayed on both left and right hands of the third character image 54C, respectively, so as to show a situation in which the user character is holding a stick for hitting the drum in the virtual three-dimensional space. In this case, as the user performs the hitting action, the third character image 54C also operates to reproduce the hitting action. More specifically, when the hitting action is performed, the third character image 54C performs the action of hitting the target cymbal image 55b or the like on the stick image 56 (playing action). The same applies to the first character image 54A and the second character image 54B. In other words, the act of playing by a collaborator (including a computer) (which may be appropriate depending on the type of target instrument or input device, for example, the action of plucking the keys in the case of a keyboard, or the action of plucking the strings in the case of a guitar) Along with this, the first character image 54A and the second character image 54B also perform the same playing motion on the game screen 50. FIG.

図4~図5を参照して、ゲーム画面50について更に説明する。図4は、仮想三次元空間における各キャラクタの位置関係を説明するための説明図である。図4の例は、仮想三次元空間におけるステージ、及び各キャラクタを上方から見た場合を模式的に示している。仮想三次元空間におけるステージ等は、ゲーム画面50におけるステージ領域53等に対応するため、図4の例では説明の便宜のためステージ、及び各キャラクタにはゲーム画面50におけるステージ領域53、及び各キャラクタ画像54等と同様の符号が付されている。 The game screen 50 will be further described with reference to FIGS. 4 and 5. FIG. FIG. 4 is an explanatory diagram for explaining the positional relationship of each character in the virtual three-dimensional space. The example of FIG. 4 schematically shows a stage in a virtual three-dimensional space and each character viewed from above. Since the stage and the like in the virtual three-dimensional space correspond to the stage area 53 and the like in the game screen 50, in the example of FIG. The same reference numerals as those of the image 54 and the like are attached.

図4に示すように、各キャラクタ画像54(仮想三次元空間における各キャラクタ)はステージ領域53(仮想三次元空間におけるステージ)に所定の間隔を開けて配置される。各キャラクタ画像54の位置、或いは間隔は、適宜でよく、可変的であってもよいが、一例として固定的である。つまり、各キャラクタ画像54はステージ領域53の予め決められた所定の位置にそれぞれ固定的に配置される。ただし、各キャラクタ画像54は、プレイ中においてプレイ状況等に応じて適宜に移動してよい。 As shown in FIG. 4, each character image 54 (each character in the virtual three-dimensional space) is arranged at a predetermined interval in a stage area 53 (stage in the virtual three-dimensional space). The position or interval of each character image 54 may be arbitrary or variable, but is fixed as an example. That is, each character image 54 is fixedly arranged at a predetermined position in the stage area 53 . However, each character image 54 may be appropriately moved according to the play situation or the like during play.

また、第3キャラクタ画像54Cはユーザキャラクタに対応する。このため、第3キャラクタ画像54Cには、視界範囲IAが設定される。視界範囲IAは、ゲーム画面50を描画するための仮想カメラの撮影範囲に対応する。視界範囲IAは適宜の範囲として設定されてよいが、図4の例では第3キャラクタ画像54Cが正面を向いている場合に設定される視界範囲IAが示されている。また、この視界範囲IAは第3キャラクタ画像54Cの動作、換言すればユーザの動作によって移動する。具体的には、HMD型のゲーム機4はユーザの頭部に装着され、プレイされるが、このユーザの頭部の動きに伴い、第3キャラクタ画像54Cの頭部も動作する。例えば、ユーザの頭部(HMD型のゲーム機4)が身体における正面を向いた状態が仮想空間内の視界範囲IAとなるように調整された場合、ユーザが正面を向いているとき、第3キャラクタ画像54Cの頭部も仮想三次元空間において同様の方向を向くため、視界範囲IAは図4の例において正面側(実線で表示される範囲)に設定される。 Also, the third character image 54C corresponds to the user character. Therefore, the field of view range IA is set for the third character image 54C. The field of view range IA corresponds to the imaging range of the virtual camera for rendering the game screen 50 . The field of view range IA may be set as an appropriate range, but the example of FIG. 4 shows the field of view range IA set when the third character image 54C faces the front. Also, the field of view range IA moves according to the action of the third character image 54C, in other words, the user's action. Specifically, the HMD-type game machine 4 is worn on the user's head and played, and the head of the third character image 54C moves along with the movement of the user's head. For example, when the user's head (HMD-type game machine 4) is adjusted so that the state in which the user's head (the HMD-type game machine 4) faces the front is the visual field range IA in the virtual space, when the user faces the front, the third Since the head of the character image 54C also faces the same direction in the virtual three-dimensional space, the field of view range IA is set to the front side (the range indicated by solid lines) in the example of FIG.

一方、正面を向いた状態からユーザが右側を向いた場合、その頭部の動きはHMD型のゲーム機4のセンサSMAにより検知され、第3キャラクタ画像54Cの動きに反映される。つまり、そのような頭部の動きに伴い、第3キャラクタ画像54Cの頭部も仮想三次元空間において同様の右を向くように動作する。この場合、視界範囲IAは、その頭部の動きに合わせて右方向に角度が変化する。具体的には、ユーザの右を向く頭部の動きに伴い、視界範囲IAは、一点鎖線で示す右傾斜範囲IA1に移動する。そして、このような右傾斜範囲IA1に含まれる仮想三次元空間がゲーム画面50として表示される。 On the other hand, when the user turns to the right from the frontal state, the movement of the head is detected by the sensor SMA of the HMD type game machine 4 and reflected in the movement of the third character image 54C. That is, in accordance with such movement of the head, the head of the third character image 54C similarly moves to face right in the virtual three-dimensional space. In this case, the viewing range IA changes its angle to the right according to the movement of the head. Specifically, as the user's head moves to the right, the visual field range IA moves to the right tilt range IA1 indicated by the dashed-dotted line. A virtual three-dimensional space included in the right tilt range IA1 is displayed as the game screen 50. FIG.

図5は、視界範囲IAが図4の例の右傾斜範囲IA1に移動した場合のゲーム画面50の一例を模式的に示す図である。また、図5の例は、図3の例からユーザが右斜め上方向を向いた場合のゲーム画面50にも対応している。このような上下方向への頭部の変化もセンサSMAによって検出され、ゲーム画面50に反映される。このため、この場合、図5に示すように、図3の例と比べて、視界(視界範囲IA)の移動に伴い、第2キャラクタ画像54Bがゲーム画面50の中央近くに移動している一方で、第1キャラクタ画像54Aの表示が消えている。また、ステージ領域53、スコア表示領域52、及びドラムセット画像55にも同様に変化が生じている。 FIG. 5 is a diagram schematically showing an example of the game screen 50 when the field of view range IA has moved to the right tilt range IA1 in the example of FIG. The example of FIG. 5 also corresponds to the game screen 50 when the user faces diagonally upward to the right from the example of FIG. Such a change in the head in the vertical direction is also detected by the sensor SMA and reflected on the game screen 50 . Therefore, in this case, as shown in FIG. 5, as compared with the example of FIG. Then, the display of the first character image 54A disappears. Also, the stage area 53, the score display area 52, and the drum set image 55 are similarly changed.

次に、演奏パフォーマンスの評価について説明する。上述のようにユーザのプレイ行為(叩く動作)に伴い、ゲーム画面50においてキャラクタ画像54も同様の叩く動作、つまり演奏動作を実行する。このため、プレイ(演奏)の開始に伴い各キャラクタは演奏動作を実行する。ユーザキャラクタ以外の他のキャラクタ画像54もプレイの開始に伴い同様の演奏動作を実行する。そして、これらの演奏動作の組み合わせ、換言すれば一つの演奏ユニット全体による演奏動作により演奏パフォーマンスが形成される。 Next, the performance evaluation will be described. As described above, in accordance with the user's play action (hitting action), the character image 54 on the game screen 50 also performs a similar hitting action, ie, a playing action. For this reason, each character performs a performance motion when a play (performance) is started. A character image 54 other than the user character also performs a similar performance action at the start of play. A musical performance is formed by a combination of these musical performance movements, in other words, musical performance movements by one performance unit as a whole.

一方、演奏パフォーマンスの一部は、コンピュータ制御のいわゆるNPC(ノンプレイヤキャラクタ)によって実行される場合がある。NPCによる演奏パフォーマンス(演奏動作)は、適宜に実現されてよく、例えば事前に設定(用意)された動作により実現されてもよいが、一例として過去のプレイにおけるユーザキャラクタの演奏動作(演奏動作の実績)を実行する(トレースする)ように実現される。この場合、楽器別に一つの過去の演奏動作(例えば直近の演奏動作)だけがNPCに適用されてもよいが、一例として複数の候補からユーザによって選択された演奏動作がNPCに適用される。複数の候補が用意される場合、それらからプレイ用の演奏動作を選択するための選択機会(以下、演奏選択機会と呼ぶ場合がある)では選択の指標となる指標情報が必要となる。このため、他のキャラクタ(NPC、及び他のユーザキャラクタの両方を含む)の演奏パフォーマンス(演奏動作。過去の演奏動作の実績だけでなく、例えばメーカによって事前に用意された動作を含む。)はユーザによって評価される。 On the other hand, part of the musical performance may be performed by computer-controlled so-called NPCs (Non-Player Characters). The musical performance (playing motion) by the NPC may be realized appropriately, for example, by a motion set (prepared) in advance. performance) is implemented to execute (trace). In this case, only one past performance motion (for example, the most recent performance motion) for each instrument may be applied to the NPC, but as an example, a performance motion selected by the user from a plurality of candidates is applied to the NPC. When a plurality of candidates are prepared, a selection opportunity (hereinafter sometimes referred to as a performance selection opportunity) for selecting a performance action for play from them requires index information as an index for selection. For this reason, performance performances (playing motions, including not only performance performance results in the past, but also motions prepared in advance by the manufacturer, for example) of other characters (including both NPCs and other user characters) are User rated.

図6は、演奏パフォーマンスの評価の流れを説明するための説明図である。演奏パフォーマンスの評価は、演奏パフォーマンスの途中を含む適宜の時期に実行されてよいが、図6の例は演奏パフォーマンスの終了後(換言すれば楽曲演奏の終了後)に評価期間が設けられ、その評価期間において実行される場合を示している。また、図6の例は、他のキャラクタ(被評価キャラクタ)の一例としてコンピュータによって制御される第2キャラクタ画像54B(NPC)の演奏パフォーマンスが評価される場合を示している。この場合、図6に示すように、評価期間において第3キャラクタ画像54C(評価キャラクタ)を介してユーザ(以下、他のキャラクタを評価するユーザを評価者と呼ぶ場合がある)が実行する評価アクションに基づいて第2キャラクタ画像54Bの演奏パフォーマンスが評価される。 FIG. 6 is an explanatory diagram for explaining the flow of performance evaluation. The evaluation of the musical performance may be performed at an appropriate time, including during the musical performance, but in the example of FIG. It shows the case where it is executed during the evaluation period. Also, the example of FIG. 6 shows a case where the performance performance of a second character image 54B (NPC) controlled by a computer is evaluated as an example of another character (character to be evaluated). In this case, as shown in FIG. 6, an evaluation action executed by a user (hereinafter, a user who evaluates another character may be referred to as an evaluator) via a third character image 54C (evaluation character) during the evaluation period. The playing performance of the second character image 54B is evaluated based on.

具体的には、評価アクションは、第3キャラクタ画像54Cの行動に反映されない各種の操作(例えば第3キャラクタ画像54Cの行動との関連付けのない、評価アクション専用の操作部への操作)等として評価者によって実行されてもよいが、一例として第3キャラクタ画像54Cの行動に反映される行為として評価者によって実行される。評価アクションは、第3キャラクタ画像54C(評価者)によって任意に実行されるアクションである(実行されない場合もある)。つまり、評価アクションは演奏パフォーマンスに付加されるように実行されるアクション(行動)である。NPCは評価期間においても過去の評価期間における動作をトレースするように動作してもよく、その場合、評価アクションもトレースされても、評価アクションはトレース対象の動作から除外されてもよいが、一例として評価期間では過去の動作をトレースせずに所定の動作を実行する。いずれにしても評価アクションは、評価期間における動作を含む演奏パフォーマンスとは別に付加的に実行される。この例において評価アクションが本発明の付加行動として機能する。 Specifically, the evaluation action is evaluated as various operations that are not reflected in the behavior of the third character image 54C (for example, an operation to an operation section dedicated to the evaluation action that is not associated with the behavior of the third character image 54C). However, as an example, it is performed by the evaluator as an action reflected in the action of the third character image 54C. An evaluation action is an action that is arbitrarily executed by the third character image 54C (evaluator) (there are cases where it is not executed). In other words, evaluation actions are actions that are performed in addition to musical performances. An NPC may act during an evaluation period to trace its actions in past evaluation periods, in which case the evaluation actions may also be traced, or the evaluation actions may be excluded from the traced behavior, but an example In the evaluation period, a predetermined operation is executed without tracing past operations. In any case, the evaluation actions are performed separately and additionally from the performance performance, which includes the actions during the evaluation period. In this example the evaluation action functions as an additional action of the present invention.

また、評価アクションは、第2キャラクタ画像54Bの状態にかかわらず、第3キャラクタ画像54Cによって一方的に実行されてもよいが、一例として第2キャラクタ画像54Bと第3キャラクタ画像54C(評価者)との間に形成される連携状態の形成を条件に実行される。このため、評価期間において第2キャラクタ画像54B、及び第3キャラクタ画像54Cには連携状態、及び連携状態を形成していない待機状態の二種類の状態が形成される。 Also, the evaluation action may be unilaterally executed by the third character image 54C regardless of the state of the second character image 54B. is executed on the condition that an association state is formed between Therefore, during the evaluation period, two types of states are formed in the second character image 54B and the third character image 54C: the linked state and the standby state in which the linked state is not formed.

連携状態は、評価者による評価を受け入れる状態として評価キャラクタと被評価キャラクタとの間に形成される状態である。連携状態は、第2キャラクタ画像54Bと第3キャラクタ画像54Cとの間の各種の行為(被評価キャラクタがユーザキャラクタの場合、キャラクタの行動として反映されない各種の操作等を含む)によって適宜に形成されてよいが、一例として第3キャラクタ画像54Cによる連携アクション、及び第2キャラクタ画像54Bによる応答アクションによって形成される。連携アクション、及び応答アクションの順番は適宜でよく、例えば応答アクションの後に連携アクションが実行された場合に連携状態が形成されてもよいが、一例として連携アクションが先に実行され、それに応答するように応答アクションが実行された場合に連携状態が形成される。 The cooperation state is a state formed between the evaluation character and the evaluated character as a state of accepting the evaluation by the evaluator. The cooperation state is appropriately formed by various actions between the second character image 54B and the third character image 54C. However, as an example, it is formed by a cooperative action by the third character image 54C and a response action by the second character image 54B. The order of the cooperative action and the response action may be arbitrary. For example, the cooperative state may be formed when the cooperative action is executed after the response action. A federated state is formed when a response action is performed on

被評価キャラクタがユーザキャラクタの場合、連携状態、及び待機状態のいずれにおいてもユーザの操作に基づく自由な行動が許容されてもよい。この場合、連携アクション後において一定時間内に応答アクションが実行されないときには、評価者による一方的な評価(連携状態の形成を条件にしない評価)に切替られても、連携アクションが解除され、連携状態の形成には再度の連携アクションが要求されてもよい。このように被評価キャラクタに対応するユーザの操作に応じて演奏パフォーマンスが評価されたりされなかったりしてよいが、一例として被評価キャラクタ(他のキャラクタ)がユーザキャラクタの場合でも評価期間にはコンピュータ制御に切り替えられ、連携状態、及び待機状態のいずれにおいても所定の行動を実行する。そして、他のキャラクタは積極的に連携状態が形成されるように行動する。 When the character to be evaluated is a user character, free action based on user's operation may be allowed in both the cooperation state and the standby state. In this case, if the response action is not executed within a certain period of time after the cooperative action, even if the evaluator switches to a one-sided evaluation (evaluation that does not require the formation of a cooperative state), the cooperative action will be canceled and the cooperative state will be changed. Formation of may require another coordinated action. In this way, the performance performance may or may not be evaluated according to the user's operation corresponding to the character to be evaluated. It is switched to control, and performs a predetermined action in both the cooperation state and the standby state. Other characters actively act to form a cooperative state.

具体的には、第2キャラクタ画像54Bは待機状態(連携状態も同様)において事前に設定された行動、或いは評価期間における動作の実績をトレースする行動といった各種の所定の行動を適宜に実行してよいが、連携アクションの後にはそれをトリガ(契機)に応答アクションを実行するように制御される。つまり、第2キャラクタ画像54Bは連携アクションに伴い連携状態の形成が促進されるように積極的に応答アクションを実行する。一例として、このように第2キャラクタ画像54Bと第3キャラクタ画像54Cとの間に評価を受け入れる(互いを意識する)動作が実行された場合に連携状態が形成される。そして、そのような連携状態において第3キャラクタ画像54Cが評価アクションを実行した場合に、その評価アクションに基づいて第2キャラクタ画像54Bの演奏パフォーマンスが評価される。この例において第2キャラクタ画像54Bが本発明の他のキャラクタとして機能する。なお、第1キャラクタ画像54A~第3キャラクタ画像54Cがそれぞれ三人のユーザによって操作される場合において、これらの第1キャラクタ画像54A~第3キャラクタ画像54Cが本発明の複数のユーザキャラクタとして機能し、それらのうちの第2キャラクタ画像54Bが本発明の別のユーザキャラクタとして機能する。 Specifically, the second character image 54B appropriately executes various predetermined actions such as an action set in advance in the standby state (the same applies to the cooperation state) or an action of tracing the performance of the action during the evaluation period. That's fine, but after the cooperative action, it is controlled to execute the response action with that as a trigger (opportunity). In other words, the second character image 54B positively executes the response action so as to promote the formation of the cooperative state along with the cooperative action. As an example, a cooperative state is formed when an action of accepting an evaluation (awareness of each other) is performed between the second character image 54B and the third character image 54C. Then, when the third character image 54C executes an evaluation action in such a cooperative state, the playing performance of the second character image 54B is evaluated based on the evaluation action. In this example, the second character image 54B functions as another character of the invention. Note that when the first character image 54A to the third character image 54C are each operated by three users, the first character image 54A to the third character image 54C function as the plurality of user characters of the present invention. , the second character image 54B of them functions as another user character of the present invention.

図7は、連携アクションの一例を説明するための説明図である。連携アクションは適宜のアクションであってよい。例えば、ドラム担当が特定のシンバル等を叩く動作が連携アクションとして採用されてもよいし、声かけ(発声)が連携アクションとして採用されてもよい。このように連携アクションとして各種のアクションが適宜に採用されてよいが、一例として対象の被評価キャラクタに視線を向ける動作が採用される。また、このような視線を向ける動作は適宜に判別されてよく、例えば図5の例のように一つのキャラクタ画像54のみが視界範囲IAに含まれている場合にそのキャラクタ画像54に視線が向けられていると判別されてもよく、この場合視界範囲IAが視線を向ける動作の判別に使用されてよい。このように視線を向ける動作は適宜に判別されてよいが、一例として視界範囲IAの一部に視野範囲が設定され、その視野範囲に基づいて視線を向ける動作の有無が判別される。このため、ゲーム画面50(あるいは仮想三次元空間)には、ユーザの視線(ユーザキャラクタの視線)を判別するための視野範囲が設定される。図7の例は、このような視野範囲として図5の例のゲーム画面50に設定される視野範囲を模式的に示している。 FIG. 7 is an explanatory diagram for explaining an example of a cooperative action. A collaborative action may be any suitable action. For example, a motion of a drummer hitting a specific cymbal or the like may be adopted as a cooperative action, or a call (vocalization) may be adopted as a cooperative action. As described above, various actions may be appropriately adopted as the cooperative action, and as an example, an action of directing the line of sight to the target character to be evaluated is adopted. In addition, such an action of directing the line of sight may be appropriately determined. For example, when only one character image 54 is included in the visual range IA as in the example of FIG. In this case, the visibility range IA may be used to determine the gaze turning action. In this way, the action of directing the line of sight may be appropriately determined. As an example, a visual field range is set as a part of the visual field range IA, and the presence or absence of the motion of directing the line of sight is determined based on the visual field range. Therefore, the game screen 50 (or virtual three-dimensional space) is set with a visual field range for determining the line of sight of the user (the line of sight of the user character). The example of FIG. 7 schematically shows the visual field range set on the game screen 50 of the example of FIG. 5 as such a visual field range.

図7に示すように、視野範囲IRは、中心視野範囲IR1、及び周辺視野範囲IR2を含んでいる。視野範囲IRはゲーム画面50の適宜の位置に形成されてよく、その位置は可変的であってもよい。また、視野範囲IRの位置がゲーム画面50において可変的に設定される場合、その位置は、例えばアイトラッキングによる視線のトラッキングといった各種の検出結果等を通じて適宜に設定されてよい。このように視野範囲IRはゲーム画面50に適宜に設定されてよいが、一例としてゲーム画面50(視界範囲)の中央付近に固定的に形成される。また、視野範囲IRは可視化されていてもよいが、一例として不可視に設定される。つまり、図7の例では便宜的に中心視野範囲IR1がドット柄で、周辺視野範囲IR2が右斜線で、それぞれ表示されているが、図5の例のように実際のゲーム画面50には視野範囲IRは表示されない。 As shown in FIG. 7, the viewing range IR includes a central viewing range IR1 and a peripheral viewing range IR2. The visual field range IR may be formed at an appropriate position on the game screen 50, and its position may be variable. Further, when the position of the visual field range IR is variably set on the game screen 50, the position may be appropriately set through various detection results such as tracking of the line of sight by eye tracking. Although the visual field range IR may be appropriately set on the game screen 50 in this way, as an example, it is fixedly formed near the center of the game screen 50 (visual field range). Also, the visual field range IR may be visible, but is set to be invisible as an example. That is, in the example of FIG. 7, the central visual field range IR1 is displayed with a dot pattern, and the peripheral visual field range IR2 is displayed with right diagonal lines, respectively, for the sake of convenience. Range IR is not displayed.

中心視野範囲IR1は、視線を向ける動作の判別に使用される範囲である。中心視野範囲IR1は適宜の形状に形成されてよいが、一例として所定の大きさの円形に形成される。また、視線を向ける動作の判別は、中心視野範囲IR1を利用して適宜に実現されてよく、例えば頭部等の主要部位が含まれている場合に視線を向けていると判別されてもよいが、一例として中心視野範囲IR1にキャラクタ画像54が一定割合以上含まれている(入っている)場合にそのキャラクタ画像54に視線を向けていると判別される。また、このような一定割合は適宜に設定されてよいが、一例として対象のキャラクタ画像54の半分以上の面積が利用される。例えば、図7の例では第2キャラクタ画像54Bの半分以上が、中心視野範囲IR1に入っている。この場合、ユーザキャラクタ(第3キャラクタ画像54C)は第2キャラクタ画像54Bに視線を向けていると判別される。 The central visual field range IR1 is a range used for determining the action of directing the line of sight. Although the central visual field range IR1 may be formed in an appropriate shape, as an example, it is formed in a circular shape with a predetermined size. In addition, the determination of the action of directing the line of sight may be appropriately realized using the central visual field range IR1, and for example, it may be determined that the line of sight is directing when the main part such as the head is included. However, as an example, when the character image 54 is included (contained) at a certain rate or more in the central visual field range IR1, it is determined that the line of sight is directed to the character image 54 . Also, such a fixed ratio may be set as appropriate, but as an example, an area of half or more of the target character image 54 is used. For example, in the example of FIG. 7, more than half of the second character image 54B is within the central visual field range IR1. In this case, it is determined that the user character (third character image 54C) is looking at the second character image 54B.

一方、周辺視野範囲IR2は中心視野範囲IR1を含むようにその周囲に形成される領域である。周辺視野範囲IR2の形状も適宜に形成されてよいが、一例として中心視野範囲IR1を中央付近に含む所定の大きさの楕円形に形成される。周辺視野範囲IR2は適宜に利用されてよく、省略されてもよいが、一例として連携アクションの判別のための準備に使用される。具体的には、周辺視野範囲IR2にキャラクタ画像54が入ってきた場合にそのキャラクタ画像54に視線を向ける可能性があるとコンピュータは判別し、中心視野範囲IR1にキャラクタ画像54が含まれるか否か判別を開始する。一例として、このような視野範囲IRがゲーム画面50に設定され、連携アクションの実行の有無、つまりユーザのキャラクタ画像54が他のキャラクタ画像54に視線を向けているか否の判別が実現される。この例において視線を向ける動作(連携アクション)が本発明のユーザアクションとして機能する。 On the other hand, the peripheral vision range IR2 is an area formed around the central vision range IR1 so as to include it. The shape of the peripheral visual field range IR2 may also be formed as appropriate, but as an example, it is formed in an elliptical shape of a predetermined size including the central visual field range IR1 in the vicinity of the center. The peripheral vision range IR2 may be used as appropriate, or may be omitted, but as an example, it is used to prepare for determining cooperative actions. Specifically, when the character image 54 enters the peripheral visual field range IR2, the computer determines that there is a possibility that the line of sight is directed to the character image 54, and determines whether the character image 54 is included in the central visual field range IR1. start to judge whether As an example, such a visual field range IR is set on the game screen 50 to determine whether or not a cooperative action is executed, that is, whether or not the user's character image 54 is looking at another character image 54 . In this example, the action of directing the line of sight (collaborative action) functions as the user action of the present invention.

図8は、応答アクションの一例を説明するための説明図である。応答アクションとして、連携アクションに応じて、或いは連携アクションとは独立して各種の動作(反応)が適宜に採用されてよく、例えば各キャラクタが自己の楽器を軽く演奏する動作やサムアップ等の連携アクションの認識を示す各種の動作が採用されてよいが、この種の動作の一例として視線を向ける動作が利用される。つまり、ユーザキャラクタ(評価キャラクタ)が連携アクションとして他のキャラクタ(被評価キャラクタ)に視線を向ける動作を実行した後、その他のキャラクタによって実行される同様の動作(視線を向けたユーザキャラクタに視線を向ける動作)が応答アクションとして利用される。図8の例は、応答アクションとしてこのような視線を向ける動作を実行する他のキャラクタ画像54(NPC)の一例を模式的に示している。また、図8の例の(A)は応答アクション前のキャラクタ画像54を、(B)は応答アクション時のキャラクタ画像54を、それぞれ示している。 FIG. 8 is an explanatory diagram for explaining an example of a response action. As the response action, various actions (reactions) may be appropriately adopted according to the cooperative action or independently of the cooperative action. Various motions that indicate recognition of an action may be employed, and an example of this type of motion is the motion of turning one's gaze. In other words, after the user character (evaluation character) performs a motion of directing the line of sight to another character (character to be evaluated) as a cooperative action, the other character performs a similar motion pointing action) is used as a response action. The example of FIG. 8 schematically shows an example of another character image 54 (NPC) that performs such a gaze turning action as a response action. 8A shows the character image 54 before the response action, and FIG. 8B shows the character image 54 during the response action.

図8の(A)に示すように、他のキャラクタ画像54(コンピュータによって制御されるキャラクタ)は、応答アクション前において正面側、つまり連携アクションとして視線を向けたキャラクタ画像54(ユーザ)の方向を向いていない。応答アクション前において他のキャラクタ画像54は適宜の方向を向いていてよく、例えば背中を向けるような方向を向いていてもよいが、図8の例では左方向に首を向け、視線も同様の左方向を向いている。一方、図8の(B)に示すように、その他のキャラクタ画像54は、応答アクション時には正面側に首を向け、視線も同様の正面側を向く。つまり、ユーザ(評価者)によって連携アクションとして視線を向ける動作が実行された場合(中心視野範囲IR1にキャラクタ画像54が一定割合以上含まれた場合)、その視線を向ける動作に応答してユーザに視線を返すように、他のキャラクタ画像54もユーザの方に同様の視線を向ける動作を実行する。これは他のキャラクタ画像54がユーザの方(正面側)に背中を向けていても(背中を向けるような方向を向いていても)同様である。つまり、応答アクション前の向きにかかわらず、他のキャラクタ画像54は応答アクションとしてユーザの方に視線を向ける動作を実行する。なお、評価期間では、ユーザ(評価者)が視線を他のキャラクタ画像54に向けやすいように、例えばユーザ(評価者)に対して背中を向ける動作を避ける等の制御が他のキャラクタ画像54に実行されてもよい。 As shown in FIG. 8A, another character image 54 (a character controlled by a computer) is directed to the front side, that is, the direction of the character image 54 (user) to which the line of sight is directed as a cooperative action before the response action. Not suitable. Before the response action, the other character image 54 may be oriented in an appropriate direction, for example, it may be oriented such that the back is turned, but in the example of FIG. facing left. On the other hand, as shown in FIG. 8B, the other character image 54 turns its head to the front side during the response action, and also turns the line of sight to the front side as well. That is, when the user (evaluator) performs a motion of directing the line of sight as a cooperative action (when a certain proportion or more of the character image 54 is included in the central visual field range IR1), the user (evaluator) responds to the motion of directing the line of sight. The other character image 54 performs a similar action of directing the line of sight toward the user so as to return the line of sight. This is the same even if the other character image 54 has its back turned toward the user (front side) (even if it faces the direction in which the back is turned). In other words, regardless of the orientation before the response action, the other character image 54 executes the motion of turning its gaze toward the user as the response action. During the evaluation period, other character images 54 are controlled so that the user (evaluator) can easily turn his or her line of sight to the other character image 54, for example, to avoid turning his or her back to the user (evaluator). may be executed.

他のキャラクタ画像54の視線の向きは適宜に判別されてよいが、一例として他のキャラクタ画像54にもユーザキャラクタと同様の視野範囲IRが設定され、視野範囲IRに入っているか否か、より具体的には視野範囲IRに中心視野範囲IR1にユーザキャラクタが一定割合以上入っているか否かに応じて判別される。また、このような視線を向ける動作(視線を返す動作)は、適宜のタイミングで実行されてよく、例えば連携アクションとは時差的に実行されてもよい。つまり、視線を向ける動作に対して視線を返す動作は、ユーザが視線を外した後において実行されてもよい。このように視線を返す動作は適宜のタイミングで実行されてよいが、一例として双方によるアイコンタクトが実現されるようにユーザが視線を向けている最中に実行される。この場合において、他のキャラクタ画像54が視線を向ける前にユーザが視線を外した場合、応答アクションは未完了と判断されてもよい(この場合、応答アクションのために再度連携アクションの実行が要求される)が、一例として他のキャラクタ画像54が視線を向ける動作の開始後であればユーザの視線を外す動作は許容される。一例として、連携アクションの対象となった(視線を向けられた)キャラクタ画像54は、このような応答アクションを実行する。この例において視線を向ける動作(応答アクション)が本発明の対応アクションとして機能する。 The line-of-sight direction of the other character image 54 may be appropriately determined, but as an example, a visual field range IR similar to that of the user character is set for the other character image 54, and whether or not it is within the visual field range IR is determined. Specifically, determination is made according to whether or not a certain percentage or more of the user character is included in the central visual field range IR1 in the visual field range IR. Further, such an action of directing the line of sight (the action of returning the line of sight) may be performed at an appropriate timing, and may be performed with a time lag from the cooperative action, for example. That is, the action of returning the line of sight to the action of directing the line of sight may be performed after the user removes the line of sight. The action of returning the line of sight in this way may be performed at an appropriate timing, but as an example, it is performed while the user is directing the line of sight so that eye contact is realized by both parties. In this case, if the user removes the line of sight before the other character image 54 turns the line of sight, it may be determined that the response action is incomplete (in this case, execution of the cooperative action is requested again for the response action). However, as an example, the action of removing the user's line of sight is permitted after the other character image 54 starts to turn the line of sight. As an example, the character image 54 that is the target of the cooperative action (to which the line of sight is directed) executes such a response action. In this example, the action of turning the line of sight (response action) functions as the corresponding action of the present invention.

なお、連携状態の形成は、上述の視線を向け合う動作、つまりユーザキャラクタの視線を向ける動作(連携アクション)に対する他のキャラクタの視線を向ける動作(応答アクション)に限定されない。連携状態は適宜に形成されてよい。例えば、楽器を演奏し合う動作、サムアップ等の所定の動作(双方の間で一致していても相違していてもよい)を実行し合う動作、或いは声を掛け合う動作の各種の連携アクション、及び応答アクションに伴い、連携状態が形成されてよい。あるいは、ユーザキャラクタ(仮想カメラ)と他のキャラクタとが近づきあったとき、換言すればユーザキャラクタと他のキャラクタとの距離が所定範囲内となったときに連携状態が形成されてもよいし、ユーザキャラクタと他のキャラクタとが正対したときに連携状態が形成されてもよい。 Note that the formation of the cooperative state is not limited to the action of directing the line of sight to each other, that is, the action of directing the line of sight of another character (response action) to the action of directing the user character's line of sight (collaborative action). The federation state may be formed accordingly. For example, actions of playing musical instruments, actions of executing predetermined actions such as thumbs-up (which may be the same or different between the two), or various cooperative actions such as actions of talking to each other, and with the response action, a federated state may be formed. Alternatively, when the user character (virtual camera) and another character approach each other, in other words, when the distance between the user character and the other character falls within a predetermined range, the cooperative state may be formed. A cooperative state may be formed when the user character faces another character.

同様に、評価アクションとして操作スティックOS、或いはHMD型のゲーム機4を介して入力可能な各種の行為が採用され得るが、一例としてサムアップ、頷き、バンザイ、或いは首振りといった動作が採用される。具体的には、例えばサムアップは操作スティックOSのタッチボタンTBを押す操作により実現される。頷き及び首振りは、ユーザの頷く動作(行為)、或いは首を振る動作(行為)に伴い同様に動作するHMD型のゲーム機4により検出、及び入力される。バンザイは、ユーザのバンザイ動作(両手を上にあげる動作)に伴い上方に移動する左右両手の操作スティックOSを検出するHMD型のゲーム機4により入力される。そして、これらの動作が実行され、その動作に伴いその動作に対応する評価アクションを連携状態において評価キャラクタが実行した場合に、被評価キャラクタの演奏パフォーマンスがその実行された評価アクションに基づいて評価される。この例において、タッチボタンTBを押す操作、或いは頷く動作等の各動作(行為)が本発明の付加指示行為として、それらの複数種類の動作が本発明の複数種類の付加指示行為として、それぞれ機能する。 Similarly, various actions that can be input via the operation stick OS or the HMD-type game machine 4 can be adopted as evaluation actions, and as an example, actions such as thumbs up, nodding, banging, or head shaking are adopted. . Specifically, for example, thumb-up is realized by pressing the touch button TB of the operation stick OS. The nodding and head shaking are detected and input by the HMD-type game machine 4, which operates in the same manner as the user nods (action) or shakes the head (action). The banzai is input by the HMD type game machine 4 that detects the left and right operation sticks OS that move upward in accordance with the user's banzai action (movement of raising both hands). When these motions are executed and the evaluation character executes the evaluation action corresponding to the motion in the cooperative state, the performance performance of the character to be evaluated is evaluated based on the executed evaluation action. be. In this example, each action (action) such as an operation of pressing the touch button TB or a nodding action functions as an additional instruction action of the present invention, and a plurality of types of these actions function as a plurality of additional instruction actions of the present invention. do.

図9は、評価アクションに基づく演奏パフォーマンスの評価結果の一例を説明するための説明図である。演奏パフォーマンスの評価結果は、例えばスコア等のプレイの評価結果に影響を与えてもよく、適宜に他の用途に使用されてもよいが、図9の例は演奏選択機会において指標情報として使用される場合を示している。また、評価アクションとして上述のサムアップ等のいずれか一つの動作が機能してもよいが、図9の例はそれらのいずれもが評価アクションとして機能する場合、つまり評価アクションとして複数種類のアクションが用意される場合を示している。さらに、これらの評価アクションは適宜の手法で評価されてよいが、図9の例は評価アクションとして実行された動作の種類、及びその実行回数が評価結果として利用される場合を示している。具体的には、図9の例は、このような場合の評価アクションの種類、及びそれに基づく演奏パフォーマンスの評価結果を管理するデータの一例を模式的に示している。 FIG. 9 is an explanatory diagram for explaining an example of performance performance evaluation results based on evaluation actions. Performance performance evaluation results may influence play evaluation results such as scores, for example, and may be used for other purposes as appropriate, but the example in FIG. It shows the case where Also, any one action such as the above-mentioned thumb-up operation may function as the evaluation action, but in the example of FIG. Indicates when it is available. Furthermore, these evaluation actions may be evaluated by an appropriate method, but the example in FIG. 9 shows a case where the type of action executed as the evaluation action and the number of executions thereof are used as evaluation results. Specifically, the example of FIG. 9 schematically shows an example of data for managing the types of evaluation actions in such a case and performance performance evaluation results based thereon.

図9に示すように、演奏パフォーマンスの評価結果は、その演奏パフォーマンスを実行したユーザ(NPCによるパフォーマンスの場合はそのパフォーマンスの元となったプレイを実行したユーザ)毎に楽曲の情報と関連付けられて管理される。より具体的には、演奏パフォーマンスの評価結果は、“評価”の情報として、“ユーザ”、及び“楽曲”の情報と関連付けられて管理される。 As shown in FIG. 9, the performance evaluation result is associated with music information for each user who performed the performance (in the case of a performance by NPC, the user who performed the play on which the performance was based). managed. More specifically, performance performance evaluation results are managed in association with “user” and “music” information as “evaluation” information.

“ユーザ”は上述の演奏パフォーマンスを実行したユーザ(以下、実行ユーザと呼ぶ場合がある)を示す情報である。“ユーザ”の情報として実行ユーザを示す各種の情報が適宜に使用され得るが、図9の例では“Aユーザ”の情報が示されている。“Aユーザ”は実行ユーザがAユーザであることを示す情報である。 "User" is information indicating the user who executed the performance performance (hereafter, sometimes referred to as the executing user). Various types of information indicating the execution user can be appropriately used as the "user" information, but in the example of FIG. 9, "A user" information is shown. "A user" is information indicating that the execution user is the A user.

“楽曲”は、演奏パフォーマンスで使用された楽曲に関する情報である。“楽曲”は楽曲に関連する各種の情報を適宜に含んでいてよいが、図9の例では“ID”、及び“難易度”の情報を含んでいる。“ID”は各楽曲を識別するために楽曲毎にユニークな情報である。“ID”の情報として各楽曲を識別可能な適宜の情報が使用されてよいが、図9の例では説明の便宜のため“A楽曲”、“B楽曲”といった名称の情報が示されている。“難易度”は楽曲の難易度を示す情報である。各楽曲にはプレイの難しさを示す情報として楽曲毎に一つ、或いは複数の難易度が適宜に設定されてよいが、一例としてN難易度(通常の難易度)、H難易度(通常よりも難易度の高い、ハード難易度)、及びS難易度(ハード難易度よりも更に難易度の高い、スーパーハード難易度)の三種類が楽曲毎に用意される。この場合、これらの難易度を示す適宜の情報が“難易度”の情報として使用されてよいが、図9の例では説明の便宜のため“N難易度”等の各難易度の名称が示されている。 "Music" is information about music used in the musical performance. The "music" may appropriately include various types of information related to the music, but in the example of FIG. 9, it includes "ID" and "difficulty" information. "ID" is information unique to each song to identify each song. Appropriate information that can identify each song may be used as the “ID” information, but in the example of FIG. 9, information with names such as “A song” and “B song” is shown for convenience of explanation. . "Difficulty" is information indicating the difficulty of the song. One or a plurality of difficulty levels may be appropriately set for each song as information indicating the difficulty of playing each song. There are three types of difficulty for each song: hard difficulty (higher difficulty than hard difficulty) and S difficulty (super hard difficulty, higher difficulty than hard difficulty). In this case, appropriate information indicating these difficulty levels may be used as "difficulty level" information, but in the example of FIG. It is

“評価”は演奏パフォーマンスの評価結果に関する情報である。“評価”は演奏パフォーマンスの評価結果に関連する各種の情報を適宜に含み得るが、図9の例では“種類”、及び“結果”の情報を含んでいる。“種類”は評価アクションの種類を示す情報である。“種類”の情報として評価アクションの種類を示す適宜の情報が使用されてよいが、図9の例では説明の便宜のため、“サムアップ”、“頷き”、“バンザイ”、及び“首振り”といった各評価アクションの名称が示されている。また、評価者による演奏パフォーマンスの評価が実行されない場合も想定され、その場合、その評価不実行の情報は管理されなくてもよいが、図9の例では“種類”の情報において“評価なし”の情報として管理される。“結果”は評価結果を示す情報である。“結果”の情報として評価結果を示す各種の情報が適宜に使用されてよいが、図9の例では“2”、“0”、“3”といった各評価アクションの実行数を示す数値の情報が示されている。 "Evaluation" is information about performance performance evaluation results. The "evaluation" can appropriately include various types of information related to performance performance evaluation results, and in the example of FIG. 9, includes "type" and "result" information. “Type” is information indicating the type of evaluation action. Appropriate information indicating the type of evaluation action may be used as the “type” information, but in the example of FIG. ”, the name of each evaluation action is shown. It is also assumed that the performance performance evaluation by the evaluator may not be executed. In that case, the information indicating that the evaluation is not executed may not be managed, but in the example of FIG. is managed as information of “Result” is information indicating the evaluation result. Various types of information indicating the evaluation results may be used as appropriate as the “result” information, but in the example of FIG. It is shown.

音楽ゲームでは、自己の演奏パフォーマンスの評価(評価者が実行ユーザとなる演奏パフォーマンスの評価)が許容されてもよいが、一例として他のユーザによる演奏パフォーマンスが評価される。このため、例えば評価者(Aユーザとは別のユーザ)がA楽曲を使用したN難易度のプレイにおいて他のキャラクタにAユーザの過去の演奏パフォーマンスをトレースさせた場合、評価結果は“Aユーザ”に対応する“A楽曲”の“N難易度”に関連付けられる“評価”に反映される。具体的には、評価者が評価アクションとしてサムアップを実行した場合、“種類”の“サムアップ”に関連付けられる実行数(累積値)が評価結果として一つ増える。つまり、図9の例の2回を示す“2”から3回を示す“3”にカウントアップされるように、“サムアップ”に対応する“結果”が更新される。評価アクションとして“頷き”、“バンザイ”、及び“首振り”が実行された場合も同様である。つまり、頷き等に対応する実行数が評価結果として同様にカウントアップされる。一方、評価アクションが評価期間に実行されなかった場合(検出できなかった場合を含む)、“種類”の“評価なし”に関連付けられる回数が評価結果として同様に一つカウントアップされる。なお、所定時間内に評価アクションが実行されない場合等、評価期間では適宜のタイミングで表示、或いは音声等を通じて評価アクションを促す各種のアナウンスが実行されてよい。 In a music game, evaluation of one's performance performance (evaluation of performance performance by an evaluator serving as an execution user) may be permitted, but as an example, performance performances by other users are evaluated. For this reason, for example, when an evaluator (a user other than user A) causes another character to trace user A's past performance performance in a play using music piece A with difficulty level N, the evaluation result is "user A is reflected in the "evaluation" associated with the "N difficulty level" of the "A song" corresponding to ". Specifically, when the evaluator performs a thumbs-up as an evaluation action, the number of executions (cumulative value) associated with "thums-up" of the "type" increases by one as the evaluation result. That is, the "result" corresponding to the "thumb up" is updated so that it is counted up from "2" indicating two times in the example of FIG. 9 to "3" indicating three times. The same is true when “nod”, “banzai”, and “head shake” are executed as evaluation actions. That is, the number of executions corresponding to the nod or the like is similarly counted up as the evaluation result. On the other hand, if the evaluation action was not executed during the evaluation period (including the case where it could not be detected), the number of times associated with "no evaluation" of the "type" is similarly counted up by one as the evaluation result. In the evaluation period, when the evaluation action is not executed within a predetermined time, various announcements may be made to prompt the evaluation action through display or voice at an appropriate timing.

図10は、評価アクションに基づく演奏パフォーマンスの評価結果の他の例を説明するための説明図である。上述のように評価アクションは適宜の手法で評価されてよく、図9の例のように評価アクションの種類毎にその実行数が評価結果として取得されてもよいが、例えばその他にもサムアップ動作は4ポイント、頷きは3ポイント、バンザイは2ポイント、首振りは1ポイントといった具合に各評価アクションの種類毎に異なる評価値が設定されていてもよい。また、各評価アクションの種類毎に異なる評価値が設定される(各評価アクションの価値に重み付けが設定される)場合、評価者によって実行された評価アクションの種類は管理対象の情報から省略されてもよい。図10の例は、このような場合の評価アクションに基づく演奏パフォーマンスの評価結果を管理するデータの一例を模式的に示している。 FIG. 10 is an explanatory diagram for explaining another example of performance performance evaluation results based on evaluation actions. As described above, evaluation actions may be evaluated by an appropriate method, and the number of executions for each type of evaluation action may be obtained as an evaluation result as in the example of FIG. is 4 points, nodding is 3 points, banzai is 2 points, and head shaking is 1 point. Also, when a different evaluation value is set for each type of evaluation action (weighting is set for the value of each evaluation action), the type of evaluation action executed by the evaluator is omitted from the information to be managed. good too. The example of FIG. 10 schematically shows an example of data for managing performance performance evaluation results based on evaluation actions in such a case.

図10に示すように、各評価アクションの種類に異なる評価値が設定され、実行された評価アクションの種類が管理対象から省略される場合、“種類”及び“結果”の情報の変わりに、“評価”の情報として評価値の累積値(以下、累積評価値と呼ぶ場合がある)の情報が記述される。つまり、演奏パフォーマンスの評価結果は、累積評価値としてそのパフォーマンスに使用された楽曲、及び難易度毎に関連付けられるように管理される。 As shown in FIG. 10, when a different evaluation value is set for each type of evaluation action and the type of executed evaluation action is omitted from the management target, instead of the information of "type" and "result", " As the information of "evaluation", the information of the accumulated evaluation value (hereinafter sometimes referred to as the accumulated evaluation value) is described. In other words, the performance performance evaluation results are managed so as to be associated with each piece of music used in the performance and each degree of difficulty as a cumulative evaluation value.

より具体的には、各評価アクションには適宜の評価値が設定されてよいが、例えば上述の4ポイント等がサムアップ等にそれぞれ設定される場合、図9の例においてAユーザのA楽曲を使用したN難易度の演奏パフォーマンスに関連付けられる評価結果は、サムアップによる8ポイント(4ポイント×2回)、及び首振りによる3ポイント(1ポイント×3回)の計11ポイント(頷き、バンザイ、及び評価なしはいずれもゼロポイント)と算出される。このため、図10の例では、例えばAユーザのA楽曲を使用したN難易度の演奏パフォーマンスの評価結果として“評価”には、11ポイントの累積評価値を示す“11”の情報が記述されている。そして、評価者が今回の評価期間において評価アクションとしてサムアップを実行した場合、サムアップに設定される評価値(4ポイント)が累積評価値に加算されるように、つまり累積評価値が“11”から15ポイントを示す“15”にカウントアップされるように“評価”の情報が更新される。他の難易度、他の楽曲、並びに頷き等の他の評価アクションが実行された場合についても同様である。 More specifically, an appropriate evaluation value may be set for each evaluation action. For example, when the above-mentioned 4 points or the like are set for thumb-up or the like, in the example of FIG. The evaluation results associated with the performance performance of the N difficulty level used were 8 points for thumb-up (4 points x 2 times) and 3 points for head shaking (1 point x 3 times), for a total of 11 points (nodding, bangzai, and no evaluation are calculated as zero points). Therefore, in the example of FIG. 10, information of "11" indicating an accumulated evaluation value of 11 points is described in the "evaluation" as the evaluation result of the performance performance of user A using song A with N difficulty levels. ing. Then, when the evaluator performs a thumb-up as an evaluation action in the current evaluation period, the evaluation value (4 points) set for the thumb-up is added to the cumulative evaluation value, that is, the cumulative evaluation value becomes "11". ” is updated to “15” indicating 15 points. The same is true for other difficulty levels, other songs, and other evaluation actions such as nodding.

また、図9の例、及び図10の例の評価結果は、上述のように演奏選択機会において指標情報として提示される。具体的には、図9の例の場合、A楽曲のN難易度のプレイ時には演奏選択機会においてAユーザの演奏動作(演奏パフォーマンス)が選択候補として提示されるときに、サムアップ2回、頷き0回、バンザイ0回、首振り0回、及び評価なし3回といった評価アクションの種類、及びその実行回数を示す情報が指標情報として提示される。他のユーザ、楽曲、及び難易度についても同様である。 Also, the evaluation results of the example of FIG. 9 and the example of FIG. 10 are presented as index information at the performance selection opportunity as described above. Specifically, in the case of the example of FIG. 9, when user A's performance action (performance performance) is presented as a selection candidate at the performance selection opportunity when playing music A with difficulty level N, the user nods twice with a thumbs-up. Information indicating the types of evaluation actions such as 0 times, 0 times of bangzai, 0 times of head shaking, and 3 times of no evaluation, and the number of times of execution thereof is presented as index information. The same is true for other users, songs, and difficulty levels.

一方、図10の例の場合、A楽曲のN難易度のプレイ時には演奏選択機会においてAユーザの演奏動作(演奏パフォーマンス)が選択候補として提示されるときに、累積評価値の11ポイントの情報が指標情報として提示される。演奏選択機会において選択候補として提示される演奏動作は、各ユーザにとって自己による過去の演奏動作に限定されてもよいが、一例として他のユーザの演奏動作も使用可能である。一例として、演奏選択機会では、上述のような評価結果に応じた各種の情報がプレイ用の演奏動作を選択するための指標情報として機能するように、他のユーザの演奏動作も候補として含む選択肢とともに提示される。 On the other hand, in the case of the example of FIG. 10 , when playing music A with difficulty level N, when user A's playing motion (playing performance) is presented as a selection candidate at the performance selection opportunity, the information of the cumulative evaluation value of 11 points is displayed. Presented as index information. The performance motions presented as selection candidates in the performance selection opportunity may be limited to the past performance motions of the user himself/herself, but as an example, the performance motions of other users can also be used. As an example, in the performance selection opportunity, the various information corresponding to the evaluation results as described above functions as index information for selecting performance motions for play, so that other users' performance motions are included as candidates. presented with

次に、演奏データODの詳細について説明する。第1キャラクタ画像54A、或いは第2キャラクタ画像54Bといった他のキャラクタ画像54による演奏動作(演奏パフォーマンス)がコンピュータによって制御される場合、上述のようにユーザ(他のユーザも含む)が過去に他のキャラクタ画像54を通じてプレイしたときにユーザが行った演奏動作(プレイ実績)と同様の動作をトレースする(引き写す)ように他のキャラクタ画像54の動作が制御される。演奏データODは、このようなユーザの演奏動作の実績を他のキャラクタに実行させるためのデータである。例えば、ユーザが第2キャラクタ画像54Bを介してプレイした(プレイ用のキャラクタを選択するキャラクタ選択機会においてユーザキャラクタとして選択された)場合、そのプレイにおけるプレイ内容(第2キャラクタ画像54Bを介したギターの演奏動作の実績)が演奏データODに記録され、管理される。ユーザが第1キャラクタ画像54Aを介してプレイした場合の実績も同様である。 Next, the details of the performance data OD will be described. When the computer controls the performance action (performance performance) by the other character image 54 such as the first character image 54A or the second character image 54B, as described above, if the user (including other users) has performed other The actions of the other character images 54 are controlled so as to trace (copy) actions similar to the performance actions (play results) performed by the user when playing through the character images 54 . The musical performance data OD is data for causing other characters to perform such performance actions of the user. For example, when the user plays through the second character image 54B (selected as a user character at the character selection opportunity to select a character for play), the play content (guitar through the second character image 54B) in the play ) are recorded in the performance data OD and managed. The same applies to the results when the user plays through the first character image 54A.

図11は、演奏データODの構成の一例を示す図である。図9の例、或いは図10の例といった演奏パフォーマンスの評価結果を管理するデータは適宜に実現されてよく、単独のデータとして実現されてもよいが、一例として演奏データODの一部として実現される。つまり、演奏データODは、演奏パフォーマンスの評価結果を管理するためのデータを含んでいる。図11の例は、演奏パフォーマンスの評価結果を管理するためのデータとして機能する部分を主に示している。 FIG. 11 is a diagram showing an example of the structure of performance data OD. Data for managing performance performance evaluation results, such as the example of FIG. 9 or the example of FIG. be. In other words, the performance data OD includes data for managing performance evaluation results. The example of FIG. 11 mainly shows a portion functioning as data for managing performance performance evaluation results.

図11に示すように、演奏データODは、動画データ部OD1、及び情報管理部OD2を含んでいる。動画データ部OD1は、他のキャラクタ画像54に演奏動作を実行させるための動画データとして構成される部分である。このような動画データ部は各種の動画データとして適宜に構成されてよいが、一例として各キャラクタ画像54の動作はモーションキャプチャーデータとして構成されるため、動画データ部も同様にモーションキャプチャーデータとして構成される。このモーションキャプチャーデータは適宜に生成されてよく、例えばユーザの全身を撮影するカメラからユーザのモーションを検出してデータ化してもよいし、ユーザの身体に付けられたマーカからその動きを検出してデータ化してもよい。このようにモーションキャプチャーデータ(動画データ部OD1)は適宜に生成されてよいが、一例としてHMD型のゲーム機4の時間経過による動き(頭部の動き)、及び操作スティックOSの時間経過による動きを記録し、それらをモーションに置換することにより生成される。また、動画データ部OD1は、その他にも他のキャラクタ画像54に演奏動作を実行させるための各種の情報を適宜に含んでいてよい。例えば、動画データ部OD1は、操作スティックOSのタッチボタンTB等の操作が操作されたタイミング、操作された操作部の種類、操作スティックOSを振るなど動かしたときの加速度センサSM1等のセンサSMAの検出情報といった各種の操作情報を含んでいてよい。また、センサSMAの検出情報にはセンサの種類に応じた各種の情報が含まれてよく、例えば操作スティックOSをユーザが握ったときの圧力を検出するセンサをセンサSMAが含む場合、センサSMAの検出情報にはそのような圧力の情報が含まれる。さらに、例えばユーザの発した音声(歌声等)を記録(入力)するためのマイクがHMD型のゲーム機4等に設けられている場合、動画データ部OD1は、その音声の情報を含んでいてもよい。このような動画データ部OD1は演奏動作毎に用意される。 As shown in FIG. 11, the performance data OD includes a moving image data section OD1 and an information management section OD2. The moving image data portion OD1 is a portion configured as moving image data for causing another character image 54 to perform a performance action. Such a moving image data portion may be appropriately configured as various kinds of moving image data. As an example, since the motion of each character image 54 is configured as motion capture data, the moving image data portion is similarly configured as motion capture data. be. This motion capture data may be generated as appropriate. For example, the user's motion may be detected from a camera that captures the user's whole body and converted into data, or the movement may be detected from markers attached to the user's body. may be converted into data. In this way, the motion capture data (video data part OD1) may be generated as appropriate. are generated by recording and replacing them with motions. In addition, the moving image data section OD1 may appropriately include various kinds of information for causing the other character image 54 to perform a performance action. For example, the moving image data part OD1 includes the timing at which the operation of the touch button TB of the operation stick OS was operated, the type of operation unit operated, and the sensor SMA such as the acceleration sensor SM1 when the operation stick OS was shaken or otherwise moved. Various operational information such as detection information may be included. Further, the detection information of the sensor SMA may include various kinds of information according to the type of the sensor. Detection information includes such pressure information. Furthermore, for example, when a microphone for recording (inputting) the voice uttered by the user (singing voice, etc.) is provided in the HMD type game machine 4 or the like, the moving image data section OD1 includes information on the voice. good too. Such moving image data section OD1 is prepared for each performance operation.

一方、情報管理部OD2は、各動画データ部を管理するための情報が記述された部分である。情報管理部OD2は、各動画データ部の管理に必要な各種の情報を適宜に含み得るが、図11の例では動画データ部(演奏動作)毎にそれに関する情報を管理する演奏レコードODRを含んでいる。演奏レコードODRは、このような管理のために、“演奏ID”、“キャラクタ”、“ユーザ”、“楽曲”、“評価”、“評価者”、及び“日時”の情報を含んでいる。演奏レコードODRには、これらの情報が相互に関連付けられるように記録されている。 On the other hand, the information management part OD2 is a part in which information for managing each moving image data part is described. The information management section OD2 can appropriately include various types of information necessary for managing each moving picture data section, but in the example of FIG. I'm in. The performance record ODR includes information of "performance ID", "character", "user", "music", "evaluation", "evaluator", and "date and time" for such management. These pieces of information are recorded in the performance record ODR so as to be associated with each other.

“演奏ID”は、各演奏動作(動画データ部)を管理するために演奏動作毎にユニークな演奏IDを示す情報である。“キャラクタ”は、その演奏動作に対応するキャラクタを特定するための情報である。このような情報として各キャラクタを特定可能な適宜の情報が利用されてよいが、一例としてキャラクタ毎にユニークなキャラクタIDの情報が利用される。具体的には、例えば第3キャラクタ画像54Cを介してプレイした実績に対応する演奏動作の場合、その第3キャラクタ画像54Cに対応するキャラクタIDの情報が“キャラクタ”に記述される。第1キャラクタ画像54A等の場合も同様である。また、各キャラクタは演奏する楽器と対応付けられている。このため、“キャラクタ”の情報は演奏対象の楽器の情報としても機能する。“キャラクタ”に代えて“楽器”の情報(例えば楽器のID)が記述されてもよい。 “Performance ID” is information indicating a unique performance ID for each performance motion in order to manage each performance motion (moving image data portion). "Character" is information for specifying a character corresponding to the performance action. Appropriate information that can specify each character may be used as such information, but as an example, information of a character ID unique to each character is used. Specifically, for example, in the case of a performance action corresponding to a track record played through the third character image 54C, information of the character ID corresponding to the third character image 54C is described in "character". The same applies to the first character image 54A and the like. Also, each character is associated with a musical instrument to be played. Therefore, the "character" information also functions as information about the musical instrument to be played. Instead of "character", "musical instrument" information (for example, musical instrument ID) may be described.

“ユーザ”、“楽曲”、及び“評価”は、図9の例、及び図10の例の“ユーザ”、“楽曲”、及び“評価”の情報にそれぞれ対応する。このため、例えば“楽曲”の情報は“ID”、或いは“難易度”といった情報を、“評価”の情報は“種類”、或いは“結果”といった情報を適宜含む場合がある。ただし、図9の例、及び図10の例では、説明の便宜のために“Aユーザ”、“A楽曲”、“N難易度”、“サムアップ”といったユーザの名称等が各情報として示されているが、一例として演奏データODにはそれらの代わりにユーザID、楽曲ID、難易度識別記号、或いはアクションIDといった各ユーザ等を特定可能な情報が記述される。ユーザIDは各ユーザを識別するためにユーザ毎にユニークなIDであり、楽曲IDは各楽曲を識別するために楽曲毎にユニークなIDである。また、難易度識別記号は、各難易度を識別するために難易度毎に付与される記号(数字を含む)である。同様に、アクションIDは、サムアップ等の各評価アクションの種類を識別するために評価アクション毎にユニークなIDである。 “User”, “song”, and “evaluation” correspond to the information of “user”, “song”, and “evaluation” in the examples of FIGS. 9 and 10, respectively. For this reason, for example, "music" information may include information such as "ID" or "difficulty", and "evaluation" information may include information such as "type" or "result". However, in the example of FIG. 9 and the example of FIG. 10, user names such as "user A", "music A", "difficulty N", and "thumb up" are shown as each information for convenience of explanation. However, as an example, the performance data OD instead describes information that can identify each user, such as a user ID, a music ID, a difficulty level identification symbol, or an action ID. The user ID is a unique ID for each user to identify each user, and the song ID is a unique ID for each song to identify each song. The difficulty level identification symbol is a symbol (including numbers) given to each difficulty level to identify each difficulty level. Similarly, the action ID is a unique ID for each evaluation action to identify the type of each evaluation action such as thumbs up.

一方、“評価者”は“評価”に対応する評価を実行した評価者(ユーザ)を示す情報である。“評価者”には評価者を特定可能な各種の情報が適宜に記述されてよい(“ユーザ”等の他の情報も同様)が、一例として評価者に対応するユーザIDの情報が記述される。“日時”は“評価”に対応する評価が実行された日時を示す情報である。“評価者”及び“日時”の情報は適宜に省略されてよく、例えばその両方が省略され、評価結果のみが“評価”として管理されてもよいが、図11の例では演奏レコードODRはそれらの両方を含んでいる。なお、演奏データODは、これらの情報に限定されず、例えば演奏パフォーマンスの実現、或いはその評価の管理に必要な情報等を適宜に管理してよい。あるいは、“評価者”等の情報のみならず、上述の各種の情報の一部が適宜に省略されてもよい。 On the other hand, "evaluator" is information indicating the evaluator (user) who performed the evaluation corresponding to "evaluation". Various types of information that can identify the evaluator may be appropriately described in the “evaluator” (the same applies to other information such as “user”). be. “Date and time” is information indicating the date and time when the evaluation corresponding to “evaluation” was performed. The information of "evaluator" and "date and time" may be omitted as appropriate. For example, both of them may be omitted and only the evaluation result may be managed as "evaluation". includes both. The performance data OD is not limited to these pieces of information. For example, the performance data OD may appropriately manage information necessary for realizing a performance or managing its evaluation. Alternatively, not only the information such as the “evaluator”, but also some of the various information described above may be omitted as appropriate.

次に、演奏選択処理、連携応答処理、パフォーマンス評価処理、及び演奏データ生成処理の手順について説明する。演奏選択処理は、ユーザキャラクタ以外の他のキャラクタに実行させるべき演奏動作を選択する演奏選択機会を提供するための処理である。例えば、ユーザが第3キャラクタ画像54Cを介して音楽ゲームをプレイする場合において、第1キャラクタ画像54A、及び第2キャラクタ画像54Bにそれぞれ実行させるべき演奏動作が演奏選択機会にて選択される。具体的には、同じキャラクタに対して複数の演奏動作の実績が存在する場合、演奏データODはその同じキャラクタに対して複数の動画データ部OD1(複数の演奏動作)を含んでいる。この場合、それらの複数の演奏動作の候補から他のキャラクタに実行させるべき演奏動作が演奏選択機会において選択される。図12の例は、このような演奏選択機会を提供するための手順の一例を示している。この場合、進行制御部43は、音楽ゲームのプレイに使用するキャラクタを選択するためのキャラクタ選択機会をユーザに提供する毎に図12の演奏選択処理を開始し、まずそのキャラクタ選択機会におけるキャラクタの選択結果を取得する(ステップS101)。 Next, procedures for performance selection processing, linkage response processing, performance evaluation processing, and performance data generation processing will be described. The performance selection process is a process for providing a performance selection opportunity for selecting a performance action to be executed by a character other than the user character. For example, when the user plays a music game through the third character image 54C, the performance actions to be executed by the first character image 54A and the second character image 54B are selected at the performance selection opportunity. Specifically, when there are a plurality of records of performance motions for the same character, the performance data OD includes a plurality of moving image data portions OD1 (a plurality of performance motions) for the same character. In this case, a performance motion to be executed by another character is selected at the performance selection opportunity from the plurality of performance motion candidates. The example of FIG. 12 shows an example of a procedure for providing such performance selection opportunities. In this case, the progress control section 43 starts the performance selection process of FIG. A selection result is obtained (step S101).

続いて進行制御部43は、キャラクタ選択機会において選択したキャラクタ以外のキャラクタに実行させるべき演奏動作を選択するための演奏選択機会を提供する(ステップS102)。具体的には、進行制御部43は、演奏データODを参照し、対象のキャラクタ毎に複数の演奏動作の候補(他のユーザの演奏実績、及び予め用意された複数の所定の動作を含んでいてよい)から一つの演奏動作が選択されるように演奏選択機会を提供する。また、このような演奏選択機会は適宜に実現されてよいが、一例として演奏動作の選択に必要な情報を含む演奏選択機会用の選択画面(不図示)を通じて実現される。演奏選択機会における選択肢は、ユーザが選択した楽曲、楽器に対応して提示される。例えば、ユーザが選択した楽曲と同一の楽曲であって、ユーザが選択した楽器とは異なる楽器により生成された演奏データODが、演奏選択機会における選択肢としてユーザに提示される。選択肢の限定条件はこれ以外、例えば演奏データODが作成された期間等を適宜に含んでいてもよい。 Subsequently, the progress control unit 43 provides a performance selection opportunity for selecting a performance action to be performed by a character other than the character selected at the character selection opportunity (step S102). Specifically, the progress control unit 43 refers to the performance data OD, and selects a plurality of candidates of performance motions for each target character (including the performance results of other users and a plurality of predetermined motions prepared in advance). provide a performance selection opportunity so that one performance action can be selected from the In addition, such performance selection opportunities may be implemented as appropriate, but as an example, they are implemented through a selection screen (not shown) for performance selection opportunities that includes information necessary for selecting performance actions. Options in the performance selection opportunity are presented corresponding to the music piece and musical instrument selected by the user. For example, the performance data OD that is the same as the song selected by the user and generated by an instrument different from the one selected by the user is presented to the user as an option in the performance selection opportunity. In addition to this, the selection condition may appropriately include, for example, the period during which the performance data OD was created.

また、演奏動作の選択に必要な情報には、例えば、演奏動作の実績に対応するユーザ(誰の演奏動作であるか)、或いはそのユーザのレベルや得点等の各種成績に関する情報といった各種の情報が適宜に含まれていてよいが、一例として指標情報が含まれる。より具体的には、演奏選択機会用の選択画面には、上述のようにサムアップの実行回数2回、或いは累積評価値11ポイントといった評価者による演奏パフォーマンス(演奏動作)の評価結果が指標情報として選択肢毎に提示される。また、演奏選択機会用の選択画面は、各選択肢(演奏動作の候補)を適宜の手法で提示してよく、例えば演奏データODの新しい順、或いは使用頻度の高い順(使用頻度に基づくランキング形式)に提示してもよいが、累積評価値が指標情報として提示される場合、一例として累積評価値に基づくランキング形式で提示する。進行制御部43は、このような選択肢、及び指標情報を含む選択画面をステップS102において提示することにより演奏選択機会を提供する。なお、指標情報は累積評価値等の他にも、例えばプレイの上手さを示すスコア、或いは盛り上がった演奏を行ったかを示す情報(例えば演奏パフォーマンスを視聴する視聴者等の反応に基づく情報等、適宜のアルゴリズムにより取得されてよい)といった、選択の参考(補助)になる各種の情報を適宜に含んでいてよい。 Information necessary for selecting a performance action includes, for example, various types of information such as the user corresponding to the performance action record (whose performance action is), or information on various results such as the user's level and score. may be included as appropriate, but index information is included as an example. More specifically, on the selection screen for the performance selection opportunity, the evaluation result of the performance performance (playing action) by the evaluator, such as the number of times the thumbs-up is executed twice or the cumulative evaluation value of 11 points, as described above, is index information. are presented for each option. In addition, the selection screen for the performance selection opportunity may present each option (candidates of performance actions) in an appropriate manner. ), but when the cumulative evaluation value is presented as index information, it is presented in a ranking format based on the cumulative evaluation value as an example. The progress control unit 43 presents a selection screen including such options and index information in step S102, thereby providing a performance selection opportunity. In addition to the cumulative evaluation value, the index information may be, for example, a score indicating the skill of the player, or information indicating whether the performance was exciting (for example, information based on the reactions of viewers watching the performance). (which may be obtained by an appropriate algorithm) may be included as appropriate to serve as a reference (assistant) for selection.

次に進行制御部43は、演奏選択機会における選択結果に基づいて他のキャラクタの演奏動作を決定する(ステップS103)。そして、この決定の後に進行制御部43は今回の演奏選択処理を終了する。これにより、ユーザキャラクタ以外の他のキャラクタに実行させるべき演奏動作を選択する演奏選択機会が実現される。また、演奏選択機会では、このような演奏動作の候補として、他のユーザのプレイ実績を含む複数の演奏動作の実績が選択肢の候補として提示される。さらに、その演奏選択機会では、選択肢の候補(演奏動作の実績)毎に評価者による評価結果が選択を補助するように指標情報として提示される。そして、演奏選択機会における選択結果に基づいて、演奏パフォーマンスにおいて他のキャラクタに実際の演奏動作の実績に対応する動作がトレースされる。 Next, the progress control unit 43 determines the performance motion of another character based on the selection result of the performance selection opportunity (step S103). After this determination, the progress control unit 43 terminates the current performance selection process. This realizes a performance selection opportunity for selecting a performance action to be executed by a character other than the user character. In addition, at the performance selection opportunity, a plurality of records of performance motions including the performance records of other users are presented as candidates for such performance motions. Furthermore, in the performance selection opportunity, the evaluation result by the evaluator is presented as index information for each option candidate (results of performance actions) so as to assist the selection. Then, based on the selection result of the performance selection opportunity, actions corresponding to actual performance performance results are traced to other characters in the performance performance.

連携応答処理は、各キャラクタに連携状態を形成させるための処理である。各キャラクタは他のユーザによって操作されてもよく、その場合、他のユーザによって応答アクションが実行されたか否か判別され、応答アクションが実行された場合に連携状態が形成されるが、図13の例はコンピュータ(進行制御部43)によって各キャラクタの動作が制御される場合を示している。この場合、進行制御部43は、ユーザキャラクタ(例えば図3の例の第3キャラクタ画像54C)が(周辺視野範囲IR2に他のキャラクタを含む状況において)ユーザによって操作される毎に図13の連携応答処理を開始し、まずそのユーザの操作が連携アクションに該当するか否か判別する(ステップS201)。一例として、そのユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含めるように視線を向ける動作に対応する場合、その操作(動作)は連携アクションに該当する。このため、進行制御部43は、そのユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作に該当するか否か判別する。ユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作(視線を向ける動作)に該当しない場合、つまりそのユーザの操作が連携アクションに該当しない場合、進行制御部43は以降の処理をスキップして今回の連携応答処理を終了する。 The cooperation response process is a process for forming a cooperation state for each character. Each character may be operated by another user, in which case it is determined whether or not a response action has been performed by the other user, and a cooperative state is formed if the response action has been performed. The example shows a case where the motion of each character is controlled by the computer (progress control unit 43). 13 each time the user character (for example, the third character image 54C in the example of FIG. 3) is operated by the user (in a situation where another character is included in the peripheral vision range IR2). Response processing is started, and first, it is determined whether or not the user's operation corresponds to a cooperative action (step S201). As an example, if the user's operation corresponds to an action of directing the line of sight so as to include at least a certain percentage of another character in the central visual field range IR1, the operation (action) corresponds to a cooperative action. For this reason, the progress control unit 43 determines whether or not the user's operation corresponds to an action of including at least a certain percentage of other characters in the central visual field range IR1. If the user's operation does not correspond to the action of including at least a certain percentage of other characters in the central visual field range IR1 (the action of directing the line of sight), that is, if the user's operation does not correspond to the cooperative action, the progress control unit 43 performs subsequent processing. is skipped and the current linkage response process is terminated.

一方、ユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作(視線を向ける動作)に該当する場合、つまりそのユーザの操作が連携アクションに該当する場合、進行制御部43はその連携アクションの対象のキャラクタ、つまり中心視野範囲IR1に一定割合以上含まれるキャラクタに応答アクションを実行させる(ステップS202)。具体的には、例えば応答アクションとしてユーザキャラクタに対して視線を向ける(仮想カメラに視線を合わせる;視線を返す)動作が採用される場合、ユーザキャラクタに視線を向ける動作を実行するように、対象のキャラクタの動作を制御する。視線を向ける動作が実行された場合、視線が合った状態となる。 On the other hand, if the user's operation corresponds to an action to include another character at a certain rate or more in the central visual field range IR1 (movement to turn the line of sight), that is, if the user's operation corresponds to a cooperative action, the progress control unit 43 The character to be the target of the cooperative action, that is, the character included in the central visual field range IR1 at a certain rate or more is made to perform the response action (step S202). Specifically, for example, when an action of directing the line of sight toward the user character (aligning the line of sight with the virtual camera; returning the line of sight) is adopted as the response action, the target controls the character's behavior. When the action of directing the line of sight is executed, the line of sight is in a state where the line of sight is met.

続いて進行制御部43は、ユーザキャラクタとステップS202において応答アクションを実行させたキャラクタとの間に連携状態を形成させる(ステップS203)。連携状態の形成は適宜に実現されてよく、例えば専用の動作により連携状態が表現される場合にはそのような動作の実行により実現されてもよいが、一例として連携状態の有無を管理するためのフラグの更新により実現される。具体的には、各キャラクタには、連携状態の有無を管理するためのパラメータが設定される。このため、進行制御部43は、このフラグを連携状態の形成を示す状態に更新することにより連携状態の形成を実現する。そして、連携状態を形成した後に進行制御部43は今回の連携応答処理を終了する。これにより、他のキャラクタの動作が連携アクションに応じて応答アクションを実行するように制御される。つまり、ユーザキャラクタと他のキャラクタとの間に連携状態が積極的に形成されるように、他のキャラクタの動作が制御される。そして、連携状態が形成された場合には、その状態がフラグにより管理される。 Subsequently, the progress control unit 43 forms a cooperative state between the user character and the character that has performed the response action in step S202 (step S203). Formation of the cooperation state may be realized as appropriate. For example, when the cooperation state is expressed by a dedicated operation, it may be realized by executing such an operation. is realized by updating the flag of Specifically, each character is set with a parameter for managing the presence or absence of a cooperative state. Therefore, the progress control unit 43 implements formation of the cooperation state by updating this flag to a state indicating the formation of the cooperation state. Then, after forming the cooperation state, the progress control unit 43 ends the current cooperation response process. As a result, the actions of the other characters are controlled so as to execute the response action in accordance with the cooperative action. In other words, the actions of the other characters are controlled so that a cooperative state is positively formed between the user character and the other characters. Then, when a cooperation state is formed, the state is managed by a flag.

パフォーマンス評価処理は、他のキャラクタの演奏パフォーマンスを評価するための処理である。演奏パフォーマンスの評価は適宜に実現されてよいが、図14の例は評価キャラクタ(評価者に対応するユーザキャラクタ)による評価アクションに基づいて評価される場合を示している。また、図14の例は連携状態における評価アクションに基づいて演奏パフォーマンスが評価される場合、より具体的には被評価キャラクタと評価キャラクタとの間に相互に意識する状態が形成された後の評価アクションに基づいて演奏パフォーマンスが評価される場合を示している。この場合、進行制御部43は、評価期間における連携状態の形成を条件にその連携状態において評価キャラクタがアクションを実行する毎に図14のパフォーマンス評価処理を開始し、まず評価条件を満たすか否か判別する(ステップS301)。評価条件は演奏パフォーマンスの評価を実行するか否か判別するための条件である。評価条件は適宜に満たされてよいが、一例として評価キャラクタが実行したアクションが評価アクションに該当する場合に満たされる。つまり、評価キャラクタが実行したアクションが、サムアップ、頷き、バンザイ、或いは首振りといった評価アクションとして設定されたアクションに該当する場合に評価条件が満たされる。そして、評価条件が満たされない場合、つまり評価キャラクタが実行したアクションが評価アクションに該当しない場合、進行制御部43は以降の処理をスキップして今回のパフォーマンス評価処理を終了する。 Performance evaluation processing is processing for evaluating performance performances of other characters. Performance performance evaluation may be implemented as appropriate, but the example of FIG. 14 shows a case where evaluation is performed based on evaluation actions by an evaluation character (user character corresponding to the evaluator). In the example of FIG. 14, when the performance performance is evaluated based on the evaluation actions in the cooperation state, more specifically, the evaluation after the state of mutual awareness between the character to be evaluated and the evaluation character is formed. It shows the case where performance is evaluated based on actions. In this case, the progress control unit 43 starts the performance evaluation process of FIG. 14 each time the evaluation character executes an action in the cooperation state, on the condition that the cooperation state is formed during the evaluation period. Determine (step S301). The evaluation condition is a condition for determining whether or not performance evaluation is to be executed. The evaluation condition may be satisfied as appropriate, but as an example, it is satisfied when the action performed by the evaluation character corresponds to the evaluation action. That is, the evaluation condition is satisfied when the action performed by the evaluation character corresponds to the action set as the evaluation action such as thumbs up, nodding, banging, or shaking the head. Then, if the evaluation condition is not satisfied, that is, if the action performed by the evaluation character does not correspond to the evaluation action, the progress control unit 43 skips subsequent processes and terminates the current performance evaluation process.

一方、評価条件が満たされる場合、つまり評価キャラクタが実行したアクションが評価アクションに該当する場合、進行制御部43は対象のキャラクタ(被評価キャラクタ)を判別する(ステップS302)。被評価キャラクタは評価キャラクタと連携状態を形成しているキャラクタである。このため、進行制御部43は対象のキャラクタとして評価キャラクタと連携状態を形成しているキャラクタを判別する。 On the other hand, if the evaluation condition is satisfied, that is, if the action performed by the evaluation character corresponds to the evaluation action, the progress control unit 43 determines the target character (evaluated character) (step S302). The character to be evaluated is a character forming a cooperative state with the evaluation character. For this reason, the progress control unit 43 determines a character forming a cooperative state with the evaluation character as the target character.

続いて進行制御部43は、評価キャラクタが実行した評価アクションの種類を判別する(ステップS303)。具体的には、進行制御部43は、評価キャラクタが実行した評価アクションが、サムアップ、頷き、バンザイ、或いは首振りといった種類のいずれに該当するか判別する。 Subsequently, the progress control unit 43 determines the type of evaluation action performed by the evaluation character (step S303). Specifically, the progress control unit 43 determines whether the evaluation action performed by the evaluation character corresponds to any of the types such as thumbs up, nodding, bangzai, or head shaking.

次に進行制御部43は、ステップS302で判別した対象のキャラクタの演奏パフォーマンスを評価する(ステップS304)。演奏パフォーマンスの評価は、例えば図9の例、或いは図10の例に示すように実現される。例えば図9の例の場合、進行制御部43は、ステップS303で判別した評価アクションの種類毎に実行回数をカウントすることにより演奏パフォーマンスの評価を実現する。具体的には、進行制御部43は、ステップS303で判別した評価アクションの種類に対応する“種類”に関連付けられる実行回数が増加するように演奏データODの“結果”の情報を更新することにより、演奏パフォーマンスの評価を実現する。同様に、図10の例の場合、進行制御部43は、ステップS303で判別した評価アクションの種類に設定される評価値を累積評価値に加算することにより演奏パフォーマンスの評価を実現する。そして、進行制御部43は、このような評価の後に今回のパフォーマンス評価処理を終了する。これにより、連携状態の形成を条件に評価期間において評価アクションに基づいて他のキャラクタの演奏パフォーマンスが評価される。なお、評価期間内にステップS304の評価が実行されない(評価アクションが検出されない)場合、進行制御部43は、今回の演奏パフォーマンスの評価結果を評価なし、と評価し、同様に演奏データODを更新する。 Next, the progress control unit 43 evaluates the performance performance of the target character determined in step S302 (step S304). Performance performance evaluation is implemented as shown in the example of FIG. 9 or the example of FIG. 10, for example. For example, in the case of FIG. 9, the progress control unit 43 realizes performance performance evaluation by counting the number of executions for each type of evaluation action determined in step S303. Specifically, the progress control unit 43 updates the “result” information of the performance data OD so that the number of executions associated with the “type” corresponding to the evaluation action type determined in step S303 increases. , to realize the performance evaluation. Similarly, in the case of the example of FIG. 10, the progress control unit 43 realizes performance performance evaluation by adding the evaluation value set for the evaluation action type determined in step S303 to the accumulated evaluation value. After such evaluation, the progress control unit 43 ends the current performance evaluation process. As a result, the performance performance of the other character is evaluated based on the evaluation action during the evaluation period on the condition that the cooperative state is formed. If the evaluation in step S304 is not executed (no evaluation action is detected) within the evaluation period, the progress control unit 43 evaluates the evaluation result of the performance performance this time as no evaluation, and similarly updates the performance data OD. do.

演奏データ生成処理は、各ユーザのプレイ(演奏動作)の実績に基づいて演奏データODを生成するための処理である。演奏データODは適宜に生成されてよく、例えば一律に全ユーザの全プレイの実績に基づいて生成されたり、ユーザごと及び楽曲ごと及び楽器ごとにベストスコア(ノーツ処理の評価またはノーツ処理以外の部分を評価する評価基準におけるベストスコア)となった場合などに生成されたりしてもよいが、一例としてユーザが演奏データODの生成を希望した場合に生成される。この場合、演奏データODの生成を希望したユーザ(別途生成の要否を確認するための機会が適宜にユーザに付与されてよい)のプレイにおいて演奏パフォーマンスが開始されると、データ管理部44は図15の演奏データ生成処理を開始し、まずその演奏パフォーマンスにおけるユーザの操作、つまりユーザキャラクタの動作を記録する(ステップS401)。続いてデータ管理部44は、ステップS401の記録結果に基づいて演奏データODを生成する(ステップS402)。具体的には、データ管理部44は、ユーザキャラクタの動作を再現するための動画データ部OD1、及びそれに対応する各種情報を記録する情報管理部OD2を生成する。そして、演奏データODを生成した後にデータ管理部44は今回の演奏データ生成処理を終了する。これにより、各ユーザのプレイ実績に対応する演奏動作を再現するための演奏データODが生成される。なお、一律に演奏データODが生成され、ユーザが希望した場合やベストスコアが算出された場合等所定条件を満たした場合にそれが保存されてもよい。 The performance data generation process is a process for generating performance data OD based on the results of each user's play (performance operation). The performance data OD may be generated as appropriate. For example, it may be generated uniformly based on the results of all plays by all users, or may be generated based on the best score (evaluation of notes processing or non-notes processing) for each user, each song, and each musical instrument. However, as an example, it is generated when the user desires to generate performance data OD. In this case, when the musical performance is started in the play of the user who wishes to generate the musical performance data OD (the user may be appropriately given an opportunity to confirm the necessity of the generation separately), the data management unit 44 The musical performance data generating process of FIG. 15 is started, and first, the user's operation in the musical performance, that is, the motion of the user character is recorded (step S401). Subsequently, the data management unit 44 generates performance data OD based on the recording result of step S401 (step S402). Specifically, the data management section 44 generates a moving image data section OD1 for reproducing the action of the user character and an information management section OD2 for recording various information corresponding thereto. After generating the performance data OD, the data management unit 44 terminates the current performance data generation process. As a result, the performance data OD for reproducing the performance operation corresponding to the play record of each user is generated. Note that the performance data OD may be uniformly generated and stored when a predetermined condition is satisfied, such as when the user desires or when the best score is calculated.

以上に説明したように、この形態によれば、評価期間の連携状態においてユーザキャラクタ(評価キャラクタ)に評価アクションを実行させるためのサムアップ動作等が実行された場合には、評価アクションの対象の(連携状態を形成している)他のキャラクタによるパフォーマンスがその評価アクションに基づいて評価される。つまり、ユーザキャラクタには演奏パフォーマンスとは別に実行される評価アクションが許容され、その評価アクションを契機に他のキャラクタによる演奏パフォーマンスが、その評価アクションのための行為を通じてユーザキャラクタに対応するユーザ(演奏パフォーマンスの実行者)によって評価される。このため、そのような行為を利用して、複数のキャラクタによる演奏パフォーマンスをそのパフォーマンスの実行者の視点から評価することができる。 As described above, according to this embodiment, when the user character (evaluation character) performs a thumb-up motion or the like for causing the user character (evaluation character) to perform the evaluation action in the cooperation state during the evaluation period, the target of the evaluation action is selected. Performances by other characters (with whom they form an alliance) are evaluated based on their evaluation actions. In other words, the user character is allowed to perform an evaluation action separately from the musical performance, and with the evaluation action as a trigger, the performance performance of the other character is transferred to the user (playing performance) corresponding to the user character through the action for the evaluation action. performance performers). Therefore, by using such actions, it is possible to evaluate the musical performance of a plurality of characters from the perspective of the performer of the performance.

演奏パフォーマンスは、例えばステージ領域53の周囲のキャラクタを介して演奏パフォーマンスを視聴する観客としてのユーザ、或いは単に映像を介してその演奏パフォーマンスを視聴する視聴者としてのユーザ等、演奏パフォーマンスの実行者以外によって評価されてもよく、その結果も指標情報等として適宜に活用されてよいが、演奏パフォーマンスには実行者にしか評価できない要素も存在する。例えば、自己の演奏パフォーマンスとの親和性等である。ユーザキャラクタの評価アクションが評価に利用される場合、仮に観客等による評価が実行されるとしても、それとは別の視点(基準)による実行者独自の基準に基づいて他のキャラクタの演奏パフォーマンスを評価させることができる。結果として、実行者にしか評価できない要素に基づいて他のキャラクタによるパフォーマンスを評価することができる。 The musical performance is performed by a user other than the performer of the musical performance, such as a user as a spectator who watches the musical performance through characters around the stage area 53, or a user who simply watches the musical performance through a video. , and the results may be appropriately utilized as index information or the like, but there are elements in the musical performance that can only be evaluated by the performer. For example, it is affinity with one's musical performance. When the user character's evaluation action is used for evaluation, even if the evaluation is performed by the audience, etc., evaluate the performance performance of other characters based on the performer's own criteria from a different viewpoint (criteria). can be made As a result, performance by other characters can be evaluated based on factors only the performer can evaluate.

特に、サムアップ、或いは頷きといった、演奏パフォーマンスの一部として実行されても違和感のないアクションが評価アクションとして利用される場合、演奏パフォーマンスの延長として比較的自然に、或いは付加的な演出として他のキャラクタのパフォーマンスを評価することができる。さらに、その評価結果が指標情報として演奏選択機会において提示される場合、評価アクションに基づく演奏パフォーマンスの評価結果を利用して、演奏選択機会においてより好ましい演奏動作の選択を促進することができる。これらにより、ゲームの興趣性の向上を図ることができる。 In particular, when an action such as a thumbs-up or a nod that does not feel strange even if it is executed as part of the musical performance is used as an evaluation action, it can be performed relatively naturally as an extension of the musical performance, or as an additional production. Character performance can be evaluated. Furthermore, when the evaluation result is presented as index information at the performance selection opportunity, the performance performance evaluation result based on the evaluation action can be used to promote the selection of a more preferable performance action at the performance selection opportunity. As a result, it is possible to improve the interest of the game.

以上の形態において、HMD型のゲーム機4の進行制御部43が、図14のステップS304を実行することにより本発明の指示評価手段として機能する。また、HMD型のゲーム機4の進行制御部43が、図12のステップS102を実行することにより本発明の結果提供手段として機能する。 In the above embodiment, the progress control section 43 of the HMD type game machine 4 functions as the instruction evaluation means of the present invention by executing step S304 in FIG. Further, the progress control unit 43 of the HMD type game machine 4 functions as result providing means of the present invention by executing step S102 of FIG.

本発明は上述した形態に限定されず、適宜の変形又は変更が施された形態にて実施されてよい。例えば、上述の形態では、各センサSMA、SMBを通じてHMD型のゲーム機4或いは操作スティックOSによってユーザの各種の動作(プレイ行為)が検出されている。しかし、本発明は、このような形態に限定されない。例えば、センサSMA等は、HMD型のゲーム機4に搭載されていなくてもよい。具体的には、例えば専用のプレイルームにおいてゲームがプレイされる場合、そのプレイルームにカメラ等のユーザのプレイ行為を検出するための各種のセンサが必要に応じて適宜の数設けられていてよい。 The present invention is not limited to the forms described above, and may be implemented in forms with appropriate modifications or changes. For example, in the above-described embodiment, the HMD type game machine 4 or the operation stick OS detects various user actions (play actions) through the sensors SMA and SMB. However, the present invention is not limited to such forms. For example, the sensor SMA and the like may not be mounted on the HMD type game machine 4 . Specifically, for example, when a game is played in a dedicated playroom, the playroom may be provided with an appropriate number of various sensors, such as cameras, for detecting the user's play actions as necessary. .

上述の形態では、ユーザキャラクタ(例えば第3キャラクタ画像54C)の視野範囲IRには、一体の他のキャラクタ(例えば第2キャラクタ画像54B)のみが入っている。しかし、ユーザキャラクタ(評価キャラクタ)の視野範囲IRには、状況に応じて適宜の数の他のキャラクタが含まれてよい。例えば、上述の形態では各キャラクタの位置はステージ領域53において固定的であるが、各キャラクタはプレイ状況等に応じて適宜に移動してよく、例えば第1キャラクタ画像54A及び第2キャラクタ画像54Bが互いに隣接するように位置してもよい。この場合、第3キャラクタ画像54Cの視野範囲IRには、第1キャラクタ画像54A及び第2キャラクタ画像54Bの両方が入ってもよい。この場合において、連携アクションの対象は適宜に判定されてよく、例えば視野範囲IRにより多くの部分が入っているキャラクタ、視野範囲IRに先に入ったキャラクタ、或いは両方のキャラクタが連携アクションの対象、つまり被評価キャラクタとして判定されてもよい。一方で、視野範囲IRに複数の他のキャラクタが入っている場合、その連携アクションは無効と判定されてもよい。 In the form described above, only one other character (eg, the second character image 54B) is included in the field of view IR of the user character (eg, the third character image 54C). However, the visual field range IR of the user character (evaluation character) may include an appropriate number of other characters depending on the situation. For example, in the above-described mode, the position of each character is fixed in the stage area 53, but each character may move as appropriate according to the play situation. They may be positioned adjacent to each other. In this case, both the first character image 54A and the second character image 54B may be included in the field of view range IR of the third character image 54C. In this case, the target of the cooperative action may be determined appropriately. That is, the character may be determined as the character to be evaluated. On the other hand, if a plurality of other characters are within the field of view IR, the cooperative action may be determined to be invalid.

上述の形態では、バンザイ等の評価アクションは、ユーザによる同様の動作により実現されている。しかし、本発明は、このような形態に限定されない。例えば、サムアップ用のタッチボタンTBの他にも、頷き、バンザイ、或いは首振りといった各評価アクションを実現するための複数のタッチボタンTBが操作スティックOSに設けられていてもよい。 In the above-described form, evaluation actions such as Banzai are implemented by similar actions by the user. However, the present invention is not limited to such forms. For example, in addition to the thumb-up touch button TB, the operation stick OS may be provided with a plurality of touch buttons TB for realizing each evaluation action such as nodding, banging, or shaking the head.

また、上述の形態では、図12~図15の処理はHMD型のゲーム機4で実行されている。結果として、HMD型のゲーム機4の単体が本発明のゲームシステムとして機能している。しかし、本発明は、このような形態に限定されない。例えば、HMD型のゲーム機4に近距離無線通信等のネットワークを介して接続される各種のゲーム装置(コンピュータ)が図12~図15の処理の全部あるいは一部を実行してもよい。HMD型のゲーム機4に接続されるゲーム装置が図12~図15の処理の全部を実行する場合、このゲーム装置が本発明のゲームシステムとして機能してもよい。あるいは、このようなゲーム装置が本発明のセンターサーバ2として機能してもよい。同様に、例えば、図12~図15の処理の全部あるいは一部はセンターサーバ2によって実行されてもよい。例えば、図12~図15の処理の全部をセンターサーバ2が実行する場合、センターサーバ2単体(複数のサーバ装置を含んでもよい)が本発明のゲームシステムとして機能してもよい。一方で、HMD型のゲーム機4の単体、或いはHMD型のゲーム機4に接続されるゲーム装置(これらの組合せを含む)が本発明のゲームシステムとして機能する場合、センターサーバ2は適宜に省略されてもよい。 12 to 15 are executed by the HMD type game machine 4 in the above embodiment. As a result, the single HMD type game machine 4 functions as the game system of the present invention. However, the present invention is not limited to such forms. For example, various game devices (computers) connected to the HMD-type game machine 4 via a network such as short-range wireless communication may execute all or part of the processing shown in FIGS. When a game device connected to the HMD type game machine 4 executes all of the processes shown in FIGS. 12 to 15, this game device may function as the game system of the present invention. Alternatively, such a game device may function as the center server 2 of the present invention. Similarly, for example, all or part of the processing of FIGS. 12 to 15 may be executed by the center server 2. FIG. For example, when the center server 2 executes all of the processes of FIGS. 12 to 15, the center server 2 alone (may include a plurality of server devices) may function as the game system of the present invention. On the other hand, when the HMD type game machine 4 alone or a game device (including a combination thereof) connected to the HMD type game machine 4 functions as the game system of the present invention, the center server 2 is appropriately omitted. may be

上述した実施の形態及び変形例のそれぞれから導き出される本発明の各種の態様を以下に記載する。なお、以下の説明では、本発明の各態様の理解を容易にするために添付図面に図示された対応する部材を括弧書きにて付記するが、それにより本発明が図示の形態に限定されるものではない。 Various aspects of the present invention derived from each of the embodiments and modifications described above are described below. In the following description, in order to facilitate understanding of each aspect of the present invention, the corresponding members illustrated in the accompanying drawings are added in parentheses, but the present invention is thereby limited to the illustrated form. not a thing

本発明のゲームシステムは、各ユーザのプレイ行為を入力するための入力装置(SMA、SMB)、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタ(54C)を含む複数のキャラクタ(54)が表示されるゲーム画面(50)を表示する表示装置(47)に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム(4)であって、前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタ(54B)に対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手段(43)と、前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手段(43)と、を備えるものである。 The game system of the present invention includes an input device (SMA, SMB) for inputting the play action of each user, and a plurality of characters including at least one user character (54C) operated by each user through the play action. 54) is connected to a display device (47) that displays a game screen (50) on which the game screen (50) is displayed, and provides a game including performances performed by the plurality of characters through the game screen (4), An additional instructing action for causing the user character to perform an additional action that is executed from the user character to another character (54B) of the plurality of characters so as to be added to the performance is executed as the play action. instruction evaluation means (43) for evaluating the performance by the other character based on the additional instruction action, and result providing means (43) for providing each user with an evaluation result of the performance by the other character. ) and

本発明によれば、ユーザキャラクタに付加行動を実行させるための付加指示行為が実行された場合には、付加行動の対象の他のキャラクタによるパフォーマンスがその付加指示行為に基づいて評価される。つまり、ユーザキャラクタには付加行動が許容され、その付加行動を契機に他のキャラクタによるパフォーマンスが付加指示行為を通じてユーザキャラクタに対応するユーザ(パフォーマンスの実行者)によって評価される。そして、その評価結果は各ユーザに提供される。このため、そのような付加指示行為を利用して、複数のキャラクタによるパフォーマンスをそのパフォーマンスの実行者の視点から評価することができる。結果として、実行者にしか評価できない要素に基づいて他のキャラクタによるパフォーマンスを評価することができる。 According to the present invention, when an additional instructive act for causing a user character to perform an additional action is executed, the performance of another character targeted for the additional action is evaluated based on the additional instructive act. In other words, the user character is permitted to perform additional actions, and the performance of other characters is evaluated by the user (performer of the performance) corresponding to the user character through the additional instruction actions, triggered by the additional actions. Then, the evaluation result is provided to each user. Therefore, by using such an additional instruction action, the performance of a plurality of characters can be evaluated from the viewpoint of the performer of the performance. As a result, performance by other characters can be evaluated based on factors only the performer can evaluate.

付加指示行為は、他のキャラクタ(評価される対象の被評価キャラクタ)の状態にかわらず実行されてもよいし、ユーザキャラクタ(評価を実行する評価キャラクタ)と他のキャラクタとの間に付加行動(付加指示行為)を受け付ける所定の状態が形成された後に実行されてもよい。例えば、本発明のゲームシステムの一態様において、前記指示評価手段は、前記ユーザキャラクタから前記他のキャラクタに対して実行されるユーザアクションと、当該ユーザアクションに対応する前記他のキャラクタによる対応アクションとによって前記ユーザキャラクタと前記他のキャラクタとの間に形成される連携状態の形成を条件に当該連携状態において前記付加指示行為が実行された場合に、前記他のキャラクタによる前記パフォーマンスを評価してもよい。 The additional instruction action may be executed regardless of the state of the other character (evaluated character to be evaluated), or the additional action may be performed between the user character (evaluation character for executing evaluation) and the other character. It may be executed after a predetermined state for accepting (additional instruction action) is formed. For example, in one aspect of the game system of the present invention, the instruction evaluation means includes a user action executed by the user character toward the other character, and a corresponding action by the other character corresponding to the user action. The performance by the other character may be evaluated when the additional instruction action is executed in the state of cooperation on the condition that a state of cooperation is formed between the user character and the other character by good.

付加指示行為は適宜の時期に実行されてよく、例えばパフォーマンスの途中において実行されても、パフォーマンスの後に実行されてもよい。例えば、パフォーマンスの評価が連携状態にて実行される態様において、前記指示評価手段は、前記パフォーマンスの後に当該パフォーマンスを評価するための評価期間が設けられる場合に、当該評価期間において前記連携状態で前記付加指示行為が実行されたときに、前記他のキャラクタによる前記パフォーマンスを評価してもよい。 The additional instruction action may be executed at an appropriate time, for example, during the performance or after the performance. For example, in a mode in which performance evaluation is performed in a coordinated state, if an evaluation period for evaluating the performance is provided after the performance, the instruction evaluation means may perform the instruction in the cooperative state during the evaluation period. The performance by the other character may be evaluated when the additional instructive action is performed.

ユーザアクション、及び対応アクションとして、各種のアクション(行動)が適宜に実行されてよい。例えば、ユーザアクションは、楽器に対して所定の演奏を行うアクションであってもよいし、腕等の各種の部位を適宜に動作させるアクションであってもよい。あるいは、他のキャラクタに声をかけるアクションであってもよい。対応アクションも同様である。このため、例えば、ユーザアクション、及び対応アクションとして互いに視線を向け合う(アイコンタクトを行う)アクションが採用されてもよい。具体的には、例えば、パフォーマンスの評価が連携状態にて実行される態様において、前記連携状態は、前記ユーザキャラクタに設定される視野範囲(IR)に前記他のキャラクタを入れる動作が前記ユーザアクションとして、前記他のキャラクタに設定される視野範囲(IR)に前記ユーザキャラクタを入れる動作が前記対応アクションとして、それぞれ機能するように、前記ユーザキャラクタの視野範囲に含まれる前記他のキャラクタが当該他のキャラクタの視野範囲に前記ユーザキャラクタを入れた場合に形成されてもよい。 Various actions (behaviors) may be performed as appropriate as user actions and corresponding actions. For example, the user action may be an action of performing a predetermined performance on a musical instrument, or an action of appropriately moving various parts such as arms. Alternatively, it may be an action of calling out to another character. Corresponding actions are similar. For this reason, for example, a user action and an action of looking at each other (making eye contact) may be adopted as a corresponding action. Specifically, for example, in a mode in which performance evaluation is performed in a coordinated state, the coordinated state is such that an action of putting the other character into the field of view (IR) set for the user character is the user action. , so that an action of putting the user character into the field of view range (IR) set for the other character functions as the corresponding action, respectively. may be formed when the user character is placed in the field of view of the character.

パフォーマンスの評価結果は適宜に活用されてよく、例えばゲームのプレイに関する評価として機能するスコア(勝敗の判定、或いは他のユーザとの間でランキング等を競うための値)に反映されてもよい。あるいは、他のキャラクタの動作がコンピュータによって制御され、パフォーマンスで使用されるべき動作が複数の候補から選択される場合において、パフォーマンスの評価結果はその動作を選択する際の指標として機能してもよい。具体的には、例えば、前記結果提供手段は、前記ユーザキャラクタが過去のプレイにおいて前記パフォーマンスとして実行した動作と同様の動作を実行するように前記パフォーマンスにおいて前記他のキャラクタの動作が制御され、前記ユーザキャラクタの過去のプレイにおける複数の動作から前記他のキャラクタが実際に実行すべき動作を選択するための選択機会が提供される場合に、当該選択機会において各動作を選択するための指標となる指標情報として機能するように前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供してもよい。この場合、パフォーマンスの評価結果を利用して、選択機会においてより好ましい動作の選択を促進することができる。 Performance evaluation results may be used as appropriate, and may be reflected in scores that function as evaluations of game play (determination of winning or losing, or values for competing with other users for ranking or the like), for example. Alternatively, when the actions of other characters are controlled by a computer and actions to be used in the performance are selected from a plurality of candidates, the performance evaluation result may function as an index for selecting the action. . Specifically, for example, the result providing means controls the motion of the other character in the performance so that the user character performs the same motion as the performance performed in the past play, and the When a selection opportunity is provided for selecting an action to be actually performed by the other character from a plurality of actions in the user character's past play, it serves as an index for selecting each action at the selection opportunity. Each user may be provided with an evaluation result of the performance by the other character so as to function as index information. In this case, performance evaluation results can be used to facilitate the selection of more favorable actions at selection opportunities.

付加指示行為に基づくパフォーマンスの評価は適宜の手法により実現されてよい。例えば、好ましいパフォーマンスの場合、或いはその反対の場合にのみ実行される一種類の行為だけが付加指示行為として用意されていてもよい。あるいは、OK、及びNG等の評価結果にそれぞれ関連付けられる複数種類の付加指示行為が用意されていてもよい。また、複数種類の付加指示行為が用意される場合において、各付加指示行為は同様の評価として扱われてもよいし、各付加指示行為の評価には適宜の重み付けが実行されてもよい。例えば、評価結果が指標情報として機能する態様において、前記指示評価手段は、前記付加指示行為として複数種類の付加指示行為が用意される場合に、各ユーザによって実行された付加指示行為としての実際の指示行為の種類が前記指標情報として機能するように、前記実際の指示行為の種類を判別することにより前記他のキャラクタによる前記パフォーマンスを評価してもよい。 Performance evaluation based on the additional instructive action may be realized by an appropriate method. For example, only one type of action that is executed only in the case of favorable performance or vice versa may be prepared as an additional instructive action. Alternatively, a plurality of types of additional instruction actions may be prepared that are respectively associated with evaluation results such as OK and NG. Further, when a plurality of types of additional instruction actions are prepared, each additional instruction action may be treated as the same evaluation, or the evaluation of each additional instruction action may be appropriately weighted. For example, in a mode in which the evaluation results function as index information, the instruction evaluation means, in the case where a plurality of types of additional instruction actions are prepared as the additional instruction actions, determines the actual additional instruction actions executed by each user. The performance by the other character may be evaluated by determining the type of the actual pointing action so that the type of pointing action functions as the index information.

ゲームとして、各種のゲームが適宜に提供されてよい。同様に、そのようなゲームでは、ゲームの種類に応じて複数のキャラクタによる各種のパフォーマンスが適宜に実行されてよい。例えば、サッカーゲーム、或いは野球ゲーム等のスポーツゲームにおけるゲームのプレイがパフォーマンスとして利用されてもよい。あるいは、音楽ゲームにおけるダンスや演奏等がパフォーマンスとして利用されてもよい。具体的には、例えば、本発明のゲームシステムの一態様において、前記ゲームとして、楽曲のリズムに合わせて前記プレイ行為の実行時期を案内するとともに、当該プレイ行為に伴い前記ユーザキャラクタが前記楽曲を演奏する演奏動作を実行する音楽ゲームが提供され、前記パフォーマンスとして、前記音楽ゲームでは前記複数のキャラクタの各キャラクタによる前記演奏動作が実行されてもよい。 Various games may be appropriately provided as games. Similarly, in such games, various performances by multiple characters may be performed as appropriate depending on the type of game. For example, a game play in a sports game such as a soccer game or a baseball game may be used as a performance. Alternatively, a dance, performance, or the like in a music game may be used as a performance. Specifically, for example, in one aspect of the game system of the present invention, as the game, the execution time of the play action is guided in accordance with the rhythm of music, and the user character plays the music along with the play action. A music game may be provided in which performance motions of playing are performed, and the performance motions may be performed by each character of the plurality of characters in the music game as the performance.

他のキャラクタはユーザキャラクタであっても、コンピュータによって動作が制御されるノンプレイヤキャラクタ(いわゆるNPC)であってもよい。例えば、本発明のゲームシステムの一態様において、前記ゲームは、複数のユーザにそれぞれ対応する複数のユーザキャラクタを前記複数のキャラクタが含むようにプレイされ、前記指示評価手段は、前記複数のユーザキャラクタのうち前記ユーザキャラクタとは別のユーザキャラクタに対して前記付加行動が実行された場合に、当該別のユーザキャラクタが前記他のキャラクタとして機能するように、当該別のユーザキャラクタによる前記パフォーマンスを前記付加指示行為に基づいて評価してもよい。 Other characters may be user characters or non-player characters whose actions are controlled by a computer (so-called NPCs). For example, in one aspect of the game system of the present invention, the game is played such that a plurality of user characters respectively corresponding to a plurality of users are included in the plurality of characters, and the instruction evaluation means is adapted to: When the additional action is performed on a user character different from the user character, the performance by the different user character is performed so that the different user character functions as the other character You may evaluate based on additional instruction|indication action.

一方、本発明のコンピュータプログラム(PG2)は、前記入力装置、及び前記表示装置に接続されるコンピュータ(41)を、上述のゲームシステムの各手段として機能させるように構成されたものである。 On the other hand, the computer program (PG2) of the present invention is configured to cause the computer (41) connected to the input device and the display device to function as each means of the game system described above.

また、本発明の制御方法は、各ユーザのプレイ行為を入力するための入力装置(SMA、SMB)、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタ(54C)を含む複数のキャラクタ(54)が表示されるゲーム画面(50)を表示する表示装置(47)に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム(4)に組み込まれるコンピュータ(41)に、前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手順と、前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手順と、を実行させるものである。本発明のコンピュータプログラム、或いは制御方法を通じて、本発明のゲームシステムを実現することができる。 In addition, the control method of the present invention includes an input device (SMA, SMB) for inputting a play action of each user, and a plurality of user characters (54C) including at least one user character (54C) operated by each user through the play action. A game system (4) connected to a display device (47) for displaying a game screen (50) on which a character (54) is displayed and providing a game including performances executed by the plurality of characters through the game screen (4). A computer (41) provided with an additional instruction action for causing the user character to perform an additional action to be added to the performance from the user character to the other characters of the plurality of characters is the play an instruction evaluation procedure for evaluating the performance by the other character based on the additional instruction action when executed as an action; and a result providing procedure for providing each user with the evaluation result of the performance by the other character. , is executed. The game system of the present invention can be realized through the computer program or control method of the present invention.

1 ゲームシステム
2 センターサーバ
4 HMD型のゲーム機(ゲームシステム)
41 制御ユニット(コンピュータ)
43 進行制御部(指示評価手段、結果提供手段)
47 ディスプレイ(表示装置)
50 ゲーム画面
54 キャラクタ画像(キャラクタ)
54B 第2キャラクタ画像(他のキャラクタ、別のユーザキャラクタ)
54C 第3キャラクタ画像(ユーザキャラクタ)
IR 視野範囲
SMA センサ(入力装置)
SMB センサ(入力装置)
1 game system 2 center server 4 HMD type game machine (game system)
41 control unit (computer)
43 progress control unit (instruction evaluation means, result provision means)
47 display (display device)
50 Game screen 54 Character image (character)
54B second character image (other character, another user character)
54C third character image (user character)
IR field of view SMA sensor (input device)
SMB sensor (input device)

Claims (10)

各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムであって、
前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手段と、
前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手段と、
を備える、ゲームシステム。
connected to an input device for inputting a play action of each user and a display device for displaying a game screen on which a plurality of characters including at least one user character operated by each user through the play action are displayed; A game system that provides a game including performances performed by the plurality of characters through a game screen,
When an additional instructing action for causing the user character to perform an additional action that is executed from the user character to another character of the plurality of characters so as to be added to the performance is performed as the play action , instruction evaluation means for evaluating the performance by the other character based on the additional instruction action;
a result providing means for providing each user with an evaluation result of the performance by the other character;
A game system with
前記指示評価手段は、前記ユーザキャラクタから前記他のキャラクタに対して実行されるユーザアクションと、当該ユーザアクションに対応する前記他のキャラクタによる対応アクションとによって前記ユーザキャラクタと前記他のキャラクタとの間に形成される連携状態の形成を条件に、当該連携状態において前記付加指示行為が実行された場合に、前記他のキャラクタによる前記パフォーマンスを評価する、請求項1に記載のゲームシステム。 The instruction evaluation means is configured to determine the difference between the user character and the other character by a user action executed by the user character on the other character and a corresponding action by the other character corresponding to the user action. 2. The game system according to claim 1, wherein said performance by said other character is evaluated when said additional instructive action is executed in said linked state on the condition that said linked state is formed in said linked state. 前記指示評価手段は、前記パフォーマンスの後に当該パフォーマンスを評価するための評価期間が設けられる場合に、当該評価期間において前記連携状態で前記付加指示行為が実行されたときに、前記他のキャラクタによる前記パフォーマンスを評価する、請求項2に記載のゲームシステム。 In the case where an evaluation period for evaluating the performance is provided after the performance, the instruction evaluation means performs the additional instruction action by the other character when the additional instruction action is executed in the cooperative state during the evaluation period. 3. The gaming system of claim 2, which evaluates performance. 前記連携状態は、前記ユーザキャラクタに設定される視野範囲に前記他のキャラクタを入れる動作が前記ユーザアクションとして、前記他のキャラクタに設定される視野範囲に前記ユーザキャラクタを入れる動作が前記対応アクションとして、それぞれ機能するように、前記ユーザキャラクタの視野範囲に含まれる前記他のキャラクタが当該他のキャラクタの視野範囲に前記ユーザキャラクタを入れた場合に形成される、請求項2又は3に記載のゲームシステム。 In the cooperative state, an action of moving the other character into the field of view set for the user character is the user action, and an action of moving the user character into the field of view set for the other character is the corresponding action. 4. A game according to claim 2 or 3, formed when said other character included in said user character's viewing range brings said user character into said other character's viewing range, respectively. system. 前記結果提供手段は、前記ユーザキャラクタが過去のプレイにおいて前記パフォーマンスとして実行した動作と同様の動作を実行するように前記パフォーマンスにおいて前記他のキャラクタの動作が制御され、前記ユーザキャラクタの過去のプレイにおける複数の動作から前記他のキャラクタが実際に実行すべき動作を選択するための選択機会が提供される場合に、当該選択機会において各動作を選択するための指標となる指標情報として機能するように前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する、請求項1~4のいずれか一項に記載のゲームシステム。 The result providing means controls the motion of the other character in the performance so that the user character performs the same motion as the performance performed by the user character in the past play, and When a selection opportunity is provided for the other character to select an action that the other character should actually perform from a plurality of actions, it functions as index information serving as an index for selecting each action in the selection opportunity. 5. The game system according to any one of claims 1 to 4, wherein evaluation results of said performance by said other character are provided to each user. 前記指示評価手段は、前記付加指示行為として複数種類の付加指示行為が用意される場合に、各ユーザによって実行された付加指示行為としての実際の指示行為の種類が前記指標情報として機能するように、前記実際の指示行為の種類を判別することにより前記他のキャラクタによる前記パフォーマンスを評価する、請求項5に記載のゲームシステム。 When a plurality of types of additional instructional actions are prepared as the additional instructional actions, the instruction evaluation means is configured so that the type of the actual instructional action as the additional instructional action executed by each user functions as the index information. 6. The game system of claim 5, wherein said performance by said other character is evaluated by determining the type of said actual pointing action. 前記ゲームとして、楽曲のリズムに合わせて前記プレイ行為の実行時期を案内するとともに、当該プレイ行為に伴い前記ユーザキャラクタが前記楽曲を演奏する演奏動作を実行する音楽ゲームが提供され、
前記パフォーマンスとして、前記音楽ゲームでは前記複数のキャラクタの各キャラクタによる前記演奏動作が実行される、請求項1~6のいずれか一項に記載のゲームシステム。
As the game, a music game is provided in which the user character performs a performance action of playing the music along with guidance of the execution time of the play act in accordance with the rhythm of the music,
7. The game system according to any one of claims 1 to 6, wherein said performance is performed by each of said plurality of characters in said music game.
前記ゲームは、複数のユーザにそれぞれ対応する複数のユーザキャラクタを前記複数のキャラクタが含むようにプレイされ、
前記指示評価手段は、前記複数のユーザキャラクタのうち前記ユーザキャラクタとは別のユーザキャラクタに対して前記付加行動が実行された場合に、当該別のユーザキャラクタが前記他のキャラクタとして機能するように、当該別のユーザキャラクタによる前記パフォーマンスを前記付加指示行為に基づいて評価する、請求項1~7のいずれか一項に記載のゲームシステム。
The game is played such that the plurality of characters includes a plurality of user characters respectively corresponding to a plurality of users,
When the additional action is performed on a user character different from the user character among the plurality of user characters, the instruction evaluation means causes the other user character to function as the other character. , evaluating said performance by said another user character based on said additional instruction action.
前記入力装置、及び前記表示装置に接続されるコンピュータを、請求項1~8のいずれか一項に記載のゲームシステムの各手段として機能させるように構成されたコンピュータプログラム。 A computer program configured to cause a computer connected to the input device and the display device to function as each means of the game system according to any one of claims 1 to 8. 各ユーザのプレイ行為を入力するための入力装置、及び前記プレイ行為を通じて各ユーザによって操作される少なくとも一体のユーザキャラクタを含む複数のキャラクタが表示されるゲーム画面を表示する表示装置に接続され、前記ゲーム画面を通じて前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムに組み込まれるコンピュータに、
前記ユーザキャラクタから前記複数のキャラクタの他のキャラクタに対して前記パフォーマンスに付加されるように実行される付加行動を前記ユーザキャラクタに実行させるための付加指示行為が前記プレイ行為として実行された場合に、当該付加指示行為に基づいて前記他のキャラクタによる前記パフォーマンスを評価する指示評価手順と、
前記他のキャラクタによる前記パフォーマンスの評価結果を各ユーザに提供する結果提供手順と、
を実行させる、制御方法。
connected to an input device for inputting a play action of each user and a display device for displaying a game screen on which a plurality of characters including at least one user character operated by each user through the play action are displayed; A computer incorporated in a game system that provides a game including performances executed by the plurality of characters through a game screen,
When an additional instructing action for causing the user character to perform an additional action that is executed from the user character to another character of the plurality of characters so as to be added to the performance is performed as the play action , an instruction evaluation procedure for evaluating the performance by the other character based on the additional instruction action;
a result providing procedure for providing each user with an evaluation result of the performance by the other character;
A control method that causes the
JP2021038638A 2021-03-10 2021-03-10 Game system, computer program used for the same and control method Pending JP2022138642A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021038638A JP2022138642A (en) 2021-03-10 2021-03-10 Game system, computer program used for the same and control method
CN202280019694.6A CN116997395A (en) 2021-03-10 2022-03-08 Game system, computer program used in the game system, and control method
PCT/JP2022/009922 WO2022191170A1 (en) 2021-03-10 2022-03-08 Game system, computer program employed in same, and control method
KR1020237029469A KR20230136648A (en) 2021-03-10 2022-03-08 Gaming system, computer programs used on it, and control methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021038638A JP2022138642A (en) 2021-03-10 2021-03-10 Game system, computer program used for the same and control method

Publications (1)

Publication Number Publication Date
JP2022138642A true JP2022138642A (en) 2022-09-26

Family

ID=83228032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021038638A Pending JP2022138642A (en) 2021-03-10 2021-03-10 Game system, computer program used for the same and control method

Country Status (4)

Country Link
JP (1) JP2022138642A (en)
KR (1) KR20230136648A (en)
CN (1) CN116997395A (en)
WO (1) WO2022191170A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5731734B2 (en) * 2008-06-12 2015-06-10 任天堂株式会社 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP6001970B2 (en) * 2012-09-11 2016-10-05 株式会社ソニー・インタラクティブエンタテインメント GAME DEVICE, GAME SERVER, GAME CONTROL METHOD, AND GAME CONTROL PROGRAM
JP2016016146A (en) * 2014-07-09 2016-02-01 株式会社カプコン Game program and game device
JP2019036239A (en) 2017-08-21 2019-03-07 株式会社コロプラ Information processing method, information processing program, information processing system, and information processing device

Also Published As

Publication number Publication date
CN116997395A (en) 2023-11-03
WO2022191170A1 (en) 2022-09-15
KR20230136648A (en) 2023-09-26

Similar Documents

Publication Publication Date Title
US8079907B2 (en) Method and apparatus for facilitating group musical interaction over a network
US20070245881A1 (en) Method and apparatus for providing a simulated band experience including online interaction
JP2009532187A (en) Method and apparatus for providing a pseudo band experience through online communication
JP6547032B1 (en) Game program, method, and terminal device
JP6672380B2 (en) Game program, character control program, method, and information processing device
US9751019B2 (en) Input methods and devices for music-based video games
JP6621156B1 (en) GAME SYSTEM, COMPUTER PROGRAM USED FOR THE SAME, AND CONTROL METHOD
O’Donovan et al. Rabbit run: Gaze and voice based game interaction
WO2022191170A1 (en) Game system, computer program employed in same, and control method
JP2022185001A (en) Observation system, computer program for observation system, and control method of observation system
WO2022137958A1 (en) Game system, computer program employed in same, and control method
JP6449561B2 (en) PROGRAM, GAME DEVICE, AND GAME SYSTEM
JP6826626B2 (en) Viewing program, viewing method, and viewing terminal
JP7317364B2 (en) Game system, computer program used therefor, and control method
JP7457753B2 (en) PROGRAM AND INFORMATION PROCESSING APPARATUS
JP7093590B1 (en) Game system, computer program and control method
WO2022137375A1 (en) Method, computer-readable medium, and information processing device
JP7282731B2 (en) Program, method and terminal
JP6661176B1 (en) Game system, computer program used therefor, and control method
WO2022113330A1 (en) Method, computer-readable medium, and information processing device
WO2022113335A1 (en) Method, computer-readable medium, and information processing device
WO2013069647A1 (en) Game machine, control method used therefor, and computer program
JP2023126796A (en) Distribution program and system
JP2022157561A (en) game system and program
JP2023149618A (en) Generation method, generation system, and control program, and game system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128