WO2022137958A1 - ゲームシステム、それに用いるコンピュータプログラム、及び制御方法 - Google Patents

ゲームシステム、それに用いるコンピュータプログラム、及び制御方法 Download PDF

Info

Publication number
WO2022137958A1
WO2022137958A1 PCT/JP2021/043007 JP2021043007W WO2022137958A1 WO 2022137958 A1 WO2022137958 A1 WO 2022137958A1 JP 2021043007 W JP2021043007 W JP 2021043007W WO 2022137958 A1 WO2022137958 A1 WO 2022137958A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
performance
action
user
game
Prior art date
Application number
PCT/JP2021/043007
Other languages
English (en)
French (fr)
Inventor
祐 佐原
泰地 宮▲崎▼
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Priority to CN202180087065.2A priority Critical patent/CN116635119A/zh
Priority to KR1020237019791A priority patent/KR20230104959A/ko
Publication of WO2022137958A1 publication Critical patent/WO2022137958A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/48Starting a game, e.g. activating a game device or waiting for other players to join a multiplayer session
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/798Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for assessing skills or for ranking players, e.g. for generating a hall of fame
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal

Definitions

  • the present invention is connected to an input device for inputting a user's play action and a display device for displaying a game screen so as to include a plurality of characters including a user character as a character operated through the user's play action.
  • a game system or the like that provides a game including performances executed by the plurality of characters.
  • a plurality of input devices for inputting a user's play action and a display device for displaying a game screen so as to include a plurality of characters including a user character as a character operated through the user's play action.
  • game systems that provide games that include performances performed by characters.
  • a game system that provides a music game in which a vocal is played by pretending to be the vocal of a band (see, for example, Patent Document 1).
  • an object of the present invention is to provide a game system or the like capable of causing a plurality of characters in a game to perform a process similar to the breathing process performed in a performance by a plurality of people before the start of the performance. do.
  • the game system of the present invention displays a game screen so as to include an input device for inputting a user's play action, and a plurality of characters including a user character as a character operated through the user's play action.
  • a game system that is connected to a device and provides a game including performances executed by the plurality of characters, and is a corresponding action as a predetermined action corresponding to an action executed by at least one of the plurality of characters.
  • a condition determining means for determining whether or not a start condition including at least the formation of a cooperative state formed between the one character and the other character is satisfied when another character executes the above. When the start condition is satisfied, the performance is started when the start condition is satisfied, while the progress of the game is controlled so that the start of the performance is waited until the start condition is satisfied. It is provided with a control means.
  • the computer program of the present invention is configured to make the input device and the computer connected to the display device function as each means of the above-mentioned game system.
  • control method of the present invention displays a game screen so as to include an input device for inputting a user's play action and a plurality of characters including a user character as a character operated through the user's play action.
  • a predetermined action corresponding to an action performed by at least one of the plurality of characters on a computer connected to a display device and incorporated in a game system that provides a game including a performance performed by the plurality of characters.
  • Conditional determination to determine whether or not the start condition including the formation of at least the cooperative state formed between the one character and the other character when the other character executes the corresponding action is satisfied.
  • the progress of the game so that the performance is started when the procedure and the start condition are satisfied, and the start of the performance is waited until the start condition is satisfied. It is to execute the progress control procedure for controlling the above.
  • the game system 1 includes a center server 2 as a server device.
  • the center server 2 may be configured as one logical server device by combining server units as a plurality of computer devices. Alternatively, the center server 2 may be logically configured by using cloud computing.
  • An appropriate number of game devices are connected to the center server 2 as client devices that can be connected via the network 3.
  • the game device is a variety of game machines such as an arcade game machine (a commercial game machine installed in a facility such as an amusement store and allowing the user to play a game within a range corresponding to the play fee in exchange for payment of a predetermined price). May be included as appropriate, but in the example of FIG. 1, the user terminal device 4 is shown. Specifically, a plurality of user terminal devices 4 are connected to the center server 2 via a network 3 as an example of a game device.
  • the user terminal device 4 is a computer device that can be connected to a network and is used for personal use by the user. By implementing various computer software, the user terminal device 4 can allow the user to enjoy various services provided by the center server 2.
  • Such computer software includes an application for a game for providing a paid or free game. Then, the user terminal device 4 functions as a game machine through the execution of such a game application.
  • Such a user terminal device 4 is, for example, a stationary or book-type personal computer, a stationary home-use game machine, or various mobile terminal devices such as a portable tablet terminal device and a mobile phone (including a smartphone). Includes. These may be appropriately used as the user terminal device 4, but in the example of FIG. 1, an HMD (head-mounted display or head-mounted device) type game machine is used.
  • the HMD type game machine is a well-known game device that is mounted on the head so that the display surface of the display occupies most of the user's field of view.
  • the HMD type game machine is a game composed of a combination of, for example, an HMD type dedicated game device, an appropriate mobile terminal device such as a mobile phone, and a case for accommodating the HMD type game machine so as to direct the user's view to the display surface. It includes a device and a glasses-type projector (so-called smart glasses) that projects an image so that the image is focused on the back of the eyeball.
  • the HMD-type dedicated game device includes an interlocking game device that is connected to a tablet terminal device, a smartphone, or the like and functions as a game machine through the application of the tablet terminal device. Any of these various HMD-type game machines may be used as the user terminal device 4.
  • the HMD-type game machine that functions as the user terminal device 4 may be referred to as the HMD-type game machine 4 with the same reference numerals as those of the user terminal device 4.
  • the HMD type game machine 4 is appropriately provided with various input devices for inputting the user's play action.
  • the HMD type game machine 4 may have a built-in sensor that detects the movement of the head as a play action, and the sensor may function as an input device.
  • a device different from the HMD type game machine 4 may be connected to the HMD type game machine 4 by an appropriate method, and the other device may function as an input device.
  • the HMD type game machine 4 may be appropriately provided with various input devices, and in the example of FIG. 1, an operation stick OS is provided as such an input device.
  • the operation stick OS is a well-known input device connected to the HMD type game machine 4 through a predetermined wireless communication standard.
  • the operation stick OS may be used for inputting various operations (playing actions), and an appropriate number of operation stick OSs may be connected to each HMD type game machine 4 accordingly, but as an example, the left and right hands may be used.
  • Two operation stick OSs (only one of them is shown in FIG. 1) are connected to each HMD type game machine 4 so as to be operated respectively.
  • the HMD type game machine 4 provides a game that progresses through a play action input via such an operation stick OS.
  • the HMD type game machine 4 may appropriately provide various games, for example, an action game, a simulation game, a role playing game, or the like, but an music game is provided as an example.
  • Music games are a type of timing game.
  • a timing game is a type of game that evaluates the execution time of an appropriate play action.
  • the execution time at which the appropriate play action should be performed is provided together with the music.
  • a time that matches the rhythm of the music is used as an execution time. That is, the music game is a type of game that guides the user to the time when an appropriate play act should be executed according to the rhythm of the music, and evaluates the time when the play act is actually executed.
  • a music game a plurality of songs are prepared for play, and the songs selected from the songs are used for actual play.
  • a music game may be appropriately provided via various output devices, but as an example, it is provided through a game screen displayed on a display.
  • the game provided by the HMD type game machine 4 includes a plurality of characters (including various objects such as a car or an animal) and performances executed by the plurality of characters.
  • a plurality of characters may appropriately perform various performances according to the type of an action game or the like, but in the case of a music game, a performance of playing a musical instrument (hereinafter referred to as a performance performance) is executed as an example. Therefore, the game screen may include a plurality of characters that perform such a performance performance. Details of such a game screen will be described later.
  • the network 3 may be appropriately configured as long as the HMD type game machine 4 can be connected to the center server 2.
  • the network 3 is configured to realize network communication using the TCP / IP protocol.
  • the network 3 is configured by combining the Internet as a WAN and the intranet as a LAN.
  • the center server 2 is connected to the network 3 via the router 3a, and the HMD type game machine is connected to the network 3 via the access point 3b.
  • the network 3 is not limited to the form using the TCP / IP protocol.
  • various forms using a wired line for communication, a wireless line (including infrared communication, short-range wireless communication, etc.) and the like may be used.
  • the center server 2 provides various Web services to the user of the HMD type game machine 4 via the network 3.
  • the Web service includes a distribution service that distributes various data or software (including updates of data and the like) to each HMD type game machine 4.
  • the Web service is a matching that matches users (competitors or cooperators) of another HMD type game machine 4 via the network 3 when the music game is played as a battle type or a cooperative type game.
  • Various services such as a service and a service for assigning a user ID for identifying each user may be appropriately included.
  • the center server 2 is provided with a control unit 21 and a storage unit 22 as storage means.
  • the control unit 21 is configured as a computer in which a CPU as an example of a processor that executes various arithmetic processes and operation controls according to a predetermined computer program, and an internal memory and other peripheral devices necessary for the operation are combined.
  • the storage unit 22 is an external storage device realized by a storage unit including a non-volatile storage medium (computer-readable storage medium) such as a hard disk array.
  • the storage unit 22 may be configured to hold all the data on one storage unit, or may be configured to distribute and store the data in a plurality of storage units.
  • the program PG1 is recorded in the storage unit 22 as an example of a computer program that causes the control unit 21 to execute various processes necessary for providing various services to the user.
  • the storage unit 22 stores server data necessary for providing various services.
  • server data includes various data for services, but in the example of FIG. 2, as a kind of such various data, music data MD, sequence data QD, play data PD, and performance data are used. OD is shown.
  • Music data MD is data for playing each music.
  • the music data MD is used for playing each music in, for example, a music game.
  • the sequence data QD is data that describes each execution time in which an appropriate play action should be executed in a music game.
  • the sequence data QD is used to inform the user of each such execution time. Further, when the play action is actually executed by the user, the play action is evaluated based on the execution time of the sequence data QD. That is, the sequence data QD is used for guidance of each execution time and its evaluation. Therefore, in the sequence data QD, information on each execution time and an appropriate play action to be executed at the execution time is described so as to be associated with each other.
  • the sequence data QD is prepared for each song or each difficulty level.
  • each execution time and appropriate play action may differ depending on the selected character (or a musical instrument different for each character as described later).
  • the sequence data QD is also prepared for each such character (or musical instrument).
  • the play data PD is data in which information regarding the past play results of each user is described.
  • the play data PD is used to inherit the play results (past achievements) up to the previous time from the next time onward, or to inherit the setting contents unique to each user.
  • the performance data OD is data for realizing a performance performance. The details of the performance data OD will be described later.
  • the server data may also include various data for realizing various services.
  • data may include image data, ID management data, and the like.
  • the image data is data for displaying various images such as a game screen on a display device.
  • the ID management data is data for managing various IDs such as user IDs. However, their illustration is omitted.
  • the control unit 21 is provided with a Web service management unit 24 as a logical device realized by a combination of the hardware resources of the control unit 21 and the program PG1 as software resources.
  • the Web service management unit 24 executes various processes for providing the above-mentioned Web service to the HMD type game machine 4.
  • the HMD type game machine 4 is provided with a control unit 41 and a storage unit 42 as storage means. It is configured as a computer in which a CPU as an example of a processor that executes various arithmetic processes and operation controls according to a predetermined computer program and an internal memory and other peripheral devices necessary for the operation are combined.
  • the storage unit 42 is an external storage device realized by a storage unit including a non-volatile storage medium (computer-readable storage medium) such as a hard disk or a semiconductor storage device.
  • the program PG2 is recorded in the storage unit 42 as an example of a computer program that causes the control unit 41 to execute various processes necessary for providing various services to the user. Further, the storage unit 42 records game data necessary for providing the music game.
  • game data includes various data for music games, and in the example of FIG. 2, music data MD, sequence data QD, play data PD, and performance data OD are shown as examples.
  • the music data MD, sequence data QD, play data PD, and performance data OD may be provided to the storage unit 42 by various methods such as initial installation and provision through various storage media.
  • the center server may be provided through a distribution service. Provided from 2.
  • the game data may include various data for the game, for example, voice data for reproducing such various voices when there is another voice different from the music.
  • Such data may appropriately include image data provided through a distribution service or the like, ID management data, or the like, as in the case of music data MD or the like.
  • these illustrations are omitted.
  • control unit 41 various logical devices are configured by the combination of the hardware resource of the control unit 41 and the program PG2 as the software resource. Then, various processes necessary for providing the music game (including processes necessary for enjoying the Web service provided by the Web service management unit 24 of the center server 2) are executed through these logical devices.
  • a progress control unit 43 and a data management unit 44 are shown as logical devices related to a music game.
  • the progress control unit 43 is a logical device that performs various processes necessary for the progress of the game. Such a process includes, for example, a process of executing various preparations for play, a process of guiding the user to each execution time of the play action, and a process of evaluating the play action executed by the user.
  • preparations for play include appropriate elements such as various settings, such as provision of selection opportunities and determination of the start of guidance for each execution time.
  • the progress control unit 43 executes a performance selection process, a cooperative response process, and a music start process as an example of such various processes.
  • the data management unit 44 is a logical device that performs various processes related to the management of the game data recorded in the storage unit 42.
  • the data management unit 44 executes a process of acquiring game data provided from the center server 2 and storing the game data in the storage unit 42.
  • the data management unit 44 executes a performance data generation process as an example of such various processes. The details of the procedure of the performance selection process, the cooperative response process, the music start process, and the performance data generation process will be described later.
  • the display 47 and the speaker SP are examples of the output devices, and the sensor SM is an example of the input devices.
  • the display 47 is a well-known display device for displaying a game screen or the like.
  • the speaker SP is a well-known audio reproduction device for reproducing various audios including music.
  • the sensor SM is a well-known detection device (detection means) for detecting various states of the HMD type game machine 4.
  • the sensor SM may appropriately include various detection devices according to the state of the detection target, and may appropriately include, for example, a sensor for eye tracking that tracks the line of sight of the user, but in the example of FIG. 2, the sensor SM may appropriately include the sensor SM.
  • an acceleration sensor SM1 and a gyro sensor SM2 are shown.
  • the acceleration sensor SM1 is a well-known detection device for detecting the acceleration (for example, acceleration in the triaxial direction) generated in the HMD type game machine 4.
  • the acceleration sensor SM1 may be appropriately utilized through the detection of such acceleration, but as an example, it is used for detecting a state such as a horizontal state, an inclination of the HMD type game machine 4, or an orientation.
  • the gyro sensor SM2 is a well-known detection device for detecting a change in angle with respect to a reference axis (for example, three axes). The gyro sensor SM2 may be appropriately utilized through such angle detection, but as an example, it is used for detecting a state such as rotation, tilt, or orientation of the HMD type game machine 4.
  • acceleration sensors SM1 and gyro sensor SM2 may be used independently (when used alone, either one may be omitted), but as an example, an HMD type game. It is used in combination with the detection of various states such as the orientation of the machine 4.
  • Various other output devices or input devices may be appropriately connected to the HMD type game machine 4, but in the example of FIG. 2, the above-mentioned operation stick OS is connected.
  • the operation stick OS is as described above, but is connected to the control unit 41 and outputs various input signals according to the play action to the control unit 41.
  • FIG. 3 is a diagram schematically showing an example of a game screen displayed on the display 47 of the HMD type game machine 4.
  • a music game may include various game screens, but the example of FIG. 3 shows a game screen for guiding each execution time when a play act should be executed. Further, the music game may be appropriately configured, and in many cases, the playing sound of the musical instrument is reproduced along with the playing act so as to direct the playing of the musical instrument. In such a case, a character that executes a musical instrument playing action may appear on the game screen in order to improve the sense of presence. Similar characters corresponding to other users (cooperators) or computers may appear. The example of FIG.
  • FIG. 3 shows a game screen when these characters are included. More specifically, a character that performs a performance action of playing a drum as an example of a musical instrument according to a user's play action, and a character that performs a performance action of playing another musical instrument along with another user's play action. Shows a game screen that includes both. Such a game screen may be appropriately configured, but the example of FIG. 3 shows a case where it is configured to produce a virtual three-dimensional space. Further, such a virtual three-dimensional space may be appropriately cut out as a shooting result of a virtual camera and displayed as a game screen, but the example of FIG. 3 may be referred to as a character corresponding to a user (hereinafter, may be referred to as a user character).
  • the game screen 50 includes an instruction object 51, a score display area 52, a stage area 53, a character image 54, and a drum set image 55.
  • the drum set image 55 is an image imitating a drum set of a musical instrument.
  • the drum set image 55 may correspond to an appropriate drum set, but in the example of FIG. 3, two drum images 55a and four cymbal images 55b are included.
  • Each drum image 55a and each cymbal image 55b are images corresponding to the drums and cymbals in the drum set, respectively. These are displayed in the same arrangement as the actual drum set.
  • the two drum images 55a are arranged near the center in the drum set image 55 so as to be arranged side by side.
  • the four cymbal images 55b are arranged on the left and right sides of the two drum images 55a so as to sandwich the two drum images 55a in the drum set image 55.
  • the two cymbal images 55b on the left side and the two cymbal images 55b on the right side are both arranged so as to be vertically separated from each other.
  • the score display area 52 is an area for displaying a score (acquired score).
  • the score display area 52 may be appropriately configured, but in the example of FIG. 3, it is formed in a square shape and is displayed so as to be located on the back side (user side is in front) in the virtual three-dimensional space.
  • the instruction object 51 is an image corresponding to each execution time (in other words, a sign image indicating each execution time).
  • the instruction object 51 appears at an appropriate position on the back side in the virtual three-dimensional space at an appropriate time, and moves along a predetermined movement path so as to approach the front side, that is, the user.
  • Such a movement path may be appropriately set, but is set so as to pass through either the drum image 55a or the cymbal image 55b.
  • each drum image 55a and each cymbal image 55b functions as a marker image indicating a reference of the current time. Therefore, each instruction object 51 moves along such a movement path so as to match either the drum image 55a or the cymbal image 55b at the corresponding execution time.
  • the movement route may be displayed, but the movement route is not displayed in the example of FIG.
  • Each execution time may be appropriately guided through a relative displacement between the instruction object 51 (instruction marker image) and each drum image 55a or the like (current time indicator image), as an example. It is guided through the movement of the instruction object 51 to each drum image 55a or the like.
  • the instruction object 51 may be classified into various types, but in the example of FIG. 3, two types of the first instruction object 51A and the second instruction object 51B are included.
  • the first instruction object 51A and the second instruction object 51B are instruction objects 51 that request different play actions at each execution time. Specifically, both the first instruction object 51A and the second instruction object 51B request the user to hit the lower cymbal image 55b as a play action, but the first instruction object 51A is on the left side.
  • the second instruction object 51B corresponds to the request for the tapping operation for the cymbal image 55b, and the second instruction object 51B corresponds to the request for the tapping operation for the cymbal image 55b on the right side. Therefore, after the first instruction object 51A and the second instruction object 51B appear at appropriate positions, the front side so as to coincide with the positions of the left and right lower cymbal images 55b at each execution time. Move towards.
  • the tapping action required by the user is input through the operation stick OS.
  • the user executes an operation of tapping the position of the cymbal image 55b in the virtual three-dimensional space.
  • the operation of shaking the operation stick OS is required. Therefore, the sequence data QD includes the movement path of each instruction object 51 or the movement path thereof so that the action of hitting each cymbal image 55b or the like functions as an appropriate play action at each execution time. Information such as each cymbal image 55b of the above is described as information on an appropriate play action. Then, the smaller the deviation time between the actual execution time of the tapping operation and the actual coincidence time (execution time described in the sequence data QD), the higher the evaluation. The same applies to the second instruction object 51B.
  • each drum image 55a and each cymbal image 55b are arranged at a predetermined position defined by spatial coordinates in the virtual three-dimensional space, and each instruction object 51 is directed toward each drum image 55a or the like at the predetermined position (spatial coordinates). Moves. Further, an evaluation range (a range equal to or slightly larger than that of each drum image 55a) is set for each drum image 55a or the like based on the predetermined position.
  • the stick image 56 moves in a virtual three-dimensional space with an operation on the operation stick OS, and depending on whether or not the position (spatial coordinates) of the tip thereof is within the evaluation range of each drum image 55a or cymbal image 55b. It is determined whether or not the tapping operation has been executed. Then, between the time when the stick image 56 is included in the evaluation range (the time when the actual playing action is performed) and the time when the instruction object 51 should reach each drum image 55a or the like (the time when the sequence data QD is executed). The deviation time is calculated, and the evaluation is determined according to the deviation time. This evaluation may be performed as appropriate, but is achieved, for example, through criteria such as perfect, great, good, or bad.
  • the tapping operation is not executed within a predetermined time based on each execution time, it is determined as a mistake operation (evaluation result corresponding to the mistake). Similarly, if the tapping action is executed earlier or later than the period belonging to the bad, it is determined as a mistake. If the tapping operation is executed at a time not belonging to any of these, the operation is not used for anything and may be ignored.
  • the instruction object 51 also includes a type corresponding to the cymbal image 55b located on the upper left and right sides, a type corresponding to each drum image 55a, and the like, and the same as the first instruction object 51A through these types.
  • the operation of hitting the drum image 55a or the like may be appropriately requested, but the display thereof is omitted in the example of FIG.
  • various instruction objects 51 such as the first instruction object 51A may be displayed in an appropriate form, but as an example, all of them are the same as the indicator image of the current time located on the movement path such as the cymbal image 55b. It is displayed in the shape of.
  • various instruction objects 51 such as the first instruction object 51A may be appropriately displayed so as to be distinguishable from each other, but as an example, the first instruction object 51A and the second instruction object 51B are different from each other. It is displayed in a color scheme.
  • each drum image 55a and the like in the drum set image 55 may be displayed in a different color scheme from each other.
  • each instruction object 51 may be displayed in the same color as each corresponding drum image 55a or the like so that the user can easily identify the play target.
  • the stage area 53 is an area corresponding to the stage formed in the virtual three-dimensional space.
  • each character performs a performance operation on the stage. Therefore, the character image 54 and the drum set image 55 corresponding to each character are arranged in the stage area 53.
  • An appropriate number of character images 54 may be arranged in the stage area 53, but in the example of FIG. 3, three character images 54 are displayed.
  • the character image 54 includes a first character image 54A for playing a keyboard, a second character image 54B for playing a guitar, and a third character image 54C for playing a drum.
  • These character images 54A, 54B, 54C correspond to three characters forming one playing unit for playing a keyboard, a guitar, and a drum (all are examples of musical instruments) in a virtual three-dimensional space, respectively. There is. These three characters may appropriately correspond to the user and the collaborator (including the computer), and may execute the performance operation based on any of the play actions, but as an example, the first character.
  • the image 54A and the second character image 54B correspond to the computer, and the third character image 54C corresponds to the user.
  • the first character image 54A to the third character image 54C function as a plurality of characters of the present invention.
  • the first character image 54A to the third character image 54C may be displayed as appropriate, but in the example of FIG. 3, the first character image 54A and the first character image 54A and the first character image 54C correspond to the field of view of the user character (third character image 54C).
  • the whole body is displayed in the two-character image 54B, and only both hands (only a part of the body) are displayed in the third character image 54C (user character).
  • two stick images 56 are displayed on the left and right hands of the third character image 54C so as to show a situation in which the user character is holding a stick for hitting a drum in a virtual three-dimensional space.
  • the third character image 54C also operates so as to reproduce the tapping operation.
  • the third character image 54C executes an operation (playing operation) of hitting the target cymbal image 55b or the like on the stick image 56 with the execution of the hitting operation.
  • the play action by a collaborator including a computer
  • the action of playing a key in the case of a keyboard the action of playing a string in the case of a guitar, for example, although it may be appropriate depending on the type of the target instrument or input device.
  • the first character image 54A and the second character image 54B also execute the same playing operation on the game screen 50.
  • FIG. 4 is an explanatory diagram for explaining the positional relationship of each character in the virtual three-dimensional space.
  • the example of FIG. 4 schematically shows a stage in a virtual three-dimensional space and a case where each character is viewed from above. Since the stage or the like in the virtual three-dimensional space corresponds to the stage area 53 or the like on the game screen 50, the stage in the example of FIG. 4 is for convenience of explanation, and each character has the stage area 53 on the game screen 50 and each character.
  • the same reference numerals as those of the image 54 and the like are attached.
  • each character image 54 (each character in the virtual three-dimensional space) is arranged in the stage area 53 (stage in the virtual three-dimensional space) at a predetermined interval.
  • the position or interval of each character image 54 may be appropriate or variable, but is fixed as an example. That is, each character image 54 is fixedly arranged at a predetermined position in the stage area 53.
  • the third character image 54C corresponds to the user character. Therefore, the field of view range IA is set in the third character image 54C.
  • the field of view IA corresponds to the shooting range of the virtual camera for drawing the game screen 50.
  • the field of view IA may be set as an appropriate range, but in the example of FIG. 4, the field of view IA set when the third character image 54C faces the front is shown. Further, this field of view range IA moves according to the operation of the third character image 54C, in other words, the operation of the user.
  • the HMD type game machine 4 is mounted on the head of the user and played, and the head of the third character image 54C also moves with the movement of the head of the user.
  • the field of view IA is set to the front side (the range displayed by the solid line) in the example of FIG.
  • the head of the third character image 54C also operates so as to face the same right in the virtual three-dimensional space.
  • the field of view IA changes its angle to the right according to the movement of its head.
  • the visual field range IA moves to the right tilt range IA1 indicated by the alternate long and short dash line as the user moves his / her head toward the right.
  • the virtual three-dimensional space included in the right tilt range IA1 is displayed as the game screen 50.
  • FIG. 5 is a diagram schematically showing an example of a game screen 50 when the field of view IA is moved to the right tilt range IA1 in the example of FIG. Further, the example of FIG. 4 also corresponds to the game screen 50 when the user faces diagonally upward to the right from the example of FIG. Such a change in the head in the vertical direction is also detected by the sensor SM and reflected on the game screen 50. Therefore, in this case, as shown in FIG. 5, the second character image 54B moves closer to the center of the game screen 50 as the field of view (field of view IA) moves, as compared with the example of FIG. Then, the display of the first character image 54A has disappeared. Further, similar changes occur in the stage area 53, the score display area 52, and the drum set image 55.
  • the character image 54 also executes a similar tapping operation, that is, a playing operation, on the game screen 50 in accordance with the user's playing action (tapping operation). Therefore, each character executes a performance operation with the start of play.
  • Character images 54 other than the user character also perform the same performance operation with the start of play.
  • a performance performance is formed by a combination of these performance movements, in other words, a performance movement by one performance unit as a whole.
  • the start of play corresponds to the performance operation and the start of the performance performance.
  • Such a performance performance that is, a game play, is started when the start condition is satisfied.
  • the first character image 54A and the second character image 54B may be operated by another user as described above, but the case where both are operated (controlled) by a computer will be described below. ..
  • FIG. 6 is an explanatory diagram for explaining an example of the flow up to the start of the performance performance.
  • the start action is executed after the cooperation state is formed between the plurality of character images 54 (characters)
  • the start condition is satisfied
  • the performance performance that is, the play of the game is started.
  • each character image 54 is first displayed in a standby state before the start of play (guidance of execution time by each instruction object 51).
  • a standby state may be appropriately expressed, but in the case of a computer-controlled character, it is expressed by a predetermined standby operation.
  • An appropriate operation may be executed as such a standby operation, but in the case of the second character image 54B, for example, an operation of tuning the guitar is executed.
  • the first character image 54A also executes an appropriate standby operation such as an operation of lightly flipping the keyboard, but the display thereof is omitted in the example of FIG. 6 for convenience of explanation.
  • the user's operation is reflected in the third character image 54C operated by the user (when controlled by another user, the same applies to the other characters).
  • the user is allowed various actions in the standby state, and such actions include cooperative actions.
  • the third character image 54C also executes the same cooperation action.
  • the cooperative action may be executed so that both the second character image 54B and the first character image 54A are targeted at the same time, but as an example, one of the second character image 54B and the first character image 54A can be executed, respectively. It is executed to correspond individually.
  • the computer determines the execution of the operation, and causes the second character image 54B to execute a response action for responding to the linked action. .. Then, when the response action is executed by the second character image 54B, a cooperative state is formed between the third character image 54C and the second character image 54B.
  • the third character image 54C and the second character image 54B function as one character of the present invention and another character, respectively. Further, the cooperation action and the response action function as the action of the present invention and the corresponding action, respectively.
  • the cooperative state may be appropriately formed between the second character image 54B and the first character image 54A.
  • the cooperation state is the second character image 54B and the first character image 54B. If it is formed between one of the character images 54A (a part of the playing unit), it may be formed in the entire playing unit, but as an example, it is formed individually for each character. Therefore, the cooperation action by the third character image 54C with respect to the first character image 54A and the response action by the first character image 54A in response to the cooperation action are similarly performed between the third character image 54C and the first character image 54A. Will be executed.
  • the third character image 54C forms a linked state between both the second character image 54B and the first character image 54A (in other words, the entire playing unit)
  • the entire playing unit is in the linked state.
  • the cooperation action may be executed by a character other than the user character such as the second character image 54B.
  • the cooperation state is formed when the user returns a response action to such a cooperation action. May be done.
  • the cooperation action may be executed by an appropriate character, but as an example, it is executed by the user character as shown in the example of FIG.
  • the start condition may include various requirements and may be appropriately satisfied, but as an example, the requirement includes the formation of a cooperative state in the entire performance unit and the execution of the start action in the cooperative state. Therefore, the start condition is satisfied when the third character image 54C (user) executes the start action in the linked state of the entire performance unit. Then, when the start condition is satisfied, the performance performance is started.
  • the initiation action serves as a special action of the present invention.
  • the performance performance may be started as appropriate when the start conditions are met.
  • the performance performance corresponds to the play of the music game, and the play of the music game includes the reproduction of the music because it is realized by the guidance of each execution time (display of the instruction object 51) according to the rhythm of the music. .. Therefore, the reproduction of the music for play may be started immediately after the start condition is satisfied, that is, immediately after the start action.
  • the performance may be started as appropriate, but as an example, the start effect is first executed when the start condition is satisfied. That is, the performance performance includes a part for the start effect and a performance part in which each character image 54 actually executes the performance performance, and the start effect is first started when the start condition is satisfied.
  • the start effect may be realized as appropriate, but as an example, it is realized to function as a countdown to the music reproduction. Therefore, the start staging functions as a preparatory part for adjusting the timing to the playback of the music.
  • the countdown function may be appropriately realized, but as an example, it is realized by an effect in which each character image 54 is sequentially spotlighted at regular intervals. That is, after the start action, the effect of shining a spotlight on each character image 54 in order is first started, and after the spotlight is shined on all of them, the reproduction of the music is started. Then, as the music is played, the display of the instruction object 51 is started, and the performance operation (playing action) for the instruction object 51 is also started. That is, the actual performance operation (performance part) by each character image 54 is started.
  • the preparation part and the performance part function as the preparation part and the performance part of the present invention, respectively.
  • the cooperative action may be an appropriate action.
  • an action in which the drummer taps a cymbal or the like lightly several times with a constant rhythm may be adopted as a cooperative action, as is executed at the start of a performance by an actual band (performance unit).
  • a voice call (vocalization) in which the user character calls another character to start may be adopted as the cooperative action.
  • various actions may be appropriately adopted as cooperative actions, but as an example, an action of directing the line of sight to the target character is adopted. Further, such an action of directing the line of sight may be appropriately determined. For example, when only one character image 54 is included in the field of view range IA as in the example of FIG. 5, the line of sight is directed to the character image 54.
  • the visual field range IA may be used to determine the movement of directing the line of sight.
  • the motion of directing the line of sight may be appropriately determined in this way, but as an example, a visual field range is set in a part of the visual field range IA, and the presence or absence of the motion of directing the line of sight is determined based on the visual field range. Therefore, a visual field range for discriminating the user's line of sight (user character's line of sight) is set on the game screen 50 (or virtual three-dimensional space).
  • FIG. 7 is an explanatory diagram for explaining the visual field range set on the game screen 50.
  • the example of FIG. 7 shows the field of view set on the game screen 50 of the example of FIG.
  • the visual field range IR includes the central visual field range IR1 and the peripheral visual field range IR2.
  • the field of view IR may be formed at an appropriate position on the game screen 50, and the position may be variable. Further, when the position of the visual field range IR is variably set on the game screen 50, the position may be appropriately set through various detection results such as eye tracking such as eye tracking.
  • the field of view IR may be appropriately set on the game screen 50, but as an example, it is fixedly formed near the center of the game screen 50 (field of view).
  • the field of view IR may be visualized, but is set invisible as an example. That is, in the example of FIG. 7, the central visual field range IR1 is displayed with a dot pattern and the peripheral visual field range IR2 is displayed with a right diagonal line for convenience, but the field of view 50 is displayed on the actual game screen 50 as in the example of FIG. The range IR is not displayed.
  • the central visual field range IR1 is a range used for discriminating the motion of directing the line of sight.
  • the central visual field range IR1 may be formed in an appropriate shape, but as an example, it is formed in a circle having a predetermined size. Further, the determination of the action of directing the line of sight may be appropriately realized by using the central visual field range IR1, and it may be determined that the line of sight is directed when a main part such as the head is included. However, as an example, when the character image 54 is included (included) in a certain ratio or more in the central visual field range IR1, it is determined that the line of sight is directed to the character image 54.
  • such a fixed ratio may be appropriately set, but as an example, an area of half or more of the target character image 54 is used.
  • an area of half or more of the target character image 54 is used.
  • more than half of the second character image 54B is in the central visual field range IR1. In this case, it is determined that the user character (third character image 54C) is looking at the second character image 54B.
  • the peripheral visual field range IR2 is a region formed around the central visual field range IR1 so as to include it.
  • the shape of the peripheral visual field range IR2 may be appropriately formed, but as an example, it is formed into an elliptical shape having a predetermined size including the central visual field range IR1 in the vicinity of the center.
  • Peripheral visual field range IR2 may be appropriately used or omitted, but is used as an example in preparation for determining a cooperative action.
  • the computer determines that if the character image 54 enters the peripheral visual field range IR2, the line of sight may be directed to the character image 54, and whether or not the central visual field range IR1 includes the character image 54. Start determining.
  • such a field of view IR is set on the game screen 50, and it is realized whether or not the cooperative action is executed, that is, whether or not the user's character image 54 is looking at another character image 54.
  • FIG. 8 is an explanatory diagram for explaining an example of the response action.
  • various actions may be appropriately adopted according to the cooperation action or independently of the cooperation action, for example, the action of each character playing his / her own musical instrument lightly or the cooperation such as thumb-up.
  • Various actions indicating action recognition may be adopted, and an action of directing the line of sight is used as an example of this kind of action. That is, after the user character executes an action of directing the line of sight to another character as a cooperative action, the other character also executes the same action of directing the line of sight to the user character as a response action.
  • the example of FIG. 8 schematically shows an example of another character image 54 that executes such an action of directing the line of sight as a response action. Further, in the example of FIG. 8, (A) shows the character image 54 before the response action, and (B) shows the character image 54 at the time of the response action.
  • the other character image 54 (character controlled by the computer) is directed to the front side before the response action, that is, the direction of the character image 54 (user) whose line of sight is directed as a cooperative action. Not suitable. Before the response action, the other character image 54 may be oriented in an appropriate direction, for example, in a direction such as the back, but in the example of FIG. 8, the head is directed to the left and the line of sight is the same. It is facing to the left. On the other hand, as shown in FIG. 8B, the other character images 54 face the front side at the time of the response action, and the line of sight also faces the same front side.
  • the line of sight is returned to the user in response to the action of directing the line of sight.
  • the other character image 54 also performs an operation of directing the same line of sight toward the user. This is the same even if the other character image 54 has its back turned toward the user (front side) (even if it faces the direction in which the back is turned). That is, regardless of the orientation before the response action, the other character image 54 executes an operation of directing the line of sight toward the user as the response action.
  • the movement of the other character image 54 or the like may be controlled so that the user does not turn his or her back toward the user so that the user can easily turn his or her line of sight to the other character image 54 or the like.
  • the direction of the line of sight of the other character image 54 may be appropriately determined, but as an example, whether or not the other character image 54 has the same visual field range IR as the user character and is within the visual field range IR is determined. Specifically, it is determined according to whether or not the user character is included in the central visual field range IR1 in the visual field range IR at a certain ratio or more. Further, such an action of directing the line of sight (an action of returning the line of sight) may be executed at an appropriate timing, and may be executed, for example, at a time difference from the cooperative action. That is, the operation of returning the line of sight to the action of directing the line of sight may be executed after the user has taken the line of sight.
  • the operation of returning the line of sight in this way may be executed at an appropriate timing, but as an example, it is executed while the user is turning the line of sight so that eye contact by both parties is realized.
  • the response action is incomplete (in this case, the execution of the cooperative action is required again for the response action).
  • the other character image 54 has started the action of turning the line of sight, the action of removing the line of sight of the user is permitted.
  • the character image 54 (directed to the line of sight) that is the target of the cooperative action executes such a response action.
  • FIG. 9 is an explanatory diagram for explaining the flow of changes in the movement of another character image 54 whose line of sight is directed as a cooperative action.
  • an appropriate character image 54 such as the first character image 54A may function in the example of FIG. 3, but in the example of FIG. 9, the second character image 54B of the example of FIG. 3 may function. Shows when works.
  • the second character image 54B first forms a standby state on the game screen 50 as described above, and executes a standby operation in the standby (idle) state (S1). Further, the second character image 54B (computer) determines whether or not the user character, that is, the third character image 54C has executed the cooperation action in the standby state (S2).
  • the second character image 54B determines whether or not the third character image 54C directs the line of sight to this (whether or not the self is included in the user's central visual field range IR1 by a certain percentage or more). Then, when the third character image 54C does not direct the line of sight to this side (self is not included in the user's central visual field range IR1 by a certain percentage or more), the second character image 54B continues in the standby state.
  • the second character image 54B turns around toward the third character image 54C.
  • (Response action) is executed (S3).
  • the response action may be appropriately configured, and may be configured only by a turning motion (a motion of directing the line of sight toward the third character image 54C), but also includes a response gesture as an example.
  • the response gesture is an action for informing the user of the execution of the response action. That is, the second character image 54B executes a response gesture as one of the response actions following the turning motion (S4).
  • a response gesture various head movements such as waving, making a ring with the thumb and index finger (OK sign), nodding, or vocalization may be adopted, but as an example, a thumb-up (thumbs up) may be adopted. (Stand up) operation is adopted. That is, the second character image 54B executes a thumb-up operation following the turning operation or at the same time. Then, the second character image 54B completes the response action by turning around and executing the response gesture, and forms a cooperative state.
  • the flow until the formation of the cooperative state may be appropriate.
  • the user user character
  • performs an appropriate operation such as a thumb-up operation while the user directs the line of sight to another character and the other character also returns the line of sight.
  • a cooperative state may be formed when another character performs an appropriate operation such as a similar thumb-up operation.
  • some of these operations may be omitted as appropriate.
  • some of the various actions that are mutually executed in order to form a cooperative state may appropriately function as a cooperative action and a response action.
  • the starting conditions are the same. For example, the start condition may be satisfied when a cooperative state is formed between the user character and all other characters. That is, the start condition does not have to include the start action in the requirement.
  • the start effect may be started as appropriate, but for example, the start effect is executed immediately after the cooperation state is formed with the last other character.
  • the operation stick OS may be appropriately provided with various buttons for an operation using a part of the hand such as a thumb-up operation in order to distinguish it from the operation for the stick image 56.
  • a separate camera may be provided for photographing the entire user (which may be the main part), and even if such a camera detects an appropriate operation including the operation of various parts such as a thumb-up operation. good.
  • the second character image 54B may execute an appropriate operation in the linked state (waiting for the formation of the linked state with the first character image 54A), but as an example, the second character image 54B executes a standby operation in the same manner as the standby state (waiting). S5). Further, it is determined whether or not the start action is executed by the user in the linked state (during standby operation) with the second character image 54B or the like (S6). Various actions may function appropriately as such a start action, but as an example, a thumb-up action functions. That is, it is determined whether or not the thumb-up operation is executed as the start action by the user in the linked state with the second character image 54B or the like. If the thumb-up operation, that is, the start action is not executed within a predetermined time from the formation of the linked state, the second character image 54B cancels the linked state and returns to the standby state again.
  • the second character image 54B when the thumb-up operation, that is, the start action is executed within a predetermined time from the formation of the cooperative state, the second character image 54B further executes a response gesture to the start action (S7).
  • Such response gestures may be omitted, but they are performed as an example. Further, this response gesture may be different from the response gesture as a response action, but it is similarly configured as an example. That is, the same thumb-up operation is executed as a response gesture with the start action by the third character image 54C.
  • the operation of the first character image 54A changes in the same flow, and a cooperative state or the like is formed with the third character image 54C.
  • the requirement of the start condition may be only the start action in the state of cooperation with all characters other than the character corresponding to the user, or may include other requirements. Further, as such another requirement, the response gesture (S7) by all the character images 54 other than the third character image 54C may function.
  • the requirements for the start condition may be appropriate, but as an example, the performance performance is started after the response gesture (S7) is executed from both the first character image 54A and the second character image 54B. More specifically, the start condition is satisfied by the response gesture (S7) from both the first character image 54A and the second character image 54B, and the start effect is started. Then, after the countdown by the start production, the reproduction of the music, that is, the performance part is started.
  • the movements of other characters change in such a flow, and the performance performance is started.
  • the response gesture (S7) is automatically executed along with the execution of the start action. Therefore, in this case, the determination of the presence or absence of the start action may function in the same manner as the determination of whether or not the start condition is satisfied.
  • the other character image 54 may perform an appropriate performance operation in advance.
  • the set playing motion one motion or a plurality of motions may be encountered
  • the play may be performed.
  • the performance data OD is data for causing another character to execute the actual performance of such a user's performance operation.
  • the play content in the play (guitar via the second character image 54B).
  • the actual performance of the performance) is recorded in the performance data OD and managed. The same applies to the actual results when the user plays through the first character image 54A.
  • FIG. 10 is a diagram showing an example of the configuration of the performance data OD. As shown in FIG. 10, it includes a moving image data unit OD1 and an information management unit OD2.
  • the moving image data unit OD1 is a part configured as moving image data for causing another character image 54 to perform a performance operation.
  • Such a video data unit may be appropriately configured as various types of video data, but as an example, since the operation of each character image 54 is configured as motion capture data, the video data unit is also configured as motion capture data.
  • This motion capture data may be appropriately generated, for example, the user's motion may be detected from a camera that captures the entire body of the user and converted into data, or the movement may be detected from a marker attached to the user's body. It may be converted into data.
  • the motion capture data (video data unit OD1) may be appropriately generated, but as an example, the movement of the HMD type game machine 4 over time (movement of the head) and the movement of the operation stick OS over time. Are generated by recording and replacing them with motion.
  • the video data section is prepared for each performance operation.
  • the information management unit OD2 is a part in which information for managing each video data unit is described.
  • the information management unit OD2 may appropriately include various information necessary for managing each video data unit, but in the example of FIG. 10, the information management unit OD2 includes a performance record ODR that manages information related to each video data unit (performance operation). I'm out.
  • the performance record ODR includes information of "performance ID”, “character”, “music”, “user ID”, and “date and time” for such management.
  • the performance record ODR records such information so as to be related to each other. Further, in this example, the performance data OD functions as the candidate data of the present invention.
  • the "performance ID” is information indicating a unique performance ID for each performance operation in order to manage each performance operation (video data unit).
  • the "character” is information for identifying a character corresponding to the performance operation. As such information, appropriate information that can identify each character may be used, but as an example, information of a character ID unique to each character is used. Specifically, for example, in the case of a performance operation corresponding to a performance played through the third character image 54C, the information of the character ID corresponding to the third character image 54C is described in the "character". The same applies to the case of the first character image 54A and the like. In addition, each character is associated with a musical instrument to be played. Therefore, the "character” information also functions as information on the musical instrument to be played.
  • the "musical instrument” (for example, the ID of the musical instrument) may be described instead of the "character”.
  • the "musical piece” is information indicating the musical piece used during the performance operation. Appropriate information that can identify each music may be described in the "music", but as an example, information of a unique music ID is described for each music.
  • the "user ID” is information indicating a user ID unique to each user in order to identify each user.
  • the performance operation that can be used as the play record may be limited to the own play record for each user, but as an example, the play record of another user can also be used.
  • the "date and time” is information indicating the date and time of the play corresponding to the actual performance of each performance operation.
  • the performance data OD is not limited to these information, and for example, information necessary for realizing a performance performance may be appropriately managed. Alternatively, some of this information may be omitted as appropriate.
  • the performance selection process is a process for providing a performance selection opportunity for selecting a performance operation to be performed by a character other than the user character. For example, when the user plays a music game via the third character image 54C, a performance operation to be executed by the first character image 54A and the second character image 54B is selected at the performance selection opportunity.
  • the performance data OD includes a plurality of moving image data units OD1 (plural performance operations) for the same character. In this case, the performance operation to be executed by another character is selected from the plurality of performance operation candidates at the performance selection opportunity.
  • step S101 shows an example of a procedure for providing such a performance selection opportunity.
  • the progress control unit 43 starts the performance selection process of FIG. 11 every time the user is provided with a character selection opportunity for selecting a character to be used for playing a music game. Acquire the selection result (step S101).
  • the progress control unit 43 provides a performance selection opportunity for selecting a performance operation to be executed by a character other than the character selected in the character selection opportunity (step S102).
  • the progress control unit 43 refers to the performance data OD, and includes a plurality of performance motion candidates (performance records of other users, and a plurality of predetermined motions prepared in advance) for each target character. It provides a performance selection opportunity so that one performance operation is selected from (may be). Further, such a performance selection opportunity may be appropriately realized, but as an example, it is realized through a selection screen (not shown) for a performance selection opportunity including information necessary for selecting a performance operation.
  • various information such as a user corresponding to the performance of the performance motion (who is the performance motion) or information on various achievements such as the level and score of the user is appropriate. May be included in.
  • the choices in the performance selection opportunity are presented corresponding to the music and the musical instrument selected by the user.
  • a performance data OD generated by a musical instrument that is the same as the music selected by the user but is different from the musical instrument selected by the user is presented to the user as an option in the performance selection opportunity.
  • the limiting condition of the options may appropriately include, for example, the period during which the performance data OD is created.
  • the progress control unit 43 determines the performance operation of another character based on the selection result in the performance selection opportunity (step S103). Then, after this determination, the progress control unit 43 ends the performance selection process this time. As a result, a performance selection opportunity for selecting a performance operation to be performed by a character other than the user character is realized. Further, in the performance selection opportunity, the performances of a plurality of performances including the performances of other users are presented as candidates for such performances. Therefore, through such a performance selection opportunity, a performance operation corresponding to the actual performance performance is executed for another character in the performance performance.
  • the cooperation response process is a process for forming each character in a cooperation state.
  • Each character may be operated by another user, in which case the formation of the linked state is determined whether or not the response action is executed by the other user, and is formed when the response action is executed.
  • the example shows the case where the operation of each character is controlled by a computer (progress control unit 43).
  • the progress control unit 43 cooperates with FIG. 12 every time the user character (for example, the third character image 54C in the example of FIG. 3) is operated by the user (in a situation where the peripheral visual field range IR2 includes another character).
  • the response process is started, and first, it is determined whether or not the user's operation corresponds to the cooperation action (step S201).
  • the progress control unit 43 determines whether or not the user's operation corresponds to an operation of including another character in the central visual field range IR1 at a certain ratio or more. If the user's operation does not correspond to the operation of including another character in the central visual field range IR1 by a certain percentage or more (the operation of directing the line of sight), that is, if the user's operation does not correspond to the cooperative action, the progress control unit 43 performs the subsequent processing. Is skipped and the current linkage response processing ends.
  • the progress control unit 43 performs the operation.
  • the response action is executed by the character targeted for the cooperative action, that is, the character included in the central visual field range IR1 at a certain ratio or more (step S202).
  • the action of directing the line of sight returning the line of sight
  • the response gesture thumbs up
  • the action of directing the line of sight to the user's character is executed and the thumb is executed.
  • the movement of the target character is controlled so as to execute the up movement.
  • the progress control unit 43 forms a cooperative state between the user character and the character whose response action is executed in step S202 (step S203).
  • the formation of the linked state may be realized as appropriate, and for example, when the linked state is expressed by a dedicated operation, it may be realized by executing such an operation, but as an example, in order to manage the presence or absence of the linked state. It is realized by updating the flag of. Specifically, a parameter for managing the presence / absence of a linked state is set for each character. Therefore, the progress control unit 43 realizes the formation of the cooperative state by updating this flag to the state indicating the formation of the cooperative state. Then, after the cooperation state is formed, the progress control unit 43 ends the cooperation response processing this time.
  • the actions of other characters are controlled to execute the response action according to the cooperation action. That is, the operation of the other character is controlled so that the cooperation state is positively formed between the user character and the other character. Then, when a linked state is formed, that state is managed by the flag.
  • the music start process is a process for starting a performance performance (guidance of each execution time) triggered by a start condition.
  • the example of FIG. 13 shows a music start process executed when another character operates in the flow of FIG.
  • the progress control unit 43 starts the music start process of FIG. 13 every time the start action is executed by the user and every predetermined time elapses from the formation of the cooperative state, and first determines whether or not the start condition is satisfied. (Step S301). Specifically, the start condition is satisfied when the start action (for example, a thumb-up operation) is executed as an example as described above and the response gesture in response to the start action is executed.
  • the start action for example, a thumb-up operation
  • the progress control unit 43 may determine that the start condition is satisfied when all the other characters execute the response gesture, but the response gesture is a computer (progress control unit 43) as the start action is executed. ) Is automatically executed. Therefore, as an example, it is determined that the start condition is satisfied when the start action is executed in the situation where the cooperation state is formed between the user character and all the other characters.
  • the progress control unit 43 determines whether or not the release condition for canceling the cooperation state is satisfied (step S302).
  • the cancellation condition may be appropriately satisfied, but as an example, it is satisfied when a predetermined time has elapsed from the formation of the cooperative state. Therefore, the progress control unit 43 determines whether or not a predetermined time has elapsed from the formation of the cooperative state.
  • the cancellation condition is not satisfied, that is, when a predetermined time has not elapsed from the formation of the linked state
  • the linked state is maintained (step S303). That is, the progress control unit 43 maintains the state of the flag indicating the cooperation state as it is.
  • the progress control unit 43 cancels the linked state (step S304). Specifically, the progress control unit 43 changes the state of the flag indicating the linked state so as to correspond to the non-linked state. Then, the progress control unit 43 ends the current music start process after maintaining the linked state or canceling the linked state.
  • step S301 when the start condition is satisfied in step S301, that is, when the start action is executed in a situation where a cooperative state is formed between the user character and all the other characters, the progress control unit 43 performs the start effect.
  • Start step S305. Specifically, the progress control unit 43 displays the start effect on the game screen 50. Subsequently, the progress control unit 43 starts playing the music, in other words, the performance part after the start effect (step S303). Then, after starting the reproduction of the music, the progress control unit 43 ends the music start processing this time.
  • the performance performance is started when the start condition including the formation of the cooperative state between the user character and the other character is satisfied as a requirement.
  • the start condition is satisfied when the start action is executed in the situation where the cooperation state is formed between the user character and all the other characters, and the start effect of the performance performance, that is, the preparation part is performed. It will be started. Then, after the start production, the reproduction of the music, that is, the performance part is started.
  • the performance data generation process is a process for generating performance data OD based on the play performance of each user.
  • the performance data OD may be appropriately generated, for example, it may be uniformly generated based on the performance of all the plays of all users, but as an example, it is generated when the user desires to generate the performance data OD.
  • the data management unit 44 will perform the performance data OD.
  • the performance data generation process of FIG. 14 is started, and first, the user's operation in the performance part, that is, the operation of the user character is recorded (step S401).
  • the data management unit 44 generates the performance data OD based on the recording result of step S401 (step S402). Specifically, the data management unit 44 generates a moving image data unit OD1 for reproducing the operation of the user character and an information management unit OD2 for recording various information corresponding thereto. Then, after the performance data OD is generated, the data management unit 44 ends the performance data generation process this time. As a result, the performance data OD for reproducing the performance operation corresponding to the play performance of each user is generated. It should be noted that the performance data OD may be uniformly generated, and may be saved when a predetermined condition is satisfied, such as when the user desires or when the best score is calculated.
  • the cooperation state includes the cooperation action by the user character (for example, the third character image 54C) and the response action by another character (for example, the second character image 54B) in response to the cooperation action. Is formed by. Therefore, it is possible to imitate the process of breathing together a plurality of characters in the game through these cooperative actions and response actions. More specifically, when the operation of directing the line of sight is executed by the user character, the operation of returning the line of sight by another character to which the line of sight is directed and the thumb-up operation form a cooperative state. This makes it possible to mimic the process of breathing through eye contact between these user characters and other characters.
  • the start condition that triggers the start of such a performance performance includes the formation of a cooperative state as a requirement. That is, the performance performance is started after the formation of the cooperative state. For this reason, prior to the start of the performance, a process similar to the breathing process performed in an actual performance by multiple people, more specifically the breathing process through eye contact, is performed on multiple characters in the game. Can be made to. As a result, the sense of presence or unity of the performance can be improved.
  • the cooperation state can be positively formed by the cooperation action by the user character. .. Therefore, the time when the start condition is satisfied can be adjusted to the convenience of the user.
  • the past user's play performance that is, the performance performance performance
  • the performance performance performance is added to the movement of the character other than the user character in the performance performance. Can be reflected.
  • the reality of the performance performance and, by extension, the sense of presence can be further improved.
  • by utilizing the performance results of such performance operations it is possible to encourage each user to use another character, or to encourage other users to use their own performance performance, and it is also possible to promote the use of the game.
  • the progress control unit 43 of the HMD type game machine 4 functions as the condition determination means and the progress control means of the present invention by executing the music start process of FIG. Specifically, the progress control unit 43 functions as a condition determination means by executing step S301 in FIG. Further, the progress control unit 43 functions as a progress control means by executing the processes of steps S305 and S303 of FIG. Similarly, the progress control unit 43 of the HMD type game machine 4 functions as the character control means of the present invention by executing step S202 in the cooperative response process of FIG. 12. Further, the progress control unit 43 of the HMD type game machine 4 functions as an opportunity providing means of the present invention by executing step S102 in the performance selection process of FIG.
  • the present invention is not limited to the above-mentioned form, and may be carried out in a form in which appropriate modifications or changes are made.
  • the processes of FIGS. 11 to 14 are executed by the HMD type game machine 4.
  • the present invention is not limited to such a form.
  • all or part of the processes of FIGS. 11 to 14 may be executed by the center server 2.
  • the center server 2 executes all the processes of FIGS. 11 to 13
  • the center server 2 alone which may include a plurality of server devices
  • a single unit of the HMD type game machine 4 may function as the game system of the present invention. That is, in the game system of the present invention, the center server 2 may be omitted as appropriate.
  • the game system of the present invention includes an input device (OS) for inputting a user's play action, and a plurality of characters (54) including a user character (54C) as a character operated through the user's play action.
  • a game system (4) connected to a display device (47) that displays a game screen (50) so as to provide a game including a performance executed by the plurality of characters, and among the plurality of characters. At least formed between the one character and the other character when the other character (54B) executes the corresponding action as a predetermined action corresponding to the action executed by at least one character (54C).
  • condition determination means (43) for determining whether or not the start condition including the formation of the linked state is satisfied and the start condition are satisfied the performance is started when the start condition is satisfied.
  • the game is provided with a progress control means (43) for controlling the progress of the game so that the start of the performance is waited until the start condition is satisfied.
  • the cooperation state is formed by an action by one character and a corresponding action by another character corresponding to the action. Therefore, it is possible to imitate the process of breathing together a plurality of characters in the game through these actions and corresponding actions. Also, while the performance starts when the start condition is met, the start of the performance is waited until the start condition is met.
  • the start condition that triggers the start of such performance includes the formation of a cooperative state as a requirement. In other words, the performance starts after the formation of the cooperative state. Therefore, before the start of the performance, it is possible to have a plurality of characters in the game perform a process similar to the breathing process performed in a performance by a plurality of people. As a result, the sense of presence or unity of the performance can be improved.
  • a plurality of characters may be appropriately controlled as long as they include at least one user character.
  • a plurality of characters may be controlled by a plurality of users.
  • all characters other than the user character may be controlled by the computer.
  • the action that triggers the formation of the cooperative state may be executed by a user character (including a character corresponding to another user) or may be executed by a computer-controlled character.
  • the user character functions as the one character
  • the other character is controlled so as to execute the corresponding action in response to the action by the user character.
  • An aspect including the character control means (43) may be adopted.
  • the action for forming the cooperative state is executed, the other characters are controlled to execute the corresponding action.
  • each character may be appropriately controlled, for example, all may be controlled by a computer, or only characters other than the user character may be controlled by the computer.
  • the computer-controlled character may operate as appropriate, and may perform a predetermined predetermined operation (including both a fixed operation and an operation that changes depending on various conditions). Further, such an operation may be one or a plurality. Specifically, for example, as an embodiment in which another character is automatically controlled to execute a corresponding action, when the action of the user character in the performance is controlled through the play action, the other character and the said person.
  • the other character Based on the candidate data (OD) described so that the other character is associated with a plurality of actions as candidates for the action to be performed in the performance, the other character is actually in the performance among the plurality of actions.
  • An embodiment comprising an opportunity providing means (43) that provides a selection opportunity for selecting an action to be performed may be adopted.
  • the computer-controlled character may include other users (not only the user playing the game this time) in the play if the character has a track record of being used as a user character in the past.
  • the action executed according to the play action of may be executed.
  • the game is provided such that each user selects the user character from the plurality of characters, and the plurality of actions are the other. If the character has a track record selected by each user in the past as the user character, the action performed by the other character in the track record may be included. In this case, the past user's play record can be reflected in the behavior of a character other than the user character in the performance.
  • actions may be appropriately adopted as actions for forming a cooperative state and corresponding actions.
  • various actions that operate each part of the character such as the head, hands, or legs may be appropriately used as an action for forming a cooperative state or a corresponding action.
  • an action such as vocalization or eye contact may be appropriately used as an action for forming a cooperative state or a corresponding action.
  • the action of inserting the other character into the visual field range (IR) set for the one character is the action of the other.
  • the other character included in the field of view of the one character is the other character so that the action of putting the one character in the field of view (IR) set for the character functions as the corresponding action. It may be formed when the one character is put in the field of view of.
  • the user character and another character can be made to perform an action corresponding to eye contact as an imitation of the process of adjusting breathing.
  • the start condition may include only the formation of a cooperative state as a requirement, or may appropriately include various other requirements. As such other requirements, appropriate conditions such as a user's playing action, playing situation, or game convenience may be used.
  • the start condition further includes a special action to be performed by the one character in the linked state, and the special action is executed in the linked state. May be satisfied if
  • the performance may include an appropriate part, for example, not only a part in which a plurality of characters actually execute the performance, but also various other parts as appropriate.
  • the performance is a performance part in which the plurality of characters actually perform the performance, and a preparation part for indicating the start time of the performance part.
  • the progress control means controls the progress of the game so that the performance part is started after the preparation part by starting the preparation part as the start of the performance when the start condition is satisfied. You may.
  • various games may be provided as appropriate.
  • various performances by a plurality of characters may be appropriately performed depending on the type of the game.
  • a game play in a sports game such as a soccer game or a baseball game may be used as a performance, and a kick-off or a play ball may be started when a start condition is satisfied.
  • dance, performance, or the like in a music game may be used as a performance.
  • the user is informed of the execution time of the play act to be executed according to the rhythm of the music, and the user is accompanied by the play act.
  • a music game is provided in which a character performs a performance operation of playing the music, and as the performance, the performance operation by each character of the plurality of characters may be executed in the music game.
  • the computer program (PG2) of the present invention is configured to make the input device and the computer (41) connected to the display device function as each means of the above-mentioned game system.
  • control method of the present invention includes a plurality of characters (54) including an input device (OS) for inputting a user's play action and a user character (54C) as a character operated through the user's play action.
  • a computer connected to a display device (47) that displays a game screen (50) so as to include, and incorporated into a game system (4) that provides a game including performances executed by the plurality of characters.
  • the one character and the other character When another character (54B) executes a corresponding action as a predetermined action corresponding to an action executed by at least one character (54C) among the plurality of characters, the one character and the other character
  • the performance is triggered by the condition determination procedure for determining whether or not the start condition including the formation of at least the linked state formed between the two is satisfied, and the fulfillment of the start condition when the start condition is satisfied.
  • the progress control procedure for controlling the progress of the game is executed so that the start of the performance is waited until the start condition is satisfied.
  • the game system of the present invention can be realized through the computer program of the present invention or the control method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

パフォーマンスの開始前に、複数人によるパフォーマンスにおいて実行される呼吸を合わせるプロセスと同様のプロセスをゲームの複数のキャラクタに実行させることができるゲームシステムを提供する。HMD型のゲーム機(4)は、ユーザによって操作されるユーザキャラクタ(54C)を含む複数のキャラクタ(54)が演奏動作を実行する演奏パフォーマンスを含む音楽ゲームを提供する。また、HMD型のゲーム機(4)は、ユーザキャラクタ(54C)が実行した連携アクションに応答する応答アクションを、他のキャラクタ(54B)が実行した場合にユーザキャラクタ(54C)と他のキャラクタ(54B)との間に形成される連携状態の形成を要件に含む開始条件が満たされるか否か判別し、開始条件が満たされた場合にその開始条件の具備を契機に演奏パフォーマンスを開始させる一方で、開始条件が満たされるまで演奏パフォーマンスの開始を待機させる。

Description

ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
 本発明は、ユーザのプレイ行為を入力するための入力装置、及びユーザのプレイ行為を通じて操作されるキャラクタとしてのユーザキャラクタを含む複数のキャラクタが含まれるようにゲーム画面を表示する表示装置に接続され、その複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム等に関する。
 ユーザのプレイ行為を入力するための入力装置、及びユーザのプレイ行為を通じて操作されるキャラクタとしてのユーザキャラクタを含む複数のキャラクタが含まれるようにゲーム画面を表示する表示装置に接続され、その複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムが存在する。このようなゲームとして、バンドのボーカルになりきってボーカル演奏を行う音楽ゲームを提供するゲームシステムが知られている(例えば特許文献1参照)。
特許第6727807号公報
 複数人による現実のパフォーマンスでは、アイコンタクト等を通じてそれらの複数人の間で呼吸を合わせてパフォーマンスが開始される場合も多い。このため、このような呼吸を合わせるプロセスには臨場感、或いは一体感を向上させる効果が期待される。一方、特許文献1の音楽ゲームでは、自分の歌とバンドメンバーの演奏とによるライブパフォーマンスが実現される。この音楽ゲームでは、プレーヤの開始アクション(ハンドアクション)の入力で演奏がスタートし、ライブシーケンスに移行する。つまり、この音楽ゲームでは、プレーヤのハンドアクションによりライブパフォーマンスが開始される。しかし、これは演奏再生ボタンを押す代わりとして開始アクションが利用されているに過ぎず、複数のキャラクタ間において呼吸を合わせるといった類いのプロセスではない。このため、ゲーム内のパフォーマンスに対する臨場感等を向上させる余地がある。
 そこで、本発明は、パフォーマンスの開始前に、複数人によるパフォーマンスにおいて実行される呼吸を合わせるプロセスと同様のプロセスをゲームの複数のキャラクタに実行させることができるゲームシステム等を提供することを目的とする。
 本発明のゲームシステムは、ユーザのプレイ行為を入力するための入力装置、及び前記ユーザのプレイ行為を通じて操作されるキャラクタとしてのユーザキャラクタを含む複数のキャラクタが含まれるようにゲーム画面を表示する表示装置に接続され、前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムであって、前記複数のキャラクタのうちの少なくとも一つのキャラクタが実行したアクションに対応する所定のアクションとしての対応アクションを他のキャラクタが実行した場合に前記一つのキャラクタと前記他のキャラクタとの間に少なくとも形成される連携状態の形成を要件に含む開始条件が満たされるか否か判別する条件判別手段と、前記開始条件が満たされた場合に当該開始条件の具備を契機に前記パフォーマンスが開始される一方で、前記開始条件が満たされるまで前記パフォーマンスの開始が待機されるように前記ゲームの進行を制御する進行制御手段と、を備えるものである。
 一方、本発明のコンピュータプログラムは、前記入力装置、及び前記表示装置に接続されるコンピュータを、上述のゲームシステムの各手段として機能させるように構成されたものである。
 また、本発明の制御方法は、ユーザのプレイ行為を入力するための入力装置、及び前記ユーザのプレイ行為を通じて操作されるキャラクタとしてのユーザキャラクタを含む複数のキャラクタが含まれるようにゲーム画面を表示する表示装置に接続され、前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムに組み込まれるコンピュータに、前記複数のキャラクタのうちの少なくとも一つのキャラクタが実行したアクションに対応する所定のアクションとしての対応アクションを他のキャラクタが実行した場合に前記一つのキャラクタと前記他のキャラクタとの間に少なくとも形成される連携状態の形成を要件に含む開始条件が満たされるか否か判別する条件判別手順と、前記開始条件が満たされた場合に当該開始条件の具備を契機に前記パフォーマンスが開始される一方で、前記開始条件が満たされるまで前記パフォーマンスの開始が待機されるように前記ゲームの進行を制御する進行制御手順と、を実行させるものである。
本発明の一形態に係るゲームシステムの概略構成を示す図。 ゲームシステムの制御系の要部を示す機能ブロック図。 ゲーム画面の一例を模式的に示す図。 仮想三次元空間における各キャラクタの位置関係を説明するための説明図。 視界範囲が図4の例の右傾斜範囲に移動した場合のゲーム画面の一例を模式的に示す図。 演奏パフォーマンスの開始までの流れの一例を説明するための説明図。 ゲーム画面に設定される視野範囲を説明するための説明図。 応答アクションの一例を説明するための説明図。 他のキャラクタ画像の動作の変化の流れを説明するための説明図。 演奏データの構成の一例を示す図。 演奏選択処理の手順の一例を示すフローチャート。 連携応答処理の手順の一例を示すフローチャート。 楽曲開始処理の手順の一例を示すフローチャート。 演奏データ生成処理の手順の一例を示すフローチャート。
 以下、本発明の一形態に係るゲームシステムの一例を説明する。まず、図1を参照して、本発明の一形態に係るゲームシステムの全体構成を説明する。ゲームシステム1は、サーバ装置としてのセンターサーバ2を含んでいる。なお、センターサーバ2は、複数のコンピュータ装置としてのサーバユニットが組み合わされることにより一台の論理的なサーバ装置として構成されてもよい。あるいは、クラウドコンピューティングを利用して論理的にセンターサーバ2が構成されてもよい。
 センターサーバ2には、ネットワーク3を介して接続可能なクライアント装置として一台、或いは複数台の適宜の数のゲーム装置が接続される。ゲーム装置は、アーケードゲーム機(アミューズメント店舗等の施設に設置され、所定の対価の支払いと引き換えにそのプレイ料金に対応した範囲でユーザにゲームをプレイさせる業務用ゲーム機)等の各種のゲーム機を適宜に含んでいてよいが、図1の例ではユーザ端末装置4が示されている。具体的には、センターサーバ2には、ゲーム装置の一例として、ネットワーク3を介して複数のユーザ端末装置4が接続されている。
 ユーザ端末装置4は、ネットワーク接続が可能でかつユーザの個人用途に供されるコンピュータ装置である。ユーザ端末装置4は、各種のコンピュータソフトウエアを実装することにより、センターサーバ2が提供する種々のサービスをユーザに享受させることが可能である。このようなコンピュータソフトウエア(アプリケーション)には、有償或いは無償のゲームを提供するためのゲーム用のアプリケーションが含まれる。そして、ユーザ端末装置4は、そのようなゲーム用のアプリケーションの実行を通じて、ゲーム機として機能する。このようなユーザ端末装置4は、例えば、据置型又はブック型のパーソナルコンピュータ、据置型の家庭用ゲーム機、或いは携帯型タブレット端末装置や携帯電話(スマートフォンを含む。)等の各種モバイル端末装置を含んでいる。ユーザ端末装置4として、これらが適宜に利用されてよいが、図1の例ではHMD(ヘッドマウントディスプレイ、或いはヘッドマウントデバイス)型のゲーム機が利用されている。
 HMD型のゲーム機は、ユーザの視界の大部分をディスプレイの表示面が占めるように頭部に装着されて使用される周知のゲーム装置である。HMD型のゲーム機には、例えばHMD型の専用のゲーム装置、携帯電話等の適宜のモバイル端末装置とユーザの視界を表示面に向けるようにそれを収容するケースとの組合せにより構成されるゲーム装置、及び眼球の奥に焦点が合うように映像を投影するメガネ型のプロジェクタ(いわゆるスマートグラス)が含まれる。また、HMD型の専用のゲーム装置には、タブレット端末装置、或いはスマートフォン等に接続され、それらのタブレット端末装置のアプリケーションを通じてゲーム機として機能する連動型のゲーム装置も含まれる。これらの各種のHMD型のゲーム機のいずれがユーザ端末装置4として利用されてもよい。以下、ユーザ端末装置4として機能するHMD型のゲーム機にはユーザ端末装置4と同様の符号を付して、HMD型のゲーム機4と呼ぶ場合がある。
 HMD型のゲーム機4には、ユーザのプレイ行為を入力するための各種の入力装置が適宜に設けられる。例えば、HMD型のゲーム機4には、頭部の動作をプレイ行為として検知するセンサが内蔵され、そのセンサが入力装置として機能してもよい。あるいは、HMD型のゲーム機4とは別の装置が適宜の手法でHMD型のゲーム機4に接続され、その別の装置が入力装置として機能してもよい。このようにHMD型のゲーム機4には、各種の入力装置が適宜に設けられてよいが、このような入力装置として図1の例では操作スティックOSが設けられている。操作スティックOSは、所定の無線通信規格を通じてHMD型のゲーム機4に接続される周知の入力装置である。操作スティックOSは各種の操作(プレイ行為)の入力に使用されてよく、それに応じて適宜の数の操作スティックOSが各HMD型のゲーム機4に接続されてよいが、一例として左右の手でそれぞれ操作されるように各HMD型のゲーム機4には二つの操作スティックOS(図1ではそれらのうちの一つのみが示されている)がそれぞれ接続される。HMD型のゲーム機4は、このような操作スティックOSを介して入力されるプレイ行為を通じて進行するゲームを提供する。
 HMD型のゲーム機4は、各種のゲームを適宜に提供してよく、例えばアクションゲーム、シミュレーションゲーム、ロールプレイングゲーム等を提供してよいが、一例として音楽ゲームを提供する。音楽ゲームは、タイミングゲームの一種である。タイミングゲームは、適切なプレイ行為の実行時期を評価するタイプのゲームである。音楽ゲームの場合、その適切なプレイ行為を実行すべき実行時期が楽曲とともに提供される。また、音楽ゲームでは、楽曲のリズムと一致する時期が実行時期として利用される。つまり、音楽ゲームは、適切なプレイ行為を実行すべき時期を楽曲のリズムに合わせてユーザに案内し、実際にプレイ行為が実行された時期を評価するタイプのゲームである。また、例えば、音楽ゲームにはプレイ用に複数の楽曲が用意され、そこから選択された楽曲が実際のプレイに使用される。そのような音楽ゲームは、各種の出力装置を介して適宜に提供されてよいが、一例としてディスプレイに表示されるゲーム画面を通じて提供される。
 また、HMD型のゲーム機4が提供するゲームは、複数のキャラクタ(車或いは動物等の各種の物を含む)、及びこれらの複数のキャラクタが実行するパフォーマンスを含んでいる。複数のキャラクタは、アクションゲーム等の種類に応じて各種のパフォーマンスを適宜に実行してよいが、音楽ゲームの場合、一例として楽器を演奏するパフォーマンス(以下、演奏パフォーマンス)を実行する。このため、ゲーム画面は、このような演奏パフォーマンスを実行する複数のキャラクタを含む場合がある。このようなゲーム画面の詳細は後述する。
 ネットワーク3は、センターサーバ2に対してHMD型のゲーム機4を接続させることができる限り、適宜に構成されてよい。一例として、ネットワーク3は、TCP/IPプロトコルを利用してネットワーク通信を実現するように構成される。典型的には、WANとしてのインターネットと、LANとしてのイントラネットと、を組み合わせてネットワーク3が構成される。図1の例では、センターサーバ2はルータ3aを介して、HMD型のゲーム機はアクセスポイント3bを介して、それぞれネットワーク3に接続されている。なお、ネットワーク3は、TCP/IPプロトコルを利用する形態に限定されない。ネットワーク3として、通信用の有線回線、或いは無線回線(赤外線通信、近距離無線通信等を含む)等を利用する各種の形態が利用されてよい。
 センターサーバ2は、ネットワーク3を介してHMD型のゲーム機4のユーザに各種のWebサービスを提供する。Webサービスは、各HMD型のゲーム機4に各種データ或いはソフトウエアを配信(データ等のアップデートを含む)する配信サービスを含んでいる。なお、Webサービスは、音楽ゲームが対戦型、或いは協力型のゲームとしてプレイされる場合においてネットワーク3を介して他のHMD型のゲーム機4のユーザ(対戦者、或いは協力者)をマッチングするマッチングサービス、及び各ユーザを識別するためのユーザIDを付与するサービス等の各種のサービスを適宜に含んでいてよい。
 次に、図2を参照してゲームシステム1の制御系の要部を説明する。まず、センターサーバ2には、制御ユニット21、及び記憶手段としての記憶部22が設けられる。制御ユニット21は、所定のコンピュータプログラムに従って各種の演算処理及び動作制御を実行するプロセッサの一例としてのCPUと、その動作に必要な内部メモリその他の周辺装置とを組み合わせたコンピュータとして構成されている。
 記憶部22は、ハードディスクアレイ等の不揮発性記憶媒体(コンピュータ読み取り可能な記憶媒体)を含んだ記憶ユニットによって実現される外部記憶装置である。記憶部22は、一の記憶ユニット上に全てのデータを保持するように構成されてもよいし、複数の記憶ユニットにデータを分散して記憶するように構成されてもよい。記憶部22には、ユーザに各種のサービスを提供するために必要な各種の処理を制御ユニット21に実行させるコンピュータプログラムの一例として、プログラムPG1が記録される。また、記憶部22には、各種のサービスの提供に必要なサーバ用データが記憶される。そのようなサーバ用データは、サービス用の各種のデータを含んでいるが、図2の例ではそのような各種のデータの一種として、楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODが示されている。
 楽曲データMDは、各楽曲を再生するためのデータである。楽曲データMDは、例えば音楽ゲームにおいて各楽曲の再生に使用される。シーケンスデータQDは、音楽ゲームにおいて適切なプレイ行為を実行すべき各実行時期が記述されたデータである。シーケンスデータQDは、このような各実行時期をユーザに案内するために使用される。また、ユーザによって実際にプレイ行為が実行された場合には、シーケンスデータQDの実行時期に基づいてそのプレイ行為が評価される。つまり、シーケンスデータQDは各実行時期の案内及びその評価に使用される。このため、シーケンスデータQDには、各実行時期、及びその実行時期に実行されるべき適切なプレイ行為の情報が互いに関連付けられるように記述される。また、音楽ゲームにおいて、複数の楽曲或いは複数の難易度が用意される場合には、シーケンスデータQDは楽曲毎或いは難易度毎に用意される。さらに、音楽ゲームは複数のキャラクタをプレイ対象に含むときには、選択されるキャラクタ(あるいは後述のようにキャラクタ毎に相違する楽器)に応じて各実行時期や適切なプレイ行為が相違する場合もある。このような場合、シーケンスデータQDはそのようなキャラクタ(あるいは楽器)毎にも用意される。プレイデータPDは、各ユーザの過去のプレイ実績に関する情報が記述されたデータである。プレイデータPDは、前回までのプレイ結果(過去の実績)を次回以降に引き継ぐため、或いは各ユーザに固有の設定内容を引き継ぐために使用される。演奏データODは、演奏パフォーマンスを実現するためのデータである。演奏データODの詳細は後述する。
 なお、サーバ用データは、その他にも各種のサービスを実現するための各種のデータを含んでよい。例えば、そのようなデータには、画像データ、或いはID管理データ等が含まれてよい。画像データはゲーム画面等の各種画像を表示装置に表示させるためのデータである。ID管理データは、ユーザID等の各種IDを管理するためのデータである。しかし、それらの図示は省略した。
 制御ユニット21には、制御ユニット21のハードウエア資源とソフトウエア資源としてのプログラムPG1との組合せによって実現される論理的装置として、Webサービス管理部24が設けられる。Webサービス管理部24は、HMD型のゲーム機4に対して上述のWebサービスを提供するための各種処理を実行する。
 一方、HMD型のゲーム機4には、制御ユニット41と、記憶手段としての記憶部42とが設けられる。所定のコンピュータプログラムに従って各種の演算処理及び動作制御を実行するプロセッサの一例としてのCPUと、その動作に必要な内部メモリその他の周辺装置とを組み合わせたコンピュータとして構成されている。
 記憶部42は、ハードディスク、半導体記憶装置といった不揮発性記憶媒体(コンピュータ読み取り可能な記憶媒体)を含んだ記憶ユニットによって実現される外部記憶装置である。記憶部42には、ユーザに各種のサービスを提供するために必要な各種の処理を制御ユニット41に実行させるコンピュータプログラムの一例として、プログラムPG2が記録される。また、記憶部42には、音楽ゲームの提供に必要なゲームデータが記録される。そのようなゲームデータには、音楽ゲーム用の各種のデータが含まれるが、図2の例ではその一例として楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODが示されている。
 楽曲データMD、シーケンスデータQD、プレイデータPD、及び演奏データODは、初期インストール、各種記憶媒体を通じた提供等の各種の手法により記憶部42に提供されてよいが、一例として配信サービスを通じてセンターサーバ2から提供される。なお、ゲームデータには、例えば、その他にも楽曲とは別の音声が存在する場合にそのような各種の音声を再生するための音声データ等、ゲーム用の各種のデータが含まれ得る。そのようなデータには、楽曲データMD等と同様に配信サービス等を通じて提供される画像データ、或いはID管理データ等が適宜に含まれ得る。しかし、これらの図示は省略した。
 制御ユニット41には、制御ユニット41のハードウエア資源とソフトウエア資源としてのプログラムPG2との組合せによって各種の論理的装置が構成される。そして、それらの論理的装置を通じて音楽ゲームの提供に必要な各種の処理(センターサーバ2のWebサービス管理部24が提供するWebサービスを享受するために必要な処理を含む)が実行されるが、図2の例では、音楽ゲームに関連する論理的装置として、進行制御部43、及びデータ管理部44が示されている。
 進行制御部43は、ゲームの進行に必要な各種の処理を行う論理的装置である。このような処理には、例えば、プレイのための各種準備を実行する処理、プレイ行為の各実行時期をユーザに案内する処理、或いはユーザが実行するプレイ行為を評価する処理も含まれる。また、プレイのための準備には各種設定等の適宜の要素が含まれるが、例えば選択機会の提供、及び各実行時期の案内開始の判別等が含まれる。具体的には、進行制御部43は、このような各種の処理の一例として、演奏選択処理、連携応答処理、及び楽曲開始処理を実行する。一方、データ管理部44は、記憶部42に記録されるゲームデータの管理に関する各種の処理を行う論理的装置である。例えば、データ管理部44は、センターサーバ2から提供されるゲームデータを取得したり記憶部42に保存したりする処理を実行する。例えば、データ管理部44は、このような各種の処理の一例として、演奏データ生成処理を実行する。演奏選択処理、連携応答処理、楽曲開始処理、及び演奏データ生成処理の手順の詳細は後述する。
 HMD型のゲーム機4には、各種の出力装置、及び入力装置が適宜に設けられ得るが、図2の例では出力装置の一例としてディスプレイ47、及びスピーカSPが、入力装置の一例としてセンサSMが、それぞれ設けられている。ディスプレイ47は、ゲーム画面等を表示するための周知の表示装置である。スピーカSPは、楽曲を含む各種音声を再生するための周知の音声再生装置である。センサSMは、HMD型のゲーム機4の各種の状態を検出するための周知の検出装置(検出手段)である。センサSMは検出対象の状態に応じた各種の検出装置を適宜に含んでいてよく、例えばユーザの視線をトラッキングするアイトラッキング用のセンサ等を適宜に含んでいてよいが、図2の例ではそのような各種のセンサの一例として加速度センサSM1、及びジャイロセンサSM2が示されている。
 加速度センサSM1は、HMD型のゲーム機4に生じる加速度(例えば三軸方向の加速度)を検出するための周知の検出装置である。このような加速度の検出を通じて加速度センサSM1は適宜に活用されてよいが、一例として水平状態、HMD型のゲーム機4の傾き、或いは向きといった状態の検出に使用される。同様に、ジャイロセンサSM2は、基準軸(一例として三軸)に対する角度の変化を検出するための周知の検出装置である。このような角度の検出を通じてジャイロセンサSM2は適宜に活用されてよいが、一例としてHMD型のゲーム機4の回転、傾き、或いは向きといった状態の検出に使用される。また、これらの加速度センサSM1及びジャイロセンサSM2の検出結果は、それぞれ単独で使用されてもよい(単独で使用される場合、いずれか一方は省略されてもよい)が、一例としてHMD型のゲーム機4の向き等の各種状態の検出に組み合わされて使用される。
 HMD型のゲーム機4には、その他にも各種の出力装置、或いは入力装置が適宜に接続され得るが、図2の例では上述の操作スティックOSが接続されている。操作スティックOSは上述のとおりであるが、制御ユニット41に接続され、プレイ行為に応じた各種の入力信号を制御ユニット41に出力する。
 次に、図3を参照して音楽ゲームをプレイするためのゲーム画面の一例について説明する。図3は、HMD型のゲーム機4のディスプレイ47に表示されるゲーム画面の一例を模式的に示す図である。音楽ゲームは各種のゲーム画面を含み得るが、図3の例はプレイ行為を実行すべき各実行時期を案内するためのゲーム画面を示している。また、音楽ゲームは適宜に構成されてよく、楽器の演奏を演出するようにプレイ行為に伴い楽器の演奏音が再生される場合も多い。このような場合、臨場感の向上のためにプレイ行為に伴い楽器の演奏動作を実行するキャラクタがゲーム画面に登場する場合もある。他のユーザ(協力者)、或いはコンピュータにそれぞれ対応する同様の複数のキャラクタが登場する場合もある。図3の例は、これらのキャラクタを含む場合のゲーム画面を示している。より具体的には、ユーザのプレイ行為に伴い、楽器の一例としてドラムを演奏する演奏動作を実行するキャラクタ、及び他のユーザ等のプレイ行為に伴い他の楽器を演奏する演奏動作を実行するキャラクタの両方を含むゲーム画面を示している。このようなゲーム画面は適宜に構成されてよいが、図3の例は仮想三次元空間を演出するように構成される場合を示している。さらに、このような仮想三次元空間は仮想カメラの撮影結果として適宜に切り取られてゲーム画面として表示されてよいが、図3の例はユーザに対応するキャラクタ(以下、ユーザキャラクタと呼ぶ場合がある)の視界を演出するように仮想三次元空間が切り取られ(概ねキャラクタの目の位置に設定された仮想カメラにより撮影され)、ゲーム画面として表示される場合を示している。この場合、ゲーム画面50は、指示用オブジェクト51、スコア表示領域52、ステージ領域53、キャラクタ画像54、及びドラムセット画像55を含んでいる。
 ドラムセット画像55は、楽器のドラムセットを模した画像である。ドラムセット画像55は、適宜のドラムセットに対応していてよいが、図3の例では二つのドラム画像55a、及び四つのシンバル画像55bを含んでいる。各ドラム画像55a、及び各シンバル画像55bは、それぞれドラムセットにおけるドラム、及びシンバルに対応する画像である。これらは実際のドラムセットと同様の配置に表示される。具体的には、二つのドラム画像55aは左右に並ぶようにドラムセット画像55において中央付近に配置される。一方、四つのシンバル画像55bは、ドラムセット画像55において二つのドラム画像55aを挟むようにそれらの左右に二つずつ配置される。また、左側の二つのシンバル画像55b、及び右側の二つのシンバル画像55bは、いずれもそれぞれ上下に分かれるように配置される。
 スコア表示領域52は、スコア(獲得得点)を表示するための領域である。スコア表示領域52は適宜に構成されてよいが、図3の例では正方形状に形成され、仮想三次元空間において奥側(ユーザ側が手前)に位置するように表示される。指示用オブジェクト51は、各実行時期に対応する画像(換言すれば各実行時期を示す標識画像)である。指示用オブジェクト51は、適宜の時期に仮想三次元空間における奥側の適宜の位置に出現し、手前側、つまりユーザに近づくように所定の移動経路に沿って移動する。このような移動経路は適宜に設定されてよいが、各ドラム画像55a、及び各シンバル画像55bのいずれかを通過するように設定される。各移動経路において各ドラム画像55a、及び各シンバル画像55bは現在時刻の基準を示す標識画像として機能する。このため、各指示用オブジェクト51は、そのような移動経路に沿って、対応する実行時期において各ドラム画像55a、及び各シンバル画像55bのいずれかと一致するように移動する。移動経路は表示されてもよいが、図3の例では移動経路は表示されていない。各実行時期は指示用オブジェクト51(指示用の標識画像)と各ドラム画像55a等(現在時刻の標識画像)のいずれかとの間の相対的変位を通じて適宜に案内されてよいが、一例としてこのような指示用オブジェクト51の各ドラム画像55a等への移動を通じて案内される。
 また、指示用オブジェクト51は各種に分類されてよいが、図3の例では第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bの二種類を含んでいる。第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは、各実行時期において互いに異なるプレイ行為を要求する指示用オブジェクト51である。具体的には、第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bはいずれも下側のシンバル画像55bを叩く動作をプレイ行為としてユーザに要求するが、第1指示用オブジェクト51Aは左側のシンバル画像55bに対する叩く動作の要求に、第2指示用オブジェクト51Bは右側のシンバル画像55bに対する叩く動作の要求に、それぞれ対応している。このため、第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは適宜の位置に出現した後、各実行時期において、左右の下側のシンバル画像55bの位置とそれぞれ一致するように、手前側に向かって移動する。
 ユーザに要求される叩く動作は、操作スティックOSを通じて入力される。具体的には、例えば第1指示用オブジェクト51Aと右側の下に位置するシンバル画像55bとの一致に合わせてユーザには、仮想三次元空間におけるそのシンバル画像55bの位置に対して叩く動作を実行するように操作スティックOSを振る動作が要求される。このため、このような各シンバル画像55b等への叩く動作が各実行時期における適切なプレイ行為として機能するように、シーケンスデータQDには、各指示用オブジェクト51の移動経路、或いはその移動経路上の各シンバル画像55b等の情報が適切なプレイ行為の情報として記述される。そして、その叩く動作の実際の実行時期と実際の一致時期(シーケンスデータQDに記述された実行時期)との間のずれ時間が少ないほど高く評価される。第2指示用オブジェクト51Bに関しても同様である。
 各ドラム画像55a等を叩く動作の判定は適宜に実現されてよいが、一例として次のように実現される。まず各ドラム画像55a、及び各シンバル画像55bは仮想三次元空間における空間座標で定義された所定位置に配置され、その所定位置(空間座標)の各ドラム画像55a等に向かって各指示用オブジェクト51は移動する。また、各ドラム画像55a等には、その所定位置を基準に評価範囲(各ドラム画像55a等と同一またはそれよりちょっと大きい範囲)が設定される。スティック画像56は操作スティックOSへの操作に伴い仮想三次元空間において移動するが、その先端部の位置(空間座標)が各ドラム画像55a、或いはシンバル画像55bの評価範囲に入ったか否かにより、叩く動作が実行されたか否か判別される。そして、その評価範囲にスティック画像56が入った時期(実際のプレイ行為の時期)と、各ドラム画像55a等に指示用オブジェクト51が到達すべき時期(シーケンスデータQDの実行時期)との間のずれ時間が算出され、そのずれ時間に応じて評価が決定される。この評価は適宜に実行されてよいが、一例としてパーフェクト、グレート、グッド、或いはバッドといった評価結果を示す基準を通じて実現される。また、各実行時期を基準に所定時間内に叩く動作が実行されなければ、ミス操作(ミスに対応する評価結果)として判定される。同様に、バッドに属する期間より早く、若しくは遅く、叩く動作が実行された場合、ミスと判定される。なお、これらのいずれにも属さない時期に叩く動作が実行された場合には、その動作は何にも使用されず、無視されてよい。
 指示用オブジェクト51は、その他にも左右の上側に位置するシンバル画像55bに対応する種類、各ドラム画像55aに対応する種類等の種類を含み、これらの種類を通じて第1指示用オブジェクト51Aと同様にドラム画像55a等を叩く動作を適宜に要求し得るが、図3の例ではそれらの表示は省略されている。また、第1指示用オブジェクト51A等の各種の指示用オブジェクト51は、適宜の形態で表示されてよいが、一例としていずれもシンバル画像55b等の移動経路上に位置する現在時刻の標識画像と同様の形状に表示される。同様に、第1指示用オブジェクト51A等の各種の指示用オブジェクト51は、互いに区別可能に適宜に表示されてよいが、一例として第1指示用オブジェクト51A、及び第2指示用オブジェクト51Bは互いに異なる配色で表示される。ドラムセット画像55における各ドラム画像55a等も同様である。例えば、各ドラム画像55aは互いに異なる配色で表示されてよい。この場合、プレイ対象をユーザが容易に識別できるように、各指示用オブジェクト51は、対応する各ドラム画像55a等と同じ色で表示されてよい。
 ステージ領域53は、仮想三次元空間に形成されるステージに対応する領域である。仮想三次元空間において各キャラクタは、そのステージにおいて演奏動作を実行する。このため、ステージ領域53には、各キャラクタに対応するキャラクタ画像54、及びドラムセット画像55が配置される。ステージ領域53には、適宜の数のキャラクタ画像54が配置されてよいが、図3の例では三つのキャラクタ画像54が表示されている。具体的には、キャラクタ画像54は、キーボードを演奏する第1キャラクタ画像54A、ギターを演奏する第2キャラクタ画像54B、及びドラムを演奏する第3キャラクタ画像54Cを含んでいる。これらのキャラクタ画像54A、54B、54Cは、仮想三次元空間においてキーボード、ギター、及びドラム(いずれも楽器の一例)を演奏するための一つの演奏ユニットを形成する三体のキャラクタにそれぞれ対応している。これらの三体のキャラクタは、ユーザ、及び協力者(コンピュータを含む)に適宜に対応してよく、それらのいずれのプレイ行為に基づいて演奏動作を実行してもよいが、一例として第1キャラクタ画像54A、及び第2キャラクタ画像54Bがコンピュータに、第3キャラクタ画像54Cがユーザに、それぞれ対応している。この例において、第1キャラクタ画像54A~第3キャラクタ画像54Cが本発明の複数のキャラクタとして機能する。
 第1キャラクタ画像54A~第3キャラクタ画像54Cは適宜に表示されてよいが、図3の例ではユーザキャラクタ(第3キャラクタ画像54C)の視界に対応するように、第1キャラクタ画像54A、及び第2キャラクタ画像54Bは全身が、第3キャラクタ画像54C(ユーザキャラクタ)は両手のみ(身体の一部のみ)が、それぞれ表示されている。また、仮想三次元空間においてユーザキャラクタがドラムを叩くためのスティックを握っている状況を示すように、第3キャラクタ画像54Cの左右の両手には二つのスティック画像56がそれぞれ表示されている。この場合、ユーザによる叩く動作の実行に伴い、第3キャラクタ画像54Cもその叩く動作を再現するように動作する。より具体的には、叩く動作の実行に伴い、第3キャラクタ画像54Cはスティック画像56において対象のシンバル画像55b等を叩く動作(演奏動作)を実行する。第1キャラクタ画像54A、及び第2キャラクタ画像54Bも同様である。つまり、協力者(コンピュータを含む)によるプレイ行為(対象の楽器、或いは入力装置の種類に応じて適宜でよいが、例えばキーボードの場合は鍵を弾く動作、ギターであれば弦を弾く動作)に伴い、第1キャラクタ画像54A、及び第2キャラクタ画像54Bも同様の演奏動作をゲーム画面50において実行する。
 図4~図5を参照して、ゲーム画面50について更に説明する。図4は、仮想三次元空間における各キャラクタの位置関係を説明するための説明図である。図4の例は、仮想三次元空間におけるステージ、及び各キャラクタを上方から見た場合を模式的に示している。仮想三次元空間におけるステージ等は、ゲーム画面50におけるステージ領域53等に対応するため、図4の例では説明の便宜のためステージ、及び各キャラクタにはゲーム画面50におけるステージ領域53、及び各キャラクタ画像54等と同様の符号が付されている。
 図4に示すように、各キャラクタ画像54(仮想三次元空間における各キャラクタ)はステージ領域53(仮想三次元空間におけるステージ)に所定の間隔を開けて配置される。各キャラクタ画像54の位置、或いは間隔は、適宜でよく、可変的であってもよいが、一例として固定的である。つまり、各キャラクタ画像54はステージ領域53の予め決められた所定の位置にそれぞれ固定的に配置される。
 また、第3キャラクタ画像54Cはユーザキャラクタに対応する。このため、第3キャラクタ画像54Cには、視界範囲IAが設定される。視界範囲IAは、ゲーム画面50を描画するための仮想カメラの撮影範囲に対応する。視界範囲IAは適宜の範囲として設定されてよいが、図4の例では第3キャラクタ画像54Cが正面を向いている場合に設定される視界範囲IAが示されている。また、この視界範囲IAは第3キャラクタ画像54Cの動作、換言すればユーザの動作によって移動する。具体的には、HMD型のゲーム機4はユーザの頭部に装着され、プレイされるが、このユーザの頭部の動きに伴い、第3キャラクタ画像54Cの頭部も動作する。例えば、ユーザの頭部(HMD型のゲーム機4)が身体における正面を向いた状態が仮想空間内の視界範囲IAとなるように調整された場合、ユーザが正面を向いているとき、第3キャラクタ画像54Cの頭部も仮想三次元空間において同様の方向を向くため、視界範囲IAは図4の例において正面側(実線で表示される範囲)に設定される。
 一方、正面を向いた状態からユーザが右側を向いた場合、その頭部の動きはHMD型のゲーム機4のセンサSMにより検知され、第3キャラクタ画像54Cの動きに反映される。つまり、そのような頭部の動きに伴い、第3キャラクタ画像54Cの頭部も仮想三次元空間において同様の右を向くように動作する。この場合、視界範囲IAは、その頭部の動きに合わせて右方向に角度が変化する。具体的には、ユーザの右を向く頭部の動きに伴い、視界範囲IAは、一点鎖線で示す右傾斜範囲IA1に移動する。そして、このような右傾斜範囲IA1に含まれる仮想三次元空間がゲーム画面50として表示される。
 図5は、視界範囲IAが図4の例の右傾斜範囲IA1に移動した場合のゲーム画面50の一例を模式的に示す図である。また、図4の例は、図3の例からユーザが右斜め上方向を向いた場合のゲーム画面50にも対応している。このような上下方向への頭部の変化もセンサSMによって検出され、ゲーム画面50に反映される。このため、この場合、図5に示すように、図3の例と比べて、視界(視界範囲IA)の移動に伴い、第2キャラクタ画像54Bがゲーム画面50の中央近くに移動している一方で、第1キャラクタ画像54Aの表示が消えている。また、ステージ領域53、スコア表示領域52、及びドラムセット画像55にも同様の変化が生じている。
 次に、図6~図10を参照して、音楽ゲームにおけるプレイの開始までの流れについて説明する。上述のようにユーザのプレイ行為(叩く動作)に伴い、ゲーム画面50においてキャラクタ画像54も同様の叩く動作、つまり演奏動作を実行する。このため、プレイの開始に伴い各キャラクタは演奏動作を実行する。ユーザキャラクタ以外の他のキャラクタ画像54もプレイの開始に伴い同様の演奏動作を実行する。そして、これらの演奏動作の組み合わせ、換言すれば一つの演奏ユニット全体による演奏動作により演奏パフォーマンスが形成される。結果として、プレイの開始は、演奏動作、及び演奏パフォーマンスの開始に対応する。このような演奏パフォーマンス、つまりゲームのプレイは、開始条件が満たされた場合に開始される。また、演奏パフォーマンスにおいて第1キャラクタ画像54A、及び第2キャラクタ画像54Bは、上述のように他のユーザによって操作されてもよいが、以下ではいずれもコンピュータによって操作(制御)される場合について説明する。
 図6は、演奏パフォーマンスの開始までの流れの一例を説明するための説明図である。図6に示すように、複数のキャラクタ画像54(キャラクタ)間に連携状態が形成された後に開始アクションが実行された場合に開始条件が満たされ、演奏パフォーマンス、つまりゲームのプレイが開始される。具体的には、ゲーム画面50において、プレイ(各指示用オブジェクト51による実行時期の案内)の開始前にまず各キャラクタ画像54は待機状態にて表示される。このような待機状態は適宜に表現されてよいが、コンピュータ制御のキャラクタの場合、所定の待機動作により表現される。このような待機動作として適宜の動作が実行されてよいが、例えば第2キャラクタ画像54Bの場合、ギターをチューニングする動作を実行する。待機状態において第1キャラクタ画像54Aも同様にキーボードを軽く弾く動作等の適宜の待機動作を実行するが、図6の例では説明の便宜のためその表示が省略されている。
 一方、ユーザによって操作される第3キャラクタ画像54C(他のユーザによって制御される場合、他のキャラクタも同様)にはユーザの動作(操作)が反映される。ユーザには、待機状態において各種の動作が許容されるが、そのような動作には連携アクションが含まれる。ユーザの連携アクションに伴い、第3キャラクタ画像54Cも同様の連携アクションを実行する。連携アクションは、第2キャラクタ画像54B及び第1キャラクタ画像54Aの両方が同時に対象となるように実行されてもよいが、一例として第2キャラクタ画像54B及び第1キャラクタ画像54Aのいずれか一方にそれぞれ個別に対応するように実行される。第3キャラクタ画像54Cが第2キャラクタ画像54Bに対して連携アクションを実行した場合、その動作の実行をコンピュータが判別し、その連携アクションに応答するための応答アクションを第2キャラクタ画像54Bに実行させる。そして、第2キャラクタ画像54Bによって応答アクションが実行された場合、第3キャラクタ画像54Cと第2キャラクタ画像54Bとの間には連携状態が形成される。この例において、第3キャラクタ画像54C、及び第2キャラクタ画像54Bが本発明の一つのキャラクタ、及び他のキャラクタとしてそれぞれ機能する。また、連携アクション、及び応答アクションが、本発明のアクション、及び対応アクションとしてそれぞれ機能する。
 連携状態は、第2キャラクタ画像54B及び第1キャラクタ画像54Aとの間に適宜に形成されてよい。例えば連携アクションが第2キャラクタ画像54B及び第1キャラクタ画像54Aの両方を対象に実行され、いずれか一方の応答アクションにより連携状態が形成される場合等、連携状態は第2キャラクタ画像54B及び第1キャラクタ画像54Aのいずれか一方(演奏ユニットの一部)との間に形成されれば演奏ユニット全体に形成されてもよいが、一例としてキャラクタ毎に個別に形成される。このため、第3キャラクタ画像54Cによる第1キャラクタ画像54Aに対する連携アクション、及びそれに応答する第1キャラクタ画像54Aによる応答アクションが、第3キャラクタ画像54Cと第1キャラクタ画像54Aとの間にも同様に実行される。そして、第3キャラクタ画像54Cが第2キャラクタ画像54B及び第1キャラクタ画像54Aの両方の間(換言すれば演奏ユニットの全体)に連携状態を形成した場合に、演奏ユニット全体が連携状態となる。連携アクションは、例えば第2キャラクタ画像54B等のユーザキャラクタ以外の他のキャラクタによって実行されてもよく、この場合、そのような連携アクションに対してユーザが応答アクションを返した場合に連携状態が形成されてもよい。このように連携アクションは適宜のキャラクタによって実行されてよいが、一例として図6の例のようにユーザキャラクタによって実行される。
 開始条件は、各種の要件を含んでいてよく、適宜に満たされてよいが、一例として演奏ユニット全体における連携状態の形成、及びその連携状態における開始アクションの実行を要件に含んでいる。このため、演奏ユニット全体の連携状態において第3キャラクタ画像54C(ユーザ)が開始アクションを実行した場合に開始条件が満たされる。そして、開始条件が満たされると演奏パフォーマンスが開始される。この例において、開始アクションが本発明の特別のアクションとして機能する。
 演奏パフォーマンスは、開始条件の具備を契機に適宜に開始されてよい。例えば、演奏パフォーマンスは音楽ゲームのプレイに対応し、音楽ゲームのプレイは楽曲のリズムに合わせた各実行時期の案内(指示用オブジェクト51の表示)によって実現されるため、楽曲の再生を含んでいる。このため、開始条件具備の直後、つまり開始アクションの直後にプレイ用の楽曲の再生が開始されてもよい。このように演奏パフォーマンスは適宜に開始されてよいが、一例として開始条件具備に伴いまず開始演出が実行される。つまり、演奏パフォーマンスは開始演出用のパート、及び実際に各キャラクタ画像54が演奏パフォーマンスを実行する演奏パートを含んでおり、開始条件の具備を契機にまず開始演出が開始される。
 開始演出は適宜に実現されてよいが、一例として楽曲再生までのカウントダウンとして機能するように実現される。このため、開始演出は、楽曲の再生にタイミングを合わせるための準備パートとして機能する。カウントダウンの機能は適宜に実現されてよいが、一例として各キャラクタ画像54に一定間隔毎に順にスポットライトが当てられる演出により実現される。つまり、開始アクションの後に各キャラクタ画像54に順にスポットライトが当てられる演出がまず開始され、全員にスポットライトが当たった後に楽曲の再生が開始される。そして、楽曲の再生に伴い、指示用オブジェクト51の表示が開始され、それに対する演奏動作(プレイ行為)も開始される。つまり、各キャラクタ画像54による実際の演奏動作(演奏パート)が開始される。この例において、準備パート、及び演奏パートが、本発明の準備パート、及びパフォーマンスパートとしてそれぞれ機能する。
 連携アクションは適宜のアクションであってよい。例えば、実際のバンド(演奏ユニット)によって演奏の開始時に実行されているように、ドラム担当がシンバル等を一定のリズムで軽く数回叩く動作が連携アクションとして採用されてもよい。あるいは、ユーザキャラクタが他のキャラクタに開始を呼びかけるような声かけ(発声)が連携アクションとして採用されてもよい。このように連携アクションとして各種のアクションが適宜に採用されてよいが、一例として対象のキャラクタに視線を向ける動作が採用される。また、このような視線を向ける動作は適宜に判別されてよく、例えば図5の例のように一つのキャラクタ画像54のみが視界範囲IAに含まれている場合にそのキャラクタ画像54に視線が向けられていると判別されてもよく、この場合視界範囲IAが視線を向ける動作の判別に使用されてよい。このように視線を向ける動作は適宜に判別されてよいが、一例として視界範囲IAの一部に視野範囲が設定され、その視野範囲に基づいて視線の向ける動作の有無が判別される。このため、ゲーム画面50(あるいは仮想三次元空間)には、ユーザの視線(ユーザキャラクタの視線)を判別するための視野範囲が設定される。
 図7は、ゲーム画面50に設定される視野範囲を説明するための説明図である。図7の例は、図5の例のゲーム画面50に設定される視野範囲を示している。図7に示すように、視野範囲IRは、中心視野範囲IR1、及び周辺視野範囲IR2を含んでいる。視野範囲IRはゲーム画面50の適宜の位置に形成されてよく、その位置は可変的であってもよい。また、視野範囲IRの位置がゲーム画面50において可変的に設定される場合、その位置は、例えばアイトラッキングによる視線のトラッキングといった各種の検出結果等を通じて適宜に設定されてよい。このように視野範囲IRはゲーム画面50に適宜に設定されてよいが、一例としてゲーム画面50(視界範囲)の中央付近に固定的に形成される。また、視野範囲IRは可視化されていてもよいが、一例として不可視に設定される。つまり、図7の例では便宜的に中心視野範囲IR1がドット柄で、周辺視野範囲IR2が右斜線で、それぞれ表示されているが、図5の例のように実際のゲーム画面50には視野範囲IRは表示されない。
 中心視野範囲IR1は、視線を向ける動作の判別に使用される範囲である。中心視野範囲IR1は適宜の形状に形成されてよいが、一例として所定の大きさの円形に形成される。また、視線を向ける動作の判別は、中心視野範囲IR1を利用して適宜に実現されてよく、例えば頭部等の主要部位が含まれている場合に視線を向けていると判別されてもよいが、一例として中心視野範囲IR1にキャラクタ画像54が一定割合以上含まれている(入っている)場合にそのキャラクタ画像54に視線を向けていると判別される。また、このような一定割合は適宜に設定されてよいが、一例として対象のキャラクタ画像54の半分以上の面積が利用される。例えば、図7の例では第2キャラクタ画像54Bの半分以上が、中心視野範囲IR1に入っている。この場合、ユーザキャラクタ(第3キャラクタ画像54C)は第2キャラクタ画像54Bに視線を向けていると判別される。
 一方、周辺視野範囲IR2は中心視野範囲IR1を含むようにその周囲に形成される領域である。周辺視野範囲IR2の形状も適宜に形成されてよいが、一例として中心視野範囲IR1を中央付近に含む所定の大きさの楕円形に形成される。周辺視野範囲IR2は適宜に利用されてよく、省略されてもよいが、一例として連携アクションの判別のための準備に使用される。具体的には、周辺視野範囲IR2にキャラクタ画像54が入ってきた場合にそのキャラクタ画像54に視線を向ける可能性があるとコンピュータは判別し、中心視野範囲IR1にキャラクタ画像54が含まれるか否か判別を開始する。一例として、このような視野範囲IRがゲーム画面50に設定され、連携アクションの実行の有無、つまりユーザのキャラクタ画像54が他のキャラクタ画像54に視線を向けているか否の判別が実現される。
 図8は、応答アクションの一例を説明するための説明図である。応答アクションとして、連携アクションに応じて、或いは連携アクションとは独立して各種の動作(反応)が適宜に採用されてよく、例えば各キャラクタが自己の楽器を軽く演奏する動作やサムアップ等の連携アクションの認識を示す各種の動作が採用されてよいが、この種の動作の一例として視線を向ける動作が利用される。つまり、ユーザキャラクタが連携アクションとして他のキャラクタに視線を向ける動作を実行した後、その他のキャラクタもそのユーザキャラクタに視線を向ける同様の動作を応答アクションとして実行する。図8の例は、応答アクションとしてこのような視線を向ける動作を実行する他のキャラクタ画像54の一例を模式的に示している。また、図8の例の(A)は応答アクション前のキャラクタ画像54を、(B)は応答アクション時のキャラクタ画像54を、それぞれ示している。
 図8の(A)に示すように、他のキャラクタ画像54(コンピュータによって制御されるキャラクタ)は、応答アクション前において正面側、つまり連携アクションとして視線を向けたキャラクタ画像54(ユーザ)の方向を向いていない。応答アクション前において他のキャラクタ画像54は適宜の方向を向いていてよく、例えば背中を向けるような方向を向いていてもよいが、図8の例では左方向に首を向け、視線も同様の左方向を向いている。一方、図8の(B)に示すように、その他のキャラクタ画像54は、応答アクション時には正面側に首を向け、視線も同様の正面側を向く。つまり、ユーザによって連携アクションとして視線を向ける動作が実行された場合(中心視野範囲IR1にキャラクタ画像54が一定割合以上含まれた場合)、その視線を向ける動作に応答してユーザに視線を返すように、他のキャラクタ画像54もユーザの方に同様の視線を向ける動作を実行する。これは他のキャラクタ画像54がユーザの方(正面側)に背中を向けていても(背中を向けるような方向を向いていても)同様である。つまり、応答アクション前の向きにかかわらず、他のキャラクタ画像54は応答アクションとしてユーザの方に視線を向ける動作を実行する。なお、演奏開始前はユーザが視線を他のキャラクタ画像54等に向けやすいように、ユーザに対して背中を向けることがないように他のキャラクタ画像54等の動きが制御されてもよい。
 他のキャラクタ画像54の視線の向きは適宜に判別されてよいが、一例として他のキャラクタ画像54にもユーザキャラクタと同様の視野範囲IRが設定され、視野範囲IRに入っているか否か、より具体的には視野範囲IRに中心視野範囲IR1にユーザキャラクタが一定割合以上入っているか否かに応じて判別される。また、このような視線を向ける動作(視線を返す動作)は、適宜のタイミングで実行されてよく、例えば連携アクションとは時差的に実行されてもよい。つまり、視線を向ける動作に対して視線を返す動作は、ユーザが視線を外した後において実行されてもよい。このように視線を返す動作は適宜のタイミングで実行されてよいが、一例として双方によるアイコンタクトが実現されるようにユーザが視線を向けている最中に実行される。この場合において、他のキャラクタ画像54が視線を向ける前にユーザが視線を外した場合、応答アクションは未完了と判断されてもよい(この場合、応答アクションのために再度連携アクションの実行が要求される)が、一例として他のキャラクタ画像54が視線を向ける動作の開始後であればユーザの視線を外す動作は許容される。一例として、連携アクションの対象となった(視線を向けられた)キャラクタ画像54は、このような応答アクションを実行する。
 図9は、連携アクションとして視線を向けられた他のキャラクタ画像54の動作の変化の流れを説明するための説明図である。そのような他のキャラクタ画像54として、例えば図3の例において第1キャラクタ画像54A等の適宜のキャラクタ画像54が機能してよいが、図9の例では図3の例の第2キャラクタ画像54Bが機能する場合を示している。この場合、図9に示すように、第2キャラクタ画像54Bはゲーム画面50においてまず上述のように待機状態を形成し、その待機(アイドル)状態において待機動作を実行する(S1)。また、第2キャラクタ画像54B(コンピュータ)は、待機状態においてユーザキャラクタ、つまり第3キャラクタ画像54Cが連携アクションを実行したか否か判別する(S2)。より具体的には、第2キャラクタ画像54Bは第3キャラクタ画像54Cが視線をこちらに向けているか否か(自己がユーザの中心視野範囲IR1に一定割合以上含まれているか否か)判別する。そして、第3キャラクタ画像54Cが視線をこちらに向けていない(自己がユーザの中心視野範囲IR1に一定割合以上含まれていない)場合、第2キャラクタ画像54Bは待機状態を継続する。
 一方、第3キャラクタ画像54Cが視線をこちらに向けている(自己が中心視野範囲IR1に一定割合以上含まれている)場合、第2キャラクタ画像54Bは第3キャラクタ画像54Cの方を振り向く振り向き動作(応答アクション)を実行する(S3)。応答アクションは、適宜に構成されてよく、振り向き動作(第3キャラクタ画像54Cの方に視線を向ける動作)のみによって構成されてもよいが、一例として応答ジェスチャも含んでいる。応答ジェスチャは、応答アクションの実行をユーザに伝えるための動作である。つまり、第2キャラクタ画像54Bは振り向き動作に続いて応答アクションの一つとして応答ジェスチャを実行する(S4)。このような応答ジェスチャとして、手を振る、親指と人差し指とで輪を作る(OKサイン)、頷く等の各種頭部の動作、或いは発声等が採用されてよいが、一例としてサムアップ(親指を立てる)動作が採用される。つまり、第2キャラクタ画像54Bは振り向き動作に続いて、或いはそれと同時にサムアップ動作を実行する。そして、第2キャラクタ画像54Bは、振り向き動作、及び応答ジェスチャの実行により応答アクションを完了し、連携状態を形成する。
 なお、連携状態の形成までの流れは適宜でよく、例えばユーザが他のキャラクタに視線を向け、他のキャラクタも視線を返した状態でユーザ(ユーザキャラクタ)がサムアップ動作などの適宜の動作を行い、これに対して更に他のキャラクタが同様のサムアップ動作等の適宜の動作を行った場合に連携状態は形成されてもよい。あるいは、これらの動作の一部が適宜に省略されてもよい。これらの場合において、連携状態を形成するために相互に実行し合う各種動作の一部が適宜に連携アクション、及び応答アクションとして機能してよい。開始条件も同様である。例えば、開始条件はユーザキャラクタと他の全キャラクタとの間に連携状態が形成された場合に満たされてもよい。つまり、開始条件は、開始アクションを要件に含んでいなくてもよい。この場合、開始演出は適宜に開始されてよいが、例えば最後の他のキャラクタとの間に連携状態が形成された直後に開始演出が実行される。また、操作スティックOSには、スティック画像56に対する操作と区別するために、サムアップ動作等の手の一部を利用する動作のための各種ボタンが適宜に設けられていてよい。あるいは、別途ユーザの全体(主要部位でもよい)を撮影するためのカメラが設けられてもよく、そのようなカメラによってサムアップ動作等の各種の部位の動作を含む適宜の動作が検出されてもよい。
 第2キャラクタ画像54Bは、連携状態(第1キャラクタ画像54Aとの連携状態の形成を待つ待機中)において適宜の動作を実行してよいが、一例として待機状態と同様に待機動作を実行する(S5)。また、第2キャラクタ画像54B等との連携状態(待機動作中)においてユーザによって開始アクションが実行されたか否か判別される(S6)。このような開始アクションとして各種の動作が適宜に機能してよいが、一例としてサムアップ動作が機能する。つまり、第2キャラクタ画像54B等との連携状態においてユーザによって開始アクションとしてサムアップ動作が実行されたか否か判別される。連携状態の形成から所定時間内にサムアップ動作、つまり開始アクションが実行されない場合、第2キャラクタ画像54Bは連携状態を解除して、再度待機状態に戻る。
 一方、連携状態の形成から所定時間内にサムアップ動作、つまり開始アクションが実行された場合、第2キャラクタ画像54Bはその開始アクションに対して応答ジェスチャを更に実行する(S7)。このような応答ジェスチャは省略されてもよいが、一例として実行される。また、この応答ジェスチャは応答アクションとしての応答ジェスチャと相違していてもよいが、一例として同様に構成される。つまり、第3キャラクタ画像54Cによる開始アクションに伴い、応答ジェスチャとして同様のサムアップ動作を実行する。第1キャラクタ画像54Aも同様の流れで動作が変化し、第3キャラクタ画像54Cとの間に連携状態等を形成する。
 開始条件の要件は、ユーザに対応するキャラクタ以外の全キャラクタとの間の連携状態における開始アクションのみであってもよいし、他の要件を含んでいてもよい。また、このような他の要件として第3キャラクタ画像54C以外の全キャラクタ画像54による応答ジェスチャ(S7)が機能してもよい。このように開始条件の要件は適宜であってよいが、一例として第1キャラクタ画像54A、及び第2キャラクタ画像54Bの両者から応答ジェスチャ(S7)が実行された後に演奏パフォーマンスが開始される。より具体的には、第1キャラクタ画像54A、及び第2キャラクタ画像54Bの両者からの応答ジェスチャ(S7)により開始条件が満たされ、開始演出が開始される。そして、開始演出によるカウントダウンの後に楽曲の再生、つまり演奏パートが開始される。一例として、このような流れで他のキャラクタの動作は変化し、演奏パフォーマンスは開始される。なお、ユーザキャラクタ以外のキャラクタがコンピュータによって制御される場合、開始アクションの実行に伴い、応答ジェスチャ(S7)も自動で実行される。このため、この場合、開始アクションの有無の判別が、開始条件が満たされるか否かの判別と同様に機能してよい。
 次に、演奏データODの詳細について説明する。第1キャラクタ画像54A、或いは第2キャラクタ画像54Bといった他のキャラクタ画像54による演奏動作(演奏パフォーマンス)がコンピュータによって制御される場合、他のキャラクタ画像54は適宜の演奏動作を実行してよく、予め設定された演奏動作(一つの動作であっても複数の動作出会ってもよい)を実行してもよいが、一例としてユーザが過去に他のキャラクタ画像54を通じてプレイしている場合にはそのプレイ時と同様の演奏動作を実行する。つまり、コンピュータは、そのプレイ時にユーザが行った演奏動作(プレイ実績)と同様の動作をトレースする(引き写す)ように他のキャラクタ画像54の動作を制御する。演奏データODは、このようなユーザの演奏動作の実績を他のキャラクタに実行させるためのデータである。例えば、ユーザが第2キャラクタ画像54Bを介してプレイした(プレイ用のキャラクタを選択するキャラクタ選択機会においてユーザキャラクタとして選択された)場合、そのプレイにおけるプレイ内容(第2キャラクタ画像54Bを介したギターの演奏動作の実績)が演奏データODに記録され、管理される。ユーザが第1キャラクタ画像54Aを介してプレイした場合の実績も同様である。
 図10は、演奏データODの構成の一例を示す図である。図10に示すように、動画データ部OD1、及び情報管理部OD2を含んでいる。動画データ部OD1は、他のキャラクタ画像54に演奏動作を実行させるための動画データとして構成される部分である。このような動画データ部は各種の動画データとして適宜に構成されてよいが、一例として各キャラクタ画像54の動作はモーションキャプチャーデータとして構成されるため、動画データ部も同様にモーションキャプチャーデータとして構成される。このモーションキャプチャーデータは適宜に生成されてよく、例えばユーザの全身を撮影するカメラからユーザのモーションを検出してデータ化してもよいし、ユーザの身体に付けられたマーカからその動きを検出してデータ化してもよい。このようにモーションキャプチャーデータ(動画データ部OD1)は適宜に生成されてよいが、一例としてHMD型のゲーム機4の時間経過による動き(頭部の動き)、及び操作スティックOSの時間経過による動きを記録し、それらをモーションに置換することにより生成される。動画データ部は演奏動作毎に用意される。一方、情報管理部OD2は、各動画データ部を管理するための情報が記述された部分である。情報管理部OD2は、各動画データ部の管理に必要な各種の情報を適宜に含み得るが、図10の例では動画データ部(演奏動作)毎にそれに関する情報を管理する演奏レコードODRを含んでいる。演奏レコードODRは、このような管理のために、“演奏ID”、“キャラクタ”、“楽曲”“ユーザID”、及び“日時”の情報を含んでいる。演奏レコードODRには、これらの情報が相互に関連付けられるように記録されている。また、この例において演奏データODが本発明の候補データとして機能する。
 “演奏ID”は、各演奏動作(動画データ部)を管理するために演奏動作毎にユニークな演奏IDを示す情報である。“キャラクタ”は、その演奏動作に対応するキャラクタを特定するための情報である。このような情報として各キャラクタを特定可能な適宜の情報が利用されてよいが、一例としてキャラクタ毎にユニークなキャラクタIDの情報が利用される。具体的には、例えば第3キャラクタ画像54Cを介してプレイした実績に対応する演奏動作の場合、その第3キャラクタ画像54Cに対応するキャラクタIDの情報が“キャラクタ”に記述される。第1キャラクタ画像54A等の場合も同様である。また、各キャラクタは演奏する楽器と対応付けられている。このため、“キャラクタ”の情報は演奏対象の楽器の情報としても機能する。このため、“キャラクタ”に代えて“楽器”の情報(例えば楽器のID)が記述されてもよい。“楽曲”は演奏動作の際に使用された楽曲を示す情報である。“楽曲”には各楽曲を特定可能な適宜の情報が記述されてよいが、一例として楽曲毎にユニークな楽曲IDの情報が記述される。“ユーザID”は、各ユーザを識別するためにユーザ毎にユニークなユーザIDを示す情報である。プレイ実績として使用可能な演奏動作は、各ユーザにとって自己のプレイ実績に限定されてもよいが、一例として他のユーザのプレイ実績も使用可能である。“日時”は各演奏動作の実績に対応するプレイの日時を示す情報である。なお、演奏データODは、これらの情報に限定されず、例えば演奏パフォーマンスの実現に必要な情報等を適宜に管理してよい。あるいは、これらの情報の一部が適宜に省略されてもよい。
 次に、演奏選択処理、連携応答処理、楽曲開始処理、及び演奏データ生成処理の手順について説明する。演奏選択処理は、ユーザキャラクタ以外の他のキャラクタに実行させるべき演奏動作を選択する演奏選択機会を提供するための処理である。例えば、ユーザが第3キャラクタ画像54Cを介して音楽ゲームをプレイする場合において、第1キャラクタ画像54A、及び第2キャラクタ画像54Bにそれぞれ実行させるべき演奏動作が演奏選択機会にて選択される。具体的には、同じキャラクタに対して複数のプレイ実績が存在する場合、演奏データODはその同じキャラクタに対して複数の動画データ部OD1(複数の演奏動作)を含んでいる。この場合、それらの複数の演奏動作の候補から他のキャラクタに実行させるべき演奏動作が演奏選択機会において選択される。図11の例は、このような演奏選択機会を提供するための手順の一例を示している。この場合、進行制御部43は、音楽ゲームのプレイに使用するキャラクタを選択するためのキャラクタ選択機会をユーザに提供する毎に図11の演奏選択処理を開始し、まずそのキャラクタ選択機会におけるキャラクタの選択結果を取得する(ステップS101)。
 続いて進行制御部43は、キャラクタ選択機会において選択したキャラクタ以外のキャラクタに実行させるべき演奏動作を選択するための演奏選択機会を提供する(ステップS102)。具体的には、進行制御部43は、演奏データODを参照し、対象のキャラクタ毎に複数の演奏動作の候補(他のユーザの演奏実績、及び予め用意された複数の所定の動作を含んでいてよい)から一つの演奏動作が選択されるように演奏選択機会を提供する。また、このような演奏選択機会は適宜に実現されてよいが、一例として演奏動作の選択に必要な情報を含む演奏選択機会用の選択画面(不図示)を通じて実現される。演奏動作の選択に必要な情報には、例えば、演奏動作の実績に対応するユーザ(誰の演奏動作であるか)、或いはそのユーザのレベルや得点等の各種成績に関する情報といった各種の情報が適宜に含まれていてよい。演奏選択機会における選択肢は、ユーザが選択した楽曲、楽器に対応して提示される。例えば、ユーザが選択した楽曲と同一の楽曲であって、ユーザが選択した楽器とは異なる楽器により生成された演奏データODが、演奏選択機会における選択肢としてユーザに提示される。選択肢の限定条件はこれ以外、例えば演奏データODが作成された期間等が適宜に含まれていてもよい。
 次に進行制御部43は、演奏選択機会における選択結果に基づいて他のキャラクタの演奏動作を決定する(ステップS103)。そして、この決定の後に進行制御部43は今回の演奏選択処理を終了する。これにより、ユーザキャラクタ以外の他のキャラクタに実行させるべき演奏動作を選択する演奏選択機会が実現される。また、演奏選択機会では、このような演奏動作の候補として、他のユーザのプレイ実績を含む複数の演奏動作の実績が提示される。このため、このような演奏選択機会を通じて、演奏パフォーマンスにおいて他のキャラクタに実際のプレイ実績に対応する演奏動作が実行される。
 連携応答処理は、各キャラクタに連携状態を形成させるための処理である。各キャラクタは他のユーザによって操作されてもよく、その場合連携状態の形成は他のユーザによって応答アクションが実行されたか否か判別され、応答アクションが実行された場合に形成されるが、図12の例はコンピュータ(進行制御部43)によって各キャラクタの動作が制御される場合を示している。この場合、進行制御部43は、ユーザキャラクタ(例えば図3の例の第3キャラクタ画像54C)が(周辺視野範囲IR2に他のキャラクタを含む状況において)ユーザによって操作される毎に図12の連携応答処理を開始し、まずそのユーザの操作が連携アクションに該当するか否か判別する(ステップS201)。一例として、そのユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含めるように視線を向ける動作に対応する場合、その操作(動作)は連携アクションに該当する。このため、進行制御部43は、そのユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作に該当するか否か判別する。ユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作(視線を向ける動作)に該当しない場合、つまりそのユーザの操作が連携アクションに該当しない場合、進行制御部43は以降の処理をスキップして今回の連携応答処理を終了する。
 一方、ユーザの操作が中心視野範囲IR1に他のキャラクタを一定割合以上含める動作(視線を向ける動作)に該当する場合、つまりそのユーザの操作が連携アクションに該当する場合、進行制御部43はその連携アクションの対象のキャラクタ、つまり中心視野範囲IR1に一定割合以上含まれるキャラクタに応答アクションを実行させる(ステップS202)。具体的には、例えば応答アクションとして上述のように視線を向ける(視線を返す)動作、及び応答ジェスチャ(サムアップ)が採用される場合、ユーザのキャラクタに視線を向ける動作を実行し、かつサムアップ動作を実行するように、対象のキャラクタの動作を制御する。
 続いて進行制御部43は、ユーザキャラクタとステップS202において応答アクションを実行させたキャラクタとの間に連携状態を形成させる(ステップS203)。連携状態の形成は適宜に実現されてよく、例えば専用の動作により連携状態が表現される場合にはそのような動作の実行により実現されてもよいが、一例として連携状態の有無を管理するためのフラグの更新により実現される。具体的には、各キャラクタには、連携状態の有無を管理するためのパラメータが設定される。このため、進行制御部43は、このフラグを連携状態の形成を示す状態に更新することにより連携状態の形成を実現する。そして、連携状態を形成した後に進行制御部43は今回の連携応答処理を終了する。これにより、他のキャラクタの動作が連携アクションに応じて応答アクションを実行するように制御される。つまり、ユーザキャラクタと他のキャラクタとの間に連携状態が積極的に形成されるように、他のキャラクタの動作が制御される。そして、連携状態が形成された場合には、その状態がフラグにより管理される。
 楽曲開始処理は、開始条件を契機に演奏パフォーマンス(各実行時期の案内)を開始させるための処理である。図13の例は、図9の流れで他のキャラクタが動作する場合に実行される楽曲開始処理を示している。この場合、進行制御部43は、ユーザによって開始アクションが実行される毎、及び連携状態の形成から所定時間経過毎に図13の楽曲開始処理を開始し、まず開始条件を満たすか否か判別する(ステップS301)。具体的には、上述のように一例として開始アクション(例えばサムアップ動作)が実行され、かつそれに応答する応答ジェスチャが実行された場合に開始条件は満たされる。このため、進行制御部43は、他のキャラクタの全部が応答ジェスチャを実行した場合に開始条件が満たされると判別してもよいが、応答ジェスチャは開始アクションの実行に伴いコンピュータ(進行制御部43)によって自動で実行されるため、一例としてユーザのキャラクタと他のキャラクタの全部との間に連携状態が形成された状況において開始アクションが実行された場合に開始条件が満たされたと判別する。
 開始条件が満たされない場合、進行制御部43は連携状態を解除するための解除条件が満たされるか否か判別する(ステップS302)。解除条件は適宜に満たされてよいが、一例として連携状態の形成から所定時間経過した場合に満たされる。このため、進行制御部43は、連携状態の形成から所定時間経過しているか否か判別する。解除条件が満たされない場合、つまり連携状態の形成から所定時間経過していない場合、連携状態を維持する(ステップS303)。つまり、進行制御部43は連携状態を示すフラグの状態をそのままの状態に維持する。一方、解除条件が満たされる場合、つまり連携状態の形成から所定時間経過した場合、進行制御部43は連携状態を解除する(ステップS304)。具体的には、進行制御部43は、連携状態を示すフラグの状態を非連携状態に対応するように変更する。そして、進行制御部43は、連携状態の維持、或いは連携状態の解除の後に、今回の楽曲開始処理を終了する。
 一方、ステップS301において開始条件が満たされる場合、つまり開始アクションがユーザキャラクタと他のキャラクタの全部との間に連携状態が形成された状況において実行された場合、進行制御部43は、開始演出を開始する(ステップS305)。具体的には、進行制御部43は、開始演出をゲーム画面50に表示する。続いて進行制御部43は、その開始演出の後に楽曲の再生、換言すれば演奏パートを開始させる(ステップS303)。そして、楽曲の再生を開始させた後に進行制御部43は今回の楽曲開始処理を終了する。これにより、ユーザキャラクタと他のキャラクタとの間の連携状態の形成を要件に含む開始条件の具備を契機に演奏パフォーマンスが開始される。より具体的には、ユーザキャラクタと他のキャラクタの全部との間に連携状態が形成された状況において開始アクションが実行された場合に開始条件が満たされ、演奏パフォーマンスの開始演出、つまり準備パートが開始される。そして、その開始演出の後に楽曲の再生、つまり演奏パートが開始される。
 演奏データ生成処理は、各ユーザのプレイ実績に基づいて演奏データODを生成するための処理である。演奏データODは適宜に生成されてよく、例えば一律に全ユーザの全プレイの実績に基づいて生成されてもよいが、一例としてユーザが演奏データODの生成を希望した場合に生成される。この場合、演奏データODの生成を希望したユーザ(別途生成の要否を確認するための機会が適宜にユーザに付与されてよい)のプレイにおいて演奏パートが開始されると、データ管理部44は図14の演奏データ生成処理を開始し、まず演奏パートにおけるユーザの操作、つまりユーザキャラクタの動作を記録する(ステップS401)。続いてデータ管理部44は、ステップS401の記録結果に基づいて演奏データODを生成する(ステップS402)。具体的には、データ管理部44は、ユーザキャラクタの動作を再現するための動画データ部OD1、及びそれに対応する各種情報を記録する情報管理部OD2を生成する。そして、演奏データODを生成した後にデータ管理部44は今回の演奏データ生成処理を終了する。これにより、各ユーザのプレイ実績に対応する演奏動作を再現するための演奏データODが生成される。なお、一律に演奏データODが生成され、ユーザが希望した場合やベストスコアが算出された場合等所定条件を満たした場合にそれが保存されてもよい。
 以上に説明したように、この形態によれば、連携状態は、ユーザキャラクタ(例えば第3キャラクタ画像54C)による連携アクションと、それに応答する他のキャラクタ(例えば第2キャラクタ画像54B)による応答アクションとにより形成される。このため、これらの連携アクション、及び応答アクションを通じてゲームの複数のキャラクタに呼吸を合わせるプロセスを模倣させることができる。より具体的には、ユーザキャラクタによって視線を向ける動作が実行された場合に、その視線を向けられた他のキャラクタによる視線を返す動作、及びサムアップ動作により連携状態が形成される。これにより、これらのユーザキャラクタと他のキャラクタとの間にアイコンタクトを通じて呼吸を合わせるプロセスを模倣させることができる。
 また、開始条件が満たされた場合に演奏パフォーマンスが開始される一方で、開始条件が満たされるまで演奏パフォーマンスの開始が待機される。そして、そのような演奏パフォーマンスの開始の契機とされる開始条件は、連携状態の形成を要件に含んでいる。つまり、連携状態の形成を経て演奏パフォーマンスは開始される。このため、演奏パフォーマンスの開始前に、複数人による実際の演奏パフォーマンスにおいて実行される呼吸を合わせるプロセス、より具体的にはアイコンタクトを通じて呼吸を合わせるプロセスと同様のプロセスをゲームの複数のキャラクタに実行させることができる。結果として、演奏パフォーマンスの臨場感、或いは一体感を向上させることができる。
 また、ユーザキャラクタによる連携アクションの実行に伴い、他のキャラクタがコンピュータによって応答アクションを実行するように制御される場合、ユーザキャラクタによる連携アクションを契機に、積極的に連携状態を形成することができる。このため、開始条件具備の時期をユーザの都合に合わせることができる。さらに、そのような他のキャラクタが演奏パフォーマンスにおいてユーザのプレイ実績をトレースするように動作する場合、演奏パフォーマンスにおけるユーザキャラクタ以外の他のキャラクタの動作に過去のユーザのプレイ実績、つまり演奏動作の実績を反映することができる。これにより、演奏パフォーマンスのリアリティ、ひいては臨場感を更に向上させることができる。また、このような演奏動作の実績の活用により、各ユーザによる他のキャラクタの使用、或いは他のユーザによる自己の演奏実績の利用を促すことができ、ひいてはゲームの利用を促進することもできる。
 以上の形態において、HMD型のゲーム機4の進行制御部43が、図13の楽曲開始処理を実行することにより本発明の条件判別手段、及び進行制御手段として機能する。具体的には、進行制御部43が、図13のステップS301を実行することにより条件判別手段として機能する。また、進行制御部43が、図13のステップS305、及びステップS303の処理を実行することにより進行制御手段として機能する。同様に、HMD型のゲーム機4の進行制御部43が、図12の連携応答処理においてステップS202を実行することにより本発明のキャラクタ制御手段として機能する。さらに、HMD型のゲーム機4の進行制御部43が、図11の演奏選択処理においてステップS102を実行することにより本発明の機会提供手段として機能する。
 本発明は上述した形態に限定されず、適宜の変形又は変更が施された形態にて実施されてよい。例えば、上述の形態では、図11~図14の処理はHMD型のゲーム機4で実行されている。しかし、本発明は、このような形態に限定されない。例えば、図11~図14の処理の全部あるいは一部はセンターサーバ2によって実行されてもよい。例えば、図11~図13の処理の全部をセンターサーバ2が実行する場合、センターサーバ2単体(複数のサーバ装置を含んでもよい)が本発明のゲームシステムとして機能してもよい。一方で、HMD型のゲーム機4の単体が本発明のゲームシステムとして機能してよい。つまり、本発明のゲームシステムにおいてセンターサーバ2は適宜に省略されてよい。
 上述した実施の形態及び変形例のそれぞれから導き出される本発明の各種の態様を以下に記載する。なお、以下の説明では、本発明の各態様の理解を容易にするために添付図面に図示された対応する部材を括弧書きにて付記するが、それにより本発明が図示の形態に限定されるものではない。
 本発明のゲームシステムは、ユーザのプレイ行為を入力するための入力装置(OS)、及び前記ユーザのプレイ行為を通じて操作されるキャラクタとしてのユーザキャラクタ(54C)を含む複数のキャラクタ(54)が含まれるようにゲーム画面(50)を表示する表示装置(47)に接続され、前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム(4)であって、前記複数のキャラクタのうちの少なくとも一つのキャラクタ(54C)が実行したアクションに対応する所定のアクションとしての対応アクションを他のキャラクタ(54B)が実行した場合に前記一つのキャラクタと前記他のキャラクタとの間に少なくとも形成される連携状態の形成を要件に含む開始条件が満たされるか否か判別する条件判別手段(43)と、前記開始条件が満たされた場合に当該開始条件の具備を契機に前記パフォーマンスが開始される一方で、前記開始条件が満たされるまで前記パフォーマンスの開始が待機されるように前記ゲームの進行を制御する進行制御手段(43)と、を備えるものである。
 本発明によれば、連携状態は一つのキャラクタによるアクションとそれに対応する他のキャラクタによる対応アクションとにより形成される。このため、これらのアクション、及び対応アクションを通じてゲームの複数のキャラクタに呼吸を合わせるプロセスを模倣させることができる。また、開始条件が満たされた場合にパフォーマンスが開始される一方で、開始条件が満たされるまでパフォーマンスの開始が待機される。そして、そのようなパフォーマンスの開始の契機とされる開始条件は、連携状態の形成を要件に含んでいる。つまり、連携状態の形成を経てパフォーマンスは開始される。このため、パフォーマンスの開始前に、複数人によるパフォーマンスにおいて実行される呼吸を合わせるプロセスと同様のプロセスをゲームの複数のキャラクタに実行させることができる。結果として、パフォーマンスの臨場感、或いは一体感を向上させることができる。
 複数のキャラクタは、少なくとも一体のユーザキャラクタを含む限り、適宜に制御されてよい。例えば、複数のキャラクタは複数のユーザによってそれぞれ制御されてもよい。あるいは、ユーザキャラクタ以外の全キャラクタがコンピュータによって制御されてもよい。また、連携状態の形成の契機となるアクションはユーザキャラクタ(他のユーザに対応するキャラクタを含む)によって実行されてもよいし、コンピュータ制御のキャラクタによって実行されてもよい。例えば、本発明のゲームシステムの一態様として、前記ユーザキャラクタが前記一つのキャラクタとして機能する場合に、前記ユーザキャラクタによる前記アクションに対応して前記対応アクションを実行するように前記他のキャラクタを制御するキャラクタ制御手段(43)を備える態様が採用されてもよい。この場合、連携状態の形成のためのアクションが実行された場合に他のキャラクタは対応アクションを実行するように制御される。これにより、ユーザキャラクタによるアクションを契機に、積極的に連携状態を形成することができる。このため、開始条件具備の時期をユーザの都合に合わせることができる。
 パフォーマンスにおいて各キャラクタの動作は適宜に制御されてよく、例えば全てコンピュータによって制御されてもよいし、ユーザキャラクタ以外のキャラクタのみコンピュータによって制御されてもよい。また、コンピュータ制御のキャラクタは、適宜に動作してよく、予め決められた所定の動作(固定的な動作、及び各種条件により変化する動作の両方を含む)を実行してもよい。さらに、そのような動作は一つであっても、複数であってもよい。具体的には、例えば、他のキャラクタが対応アクションを実行するように自動制御される態様として、前記パフォーマンスにおける前記ユーザキャラクタの動作が前記プレイ行為を通じて制御される場合に、前記他のキャラクタと当該他のキャラクタが前記パフォーマンスにおいて実行すべき動作の候補として複数の動作とが関連付けられるように記述された候補データ(OD)に基づいて、前記複数の動作のうち前記パフォーマンスにおいて前記他のキャラクタが実際に実行すべき動作を選択するための選択機会を提供する機会提供手段(43)を備える態様が採用されてもよい。
 あるいは、コンピュータ制御のキャラクタは、そのキャラクタが過去にユーザキャラクタとしてプレイに使用された実績がある場合、そのプレイにおいてユーザ(今回ゲームをプレイするユーザのみならず、その他のユーザを含んでいてよい)のプレイ行為に応じて実行された動作を実行してもよい。具体的には、選択機会が提供される本発明の態様において、前記ゲームは、各ユーザによって前記複数のキャラクタから前記ユーザキャラクタが選択されるように提供され、前記複数の動作は、前記他のキャラクタが前記ユーザキャラクタとして過去に各ユーザによって選択された実績が存在する場合に、当該実績において前記他のキャラクタが実行した動作を含んでいてもよい。この場合、パフォーマンスにおけるユーザキャラクタ以外の他のキャラクタの動作に過去のユーザのプレイ実績を反映することができる。
 連携状態を形成するためのアクション、及び対応アクションとして、各種のアクションが適宜に採用されてよい。例えば、頭、手、或いは脚といったキャラクタの各部位を動作させる各種のアクションが、連携状態を形成するためのアクション、或いは対応アクションとして適宜に利用されてもよい。また、発声、或いはアイコンタクトといったアクションが、連携状態を形成するためのアクション、或いは対応アクションとして適宜に利用されてもよい。具体的には、例えば、本発明のゲームシステムの一態様において、前記連携状態は、前記一つのキャラクタに設定される視野範囲(IR)に前記他のキャラクタを入れる動作が前記アクションとして、前記他のキャラクタに設定される視野範囲(IR)に前記一つのキャラクタを入れる動作が前記対応アクションとして、それぞれ機能するように、前記一つのキャラクタの視野範囲に含まれる前記他のキャラクタが当該他のキャラクタの視野範囲に前記一つのキャラクタを入れた場合に形成されてもよい。この場合、呼吸を合わせるプロセスの模倣として、ユーザキャラクタと他のキャラクタとにアイコンタクトに対応する動作を実行させることができる。
 開始条件は連携状態の形成のみを要件として含んでいてもよいし、各種の他の要件を適宜に含んでいてもよい。そのような他の要件として、ユーザのプレイ行為、プレイ状況、或いはゲームの都合等の適宜の条件が利用されてよい。例えば、本発明のゲームシステムの一態様において、前記開始条件は、前記連携状態において前記一つのキャラクタによって実行されるべき特別のアクションを更に要件に含み、前記連携状態において前記特別のアクションが実行された場合に満たされてもよい。
 パフォーマンスは、適宜のパートを含んでいてよく、例えばパフォーマンスを複数のキャラクタが実際に実行するパートのみならず、その他の各種のパートを適宜に含んでいてよい。具体的には、例えば、本発明のゲームシステムの一態様において、前記パフォーマンスは、当該パフォーマンスを前記複数のキャラクタが実際に実行するパフォーマンスパート、及び当該パフォーマンスパートの開始の時期を示すための準備パートを含み、前記進行制御手段は、前記開始条件の具備を契機に前記パフォーマンスの開始として前記準備パートを開始させることにより前記準備パートの後に前記パフォーマンスパートが開始されるように前記ゲームの進行を制御してもよい。
 ゲームとして、各種のゲームが適宜に提供されてよい。同様に、そのようなゲームでは、ゲームの種類に応じて複数のキャラクタによる各種のパフォーマンスが適宜に実行されてよい。例えば、サッカーゲーム、或いは野球ゲーム等のスポーツゲームにおけるゲームのプレイがパフォーマンスとして利用され、開始条件の具備を契機にキックオフやプレイボールが開始されてもよい。あるいは、音楽ゲームにおけるダンスや演奏等がパフォーマンスとして利用されてもよい。具体的には、例えば、本発明のゲームシステムの一態様において、前記ゲームとして、楽曲のリズムに合わせて前記ユーザが実行すべきプレイ行為の実行時期を案内するとともに、当該プレイ行為に伴い前記ユーザキャラクタが前記楽曲を演奏する演奏動作を実行する音楽ゲームが提供され、前記パフォーマンスとして、前記音楽ゲームでは前記複数のキャラクタの各キャラクタによる前記演奏動作が実行されてもよい。
 一方、本発明のコンピュータプログラム(PG2)は、前記入力装置、及び前記表示装置に接続されるコンピュータ(41)を、上述のゲームシステムの各手段として機能させるように構成されたものである。
 また、本発明の制御方法は、ユーザのプレイ行為を入力するための入力装置(OS)、及び前記ユーザのプレイ行為を通じて操作されるキャラクタとしてのユーザキャラクタ(54C)を含む複数のキャラクタ(54)が含まれるようにゲーム画面(50)を表示する表示装置(47)に接続され、前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステム(4)に組み込まれるコンピュータ(41)に、前記複数のキャラクタのうちの少なくとも一つのキャラクタ(54C)が実行したアクションに対応する所定のアクションとしての対応アクションを他のキャラクタ(54B)が実行した場合に前記一つのキャラクタと前記他のキャラクタとの間に少なくとも形成される連携状態の形成を要件に含む開始条件が満たされるか否か判別する条件判別手順と、前記開始条件が満たされた場合に当該開始条件の具備を契機に前記パフォーマンスが開始される一方で、前記開始条件が満たされるまで前記パフォーマンスの開始が待機されるように前記ゲームの進行を制御する進行制御手順と、を実行させるものである。本発明のコンピュータプログラム、或いは制御方法を通じて、本発明のゲームシステムを実現することができる。
 1 ゲームシステム
 2 センターサーバ
 4 HMD型のゲーム機(ゲームシステム)
 41 制御ユニット(コンピュータ)
 43 進行制御部(条件判別手段、進行制御手段、キャラクタ制御手段、機会提供手段)
 47 ディスプレイ(表示装置)
 50 ゲーム画面
 54 キャラクタ画像(キャラクタ)
 54B 第2キャラクタ画像(他のキャラクタ)
 54C 第3キャラクタ画像(ユーザキャラクタ、一つのキャラクタ)
 IR 視野範囲
 OS 操作スティック(入力装置)

Claims (10)

  1.  ユーザのプレイ行為を入力するための入力装置、及び前記ユーザのプレイ行為を通じて操作されるキャラクタとしてのユーザキャラクタを含む複数のキャラクタが含まれるようにゲーム画面を表示する表示装置に接続され、前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムであって、
     前記複数のキャラクタのうちの少なくとも一つのキャラクタが実行したアクションに対応する所定のアクションとしての対応アクションを他のキャラクタが実行した場合に前記一つのキャラクタと前記他のキャラクタとの間に少なくとも形成される連携状態の形成を要件に含む開始条件が満たされるか否か判別する条件判別手段と、
     前記開始条件が満たされた場合に当該開始条件の具備を契機に前記パフォーマンスが開始される一方で、前記開始条件が満たされるまで前記パフォーマンスの開始が待機されるように前記ゲームの進行を制御する進行制御手段と、
    を備える、ゲームシステム。
  2.  前記ユーザキャラクタが前記一つのキャラクタとして機能する場合に、前記ユーザキャラクタによる前記アクションに対応して前記対応アクションを実行するように前記他のキャラクタを制御するキャラクタ制御手段を備える、請求項1のゲームシステム。
  3.  前記パフォーマンスにおける前記ユーザキャラクタの動作が前記プレイ行為を通じて制御される場合に、前記他のキャラクタと当該他のキャラクタが前記パフォーマンスにおいて実行すべき動作の候補として複数の動作とが関連付けられるように記述された候補データに基づいて、前記複数の動作のうち前記パフォーマンスにおいて前記他のキャラクタが実際に実行すべき動作を選択するための選択機会を提供する機会提供手段を備える、請求項2のゲームシステム。
  4.  前記ゲームは、各ユーザによって前記複数のキャラクタから前記ユーザキャラクタが選択されるように提供され、
     前記複数の動作は、前記他のキャラクタが前記ユーザキャラクタとして過去に各ユーザによって前記ゲームのプレイに使用された実績が存在する場合に、当該実績において前記他のキャラクタが実行した動作を含んでいる、請求項3のゲームシステム。
  5.  前記連携状態は、前記一つのキャラクタに設定される視野範囲に前記他のキャラクタを入れる動作が前記アクションとして、前記他のキャラクタに設定される視野範囲に前記一つのキャラクタを入れる動作が前記対応アクションとして、それぞれ機能するように、前記一つのキャラクタの視野範囲に含まれる前記他のキャラクタが当該他のキャラクタの視野範囲に前記一つのキャラクタを入れた場合に形成される、請求項1~4のいずれか一項のゲームシステム。
  6.  前記開始条件は、前記連携状態において前記一つのキャラクタによって実行されるべき特別のアクションを更に要件に含み、前記連携状態において前記特別のアクションが実行された場合に満たされる、請求項1~5のいずれか一項のゲームシステム。
  7.  前記パフォーマンスは、当該パフォーマンスを前記複数のキャラクタが実際に実行するパフォーマンスパート、及び当該パフォーマンスパートの開始の時期を示すための準備パートを含み、
     前記進行制御手段は、前記開始条件の具備を契機に前記パフォーマンスの開始として前記準備パートを開始させることにより前記準備パートの後に前記パフォーマンスパートが開始されるように前記ゲームの進行を制御する、請求項1~6のいずれか一項のゲームシステム。
  8.  前記ゲームとして、楽曲のリズムに合わせて前記ユーザが実行すべきプレイ行為の実行時期を案内するとともに、当該プレイ行為に伴い前記ユーザキャラクタが前記楽曲を演奏する演奏動作を実行する音楽ゲームが提供され、
     前記パフォーマンスとして、前記音楽ゲームでは前記複数のキャラクタの各キャラクタによる前記演奏動作が実行される、請求項1~7のいずれか一項のゲームシステム。
  9.  前記入力装置、及び前記表示装置に接続されるコンピュータを、請求項1~8のいずれか一項のゲームシステムの各手段として機能させるように構成されたコンピュータプログラム。
  10.  ユーザのプレイ行為を入力するための入力装置、及び前記ユーザのプレイ行為を通じて操作されるキャラクタとしてのユーザキャラクタを含む複数のキャラクタが含まれるようにゲーム画面を表示する表示装置に接続され、前記複数のキャラクタが実行するパフォーマンスを含むゲームを提供するゲームシステムに組み込まれるコンピュータに、
     前記複数のキャラクタのうちの少なくとも一つのキャラクタが実行したアクションに対応する所定のアクションとしての対応アクションを他のキャラクタが実行した場合に前記一つのキャラクタと前記他のキャラクタとの間に少なくとも形成される連携状態の形成を要件に含む開始条件が満たされるか否か判別する条件判別手順と、
     前記開始条件が満たされた場合に当該開始条件の具備を契機に前記パフォーマンスが開始される一方で、前記開始条件が満たされるまで前記パフォーマンスの開始が待機されるように前記ゲームの進行を制御する進行制御手順と、
    を実行させる、制御方法。
PCT/JP2021/043007 2020-12-25 2021-11-24 ゲームシステム、それに用いるコンピュータプログラム、及び制御方法 WO2022137958A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180087065.2A CN116635119A (zh) 2020-12-25 2021-11-24 游戏系统、该游戏系统中使用的计算机程序以及控制方法
KR1020237019791A KR20230104959A (ko) 2020-12-25 2021-11-24 게임 시스템, 거기에 사용하는 컴퓨터 프로그램 및 제어 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-217979 2020-12-25
JP2020217979A JP2022102913A (ja) 2020-12-25 2020-12-25 ゲームシステム、それに用いるコンピュータプログラム、及び制御方法

Publications (1)

Publication Number Publication Date
WO2022137958A1 true WO2022137958A1 (ja) 2022-06-30

Family

ID=82157634

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/043007 WO2022137958A1 (ja) 2020-12-25 2021-11-24 ゲームシステム、それに用いるコンピュータプログラム、及び制御方法

Country Status (4)

Country Link
JP (1) JP2022102913A (ja)
KR (1) KR20230104959A (ja)
CN (1) CN116635119A (ja)
WO (1) WO2022137958A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002320771A (ja) * 2001-04-26 2002-11-05 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2010000257A (ja) * 2008-06-20 2010-01-07 Namco Bandai Games Inc ゲームコントローラケース、ゲームコントローラケースセット、プログラム、及び情報記憶媒体
US20100029386A1 (en) * 2007-06-14 2010-02-04 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
JP2010200792A (ja) * 2009-02-27 2010-09-16 Square Enix Co Ltd ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP2017055851A (ja) * 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
JP2017119033A (ja) * 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP2019033996A (ja) * 2017-08-18 2019-03-07 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置のプログラム、及び、ゲームシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6727807B2 (ja) 2015-12-29 2020-07-22 株式会社バンダイナムコアミューズメント ゲーム装置及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002320771A (ja) * 2001-04-26 2002-11-05 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
US20100029386A1 (en) * 2007-06-14 2010-02-04 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
JP2010000257A (ja) * 2008-06-20 2010-01-07 Namco Bandai Games Inc ゲームコントローラケース、ゲームコントローラケースセット、プログラム、及び情報記憶媒体
JP2010200792A (ja) * 2009-02-27 2010-09-16 Square Enix Co Ltd ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP2017055851A (ja) * 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
JP2017119033A (ja) * 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP2019033996A (ja) * 2017-08-18 2019-03-07 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置のプログラム、及び、ゲームシステム

Also Published As

Publication number Publication date
KR20230104959A (ko) 2023-07-11
CN116635119A (zh) 2023-08-22
JP2022102913A (ja) 2022-07-07

Similar Documents

Publication Publication Date Title
CN106924966B (zh) 游戏装置以及处理方法
US20110028214A1 (en) Music-based video game with user physical performance
US10441876B2 (en) Video game integrating recorded video
JP6123066B2 (ja) ゲーム装置及びゲームプログラム
JP6123118B2 (ja) ゲーム装置及びゲームプログラム
JP2019101050A (ja) 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置
JP6233809B2 (ja) ゲームシステム、それに用いられる制御方法及びコンピュータプログラム
US9751019B2 (en) Input methods and devices for music-based video games
JP6621156B1 (ja) ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
WO2022137958A1 (ja) ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
WO2022191170A1 (ja) ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
JP6449561B2 (ja) プログラム、ゲーム装置及びゲームシステム
JP2021104299A (ja) 観戦システム、観戦システム用のコンピュータプログラム、及び観戦システムの制御方法
JP7093590B1 (ja) ゲームシステム、コンピュータプログラム及び制御方法
JP7317364B2 (ja) ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
JP7174456B1 (ja) ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
WO2022137375A1 (ja) 方法、コンピュータ可読媒体、および情報処理装置
JP6661176B1 (ja) ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
JP6328286B2 (ja) ゲーム装置及びゲームプログラム
WO2013069647A1 (ja) ゲーム機、それに用いる制御方法及び、コンピュータプログラム
JP2022157561A (ja) ゲームシステム及びプログラム
JP2021010720A (ja) ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
JP2021010656A (ja) ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
JP2021104289A (ja) 観戦システム、観戦システム用のコンピュータプログラム、及び観戦システムの制御方法
JP2021104288A (ja) 観戦システム、観戦システム用のコンピュータプログラム、及び観戦システムの制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21910111

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20237019791

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180087065.2

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21910111

Country of ref document: EP

Kind code of ref document: A1