JP2019103728A - Program and game system - Google Patents

Program and game system Download PDF

Info

Publication number
JP2019103728A
JP2019103728A JP2017239510A JP2017239510A JP2019103728A JP 2019103728 A JP2019103728 A JP 2019103728A JP 2017239510 A JP2017239510 A JP 2017239510A JP 2017239510 A JP2017239510 A JP 2017239510A JP 2019103728 A JP2019103728 A JP 2019103728A
Authority
JP
Japan
Prior art keywords
information
animation
timing
music
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017239510A
Other languages
Japanese (ja)
Other versions
JP7144931B2 (en
Inventor
義人 矢野
Yoshihito Yano
義人 矢野
陽一 中矢
Yoichi Nakaya
陽一 中矢
渡辺 耕一郎
Koichiro Watanabe
耕一郎 渡辺
裕章 久保田
Hiroaki Kubota
裕章 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Studios Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2017239510A priority Critical patent/JP7144931B2/en
Publication of JP2019103728A publication Critical patent/JP2019103728A/en
Application granted granted Critical
Publication of JP7144931B2 publication Critical patent/JP7144931B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide highly entertaining program and game system in which animation of a moving object on the basis of a player operation is in accordance with timing of sound.SOLUTION: A game system includes: an animation processing unit 108 for performing animation processing of a moving object on the basis of player's operation information; and a timing processing unit 110 for determining reference timing on the basis of the player's operation information and for determining timing information on sound which is output during the game on the basis of the reference timing. The animation processing unit 108 performs animation processing of the moving object in accordance with timing information of sound.SELECTED DRAWING: Figure 1

Description

本発明は、プログラム及びゲームシステム等に関する。   The present invention relates to a program, a game system and the like.

従来より、プレーヤが音楽ゲームをプレイするためのゲームシステムが知られている。このゲームシステムでは、音出力部から楽曲が出力されると共に、表示部には、プレーヤの操作タイミングを指示するための指示マーク(音符)が表示される。プレーヤは、出力される楽曲を聞きながら、表示された指示マークにしたがった操作を行って、音楽ゲームを楽しむ。このようなゲームシステムの従来技術としては例えば特許文献1に開示される技術がある。   BACKGROUND Conventionally, a game system for a player to play a music game is known. In this game system, music is output from the sound output unit, and an instruction mark (note note) for instructing the operation timing of the player is displayed on the display unit. The player enjoys the music game by performing the operation according to the displayed instruction mark while listening to the outputted music. As a prior art of such a game system, there exists a technique disclosed by patent document 1, for example.

また特許文献2には、ユーザに音楽鑑賞を楽しませる手法として、音楽に合わせてキャラクタオブジェクトが動作する動画像を生成する手法が開示されている。   Further, Patent Document 2 discloses a method of generating a moving image in which a character object operates according to music as a method of making the user enjoy music appreciation.

特開2008−61764号公報JP 2008-61764 A 国際公開第2015/194509号International Publication No. 2015/194509

従来の音楽ゲームでは、プレーヤは音のタイミングに合わせて適切な操作を行う必要があり、難易度が高い。これに対して、従来より広く知られているアクションゲームの要素を、音楽ゲームに組み合わせることが考えられる。当該ゲームシステムでは、プレーヤ操作に基づいてキャラクタを動作させ、キャラクタの動作に合わせて楽曲等の音の出力制御を行う。このようにすれば、プレーヤは、キャラクタを操作するだけで楽曲を演奏をしているように感じられ、高揚感を得られる。   In the conventional music game, the player needs to perform an appropriate operation according to the timing of the sound, and the degree of difficulty is high. On the other hand, it is conceivable to combine elements of a widely known action game with a music game. In the game system, a character is moved based on a player operation, and output control of sounds such as music is performed according to the movement of the character. In this way, the player can feel like playing a music just by operating the character, and can get an uplifting feeling.

キャラクタの動作では、跳躍動作における着地や踏切のように、当該動作において特徴的なタイミングを規定できる。当該特徴的なタイミングと音のタイミングがずれている場合、プレーヤは音楽を演奏している感覚を得にくくなってしまい、興趣性に欠ける。また、キャラクタの動作が行われるタイミングや動作の内容は、プレーヤ操作によって決定されるため、特許文献2の手法のように音楽に合わせたキャラクタ動作(アニメーション)をあらかじめ作り込んでおくことは困難である。   In the motion of the character, it is possible to define the characteristic timing of the motion, such as landing or crossing in the jumping motion. If the characteristic timing and the timing of the sound are out of sync, it is difficult for the player to get a sense of playing music, and the player lacks interest. In addition, since the timing of the movement of the character and the content of the movement are determined by the player operation, it is difficult to create in advance the character movement (animation) matched to the music as in the method of Patent Document 2 is there.

本発明の幾つかの態様によれば、プレーヤ操作に基づく移動体のアニメーションを音のタイミングに合わせることで、興趣性の高いプログラム及びゲームシステム等を提供できる。   According to some aspects of the present invention, it is possible to provide a highly entertaining program and game system and the like by matching the animation of the moving body based on the player operation with the timing of the sound.

本発明の一態様は、プレーヤの操作情報に基づいて、移動体のアニメーション処理を行うアニメーション処理部と、前記プレーヤの操作情報に基づいて基準タイミングを決定し、前記基準タイミングに基づいて、ゲーム中に出力される音のタイミング情報を決定するタイミング処理部と、を含み、前記アニメーション処理部は、前記音のタイミング情報に合わせて、前記移動体の前記アニメーション処理を行うゲームシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to one aspect of the present invention, a reference timing is determined based on operation information of a moving object based on operation information of a player, and operation information of the player, and a game is played based on the reference timing. A timing processing unit that determines timing information of the sound to be output, and the animation processing unit relates to a game system that performs the animation processing of the moving object in accordance with the timing information of the sound. The present invention also relates to a program that causes a computer to function as the above-described sections or a computer-readable information storage medium storing the program.

本発明の一態様では、基準タイミングと音のタイミング情報を決定し、音のタイミング情報に合うように移動体のアニメーション処理が行われる。操作情報に基づいてアニメーション処理が行われる場合、移動体のアニメーションと音のタイミングをあらかじめ対応付けておくことは難しい。その点、本発明の一態様によれば、音のタイミングを適切に決定した上でアニメーション処理を行うことで、音に合わせた移動体のアニメーションを実現できる。   In one aspect of the present invention, the reference timing and the timing information of the sound are determined, and the animation processing of the moving object is performed so as to match the timing information of the sound. When animation processing is performed based on operation information, it is difficult to associate the animation of the moving object with the timing of the sound in advance. In that respect, according to one aspect of the present invention, by performing the animation process after appropriately determining the timing of the sound, it is possible to realize the animation of the moving object matched to the sound.

また本発明の一態様では、前記アニメーション処理部は、前記音のタイミング情報に基づいて、前記アニメーション処理に用いられる前記移動体のアニメーション情報の調整処理を行ってもよい。   In one aspect of the present invention, the animation processing unit may perform adjustment processing of animation information of the moving object used for the animation processing based on timing information of the sound.

このようにすれば、アニメーション情報の調整処理により、音に合わせた移動体のアニメーションを実現することが可能になる。   In this way, it is possible to realize the animation of the moving object matched to the sound by adjusting the animation information.

また本発明の一態様では、前記アニメーション処理部は、前記音のタイミング情報に合わせて前記移動体が動作するように、前記調整処理を行ってもよい。   In one aspect of the present invention, the animation processing unit may perform the adjustment processing such that the moving body operates in accordance with timing information of the sound.

このようにすれば、アニメーション情報の調整処理により、移動体を音のタイミングに合わせて動作させることが可能になる。   In this way, it is possible to operate the moving object in time with the timing of the sound by adjusting the animation information.

また本発明の一態様では、前記アニメーション情報には、キーフレームを表すキーフレーム情報が対応付けられており、前記アニメーション処理部は、前記音のタイミング情報により表されるタイミングと、前記キーフレーム情報により表される前記キーフレームの再生タイミングとが一致するように、前記調整処理を行ってもよい。   Further, according to one aspect of the present invention, key frame information representing a key frame is associated with the animation information, and the animation processing unit determines timing represented by timing information of the sound, and the key frame information. The adjustment process may be performed such that the reproduction timing of the key frame represented by

このようにすれば、キーフレーム情報に基づいて調整処理を行うことが可能になる。   In this way, it is possible to perform adjustment processing based on key frame information.

また本発明の一態様では、前記基準タイミングは、前記キーフレームの前記再生タイミングであってもよい。   In one aspect of the present invention, the reference timing may be the reproduction timing of the key frame.

このようにすれば、キーフレームの再生タイミングを基準タイミングとして用いることが可能になる。   In this way, it is possible to use the key frame reproduction timing as the reference timing.

また本発明の一態様では、前記アニメーション処理部は、前記アニメーション処理の対象となる前記アニメーション情報の決定処理を行い、決定された前記アニメーション情報に対して前記調整処理を行ってもよい。   In one aspect of the present invention, the animation processing unit may perform determination processing of the animation information to be an object of the animation processing, and perform the adjustment processing on the determined animation information.

このようにすれば、複数のアニメーション情報の中から適切なアニメーション情報を選択することが可能になる。   In this way, it is possible to select appropriate animation information from among a plurality of pieces of animation information.

また本発明の一態様では、前記アニメーション処理部は、前記音のタイミング情報に基づいて、前記アニメーション情報の前記決定処理を行ってもよい。   In one aspect of the present invention, the animation processing unit may perform the determination process of the animation information based on timing information of the sound.

このようにすれば、音のタイミング情報に基づいて、アニメーション情報の決定処理を行うことが可能になる。   In this way, it is possible to perform the process of determining the animation information based on the timing information of the sound.

また本発明の一態様では、前記音のタイミング情報には、パラメータが関連づけられており、前記アニメーション処理部は、前記パラメータに基づいて、前記アニメーション情報の前記決定処理を行ってもよい。   In one aspect of the present invention, a parameter may be associated with the timing information of the sound, and the animation processing unit may perform the determination process of the animation information based on the parameter.

このようにすれば、楽曲のパラメータに基づいて、アニメーション情報の決定処理を行うことが可能になる。   In this way, it is possible to perform the process of determining animation information based on the parameters of the music.

また本発明の一態様では、前記ゲーム内で再生される音は、楽曲情報により表される楽曲であり、前記パラメータは、音量、音程、及び音色の少なくとも1つに関するパラメータであってもよい。   In one aspect of the present invention, the sound reproduced in the game may be music represented by music information, and the parameter may be a parameter relating to at least one of volume, pitch, and timbre.

このようにすれば、楽曲の音量、音程、音色に関するパラメータに基づいて、決定処理を行うことが可能になる。   In this way, the determination process can be performed based on parameters relating to the volume, pitch, and timbre of the music.

また本発明の一態様では、前記ゲーム内で再生される音は、楽曲情報により表される楽曲であり、前記アニメーション処理部は、前記楽曲情報、前記プレーヤの操作情報、前記移動体が移動するフィールドの情報、及び前記移動体の状態を表す状態情報の少なくとも1つに基づいて、前記アニメーション情報の前記決定処理を行ってもよい。   In one aspect of the present invention, the sound reproduced in the game is music represented by music information, and the animation processing unit moves the music information, operation information of the player, and the moving body. The determination process of the animation information may be performed based on at least one of information of a field and state information indicating the state of the moving object.

このようにすれば、種々の情報に基づいて、アニメーション情報の決定処理を行うことが可能になる。   In this way, it is possible to perform the process of determining animation information based on various information.

本実施形態のゲームシステムの構成例。The structural example of the game system of this embodiment. 図2(A)〜図2(E)は本実施形態のゲームシステムを実現する種々の装置の例。FIGS. 2A to 2E show examples of various devices for realizing the game system of this embodiment. 図3(A)は本実施形態のゲームシステムで用いられる3次元マップの例、図3(B)は表示部に表示されるゲーム画面の例。FIG. 3A shows an example of a three-dimensional map used in the game system of the present embodiment, and FIG. 3B shows an example of a game screen displayed on the display unit. キャラクタの跳躍動作の例。Example of jumping action of character. 図5(A)〜図5(C)は跳躍動作に対応するゲーム画面の例。FIGS. 5A to 5C are examples of game screens corresponding to jumping operations. キャラクタのスライディング動作の例。Example of a sliding operation of a character. 図7(A)〜図7(C)はスライディング動作に対応するゲーム画面の例。FIGS. 7A to 7C show examples of game screens corresponding to the sliding operation. 楽曲部分の説明図。Explanatory drawing of a music part. エリアと時系列楽曲部分の対応付けの例。An example of the association of the area and the time series music part. 判定結果(ビートパラメータ)とパート楽曲部分の対応付けの例。The example of matching of a determination result (beat parameter) and a part music part. 図11(A)、図11(B)は本実施形態の処理を説明するフローチャート。FIGS. 11A and 11B are flowcharts for explaining the process of this embodiment. オブジェクト制御の例。Object control example. オブジェクト制御を説明するフローチャート。3 is a flowchart illustrating object control. モデルオブジェクト、スケルトン構造の例。Model object, example of skeleton structure. 骨の親子関係の説明図。Explanatory drawing of the parent-child relationship of a bone. アニメーション情報の具体例。Specific example of animation information. 拍のタイミングの説明図。Explanatory drawing of the timing of a beat. 基準タイミングと音のタイミングの関係例。Relation example of reference timing and timing of sound. アニメーション情報に対する調整処理の説明図。Explanatory drawing of the adjustment process with respect to animation information. アニメーション処理を説明するフローチャート。The flowchart explaining animation processing. アニメーション情報記憶部に記憶されるデータの例。An example of data stored in an animation information storage unit. 図22(A)〜図22(F)はキャラクタの回転動作の例。22 (A) to 22 (F) show examples of character rotation operation. 図23(A)〜図23(C)は複数のキーフレームを含むアニメーション情報に対する調整処理の説明図。FIGS. 23A to 23C are explanatory diagrams of adjustment processing for animation information including a plurality of key frames. アニメーション処理を説明する他のフローチャート。The other flowchart explaining animation processing.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, the present embodiment will be described. Note that the embodiments described below do not unduly limit the contents of the present invention described in the claims. Further, not all of the configurations described in the present embodiment are necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態のゲームシステム(ゲーム装置、画像生成システム、サーバシステム)のブロック図の例を示す。なお、本実施形態のゲームシステムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows an example of a block diagram of a game system (game device, image generation system, server system) of the present embodiment. The configuration of the game system according to this embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each part) or adding other components.

操作部160は、プレーヤ(ユーザ)が操作データを入力するためのものであり、その機能は、操作ボタン、方向指示キー、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、撮像部(カメラ)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for the player (user) to input operation data, and the function thereof is an operation button, a direction indication key, an analog stick, a lever, various sensors (angular velocity sensor, acceleration sensor, etc.), an imaging unit This can be realized by a (camera), a microphone, or a touch panel display.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM、SSD、或いはHDDなどにより実現できる。   The storage unit 170 is a work area such as the processing unit 100 and the communication unit 196, and the function thereof can be realized by a RAM, an SSD, an HDD, or the like.

記憶部170は、楽曲情報(BGM、音楽)を記憶する楽曲情報記憶部171、ゲーム進行履歴の情報(経過時間、ゲーム内パラメータ、キャラクタの移動履歴や移動方向等)を記憶するゲーム進行履歴記憶部172、移動体が移動するフィールドや当該フィールド上に配置されるオブジェクトの情報を記憶するフィールド・オブジェクト情報記憶部173、移動体(キャラクタ)のアニメーション情報を記憶するアニメーション情報記憶部174を含む。なお記憶部170の構成は図1に限定されず、記憶部170は、プレーヤによる操作入力の情報を記憶するバッファや、オブジェクトの描画処理に使用される描画バッファ等の不図示の構成を含んでもよい。   The storage unit 170 stores a music information storage unit 171 storing music information (BGM, music), and game progress history storage storing game progress history information (elapsed time, in-game parameters, character movement history, movement direction, etc.) The unit 172 includes a field / object information storage unit 173 storing information of a field in which the moving object moves and an object disposed on the field, and an animation information storage unit 174 storing animation information of the moving object (character). The configuration of the storage unit 170 is not limited to that shown in FIG. 1, and the storage unit 170 may include a not-shown configuration such as a buffer for storing information of operation input by the player and a drawing buffer used for object drawing processing. Good.

記憶媒体180(コンピュータにより読み取り可能な媒体)は、データやプログラムなどの各種の情報を記憶する。記憶媒体180は、SRAM、DRAMなどの半導体メモリーであってもよいし、レジスタであってもよいし、ハードディスク装置(HDD)などの磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、記憶媒体180はコンピュータにより読み取り可能な命令を格納しており、当該命令が処理部100(プロセッサ)により実行されることで、ゲームシステムの各部(通信部、処理部)の機能が実現されることになる。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、処理部100(プロセッサ)のハードウェア回路に対して動作を指示する命令であってもよい。   A storage medium 180 (a computer readable medium) stores various types of information such as data and programs. The storage medium 180 may be a semiconductor memory such as SRAM or DRAM, may be a register, or may be a magnetic storage device such as a hard disk drive (HDD), or an optical disk drive or the like. It may be a formula storage device. For example, the storage medium 180 stores an instruction readable by a computer, and the instruction is executed by the processing unit 100 (processor) to realize the function of each unit (communication unit, processing unit) of the game system. It will be The instruction here may be an instruction of an instruction set that configures a program, or may be an instruction that instructs a hardware circuit of the processing unit 100 (processor) to operate.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、各種プロジェクター型ディスプレイ、或いはHMDなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and the function thereof can be realized by an LCD, an organic EL display, a CRT, various projector-type displays, an HMD, or the like. The sound output unit 192 outputs the sound generated according to the present embodiment, and the function thereof can be realized by a speaker, headphones, or the like.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、プレーヤがゲームプレイするための各種情報が記憶されるものであり、ICカード(メモリーカード)、USBメモリ、或いは磁気カードなどにより実現できる。   An I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function thereof can be realized by an ASIC or the like for I / F processing. The portable information storage medium 195 stores various information for the player to play a game, and can be realized by an IC card (memory card), a USB memory, a magnetic card or the like.

通信部196は、有線や無線のネットワークを介して外部装置(例えば他のゲーム装置、管理装置、サーバシステム等)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 performs communication with an external device (for example, another game device, management device, server system, etc.) via a wired or wireless network, and the function thereof is communication ASIC or for communication It can be realized by hardware such as a processor or firmware for communication.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバシステム(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバシステムによる記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each part of this embodiment is distributed from the information storage medium included in the server system (host device) to the storage medium 180 (or storage part 170) via the network and the communication part 196. You may The use of storage media by such server systems can also be included within the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報やプログラムなどに基づいて、ゲーム処理、表示処理、或いは音処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。処理部110が行う本実施形態の各処理(各機能)は、プロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリー(記憶装置)により実現できる。ここでのプロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することができる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただし、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASIC(application specific integrated circuit)によるハードウェア回路でもよい。またプロセッサは、複数のCPUにより構成されていてもよいし、複数のASICによるハードウェア回路により構成されていてもよい。また、プロセッサは、複数のCPUと、複数のASICによるハードウェア回路と、の組み合わせにより構成されていてもよい。   The processing unit 100 (processor) performs game processing, display processing, sound processing, and the like based on operation information and a program from the operation unit 160. The processing unit 100 performs various processing with the storage unit 170 as a work area. Each process (each function) of this embodiment which processing part 110 performs is realizable with a processor (processor containing hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory (storage device) that stores information such as a program. The processor in this case may realize, for example, the function of each unit by separate hardware, or the function of each unit may be realized by integral hardware. For example, the processor may include hardware, which may include at least one of circuitry for processing digital signals and circuitry for processing analog signals. For example, the processor can be configured by one or more circuit devices (for example, an IC or the like) or one or more circuit elements (for example, a resistor, a capacitor or the like) mounted on a circuit board. The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a graphics processing unit (GPU) or a digital signal processor (DSP) can be used. The processor may also be a hardware circuit with an application specific integrated circuit (ASIC). The processor may be configured by a plurality of CPUs, or may be configured by a hardware circuit of a plurality of ASICs. The processor may be configured by a combination of a plurality of CPUs and a hardware circuit of a plurality of ASICs.

処理部100は、入力受け付け部102、ゲーム処理部104、キャラクタ処理部106、楽曲再生部112、オブジェクト制御部114、判定部116、表示処理部120を含む。また、キャラクタ処理部106は、アニメーション処理部108、タイミング処理部110を含む。なおこれらの構成要素の一部を省略したり、他の構成要素を追加するなどの変形実施が可能である。   The processing unit 100 includes an input receiving unit 102, a game processing unit 104, a character processing unit 106, a music reproduction unit 112, an object control unit 114, a determination unit 116, and a display processing unit 120. Also, the character processing unit 106 includes an animation processing unit 108 and a timing processing unit 110. Note that modifications may be made such as omitting some of these components or adding other components.

入力受け付け部102は、プレーヤの操作情報(入力情報)の受け付け処理を行う。例えば操作部160を用いてプレーヤが入力した操作の受け付け処理を行う。例えば操作部160からのデータをサンプリングし、A/D変換などを行って操作情報として受け付ける。   The input receiving unit 102 performs processing of receiving operation information (input information) of the player. For example, using the operation unit 160, processing for receiving an operation input by the player is performed. For example, data from the operation unit 160 is sampled, subjected to A / D conversion and the like, and accepted as operation information.

ゲーム処理部104はゲーム処理(ゲーム演算処理)を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。またゲーム処理部104は、プレーヤのゲーム成績(得点、ポイント)の演算処理を行う。   The game processing unit 104 performs game processing (game operation processing). Here, the game processing includes processing for starting the game when the game start condition is satisfied, processing for advancing the game, and processing for ending the game when the game end condition is satisfied. In addition, the game processing unit 104 performs calculation processing of the game score (score, point) of the player.

キャラクタ処理部106は、プレーヤがゲーム内で操作するキャラクタに関する処理を行う。キャラクタは、例えば後述する人型のキャラクタCAである。ただし、プレーヤによる操作対象は種々の移動体に拡張可能であり、キャラクタ処理部106を移動体に関する処理を行う移動体処理部に拡張して考えることも可能である。   The character processing unit 106 performs processing on characters that the player operates in the game. The character is, for example, a human-shaped character CA described later. However, the operation target by the player can be extended to various moving objects, and the character processing unit 106 can be considered to be extended to a moving object processing unit that performs processing related to the moving object.

キャラクタ処理部106のアニメーション処理部108は、キャラクタのアニメーション処理を行う。具体的には、記憶部170のアニメーション情報記憶部174は、複数のアニメーション情報(モーション情報)を記憶しており、各アニメーション情報は、キャラクタの所与の動作(アクション、モーション、アニメーション)に対応する。アニメーション処理部108は、操作情報やオブジェクト情報に基づいて適切なアニメーション情報を決定(選択)し、当該アニメーション情報を再生する処理(モーション再生処理)を行うことで、キャラクタのアニメーションを実現する。   The animation processing unit 108 of the character processing unit 106 performs animation processing of the character. Specifically, the animation information storage unit 174 of the storage unit 170 stores a plurality of animation information (motion information), and each animation information corresponds to a given action (action, motion, animation) of the character. Do. The animation processing unit 108 determines (selects) appropriate animation information based on the operation information and the object information, and performs a process of reproducing the animation information (motion reproduction process) to realize the animation of the character.

また、本実施形態のアニメーション処理部108は、キャラクタのアニメーションを音(楽曲)に合わせるような調整処理を行う。タイミング処理部110は、操作情報や楽曲情報に基づいて、調整処理に必要なタイミング(基準タイミング、音のタイミング)の特定処理を行う。アニメーション処理部108は、タイミング処理部110で特定されたタイミングに基づいて、アニメーション情報に対する調整処理を行う。   Further, the animation processing unit 108 of the present embodiment performs adjustment processing to match the animation of the character with the sound (music). The timing processing unit 110 performs processing of specifying timing (reference timing, timing of sound) necessary for the adjustment processing based on the operation information and the music information. The animation processing unit 108 adjusts the animation information based on the timing specified by the timing processing unit 110.

楽曲再生部112は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、楽曲(BGM)を生成し、音出力部192に出力する。なお、以下の説明では楽曲再生部112における再生処理の対象が楽曲(BGM)である例を説明するが、楽曲再生部112は、効果音、又は音声などの楽曲以外のゲーム音を生成し、音出力部192に出力してもよい。   The music reproduction unit 112 performs sound processing based on the results of various processes performed by the processing unit 100, generates a music (BGM), and outputs the music (BGM) to the sound output unit 192. In the following description, although an example in which the target of reproduction processing in the music reproduction unit 112 is music (BGM) will be described, the music reproduction unit 112 generates game sounds other than music such as sound effects or sounds, It may be output to the sound output unit 192.

オブジェクト制御部114は、キャラクタが移動するフィールドに配置され、キャラクタによる動作の対象となるオブジェクトの制御を行う。オブジェクト制御部114は、ゲームの進行履歴に基づいてオブジェクトの配置等に関する制御を行う。   The object control unit 114 is disposed in the field in which the character moves, and controls an object which is a target of an operation by the character. The object control unit 114 performs control relating to the arrangement of objects, etc., based on the game progress history.

判定部116はプレーヤの操作情報に基づく判定処理を行う。例えば判定部116は、プレーヤに対応するキャラクタの位置、オブジェクトの位置、プレーヤが入力した操作の種類等の情報に基づいて、オブジェクトに対するキャラクタの動作が成功したか否かを判定する。   The determination unit 116 performs a determination process based on the player's operation information. For example, the determination unit 116 determines whether the motion of the character on the object has succeeded based on the information such as the position of the character corresponding to the player, the position of the object, and the type of operation input by the player.

表示処理部120は、表示部190にゲーム画像等の画像を表示するための処理(画像生成処理等)を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。例えば3次元ゲーム用の画像を生成する場合には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   The display processing unit 120 performs processing (image generation processing and the like) for displaying an image such as a game image on the display unit 190. For example, drawing processing is performed based on the results of various processing (game processing, simulation processing) performed by the processing unit 100, and thereby an image is generated and output to the display unit 190. For example, when generating an image for a three-dimensional game, geometry processing such as coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, perspective conversion, or light source processing is performed, and based on the processing result, Drawing data (position coordinates of vertices of primitive surface, texture coordinates, color data, normal vector or α value, etc.) is created. Then, based on the drawing data (primitive plane data), the object (one or a plurality of primitive planes) after perspective conversion (after geometry processing) is stored with image information in pixel units such as a drawing buffer (frame buffer, work buffer, etc.) Can be drawn into the This generates an image viewed from a virtual camera (given viewpoint) in the object space.

図2(A)に本実施形態のゲームシステムを実現する装置の一例を示す。図2(A)は本実施形態のゲームシステムを携帯型ゲーム装置で実現する場合の例である。この携帯型ゲーム装置は、操作部160として機能する操作ボタン10、11、12、13、方向指示キー14、アナログスティック16、18、R、Lキー20、22や、液晶ディスプレイにより実現される表示部190を有する。なお本実施形態のゲームシステムを実現する装置は図2(A)に限定されず、種々の変形実施が可能である。例えば本実施形態のゲームシステムを実現する装置は、図2(B)に示す家庭用ゲーム装置(据え置き型)、図2(C)に示す携帯型通信端末(スマートフォン、フューチャーフォン、携帯電話機)、図2(D)に示す業務用ゲーム装置などであってもよい。或いは図2(E)に示すように本実施形態のゲームシステムは、端末装置TM1〜TMnとネットワーク510を介して通信接続されるサーバシステム500などにより実現してもよい。例えば本実施形態のゲームシステムの各処理を、サーバシステム500と端末装置TM1〜TMnの分散処理等により実現してもよい。TM1〜TMnの各端末装置は例えば図2(A)〜図2(D)に示すような各種の装置により実現できる。   An example of the apparatus which implement | achieves the game system of this embodiment to FIG. 2 (A) is shown. FIG. 2A is an example of the case where the game system of this embodiment is realized by a portable game device. This portable game device is a display realized by the operation buttons 10, 11, 12, 13 functioning as the operation unit 160, the direction indication key 14, the analog sticks 16, 18, R, L keys 20, 22 or a liquid crystal display It has a section 190. The device for realizing the game system of the present embodiment is not limited to FIG. 2A, and various modifications can be made. For example, a device for realizing the game system according to the present embodiment includes a home-use game device (stationary type) shown in FIG. 2 (B), a portable communication terminal (smart phone, future phone, mobile phone) shown in FIG. It may be an arcade game device shown in FIG. 2 (D). Alternatively, as shown in FIG. 2E, the game system according to the present embodiment may be realized by a server system 500 or the like communicably connected to the terminal devices TM1 to TMn via the network 510. For example, each process of the game system of the present embodiment may be realized by distributed processing of the server system 500 and the terminal devices TM1 to TMn. Each terminal device of TM1 to TMn can be realized by, for example, various devices as shown in FIG. 2 (A) to FIG. 2 (D).

図1に示したように、本実施形態のゲームシステムは、アニメーション処理部108、タイミング処理部110を含む。アニメーション処理部108は、プレーヤの操作情報に基づいて、移動体のアニメーション処理を行う。タイミング処理部110は、プレーヤの操作情報に基づいて基準タイミングを決定し、基準タイミングに基づいて、ゲーム中に出力される音のタイミング情報を決定する。さらにアニメーション処理部108は、音のタイミング情報に合わせて、移動体のアニメーション処理を行う。   As shown in FIG. 1, the game system of the present embodiment includes an animation processing unit 108 and a timing processing unit 110. The animation processing unit 108 performs animation processing of the moving object based on the operation information of the player. The timing processing unit 110 determines the reference timing based on the operation information of the player, and determines the timing information of the sound to be output during the game based on the reference timing. Furthermore, the animation processing unit 108 performs animation processing of the moving object in accordance with the timing information of the sound.

操作情報とは、プレーヤが操作部160に対して行った操作の内容(結果)を表す情報である。例えば操作情報は、図2(A)の操作ボタン10、11、12、13、方向指示キー14、アナログスティック16、18、R、Lキー20、22のいずれに対する操作が行われたかを表す情報である。また操作情報は、プレーヤにより操作が行われたタイミングを特定する情報を含んでもよい。   The operation information is information representing the content (result) of the operation performed by the player on the operation unit 160. For example, the operation information is information indicating which of the operation buttons 10, 11, 12, and 13 in FIG. 2A, the direction indication key 14, and the analog sticks 16, 18, R, and L keys 20 and 22 are operated. It is. The operation information may also include information specifying the timing at which the player performed an operation.

移動体とは、ゲームシステムにおいてプレーヤの操作情報に基づいてゲームマップ(狭義には3次元マップ)を移動するオブジェクトである。移動体は実空間のプレーヤに対応して仮想空間で移動するプレーヤ移動体である。移動体は、狭義には後述するキャラクタCA(プレーヤキャラクタ、アバター)である。ただし移動体として、車、バイク、飛行機等の乗り物を用いてもよい。即ち、本実施形態における移動体は、ゲームシステム中で形成される仮想的な空間を移動可能な種々のオブジェクトに拡張することが可能である。仮想カメラから見える画像は三人称視点の画像でもよく、一人称視点の画像でもよい。移動体であるプレーヤ移動体(キャラクタ)は、ゲーム画像に表示されるオブジェクトであってもよいし、ゲーム画像に表示されない仮想的なオブジェクトであってもよい。   The moving object is an object that moves a game map (three-dimensional map in a narrow sense) based on operation information of the player in the game system. The moving body is a player moving body that moves in the virtual space corresponding to the player in the real space. The moving body is, in a narrow sense, a character CA (player character, avatar) described later. However, a vehicle such as a car, a motorcycle, or an airplane may be used as the moving body. That is, the moving body in the present embodiment can extend the virtual space formed in the game system to various movable objects. The image viewed from the virtual camera may be a third person viewpoint image or a first person viewpoint image. The player moving body (character), which is a moving body, may be an object displayed in the game image or a virtual object not displayed in the game image.

基準タイミングとは、アニメーション処理(狭義にはアニメーション情報の再生処理)の基準となるタイミング(或いは、当該タイミングを表す情報)である。基準タイミングは、例えば再生対象となるアニメーション情報における特徴的なタイミングであり、狭義にはキーフレームの再生タイミングを表す。基準タイミング(後述する図18のt)は、例えば操作情報に基づいてアニメーション情報の再生開始タイミング(図18のt)が特定されることで特定可能になる。 The reference timing is timing (or information representing the timing) as a reference of animation processing (in a narrow sense, reproduction processing of animation information). The reference timing is, for example, a characteristic timing in the animation information to be reproduced, and in a narrow sense, represents the reproduction timing of the key frame. The reference timing (t K in FIG. 18 described later) can be specified by specifying the reproduction start timing (t S in FIG. 18) of the animation information based on, for example, the operation information.

音のタイミング情報とは、音出力部192で出力される音の特徴的なタイミングを表す情報である。以下、音のタイミング情報により表されるタイミングを、音のタイミングと表記する。なお、ここでの音は狭義には楽曲であり、音のタイミングとは楽曲の特徴タイミングのうちの、基準タイミングに対応するタイミングである。楽曲の特徴タイミングとは、当該楽曲にとって特徴的なタイミングのことであり、例えば後述する拍のタイミングや、所定のパートの音が出力されるタイミングである。ただし、ここでの音とは特徴的なタイミングが規定可能な音であればよく、例えば一定の間隔、リズムで出力される効果音(SE)等の種々の音に拡張して考えることが可能である。   The sound timing information is information that represents the characteristic timing of the sound output from the sound output unit 192. Hereinafter, the timing represented by the timing information of the sound is referred to as the timing of the sound. Here, the sound is a music in a narrow sense, and the timing of the sound is a timing corresponding to the reference timing among the characteristic timings of the music. The characteristic timing of the music is the timing characteristic of the music, for example, the timing of beats described later, or the timing at which the sound of a predetermined part is output. However, the sound here may be a sound whose characteristic timing can be defined. For example, it can be considered to be extended to various sounds such as sound effects (SE) outputted at constant intervals and rhythms. It is.

本実施形態の手法によれば、操作情報に基づいてアニメーション処理を行う場合において、基準タイミングと音のタイミングを合わせることで、アニメーションと音の連動性を高めることが可能になる。結果として、音に合わせて移動体(キャラクタ)を動作させている感覚、或いは、移動体を動作させることで音を奏でている感覚を、プレーヤに与えることが可能になる。本実施形態の手法では、プレーヤに爽快感、高揚感を与えるゲームシステムを実現することが可能になる。   According to the method of the present embodiment, when performing animation processing based on operation information, it is possible to improve the interlocking between animation and sound by matching the reference timing with the timing of the sound. As a result, it is possible to give the player the feeling of moving the moving object (character) in accordance with the sound, or the feeling of playing a sound by moving the moving object. According to the method of the present embodiment, it is possible to realize a game system that gives the player a feeling of exhilaration and a sense of exhilaration.

またアニメーション処理部108は、音のタイミング情報に基づいて、アニメーション処理に用いられる移動体のアニメーション情報の調整処理を行う。より具体的には、アニメーション処理部108は、音のタイミング情報に合わせて移動体が動作するように、調整処理を行う。   Also, the animation processing unit 108 performs adjustment processing of animation information of a moving object used for animation processing based on timing information of sound. More specifically, the animation processing unit 108 performs adjustment processing so that the moving body operates in accordance with the timing information of the sound.

アニメーション情報は、移動体に対して所定の動作を行わせるための情報であり、例えば図16を用いて後述するように、移動体の姿勢(スケルトンの姿勢)を表す情報の集合である。本実施形態では、アニメーション情報の再生処理が実行されるタイミングは、プレーヤの操作情報によって決定されるため、アニメーション情報と音の時間的な関係(基準タイミングと音のタイミングの関係)は、操作情報が入力されるまでわからない。よって本実施形態では、アニメーション情報に対して調整処理を行う。このようにすれば、操作情報が入力されるタイミングによらず、音とアニメーションの連動性を高めることが可能になる。   The animation information is information for causing the moving object to perform a predetermined operation, and is a set of information representing the attitude of the moving object (the attitude of the skeleton) as described later with reference to FIG. 16, for example. In the present embodiment, since the timing at which the reproduction process of the animation information is executed is determined by the operation information of the player, the temporal relationship between the animation information and the sound (the relationship between the reference timing and the timing of the sound) Do not know until is entered. Therefore, in the present embodiment, adjustment processing is performed on animation information. In this way, it is possible to improve the interlocking between the sound and the animation regardless of the timing at which the operation information is input.

またアニメーション情報には、キーフレームを表すキーフレーム情報が対応付けられており、アニメーション処理部108は、音のタイミング情報により表されるタイミングと、キーフレーム情報により表されるキーフレームの再生タイミングとが一致するように、調整処理を行う。即ち、基準タイミングは、キーフレームの再生タイミングであってもよい。   In addition, key frame information representing a key frame is associated with the animation information, and the animation processing unit 108 determines the timing represented by the timing information of the sound and the reproduction timing of the key frame represented by the key frame information. Make adjustment processing so that. That is, the reference timing may be the key frame reproduction timing.

キーフレームとは、アニメーション情報を構成する複数のフレームのうちの特徴的なフレームを表す。キーフレームの再生タイミングと音のタイミングを一致させる(時間差を低減する)処理を行うことで、移動体のアニメーションと音を連動させるようなアニメーション情報の調整処理を実現することが可能になる。   The key frame represents a characteristic frame among a plurality of frames constituting the animation information. By performing processing of matching key frame playback timing and sound timing (reducing the time difference), it becomes possible to realize animation information adjustment processing that links the animation of the moving object with the sound.

またアニメーション処理部108は、アニメーション処理の対象となるアニメーション情報の決定処理を行い、決定されたアニメーション情報に対して調整処理を行う。このようにすれば、多様なアニメーション情報から適切なアニメーション情報を決定(選択)することが可能になる。   Further, the animation processing unit 108 performs determination processing of animation information to be an animation processing target, and performs adjustment processing on the determined animation information. In this way, it is possible to determine (select) appropriate animation information from various animation information.

例えばアニメーション処理部108は、音のタイミング情報に基づいて、アニメーション情報の決定処理を行う。音のタイミング情報は上記のように移動体のアニメーションと音との連動性を決定する要素である。そのため、音のタイミング情報を用いることで、音とアニメーションの関係を考慮した決定処理、例えば音との連動性が高いアニメーション情報を再生対象とするような決定処理を実現できる。   For example, the animation processing unit 108 performs a process of determining animation information based on timing information of a sound. The timing information of the sound is an element that determines the link between the animation of the moving object and the sound as described above. Therefore, by using the timing information of the sound, it is possible to realize the determination processing in consideration of the relationship between the sound and the animation, for example, the determination processing in which the animation information having high interlocking with the sound is reproduced.

また音のタイミング情報には、パラメータが関連づけられており、アニメーション処理部108は、当該パラメータに基づいて、アニメーション情報の決定処理を行う。狭義には、ゲーム内で再生される音は、楽曲情報により表される楽曲であり、パラメータは、音量、音程、及び音色の少なくとも1つに関するパラメータである。   A parameter is associated with the timing information of the sound, and the animation processing unit 108 performs a process of determining animation information based on the parameter. In a narrow sense, the sound reproduced in the game is music represented by music information, and the parameters are parameters relating to at least one of volume, pitch, and timbre.

ここで音量とは、音の大きさ(信号レベル)を表し、音程とは音の高低(信号の周波数)を表し、音色とは音の波形(信号波形、例えばエンベロープ)を表す。ただし音色に関するパラメータとして、音の出力元である楽器(パート)を表す情報を用いてもよい。   Here, the volume refers to the size of the sound (signal level), the pitch refers to the pitch of the sound (frequency of the signal), and the timbre refers to the waveform of the sound (signal waveform, for example, an envelope). However, information representing a musical instrument (part) that is an output source of a sound may be used as a parameter related to timbre.

このようにすれば、音(楽曲)のパラメータに応じてアニメーション情報を決定することが可能になる。例えば静かな楽曲では動きの小さいアニメーション情報を対象して決定し、激しい楽曲では動きの大きいアニメーション情報を対象として決定する処理等が可能になる。   In this way, animation information can be determined according to the parameters of the sound (music). For example, in the case of a quiet music, it is possible to make a decision on animation information with small motion, and in the case of a violent music, it is possible to make a process of deciding animation information with large motion.

またアニメーション処理部108は、楽曲情報、プレーヤの操作情報、移動体が移動するフィールドの情報、及び移動体の状態を表す状態情報の少なくとも1つに基づいて、アニメーション情報の決定処理を行ってもよい。   Also, the animation processing unit 108 may perform animation information determination processing based on at least one of music information, player operation information, information of a field in which the moving object moves, and state information indicating the state of the moving object. Good.

楽曲情報とは、例えば上述した音量、音程、音色の情報であってもよいし、楽曲のジャンルや作曲者等の他の情報であってもよい。操作情報とは、例えば図2(A)等のように多様な入力インターフェースを有する操作部160において、いずれの入力インターフェースが操作対象となったかを表す情報(操作の種類情報)である。また、移動体が移動するフィールドとは、例えば後述するフィールドFEであってもよいし、オブジェクトOBを含んでもよい。移動体の状態とは、例えば移動体の現在の位置、姿勢、移動速度や、過去の位置、姿勢、移動速度の履歴である。また移動体に体力や耐久度等のゲーム内パラメータが設定される場合、移動体の状態情報として当該パラメータを用いてもよい。このようにすれば、ゲーム内で用いられる多様な情報に基づいて、適切なアニメーション情報を再生処理の対象として決定することが可能になる。   The music information may be, for example, the information of the volume, the pitch, and the timbre described above, or may be other information such as a genre of music or a composer. The operation information is information (operation type information) indicating which input interface has become an operation target in the operation unit 160 having various input interfaces as shown in FIG. 2A, for example. Further, the field in which the mobile unit moves may be, for example, a field FE described later or may include the object OB. The state of the moving body is, for example, a history of the current position, attitude, moving speed, past position, attitude, moving speed of the moving body. When an in-game parameter such as strength and endurance is set to the moving object, the parameter may be used as state information of the moving object. In this way, it is possible to determine appropriate animation information as a target of reproduction processing based on various information used in the game.

また図1に示したように、本実施形態のゲームシステムは、ゲーム処理部104、楽曲再生部112、キャラクタ処理部106、判定部116を含む。ゲーム処理部104は、ゲームの進行処理を行う。楽曲再生部112は、楽曲の再生処理を行う。キャラクタ処理部106は、プレーヤの操作情報に基づいてプレーヤに対応するキャラクタを、ゲーム空間のフィールドにおいて移動させる処理を行う。判定部116は、プレーヤの操作情報に基づいて、フィールドに配置されるオブジェクトに対するキャラクタの動作が成功したか否かを判定する。本実施形態では、楽曲再生部112は、フィールドでのキャラクタの存在エリアに応じて抽出した、楽曲の一部である楽曲部分を再生する制御を行う。さらに楽曲再生部112は、判定部116での判定結果に基づいて、楽曲部分の再生態様を変化させる制御を行う。   Further, as shown in FIG. 1, the game system of the present embodiment includes a game processing unit 104, a music reproduction unit 112, a character processing unit 106, and a determination unit 116. The game processing unit 104 performs game progress processing. The music reproduction unit 112 reproduces music. The character processing unit 106 performs a process of moving a character corresponding to the player in the field of the game space based on the operation information of the player. The determination unit 116 determines whether or not the action of the character on the object arranged in the field is successful based on the operation information of the player. In the present embodiment, the music reproduction unit 112 performs control to reproduce the music portion which is a part of the music extracted according to the presence area of the character in the field. Furthermore, the music reproduction unit 112 performs control to change the reproduction mode of the music portion based on the determination result of the determination unit 116.

ここでの楽曲部分とは、楽曲を演奏の時間軸方向に分割した一部(後述する時系列楽曲部分)、及び楽曲を楽曲パート毎に分割した一部(後述するパート楽曲部分)の少なくとも一方である。一例としては、後述するようにフィールドに設定される複数のエリアの各エリアに対して時系列楽曲部分が対応付けられており、楽曲再生部112は、キャラクタの存在エリアに基づいて、再生対象の時系列楽曲部分を決定する。そして楽曲再生部112は、再生態様を変化させる制御として、再生対象となるパート楽曲部分を変化させる制御を行う。ただし、所定エリアにギターを対応付け、他のエリアにドラムを対応付ける等、エリアに対してパート楽曲部分を対応付ける変形実施も可能である。   Here, the music part is at least one of a part obtained by dividing the music in the time axis direction of the performance (a time-series music part described later) and a part obtained by dividing the music for each music part (part music part described later) It is. As an example, a time-sequential music portion is associated with each area of a plurality of areas set in the field as described later, and the music reproduction unit 112 is a reproduction target based on the existence area of the character. Determine the time series music part. Then, as the control for changing the reproduction mode, the music reproduction unit 112 performs control for changing the part music part to be reproduced. However, a modification is also possible in which the part music part is associated with the area, for example, the guitar is associated with the predetermined area and the drum is associated with the other area.

このようにすれば、プレーヤによるキャラクタの操作に対応した楽曲の再生処理が可能になる。プレーヤから見れば、キャラクタをどのエリアに移動させるかに応じて、楽曲部分の選択(狭義には時系列方向での楽曲制御)が可能であるし、オブジェクトに対する動作を成功させることで、再生態様の変更(パート方向での楽曲制御)が可能である。即ち、適切なエリア移動、及びオブジェクトに対する動作を行うことで、自然に楽曲を演奏できるような興趣性の高いゲームシステム(プログラム)を実現できる。本実施形態のゲームシステムは従来の音楽ゲームのような難しい操作が不要である。さらに、本実施形態におけるオブジェクトに対する動作は、従来のアクションゲームのような単なる移動手段ではなく、演奏(音の厚み)を決定する重要な要素となる。そのため、当該動作自体をアクロバティック、スタイリッシュにすることで、プレーヤに爽快感を与えるゲームシステムを実現できる。   In this way, it becomes possible to reproduce music according to the operation of the character by the player. From the player's point of view, depending on which area the character is moved to, it is possible to select the music part (in a narrow sense, music control in the time series direction), and by making the operation on the object succeed, the reproduction mode Change (music control in the part direction) is possible. That is, by performing appropriate area movement and operation on an object, it is possible to realize a highly entertaining game system (program) that can naturally play music. The game system of the present embodiment does not require such a difficult operation as a conventional music game. Furthermore, the action on the object in the present embodiment is not a mere moving means as in the conventional action game, but an important factor in determining the performance (the thickness of the sound). Therefore, by making the operation itself acrobatic and stylish, it is possible to realize a game system that gives the player a sense of exhilaration.

また、本実施形態のゲームシステムは、オブジェクトを制御するオブジェクト制御部114を含む。オブジェクト制御部114は、判定部116での判定結果に基づいて、キャラクタの動作対象とは異なるオブジェクトに対する制御を行う。   Further, the game system of the present embodiment includes an object control unit 114 that controls an object. The object control unit 114 controls the object different from the movement target of the character based on the determination result of the determination unit 116.

ここでのオブジェクトに対する制御とは、オブジェクトの配置/非配置を切り替える制御であってもよいし、配置済みのオブジェクトを変形させる制御であってもよい。或いは、オブジェクトの配置位置、配置姿勢、配置対象となるオブジェクトの種類を動的に決定する制御であってもよい。或いは、オブジェクトを発光(点滅)させたり、色を変更する制御であってもよい。   Here, the control on the object may be control to switch the placement / non-placement of the object, or may be control to deform the placed object. Alternatively, control may be performed to dynamically determine the arrangement position of the object, the arrangement posture, and the type of the object to be arranged. Alternatively, control may be made to cause the object to emit light (flash) or to change the color.

このようにすれば、オブジェクトに対する動作の結果を、楽曲制御だけでなくオブジェクト制御に利用することが可能になる。本実施形態では、オブジェクトに対する動作が楽曲制御のトリガーとなる。そのため、キャラクタがオブジェクトに対する動作を継続的に行うように、プレーヤに対して操作を促す必要があると考えられる。さらに、適切なエリア移動が必要であること(エリアと楽曲部分が対応付けられているため)や、ゲームシステムの興趣性を高めることを考えた場合、同じオブジェクトを継続して動作対象とするのではなく、次々に異なるオブジェクトに対して動作が行われることが望ましい。その点、所与のオブジェクトに対する動作を、異なるオブジェクトに対する制御のトリガーとすることで、プレーヤを適切にガイドすること等が可能になる。より具体的には、現在の動作対象とは異なるオブジェクトを目立たせるような制御を行うことで、当該異なるオブジェクトが次の動作対象に適していることを、プレーヤに示すことが可能になる。   In this way, it becomes possible to use the result of the operation on the object not only for music control but also for object control. In the present embodiment, the action on the object serves as a trigger for music control. Therefore, it is considered necessary to prompt the player to perform an operation so that the character continuously performs an action on the object. Furthermore, if it is considered that appropriate area movement is necessary (because areas and music parts are associated) and that the game system is made more interesting, the same object is continuously targeted for operation. Instead, it is desirable that operations be performed on different objects one after another. In that respect, by using an operation on a given object as a trigger for control on a different object, it becomes possible to properly guide the player. More specifically, by performing control to make an object different from the current operation target stand out, it is possible to show the player that the different object is suitable for the next operation target.

オブジェクト制御部114は、ゲームの進行履歴に基づいて、オブジェクトの制御を行う。ここでのゲームの進行履歴とは、ゲームの経過時間、キャラクタの進行方向、及びプレーヤの操作入力の結果、の少なくとも1つである。ここで、ゲームの経過時間とは、ゲーム開始時からの経過時間であってもよいし、楽曲の演奏開始からの経過時間であってもよいし、所与のエリアでの滞在時間であってもよい。キャラクタの進行方向とは、キャラクタの位置の変位を表す情報であり、例えば異なる2タイミング間でのキャラの位置の差分を表すベクトル情報である。操作入力の結果とは、狭義には判定部116の判定結果であり、過去の動作についての成功/失敗の情報や、成功回数、失敗回数の情報である。或いは、跳躍動作を何回実行した等の情報(後述する図21における「動作属性」や、その実行回数等)を操作入力の結果として用いてもよい。   The object control unit 114 controls an object based on the game progress history. The game progress history here is at least one of the elapsed time of the game, the progress direction of the character, and the result of the player's operation input. Here, the elapsed time of the game may be an elapsed time from the start of the game, or may be an elapsed time from the start of playing a music, or a stay time in a given area. It is also good. The traveling direction of the character is information representing the displacement of the position of the character, and is, for example, vector information representing the difference in the position of the character between two different timings. The result of the operation input is, in a narrow sense, the determination result of the determination unit 116, and is information on success / failure of the past operation, information on the number of successes, and information on the number of failures. Alternatively, information such as how many times the jumping operation has been performed (“operation attribute” in FIG. 21 described later, the number of executions thereof, etc.) may be used as the result of the operation input.

図3(A)、図3(B)を用いて後述するように、キャラクタの背面に仮想カメラが配置される場合(三人称視点の場合)、プレーヤはキャラクタの進行方向の領域をゲーム画面上で観察することになる。よって、現在動作対象としているオブジェクトよりも、キャラクタの進行方向側に新たなオブジェクトを配置するような制御を行うことで、当該新たなオブジェクトの存在を明確にプレーヤに知らせることが可能になり、ゲームプレイをスムーズにできる。その他、経過時間や操作入力の結果を用いることで、ゲーム内の状況に合わせた柔軟なオブジェクト制御が可能になる。なお、ゲームの進行履歴は上記の情報に限定されず、ゲーム処理部104によるゲーム処理の過程で取得可能な種々の情報に拡張することが可能である。   As described later with reference to FIGS. 3A and 3B, when a virtual camera is disposed on the back of the character (in the case of the third person viewpoint), the player moves the region of the character in the advancing direction on the game screen. It will be observed. Therefore, it is possible to clearly notify the player of the presence of the new object by performing control such that a new object is placed on the side of the advancing direction of the character rather than the object currently targeted for movement, and the game I can play smoothly. In addition, by using the elapsed time and the result of the operation input, flexible object control can be performed according to the situation in the game. Note that the game progress history is not limited to the above information, and can be extended to various information that can be acquired in the course of game processing by the game processing unit 104.

またオブジェクト制御部114は、所与の条件が成立した場合に、オブジェクトの制御を楽曲のリズムに基づいて行う。このようにすれば、オブジェクトを楽曲に合わせて制御することが可能になる。例えば、オブジェクトの基準位置が設定されている場合において、当該基準位置に対するオブジェクトの変位量を、楽曲のリズムに合わせて変更する。このようにすれば、オブジェクトが楽曲に合わせて移動することになり、オブジェクトの挙動と楽曲の連動性を高めることが可能になる。   The object control unit 114 also performs control of the object based on the rhythm of the music when a given condition is satisfied. In this way, it becomes possible to control the object in accordance with the music. For example, when the reference position of the object is set, the displacement amount of the object with respect to the reference position is changed in accordance with the rhythm of the music. In this way, the object moves in accordance with the music, and it becomes possible to improve the link between the behavior of the object and the music.

オブジェクト制御部114は、ゲーム処理部104により、キャラクタの存在エリアとは別のエリアにキャラクタを移動可能にする処理が行われた場合、又は、判定部116により、オブジェクトに対するキャラクタの動作が成功したと判定された場合に、所与の条件が成立したと判定する。このようにすれば、移動制限が解除されゲーム内でのフェーズが進行した場合や、キャラクタ動作が成功した場合に、オブジェクトの挙動と楽曲が連動することになる。つまり、ゲーム内での状況が変化した(狭義にはプレーヤにとって好ましい方向に変化した)ことが条件となるため、オブジェクトの挙動をゲーム内の盛り上がりに合わせることが可能になる。   The object control unit 114 causes the game processing unit 104 to move the character to an area different from the area where the character is present, or the determination unit 116 successfully moves the character to the object. If it is determined, it is determined that a given condition is established. In this way, the movement of the object and the music are interlocked when the movement restriction is canceled and the phase in the game progresses, or when the character movement is successful. That is, since it is a condition that the situation in the game has changed (in a narrow sense, it has changed in a preferable direction for the player), it is possible to match the behavior of the object with the excitement in the game.

またゲーム処理部104は、判定部116での判定結果に基づいて、キャラクタの存在エリアとは別のエリアにキャラクタを移動可能にする処理を行ってもよい。狭義には、ゲーム処理部104は、キャラクタが通行不可であった経路を通行可能にすることで、キャラクタを別のエリアに移動可能にする。   In addition, the game processing unit 104 may perform processing for enabling the character to move to an area different from the area in which the character is present, based on the determination result of the determination unit 116. In a narrow sense, the game processing unit 104 enables the character to move to another area by making the path through which the character is impassable passable.

このようにすれば、エリアの移動制限を行うこと、当該移動制限を判定結果に基づいて解除することが可能になるとともに、移動制限の解除を経路の通行不可/通行可能の切り替えで実現することが可能になる。具体的には、オブジェクトに対する動作が成功することが移動制限解除の条件となるため、先のエリアに進むためにはプレーヤは適切な操作を行う必要があり、興趣性の高いゲームシステムを実現できる。なお、通行不可であった経路を通行可能にする制御は、上記オブジェクト制御により実現されてもよい。例えば、足場がなくて渡れない溝や上れない壁が設けられることで通行不可であった経路上に、移動用の足場オブジェクトを配置する制御を行ってもよい。当該制御は、例えばゲーム処理部104の指示に基づいて、オブジェクト制御部114が実行する。このようにすれば、判定部116の判定結果を用いたオブジェクト制御を行うことで、自然に移動制限を解除する制御を実現できる。   In this way, movement restriction of the area can be performed, and the movement restriction can be canceled based on the determination result, and cancellation of the movement restriction can be realized by switching the path between impassable and impassable. Becomes possible. Specifically, since the success of the action on the object is a condition for releasing the movement restriction, the player needs to perform an appropriate operation in order to advance to the previous area, and a highly entertaining game system can be realized. . In addition, the control which enables passage of the path | passage which was impassable may be implement | achieved by said object control. For example, control may be performed to place a scaffold object for movement on a path that is impassable due to the provision of a ditch and a ditch that can not be crossed and a dangling wall. The object control unit 114 executes the control, for example, based on an instruction from the game processing unit 104. In this way, by performing object control using the determination result of the determination unit 116, it is possible to realize control for releasing the movement restriction naturally.

またゲーム処理部104は、ゲームの進行上の時間制限を制御する処理を行い、楽曲部分が関連づけられているエリア毎に、時間制限を行う。このように時間制限を設けた場合、ゲーム内での評価を高くするためには、各エリアを所定の時間内に通過することが必要となり、興趣性の高いゲームシステムを実現できる。特に、各エリアと時系列楽曲部分を対応付けた場合、時系列楽曲部分の演奏時間と時間制限を対応付けることで、プレーヤに対して自然に良い演奏を行わせることが可能になる。   Further, the game processing unit 104 performs processing of controlling time restriction on the progress of the game, and performs time restriction for each area to which the music part is associated. When such a time limit is provided, it is necessary to pass each area within a predetermined time in order to increase the evaluation in the game, and a highly entertaining game system can be realized. In particular, when each area and the time series music portion are associated, by associating the playing time of the time series music portion and the time limit, it is possible to make the player naturally perform well.

またキャラクタ処理部106は、楽曲の再生速度と関連づけられた移動速度で、キャラクタを移動させる処理を行ってもよい。ここで楽曲の再生速度とは、例えば楽曲のテンポ(BPMの値)である。このようにすれば、テンポの速い楽曲ではキャラクタが速く移動し、テンポの遅い楽曲ではキャラクタがゆっくり移動するため、楽曲に合わせたキャラクタ処理を実現することが可能になる。   In addition, the character processing unit 106 may perform a process of moving the character at a moving speed associated with the reproduction speed of the music. Here, the reproduction speed of the music is, for example, the tempo (BPM value) of the music. In this way, the character moves fast for fast tempo music, and the character slowly moves for slow tempo music, so it is possible to realize character processing according to the music.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。従来の音楽ゲームでは、ゲームシステム側で楽曲のリズムに応じた操作タイミングを指示し、プレーヤは指示された操作タイミングに合わせて操作を行う。しかし、従来の音楽ゲームで高評価を獲得するためには、適切なタイミングで適切な操作を行う必要があり、難易度が非常に高い。
2. Method of this Embodiment Next, the method of this embodiment will be specifically described. In the conventional music game, the game system instructs the operation timing according to the rhythm of the music, and the player performs the operation in accordance with the instructed operation timing. However, in order to obtain a high rating in the conventional music game, it is necessary to perform appropriate operation at appropriate timing, and the degree of difficulty is very high.

また従来より、アクションゲームは広く知られており、例えば3次元マップ上でキャラクタを移動させるゲームがある。アクションゲームでは、プレーヤが操作するキャラクタに、パルクール或いはフリーランニングを行わせるものもある。パルクール(フリーランニング)とは、壁や地形を活かし、走る・跳ぶ・登るなどの動作を組み合わせて、目的地まで効率的に移動する手法である。キャラクタにパルクールを実行させることで、複雑な地形のマップ(或いは障害物が配置されたマップ)であっても、キャラクタがスムーズに移動することが可能になる。   Also, conventionally, action games are widely known. For example, there are games in which characters are moved on a three-dimensional map. In the action game, there is also a game in which a character operated by the player performs parkour or free running. Parkour (free running) is a method of efficiently moving to the destination by combining the motions such as running, jumping, and climbing, making use of walls and topography. By causing the character to perform parkour, the character can move smoothly even with a complex terrain map (or a map in which an obstacle is placed).

しかし、従来のアクションゲームでは、パルクールはマップ上での移動手段に過ぎなかった。即ち、キャラクタによる跳ぶ・登る等のアクションは目的地に移動する過程で行われるものであり、それ自体がゲーム中で重要な意味を持つものではなかった。   However, in conventional action games, parkour has only been a means of movement on the map. That is, the action such as jumping or climbing by the character is performed in the process of moving to the destination, and is not itself important in the game.

そこで本実施形態では、音楽ゲームとアクションゲームを組み合わせたゲームシステムを提案する。以下、ゲームシステムの概要について説明する。なお、本実施形態の手法は下記ゲームシステムに適用するものに限定されず、格闘技ゲームやレースゲーム等の種々のゲームに適用可能である。また以下では移動体としてキャラクタを主に例にとり説明を行う。   So, in this embodiment, the game system which combined the music game and the action game is proposed. The outline of the game system will be described below. In addition, the method of this embodiment is not limited to what is applied to the following game system, It is applicable to various games, such as a martial arts game and a race game. Also, in the following, the description will be made by mainly taking a character as an example of a moving body.

2.1 フィールド・オブジェクトの設定とキャラクタの動作
図3(A)は、本実施形態のゲームシステムにおける3次元マップの俯瞰図であり、図3(B)は表示部190に表示されるゲーム画面の例である。本実施形態に係るゲームシステムでは、仮想的な3次元空間に、キャラクタCA(広義には移動体)が移動するための地形を表す3次元マップが構築される。3次元マップは、例えばフィールドFEと、オブジェクトOB(図3(A)の例ではOB1,OB2)を含む。
2.1 Setting of Field / Object and Character Operation FIG. 3A is an overhead view of a three-dimensional map in the game system of this embodiment, and FIG. 3B is a game screen displayed on the display unit 190. An example of In the game system according to the present embodiment, a three-dimensional map representing terrain for moving the character CA (moving object in a broad sense) is constructed in a virtual three-dimensional space. The three-dimensional map includes, for example, a field FE and an object OB (OB1 and OB2 in the example of FIG. 3A).

フィールドFEは、キャラクタCAが移動可能な領域を表す。フィールドFEは、例えば図3(A)に示すように地面に相当する水平面であるが、フィールドFEが斜面等を含んで構成されてもよい。オブジェクトOBは、フィールドFE上に配置される物体(障害物)である。図3(A)の例であれば、オブジェクトOB1は円柱状の物体であり、オブジェクトOB2は梁と支柱を含む平均台状の物体である。   Field FE represents an area in which character CA can move. The field FE is, for example, a horizontal surface corresponding to the ground as shown in FIG. 3A, but the field FE may be configured to include a slope or the like. The object OB is an object (obstacle) disposed on the field FE. In the example of FIG. 3A, the object OB1 is a cylindrical object, and the object OB2 is an average trapezoidal object including beams and columns.

以下では、フィールドFEは、キャラクタが特殊なアクション(跳躍、壁上り等)を必要とせずに移動(歩行,走行)可能な領域として説明を行う。また、オブジェクトOBは、当該オブジェクトOBが存在する経路上を移動するために、キャラクタCAが特殊な動作(アクション)をする必要がある領域(物体)である。オブジェクトOBは、歩行又は走行による通過が許容されない領域と言い換えることが可能である。   In the following, the field FE will be described as an area in which the character can move (walk, run) without requiring a special action (jump, wall up, etc.). The object OB is an area (object) in which the character CA needs to perform a special action (action) in order to move on the path where the object OB exists. The object OB can be reworded as an area where passage by walking or traveling is not permitted.

ただし、ここでのフィールドFEとオブジェクトOBの区別は便宜上のものであり、ゲーム処理部104での3次元マップの処理は任意の形態で実現可能である。例えば、ゲーム処理部104が、フィールドFEとオブジェクトOBを1つの3次元マップ情報として、まとめて処理してもよい。或いは、3次元マップの固定部分をフィールドFEとし、可動部分をオブジェクトOBとして処理を行ってもよい。   However, the distinction between the field FE and the object OB here is for convenience, and the processing of the three-dimensional map in the game processing unit 104 can be realized in any form. For example, the game processing unit 104 may process the field FE and the object OB together as one piece of three-dimensional map information. Alternatively, processing may be performed with the fixed part of the three-dimensional map as the field FE and the movable part as the object OB.

キャラクタCAは、プレーヤの操作に基づいて3次元マップ上を移動する。例えば、図2(A)のアナログスティック18を所定方向に倒す操作入力が行われることで、キャラクタCAは、フィールドFE上を上記所定方向に対応する方向に歩行(走行)する。またキャラクタCAは、オブジェクトOBに対する動作を実行する。例えば、キャラクタCAがオブジェクトOB1と所定の位置関係にある状態で、図2(A)の操作ボタン(例えば10、11、12、13のいずれか)が押下されることで、キャラクタCAはOB1を飛び越える跳躍動作を実行する。   The character CA moves on the three-dimensional map based on the operation of the player. For example, when an operation input for tilting the analog stick 18 in FIG. 2A in a predetermined direction is performed, the character CA walks (runs) on the field FE in the direction corresponding to the predetermined direction. Also, the character CA executes an operation on the object OB. For example, with the character CA in a predetermined positional relationship with the object OB1, the operation button (for example, any of 10, 11, 12, 13) of FIG. Perform jumping jump action.

また、3次元空間には仮想カメラVCが配置される。上述した表示処理部120の各処理により、図3(B)に示したように、表示部190には仮想カメラVCから3次元空間を撮像したかのような画像が表示される。   In addition, a virtual camera VC is disposed in the three-dimensional space. By each process of the display processing unit 120 described above, as shown in FIG. 3B, the display unit 190 displays an image as if a three-dimensional space was captured from the virtual camera VC.

図4〜図6(C)は、オブジェクトOBに対するキャラクタCAの動作の例である。アニメーション情報記憶部174は、動作に応じたキャラクタCAのアニメーション情報を記憶しており、アニメーション処理部108は、当該アニメーション情報の再生処理を行うことで、キャラクタCAに所定の動作を実行させる。   4 to 6C are examples of the operation of the character CA with respect to the object OB. The animation information storage unit 174 stores animation information of the character CA according to the motion, and the animation processing unit 108 causes the character CA to execute a predetermined motion by performing reproduction processing of the animation information.

図4は、円柱状のオブジェクトOB1に対するキャラクタCAの動作を説明する図である。キャラクタCAは、オブジェクトOB1に対して跳躍動作(vault)を行って、オブジェクトOB1を飛び越える。跳躍動作は、例えば図4に示したように、オブジェクトOB1の一方側から助走を行い(A1)、左手をオブジェクトOB1の上面に着けて両足を右側に振り上げ(A2)、左手を離してオブジェクトOB1の反対側の地面に着地する(A3)という各工程を連続して行うことで実現される。なお、図4のA1〜A3は跳躍動作のうちの代表的な姿勢の例示であり、A1とA2の間(例えばA4やA5)、A2とA3の間でも、キャラクタCAの姿勢は連続的に(滑らかな動作となるように)変化する。   FIG. 4 is a diagram for explaining the operation of the character CA with respect to the cylindrical object OB1. The character CA performs a jumping operation (vault) on the object OB1 to jump over the object OB1. For example, as shown in FIG. 4, the jumping motion is performed from one side of the object OB1 (A1), the left hand is put on the upper surface of the object OB1, the legs are raised to the right (A2), and the left hand is released. Is achieved by successively performing each step of landing on the ground opposite to (A3). A1 to A3 in FIG. 4 are examples of representative postures of the jumping motion, and the posture of the character CA is continuously between A1 and A2 (for example, A4 and A5) and between A2 and A3. Change (to be smooth).

図5(A)〜図5(C)は、図4の跳躍動作に対応するゲーム画面の例である。図5(A)がA1に対応し、図5(B)がA2に対応し、図5(C)がA3に対応する。   5A to 5C are examples of game screens corresponding to the jumping operation of FIG. 4. FIG. 5 (A) corresponds to A1, FIG. 5 (B) corresponds to A2, and FIG. 5 (C) corresponds to A3.

図6は、平均台状のオブジェクトOB2に対するキャラクタCAの動作を説明する図である。キャラクタCAは、オブジェクトOB2に対してスライディング動作を行って、オブジェクトOB2の梁の下をくぐり抜ける。スライディング動作は、例えば図6に示したように、オブジェクトOB2の一方側から助走を行い(B1)、両膝を付くような姿勢で地面を滑り(B2)、オブジェクトOB2の反対側の地面で立つ(B3)という各工程を連続して行うことで実現される。   FIG. 6 is a diagram for explaining the operation of the character CA with respect to the average trapezoidal object OB2. The character CA performs a sliding motion on the object OB2 to go under the beam of the object OB2. For example, as shown in FIG. 6, the sliding motion starts from one side of the object OB2 (B1), slides on the ground with both knees standing (B2), and stands on the other side of the object OB2 It implement | achieves by performing each process called (B3) continuously.

図7(A)〜図7(C)は、図6のスライディング動作に対応するゲーム画面の例である。図7(A)がB1に対応し、図7(B)がB2に対応し、図7(C)がB3に対応する。   FIGS. 7A to 7C are examples of game screens corresponding to the sliding operation of FIG. FIG. 7 (A) corresponds to B1, FIG. 7 (B) corresponds to B2, and FIG. 7 (C) corresponds to B3.

2.2 楽曲部分と再生処理
以下、ゲーム内で出力される音が、楽曲情報により表される楽曲である例について説明する。本実施形態におけるゲームシステムでは、プレーヤによるキャラクタCAの操作に基づいて、音の出力制御が行われる。具体的には、楽曲を楽曲部分に分割し、いずれの楽曲部分を再生するかをプレーヤ操作に基づいて決定する。ここでの楽曲部分とは、楽曲を演奏の時間軸方向に分割した一部や楽曲を楽曲パート毎に分割した一部などである。
2.2 Music Part and Reproduction Process Hereinafter, an example in which a sound output in the game is a music represented by music information will be described. In the game system according to the present embodiment, sound output control is performed based on the operation of the character CA by the player. Specifically, the music is divided into music parts, and which music part is to be reproduced is determined based on the player's operation. The music part here is a part obtained by dividing the music in the time axis direction of the performance, or a part obtained by dividing the music for each music part.

図8は、楽曲部分を説明する模式図である。楽曲は、一般的に曲調の異なる複数の部分から構成される。例えば、1つの楽曲はイントロ(Intro)、Aメロ(1st Verse)、Bメロ(2nd Verse)、サビ(Chorus)等から構成される。楽曲に応じて、各部分が複数回現れたり、Cメロ(Bridge)が追加されることもあるが、ここではイントロ、Aメロ、Bメロ、サビが時系列的に連続して演奏されることで、1つの楽曲が構成される例について説明する。即ち、イントロ、Aメロ、Bメロ、サビのそれぞれが、時間軸方向での楽曲部分(以下、時間軸楽曲部分と表記)となる。   FIG. 8 is a schematic view illustrating a music portion. A music is generally composed of a plurality of parts having different tunes. For example, one music piece is composed of Intro, A Melo (1st Verse), B Melo (2nd Verse), Choi (Chorus) and the like. Depending on the music, each part may appear more than once, or a C ((Bridge) may be added, but here the intro, A メ ロ, B サ, and Sabi will be played sequentially in time series Now, an example in which one music piece is configured will be described. That is, each of the intro, A melody, B melody, and rust becomes a music portion in the time axis direction (hereinafter referred to as time axis music portion).

また、1つの時間軸楽曲部分(例えばAメロ)に着目した場合、当該時間軸楽曲部分はさらにパートごとに分割できる。以下、パートごとの楽曲部分をパート楽曲部分と表記する。図8の例であれば、パート楽曲部分は「伴奏(リズム)」、「ギター」、「ドラム」、「キーボード」であり、「ギター」は、さらに「ギター1」、「ギター2」、「ギター3」に細分化される。   Further, when focusing on one time axis music portion (for example, A melody), the time axis music portion can be further divided into parts. Hereinafter, the music part of each part will be referred to as a part music part. In the example of FIG. 8, the part music part is "accompaniment (rhythm)", "guitar", "drum", "keyboard", and "guitar" is further "guitar 1", "guitar 2", "guitar" It is subdivided into 3 guitars.

時間軸楽曲部分とパート楽曲部分の両方が特定されることで、具体的な音の情報(例えば音符の集合情報、メロディー)が特定される。図8の場合、例えば「Aメロのギターパート1」、「Aメロのドラムパート」、「Aメロのキーボードパート」等のそれぞれに対して、音の情報が対応付けられる。   By specifying both the time axis music part and the part music part, specific sound information (for example, note group information, melody) is specified. In the case of FIG. 8, for example, sound information is associated with each of “guitar part 1 of A melody,” “drum part of A melody,” “keyboard part of A melody,” and the like.

楽曲再生部112は、図8の楽曲部分のうち、いずれの楽曲部分を再生対象とするかの決定処理を行い、決定された楽曲部分の再生処理を行う。具体的には、楽曲再生部112は、時系列楽曲部分のいずれか1つを選択する処理、及びパート楽曲部分の1又は複数を選択する処理を行う。以下、具体的に説明する。   The music reproduction unit 112 performs determination processing as to which of the music pieces in FIG. 8 is to be reproduced, and performs reproduction processing of the determined music part. Specifically, the music reproduction unit 112 performs a process of selecting any one of the time-series music parts and a process of selecting one or more of the part music parts. The details will be described below.

2.2.1 時系列楽曲部分の選択処理
本実施形態のゲームシステムでは、フィールドFEを複数のエリアに分割し、各エリアに時間軸楽曲部分を割り当てる。
2.2.1 Selection Process of Time Series Music Pieces In the game system of this embodiment, the field FE is divided into a plurality of areas, and time axis music pieces are allocated to each area.

図9はフィールドFEに設定されるエリアと、時間軸楽曲部分の対応関係を説明する図である。図9の例では、フィールドFEには5つのエリアAR1〜AR5が設定される。AR1は時系列楽曲部分のうち、イントロが対応する。AR2はAメロに対応し、AR3はBメロに対応し、AR4はサビに対応する。AR5はゴール領域であり、楽曲の終了に対応する領域である。なお、AR5をアウトロ(Outro,終結部)に対応させてもよい。   FIG. 9 is a diagram for explaining the correspondence between the area set in the field FE and the time axis music portion. In the example of FIG. 9, five areas AR1 to AR5 are set in the field FE. AR1 corresponds to the intro in the time-series music portion. AR2 corresponds to A mer, AR3 corresponds to B mer, and AR4 corresponds to rust. AR5 is a goal area, which is an area corresponding to the end of the music. Note that AR 5 may correspond to Outro (termination).

楽曲再生部112は、プレーヤの操作するキャラクタCAが存在するエリアを判定し、当該エリアに対応する時系列楽曲部分を再生対象として選択する処理を行う。図9の例であれば、キャラクタCAがエリアAR1に存在すると判定されたらイントロが再生対象となり、キャラクタCAがAR2に存在すると判定されたらAメロが再生対象となる。その他のエリアについても同様である。   The music reproduction unit 112 determines an area in which the character CA operated by the player is present, and performs processing of selecting a time-series music portion corresponding to the area as a reproduction target. In the example of FIG. 9, if it is determined that the character CA is present in the area AR1, the intro is the playback target, and if it is determined that the character CA is present in the AR2, the A melody is the playback target. The same applies to the other areas.

なお、具体的な再生位置、例えばAメロの何秒目を再生すればよいかは、例えば経過時間の情報により特定される。例えば、キャラクタCAがAR2にx秒だけ継続して存在している場合、楽曲再生部112は、音出力部192に対してAメロのx秒目の出力を指示する。   Note that the specific reproduction position, for example, what second of the A melody should be reproduced is specified by, for example, information of elapsed time. For example, when the character CA is continuously present in AR 2 for x seconds, the music reproduction unit 112 instructs the sound output unit 192 to output the x second of the A melody.

楽曲は時系列楽曲部分のそれぞれの長さが決まっている。例えば楽曲情報は、イントロが楽曲開始(0秒)からt1秒まで、Aメロがt1秒からt2秒まで、Bメロがt2秒からt3秒まで、サビがt3秒からt4秒まで、という各時系列楽曲部分の再生タイミング(再生時間)の情報を含む。そのため、当該楽曲についての「良い演奏」とは、イントロ〜サビの各時系列楽曲部分を規定の長さだけ再生対象とする演奏である。   In the music, the length of each time-series music part is fixed. For example, in the music information, the intro is from the music start (0 seconds) to t1 seconds, the A melody is from t1 seconds to t2 seconds, the B melody is from t2 seconds to t3 seconds, and the rust is from t3 seconds to t4 seconds. It includes information on the reproduction timing (reproduction time) of the series music portion. Therefore, the “good performance” of the music is a performance that targets the intro to rust time-series music pieces for reproduction by a specified length.

つまり「良い演奏」を実現するための操作とは、初期存在エリアがAR1であるキャラクタCAを、t1秒経過時にAR2に移動させ、t2秒経過時にAR3に移動させ、t3秒経過時にAR4に移動させ、t4秒経過時にAR5に移動させる、という操作になる。このような操作がプレーヤにより行われた場合、時系列楽曲部分の遷移がスムーズに行われ、プレーヤに爽快感を与えることが可能になる。   In other words, the operation to realize “good performance” is to move the character CA whose initial existence area is AR1 to AR2 when t1 seconds elapse, to AR3 when t2 seconds elapse, and to AR4 when t3 seconds elapse Operation is performed to move to AR 5 when t 4 seconds have elapsed. When such an operation is performed by the player, the transition of the time-series music portion is smoothly performed, and it is possible to give the player a sense of exhilaration.

ただし、望ましい遷移タイミング(上述したt1〜t4等)は、楽曲自体を暗記しているプレーヤや、音楽的な知識が豊富なプレーヤでなければ把握が難しく、エリア移動を完全にプレーヤに委ねたのではゲームの難易度が高くなってしまう。よって本実施形態のゲームシステムでは、エリア間の移動をガイドするためのガイドキャラクタをゲーム画面上に表示してもよい。例えば、ガイドキャラクタは、図3(A)に示した3次元空間のうち、ゲーム画面で視認しやすい高い位置を飛んで移動する鳥等の飛行オブジェクトである。   However, desirable transition timings (such as t1 to t4 mentioned above) are difficult to grasp unless the player memorizes the music itself or a player rich in musical knowledge, and the area movement is completely left to the player. Then the difficulty of the game gets higher. Therefore, in the game system of this embodiment, a guide character for guiding movement between areas may be displayed on the game screen. For example, the guide character is a flying object such as a bird flying in a high position which is easily visible on the game screen in the three-dimensional space shown in FIG. 3A.

図9のROは、ガイドキャラクタの移動経路の例である。ROに示したように、ガイドキャラクタは、AR1からAR5を順次移動する。そしてガイドキャラクタは、AR1とAR2の境界である地点P1を楽曲開始からt1秒だけ経過したタイミングで通過するように、移動制御が行われる。同様にガイドキャラクタは、P2をt2秒で通過し、P3をt3秒で通過し、P4をt4秒で通過するように制御される。プレーヤは自身の操作するキャラクタCAをガイドキャラクタに合わせて移動させることで、自然に「良い演奏」を実現することが可能になる。   RO in FIG. 9 is an example of the movement path of the guide character. As indicated by RO, the guide character sequentially moves from AR1 to AR5. The movement control is performed so that the guide character passes the point P1 which is the boundary between AR1 and AR2 at the timing when t1 seconds have elapsed from the start of the music. Similarly, the guide character is controlled to pass P2 in t2 seconds, pass P3 in t3 seconds, and pass P4 in t4 seconds. By moving the character CA operated by the player according to the guide character, it is possible to realize "good performance" naturally.

なお、ここではエリア間の移動がいつでも実行可能であることを想定している。ただし、エリア間の移動を制限し、所与の条件が満たされた場合に当該制限を解除する変形実施も可能である。詳細については後述する。   Here, it is assumed that movement between areas can be performed anytime. However, it is also possible to limit the movement between the areas and to release the restriction when a given condition is satisfied. Details will be described later.

2.2.2 パート楽曲部分の選択処理(再生態様の変更制御)
キャラクタCAが所定のエリア(例えばAR3)に存在すると判定され、対応する時系列楽曲部分(例えばBメロ)が再生される際、ギターパートのみが再生対象となる場合に比べて、ギター、ドラム、キーボードの3つのパートが再生対象となる方が、音の厚みが増すため「良い演奏」になると考えられる。或いは、ギターについても1小節に少数の音を演奏する場合に比べて、多数の音を演奏する場合の方が複雑な演奏であり「良い演奏」になると考えられる。なお、音の数は時系列方向で増やすもの(2分音符1つを4分音符2つに変える等)であってもよいし、1タイミングでの音を増やすもの(単音を和音に変える等)であってもよい。
2.2.2 Selection process of part music part (change control of reproduction mode)
When it is determined that the character CA is present in a predetermined area (for example, AR3) and the corresponding time-series music piece (for example, B melody) is reproduced, the guitar, the drum, It is considered that the better performance is achieved if the three parts of the keyboard are to be reproduced, because the thickness of the sound is increased. Alternatively, it is considered that playing a large number of sounds is more complicated and "good playing" than playing a small number of sounds in one measure on a guitar. Note that the number of sounds may be increased in the time-series direction (such as changing one half note to two quarter notes) or increasing the sound at one timing (such as changing a single note to a chord) ) May be.

本実施形態では、キャラクタCAのオブジェクトOBに対する動作が成功したか否かを判定部116が判定し、楽曲再生部112は、判定結果に基づいてパート楽曲部分の選択処理を行う。オブジェクトOBに対する動作が成功すればするほど、選択されるパート数が増えたり、同じパートであっても単位時間当たり(例えば1小節当たり)の音の数が多い楽曲部分が選択対象となる。   In the present embodiment, the determination unit 116 determines whether the operation on the object OB of the character CA is successful, and the music reproduction unit 112 performs a part music piece selection process based on the determination result. The more successful the operation on the object OB, the more parts to be selected, or the same music part as the number of sounds per unit time (for example, per bar) is the selection target.

例えば本実施形態では、判定部116の判定結果に基づいて、パラメータ(以下、ビートパラメータと記載)を更新する。ビートパラメータは、キャラクタCAのオブジェクトOBに対する動作が成功したと判定された場合に増加し、失敗したと判定された場合に減少(或いは維持)されるパラメータである。   For example, in the present embodiment, a parameter (hereinafter referred to as a beat parameter) is updated based on the determination result of the determination unit 116. The beat parameter is a parameter that is increased when it is determined that the action on the object OB of the character CA is successful, and is decreased (or maintained) when it is determined that the operation is unsuccessful.

図10は、ビートパラメータと、再生対象として選択されるパート楽曲部分の対応関係の例である。図10に示すように、ビートパラメータがth1未満の場合は、伴奏(リズム)のみが再生対象となる。ここでの伴奏(リズム)とは、ベース等の演奏が行われるパートであってもよいし、単純に拍のタイミング(例えば後述する図17のC1又はC2)で音が出力されるパートであってもよいし、ワルツやボレロ等の楽曲の種類に応じて音の出力タイミングが決定されるパートであってもよい。   FIG. 10 shows an example of the correspondence between beat parameters and part music pieces to be selected for reproduction. As shown in FIG. 10, when the beat parameter is less than th1, only the accompaniment (rhythm) is to be reproduced. Here, the accompaniment (rhythm) may be a part on which a performance such as a bass is performed, or a part to which a sound is simply output at a beat timing (for example, C1 or C2 in FIG. 17 described later). It may be a part whose output timing is determined according to the type of music such as waltz or bolero.

ビートパラメータがth1以上になると、伴奏(リズム)に加えて、ギター1が再生対象として選択される。ギター1は、ギターパートのうち相対的に音の数が少ない楽曲部分である。ビートパラメータがth1以上th2未満では、伴奏と音の少ないギターパートというシンプルな楽曲が出力される。   When the beat parameter becomes th1 or more, the guitar 1 is selected as a playback target in addition to the accompaniment (rhythm). The guitar 1 is a music portion having a relatively small number of sounds in the guitar part. If the beat parameter is greater than th1 and less than th2, a simple piece of music with accompaniment and a guitar part with less sound is output.

ビートパラメータがth2以上になると、伴奏(リズム)に加えて、ギター2が再生対象として選択される。ギター2は、ギター1に比べて音の数が多い楽曲部分である。ビートパラメータがth2以上th3未満では、伴奏とギターという組み合わせはth1以上th2未満の場合と同様であるが、ギターの音の数が増えて厚みが増す。   When the beat parameter is th2 or more, the guitar 2 is selected as a playback target in addition to the accompaniment (rhythm). The guitar 2 is a music portion having a larger number of sounds than the guitar 1. When the beat parameter is not less than th2 and less than th3, the combination of accompaniment and guitar is the same as in the case of not less than th1 and less than th2, but the number of sounds of the guitar increases and the thickness increases.

ビートパラメータがth3以上になると、伴奏(リズム)、ギター3及びドラムが再生対象として選択される。ギター3は、ギター2に比べてさらに音の数が多い楽曲部分である。ビートパラメータがth3以上th4未満では、ギターの音が増え、さらに楽器の種類も増えるため、th3未満の場合に比べて音の厚みが増す。   When the beat parameter is th3 or more, the accompaniment (rhythm), the guitar 3 and the drum are selected to be reproduced. The guitar 3 is a music portion having a larger number of sounds than the guitar 2. When the beat parameter is greater than th3 and less than th4, the sound of the guitar increases and the types of instruments further increase, so the thickness of the sound increases compared to the case of less than th3.

ビートパラメータがth4以上になると、伴奏(リズム)、ギター3、ドラム及びキーボードが再生対象として選択される。この場合、さらに楽器の種類が増えるため、th4未満の場合に比べて音の厚みが増す。   When the beat parameter is th4 or more, the accompaniment (rhythm), the guitar 3, the drum and the keyboard are selected to be reproduced. In this case, since the types of instruments further increase, the thickness of the sound increases compared to the case of less than th4.

オブジェクトOBに対するキャラクタCAの動作が成功したか否かは、オブジェクトOBの種類と、プレーヤによる操作入力(例えばプレーヤが押下したボタンの種類)の組み合わせを判定すればよい。例えば、オブジェクトOB1の前で跳躍系の動作に対応するボタンを押下すれば図4の動作が成功したと判定され、オブジェクトOB2の前でスライディング系の動作に対応するボタンを押下すれば図6の動作が成功する。例えば記憶部170は、オブジェクトの種類と、成功と判定される操作入力を対応付ける対応付け情報を記憶しておき、判定部116は当該対応付け情報を参照して判定処理を実行する。   Whether the motion of the character CA with respect to the object OB is successful may be determined by combining the type of the object OB and the operation input by the player (for example, the type of the button pressed by the player). For example, if the button corresponding to the operation of the jumping system is pressed in front of the object OB1, it is determined that the operation of FIG. 4 is successful, and if the button corresponding to the operation of the sliding system is pressed in front of the object OB2 The operation is successful. For example, the storage unit 170 stores association information that associates the type of object with an operation input determined to be successful, and the determination unit 116 executes the determination process with reference to the association information.

下に隙間のないオブジェクトOB1の前でスライディング系の動作に対応するボタンを押下したり、オブジェクトOBに歩いて衝突した場合は動作が失敗したと判定される。なお、オブジェクトOB2は跳躍により飛び越えることも可能であるため、所与の種類のオブジェクトOBに対して、成功と判定される操作入力が複数あることは妨げられない。   If the button corresponding to the sliding system operation is pressed in front of the object OB1 having no space below or the object OB walks and collides, it is determined that the operation has failed. Since the object OB2 can jump over by jumping, it is not prevented that there are a plurality of operation inputs determined to be successful for a given type of object OB.

このように、オブジェクトOBに対するキャラクタCAの動作は、容易なプレーヤ操作により成功させることが可能である。そして図10に示したように、オブジェクトOBに対する操作が成功すれば、音に厚みが出る。つまり本実施形態では、音楽的な知識が無かったりリズム感に乏しいプレーヤでも、容易に「良い演奏」を実現することができ、興趣性の高いゲームシステムを実現可能である。   Thus, the action of the character CA on the object OB can be made successful by the easy player operation. Then, as shown in FIG. 10, if the operation on the object OB is successful, the sound will be thick. That is, in the present embodiment, even a player who has no musical knowledge or a sense of rhythm can easily realize "good performance", and can realize a highly entertaining game system.

なお、以上の説明からわかるように「良い演奏」を実現するには、多数のオブジェクトOBを対象としてキャラクタCAに動作を行わせることが好ましい。しかし図9に示したように、ガイドキャラクタの移動経路ROは比較的シンプルに設定される。そのため、例えば図9の例であればAR21やAR41のように、ガイドキャラクタの移動経路ROからの距離が比較的遠い位置に、広い領域が存在することが考えられる。キャラクタCAの移動をガイドキャラクタの移動経路ROに合わせてしまうと、AR21やAR41等の領域に配置されたオブジェクトOBは、キャラクタCAによる動作の対象から外れてしまう。   Further, as can be understood from the above description, in order to realize “a good performance”, it is preferable to cause the character CA to perform an operation on a large number of objects OB. However, as shown in FIG. 9, the movement path RO of the guide character is set relatively simply. Therefore, for example, in the example of FIG. 9, it is conceivable that a wide area exists at a position relatively distant from the movement path RO of the guide character, as in AR21 and AR41. When the movement of the character CA is aligned with the movement route RO of the guide character, the object OB arranged in the area such as the AR 21 or AR 41 deviates from the target of the movement by the character CA.

時系列楽曲部分の遷移のみを考えれば、ガイドキャラクタから離れないようにキャラクタCAを移動させればよいが、パート楽曲部分の選択を考慮すれば、あえてガイドキャラクタから離れて、AR21やAR41等の領域のオブジェクトOBでの動作を行う必要が出てくる。本実施形態では、安全を考慮してガイドキャラクタに追従するか、リスクを冒してガイドキャラクタから離れることでさらなる高評価を狙うか、という判断をプレーヤに行わせることで、興趣性の高いゲームシステムを実現できる。   Considering only the transition of the time-series music part, it is sufficient to move the character CA so as not to leave the guide character, but considering the selection of the part music part, the user moves away from the guide character and dares to move away from the guide character. It is necessary to perform an operation on the area object OB. In this embodiment, a game system with high interest is caused by having the player decide whether to follow the guide character in consideration of safety or to take a risk and to move away from the guide character for further high evaluation. Can be realized.

なお、同じオブジェクトOBに対して繰り返し動作を実行する場合はビートパラメータの増加幅を小さくし、新たなオブジェクトOBに対して動作を実行する場合はビートパラメータの増加幅を大きくしてもよい。或いは、ガイドキャラクタの移動経路ROに近いオブジェクトOBに対する動作を実行する場合はビートパラメータの増加幅を小さくし、移動経路ROから遠いオブジェクトOBに対して動作を実行する場合はビートパラメータの増加幅を大きくしてもよい。このようにすれば、ビートパラメータを効率的に上昇させるためには、ガイドキャラクタから離れる必要性が高くなるため、より興趣性の高いゲームシステムを実現できる。   In the case of repeatedly executing the operation on the same object OB, the increase width of the beat parameter may be reduced, and in the case of executing the operation on a new object OB, the increase width of the beat parameter may be increased. Alternatively, the increase width of the beat parameter is reduced when executing the action on the object OB close to the movement path RO of the guide character, and the increase width of the beat parameter is performed when the action is performed on the object OB far from the movement path RO. You may enlarge it. In this way, in order to increase the beat parameter efficiently, the need to move away from the guide character is increased, and a more interesting game system can be realized.

図11(A)は本実施形態の処理を説明するフローチャートである。図11(A)は、例えばフレームごとに実行される処理である。この処理が開始されると、ゲーム処理部104は、操作部160に対してプレーヤの操作入力が行われたか否かを判定する(S101)。操作入力が行われた場合(S101でYes)、アニメーション処理部108は、操作入力に対応する動作をキャラクタに実行させるためのアニメーション処理を行う(S102)。S102の詳細については図20等を用いて後述する。   FIG. 11A is a flowchart for explaining the process of this embodiment. FIG. 11A shows, for example, processing executed for each frame. When this process is started, the game processing unit 104 determines whether or not the player's operation input has been performed on the operation unit 160 (S101). When an operation input is performed (Yes in S101), the animation processing unit 108 performs an animation process for causing the character to execute an operation corresponding to the operation input (S102). Details of S102 will be described later with reference to FIG.

S102の処理後、又はS101でNoの場合、ビートパラメータの更新処理が行われる(S103)。図11(B)は、ビートパラメータの更新処理を説明するフローチャートである。この処理では、キャラクタCAのオブジェクトOBに対する動作の判定が行われる(S201)。動作が成功した場合、ビートパラメータを増加させ(S202)、動作が失敗した場合、ビートパラメータを減少させる(S203)。そもそもオブジェクトOBに対する動作が行われていない場合(操作入力自体がなかった場合、操作入力がフィールドFEを歩行、走行するだけの操作であった場合等)、ビートパラメータは変更されない(S204)。なお、上述したように、オブジェクトOBの種類や配置に応じて、ビートパラメータの変更幅を調整してもよい。或いは、動作が連続して成功した場合(コンボが成立した場合)は、単発での成功に比べて増加幅を大きくする等の変形実施も可能である。   After the process of S102, or in the case of No in S101, a beat parameter update process is performed (S103). FIG. 11B is a flowchart for describing the beat parameter update process. In this process, the motion of the object CA of the character CA is determined (S201). If the operation is successful, the beat parameter is increased (S202), and if the operation fails, the beat parameter is decreased (S203). If no operation is performed on the object OB (if there is no operation input itself, if the operation input is an operation that only walks and runs the field FE, etc.), the beat parameter is not changed (S204). As described above, the change width of the beat parameter may be adjusted according to the type and the arrangement of the object OB. Alternatively, when the operation is continuously successful (when the combo is established), a modification such as increasing the increase width as compared with the single-shot success is also possible.

プレーヤが何も操作していない時間が継続している場合に、厚みのある演奏が継続されてしまうことは好ましくないため、動作の失敗以外の要因でもビートパラメータを減少させる必要がある。しかし、ビートパラメータの値を急激に変化させる(例えば短時間で初期値に戻す)と、厚みのあった演奏が急に伴奏のみに変化することになるため、プレーヤに違和感を与えてしまう。よって本実施形態では、経過時間に関する情報に基づいてビートパラメータを変化させる。   Since it is not preferable that the thick performance continues to be continued when the player does not operate at all, it is necessary to reduce the beat parameters by factors other than the operation failure. However, if the value of the beat parameter is rapidly changed (for example, returned to the initial value in a short time), the thick performance suddenly changes to only the accompaniment, which gives the player a sense of discomfort. Therefore, in the present embodiment, the beat parameter is changed based on the information on the elapsed time.

例えばゲーム処理部104は、所定時間の経過ごとに、ビートパラメータを所定値だけ減少させる(S205)。このようにすれば、プレーヤに違和感を与えないようなビートパラメータの管理が可能になる。また、ビートパラメータを高い値に維持するためには、継続的にオブジェクトOBに対する動作を成功させる必要が出てくるため、興趣性の高いゲームシステムを実現することも可能である。   For example, the game processing unit 104 decreases the beat parameter by a predetermined value each time a predetermined time elapses (S205). In this way, it is possible to manage beat parameters so as not to give the player a sense of discomfort. In addition, in order to maintain the beat parameter at a high value, it is necessary to continuously make the operation on the object OB succeed, so it is possible to realize a highly entertaining game system.

図11(A)に戻って説明を続ける。ビートパラメータの更新処理が完了したら、楽曲再生部112は、更新後のビートパラメータに基づいて、楽曲制御を行う(S104)。具体的には、キャラクタCAの存在エリアに基づいて時系列楽曲部分を決定し、ビートパラメータに基づいてパート楽曲部分を決定する。   Returning to FIG. 11A, the description will be continued. When the beat parameter update process is completed, the music reproduction unit 112 performs music control based on the updated beat parameter (S104). Specifically, the time-series music portion is determined based on the presence area of the character CA, and the part music portion is determined based on the beat parameter.

またビートパラメータは、フィールドFEに配置されるオブジェクトOBの制御に利用されてもよい(S105)。   The beat parameter may also be used to control the object OB placed in the field FE (S105).

2.3 オブジェクト制御
図11(A)のS105に示したオブジェクトOBの制御の例について説明する。オブジェクトOBは、フィールドFEの所定位置に固定配置されることは妨げられない。ただし、オブジェクトOBがあらかじめ固定されている場合、複数のオブジェクトOBをどのような順番で移動していけばよいか、プレーヤにとってわかりにくくなってしまう。
2.3 Object Control An example of control of the object OB shown in S105 of FIG. 11 (A) will be described. The object OB is not prevented from being fixedly arranged at the predetermined position of the field FE. However, when the object OB is fixed in advance, it is difficult for the player to understand in what order the plurality of objects OB should be moved.

よって本実施形態のオブジェクト制御部114は、判定部116での判定結果に基づいて、キャラクタCAの動作対象になっているオブジェクトとは異なるオブジェクトに対する制御を行う。例えば、所与のオブジェクトOBに対する動作が成功した場合に、当該オブジェクトの近傍に次のオブジェクトOBが現れるように、オブジェクトOBの制御(3次元マップの更新処理)を行う。   Therefore, the object control unit 114 according to the present embodiment performs control on an object different from the object which is the operation target of the character CA based on the determination result of the determination unit 116. For example, when the operation on a given object OB is successful, control of the object OB (processing for updating the three-dimensional map) is performed so that the next object OB appears in the vicinity of the object.

図12は、オブジェクト制御の具体例であり、オブジェクトOB1及びOB2については図3(A)等と同様である。図12では、プレーヤの操作により、キャラクタCAはオブジェクトOB1に対する動作、及びオブジェクトOB2に対する動作を行い、判定部116は動作が成功したと判定した。この場合、オブジェクト制御部114は、動作終了時のキャラクタCAの現在位置より、キャラクタCAの移動方向Vm側の位置に、新たにオブジェクトOB3、OB4を配置する。移動方向Vmは、例えばキャラクタCAの現在位置と、過去の位置との差分を表すベクトルである。新たなオブジェクトOB(OB3,OB4)は、瞬間的に現れてもよいし、フィールドFEの面からせり上がるように現れてもよい。或いは、変形例として後述するように、オブジェクトOBの動きを楽曲に合わせてもよい。   FIG. 12 shows a specific example of object control, and the objects OB1 and OB2 are the same as FIG. 3 (A) etc. In FIG. 12, the character CA performs an operation on the object OB1 and an operation on the object OB2 by the operation of the player, and the determination unit 116 determines that the operation is successful. In this case, the object control unit 114 newly arranges the objects OB3 and OB4 at a position on the moving direction Vm side of the character CA from the current position of the character CA at the end of the operation. The moving direction Vm is, for example, a vector representing the difference between the current position of the character CA and the past position. The new object OB (OB3, OB4) may appear instantaneously or may rise from the surface of the field FE. Alternatively, as will be described later as a modification, the movement of the object OB may be matched to the music.

このようにキャラクタの視界内(仮想カメラVCの撮像範囲内、ゲーム画面内)に入るように、次のオブジェクトを配置すれば、プレーヤは次々に現れるオブジェクトOBを対象として順次キャラクタCAの動作を実行すればよく、フィールドFE内を適切に移動することが可能になる。図12の例であれば、プレーヤは、オブジェクトOB2を対象とした操作後、自然にオブジェクトOB3、OB4を対象とした操作を行うことが可能になる。   As described above, if the next object is placed so as to be within the field of view of the character (within the imaging range of the virtual camera VC, within the game screen), the player sequentially executes the action of the character CA for the objects OB appearing one after another. It suffices to move appropriately in the field FE. In the example of FIG. 12, the player can naturally perform the operation for the objects OB3 and OB4 after the operation for the object OB2.

なお、フィールドFE内でオブジェクトOBを配置可能な領域と、当該領域に配置されるオブジェクトの種類(形状)があらかじめ固定されていてもよい。この場合、オブジェクトOBの制御とは、各領域についてオブジェクトOBを出現させるか否かの制御となる。また、1つの領域について、配置可能なオブジェクトOBが複数通り設定されており、オブジェクト制御部114は、そのうちのいずれの種類のオブジェクトOBを出現させるかの制御を行ってもよい。或いは、フィールドFEの任意の位置に任意の種類のオブジェクトOBを配置可能にしておき、オブジェクト制御部114は、オブジェクトOBの種類及び配置位置を動的に決定してもよい。   The area in which the object OB can be arranged in the field FE and the type (shape) of the object arranged in the area may be fixed in advance. In this case, the control of the object OB is control of whether or not the object OB appears for each area. In addition, a plurality of locatable objects OB are set for one area, and the object control unit 114 may control which type of object OB is to appear. Alternatively, the object control unit 114 may dynamically determine the type and the arrangement position of the object OB while enabling the arrangement of the object OB of an arbitrary type at an arbitrary position of the field FE.

広義には、オブジェクトの制御には、ゲームの進行履歴が用いられる。ゲームの進行履歴とは、キャラクタの進行方向、及びプレーヤの操作入力の結果を含む。上記の例であれば、オブジェクトOB1やOB2に対する動作が成功したという操作入力の結果が取得された場合に、キャラクタの進行方向に新たなオブジェクト(OB3,OB4)を配置するオブジェクト制御が行われる。ただし、他の進行履歴を用いてオブジェクトOBの制御が行われてもよい。例えば、オブジェクト制御部114は、ゲームの経過時間に基づいて、オブジェクトの制御を行う。   In a broad sense, game progress history is used to control objects. The game progress history includes the direction of movement of the character and the result of the player's operation input. In the above example, when the result of the operation input that the operation on the objects OB1 and OB2 is successful is acquired, object control is performed to arrange a new object (OB3, OB4) in the advancing direction of the character. However, control of the object OB may be performed using another progress history. For example, the object control unit 114 controls an object based on the elapsed time of the game.

例えば図9の例において、キャラクタCAがエリアAR2に存在する場合を考える。演奏開始からの経過時間Tがt1<T<t2であり、且つTとt2の差が十分大きい場合、キャラクタCAはある程度の時間エリアAR2に留まる余裕があり、AR3への移動を急ぐ必要がない。この場合、オブジェクト制御部114は、エリアAR3からの距離が相対的に遠い位置に次のオブジェクトOBを配置する制御を行う。このようにすれば、エリアAR2内に効率的にオブジェクトOBを配置し、キャラクタCAのオブジェクトOBに対する動作回数を増やすことが可能になる。   For example, in the example of FIG. 9, consider the case where the character CA is present in the area AR2. If the elapsed time T from the start of the performance is t1 <T <t2 and the difference between T and t2 is sufficiently large, the character CA has room to stay in the time area AR2 to a certain extent, and there is no need to hurry to move to AR3. . In this case, the object control unit 114 controls the placement of the next object OB at a position relatively far from the area AR3. In this way, it is possible to efficiently arrange the object OB in the area AR2 and to increase the number of times of operation of the character CA on the object OB.

Tとt2の差が小さい場合、時系列楽曲部分の遷移を考慮すれば、AR3への移動を念頭においたキャラクタCAの操作を、プレーヤに実行させるとよい。この場合、オブジェクト制御部114は、エリアAR3からの距離が相対的に近い位置に次のオブジェクトOBを配置する制御を行う。このようにすれば、キャラクタCAのエリアAR3への移動をスムーズに行わせることが可能になる。このように経過時間を考慮してオブジェクトOBを制御することで、ゲーム初心者であっても、時系列楽曲部分の遷移と、パート楽曲部分の選択のバランスがとれた、好ましい演奏を実現することが可能になる。   If the difference between T and t2 is small, the player should be made to execute the operation of the character CA with the movement to AR3 in mind, considering the transition of the time-series music portion. In this case, the object control unit 114 controls the placement of the next object OB at a position relatively close to the area AR3. In this way, it is possible to smoothly move the character CA to the area AR3. By controlling the object OB in consideration of the elapsed time as described above, even for a game beginner, it is possible to realize a preferable performance in which the transition of the time-series music portion and the selection of the part music portion are balanced. It will be possible.

或いは、オブジェクト制御部114は、一旦出現させたオブジェクトOBを所定時間の経過を条件に消失させる(非配置とする)制御を行ってもよい。このようにすれば、プレーヤはオブジェクトOBの出現後、速やかに当該オブジェクトOBの位置まで移動しなければ動作を実行できない。換言すれば、プレーヤがスムーズにキャラクタ操作を行った場合に、多数のオブジェクトOBで動作を行って楽曲の音を厚くすることが可能になり、興趣性の高いゲームシステムを実現できる。   Alternatively, the object control unit 114 may perform control to eliminate (dispose of) the object OB that has once appeared, on the condition that the predetermined time has elapsed. In this way, the player can not execute an action unless the player immediately moves to the position of the object OB after the appearance of the object OB. In other words, when the player performs a character operation smoothly, it is possible to operate with a large number of objects OB to thicken the sound of the music, and a highly entertaining game system can be realized.

また、プレーヤの操作入力の結果に基づくオブジェクト制御とは、キャラクタCAのオブジェクトOBに対する動作が成功した場合に次のオブジェクトOBを追加し、失敗した場合に追加しない、といった単純な制御であってもよい。ただし、プレーヤの操作入力の結果として、より複雑な情報、例えば上述したビートパラメータの値を用いてもよい。   Further, object control based on the result of the player's operation input is a simple control such as adding the next object OB when the operation on the object OB of the character CA is successful and not adding it when the operation fails. Good. However, more complex information, for example, the value of the beat parameter described above may be used as a result of the player's operation input.

例えばオブジェクト制御部114は、ビートパラメータが高い場合には、低い場合に比べて追加されるオブジェクトOBの数を多くしたり、追加されるオブジェクトOBの形状を複雑にする。このようにすれば、ビートパラメータが高いほど、追加されるオブジェクトOBに対するキャラクタCAの動作回数が増えたり、実行する動作が複雑に(派手に)なる。つまり、それまでの操作がうまくいっているほど、キャラクタCAに派手な動作を繰り出させることが可能になるため、興趣性の高いゲームシステムを実現できる。   For example, when the beat parameter is high, the object control unit 114 increases the number of objects OB to be added compared with the case where the beat parameter is low, or complicates the shape of the object OB to be added. In this case, as the beat parameter is higher, the number of times of operation of the character CA with respect to the added object OB increases, and the operation to be performed becomes more complicated (flashy). In other words, the more successful the previous operation is, the more the character CA can make a more flashy motion, so that a highly entertaining game system can be realized.

図13は、オブジェクト制御部114での処理を説明するフローチャートであり、図11(A)のS105の処理に対応する。この処理が開始されると、オブジェクト制御部114は、ゲーム進行履歴を取得する(S301)。具体的には、ゲームの経過時間、キャラクタの進行方向、及びプレーヤの操作入力の結果を取得する。   FIG. 13 is a flowchart for explaining the processing in the object control unit 114, and corresponds to the processing of S105 in FIG. When this process is started, the object control unit 114 acquires a game progress history (S301). Specifically, the elapsed time of the game, the advancing direction of the character, and the result of the operation input by the player are acquired.

次にオブジェクト制御部114は、取得したゲーム進行履歴に基づいて、オブジェクトの配置位置の決定(S302)、及び追加配置するオブジェクトOBの数、種類の決定を行う(S303)。そしてオブジェクト制御部は、S302及びS303で決定した内容に基づいて、オブジェクトOBを実際に配置する処理、即ち3次元マップの更新処理を行う(S304)。   Next, the object control unit 114 determines the arrangement position of the object (S302) and the number and type of the objects OB to be additionally arranged based on the acquired game progress history (S303). Then, based on the contents determined in S302 and S303, the object control unit performs processing for actually arranging the object OB, that is, processing for updating the three-dimensional map (S304).

2.4 アニメーション処理
以上で説明した手法により、キャラクタCAに種々の動作を行わせることで、自然に楽曲を演奏している感覚をプレーヤに与えることが可能になる。従来の音楽ゲームのように「良い演奏」のために複雑な操作が必要なく、また動作自体がアクロバティックであるため、プレーヤに強い爽快感を与えることが可能である。
2.4 Animation Processing By making the character CA perform various operations according to the method described above, it is possible to give the player a feeling of playing music naturally. It is possible to give the player a strong exhilaration because the complicated operation is not necessary for "good performance" as in the conventional music game, and the action itself is acrobatic.

しかし、キャラクタCAが実行する動作には、当該動作において特徴的なタイミング(フレーム、姿勢)が存在する。例えば図4〜図5(C)に示した跳躍動作であれば、オブジェクトOB1の上面に左手を付いて両足を振り上げる姿勢(A2)が特徴的である。そのため、A2(図5(B))等の動作における特徴的なタイミング(以下、動作特徴タイミング)と、楽曲における特徴的なタイミング(以下、楽曲特徴タイミング)とが一致することが望ましい。動作特徴タイミングと楽曲特徴タイミングとの時間差が大きい場合、動作と楽曲の連動性が損なわれ、動作を用いて楽曲を演奏しているという感覚をプレーヤに与えることが難しくなってしまう。   However, in the operation performed by the character CA, there is a characteristic timing (frame, posture) in the operation. For example, in the case of the jumping operation shown in FIGS. 4 to 5C, a posture (A2) in which the left hand is attached to the upper surface of the object OB1 and the legs are raised is characteristic. Therefore, it is desirable that the characteristic timing (hereinafter, operation feature timing) in the operation of A2 (FIG. 5B) and the like coincide with the characteristic timing (hereinafter, music feature timing) in the music. If the time difference between the motion feature timing and the music feature timing is large, the link between the motion and the music is lost, and it becomes difficult to give the player a feeling that the music is played using the motion.

楽曲に合わせて動作するキャラクタアニメーションについては特許文献2に開示がある。しかし、特許文献2ではキャラクタの動作とプレーヤ操作が関連しないため、楽曲が決定された段階で当該楽曲に適したアニメーションを決定できる。それに対して本実施形態では、キャラクタCAの動作はプレーヤの操作入力に基づいて決定される。楽曲のどのタイミングで、どのような動作が実行されるかを事前に知ることができないため、特許文献2の手法を適用することは困難である。   Patent Document 2 discloses a character animation that operates in accordance with music. However, in Patent Document 2, since the action of the character and the player operation are not related, it is possible to determine an animation suitable for the song when the song is determined. On the other hand, in the present embodiment, the motion of the character CA is determined based on the player's operation input. It is difficult to apply the method of Patent Document 2 because it is not possible to know in advance at what timing of the music what operation is to be executed.

以下、キャラクタの動作と楽曲とをシンクロさせるためのアニメーション処理について説明する。   Hereinafter, animation processing for synchronizing the motion of the character and the music will be described.

2.4.1 基本的なアニメーション処理
アニメーション処理部108はアニメーション処理を行う。即ちキャラクタCAにアニメーション(モーション)を行わせるアニメーション再生処理を行う。このアニメーション再生処理は、アニメーション情報記憶部174に記憶されているアニメーション情報を再生することなどで実現できる。
2.4.1 Basic Animation Processing The animation processing unit 108 performs animation processing. That is, an animation reproduction process for causing the character CA to perform animation (motion) is performed. The animation reproduction processing can be realized by reproducing animation information stored in the animation information storage unit 174.

例えば図14に示すように、キャラクタCA等を表すモデルオブジェクトMOBは、複数のパーツオブジェクト(腰32、胸34、首36、頭38、右上腕40、右前腕42、右手44、左上腕46、左前腕48、左手50、右股52、右すね54、右足56、左股58、左すね60、左足62)により構成されている。そして、これらのパーツオブジェクト(部位)の位置や回転角度(方向)は、スケルトンモデルを構成する骨B0〜B19の位置(関節J0〜J15の位置)や回転角度(親の骨に対する子の骨の相対的な回転角度)により特定される。なお、これらの骨、関節は仮想的なものであり、現実に表示されるオブジェクトではない。   For example, as shown in FIG. 14, a model object MOB representing a character CA or the like includes a plurality of part objects (a waist 32, a chest 34, a neck 36, a head 38, an upper right arm 40, a right forearm 42, a right hand 44, an upper left arm 46, The left forearm 48, left hand 50, right crotch 52, right shin 54, right foot 56, left crotch 58, left shin 60, left foot 62). The positions and rotational angles (directions) of these part objects (portions) are determined by the positions of bones B0 to B19 (positions of joints J0 to J15) constituting the skeleton model and the rotational angles (positions of the bones of the child relative to the parent bones). Specified by relative rotation angle). Note that these bones and joints are virtual ones, not objects displayed in reality.

アニメーション情報記憶部174には、例えば、これらの骨(パーツオブジェクト、関節)の位置、回転角度がアニメーション情報(モーション情報)として記憶される。具体的には図15に示すように、親の骨BMPに対する子の骨BMCの、X軸、Y軸、Z軸回りの回転角度α、β、γ等が、アニメーション情報として記憶される。   In the animation information storage unit 174, for example, the positions and rotation angles of these bones (part objects, joints) are stored as animation information (motion information). Specifically, as shown in FIG. 15, rotation angles α, β, γ, etc. about the X axis, Y axis, Z axis of child bone BMC with respect to parent bone BMP are stored as animation information.

なお、アニメーション情報の構造等は、図14、図15に限定されず、種々の変形実施が可能である。例えば骨の回転角度だけをアニメーション情報に含ませて、骨の位置(関節の位置)についてはモデルオブジェクトのモデルデータの中に含ませてもよい。また図14の骨B1〜B19以外に、モーション骨によるモデルオブジェクトの変形を補助する補助骨を設けてもよい。   In addition, the structure etc. of animation information are not limited to FIG. 14, FIG. 15, Various deformation | transformation implementation is possible. For example, only the rotation angle of the bone may be included in the animation information, and the position of the bone (the position of the joint) may be included in the model data of the model object. In addition to the bones B1 to B19 of FIG. 14, an auxiliary bone may be provided to assist the deformation of the model object by the motion bone.

図16に本実施形態で使用されるアニメーション情報のデータ構造の例を示す。1つのアニメーション情報は、例えば時系列的に並べられた複数の姿勢データの集合であり、姿勢データは例えば各骨の回転角度を表すデータの集合である。図16は、図4に示した跳躍動作を実現するためのアニメーション情報の例であり、当該跳躍動作は0〜N(Nは正の整数)の各フレームにおいて、キャラクタCAに対応する姿勢を取らせることで実現される。例えば図16の0フレーム目が図4のA1に対応し、k(kは1<k<Nの整数)フレーム目がA2に対応し、Nフレーム目がA3に対応する。   FIG. 16 shows an example of the data structure of animation information used in the present embodiment. One piece of animation information is, for example, a set of a plurality of posture data arranged in time series, and the posture data is, for example, a set of data representing a rotation angle of each bone. FIG. 16 shows an example of animation information for realizing the jumping operation shown in FIG. 4. The jumping operation takes an attitude corresponding to the character CA in each frame of 0 to N (N is a positive integer). It is realized by For example, the 0th frame in FIG. 16 corresponds to A1 in FIG. 4, the k (k is an integer of 1 <k <N) frame corresponds to A2, and the Nth frame corresponds to A3.

またアニメーション情報は、キーフレームの情報を含む。キーフレームとは、当該アニメーション情報に対応するキャラクタCAの動作における、動作特徴タイミングを表すフレームのことである。例えば図16のアニメーション情報は、A2に対応するkフレーム目がキーフレームであるという情報を含んでいる。即ち、処理対象(再生対象)であるアニメーション情報が決定されれば、当該アニメーション情報内でのキーフレームの位置、例えば「アニメーションの再生開始からkフレーム目」という相対的なタイミングを特定可能である。   The animation information also includes key frame information. The key frame is a frame representing motion feature timing in the motion of the character CA corresponding to the animation information. For example, the animation information in FIG. 16 includes information that the k-th frame corresponding to A2 is a key frame. That is, if animation information to be processed (reproduction target) is determined, it is possible to specify the position of a key frame in the animation information, for example, the relative timing of “the kth frame from the start of animation reproduction”. .

一方、楽曲側にも特徴的なタイミングが存在する。楽曲特徴タイミングは、例えば楽曲の拍のタイミングである。拍とは楽曲における基本的なリズムであって、拍のタイミングとは、4/4拍子の例であれば、図17のC1のタイミングや、図17のC2に示す裏拍と呼ばれるタイミングである。なお、具体的なタイミング間隔(拍の長さ、テンポ)は楽曲の速さ(BPMの値)に応じて変化する。特徴的なタイミングは楽曲の構成に依存することになるが、楽曲が特定されれば当該楽曲における楽曲特徴タイミングは特定可能である。なお、時系列楽曲部分に応じて楽曲特徴タイミングが変化する楽曲を用いてもよく、時系列楽曲部分に基づいて楽曲特徴タイミングが特定されてもよい。   On the other hand, characteristic timing also exists on the music side. The music feature timing is, for example, the timing of the beat of the music. The beat is a basic rhythm in the music, and the timing of the beat is a timing called C1 in FIG. 17 or a timing called back beat shown in C2 in FIG. 17 in the example of 4/4 beats. . The specific timing interval (beat length, tempo) changes according to the speed of the music (BPM value). The characteristic timing depends on the composition of the music, but if the music is specified, the music feature timing in the music can be specified. In addition, the music which a music characteristic timing changes according to a time-sequential music part may be used, and a music characteristic timing may be specified based on a time-sequential music part.

図18は、楽曲特徴タイミングと動作特徴タイミング(アニメーション情報のキーフレーム)の関係を示す図である。図18の横軸は実時間であり、例えばゲーム開始からの経過時間(単位:msec)である。楽曲の再生が途中で停止することがないと仮定すれば、経過時間軸上での楽曲特徴タイミングの位置は、楽曲の再生開始時点で特定可能である。   FIG. 18 is a diagram showing the relationship between music feature timing and operation feature timing (key frame of animation information). The horizontal axis in FIG. 18 is real time, and is, for example, an elapsed time from the start of the game (unit: msec). Assuming that the reproduction of the music does not stop halfway, the position of the music feature timing on the elapsed time axis can be specified at the time when the reproduction of the music starts.

またアニメーション処理部108は、プレーヤの操作入力に基づいて、再生対象であるアニメーション情報の特定、及び、当該アニメーション情報の再生開始タイミングの特定処理を行う。具体的には、キャラクタCAの近傍に位置するオブジェクトOBの種類と、プレーヤによる操作入力の種類(例えば押下されたボタンの種類)に基づいて、再生対象であるアニメーション情報が特定される。また、プレーヤによる操作入力が実行されたタイミングに基づいて、アニメーション情報の再生開始タイミングが特定される。   Also, the animation processing unit 108 performs identification processing of animation information to be reproduced and identification processing of reproduction start timing of the animation information based on the operation input of the player. Specifically, animation information to be reproduced is specified based on the type of the object OB located in the vicinity of the character CA and the type of the operation input by the player (for example, the type of the pressed button). Further, the reproduction start timing of the animation information is specified based on the timing when the operation input by the player is performed.

図18では、tのタイミングを開始タイミングとして、図16に示したアニメーション情報を再生する、という特定処理が行われた例を示している。フレームレートはゲームシステムの設計上既知であるため、経過時間軸上での各フレームの位置を特定することは容易である。或いは、アニメーション情報自体が、フレーム単位ではなく時間単位(例えばmsec単位)で姿勢データを保持していてもよい。 FIG. 18 illustrates an example in which the specific process of reproducing the animation information illustrated in FIG. 16 is performed with the timing of t S as the start timing. Since the frame rate is known in the design of the game system, it is easy to specify the position of each frame on the elapsed time axis. Alternatively, the animation information itself may hold posture data not on a frame basis but on a time basis (for example, a msec unit).

図18に示すように、経過時間軸上でのキーフレームの位置(t)と、楽曲特徴タイミング(tm1〜tm5)は一致しない。そのため、ここままアニメーション情報の再生処理を行うと、動作と楽曲の連動性が損なわれる。 As shown in FIG. 18, the position (t K ) of the key frame on the elapsed time axis does not coincide with the music feature timing (tm1 to tm5). Therefore, if the reproduction process of the animation information is performed as it is, the link between the operation and the music is lost.

そこで本実施形態のタイミング処理部110は、基準タイミング、及び音のタイミングの特定処理を行い、アニメーション処理部108は、音のタイミングに合わせて、キャラクタCA(広義には移動体)のアニメーション処理を行う。より具体的には、アニメーション処理部108は、音のタイミングに基づいて、アニメーション処理に用いられるアニメーション情報の調整処理を行うものであり、音のタイミング情報に合わせてキャラクタCAが動作するように、調整処理を行う。   Therefore, the timing processing unit 110 of this embodiment performs processing for specifying reference timing and sound timing, and the animation processing unit 108 performs animation processing of the character CA (moving object in a broad sense) in accordance with the timing of the sound. Do. More specifically, the animation processing unit 108 performs adjustment processing of animation information used for animation processing based on the timing of the sound, so that the character CA operates according to the timing information of the sound. Perform adjustment processing.

図19は、調整処理を説明する図である。図18に示したように、tを開始タイミングとして単純に図16のアニメーション情報の再生処理を行った場合、キーフレームの再生タイミングは、いずれの楽曲特徴タイミングとも一致しない。 FIG. 19 is a diagram for explaining the adjustment process. As shown in FIG. 18, when the reproduction process of the animation information of FIG. 16 is simply performed with t S as the start timing, the reproduction timing of the key frame does not coincide with any of the music feature timings.

よって本実施形態では、タイミング処理部110は、まずキーフレームの再生タイミングを基準タイミングとして特定する。そしてタイミング処理部110は、基準タイミングに基づいて、調整先となる楽曲特徴タイミングである音のタイミングを特定する。図19の例であれば、基準タイミングとは調整前のキーフレームの再生タイミングであるtであり、再生開始タイミングtとアニメーション情報(図16)から特定可能である。また、音のタイミングtとは、基準タイミングより時間的に後、且つ、基準タイミングに近い楽曲特徴タイミングであり、例えばt=tm3である。ただし、tm4やtm5が音のタイミングとなることは妨げられない。 Therefore, in the present embodiment, the timing processing unit 110 first specifies the reproduction timing of the key frame as the reference timing. Then, based on the reference timing, the timing processing unit 110 specifies the timing of the sound that is the music feature timing to be adjusted. In the example of FIG. 19, the reference timing is t K which is the reproduction timing of the key frame before adjustment, and can be specified from the reproduction start timing t S and the animation information (FIG. 16). The sound timing t M is a music feature timing that is temporally after the reference timing and close to the reference timing, and is, for example, t M = tm3. However, it does not prevent that tm4 and tm5 become the timing of sound.

アニメーション処理部108は、特定された基準タイミングtを、音のタイミングtに一致させるような調整処理を行う。なお、ここでの一致させる処理とは、完全一致させる処理に限定されず、プレーヤに違和感を与えない程度に時間差を小さくする処理を含む。 The animation processing unit 108 performs adjustment processing to match the specified reference timing t K with the timing t M of the sound. Note that the process of matching here is not limited to the process of completely matching, but includes a process of reducing the time difference to the extent that the player does not feel uncomfortable.

単純な調整処理としては、(1)アニメーションの再生開始タイミングを遅らせる処理、(2)キーフレームよりも前の所定範囲をスロー再生する処理、(3)キーフレーム前の所与のフレームをコピーして追加する処理、等が考えられる。(1)〜(3)は、いずれも基準タイミングを時間的に後方にずらす処理であるため、ずれ量を基準タイミングと音のタイミングの時間差に合わせることで、基準タイミングと音のタイミングを一致させられる。   As simple adjustment processing, (1) processing of delaying the reproduction start timing of animation, (2) processing of slow reproduction of a predetermined range before key frame, (3) copying of a given frame before key frame Processing etc. can be considered. (1) to (3) are processing for shifting the reference timing backward in time, so that the reference timing and the timing of the sound are made to coincide by matching the deviation amount to the time difference between the reference timing and the timing of the sound. Be

しかし、上記(1)〜(3)の処理では、キャラクタCAの動作が不自然になる場面も出てくる。例えば(1)の処理では、プレーヤが操作を行ってからキャラクタCAが動き出すまでのタイムラグが大きくなる。また(2)の処理では、キャラクタCAの動作が遅くなるし、(3)の処理では、キャラクタCAの動作が所定姿勢で一時停止する。例えば格闘ゲームにおいて、腕を前方に打ち抜くパンチアニメーションを再生する場合、前方へ腕を振り出す動作がスロー再生されてはパンチの迫力に欠けるし、途中で腕が停止してしまっては攻撃アニメーションとして明らかに不自然である。   However, in the above processes (1) to (3), there are also situations where the motion of the character CA becomes unnatural. For example, in the process of (1), the time lag from when the player performs an operation to when the character CA starts moving becomes large. Further, in the process of (2), the motion of the character CA is delayed, and in the process of (3), the motion of the character CA is paused at a predetermined posture. For example, in a fighting game, when playing a punch animation in which the arm is punched forward, the action of swinging the arm forward is slow-played to lose the force of the punch, and the arm stops in the middle as the attack animation Clearly unnatural.

よって本実施形態の調整処理は、調整後のアニメーションが不自然とならないように行われることが望ましい。例えば、(1)の調整処理は、動き出しまでのタイムラグが小さい場合、具体的には基準タイミングと音のタイミングの時間差(例えば調整前のtとtの差)がある程度小さい場合に用いられる。 Therefore, it is desirable that the adjustment process of this embodiment be performed so that the animation after adjustment does not become unnatural. For example, used when (1) adjustment processing, when the time lag until the start moving is small, (the difference between the example before adjustment t K and t M) specifically on the time difference of the timing of the reference timing and sound is small to some extent .

(2)の調整処理は、スロー再生されても違和感を与えないような動作範囲を対象として実行される。例えば、パンチアニメーションにおいて、腕を振りかぶるテイクバック動作は多少ゆっくりでも問題無い。よってテイクバック動作に対応するフレーム範囲を対象として、(2)の調整処理を実行するとよい。スロー再生する処理は、具体的には補間処理を行ってフレームを追加する処理により実現できる。例えば各アニメーション情報は、(2)の調整処理の対象とできるフレーム範囲や、各フレーム範囲の調整可能幅の情報を含んでもよい。ここでの調整可能幅とは、広義には、当該フレーム範囲の動作をどの程度間延びさせても不自然にならないかを表すパラメータである。   The adjustment process of (2) is executed for an operation range that does not give a sense of incongruity even when being slow-played. For example, in the punch animation, the takeback operation that shakes the arm does not matter even if it is somewhat slow. Therefore, it is preferable to execute the adjustment process (2) on the frame range corresponding to the takeback operation. The processing for slow reproduction can be specifically realized by processing of performing interpolation processing and adding a frame. For example, each piece of animation information may include the frame range that can be the target of the adjustment process of (2), and information of the adjustable width of each frame range. The adjustable width here is a parameter that broadly indicates how much the operation of the frame range does not become unnatural.

また、(3)の調整処理は、同じ姿勢が継続されても違和感を与えないようなフレームを対象として実行される。例えばパンチアニメーションにおいて、テイクバック後、且つ腕を振り出す前の姿勢で停止することは、力をためる動作、狙いを定める動作と捉えられるため不自然でない。よって当該フレームをコピー対象として(3)の調整処理を行うとよい。また、コピー対象は1フレームに限定されず、複数のフレームを対象としてもよい。例えば図4の跳躍動作の場合、助走の歩数を増やせばキーフレームの再生タイミングを遅らせることができ、且つ、歩数が増えることは動作として不自然でない。よって助走の2歩に対応するフレーム区間をコピーの対象として(3)の調整処理を行ってもよい。コピーしたフレームの追加箇所や、踏み切る足、動作開始時に踏み出す足等の調整まで考慮すれば、助走の1歩に対応するフレーム区間をコピーの対象とすることも妨げられない。各アニメーション情報は、(3)の調整処理の対象とできるフレーム(フレーム範囲)の情報を含んでもよい。   The adjustment process (3) is performed on a frame that does not give a sense of incongruity even if the same posture is continued. For example, in the punch animation, stopping in a posture after taking back and before swinging out an arm is not unnatural because it is regarded as an operation of accumulating force and an operation of aiming. Therefore, it is preferable to perform the adjustment process (3) with the frame as a copy target. Further, the copy target is not limited to one frame, and a plurality of frames may be targeted. For example, in the case of the jumping operation shown in FIG. 4, the key frame playback timing can be delayed by increasing the number of steps of the approach, and it is not unnatural as the operation that the number of steps is increased. Therefore, the adjustment process of (3) may be performed with the frame section corresponding to two steps of the run as a target of copying. Taking into consideration the adjustment of the added part of the copied frame, the stepping foot, the foot to be taken at the start of the operation, etc., it is not disturbed to set the frame section corresponding to one step of the run as a copy target. Each piece of animation information may include information of a frame (frame range) that can be the target of the adjustment process (3).

また、(2)と(3)の調整処理を組み合わせることも妨げられない。例えば、助走の歩数を増やす(3)の調整処理を行いつつ、助走のピッチを変更する(2)の調整処理を行う。このようにすれば、キャラクタCAに自然な動作を行わせつつ、キーフレームの再生タイミングを柔軟に変更することが可能になる。当然、(1)の調整処理との組み合わせも妨げられない。   In addition, combining the adjustment processes of (2) and (3) is not hindered. For example, while performing the adjustment process of (3) to increase the number of steps of the approach, the adjustment process of (2) of changing the pitch of the approach is performed. In this way, it is possible to flexibly change the key frame reproduction timing while causing the character CA to perform a natural operation. Of course, the combination with the adjustment process of (1) is not hindered either.

図20は、アニメーション処理を説明するフローチャートである。図20は、図11(A)のS102の処理に対応する。この処理が開始されると、S101での操作入力に基づく操作情報が取得される(S401)。S401での処理は、例えばプレーヤにより押下されたボタンを特定する情報の取得処理である。   FIG. 20 is a flowchart illustrating animation processing. FIG. 20 corresponds to the process of S102 of FIG. When this process is started, operation information based on the operation input in S101 is acquired (S401). The process in S401 is, for example, an acquisition process of information for identifying a button pressed by the player.

またキャラクタCAの存在エリアに基づいて、再生対象となる時系列楽曲部分が特定される(S402)。なお、図20には不図示であるが、再生対象となるパート楽曲部分が特定されてもよい。この処理は、楽曲再生部112で行われる。また、楽曲自体から楽曲特徴タイミングが特定可能である場合、S402の処理は省略可能である。   Further, based on the presence area of the character CA, a time-series music portion to be reproduced is specified (S402). Although not shown in FIG. 20, part music pieces to be reproduced may be specified. This process is performed by the music reproduction unit 112. When the music feature timing can be identified from the music itself, the process of S402 can be omitted.

アニメーション処理部108は、キャラクタCAの近傍に位置するオブジェクトOBと、S401で取得した操作情報に基づいて、処理対象となるアニメーション情報を決定する(S403)。タイミング処理部110は、図18に示したように、基準タイミング(t)と、音のタイミング(t)を決定する(S404、S405)。 The animation processing unit 108 determines animation information to be processed based on the object OB located near the character CA and the operation information acquired in S401 (S403). The timing processing unit 110 determines the reference timing (t K ) and the timing of the sound (t M ) as shown in FIG. 18 (S 404, S 405).

アニメーション処理部108は、S404で決定された基準タイミングを、S405で決定された音のタイミングに一致させるように、アニメーション情報の調整処理を行う(S406)。S406の処理は、上述したように、動作が不自然にならないようなスロー再生(補間処理)や、所定フレーム(フレーム区間)のコピーにより実現できる。アニメーション処理部108は、調整処理後のアニメーション情報の再生処理を行う(S407)。   The animation processing unit 108 performs animation information adjustment processing so that the reference timing determined in S404 matches the timing of the sound determined in S405 (S406). As described above, the process of S406 can be realized by slow reproduction (interpolation process) or copying of a predetermined frame (frame section) such that the operation does not become unnatural. The animation processing unit 108 performs reproduction processing of the animation information after the adjustment processing (S407).

2.4.2 アニメーション情報の決定処理
以上では、図20のS403に示したように、オブジェクトOBと操作情報に基づいて処理対象のアニメーション情報が1つに特定(決定)される例を示した。しかし、アニメーション情報の決定処理は種々の変形実施が可能である。
2.4.2 Decision Process of Animation Information In the above, as shown in S403 of FIG. 20, an example in which pieces of animation information to be processed are specified (determined) on the basis of the object OB and the operation information has been shown. . However, various modifications can be made to the process of determining animation information.

図21は、アニメーション情報記憶部174に記憶されるアニメーション情報の例であり、1行が1つのアニメーション情報に対応する。各アニメーション情報は、ファイル名と、動作属性、キーフレームの情報を含む。また図21では省略しているが、各アニメーション情報は、図16に示したように、各フレームでの姿勢(骨の位置、回転角度)の情報を含む。また調整処理において上述したように、アニメーション情報は、調整処理の対象として選択可能なフレーム等の情報を含んでもよい。   FIG. 21 shows an example of animation information stored in the animation information storage unit 174, and one line corresponds to one piece of animation information. Each piece of animation information includes information on file name, operation attribute, and key frame. Although not shown in FIG. 21, each piece of animation information includes information on the posture (the position of the bone, the rotation angle) in each frame, as shown in FIG. Further, as described above in the adjustment process, the animation information may include information such as a frame that can be selected as a target of the adjustment process.

図21に示すように、キャラクタCAに跳躍を行わせるアニメーションは1つに限定されず、FA1、FA2…のように複数のアニメーション情報が存在する。例えばパルクールでは、片足を跳躍対象物に載せるセーフティヴォルト、横方向から跳躍対象物に進入するスピードヴォルト、両手を跳躍対象物について当該手の間に両足を通すコングヴォルト等、多数の跳躍技が知られている。例えばキャラクタCAにセーフティヴォルトを行わせるアニメーション情報をFA1、スピードヴォルトを行わせるアニメーション情報をFA2、といったように、アニメーション情報記憶部174は、それぞれの跳躍動作を1つのアニメーション情報として管理する。   As shown in FIG. 21, the animation for causing the character CA to jump is not limited to one, and a plurality of pieces of animation information exist as FA1, FA2,. For example, in Parkour, many jumping techniques are known, such as a safety vault that places one foot on the jumping object, a speed volto that enters the jumping object from the side direction, a congregation where both hands are passed between the hands for the jumping object, and so on. It is done. For example, the animation information storage unit 174 manages each jumping operation as one piece of animation information, such as the animation information for causing the character CA to perform the safety vault as FA1 and the animation information for performing the speed vault as FA2.

スライディングについても同様であり、図6のように膝を曲げて上半身を反らせるようなスライディング動作だけでなく、進行方向に足を延ばすフットファーストスライディングや、進行方向に対して両手を前に出すヘッドスライディング等が考えられる。アニメーション情報記憶部174は、それぞれが1つのスライディング動作を表すアニメーション情報を複数記憶する(FB1,FB2等)。   The same applies to sliding, as well as sliding motion in which the knee is bent to bend the upper body as shown in FIG. 6, but also foot first sliding in which the foot is extended in the traveling direction, and head sliding in which both hands are moved forward in the traveling direction Etc. can be considered. The animation information storage unit 174 stores a plurality of pieces of animation information each representing one sliding motion (FB1, FB2, etc.).

その他、パルクールでは壁面によじ登る動作(クライムアップ、ウォールラン等)や、高い位置から安全に着地する動作(ランディング)も多用され、それぞれ複数通りの動作が知られている。よってアニメーション情報記憶部174は、これらについてもそれぞれの動作を実現するためのアニメーション情報を記憶する。さらに、アニメーション情報記憶部174が記憶するアニメーション情報は以上のものに限定されず、宙返り(フリップ)等、他の動作を行うアニメーション情報を含んでもよい。   In addition, in the parkour, there are many operations for climbing the wall (climing up, wall running, etc.) and operations for landing safely from a high position (landing), and a plurality of operations are known. Therefore, the animation information storage unit 174 also stores animation information for realizing each of these operations. Furthermore, the animation information stored in the animation information storage unit 174 is not limited to the above, and may include animation information that performs other operations such as flipping.

アニメーション処理部108は、図21のような多数のアニメーション情報の中から、処理対象となる1つのアニメーション情報を決定する決定処理を行う。なお、オブジェクトOBと操作情報の種類から、図21における動作属性を決定する処理も、アニメーション情報の決定処理に含まれ、当該動作属性のアニメーション情報が1つであれば、決定処理はそれで完了する。ただし、1つの動作属性に複数のアニメーション情報が含まれる場合、アニメーション処理部108は、そこから1つのアニメーション情報を決定する必要がある。   The animation processing unit 108 performs a determination process of determining one piece of animation information to be processed out of a large number of pieces of animation information as shown in FIG. The process of determining the motion attribute in FIG. 21 from the type of the object OB and the operation information is also included in the decision process of animation information, and if there is one piece of animation information of the motion attribute, the decision process is completed at that . However, when a plurality of pieces of animation information are included in one motion attribute, the animation processing unit 108 needs to determine one piece of animation information therefrom.

アニメーション情報の決定処理は種々の手法により実現可能である。例えばアニメーション処理部108は、ビートパラメータや経過時間等のゲーム進行履歴に基づいて、決定処理を行ってもよい。一例としては、ビートパラメータが高いほど、或いは経過時間が長いほど、キャラクタCAの動きが激しいアニメーション情報が処理対象として決定される。動きが激しいとは、動き量が大きいことを表してもよいし、動きが速い(単位時間当たりの動き量が大きい)ことを表してもよい。このようにすれば、動作が成功してビートパラメータが上がると、音の厚みが増すとともに、キャラクタCAの動作も派手になるため、ゲームを盛り上げたり、プレーヤに爽快感を与えることが可能になる。或いは、経過時間が長くなればキャラクタCAがゴールに近づいている蓋然性が高くなるため、キャラクタCAの動作も派手にすることでゲームを盛り上げることが可能になる。   The determination process of animation information can be realized by various methods. For example, the animation processing unit 108 may perform the determination process based on the game progress history such as the beat parameter and the elapsed time. As one example, animation information in which the motion of the character CA is intense is determined as the processing target as the beat parameter is higher or as the elapsed time is longer. The term “intensified movement” may indicate that the amount of movement is large or may indicate that the amount of movement is fast (the amount of movement per unit time is large). In this way, if the operation succeeds and the beat parameter increases, the thickness of the sound increases and the operation of the character CA also becomes bright, so it is possible to excite the game and give the player a refreshing sensation. . Alternatively, since the probability that the character CA is approaching the goal becomes higher as the elapsed time becomes longer, it is possible to make the game more exciting by also making the operation of the character CA flash.

或いは、アニメーション処理部108は、楽曲の情報に基づいて決定処理を行ってもよい。例えば楽曲情報記憶部171は、音量、音程、音色等のパラメータが関連付けられた楽曲情報を記憶する。具体的には、楽曲特徴タイミング(音のタイミング)のそれぞれについて、各特徴タイミングでの音量、音程、音色の情報が関連付けられる。アニメーション処理部108は、アニメーションの再生予定期間において、楽曲がどのような音量、音程、音色であるかを判定する。このようにすれば、再生される楽曲の状態に合わせて、キャラクタCAを動作させることが可能になる。   Alternatively, the animation processing unit 108 may perform the determination process based on the information of the music. For example, the music information storage unit 171 stores music information associated with parameters such as volume, pitch, and timbre. Specifically, for each of the music feature timings (sound timings), information on the volume, pitch, and timbre at each characteristic timing is associated. The animation processing unit 108 determines what volume, pitch, and timbre of the music during the animation reproduction scheduled period. In this way, it is possible to operate the character CA in accordance with the state of the music to be reproduced.

例えば、音量が大きいほど、音程が高いほど、キャラクタCAの動きが激しいアニメーション情報が処理対象として決定される。音量(音程)は、単純な大小(高低)ではなく、所定期間内での音量変化(音程変化)を処理に用いてもよい。例えば音量変化(音程変化)が大きい場合に、キャラクタCAの動きが激しいアニメーション情報が処理対象として決定される。このようにすれば、楽曲が盛り上がっている場面で、キャラクタCAの動作を派手にして、ゲームを盛り上げることが可能になる。音色については、実際の音の波形やフーリエ変換の結果を用いてもよいが、出力されるパート(楽器)の情報を用いてアニメーション情報の決定処理が行われてもよい。例えばギターやドラムが出力される場合は、キャラクタCAの動きが激しいアニメーション情報を処理対象とし、ピアノが出力される場合は、キャラクタCAの動きが少ないアニメーション情報を処理対象とする、といった決定処理が考えられる。   For example, as the volume is higher and the pitch is higher, animation information in which the movement of the character CA is intense is determined as the processing target. The volume (pitch) is not simply large and small (high and low), and volume change (pitch change) within a predetermined period may be used for processing. For example, when the volume change (pitch change) is large, animation information in which the movement of the character CA is intense is determined as the processing target. In this way, it is possible to make the game exciting by making the action of the character CA flash in a scene where the music is exciting. As for the timbre, an actual waveform of a sound or a result of Fourier transform may be used, but the process of determining animation information may be performed using information of a part (musical instrument) to be output. For example, when a guitar or a drum is output, animation information in which the movement of the character CA is intense is to be processed, and when a piano is output, animation information in which the movement of the character CA is small is to be processed. Conceivable.

或いは、アニメーション処理部108は、音のタイミング情報に基づいて決定処理を行ってもよい。例えば、動作属性が「跳躍」であるという決定処理が行われた場合、タイミング処理部110は、跳躍動作に対応する複数のアニメーション情報(FA1,FA2,…)の各アニメーション情報を対象として、基準タイミング及び音のタイミングを求める。そしてアニメーション処理部108は、基準タイミングを音のタイミングに合わせやすいアニメーション情報を、処理対象として決定する。ここでの「合わせやすい」とは、単純には基準タイミングと音のタイミングの時間差が小さいことを表す。ただし、判断基準はこれに限定されず、調整処理を行った後のキャラクタCAの動作が自然であるか否かに基づいて、アニメーション情報を決定してもよい。換言すれば、アニメーション処理部108(タイミング処理部110)は、候補となる複数のアニメーション情報に対して調整処理を試行し、調整処理が適切に実行できるアニメーション情報を再生対象として決定する。   Alternatively, the animation processing unit 108 may perform the determination process based on the timing information of the sound. For example, when the determination processing that the movement attribute is “jumping” is performed, the timing processing unit 110 sets a criterion for each piece of animation information of a plurality of pieces of animation information (FA1, FA2,...) Corresponding to the jumping operation. Find the timing and timing of the sound. Then, the animation processing unit 108 determines animation information that easily matches the reference timing with the timing of the sound as a processing target. Here, “easy to match” simply indicates that the time difference between the reference timing and the sound timing is small. However, the determination criterion is not limited to this, and the animation information may be determined based on whether or not the motion of the character CA after the adjustment process is natural. In other words, the animation processing unit 108 (timing processing unit 110) tries adjustment processing on a plurality of candidate animation information to be candidates, and determines animation information that can be appropriately executed by the adjustment processing as a reproduction target.

また以上では、簡略化のために、1つのアニメーション情報に含まれるキーフレームが1つである例を説明した。しかし動作における特徴的なタイミング(フレーム、動作)は2つ以上であってもよく、その場合のアニメーション情報は複数のキーフレームを含む。例えば、図4の動作において、助走の各足の着地、踏み切り、跳躍後の着地等をキーフレームと考えてもよく、この場合、図4の跳躍動作に対応するアニメーション情報(図16は、複数のキーフレームを含む。   Also, in the above, for simplification, an example in which one key frame is included in one piece of animation information has been described. However, the characteristic timing (frame, operation) in the operation may be two or more, and the animation information in that case includes a plurality of key frames. For example, in the operation of FIG. 4, landing on each foot of the run, stepping off, landing after jumping, etc. may be considered as a key frame. In this case, animation information corresponding to the jumping motion of FIG. Containing keyframes.

或いは、キャラクタCAに複雑な動作を行わせるアニメーション情報が用いられてもよい。図22(A)〜図22(F)は、抱え込みの側方宙返り(以下、側宙)を行う動作の例であるが、側宙を組み合わせた跳躍動作を用いてもよい。例えば、キャラクタCAは、オブジェクトOB1よりも手前側から移動を開始し、助走から踏み切ってまずオブジェクトOB1の上面に着地し、そこから図22(A)〜図22(F)に示した抱え込みの側宙を行って、オブジェクトOB1の奥側に着地する。キャラクタCAの一部がオブジェクトOB1又はフィールドFEに接地するという観点から考えれば、オブジェクトOB1の上面への着地、及び側宙によるフィールド面への着地の両方が、特徴的なタイミングとなる。動作としても、OB1に乗るまでの動作と、側宙によりOB1から降りる動作を分けて考えることが自然であり、上記跳躍動作は少なくとも2つの特徴を有する。即ち、キャラクタCAに上記跳躍動作を行わせるアニメーション情報は、複数のキーフレームを有する。その他、複数のキーフレームを有するアニメーション情報は種々考えられる。   Alternatively, animation information that causes the character CA to perform a complex motion may be used. FIG. 22A to FIG. 22F show an example of an operation to perform side flipping (hereinafter referred to as “side floating”) of holding, but a jumping operation combining the side coupling may be used. For example, the character CA starts moving from the front side of the object OB1 and steps off from the approach and first lands on the upper surface of the object OB1, and from there the side of the holding shown in FIG. 22A to FIG. Take a flight and land on the back side of the object OB1. From the point of view that part of the character CA is in contact with the object OB1 or the field FE, both the landing on the top surface of the object OB1 and the landing on the field surface by the side air are characteristic timings. As the movement, it is natural to think separately from the movement up to OB1 and the movement down from OB1 due to the side, and the above-mentioned jumping movement has at least two features. That is, the animation information for causing the character CA to perform the jumping operation has a plurality of key frames. Besides, various kinds of animation information having a plurality of key frames can be considered.

キーフレームが複数存在するアニメーション情報では、基準タイミングも複数設定される。例えば、タイミング処理部110は、第1のキーフレームに対応する第1の基準タイミングと第2のキーフレームに対応する第2の基準タイミングを決定し、第1の基準タイミングに対応する第1の音のタイミングと第2の基準タイミングに対応する第2の音のタイミングを決定する。アニメーション処理部108は、第1の基準タイミングを第1の音のタイミングに合わせ、第2の基準タイミングを第2の音のタイミングに合わせる処理を、調整処理として実行する。   In animation information in which a plurality of key frames exist, a plurality of reference timings are also set. For example, the timing processing unit 110 determines a first reference timing corresponding to the first key frame and a second reference timing corresponding to the second key frame, and the first processing corresponding to the first reference timing. The timing of the second sound corresponding to the timing of the sound and the second reference timing is determined. The animation processing unit 108 executes processing of adjusting the first reference timing to the timing of the first sound and adjusting the second reference timing to the timing of the second sound as adjustment processing.

図23(A)〜図23(C)は、複数のキーフレームを含むアニメーション情報を対象とした調整処理を説明する図である。図23(A)に示すように、基準タイミング及び音のタイミングが決定された場合、アニメーション処理部108は、開始タイミングから第1の基準タイミングまでの第1の調整期間、及び第1の基準タイミングから第2の基準タイミングまでの第2の調整期間を対象として、上述した調整処理を実行する。   FIGS. 23A to 23C illustrate adjustment processing for animation information including a plurality of key frames. As shown in FIG. 23A, when the reference timing and the timing of the sound are determined, the animation processing unit 108 performs the first adjustment period from the start timing to the first reference timing, and the first reference timing. The adjustment process described above is performed for the second adjustment period from the second to the second reference timing.

例えば、アニメーション処理部108は、第1の調整期間を延長して第1の基準タイミングを第1の音のタイミングに合わせる調整処理を行い(図23(B))、その後、第2の調整期間を延長して第2の基準タイミングを第2の音のタイミングに合わせる調整処理を行う(図23(C))。ただし上述したように、キャラクタCAに自然な動作を実行させるという観点から、各調整期間は延長可能な範囲が制限される。そのため、図23(B)と図23(C)の少なくとも一方の調整処理を実現できない場面も考えられる。或いは、あえて第1の基準タイミングと第1の音のタイミングを揃えないことで、第2の基準タイミングの調整がうまくいくといった場面も想定される。よってアニメーション処理部108での調整処理は、時系列的に前の調整期間から順次延長幅を決定する処理に限定されず、全体を考慮した上で各調整期間の最適な延長幅を決定する処理により実現されてもよい。例えばアニメーション処理部108は、所与の評価関数を設定し、当該評価関数による評価値が極大となるように、各調整期間の延長幅を決定する。   For example, the animation processing unit 108 performs an adjustment process of extending the first adjustment period to match the first reference timing with the timing of the first sound (FIG. 23B), and then the second adjustment period. To adjust the second reference timing to the timing of the second sound (FIG. 23 (C)). However, as described above, the range over which each adjustment period can be extended is limited in terms of causing the character CA to perform a natural operation. Therefore, a situation in which at least one of the adjustment processes in FIG. 23B and FIG. 23C can not be realized is also conceivable. Alternatively, it is also conceivable to adjust the second reference timing successfully by not intentionally aligning the timing of the first reference timing with the timing of the first sound. Therefore, the adjustment process in the animation processing unit 108 is not limited to the process of determining the extension width sequentially from the previous adjustment period in time series, and the process of determining the optimum extension width of each adjustment period in consideration of the whole. It may be realized by For example, the animation processing unit 108 sets a given evaluation function, and determines the extension width of each adjustment period so that the evaluation value by the evaluation function becomes maximum.

アニメーション処理部108は、例えば上記評価関数の評価値に基づいて、再生対象となるアニメーション情報の決定処理を行ってもよい。評価関数は、キーフレームの数、音のタイミングに合わせることができた基準タイミングの数(以下、調整成功数)、音のタイミングに合わせることができなかった基準タイミングの数(以下、調整失敗数)等に基づいて、評価値を決定する関数である。例えば、調整成功数が多いほど値が大きくなり、調整失敗数が多いほど値が小さくなるような評価関数を用いる。キーフレーム数をどのように評価に用いるかは種々の考え方があるが、例えばキーフレーム数が動作の複雑さに関係することを考慮し、キーフレーム数が多いほど値が大きくなるような評価関数を用いる。   The animation processing unit 108 may perform processing of determining animation information to be reproduced based on, for example, the evaluation value of the evaluation function. The evaluation function is the number of key frames, the number of reference timings that could be adjusted to the timing of the sound (hereinafter referred to as the number of adjustment successes), the number of reference timings that could not be matched to the timing of the sound (hereinafter referred to as the number of adjustment failures ) Is a function that determines an evaluation value. For example, an evaluation function is used in which the value increases as the number of adjustment successes increases and decreases as the number of adjustment failures increases. There are various ways of thinking about how to use the number of key frames for evaluation. For example, considering that the number of key frames is related to the complexity of operation, an evaluation function whose value increases as the number of key frames increases. Use

選択されるアニメーション情報は、評価関数の具体的な形式に応じて変化することになる。例えばアニメーション処理部108は、元々のキーフレーム数が同じ複数のアニメーション情報が存在する場合、調整成功数が多いアニメーション情報を処理対象として決定する。或いは、アニメーション処理部108は、全キーフレーム数に対する調整成功数の割合が高いアニメーション情報を処理対象としてもよい。   The animation information to be selected will change according to the specific form of the evaluation function. For example, when a plurality of pieces of animation information having the same original key frame number exist, the animation processing unit 108 determines animation information having a large number of successful adjustment as a processing target. Alternatively, the animation processing unit 108 may process animation information in which the ratio of the number of successful adjustment to the total number of key frames is high.

また、以上では楽曲特徴タイミングとして、図17のC1やC2に示した拍のタイミングを用いた。ただし楽曲特徴タイミングはこれに限定されない。例えば、所定パートの音が出力されるタイミングを楽曲特徴タイミングとしてもよい。例えば、図8に示した例において、ギターパートの出力タイミングを楽曲の特徴タイミングとする。ギター1では、音の数が相対的に少ないため、楽曲特徴タイミングも少ない(例えば1小節に1タイミング)。ギター3では、音の数が相対的に多いため、楽曲特徴タイミングも多い(例えば1小節に4タイミング、8タイミング等)。この場合、ゲームの進行履歴(狭義にはビートパラメータ)に応じて、音のタイミングが変化することになる。   Further, in the above, the beat timings shown in C1 and C2 of FIG. 17 are used as the music feature timings. However, the music feature timing is not limited to this. For example, the timing at which the sound of the predetermined part is output may be used as the music feature timing. For example, in the example shown in FIG. 8, the output timing of the guitar part is taken as the feature timing of the music. In the guitar 1, since the number of sounds is relatively small, the music feature timing is also small (for example, one timing in one measure). In the guitar 3, since the number of sounds is relatively large, the music feature timing is also large (for example, 4 timings, 8 timings, etc. in one measure). In this case, the timing of the sound changes in accordance with the game progress history (the beat parameter in a narrow sense).

楽曲特徴タイミングが少ない場合、音のタイミング(t)として選択可能なタイミングが限定される。そのため、基準タイミング(キーフレーム)が多いアニメーション情報では調整失敗数が増えやすい。結果として、アニメーション情報の決定処理では、基準タイミング(キーフレーム)の少ないアニメーション情報が処理対象となりやすくなる。 When the music feature timing is small, the selectable timing as the sound timing (t M ) is limited. Therefore, the number of adjustment failures tends to increase with animation information having many reference timings (key frames). As a result, in the process of determining animation information, animation information with a small reference timing (key frame) is likely to be processed.

一方、楽曲特徴タイミングが多い場合、音のタイミングの候補が増えるため、基準タイミング(キーフレーム)が多くても調整成功数が増えやすく、複雑な動作を行うアニメーション情報が処理対象となりやすい。このように楽曲特徴タイミング(音のタイミング)を可変とすることでも、状況に応じたアニメーション情報の決定処理が可能になる。   On the other hand, when there are many music feature timings, there are more sound timing candidates, so even if there are many reference timings (key frames), the number of adjustment successes tends to increase, and animation information that performs complicated operations tends to be processed. As described above, by making the music feature timing (the timing of the sound) variable, it is possible to determine the animation information according to the situation.

図24は、アニメーション処理を説明する他のフローチャートである。S501及びS502は、図20のS401、S402と同様である。図24の例では、パートに応じて楽曲特徴タイミングを変更することを想定し、パート楽曲部分を決定する処理を追加している(S503)。   FIG. 24 is another flowchart explaining the animation processing. S501 and S502 are the same as S401 and S402 of FIG. In the example of FIG. 24, assuming that the music feature timing is changed according to the part, a process of determining the part music part is added (S503).

また、アニメーション処理部108は、キャラクタCAの近傍に位置するオブジェクトOBと、S501で取得した操作情報に基づいて、処理対象となるアニメーション情報の候補セット(候補アニメーションセット)を決定する(S504)。例えば、操作情報とオブジェクトOBから動作属性が「跳躍」に決定された場合、候補アニメーションセットとは、跳躍動作に対応する複数のアニメーション情報(FA1,FA2,…)の集合である。   In addition, the animation processing unit 108 determines a candidate set (candidate animation set) of animation information to be processed based on the object OB located in the vicinity of the character CA and the operation information acquired in S501 (S504). For example, when the motion attribute is determined to be "jumping" from the operation information and the object OB, the candidate animation set is a set of a plurality of pieces of animation information (FA1, FA2,...) Corresponding to the jumping operation.

そしてアニメーション処理部108は、候補アニメーションセットから1つのアニメーション情報を選択し(S505)、タイミング処理部110は、選択したアニメーション情報を対象として、基準タイミング及び音のタイミングを決定する(S506,S507)。アニメーション処理部108は、基準タイミング及び音のタイミングに基づいて評価値を算出する(S508)。ここでの評価値は、例えば上述した評価関数の極大値である。   Then, the animation processing unit 108 selects one piece of animation information from the candidate animation set (S505), and the timing processing unit 110 determines the reference timing and the timing of the sound for the selected animation information (S506, S507). . The animation processing unit 108 calculates an evaluation value based on the reference timing and the timing of the sound (S508). The evaluation value here is, for example, the maximum value of the above-described evaluation function.

アニメーション処理部108は、候補アニメーションセットに未処理のアニメーション情報が残っているかを判定し(S509)、未処理のアニメーション情報が存在する場合にはS505に戻り、処理を継続する。候補アニメーションセットの全てのアニメーション情報の評価値が算出されたら(S509でNo)、当該評価値に基づいて処理対象のアニメーション情報を決定する(S510)。   The animation processing unit 108 determines whether or not unprocessed animation information remains in the candidate animation set (S509), and if there is unprocessed animation information, the process returns to S505 and continues processing. When evaluation values of all pieces of animation information of the candidate animation set are calculated (No in S509), animation information to be processed is determined based on the evaluation values (S510).

アニメーション情報決定後の調整処理(S511)、再生処理(S512)については、図20のS406、S407と同様である。なお、評価値を評価関数の極大値とする例であれば、S511の調整処理は、S508の結果をそのまま用いればよい。   The adjustment process (S511) and the reproduction process (S512) after determining the animation information are the same as S406 and S407 in FIG. In the example in which the evaluation value is set as the maximum value of the evaluation function, the adjustment processing of S511 may use the result of S508 as it is.

なお、図24では候補アニメーションセットの全てを評価対象とする例を示した。しかし、S512の再生処理は、S501の操作情報の取得後(厳密に言えば図11(A)のS101の操作入力後)、できるだけ速やかに実行することが望ましい。再生処理までに時間がかかってしまうと、プレーヤが操作したにもかかわらず、アニメーションがなかなか開始されずに違和感を与えてしまう。   Note that FIG. 24 shows an example in which all candidate animation sets are evaluated. However, it is desirable to execute the reproduction process of S512 as soon as possible after obtaining the operation information of S501 (strictly speaking, after the operation input of S101 of FIG. 11A). If it takes time until the reproduction processing, although the player operates, the animation does not start easily and gives a sense of discomfort.

よってアニメーション情報の決定処理、及び調整処理が高速で行われるように、処理負荷を軽減することが望ましい。よって例えば、候補アニメーションセットの全てを評価対象とするのではなく、評価値が所定閾値以上のアニメーション情報が見つかった段階で、決定処理を終了するといった変形実施が可能である。   Therefore, it is desirable to reduce the processing load so that the process of determining and adjusting the animation information can be performed at high speed. Therefore, for example, it is possible to carry out a modification such that the determination processing is ended when animation information having an evaluation value equal to or more than a predetermined threshold is found, instead of setting all candidate animation sets as evaluation targets.

2.5 変形例
以下、いくつかの変形例について説明する。
2.5 Modifications Hereinafter, some modifications will be described.

(変形例1)
以上の説明では、時系列楽曲部分内での再生位置は、経過時間(エリア存在時間)で決定される例を示した。例えば、キャラクタCAがエリアAR2にx秒だけ継続して存在した場合、Aメロのx秒目が再生される。即ち、エリアに応じた時系列楽曲部分の遷移という制限はあるものの、時系列楽曲部分内での楽曲の進行は時間とともに自動的に行われる。
(Modification 1)
In the above description, the reproduction position in the time-series music portion has been determined by the elapsed time (area presence time). For example, when the character CA continuously exists in the area AR2 for x seconds, the x second of A melody is reproduced. That is, although there is a restriction of transition of the time-series music portion according to the area, the progression of the music in the time-series music portion is automatically performed with time.

ただし、本実施形態ではオブジェクトOBに対するキャラクタCAの動作を演奏に用いる。つまり、楽曲の進行もプレーヤの操作(キャラクタCAの動作)に関連させるとよく、キャラクタCAが静止しているのに楽曲が進行することは好ましくない。   However, in the present embodiment, the motion of the character CA with respect to the object OB is used for playing. That is, it is preferable to associate the progression of the music with the operation of the player (the movement of the character CA), and it is not preferable that the music progresses even though the character CA is stationary.

よって本実施形態では、キャラクタCAの動作に基づいて、時系列楽曲部分内での再生位置を決定してもよい。例えば、キャラクタCAの動作が行われることで増加するパラメータ(以下、メロディパラメータ)を設定し、キャラクタCAの存在エリアとメロディパラメータに基づいて、時系列楽曲部分内での再生位置を決定する。なお、ここでのキャラクタCAの動作とは、オブジェクトOBに対する動作であってもよいし、フィールドFEを歩行、走行する動作であってもよい。また、メロディパラメータは、キャラクタCAが次のエリアに移動した場合、即ち、時系列楽曲部分の遷移が行われた場合に、初期化されるパラメータであってもよい。   Therefore, in the present embodiment, the reproduction position in the time-series music portion may be determined based on the motion of the character CA. For example, a parameter (hereinafter referred to as melody parameter) that increases as the operation of the character CA is set is set, and the reproduction position in the time-series music portion is determined based on the presence area of the character CA and the melody parameter. Here, the motion of the character CA may be a motion on the object OB or a motion of walking and traveling in the field FE. Also, the melody parameter may be a parameter that is initialized when the character CA moves to the next area, that is, when the transition of the time-series music portion is performed.

このようにすれば、キャラクタCAが動いていないときは楽曲の進行が停止するため、キャラクタCAの動作と楽曲との連動度合いを高めることが可能になる。   In this way, when the character CA is not moving, the progression of the music is stopped, so it is possible to increase the degree of interlocking between the motion of the character CA and the music.

(変形例2)
図12に示したように、オブジェクト制御部114は、判定部116の判定結果に基づいて、キャラクタCAの動作対象と異なるオブジェクトOBに対する制御を行う。ここでオブジェクト制御部114は、オブジェクトOBの挙動を楽曲(狭義には楽曲のテンポ、リズム)に合わせるような制御を行ってもよい。
(Modification 2)
As shown in FIG. 12, the object control unit 114 controls the object OB different from the movement target of the character CA based on the determination result of the determination unit 116. Here, the object control unit 114 may perform control to match the behavior of the object OB with the music (in a narrow sense, the tempo, rhythm of the music).

例えば、オブジェクト制御部114は、オブジェクトOBを楽曲の拍の周期に合わせて振動させる。或いはオブジェクト制御部114は、イコライザ画面を模した動きをオブジェクトOBに行わせる。イコライザとは、楽曲を複数の周波数成分に分け、各周波数成分の信号レベルの調整する機器であるが、各周波数成分の信号レベルをグラフとして表示する画面がインターフェースとして広く用いられる。例えばオブジェクト制御部114は、所与の周波数成分の信号レベルに合わせて、オブジェクトOBの位置(基準位置に対する移動量)を制御する。或いは、所定方向に複数のオブジェクトOBを配置し、各オブジェクトをそれぞれ異なる周波数成分に割り当ててもよい。このようにすれば、オブジェクト群があたかもイコライザのインターフェースのように機能する。   For example, the object control unit 114 vibrates the object OB in accordance with the beat cycle of the music. Alternatively, the object control unit 114 causes the object OB to perform a motion simulating an equalizer screen. An equalizer is a device that divides music into a plurality of frequency components and adjusts the signal level of each frequency component, but a screen that displays the signal level of each frequency component as a graph is widely used as an interface. For example, the object control unit 114 controls the position (the amount of movement with respect to the reference position) of the object OB in accordance with the signal level of a given frequency component. Alternatively, a plurality of objects OB may be arranged in a predetermined direction, and each object may be assigned to different frequency components. In this way, the objects will function as if they were the interface of the equalizer.

また、ここではオブジェクトOBの位置、動きを制御する例を示したが、オブジェクトOBの色や質感等を制御することも妨げられない。   Furthermore, although an example of controlling the position and movement of the object OB is shown here, controlling the color and texture of the object OB is not hindered either.

本実施形態では、キャラクタCAの動作と楽曲の連動(図8や図9)、キャラクタCAの動作とオブジェクト制御の連動(図12)が可能であったが、本変形例によれば、さらに、オブジェクトOBの挙動と楽曲の連動が可能になる。このように、キャラクタ動作(プレーヤ操作)、楽曲、オブジェクトという各要素の連動度合いを高めることにより、自分がゲーム内の音楽やフィールドをコントロールしている感覚を、プレーヤに対して強く与えることが可能になる。   In the present embodiment, the movement of the character CA and the interlocking of the music (FIG. 8 and FIG. 9) and the interlocking of the operation of the character CA and the object control (FIG. 12) were possible. It becomes possible to link the behavior of the object OB and the music. In this way, by increasing the interlocking degree of character movement (player operation), music, and objects, it is possible to give the player a sense of controlling music and fields in the game. become.

なお、楽曲に基づくオブジェクト制御は、所与の条件が満たされた場合に実行されてもよい。所与の条件とは、オブジェクトに対するキャラクタの動作が成功したと判定された場合や、ビートパラメータの値が所定閾値以上になった場合である。即ち、プレーヤによる操作が適切に行われ、楽曲が盛り上がっている場合に、オブジェクトOBと楽曲が連動するため、より興趣性の高いゲームシステムを実現できる。なお、後述する変形例5のように、エリア間移動が制限される実施形態の場合、当該移動の制限が解除されたことを、楽曲に基づくオブジェクト制御の条件としてもよい。   Note that music-based object control may be performed when a given condition is satisfied. The given condition is when it is determined that the motion of the character on the object is successful, or when the value of the beat parameter becomes equal to or more than a predetermined threshold. That is, when the operation by the player is appropriately performed and the music is excited, the object OB and the music interlock with each other, so that it is possible to realize a more interesting game system. In the case of the embodiment in which the movement between areas is restricted as in the modification 5 to be described later, the cancellation of the restriction of the movement may be set as the condition of the object control based on the music.

(変形例3)
楽曲制御やオブジェクト制御に用いられる動作は、オブジェクトOBを対象としたものである例を説明した。しかしキャラクタCAのフィールドFE(地面、床面)での動作に基づいて、楽曲制御等が行われてもよい。
(Modification 3)
The operation used for music control and object control has been described as an example for the object OB. However, music control or the like may be performed based on the movement of the character CA in the field FE (ground, floor).

例えば、パルクールでは図22(A)〜図22(F)に示した側宙の他、側転、後方宙返り(バク宙)、前方宙返り等の回転技が用いられることがあり、これらの技は障害物や壁面の存在しない平面的な領域でも実行可能である。これらの動作も、歩行や走行等の単純な動作に比べて見栄えがよく、プレーヤに爽快感を与える。   For example, in Parkour, in addition to the sides shown in FIG. 22 (A) to FIG. 22 (F), rotation techniques such as sideways, back somersaults, and somersaults may be used. It can also be implemented in planar areas where there are no obstacles or wall surfaces. These motions also look better than simple motions such as walking and running, and give the player a refreshing sensation.

例えばゲーム処理部104は、オブジェクトOBを対象としない特定の動作が行われた場合に、ビートパラメータを増加させる処理を行う。このようにすれば、当該特定の動作についても、オブジェクトOBに対する動作と同様に、動作結果が楽曲やオブジェクトOBの制御に反映される。   For example, the game processing unit 104 performs processing to increase the beat parameter when a specific operation not targeting the object OB is performed. In this way, the operation result is reflected in the control of the music or the object OB, as in the case of the operation on the object OB, with respect to the specific operation.

(変形例4)
以上では、アニメーション情報の調整処理の対象となる移動体が人型のキャラクタCAである例を説明した。しかし、移動体はこれに限定されず、例えばレースゲームにおける車やバイク、或いは飛行機は船舶等の乗り物であってもよい。この場合、車両等の特徴的な動作(方向転換、スピン、障害物に乗り上げることによるジャンプ等)が行われるタイミングと、楽曲特徴タイミングを合わせることが可能になる。
(Modification 4)
In the above, an example has been described in which the moving object to be subjected to the adjustment processing of animation information is a human-shaped character CA. However, the moving body is not limited to this, and for example, a car or a motorbike in a racing game, or an airplane may be a vehicle such as a ship. In this case, the music feature timing can be matched with the timing at which a characteristic operation (a change of direction, a spin, a jump by riding on an obstacle, etc.) of a vehicle or the like is performed.

或いは、図3に示した仮想カメラVCを移動体としてもよい。図3ではキャラクタCAの後方に仮想カメラVCを配置する例を示したが、カメラアングル(仮想カメラの位置、光軸方向)を可変とすることで、多様な表示画面を生成することが可能になる。カメラワークとして、パン、チルト、ズームイン、ズームアウト等、種々の技法が知られており、仮想カメラVC自体の動き、或いは被写体との関係から、特徴的なタイミングを規定することが可能である。   Alternatively, the virtual camera VC shown in FIG. 3 may be a mobile. Although FIG. 3 shows an example in which the virtual camera VC is disposed behind the character CA, various display screens can be generated by making the camera angle (the position of the virtual camera, the optical axis direction) variable. Become. As camerawork, various techniques such as pan, tilt, zoom in and zoom out are known, and it is possible to define characteristic timings from the movement of the virtual camera VC itself or in relation to the object.

仮想カメラVCを移動体とすることで、特徴的な表示画像が表示されるタイミングと、楽曲の特徴タイミングを合わせることが可能になる。   By using the virtual camera VC as a moving object, it is possible to match the timing at which the characteristic display image is displayed and the feature timing of the music.

(変形例5)
図9を用いて上述した例では、フィールドFEに設定されたエリア(AR1〜AR5)間の移動は自由であり、ガイドオブジェクト等を利用することで、プレーヤに対して適切なタイミングでの移動を促していた。ただし、エリア間の移動をあらかじめ制限しておいてもよい。
(Modification 5)
In the example described above with reference to FIG. 9, the movement between the areas (AR1 to AR5) set in the field FE is free, and by using the guide object or the like, the movement at an appropriate timing for the player is performed. I was urging. However, movement between areas may be limited in advance.

このようにすれば、プレーヤが楽曲自体の進行を無視して先のエリアに進むことを抑制可能である。例えばAメロの演奏が終わっていないのに、Bメロに対応するエリアAR3に進入することを抑制できる。   In this way, it is possible to prevent the player from ignoring the progress of the music itself and proceeding to the next area. For example, it is possible to suppress entry into the area AR3 corresponding to the B melody even though the performance of the A melody is not finished.

この場合、制限の解除条件を設定する必要がある。単純には、経過時間に基づいて移動制限が解除される。例えばAR2からAR3への移動制限は、Aメロを演奏し終わるだけの時間が経過した場合に解除される。或いは、プレーヤの操作入力の結果、より具体的にはビートパラメータの値が所定閾値以上であることを制限解除の条件としてもよい。例えば、AR2である程度の動作を行い、Aメロを厚く演奏できた場合に、AR3への移動が可能になる。移動制限の解除は、例えばエリア間の移動経路の通行可能/通行不可を切り替える制御により実現される。   In this case, it is necessary to set a condition for canceling the restriction. Simply, the movement restriction is released based on the elapsed time. For example, the movement restriction from AR2 to AR3 is released when it is time to finish playing A melody. Alternatively, as a result of the player's operation input, more specifically, the value of the beat parameter may be equal to or greater than a predetermined threshold as the condition for releasing the restriction. For example, if an operation is performed to a certain extent by AR2 and the A melody can be played thick, it is possible to move to AR3. The release of the movement restriction is realized, for example, by control for switching between passable and impassable of the movement route between the areas.

また、ゲーム処理部104は、各エリアに時間制限を設けてもよい。ここでの時間制限とは、例えば各エリアに継続して存在することが許容される時間の上限である。そして、ゲーム処理部104は、キャラクタCAが上記時間制限を超えて所与のエリアに滞在している場合、ゲーム内評価を下げる処理を行う。   In addition, the game processing unit 104 may set a time limit in each area. The time limit here is, for example, the upper limit of the time that it is permitted to continuously exist in each area. Then, when the character CA is staying in a given area beyond the above time limit, the game processing unit 104 performs processing to lower the in-game evaluation.

移動制限は、時系列楽曲部分の演奏完了前に次のエリアへ移動することを抑制する効果がある。また、時間制限は、時系列楽曲部分の演奏が完了した場合に、当該エリアに留まることを抑止する(次のエリアへの移動を促す)効果がある。よって移動制限と時間制限を組み合わせることで、プレーヤに対して適切なタイミングでのエリア移動(時系列楽曲部分の遷移)を促すことが可能になる。   The movement restriction has an effect of suppressing movement to the next area before completion of the performance of the time-series music portion. In addition, the time limit has an effect of preventing the user from staying in the area (prompting movement to the next area) when the performance of the time-series music portion is completed. Therefore, by combining the movement restriction and the time restriction, it is possible to prompt the player to move the area (transition of the time-series music piece part) at an appropriate timing.

(変形例6)
またキャラクタCAの移動速度を楽曲の情報に合わせて変更してもよい。ここでの楽曲の情報とは例えば楽曲のテンポ(拍のタイミングの間隔、BPMの値等)である。具体的には、楽曲のテンポが早ければキャラクタの移動速度も速くし、テンポが遅ければ移動速度を遅くする。或いは、楽曲の情報とは楽曲のリズムであってもよい。例えば楽曲がワルツかボレロかといった違いによりキャラクタの移動速度が変化する。静かな曲調であるほど移動速度が低く設定され、激しい曲調であるほど移動速度が速く設定される。
(Modification 6)
Further, the moving speed of the character CA may be changed in accordance with the information of the music. The information on the music here is, for example, the tempo of the music (a beat timing interval, a BPM value, etc.). Specifically, if the tempo of the music is fast, the moving speed of the character is increased, and if the tempo is slow, the moving speed is decreased. Alternatively, the music information may be the rhythm of the music. For example, the moving speed of the character changes depending on whether the music is waltz or bolero. The quieter the tune is, the lower the moving speed is set, and the stronger the tune is the higher the moving speed.

このようにすれば、キャラクタCAの移動速度を楽曲と調和させることが可能になる。上述したように楽曲(音量、音程、音色)に応じてアニメーション情報の決定処理を行う実施形態と組み合わせてもよく、この場合、静かな曲調であればキャラクタCAはゆっくり移動しつつ動きの少ない動作を行い、激しい曲調であればキャラクタCAは素早く移動しつつ動きの激しい動作を行う。   In this way, it is possible to make the moving speed of the character CA match the music. As described above, it may be combined with the embodiment in which animation information determination processing is performed according to the music (volume, pitch, timbre). In this case, the character CA moves slowly while moving slowly if it has a quiet tune. In the case of a violent tune, the character CA moves rapidly while moving rapidly.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(移動体等)と共に記載された用語(キャラクタ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、オブジェクトに対する動作の判定処理、楽曲制御、オブジェクト制御、アニメーション処理(決定処理、調整処理を含む)も、本実施形態で説明したものに限定されず、これらと均等な手法・処理も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話機等の種々のゲームシステムに適用できる。例えばゲームシステムは、ゲームのプログラムがインストールされて実行される携帯電話機や携帯型情報端末であってもよい。   It should be understood by those skilled in the art that although the present embodiment has been described in detail as described above, many modifications can be made without departing substantially from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included within the scope of the present invention. For example, in the specification or drawings, the term (character or the like) described at least once along with a broader or synonymous different term (mobile or the like) may be replaced with the different term at any place in the specification or the drawing. Can. In addition, determination processing of motion to an object, music control, object control, animation processing (including determination processing and adjustment processing) are not limited to those described in the present embodiment, and methods and processing equivalent to these are also the present invention Included in the scope of The present invention is also applicable to various games. Further, the present invention can be applied to various game systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. . For example, the game system may be a mobile phone or a portable information terminal on which a game program is installed and executed.

10、11、12、13…操作ボタン、14…方向指示キー、
16、18…アナログスティック、20、22…R、Lボタン、100…処理部、
102…入力受け付け部、104…ゲーム処理部、106…キャラクタ処理部、
108…アニメーション処理部、110…タイミング処理部、112…楽曲再生部、
114…オブジェクト制御部、116…判定部、120…表示処理部、160…操作部、
170…記憶部、171…楽曲情報記憶部、172…ゲーム進行履歴記憶部、
173…フィールド・オブジェクト情報記憶部、174…アニメーション情報記憶部、
180…記憶媒体、190…表示部、192…音出力部、194…I/F部、
195…携帯型情報記憶媒体、196…通信部、500…サーバシステム、
510…ネットワーク、AR1〜AR5…エリア、CA…キャラクタ、
FE…フィールド、OB(OB1〜OB4)…オブジェクト、RO…移動経路、
TM1〜TMn…端末装置、VC…仮想カメラ、Vm…移動方向
10, 11, 12, 13 ... operation button, 14 ... direction instruction key,
16, 18 ... analog stick, 20, 22 ... R, L button, 100 ... processing unit,
102: input reception unit 104: game processing unit 106: character processing unit
108: animation processing unit 110: timing processing unit 112: music reproduction unit
114 ... object control unit, 116 ... determination unit, 120 ... display processing unit, 160 ... operation unit,
170 ... storage unit, 171 ... music information storage unit, 172 ... game progress history storage unit,
173: field object information storage unit 174: animation information storage unit
180 ... storage medium, 190 ... display unit, 192 ... sound output unit, 194 ... I / F unit,
195 ... portable information storage medium, 196 ... communication unit, 500 ... server system,
510: Network, AR1 to AR5: Area, CA: Character,
FE ... field, OB (OB1 to OB4) ... object, RO ... movement path,
TM1 to TMn: Terminal device, VC: Virtual camera, Vm: Movement direction

Claims (11)

プレーヤの操作情報に基づいて、移動体のアニメーション処理を行うアニメーション処理部と、
前記プレーヤの操作情報に基づいて基準タイミングを決定し、前記基準タイミングに基づいて、ゲーム中に出力される音のタイミング情報を決定するタイミング処理部として、
コンピュータを機能させ、
前記アニメーション処理部は、
前記音のタイミング情報に合わせて、前記移動体の前記アニメーション処理を行うことを特徴とするプログラム。
An animation processing unit that performs animation processing of a moving object based on operation information of the player;
As a timing processing unit that determines a reference timing based on operation information of the player, and determines timing information of sounds output during a game based on the reference timing.
Make the computer work
The animation processing unit
A program characterized by performing the animation processing of the moving object in accordance with timing information of the sound.
請求項1において、
前記アニメーション処理部は、
前記音のタイミング情報に基づいて、前記アニメーション処理に用いられる前記移動体のアニメーション情報の調整処理を行うことを特徴とするプログラム。
In claim 1,
The animation processing unit
A program for performing adjustment processing of animation information of the moving object used for the animation processing based on timing information of the sound.
請求項2において、
前記アニメーション処理部は、
前記音のタイミング情報に合わせて前記移動体が動作するように、前記調整処理を行うことを特徴とするプログラム。
In claim 2,
The animation processing unit
The program is characterized in that the adjustment process is performed such that the moving body operates in accordance with the timing information of the sound.
請求項2又は3において、
前記アニメーション情報には、キーフレームを表すキーフレーム情報が対応付けられており、
前記アニメーション処理部は、
前記音のタイミング情報により表されるタイミングと、前記キーフレーム情報により表される前記キーフレームの再生タイミングとが一致するように、前記調整処理を行うことを特徴とするプログラム。
In claim 2 or 3,
The animation information is associated with key frame information representing a key frame,
The animation processing unit
The program is characterized in that the adjustment process is performed such that the timing represented by the timing information of the sound matches the reproduction timing of the key frame represented by the key frame information.
請求項4において、
前記基準タイミングは、前記キーフレームの前記再生タイミングであることを特徴とするプログラム。
In claim 4,
The program characterized in that the reference timing is the reproduction timing of the key frame.
請求項2乃至5のいずれかにおいて、
前記アニメーション処理部は、
前記アニメーション処理の対象となる前記アニメーション情報の決定処理を行い、決定された前記アニメーション情報に対して前記調整処理を行うことを特徴とするプログラム。
In any one of claims 2 to 5,
The animation processing unit
A program characterized by performing determination processing of the animation information to be an object of the animation processing, and performing the adjustment processing on the determined animation information.
請求項6において、
前記アニメーション処理部は、
前記音のタイミング情報に基づいて、前記アニメーション情報の前記決定処理を行うことを特徴とするプログラム。
In claim 6,
The animation processing unit
A program characterized in that the decision processing of the animation information is performed based on timing information of the sound.
請求項7において、
前記音のタイミング情報には、パラメータが関連づけられており、
前記アニメーション処理部は、
前記パラメータに基づいて、前記アニメーション情報の前記決定処理を行うことを特徴とするプログラム。
In claim 7,
Parameters are associated with the timing information of the sound,
The animation processing unit
The program which performs the decision processing of the animation information based on the parameter.
請求項8において、
前記ゲーム内で再生される音は、楽曲情報により表される楽曲であり、
前記パラメータは、音量、音程、及び音色の少なくとも1つに関するパラメータであることを特徴とするプログラム。
In claim 8,
The sound reproduced in the game is music represented by music information,
The program is characterized in that the parameters are parameters relating to at least one of volume, pitch, and timbre.
請求項6において、
前記ゲーム内で再生される音は、楽曲情報により表される楽曲であり、
前記アニメーション処理部は、
前記楽曲情報、前記プレーヤの操作情報、前記移動体が移動するフィールドの情報、及び前記移動体の状態を表す状態情報の少なくとも1つに基づいて、前記アニメーション情報の前記決定処理を行うことを特徴とするプログラム。
In claim 6,
The sound reproduced in the game is music represented by music information,
The animation processing unit
The determination process of the animation information is performed based on at least one of the music information, operation information of the player, information of a field in which the moving body moves, and state information indicating a state of the moving body. And the program to be.
プレーヤの操作情報に基づいて、移動体のアニメーション処理を行うアニメーション処理部と、
前記プレーヤの操作情報に基づいて基準タイミングを決定し、前記基準タイミングに基づいて、ゲーム中に出力される音のタイミング情報を決定するタイミング処理部と、
を含み、
前記アニメーション処理部は、
前記音のタイミング情報に合わせて、前記移動体の前記アニメーション処理を行うことを特徴とするゲームシステム。
An animation processing unit that performs animation processing of a moving object based on operation information of the player;
A timing processing unit that determines a reference timing based on operation information of the player, and determines timing information of a sound to be output during a game based on the reference timing;
Including
The animation processing unit
A game system characterized in that the animation processing of the moving object is performed according to timing information of the sound.
JP2017239510A 2017-12-14 2017-12-14 Program and game system Active JP7144931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017239510A JP7144931B2 (en) 2017-12-14 2017-12-14 Program and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017239510A JP7144931B2 (en) 2017-12-14 2017-12-14 Program and game system

Publications (2)

Publication Number Publication Date
JP2019103728A true JP2019103728A (en) 2019-06-27
JP7144931B2 JP7144931B2 (en) 2022-09-30

Family

ID=67061387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017239510A Active JP7144931B2 (en) 2017-12-14 2017-12-14 Program and game system

Country Status (1)

Country Link
JP (1) JP7144931B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117351120A (en) * 2023-12-06 2024-01-05 青岛蓝飞互娱科技股份有限公司 3D game animation generation method
US11978142B2 (en) 2020-03-04 2024-05-07 Tencent America LLC Method and device for synthesizing motion sequence of virtual object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072768A (en) * 2008-09-16 2010-04-02 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010119825A (en) * 2008-10-20 2010-06-03 Taito Corp Shooting game apparatus
WO2015194509A1 (en) * 2014-06-20 2015-12-23 株式会社ソニー・コンピュータエンタテインメント Video generation device, video generation method, program, and information storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072768A (en) * 2008-09-16 2010-04-02 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010119825A (en) * 2008-10-20 2010-06-03 Taito Corp Shooting game apparatus
WO2015194509A1 (en) * 2014-06-20 2015-12-23 株式会社ソニー・コンピュータエンタテインメント Video generation device, video generation method, program, and information storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11978142B2 (en) 2020-03-04 2024-05-07 Tencent America LLC Method and device for synthesizing motion sequence of virtual object
CN117351120A (en) * 2023-12-06 2024-01-05 青岛蓝飞互娱科技股份有限公司 3D game animation generation method
CN117351120B (en) * 2023-12-06 2024-03-19 青岛蓝飞互娱科技股份有限公司 3D game animation generation method

Also Published As

Publication number Publication date
JP7144931B2 (en) 2022-09-30

Similar Documents

Publication Publication Date Title
US8079907B2 (en) Method and apparatus for facilitating group musical interaction over a network
JP6832061B2 (en) Game equipment and programs
US6976918B2 (en) Video game that interpolates between animated segments to create new segments
US10220303B1 (en) Gesture-based music game
US8444464B2 (en) Prompting a player of a dance game
US8702485B2 (en) Dance game and tutorial
US20070245881A1 (en) Method and apparatus for providing a simulated band experience including online interaction
US6857960B2 (en) Video game device, background sound output method in video game, and readable storage medium storing background sound output program
US20070243915A1 (en) A Method and Apparatus For Providing A Simulated Band Experience Including Online Interaction and Downloaded Content
EP2001569A2 (en) A method and apparatus for providing a simulated band experience including online interaction
JPH1099546A (en) Video dance game machine and information recording medium
WO2022000971A1 (en) Camera movement switching mode method and apparatus, computer program and readable medium
US10441876B2 (en) Video game integrating recorded video
US6878869B2 (en) Audio signal outputting method and BGM generation method
JP5325265B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2001087543A (en) Motion reproduction control method, recording medium and game device
JP7144931B2 (en) Program and game system
JP2019103729A (en) Program and game system
US8382589B2 (en) Musical action response system
US20130035169A1 (en) Game device, control method for game device and information recording medium
JP6752465B1 (en) Computer programs and game systems
JP2008307165A (en) Program, information memory medium, and image generation system
JP6392512B2 (en) Program and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220916

R150 Certificate of patent or registration of utility model

Ref document number: 7144931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150