JP6923593B2 - Game program and game system - Google Patents
Game program and game system Download PDFInfo
- Publication number
- JP6923593B2 JP6923593B2 JP2019104529A JP2019104529A JP6923593B2 JP 6923593 B2 JP6923593 B2 JP 6923593B2 JP 2019104529 A JP2019104529 A JP 2019104529A JP 2019104529 A JP2019104529 A JP 2019104529A JP 6923593 B2 JP6923593 B2 JP 6923593B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- game
- voice
- virtual space
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 88
- 238000003860 storage Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 14
- 238000011161 development Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 230000036544 posture Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 13
- 238000000034 method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000010365 information processing Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 206010034719 Personality change Diseases 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、ゲームプログラムおよびゲームシステムに関する。 The present invention relates to game programs and game systems.
ゲーム内では、プレイヤキャラクタやノンプレイヤキャラクタなどのキャラクタが仮想空間内で動作する。その動作の制御に関する技術として、特許文献1が知られている。特許文献1では、キャラクタごとに複数の関節を有する関節モデルが設定されており、各関節の位置および姿勢を決定することによって、各キャラクタの動作が実現される。 In the game, characters such as player characters and non-player characters operate in the virtual space. Patent Document 1 is known as a technique for controlling the operation. In Patent Document 1, a joint model having a plurality of joints is set for each character, and the movement of each character is realized by determining the position and posture of each joint.
ところで、ゲームでは、キャラクタの動作にあわせて音声が出力される。この音声出力の設定は、通常、ゲーム開発時に、キャラクタの動作を目視しながら開発者によって手入力にて行われる。この作業は、各キャラクタの動作ごとに行われるため、手間がかかってしまう。そこで、前記関節モデルを音声出力制御においても有効利用できれば、作業の軽減が期待できる。 By the way, in the game, the sound is output according to the movement of the character. This voice output setting is usually manually input by the developer while visually observing the movement of the character during game development. Since this work is performed for each movement of each character, it takes time and effort. Therefore, if the joint model can be effectively used in voice output control, the work can be expected to be reduced.
本発明の目的は、音声出力の設定作業を軽減することのできるゲームプログラムおよびゲームシステムを提供することである。 An object of the present invention is to provide a game program and a game system capable of reducing the work of setting audio output.
第1の発明は、コンピュータを、
キャラクタが動作する仮想空間を生成する仮想空間生成手段と、
前記キャラクタに対応して設定される複数の関節を有する関節モデルに基づいて、前記仮想空間内での前記キャラクタの動作を制御するキャラクタ動作制御手段と、
前記関節モデルにおける前記関節同士の距離に応じて、前記キャラクタの動作に関する音声を出力させる音声出力制御手段と
として機能させることを特徴とするゲームプログラムである。
The first invention is a computer.
A virtual space generation means that creates a virtual space in which a character operates,
A character motion control means for controlling the motion of the character in the virtual space based on a joint model having a plurality of joints set corresponding to the character.
The game program is characterized in that it functions as a voice output control means for outputting voice related to the movement of the character according to the distance between the joints in the joint model.
また、第1の発明では、コンピュータを、
ゲームの実行前に、前記関節同士の距離に応じて前記音声の出力を変化させる所定タイミングを設定する設定手段、
を更に備え、
前記音声出力制御手段は、前記ゲームの実行中、前記所定タイミングに従って前記音声の出力を変化させることができる。
Further, in the first invention, a computer is used.
A setting means for setting a predetermined timing for changing the output of the sound according to the distance between the joints before executing the game.
Further prepare
The voice output control means can change the voice output according to the predetermined timing during the execution of the game.
第2の発明は、コンピュータを、
キャラクタが動作する仮想空間を生成する仮想空間生成手段と、
前記キャラクタに対応して設定される少なくとも1つの関節を有する関節モデルに基づいて、前記仮想空間内での前記キャラクタの動作を制御するキャラクタ動作制御手段と、
前記仮想空間内にて前記キャラクタの背景に位置する背景オブジェクトとは別の、前記キャラクタの音声出力制御にて基準として用いられる仮想面を、前記仮想空間内に配置させる配置手段と、
前記仮想面と少なくとも1つの前記関節との距離に応じて、前記キャラクタの動作に関する音声を出力させる音声出力制御手段と
として機能させることを特徴とするゲームプログラムである。
The second invention is a computer.
A virtual space generation means that creates a virtual space in which a character operates,
A character motion control means for controlling the motion of the character in the virtual space based on a joint model having at least one joint set corresponding to the character.
An arrangement means for arranging a virtual surface used as a reference in the voice output control of the character, which is different from the background object located in the background of the character in the virtual space, in the virtual space.
The game program is characterized in that it functions as a voice output control means for outputting a voice related to the movement of the character according to a distance between the virtual surface and at least one of the joints.
また、第2の発明では、前記配置手段は、少なくとも1つの前記関節が動く方向に従って、前記仮想空間内の前記仮想面の位置を決定することができる。 Further, in the second invention, the arrangement means can determine the position of the virtual surface in the virtual space according to the direction in which at least one of the joints moves.
また、第2の発明では、コンピュータを、
ゲームの実行前に、前記仮想面と少なくとも1つの前記関節の距離に応じて前記音声の出力を変化させる所定タイミングを設定する設定手段、
を更に備え、
前記音声出力制御手段は、前記ゲームの実行中、前記所定タイミングに従って前記音声の出力を変化させることができる。
Further, in the second invention, the computer is used.
A setting means for setting a predetermined timing for changing the output of the sound according to the distance between the virtual surface and at least one of the joints before executing the game.
Further prepare
The voice output control means can change the voice output according to the predetermined timing during the execution of the game.
第3の発明は、第1の発明または第2の発明に記載のゲームプログラムを記憶した記憶部と
前記ゲームプログラムを実行するコンピュータと
を備えるゲームシステムである。
The third invention is a game system including a storage unit that stores the game program described in the first invention or the second invention and a computer that executes the game program.
本発明によれば、関節モデルにおける関節同士の距離または仮想面と関節との距離に応じて、自動で音声が出力される。これにより、開発者は、キャラクタの動作ごとに、キャラクタの動作を目視しながら音声出力の設定を行う作業を行わずに済む。 According to the present invention, the sound is automatically output according to the distance between the joints or the distance between the virtual surface and the joint in the joint model. As a result, the developer does not have to perform the work of setting the voice output while visually observing the movement of the character for each movement of the character.
[第1実施形態]
本発明の第1実施形態に係るゲームシステム1およびゲームプログラムについて、図面を参照して説明する。
[First Embodiment]
The game system 1 and the game program according to the first embodiment of the present invention will be described with reference to the drawings.
<ゲームの説明>
図1に示す本実施形態のゲームシステム1では、サーバ装置2および複数のゲーム装置5が通信ネットワーク6を介して互いに通信可能に接続されている。
<Game description>
In the game system 1 of the present embodiment shown in FIG. 1, the
本実施形態で説明するゲームは、ユーザの操作を受けて、プレイヤキャラクタを三次元の仮想空間で活動させたり、プレイヤキャラクタ同士でグループを編成して様々なアクションを行わせたりするアクションゲームである。ユーザは、通信ネットワーク6を介して他のユーザとオンラインにてゲームを進めることができるが、通信ネットワーク6を介さずに(オフライン状態で)個人でゲームを進めることもできる。
The game described in the present embodiment is an action game in which a player character is activated in a three-dimensional virtual space or a group is formed by the player characters to perform various actions in response to a user operation. .. A user can play a game online with another user via a
本ゲームでは、仮想空間内におけるキャラクタの動作に応じて、BGMや効果音などの音声が出力される。キャラクタには、ユーザの操作に従って動作するプレイヤキャラクタ、ユーザの操作に関係なく動作する敵キャラクタやサブキャラクタなどのノンプレイヤキャラクタ、が含まれる。 In this game, sounds such as BGM and sound effects are output according to the movement of the character in the virtual space. Characters include player characters that operate according to user operations, and non-player characters such as enemy characters and sub-characters that operate regardless of user operations.
仮想空間には、キャラクタ以外にも、キャラクタの背景に位置する背景オブジェクトが配置される。背景オブジェクトには、山や木、地面のような静的オブジェクト、飛行船や水車のような動的オブジェクトなどが含まれる。 In addition to the character, a background object located in the background of the character is arranged in the virtual space. Background objects include static objects such as mountains and trees, the ground, and dynamic objects such as airships and water wheels.
各キャラクタには、対応するキャラクタの骨格及び関節を模した関節モデルM(図2参照)が予め設定されている。関節モデルMについては後述するが、本実施形態では、この関節モデルMが、そのキャラクタの動作制御のみならず、そのキャラクタの音声出力制御にも利用される。 A joint model M (see FIG. 2) that imitates the skeleton and joints of the corresponding character is preset for each character. The joint model M will be described later, but in the present embodiment, the joint model M is used not only for controlling the movement of the character but also for controlling the voice output of the character.
この音声出力制御では、個々のキャラクタの動作に関する音声が、関節モデルMにおける関節同士の距離に応じて自動で設定され、出力される。これにより、ゲーム装置5のディスプレイ61上に、例えば人の形をしたキャラクタが走っているゲーム画像が表示されている間、そのキャラクタが着用しているコスチュームの袖と身頃の擦れる音が、適切なタイミングで出力される。
In this voice output control, voices related to the movements of individual characters are automatically set and output according to the distance between the joints in the joint model M. As a result, while a game image in which, for example, a human-shaped character is running is displayed on the
このようなゲームは、プレイステーション(登録商標)などの家庭用ゲーム機、PlayStation Vita(登録商標)などの携帯ゲーム機、スマートフォン、タブレット、パーソナルコンピュータなどのゲーム装置5を用いて実行される。以下では、ゲーム装置5が、家庭用ゲーム機である場合を例示する。
Such a game is executed using a home-use game machine such as a PlayStation (registered trademark), a portable game machine such as PlayStation Vita (registered trademark), and a
<ゲームシステム1の概要>
ゲームシステム1は、サーバ装置2および複数のゲーム装置5にて構成される。
<Overview of Game System 1>
The game system 1 is composed of a
サーバ装置2は、ゲームプログラムおよびゲームデータを記憶しており、ゲーム装置5の(下記のアカウント情報毎の)ゲームデータの管理を行う。また、本実施形態では、サーバ装置2が、ゲームの開発時にゲームを生成するための装置としても使われる場合を例示する。
The
ゲーム装置5は、ユーザの操作に基づいてゲームを実行する。オンライン状態でゲームを実行する際、ゲーム装置5は、通信ネットワーク6を介してサーバ装置2からゲームプログラムおよびゲームデータを受信(具体的にはダウンロードおよびインストール)する。
The
具体的に、ゲーム装置5は、オンライン状態でのゲームの進行にあたり、先ずはサーバ装置2にログインすることができる。各ユーザには、ゲーム装置5に対応づけて、ユーザ毎の識別情報(ユーザID)およびパスワードを含むアカウント情報が割り当てられている。このアカウント情報は、ログイン時、ゲーム装置5からサーバ装置2に送信され、サーバ装置2におけるユーザ認証に利用される。
Specifically, the
ユーザ認証を経て、サーバ装置2とゲーム装置5との相互通信が可能となる。ログイン後、ゲーム装置5は、ゲーム進行に必要なデータ(ゲーム進行状況に関するデータ)をサーバ装置2から受信すると、ユーザの操作に基づいてゲーム画像や音声をディスプレイ61およびスピーカ62に出力しながら、ゲームを進行させる。
After user authentication, mutual communication between the
一方、オフライン状態の場合、ゲーム装置5は、既に記憶部55内に記憶しているゲーム進行状況に関するデータと、ユーザの操作とに基づいて、ゲーム画像や音声をディスプレイ61およびスピーカ62に出力しながら、ゲームを進行させる。
On the other hand, in the offline state, the
<ハードウェア構成>
以下、サーバ装置2およびゲーム装置5の各ハードウェア構成について説明する。
<Hardware configuration>
Hereinafter, each hardware configuration of the
<サーバ装置2の構成>
図1に示すように、サーバ装置2は、ネットワークインターフェース21、記憶部22および制御部23を有する。ネットワークインターフェース21および記憶部22は、バス29を介して制御部23と電気的に接続されている。
<Configuration of
As shown in FIG. 1, the
ネットワークインターフェース21は、インターネットおよびLANなどの通信ネットワーク6を介して複数のゲーム装置5と通信可能に接続される。
The
記憶部22は、HDD、SSD、RAMおよびROMなどで構成される。記憶部22には、ゲームをプレイするユーザそれぞれのアカウント情報、ログイン履歴などのゲームデータ、本実施形態に係るゲームプログラムの一部を含む各種プログラムが格納されている。更に、記憶部22には、キャラクタの各動作に対応した音声出力に関するデータ(以下、音声動作データ)が格納されている。
The
制御部23は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置2の動作を制御する。
The
<サーバ装置2における制御部23の機能的構成>
制御部23は、各種プログラムを実行することにより、図1に示すように、情報処理手段231、照合手段232、配信手段233および設定手段234として機能する。
<Functional configuration of the
By executing various programs, the
−情報処理手段−
情報処理手段231は、各ゲーム装置5と間で各種データを送受信する。情報処理手段231が受信する前記データとしては、ゲームプログラムのダウンロード要求、アカウント情報などが挙げられる。情報処理手段231が送信する前記データとしては、ゲームプログラムをゲーム装置5が受信したことを確認するための情報などが挙げられる。
-Information processing means-
The information processing means 231 transmits and receives various data to and from each
−照合手段−
照合手段232は、ゲーム装置5から受信したアカウント情報を用いて、ユーザの認証処理を行う。
-Verification means-
The collation means 232 uses the account information received from the
−配信手段−
配信手段233は、ゲームプログラムのダウンロード要求情報およびユーザのアカウント情報を情報処理手段231が受信した後、ゲームプログラムおよび受信したアカウント情報に対応するゲームデータおよび音声動作データを、ゲーム装置5に配信(送信)する。
-Delivery means-
After the information processing means 231 receives the download request information of the game program and the account information of the user, the distribution means 233 distributes the game data and the voice operation data corresponding to the game program and the received account information to the game device 5 ( Send.
−設定手段−
設定手段234は、ゲームが実際にユーザによってプレイされる前に、各キャラクタの関節モデルMにおける関節同士の距離に応じて音声の出力を変化させる所定タイミングを予め設定することにより、音声動作データを生成する。設定手段234は、当該音声動作データを記憶部22内に格納する。特に本実施形態では、この処理が、ゲームの開発段階にて行われる。
-Setting means-
The setting means 234 sets the voice motion data in advance by setting a predetermined timing for changing the voice output according to the distance between the joints in the joint model M of each character before the game is actually played by the user. Generate. The setting means 234 stores the voice operation data in the
関節モデルMは、キャラクタに対応して設定される複数の関節を有するモデルであって、キャラクタごとに、ゲーム開発段階に予め生成されている。 The joint model M is a model having a plurality of joints set according to the character, and is generated in advance for each character at the game development stage.
図2では、モンスターキャラクタch0を例に採り、そのキャラクタch0の関節モデルMを示す。キャラクタch0は、頭部ch1、首部ch2、胴部ch3、尾部ch4、腕部ch5、脚部ch6の、複数の部位で構成される。関節モデルMは、これらの部位ch1〜ch6それぞれに対応づけられた複数の関節Jと、隣接する関節J同士を接続する複数の骨Bとで構成される。キャラクタch0の各部位の体表面は、多数のポリゴンの組合せで構成されており、各ポリゴンの頂点は1または複数の関節Jに関連づけられている。 In FIG. 2, the monster character ch0 is taken as an example, and the joint model M of the character ch0 is shown. The character ch0 is composed of a plurality of parts of the head ch1, the neck ch2, the body ch3, the tail ch4, the arms ch5, and the legs ch6. The joint model M is composed of a plurality of joints J associated with each of these sites ch1 to ch6 and a plurality of bones B connecting adjacent joints J to each other. The body surface of each part of the character ch0 is composed of a combination of a large number of polygons, and the vertices of each polygon are associated with one or a plurality of joints J.
この関節モデルMにおける複数の関節Jのうち、設定手段234は、任意の2点の関節Jを、音声動作データを生成するための基準関節対として選択する。この選択処理は、例えばゲームの開発者の操作を介して行われる。図2では、尾部ch4の先端付近に位置する関節J1と、脚部ch6のうち胴部ch3付近に位置する関節J2とが、基準関節対として選択されている。 Of the plurality of joints J in the joint model M, the setting means 234 selects any two joints J as a reference joint pair for generating voice motion data. This selection process is performed, for example, through the operation of the game developer. In FIG. 2, the joint J1 located near the tip of the tail ch4 and the joint J2 of the legs ch6 located near the trunk ch3 are selected as reference joint pairs.
キャラクタch0が尾部ch4を振る動作を行った場合、基準関節対J1,J2を直線で結んだ距離d1は、尾部ch4の向きなどに応じて変化する。 When the character ch0 swings the tail ch4, the distance d1 connecting the reference joint pairs J1 and J2 with a straight line changes according to the direction of the tail ch4 and the like.
そこで、設定手段234は、この距離d1の大きさに応じて、尾部ch4が風を切る効果音が鳴ったり当該効果音の大小を変化させたりするなどの、音声(効果音)の出力を変化させる所定タイミングを、自動で設定する。その結果、図3に示すような音声動作データが生成される。 Therefore, the setting means 234 changes the output of the sound (sound effect) such that the tail ch4 makes a sound effect that cuts the wind or changes the magnitude of the sound effect according to the magnitude of the distance d1. The predetermined timing to be set is automatically set. As a result, voice operation data as shown in FIG. 3 is generated.
図3は、音声動作データが、サーバ装置2のディスプレイ(図示せず)に表示された画面例である。図3では、距離d1の大きさに応じて各効果音A,B,Cがゲーム装置5のスピーカ62(後述)から出力されるタイミングと、その音が出力される長さとが、塗りつぶされた四角によって表されている。また、四角のサイズは音量を表している。
FIG. 3 is a screen example in which the voice operation data is displayed on the display (not shown) of the
例えば、設定手段234は、音声の出力を変化させる所定タイミングとして、距離d1が第1所定距離よりも短くなったタイミング、および、距離d1が第2所定距離よりも長くなったタイミングを設定する。第1所定距離および第2所定距離は、適宜設定される。 For example, the setting means 234 sets the timing at which the distance d1 becomes shorter than the first predetermined distance and the timing at which the distance d1 becomes longer than the second predetermined distance as predetermined timings for changing the audio output. The first predetermined distance and the second predetermined distance are appropriately set.
なお、図2および図3では、図示の便宜上、1組の基準関節対J1,J2を表しているが、基準関節対は1以上存在することができる。設定手段234は、キャラクタch0の様々な動きに応じて変化する各基準関節対の距離に従って、音声の出力を変化させる所定タイミングを、自動で設定する。 In addition, although FIG. 2 and FIG. 3 represent one set of reference joint pairs J1 and J2 for convenience of illustration, one or more reference joint pairs can exist. The setting means 234 automatically sets a predetermined timing for changing the voice output according to the distance of each reference joint pair that changes according to various movements of the character ch0.
<ゲーム装置5の構成>
複数のゲーム装置5は、いずれも同様の構成を有する。
<Configuration of
Each of the plurality of
ゲーム装置5には、ディスプレイ61、スピーカ62およびゲームコントローラ63が外部接続または内蔵される。また、ゲーム装置5は、ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54、記憶部55および制御部56を有する。ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54および記憶部55は、バス59を介して制御部56と電気的に接続されている。
A
ネットワークインターフェース51は、ゲーム装置5とサーバ装置2との間、および、ゲーム装置5同士の間で、各種データを送受信するために、通信ネットワーク6に通信可能に接続される。
The
グラフィック処理部52は、制御部56から出力されるゲーム画像情報に従って、仮想空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部52は、例えば液晶型であるディスプレイ61と接続されており、動画形式に描画されたゲーム画像は、ゲーム画面としてディスプレイ61上に表示される。
The
オーディオ処理部53は、スピーカ62と接続されており、制御部56の指示に従ってゲーム音声を再生および合成すると、これをスピーカ62から出力させる。
The
操作部54は、ゲームコントローラ63と接続され、操作入力に関するデータをゲームコントローラ63との間で送受信する。ユーザは、ゲームコントローラ63の各種ボタンを押下することで、ゲーム装置5に操作信号を入力する。
The
記憶部55は、HDD、SSD、RAMおよびROMなどで構成される。記憶部55には、サーバ装置2からダウンロードしたゲームデータおよび音声動作データ、ゲームプログラムの一部を含む各種プログラム、自装置5のアカウント情報などが格納されている。
The
制御部56は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置5の動作を制御する。
The
<ゲーム装置5における制御部56の機能的構成>
制御部56は、各種プログラムを実行することにより、通信手段561、仮想空間生成手段562、オブジェクト配置手段563、キャラクタ動作制御手段564、および音声出力制御手段565として機能する。
<Functional configuration of the
By executing various programs, the
−通信手段−
通信手段561は、ネットワークインターフェース51を介して、サーバ装置2およびゲーム装置5との通信を行う機能である。
-Communication means-
The communication means 561 is a function of communicating with the
通信手段561は、操作部54がゲームコントローラ63から受信した各種操作信号などに応じて、アカウント情報、ゲームプログラムや新たなゲームデータのダウンロード要求などを、サーバ装置2に送信する。また、通信手段561は、ダウンロード要求に応じてサーバ装置2から送られてきた新たなゲームデータおよび音声動作データなどを、サーバ装置2から受信する。
The communication means 561 transmits account information, a game program, a download request for new game data, and the like to the
−仮想空間生成手段−
仮想空間生成手段562は、キャラクタが動作する三次元の仮想空間を生成する。この仮想空間では、ユーザの操作に基づきプレイヤキャラクタが動作したり、ユーザが操作せずともサブキャラクタや敵キャラクタが動作したりすることができる。
-Virtual space generation means-
The virtual space generation means 562 generates a three-dimensional virtual space in which the character operates. In this virtual space, the player character can operate based on the user's operation, and the sub-character and the enemy character can operate without the user's operation.
−オブジェクト配置手段−
オブジェクト配置手段563は、様々なオブジェクトを仮想空間に配置する。オブジェクト配置手段563は、オブジェクトとして、プレイヤキャラクタ、敵キャラクタなどのノンプレイヤキャラクタを含む各種キャラクタの他、キャラクタの背景に位置する背景オブジェクトなどを配置する。
-Object placement means-
The
例えば、オブジェクト配置手段563は、プレイヤキャラクタが仮想空間内を移動する動作に伴って、ゲームデータに含まれるノンプレイヤキャラクタや背景オブジェクトなどのデータを逐次読み出し、仮想空間に配置する。
For example, the
−キャラクタ動作制御手段−
キャラクタ動作制御手段564は、各キャラクタそれぞれに対応して設定された関節モデルMに基づいて、仮想空間内でのキャラクタの動作を制御する。
-Character motion control means-
The character motion control means 564 controls the motion of the character in the virtual space based on the joint model M set corresponding to each character.
例えば、キャラクタ動作制御手段564は、ゲームコントローラ63を介したユーザ操作の内容を示す操作信号に基づいて、関節モデルMを用いてプレイヤキャラクタの各関節の位置や姿勢を決定し、そのプレイヤキャラクタの各種動作を制御する。キャラクタ動作制御手段564は、ゲームデータと関節モデルMなどに従って、該当するノンプレイヤキャラクタの各関節の位置や姿勢を決定し、そのノンプレイヤキャラクタの各種動作を制御する。
For example, the character motion control means 564 determines the position and posture of each joint of the player character using the joint model M based on the operation signal indicating the content of the user operation via the
図2のモンスターキャラクタch0を例に採ると、キャラクタch0の動作は、関節Jを移動させる(位置を変える)および/または所定角度回転させる(姿勢を変える)ことで行われる。関節Jの位置または姿勢の変化に応じて、その関節Jに関連づけられているポリゴンが連動して変形し、キャラクタch0の様々な動作が実現される。 Taking the monster character ch0 of FIG. 2 as an example, the operation of the character ch0 is performed by moving the joint J (changing the position) and / or rotating it by a predetermined angle (changing the posture). Depending on the change in the position or posture of the joint J, the polygons associated with the joint J are interlocked and deformed, and various movements of the character ch0 are realized.
各関節モデルMには、様々な動作の基準となる関節(例えば関節J2)が予め定められており、キャラクタ動作制御手段564は、この関節を起点として動作を生成する。キャラクタch0の歩く動作については、キャラクタ動作制御手段564は、まずは関節J2の位置および姿勢を決定し、次いでこの関節J2に骨Bを介して接続されている各関節J3、更には各関節J3それぞれに接続されている各関節J4の、位置および姿勢を決定していく。これにより、キャラクタ動作制御手段564は、キャラクタch0の全身の姿勢および動作を決定することができる。 In each joint model M, a joint (for example, joint J2) that serves as a reference for various movements is predetermined, and the character movement control means 564 generates a movement starting from this joint. Regarding the walking motion of the character ch0, the character motion control means 564 first determines the position and posture of the joint J2, then each joint J3 connected to the joint J2 via the bone B, and further each joint J3. The position and posture of each joint J4 connected to the joint J4 are determined. Thereby, the character motion control means 564 can determine the posture and motion of the whole body of the character ch0.
“関節の位置および姿勢を決定”とは、関節の座標と関節の所定位置からの角度とを変更可能なパラメータとして有する意味であり、動作の前後において、関節の位置および姿勢のうちのいずれかが変化しない状態も含まれ得る。 "Determining the position and posture of a joint" means having the coordinates of the joint and the angle from a predetermined position of the joint as changeable parameters, and one of the positions and postures of the joint before and after the movement. Can also be included in a state where is unchanged.
−音声出力制御手段−
音声出力制御手段565は、キャラクタおよび動的オブジェクトの各動作に伴い、当該動作それぞれに応じた音声動作データを記憶部55内から逐次読み出して、オーディオ処理部53を介してスピーカ62から音声を出力させる。
-Audio output control means-
The voice output control means 565 sequentially reads out the voice operation data corresponding to each operation of the character and the dynamic object from the
キャラクタの動作に応じた音声出力にあたり、音声出力制御手段565は、関節モデルMにおける関節(図2では関節J1,J2)同士の距離d1に応じて、キャラクタの動作に関する音声をスピーカ62から出力させる制御を行う。
In the voice output according to the movement of the character, the voice output control means 565 outputs the voice related to the movement of the character from the
特に、本実施形態では、ゲームの開発段階にて、設定手段234によって設定された音声動作データが存在する。音声動作データは、関節同士の距離d1に応じて音声の出力を変化させる所定タイミングを設定したデータである。そのため、音声出力制御手段565は、この音声動作データに従って音声をスピーカ62から出力させる制御を行う。
In particular, in the present embodiment, there is voice operation data set by the setting means 234 at the development stage of the game. The voice motion data is data in which a predetermined timing for changing the voice output is set according to the distance d1 between the joints. Therefore, the voice output control means 565 controls to output the voice from the
これにより、ゲームの実行中、ディスプレイ61上にはキャラクタch0などの各種キャラクタが動作するゲーム画像が出力された状態にて、各キャラクタの動作中の関節同士の距離d1に応じた音声が、所定タイミングに従ってスピーカ62から出力されるようになる。
As a result, during the execution of the game, in a state where the game images in which various characters such as the character ch0 operate are output on the
具体的に、音声出力制御手段565は、関節同士の距離d1が第1所定距離よりも短くなったタイミングや、関節同士の距離d1が第2所定距離よりも長くなったタイミングで、音声の出力を変化させる。 Specifically, the voice output control means 565 outputs voice when the distance d1 between the joints becomes shorter than the first predetermined distance or when the distance d1 between the joints becomes longer than the second predetermined distance. To change.
これにより、図2のキャラクタch0であれば、そのキャラクタch0が尾部ch4を振る動作を行っている間、尾部ch4の関節J1が脚部ch6の関節J2に近くなったり遠くなったりする動作(姿勢の変化)に合致した音声が、適切なタイミングで出力されるようになる。従って、ユーザは、臨場感および躍動感を感じながら、ゲームをプレイすることができる。 As a result, in the case of the character ch0 of FIG. 2, the joint J1 of the tail ch4 moves closer to or farther from the joint J2 of the leg ch6 while the character ch0 swings the tail ch4 (posture). The voice that matches (change in) will be output at an appropriate timing. Therefore, the user can play the game while feeling the presence and dynamism.
<ゲームシステム1の動作の流れ>
図4および図5を用いて、ゲームシステム1の音声出力制御に関連する動作の流れを説明する。
<Flow of operation of game system 1>
The flow of operations related to the voice output control of the game system 1 will be described with reference to FIGS. 4 and 5.
−ゲーム開発段階におけるサーバ装置2の動作の流れ−
図4は、ゲーム開発段階におけるサーバ装置2の動作の流れを示す。
-Operation flow of
FIG. 4 shows the operation flow of the
先ず、設定手段234は、サーバ装置2を操作して、音声出力制御の対象となるキャラクタを選択し(ステップst1)、そのキャラクタの採り得る動作のうち、音声の設定対象とする動作を設定する(ステップst2)。ステップst1およびステップst2は、設定手段234が自動で行うか、または、ゲームの開発者がサーバ装置2や他端末(図示せず)を介して操作入力を行ったことに基づいて設定手段234が行う。
First, the setting means 234 operates the
次いで、設定手段234は、選択したキャラクタの関節モデルMを読み出し、その関節モデルMにおける2点の関節を選択する(ステップst3)。このステップst3は、設定手段234が自動で行うか、または、ゲームの開発者がサーバ装置2や他端末(図示せず)を介して操作入力を行ったことに基づいて設定手段234が行う。
Next, the setting means 234 reads out the joint model M of the selected character and selects two joints in the joint model M (step st3). This step st3 is automatically performed by the setting means 234, or is performed by the setting means 234 based on the fact that the game developer inputs an operation via the
次いで、設定手段234は、ゲームの開発者がサーバ装置2や他端末(図示せず)を介して操作入力を行ったことに基づいて、第1所定距離と第2所定距離とを設定する(ステップst4)。
Next, the setting means 234 sets the first predetermined distance and the second predetermined distance based on the operation input performed by the game developer via the
次いで、設定手段234は、選択したキャラクタに、ステップst2で設定した動作を行わせる。この動作によって、ステップst3で選択した2点の関節同士の距離d1が変化する。設定手段234は、この距離d1を第1所定距離および第2所定距離と比較する。距離d1が第1所定距離よりも短くなったタイミング(ステップst5のYes)、または、距離d1が第2所定距離よりも長くなったタイミングにて(ステップst6のYes)、設定手段234は、音声出力を変化させる設定を自動で行う(ステップst7)。この設定では、音声を鳴らす設定、音声の音量を変更する設定などが行われる。 Next, the setting means 234 causes the selected character to perform the operation set in step st2. By this operation, the distance d1 between the two joints selected in step st3 changes. The setting means 234 compares this distance d1 with the first predetermined distance and the second predetermined distance. At the timing when the distance d1 becomes shorter than the first predetermined distance (Yes in step st5) or when the distance d1 becomes longer than the second predetermined distance (Yes in step st6), the setting means 234 sets the voice. The setting to change the output is automatically performed (step st7). In this setting, the setting for sounding the sound, the setting for changing the volume of the sound, and the like are made.
キャラクタの動作が終了するまで(ステップst8のNo)、制御部23は、ステップst5以降の動作を繰り返す。
The
キャラクタの動作が終了した場合(ステップst8のYes)、設定手段234は、ステップst1からステップst8までの処理の結果である音声動作データを、記憶部22に格納する(ステップst9)。 When the character operation is completed (Yes in step st8), the setting means 234 stores the voice operation data, which is the result of the processing from step st1 to step st8, in the storage unit 22 (step st9).
−ゲーム実行時におけるゲーム装置5の動作の流れ−
図5は、ゲーム実行時のゲーム装置5の動作の流れを示す。
-Flow of operation of the
FIG. 5 shows the flow of operation of the
ゲーム装置5のユーザの操作によってゲームの実行指示がなされると、ゲーム装置5は、サーバ装置2からゲームデータおよび音声動作データなどを受信する。ゲーム装置5の制御部56は、指示されたゲームの実行を開始する(ステップst21)。仮想空間生成手段562は、仮想空間を生成し、オブジェクト配置手段563は、ゲームに関する様々なオブジェクトを仮想空間に配置する。
When a game execution instruction is given by a user operation of the
キャラクタ動作制御手段564は、ユーザの操作に基づいて、プレイヤキャラクタの各種動作を制御する。キャラクタ動作制御手段564は、ゲームデータなどに従って、該当するノンプレイヤキャラクタの各種動作を制御する(ステップst22)。 The character motion control means 564 controls various motions of the player character based on the user's operation. The character motion control means 564 controls various motions of the corresponding non-player character according to game data or the like (step st22).
音声出力制御手段565は、音声動作データに従って、キャラクタの動作に応じた音声出力制御を行う(ステップst23)。つまり、音声出力制御手段565は、音声動作データにおける所定タイミングに従って、音声の出力を変化させる。これにより、キャラクタが動作しているゲーム画像がディスプレイ61に表示されている間、そのキャラクタの関節同士の距離d1に応じた適切なタイミングで、そのキャラクタの動作に関する音声の出力が変化する。
The voice output control means 565 performs voice output control according to the movement of the character according to the voice movement data (step st23). That is, the voice output control means 565 changes the voice output according to a predetermined timing in the voice operation data. As a result, while the game image in which the character is moving is displayed on the
ユーザの操作によってゲームの終了指示がなされるまで(ステップst24のNo)、ゲーム装置5の制御部56は、ステップst22以降の処理を繰り返す。
The
ゲームの終了指示がなされた場合(ステップst24のYes)、ゲーム装置5の制御部56は、ゲームの実行を終了させる。
When the end instruction of the game is given (Yes in step st24), the
以上をまとめると、本実施形態のゲームプログラムは、ゲーム装置5の制御部56(コンピュータ)を、キャラクタが動作する仮想空間を生成する仮想空間生成手段562と、キャラクタに対応して設定される複数の関節を有する関節モデルMに基づいて、仮想空間内でのキャラクタの動作を制御するキャラクタ動作制御手段564と、関節モデルMにおける関節同士の距離d1に応じて、キャラクタの動作に関する音声を出力させる音声出力制御手段565と、として機能することができる。
Summarizing the above, in the game program of the present embodiment, the control unit 56 (computer) of the
<発明の効果>
本実施形態によれば、関節モデルMにおける関節(例えば関節J1,J2)同士の距離d1に応じて、キャラクタの動作に関する音声が自動で出力される。従って、開発者は、キャラクタの動作ごとに、キャラクタの動作を目視しながら音声出力の設定を行う作業を行わずに済む。
<Effect of invention>
According to this embodiment, the voice related to the movement of the character is automatically output according to the distance d1 between the joints (for example, joints J1 and J2) in the joint model M. Therefore, the developer does not have to perform the work of setting the voice output while visually observing the movement of the character for each movement of the character.
また、本実施形態では、前記距離d1が第1所定距離よりも短くなったタイミングや、前記距離d1が第2所定距離よりも長くなったタイミングで、音声の出力が変化する。図2のキャラクタch0であれば、そのキャラクタch0が尾部ch4を振る動作を行っている場合、尾部ch4の関節J1が脚部ch6の関節J2に近くなったり遠くなったりする動作(姿勢の変化)に合致した音声が、適切なタイミングで出力されるようになる。 Further, in the present embodiment, the audio output changes at the timing when the distance d1 becomes shorter than the first predetermined distance and when the distance d1 becomes longer than the second predetermined distance. In the case of the character ch0 in FIG. 2, when the character ch0 swings the tail ch4, the joint J1 of the tail ch4 moves closer to or farther from the joint J2 of the leg ch6 (change in posture). The voice that matches the above will be output at an appropriate timing.
つまり、このような音声出力の細かい変化が、開発者が一から設定せずとも自動で設定される。そのため、開発者の手間が省けるのみならず、ゲームをプレイするユーザは、臨場感および躍動感を感じながら、ゲームをプレイすることができる。 In other words, such small changes in audio output are automatically set without the developer having to set them from scratch. Therefore, not only the trouble of the developer can be saved, but also the user who plays the game can play the game while feeling the presence and dynamism.
また、本実施形態では、設定手段234は、ゲームの実行前に、前記距離d1に応じて音声の出力を変化させる所定タイミングを設定する。これにより、音声出力制御手段565は、ゲームの実行中、所定タイミングに従って音声の出力を変化させればよい。従って、ゲーム装置5の制御部56側の、ゲーム中における負荷を軽減できる。
Further, in the present embodiment, the setting means 234 sets a predetermined timing for changing the sound output according to the distance d1 before executing the game. As a result, the voice output control means 565 may change the voice output according to a predetermined timing during the execution of the game. Therefore, the load on the
[第2実施形態]
前記第1実施形態では、音声出力制御にて用いられるパラメータが「関節同士の距離d1」である場合を説明した。本実施形態では、当該パラメータが、関節同士の距離d1ではなく「仮想面と関節との距離d2」である場合について説明する。
[Second Embodiment]
In the first embodiment, the case where the parameter used in the voice output control is “distance d1 between joints” has been described. In the present embodiment, the case where the parameter is not the distance d1 between the joints but the “distance d2 between the virtual surface and the joints” will be described.
<ゲームシステムの構成>
図6に示すように、本実施形態のゲームシステム1は、通信ネットワーク6を介して互いに通信可能に接続されたサーバ装置2と複数のゲーム装置5とを備える。以下では、サーバ装置2およびゲーム装置5の各ハードウェア構成について、前記第1実施形態と異なる点を重点的に説明する。
<Game system configuration>
As shown in FIG. 6, the game system 1 of the present embodiment includes a
<サーバ装置の構成>
サーバ装置2は、ゲーム装置5と接続されたネットワークインターフェース21、HDDやSSDなどで構成される記憶部22、CPUおよび半導体メモリを含むマイクロコンピュータで構成された制御部23、を有する。
<Server device configuration>
The
制御部23は、各種プログラムを実行することにより、情報処理手段231、照合手段232、配信手段233、設定手段234および仮想面配置手段235(配置手段に相当)として機能する。情報処理手段231、照合手段232および配信手段233は、前記第1実施形態と同様である。
By executing various programs, the
−仮想面配置手段−
仮想面配置手段235は、ゲーム開発時、仮想面vpを仮想空間内に配置させる。
-Virtual surface placement means-
The virtual surface arranging means 235 arranges the virtual surface vp in the virtual space at the time of game development.
仮想面vpは、背景オブジェクトとは別途、キャラクタの音声出力制御にて基準として用いられる面である。従って、図7に示すように、仮想面vpは、例えば背景オブジェクトに含まれる地面のオブジェクトob1(キャラクタと接地するオブジェクト)のような、ゲーム画像に表示されるゲーム用オブジェクトではない。そのため、仮想面vpは、ゲーム実行中の仮想空間内には配置されない、または、仮に配置されたとしてもユーザが目視できる態様ではない。 The virtual surface vp is a surface used as a reference in the voice output control of the character separately from the background object. Therefore, as shown in FIG. 7, the virtual surface vp is not a game object displayed in the game image, such as the ground object ob1 (object that touches the character) included in the background object. Therefore, the virtual surface vp is not arranged in the virtual space during game execution, or even if it is arranged, it is not in a mode that the user can see.
図7に示す仮想面vpの配置例では、仮想面vpが、モンスターキャラクタch0の胴部ch3および脚部ch6付近において、キャラクタch0の進行方向と概ね直行する面、すなわち、地面のオブジェクトob1と概ね直行する面となるように配置されている。つまり、仮想面vpに垂直なベクトルがキャラクタch0の進行方向となるように、仮想面vpは配置されている。 In the arrangement example of the virtual surface vp shown in FIG. 7, the virtual surface vp is a surface of the monster character ch0 in the vicinity of the body ch3 and the leg ch6, which is substantially orthogonal to the traveling direction of the character ch0, that is, approximately the same as the ground object ob1. It is arranged so that it is an orthogonal surface. That is, the virtual surface vp is arranged so that the vector perpendicular to the virtual surface vp is the traveling direction of the character ch0.
そして、仮想面vpは、キャラクタch0の脚部ch6よりも進行方向側に位置する。仮想面vpのうち、キャラクタch0の脚部hc6が位置する側の面を「裏面」、進行方向側の面を「表面」と言う。 Then, the virtual surface vp is located on the traveling direction side of the leg portion ch6 of the character ch0. Of the virtual surfaces vp, the surface on the side where the leg hc6 of the character ch0 is located is referred to as the "back surface", and the surface on the traveling direction side is referred to as the "front surface".
この仮想面vpは、キャラクタch0が走ったり歩いたりする際、キャラクタch0と共に移動する。従って、仮想空間上の三次元座標からすると、キャラクタch0および仮想面vpの相対的な位置関係は、さほど変化しない。 This virtual surface vp moves together with the character ch0 when the character ch0 runs or walks. Therefore, the relative positional relationship between the character ch0 and the virtual surface vp does not change so much from the three-dimensional coordinates on the virtual space.
この仮想面vpの配置にあたり、オブジェクト配置手段563は、少なくとも1つの関節(図7では脚部ch6の関節J2)が動く方向に従って、仮想面vpの位置を決定する。図7では、関節J2がキャラクタch0の進行方向または当該進行方向とは逆の方向に動く。そこで、仮想面配置手段235は、この関節J2の動く方向に基づき、関節J2が進行方向に向けて動いた時に、関節J2が仮想空間の裏面に近づく(または当接する)ように、仮想面vpをキャラクタch0の胴部ch3および脚部ch6付近に配置させる。これにより、仮想面vpの裏面から表面へと向かう方向と、進行方向とが概ね一致する。
In arranging the virtual surface vp, the
−設定手段−
設定手段234は、ゲームが実際にユーザによってプレイされる前に、仮想面vpと、各キャラクタの関節モデルMにおける少なくとも1つの関節Jとの距離d2に応じて、音声の出力を変化させる所定タイミングを予め設定することにより、音声動作データを生成する。設定手段234は、当該音声動作データを記憶部22内に格納する。本実施形態においても、この処理は、ゲームの開発段階にて行われる。
-Setting means-
The setting means 234 changes the audio output according to the distance d2 between the virtual surface vp and at least one joint J in the joint model M of each character before the game is actually played by the user. Is set in advance to generate voice operation data. The setting means 234 stores the voice operation data in the
つまり、本実施形態の設定手段234は、所定タイミングの設定を、関節同士の距離ではなく、仮想面vpと関節Jとの距離d2に応じて行う。距離d2とは、関節Jと仮想面vpとを最短で結ぶ直線の距離、つまり、関節Jを通る直線を仮想面vpの垂線とした際の、当該直線における関節Jと仮想面vpとの距離を言う。 That is, the setting means 234 of the present embodiment sets the predetermined timing according to the distance d2 between the virtual surface vp and the joint J, not according to the distance between the joints. The distance d2 is the distance of the straight line connecting the joint J and the virtual surface vp at the shortest, that is, the distance between the joint J and the virtual surface vp in the straight line when the straight line passing through the joint J is a perpendicular line of the virtual surface vp. Say.
図7において、キャラクタch0が脚部ch6を前に出すと、脚部ch6の関節J2が仮想面vpに近くなる。逆に、キャラクタch0が脚部ch6を後ろに延ばすと、脚部ch6の関節J2が仮想面vp2から遠くなる。つまり、キャラクタch0の動きに応じて、任意の関節(ここでは関節J2)と仮想面vpとの距離d2は、長くなったり短くなったりする。 In FIG. 7, when the character ch0 pushes the leg ch6 forward, the joint J2 of the leg ch6 becomes close to the virtual surface vp. On the contrary, when the character ch0 extends the leg ch6 backward, the joint J2 of the leg ch6 becomes far from the virtual surface vp2. That is, the distance d2 between an arbitrary joint (here, joint J2) and the virtual surface vp becomes longer or shorter depending on the movement of the character ch0.
本実施形態では、この距離d2をパラメータとして用いて、キャラクタch0の細かい動作に伴う音声の出力制御が行われる。当該距離d2を用いることで、キャラクタch0の脚部ch6が地面のオブジェクトob1に当接せずとも、動作を表す音声(例えば歩いたり走ったりした際の風を切る音)などを必要なタイミングで効果的に出力できるからである。 In the present embodiment, the distance d2 is used as a parameter to control the output of voice accompanying the fine operation of the character ch0. By using the distance d2, even if the leg ch6 of the character ch0 does not come into contact with the object ob1 on the ground, a voice indicating an action (for example, a sound of cutting the wind when walking or running) can be heard at a necessary timing. This is because it can be output effectively.
そこで、ゲーム開発時、設定手段234は、この距離d2の大きさに応じて、音声の出力を変化させる所定タイミングを自動で設定する。例えば、設定手段234は、音声の出力を変化させる所定タイミングとして、距離d2が第3所定距離よりも短くなったタイミング、および、距離d2が第4所定距離よりも長くなったタイミングを設定する。第3所定距離および第4所定距離は、適宜設定される。 Therefore, at the time of game development, the setting means 234 automatically sets a predetermined timing for changing the audio output according to the magnitude of the distance d2. For example, the setting means 234 sets the timing at which the distance d2 becomes shorter than the third predetermined distance and the timing at which the distance d2 becomes longer than the fourth predetermined distance as predetermined timings for changing the audio output. The third predetermined distance and the fourth predetermined distance are appropriately set.
なお、図7では、図示の便宜上、仮想面vpを1つのみ表しているが、仮想面vpは、複数存在することができる。設定手段234は、キャラクタch0の様々な動きに応じて変化する各仮想面vpと関節との距離d2に従って、音声出力を変化させる所定タイミングを、自動で設定する。 In FIG. 7, for convenience of illustration, only one virtual surface vp is shown, but a plurality of virtual surfaces vp can exist. The setting means 234 automatically sets a predetermined timing for changing the voice output according to the distance d2 between each virtual surface vp and the joint, which changes according to various movements of the character ch0.
また、図7では、便宜上、1つの仮想面vpに対し1つの関節J2の組み合わせを図示しているが、仮想面vpに対し複数の関節を組み合わせることができる。設定手段234は、組合せそれぞれの距離d2に応じて、対応する音声出力を変化させる所定タイミングを、自動で設定する。 Further, in FIG. 7, for convenience, a combination of one joint J2 is shown for one virtual surface vp, but a plurality of joints can be combined for the virtual surface vp. The setting means 234 automatically sets a predetermined timing for changing the corresponding audio output according to the distance d2 of each combination.
<ゲーム装置5の構成>
図6に示すように、ゲーム装置5は、前記第1実施形態と同様、ディスプレイ61、スピーカ62、ゲームコントローラ63が外部接続または内蔵される。ゲーム装置5は、ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54の他、HDD、SSDなどで構成される記憶部55、CPUおよびメモリを含むマイクロコンピュータで構成された制御部56を有する。
<Configuration of
As shown in FIG. 6, in the
制御部56は、各種プログラムを実行することにより、通信手段561、仮想空間生成手段562、オブジェクト配置手段563、キャラクタ動作制御手段564および音声出力制御手段565として機能する。通信手段561、仮想空間生成手段562、オブジェクト配置手段563およびキャラクタ動作制御手段564は、前記第1実施形態と同様である。
By executing various programs, the
−音声出力制御手段−
音声出力制御手段565は、キャラクタおよび動的オブジェクトの各動作に伴い、当該動作それぞれに応じた音声動作データを記憶部55内から逐次読み出して、オーディオ処理部53を介してスピーカ62から音声を出力させる。
-Audio output control means-
The voice output control means 565 sequentially reads out the voice operation data corresponding to each operation of the character and the dynamic object from the
キャラクタの動作に応じた音声出力にあたり、仮想面vpが仮想空間上に存在していると仮定したとする。音声出力制御手段565は、この仮想面vpと、関節モデルMにおける少なくとも1つの関節(図7では関節J2)との距離d2に応じて、キャラクタの動作に関する音声をスピーカ62から出力させる制御を行う。
It is assumed that the virtual surface vp exists in the virtual space in order to output the voice according to the movement of the character. The voice output control means 565 controls the
特に、本実施形態では、ゲームの開発段階にて、設定手段234によって設定された音声動作データが存在する。音声動作データは、前記距離d2に応じて音声の出力を変化させる所定タイミングを設定したデータである。そのため、音声出力制御手段565は、この音声動作データに従って音声をスピーカ62から出力させる制御を行う。
In particular, in the present embodiment, there is voice operation data set by the setting means 234 at the development stage of the game. The voice operation data is data in which a predetermined timing for changing the voice output is set according to the distance d2. Therefore, the voice output control means 565 controls to output the voice from the
これにより、ゲームの実行中、ディスプレイ61上にはキャラクタch0などの各種キャラクタが動作するゲーム画像が出力された状態にて、前記距離d2に応じた音声が、所定タイミングに従ってスピーカ62から出力されるようになる。
As a result, during the execution of the game, while the game image in which various characters such as the character ch0 operate is output on the
具体的に、音声出力制御手段565は、前記距離d2が第3所定距離よりも短くなったタイミングや、前記距離d2が第4所定距離よりも長くなったタイミングで、音声の出力を変化させる。 Specifically, the voice output control means 565 changes the voice output at the timing when the distance d2 becomes shorter than the third predetermined distance or when the distance d2 becomes longer than the fourth predetermined distance.
これにより、図7のキャラクタch0であれば、そのキャラクタch0が歩く動作を行っている間、脚部ch6の関節J2が仮想面vpに近くなったり遠くなったりする動作(姿勢の変化)に合致した音声が、適切なタイミングで出力されるようになる。従って、ユーザは、臨場感および躍動感を感じながら、ゲームをプレイすることができる。 As a result, in the case of the character ch0 of FIG. 7, while the character ch0 is performing the walking motion, the joint J2 of the leg ch6 matches the motion (change in posture) of moving closer to or farther from the virtual surface vp. The voice will be output at an appropriate timing. Therefore, the user can play the game while feeling the presence and dynamism.
<ゲームシステム1の動作の流れ>
図8および図9を用いて、ゲームシステム1の音声出力制御に関連する動作の流れを説明する。
<Flow of operation of game system 1>
An operation flow related to the voice output control of the game system 1 will be described with reference to FIGS. 8 and 9.
−ゲーム開発段階におけるサーバ装置2の動作の流れ−
図8は、ゲーム開発段階におけるサーバ装置2の動作の流れを示す。
-Operation flow of
FIG. 8 shows the flow of operation of the
先ず、設定手段234は、サーバ装置2を操作して、音声出力制御の対象となるキャラクタを選択し(ステップst31)、そのキャラクタの採り得る動作のうち、音声の設定対象とする動作を設定する(ステップst32)。ステップst31およびステップst32は、設定手段234が自動で行うか、または、ゲームの開発者がサーバ装置2や他端末(図示せず)を介して操作入力を行ったことに基づいて設定手段234が行う。
First, the setting means 234 operates the
次いで、設定手段234は、選択したキャラクタの関節モデルMを読み出し、その関節モデルMにおける関節を1点以上選択する(ステップst33)。このステップst33は、設定手段234が自動で行うか、または、ゲームの開発者がサーバ装置2や他端末(図示せず)を介して操作入力を行ったことに基づいて設定手段234が行う。
Next, the setting means 234 reads out the joint model M of the selected character and selects one or more joints in the joint model M (step st33). This step st33 is automatically performed by the setting means 234, or is performed by the setting means 234 based on the fact that the game developer inputs an operation via the
次いで、仮想面配置手段235は、選択された関節が動く方向に従って、仮想空間内の仮想面vpの位置を決定し、決定した位置に仮想面vpを配置する(ステップst34)。 Next, the virtual surface arranging means 235 determines the position of the virtual surface vp in the virtual space according to the direction in which the selected joint moves, and arranges the virtual surface vp at the determined position (step st34).
設定手段234は、ゲームの開発者がサーバ装置2や他端末(図示せず)を介して操作入力を行ったことに基づいて、第3所定距離と第4所定距離とを設定する(ステップst35)。
The setting means 234 sets the third predetermined distance and the fourth predetermined distance based on the operation input performed by the game developer via the
次いで、設定手段234は、選択したキャラクタに、ステップst32で設定した動作を行わせる。この動作によって、ステップst34で配置した仮想面vpと選択した関節との距離d2が変化する。設定手段234は、この距離d1を第3所定距離および第4所定距離と比較する。距離d2が第3所定距離よりも短くなったタイミング(ステップst36のYes)、または、距離d2が第4所定距離よりも長くなったタイミングにて(ステップst37のYes)、設定手段234は、音声出力を変化させる設定を自動で行う(ステップst38)。この設定では、音声を鳴らす設定、音声の音量を変更する設定などが行われる。 Next, the setting means 234 causes the selected character to perform the operation set in step st32. By this operation, the distance d2 between the virtual surface vp arranged in step st34 and the selected joint changes. The setting means 234 compares this distance d1 with the third predetermined distance and the fourth predetermined distance. At the timing when the distance d2 becomes shorter than the third predetermined distance (Yes in step st36) or when the distance d2 becomes longer than the fourth predetermined distance (Yes in step st37), the setting means 234 sets the voice. The setting for changing the output is automatically performed (step st38). In this setting, the setting for sounding the sound, the setting for changing the volume of the sound, and the like are made.
キャラクタの動作が終了するまで(ステップst39のNo)、制御部23は、ステップst36以降の動作を繰り返す。
The
キャラクタの動作が終了した場合(ステップst39のYes)、設定手段234は、ステップst31からステップst39までの処理の結果である音声動作データを、記憶部22に格納する(ステップst40)。 When the character operation is completed (Yes in step st39), the setting means 234 stores the voice operation data as a result of the processing from step st31 to step st39 in the storage unit 22 (step st40).
−ゲーム実行時におけるゲーム装置5の動作の流れ−
図9は、ゲーム実行時のゲーム装置5の動作の流れを示す。
-Flow of operation of the
FIG. 9 shows the flow of operation of the
ゲーム装置5のユーザの操作によってゲームの実行指示がなされると、ゲーム装置5は、サーバ装置2からゲームデータおよび音声動作データなどを受信する。ゲーム装置5の制御部56は、指示されたゲームの実行を開始する(ステップst51)。仮想空間生成手段562は、仮想空間を生成し、オブジェクト配置手段563は、ゲームに関する様々なオブジェクトを仮想空間に配置する。
When a game execution instruction is given by a user operation of the
キャラクタ動作制御手段564は、ユーザの操作に基づいて、プレイヤキャラクタの各種動作を制御する。キャラクタ動作制御手段564は、ゲームデータなどに従って、該当するノンプレイヤキャラクタの各種動作を制御する(ステップst52)。 The character motion control means 564 controls various motions of the player character based on the user's operation. The character motion control means 564 controls various motions of the corresponding non-player character according to game data or the like (step st52).
音声出力制御手段565は、音声動作データに従って、キャラクタの動作に応じた音声出力制御を行う(ステップst53)。つまり、音声出力制御手段565は、音声動作データにおける所定タイミングに従って、音声の出力を変化させる。これにより、キャラクタが動作しているゲーム画像がディスプレイ61に表示されている間、今は配置されていないがゲームの開発段階時には配置されていた仮想面vpとそのキャラクタの関節との距離d2に応じた適切なタイミングで、そのキャラクタの動作に関する音声の出力が変化する。
The voice output control means 565 performs voice output control according to the movement of the character according to the voice movement data (step st53). That is, the voice output control means 565 changes the voice output according to a predetermined timing in the voice operation data. As a result, while the game image in which the character is moving is displayed on the
ユーザの操作によってゲームの終了指示がなされるまで(ステップst54のNo)、ゲーム装置5の制御部56は、ステップst52以降の処理を繰り返す。
The
ゲームの終了指示がなされた場合(ステップst54のYes)、ゲーム装置5の制御部56は、ゲームの実行を終了させる。
When the end instruction of the game is given (Yes in step st54), the
以上をまとめると、本実施形態のゲームプログラムは、ゲーム装置5の制御部56(コンピュータ)を、キャラクタが動作する仮想空間を生成する仮想空間生成手段562と、キャラクタに対応して設定される少なくとも1つの関節を有する関節モデルMに基づいて、仮想空間内でのキャラクタの動作を制御するキャラクタ動作制御手段564として機能させることができる。本実施形態のプログラムは、サーバ装置2の制御部23(コンピュータ)を、仮想空間内にてキャラクタの背景に位置する背景オブジェクトとは別の、キャラクタの音声出力制御にて基準として用いられる仮想面vpを、仮想空間内に配置させる仮想面配置手段235(配置手段)として機能させることができる。そして、本実施形態のゲームプログラムは、ゲーム装置5の制御部56(コンピュータ)を、仮想面vpと少なくとも1つの関節J2との距離d2に応じて、キャラクタの動作に関する音声を出力させる音声出力制御手段565として機能させることができる。
Summarizing the above, in the game program of the present embodiment, at least the control unit 56 (computer) of the
<発明の効果>
本実施形態によれば、背景オブジェクトとは別の仮想面vpと、関節モデルMにおける関節(例えば関節J2)との距離d2に応じて、キャラクタの動作に関する音声が自動で出力される。従って、開発者は、設定をキャラクタの動作ごとに、キャラクタの動作を目視しながら音声出力の設定を行う作業を行わずに済む。
<Effect of invention>
According to this embodiment, the voice related to the movement of the character is automatically output according to the distance d2 between the virtual surface vp different from the background object and the joint (for example, joint J2) in the joint model M. Therefore, the developer does not have to set the voice output for each movement of the character while visually observing the movement of the character.
また、本実施形態では、仮想空間内の仮想面vpの位置は、少なくとも1つの関節が動く方向に従って決定される。キャラクタの動作に合致したタイミングで音声が出力されるようにするためである。 Further, in the present embodiment, the position of the virtual surface vp in the virtual space is determined according to the direction in which at least one joint moves. This is to ensure that the sound is output at a timing that matches the movement of the character.
また、本実施形態では、前記距離d2が第3所定距離よりも短くなったタイミングや、当該距離d2が第4所定距離よりも長くなったタイミングで、音声の出力が変化する。図7のキャラクタch0であれば、そのキャラクタch0が歩いている場合、脚部ch6の関節J2が仮想面vpに近くなったり遠くなったりする動作(姿勢の変化)に合致した音声が、適切なタイミングで出力されるようになる。 Further, in the present embodiment, the audio output changes at the timing when the distance d2 becomes shorter than the third predetermined distance or when the distance d2 becomes longer than the fourth predetermined distance. In the case of the character ch0 of FIG. 7, when the character ch0 is walking, a voice that matches the movement (change in posture) of the joint J2 of the leg ch6 moving closer to or farther from the virtual surface vp is appropriate. It will be output at the timing.
つまり、このような音声出力の細かい変化が、開発者が一から設定せずとも自動で設定される。そのため、開発者の手間が省けるのみならず、ゲームをプレイするユーザは、臨場感および躍動感を感じながら、ゲームをプレイすることができる。 In other words, such small changes in audio output are automatically set without the developer having to set them from scratch. Therefore, not only the trouble of the developer can be saved, but also the user who plays the game can play the game while feeling the presence and dynamism.
また、本実施形態では、設定手段234は、ゲームの実行前に、前記距離d2に応じて音声の出力を変化させる所定タイミングを設定する。これにより、音声出力制御手段565は、ゲームの実行中、所定タイミングに従って音声の出力を変化させればよい。従って、ゲーム装置5の制御部56側の、ゲーム中における負荷を軽減できる。
Further, in the present embodiment, the setting means 234 sets a predetermined timing for changing the sound output according to the distance d2 before executing the game. As a result, the voice output control means 565 may change the voice output according to a predetermined timing during the execution of the game. Therefore, the load on the
[他の実施形態]
前記第1および第2実施形態において説明した各種制御手段および処理手順は一例であって、本発明、その適用物、またはその用途の範囲を制限することを意図するものではない。各種制御手段および処理手順は、本発明の要旨を変更しない範囲で適宜設計変更が可能である。
[Other Embodiments]
The various control means and processing procedures described in the first and second embodiments are examples, and are not intended to limit the scope of the present invention, its application, or its use. Various control means and processing procedures can be appropriately redesigned without changing the gist of the present invention.
前記ゲームは、アクションゲームに限定されない。前記ゲームは、関節を有するキャラクタがゲーム内で動作するものであれば、どのような種類のゲームにも適用できる。 The game is not limited to action games. The game can be applied to any kind of game as long as the articulated character operates in the game.
自動生成された音声動作データは、ゲームの開発者が微調整できるようになっていてもよい。例えば、開発者は、所定タイミングを削除したり、逆に増やしたり、ずらしたりすることができる。開発者は、設定手段234によって自動で設定された所定タイミングを、何らかの音声が必要なタイミングだと認識することができる。開発者は、その所定タイミングを調整することで、より聞こえ方が自然かつ魅力的な音声動作データを作成することができる。 The automatically generated voice motion data may be fine-tuned by the game developer. For example, the developer can delete a predetermined timing, or conversely increase or shift the predetermined timing. The developer can recognize that the predetermined timing automatically set by the setting means 234 is the timing when some kind of voice is required. By adjusting the predetermined timing, the developer can create voice motion data that sounds more natural and attractive.
前記第1および第2実施形態では、ゲームの開発段階にて、設定手段234により音声動作データが生成されると説明したが、ゲームの開発段階で音声動作データが生成されていなくてもよい。実際にゲームがプレイされている状態で、音声出力制御手段565は、関節同士の距離d1、または、関節と仮想面vpとの距離d2に応じて、キャラクタの動作に関する音声をリアルタイムで出力させてもよい。なお、仮想面vpを仮想空間上に配置する場合は、仮想面vpをゲーム画面上に、例えば透明などのユーザが視認できないような形態にて配置することが好ましい。 In the first and second embodiments, it has been described that the voice operation data is generated by the setting means 234 at the game development stage, but the voice operation data may not be generated at the game development stage. While the game is actually being played, the voice output control means 565 outputs voice related to the movement of the character in real time according to the distance d1 between the joints or the distance d2 between the joints and the virtual surface vp. May be good. When the virtual surface vp is arranged in the virtual space, it is preferable to arrange the virtual surface vp on the game screen in a form such as transparent so that the user cannot see it.
前記第1および第2実施形態において、キャラクタch0が地面のオブジェクトob1に接地するタイミングで音声を出力する制御が、更に加えられてもよい。 In the first and second embodiments, the control of outputting the sound at the timing when the character ch0 touches the ground object ob1 may be further added.
また、1つのゲーム内で、関節同士の距離d1に応じて音声を出力する音声出力制御、関節と仮想面vpとの距離d2に応じて音声を出力する音声出力制御、キャラクタch0が地面のオブジェクトob1に接地するタイミングで音声を出力する制御が、混在して行われても良い。例えば、キャラクタch0の部位に応じてどの音声出力制御を用いるかが、分けられていても良い。また、ゲームの開発段階で音声動作データが生成される場合は、どの音声出力制御を用いるかを、ゲームの開発者が自由に選択できてもよい。 Further, in one game, voice output control that outputs voice according to the distance d1 between joints, voice output control that outputs voice according to the distance d2 between joints and virtual surface vp, and character ch0 is an object on the ground. Control to output audio at the timing of touching down to ob1 may be performed in a mixed manner. For example, which voice output control is used may be divided according to the part of the character ch0. Further, when the voice operation data is generated at the development stage of the game, the game developer may be able to freely select which voice output control is to be used.
前記第1および第2実施形態において、関節同士の距離d1、または、関節と仮想面vpとの距離d2に加え、更に動作の速度に応じて音声の出力が変化してもよい。例えば、音声出力制御手段565は、距離d1,d2の変化がどの程度の速度で行われたかに応じて、音声出力を変化させることができる。これにより、より動作に合致した、臨場感および躍動感のある音声が、スピーカ62から出力される。
In the first and second embodiments, in addition to the distance d1 between the joints or the distance d2 between the joints and the virtual surface vp, the sound output may be changed according to the speed of movement. For example, the audio output control means 565 can change the audio output according to how fast the distances d1 and d2 are changed. As a result, the sound with a sense of presence and dynamism that more closely matches the movement is output from the
前記第1および第2実施形態のように、ゲームの開発段階で設定手段234により音声動作データが生成される場合、設定手段234としての機能は、サーバ装置2ではなく、ゲーム装置5とは接続されていないゲームの開発端末や開発用サーバに設けられていてもよい。
When voice operation data is generated by the setting means 234 at the game development stage as in the first and second embodiments, the function as the setting means 234 is connected to the
前記第1および第2実施形態では、距離d1(距離d2)が第1所定距離(第3所定距離)よりも短くなったタイミング、および、距離d1(距離d2)が第2所定距離(第4所定距離)よりも長くなったタイミングで、音声の出力を変化させると説明した。しかし、音声の出力が変化するタイミングは、当該タイミングに限定されない。 In the first and second embodiments, the timing at which the distance d1 (distance d2) becomes shorter than the first predetermined distance (third predetermined distance) and the distance d1 (distance d2) become the second predetermined distance (fourth). It was explained that the audio output is changed at the timing when it becomes longer than the predetermined distance). However, the timing at which the audio output changes is not limited to that timing.
前記第2実施形態において、仮想面vpを仮想空間上に配置させる際、少なくとも1つの関節が動く方向に従って、仮想空間内の仮想面の位置を決定することは、必須ではない。これ以外の方法によって仮想面の位置が決定されてもよい。 In the second embodiment, when the virtual surface vp is arranged in the virtual space, it is not essential to determine the position of the virtual surface in the virtual space according to the direction in which at least one joint moves. The position of the virtual surface may be determined by other methods.
前記第2実施形態では、前記第1実施形態と同様に、関節モデルMに複数の関節が含まれる場合を例示した。しかし、前記第2実施形態では、1つの関節を含む関節モデルも適用できる。 In the second embodiment, as in the first embodiment, the case where the joint model M includes a plurality of joints is illustrated. However, in the second embodiment, a joint model including one joint can also be applied.
これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。 Even when these other embodiments are adopted, the effects of the present invention are exhibited. It is also possible to appropriately combine this embodiment with other embodiments and other embodiments.
1 ゲームシステム
23 制御部(コンピュータ)
234 設定手段
235 仮想面配置手段(配置手段)
56 制御部(コンピュータ)
562 仮想空間生成手段
564 キャラクタ動作制御手段
565 音声出力制御手段
1
234 Setting means 235 Virtual surface placement means (placement means)
56 Control unit (computer)
562 Virtual space generation means 564 Character motion control means 565 Voice output control means
Claims (4)
キャラクタが動作する仮想空間を生成する仮想空間生成手段と、
前記キャラクタに対応して設定される少なくとも1つの関節を有する関節モデルに基づいて、前記仮想空間内での前記キャラクタの動作を制御するキャラクタ動作制御手段と、
前記仮想空間内にて前記キャラクタの背景に位置する背景オブジェクトとは別の、前記キャラクタの音声出力制御にて基準として用いられる仮想面を、前記仮想空間内に配置させる配置手段と、
前記仮想面と少なくとも1つの前記関節との距離に応じて、前記キャラクタの動作に関する音声を出力させる音声出力制御手段と
として機能させ、
前記仮想面は、ゲーム実行中の前記仮想空間内には配置されない
ことを特徴とする、ゲームプログラム。 Computer,
A virtual space generation means that creates a virtual space in which a character operates,
A character motion control means for controlling the motion of the character in the virtual space based on a joint model having at least one joint set corresponding to the character.
An arrangement means for arranging a virtual surface used as a reference in the voice output control of the character, which is different from the background object located in the background of the character in the virtual space, in the virtual space.
It functions as a voice output control means for outputting a voice related to the movement of the character according to the distance between the virtual surface and at least one of the joints .
A game program characterized in that the virtual surface is not arranged in the virtual space during game execution.
キャラクタが動作する仮想空間を生成する仮想空間生成手段と、
前記キャラクタに対応して設定される少なくとも1つの関節を有する関節モデルに基づいて、前記仮想空間内での前記キャラクタの動作を制御するキャラクタ動作制御手段と、
前記仮想空間内にて前記キャラクタの背景に位置する背景オブジェクトとは別の、前記キャラクタの音声出力制御にて基準として用いられる仮想面を、前記仮想空間内に配置させる配置手段と、
前記仮想面と少なくとも1つの前記関節との距離に応じて、前記キャラクタの動作に関する音声を出力させる音声出力制御手段と
として機能させ、
前記配置手段は、少なくとも1つの前記関節が動く方向に従って、前記仮想空間内の前記仮想面の位置を決定する
ことを特徴とするゲームプログラム。 Computer,
A virtual space generation means that creates a virtual space in which a character operates,
A character motion control means for controlling the motion of the character in the virtual space based on a joint model having at least one joint set corresponding to the character.
An arrangement means for arranging a virtual surface used as a reference in the voice output control of the character, which is different from the background object located in the background of the character in the virtual space, in the virtual space.
A voice output control means for outputting voice related to the movement of the character according to the distance between the virtual surface and at least one of the joints.
To function as
The positioning means, according to the direction of at least one of the joint moves, features and be Ruge over beam program to determine the position of the virtual plane in the virtual space.
ゲームの実行前に、前記仮想面と少なくとも1つの前記関節の距離に応じて前記音声の出力を変化させる所定タイミングを設定する設定手段、
を更に備え、
前記音声出力制御手段は、前記ゲームの実行中、前記所定タイミングに従って前記音声の出力を変化させる
ことを特徴とする、請求項1または請求項2に記載のゲームプログラム。 Computer,
A setting means for setting a predetermined timing for changing the output of the sound according to the distance between the virtual surface and at least one of the joints before executing the game.
Further prepare
The game program according to claim 1 or 2 , wherein the voice output control means changes the output of the voice according to the predetermined timing during the execution of the game.
前記ゲームプログラムを実行するコンピュータと
を備えるゲームシステム。 A game system including a storage unit that stores the game program according to any one of claims 1 to 3 and a computer that executes the game program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019104529A JP6923593B2 (en) | 2019-06-04 | 2019-06-04 | Game program and game system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019104529A JP6923593B2 (en) | 2019-06-04 | 2019-06-04 | Game program and game system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020195672A JP2020195672A (en) | 2020-12-10 |
JP6923593B2 true JP6923593B2 (en) | 2021-08-25 |
Family
ID=73647847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019104529A Active JP6923593B2 (en) | 2019-06-04 | 2019-06-04 | Game program and game system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6923593B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5546846B2 (en) * | 2009-12-16 | 2014-07-09 | 株式会社スクウェア・エニックス | Sound effect information generating device, sound effect information generating method, and sound effect information generating program |
JP2015204091A (en) * | 2014-04-16 | 2015-11-16 | 康太郎 高濱 | vector data output system and video display system |
JP6783541B2 (en) * | 2016-03-30 | 2020-11-11 | 株式会社バンダイナムコエンターテインメント | Program and virtual reality experience provider |
JP6318202B2 (en) * | 2016-08-18 | 2018-04-25 | 株式会社カプコン | Game program and game system |
-
2019
- 2019-06-04 JP JP2019104529A patent/JP6923593B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020195672A (en) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4883759B2 (en) | Program, information storage medium, and image generation system | |
JPH10188028A (en) | Animation image generating device by skeleton, method for generating the animation image and medium storing program for generating the animation image | |
JP5444759B2 (en) | GAME SYSTEM, GAME TERMINAL DEVICE, SERVER, AND CONTROL PROGRAM | |
JP2006122241A (en) | Game device and game program | |
US11816772B2 (en) | System for customizing in-game character animations by players | |
JP2001276419A (en) | Image processing device, shift control method for group character, game device including shift control of group character, calculating method for game score, and recording medium | |
JP5785414B2 (en) | Program and image processing apparatus provided with program recording unit recording the program | |
JP2001149657A (en) | Game system and information storage medium | |
US6579183B1 (en) | Video game system, a video game display method and a readable storage medium storing a video game display program | |
JP6923593B2 (en) | Game program and game system | |
JP5491971B2 (en) | Program, recording medium recording the program, and computer executing the program | |
JP5479686B2 (en) | Game program and game system | |
JP5124233B2 (en) | Program and game system | |
JP2009201854A5 (en) | ||
JP6826633B2 (en) | Game program and game system | |
JP6820643B1 (en) | Programs, terminals, game systems and game management servers | |
JP6571821B2 (en) | Game program and game system | |
JP2015212965A (en) | Program, and image processor with computer for executing program | |
JP4451897B2 (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
JP5676030B2 (en) | Program and game device for executing the program | |
JP7565419B1 (en) | Program and information processing system | |
JP7571953B2 (en) | PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING SYSTEM | |
JP7140985B2 (en) | Game program and game device | |
JP6444950B2 (en) | Game program and game system | |
JP2018028813A (en) | Game program and game system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6923593 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |