JP6437969B2 - Game program and game system - Google Patents

Game program and game system Download PDF

Info

Publication number
JP6437969B2
JP6437969B2 JP2016160580A JP2016160580A JP6437969B2 JP 6437969 B2 JP6437969 B2 JP 6437969B2 JP 2016160580 A JP2016160580 A JP 2016160580A JP 2016160580 A JP2016160580 A JP 2016160580A JP 6437969 B2 JP6437969 B2 JP 6437969B2
Authority
JP
Japan
Prior art keywords
character
action
joint
game
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016160580A
Other languages
Japanese (ja)
Other versions
JP2018027217A (en
Inventor
橋本 直樹
直樹 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2016160580A priority Critical patent/JP6437969B2/en
Publication of JP2018027217A publication Critical patent/JP2018027217A/en
Application granted granted Critical
Publication of JP6437969B2 publication Critical patent/JP6437969B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ゲームプログラムおよびゲームシステムに関する。   The present invention relates to a game program and a game system.

従来、アクションゲームまたはロールプレイングゲーム等、ユーザの操作に応じてプレイヤキャラクタを3次元の仮想空間内で動作させるゲームがある。このようなゲームにおいては、敵キャラクタ等の様々なノンプレイヤキャラクタが登場し、プレイヤキャラクタが敵キャラクタを討伐することにより進行するものがある。プレイヤキャラクタおよびノンプレイヤキャラクタの動作は、複数の関節を有する関節モデルの各関節の位置および姿勢(角度)を決定することにより、実現される(例えば特許文献1等参照)。また、仮想空間には種々のオブジェクトが配置される。   2. Description of the Related Art Conventionally, there are games such as an action game or a role playing game that cause a player character to move in a three-dimensional virtual space in response to a user operation. In such a game, various non-player characters such as enemy characters appear, and the player character proceeds by subjugating the enemy character. The actions of the player character and the non-player character are realized by determining the position and posture (angle) of each joint of a joint model having a plurality of joints (see, for example, Patent Document 1). Various objects are arranged in the virtual space.

このような従来のゲームにおいて、一のキャラクタが他のキャラクタに攻撃をヒットさせた場合には、一瞬だけ両キャラクタの動きを止める(ヒットストップ表現を行う)ことにより、攻撃がヒットした感覚を疑似的に創出している。また、一のキャラクタの攻撃が壁等のオブジェクトに当接した場合には、当接した時点で攻撃の動作を停止し、跳ね返す動作を実行している。   In such a conventional game, when one character hits another character with an attack, the movement of both characters is stopped for a moment (the hit stop expression is used) to simulate the feeling of the attack being hit. Creating. When the attack of one character comes into contact with an object such as a wall, the action of the attack is stopped and rebounded when the contact is made.

特開2014−61420号公報JP 2014-61420 A

しかし、上記のように、動きを一瞬止めたり、跳ね返す動作を実行したりするだけでは、一のキャラクタの攻撃が他のキャラクタまたはオブジェクトにヒットした場合等の動作を十分に表現しきれていない問題があった。これを解決するためには、単純に攻撃が他のキャラクタまたはオブジェクトにヒットした状態におけるキャラクタの動作についてのモーションデータを攻撃動作および/または跳ね返す動作とは別に予め作っておき、ヒット状態の期間だけ当該動作を再生することが考えられる。しかし、キャラクタの攻撃態様は多種多様であり、その時々で他のキャラクタまたはオブジェクトに当接する箇所も異なる。このため、単にヒットした状態におけるキャラクタの動作と言っても、様々な状況に合わせて多くのモーションデータを用意しておく必要が生じる。したがって、このような方法ではデータ量が多くなってしまう。   However, as mentioned above, the problem that an action of one character hits another character or object, etc. cannot be expressed sufficiently by simply stopping or rebounding the movement. was there. In order to solve this, simply create motion data about the character's motion in a state where the attack hits another character or object separately from the attack motion and / or rebound motion, and only during the hit state period It is conceivable to reproduce the operation. However, there are a wide variety of attack modes of the character, and the location where the character abuts against another character or object varies from time to time. For this reason, it is necessary to prepare a large amount of motion data in accordance with various situations even if it is simply a character action in a hit state. Therefore, this method increases the amount of data.

そこで本発明は、一のキャラクタが他のキャラクタまたはオブジェクトに当接した場合の表現をデータ量の増大を抑制しつつよりリアルに実現することができるゲームプログラムおよびゲームシステムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a game program and a game system capable of realizing an expression when one character comes into contact with another character or object more realistically while suppressing an increase in data amount. To do.

本発明の一態様に係るゲームプログラムは、コンピュータを、3次元のキャラクタが動作する3次元の仮想空間を生成する仮想空間生成手段、前記仮想空間にオブジェクトを配置するオブジェクト配置手段、および前記キャラクタに対応して設定される複数の関節を有する関節モデルの各関節の位置および姿勢を決定することにより、前記キャラクタの動作を制御するキャラクタ動作制御手段、として機能させ、前記キャラクタ動作制御手段は、前記キャラクタにおける所定の第1動作を実行する第1動作実行手段と、前記第1動作中に、前記キャラクタにおける所定の部位が前記オブジェクトに当接した場合、前記所定の部位におけるオブジェクト当接箇所を起点にして前記キャラクタの第2動作を実行する第2動作実行手段と、を含む。   A game program according to an aspect of the present invention provides a computer with a virtual space generation unit that generates a three-dimensional virtual space in which a three-dimensional character operates, an object arrangement unit that arranges an object in the virtual space, and the character By determining the position and posture of each joint of a joint model having a plurality of joints set correspondingly, the character motion control means functions as character motion control means for controlling the motion of the character. First action executing means for executing a predetermined first action on the character, and when a predetermined part of the character is in contact with the object during the first action, the object contact point in the predetermined part is a starting point. And second action executing means for executing the second action of the character.

前記第2動作実行手段は、前記オブジェクト当接箇所の位置を固定して前記第2動作を実行してもよい。   The second action executing means may execute the second action with the position of the object contact portion fixed.

前記所定の部位は、前記キャラクタにおいて連続して配置される複数の関節のうちの先端に位置する第1関節より先端側に位置する部位であり、前記第2動作実行手段は、前記連続して配置される複数の関節のうちの前記第1関節より基端側にある少なくとも1つの関節の位置および姿勢を、前記オブジェクト当接箇所を起点にして決定してもよい。   The predetermined portion is a portion located on the distal end side of the first joint located at the distal end of the plurality of joints continuously arranged in the character, and the second action execution means You may determine the position and attitude | position of the at least 1 joint located in the base end side from the said 1st joint among the several joints arrange | positioned from the said object contact location.

前記第1動作実行手段は、フォワードキネマティクスに基づいて動作するモーションデータを再生することにより前記第1動作を実行し、前記第2動作実行手段は、前記連続して配置される複数の関節のうちの前記第1関節より基端側にある少なくとも1つの関節の位置および姿勢をインバースキネマティクスに基づいて生成することにより前記第2動作を実行してもよい。   The first action executing means executes the first action by reproducing motion data that operates based on forward kinematics, and the second action executing means includes the plurality of joints arranged in succession. You may perform said 2nd operation | movement by producing | generating the position and attitude | position of the at least 1 joint located in the base end side from the said 1st joint based on inverse kinematics.

前記第2動作実行手段は、前記第1関節の角度を所定の角度分変化させ、前記第1関節より基端側にある少なくとも1つの関節の位置および姿勢を当該角度変化に追従させるように決定してもよい。   The second motion execution means changes the angle of the first joint by a predetermined angle, and determines the position and posture of at least one joint on the proximal side from the first joint to follow the change in angle. May be.

前記第1動作は、所定の把持オブジェクトを把持した前記キャラクタが前記把持オブジェクトを把持した腕部を振る動作を含み、前記第2動作実行手段は、前記把持オブジェクトが前記オブジェクトに当接した場合、前記把持オブジェクトの当接箇所を起点にして前記腕部に含まれる関節の位置および姿勢を決定してもよい。   The first action includes an action in which the character holding a predetermined gripping object swings an arm that grips the gripping object, and the second action executing means is configured such that when the gripping object comes into contact with the object, You may determine the position and attitude | position of the joint contained in the said arm part from the contact location of the said holding | grip object.

前記第1動作実行手段は、前記第1動作を、前記関節モデルを構成する複数の関節のうちの前記キャラクタの中央部に位置する所定の関節を起点にして生成してもよい。   The first action executing means may generate the first action with a predetermined joint located at a central portion of the character among a plurality of joints constituting the joint model as a starting point.

前記キャラクタ動作制御手段は、前記第2動作を所定期間実行した後、前記第1動作とは異なる所定の第3動作を実行する第3動作実行手段を含み、前記第3動作実行手段は、前記第2動作の前記所定期間実行後の前記キャラクタの位置および姿勢と前記第3動作の開始時の前記キャラクタの位置および姿勢との間を補間してもよい。   The character action control means includes third action executing means for executing a predetermined third action different from the first action after executing the second action for a predetermined period, and the third action executing means includes: You may interpolate between the position and posture of the character after execution of the second motion for the predetermined period and the position and posture of the character at the start of the third motion.

本発明の他の態様に係るゲームシステムは、上記ゲームプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えている。   A game system according to another aspect of the present invention includes a program storage unit that stores the game program, and a computer that executes the program stored in the program storage unit.

本発明によれば、一のキャラクタが他のキャラクタまたはオブジェクトに当接した場合の表現をデータ量の増大を抑制しつつよりリアルに実現することができる。   According to the present invention, it is possible to realize an expression when one character comes into contact with another character or object more realistically while suppressing an increase in data amount.

本実施の形態におけるゲーム装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the game device in this Embodiment. 図1に示すゲーム装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the game device shown in FIG. 本実施の形態における関節モデルを例示するための図である。It is a figure for illustrating a joint model in this embodiment. 本実施の形態におけるプレイヤキャラクタの一連の動作例の流れを示す図である。It is a figure which shows the flow of a series of operation examples of the player character in this Embodiment. 図4に示すプレイヤキャラクタが第1動作から第2動作に移行する際のオブジェクト当接箇所近傍を示す部分拡大図である。FIG. 5 is a partially enlarged view showing the vicinity of an object contact portion when the player character shown in FIG. 4 shifts from a first action to a second action.

以下、本発明の実施の形態に係るゲームプログラムおよびゲームシステムについて、図面を参照しつつ説明する。   Hereinafter, a game program and a game system according to embodiments of the present invention will be described with reference to the drawings.

[ゲーム概要]
以下の説明では、家庭用ゲーム装置において実行されるアクションゲームを例として説明する。本実施の形態に係るアクションゲームは、3次元の仮想空間が生成され、ユーザが当該仮想空間内で行動するプレイヤキャラクタを操作して、敵キャラクタを全滅させる、またはゲーム空間内の所定の位置に到達する等といった所定の目標を達成するために、敵キャラクタと戦うことにより進行する。
[Game Overview]
In the following description, an action game executed in a home game device will be described as an example. In the action game according to the present embodiment, a three-dimensional virtual space is generated, and the user operates the player character acting in the virtual space to annihilate the enemy character, or at a predetermined position in the game space. In order to achieve a predetermined goal such as reaching, the player proceeds by fighting against the enemy character.

[ハードウェア構成]
上述したゲームを実現するゲーム装置の構成について説明する。本実施の形態におけるゲームシステムは、下記ゲーム装置2と、当該ゲーム装置2に接続されるモニタ(表示部)19、スピーカ22およびコントローラ(操作部)24などの外部装置とで構成され、下記ディスク型記憶媒体30から読み込んだゲームプログラム30aおよびゲームデータ30bに基づいてゲームを行い得るものである。ただし、以下では、説明を簡単にするため、単にゲーム装置2と称する場合がある。
[Hardware configuration]
A configuration of a game device that realizes the above-described game will be described. The game system according to the present embodiment includes the following game device 2 and external devices such as a monitor (display unit) 19, a speaker 22, and a controller (operation unit) 24 connected to the game device 2. A game can be played based on the game program 30a and the game data 30b read from the type storage medium 30. However, in the following, in order to simplify the description, the game device 2 may be simply referred to.

図1は、本実施の形態におけるゲーム装置2のハードウェア構成を示すブロック図である。図1に示すように、ゲーム装置2は、他のゲーム装置2およびサーバ装置3との間で、インターネットまたはLANなどの通信ネットワークNWを介して互いに通信可能である。このゲーム装置2は、その動作を制御するコンピュータであるCPU10を備え、このCPU10にはバス11を介してディスクドライブ12、メモリカードスロット13、プログラム記憶部を成すHDD14、ROM15およびRAM16が接続されている。   FIG. 1 is a block diagram showing a hardware configuration of game device 2 in the present embodiment. As shown in FIG. 1, the game apparatus 2 can communicate with another game apparatus 2 and the server apparatus 3 via a communication network NW such as the Internet or a LAN. The game apparatus 2 includes a CPU 10 that is a computer for controlling the operation thereof, and a disk drive 12, a memory card slot 13, an HDD 14 that constitutes a program storage unit, a ROM 15, and a RAM 16 are connected to the CPU 10 via a bus 11. Yes.

また、CPU10には、バス11を介してグラフィック処理部17、オーディオ合成部20、無線通信制御部23およびネットワークインタフェース25が接続されている。   Further, the graphic processing unit 17, the audio synthesis unit 20, the wireless communication control unit 23, and the network interface 25 are connected to the CPU 10 via the bus 11.

このうちグラフィック処理部17は、CPU10の指示にしたがってゲーム空間および各キャラクタなどを含むゲーム画像を描画する。また、グラフィック処理部17にはビデオ変換部18を介して外部のモニタ19が接続されており、グラフィック処理部17にて描画されたゲーム画像はビデオ変換部18において動画形式に変換され、モニタ19にて表示されるようになっている。   Among these, the graphic processing unit 17 draws a game image including a game space and each character in accordance with an instruction from the CPU 10. An external monitor 19 is connected to the graphic processing unit 17 via a video conversion unit 18, and the game image drawn by the graphic processing unit 17 is converted into a moving image format by the video conversion unit 18, and the monitor 19 Is displayed.

オーディオ合成部20は、CPU10の指示に従ってデジタルのゲーム音声を再生および合成する。また、オーディオ合成部20にはオーディオ変換部21を介して外部のスピーカ22が接続されている。したがって、オーディオ合成部20にて再生および合成されたゲーム音声は、オーディオ変換部21にてアナログ形式にデコードされ、さらにスピーカ22から外部へ出力されるようになっている。   The audio synthesizing unit 20 reproduces and synthesizes digital game sound in accordance with instructions from the CPU 10. An external speaker 22 is connected to the audio synthesis unit 20 via an audio conversion unit 21. Therefore, the game sound reproduced and synthesized by the audio synthesizing unit 20 is decoded into an analog format by the audio converting unit 21 and further outputted from the speaker 22 to the outside.

さらに、オーディオ合成部20は、ゲーム装置2に接続されるヘッドセットやコントローラ24等に設けられたマイク26から入力されるユーザの音声等がオーディオ変換部21にてデジタル形式にコードされたデータを取得可能である。オーディオ合成部20は、取得したデータをCPU10に入力情報として伝えることができる。   Furthermore, the audio synthesizing unit 20 converts the user's voice or the like input from the microphone 26 provided in the headset or the controller 24 connected to the game apparatus 2 into the digital format by the audio converting unit 21. It can be acquired. The audio synthesizing unit 20 can transmit the acquired data to the CPU 10 as input information.

無線通信制御部23は、2.4GHz帯の無線通信モジュールを有し、ゲーム装置2に付属するコントローラ24との間で無線により接続され、データの送受信が可能となっている。ユーザは、このコントローラ24に設けられたボタン等の操作子(後述)を操作することにより、ゲーム装置2へ信号を入力することができ、モニタ19に表示されるプレイヤキャラクタの動作を制御可能になっている。また、ネットワークインタフェース25は、インターネットまたはLANなどの通信ネットワークNWに対してゲーム装置2を接続するものであり、他のゲーム装置2またはサーバ装置3との間で通信可能である。そして、ゲーム装置2を、通信ネットワークNWを介して他のゲーム装置2と接続し、互いにデータを送受信することにより、同一のゲーム空間内で同期して複数のプレイヤキャラクタを表示させることができる。これにより、本ゲームにおいては、複数のユーザに対応する複数のプレイヤキャラクタが協同して敵キャラクタと戦う、または複数のユーザ同士が敵対して対戦する、マルチプレイが可能である。   The wireless communication control unit 23 includes a 2.4 GHz band wireless communication module, and is wirelessly connected to the controller 24 attached to the game apparatus 2 so that data can be transmitted and received. The user can input a signal to the game apparatus 2 by operating an operator (described later) such as a button provided on the controller 24, and can control the movement of the player character displayed on the monitor 19. It has become. The network interface 25 connects the game apparatus 2 to a communication network NW such as the Internet or a LAN, and can communicate with another game apparatus 2 or the server apparatus 3. Then, by connecting the game apparatus 2 to another game apparatus 2 via the communication network NW and transmitting / receiving data to / from each other, a plurality of player characters can be displayed synchronously in the same game space. Thereby, in this game, multiplayer is possible in which a plurality of player characters corresponding to a plurality of users cooperate with each other to fight against enemy characters, or a plurality of users battle against each other.

[ゲーム装置の機能的構成]
図2は、図1に示すゲーム装置2の機能的な構成を示すブロック図である。図1に示すようにゲーム装置2は、CPU10、HDD14、ROM15、RAM16、グラフィック処理部17、ビデオ変換部18、オーディオ合成部20、オーディオ変換部21、ネットワークインタフェース25などを含む制御部4を備えたコンピュータとして動作する。そして、図2に示すように、ゲーム装置2の制御部4は、本発明のゲームプログラム30aを実行することで、仮想空間生成手段41、オブジェクト配置手段42、および、キャラクタ動作制御手段43等の機能を発揮する。キャラクタ動作制御手段43は、第1動作実行手段44と、第2動作実行手段45と、第3動作実行手段46と、を含む。
[Functional configuration of game device]
FIG. 2 is a block diagram showing a functional configuration of the game apparatus 2 shown in FIG. As shown in FIG. 1, the game apparatus 2 includes a control unit 4 including a CPU 10, an HDD 14, a ROM 15, a RAM 16, a graphic processing unit 17, a video conversion unit 18, an audio synthesis unit 20, an audio conversion unit 21, a network interface 25, and the like. Act as a computer. Then, as shown in FIG. 2, the control unit 4 of the game apparatus 2 executes the game program 30a of the present invention, so that the virtual space generation means 41, the object placement means 42, the character motion control means 43, etc. Demonstrate the function. The character action control means 43 includes a first action executing means 44, a second action executing means 45, and a third action executing means 46.

このうち、仮想空間生成手段41は、3次元の仮想空間を生成する。当該仮想空間が、ユーザが操作するプレイヤキャラクタが行動するゲーム空間となる。また、オブジェクト配置手段42は、仮想空間に種々のオブジェクトを配置する。例えば、オブジェクト配置手段42は、プレイヤキャラクタの移動に伴って、ゲームデータ30bに含まれるオブジェクト等のデータを読み出し、仮想空間に配置する。オブジェクト配置手段42は、プレイヤキャラクタおよび敵キャラクタ等のノンプレイヤキャラクタも仮想空間に配置する。   Among these, the virtual space generation means 41 generates a three-dimensional virtual space. The virtual space becomes a game space in which the player character operated by the user acts. In addition, the object placement unit 42 places various objects in the virtual space. For example, the object placement unit 42 reads data such as objects included in the game data 30b as the player character moves, and places the data in the virtual space. The object placement means 42 also places non-player characters such as player characters and enemy characters in the virtual space.

キャラクタ動作制御手段43は、キャラクタに対応して設定される複数の関節を有する関節モデルの各関節の位置および姿勢を決定することにより、キャラクタの動作を制御する。キャラクタ動作制御手段43は、例えば、ユーザによるコントローラ24の操作に応じて、プレイヤキャラクタの各種動作を制御する。さらに、キャラクタ動作制御手段43は、例えば、敵キャラクタおよび敵キャラクタでないノンプレイヤキャラクタ(味方となって一緒に敵キャラクタを攻撃するキャラクタや味方でも敵でもない村人などのキャラクタ等)の動作も制御する。   The character motion control means 43 controls the motion of the character by determining the position and posture of each joint of a joint model having a plurality of joints set corresponding to the character. The character action control means 43 controls various actions of the player character according to the operation of the controller 24 by the user, for example. Furthermore, the character action control means 43 controls, for example, the actions of the enemy character and the non-player character that is not the enemy character (such as a character attacking the enemy character together and a character such as a villager who is neither a friend nor an enemy). .

図3は、本実施の形態における関節モデルを例示するための図である。図3には、武器(把持オブジェクト)である斧Wを把持したプレイヤキャラクタPが例示されている。図3に示されるプレイヤキャラクタPは人間を模したキャラクタとして構成されている。すなわち、プレイヤキャラクタPは、頭部100、首部101、胸部102、腰部103、腕部104、脚部105等を有する複数の部位で構成される。関節モデルMは、これらの部位のそれぞれに対応付けられた複数の関節J(J0,J1〜J3を含む)と、所定の2つの関節J−J間を接続する骨Bとを有している。プレイヤキャラクタPの各部位の体表面は多数のポリゴンの組み合わせで構成されており、各ポリゴンの頂点は1または複数の関節Jに関連付けられている。プレイヤキャラクタPの動作は、関節Jを移動させる(位置を変える)および/または所定角度回転させる(姿勢を変える)ことで行われる。関節Jの位置または姿勢の変化に応じて、その関節Jに関連付けられているポリゴンが連動して変形し、プレイヤキャラクタPの様々な動作が実現される。   FIG. 3 is a diagram for illustrating a joint model in the present embodiment. FIG. 3 illustrates a player character P that holds an ax W that is a weapon (gripping object). The player character P shown in FIG. 3 is configured as a character imitating a human being. That is, the player character P includes a plurality of parts having a head 100, a neck 101, a chest 102, a waist 103, an arm 104, a leg 105, and the like. The joint model M has a plurality of joints J (including J0, J1 to J3) associated with each of these parts, and a bone B connecting two predetermined joints JJ. . The body surface of each part of the player character P is composed of a combination of many polygons, and the vertexes of each polygon are associated with one or a plurality of joints J. The action of the player character P is performed by moving the joint J (changing the position) and / or rotating the joint J by a predetermined angle (changing the posture). As the position or posture of the joint J changes, the polygons associated with the joint J are deformed in conjunction with each other, and various actions of the player character P are realized.

通常、キャラクタ動作制御手段43は、所定のモーションデータに基づいて身体の中心部に位置する関節(図3の例では腰関節J0)を起点にして動作を生成する。後述する第1動作および第3動作は、腰関節J0を起点にして生成される。具体的には、キャラクタ動作制御手段43は、所定の部位を移動させる動作(例えば斧Wを振る動作、すなわち、斧Wを把持する手の位置を所定の第1位置から第2位置に移動させる動作)を行う際、まず、腰関節J0の位置および姿勢を決定し、次に当該関節J0に骨Bを介して接続されている関節(胸部102の関節および脚部105の関節)の位置および姿勢を決定する。その後、胸部102の関節Jに骨Bを介して接続されている関節(腕部104の関節J3,J2,J1)の位置および姿勢を決定する。   Normally, the character motion control means 43 generates a motion based on a joint (in the example of FIG. 3, the hip joint J0) located at the center of the body based on predetermined motion data. A first action and a third action, which will be described later, are generated starting from the hip joint J0. Specifically, the character motion control unit 43 moves a predetermined part (for example, swings the ax W, that is, moves the position of the hand holding the ax W from the predetermined first position to the second position). First, the position and posture of the hip joint J0 are determined, and then the position of the joint (the joint of the chest 102 and the joint of the leg 105) connected to the joint J0 via the bone B and Determine posture. Thereafter, the positions and postures of the joints (joints J3, J2, J1 of the arm 104) connected to the joint J of the chest 102 via the bone B are determined.

すなわち、キャラクタ動作制御手段43は、プレイヤキャラクタPの中央部の部位(基端側部位)の関節(親関節)から順に先端側部位の関節(子関節)の位置および姿勢を決定することによって、プレイヤキャラクタPの全身の動きを決定する。例えば、キャラクタ動作制御手段43は、フォワードキネマティクス(FK)に基づいて各関節Jの位置および姿勢を決定する。   That is, the character motion control means 43 determines the position and posture of the joint (child joint) of the distal side portion in order from the joint (parent joint) of the central portion (base end side portion) of the player character P. The whole body movement of the player character P is determined. For example, the character motion control means 43 determines the position and posture of each joint J based on forward kinematics (FK).

なお、本実施の形態および特許請求の範囲において、「関節の位置および姿勢を決定する」とは、関節の座標と関節の所定位置からの角度とを変更可能なパラメータとして有するという意味であり、動作の前後において、関節の位置および姿勢のうちの何れかが変化しない状態も含まれ得る。   In the present embodiment and claims, `` determine the position and posture of the joint '' means that the coordinates of the joint and the angle from the predetermined position of the joint are changed as parameters, A state in which any of the position and posture of the joint does not change before and after the movement may be included.

さらに、キャラクタ動作制御手段43は、プレイヤキャラクタPの先端側部位(例えば手、足等)の関節から順に中央部の部位の関節の位置および姿勢を決定することによって、プレイヤキャラクタPの全身の動きを決定することもできる。例えば、キャラクタ動作制御手段43は、インバースキネマティクス(IK)に基づいて各関節Jの位置および姿勢が決定され得る。すなわち、IKの場合、親関節と子関節との関係がFKと逆になる。   Further, the character motion control means 43 determines the position and posture of the joint of the central part in order from the joint of the front side part (for example, hand, foot, etc.) of the player character P, thereby Can also be determined. For example, the character motion control means 43 can determine the position and posture of each joint J based on inverse kinematics (IK). That is, in the case of IK, the relationship between the parent joint and the child joint is opposite to that of FK.

[キャラクタ動作制御の具体例]
図4は、本実施の形態におけるプレイヤキャラクタの一連の動作例の流れを示す図である。図4においては、プレイヤキャラクタPを、一連の動作に含まれる各動作に応じて異なる符号を付して区別している。具体的には、下記第1動作を行っている状態のプレイヤキャラクタをPaとし、第2動作を行っている状態のプレイヤキャラクタをPbとし、第3動作を行っている状態のプレイヤキャラクタPcとしている。
[Specific example of character motion control]
FIG. 4 is a diagram showing a flow of a series of operation examples of the player character in the present embodiment. In FIG. 4, the player character P is distinguished by assigning a different symbol depending on each action included in the series of actions. Specifically, the player character in the state of performing the following first action is Pa, the player character in the state of performing the second action is Pb, and the player character Pc in the state of performing the third action. .

本実施の形態において、キャラクタ動作制御手段43は、プレイヤキャラクタPaが斧Wを振り下ろす動作(第1動作)と、当該第1動作中に斧Wが固定オブジェクトである壁Qに当接した場合に、斧Wが跳ね返る動作または壁Qから引き抜く動作(第3動作)との間に、斧Wが壁Qに食い込んだように見せるための溜め込み動作(第2動作)を実行する。このために、キャラクタ動作制御手段43は、このような一連の動作を実行するために、第1動作実行手段44、第2動作実行手段45、および、第3動作実行手段46の各機能を実行する。   In the present embodiment, the character motion control means 43 is a case where the player character Pa swings down the ax W (first motion) and when the ax W abuts against the wall Q as a fixed object during the first motion. In addition, during the operation in which the ax W bounces back or the operation in which the ax W is pulled out (third operation), a storage operation (second operation) for making the ax W appear to bite into the wall Q is executed. For this purpose, the character action control means 43 executes the functions of the first action executing means 44, the second action executing means 45, and the third action executing means 46 in order to execute such a series of actions. To do.

まず、ユーザによるコントローラ24の操作に基づいて、第1動作実行手段44がプレイヤキャラクタPにおける所定の第1動作を実行する。より具体的には、第1動作実行手段44は、ゲームデータ30bに記憶されている斧Wの振り下ろし動作についてのモーションデータを読み出し、当該モーションデータを実行する。これにより、プレイヤキャラクタPaは、斧Wを把持した腕部104を振り下ろす動作を行う。第1動作実行手段44は、第1動作を、関節モデルMを構成する複数の関節Jのうちの中央部に位置する所定の関節(腰関節J0)を起点にして生成する。例えば、第1動作のためのモーションデータは、FKに基づいて動作するデータとして構成される。   First, the first action execution means 44 executes a predetermined first action on the player character P based on the operation of the controller 24 by the user. More specifically, the first action executing means 44 reads out motion data regarding the swing-down action of the ax W stored in the game data 30b, and executes the motion data. As a result, the player character Pa performs an action of swinging down the arm 104 holding the ax W. The first action executing means 44 generates the first action starting from a predetermined joint (waist joint J0) located at the center of the plurality of joints J constituting the joint model M. For example, the motion data for the first operation is configured as data that operates based on FK.

キャラクタ動作制御手段43は、第1動作中、所定のタイミングごと(例えば1フレームごと)に、プレイヤキャラクタPaにおける所定の部位が所定のオブジェクト(図4の例では壁Q)に当接したかどうかを判定する。本実施の形態において、所定の部位は、プレイヤキャラクタPaが把持する斧Wである。このように、本実施の形態および特許請求の範囲における「キャラクタにおける所定の部位」には、キャラクタ本体のみならず、キャラクタが把持する把持オブジェクト(例えば武器、バット等)またはキャラクタが装着している装着オブジェクト(例えば鎧、グローブ等)が含まれ得る。   Whether or not the character motion control means 43 is in contact with a predetermined object (a wall Q in the example of FIG. 4) at a predetermined timing (for example, every frame) during the first motion. Determine. In the present embodiment, the predetermined part is an ax W gripped by the player character Pa. As described above, in the “predetermined part of the character” in the present embodiment and claims, not only the character body but also a gripping object (for example, a weapon, a bat, etc.) or a character gripped by the character is attached. Wearing objects (eg, armor, gloves, etc.) may be included.

斧Wが壁Qに当接したと判定された場合、第2動作実行手段45は、プレイヤキャラクタPbにおける第2動作を実行する。より具体的には、第2動作実行手段45は、ゲームデータ30bに記憶されている斧Wの溜め込み動作についてのモーションデータを読み出し、当該モーションデータを実行する。これにより、プレイヤキャラクタPbは、斧Wを把持する腕部に力が溜め込まれたような動作を行う。   When it is determined that the ax W is in contact with the wall Q, the second action executing means 45 executes the second action on the player character Pb. More specifically, the second action executing means 45 reads the motion data regarding the accumulation action of the ax W stored in the game data 30b, and executes the motion data. As a result, the player character Pb performs an action such that power is accumulated in the arm portion that holds the ax W.

図5は、図4に示すプレイヤキャラクタが第1動作から第2動作に移行する際のオブジェクト当接箇所近傍を示す部分拡大図である。第2動作は、斧Wにおけるオブジェクト当接箇所Tを起点にする動作として構成される。より具体的には、第2動作実行手段45は、オブジェクト当接箇所Tの位置を固定して第2動作を実行する。さらに、第2動作実行手段45は、第2動作を、関節モデルMを構成する複数の関節Jのうちの斧Wを把持する腕部104の先端に位置する第1関節(手首関節)J1より基端側にある少なくとも1つの関節(例えば肘関節J2および肩関節J3)の位置および姿勢を、オブジェクト当接箇所Tを起点にして決定する。   FIG. 5 is a partially enlarged view showing the vicinity of the object contact portion when the player character shown in FIG. 4 shifts from the first action to the second action. The second operation is configured as an operation starting from the object contact portion T in the ax W. More specifically, the second action execution unit 45 executes the second action with the position of the object contact portion T fixed. Further, the second motion executing means 45 performs the second motion from the first joint (wrist joint) J1 positioned at the tip of the arm portion 104 that holds the ax W among the plurality of joints J constituting the joint model M. The position and posture of at least one joint (for example, the elbow joint J2 and the shoulder joint J3) on the base end side are determined with the object contact point T as a starting point.

第2動作実行手段45は、オブジェクト当接箇所Tに最も近い関節(すなわち斧Wを把持する手の手首関節J1)の角度を所定の角度θ分変化させ、それより基端側にある少なくとも1つの関節(例えば肘関節J2および肩関節J3)の位置および姿勢を、当該角度変化に追従させるように決定する。例えば、第2動作のためのモーションデータは、手首関節J1については、壁Qへの当接時における手首関節J1の角度(骨B1と骨B2とのなす角度)が所定の角度θ分減算されるように動作し、肘関節J2および肩関節J3については、IKに基づいて動作するデータとして構成される。   The second action executing means 45 changes the angle of the joint closest to the object contact location T (that is, the wrist joint J1 of the hand holding the ax W) by a predetermined angle θ, and at least one located on the proximal side from the angle θ. The positions and postures of two joints (for example, the elbow joint J2 and the shoulder joint J3) are determined so as to follow the angle change. For example, as for the motion data for the second motion, for the wrist joint J1, the angle of the wrist joint J1 (the angle formed by the bone B1 and the bone B2) at the time of contact with the wall Q is subtracted by a predetermined angle θ. The elbow joint J2 and the shoulder joint J3 are configured as data that operates based on IK.

すなわち、本実施の形態において、第1動作実行手段44は、FKに基づいて動作するモーションデータを再生することにより第1動作を実行し、第2動作実行手段45は、連続して配置される複数の関節J1〜J3のうちの第1関節(手首関節)J1より基端側にある関節J2,J3の位置および姿勢をIKに基づいて生成することにより第2動作を実行する。   In other words, in the present embodiment, the first operation executing unit 44 executes the first operation by reproducing motion data that operates based on FK, and the second operation executing unit 45 is continuously arranged. The second operation is executed by generating, based on IK, the positions and postures of the joints J2 and J3 located on the proximal side of the first joint (wrist joint) J1 among the plurality of joints J1 to J3.

第2動作実行手段45は、壁Qへの当接時にオブジェクト当接箇所Tの位置を取得する。そして、第2動作実行手段45は、図5に示すプレイヤキャラクタPaの腕部(想像線で示す)のように、壁Qへの当接時における手首関節J1の角度から所定の角度θを減算した位置に斧Wおよび骨B1,B2を移動する。この際、斧Wにおける当該オブジェクト当接箇所Tの位置を維持すること(すなわち、同じ位置で斧Wが壁Qに当接していること)が制約条件として設定される。したがって、図5に示すプレイヤキャラクタPbの腕部(破線で示す)のように、オブジェクト当接箇所Tを中心として、斧Wおよび骨B1,B2が所定の角度θ分回転した位置に移動する。これにより、手首関節J1の位置および姿勢ならびに肘関節J2の位置が決定される。   The second motion executing means 45 acquires the position of the object contact portion T when contacting the wall Q. Then, the second motion executing means 45 subtracts a predetermined angle θ from the angle of the wrist joint J1 when contacting the wall Q, as shown by the arm portion (indicated by an imaginary line) of the player character Pa shown in FIG. The ax W and the bones B1 and B2 are moved to the positions. At this time, maintaining the position of the object contact portion T on the ax W (that is, the ax W is in contact with the wall Q at the same position) is set as a constraint condition. Accordingly, like the arm portion (shown by a broken line) of the player character Pb shown in FIG. 5, the ax W and the bones B1 and B2 move to a position rotated by a predetermined angle θ around the object contact portion T. As a result, the position and posture of the wrist joint J1 and the position of the elbow joint J2 are determined.

第2動作実行手段45は、斧Wおよび骨B1,B2の移動に応じて肘関節J2の姿勢ならびに肩関節J3の位置および姿勢を決定する。この際、第2動作実行手段45は、プレイヤキャラクタPbの腕部104以外の関節(腰関節J0等)の位置および姿勢を、腰関節J0を起点にして(FKに基づいて)決定し、肘関節J2の姿勢ならびに肩関節J3の位置および姿勢を、腕部104が胸部102に滑らかに繋がるように、オブジェクト当接箇所Tを起点にして(IKに基づいて)決定してもよい。   The second action executing means 45 determines the posture of the elbow joint J2 and the position and posture of the shoulder joint J3 according to the movement of the ax W and the bones B1 and B2. At this time, the second action executing means 45 determines the position and posture of the joint (such as the hip joint J0) other than the arm portion 104 of the player character Pb, starting from the hip joint J0 (based on FK), and the elbow The posture of the joint J2 and the position and posture of the shoulder joint J3 may be determined from the object contact point T as a starting point (based on IK) so that the arm 104 is smoothly connected to the chest 102.

以上のような態様によれば、オブジェクト当接箇所Tを起点にする第2動作が実行されるため、単にヒットストップを行うだけの従来の態様に比べて、斧Wが壁Qに食い込んだとき等の表現をユーザによりリアルに感じさせることができる。しかも、第2動作がオブジェクト当接箇所Tを起点とする動作であることにより、キャラクタの攻撃態様、オブジェクト当接箇所Tの位置によらず、一のモーションデータ(上記例においては、手首関節J1の角度設定と、手首関節J1より基端部にある関節J2,J3の位置および姿勢をIKに基づいて決定すること)を追加するだけで、様々な攻撃態様および様々な壁Q等への当接状態に応じて第2動作を実行することができる。したがって、データ量の増大を抑制しつつよりリアルな表現を実現することができる。また、オブジェクト当接箇所Tを固定することにより、各関節の位置および姿勢を決定する演算をより簡単化することができる。   According to the above aspect, since the second operation starting from the object contact point T is executed, when the ax W bites into the wall Q compared to the conventional aspect in which only hit stop is performed. Etc. can be made to feel more realistic by the user. Moreover, since the second motion is a motion starting from the object contact location T, one motion data (in the above example, the wrist joint J1 is used regardless of the character's attack mode and the position of the object contact location T). And the position and posture of the joints J2 and J3 located at the base end from the wrist joint J1 are determined based on the IK). The second operation can be executed according to the contact state. Therefore, a more realistic expression can be realized while suppressing an increase in the data amount. Further, by fixing the object contact portion T, the calculation for determining the position and posture of each joint can be further simplified.

第2動作を所定期間実行した後(または第2動作の終了後)、第3動作実行手段46は、腰関節J0を起点にし、第1動作とは異なる所定の第3動作を実行する。より具体的には、第3動作実行手段46は、ゲームデータ30bに記憶されている斧Wが跳ね返る動作についてのモーションデータを読み出し、当該モーションデータを実行する。これにより、プレイヤキャラクタPcは、斧Wが壁Qに当接した後、跳ね返った反動でのけ反るような動作を行う。第3動作実行手段46は、第3動作を、関節モデルMを構成する複数の関節Jのうちの腰関節J0を起点にして生成する。例えば、第3動作のためのモーションデータは、FKに基づいて動作するデータとして構成される。   After executing the second action for a predetermined period (or after the end of the second action), the third action executing means 46 executes a predetermined third action that is different from the first action, starting from the hip joint J0. More specifically, the third motion execution means 46 reads motion data regarding the motion of the ax W bounced back from the game data 30b and executes the motion data. As a result, the player character Pc performs a warping action due to the bounced back reaction after the ax W comes into contact with the wall Q. The third motion executing means 46 generates the third motion starting from the hip joint J0 among the plurality of joints J constituting the joint model M. For example, the motion data for the third operation is configured as data that operates based on FK.

なお、第3動作のモーションデータには、予め当該第3動作の開始時点における各関節Jの位置および姿勢(第3動作初期値)が定められている。第3動作実行手段46は、第2動作の所定期間実行後のプレイヤキャラクタPbの位置および姿勢と、第3動作の開始時のプレイヤキャラクタPcの位置および姿勢と、の間を補間するようにプレイヤキャラクタPの動作を制御する。このような補間動作において、第3動作実行手段46は、各関節の位置および姿勢を手首関節J1を起点にして(IKに基づいて)決定してもよいし、腰関節J0を起点にして(FKに基づいて)決定してもよい。   In the motion data of the third motion, the position and posture (third motion initial value) of each joint J at the start time of the third motion are determined in advance. The third action executing means 46 interpolates between the position and posture of the player character Pb after the predetermined period of execution of the second action and the position and posture of the player character Pc at the start of the third action. The movement of the character P is controlled. In such an interpolation operation, the third motion execution means 46 may determine the position and posture of each joint starting from the wrist joint J1 (based on IK), or starting from the waist joint J0 ( (Based on FK).

例えば、IKに基づいて実行される第3動作として、第3動作実行手段46は、プレイヤキャラクタPが壁Qに刺さった斧Wを引き抜く動作を実行してもよい。プレイヤキャラクタPは、斧Wが壁Qに刺さった位置(オブジェクト当接箇所T)に位置した状態で、斧Wを引き抜く動作(引き抜こうとするが抜けない動作)を複数回繰り返す。このような動作がオブジェクト当接箇所Tを起点にしてIKに基づいて決定される。これにより、斧Wが壁Qから抜けないリアルな動作を表現することができる。さらにその後、キャラクタ動作制御手段43は、斧Wが壁Qから抜けたことによるプレイヤキャラクタPの動作をFKに基づいて実行してもよい。   For example, as the third action executed based on the IK, the third action executing means 46 may execute an action in which the player character P pulls out the ax W stuck in the wall Q. The player character P repeats the action of pulling out the ax W (the action of trying to pull out but not coming out) a plurality of times in a state where the ax W is located at the position where the ax W is stuck in the wall Q (object contact portion T). Such an action is determined based on the IK starting from the object contact point T. As a result, it is possible to express a realistic action in which the ax W does not come off the wall Q. Further thereafter, the character action control means 43 may execute the action of the player character P based on the FK when the ax W comes off the wall Q.

また、第2動作の後、プレイヤキャラクタPが壁Qに刺さった状態の斧Wから手を離す動作をしてもよい。例えば、第2動作の後、ユーザの操作によりプレイヤキャラクタPを移動させる操作が入力されると、プレイヤキャラクタPは斧Wから手を離す動作をFKに基づいて実行するとともに、仮想空間内を移動する動作をFKに基づいて実行してもよい。この場合、プレイヤキャラクタPが再度壁Qに刺さった状態の斧Wの位置に戻り、ユーザから所定の操作がされた場合、プレイヤキャラクタPは斧Wを握る動作をFKに基づいて実行する。   Further, after the second action, the player character P may perform an action of releasing the hand from the ax W in a state where it is stuck in the wall Q. For example, when an operation for moving the player character P is input by the user's operation after the second action, the player character P performs an action of releasing the hand from the ax W based on FK and moves in the virtual space. You may perform the operation | movement to perform based on FK. In this case, when the player character P returns to the position of the ax W in the state where it is stabbed in the wall Q again and a predetermined operation is performed by the user, the player character P performs an action of grasping the ax W based on FK.

すなわち、第3動作実行手段46は、プレイヤキャラクタPの先端の関節位置を移動させない場合にはプレイヤキャラクタPの動作をIKに基づいて制御し、プレイヤキャラクタPの先端の関節位置を移動させる場合にはプレイヤキャラクタPの動作をFKに基づいて制御する。   That is, the third motion executing means 46 controls the motion of the player character P based on IK when not moving the joint position at the tip of the player character P, and moves the joint position at the tip of the player character P. Controls the action of the player character P based on FK.

これにより、第2動作から第3動作への切り替えユーザに違和感を与えることなくスムーズに行うことができる。   Thereby, switching from the second operation to the third operation can be performed smoothly without giving a sense of incongruity to the user.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上記実施の形態に限定されるものではなく、その趣旨を逸脱しない範囲内で種々の改良、変更、修正が可能である。
[Modification]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various improvements, changes, and modifications can be made without departing from the spirit of the present invention.

例えば、上記実施の形態においては、プレイヤキャラクタPにおける一連の動作について説明したが、敵キャラクタ等のノンプレイヤキャラクタにおける一連の動作に適用することも可能である。   For example, in the embodiment described above, a series of actions in the player character P has been described, but the present invention can also be applied to a series of actions in a non-player character such as an enemy character.

また、上記実施の形態においては、プレイヤキャラクタPが斧を振り下ろす動作(攻撃動作)について例示したが、適用可能な動作はこれに限られない。例えば、バットまたはラケットを把持したキャラクタが当該バットまたはラケットを振って、ボールに当てた場合に、バットまたはラケットを把持したキャラクタの腕部の動作として上記第2動作と同様の動作を適用してもよい。これにより、バットまたはラケットにボールが当たったことについての誇張表現を実現することができる。また、例えば、野球のグローブを装着したキャラクタがボールを捕球した際に、グローブを装着した方の腕部が押されるような動作として上記第2動作と同様の動作を適用してもよい。   Moreover, in the said embodiment, although illustrated about the operation | movement (attack operation | movement) where the player character P swings down an ax, the applicable operation | movement is not restricted to this. For example, when the character holding the bat or racket swings the bat or racket and hits the ball, the same action as the second action is applied as the action of the arm of the character holding the bat or racket. Also good. Thereby, an exaggerated expression about the ball hitting the bat or the racket can be realized. Further, for example, when a character wearing a baseball glove catches the ball, an operation similar to the second operation may be applied as an operation in which the arm portion of the person wearing the glove is pushed.

また、キャラクタの手または足等が直接オブジェクトに当接した場合に、上記第2動作と同様の動作を適用してもよい。このように、第2動作の起点となるキャラクタの所定の部位は、様々に設定され得る。   Further, when the character's hand or foot directly touches the object, the same action as the second action may be applied. In this way, the predetermined part of the character that is the starting point of the second action can be set in various ways.

このように、キャラクタの所定の部位に当接するオブジェクトは、上記壁Q、木、柱等の固定オブジェクトであってもよいし、ボール、他のキャラクタ等の移動オブジェクトであってもよい。移動オブジェクトの場合には、キャラクタの第1動作は例えばグローブを構える等の静止状態を含み得る。   As described above, the object that contacts the predetermined part of the character may be a fixed object such as the wall Q, a tree, or a pillar, or may be a moving object such as a ball or another character. In the case of a moving object, the first action of the character may include a stationary state such as holding a glove.

上記実施の形態において、関節モデルMに含まれる複数の関節Jは人間の関節を模したものでもよいし、モンスター等、より多い関節またはより少ない関節を有していてもよい。すなわち、上記動作が適用できるキャラクタは、人間のキャラクタだけでなく、様々なモンスター等も含まれる。   In the above embodiment, the plurality of joints J included in the joint model M may imitate human joints, or may have more or fewer joints such as monsters. That is, the characters to which the above motion can be applied include not only human characters but also various monsters.

上記実施の形態において、第2動作の際に、設定される手首関節J1の所定の角度θは、つねに固定の値としてもよいし、条件に応じて異なる値としてもよい。例えば、当接するオブジェクトの材質(他のキャラクタ、壁、木等)に応じて異なる角度に設定されてもよい。また、武器の種類(刀か斧か、同じ斧でも大きい斧か小さい斧か等)、攻撃の種類(モーションが遅く攻撃力の高い大攻撃かモーションが速く攻撃力の低い小攻撃か等)、キャラクタの能力(攻撃力、体力、男性キャラクタか女性キャラクタか等)等に応じて異なる角度に設定されてもよい。   In the above embodiment, the predetermined angle θ of the wrist joint J1 that is set in the second operation may always be a fixed value or may be a different value depending on conditions. For example, a different angle may be set according to the material (other character, wall, tree, etc.) of the abutting object. Also, the type of weapon (sword or ax, the same ax, a big ax or a small ax, etc.), the type of attack (such as a large attack with slow motion and high attack power or a small attack with fast motion and low attack power), Different angles may be set according to the character's ability (attack, physical strength, male character, female character, etc.) and the like.

また、上記実施の形態においては、第2動作の際に、オブジェクト当接箇所の位置を固定する態様を例示したが、当接後、オブジェクト当接箇所の位置(第2動作の起点にする位置)を移動させてもよい。この場合、オブジェクトとキャラクタの当接部位とが当接した状態を維持しつつ同じように移動する(オブジェクトとキャラクタにおけるオブジェクト当接箇所の相対位置は変化しないように移動する)こととしてもよい。   Further, in the above embodiment, the mode of fixing the position of the object contact portion at the time of the second motion is illustrated, but after the contact, the position of the object contact portion (the position to be the starting point of the second motion) ) May be moved. In this case, it is also possible to move in the same manner while maintaining the state where the contact portion of the object and the character is in contact (moving so that the relative position of the object contact portion in the object and the character does not change).

オブジェクト配置手段42は、第2動作または第3動作の後、壁W等のオブジェクトにおけるオブジェクト当接箇所Tに対応する位置に、傷を表現するテクスチャ等を貼り付けてもよい。傷を表現するテクスチャは、武器の種類または攻撃の種類等に応じて異なってもよい。   After the second action or the third action, the object placement unit 42 may affix a texture or the like that expresses a scratch at a position corresponding to the object contact location T in the object such as the wall W. The texture expressing the wound may be different depending on the type of weapon or the type of attack.

また、上記実施の形態においては、アクションゲームを例示したが、3次元のキャラクタについての上記動作態様は、ロールプレイングゲーム、シミュレーションゲームまたはシューティングゲーム等、3次元の仮想空間を用いる種々のゲームに適用可能である。   Moreover, although the action game was illustrated in the said embodiment, the said operation | movement aspect about a three-dimensional character is applied to various games using a three-dimensional virtual space, such as a role playing game, a simulation game, or a shooting game. Is possible.

また、上記実施の形態では据え置き型のゲーム装置について説明したが、携帯型のゲーム装置、携帯電話機、およびパーソナルコンピュータなどのコンピュータについても、本発明を好適に適用することができる。   Further, although the stationary game apparatus has been described in the above embodiment, the present invention can also be suitably applied to computers such as portable game apparatuses, mobile phones, and personal computers.

本発明は、一のキャラクタが他のキャラクタまたはオブジェクトに当接した場合の表現をデータ量の増大を抑制しつつよりリアルに実現するために有用である。   The present invention is useful for realizing an expression when one character comes into contact with another character or an object more realistically while suppressing an increase in data amount.

2 ゲーム装置
30a ゲームプログラム
30b ゲームデータ
41 仮想空間生成手段
42 オブジェクト配置手段
43 キャラクタ動作制御手段
44 第1動作実行手段
45 第2動作実行手段
46 第3動作実行手段
J 関節
J0 腰関節
J1 手首関節
M 関節モデル
P,Pa〜Pc プレイヤキャラクタ
2 game device 30a game program 30b game data 41 virtual space generation means 42 object placement means 43 character action control means 44 first action execution means 45 second action execution means 46 third action execution means J joint J0 waist joint J1 wrist joint M Joint model P, Pa to Pc Player character

Claims (2)

コンピュータを、
3次元のキャラクタが動作する3次元の仮想空間を生成する仮想空間生成手段、
前記仮想空間にオブジェクトを配置するオブジェクト配置手段、および
前記キャラクタに対応して設定される複数の関節を有する関節モデルの各関節の位置および姿勢を決定することにより、前記キャラクタの動作を制御するキャラクタ動作制御手段、として機能させ、
前記キャラクタ動作制御手段は、
前記キャラクタにおける所定の第1動作を実行する第1動作実行手段と、
前記第1動作中に、前記キャラクタにおける所定の部位が前記オブジェクトに当接した場合、前記所定の部位におけるオブジェクト当接箇所を起点にして前記キャラクタの第2動作を実行する第2動作実行手段と、を含み、
前記第1動作実行手段は、前記第1動作を、前記関節モデルを構成する複数の関節のうちの前記キャラクタの中央部に位置する所定の関節を起点にして生成し、
前記キャラクタ動作制御手段は、前記第2動作を所定期間実行した後、前記所定の関節を起点にして、前記第1動作とは異なる第3動作を実行する第3動作実行手段を含み、
前記第3動作実行手段は、前記第2動作の前記所定期間実行後の前記キャラクタの位置および姿勢と前記第3動作の開始時の前記キャラクタの位置および姿勢との間を補間する、ゲームプログラム。
Computer
Virtual space generation means for generating a three-dimensional virtual space in which a three-dimensional character operates;
A character that controls the movement of the character by determining an object placement means for placing an object in the virtual space, and a position and posture of each joint of a joint model having a plurality of joints set corresponding to the character. Function as an operation control means,
The character motion control means includes
First action executing means for executing a predetermined first action on the character;
A second action executing means for executing the second action of the character starting from the object contact point in the predetermined part when a predetermined part of the character is in contact with the object during the first action; , only including,
The first action execution means generates the first action from a predetermined joint located at a central portion of the character among a plurality of joints constituting the joint model,
The character action control means includes a third action executing means for executing a third action different from the first action with the predetermined joint as a starting point after executing the second action for a predetermined period of time.
The game program for interpolating between the position and posture of the character after execution of the second motion for the predetermined period and the position and posture of the character at the start of the third motion .
請求項に記載のゲームプログラムを記憶したプログラム記憶部と、
前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えた、ゲームシステム。
A program storage unit storing the game program according to claim 1 ;
A game system comprising: a computer that executes a program stored in the program storage unit.
JP2016160580A 2016-08-18 2016-08-18 Game program and game system Active JP6437969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016160580A JP6437969B2 (en) 2016-08-18 2016-08-18 Game program and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016160580A JP6437969B2 (en) 2016-08-18 2016-08-18 Game program and game system

Publications (2)

Publication Number Publication Date
JP2018027217A JP2018027217A (en) 2018-02-22
JP6437969B2 true JP6437969B2 (en) 2018-12-12

Family

ID=61247725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016160580A Active JP6437969B2 (en) 2016-08-18 2016-08-18 Game program and game system

Country Status (1)

Country Link
JP (1) JP6437969B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3485987B2 (en) * 1995-01-23 2004-01-13 株式会社ナムコ 3D game device and hit check method
JPH11216269A (en) * 1997-11-27 1999-08-10 Square Co Ltd Game device and information storage medium storing program used therefore
JP4656622B2 (en) * 2001-08-23 2011-03-23 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP5269392B2 (en) * 2007-11-08 2013-08-21 株式会社カプコン Program and game system

Also Published As

Publication number Publication date
JP2018027217A (en) 2018-02-22

Similar Documents

Publication Publication Date Title
US10792571B2 (en) Virtual reality simulation of a live-action sequence
US8475278B2 (en) Terminal device, game control method, information recording medium, and program
JP5325265B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5775323B2 (en) Program and image processing apparatus provided with computer for executing the program
JP6910809B2 (en) Simulation system, program and controller
JP6310517B2 (en) Game program and game system
JP5491971B2 (en) Program, recording medium recording the program, and computer executing the program
JP6437969B2 (en) Game program and game system
JP2012208548A (en) Program and image processing apparatus with program recording unit with the program recorded therein
JP4278070B2 (en) Image generation system and information storage medium
JP6318202B2 (en) Game program and game system
JP6021282B2 (en) Computer device, game program, and computer device control method
JP2009045273A (en) Program, information storage medium, and game system
JP6042495B2 (en) Program and image processing apparatus provided with computer for executing the program
JP6302966B2 (en) Game program and game system
TW200848130A (en) Game device, method for controlling a game device, and information recording medium
JP5124545B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP5676030B2 (en) Program and game device for executing the program
JP6267295B1 (en) Game program and game system
AU2017101339A4 (en) A Game Controller
JP6310516B2 (en) Game program and game system
JP5431411B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP6302967B2 (en) Game program and game system
JP2010233752A (en) Program, information storage medium, and image generation system
JP2002200348A (en) Control method for baseball game, storage medium, and game device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181115

R150 Certificate of patent or registration of utility model

Ref document number: 6437969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250