JP7290426B2 - Information processing device, game processing method and game processing program - Google Patents

Information processing device, game processing method and game processing program Download PDF

Info

Publication number
JP7290426B2
JP7290426B2 JP2019021049A JP2019021049A JP7290426B2 JP 7290426 B2 JP7290426 B2 JP 7290426B2 JP 2019021049 A JP2019021049 A JP 2019021049A JP 2019021049 A JP2019021049 A JP 2019021049A JP 7290426 B2 JP7290426 B2 JP 7290426B2
Authority
JP
Japan
Prior art keywords
character
action
virtual ground
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019021049A
Other languages
Japanese (ja)
Other versions
JP2020127589A (en
Inventor
唯信 隆藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Games Co Ltd
Original Assignee
Koei Tecmo Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Games Co Ltd filed Critical Koei Tecmo Games Co Ltd
Priority to JP2019021049A priority Critical patent/JP7290426B2/en
Publication of JP2020127589A publication Critical patent/JP2020127589A/en
Application granted granted Critical
Publication of JP7290426B2 publication Critical patent/JP7290426B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、情報処理装置、ゲーム処理方法及びゲーム処理プログラムに関する。 The present disclosure relates to an information processing device, a game processing method, and a game processing program.

ゲームにおいてキャラクタが移動する地面等の地形を検出するレイキャストの技術がある。この技術では、キャラクタの真下に向かってレイキャストを行い、地形情報を検出することが行われている。その際、レイ(光線)がヒットした場所の情報を取得し、取得した情報に基づきキャラクタの下の地面の位置及び角度を設定する。 There is a raycast technique for detecting terrain such as the ground on which a character moves in a game. In this technique, ray casting is performed directly below the character to detect terrain information. At that time, information on the location hit by the ray is obtained, and the position and angle of the ground under the character are set based on the obtained information.

また、地形を検出するための地形検出用オブジェクトを仮想空間に配置し、キャラクタと地形検出用オブジェクトとの衝突情報から地形を自動的に判定する技術が開示されている(例えば特許文献1、2参照)。 Also disclosed is a technique of arranging a terrain detection object for detecting the terrain in a virtual space and automatically determining the terrain from collision information between a character and the terrain detection object (for example, Patent Documents 1 and 2). reference).

また、 again,

特開2017-46951号公報JP 2017-46951 A 特開2017-217334号公報JP 2017-217334 A

しかしながら、建物の間の狭い隙間や道路に設けられた低い段差等の特定の地形は無視してキャラクタを移動させる方が、キャラクタをゲーム上の地形に応じてスムーズに動作させることができ、ゲームの進行上好ましい場合がある。 However, by moving the character ignoring specific terrain such as narrow gaps between buildings and low steps on roads, the character can move smoothly according to the terrain in the game. may be favorable for the progress of

そこで、本開示は、オブジェクトをゲーム上の地形に応じてスムーズに動作させることが可能な技術を提供する。 Therefore, the present disclosure provides a technology that allows an object to move smoothly according to terrain in a game.

本開示の一の態様によれば、ゲーム画面に表示されているオブジェクトの下の非表示の地面である仮想地面を作成する特定部と、作成した前記仮想地面の情報に基づき、前記オブジェクトの次のアクションを決定する決定部と、決定した前記次のアクションに基づき、前記ゲーム画面に表示するオブジェクトの動作を制御する動作制御部と、を有し、前記特定部は、前記オブジェクトの大きさに応じたサイズであって前記オブジェクトに重ねて移動する判定オブジェクトの前記ゲーム画面に表示されている表示部品からの押出方向に応じて前記仮想地面を作成する、情報処理装置が提供される。
According to one aspect of the present disclosure, a specifying unit that creates a virtual ground that is a hidden ground under an object displayed on a game screen; and an action control unit for controlling the action of the object displayed on the game screen based on the decided next action, wherein the specifying unit determines the size of the object An information processing apparatus is provided that creates the virtual ground according to the direction in which a judgment object having a size corresponding to the object and moving over the object is pushed out from the display component displayed on the game screen.

一の側面によれば、オブジェクトをゲーム上の地形に応じてスムーズに動作させることができる。 According to one aspect, the object can be smoothly moved according to the terrain in the game.

従来の地形検出を説明するための図である。FIG. 5 is a diagram for explaining conventional terrain detection; 一実施形態に係る情報処理装置の機能構成の一例を示す図である。It is a figure showing an example of functional composition of an information processor concerning one embodiment. 一実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the information processing apparatus which concerns on one Embodiment. 一実施形態に係るアクション処理の概要を説明するための図である。FIG. 4 is a diagram for explaining an overview of action processing according to one embodiment; FIG. 一実施形態に係るアクション処理の概要を説明するための図である。FIG. 4 is a diagram for explaining an overview of action processing according to one embodiment; FIG. 一実施形態に係るキャラクタテーブルの一例を示す図である。It is a figure which shows an example of the character table which concerns on one Embodiment. 一実施形態に係る表示部品位置テーブルの一例を示す図である。It is a figure which shows an example of the display component position table which concerns on one Embodiment. 一実施形態に係る動作ルールテーブルの一例を示す図である。It is a figure which shows an example of the operation rule table which concerns on one Embodiment. 一実施形態に係るアクション処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of action processing according to one embodiment; 一実施形態に係る仮想地面の作成を説明するための図である。FIG. 4 is a diagram for explaining creation of a virtual ground according to one embodiment; 一実施形態に係るアクション処理の効果の一例を示す図である。It is a figure which shows an example of the effect of action processing which concerns on one Embodiment. 一実施形態に係るキャラクタの大きさに応じたアクション処理を説明するための図である。FIG. 7 is a diagram for explaining action processing according to the size of a character according to one embodiment; 一実施形態に係るアクション処理の効果の一例を示す図である。It is a figure which shows an example of the effect of action processing which concerns on one Embodiment.

以下、一実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く場合がある。 An embodiment will be described below with reference to the accompanying drawings. In addition, in this specification and the drawings, components having substantially the same functional configuration may be denoted by the same reference numerals, thereby omitting redundant description.

以下の説明に際し、ゲーム画面においてキャラクタが動作する仮想空間に置かれた建物等のオブジェクトを「表示部品」という。また、以下では、「キャラクタ」は、プレイヤーによって操作されるプレイヤーキャラクタを想定して説明を行う。しかし、キャラクタは、これに限られず、通信ゲームの通信相手が操作するキャラクタであってもよいし、自動で動作するキャラクタ(ノンプレイヤキャラクタ)であってもよい。
<従来の地形検出の一例>
従来の地形検出の一例について図1を参照して説明する。図1は、従来の地形検出を説明するための図である。ゲーム画面に表示されているキャラクタ100の足場の地形を判定する手法の一つとして、キャラクタの真下に向かってレイキャストを行う方法がある。この方法では、レイ(光線)がヒットした場所の情報を取得し、取得した情報に基づきキャラクタの下の地面の位置及び角度を検出し、キャラクタの足元の地面の高さ、角度を判定する。
In the following description, an object such as a building placed in a virtual space in which a character operates on a game screen will be referred to as a "display component". Also, in the following description, the “character” is assumed to be a player character operated by the player. However, the character is not limited to this, and may be a character operated by a communication partner in a communication game, or may be a character (non-player character) that moves automatically.
<An example of conventional terrain detection>
An example of conventional terrain detection will be described with reference to FIG. FIG. 1 is a diagram for explaining conventional terrain detection. As one method of determining the terrain of the scaffolding of the character 100 displayed on the game screen, there is a method of performing a raycast directly below the character. In this method, information on the location hit by a ray is obtained, the position and angle of the ground under the character are detected based on the obtained information, and the height and angle of the ground at the character's feet are determined.

かかる判定では、キャラクタ100の落下やキャラクタ100が隙間に挟まれてしまう等の意図しない動作が生じ、キャラクタ100の動作が望む通りの挙動とならない場合がある。たとえば、図1(a)にて、キャラクタ100が表示部品201、202の間の隙間203付近にいる場合、レイキャストでは、レイが隙間203に入る。その結果、キャラクタ100は、図1(b)に示すように隙間203に入り込み、図1(c)に示すように隙間203の底部の地面の表示部品102(以下、「地面102」とも表記する。)上に着地する動作が行われる。これにより、キャラクタ100は、隙間203に挟まった状態で動けなくなる場合がある。 In such a determination, an unintended action such as the character 100 falling or the character 100 being caught in a gap may occur, and the action of the character 100 may not behave as desired. For example, in FIG. 1A, when the character 100 is near the gap 203 between the display parts 201 and 202, a ray enters the gap 203 in ray casting. As a result, the character 100 enters the clearance 203 as shown in FIG. .) A motion to land on is performed. As a result, the character 100 may become stuck in the gap 203 and be unable to move.

レイキャストを複数回行ったとしても、図1(d)に示すように表示部品204、205が細く、キャラクタが細い足場にいる場合、レイが表示部品204、205の間の隙間206に入り、キャラクタが隙間206に挟まってしまう。 Even if ray casting is performed multiple times, if the display parts 204 and 205 are thin as shown in FIG. The character is caught in the gap 206. - 特許庁

また、図1(e)に示すように地面102に無視できる程度の小さな段差を生じさせる表示部品207があり、その上にキャラクタ100がいる場合、レイキャストを行った結果、表示部品207は傾斜が45°以上の不正な足場と判定され、キャラクタ100の落下処理が発生する場合がある。 Further, as shown in FIG. 1(e), when there is a display component 207 that creates a negligible small step on the ground 102 and the character 100 is on it, the display component 207 is tilted as a result of raycasting. is determined to be an illegal footing of 45 degrees or more, and the character 100 may be dropped.

そこで、狭い隙間や低い段差等の地形は無視してキャラクタ100の動作が望む通りの挙動となることで、キャラクタ100をスムーズに動作させることが可能な情報処理装置、ゲーム処理方法及びゲーム処理プログラムを提供する。 Therefore, an information processing device, a game processing method, and a game processing program that can smoothly move the character 100 by ignoring the terrain such as narrow gaps and low steps and making the character 100 behave as desired. I will provide a.

[情報処理装置の機能構成]
以下では、一実施形態に係る情報処理装置10の機能構成の一例について、図2を参照しながら説明する。図2は、一実施形態に係る情報処理装置10の機能構成の一例を示す図である。
[Functional Configuration of Information Processing Device]
An example of the functional configuration of the information processing apparatus 10 according to one embodiment will be described below with reference to FIG. FIG. 2 is a diagram showing an example of the functional configuration of the information processing device 10 according to one embodiment.

本実施形態に係る情報処理装置10は、プレイヤーがゲームをプレイする機器であればいずれの電子機器でもよく、スマートフォン、携帯ゲーム機、パーソナルコンピュータ、タブレット端末、家庭用ゲーム装置、業務用ゲーム装置等であってもよい。 The information processing device 10 according to the present embodiment may be any electronic device as long as it is a device on which a player plays a game, such as a smartphone, a portable game machine, a personal computer, a tablet terminal, a home game device, an arcade game device, or the like. may be

情報処理装置10は、記憶部11、入力部12、特定部13、決定部14、動作制御部15、グラフィック処理部16、サウンド処理部17、表示部18及び音出力部19を有する。 The information processing apparatus 10 has a storage unit 11 , an input unit 12 , a specifying unit 13 , a determining unit 14 , an operation control unit 15 , a graphics processing unit 16 , a sound processing unit 17 , a display unit 18 and a sound output unit 19 .

記憶部11は、キャラクタテーブル111、表示部品位置テーブル112、動作ルールテーブル113を記憶する。キャラクタテーブル111は、キャラクタの情報を記憶するテーブルである。表示部品位置テーブル112は、ゲーム画面に表示する表示部品の位置を記憶するテーブルである。動作ルールテーブル113は、キャラクタの動作を行うルールを定義したテーブルである。これらのテーブルについての具体例は後述する。 The storage unit 11 stores a character table 111 , a display component position table 112 and an action rule table 113 . The character table 111 is a table that stores character information. The display component position table 112 is a table that stores the positions of display components displayed on the game screen. The action rule table 113 is a table that defines rules for character actions. Specific examples of these tables will be described later.

入力部12は、プレイヤーからのコントローラ(図3参照)の操作を受け付ける。入力部12は、プレイヤーからの操作をタッチパネルにより受け付けてもよい。 The input unit 12 receives an operation of the controller (see FIG. 3) from the player. The input unit 12 may receive an operation from the player through a touch panel.

特定部13は、ゲーム画面に表示されているキャラクタの足元の仮想地面を特定する。キャラクタの足元の仮想地面は、キャラクタの足元において仮想的に作成される非表示の地面であり、キャラクタの足場(足元の状態)を判定するために用いられる。なお、ゲーム画面に表示されているキャラクタは、ゲーム画面に表示されているオブジェクトの一例である。すなわち、オブジェクトは、キャラクタに限られず、車等の乗り物、キャラクタが乗った移動物、その他のゲーム画面に表示されるすべてのものを含む。また、キャラクタの足元(足場)の仮想地面は、オブジェクトの下の仮想地面の一例である。すなわち、オブジェクトは、キャラクタの足元に限られず、キャラクタがほふく前進していたり、寝そべっていたり、逆立ちしていたりしている場合、キャラクタの腹や背中や両手が「オブジェクトの下」となり、キャラクタの腹や背中や両手において仮想的に非表示の地面が作成される。 The specifying unit 13 specifies the virtual ground at the feet of the character displayed on the game screen. The virtual ground at the character's feet is a non-display ground that is virtually created at the character's feet, and is used to determine the character's footing (state of the feet). The character displayed on the game screen is an example of the object displayed on the game screen. That is, objects are not limited to characters, but include vehicles such as cars, moving objects on which characters ride, and all other objects displayed on the game screen. Also, the virtual ground under the character's feet (foothold) is an example of the virtual ground under the object. In other words, the object is not limited to the character's feet, but when the character is crouching forward, lying down, or standing upside down, the character's belly, back, and hands are "under the object". Virtually invisible ground is created on the belly, back and hands.

決定部14は、特定した仮想地面の情報に基づき、キャラクタの次のアクションを決定する。決定部14は、動作ルールテーブル113に定義されたルールに基づき、キャラクタの次のアクションを決定してもよい。動作制御部15は、決定した次のアクションに基づき、キャラクタの動作を制御する。 The determination unit 14 determines the character's next action based on the information about the identified virtual ground. The determination unit 14 may determine the character's next action based on the rules defined in the action rule table 113 . The motion control unit 15 controls the motion of the character based on the determined next action.

グラフィック処理部16は、動作制御部15から描画命令が出力されると、表示部18に所定の画像を表示するためのビデオ信号を出力する。これにより、表示部18は、キャラクタと背景のステージとを仮想空間に表示する。グラフィック処理部16から出力されるビデオ信号に含まれる画像の一フレーム時間は、例えば30分の1秒である。よって、グラフィック処理部16は、フレーム単位(すなわち、30分の1秒単位)で1枚の画像の描画を実行する。 When the operation control unit 15 outputs a drawing command, the graphics processing unit 16 outputs a video signal for displaying a predetermined image on the display unit 18 . Thereby, the display unit 18 displays the character and the background stage in the virtual space. One frame time of an image included in the video signal output from the graphics processing unit 16 is, for example, 1/30 second. Therefore, the graphics processing unit 16 draws one image in units of frames (that is, in units of 1/30 second).

サウンド処理部17は、グラフィック処理部16からサウンド出力の指示命令が出力されると、音出力部19に所定の音を出力するためのサウンド信号を出力する。これにより、ゲームの状況に応じたサウンドが出力される。 When the graphics processing unit 16 outputs a sound output instruction command, the sound processing unit 17 outputs a sound signal for outputting a predetermined sound to the sound output unit 19 . As a result, sounds are output according to the game situation.

[情報処理装置のハードウェア構成]
次に、一実施形態に係る情報処理装置10のハードウェア構成の一例について、図3を参照しながら説明する。図3は、一実施形態に係る情報処理装置10のハードウェア構成の一例を示す図である。
[Hardware Configuration of Information Processing Device]
Next, an example of the hardware configuration of the information processing device 10 according to one embodiment will be described with reference to FIG. FIG. 3 is a diagram showing an example of the hardware configuration of the information processing device 10 according to one embodiment.

情報処理装置10は、CPU21、ROM22、RAM23、HDD24、グラフィックカード25、外部I/F(インターフェース)26、通信I/F27、入力I/F28、ディスプレイ29及びスピーカ30を有する。各部は、バスで相互に接続されている。 The information processing apparatus 10 has a CPU 21 , ROM 22 , RAM 23 , HDD 24 , graphic card 25 , external I/F (interface) 26 , communication I/F 27 , input I/F 28 , display 29 and speaker 30 . Each part is interconnected by a bus.

ROM22は、電源を切っても内部データを保持することができる不揮発性の半導体メモリである。ROM22には、プログラム及びデータが格納されている。RAM23は、プログラムやデータを一時保持する揮発性の半導体メモリである。 The ROM 22 is a non-volatile semiconductor memory that can retain internal data even when power is turned off. The ROM 22 stores programs and data. The RAM 23 is a volatile semiconductor memory that temporarily holds programs and data.

HDD24は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムには、情報処理装置10の全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。HDD24には、各種のデータベースが格納されてもよい。本実施形態では、HDD24にアクション処理を実行するためのプログラムや基本ゲームプログラムが格納される。また、HDD24にキャラクタテーブル111、表示部品位置テーブル112及び動作ルールテーブル113の各情報が格納される。 The HDD 24 is a nonvolatile storage device that stores programs and data. The stored programs include basic software and application software that control the entire information processing apparatus 10 . Various databases may be stored in the HDD 24 . In this embodiment, the HDD 24 stores a program for executing action processing and a basic game program. In addition, each information of the character table 111, the display part position table 112 and the operation rule table 113 is stored in the HDD24.

CPU21は、HDD24からプログラムやデータをRAM23上に読み出し、アクション処理や基本ゲーム処理を実行することで、情報処理装置10の全体の制御や情報処理装置10に搭載された機能を実現する。 The CPU 21 reads programs and data from the HDD 24 onto the RAM 23 and executes action processing and basic game processing, thereby realizing the overall control of the information processing device 10 and the functions installed in the information processing device 10 .

具体的には、図2に示す特定部13、決定部14及び動作制御部15の機能は、情報処理装置10にインストールされたアクション処理を実行するためのプログラムがCPU21に実行させる処理により実現される。 Specifically, the functions of the specifying unit 13, the determining unit 14, and the operation control unit 15 shown in FIG. be.

外部I/F26は、情報処理装置10を記録媒体26a等の外部装置に接続するインターフェースである。これにより、情報処理装置10は、外部I/F26を介して記録媒体26aの読み取り及び書き込みを行うことができる。記録媒体26aの一例としては、CD(Compact Disk)、DVD(Digital Versatile Disk)が挙げられる。記録媒体26aは、SDメモリーカード(SD Memory card)又はUSBメモリ(Universal Serial Bus memory)等であってもよい。 The external I/F 26 is an interface that connects the information processing apparatus 10 to an external device such as a recording medium 26a. Thereby, the information processing apparatus 10 can read and write data on the recording medium 26 a via the external I/F 26 . Examples of the recording medium 26a include a CD (Compact Disk) and a DVD (Digital Versatile Disk). The recording medium 26a may be an SD memory card, a USB memory (Universal Serial Bus memory), or the like.

例えば、情報処理装置10には、アクション処理を実行するためのプログラム及び基本ゲームプログラムが格納された記録媒体26aを装着することが可能である。これらのプログラムは、外部I/F26により読み出されて、RAM23に読み込まれる。 For example, the information processing device 10 can be loaded with a recording medium 26a storing a program for executing action processing and a basic game program. These programs are read by the external I/F 26 and loaded into the RAM 23 .

CPU21は、RAM23にロードされた上記の各種のプログラムを処理し、グラフィックカード25にゲームの進行に応じた画像の出力を指示する。グラフィックカード25は、指示に従い画面に表示するゲームの場面に応じた画像処理を行い、ディスプレイ29にキャラクタの画像及びステージの画像を描画させる。これにより、グラフィック処理部16及び表示部18の機能が実行される。なお、グラフィックカード25は、フレーム単位で1枚の画像の描画を実行し、一秒間に30回~60回のフレームの画像が描画される。 The CPU 21 processes the above various programs loaded in the RAM 23 and instructs the graphic card 25 to output images according to the progress of the game. The graphic card 25 performs image processing according to the game scene to be displayed on the screen according to the instruction, and causes the display 29 to draw the image of the character and the image of the stage. Thereby, the functions of the graphic processing unit 16 and the display unit 18 are executed. Note that the graphic card 25 draws one image in frame units, and the frame image is drawn 30 to 60 times per second.

また、CPU21は、RAM23に読み込まれた上記の各種のプログラムを処理し、ゲームの進行に応じてスピーカ30から所定の音を出力させる。これにより、サウンド処理部17及び音出力部19の機能が実行される。 Further, the CPU 21 processes the above-described various programs read into the RAM 23, and causes the speaker 30 to output a predetermined sound according to the progress of the game. Thereby, the functions of the sound processing unit 17 and the sound output unit 19 are executed.

ディスプレイ29はタッチパネル式としても良い。これにより、コントローラ1を用いずに入力操作を行うことができる。この場合、タッチパネルにより検出されたタッチ位置の入力情報は、RAM23に格納され、CPU21はRAM23に格納された入力情報をもとに各種の演算処理を実行する。 The display 29 may be of a touch panel type. Accordingly, input operations can be performed without using the controller 1 . In this case, the input information of the touch position detected by the touch panel is stored in the RAM 23, and the CPU 21 executes various arithmetic processing based on the input information stored in the RAM 23. FIG.

通信I/F27は、情報処理装置10をネットワークに接続するインターフェースである。また、通信I/F27は、アンテナを有する通信ユニットを介して、他のゲーム機器と無線により通信を行う機能を有していてもよい。 Communication I/F 27 is an interface that connects information processing apparatus 10 to a network. Also, the communication I/F 27 may have a function of wirelessly communicating with another game machine via a communication unit having an antenna.

入力I/F28は、コントローラ1に接続するインターフェースである。コントローラ1は、操作ボタン2及び方向キー3を有する。プレイヤーは、操作ボタン2を操作することでキャラクタに所定の動作を行わせることができる。また、プレイヤーは、方向キー3を操作することでキャラクタを所定の方向に移動させることができる。入力I/F28は、プレイヤーがコントローラ1を用いて行った入力操作に基づく入力情報をRAM23に格納させる。これにより、入力部12の機能が実行される。 The input I/F 28 is an interface that connects to the controller 1 . The controller 1 has operation buttons 2 and direction keys 3 . The player can make the character perform a predetermined action by operating the operation button 2 . Also, the player can move the character in a predetermined direction by operating the direction key 3 . The input I/F 28 causes the RAM 23 to store input information based on input operations performed by the player using the controller 1 . Thereby, the function of the input unit 12 is executed.

CPU21は、RAM23に格納された入力情報に基づきキャラクタの動作等の各種の演算処理を実行する。また、入力I/F28は、CPU21からの指示に従いRAM23に記憶されているゲームの進行状況を示すデータをメモリーカード28aに保存させ、メモリーカード28aに保存されている中断時のゲームのデータを読み出してRAM23に転送する処理を行う。 The CPU 21 executes various kinds of arithmetic processing such as character motion based on the input information stored in the RAM 23 . In addition, the input I/F 28 causes the memory card 28a to store the data indicating the progress of the game stored in the RAM 23 according to the instruction from the CPU 21, and reads out the data of the game at the time of interruption stored in the memory card 28a. Then, a process of transferring the data to the RAM 23 is performed.

[アクション処理の概要]
次に、図4及び図5を参照して、一実施形態に係るアクション処理の概要について説明する。図4及び図5は、一実施形態に係るアクション処理の概要を説明するための図である。本実施形態に係るアクション処理では、レイキャストではなく、キャラクタに重ねてキャラクタとともに移動する非表示の判定オブジェクトを使用し、判定オブジェクトの押出情報に基づき仮想地面が特定される。そして、仮想地面を用いてキャラクタの足場の状態が判定される。これにより、キャラクタは狭い隙間に落下することなく、小さな段差であれば段差でなく坂道とみなして乗り越えることができる。ただし、これらのキャラクタの動作は一例であり、キャラクタをゲーム上の地形に応じてスムーズに動作させることができる。
[Outline of action processing]
Next, an overview of action processing according to an embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 and 5 are diagrams for explaining an overview of action processing according to an embodiment. In the action processing according to this embodiment, instead of raycasting, a hidden determination object that overlaps the character and moves with the character is used, and the virtual ground is specified based on the extrusion information of the determination object. Then, the state of the foothold of the character is determined using the virtual ground. As a result, the character does not fall into a narrow gap and can climb over a small step as if it were a slope instead of a step. However, these character movements are only examples, and the characters can be made to move smoothly according to the terrain in the game.

図4及び図5に示すように、キャラクタ100には判定オブジェクト101が重ねて設けられる。プレイヤーには、キャラクタ100は見えるが、判定オブジェクト101は見えない。ここでは、説明の便宜上、判定オブジェクト101を表示する。判定オブジェクト101は、キャラクタ100の大きさに応じてサイズが異なってもよい。判定オブジェクト101は、キャラクタ100の大きさに応じて形状が異なってもよい。 As shown in FIGS. 4 and 5, a determination object 101 is superimposed on the character 100 . The player can see the character 100 but cannot see the determination object 101 . Here, the judgment object 101 is displayed for convenience of explanation. The determination object 101 may have different sizes depending on the size of the character 100 . The determination object 101 may have different shapes depending on the size of the character 100 .

一実施形態に係るアクション処理では、キャラクタ100の大きさに応じたサイズの判定オブジェクト101が予めキャラクタテーブル111に設定されている。キャラクタテーブル111の一例を図6に示す。例えば、キャラクタIDが「Aa」のキャラクタ100には、判定オブジェクトIDが「Ba」の判定オブジェクト101が重ねられる。キャラクタIDが「Ab」のキャラクタ100には、判定オブジェクトIDが「Bb」の判定オブジェクト101が重ねられる。「Aa」のキャラクタ100が「Ab」のキャラクタ100の1.5倍の大きさであれば、「Ba」の判定オブジェクト101は「Bb」の判定オブジェクト101の1.5倍の大きさに設定されてもよい。 In action processing according to one embodiment, the determination object 101 having a size corresponding to the size of the character 100 is set in advance in the character table 111 . An example of the character table 111 is shown in FIG. For example, the determination object 101 with the determination object ID of "Ba" is superimposed on the character 100 with the character ID of "Aa". A determination object 101 having a determination object ID of "Bb" is superimposed on the character 100 having a character ID of "Ab". If the "Aa" character 100 is 1.5 times larger than the "Ab" character 100, the "Ba" determination object 101 is set to be 1.5 times larger than the "Bb" determination object 101. may be

ゲーム画面には、建物、地面、山等のキャラクタ以外のオブジェクト(以下、「表示部品」という。)が表示される。図4及び図5では、表示部品102、103、104が図示されている。 Objects other than characters such as buildings, the ground, and mountains (hereinafter referred to as “display components”) are displayed on the game screen. In FIGS. 4 and 5, display components 102, 103 and 104 are illustrated.

一実施形態に係るアクション処理に用いる表示部品の表示位置は、表示部品位置テーブル112に記憶される。一実施形態に係る表示部品位置テーブル112の一例を図7に示す。例えば、表示部品IDが「Ca」の表示部品103に対応する位置情報の左上の座標(xa1、ya1)及び右下の座標(xa2、ya2)から表示部品103の位置及び大きさが定まる。 The display positions of the display components used for action processing according to one embodiment are stored in the display component position table 112 . FIG. 7 shows an example of the display component position table 112 according to one embodiment. For example, the position and size of the display component 103 can be calculated from the upper left coordinates (x a1 , y a1 ) and the lower right coordinates (x a2 , y a2 ) of the position information corresponding to the display component 103 whose display component ID is “Ca”. is determined.

図4は、表示部品102、103とキャラクタ100が表示されている場面を示す。判定オブジェクト101は、ゲーム中のプレイヤーには見えないように非表示にして、キャラクタ100の移動に応じてキャラクタ100に重ねて移動される。なお、キャラクタ100、判定オブジェクト101、表示部品102、103の大きさ及び形状は一例であり、これに限られない。 FIG. 4 shows a scene in which display parts 102 and 103 and character 100 are displayed. The determination object 101 is hidden so as not to be seen by the player during the game, and is moved over the character 100 as the character 100 moves. Note that the sizes and shapes of the character 100, the determination object 101, and the display parts 102 and 103 are examples, and are not limited to these.

情報処理装置10は、毎フレーム、すなわち、一フレーム毎に以下の手順(1)~(4)を実行することで、キャラクタ100のアクションを更新する。
(1)足場の判定
(2)アクションの決定
(3)移動
(4)判定オブジェクトの押出
図4(a)~(d)を参照して、キャラクタが表示部品103の側壁に衝突する場合のアクションの更新について説明する。まず、手順(1)において、特定部13は、キャラクタ100がいる位置の足場を判定する。図4(a)の例では、特定部13は、キャラクタ100の足場を判定した結果、キャラクタ100の足元に所定幅の地面102があるため、足場があると判定する。特定部13は、キャラクタ100の足元に所定幅の面がある場合、後述する仮想地面を作成せずに「足場がある」と判定できる。
The information processing apparatus 10 updates the action of the character 100 by executing the following procedures (1) to (4) for each frame.
(1) Judgment of scaffolding (2) Decision of action (3) Movement (4) Extrusion of judging object Referring to FIGS. Describes the update of First, in procedure (1), the specifying unit 13 determines the foothold at the position where the character 100 is located. In the example of FIG. 4A, as a result of determining the foothold of the character 100, the specifying unit 13 determines that there is a foothold because the character 100 has a ground 102 with a predetermined width under its feet. When the character 100 has a surface with a predetermined width at its feet, the specifying unit 13 can determine that "there is a foothold" without creating a virtual ground, which will be described later.

次に、手順(2)において、決定部14は、判定結果に応じてキャラクタ100の次のアクションを決定する。アクションを決定するための動作ルールは、動作ルールテーブル113に定義されている。 Next, in procedure (2), the determination unit 14 determines the next action of the character 100 according to the determination result. Action rules for determining actions are defined in the action rule table 113 .

動作ルールテーブル113の一例を図8に示す。図8の動作ルールテーブル113の例では、条件が「足場がある」の場合であって足場の傾斜がない又は足場の傾斜が45°未満の場合、キャラクタのアクションは「動作継続」に設定される。条件が「足場がある」の場合であって足場の傾斜が45°以上の場合、キャラクタのアクションは「動作停止」又は「落下」に設定される。条件が「足場がない」の場合、キャラクタのアクションは「落下」に設定される。 An example of the operation rule table 113 is shown in FIG. In the example of the action rule table 113 of FIG. 8, when the condition is "there is a foothold" and the foothold is not inclined or the inclination of the foothold is less than 45 degrees, the action of the character is set to "continue the action". be. If the condition is "there is a foothold" and the inclination of the foothold is 45 degrees or more, the action of the character is set to "stop moving" or "fall". If the condition is "no foothold", the action of the character is set to "fall".

よって、図4(b)の例では、決定部14は、動作ルールテーブル113を参照して、条件が「足場がある」の場合の「足場の傾斜なし」の条件に従い、次のアクションとして、キャラクタの動作継続を決定する。つまり、決定部14は、キャラクタ100の走りを継続させるようにアクションを決定する。 Therefore, in the example of FIG. 4B, the determination unit 14 refers to the action rule table 113, and follows the condition of "no scaffolding tilt" when the condition is "there is a foothold", as the next action: Determines whether to continue the character's motion. In other words, the determination unit 14 determines an action to allow the character 100 to continue running.

次に、手順(3)において、動作制御部15は、決定した次のアクションに基づき、キャラクタの動作を制御する。図4(c)の例では、動作制御部15は、キャラクタ100の走りを継続し、キャラクタ100を移動させる。移動の結果、キャラクタ100は表示部品103に衝突し、キャラクタ100に重ねられた判定オブジェクト101とともに表示部品103内に押し込まれる。 Next, in procedure (3), the motion control unit 15 controls the motion of the character based on the determined next action. In the example of FIG. 4(c), the action control unit 15 causes the character 100 to continue running and move. As a result of the movement, the character 100 collides with the display component 103 and is pushed into the display component 103 together with the determination object 101 superimposed on the character 100 .

次に、手順(4)において、動作制御部15は、判定オブジェクト101の表示部品103からの押出を制御する。この結果、判定オブジェクト101が表示部品103から押し出される。このとき、判定オブジェクト101は、押し込まれた方向と逆の方向に押し出される。これにより、図4(d)に示すように、キャラクタ100が表示部品103の壁に衝突する動作が表示される。 Next, in procedure (4), the motion control unit 15 controls the extrusion of the determination object 101 from the display component 103 . As a result, the judgment object 101 is pushed out from the display component 103 . At this time, the determination object 101 is pushed out in the direction opposite to the direction in which it was pushed. As a result, the action of the character 100 colliding with the wall of the display component 103 is displayed as shown in FIG. 4(d).

次に、図5(a)~(f)を参照して、キャラクタが表示部品104の段差から落下する場合のアクションの更新について説明する。まず、手順(1)において、特定部13は、キャラクタ100がいる位置の足場を判定する。図5(a)の例では、特定部13は、キャラクタ100の足場を判定した結果、キャラクタ100の足元に所定幅の表示部品104の上面があるため、地面があると判定する。 Next, with reference to FIGS. 5(a) to 5(f), update of the action when the character falls from the step of the display component 104 will be described. First, in procedure (1), the specifying unit 13 determines the foothold at the position where the character 100 is located. In the example of FIG. 5A, as a result of determining the foothold of the character 100, the specifying unit 13 determines that the ground is present because the upper surface of the display component 104 having a predetermined width is at the feet of the character 100. FIG.

次に、手順(2)において、決定部14は、判定結果に応じてキャラクタ100の次のアクションを決定する。図5(b)の例では、決定部14は、動作ルールテーブル113を参照して、条件が「足場がある」の場合の「足場の傾斜なし」の条件に従い、次のアクションとして、キャラクタの動作の継続を決定する。つまり、決定部14は、キャラクタ100の走りを継続させるようにアクションを決定する。 Next, in procedure (2), the determination unit 14 determines the next action of the character 100 according to the determination result. In the example of FIG. 5(b), the determination unit 14 refers to the action rule table 113, follows the condition of "no scaffolding inclination" when the condition is "there is a foothold", and then, as the next action, Decide to continue the operation. In other words, the determination unit 14 determines an action to allow the character 100 to continue running.

次に、手順(3)において、動作制御部15は、決定した次のアクションに基づき、キャラクタの動作を制御する。図5(c)の例では、動作制御部15は、キャラクタ100の走りを継続し、キャラクタ100を移動させる。移動の結果、キャラクタ100は表示部品104の先に飛び出し、空中に浮いた状態となる。 Next, in procedure (3), the motion control unit 15 controls the motion of the character based on the determined next action. In the example of FIG. 5(c), the action control unit 15 causes the character 100 to continue running and move. As a result of the movement, the character 100 jumps out beyond the display component 104 and floats in the air.

次に、手順(4)において、動作制御部15は、判定オブジェクト101の押出を行う。ここでは、判定オブジェクト101は、キャラクタ100に重なる位置にて空中に浮き、表示部品104内に押し込まれていない。よって、動作制御部15は、判定オブジェクト101を押し出す動作を行えず、図5(d)に示すように、キャラクタ100は空中に浮いた状態のままとなる。 Next, in procedure (4), the motion control unit 15 pushes out the determination object 101 . Here, the determination object 101 floats in the air at a position overlapping the character 100 and is not pushed into the display component 104 . Therefore, the action control unit 15 cannot perform the action of pushing out the judgment object 101, and the character 100 remains floating in the air as shown in FIG. 5(d).

次に、次のフレームの手順(1)において、特定部13は、キャラクタ100がいる位置の足場を判定する。図5(e)の例では、特定部13は、仮想地面を作成できず、キャラクタ100の足場を判定した結果、地面がないと判定する。 Next, in procedure (1) of the next frame, the specifying unit 13 determines the foothold at the position where the character 100 is located. In the example of FIG. 5E, the specifying unit 13 cannot create the virtual ground, and as a result of determining the footing of the character 100, determines that there is no ground.

次に、手順(2)において、決定部14は、判定結果に応じてキャラクタ100の次のアクションを決定する。決定部14は、動作ルールテーブル113を参照して、条件が「足場がない」の場合のルールに従い、次のアクションとして、キャラクタの落下を決定する。この結果、動作制御部15は、決定した次のアクションに基づき、ゲーム画面に表示するキャラクタの動作を制御する。その結果、図5(f)の例では、動作制御部15は、決定した次のアクションに従い、キャラクタ100を表示部品104から落下する動作を実行する。 Next, in procedure (2), the determination unit 14 determines the next action of the character 100 according to the determination result. The determination unit 14 refers to the action rule table 113 and determines falling of the character as the next action according to the rule when the condition is "no foothold". As a result, the motion control unit 15 controls the motion of the character displayed on the game screen based on the determined next action. As a result, in the example of FIG. 5( f ), the motion control unit 15 executes the motion of dropping the character 100 from the display component 104 according to the determined next action.

[アクション処理の詳細]
次に、図9及び図10を参照して、一実施形態に係る仮想地面の作成を含むアクション処理の詳細について説明する。図9は、一実施形態に係るアクション処理の詳細を説明するための図である。
[Action processing details]
Next, with reference to FIGS. 9 and 10, details of action processing including creation of a virtual ground according to one embodiment will be described. FIG. 9 is a diagram for explaining details of action processing according to one embodiment.

仮想地面の作成を含むアクション処理では、上記手順(1)~(4)のうち、手順(1)において仮想地面の作成を行った後に足場の判定を行う。仮想地面の作成は、レイキャストを使用せずに判定オブジェクトの押出情報に基づき行う。また、上記手順(3)と手順(4)との間にキャラクタ100の着地補正を行う。 In the action process including the creation of the virtual ground, the scaffolding is determined after creating the virtual ground in procedure (1) among the procedures (1) to (4). The virtual ground is created based on the extrusion information of the determination object without using raycast. In addition, the landing correction of the character 100 is performed between the procedure (3) and the procedure (4).

図9の本処理が開始されると、入力部12が、キャラクタ100に対するプレイヤーの操作を受け付け、特定部13は、キャラクタ100の仮想地面を作成する(ステップS1)。図10(a)の例では、地面102と平行に仮想地面が作成されてもよい。特定部13は、キャラクタ100の足元に所定幅の面がある場合、仮想地面を作成せずに「足場がある」と判定してもよい。 9 is started, the input unit 12 receives a player's operation on the character 100, and the specifying unit 13 creates a virtual ground for the character 100 (step S1). In the example of FIG. 10( a ), a virtual ground plane may be created parallel to the ground plane 102 . When the character 100 has a surface with a predetermined width at its feet, the identifying unit 13 may determine that "there is a foothold" without creating the virtual ground.

図9に戻り、次に、特定部13は、足場の判定を行う(ステップS2)。特定部13が「足場あり」と判定した場合、決定部14は、キャラクタ100の次のアクションを、動作ルールテーブル113に定義したルールに基づき決定する(ステップS3)。決定部14は、水平方向に足場がある場合、動作ルールテーブル113に記憶された「動作継続」を次のアクションに決定する。図10(b)の例では、走りを継続するアクションに決定される。 Returning to FIG. 9, next, the specifying unit 13 determines scaffolding (step S2). When the specifying unit 13 determines that there is a foothold, the determining unit 14 determines the next action of the character 100 based on the rules defined in the motion rule table 113 (step S3). If there is a foothold in the horizontal direction, the determining unit 14 determines "continue motion" stored in the motion rule table 113 as the next action. In the example of FIG. 10B, the action to continue running is determined.

図9に戻り、次に、動作制御部15は、決定したアクションに従いキャラクタを動作させる(ステップS4)。これにより、図10(c)に示すように、キャラクタ100が走りを継続する。その結果、図10(c)の例では、キャラクタ100が、キャラクタ100の前方に配置された表示部品105まで移動し、キャラクタ100と判定オブジェクト101とが、表示部品105内に押し込まれる。 Returning to FIG. 9, next, the motion control unit 15 causes the character to move according to the determined action (step S4). As a result, the character 100 continues running as shown in FIG. 10(c). As a result, in the example of FIG. 10C , the character 100 moves to the display component 105 arranged in front of the character 100 , and the character 100 and the determination object 101 are pushed into the display component 105 .

図9に戻り、次に、動作制御部15は、決定したアクションに従い動作後のキャラクタの着地を補正する(ステップS5)。着地補正とは、キャラクタ100と判定オブジェクト101とを地面に押し込ませることをいう。例えば、動作制御部15は、図10(d)に示すように、キャラクタ100が接触する地面102が水平であれば、地面102に対して垂直な方向に判定オブジェクト101とキャラクタ100とを押し込ませる。キャラクタ100が接触する地面102が斜めであれば、その角度に垂直な方向に判定オブジェクト101とキャラクタ100とを押し込ませる。なお、押し込ませる対象は、判定オブジェクト101だけでもよい。 Returning to FIG. 9, next, the motion control unit 15 corrects the landing of the character after the motion according to the determined action (step S5). Landing correction means pushing the character 100 and the determination object 101 into the ground. For example, as shown in FIG. 10D, if the ground 102 with which the character 100 is in contact is horizontal, the action control unit 15 pushes the determination object 101 and the character 100 in a direction perpendicular to the ground 102. . If the ground 102 with which the character 100 contacts is slanted, the determination object 101 and the character 100 are pushed in a direction perpendicular to the angle. It should be noted that the target to be pressed may be only the determination object 101 .

図9に戻り、次に、動作制御部15は、表示部品105及び地面102に押し込まれた判定オブジェクト101を押し出す(ステップS6)。10(e)の例では、地面102と衝突した表示部品105からの押出により、判定オブジェクト101とキャラクタ100とが左上の45°の方向に斜めに押し出される。判定オブジェクト101の押出情報は、記憶部11に記憶される。 Returning to FIG. 9, next, the motion control unit 15 pushes out the judgment object 101 pushed into the display component 105 and the ground 102 (step S6). In the example of 10(e), the judgment object 101 and the character 100 are obliquely pushed out in the direction of 45° to the upper left by the pushing out from the display component 105 that has collided with the ground 102 . The extrusion information of the judgment object 101 is stored in the storage unit 11 .

図9に戻り、次に、特定部13は、次のフレームの更新タイミングかを判定する(ステップS7)。特定部13は、次のフレームの更新タイミングであると判定すると、ステップS1に戻り、キャラクタ100の仮想地面を作成する(ステップS1)。 Returning to FIG. 9, next, the specifying unit 13 determines whether it is time to update the next frame (step S7). When determining that it is time to update the next frame, the specifying unit 13 returns to step S1 and creates a virtual ground for the character 100 (step S1).

特定部13は、前回の判定オブジェクト101の押出情報に基づき、判定オブジェクト101の押出方向に略垂直な方向に仮想地面を作成する。この結果、図10(f)に示すように、判定オブジェクト101の押出方向に応じて判定オブジェクト101の押出方向に略垂直な方向に仮想地面150が作成される。 The specifying unit 13 creates a virtual ground surface in a direction substantially perpendicular to the direction of extrusion of the determination object 101 based on the previous extrusion information of the determination object 101 . As a result, as shown in FIG. 10( f ), a virtual ground 150 is created in a direction substantially perpendicular to the pushing direction of the judgment object 101 according to the pushing direction of the judgment object 101 .

図9に戻り、次に、特定部13は、足場の判定を行う(ステップS2)。特定部13は、仮想地面150が作成されている場合、足場があると判定する。足場があると判定された場合、前述したステップS3~S7の処理が繰り返される。その結果、次のアクションは、動作継続に決定され、図10(g)~図10(j)に示すキャラクタ100の動作が実行される。 Returning to FIG. 9, next, the specifying unit 13 determines scaffolding (step S2). The identifying unit 13 determines that there is a foothold when the virtual ground 150 is created. If it is determined that there is a foothold, the above-described steps S3 to S7 are repeated. As a result, the next action is determined to continue the motion, and the motion of the character 100 shown in FIGS. 10(g) to 10(j) is executed.

一方、特定部13は、ステップS2において足場がないと判定すると、キャラクタ100の次のアクションを、動作ルールテーブル113に記憶された動作ルールに基づき「落下」に決定する(ステップS8)。 On the other hand, when determining that there is no foothold in step S2, the specifying unit 13 determines "fall" as the next action of the character 100 based on the action rule stored in the action rule table 113 (step S8).

次に、動作制御部15は、決定したアクションに従いキャラクタを動作させる(ステップS9)。これに応じてキャラクタ100が落下する。次に、動作制御部15は、キャラクタ100が落下した後の着地補正を行い(ステップS5)、判定オブジェクトの押出を行う(ステップS6)。次フレームの更新タイミングが来るたびに(ステップS7)、ステップS1に戻ってステップS1以降の処理が繰り返され、キャラクタの動作が更新される。 Next, the motion control unit 15 moves the character according to the determined action (step S9). The character 100 falls accordingly. Next, the motion control unit 15 performs landing correction after the character 100 falls (step S5), and pushes out the determination object (step S6). Each time the update timing for the next frame comes (step S7), the process returns to step S1 and the processing from step S1 onwards is repeated to update the motion of the character.

以上に説明したように、一実施形態に係るアクション処理によれば、キャラクタ100に重ねて判定オブジェクト101を設け、判定オブジェクト101の押出情報に基づき、キャラクタ100の足場である仮想地面150を作成し、キャラクタの足場を判定する。 As described above, according to the action processing according to one embodiment, the determination object 101 is provided over the character 100, and the virtual ground 150, which is the foothold of the character 100, is created based on the extrusion information of the determination object 101. , to determine the footing of the character.

これにより、図11(a)に示すように、表示部品201、202の間に隙間203が生じていても、隙間203が所定以下の狭い隙間であればキャラクタ100の下に作成された足場(仮想地面150)により、キャラクタ100が隙間203に落下して身動きが取れない動作は発生しない。 As a result, as shown in FIG. 11A, even if there is a gap 203 between the display components 201 and 202, if the gap 203 is a narrow gap of a predetermined size or less, the scaffolding created under the character 100 ( Due to the virtual ground 150), the motion in which the character 100 falls into the gap 203 and cannot move does not occur.

また、図11(b)に示すように、小さな段差を形成する表示部品207が地面102に置かれている場合、キャラクタ100の下に作成される仮想地面150と地面102との角度は45°未満になる。このため、決定部14は、動作ルールテーブル113に基づき次のアクションを「動作継続」に決定する。 Further, as shown in FIG. 11B, when the display component 207 forming a small step is placed on the ground 102, the angle between the virtual ground 150 created under the character 100 and the ground 102 is 45°. become less than Therefore, the determination unit 14 determines the next action to be “continue operation” based on the operation rule table 113 .

これにより、表示部品207の小さな段差であれば、仮想地面150に基づき、キャラクタ100は、表示部品207を段差でなく坂道とみなして乗り越える等の動作を行う。これにより、キャラクタ100が小さな段差から落下するなどの不自然な動作を回避し、キャラクタ100をゲーム上の地形に応じてスムーズに動作させることができる。 As a result, if the display component 207 has a small step, the character 100 regards the display component 207 not as a step but as a slope based on the virtual ground 150, and performs an action such as climbing over it. As a result, the character 100 can avoid an unnatural motion such as falling from a small step, and the character 100 can move smoothly according to the terrain in the game.

更に、特定部13は、キャラクタ100の大きさ及び/又は形状に応じて判定オブジェクト101のサイズを設定することで、キャラクタ100の大きさ及び/又は形状に応じた仮想地面150を作成できる。 Further, the specifying unit 13 can create the virtual ground 150 according to the size and/or shape of the character 100 by setting the size of the determination object 101 according to the size and/or shape of the character 100 .

キャラクタテーブル111に一例を示した通り、キャラクタ100毎に設定される判定オブジェクト101は、キャラクタ100の大きさ及び/又は形状に応じてサイズを変えることができる。特定部13は、判定オブジェクト101の表示部品からの押出方向に応じて仮想地面150を作成する。このため、作成される仮想地面150の傾斜角度はキャラクタ100の大きさ及び/又は形状に応じて変わり、キャラクタ100の乗り越えられる段差の高さがキャラクタ100の大きさ及び/又は形状に応じて自動的に変わる。 As shown in the character table 111 as an example, the determination object 101 set for each character 100 can change its size according to the size and/or shape of the character 100 . The specifying unit 13 creates the virtual ground 150 according to the direction in which the determination object 101 is pushed out from the display component. Therefore, the inclination angle of the created virtual ground 150 changes according to the size and/or shape of the character 100, and the height of the step that the character 100 can climb over automatically changes according to the size and/or shape of the character 100. change as a matter of course.

例えば、図12(a)~(c)に示すキャラクタ100Aは、図12(d)~(f)に示すキャラクタ100Bよりも小さい。これに応じて、キャラクタ100Aに重ねる判定オブジェクト101Aは、キャラクタ100Bに重ねる判定オブジェクト101Bよりも小さく設定することができる。 For example, a character 100A shown in FIGS. 12(a)-(c) is smaller than a character 100B shown in FIGS. 12(d)-(f). Accordingly, the determination object 101A superimposed on the character 100A can be set smaller than the determination object 101B superimposed on the character 100B.

これにより、図12(a)及び(d)に示すキャラクタ100A、100Bの移動、図12(b)及び(e)に示すキャラクタ100A、100Bの着地補正の後の、図12(c)及び(f)に示す判定オブジェクト101A、101Bの押出方向が変わる。この結果、作成された仮想地面150A,150Bの角度は、判定オブジェクト101Aよりも大きい判定オブジェクト101B側の仮想地面150Bと地面102との角度θが、仮想地面150Aと地面102との角度θよりも小さくなる。 12C and 12B after the movement of the characters 100A and 100B shown in FIGS. 12A and 12D and the landing correction of the characters 100A and 100B shown in FIGS. The extrusion directions of the judgment objects 101A and 101B shown in f) are changed. As a result, the angles of the created virtual grounds 150A and 150B are larger than that of the determination object 101A . be smaller than

このように、判定オブジェクト101の大きさをキャラクタ100に応じて変えることで、判定オブジェクト101の押出方向が変わり、これにより、作成する仮想地面150の傾斜を変えることができる。これにより、キャラクタ100Aでは登ることが困難な高さの表示部品106であっても、キャラクタ100Aよりも大きなキャラクタ100Bでは表示部品106を越える又は登る動作を、次のアクションに決定することが可能となる。 By changing the size of the determination object 101 according to the character 100 in this manner, the direction in which the determination object 101 is pushed out is changed, thereby changing the inclination of the virtual ground 150 to be created. As a result, even if the display component 106 is at a height that is difficult for the character 100A to climb, the character 100B, which is larger than the character 100A, can decide to move over or climb the display component 106 as the next action. Become.

これにより、キャラクタ100Bは、表示部品106を乗り越えられるが、キャラクタ100Aは、表示部品106を乗り越えられないというように、キャラクタ100の大きさに応じて乗り越えられる段差の高さを自動的に変えることができる。これにより、キャラクタ100の大きさに応じてキャラクタ100の動作を自動で変え、キャラクタ100をゲーム上の地形とキャラクタ100の大きさ及び/又は形状に応じてスムーズに動作させることができる。 As a result, the character 100B can climb over the display component 106, but the character 100A cannot climb over the display component 106, so that the height of the step that the character 100 can climb over is automatically changed according to the size of the character 100.例文帳に追加can be done. As a result, the movement of the character 100 can be automatically changed according to the size of the character 100, and the character 100 can be smoothly moved according to the terrain in the game and the size and/or shape of the character 100.例文帳に追加

[変形例]
以上に説明したキャラクタ100の次のアクションは、一例であり、これに限られない。例えば、図13(a)に示した仮想地面150と地面102との角度θは45°以上である。この場合、決定部14は、動作ルールテーブル113に基づき、次のアクションを「動作停止」又は「落下」に決定する。
[Modification]
The next action of the character 100 described above is an example, and is not limited to this. For example, the angle θ3 between the virtual ground 150 and the ground 102 shown in FIG. 13A is 45° or more. In this case, the determination unit 14 determines the next action to be “stop motion” or “drop” based on the motion rule table 113 .

しかしながら、これに限らず、決定部14は、仮想地面150と地面102との角度θが45°以上である場合、キャラクタ100を表示部品107の壁面に沿って走らせる壁走りのアクションに決定してもよい。 However, the determination unit 14 determines that the action of running the character 100 along the wall surface of the display component 107 is to be the wall running action when the angle θ3 between the virtual ground 150 and the ground 102 is 45° or more. You may

例えば、動作ルールテーブル113に、仮想地面の角度θが45°以上の場合、壁走りのアクションを予め設定しておくことにより、決定部14は、仮想地面の角度θが45°以上の場合のキャラクタ100の次のアクションを壁走りに決定することができる。また、キャラクタ100の次のアクションは壁走りに限られず、表示部品107を登ったり、乗り越えたり、転がったりするアクションであってもよい。 For example, when the angle θ3 of the virtual ground is 45° or more, the action rule table 113 pre-sets the action of running on a wall, so that the determination unit 14 can determine whether the angle θ3 is 45° or more. The next action of the character 100 in the case can be determined to be wall running. Also, the next action of the character 100 is not limited to wall running, and may be an action of climbing, climbing over, or rolling over the display component 107 .

10:情報処理装置
11:記憶部
12:入力部
13:特定部
14:決定部
15:動作制御部
16:グラフィック処理部
17:サウンド処理部
18:表示部
19:音出力部
21:CPU
22:ROM
23:RAM
24:HDD
25:グラフィックカード
26:外部I/F
26a:記録媒体
27:通信I/F
28:入力I/F
28a:メモリーカード
29:ディスプレイ
30:スピーカ
111:キャラクタテーブル
112:表示部品位置テーブル
113:動作ルールテーブル
150:仮想地面
10: Information processing device 11: Storage unit 12: Input unit 13: Identification unit 14: Determination unit 15: Operation control unit 16: Graphic processing unit 17: Sound processing unit 18: Display unit 19: Sound output unit 21: CPU
22: ROM
23: RAM
24: HDD
25: Graphic card 26: External I/F
26a: Recording medium 27: Communication I/F
28: Input I/F
28a: Memory card 29: Display 30: Speaker 111: Character table 112: Display component position table 113: Operation rule table 150: Virtual ground

Claims (10)

ゲーム画面に表示されているオブジェクトの下の非表示の地面である仮想地面を作成する特定部と、
作成した前記仮想地面の情報に基づき、前記オブジェクトの次のアクションを決定する決定部と、
決定した前記次のアクションに基づき、前記ゲーム画面に表示するオブジェクトの動作を制御する動作制御部と、を有し、
前記特定部は、
前記オブジェクトの大きさに応じたサイズであって前記オブジェクトに重ねて移動する判定オブジェクトの前記ゲーム画面に表示されている表示部品からの押出方向に応じて前記仮想地面を作成する、
情報処理装置。
a specific part that creates a virtual ground that is a hidden ground beneath objects displayed on the game screen;
a determination unit that determines the next action of the object based on the created virtual ground information;
an action control unit that controls the action of the object displayed on the game screen based on the determined next action;
The identification unit
creating the virtual ground in accordance with a direction in which a judgment object having a size corresponding to the size of the object and moving superimposed on the object is pushed out from the display component displayed on the game screen;
Information processing equipment.
前記決定部は、
前記仮想地面が作成できた場合、足場があると判定し、前記仮想地面が作成できなかった場合、足場がないと判定し、前記足場があると判定した場合と前記足場がないと判定した場合と、に分けて前記オブジェクトの次のアクションを決定する、
請求項1に記載の情報処理装置。
The decision unit
If the virtual ground can be created , it is determined that there is a foothold , and if the virtual ground cannot be created, it is determined that there is no foothold. and determining the next action of said object, divided into
The information processing device according to claim 1 .
前記動作制御部は、
決定した前記次のアクションに基づき前記オブジェクトを動作させた後の前記判定オブジェクトの位置を補正し、
前記特定部は、
補正した前記判定オブジェクトの前記表示部品からの押出方向に応じて前記仮想地面を作成する、
請求項1又は2に記載の情報処理装置。
The operation control unit is
correcting the position of the determination object after moving the object based on the determined next action;
The identification unit
creating the virtual ground according to the direction of the corrected determination object projected from the display component;
The information processing apparatus according to claim 1 or 2.
前記決定部は、
作成した前記仮想地面の角度に基づき、前記オブジェクトの次のアクションを決定する、
請求項1~3のいずれか一項に記載の情報処理装置。
The decision unit
determining the next action of the object based on the angle of the created virtual ground;
The information processing apparatus according to any one of claims 1 to 3.
前記決定部は、
作成した前記仮想地面の角度が所定の角度未満である場合、前記オブジェクトの次のアクションを前記オブジェクトの直前の動作と同じ動作に決定する、
請求項1~4のいずれか一項に記載の情報処理装置。
The decision unit
if the angle of the created virtual ground is less than a predetermined angle, determining the next action of the object to be the same action as the previous action of the object;
The information processing apparatus according to any one of claims 1 to 4.
前記決定部は、
作成した前記仮想地面の角度が所定の角度以上である場合、前記オブジェクトの次のアクションを前記オブジェクトの直前の動作と異なる動作に決定する、
請求項1~5のいずれか一項に記載の情報処理装置。
The decision unit
If the angle of the created virtual ground is greater than or equal to a predetermined angle, determining the next action of the object to be different from the previous action of the object;
The information processing apparatus according to any one of claims 1 to 5.
前記決定部は、
前記仮想地面が作成されなかった場合、前記オブジェクトの次のアクションを、前記オブジェクトの直前の動作と異なる動作に決定する、
請求項1~6のいずれか一項に記載の情報処理装置。
The decision unit
determining the next action of the object to be different from the previous action of the object if the virtual ground was not created;
The information processing apparatus according to any one of claims 1 to 6.
前記特定部は、フレーム毎に前記仮想地面を作成する、
請求項1~7のいずれか一項に記載の情報処理装置。
The specifying unit creates the virtual ground for each frame,
The information processing apparatus according to any one of claims 1 to 7.
ゲーム画面に表示されているオブジェクトの下の非表示の地面である仮想地面を作成し、
作成した前記仮想地面の情報に基づき、前記オブジェクトの次のアクションを決定し、
決定した前記次のアクションに基づき、前記ゲーム画面に表示するオブジェクトの動作を制御し、
前記オブジェクトの大きさに応じたサイズであって前記オブジェクトに重ねて移動する判定オブジェクトの前記ゲーム画面に表示されている表示部品からの押出方向に応じて前記仮想地面を作成する、
処理をコンピュータが実行するゲーム処理方法。
create a virtual ground, which is the invisible ground beneath objects visible on the game screen,
determining the next action of the object based on the information of the created virtual ground;
controlling the movement of the object displayed on the game screen based on the determined next action;
creating the virtual ground in accordance with a direction in which a judgment object having a size corresponding to the size of the object and moving superimposed on the object is pushed out from the display component displayed on the game screen;
A game processing method in which processing is executed by a computer.
ゲーム画面に表示されているオブジェクトの下の非表示の地面である仮想地面を作成し、
作成した前記仮想地面の情報に基づき、前記オブジェクトの次のアクションを決定し、
決定した前記次のアクションに基づき、前記ゲーム画面に表示するオブジェクトの動作を制御し、
前記オブジェクトの大きさに応じたサイズであって前記オブジェクトに重ねて移動する判定オブジェクトの前記ゲーム画面に表示されている表示部品からの押出方向に応じて前記仮想地面を作成する、
処理をコンピュータに実行させるゲーム処理プログラム。
create a virtual ground, which is the invisible ground beneath objects visible on the game screen,
determining the next action of the object based on the information of the created virtual ground;
controlling the movement of the object displayed on the game screen based on the determined next action;
creating the virtual ground in accordance with a direction in which a judgment object having a size corresponding to the size of the object and moving superimposed on the object is pushed out from the display component displayed on the game screen;
A game processing program that causes a computer to execute processing.
JP2019021049A 2019-02-07 2019-02-07 Information processing device, game processing method and game processing program Active JP7290426B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021049A JP7290426B2 (en) 2019-02-07 2019-02-07 Information processing device, game processing method and game processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021049A JP7290426B2 (en) 2019-02-07 2019-02-07 Information processing device, game processing method and game processing program

Publications (2)

Publication Number Publication Date
JP2020127589A JP2020127589A (en) 2020-08-27
JP7290426B2 true JP7290426B2 (en) 2023-06-13

Family

ID=72175131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021049A Active JP7290426B2 (en) 2019-02-07 2019-02-07 Information processing device, game processing method and game processing program

Country Status (1)

Country Link
JP (1) JP7290426B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244046A (en) 2005-03-02 2006-09-14 Nintendo Co Ltd Collision determining program and collision determining device
JP2010273946A (en) 2009-05-29 2010-12-09 Nintendo Co Ltd Game program and game apparatus
JP2017217334A (en) 2016-06-10 2017-12-14 任天堂株式会社 Game device, game control method and game program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244046A (en) 2005-03-02 2006-09-14 Nintendo Co Ltd Collision determining program and collision determining device
JP2010273946A (en) 2009-05-29 2010-12-09 Nintendo Co Ltd Game program and game apparatus
JP2017217334A (en) 2016-06-10 2017-12-14 任天堂株式会社 Game device, game control method and game program

Also Published As

Publication number Publication date
JP2020127589A (en) 2020-08-27

Similar Documents

Publication Publication Date Title
US8016671B2 (en) Game apparatus and storage medium storing game program
US7884822B2 (en) Game apparatus, storage medium storing a game program, and game controlling method
JP3770499B1 (en) GAME DEVICE AND GAME PROGRAM
US8882590B2 (en) Touch-controlled game character motion providing dynamically-positioned virtual control pad
US8167718B2 (en) Storage medium storing game program, game apparatus, and game control method
JP2020513948A (en) Information processing method and device, storage medium, electronic device
JP4445826B2 (en) GAME DEVICE AND GAME PROGRAM
US10232262B2 (en) Information processing apparatus, motion control method, and non-transitory computer-readable recording medium
US8851986B2 (en) Game program and game apparatus
JP2007034634A (en) Object control program and information processor
JP2006150062A (en) Game device and game program
JP2004329517A (en) Game device and game program
JP2006314705A (en) Game program and game device
JP2007102504A (en) Image generation device and method, program and recording medium
US7847754B2 (en) Image processing program and image display device
JP4788950B2 (en) Image processing program, image processing method, and image processing apparatus
JP4555667B2 (en) GAME PROGRAM AND GAME DEVICE
US20190209922A1 (en) Non-transitory computer readable storage medium storing image processing program, image processing method, and image processing device
US10068362B2 (en) Data processing apparatus and method of detecting position information for displaying virtual space
JP7290426B2 (en) Information processing device, game processing method and game processing program
US8926427B2 (en) Video game with screen flip and dual sets of collision data
JP6301813B2 (en) GAME PROGRAM AND GAME DEVICE
JP4143590B2 (en) 3D image processing apparatus, game apparatus, 3D image processing program, and game program
JP4773153B2 (en) GAME PROGRAM AND GAME DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20230412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230601

R150 Certificate of patent or registration of utility model

Ref document number: 7290426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150