JP2020127589A - Information processing device, game processing method, and game processing program - Google Patents

Information processing device, game processing method, and game processing program Download PDF

Info

Publication number
JP2020127589A
JP2020127589A JP2019021049A JP2019021049A JP2020127589A JP 2020127589 A JP2020127589 A JP 2020127589A JP 2019021049 A JP2019021049 A JP 2019021049A JP 2019021049 A JP2019021049 A JP 2019021049A JP 2020127589 A JP2020127589 A JP 2020127589A
Authority
JP
Japan
Prior art keywords
character
virtual ground
action
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019021049A
Other languages
Japanese (ja)
Other versions
JP7290426B2 (en
Inventor
唯信 隆藤
Yuishin Takafuji
唯信 隆藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2019021049A priority Critical patent/JP7290426B2/en
Publication of JP2020127589A publication Critical patent/JP2020127589A/en
Application granted granted Critical
Publication of JP7290426B2 publication Critical patent/JP7290426B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To operate an object according to topography in a game.SOLUTION: An information processing device includes: a specification part for specifying a virtual ground surface under an object displayed on a game screen, a determination part for determining a next action of the object based on the information on the specified virtual ground surface, and an operation control part for controlling an operation of the object displayed on the game screen based on the determined next action.SELECTED DRAWING: Figure 10

Description

本開示は、情報処理装置、ゲーム処理方法及びゲーム処理プログラムに関する。 The present disclosure relates to an information processing device, a game processing method, and a game processing program.

ゲームにおいてキャラクタが移動する地面等の地形を検出するレイキャストの技術がある。この技術では、キャラクタの真下に向かってレイキャストを行い、地形情報を検出することが行われている。その際、レイ(光線)がヒットした場所の情報を取得し、取得した情報に基づきキャラクタの下の地面の位置及び角度を設定する。 There is a raycast technique that detects the topography such as the ground on which the character moves in the game. With this technique, ray casting is performed right below the character to detect topographical information. At that time, information on the place where the ray (ray) hits is acquired, and the position and angle of the ground below the character are set based on the acquired information.

また、地形を検出するための地形検出用オブジェクトを仮想空間に配置し、キャラクタと地形検出用オブジェクトとの衝突情報から地形を自動的に判定する技術が開示されている(例えば特許文献1、2参照)。 Further, there is disclosed a technique in which a terrain detection object for detecting terrain is arranged in a virtual space and the terrain is automatically determined from collision information between the character and the terrain detection object (for example, Patent Documents 1 and 2). reference).

また、 Also,

特開2017−46951号公報JP, 2017-46951, A 特開2017−217334号公報JP, 2017-217334, A

しかしながら、建物の間の狭い隙間や道路に設けられた低い段差等の特定の地形は無視してキャラクタを移動させる方が、キャラクタをゲーム上の地形に応じてスムーズに動作させることができ、ゲームの進行上好ましい場合がある。 However, moving the character by ignoring specific terrain such as narrow gaps between buildings and low steps on the road allows the character to move smoothly according to the terrain in the game. It may be preferable in terms of the progress of.

そこで、本開示は、オブジェクトをゲーム上の地形に応じてスムーズに動作させることが可能な技術を提供する。 Therefore, the present disclosure provides a technique capable of smoothly moving an object according to the terrain in the game.

本開示の一の態様によれば、ゲーム画面に表示されているオブジェクトの下の仮想地面を特定する特定部と、特定した前記仮想地面の情報に基づき、前記オブジェクトの次のアクションを決定する決定部と、決定した前記次のアクションに基づき、前記ゲーム画面に表示するオブジェクトの動作を制御する動作制御部と、を有する情報処理装置が提供される。 According to an aspect of the present disclosure, a determination unit that determines a virtual ground below an object displayed on a game screen, and a determination that determines a next action of the object based on information of the specified virtual ground. An information processing apparatus is provided that includes a unit and a motion control unit that controls a motion of an object displayed on the game screen based on the determined next action.

一の側面によれば、オブジェクトをゲーム上の地形に応じてスムーズに動作させることができる。 According to the one aspect, it is possible to smoothly move the object according to the terrain in the game.

従来の地形検出を説明するための図である。It is a figure for explaining conventional terrain detection. 一実施形態に係る情報処理装置の機能構成の一例を示す図である。It is a figure showing an example of functional composition of an information processor concerning one embodiment. 一実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the information processing apparatus which concerns on one Embodiment. 一実施形態に係るアクション処理の概要を説明するための図である。It is a figure for explaining the outline of the action processing concerning one embodiment. 一実施形態に係るアクション処理の概要を説明するための図である。It is a figure for explaining the outline of the action processing concerning one embodiment. 一実施形態に係るキャラクタテーブルの一例を示す図である。It is a figure which shows an example of the character table which concerns on one Embodiment. 一実施形態に係る表示部品位置テーブルの一例を示す図である。It is a figure which shows an example of the display component position table which concerns on one Embodiment. 一実施形態に係る動作ルールテーブルの一例を示す図である。It is a figure which shows an example of the operation rule table which concerns on one Embodiment. 一実施形態に係るアクション処理の一例を示すフローチャートである。It is a flow chart which shows an example of action processing concerning one embodiment. 一実施形態に係る仮想地面の作成を説明するための図である。It is a figure for explaining creation of the virtual ground concerning one embodiment. 一実施形態に係るアクション処理の効果の一例を示す図である。It is a figure which shows an example of the effect of the action process which concerns on one Embodiment. 一実施形態に係るキャラクタの大きさに応じたアクション処理を説明するための図である。It is a figure for explaining action processing according to the size of the character concerning one embodiment. 一実施形態に係るアクション処理の効果の一例を示す図である。It is a figure which shows an example of the effect of the action process which concerns on one Embodiment.

以下、一実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く場合がある。 An embodiment will be described below with reference to the accompanying drawings. In this specification and the drawings, components having substantially the same functional configuration may be denoted by the same reference numerals, and duplicate description may be omitted.

以下の説明に際し、ゲーム画面においてキャラクタが動作する仮想空間に置かれた建物等のオブジェクトを「表示部品」という。また、以下では、「キャラクタ」は、プレイヤーによって操作されるプレイヤーキャラクタを想定して説明を行う。しかし、キャラクタは、これに限られず、通信ゲームの通信相手が操作するキャラクタであってもよいし、自動で動作するキャラクタ(ノンプレイヤキャラクタ)であってもよい。
<従来の地形検出の一例>
従来の地形検出の一例について図1を参照して説明する。図1は、従来の地形検出を説明するための図である。ゲーム画面に表示されているキャラクタ100の足場の地形を判定する手法の一つとして、キャラクタの真下に向かってレイキャストを行う方法がある。この方法では、レイ(光線)がヒットした場所の情報を取得し、取得した情報に基づきキャラクタの下の地面の位置及び角度を検出し、キャラクタの足元の地面の高さ、角度を判定する。
In the following description, an object such as a building placed in the virtual space where the character moves on the game screen is referred to as a “display component”. Further, in the following, the “character” will be described assuming a player character operated by the player. However, the character is not limited to this, and may be a character operated by a communication partner of the communication game or a character (non-player character) that automatically operates.
<Example of conventional terrain detection>
An example of conventional terrain detection will be described with reference to FIG. FIG. 1 is a diagram for explaining conventional terrain detection. As one of the methods of determining the landform of the scaffolding of the character 100 displayed on the game screen, there is a method of performing a raycast directly below the character. In this method, information on the place where the ray (ray) hits is acquired, the position and angle of the ground below the character are detected based on the acquired information, and the height and angle of the ground at the feet of the character are determined.

かかる判定では、キャラクタ100の落下やキャラクタ100が隙間に挟まれてしまう等の意図しない動作が生じ、キャラクタ100の動作が望む通りの挙動とならない場合がある。たとえば、図1(a)にて、キャラクタ100が表示部品201、202の間の隙間203付近にいる場合、レイキャストでは、レイが隙間203に入る。その結果、キャラクタ100は、図1(b)に示すように隙間203に入り込み、図1(c)に示すように隙間203の底部の地面の表示部品102(以下、「地面102」とも表記する。)上に着地する動作が行われる。これにより、キャラクタ100は、隙間203に挟まった状態で動けなくなる場合がある。 In such a determination, an unintended action such as a fall of the character 100 or the character 100 being caught in a gap may occur, and the action of the character 100 may not be the desired behavior. For example, in FIG. 1A, when the character 100 is in the vicinity of the gap 203 between the display components 201 and 202, the ray enters the gap 203 in ray casting. As a result, the character 100 enters the gap 203 as shown in FIG. 1B, and the display component 102 (hereinafter, also referred to as “ground 102”) on the ground at the bottom of the gap 203 as shown in FIG. 1C. The action of landing on the ground is performed. As a result, the character 100 may become stuck in the gap 203.

レイキャストを複数回行ったとしても、図1(d)に示すように表示部品204、205が細く、キャラクタが細い足場にいる場合、レイが表示部品204、205の間の隙間206に入り、キャラクタが隙間206に挟まってしまう。 Even if ray casting is performed a plurality of times, when the display components 204 and 205 are thin and the character is on a thin scaffold as shown in FIG. 1D, the ray enters the gap 206 between the display components 204 and 205, The character is caught in the gap 206.

また、図1(e)に示すように地面102に無視できる程度の小さな段差を生じさせる表示部品207があり、その上にキャラクタ100がいる場合、レイキャストを行った結果、表示部品207は傾斜が45°以上の不正な足場と判定され、キャラクタ100の落下処理が発生する場合がある。 Further, as shown in FIG. 1E, when there is a display component 207 that causes a negligible step on the ground 102, and the character 100 is on it, as a result of raycasting, the display component 207 is inclined. May be determined to be an improper scaffolding of 45° or more, and fall processing of the character 100 may occur.

そこで、狭い隙間や低い段差等の地形は無視してキャラクタ100の動作が望む通りの挙動となることで、キャラクタ100をスムーズに動作させることが可能な情報処理装置、ゲーム処理方法及びゲーム処理プログラムを提供する。 Thus, the information processing apparatus, the game processing method, and the game processing program that allow the character 100 to move smoothly by ignoring terrain such as narrow gaps and low steps, and the behavior of the character 100 being as desired. I will provide a.

[情報処理装置の機能構成]
以下では、一実施形態に係る情報処理装置10の機能構成の一例について、図2を参照しながら説明する。図2は、一実施形態に係る情報処理装置10の機能構成の一例を示す図である。
[Functional configuration of information processing device]
Hereinafter, an example of a functional configuration of the information processing device 10 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a functional configuration of the information processing device 10 according to the embodiment.

本実施形態に係る情報処理装置10は、プレイヤーがゲームをプレイする機器であればいずれの電子機器でもよく、スマートフォン、携帯ゲーム機、パーソナルコンピュータ、タブレット端末、家庭用ゲーム装置、業務用ゲーム装置等であってもよい。 The information processing apparatus 10 according to the present embodiment may be any electronic apparatus as long as the player can play a game, such as a smartphone, a portable game machine, a personal computer, a tablet terminal, a home-use game machine, and an arcade game machine. May be

情報処理装置10は、記憶部11、入力部12、特定部13、決定部14、動作制御部15、グラフィック処理部16、サウンド処理部17、表示部18及び音出力部19を有する。 The information processing device 10 includes a storage unit 11, an input unit 12, a specifying unit 13, a determining unit 14, an operation control unit 15, a graphic processing unit 16, a sound processing unit 17, a display unit 18, and a sound output unit 19.

記憶部11は、キャラクタテーブル111、表示部品位置テーブル112、動作ルールテーブル113を記憶する。キャラクタテーブル111は、キャラクタの情報を記憶するテーブルである。表示部品位置テーブル112は、ゲーム画面に表示する表示部品の位置を記憶するテーブルである。動作ルールテーブル113は、キャラクタの動作を行うルールを定義したテーブルである。これらのテーブルについての具体例は後述する。 The storage unit 11 stores a character table 111, a display component position table 112, and a motion rule table 113. The character table 111 is a table that stores character information. The display component position table 112 is a table that stores the positions of the display components displayed on the game screen. The action rule table 113 is a table that defines rules for performing a character action. Specific examples of these tables will be described later.

入力部12は、プレイヤーからのコントローラ(図3参照)の操作を受け付ける。入力部12は、プレイヤーからの操作をタッチパネルにより受け付けてもよい。 The input unit 12 receives the operation of the controller (see FIG. 3) from the player. The input unit 12 may receive an operation from the player via a touch panel.

特定部13は、ゲーム画面に表示されているキャラクタの足元の仮想地面を特定する。キャラクタの足元の仮想地面は、キャラクタの足元において仮想的に作成される非表示の地面であり、キャラクタの足場(足元の状態)を判定するために用いられる。なお、ゲーム画面に表示されているキャラクタは、ゲーム画面に表示されているオブジェクトの一例である。すなわち、オブジェクトは、キャラクタに限られず、車等の乗り物、キャラクタが乗った移動物、その他のゲーム画面に表示されるすべてのものを含む。また、キャラクタの足元(足場)の仮想地面は、オブジェクトの下の仮想地面の一例である。すなわち、オブジェクトは、キャラクタの足元に限られず、キャラクタがほふく前進していたり、寝そべっていたり、逆立ちしていたりしている場合、キャラクタの腹や背中や両手が「オブジェクトの下」となり、キャラクタの腹や背中や両手において仮想的に非表示の地面が作成される。 The specifying unit 13 specifies the virtual ground at the feet of the character displayed on the game screen. The virtual ground at the feet of the character is a hidden ground virtually created at the feet of the character, and is used to determine the footing (state of the feet) of the character. The character displayed on the game screen is an example of the object displayed on the game screen. That is, the object is not limited to the character, but includes vehicles such as cars, moving objects on which the character rides, and other objects displayed on the game screen. The virtual ground at the foot (scaffolding) of the character is an example of the virtual ground below the object. That is, the object is not limited to the feet of the character, and when the character is slightly moving forward, lying down, or standing upright, the belly, back, or both hands of the character become “under the object”, Virtually hidden ground is created on the belly, back, and both hands.

決定部14は、特定した仮想地面の情報に基づき、キャラクタの次のアクションを決定する。決定部14は、動作ルールテーブル113に定義されたルールに基づき、キャラクタの次のアクションを決定してもよい。動作制御部15は、決定した次のアクションに基づき、キャラクタの動作を制御する。 The determination unit 14 determines the next action of the character based on the information of the identified virtual ground. The determining unit 14 may determine the next action of the character based on the rule defined in the action rule table 113. The motion control unit 15 controls the motion of the character based on the determined next action.

グラフィック処理部16は、動作制御部15から描画命令が出力されると、表示部18に所定の画像を表示するためのビデオ信号を出力する。これにより、表示部18は、キャラクタと背景のステージとを仮想空間に表示する。グラフィック処理部16から出力されるビデオ信号に含まれる画像の一フレーム時間は、例えば30分の1秒である。よって、グラフィック処理部16は、フレーム単位(すなわち、30分の1秒単位)で1枚の画像の描画を実行する。 When the drawing command is output from the operation control unit 15, the graphic processing unit 16 outputs a video signal for displaying a predetermined image on the display unit 18. Accordingly, the display unit 18 displays the character and the background stage in the virtual space. One frame time of an image included in the video signal output from the graphic processing unit 16 is, for example, 1/30 second. Therefore, the graphic processing unit 16 draws one image in frame units (that is, in 1/30 second units).

サウンド処理部17は、グラフィック処理部16からサウンド出力の指示命令が出力されると、音出力部19に所定の音を出力するためのサウンド信号を出力する。これにより、ゲームの状況に応じたサウンドが出力される。 When the graphic processing unit 16 outputs a sound output instruction command, the sound processing unit 17 outputs a sound signal for outputting a predetermined sound to the sound output unit 19. As a result, a sound according to the game situation is output.

[情報処理装置のハードウェア構成]
次に、一実施形態に係る情報処理装置10のハードウェア構成の一例について、図3を参照しながら説明する。図3は、一実施形態に係る情報処理装置10のハードウェア構成の一例を示す図である。
[Hardware configuration of information processing device]
Next, an example of the hardware configuration of the information processing device 10 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a hardware configuration of the information processing device 10 according to the embodiment.

情報処理装置10は、CPU21、ROM22、RAM23、HDD24、グラフィックカード25、外部I/F(インターフェース)26、通信I/F27、入力I/F28、ディスプレイ29及びスピーカ30を有する。各部は、バスで相互に接続されている。 The information processing device 10 includes a CPU 21, a ROM 22, a RAM 23, a HDD 24, a graphic card 25, an external I/F (interface) 26, a communication I/F 27, an input I/F 28, a display 29, and a speaker 30. Each unit is connected to each other by a bus.

ROM22は、電源を切っても内部データを保持することができる不揮発性の半導体メモリである。ROM22には、プログラム及びデータが格納されている。RAM23は、プログラムやデータを一時保持する揮発性の半導体メモリである。 The ROM 22 is a non-volatile semiconductor memory that can retain internal data even when the power is turned off. Programs and data are stored in the ROM 22. The RAM 23 is a volatile semiconductor memory that temporarily holds programs and data.

HDD24は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムには、情報処理装置10の全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。HDD24には、各種のデータベースが格納されてもよい。本実施形態では、HDD24にアクション処理を実行するためのプログラムや基本ゲームプログラムが格納される。また、HDD24にキャラクタテーブル111、表示部品位置テーブル112及び動作ルールテーブル113の各情報が格納される。 The HDD 24 is a non-volatile storage device that stores programs and data. The stored programs include basic software and application software that control the entire information processing apparatus 10. Various databases may be stored in the HDD 24. In this embodiment, the HDD 24 stores a program for executing action processing and a basic game program. Further, the HDD 24 stores each information of the character table 111, the display component position table 112, and the action rule table 113.

CPU21は、HDD24からプログラムやデータをRAM23上に読み出し、アクション処理や基本ゲーム処理を実行することで、情報処理装置10の全体の制御や情報処理装置10に搭載された機能を実現する。 The CPU 21 realizes the overall control of the information processing apparatus 10 and the functions installed in the information processing apparatus 10 by reading the programs and data from the HDD 24 onto the RAM 23 and executing the action processing and the basic game processing.

具体的には、図2に示す特定部13、決定部14及び動作制御部15の機能は、情報処理装置10にインストールされたアクション処理を実行するためのプログラムがCPU21に実行させる処理により実現される。 Specifically, the functions of the specifying unit 13, the determining unit 14, and the operation control unit 15 illustrated in FIG. 2 are realized by the process that the CPU 21 executes by the program for executing the action process installed in the information processing apparatus 10. It

外部I/F26は、情報処理装置10を記録媒体26a等の外部装置に接続するインターフェースである。これにより、情報処理装置10は、外部I/F26を介して記録媒体26aの読み取り及び書き込みを行うことができる。記録媒体26aの一例としては、CD(Compact Disk)、DVD(Digital Versatile Disk)が挙げられる。記録媒体26aは、SDメモリーカード(SD Memory card)又はUSBメモリ(Universal Serial Bus memory)等であってもよい。 The external I/F 26 is an interface that connects the information processing apparatus 10 to an external device such as the recording medium 26a. As a result, the information processing apparatus 10 can read and write the recording medium 26a via the external I/F 26. Examples of the recording medium 26a include a CD (Compact Disk) and a DVD (Digital Versatile Disk). The recording medium 26a may be an SD memory card (SD Memory card), a USB memory (Universal Serial Bus memory), or the like.

例えば、情報処理装置10には、アクション処理を実行するためのプログラム及び基本ゲームプログラムが格納された記録媒体26aを装着することが可能である。これらのプログラムは、外部I/F26により読み出されて、RAM23に読み込まれる。 For example, the information processing apparatus 10 can be equipped with a recording medium 26a in which a program for executing action processing and a basic game program are stored. These programs are read by the external I/F 26 and read into the RAM 23.

CPU21は、RAM23にロードされた上記の各種のプログラムを処理し、グラフィックカード25にゲームの進行に応じた画像の出力を指示する。グラフィックカード25は、指示に従い画面に表示するゲームの場面に応じた画像処理を行い、ディスプレイ29にキャラクタの画像及びステージの画像を描画させる。これにより、グラフィック処理部16及び表示部18の機能が実行される。なお、グラフィックカード25は、フレーム単位で1枚の画像の描画を実行し、一秒間に30回〜60回のフレームの画像が描画される。 The CPU 21 processes the various programs loaded in the RAM 23 and instructs the graphic card 25 to output an image according to the progress of the game. The graphic card 25 performs image processing according to the scene of the game displayed on the screen according to the instruction, and causes the display 29 to draw the image of the character and the image of the stage. As a result, the functions of the graphic processing unit 16 and the display unit 18 are executed. The graphic card 25 draws one image on a frame-by-frame basis, and draws 30 to 60 frame images per second.

また、CPU21は、RAM23に読み込まれた上記の各種のプログラムを処理し、ゲームの進行に応じてスピーカ30から所定の音を出力させる。これにより、サウンド処理部17及び音出力部19の機能が実行される。 Further, the CPU 21 processes the above various programs read in the RAM 23 and causes the speaker 30 to output a predetermined sound according to the progress of the game. As a result, the functions of the sound processing unit 17 and the sound output unit 19 are executed.

ディスプレイ29はタッチパネル式としても良い。これにより、コントローラ1を用いずに入力操作を行うことができる。この場合、タッチパネルにより検出されたタッチ位置の入力情報は、RAM23に格納され、CPU21はRAM23に格納された入力情報をもとに各種の演算処理を実行する。 The display 29 may be a touch panel type. Thereby, the input operation can be performed without using the controller 1. In this case, the input information of the touch position detected by the touch panel is stored in the RAM 23, and the CPU 21 executes various arithmetic processes based on the input information stored in the RAM 23.

通信I/F27は、情報処理装置10をネットワークに接続するインターフェースである。また、通信I/F27は、アンテナを有する通信ユニットを介して、他のゲーム機器と無線により通信を行う機能を有していてもよい。 The communication I/F 27 is an interface that connects the information processing device 10 to a network. Further, the communication I/F 27 may have a function of wirelessly communicating with another game device via a communication unit having an antenna.

入力I/F28は、コントローラ1に接続するインターフェースである。コントローラ1は、操作ボタン2及び方向キー3を有する。プレイヤーは、操作ボタン2を操作することでキャラクタに所定の動作を行わせることができる。また、プレイヤーは、方向キー3を操作することでキャラクタを所定の方向に移動させることができる。入力I/F28は、プレイヤーがコントローラ1を用いて行った入力操作に基づく入力情報をRAM23に格納させる。これにより、入力部12の機能が実行される。 The input I/F 28 is an interface connected to the controller 1. The controller 1 has operation buttons 2 and direction keys 3. The player can cause the character to perform a predetermined action by operating the operation button 2. In addition, the player can move the character in a predetermined direction by operating the direction keys 3. The input I/F 28 causes the RAM 23 to store input information based on an input operation performed by the player using the controller 1. As a result, the function of the input unit 12 is executed.

CPU21は、RAM23に格納された入力情報に基づきキャラクタの動作等の各種の演算処理を実行する。また、入力I/F28は、CPU21からの指示に従いRAM23に記憶されているゲームの進行状況を示すデータをメモリーカード28aに保存させ、メモリーカード28aに保存されている中断時のゲームのデータを読み出してRAM23に転送する処理を行う。 The CPU 21 executes various kinds of arithmetic processing such as character movement based on the input information stored in the RAM 23. Further, the input I/F 28 causes the memory card 28a to store data indicating the progress status of the game stored in the RAM 23 in accordance with an instruction from the CPU 21, and reads the game data at the time of interruption stored in the memory card 28a. Processing to transfer to the RAM 23.

[アクション処理の概要]
次に、図4及び図5を参照して、一実施形態に係るアクション処理の概要について説明する。図4及び図5は、一実施形態に係るアクション処理の概要を説明するための図である。本実施形態に係るアクション処理では、レイキャストではなく、キャラクタに重ねてキャラクタとともに移動する非表示の判定オブジェクトを使用し、判定オブジェクトの押出情報に基づき仮想地面が特定される。そして、仮想地面を用いてキャラクタの足場の状態が判定される。これにより、キャラクタは狭い隙間に落下することなく、小さな段差であれば段差でなく坂道とみなして乗り越えることができる。ただし、これらのキャラクタの動作は一例であり、キャラクタをゲーム上の地形に応じてスムーズに動作させることができる。
[Overview of action processing]
Next, an outline of the action processing according to the embodiment will be described with reference to FIGS. 4 and 5. 4 and 5 are diagrams for explaining the outline of the action processing according to the embodiment. In the action processing according to the present embodiment, not a raycast but a hidden determination object that overlaps with the character and moves with the character is used, and the virtual ground surface is specified based on the extrusion information of the determination object. Then, the state of the scaffolding of the character is determined using the virtual ground. As a result, the character does not fall into a narrow gap, and if it is a small step, it can be regarded as a slope instead of a step and can get over it. However, the movements of these characters are merely examples, and the characters can be smoothly moved according to the terrain in the game.

図4及び図5に示すように、キャラクタ100には判定オブジェクト101が重ねて設けられる。プレイヤーには、キャラクタ100は見えるが、判定オブジェクト101は見えない。ここでは、説明の便宜上、判定オブジェクト101を表示する。判定オブジェクト101は、キャラクタ100の大きさに応じてサイズが異なってもよい。判定オブジェクト101は、キャラクタ100の大きさに応じて形状が異なってもよい。 As shown in FIGS. 4 and 5, the character 100 is provided with a determination object 101 in an overlapping manner. The player can see the character 100 but not the determination object 101. Here, for convenience of explanation, the determination object 101 is displayed. The determination object 101 may have a different size depending on the size of the character 100. The determination object 101 may have a different shape depending on the size of the character 100.

一実施形態に係るアクション処理では、キャラクタ100の大きさに応じたサイズの判定オブジェクト101が予めキャラクタテーブル111に設定されている。キャラクタテーブル111の一例を図6に示す。例えば、キャラクタIDが「Aa」のキャラクタ100には、判定オブジェクトIDが「Ba」の判定オブジェクト101が重ねられる。キャラクタIDが「Ab」のキャラクタ100には、判定オブジェクトIDが「Bb」の判定オブジェクト101が重ねられる。「Aa」のキャラクタ100が「Ab」のキャラクタ100の1.5倍の大きさであれば、「Ba」の判定オブジェクト101は「Bb」の判定オブジェクト101の1.5倍の大きさに設定されてもよい。 In the action processing according to the embodiment, the determination object 101 having a size corresponding to the size of the character 100 is set in the character table 111 in advance. An example of the character table 111 is shown in FIG. For example, the determination object 101 with the determination object ID “Ba” is superimposed on the character 100 with the character ID “Aa”. The determination object 101 with the determination object ID “Bb” is superimposed on the character 100 with the character ID “Ab”. If the "Aa" character 100 is 1.5 times larger than the "Ab" character 100, the "Ba" determination object 101 is set to 1.5 times the "Bb" determination object 101. May be done.

ゲーム画面には、建物、地面、山等のキャラクタ以外のオブジェクト(以下、「表示部品」という。)が表示される。図4及び図5では、表示部品102、103、104が図示されている。 Objects (hereinafter referred to as "display parts") other than characters such as buildings, grounds, and mountains are displayed on the game screen. 4 and 5, the display components 102, 103 and 104 are shown.

一実施形態に係るアクション処理に用いる表示部品の表示位置は、表示部品位置テーブル112に記憶される。一実施形態に係る表示部品位置テーブル112の一例を図7に示す。例えば、表示部品IDが「Ca」の表示部品103に対応する位置情報の左上の座標(xa1、ya1)及び右下の座標(xa2、ya2)から表示部品103の位置及び大きさが定まる。 The display position of the display component used for the action processing according to the embodiment is stored in the display component position table 112. FIG. 7 shows an example of the display component position table 112 according to the embodiment. For example, the position and size of the display component 103 from the upper left coordinates (x a1 , y a1 ) and the lower right coordinate (x a2 , y a2 ) of the position information corresponding to the display component 103 whose display component ID is “Ca”. Is determined.

図4は、表示部品102、103とキャラクタ100が表示されている場面を示す。判定オブジェクト101は、ゲーム中のプレイヤーには見えないように非表示にして、キャラクタ100の移動に応じてキャラクタ100に重ねて移動される。なお、キャラクタ100、判定オブジェクト101、表示部品102、103の大きさ及び形状は一例であり、これに限られない。 FIG. 4 shows a scene in which the display parts 102 and 103 and the character 100 are displayed. The determination object 101 is hidden so as not to be seen by the player in the game, and is moved over the character 100 in accordance with the movement of the character 100. The sizes and shapes of the character 100, the determination object 101, and the display components 102 and 103 are examples, and the sizes and shapes are not limited to these.

情報処理装置10は、毎フレーム、すなわち、一フレーム毎に以下の手順(1)〜(4)を実行することで、キャラクタ100のアクションを更新する。
(1)足場の判定
(2)アクションの決定
(3)移動
(4)判定オブジェクトの押出
図4(a)〜(d)を参照して、キャラクタが表示部品103の側壁に衝突する場合のアクションの更新について説明する。まず、手順(1)において、特定部13は、キャラクタ100がいる位置の足場を判定する。図4(a)の例では、特定部13は、キャラクタ100の足場を判定した結果、キャラクタ100の足元に所定幅の地面102があるため、足場があると判定する。特定部13は、キャラクタ100の足元に所定幅の面がある場合、後述する仮想地面を作成せずに「足場がある」と判定できる。
The information processing apparatus 10 updates the action of the character 100 by executing the following procedures (1) to (4) for each frame, that is, for each frame.
(1) Judgment of scaffolding (2) Determination of action (3) Movement (4) Pushing out judgment object Referring to FIGS. 4A to 4D, an action when the character collides with the side wall of the display component 103 The update will be described. First, in the procedure (1), the identifying unit 13 determines the scaffold at the position where the character 100 is located. In the example of FIG. 4A, as a result of determining the scaffolding of the character 100, the identifying unit 13 determines that there is a scaffolding because the ground 100 having a predetermined width is at the feet of the character 100. If the foot of the character 100 has a surface of a predetermined width, the identifying unit 13 can determine that “the foothold exists” without creating a virtual ground described later.

次に、手順(2)において、決定部14は、判定結果に応じてキャラクタ100の次のアクションを決定する。アクションを決定するための動作ルールは、動作ルールテーブル113に定義されている。 Next, in procedure (2), the determination unit 14 determines the next action of the character 100 according to the determination result. The operation rule for determining the action is defined in the operation rule table 113.

動作ルールテーブル113の一例を図8に示す。図8の動作ルールテーブル113の例では、条件が「足場がある」の場合であって足場の傾斜がない又は足場の傾斜が45°未満の場合、キャラクタのアクションは「動作継続」に設定される。条件が「足場がある」の場合であって足場の傾斜が45°以上の場合、キャラクタのアクションは「動作停止」又は「落下」に設定される。条件が「足場がない」の場合、キャラクタのアクションは「落下」に設定される。 FIG. 8 shows an example of the operation rule table 113. In the example of the motion rule table 113 in FIG. 8, when the condition is “scaffolding” and there is no scaffolding inclination or the scaffolding inclination is less than 45°, the action of the character is set to “continue movement”. It When the condition is “there is scaffolding” and the inclination of the scaffolding is 45° or more, the action of the character is set to “stop motion” or “fall”. When the condition is “no scaffolding”, the character action is set to “fall”.

よって、図4(b)の例では、決定部14は、動作ルールテーブル113を参照して、条件が「足場がある」の場合の「足場の傾斜なし」の条件に従い、次のアクションとして、キャラクタの動作継続を決定する。つまり、決定部14は、キャラクタ100の走りを継続させるようにアクションを決定する。 Therefore, in the example of FIG. 4B, the determining unit 14 refers to the operation rule table 113 and follows the condition of “no inclination of scaffolding” when the condition is “scaffolding”, Determines whether the character continues to move. That is, the determination unit 14 determines the action so that the running of the character 100 is continued.

次に、手順(3)において、動作制御部15は、決定した次のアクションに基づき、キャラクタの動作を制御する。図4(c)の例では、動作制御部15は、キャラクタ100の走りを継続し、キャラクタ100を移動させる。移動の結果、キャラクタ100は表示部品103に衝突し、キャラクタ100に重ねられた判定オブジェクト101とともに表示部品103内に押し込まれる。 Next, in procedure (3), the motion control unit 15 controls the motion of the character based on the determined next action. In the example of FIG. 4C, the motion control unit 15 continues the running of the character 100 and moves the character 100. As a result of the movement, the character 100 collides with the display component 103 and is pushed into the display component 103 together with the determination object 101 superimposed on the character 100.

次に、手順(4)において、動作制御部15は、判定オブジェクト101の表示部品103からの押出を制御する。この結果、判定オブジェクト101が表示部品103から押し出される。このとき、判定オブジェクト101は、押し込まれた方向と逆の方向に押し出される。これにより、図4(d)に示すように、キャラクタ100が表示部品103の壁に衝突する動作が表示される。 Next, in the procedure (4), the operation control unit 15 controls the pushing of the determination object 101 from the display component 103. As a result, the determination object 101 is pushed out from the display component 103. At this time, the determination object 101 is pushed out in the direction opposite to the pushed-in direction. As a result, as shown in FIG. 4D, the action of the character 100 colliding with the wall of the display component 103 is displayed.

次に、図5(a)〜(f)を参照して、キャラクタが表示部品104の段差から落下する場合のアクションの更新について説明する。まず、手順(1)において、特定部13は、キャラクタ100がいる位置の足場を判定する。図5(a)の例では、特定部13は、キャラクタ100の足場を判定した結果、キャラクタ100の足元に所定幅の表示部品104の上面があるため、地面があると判定する。 Next, with reference to FIGS. 5A to 5F, the update of the action when the character falls from the step of the display component 104 will be described. First, in the procedure (1), the identifying unit 13 determines the scaffold at the position where the character 100 is located. In the example of FIG. 5A, as a result of determining the scaffolding of the character 100, the identifying unit 13 determines that there is the ground because there is the upper surface of the display component 104 having a predetermined width at the feet of the character 100.

次に、手順(2)において、決定部14は、判定結果に応じてキャラクタ100の次のアクションを決定する。図5(b)の例では、決定部14は、動作ルールテーブル113を参照して、条件が「足場がある」の場合の「足場の傾斜なし」の条件に従い、次のアクションとして、キャラクタの動作の継続を決定する。つまり、決定部14は、キャラクタ100の走りを継続させるようにアクションを決定する。 Next, in procedure (2), the determination unit 14 determines the next action of the character 100 according to the determination result. In the example of FIG. 5B, the determining unit 14 refers to the action rule table 113 and follows the condition of “no inclination of the scaffolding” when the condition is “scaffolding is present” as the next action. Determines continuation of movement. That is, the determination unit 14 determines the action so that the running of the character 100 is continued.

次に、手順(3)において、動作制御部15は、決定した次のアクションに基づき、キャラクタの動作を制御する。図5(c)の例では、動作制御部15は、キャラクタ100の走りを継続し、キャラクタ100を移動させる。移動の結果、キャラクタ100は表示部品104の先に飛び出し、空中に浮いた状態となる。 Next, in procedure (3), the motion control unit 15 controls the motion of the character based on the determined next action. In the example of FIG. 5C, the motion control unit 15 continues the running of the character 100 and moves the character 100. As a result of the movement, the character 100 jumps out beyond the display component 104 and floats in the air.

次に、手順(4)において、動作制御部15は、判定オブジェクト101の押出を行う。ここでは、判定オブジェクト101は、キャラクタ100に重なる位置にて空中に浮き、表示部品104内に押し込まれていない。よって、動作制御部15は、判定オブジェクト101を押し出す動作を行えず、図5(d)に示すように、キャラクタ100は空中に浮いた状態のままとなる。 Next, in procedure (4), the motion control unit 15 pushes out the determination object 101. Here, the determination object 101 floats in the air at a position overlapping the character 100 and is not pushed into the display component 104. Therefore, the motion control unit 15 cannot perform the motion of pushing out the determination object 101, and the character 100 remains floating in the air as shown in FIG. 5D.

次に、次のフレームの手順(1)において、特定部13は、キャラクタ100がいる位置の足場を判定する。図5(e)の例では、特定部13は、仮想地面を作成できず、キャラクタ100の足場を判定した結果、地面がないと判定する。 Next, in the procedure (1) of the next frame, the identifying unit 13 determines the scaffold at the position where the character 100 is located. In the example of FIG. 5E, the identifying unit 13 cannot create the virtual ground, and as a result of determining the scaffolding of the character 100, it determines that there is no ground.

次に、手順(2)において、決定部14は、判定結果に応じてキャラクタ100の次のアクションを決定する。決定部14は、動作ルールテーブル113を参照して、条件が「足場がない」の場合のルールに従い、次のアクションとして、キャラクタの落下を決定する。この結果、動作制御部15は、決定した次のアクションに基づき、ゲーム画面に表示するキャラクタの動作を制御する。その結果、図5(f)の例では、動作制御部15は、決定した次のアクションに従い、キャラクタ100を表示部品104から落下する動作を実行する。 Next, in procedure (2), the determination unit 14 determines the next action of the character 100 according to the determination result. The determination unit 14 refers to the action rule table 113 and determines the character's fall as the next action according to the rule when the condition is “no scaffolding”. As a result, the motion control unit 15 controls the motion of the character displayed on the game screen based on the determined next action. As a result, in the example of FIG. 5F, the motion control unit 15 executes the motion of dropping the character 100 from the display component 104 according to the determined next action.

[アクション処理の詳細]
次に、図9及び図10を参照して、一実施形態に係る仮想地面の作成を含むアクション処理の詳細について説明する。図9は、一実施形態に係るアクション処理の詳細を説明するための図である。
[Details of action processing]
Next, with reference to FIG. 9 and FIG. 10, details of the action processing including the creation of the virtual ground according to the embodiment will be described. FIG. 9 is a diagram for explaining the details of the action processing according to the embodiment.

仮想地面の作成を含むアクション処理では、上記手順(1)〜(4)のうち、手順(1)において仮想地面の作成を行った後に足場の判定を行う。仮想地面の作成は、レイキャストを使用せずに判定オブジェクトの押出情報に基づき行う。また、上記手順(3)と手順(4)との間にキャラクタ100の着地補正を行う。 In the action process including the creation of the virtual ground, the scaffolding is determined after the creation of the virtual ground in step (1) of the above steps (1) to (4). The virtual ground is created based on the push information of the determination object without using raycast. Further, the landing correction of the character 100 is performed between the procedure (3) and the procedure (4).

図9の本処理が開始されると、入力部12が、キャラクタ100に対するプレイヤーの操作を受け付け、特定部13は、キャラクタ100の仮想地面を作成する(ステップS1)。図10(a)の例では、地面102と平行に仮想地面が作成されてもよい。特定部13は、キャラクタ100の足元に所定幅の面がある場合、仮想地面を作成せずに「足場がある」と判定してもよい。 When the present process of FIG. 9 is started, the input unit 12 receives a player's operation on the character 100, and the specifying unit 13 creates a virtual ground of the character 100 (step S1). In the example of FIG. 10A, the virtual ground may be created in parallel with the ground 102. If the foot of the character 100 has a surface with a predetermined width, the identifying unit 13 may determine that “the foot is present” without creating the virtual ground.

図9に戻り、次に、特定部13は、足場の判定を行う(ステップS2)。特定部13が「足場あり」と判定した場合、決定部14は、キャラクタ100の次のアクションを、動作ルールテーブル113に定義したルールに基づき決定する(ステップS3)。決定部14は、水平方向に足場がある場合、動作ルールテーブル113に記憶された「動作継続」を次のアクションに決定する。図10(b)の例では、走りを継続するアクションに決定される。 Returning to FIG. 9, the identifying unit 13 then determines the scaffold (step S2). When the identifying unit 13 determines that “the foothold is present”, the determining unit 14 determines the next action of the character 100 based on the rule defined in the action rule table 113 (step S3). When there is a scaffold in the horizontal direction, the determination unit 14 determines “continue motion” stored in the motion rule table 113 as the next action. In the example of FIG. 10B, the action is determined to continue running.

図9に戻り、次に、動作制御部15は、決定したアクションに従いキャラクタを動作させる(ステップS4)。これにより、図10(c)に示すように、キャラクタ100が走りを継続する。その結果、図10(c)の例では、キャラクタ100が、キャラクタ100の前方に配置された表示部品105まで移動し、キャラクタ100と判定オブジェクト101とが、表示部品105内に押し込まれる。 Returning to FIG. 9, next, the motion control unit 15 causes the character to move according to the determined action (step S4). As a result, the character 100 continues to run as shown in FIG. As a result, in the example of FIG. 10C, the character 100 moves to the display component 105 arranged in front of the character 100, and the character 100 and the determination object 101 are pushed into the display component 105.

図9に戻り、次に、動作制御部15は、決定したアクションに従い動作後のキャラクタの着地を補正する(ステップS5)。着地補正とは、キャラクタ100と判定オブジェクト101とを地面に押し込ませることをいう。例えば、動作制御部15は、図10(d)に示すように、キャラクタ100が接触する地面102が水平であれば、地面102に対して垂直な方向に判定オブジェクト101とキャラクタ100とを押し込ませる。キャラクタ100が接触する地面102が斜めであれば、その角度に垂直な方向に判定オブジェクト101とキャラクタ100とを押し込ませる。なお、押し込ませる対象は、判定オブジェクト101だけでもよい。 Returning to FIG. 9, next, the motion control unit 15 corrects the landing of the character after the motion according to the determined action (step S5). Landing correction refers to pushing the character 100 and the determination object 101 onto the ground. For example, as shown in FIG. 10D, the motion control unit 15 pushes the determination object 101 and the character 100 in a direction perpendicular to the ground 102 if the ground 102 with which the character 100 contacts is horizontal. .. If the ground 102 with which the character 100 contacts is diagonal, the determination object 101 and the character 100 are pushed in a direction perpendicular to the angle. The object to be pushed may be only the determination object 101.

図9に戻り、次に、動作制御部15は、表示部品105及び地面102に押し込まれた判定オブジェクト101を押し出す(ステップS6)。10(e)の例では、地面102と衝突した表示部品105からの押出により、判定オブジェクト101とキャラクタ100とが左上の45°の方向に斜めに押し出される。判定オブジェクト101の押出情報は、記憶部11に記憶される。 Returning to FIG. 9, next, the operation control unit 15 pushes out the determination object 101 pushed into the display component 105 and the ground 102 (step S6). In the example of 10(e), the determination object 101 and the character 100 are obliquely pushed in the upper left direction of 45° due to the extrusion from the display component 105 that collides with the ground 102. The pushing information of the determination object 101 is stored in the storage unit 11.

図9に戻り、次に、特定部13は、次のフレームの更新タイミングかを判定する(ステップS7)。特定部13は、次のフレームの更新タイミングであると判定すると、ステップS1に戻り、キャラクタ100の仮想地面を作成する(ステップS1)。 Returning to FIG. 9, the identifying unit 13 next determines whether it is the update timing of the next frame (step S7). When determining that it is the update timing of the next frame, the identifying unit 13 returns to step S1 and creates the virtual ground of the character 100 (step S1).

特定部13は、前回の判定オブジェクト101の押出情報に基づき、判定オブジェクト101の押出方向に略垂直な方向に仮想地面を作成する。この結果、図10(f)に示すように、判定オブジェクト101の押出方向に応じて判定オブジェクト101の押出方向に略垂直な方向に仮想地面150が作成される。 The identifying unit 13 creates a virtual ground in a direction substantially perpendicular to the pushing direction of the determination object 101 based on the previous pushing information of the determination object 101. As a result, as shown in FIG. 10F, the virtual ground 150 is created in a direction substantially perpendicular to the pushing direction of the determination object 101 according to the pushing direction of the determination object 101.

図9に戻り、次に、特定部13は、足場の判定を行う(ステップS2)。特定部13は、仮想地面150が作成されている場合、足場があると判定する。足場があると判定された場合、前述したステップS3〜S7の処理が繰り返される。その結果、次のアクションは、動作継続に決定され、図10(g)〜図10(j)に示すキャラクタ100の動作が実行される。 Returning to FIG. 9, the identifying unit 13 then determines the scaffold (step S2). The identifying unit 13 determines that there is a scaffold when the virtual ground 150 is created. When it is determined that there is a scaffold, the above-described steps S3 to S7 are repeated. As a result, the next action is determined to continue the action, and the action of the character 100 shown in FIGS. 10(g) to 10(j) is executed.

一方、特定部13は、ステップS2において足場がないと判定すると、キャラクタ100の次のアクションを、動作ルールテーブル113に記憶された動作ルールに基づき「落下」に決定する(ステップS8)。 On the other hand, when determining that there is no scaffolding in step S2, the identifying unit 13 determines the next action of the character 100 to be “fall” based on the action rule stored in the action rule table 113 (step S8).

次に、動作制御部15は、決定したアクションに従いキャラクタを動作させる(ステップS9)。これに応じてキャラクタ100が落下する。次に、動作制御部15は、キャラクタ100が落下した後の着地補正を行い(ステップS5)、判定オブジェクトの押出を行う(ステップS6)。次フレームの更新タイミングが来るたびに(ステップS7)、ステップS1に戻ってステップS1以降の処理が繰り返され、キャラクタの動作が更新される。 Next, the motion control unit 15 causes the character to move according to the determined action (step S9). In response to this, the character 100 falls. Next, the motion control unit 15 performs landing correction after the character 100 has dropped (step S5) and pushes out the determination object (step S6). Every time the update timing of the next frame comes (step S7), the process returns to step S1 and the processes from step S1 onward are repeated to update the motion of the character.

以上に説明したように、一実施形態に係るアクション処理によれば、キャラクタ100に重ねて判定オブジェクト101を設け、判定オブジェクト101の押出情報に基づき、キャラクタ100の足場である仮想地面150を作成し、キャラクタの足場を判定する。 As described above, according to the action processing according to the embodiment, the determination object 101 is provided on the character 100, and the virtual ground 150, which is the scaffolding of the character 100, is created based on the extrusion information of the determination object 101. , Determine the foothold of the character.

これにより、図11(a)に示すように、表示部品201、202の間に隙間203が生じていても、隙間203が所定以下の狭い隙間であればキャラクタ100の下に作成された足場(仮想地面150)により、キャラクタ100が隙間203に落下して身動きが取れない動作は発生しない。 As a result, as shown in FIG. 11A, even if there is a gap 203 between the display components 201 and 202, if the gap 203 is a narrow gap below a predetermined level, a scaffold created under the character 100 ( The virtual ground 150) prevents the character 100 from falling into the gap 203 and being unable to move.

また、図11(b)に示すように、小さな段差を形成する表示部品207が地面102に置かれている場合、キャラクタ100の下に作成される仮想地面150と地面102との角度は45°未満になる。このため、決定部14は、動作ルールテーブル113に基づき次のアクションを「動作継続」に決定する。 Further, as shown in FIG. 11B, when the display component 207 forming a small step is placed on the ground 102, the angle between the virtual ground 150 created below the character 100 and the ground 102 is 45°. Less than Therefore, the determining unit 14 determines the next action to be “continue operation” based on the operation rule table 113.

これにより、表示部品207の小さな段差であれば、仮想地面150に基づき、キャラクタ100は、表示部品207を段差でなく坂道とみなして乗り越える等の動作を行う。これにより、キャラクタ100が小さな段差から落下するなどの不自然な動作を回避し、キャラクタ100をゲーム上の地形に応じてスムーズに動作させることができる。 As a result, if the display component 207 has a small step, the character 100 performs an action such as getting over the display component 207, considering it as a slope instead of a step, based on the virtual ground 150. As a result, it is possible to avoid an unnatural motion such as the character 100 dropping from a small step, and to smoothly move the character 100 according to the terrain in the game.

更に、特定部13は、キャラクタ100の大きさ及び/又は形状に応じて判定オブジェクト101のサイズを設定することで、キャラクタ100の大きさ及び/又は形状に応じた仮想地面150を作成できる。 Furthermore, the specifying unit 13 can create the virtual ground 150 according to the size and/or shape of the character 100 by setting the size of the determination object 101 according to the size and/or shape of the character 100.

キャラクタテーブル111に一例を示した通り、キャラクタ100毎に設定される判定オブジェクト101は、キャラクタ100の大きさ及び/又は形状に応じてサイズを変えることができる。特定部13は、判定オブジェクト101の表示部品からの押出方向に応じて仮想地面150を作成する。このため、作成される仮想地面150の傾斜角度はキャラクタ100の大きさ及び/又は形状に応じて変わり、キャラクタ100の乗り越えられる段差の高さがキャラクタ100の大きさ及び/又は形状に応じて自動的に変わる。 As an example is shown in the character table 111, the size of the determination object 101 set for each character 100 can be changed according to the size and/or shape of the character 100. The identifying unit 13 creates the virtual ground 150 according to the pushing direction of the determination object 101 from the display component. Therefore, the inclination angle of the created virtual ground surface 150 changes according to the size and/or shape of the character 100, and the height of the step over which the character 100 can get over is automatically determined according to the size and/or shape of the character 100. Change.

例えば、図12(a)〜(c)に示すキャラクタ100Aは、図12(d)〜(f)に示すキャラクタ100Bよりも小さい。これに応じて、キャラクタ100Aに重ねる判定オブジェクト101Aは、キャラクタ100Bに重ねる判定オブジェクト101Bよりも小さく設定することができる。 For example, the character 100A shown in FIGS. 12A to 12C is smaller than the character 100B shown in FIGS. 12D to 12F. Accordingly, the determination object 101A overlapping the character 100A can be set smaller than the determination object 101B overlapping the character 100B.

これにより、図12(a)及び(d)に示すキャラクタ100A、100Bの移動、図12(b)及び(e)に示すキャラクタ100A、100Bの着地補正の後の、図12(c)及び(f)に示す判定オブジェクト101A、101Bの押出方向が変わる。この結果、作成された仮想地面150A,150Bの角度は、判定オブジェクト101Aよりも大きい判定オブジェクト101B側の仮想地面150Bと地面102との角度θが、仮想地面150Aと地面102との角度θよりも小さくなる。 As a result, after the movement of the characters 100A and 100B shown in FIGS. 12A and 12D and the landing correction of the characters 100A and 100B shown in FIGS. 12B and 12E, FIGS. The pushing directions of the determination objects 101A and 101B shown in f) are changed. As a result, the angles of the created virtual grounds 150A and 150B are larger than the determination object 101A. The angle θ 2 between the virtual ground 150B and the ground 102 on the determination object 101B side is the angle θ 1 between the virtual ground 150A and the ground 102. Will be smaller than.

このように、判定オブジェクト101の大きさをキャラクタ100に応じて変えることで、判定オブジェクト101の押出方向が変わり、これにより、作成する仮想地面150の傾斜を変えることができる。これにより、キャラクタ100Aでは登ることが困難な高さの表示部品106であっても、キャラクタ100Aよりも大きなキャラクタ100Bでは表示部品106を越える又は登る動作を、次のアクションに決定することが可能となる。 As described above, by changing the size of the determination object 101 according to the character 100, the pushing direction of the determination object 101 is changed, whereby the inclination of the virtual ground 150 to be created can be changed. As a result, even if the display component 106 has a height that is difficult for the character 100A to climb, the action of crossing or climbing the display component 106 for the character 100B larger than the character 100A can be determined as the next action. Become.

これにより、キャラクタ100Bは、表示部品106を乗り越えられるが、キャラクタ100Aは、表示部品106を乗り越えられないというように、キャラクタ100の大きさに応じて乗り越えられる段差の高さを自動的に変えることができる。これにより、キャラクタ100の大きさに応じてキャラクタ100の動作を自動で変え、キャラクタ100をゲーム上の地形とキャラクタ100の大きさ及び/又は形状に応じてスムーズに動作させることができる。 As a result, the character 100B can get over the display component 106, but the character 100A cannot get over the display component 106, so that the height of the step over which the character 100B can get over is automatically changed. You can Thereby, the motion of the character 100 can be automatically changed according to the size of the character 100, and the character 100 can be smoothly operated according to the topography in the game and the size and/or shape of the character 100.

[変形例]
以上に説明したキャラクタ100の次のアクションは、一例であり、これに限られない。例えば、図13(a)に示した仮想地面150と地面102との角度θは45°以上である。この場合、決定部14は、動作ルールテーブル113に基づき、次のアクションを「動作停止」又は「落下」に決定する。
[Modification]
The next action of the character 100 described above is an example, and the present invention is not limited to this. For example, the angle θ 3 between the virtual ground surface 150 and the ground surface 102 shown in FIG. 13A is 45° or more. In this case, the deciding unit 14 decides the next action to be “motion stop” or “fall” based on the motion rule table 113.

しかしながら、これに限らず、決定部14は、仮想地面150と地面102との角度θが45°以上である場合、キャラクタ100を表示部品107の壁面に沿って走らせる壁走りのアクションに決定してもよい。 However, the determination unit 14 is not limited to this, and when the angle θ 3 between the virtual ground surface 150 and the ground surface 102 is 45° or more, the determination unit 14 determines a wall-running action of running the character 100 along the wall surface of the display component 107. You may.

例えば、動作ルールテーブル113に、仮想地面の角度θが45°以上の場合、壁走りのアクションを予め設定しておくことにより、決定部14は、仮想地面の角度θが45°以上の場合のキャラクタ100の次のアクションを壁走りに決定することができる。また、キャラクタ100の次のアクションは壁走りに限られず、表示部品107を登ったり、乗り越えたり、転がったりするアクションであってもよい。 For example, when the virtual ground angle θ 3 is 45° or more in the operation rule table 113, the deciding unit 14 sets the virtual ground angle θ 3 to be 45° or more by setting the action of wall running in advance. In this case, the next action of the character 100 can be determined to be wall-running. Further, the next action of the character 100 is not limited to the wall running, and may be an action of climbing, climbing over, or rolling the display component 107.

10:情報処理装置
11:記憶部
12:入力部
13:特定部
14:決定部
15:動作制御部
16:グラフィック処理部
17:サウンド処理部
18:表示部
19:音出力部
21:CPU
22:ROM
23:RAM
24:HDD
25:グラフィックカード
26:外部I/F
26a:記録媒体
27:通信I/F
28:入力I/F
28a:メモリーカード
29:ディスプレイ
30:スピーカ
111:キャラクタテーブル
112:表示部品位置テーブル
113:動作ルールテーブル
150:仮想地面
10: information processing device 11: storage unit 12: input unit 13: specification unit 14: determination unit 15: operation control unit 16: graphic processing unit 17: sound processing unit 18: display unit 19: sound output unit 21: CPU
22: ROM
23: RAM
24: HDD
25: Graphic card 26: External I/F
26a: recording medium 27: communication I/F
28: Input I/F
28a: Memory card 29: Display 30: Speaker 111: Character table 112: Display component position table 113: Operation rule table 150: Virtual ground

Claims (11)

ゲーム画面に表示されているオブジェクトの下の仮想地面を特定する特定部と、
特定した前記仮想地面の情報に基づき、前記オブジェクトの次のアクションを決定する決定部と、
決定した前記次のアクションに基づき、前記ゲーム画面に表示するオブジェクトの動作を制御する動作制御部と、を有する情報処理装置。
A specific part that identifies the virtual ground below the object displayed on the game screen,
A determination unit that determines the next action of the object based on the information of the identified virtual ground;
An information processing device comprising: a motion control unit that controls a motion of an object displayed on the game screen based on the determined next action.
前記決定部は、
前記オブジェクトの大きさに応じて、ゲーム画面に表示されている表示部品において無視する段差及び/又は隙間を前記仮想地面に基づき変更し、無視する前記段差及び/又は隙間を変更して前記オブジェクトの次のアクションを決定する、
請求項1に記載の情報処理装置。
The determining unit is
Depending on the size of the object, the step and/or the gap to be ignored in the display component displayed on the game screen is changed based on the virtual ground, and the step and/or the gap to be ignored are changed to change the object. Determine the next action,
The information processing apparatus according to claim 1.
前記特定部は、
前記オブジェクトの大きさに応じたサイズであって前記オブジェクトに重ねて移動する判定オブジェクトの前記表示部品からの押出方向に応じて前記仮想地面を特定する、
請求項2に記載の情報処理装置。
The specific unit is
The virtual ground is specified according to the push-out direction from the display component of the determination object which is a size corresponding to the size of the object and moves overlapping with the object,
The information processing apparatus according to claim 2.
前記動作制御部は、
決定した前記次のアクションに基づき前記オブジェクトを動作させた後の前記判定オブジェクトの位置を補正し、
前記特定部は、
補正した前記判定オブジェクトの前記表示部品からの押出方向に応じて前記仮想地面を特定する、
請求項3に記載の情報処理装置。
The operation control unit,
Correct the position of the determination object after operating the object based on the determined next action,
The specific unit is
The virtual ground is specified according to the pushing direction from the display component of the corrected determination object,
The information processing apparatus according to claim 3.
前記決定部は、
特定した前記仮想地面の角度に基づき、前記オブジェクトの次のアクションを決定する、
請求項1〜4のいずれか一項に記載の情報処理装置。
The determining unit is
Determining the next action of the object based on the identified angle of the virtual ground,
The information processing device according to claim 1.
前記決定部は、
特定した前記仮想地面の角度が所定の角度未満である場合、前記オブジェクトの次のアクションを前記オブジェクトの直前の動作と同じ動作に決定する、
請求項1〜5のいずれか一項に記載の情報処理装置。
The determining unit is
If the specified angle of the virtual ground is less than a predetermined angle, the next action of the object is determined to be the same action as the previous action of the object,
The information processing device according to claim 1.
前記決定部は、
特定した前記仮想地面の角度が所定の角度以上である場合、前記オブジェクトの次のアクションを前記オブジェクトの直前の動作と異なる動作に決定する、
請求項1〜6のいずれか一項に記載の情報処理装置。
The determining unit is
If the specified angle of the virtual ground is greater than or equal to a predetermined angle, the next action of the object is determined to be a different action from the action immediately before the object,
The information processing apparatus according to claim 1.
前記決定部は、
前記仮想地面が特定されなかった場合、前記オブジェクトの次のアクションを、前記オブジェクトの直前の動作と異なる動作に決定する、
請求項1〜7のいずれか一項に記載の情報処理装置。
The determining unit is
If the virtual ground is not specified, the next action of the object is determined to be different from the previous action of the object,
The information processing device according to claim 1.
前記特定部は、フレーム毎に前記仮想地面を特定する、
請求項1〜8のいずれか一項に記載の情報処理装置。
The specifying unit specifies the virtual ground for each frame,
The information processing device according to claim 1.
ゲーム画面に表示されているオブジェクトの下の仮想地面を特定し、
特定した前記仮想地面の情報に基づき、前記オブジェクトの次のアクションを決定し、
決定した前記次のアクションに基づき、前記ゲーム画面に表示するオブジェクトの動作を制御する、
処理をコンピュータが実行するゲーム処理方法。
Identify the virtual ground below the object displayed on the game screen,
Based on the information of the identified virtual ground, determine the next action of the object,
Based on the determined next action, control the operation of the object displayed on the game screen,
A game processing method in which a computer executes the processing.
ゲーム画面に表示されているオブジェクトの下の仮想地面を特定し、
特定した前記仮想地面の情報に基づき、前記オブジェクトの次のアクションを決定し、
決定した前記次のアクションに基づき、前記ゲーム画面に表示するオブジェクトの動作を制御する、
処理をコンピュータに実行させるゲーム処理プログラム。
Identify the virtual ground below the object displayed on the game screen,
Based on the information of the identified virtual ground, determine the next action of the object,
Based on the determined next action, control the operation of the object displayed on the game screen,
A game processing program that causes a computer to execute processing.
JP2019021049A 2019-02-07 2019-02-07 Information processing device, game processing method and game processing program Active JP7290426B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021049A JP7290426B2 (en) 2019-02-07 2019-02-07 Information processing device, game processing method and game processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021049A JP7290426B2 (en) 2019-02-07 2019-02-07 Information processing device, game processing method and game processing program

Publications (2)

Publication Number Publication Date
JP2020127589A true JP2020127589A (en) 2020-08-27
JP7290426B2 JP7290426B2 (en) 2023-06-13

Family

ID=72175131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021049A Active JP7290426B2 (en) 2019-02-07 2019-02-07 Information processing device, game processing method and game processing program

Country Status (1)

Country Link
JP (1) JP7290426B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244046A (en) * 2005-03-02 2006-09-14 Nintendo Co Ltd Collision determining program and collision determining device
JP2010273946A (en) * 2009-05-29 2010-12-09 Nintendo Co Ltd Game program and game apparatus
JP2017217334A (en) * 2016-06-10 2017-12-14 任天堂株式会社 Game device, game control method and game program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244046A (en) * 2005-03-02 2006-09-14 Nintendo Co Ltd Collision determining program and collision determining device
JP2010273946A (en) * 2009-05-29 2010-12-09 Nintendo Co Ltd Game program and game apparatus
JP2017217334A (en) * 2016-06-10 2017-12-14 任天堂株式会社 Game device, game control method and game program

Also Published As

Publication number Publication date
JP7290426B2 (en) 2023-06-13

Similar Documents

Publication Publication Date Title
US9427663B2 (en) Touch-controlled game character motion providing dynamically-positioned virtual control pad
JP3770499B1 (en) GAME DEVICE AND GAME PROGRAM
US8094153B2 (en) Game apparatus, storage medium storing a game program, and game controlling method
JP4741909B2 (en) GAME DEVICE AND GAME PROGRAM
US8016671B2 (en) Game apparatus and storage medium storing game program
JP3813945B2 (en) GAME DEVICE AND GAME PROGRAM
US20220219073A1 (en) Program, control method, and information processing apparatus
US10232262B2 (en) Information processing apparatus, motion control method, and non-transitory computer-readable recording medium
US20070111804A1 (en) Storage medium storing a game program, game apparatus and game controlling method
JP2006314705A (en) Game program and game device
JP2007102504A (en) Image generation device and method, program and recording medium
JP4788950B2 (en) Image processing program, image processing method, and image processing apparatus
US20070197287A1 (en) Storage medium storing game program and game apparatus
JP5489195B2 (en) Video game program and video game apparatus
US20190209922A1 (en) Non-transitory computer readable storage medium storing image processing program, image processing method, and image processing device
JP7290426B2 (en) Information processing device, game processing method and game processing program
EP1854520B1 (en) Game program and game apparatus
US20070197286A1 (en) Storage medium storing game program and game apparatus
JP6301813B2 (en) GAME PROGRAM AND GAME DEVICE
JP4143590B2 (en) 3D image processing apparatus, game apparatus, 3D image processing program, and game program
JPH11309273A (en) Game device, game treating method and storage medium
JP2005027921A (en) Game device and game program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20230412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230601

R150 Certificate of patent or registration of utility model

Ref document number: 7290426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150