JP2017055910A - Information processing device, posture motion control method, and posture control program - Google Patents

Information processing device, posture motion control method, and posture control program Download PDF

Info

Publication number
JP2017055910A
JP2017055910A JP2015182036A JP2015182036A JP2017055910A JP 2017055910 A JP2017055910 A JP 2017055910A JP 2015182036 A JP2015182036 A JP 2015182036A JP 2015182036 A JP2015182036 A JP 2015182036A JP 2017055910 A JP2017055910 A JP 2017055910A
Authority
JP
Japan
Prior art keywords
posture
information processing
large object
motion
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015182036A
Other languages
Japanese (ja)
Other versions
JP6755647B2 (en
Inventor
幸太郎 平田
Kotaro Hirata
幸太郎 平田
健雄 藤崎
Takeo Fujisaki
健雄 藤崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2015182036A priority Critical patent/JP6755647B2/en
Publication of JP2017055910A publication Critical patent/JP2017055910A/en
Application granted granted Critical
Publication of JP6755647B2 publication Critical patent/JP6755647B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device that displays an object including a position of a target according to a posture of the object in a virtual space.SOLUTION: An information processing device includes a motion control part 15 for controlling a motion of a character and an object in a virtual space, a determination part 12 for determining whether or not the motion is a specific motion of the character with respect to a specific region of the object, a posture detection part 14 for detecting a change in the posture of the object according to the result of the determination, and a display part 18 for displaying the object according to the detected change in the posture of the object.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、姿勢動作制御方法及び姿勢制御プログラムに関する。   The present invention relates to an information processing apparatus, a posture motion control method, and a posture control program.

仮想空間にてオブジェクトを狙ったシューティングゲームにおいてズーム処理を行う技術が知られている(例えば、特許文献1参照)。例えば、特許文献1では、あるズーム条件が満たされた場合にターゲットのオブジェクトを中心としたズーム処理を行い、オブジェクトの拡大画像を表示させ、かつ、当該ズーム処理中に銃型コントローラによる模擬シューティングに成功した場合の効果の大きさを変動させる演出を行う。これにより、模擬ガンのシューティングゲームにおいてズーム機能を利用してゲーム中の攻防の駆け引きを楽しむことができる。   A technique for performing zoom processing in a shooting game aimed at an object in a virtual space is known (see, for example, Patent Document 1). For example, in Patent Document 1, when a certain zoom condition is satisfied, zoom processing is performed with a target object as the center, an enlarged image of the object is displayed, and simulated shooting by a gun-type controller is performed during the zoom processing. An effect is made to vary the magnitude of the effect when successful. Thus, in the simulated gun shooting game, it is possible to enjoy the game of offense and defense during the game using the zoom function.

特開2008−93307号公報JP 2008-93307 A

しかしながら、ターゲットのオブジェクトが大型の場合、仮想空間においてシューティング可能な距離に大型オブジェクトを表示すると、大型オブジェクトの全体を画面に表示することが困難な場合がある。この場合、大型オブジェクトのターゲット位置が表示されないことがある。   However, when the target object is large, if the large object is displayed at a distance that allows shooting in the virtual space, it may be difficult to display the entire large object on the screen. In this case, the target position of the large object may not be displayed.

そこで、一側面では、本発明は、仮想空間においてオブジェクトの姿勢に応じてターゲットの位置を含むオブジェクトを表示することを目的とする。   Therefore, in one aspect, an object of the present invention is to display an object including the position of a target according to the posture of the object in a virtual space.

一つの案では、仮想空間にてキャラクタ及びオブジェクトの動作を制御する動作制御部と、前記オブジェクトの特定の部位に対する前記キャラクタの特定の動作か否かを判定する判定部と、前記判定の結果に応じて前記オブジェクトの姿勢の変化を検出する姿勢検出部と、検出した前記オブジェクトの姿勢の変化に応じて前記オブジェクトを表示する表示部と、を有する、情報処理装置が提供される。   In one proposal, a motion control unit that controls the motion of the character and the object in the virtual space, a determination unit that determines whether or not the specific motion of the character with respect to a specific part of the object, and a result of the determination Accordingly, an information processing apparatus is provided that includes a posture detection unit that detects a change in the posture of the object, and a display unit that displays the object according to the detected change in the posture of the object.

一側面によれば、仮想空間においてオブジェクトの姿勢に応じてターゲットの位置を含むオブジェクトを表示することができる。   According to one aspect, an object including the position of a target can be displayed according to the posture of the object in the virtual space.

一実施形態にかかる情報処理装置の機能構成の一例を示す図。The figure which shows an example of a function structure of the information processing apparatus concerning one Embodiment. 一実施形態にかかる情報処理装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the information processing apparatus concerning one Embodiment. 一実施形態にかかる姿勢動作制御処理の一例を示すフローチャート。The flowchart which shows an example of the attitude | position movement control process concerning one Embodiment. 一実施形態にかかるキャラクタとオブジェクトの画面の一例を示す図。The figure which shows an example of the screen of the character and object concerning one Embodiment. 一実施形態にかかるキャラクタとオブジェクトの画面の一例を示す図。The figure which shows an example of the screen of the character and object concerning one Embodiment. 一実施形態にかかるキャラクタとオブジェクトの画面の一例を示す図。The figure which shows an example of the screen of the character and object concerning one Embodiment.

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[情報処理装置の機能構成]
まず、本発明の一実施形態に係る情報処理装置10の機能構成の一例について、図1を参照しながら説明する。本実施形態に係る情報処理装置10は、パーソナルコンピュータ、タブレット型機器、ゲーム機器、スマートフォン等のいずれの電子機器であってもよい。
[Functional configuration of information processing device]
First, an example of a functional configuration of the information processing apparatus 10 according to an embodiment of the present invention will be described with reference to FIG. The information processing apparatus 10 according to the present embodiment may be any electronic device such as a personal computer, a tablet device, a game device, and a smartphone.

情報処理装置10は、入力部11、判定部12、記録部13、姿勢検出部14、動作制御部15、グラフィック処理部16、サウンド処理部17、表示部18及び音出力部19を有する。   The information processing apparatus 10 includes an input unit 11, a determination unit 12, a recording unit 13, a posture detection unit 14, an operation control unit 15, a graphic processing unit 16, a sound processing unit 17, a display unit 18, and a sound output unit 19.

入力部11は、コントローラ等の入力装置からの入力情報を受け付ける。判定部12は、オブジェクトのターゲット位置又は特定の部位に対するキャラクタの特定の動作か否かを判定する。本実施形態では、判定部12は、プレイヤーキャラクタPCやノンプレイヤーキャラクタNPC等のキャラクタの動作に応じてオブジェクトの特定の部位を破損したか否か等を判定する。なお、本実施形態では、ノンプレイヤーキャラクタNPC及びプレイヤーキャラクタPCを総称して「キャラクタ」という。   The input unit 11 receives input information from an input device such as a controller. The determination unit 12 determines whether or not the character is a specific action with respect to the target position of the object or a specific part. In the present embodiment, the determination unit 12 determines whether or not a specific part of the object is damaged according to the action of a character such as the player character PC or the non-player character NPC. In the present embodiment, the non-player character NPC and the player character PC are collectively referred to as “characters”.

記録部13は、各種データ及ぶ各種プログラムを記録する。各種プログラムには、動作制御プログラム30及び姿勢制御プログラム31が含まれる。動作制御プログラム30は、キャラクタ及びオブジェクトの動作を制御するためのプログラムである。姿勢制御プログラム31は、オブジェクトの姿勢の変化を制御するためのプログラムである。これらのプログラムは、遊技者の所定の操作に応じて又は自動的に実行される。   The recording unit 13 records various data and various programs. The various programs include an operation control program 30 and an attitude control program 31. The motion control program 30 is a program for controlling the motion of characters and objects. The posture control program 31 is a program for controlling a change in the posture of the object. These programs are executed according to a predetermined operation of the player or automatically.

姿勢検出部14は、判定部12が行う判定の結果に応じてオブジェクトの姿勢の変化を検出する。具体的には、姿勢検出部14は、オブジェクトのターゲット位置又は特定の部位が破損されたと判定された場合、ターゲット位置又は特定の部位に応じたオブジェクトの姿勢の変化を検出する。   The posture detection unit 14 detects a change in the posture of the object according to the result of the determination performed by the determination unit 12. Specifically, the posture detection unit 14 detects a change in the posture of the object according to the target position or the specific part when it is determined that the target position or the specific part of the object is damaged.

動作制御部15は、仮想空間におけるキャラクタ及びオブジェクトの動作を制御する。なお、本実施形態では、プレイヤーキャラクタPCの動作を主に制御するが、動作制御部15は、ノンプレイヤーキャラクタNPCの動作や仮想空間において動作可能なすべてのオブジェクトの動作を制御する。   The motion control unit 15 controls the motion of characters and objects in the virtual space. In the present embodiment, the movement of the player character PC is mainly controlled, but the movement control unit 15 controls the movement of the non-player character NPC and the movement of all objects that can move in the virtual space.

グラフィック処理部16は、表示部18に接続されている。動作制御部15から描画命令が出力されると、グラフィック処理部16は、表示部18に画像を表示するビデオ信号を出力する。これにより、表示部18は、プレイヤーキャラクタPCとオブジェクトObとを表示する。表示部18は、プレイヤーキャラクタPCとオブジェクトObと背景とを表示してもよい。表示部18は、姿勢検出部14が検出したオブジェクトObの姿勢の変化に応じてオブジェクトObを表示する。   The graphic processing unit 16 is connected to the display unit 18. When a drawing command is output from the operation control unit 15, the graphic processing unit 16 outputs a video signal for displaying an image on the display unit 18. Thereby, the display unit 18 displays the player character PC and the object Ob. The display unit 18 may display the player character PC, the object Ob, and the background. The display unit 18 displays the object Ob according to the change in the posture of the object Ob detected by the posture detection unit 14.

なお、」グラフィック処理部16から出力されるビデオ信号に含まれる画像の1フレーム時間は、例えば30分の1秒である。グラフィック処理部16は、フレーム単位(すなわち、30分の1秒単位)で1枚の画像の描画を実行する。   Note that one frame time of the image included in the video signal output from the graphic processing unit 16 is, for example, 1/30 second. The graphic processing unit 16 performs drawing of one image in units of frames (that is, in units of 1/30 second).

サウンド処理部17は、音出力部19に接続されている。グラフィック処理部16からサウンド出力の指示命令が出力されると、音出力部19は、スピーカー20にサウンド信号を出力する。これにより、プレイヤーキャラクタPC及びオブジェクトObの状況に応じたサウンドが出力される。   The sound processing unit 17 is connected to the sound output unit 19. When a sound output instruction command is output from the graphic processing unit 16, the sound output unit 19 outputs a sound signal to the speaker 20. Thereby, a sound corresponding to the situation of the player character PC and the object Ob is output.

[情報処理装置のハードウェア構成]
次に、本発明の一実施形態に係る情報処理装置10のハードウェア構成の一例について、図2を参照しながら説明する。本実施形態に係る情報処理装置10は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)23及びHDD(Hard Disk Drive)24を有している。また、本実施形態に係る情報処理装置10は、グラフィックカード25、外部I/F(インターフェース)26、通信I/F27、入力I/F28、ディスプレイ29及びスピーカー20を有している。各部は、それぞれがバスで相互に接続されている。
[Hardware configuration of information processing device]
Next, an example of the hardware configuration of the information processing apparatus 10 according to an embodiment of the present invention will be described with reference to FIG. The information processing apparatus 10 according to the present embodiment includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, and an HDD (Hard Disk Drive) 24. The information processing apparatus 10 according to the present embodiment includes a graphic card 25, an external I / F (interface) 26, a communication I / F 27, an input I / F 28, a display 29, and a speaker 20. Each part is mutually connected by a bus.

ROM22は、電源を切っても内部データを保持することができる不揮発性の半導体メモリである。ROM22には、プログラム及びデータが格納されている。RAM23は、プログラムやデータを一時保持する揮発性の半導体メモリである。   The ROM 22 is a nonvolatile semiconductor memory that can retain internal data even when the power is turned off. The ROM 22 stores programs and data. The RAM 23 is a volatile semiconductor memory that temporarily stores programs and data.

HDD24は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムには、情報処理装置10の全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。HDD24には、各種のデータベースが格納されてもよい。本実施形態では、HDD24には、動作制御プログラム30及び姿勢制御プログラム31等の各種プログラムが格納される。   The HDD 24 is a non-volatile storage device that stores programs and data. The stored programs include basic software and application software that control the entire information processing apparatus 10. Various databases may be stored in the HDD 24. In the present embodiment, the HDD 24 stores various programs such as the operation control program 30 and the attitude control program 31.

CPU21は、ROM22やHDD24からプログラムやデータをRAM23上に読み出し、上記各種処理を実行することで、情報処理装置10の全体の制御や情報処理装置10に搭載された機能を実現する。具体的には、図1に示す判定部12、姿勢検出部14及び動作制御部15の機能は、情報処理装置10にインストールされた動作制御プログラム30及び姿勢制御プログラム31がCPU21に実行させる処理により実現される。   The CPU 21 implements overall control of the information processing apparatus 10 and functions installed in the information processing apparatus 10 by reading programs and data from the ROM 22 and the HDD 24 onto the RAM 23 and executing the various processes described above. Specifically, the functions of the determination unit 12, the posture detection unit 14, and the motion control unit 15 illustrated in FIG. 1 are performed by processing executed by the CPU 21 by the motion control program 30 and the posture control program 31 installed in the information processing apparatus 10. Realized.

外部I/F26は、情報処理装置10を外部装置に接続するインターフェースである。外部装置には、記録媒体26aなどがある。これにより、情報処理装置10は、外部I/F26を介して記録媒体26aの読み取り及び書き込みを行うことができる。記録媒体26aの一例としては、CD(Compact Disk)、DVD(Digital Versatile Disk)、SDメモリカード(SD Memory card)又はUSBメモリ(Universal Serial Bus memory)等が挙げられる。   The external I / F 26 is an interface that connects the information processing apparatus 10 to an external apparatus. The external device includes a recording medium 26a. Thereby, the information processing apparatus 10 can read and write the recording medium 26 a via the external I / F 26. Examples of the recording medium 26a include a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card (SD Memory card), or a USB memory (Universal Serial Bus memory).

例えば、情報処理装置10には、動作制御プログラム30及び姿勢制御プログラム31等のゲームプログラムが格納された記録媒体26aを装着することが可能である。これらのプログラムは、外部I/F26により読み出されて、RAM23に読み込まれる。   For example, the information processing apparatus 10 can be loaded with a recording medium 26 a in which game programs such as the operation control program 30 and the attitude control program 31 are stored. These programs are read by the external I / F 26 and read into the RAM 23.

CPU21は、RAM23にロードされた上記の各種プログラムを処理し、グラフィックカード25にゲームの進行に応じた画像の出力を指示する。グラフィックカード25は、指示に従い画面に表示するゲーム場面に応じた画像処理を行い、ディスプレイ29にプレイヤーキャラクタPCの画像、ノンプレイヤーキャラクタNPCの画像、オブジェクトObの画像及び背景の画像を描画させる。これにより、グラフィック処理部16及び表示部18の機能が実行される。   The CPU 21 processes the various programs loaded in the RAM 23 and instructs the graphic card 25 to output an image according to the progress of the game. The graphic card 25 performs image processing according to the game scene displayed on the screen according to the instruction, and causes the display 29 to draw the image of the player character PC, the image of the non-player character NPC, the image of the object Ob, and the background image. Thereby, the functions of the graphic processing unit 16 and the display unit 18 are executed.

グラフィックカード25から出力される画像の一フレーム時間は、例えば1/30〜1/60秒である。グラフィックカード25は、フレーム単位で1枚の画像の描画を実行する。すなわち、一秒間に30回〜60回のフレームの画像が描画される。   One frame time of an image output from the graphic card 25 is, for example, 1/30 to 1/60 seconds. The graphic card 25 executes drawing of one image for each frame. That is, an image of 30 to 60 frames per second is drawn.

また、CPU21は、RAM23に読み込まれた上記の各種プログラムを処理し、ゲームの進行に応じてスピーカー20から所定の音を出力させる。これにより、サウンド処理部17及び音出力部19の機能が実現される。   Further, the CPU 21 processes the various programs read into the RAM 23 and outputs predetermined sounds from the speaker 20 as the game progresses. Thereby, the functions of the sound processing unit 17 and the sound output unit 19 are realized.

ディスプレイ29はタッチパネル式としても良い。これにより、コントローラ1を用いずに入力操作を行うことができる。この場合、タッチパネルにより検出されたタッチ位置の入力情報は、RAM23に格納され、CPU21はRAM23に格納された入力情報をもとに各種の演算処理を実行する。   The display 29 may be a touch panel type. Thereby, an input operation can be performed without using the controller 1. In this case, the input information of the touch position detected by the touch panel is stored in the RAM 23, and the CPU 21 executes various arithmetic processes based on the input information stored in the RAM 23.

通信I/F27は、情報処理装置10をネットワークに接続するインターフェースである。また、通信I/F27は、アンテナを有する通信ユニットを介して、他のゲーム機器と無線により通信を行う機能を有していてもよい。   The communication I / F 27 is an interface that connects the information processing apparatus 10 to a network. In addition, the communication I / F 27 may have a function of performing wireless communication with other game devices via a communication unit having an antenna.

入力I/F28は、コントローラ1に接続するインターフェースである。コントローラ1は、操作ボタン2及び方向キー3を有する。遊技者は、操作ボタン2を操作することでプレイヤーキャラクタPCにオブジェクトObに対する攻撃等の所定の動作を行わせることができる。また、遊技者は、方向キー3を操作することでプレイヤーキャラクタPCを所定の方向に移動させることができる。入力I/F28は、遊技者がコントローラ1を用いて行った入力操作に基づく入力情報をRAM23に格納させる。これにより、入力部11の機能が実行される。   The input I / F 28 is an interface connected to the controller 1. The controller 1 has an operation button 2 and a direction key 3. The player can cause the player character PC to perform a predetermined action such as an attack on the object Ob by operating the operation button 2. Further, the player can move the player character PC in a predetermined direction by operating the direction key 3. The input I / F 28 causes the RAM 23 to store input information based on an input operation performed by the player using the controller 1. Thereby, the function of the input unit 11 is executed.

CPU21は、RAM23に格納された入力情報に基づきプレイヤーキャラクタPCの動作等の各種の演算処理を実行する。また、入力I/F28は、CPU21からの指示に従いRAM23に記憶されているゲームの進行状況を示すデータをメモリカード28aに保存させ、メモリカード28aに保存されている中断時のゲームのデータを読み出してRAM23に転送する処理を行う。   The CPU 21 executes various arithmetic processes such as the action of the player character PC based on the input information stored in the RAM 23. The input I / F 28 stores data indicating the progress of the game stored in the RAM 23 in the memory card 28a in accordance with an instruction from the CPU 21, and reads out the game data at the time of interruption stored in the memory card 28a. The process of transferring to the RAM 23 is performed.

[姿勢制御処理]
次に、本実施形態に係る姿勢制御処理の一例について図3を参照して説明する。図3は、一実施形態にかかる姿勢制御処理の一例を示すフローチャートである。プレイヤーキャラクタPCの動作及びオブジェクトObの動作は、CPU21が、動作制御プログラム30を実行することで、入力操作に応じて仮想空間にて描画される。本実施形態に係る姿勢制御処理は、このゲーム進行中にプレイヤーキャラクタPCの動作及びオブジェクトObの動作に応じて適宜実行される。
[Attitude control processing]
Next, an example of the attitude control process according to the present embodiment will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of the attitude control process according to the embodiment. The action of the player character PC and the action of the object Ob are drawn in the virtual space according to the input operation by the CPU 21 executing the action control program 30. The posture control process according to the present embodiment is appropriately executed according to the action of the player character PC and the action of the object Ob during the progress of the game.

以上に説明したオブジェクトObのうち、以下では、大型オブジェクトOBがプレイヤーキャラクタPCのターゲットとなる。本実施形態では、大型オブジェクトOBは、仮想空間にてプレイヤーキャラクタPCから攻撃等の所定の動作が可能な距離に表示すると、オブジェクト全体を画面に表示することができない大きさのオブジェクトをいう。   Among the objects Ob described above, the large object OB is the target of the player character PC below. In the present embodiment, the large object OB refers to an object having a size in which the entire object cannot be displayed on the screen when displayed at a distance that allows a predetermined action such as an attack from the player character PC in the virtual space.

本処理が開始されると、表示部18は、プレイヤーキャラクタPC及び大型オブジェクトOBを表示する(ステップS10)。次に、判定部12は、大型オブジェクトOBがプレイヤーキャラクタPCから攻撃可能な距離にあるかを判定する(ステップS12)。   When this process is started, the display unit 18 displays the player character PC and the large object OB (step S10). Next, the determination unit 12 determines whether the large object OB is at an attackable distance from the player character PC (step S12).

例えば、判定部12は、図4(a)に示すプレイヤーキャラクタPCと大型オブジェクトOBとの距離P1が大型オブジェクトOBを攻撃可能な距離でないと判定した場合、動作制御部15は、遊技者の入力操作に応じてプレイヤーキャラクタPCと大型オブジェクトOBとの通常の動作を制御する(ステップS32)。そして、遊技者の入力操作に応じて動作するプレイヤーキャラクタPC及び大型オブジェクトOBを表示する処理に戻る(ステップS10)。   For example, when the determination unit 12 determines that the distance P1 between the player character PC and the large object OB illustrated in FIG. 4A is not a distance at which the large object OB can be attacked, the motion control unit 15 inputs the player The normal movement between the player character PC and the large object OB is controlled according to the operation (step S32). And it returns to the process which displays the player character PC and large object OB which operate | move according to a player's input operation (step S10).

これにより、判定部12は、図4(b)に示すプレイヤーキャラクタPCと大型オブジェクトOBとの距離P2が、大型オブジェクトOBを攻撃可能な距離であると判定した場合、大型オブジェクトOBのターゲット位置にマーカーを表示することが可能かを判定する(ステップS14)。   Accordingly, when the determination unit 12 determines that the distance P2 between the player character PC and the large object OB illustrated in FIG. 4B is a distance at which the large object OB can be attacked, the determination unit 12 sets the target position of the large object OB. It is determined whether a marker can be displayed (step S14).

ここで、大型オブジェクトOBのターゲット位置とは、大型オブジェクトOB毎に定められた最終目標となる位置である。本実施形態では大型オブジェクトOBの頭頂部をターゲット位置とする。ただし、大型オブジェクトOBのターゲット位置はこれに限らず、例えば、大型オブジェクトOBの顔、目、鼻、うなじ、後頭部等であってもよい。   Here, the target position of the large object OB is a position that is a final target determined for each large object OB. In this embodiment, the top of the large object OB is the target position. However, the target position of the large object OB is not limited to this, and may be, for example, the face, eyes, nose, nape, back of the large object OB, and the like.

図4(a)では、大型オブジェクトOBの頭頂部がディスプレイ内に表示されていない。よって、判定部12は、大型オブジェクトOBのターゲット位置にマーカーを表示することは不可能と判定し、大型オブジェクトOBの特定の部位にマーカーを表示することが可能かを判定する(ステップS20)。大型オブジェクトOBの特定の部位とは、大型オブジェクトOBの姿勢を変化させることが可能な部位をいう。本実施形態では大型オブジェクトOBの膝及び肘が特定の位置である。しかしながら、大型オブジェクトOBの特定の位置はこれに限らず、例えば、股下、足首等であってもよい。   In FIG. 4A, the top of the large object OB is not displayed in the display. Therefore, the determination unit 12 determines that it is impossible to display a marker at the target position of the large object OB, and determines whether the marker can be displayed at a specific part of the large object OB (step S20). The specific part of the large object OB refers to a part capable of changing the posture of the large object OB. In the present embodiment, the knee and elbow of the large object OB are at specific positions. However, the specific position of the large object OB is not limited to this, and may be, for example, an inseam, an ankle, or the like.

ステップS20において、判定部12が、大型オブジェクトOBの特定の部位のマーカー表示が不可能であると判定すると、動作制御部15は、遊技者の入力操作に応じてプレイヤーキャラクタPCと大型オブジェクトOBとの動作を制御する(ステップS32)。そして、遊技者の入力操作に応じて動作するプレイヤーキャラクタPC及び大型オブジェクトOBを表示する処理に戻る(ステップS10)。   In step S20, when the determination unit 12 determines that marker display of a specific part of the large object OB is impossible, the motion control unit 15 determines the player character PC and the large object OB according to the player's input operation. Is controlled (step S32). And it returns to the process which displays the player character PC and large object OB which operate | move according to a player's input operation (step S10).

他方、ステップS20において、判定部12が、大型オブジェクトOBの特定の部位のマーカー表示が可能であると判定すると、表示部18は、大型オブジェクトOBの特定の部位のマーカーを表示する(ステップS22)。これにより、図4(b)に示すように、大型オブジェクトOBの特定の部位にマーカーMyが表示される。マーカーMyの表示形態(色、形、線種、点滅の有無等)は、図4(b)に示す例に限らず自由に定めることができる。   On the other hand, when the determination unit 12 determines in step S20 that the marker of the specific part of the large object OB can be displayed, the display unit 18 displays the marker of the specific part of the large object OB (step S22). . Thereby, as shown in FIG.4 (b), marker My is displayed on the specific site | part of large object OB. The display form (color, shape, line type, presence / absence of blinking, etc.) of the marker My is not limited to the example shown in FIG.

次に、判定部12は、プレイヤーキャラクタPCの動作により特定の部位への攻撃に成功したかを判定する(ステップS24)。判定部12が特定の部位への攻撃に成功しなかったと判定した場合、動作制御部15は、遊技者の入力操作に応じてプレイヤーキャラクタPCと大型オブジェクトOBとの動作を制御する(ステップS32)。そして、遊技者の入力操作に応じて動作するプレイヤーキャラクタPC及び大型オブジェクトOBを表示する処理に戻る(ステップS10)。   Next, the determination part 12 determines whether the attack to the specific part was successful by operation | movement of player character PC (step S24). When the determination unit 12 determines that the attack to the specific part has not been successful, the motion control unit 15 controls the motion of the player character PC and the large object OB according to the player's input operation (step S32). . And it returns to the process which displays the player character PC and large object OB which operate | move according to a player's input operation (step S10).

他方、判定部12は、特定の部位への攻撃に成功したと判定した場合、特定の部位を破損したかを判定する(ステップS26)。判定部12が特定の部位を破損しなかったと判定した場合、動作制御部15は、遊技者の入力操作に応じてプレイヤーキャラクタPCと大型オブジェクトOBとの動作を制御する(ステップS32)。そして、遊技者の入力操作に応じて動作するプレイヤーキャラクタPC及び大型オブジェクトOBを表示する処理に戻る(ステップS10)。   On the other hand, when it determines with the determination part 12 having succeeded in the attack to a specific site | part, it determines whether the specific site | part was damaged (step S26). When the determination unit 12 determines that the specific part has not been damaged, the motion control unit 15 controls the motion of the player character PC and the large object OB in accordance with the player's input operation (step S32). And it returns to the process which displays the player character PC and large object OB which operate | move according to a player's input operation (step S10).

他方、判定部12が特定の部位を破損したと判定した場合、姿勢検出部14は、大型オブジェクトOBの姿勢の変化を検出する(ステップS28)。例えば、図5(a)にてプレイヤーキャラクタPCの攻撃により、大型オブジェクトOBの特定の部位の一例として膝Myを破損した場合、図5(b)に示すように、大型オブジェクトOBの姿勢が変化する。このとき、姿勢検出部14は、大型オブジェクトOBの姿勢が立っている状態から膝をついた状態に変化したことを検出する。   On the other hand, when the determination unit 12 determines that the specific part is damaged, the posture detection unit 14 detects a change in the posture of the large object OB (step S28). For example, when the knee My is damaged as an example of a specific part of the large object OB by the attack of the player character PC in FIG. 5A, the posture of the large object OB changes as shown in FIG. 5B. To do. At this time, the posture detection unit 14 detects that the posture of the large object OB has changed from the state in which the large object OB is standing to the state in which the knee is attached.

次に、動作制御部15は、姿勢の変化に応じて、プレイヤーキャラクタPC及び大型オブジェクトOBの動作を制御し(ステップS30)、ステップS10に戻ってステップS10、ステップS12、ステップS14の処理を行う。   Next, the motion control unit 15 controls the motion of the player character PC and the large object OB in accordance with the change in posture (step S30), returns to step S10, and performs the processes of steps S10, S12, and S14. .

ステップS14において、判定部12が、大型オブジェクトOBのターゲット位置にマーカーを表示することが不可能と判定した場合、図4(b)のターゲット位置を示すマーカーMrは表示されず、大型オブジェクトOBの特定の部位の一例である肘にマーカーMyが表示される。このとき、プレイヤーキャラクタPCの攻撃により、マーカーMyにて特定される肘を破損した場合、図6(a)に示すように、さらに大型オブジェクトOBの姿勢が変化する。   If the determination unit 12 determines in step S14 that it is impossible to display a marker at the target position of the large object OB, the marker Mr indicating the target position in FIG. A marker My is displayed on the elbow which is an example of a specific part. At this time, when the elbow specified by the marker My is damaged by the attack of the player character PC, the posture of the large object OB further changes as shown in FIG.

図5(b)のプレイヤーキャラクタPCと大型オブジェクトOBの頭頂部との距離P3又は図6(a)のプレイヤーキャラクタPCと大型オブジェクトOBの頭頂部との距離P4が攻撃可能な距離である場合であって、ステップS14において、大型オブジェクトOBのターゲット位置にマーカーを表示することが可能であると判定されると、表示部18は、ターゲット位置の一例である大型オブジェクトOBの頭頂部にターゲットのマーカーMrを表示する(ステップS16)。このとき、ターゲット位置に表示されるマーカーMrは、特定の部位に表示されるマーカーMyと同じでもよいし、色や形状などが異なっていてもよい。   When the distance P3 between the player character PC in FIG. 5B and the top of the large object OB or the distance P4 between the player character PC in FIG. 6A and the top of the large object OB is an attackable distance. If it is determined in step S14 that the marker can be displayed at the target position of the large object OB, the display unit 18 displays the target marker on the top of the large object OB, which is an example of the target position. Mr is displayed (step S16). At this time, the marker Mr displayed at the target position may be the same as the marker My displayed at a specific site, or may have a different color, shape, or the like.

次に、判定部12は、プレイヤーキャラクタPCによるターゲット位置への攻撃が成功したかを判定する(ステップS18)。大型オブジェクトOBのターゲット位置への攻撃が成功したと判定された場合、図6(b)に示すように攻撃後の画像が表示され、本処理を終了する。   Next, the determination unit 12 determines whether the attack to the target position by the player character PC is successful (step S18). When it is determined that the attack on the target position of the large object OB is successful, an image after the attack is displayed as shown in FIG. 6B, and this process is terminated.

他方、ターゲット位置への攻撃が成功しなかったと判定された場合、ステップS20に戻り、ステップS20以降の処理が繰り返される。   On the other hand, when it is determined that the attack on the target position has not been successful, the process returns to step S20, and the processes after step S20 are repeated.

なお、プレイヤーキャラクタPCが特定の部位やターゲット位置を攻撃する際、遊技者がコントローラ1の操作ボタン2を押すとマーカーMy又はマーカーMrの位置に向けてプレイヤーキャラクタPCから弾丸が放たれ、これにより、大型オブジェクトOBを攻撃することができる。   When the player character PC attacks a specific part or target position, when the player presses the operation button 2 of the controller 1, a bullet is released from the player character PC toward the position of the marker My or the marker Mr. The large object OB can be attacked.

以上に説明したように、本実施形態にかかる姿勢動作制御方法によれば、大型オブジェクトOBの特定の部位に対するプレイヤーキャラクタPCの攻撃の動作が行われたか否かを判定される。そして、判定の結果に応じて大型オブジェクトOBの姿勢の変化が検出され、検出された大型オブジェクトOBの姿勢の変化に応じて大型オブジェクトOBの表示を変化させることができる。   As described above, according to the posture motion control method according to the present embodiment, it is determined whether or not the player character PC has performed an attack motion against a specific part of the large object OB. Then, a change in the posture of the large object OB is detected according to the determination result, and the display of the large object OB can be changed according to the detected change in the posture of the large object OB.

これにより、検出された大型オブジェクトOBの姿勢の変化に応じて、該姿勢を変化させる前には表示されていなかった大型オブジェクトOBの部分を表示することができる。例えば、検出された大型オブジェクトOBの姿勢の変化に応じて、姿勢を変化させる前には表示されていなかった大型オブジェクトOBのターゲット位置を表示することができる。また、例えば、検出された大型オブジェクトOBの姿勢の変化に応じて、大型オブジェクトOBの大型オブジェクトOBの全体(ターゲット位置を含む)を表示することができる。   Thus, according to the detected change in the posture of the large object OB, the portion of the large object OB that has not been displayed before the posture is changed can be displayed. For example, according to the detected change in the posture of the large object OB, the target position of the large object OB that has not been displayed before the posture is changed can be displayed. Further, for example, the entire large object OB (including the target position) of the large object OB can be displayed in accordance with the detected change in the posture of the large object OB.

また、本実施形態では、プレイヤーキャラクタPCと大型オブジェクトOBとの相対距離に応じて大型オブジェクトOBのターゲット位置を表示するか否かが判定される。例えば、プレイヤーキャラクタPCの大型オブジェクトOBに対する相対距離が大型オブジェクトOBを攻撃可能な距離であって、大型オブジェクトOBが立っているときには大型オブジェクトOBの全体が表示できないためにターゲット位置を表示できない場合がある。その場合、プレイヤーキャラクタPCが大型オブジェクトOBの特定の部位を攻撃することによって、その部位が破損すると大型オブジェクトOBの姿勢が変化する。これに応じて、大型オブジェクトOBが立っているときには表示されない大型オブジェクトOBの頭頂部等のターゲットの位置を表示することができる。   In the present embodiment, whether or not to display the target position of the large object OB is determined according to the relative distance between the player character PC and the large object OB. For example, the relative position of the player character PC with respect to the large object OB is a distance at which the large object OB can be attacked. is there. In that case, if the player character PC attacks a specific part of the large object OB and the part is damaged, the posture of the large object OB changes. Accordingly, the position of the target such as the top of the large object OB that is not displayed when the large object OB is standing can be displayed.

なお、本実施形態では、プレイヤーキャラクタPCの攻撃により特定の部位が破損する場合について例を挙げて説明した。しかしながら、これに限らず、プレイヤーキャラクタPCの攻撃により特定の部位が折れ曲がる等の特定の部位に所定の作用が及ぼされればよい。   In the present embodiment, the case where a specific part is damaged by the attack of the player character PC has been described as an example. However, the present invention is not limited to this, and it is only necessary that a predetermined action is exerted on a specific part such as the specific part being bent by the attack of the player character PC.

また、本実施形態では、遊技者の入力操作に応じたプレイヤーキャラクタPCの攻撃としてターゲット位置又は特定の位置に対して銃から弾を放つ動作を例に挙げて説明した。しかしながら、これに限らず、プレイヤーキャラクタPCの攻撃としてターゲット位置又は特定の位置に向けて剣又は矢を放つ、拳で叩く等の動作が行われてもよい。   Further, in the present embodiment, the operation of releasing a bullet from a gun at a target position or a specific position as an attack of the player character PC according to the player's input operation has been described as an example. However, the present invention is not limited to this, and an action such as releasing a sword or an arrow toward a target position or a specific position or hitting with a fist may be performed as an attack of the player character PC.

また、例えば、遊技者の入力操作に応じて、ターゲット位置又は特定の位置に向けてプレイヤーキャラクタPCが持つワイヤーを射出してターゲット位置及び特定の部位にてワイヤーを固定する動作が行われてもよい。   In addition, for example, in response to an input operation by the player, even if an operation of injecting a wire of the player character PC toward the target position or a specific position and fixing the wire at the target position and the specific part is performed. Good.

また、ターゲット位置及び特定の部位に施される所定の作用は、プレイヤーキャラクタPCにより攻撃でなくてもよい。例えば、プレイヤーキャラクタPCの動作により、ターゲット位置及び特定の部位の傷が治る作用や、その他の何らかの作用であってもよい。   The predetermined action applied to the target position and the specific part may not be an attack by the player character PC. For example, the action of the target character and a specific part may be healed by the action of the player character PC, or some other action may be used.

大型オブジェクトOBのサイズは、表示される背景等に応じて固定にしてもよいし、可変にしてもよい。例えば、大型オブジェクトOBのサイズは、大型オブジェクトOBの動作スピードが速いときには動作スピードが遅いときよりも大きく表示してもよい。   The size of the large object OB may be fixed or variable depending on the background to be displayed. For example, the size of the large object OB may be displayed larger when the operation speed of the large object OB is fast than when the operation speed is slow.

以上、情報処理装置、姿勢動作制御方法及び姿勢制御プログラムを上記実施形態により説明したが、本発明にかかる情報処理装置、姿勢動作制御方法及び姿勢制御プログラムは上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。   As described above, the information processing device, the posture motion control method, and the posture control program have been described in the above embodiment. However, the information processing device, the posture motion control method, and the posture control program according to the present invention are not limited to the above embodiment. Various modifications and improvements are possible within the scope of the present invention. In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range.

例えば、本実施形態にかかる情報処理装置10が提供するゲームが3次元の仮想空間におけるゲームである場合、プレイヤーキャラクタPC及びオブジェクトOb(大型オブジェクトOBを含む)は、これに応じて3次元のオブジェクトとなる。本実施形態にかかる情報処理装置10が提供するゲームが2次元の仮想空間におけるゲームである場合、プレイヤーキャラクタPC及びオブジェクトObは、これに応じて2次元のオブジェクトとなる。   For example, when the game provided by the information processing apparatus 10 according to the present embodiment is a game in a three-dimensional virtual space, the player character PC and the object Ob (including the large object OB) correspond to the three-dimensional object. It becomes. When the game provided by the information processing apparatus 10 according to the present embodiment is a game in a two-dimensional virtual space, the player character PC and the object Ob become a two-dimensional object accordingly.

また、例えば、上記実施形態に係る情報処理装置10の構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば、情報処理装置10とディスプレイ29とが別体で構成されてもよい。情報処理装置10をTV装置に接続し、TV装置の画面をディスプレイ29として使用するシステム形態であってもよい。   Further, for example, the configuration of the information processing apparatus 10 according to the above-described embodiment is an example, and does not limit the scope of the present invention, and it goes without saying that there are various system configuration examples according to applications and purposes. For example, the information processing apparatus 10 and the display 29 may be configured separately. A system configuration in which the information processing apparatus 10 is connected to a TV apparatus and the screen of the TV apparatus is used as the display 29 may be employed.

10:情報処理装置
11:入力部
12:判定部
13:記録部
14:姿勢検出部
15:動作制御部
16:グラフィック処理部
17:サウンド処理部
18:表示部
19:音出力部
20:スピーカー
21:CPU
22:ROM
23:RAM
24:HDD
25:グラフィックカード
26:外部I/F
26a:記録媒体
27:通信I/F
28:入力I/F
28a:メモリカード
29:ディスプレイ
30:動作制御プログラム
31:姿勢制御プログラム
Ob:オブジェクト
My:特定の部位のマーカー表示
Mr:ターゲット位置のマーカー表示
PC:プレイヤーキャラクタ
10: Information processing device 11: Input unit 12: Determination unit 13: Recording unit 14: Attitude detection unit 15: Motion control unit 16: Graphic processing unit 17: Sound processing unit 18: Display unit 19: Sound output unit 20: Speaker 21 : CPU
22: ROM
23: RAM
24: HDD
25: Graphic card 26: External I / F
26a: Recording medium 27: Communication I / F
28: Input I / F
28a: Memory card 29: Display 30: Motion control program 31: Posture control program Ob: Object My: Marker display of specific part Mr: Marker display of target position PC: Player character

Claims (8)

仮想空間にてキャラクタ及びオブジェクトの動作を制御する動作制御部と、
前記オブジェクトの特定の部位に対する前記キャラクタの特定の動作か否かを判定する判定部と、
前記判定の結果に応じて前記オブジェクトの姿勢の変化を検出する姿勢検出部と、
検出した前記オブジェクトの姿勢の変化に応じて前記オブジェクトを表示する表示部と、
を有する、情報処理装置。
A motion control unit for controlling the motion of characters and objects in a virtual space;
A determination unit for determining whether or not the character has a specific action with respect to a specific part of the object;
A posture detection unit that detects a change in the posture of the object according to a result of the determination;
A display unit for displaying the object in accordance with the detected change in posture of the object;
An information processing apparatus.
前記表示部は、検出した前記オブジェクトの姿勢の変化に応じて、該姿勢を変化させる前には表示されていなかった前記オブジェクトの部分を表示する、
請求項1に記載の情報処理装置。
The display unit displays a portion of the object that has not been displayed before changing the posture according to the detected change in the posture of the object.
The information processing apparatus according to claim 1.
前記表示部は、検出した前記オブジェクトの姿勢の変化に応じて、前記オブジェクトの全体を表示する、
請求項1又は2に記載の情報処理装置。
The display unit displays the entire object according to the detected change in the posture of the object.
The information processing apparatus according to claim 1 or 2.
前記表示部は、検出した前記オブジェクトの姿勢の変化に応じて、前記オブジェクトのターゲットの位置を表示する、
請求項1〜3のいずれか一項に記載の情報処理装置。
The display unit displays the position of the target of the object according to the detected change in the posture of the object.
The information processing apparatus according to any one of claims 1 to 3.
前記表示部は、前記キャラクタと前記オブジェクトとの相対距離に応じて前記オブジェクトのターゲット位置を表示する、
請求項4に記載の情報処理装置。
The display unit displays a target position of the object according to a relative distance between the character and the object;
The information processing apparatus according to claim 4.
前記動作制御部は、表示した前記オブジェクトの前記ターゲット位置を目標にした動作を制御する、
請求項4又は5に記載の情報処理装置。
The motion control unit controls a motion targeting the target position of the displayed object.
The information processing apparatus according to claim 4 or 5.
仮想空間にてキャラクタ及びオブジェクトの動作を制御する処理をコンピュータが実行する姿勢動作制御方法であって、
仮想空間にてキャラクタ及びオブジェクトの動作を制御し、
前記オブジェクトの特定の部位に対する前記キャラクタの特定の動作か否かを判定し、
前記判定の結果に応じて前記オブジェクトの姿勢の変化を検出し、
検出した前記オブジェクトの姿勢の変化に応じて前記オブジェクトを表示する、
姿勢動作制御方法。
A posture motion control method in which a computer executes processing for controlling motion of characters and objects in a virtual space,
Control the movement of characters and objects in virtual space,
Determining whether the character has a specific action on a specific part of the object;
Detecting a change in the posture of the object according to the result of the determination;
Displaying the object according to the detected change in the posture of the object;
Posture motion control method.
仮想空間にてキャラクタ及びオブジェクトの動作を制御する処理をコンピュータに実行させる姿勢制御プログラムであって、
仮想空間にてキャラクタ及びオブジェクトの動作を制御し、
前記オブジェクトの特定の部位に対する前記キャラクタの特定の動作か否かを判定し、
前記判定の結果に応じて前記オブジェクトの姿勢の変化を検出し、
検出した前記オブジェクトの姿勢の変化に応じて前記オブジェクトを表示する、
姿勢制御プログラム。
A posture control program that causes a computer to execute processing for controlling the movement of characters and objects in a virtual space,
Control the movement of characters and objects in virtual space,
Determining whether the character has a specific action on a specific part of the object;
Detecting a change in the posture of the object according to the result of the determination;
Displaying the object according to the detected change in the posture of the object;
Attitude control program.
JP2015182036A 2015-09-15 2015-09-15 Information processing device, attitude motion control method and attitude control program Active JP6755647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015182036A JP6755647B2 (en) 2015-09-15 2015-09-15 Information processing device, attitude motion control method and attitude control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015182036A JP6755647B2 (en) 2015-09-15 2015-09-15 Information processing device, attitude motion control method and attitude control program

Publications (2)

Publication Number Publication Date
JP2017055910A true JP2017055910A (en) 2017-03-23
JP6755647B2 JP6755647B2 (en) 2020-09-16

Family

ID=58388731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015182036A Active JP6755647B2 (en) 2015-09-15 2015-09-15 Information processing device, attitude motion control method and attitude control program

Country Status (1)

Country Link
JP (1) JP6755647B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018175503A (en) * 2017-04-14 2018-11-15 株式会社コロプラ Information processing method, device, and program for causing computer to execute the information processing method
JP2019113938A (en) * 2017-12-21 2019-07-11 株式会社コーエーテクモゲームス Information processing apparatus, display control program, and display control method
JP7457771B2 (en) 2019-05-23 2024-03-28 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE CONTROL METHOD, AND GAME DEVICE

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07308413A (en) * 1994-05-18 1995-11-28 Taihei Giken Kogyo Kk Fight game machine
JP2002153673A (en) * 2000-11-16 2002-05-28 Konami Co Ltd Competition type 3-d video game apparatus and controller for it
JP2007275424A (en) * 2006-04-10 2007-10-25 Aruze Corp Game apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07308413A (en) * 1994-05-18 1995-11-28 Taihei Giken Kogyo Kk Fight game machine
JP2002153673A (en) * 2000-11-16 2002-05-28 Konami Co Ltd Competition type 3-d video game apparatus and controller for it
JP2007275424A (en) * 2006-04-10 2007-10-25 Aruze Corp Game apparatus

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"PS Vita「ファンタシースター ノヴァ」アークスに襲い掛かる超巨大生物兵器「ギガンテス」を紹介", GAMEWATCH[ONLINE], JPN6019009840, 7 November 2014 (2014-11-07) *
"ドラッグ オン ドラグーン2−封印の紅、背徳の黒−", 電撃PLAYSTATION VOL.309, vol. 第11巻 第17号 通巻305号, JPN6019009841, 27 May 2005 (2005-05-27), pages p.92〜97 *
"ブラッド オブ バハムート", 電撃ゲームス 特別付録 攻略MANIAX 2009 SUMMER, JPN6019009839, 1 November 2009 (2009-11-01), pages p.92〜99 *
"進撃の巨人 人類最後の翼", 週刊ファミ通 NO.1300, vol. 第28巻 第46号 通巻1300号, JPN6019009842, 31 October 2013 (2013-10-31), pages p.266〜269 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018175503A (en) * 2017-04-14 2018-11-15 株式会社コロプラ Information processing method, device, and program for causing computer to execute the information processing method
JP2019113938A (en) * 2017-12-21 2019-07-11 株式会社コーエーテクモゲームス Information processing apparatus, display control program, and display control method
JP7457771B2 (en) 2019-05-23 2024-03-28 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE CONTROL METHOD, AND GAME DEVICE

Also Published As

Publication number Publication date
JP6755647B2 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
JP6438198B2 (en) Program and game device
JP5729513B1 (en) Program and terminal device
JP6649742B2 (en) Information processing apparatus, operation control method, and operation control program
CN110215685B (en) Method, device, equipment and storage medium for controlling virtual object in game
JP2017055910A (en) Information processing device, posture motion control method, and posture control program
JP6856346B2 (en) Game processing program and storage medium
CN111617474B (en) Information processing method and device
JP2017046950A (en) Information processor, position information detection method, and position information detection program
JP2024518182A (en) Method and apparatus for displaying action effects, computer device, and computer program
JP2019063378A (en) Program for providing game, system, and method
JP6344662B2 (en) Image processing apparatus and method
JP6075720B2 (en) Image processing apparatus and method
WO2020179666A1 (en) Information processing program, information processing method, information processing device, and information processing system
JP2016195864A (en) Image processing device and method thereof
JP7071134B2 (en) Information processing device, operation control program and operation control method
JP6902461B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP6845682B2 (en) Game programs and storage media
JP7175124B2 (en) Information processing device, position prediction method and position prediction program
JP6263293B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6612090B2 (en) Information processing apparatus, operation control method, and operation control program
JP7406930B2 (en) Game program, game processing method, and information processing device
JP7357491B2 (en) Game program, game processing method, and information processing device
JP6829301B2 (en) Information processing device, motion control method and motion control program
KR102199530B1 (en) Terminal comprising displays and game provision method
JP7312574B2 (en) Information processing device, game processing method and game processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200826

R150 Certificate of patent or registration of utility model

Ref document number: 6755647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250