JP2013146583A - Video game processing device, video game processing method, and video game processing program - Google Patents
Video game processing device, video game processing method, and video game processing program Download PDFInfo
- Publication number
- JP2013146583A JP2013146583A JP2013069754A JP2013069754A JP2013146583A JP 2013146583 A JP2013146583 A JP 2013146583A JP 2013069754 A JP2013069754 A JP 2013069754A JP 2013069754 A JP2013069754 A JP 2013069754A JP 2013146583 A JP2013146583 A JP 2013146583A
- Authority
- JP
- Japan
- Prior art keywords
- user interface
- interface component
- display screen
- video game
- pressed position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims description 62
- 230000008569 process Effects 0.000 claims description 60
- 230000004044 response Effects 0.000 claims description 13
- 230000009471 action Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000007704 transition Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000287462 Phalacrocorax carbo Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Abstract
Description
本発明は、例えばビデオゲームの制御を行うデバイスに適用されるユーザインタフェース技術に関する。 The present invention relates to a user interface technology applied to, for example, a device that controls a video game.
従来から、RPG(ロールプレイングゲーム:プレイヤがゲームの世界の中であるキャラクタの役割を演じ、様々な経験を通じて成長していく過程を楽しみながら、所定の目的を達成していくことを遊戯するゲーム)と呼ばれるビデオゲームやシミュレーションゲームなどの各種のビデオゲームが提供されている。 Conventionally, RPG (Role Playing Game: A game in which a player plays a role of a character in the game world and enjoys a process of growing through various experiences while achieving a predetermined purpose. Various video games such as video games and simulation games called “)” are provided.
近年、このようなビデオゲームにおいて、タッチパネルなどを利用して、プレイヤが直観的に各種操作をできるようにしたものが種々提案されている。 In recent years, various video games have been proposed that allow players to perform various operations intuitively using a touch panel or the like.
タッチパネルを利用したゲームには、表示画面上に表示されたキャラクタ等のオブジェクトを操作する方法として、仮想コントローラや動作アイコンを表示画面上に表示し、この仮想コントローラ等によりユーザの操作入力を受け付けるものが知られている。 In a game using a touch panel, as a method of operating an object such as a character displayed on the display screen, a virtual controller or an operation icon is displayed on the display screen, and a user operation input is received by the virtual controller or the like. It has been known.
このようなゲームとして、例えば、プレイヤがタッチ入力により表示画面上の所定の枠内に画像を移動させて、決定ボタンの画像領域にタッチ入力してゲームの進行を制御するものがある(例えば、特許文献1参照)。 As such a game, for example, there is a game in which a player moves an image into a predetermined frame on a display screen by touch input, and touch-inputs an image area of a decision button to control the progress of the game (for example, Patent Document 1).
しかしながら、こうした従来のビデオゲームにおいては、ユーザからの操作入力を受け付ける仮想コントローラ等を表示画面上の所定の位置に固定的に表示するので、表示部分が死角となり、その部分に表示されるゲームアイテム等が見えなくなってしまうという不都合を生じさせる場合があるという問題があった。 However, in such a conventional video game, a virtual controller or the like that accepts an operation input from the user is fixedly displayed at a predetermined position on the display screen, so that the display part becomes a blind spot, and the game item displayed in that part There is a problem in that it may cause a disadvantage that it becomes invisible.
本発明は、上記の問題を解決すべく、ビデオゲームにおけるタッチデバイスの操作性を向上させることを目的とする。 An object of the present invention is to improve the operability of a touch device in a video game in order to solve the above problem.
本発明のビデオゲーム処理装置は、ビデオゲームの進行を制御するビデオゲーム処理装置であって、表示画面にユーザインタフェース構成部品を表示するユーザインタフェース構成部品表示手段と、前記表示画面上に表示された前記ユーザインタフェース構成部品の操作を受け付ける操作受付手段と、該操作受付手段によって受け付けられた操作に応じて前記アプリケーションを制御する操作対応制御手段と、前記ユーザインタフェース構成部品の透明度を決定する透明度決定手段とを含み、前記ユーザインタフェース構成部品表示手段は、前記透明度決定手段によって決定された透明度で前記ユーザインタフェース構成部品を表示することを特徴とする。 The video game processing apparatus of the present invention is a video game processing apparatus for controlling the progress of a video game, and displays user interface component display means for displaying user interface components on a display screen, and is displayed on the display screen. Operation accepting means for accepting an operation of the user interface component, an operation corresponding control means for controlling the application in accordance with an operation accepted by the operation accepting means, and a transparency determining means for determining the transparency of the user interface component The user interface component display means displays the user interface component with the transparency determined by the transparency determination means.
上記の構成としたことで、ビデオゲームにおけるタッチデバイスの操作性を向上させることができるようになる。 With the above configuration, the operability of the touch device in the video game can be improved.
前記操作受付手段が受け付けている前記ユーザインタフェース構成部品の操作状態が一定期間継続したことを検出する継続操作判定手段を含み、前記透明度決定手段は、前記継続操作判定手段によって操作状態が一定期間継続したことが検出されたことに応じて透明度を増加させることに決定する構成とされていてもよい。 A continuation operation determining unit that detects that the operation state of the user interface component received by the operation reception unit has continued for a certain period, and the transparency determining unit continues the operation state for a certain period by the continuation operation determining unit. It may be configured to determine to increase the transparency in response to the fact that it has been detected.
プレイヤのタッチパネルの接触操作による表示画面の押下を受け付ける押下受付手段と、該押下受付手段によって前記表示画面の押下が受け付けられたときに、押下された前記表示画面上の位置である押下位置を検出する押下位置検出手段と、前記押下受付手段によって前記表示画面の押下が受け付けられたあと、当該表示画面の押下状態が終了したか否かを判定する押下終了判定手段とを含み、前記ユーザインタフェース構成部品表示手段は、前記押下受付手段によって前記表示画面の押下が受け付けられたことに基づいて前記押下位置検出手段によって検出された押下位置に応じた所定位置に前記ユーザインタフェース構成部品を表示し、前記押下終了判定手段によって押下状態が終了したと判定されたときに前記ユーザインタフェース構成部品の表示を終了する構成とされていてもよい。 A press accepting unit that accepts pressing of the display screen by a touch operation of the player's touch panel, and a press position that is a pressed position on the display screen when the press of the display screen is accepted by the press accepting unit The user interface configuration, comprising: a pressed position detecting means for performing; and a pressing completion determining means for determining whether or not the pressed state of the display screen has ended after the pressing of the display screen is received by the pressing receiving means. The component display means displays the user interface component at a predetermined position corresponding to the pressed position detected by the pressed position detecting means based on the pressing of the display screen received by the press receiving means, The user interface when the pressing end determination means determines that the pressing state has ended. Or it may be configured to end the display of the formed part.
前記押下位置検出手段は、前記押下受付手段によって前記表示画面の押下が受け付けられたあと押下状態が終了するまで、押下位置を継続して検出し、前記操作受付手段は、前記押下受付手段によって前記表示画面の押下が最初に受け付けられたときに前記押下位置検出手段によって検出された押下位置である初期押下位置から、該初期押下位置が検出されたあとに前記押下位置検出手段によって検出された現在の前記表示画面上の押下位置である現押下位置までの方向によって特定される移動方向指示操作を受け付け、前記操作対応制御手段は、前記操作受付手段によって受け付けられた前記移動方向指示操作に応じて、前記アプリケーションにおけるオブジェクトを前記初期押下位置から前記現押下位置に向かう方向に移動させる制御を行う構成とされていてもよい。 The pressed position detecting unit continuously detects the pressed position until the pressed state is finished after the pressing of the display screen is received by the pressed receiving unit, and the operation receiving unit is operated by the pressed receiving unit. The current position detected by the pressed position detecting means after the initial pressed position is detected from the initial pressed position detected by the pressed position detecting means when the pressing of the display screen is first received. The movement direction instruction operation specified by the direction to the current pressing position that is the pressing position on the display screen is received, and the operation corresponding control means responds to the movement direction instruction operation received by the operation receiving means. , And control for moving the object in the application from the initial pressed position to the current pressed position. Cormorant may be configured.
前記ユーザインタフェース構成部品は、略円形に形成されたコントローラ本体と、該コントローラ本体の中心位置から任意の方向に移動可能な操作部とを備えた仮想コントローラであり、前記ユーザインタフェース構成部品表示手段は、前記初期押下位置に応じた前記所定位置に前記コントローラ本体を固定表示し、前記コントローラ本体の中心位置を基点に前記初期押下位置から前記現押下位置に向かう方向に前記操作部を可動表示する構成とされていてもよい。 The user interface component is a virtual controller including a controller main body formed in a substantially circular shape and an operation unit movable in an arbitrary direction from the center position of the controller main body, and the user interface component display means includes: The controller main body is fixedly displayed at the predetermined position corresponding to the initial pressed position, and the operation unit is movably displayed in a direction from the initial pressed position toward the current pressed position based on the center position of the controller main body. It may be said.
前記操作受付手段は、前記初期押下位置から前記現押下位置までの距離によって特定される移動速度指示操作を受け付け、前記操作対応制御手段は、前記操作受付手段によって受け付けられた前記移動速度指示操作に応じて、前記オブジェクトを前記初期押下位置から前記現押下位置までの距離に応じた速度で移動させる制御を行う構成とされていてもよい。 The operation accepting unit accepts a moving speed instruction operation specified by a distance from the initial pressed position to the current pressed position, and the operation corresponding control unit accepts the moving speed instruction operation received by the operation accepting unit. Accordingly, the control may be performed to move the object at a speed corresponding to the distance from the initial pressed position to the current pressed position.
前記ユーザインタフェース構成部品は、略円形に形成されたコントローラ本体と、該コントローラ本体の中心位置から任意の方向に移動可能な操作部とを備えた仮想コントローラであり、前記ユーザインタフェース構成部品表示手段は、前記初期押下位置に応じた前記所定位置に前記コントローラ本体を固定表示し、前記コントローラ本体の中心位置を基点に前記初期押下位置から前記現押下位置に向かう方向であって当該初期押下位置から当該現押下位置までの距離に応じて段階的に遠ざかる位置に前記操作部を可動表示する構成とされていてもよい。 The user interface component is a virtual controller including a controller main body formed in a substantially circular shape and an operation unit movable in an arbitrary direction from the center position of the controller main body, and the user interface component display means includes: The controller main body is fixedly displayed at the predetermined position corresponding to the initial pressed position, and the direction from the initial pressed position to the current pressed position is based on the central position of the controller main body, and the initial pressed position is The operation unit may be configured to be movable and displayed at a position that is stepped away according to the distance to the current pressed position.
前記ユーザインタフェース構成部品表示手段は、前記押下受付手段によって前記表示画面の押下が最初に受け付けられたあと当該表示画面の押下状態が所定時間継続したことに応じて、前記ユーザインタフェース構成部品を表示する構成とされていてもよい。 The user interface component display means displays the user interface component in response to the pressing state of the display screen continuing for a predetermined time after the pressing of the display screen is first received by the press receiving means. It may be configured.
また、本発明のビデオゲーム処理方法は、ビデオゲームの進行を制御するビデオゲーム処理方法であって、表示画面にユーザインタフェース構成部品を表示するユーザインタフェース構成部品表示処理と、前記表示画面上に表示された前記ユーザインタフェース構成部品の操作を受け付ける操作受付処理と、該操作受付処理にて受け付けた操作に応じて前記アプリケーションを制御する操作対応制御処理と、前記ユーザインタフェース構成部品の透明度を決定する透明度決定処理とを含み、前記ユーザインタフェース構成部品表示処理では、前記透明度決定処理にて決定した透明度で前記ユーザインタフェース構成部品を表示することを特徴とする。 The video game processing method of the present invention is a video game processing method for controlling the progress of a video game, the user interface component display processing for displaying the user interface component on the display screen, and the display on the display screen. An operation reception process for receiving an operation of the user interface component that has been performed, an operation corresponding control process for controlling the application in accordance with the operation received in the operation reception process, and a transparency for determining the transparency of the user interface component In the user interface component display process, the user interface component is displayed with the transparency determined in the transparency determination process.
さらに、本発明のビデオゲーム処理プログラムは、ビデオゲームの進行を制御させるビデオゲーム処理プログラムであって、コンピュータに、表示画面にユーザインタフェース構成部品を表示するユーザインタフェース構成部品表示処理と、前記表示画面上に表示された前記ユーザインタフェース構成部品の操作を受け付ける操作受付処理と、該操作受付処理にて受け付けた操作に応じて前記アプリケーションを制御する操作対応制御処理と、前記ユーザインタフェース構成部品の透明度を決定する透明度決定処理とを実行させ、前記ユーザインタフェース構成部品表示処理では、前記透明度決定処理にて決定した透明度で前記ユーザインタフェース構成部品を表示する処理を実行させるためのものである。 Furthermore, the video game processing program of the present invention is a video game processing program for controlling the progress of a video game, the user interface component displaying process for displaying a user interface component on a display screen on a computer, and the display screen An operation reception process for receiving an operation of the user interface component displayed above, an operation corresponding control process for controlling the application in accordance with the operation received in the operation reception process, and the transparency of the user interface component In the user interface component display process, the process of displaying the user interface component with the transparency determined in the transparency determination process is executed.
本発明によれば、ビデオゲームにおけるタッチデバイスの操作性を向上させることができるようになる。 According to the present invention, the operability of a touch device in a video game can be improved.
以下、本発明の一実施の形態の例について図面を参照して説明する。 Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の一実施の形態を示すビデオゲーム処理装置100の構成例を示すブロック図である。図1に示すように、ビデオゲーム処理装置100は、プログラム読取部10と、制御部11と、記憶部12と、表示部13と、音声出力部14と、操作受付部15とを含む。
FIG. 1 is a block diagram illustrating a configuration example of a video
プログラム読取部10は、各種ビデオゲームプログラムが格納された記憶媒体を内蔵する記憶媒体から必要なビデオゲームプログラムを読み出す機能を有する。なお、本例においては、プログラム読取部10は、ビデオゲームプログラムが格納された着脱可能なゲームカートリッジ20を装着する装着部を有し、プレイヤ(ビデオゲーム処理装置100の操作者(ユーザ))により装着部に装着されたゲームカートリッジ20の記憶媒体からゲームプログラムを読み出し、記憶部12に格納する。なお、本例で用いられるビデオゲームプログラムに従って実行されるビデオゲームは、RPG、シミュレーションゲーム、パズルゲーム、バトルゲームなど、プレイヤの操作に応じてビデオゲームの仮想空間内を移動するオブジェクトが存在するビデオゲームであればどのようなものであってもよい。
The
制御部11は、プログラム読取部10により読み取られ記憶部12に格納されたゲームプログラムを実行し、プレイヤの操作に応じてビデオゲームを進行するための各種の制御を実行する機能を有する。
The
記憶部12は、ビデオゲームを進行する際に必要なビデオゲームプログラムや各種のデータを記憶する記憶媒体である。記憶部12は、例えばRAMなどの不揮発性のメモリによって構成される。記憶部12には、ゲームの進行に従って登録・更新される各種の情報や、ゲームカートリッジ20に内蔵される記憶媒体から読み出されたゲームにおいて使用される各種の情報が格納される。
The
なお、ビデオゲーム処理装置100が、ビデオゲームプログラムを図示しないゲームプログラム提供サーバからインターネット等の通信ネットワークを介してダウンロードして記憶部12に格納する構成としてもよい。
The video
本例では、記憶部12は、表示部13の表示画面に表示されるビデオゲームの仮想空間において所定のオブジェクト(本例においては、プレイヤが操作可能なプレイヤキャラクタ)に対する操作入力を受けつけるための仮想コントローラを表示画面に表示する際に参照される仮想コントローラ情報が格納される仮想コントローラ管理テーブル12aと、ゲームの進行状態を特定可能なゲーム進行状態情報が格納されるゲーム進行状態情報管理テーブル12bと、プレイヤの習熟度を示す習熟度情報が格納される習熟度情報テーブル12cと、プレイヤの習熟度を判定する際の判定ルールを示す習熟度判定情報が格納される習熟度判定情報テーブル12dと、仮想コントローラの透明度を判定する際の判定ルールを示す透明度判定情報が格納される透明度判定情報テーブル12eとを含む。
In this example, the
図2は、仮想コントローラ管理テーブル12aに記憶される仮想コントローラ情報の格納状態の例を示す説明図である。図2に示すように、仮想コントローラ情報は、プレイヤキャラクタを一意に特定するためのキャラクタIDと、プレイヤによる操作対象となっているプレイヤキャラクタに「1」が設定され、操作対象となっていないプレイヤキャラクタに「0」が設定される操作対象フラグと、表示部13の表示画面における仮想コントローラの表示位置を示す座標(本例においては、後述する「初期押下位置」の座標が設定される)と、プレイヤキャラクタの動作実行条件(条件が満たされた動作には「1」が設定され、条件が満たされていない動作には「0」が設定される。)とを含む情報である。 FIG. 2 is an explanatory diagram illustrating an example of a storage state of virtual controller information stored in the virtual controller management table 12a. As shown in FIG. 2, in the virtual controller information, a character ID for uniquely identifying a player character and a player character that is an operation target by the player are set to “1”, and the player is not an operation target. An operation target flag in which “0” is set for the character, coordinates indicating the display position of the virtual controller on the display screen of the display unit 13 (in this example, coordinates of “initial press position” described later are set), and , And the player character's action execution condition ("1" is set for an action that satisfies the condition, and "0" is set for an action that does not satisfy the condition).
なお、プレイヤキャラクタの動作実行条件は、仮想コントローラを構成する操作部の位置に応じて充足され、本例においては、操作部の表示位置に応じてプレイヤキャラクタに歩行動作、または走行動作が設定されているものとする。 Note that the action execution condition of the player character is satisfied according to the position of the operation unit constituting the virtual controller, and in this example, a walking action or a running action is set for the player character according to the display position of the operation part. It shall be.
ここで、本例における仮想コントローラについて説明する。 Here, the virtual controller in this example will be described.
図3は、本例における仮想コントローラの例を示す説明図である。図3(A)に示すように、仮想コントローラ101は、略円形に形成されたコントローラ本体102と、コントローラ本体102の中心位置から任意の方向に移動可能な操作部103とからなる。なお、仮想コントローラ101の形状や構成はこれに限定されない。
FIG. 3 is an explanatory diagram illustrating an example of a virtual controller in this example. As shown in FIG. 3A, the
本例において、仮想コントローラ101は、ユーザにより表示画面が押下されたことに応じて(すなわち、表示画面に対する指での押下など(接触操作)による表示画面の押下を受け付けて)、押下位置(初期押下位置)を中心として固定表示される。なお、仮想コントローラ101の表示位置が、表示画面が押下された位置から少しずらした位置となる構成としてもよい。この場合、ユーザにより押下位置に対する仮想コントローラ101の表示位置が設定可能である構成としてもよい。
In this example, the
図3(A)は、表示画面に表示された直後の仮想コントローラ101を示す説明図である。図3(A)に示すように、操作部103は、コントローラ本体102の中心に配置され(操作部103の初期位置)、ユーザの操作(本例においては、表示画面を押下した状態を継続して、押下位置を変更する操作(ドラッグ操作))に応じて可動表示される。
FIG. 3A is an explanatory diagram showing the
すなわち、例えば、仮想コントローラ101が表示画面に表示された状態でプレイヤによる右方向へのドラッグ操作を受け付けると、図3(B)に示すように、操作部103が初期位置から右方向に移動して表示される。なお、操作部103の移動量と初期位置に対する移動方向は、所定の可動限界範囲内において、初期押下位置とドラッグ操作後の押下位置(現押下位置)との距離と方向に対応して決定される。すなわち、例えば初期押下位置と現押下位置との距離が長い程、操作部103が初期位置から大きくずれることとなる。
That is, for example, when a right drag operation by the player is received while the
ここで、仮想コントローラ情報の説明にて説明したように(図2参照)、本例においては、操作部103の一部がコントローラ本体102の表示領域を超えているか否か(すなわち、操作部103の中心が可動領域105を超えているか否か)によりプレイヤキャラクタが実行する動作が異なる。また、操作部103がコントローラ本体102の表示領域の内側にある場合に、操作部103の中心が初期位置104から所定距離以上離れているか否かによってもプレイヤキャラクタが実行する動作が異なる。これらは、仮想コントローラ管理テーブル12aにて管理され、本例においては、操作部103の中心が初期位置104から所定距離以上離れた場合に「歩行動作」に「1」が設定され、操作部103の中心が可動領域105を越えた場合には、「歩行動作」に「0」が設定され、「走行動作」に「1」が設定されることとなる。なお、仮想コントローラ101に関する動作についてはビデオゲーム処理装置100の動作とあわせて詳しく説明する。
Here, as described in the description of the virtual controller information (see FIG. 2), in this example, whether or not a part of the
図4は、ゲーム進行状態情報管理テーブル12bに記憶されるゲーム進行状態情報の格納状態の例を示す説明図である。図4に示すように、ゲーム進行状態情報は、プレイヤの名称を示すプレイヤ名と、プレイヤを一意に特定可能なプレイヤIDと,プレイヤキャラクタの名称を示すキャラクタ名と、プレイヤキャラクタを一意に特定するためのキャラクタIDと、合計プレイ時間とを含む情報である。本例では、プレイヤの習熟度(熟練度)を決定する際に参照するゲームの進行状態を特定するための情報として、合計プレイ時間を用いることとしている。すなわち、ビデオゲームの合計プレイ時間が長ければ習熟度が高いとみなすこととしている。ゲーム進行状態情報は、ゲームの進行状態(本例では合計プレイ時間)が変化する毎に制御部11によって更新される。
FIG. 4 is an explanatory diagram showing an example of the storage state of the game progress state information stored in the game progress state information management table 12b. As shown in FIG. 4, the game progress state information uniquely identifies a player name indicating a player name, a player ID capable of uniquely identifying the player, a character name indicating the name of the player character, and the player character. Information including the character ID and the total play time. In this example, the total play time is used as information for specifying the progress state of the game referred to when determining the proficiency level (skill level) of the player. That is, if the total play time of the video game is long, the proficiency level is considered high. The game progress status information is updated by the
図5は、習熟度情報テーブル12cに記憶される習熟度情報の格納状態の例を示す説明図である。図5に示すように、習熟度情報は、プレイヤの名称を示すプレイヤ名と、プレイヤを一意に特定可能なプレイヤIDと,プレイヤキャラクタの名称を示すキャラクタ名と、プレイヤキャラクタを一意に特定するためのキャラクタIDと、習熟度を示す値(習熟度値)とを含む情報である。 FIG. 5 is an explanatory diagram showing an example of the storage state of the proficiency level information stored in the proficiency level information table 12c. As shown in FIG. 5, the proficiency level information uniquely identifies a player name indicating a player name, a player ID capable of uniquely identifying the player, a character name indicating the name of the player character, and a player character. Character ID and information including a proficiency value (skill level).
図6は、習熟度判定情報テーブル12dに記憶される習熟度判定情報の格納状態の例を示す説明図である。図6に示すように、習熟度判定情報は、合計プレイ時間と習熟度とが対応付けされた情報である。本例では、習熟度は0〜5の6段階に区分けされているものとし、習熟度が高いほど習熟度値が大きい値となるものとする。 FIG. 6 is an explanatory diagram illustrating an example of a storage state of the proficiency level determination information stored in the proficiency level determination information table 12d. As shown in FIG. 6, the proficiency level determination information is information in which the total play time and the proficiency level are associated with each other. In this example, it is assumed that the proficiency level is divided into 6 levels of 0 to 5, and the proficiency level value increases as the proficiency level increases.
図7は、透明度判定情報テーブル12eに記憶される透明度判定情報の格納状態の例を示す説明図である。図7に示すように、透明度判定情報は、プレイヤの習熟度と仮想コントローラの透明度とが対応付けされた情報である。本例では、習熟度の各段階毎に異なる透明度が対応付けされており、習熟度が高いほど透明度が高くなるものとする。本例では、習熟度が最も低い場合(習熟度値が0の場合)には透明度が0%(完全な不透明状態で表示される状態)とされ、習熟度が最も高い場合(習熟度値が5の場合)には透明度が100%(完全な透明状態となり、仮想コントローラが全く表示されない状態)とされるように透明度判定情報が設定されているものとする。 FIG. 7 is an explanatory diagram illustrating an example of a storage state of transparency determination information stored in the transparency determination information table 12e. As shown in FIG. 7, the transparency determination information is information in which the proficiency level of the player is associated with the transparency level of the virtual controller. In this example, different transparency levels are associated with each level of proficiency level, and the higher the proficiency level, the higher the transparency level. In this example, when the proficiency level is the lowest (when the proficiency level value is 0), the transparency is 0% (displayed in a completely opaque state), and when the proficiency level is the highest (the proficiency level value is In the case of 5), it is assumed that the transparency determination information is set so that the transparency is 100% (a state where the virtual controller is completely displayed and the virtual controller is not displayed at all).
表示部13は、制御部11の制御に従って、プレイヤの操作に応じたゲーム画面を表示する表示装置である。表示部13は、例えば、液晶表示装置によって構成される。
The
音声出力部14は、制御部11の制御に従って、プレイヤの操作やキャラクタの動作に応じた音声を出力する機能を有する。
The
操作受付部15は、プレイヤ操作に応じた操作信号を受け付け、その結果を制御部11に通知する。本例においては、操作受付部15は、表示部13に設けられたタッチパネルを介してプレイヤの操作を受け付ける。なお、操作受付部15は、マウスやゲームパットなどのコントローラを介してプレイヤの操作を受け付ける構成とされていてもよい。
The
次に、本例のビデオゲーム処理装置100の動作について説明する。
Next, the operation of the video
図8は、ビデオゲーム処理装置100が実行する習熟度判定処理の例を示すフローチャートである。習熟度判定処理は、例えば、ゲームの進行中に定期的に実行される。ここでは、プレイヤPの習熟度を判定し、必要に応じてプレイヤPの習熟度を更新する場合を例に説明する。なお、本発明に関係しない動作や処理については、その内容を省略している場合がある。
FIG. 8 is a flowchart illustrating an example of proficiency level determination processing executed by the video
習熟度判定処理において、制御部11は、先ず、ゲーム進行状態情報管理テーブル12bに記憶されているゲーム進行状態情報を参照し、プレイヤPについてのゲーム進行状態を確認する(ステップS10)。本例では、ゲーム進行状態として、プレイヤPの合計プレイ時間を確認する。
In the proficiency level determination process, first, the
次に、制御部11は、習熟度判定情報テーブル12dに記憶されている習熟度判定情報を参照し、ステップS10にて確認したゲーム進行状態に応じてプレイヤPの習熟度を判定する(ステップS11)。本例では、習熟度判定情報を参照し、ステップS10にて確認したプレイヤPの合計プレイ時間に対応する習熟度がプレイヤPの習熟度であるものと判定する。
Next, the
そして、制御部11は、習熟度情報テーブル12cに記憶されている習熟度情報を参照し、ステップS11にて判定したプレイヤPの習熟度と習熟度情報に設定されているプレイヤPの習熟度とが異なっている場合には、習熟度情報におけるプレイヤPの習熟度をステップS11にて判定した習熟度に更新する(ステップS12)。
Then, the
上記のようにして、ゲーム進行状態に応じてプレイヤの習熟度を判定し、習熟度に変化があった場合に更新する処理が実行される。 As described above, the proficiency level of the player is determined according to the game progress state, and the process of updating when the proficiency level changes is executed.
図9は、ビデオゲーム処理装置100が実行するキャラクタ移動処理の例を示すフローチャートである。キャラクタ移動処理は、ゲームの進行に応じて、プレイヤPによってプレイヤキャラクタP1が操作可能な状態となったときに開始される。
FIG. 9 is a flowchart showing an example of character movement processing executed by the video
キャラクタ移動処理では、仮想コントローラを用いてプレイヤPによる操作に応じて操作対象となるプレイヤキャラクタP1の動作を実行するための処理が実行される。なお、本発明に関係しない動作や処理については、その内容を省略している場合がある。 In the character movement process, a process for executing an action of the player character P1 to be operated in accordance with an operation by the player P using a virtual controller is executed. Note that the contents of operations and processes not related to the present invention may be omitted.
図10は、ビデオゲーム処理装置100の筐体100Aに設けられた表示部13の表示画面13Aに表示されたゲーム画面の例を示す説明図である。ここでは、図10に示すように、ゲームフィールドに、プレイヤPにより操作可能な状態にあるプレイヤキャラクタP1と、制御部11により操作されるノンプレイヤキャラクタP2とが存在する場合を例に説明を行なう。
FIG. 10 is an explanatory diagram illustrating an example of a game screen displayed on the
キャラクタ移動処理において、制御部11は、プレイヤPにより表示画面13Aが押下されたか否か(すなわち、表示画面13Aに設けられたタッチパネルが押下された否か)を判定する(ステップS101)。
In the character movement process, the
表示画面13Aが押下されたと判定すると(ステップS101のY)、制御部11は、表示画面13A(表示画面13Aに設けられたタッチパネル)の押下状態が終了したか否かを判定し(ステップS101A)、表示画面13Aの押下状態が終了していなければ(ステップS101AのN)、ステップS101にて表示画面13Aが押下されたと判定したときから所定時間(例えば、0.1秒)が経過したか否か判定する(ステップS101B)。所定時間が経過する前に表示画面13Aの押下状態が終了した場合には(ステップS101AのY)、ステップS101に戻る。このように、所定時間が経過する前に表示画面13Aの押下状態が終了した場合に処理を中止する構成としているので、表示画面13Aに瞬間的に触れるようなタップ操作などを排除することができ、不要な場合に仮想コントローラ101を表示しないようにすることが可能となる。なお、タップ操作は、仮想コントローラ101を表示するための操作とは別の入力操作として受け付けるようにすればよい。
If it is determined that the
表示画面13Aの押下状態が終了することなく所定時間が経過したと判定すると(ステップS101BのY)、制御部11は、押下位置を算出し、初期押下位置として仮想コントローラ管理テーブル12aに記憶する(ステップS102)。
If it is determined that the predetermined time has elapsed without completing the pressing state of the
次に、制御部11は、習熟度情報テーブル12cに記憶されている習熟度情報を参照し、プレイヤPの習熟度を確認する(ステップS103A)。プレイヤPの習熟度を確認すると、制御部11は、透明度判定情報テーブル12eを参照し、ステップS103Aにて確認したプレイヤPの習熟度に対応する透明度を仮想コントローラ101の透明度とすることに決定する(ステップS103B)。
Next, the
次いで、制御部11は、ステップS102にて記憶した初期押下位置を中心として、ステップS103Bにて決定した透明度の仮想コントローラ101を表示画面13Aに表示する(ステップS103C)。
Next, the
図11は、このときのゲーム画面の例を示す説明図である。図11に示すように、例えばプレイヤPの指201により表示画面13Aの一点が押下されると、押下位置を中心として仮想コントローラ101が表示される。なお、図11には表れていないが、ステップS103Bにて決定した透明度の仮想コントローラ101が表示画面13Aに表示され、透明度が0%でなければ、仮想コントローラ101の表示位置に表示されているゲームフィールド上の表示物が仮想コントローラ101を透過して視認可能に表示されることになる。また、透明度が100%である場合には、仮想コントローラ101が表示画面13A上には全く表れないこととなるが、そのような場合のプレイヤは習熟度が高いプレイヤであるため、仮想コントローラ101が表示画面13A上に表れているものとして操作することが可能となる。
FIG. 11 is an explanatory diagram showing an example of the game screen at this time. As shown in FIG. 11, for example, when one point of the
仮想コントローラ101を表示すると、制御部Cは、プレイヤPによるドラッグ操作を受け付けたか否かを判定する(ステップS104)。
When the
プレイヤPによるドラッグ操作を受け付けていないと判定すると(ステップS104のN)、制御部11は、表示画面13A(表示画面13Aに設けられたタッチパネル)の押下状態が終了したか否かを判定する(ステップS105)。ここで、表示画面13Aの押下状態が終了していないと判定すると(ステップS105のN)、制御部11は、ステップS104に遷移する。
If it is determined that the drag operation by the player P has not been accepted (N in step S104), the
一方、表示画面13Aの押下状態が終了したと判定すると(ステップS105のY)、制御部11は、仮想コントローラ101の表示を終了し、プレイヤキャラクタP1が歩行動作を実行している場合には歩行動作を終了して(ステップS106)、ステップS101に遷移する。
On the other hand, when it is determined that the pressed state of the
一方、ステップS104にて、プレイヤPによるドラッグ操作を受け付けたと判定すると(ステップS104のY)、制御部11は、初期位置に対する現押下位置に基づいて操作部103の表示位置を変更する(ステップS107)。
On the other hand, if it is determined in step S104 that the drag operation by the player P has been received (Y in step S104), the
操作部103の表示位置を変更すると、制御部11は、仮想コントローラ管理テーブル12aを参照して、操作部103の位置が「歩行」を示しているか否かを判定する(ステップS108)。ここで、操作部103の位置が「歩行」を示していると判定すると(ステップS108のY)、制御部Cは、初期位置から見て操作部103が表示された方向(すなわち、初期押下位置から現押下位置への方向)に応じて、プレイヤキャラクタP1の歩行動作に必要な処理を開始(または継続)して(ステップS109)、ステップS104に遷移する。
When the display position of the
図12は、このときのゲーム画面の例を示す説明図である。図12に示すように、初期押下位置からプレイヤPの指201による現押下位置までの方向と同じ方向に向かって、プレイヤキャラクタP1の歩行動作が実行される。
FIG. 12 is an explanatory diagram showing an example of the game screen at this time. As shown in FIG. 12, the walking action of the player character P1 is executed in the same direction as the direction from the initial pressed position to the current pressed position by the player P's
一方、操作部103の位置が「歩行」を示していないと判定すると(ステップS108のN)、制御部Cは、操作部103の位置が「走行」を示しているか否かを判定する(ステップS110)。ここで、操作部103の位置が「走行」を示していないと判定すると(ステップS110のN)、制御部10は、プレイヤキャラクタP1が歩行動作を実行している場合には歩行動作を終了して(ステップS111)、ステップS104に遷移する。
On the other hand, if it is determined that the position of the
一方、操作部103の位置が「走行」を示していると判定すると(ステップS110のY)、制御部10は、ダッシュモード処理を実行して(ステップS112)、ステップS108に遷移する。
On the other hand, if it is determined that the position of the
キャラクタ移動処理は、ゲームの進行に応じて、プレイヤPによるプレイヤキャラクタP1の操作が不能な状態となったときに終了する。 The character movement process ends when the operation of the player character P1 by the player P becomes impossible as the game progresses.
なお、本例におけるキャラクタ移動処理において、操作部103の表示位置は初期押下位置と現押下位置との距離に応じて、段階的に変化する構成とする。すなわち、例えば初期押下位置と現押下位置との距離が所定の距離以上となったときに、操作部103の表示位置が、初期位置から所定の位置に変更されるものとする。
In the character movement process in this example, the display position of the
次に、ダッシュモード処理について説明する。
図13は、ビデオゲーム処理装置100が実行するダッシュモード処理の例を示すフローチャートである。
Next, the dash mode process will be described.
FIG. 13 is a flowchart illustrating an example of a dash mode process executed by the video
ダッシュモード処理において、制御部11は、先ず、表示画面13Aに表示されるゲーム画面をダッシュモード画面に切り替える(ステップS201)。ここで、ダッシュモード画面とは、プレイヤキャラクタP1が走行動作を実行することをプレイヤPに明示するためのものであり、本例においては、仮想コントローラ101の透明度を、初期押下位置と現押下位置との距離に応じて増加あるいは減少させ、ダッシュモードに入っていることをフィードバックすると同時に、ゲーム画面の視認性を向上させたものを意味する。
In the dash mode process, the
ダッシュモード画面を表示すると、制御部11は、初期押下位置から見た現押下位置の方向に応じて、プレイヤキャラクタP1の走行動作を開始(または、継続)するために必要な処理を実行する(ステップS202)。
When the dash mode screen is displayed, the
図14は、このときのゲーム画面の例を示す説明図である。図14に示すように、初期押下位置からプレイヤPの指201による現押下位置までの方向と同じ方向に向かって、プレイヤキャラクタP1が走行動作を実行する。なお、このとき、制御部11が、初期押下位置と現押下位置との距離が長い程、プレイヤキャラクタP1の移動速度を速くするものとする。
FIG. 14 is an explanatory diagram showing an example of the game screen at this time. As shown in FIG. 14, the player character P <b> 1 performs a running motion in the same direction as the direction from the initial pressed position to the current pressed position by the player P's
次いで、制御部11は、プレイヤPによりドラッグ操作により表示画面13Aの押下位置が変更されたか否かを判定する(ステップS203)。ここで、ドラッグ操作により押下位置が変更されたと判定すると(ステップS203のY)、制御部11は、初期押下位置と変更後の現押下位置とに応じて操作部103の表示位置を変更する(ステップS204)。
Next, the
操作部103の表示位置を変更すると、制御部11は、操作部103の表示位置がプレイヤキャラクタP1の走行動作を示しているか否かを判定する(ステップS205)。ここで、操作部103の表示位置がプレイヤキャラクタP1の走行動作を示していないと判定すると(ステップS205のN)、制御部11は、ステップS202に遷移する。
When the display position of the
一方、操作部103の表示位置がプレイヤキャラクタP1の走行動作を示していると判定すると(ステップS205のY)、制御部11は、ダッシュモード画面の表示を終了して(ステップS206)、キャラクタ移動処理におけるステップS108に遷移する(図9参照)。
On the other hand, if it is determined that the display position of the
一方、ステップS203にて、ドラッグ操作により押下位置が変更されていないと判定すると(ステップS203のN)、制御部11は、表示画面13A(表示画面13Aに設けられたタッチパネル)の押下状態が終了したか否かを判定する(ステップS207)。ここで、制御部11は、表示画面13Aの押下状態が終了していないと判定すると(ステップS207のN)、ステップS203に遷移し、表示画面13Aの押下状態が終了したと判定すると(ステップS207のY)、仮想コントローラの表示を終了して(ステップS208)、ステップS206に遷移する。
On the other hand, when it is determined in step S203 that the pressed position has not been changed by the drag operation (N in step S203), the
なお、上記の例では、ビデオゲーム処理装置100を例に説明していたが、タッチパネルなどの入力装置を用いたユーザインタフェース処理を行うデバイスであればどのようなデバイスであっても適用することができる。よって、ビデオゲーム以外の他のアプリケーションにおけるオブジェクト(ユーザインタフェース構成要素)の操作に関するユーザインタフェース処理においても、上述した各実施の形態と同様の処理を行うことが可能である。
In the above example, the video
また、上記の例では、プレイヤPにより表示画面13Aが押下されたときに仮想コントローラ101を表示する構成としていたが、仮想コントローラ101を表示画面13A上の所定位置に常に固定表示しておくようにしてもよい。また、仮想コントローラ101の主要な部品のみを表示するようにしてもよい。具体的には、エキスパートモードなどの特定のモードでのみ使用する部品を表示することなく、使用される可能性のある部品のみで構成される仮想コントローラ101を表示するようにすればよい。さらに、習熟度が低いときは仮想コントローラ101の表示位置を固定とし、習熟度が所定の値以上となったときに仮想コントローラ101の表示位置を非固定とするようにしてもよい。
In the above example, the
また、上記の例では、習熟度を判定するためのゲーム進行状態として合計プレイ時間を用いる構成としていたが、合計プレイ時間とするのは一例であり、クリアしたステージ数、特定ステージのクリアの有無、特定の機能の実行回数などとしてもよい。また、アプリケーションにおける特定の操作(例えばダッシュ操作)が使用されていることや、あらかじめ設定された特定の条件(例えば壁に当ることなく走行していること)を満たしていること、あるいは1又は2以上の特定のアイテムを取得していること、ミスオペレーションの回数、最初のチュートリアルを終了しているか否か、プレイヤのミスによる繰り返し行動の検知回数、所定のユーザオプションの利用の有無など、プレイヤの行動内容をゲーム進行状態として習熟度を判定するようにしてもよい。 In the above example, the total play time is used as the game progress state for determining the proficiency level. However, the total play time is only an example, and the number of cleared stages and whether or not a specific stage is cleared Alternatively, the number of executions of a specific function may be used. Further, a specific operation (for example, a dash operation) in the application is used, a predetermined condition (for example, traveling without hitting a wall) is satisfied, or 1 or 2 Whether the player has acquired the above specific items, the number of miss operations, whether or not the first tutorial has been completed, the number of repeated actions detected by the player's mistakes, whether or not a predetermined user option is used, etc. You may make it determine a proficiency level by making action content into a game progress state.
操作が上達していくと仮想コントローラ101を明確に表示しておく必要がなくなっていくと考えられ、例えば習熟度に応じて仮想コントローラ101の透明度を増加させていき、上級者に対しては非表示とするようにしても操作上の支障はないものと考えられる。特にビデオゲームなどのようなアプリケーションの場合には、ユーザはコントローラではなく画面に集中しているため、十字キーや仮想パッドなどの仮想コントローラが非表示となっていても操作に支障はないものと考えられる。
As the operation improves, it is considered that the
また、上記の例では、習熟度に応じて仮想コントローラ101の透明度を増加させていく場合について説明したが、仮想コントローラ101の操作状態が一定期間継続したか否かを監視し、操作状態が一定期間継続したことが検出されたことに応じて仮想コントローラ101の透明度を増加させる処理を行うようにしてもよい。同一の操作が一定期間継続しているときは、プレイヤは仮想コントローラ101を意識することなくゲームフィールドに注目していると考えられるため、仮想コントローラ101の操作状態が一定期間継続したことに応じて仮想コントローラ101の透明度を増加させるものとし、たとえ非表示とするようにしても操作上の支障はないものと考えられる。なお、仮想コントローラ101について同一の操作状態が継続している場合に、その継続期間が長くなるに従って仮想コントローラ101の透明度を増加させていくようにしてもよい。
In the above example, the case where the transparency of the
以上に説明したように、上述した実施の形態では、アプリケーション(例えば、ビデオゲーム)を制御するユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、表示画面13Aにユーザインタフェース構成部品(例えば仮想コントローラ101)を表示し、表示画面13A上に表示されたユーザインタフェース構成部品の操作を受け付け、受け付けられた操作に応じてアプリケーションを制御し、ユーザインタフェース構成部品の透明度を決定し、決定された透明度でユーザインタフェース構成部品を表示する構成としたので、タッチデバイスの操作性を向上させることができるようになる。
As described above, in the above-described embodiment, a user interface processing device (for example, video game processing device 100) that controls an application (for example, video game) displays a user interface component (for example, a virtual game) on the
また、上述した実施の形態において、アプリケーション(例えば、ビデオゲーム)を制御するユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、表示画面13Aに仮想コントローラ101を表示し、表示画面13A上に表示された仮想コントローラ101の操作を受け付け、受け付けられた操作に応じてアプリケーションを制御し、アプリケーションの制御状態(例えば、合計プレイ時間やクリアしたステージ数などのゲームの進行状態、プレイヤの行動に基づく制御状態)に応じてプレイヤの習熟度を判定し、判定された習熟度の高さに応じて透明度を増加した仮想コントローラ101を表示する構成としたので、タッチデバイスの操作性を向上させることができるようになる。
In the above-described embodiment, a user interface processing device (for example, video game processing device 100) that controls an application (for example, video game) displays the
すなわち、例えば習熟度が高いプレイヤに対しては、画面を完全に覆うことなく仮想コントローラ101を表示したり、仮想コントローラ101を非表示とすることができるようになり、仮想コントローラ101が重畳されている仮想コントローラ101の仮想の表示状態(表示物)を視認可能に表示することが可能となる。よって、操作上の支障を来たすことなく、仮想コントローラ101によるアプリケーション画面上の占有率を軽減し、視認性を向上させることができ、画面を広く使うことができるようになるのである。
That is, for example, for a player with a high level of proficiency, the
なお、例えば、プレイヤの習熟度が上がる前は例えば表示画面の左下領域に仮想コントローラ101を固定表示し、プレイヤの習熟度が上がった場合に上述した実施の形態のように仮想コントローラ101を任意の押下位置に表示するようにしてもよい。このような場合についても、プレイヤの習熟度等のビデオゲームにおけるゲームの様々な進行状況に応じて、仮想コントローラ101を半透明化あるいは透明化するようにすればよい。
For example, before the proficiency level of the player increases, for example, the
また、上述した実施の形態において、ユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、受け付けているユーザインタフェース構成部品(例えば仮想コントローラ101)の操作状態が一定期間継続したことが検出されたことに応じて透明度を増加させることに決定する構成とした場合についても、タッチデバイスの操作性を向上させることができるようになる。 In the above-described embodiment, the user interface processing device (for example, the video game processing device 100) detects that the operation state of the received user interface component (for example, the virtual controller 101) has continued for a certain period. The operability of the touch device can be improved even in a case where it is determined to increase the transparency accordingly.
すなわち、同一の操作が一定期間継続しているときは、プレイヤは仮想コントローラ101を意識することなくゲームフィールドに注目していると考えられるため、画面を完全に覆うことなく仮想コントローラ101を表示したり、仮想コントローラ101を非表示とすることができる。このため、仮想コントローラ101が重畳されている仮想コントローラ101の仮想の表示状態(表示物)を視認可能に表示することが可能となる。よって、操作上の支障を来たすことなく、仮想コントローラ101によるアプリケーション画面上の占有率を軽減し、視認性を向上させることができ、画面を広く使うことができるようになるのである。
That is, when the same operation continues for a certain period of time, it is considered that the player is paying attention to the game field without being aware of the
また、上述した実施の形態において、ユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、プレイヤのタッチパネルの接触操作による表示画面13Aの押下を受け付け、表示画面13Aの押下が受け付けられたときに、押下された表示画面13A上の位置である押下位置(例えば、初期押下位置)を検出し、表示画面13Aの押下が受け付けられたあと、その表示画面13Aの押下状態が終了したか否かを判定し、表示画面13Aの押下が受け付けられたことに基づいて、検出された押下位置に応じた所定位置(例えば、初期押下位置を中心とする位置)に仮想コントローラ101を表示し、押下状態が終了したと判定されたときに仮想コントローラ101の表示を終了する構成とした場合には、タッチデバイスの操作性を向上させることができるようになる。この場合、仮想コントローラ101は固定位置に表示されるものでないため、透明度を増加させることによる効果が高まることとなる。
In the above-described embodiment, when the user interface processing device (for example, the video game processing device 100) accepts the pressing of the
すなわち、表示画面上の任意の点に仮想コントローラを表示し、タッチパネルの押下が終了するまでの押下位置の変化に応じて操作対象オブジェクトを操作することができるようになるので、例えば、ゲーム画面において重要でない部分に仮想コントローラを表示させることで重要な部分が死角となってしまうことを回避することなどができるようになる。 In other words, the virtual controller is displayed at an arbitrary point on the display screen, and the operation target object can be operated according to the change in the pressed position until the touch panel is completely pressed. By displaying a virtual controller in an unimportant part, it becomes possible to avoid an important part from becoming a blind spot.
また、仮想コントローラを任意の位置に配置することができるため、ユーザの手の大きさやタッチデバイスの把持方法(例えば、タッチデバイスを横画面にして把持する場合と、縦画面にして把持する場合には、タッチ操作のしやすい位置が異なる場合がある)に応じてタッチデバイスの操作性が悪化するようなことがない。また、タッチデバイスを片手で把持した場合であって同様に、タッチデバイスの操作性が悪化するようなことがない。 In addition, since the virtual controller can be placed at any position, the size of the user's hand and the gripping method of the touch device (for example, when gripping the touch device with a horizontal screen and when gripping with a vertical screen) However, the operability of the touch device is not deteriorated depending on the position where the touch operation is easy to perform. Further, even when the touch device is held with one hand, the operability of the touch device is not deteriorated.
また、上述した実施の形態では、ユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、表示画面13Aの押下が受け付けられたあと、表示画面13Aの押下状態が終了したか否かを判定し、押下状態が終了したと判定されたときに、仮想コントローラの表示を終了する構成としているので、ユーザによる仮想コントローラの操作が終了したときに仮想コントーラの表示を終了することができるようになる。すなわち、必要なときにだけ仮想コントローラを表示することができるようになり、仮想コントローラを非表示とすることにより画面を広く使えるためタッチデバイスの操作性を向上させることができるようになる。
In the above-described embodiment, the user interface processing device (for example, the video game processing device 100) determines whether or not the pressing state of the
また、上述した実施の形態では、ユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、表示画面13Aの押下が受け付けられたあと押下状態が終了するまで、押下位置を継続して検出し、表示画面13Aの押下が最初に受け付けられたときに検出された押下位置である初期押下位置から、初期押下位置が検出されたあとに検出された現在の表示画面13A上の押下位置である現押下位置までの方向によって特定される移動方向指示操作(例えば、ドラッグ操作)を受け付け、受け付けられた移動方向指示操作に応じて、アプリケーションにおけるオブジェクト(例えば、プレイヤキャラクタP1)を初期押下位置から現押下位置に向かう方向に移動させる制御を行う構成としているので、簡単な操作により表示画面に表示されたオブジェクトの移動方向指示操作を行うことができるようになる。
In the above-described embodiment, the user interface processing device (for example, the video game processing device 100) continuously detects the pressed position until the pressed state ends after the pressing of the
また、上述した実施の形態では、ユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)における仮想コントローラ101は、略円形に形成されたコントローラ本体102と、コントローラ本体102の中心位置から任意の方向に移動可能な操作部103とを備えており、初期押下位置に応じた所定位置(例えば、初期押下位置を中心とする位置)にコントローラ本体102を固定表示し、コントローラ本体102の中心位置を基点に初期押下位置から現押下位置に向かう方向に操作部103を可動表示する構成としているので、ユーザに対して、ユーザによる操作入力がどのように反映されているのかを容易に認識させることができるようになる。
In the above-described embodiment, the
また、上述した実施の形態では、ユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、初期押下位置から現押下位置までの距離によって特定される移動速度指示操作(例えば、ドラッグ操作)を受け付け、受け付けられた移動速度指示操作に応じて、オブジェクト(例えば、プレイヤキャラクタP1)を初期押下位置から現押下位置までの距離に応じた速度で移動させる制御を行う(例えば、初期押下位置から現押下位置までの距離に応じて表示位置が決定される操作部103の位置に応じて歩行動作もしくは走行動作を実行する)構成としているので、簡単な操作により操作対象となるオブジェクトの動作を変更することができるようになる。また、移動速度を、初期押下位置から現押下位置までの距離に応じてアナログ的に加算させる構成とすることにより、ユーザが操作対象となるオブジェクトの移動速度を調節しやすくなる。
In the above-described embodiment, the user interface processing device (for example, the video game processing device 100) accepts a moving speed instruction operation (for example, a drag operation) specified by the distance from the initial pressed position to the current pressed position. In response to the accepted movement speed instruction operation, control is performed to move the object (for example, the player character P1) at a speed corresponding to the distance from the initial pressed position to the current pressed position (for example, from the initial pressed position to the current pressed position). Since the walking operation or the running operation is executed according to the position of the
なお、移動速度指示操作として、初期押下位置から現押下位置までの距離区間によってオブジェクトの移動速度が特定される所定数段階の操作を受け付けるようにしてもよいし、初期押下位置から現押下位置までの距離に応じてオブジェクトの移動速度がアナログ的に徐々に変化していくような操作を受け付けるようにしてもよい。後者の場合、例えば、初期押下位置から現押下位置までの距離が長くなっていくに従って、歩行、小走り、走行、ダッシュと徐々に変化していき、オブジェクトの移動速度が徐々に速くなっていくこととなる。 In addition, as the movement speed instruction operation, an operation of a predetermined number of steps in which the movement speed of the object is specified by the distance section from the initial pressing position to the current pressing position may be accepted, or from the initial pressing position to the current pressing position. An operation in which the moving speed of the object gradually changes in an analog manner according to the distance may be accepted. In the latter case, for example, as the distance from the initial pressed position to the current pressed position becomes longer, it gradually changes to walking, running, running, and dash, and the moving speed of the object gradually increases. It becomes.
また、上述した実施の形態では、ユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、仮想コントローラ101は、略円形に形成されたコントローラ本体102と、コントローラ本体102の中心位置から任意の方向に移動可能な操作部103とを備えており、初期押下位置に応じた所定位置(例えば、初期押下位置を中心とする位置)にコントローラ本体102を固定表示し、コントローラ本体102の中心位置を基点に初期押下位置から現押下位置に向かう方向であって初期押下位置から現押下位置までの距離に応じて段階的に遠ざかる位置に操作部103を可動表示する構成としているので、ユーザに対して、ユーザによる操作入力がどのように反映されているのかを容易に認識させることができるようになる。
In the above-described embodiment, the user interface processing device (for example, the video game processing device 100) is configured such that the
また、上述した実施の形態では、ユーザインタフェース処理装置(例えば、ビデオゲーム処理装置100)が、表示画面13Aの押下が最初に受け付けられたあとその表示画面13Aの押下状態が所定時間継続したことに応じて、仮想コントローラ101を表示する構成としているので、必要なときにだけ仮想コントローラ101を表示することができるようになり、操作者の混乱を招く恐れがなくなる。
In the above-described embodiment, the user interface processing device (for example, the video game processing device 100) has received the first pressing of the
なお、上述した実施の形態においては特に言及していないが、ビデオゲーム処理装置100は、仮想コントローラ101の操作に応じてプレイヤキャラクタP1に対する移動制御(例えば、歩行や走行)が実行されたことに応じて、ゲームにおける他のキャラクタとの会話などの所定のイベント発生条件が満たされた場合に、表示画面13Aに所定のイベントアイコンを表示して、イベントアイコンが表示されている状態で押下状態が終了した場合、またはイベントアイコンが選択された場合に、対応するイベントが実行される構成としてもよい。このような構成とすることにより、よりタッチデバイスの操作性を向上させることができるようになる。
Although not particularly mentioned in the above-described embodiment, the video
以下、表示画面13Aに表示されたイベントアイコンが選択された場合に、対応するイベントを実行する場合について、図面を参照して説明する。
Hereinafter, a case where a corresponding event is executed when an event icon displayed on the
図15は、ビデオゲーム処理装置100が実行するイベントアイコン表示処理の例を示すフローチャートである。イベントアイコン表示処理は、ゲームの進行に応じて、プレイヤPによってプレイヤキャラクタP1が操作可能な状態となったときに開始される。
FIG. 15 is a flowchart showing an example of event icon display processing executed by the video
イベントアイコン表示処理では、先ず、制御部11が、プレイヤキャラクタP1がイベント発生領域内に位置しているか否かを判定する(ステップS301)。ここで、イベント発生領域とは、所定のイベント発生条件が満たされる領域であり、例えば「会話」のイベントであれば、他のキャラクタの表示位置から所定の距離以内の領域がイベント発生領域となる。
In the event icon display process, first, the
プレイヤキャラクタP1がイベント発生領域内に位置していると判定すると(ステップS301のY)、制御部11は、イベント発生領域に対応するイベントアイコンを表示画面13Aに表示する(ステップS302)。このとき、イベントアイコンを表示する位置は、イベント発生領域の近傍であってもよいし、仮想コントローラ101の近傍であってもよい。
If it is determined that the player character P1 is located in the event occurrence area (Y in step S301), the
図16は、このときのゲーム画面の例を示す説明図である。図16に示すように、表示画面13Aに表示されるゲーム画面は、プレイヤPの操作に応じて表示された仮想コントローラ101と、移動制御が実行されているプレイヤキャラクタP1と、ノンプレイヤキャラクタP2と、プレイヤキャラクタP1がノンプレイヤキャラクタP2に対するイベント発生領域内に位置していることに応じて表示されたイベントアイコン301とを含む。
FIG. 16 is an explanatory diagram showing an example of the game screen at this time. As shown in FIG. 16, the game screen displayed on the
イベントアイコンを表示すると、制御部11は、表示画面13A(表示画面13Aに設けられたタッチパネル)の押下状態が終了したか否かを判定する(ステップS303)。ここで、押下状態が終了していないと判定すると(ステップS303のN)、制御部11は、ステップS301に遷移する。
When the event icon is displayed, the
一方、押下状態が終了したと判定すると(ステップS303のY)、制御部11は、プレイヤキャラクタP1の動作(歩行動作または走行動作)と仮想コントローラの101の表示を終了し(ステップS304)、イベントアイコン301の表示位置が押下されることによるイベントアイコン301の選択を受け付ける(ステップS305)。ここで、イベントアイコン301の選択を受け付けない場合(ステップS305のN)、制御部11は、ステップS301に遷移する。
On the other hand, if it is determined that the pressed state has ended (Y in step S303), the
一方、イベントアイコン301の選択を受け付けると(ステップS305のY)、制御部11は、イベントアイコン301に対応するイベント、すなわちプレイヤキャラクタP1とノンプレイヤキャラクタP2との会話イベントに必要な処理を実行して(ステップS306)、ステップS301に遷移する。
On the other hand, when the selection of the
なお、ステップS301にて、プレイヤキャラクタP1がイベント発生領域内に位置していないと判定すると(ステップS301のN)、制御部11は、イベントアイコン301が表示されている場合にはその表示を終了して(ステップS307)、ステップS301に遷移する。
If it is determined in step S301 that the player character P1 is not located in the event occurrence area (N in step S301), the
上記のような構成とすることにより、よりタッチデバイスの操作性を向上させることができるようになる。 With the above configuration, the operability of the touch device can be further improved.
本発明によれば、タッチパネルを用いたタッチデバイスおけるゲーム操作等のアプリケーション上の操作において、操作性を向上させるのに有用である。また、一般的なコンソールゲーム機にも応用可能である。 According to the present invention, it is useful for improving the operability in an operation on an application such as a game operation in a touch device using a touch panel. It can also be applied to general console game machines.
10 プログラム読取部
11 制御部
12 記憶部
13 表示部
14 音声出力部
15 操作受付部
20 ゲームカートリッジ
100 ビデオゲーム処理装置
DESCRIPTION OF
Claims (10)
表示画面にユーザインタフェース構成部品を表示するユーザインタフェース構成部品表示手段と、
前記表示画面上に表示された前記ユーザインタフェース構成部品の操作を受け付ける操作受付手段と、
該操作受付手段によって受け付けられた操作に応じて前記アプリケーションを制御する操作対応制御手段と、
前記ユーザインタフェース構成部品の透明度を決定する透明度決定手段とを含み、
前記ユーザインタフェース構成部品表示手段は、前記透明度決定手段によって決定された透明度で前記ユーザインタフェース構成部品を表示する
ことを特徴とするビデオゲーム処理装置。 A video game processing device for controlling the progress of a video game,
User interface component display means for displaying user interface components on the display screen;
Operation accepting means for accepting an operation of the user interface component displayed on the display screen;
Operation corresponding control means for controlling the application in accordance with the operation received by the operation receiving means;
Transparency determining means for determining transparency of the user interface component,
The video game processing apparatus, wherein the user interface component display means displays the user interface component with the transparency determined by the transparency determination means.
前記透明度決定手段は、前記継続操作判定手段によって操作状態が一定期間継続したことが検出されたことに応じて透明度を増加させることに決定する
請求項1記載のビデオゲーム処理装置。 Including a continuation operation determination unit that detects that the operation state of the user interface component received by the operation reception unit has continued for a certain period of time;
The video game processing apparatus according to claim 1, wherein the transparency determining unit determines to increase the transparency in response to detecting that the operation state has continued for a certain period by the continuous operation determining unit.
該押下受付手段によって前記表示画面の押下が受け付けられたときに、押下された前記表示画面上の位置である押下位置を検出する押下位置検出手段と、
前記押下受付手段によって前記表示画面の押下が受け付けられたあと、当該表示画面の押下状態が終了したか否かを判定する押下終了判定手段とを含み、
前記ユーザインタフェース構成部品表示手段は、
前記押下受付手段によって前記表示画面の押下が受け付けられたことに基づいて前記押下位置検出手段によって検出された押下位置に応じた所定位置に前記ユーザインタフェース構成部品を表示し、前記押下終了判定手段によって押下状態が終了したと判定されたときに前記ユーザインタフェース構成部品の表示を終了する
請求項2記載のビデオゲーム処理装置。 A press receiving means for receiving a press on a display screen by a touch operation of a player's touch panel;
A pressing position detecting unit that detects a pressed position that is a position on the display screen that is pressed when the pressing of the display screen is received by the pressing receiving unit;
A pressing end determination unit that determines whether or not the pressing state of the display screen has ended after the pressing of the display screen is received by the pressing receiving unit;
The user interface component display means includes:
The user interface component is displayed at a predetermined position corresponding to the pressed position detected by the pressed position detecting means based on the pressing of the display screen received by the pressed receiving means, and the pressed end determining means The video game processing apparatus according to claim 2, wherein the display of the user interface component is terminated when it is determined that the pressed state is terminated.
前記操作受付手段は、前記押下受付手段によって前記表示画面の押下が最初に受け付けられたときに前記押下位置検出手段によって検出された押下位置である初期押下位置から、該初期押下位置が検出されたあとに前記押下位置検出手段によって検出された現在の前記表示画面上の押下位置である現押下位置までの方向によって特定される移動方向指示操作を受け付け、
前記操作対応制御手段は、前記操作受付手段によって受け付けられた前記移動方向指示操作に応じて、前記アプリケーションにおけるオブジェクトを前記初期押下位置から前記現押下位置に向かう方向に移動させる制御を行う
請求項3記載のビデオゲーム処理装置。 The pressed position detecting unit continuously detects the pressed position until the pressed state is finished after the pressing of the display screen is received by the pressed receiving unit,
The operation accepting unit detects the initial pressed position from an initial pressed position which is a pressed position detected by the pressed position detecting unit when the press of the display screen is first received by the press receiving unit. A movement direction instruction operation specified by the direction to the current pressed position, which is the current pressed position on the display screen, detected by the pressed position detecting means later,
The operation corresponding control unit performs control to move an object in the application in a direction from the initial pressed position toward the current pressed position in response to the movement direction instruction operation received by the operation receiving unit. The video game processing device described.
前記ユーザインタフェース構成部品表示手段は、前記初期押下位置に応じた前記所定位置に前記コントローラ本体を固定表示し、前記コントローラ本体の中心位置を基点に前記初期押下位置から前記現押下位置に向かう方向に前記操作部を可動表示する
請求項4記載のビデオゲーム処理装置。 The user interface component is a virtual controller including a controller body formed in a substantially circular shape and an operation unit movable in an arbitrary direction from the center position of the controller body,
The user interface component display means fixedly displays the controller main body at the predetermined position corresponding to the initial pressed position, and in a direction from the initial pressed position toward the current pressed position based on the center position of the controller main body. The video game processing device according to claim 4, wherein the operation unit is movably displayed.
前記操作対応制御手段は、前記操作受付手段によって受け付けられた前記移動速度指示操作に応じて、前記オブジェクトを前記初期押下位置から前記現押下位置までの距離に応じた速度で移動させる制御を行う
請求項4または請求項5記載のビデオゲーム処理装置。 The operation accepting means accepts a moving speed instruction operation specified by a distance from the initial pressed position to the current pressed position,
The operation response control unit performs control to move the object at a speed corresponding to a distance from the initial pressed position to the current pressed position in response to the movement speed instruction operation received by the operation receiving unit. The video game processing device according to claim 4 or 5.
前記ユーザインタフェース構成部品表示手段は、前記初期押下位置に応じた前記所定位置に前記コントローラ本体を固定表示し、前記コントローラ本体の中心位置を基点に前記初期押下位置から前記現押下位置に向かう方向であって当該初期押下位置から当該現押下位置までの距離に応じて段階的に遠ざかる位置に前記操作部を可動表示する
請求項6記載のビデオゲーム処理装置。 The user interface component is a virtual controller including a controller body formed in a substantially circular shape and an operation unit movable in an arbitrary direction from the center position of the controller body,
The user interface component display means fixedly displays the controller main body at the predetermined position corresponding to the initial pressed position, and in a direction from the initial pressed position toward the current pressed position with the central position of the controller main body as a base point. The video game processing apparatus according to claim 6, wherein the operation unit is movably displayed at a position that gradually moves away according to a distance from the initial pressed position to the current pressed position.
請求項3から請求項7のうちいずれかに記載のビデオゲーム処理装置。 The user interface component display means displays the user interface component in response to the pressing state of the display screen continuing for a predetermined time after the pressing of the display screen is first received by the press receiving means. The video game processing device according to claim 3.
表示画面にユーザインタフェース構成部品を表示するユーザインタフェース構成部品表示処理と、
前記表示画面上に表示された前記ユーザインタフェース構成部品の操作を受け付ける操作受付処理と、
該操作受付処理にて受け付けた操作に応じて前記アプリケーションを制御する操作対応制御処理と、
前記ユーザインタフェース構成部品の透明度を決定する透明度決定処理とを含み、
前記ユーザインタフェース構成部品表示処理では、前記透明度決定処理にて決定した透明度で前記ユーザインタフェース構成部品を表示する
ことを特徴とするビデオゲーム処理方法。 A video game processing method for controlling the progress of a video game,
User interface component display processing for displaying the user interface component on the display screen;
An operation accepting process for accepting an operation of the user interface component displayed on the display screen;
An operation corresponding control process for controlling the application in accordance with the operation received in the operation reception process;
Transparency determination processing for determining the transparency of the user interface component,
In the user interface component display process, the user interface component is displayed with the transparency determined in the transparency determination process.
コンピュータに、
表示画面にユーザインタフェース構成部品を表示するユーザインタフェース構成部品表示処理と、
前記表示画面上に表示された前記ユーザインタフェース構成部品の操作を受け付ける操作受付処理と、
該操作受付処理にて受け付けた操作に応じて前記アプリケーションを制御する操作対応制御処理と、
前記ユーザインタフェース構成部品の透明度を決定する透明度決定処理とを実行させ、
前記ユーザインタフェース構成部品表示処理では、前記透明度決定処理にて決定した透明度で前記ユーザインタフェース構成部品を表示する処理を
実行させるためのビデオゲーム処理プログラム。
A video game processing program for controlling the progress of a video game,
On the computer,
User interface component display processing for displaying the user interface component on the display screen;
An operation accepting process for accepting an operation of the user interface component displayed on the display screen;
An operation corresponding control process for controlling the application in accordance with the operation received in the operation reception process;
A transparency determination process for determining transparency of the user interface component;
In the user interface component display process, a video game processing program for executing a process of displaying the user interface component with the transparency determined in the transparency determination process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013069754A JP5624168B2 (en) | 2013-03-28 | 2013-03-28 | Video game processing apparatus, video game processing method, and video game processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013069754A JP5624168B2 (en) | 2013-03-28 | 2013-03-28 | Video game processing apparatus, video game processing method, and video game processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010103234A Division JP5237325B2 (en) | 2010-04-28 | 2010-04-28 | Video game processing apparatus, video game processing method, and video game processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014194748A Division JP6356558B2 (en) | 2014-09-25 | 2014-09-25 | Video game processing apparatus, video game processing method, and video game processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013146583A true JP2013146583A (en) | 2013-08-01 |
JP5624168B2 JP5624168B2 (en) | 2014-11-12 |
Family
ID=49044697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013069754A Active JP5624168B2 (en) | 2013-03-28 | 2013-03-28 | Video game processing apparatus, video game processing method, and video game processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5624168B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150100236A (en) * | 2014-02-25 | 2015-09-02 | 주식회사 넥슨코리아 | Terminal controlled by touch input and method thereof |
JP2015231437A (en) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | Program and game system |
KR101836961B1 (en) * | 2015-06-16 | 2018-03-09 | 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 | Operation and control method and terminal based on touch screen |
KR20200029407A (en) * | 2014-02-25 | 2020-03-18 | 주식회사 넥슨코리아 | Terminal controlled by touch input and method thereof |
CN113599810A (en) * | 2021-08-06 | 2021-11-05 | 腾讯科技(深圳)有限公司 | Display control method, device, equipment and medium based on virtual object |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001084073A (en) * | 1999-09-13 | 2001-03-30 | Fujitsu Ltd | Graphical user interface display device and recording medium storing program for allowing computer to process in the device |
JP2002000939A (en) * | 2000-06-19 | 2002-01-08 | Sega Corp | Electronic game device, method therefor and storage medium |
JP2007181713A (en) * | 2007-02-19 | 2007-07-19 | Namco Bandai Games Inc | Game machine and information storage medium |
JP4937421B2 (en) * | 2010-02-26 | 2012-05-23 | 株式会社カプコン | Computer program and computer apparatus |
-
2013
- 2013-03-28 JP JP2013069754A patent/JP5624168B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001084073A (en) * | 1999-09-13 | 2001-03-30 | Fujitsu Ltd | Graphical user interface display device and recording medium storing program for allowing computer to process in the device |
JP2002000939A (en) * | 2000-06-19 | 2002-01-08 | Sega Corp | Electronic game device, method therefor and storage medium |
JP2007181713A (en) * | 2007-02-19 | 2007-07-19 | Namco Bandai Games Inc | Game machine and information storage medium |
JP4937421B2 (en) * | 2010-02-26 | 2012-05-23 | 株式会社カプコン | Computer program and computer apparatus |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150100236A (en) * | 2014-02-25 | 2015-09-02 | 주식회사 넥슨코리아 | Terminal controlled by touch input and method thereof |
KR102086863B1 (en) | 2014-02-25 | 2020-03-09 | 주식회사 넥슨코리아 | Terminal controlled by touch input and method thereof |
KR20200029407A (en) * | 2014-02-25 | 2020-03-18 | 주식회사 넥슨코리아 | Terminal controlled by touch input and method thereof |
JP2015231437A (en) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | Program and game system |
KR101836961B1 (en) * | 2015-06-16 | 2018-03-09 | 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 | Operation and control method and terminal based on touch screen |
CN113599810A (en) * | 2021-08-06 | 2021-11-05 | 腾讯科技(深圳)有限公司 | Display control method, device, equipment and medium based on virtual object |
CN113599810B (en) * | 2021-08-06 | 2023-09-01 | 腾讯科技(深圳)有限公司 | Virtual object-based display control method, device, equipment and medium |
Also Published As
Publication number | Publication date |
---|---|
JP5624168B2 (en) | 2014-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5237325B2 (en) | Video game processing apparatus, video game processing method, and video game processing program | |
JP4932010B2 (en) | User interface processing device, user interface processing method, and user interface processing program | |
US11383160B2 (en) | Video game processing apparatus and video game processing program product | |
US8764533B2 (en) | User interface processing apparatus, method, and medium for selecting an object in an application | |
US9901821B2 (en) | Video game processing apparatus and video game processing program product | |
WO2011105087A1 (en) | Computer device, storage medium, and control method | |
JP5624168B2 (en) | Video game processing apparatus, video game processing method, and video game processing program | |
JPWO2014147668A1 (en) | Video game processing apparatus, video game processing method, and video game processing program | |
JP2014208258A (en) | Video game processing device and video game processing program | |
JP2016193216A (en) | Video game processor, video game processing method, and video game processing program | |
JP6864050B2 (en) | Video game processor and video game processor | |
JP7017549B2 (en) | Video game processor, video game processing method, and video game processing program | |
JP6166191B2 (en) | Video game processing apparatus and video game processing program | |
JP6356558B2 (en) | Video game processing apparatus, video game processing method, and video game processing program | |
JP6659604B2 (en) | Video game processing device, video game processing method, and video game processing program | |
JP2013000386A (en) | Portable game device | |
JP2017159149A (en) | Video game processing device, and video game processing program | |
JP6450299B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP6450297B2 (en) | GAME PROGRAM AND GAME DEVICE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5624168 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |