JP2018075225A - 情報処理プログラム、情報処理方法、及び情報処理装置 - Google Patents

情報処理プログラム、情報処理方法、及び情報処理装置 Download PDF

Info

Publication number
JP2018075225A
JP2018075225A JP2016219538A JP2016219538A JP2018075225A JP 2018075225 A JP2018075225 A JP 2018075225A JP 2016219538 A JP2016219538 A JP 2016219538A JP 2016219538 A JP2016219538 A JP 2016219538A JP 2018075225 A JP2018075225 A JP 2018075225A
Authority
JP
Japan
Prior art keywords
instruction
state
skill
display medium
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016219538A
Other languages
English (en)
Other versions
JP6143934B1 (ja
Inventor
顕介 中原
Kensuke Nakahara
顕介 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2016219538A priority Critical patent/JP6143934B1/ja
Application granted granted Critical
Publication of JP6143934B1 publication Critical patent/JP6143934B1/ja
Priority to TW106137706A priority patent/TWI645337B/zh
Priority to KR1020197012947A priority patent/KR102232032B1/ko
Priority to CN201780069195.7A priority patent/CN109982756B/zh
Priority to PCT/JP2017/040156 priority patent/WO2018088408A1/ja
Publication of JP2018075225A publication Critical patent/JP2018075225A/ja
Priority to US16/406,753 priority patent/US10990274B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ゲームのプレイヤーに対して、より自由度の高い操作を実現する技術を提供する。【解決手段】タッチ操作管理部61は、所定の時間間隔毎に、タッチ操作入力部26におけるタッチ操作の有無を検出し、タッチ操作を管理する。状態検出部71は、プレイヤーが行うスワイプ操作の各種状態を検出する。移動指示受付部81は、タッチ操作管理部61で管理された各種タッチ操作のうち、移動指示を受け付ける。スキル指示受付部82は、タッチ操作管理部61で検出した各種タッチ操作のうち、スキル関連指示を受け付ける。またスキル指示受付部82は、スワイプの第2状態から第3状態に移行する際のタッチ位置の移動方向に応じて、所定方向の指定を受付ける。表示画像生成部53は、各種操作子を表示するための表示画像の生成を行う。表示制御部62は、各種ゲームの表示画像を表示部27に表示するための制御を行う。【選択図】図2

Description

本発明は、情報処理プログラム、情報処理方法、及び情報処理装置に関する。
近年、スマートフォン等の携帯端末で実行されるゲームのうち、携帯端末に表示される画像は、ゲームの人気を左右する重要な要因の1つである。
そのため、プレイヤーに提示されるGUI(Grafical User Interface)の操作性を向上させるための技術としては、様々な試みがなされてきた。
そのための技術の1つとして、タッチパネルの操作時に、あたかも弾性体として挙動するオブジェクトを表示し、プレイヤーが弾性を有するスマートフォンを操作しているかのようなユーザインターフェイスを提供する技術(例えば、特許文献1参照)等が存在する。
上述の技術では、タッチ操作中にタッチパネルから指を離すことなく、複数の動作指示(例えば、ゲームキャラクタの移動とスキルの発動等)を実行することが出来る。
特開2016−48571号公報
しかしながら、上述の技術では、タッチ操作中にタッチパネルから指を離すことなく、複数の動作指示を実行することができるに過ぎず、その複数の動作指示が独立して実行されるものではなかった。
具体的に換言すれば、上述の技術を含む従来の技術は、複数の動作を同時に実行するような指示(例えば、「移動中に剣から弓に持ち替えて、斜め45度に向けてスキルを打ち出す」というような複合的な動作)を実行することは困難であった。
特に、アクションゲーム等の分野では、リアルタイムでゲームが進行することも珍しくなく、ゲームのプレイヤーからは、スマートフォン等においても短時間で実行可能なシンプルな操作のみで、より自由度の高い操作が可能となるユーザインターフェイス開発が望まれていた。
本発明は、このような状況に鑑みてなされたものであり、ゲームのプレイヤーに対して、より自由度の高い操作を実現するものである。
上記目的を達成するため、本発明の一態様の情報処理プログラムは、
仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行するコンピュータに、
前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出ステップと、
前記表示媒体へ接触又は近接している前記物体の個数の管理状態と当該物体の前記表示媒体における位置との一方又は双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定ステップと、
前記判定ステップの判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付ステップと、
を含む制御処理を実行させ、
前記検出ステップは、前記第2指示として受付けられる操作として、前記表示媒体への前記物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて前記物体が移動する第2状態を経て、前記表示媒体への前記物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出するステップを含み、
前記受付ステップは、前記第1状態が検出された際の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の前記物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付けるステップを含む、
情報処理を実行させる。
本発明の一態様の上記情報処理プログラムに対応する情報処理方法及び情報処理装置の夫々も、本発明の一態様の情報処理方法及び情報処理装置の夫々として提供される。
本発明によれば、ゲームのプレイヤーに対して、より自由度の高い操作を実現する技術を提供することが出来る。
本発明の一実施形態に係るプレイヤー端末のハードウェア構成の一例を示すブロック図である。 図1のプレイヤー端末の機能的構成の一例を示す機能ブロック図である。 図2のプレイヤー端末で実行されるゲーム実行処理の結果の一例を示す図である。 図2のプレイヤー端末で実行されるゲーム実行処理の流れを示すフローチャートである。 図2のプレイヤー端末で実行される移動処理の流れを示すフローチャートである。 図2のプレイヤー端末で実行されるスキル発動処理の流れを示すフローチャートである。 図2のプレイヤー端末で実行されるゲーム実行処理の結果の一例であって、図3とは異なる例を示す図である。 図2のプレイヤー端末で実行されるゲーム実行処理の結果の一例であって、図3や図7とは異なる例を示す図である。 図2のプレイヤー端末で実行されるゲーム実行処理の結果の一例であって、図3や図7とは異なる例を示す図である。
以下、本発明の実施形態について、図面を用いて説明する。
なお、以下において、単に「画像」と呼ぶ場合には、「動画像」と「静止画像」との両方を含むものとする。
また、「動画像」には、次の第1処理乃至第3処理の夫々により表示される画像を含むものとする。
第1処理とは、平面画像(2D画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対して、複数枚からなる一連の静止画像を時間経過とともに連続的に切り替えて表示させる処理をいう。具体的には例えば、2次元アニメーション、いわゆるパラパラ漫画的な処理が第1処理に該当する。
第2処理とは、立体画像(3Dモデルの画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対応するモーションを設定しておき、時間経過とともに当該モーションを変化させて表示させる処理をいう。具体的には例えば、3次元アニメーションが第2処理に該当する。
第3処理とは、オブジェクト(例えばゲームキャラクタ)の夫々の動作に対応した映像(即ち動画)を準備しておき、時間経過とともに当該映像を流していく処理をいう。
図1は、本発明の一実施形態に係るプレイヤー端末1のハードウェア構成を示すブロック図である。
プレイヤー端末1は、スマートフォン等で構成される。
プレイヤー端末1は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、タッチ操作入力部26と、表示部27と、入力部28と、記憶部29と、通信部30と、ドライブ31と、を備えている。
CPU21は、ROM22に記録されているプログラム、又は、記憶部29からRAM23にロードされたプログラムに従って各種の処理を実行する。
RAM23には、CPU21が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU21、ROM22及びRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インターフェィス25も接続されている。入出力インターフェィス25には、タッチ操作入力部26、表示部27、入力部28、記憶部29、通信部30及びドライブ31が接続されている。
タッチ操作入力部26は、例えば表示部27に積層される静電容量式又は抵抗膜式(感圧式)の位置入力センサにより構成され、タッチ操作がなされた位置の座標を検出する。
ここで、タッチ操作とは、タッチ操作入力部26に対する物体の接触又は近接の操作をいう。タッチ操作入力部26に対して接触又は近接する物体は、例えばプレイヤーの指やタッチペン等である。なお、以下、タッチ操作がなされた位置を「タッチ位置」と呼び、タッチ位置の座標を「タッチ座標」と呼ぶ。
また、初めのタッチ操作が終了しないうちに、次のタッチ操作がなされるなど、複数のタッチ操作が同時になされる場合もある。このような、同時になされた複数のタッチ操作を「マルチタッチ」と呼ぶ。本実施形態のタッチ操作入力部26は、マルチタッチに対応可能となっている。
表示部27は、液晶等のディスプレイにより構成され、ゲームに関する画像等、各種画像を表示する。
このように、本実施形態では、タッチ操作入力部26と表示部27とにより、タッチパネルが構成されている。
なお、本明細書で「表示媒体」と呼ぶ場合、単に表示部27を意味せず、タッチ操作入力部26と表示部27とから構成される「タッチパネル」を意味する。
ここで、タッチパネルにおけるタッチ操作の種類としては、例えば、スワイプとフリックが存在する。
ただし、スワイプもフリックも、表示媒体への物体の接触又は近接が開始された第1状態から、表示媒体への接触又は近接が維持されて物体の位置が変化する第2状態を経て、表示媒体への物体の接触又は近接が解除される第3状態まで至る一連の操作である点は変わらない。そこで、本明細書では、このような一連の操作をまとめて「スワイプ」と呼ぶことにする。
換言すると、本明細書でいう「スワイプ」は、一般的に呼ばれるスワイプの他、上述のフリック等も含まれる広義な概念である。
入力部28は、各種ハードウェア釦等で構成され、プレイヤーの指示操作に応じて各種情報を入力する。
記憶部29は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部30は、図示せぬインターネットを含むネットワークを介して他の装置(図示せぬサーバや図示せぬ他のプレイヤー端末)との間で行う通信を制御する。
ドライブ31は、必要に応じて設けられる。ドライブ31には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア32が適宜装着される。ドライブ31によってリムーバブルメディア32から読み出されたプログラムは、必要に応じて記憶部29にインストールされる。また、リムーバブルメディア32は、記憶部29に記憶されている各種データも、記憶部29と同様に記憶することができる。
このような図1のプレイヤー端末1の各種ハードウェアと各種ソフトウェアとの協働により、プレイヤー端末1で各種ゲームの実行が可能になる。
即ち、プレイヤー端末1は、各種ゲームの実行にあたり、図2に示すような機能的構成を有する。
図2は、図1のプレイヤー端末1の機能的構成の一例を示す機能ブロック図である。
図2に示すように、プレイヤー端末1のCPU21においては、ユーザインターフェイス制御部51と、受付部52と、表示画像生成部53とが機能する。
なお、図示はしないが、前提として、本実施形態に係るゲームを実行するための機能ブロック(ゲーム実行部)がCPU21において機能している。
ユーザインターフェイス制御部51は、ゲーム実行時のタッチパネルでのユーザインターフェイスの制御を実行する。
このユーザインターフェイス制御部51には、タッチ操作管理部61と表示制御部62とが設けられている。
タッチ操作管理部61は、所定の時間間隔毎に、タッチ操作入力部26に対するタッチ操作の有無を検出し、タッチ操作が有った場合にはそのタッチ位置(タッチ座標)を検出する。
ここで、上述したように、タッチ操作入力部26は、複数の指等によるタッチ操作、即ちマルチタッチに対応可能となっている。
このため、タッチ操作管理部61は、複数のタッチ操作を検出した場合、検出した複数のタッチ操作の内容の夫々を独立して管理する。具体的には例えば、タッチ操作管理部61は、1つのタッチ操作を検出する毎に、その種類を判別し、管理番号を付与する。このようにして、タッチ操作管理部61は、複数のタッチ操作の夫々に対して、判別した種類と付与した管理番号を夫々紐付けて管理する。これにより、複数のタッチ操作について、その種類や操作の時間的順番等の管理が可能になる。
ここで、1つのタッチ操作(管理番号で一意に特定される1のタッチ操作)については、「所定の時間間隔」毎にタッチ位置が逐次検出される。このようにして検出される複数のタッチ位置は、上述したように、当該1つのタッチ操作(管理番号で一意に特定される1つのタッチ操作)についてのタッチ位置の変化方向や変化量等を演算するために用いられる。
即ち、タッチ位置を検出する「所定の時間間隔」は、これらの演算が可能であれば、特に限定されない。ただし、本実施形態では、タッチパネルにフレームが表示される毎にタッチ位置が検出されるものとし、「所定の時間間隔」は、連続して表示される2つのフレームの時間間隔であるものとする。
即ち、本実施形態では、タッチ位置の変化方向とは、最新フレームにおけるタッチ位置(以下、「最新フレームタッチ位置」と呼ぶ)と、その最新フレームの1つ前のフレームにおけるタッチ位置(以下、「直前フレームタッチ位置」と呼ぶ)との差分に基づいて、決定されるものとする。
このタッチ操作管理部61には、状態検出部71が設けられる。
状態検出部71は、タッチ操作管理部61により検出されたタッチ操作がスワイプであった場合に機能し、スワイプの各種状態(スワイプの第1状態乃至第3状態の何れか)を検出する。
表示制御部62は、詳細は後述するが、実行中のゲーム内容を含む画像(以下、「ゲーム画像」と呼ぶ)を表示媒体に表示させる制御を実行する。
受付部52は、タッチ操作管理部61で検出された各種タッチ操作をゲーム内指示として受け付ける。
ここで、本実施形態で取り扱われるゲームは、所定のグローバル座標系で構築される仮想的な3次元空間(以下、単に「仮想空間」と呼ぶ)及び当該仮想空間内で移動可能なオブジェクト(移動オブジェクト)であるゲームキャラクタを含むものとする。この場合、プレイヤーは、所定のタッチ操作をすることで、ゲームキャラクタの移動に関する指示(以下、「移動指示」と呼ぶ)をすることができる。また、プレイヤーは、別の所定のタッチ操作(後述するように本実施形態ではスワイプ)をすることで、1種類以上のスキルのうち任意の種類のスキルを選択して、そのスキルの発動方向として、仮想空間内の所定方向を指定して、そのスキルを発動させるまでの一連の指示(以下、「スキル関連指示」と呼ぶ)をすることができる。
また、本実施形態において、スキルとは、ゲームキャラクタに対応するオブジェクト及びその他のオブジェクトを用いて表現される様々な行動を指し、例えば、剣で攻撃、剣で連続攻撃、弓矢で射撃、弓矢で連続射撃、魔法による攻撃を放つ、魔法による攻撃を連続して放つ、盾を構える、盾で打撃する等といったゲームキャラクタの単なる移動とは異なる行動を指す。CPU21は、複数種類のスキルをゲームで表現するための処理をゲームプログラムと協働してコンピュータを制御するが、表現するスキルに応じて異なった処理を行うようコンピュータを制御する。従って、スキルを選択するとは、複数種類の制御の中からいずれかの制御を選択することに相当する。
以上の処理を制御するために、受付部52には、ゲームキャラクタの移動指示を示すタッチ操作を受付ける移動指示受付部81と、ゲームキャラクタのスキル関連指示を示すタッチ操作(スワイプ)を受付けるスキル指示受付部82とが設けられている。
ここで、本実施形態では、ゲームキャラクタのスキル関連指示を示すタッチ操作としては、スワイプが採用されているものとする。この場合、スキル指示受付部82は、(タッチ操作が最初に検出された時のタッチ位置(以下、「タッチ始点」と呼ぶ)やタッチ操作の順番等に応じて、スキルの1以上の種類の中から所定種類の選択を受付ける。
例えば、表示媒体の表示面において、1種類以上のスキル毎に、そのスキル関連指示の開始を受け付ける特定の領域(以下、「スキル選択領域」と呼ぶ)が夫々規定されているものとする。具体的には例えば、第1種類のスキルに対して第1スキル選択領域が対応付けられ、第2種類のスキルに対して第2スキル選択領域が対応付けられているものとする。この場合、スワイプの第1状態が検出された際のタッチ位置が第1スキル選択領域に含まれていれば、スキルの所定種類として第1種類が選択される。一方、スワイプの第1状態が検出された際のタッチ位置が第2スキル選択領域に含まれていれば、スキルの所定種類として第2種類が選択される。
スキル指示受付部82は、スワイプの第2状態から第3状態に移行する際のタッチ位置の移動方向に応じて、所定方向の指定を受付ける。ここで、所定方向とは、スキルの発動方向を意味する。
具体的には例えば、スキル指示受付部82は、スワイプの第3状態に移行した際に表示されていたフレームでのタッチ位置(最新フレームタッチ位置)と、その直前のフレームのタッチ位置(直前フレームタッチ位置)との差分からタッチ位置の変化の方向を算出し、そのタッチ位置の変化の方向を所定方向として、当該所定方向の指示を受付ける。
そして、スキル指示受付部82は、スワイプの第3状態の検出以後の所定タイミングで、先に受付けた所定種類についての、先に受付けた所定方向へのスキルの発動の指示を受付ける。
表示画像生成部53は、プレイヤー端末1の表示部27に表示されるべきゲーム画像、例えば本実施形態では仮想空間及び当該仮想空間内で移動可能なゲームキャラクタを含むゲーム画像のデータを生成する。
本実施形態では、このゲーム画像には、ゲームキャラクタの移動指示の操作をするためのソフトウェアボタン(以下、「移動ボタン」と呼ぶ)と、ゲームキャラクタのスキル関連指示の操作(スワイプ)をするためのソフトウェアボタン(以下、「スキルボタン」と呼ぶ)とが含まれ得る。
例えばスキルボタンは、スキルの種類毎に設けられ、夫々の種類に対応付けられたスキル選択領域内を初期位置として、ゲームキャラクタのスキル関連指示の操作(スワイプ)がなされるまでの間、初期位置に一定程度スティックするように配置される。なお、後述する図3(b)に示す様に、スキルボタンは、最初から表示されているとは限らず、スワイプの第1状態が検出された際に表示が開始されるようにしてもよい。
選択されたスキルの種類を示すスキルボタンは、スワイプの第2状態においては、タッチ位置に配置される。つまり、スワイプの第2状態では、タッチ位置は移動していくので、スキルボタンもまたタッチ位置に連動して移動していく。
またこれらの点については、移動ボタンであっても、同様である。
このとき、タッチ位置の移動方向が容易に視認できるように、現在のタッチ位置(最新フレームタッチ位置)を示すスキルボタンの他に、直前フレームタッチ位置に配置されていたスキルボタン(以下「直前位置ボタン」と呼ぶ)も消去されずにゲームの画像上に薄く残される。
即ち、上述したように、スワイプの状態が第2状態から第3状態に移行した際のゲームの画像において、直前位置ボタンからスキルボタンに向かう方向が、スキルを発動する方向(所定方向)としてスキル指示受付部82により受付けられる。
次に、図3を用いて、図1のプレイヤー端末1が実行するゲームを進行させる一連の処理(以下、「ゲーム実行処理」と呼ぶ)の第一の実施形態について例を用いて説明する。
図3は、プレイヤー端末1で実行されるゲーム処理の結果の一例を示す図である。
本実施形態では、ゲームには様々な3次元形状の移動オブジェクトが用いられるが、各移動オブジェクトは、夫々個別のローカル座標系が設定されており、各ローカル座標系の座標がグローバル座標系の座標に変換されて仮想空間に配置されている。図3の例では、このような移動オブジェクトとして、プレイヤーによる操作対象のゲームキャラクタを表すキャラクタC1と、攻撃対象のゲームキャラクタを表すキャラクタC2とが仮想空間に配置されている。また、キャラクタC1が移動するとは、キャラクタC1のグローバル座標系(即ち仮想空間内)における座標が変化することを意味する。
ここで、本実施形態におけるタッチ操作管理部61は、タッチ操作の種類(以下、「操作種類」と適宜呼ぶ)として、少なくとも操作種類a、操作種類b、及び操作種類cの3種類を判別して管理する。
即ち、操作種類aのタッチ操作は、キャラクタC1の移動指示に関するタッチ操作を示す種類である。
操作種類bのタッチ操作は、スキル選択領域以外の領域(例えば上述のスキルボタンが表示された領域以外の領域であり、以下「自由処理領域」と呼ぶ)をタッチ始点とした、キャラクタC1のスキル関連指示に関するタッチ操作を示す種類である。
操作種類cのタッチ操作は、スキル選択領域(例えば上述のスキルボタンが表示された領域)の領域内をタッチ始点とした、キャラクタC1のスキル関連指示に関するタッチ操作を示す種類である。
つまり、タッチ操作管理部61は、1つのタッチ操作を検出したとき、まず、そのタッチ操作の種類が上述の操作種類a乃至操作種類cのうちいずれにあたるかを判定する。そして、操作種類が判定されたタッチ操作は、そのタッチ操作が終了するまで、タッチ操作管理部61によって付与された管理番号とともに管理される。
なお、本実施形態においては、キャラクタC1への移動指示と別種類の指示とを区別するために、キャラクタC1の移動とは別の動作(移動制御とは別の制御)に対する指示を、便宜上、スキル関連指示と包括して定義している。ただし、操作種類b及び操作種類cのタッチ操作は、いずれもスキル関連指示に対応したタッチ操作であるものの、夫々には互いに異なる種類のスキルが対応付けされている。即ち、操作種類bによって制御される処理と操作種類cによって制御される処理とは、移動処理ではないという点では同じ種類の処理と言えるが、処理内容そのものは互いに種類の異なる別の処理である。
図3の例では、このキャラクタC1の移動指示を入力するための仮想的なコントローラとして、移動ボタンMPが採用されている。
移動ボタンMPに対するプレイヤーの所定のタッチ操作に応じて、キャラクタC1の移動方向に関する1種以上の量が変化する。ここで、変化対象の量の種類は、移動に関するものであれば特に限定されないが、本実施形態では、キャラクタC1の仮想空間内におけるグローバル座標系での変化、即ちキャラクタC1の移動量、移動方向、及び移動速度等が想定される。
また、移動ボタンMPに対するプレイヤーからの所定の指示の手法は、タッチ操作であれば特に限定されないが、本実施形態ではスワイプが採用されている。
図3(a)から図3(d)に示すスキルボタンAP、スキルボタンBP、及びスキルボタンHPは、キャラクタC1の3種のスキルの夫々について、互いに種類の異なるスキル関連指示を入力するための仮想的なコントローラである。
なお、直前位置ボタンTPは、移動ボタンMP、スキルボタンAP、スキルボタンBP、及びスキルボタンHPのうちスワイプの対象となっているものについての直前のタッチ位置に薄く表示される。
図3(a)は、ゲーム内のキャラクタC1が移動する状況を示している。
図3(a)に示すように、プレイヤーに表示されるユーザインターフェイスとしては、スキルボタンAPと、スキルボタンBPと、スキルボタンHPと、がゲーム画像に配置されている。
まず、ゲーム中のキャラクタC1を移動させたいと考えて、プレイヤーが、表示部27(表示媒体)の表示画面上の自由処理領域に対してタッチ操作をした場合、即ち、前述の操作種類aのタッチ操作を行った場合について説明する。
なお、自由処理領域とは、スキル選択領域以外の領域である。スキル選択領域とは、上述したように、スキル発動のためにゲーム画面上に表示される操作子の表示された領域、図3の例で言えば、スキルボタンAP、スキルボタンBP、スキルボタンHPの夫々が表示されている領域をいう。
この場合、タッチ操作管理部61は、まずプレイヤーによるタッチ操作を検出すると、そのタッチ操作のタッチ始点に基づいて、そのタッチ操作の種類が操作種類cか否かを判定する。
図3(a)には図示しないが、タッチ操作のタッチ始点がスキル選択領域内の場合、プレイヤーによるタッチ操作の種類は操作種類cであると判定さる。この場合、そのタッチ操作は、タッチ操作の順番やタイミングを問わずスキル関連指示を示すことになる。
これに対して、図3(a)の例のように、タッチ操作のタッチ始点が自由処理領域内の場合、タッチ操作の種類が操作種類cではないと判定される。この場合、タッチ操作管理部61は、プレイヤーによる、タッチ操作がなされた順番やタイミングに基づいて、そのタッチ操作が移動指示を示すのか、それともスキル関連指示を示すのかを判定する。
そして、タッチ操作管理部61は、プレイヤーによるタッチ操作が検出された時点において既に管理しているタッチ操作(管理番号が付与されている別のタッチ操作)があるか否かを確認する。
タッチ操作管理部61は、別のタッチ操作を1つも管理していないと確認した場合には、検出したタッチ操作を管理番号1のものとして管理を開始する。このようにして管理番号1として管理される自由処理領域へのタッチ操作が、操作種類aのタッチ操作である。
移動指示受付部81は、操作種類aのタッチ操作を移動指示として受け付ける。なお、タッチ操作管理部61のタッチ操作検出時に、既に管理されたタッチ操作が存在する場合の処理については後述する。
また、本例ではそのタッチ位置に移動ボタンMPが表示さる。プレイヤーは、その指Hで移動ボタンMPを接触させたまま自由に移動させる操作(つまり、スワイプの第2状態での移動指示)をすることが出来る。
上述の通り、タッチ位置は、所定の時間間隔において夫々検出されるため、そのタッチ位置の検出位置に移動ボタンMPが表示される。従って、タッチ位置が逐次変化するならば、その変化していくタッチ位置に沿って、移動ボタンMPが移動していくようにプレイヤーには視認される。
このタッチ位置の変化は、キャラクタC1に対する移動方向の指示としても与えられ、その指示に従ってキャラクタC1が移動する。
即ち、スワイプの第2状態における指Hのタッチ位置の変化に応じて移動する移動ボタンMPの動きと、キャラクタC1の動きとが連動する。
また、キャラクタC1に対する移動指示を与える場合、キャラクタC1の向きも同時に指示することが出来る。
例えば図3(a)において、プレイヤーが表示画面に向かって右の方向に対してスワイプした場合は、この右の方向に対してのスワイプによる指示に基づいてキャラクタC1の移動が制御されるとともに、この右のスワイプの方向に基づいてキャラクタC1の「向き」も同時に制御される。
ここで、キャラクタC1の向きとは、キャラクタC1を形成する3Dオブジェクトのある面を正面と考えたとき、この正面が向いている方向であるが、本実施形態においては、キャラクタC1の向きの制御は、キャラクタC1を形成する3Dオブジェクトの中心を軸とした回転制御によって為される。
さらに、キャラクタC1の向きは、スキルの発動方向とも連動する。そして、移動指示とともに又は独立してスキル関連指示がなされた場合には、スキル関連指示が優先されて、スキル関連指示に対応したスワイプに基づきキャラクタC1の向きが変動する。即ち、移動指示受付部81によってキャラクタC1の移動指示を受け付けている最中は、移動指示に対応するスワイプの内容に基づいてキャラクタC1の向きが制御されるが、この最中にスキル指示受付部82によってスキル関連指示が受け付けられた場合は、スキル関連指示に対応するスワイプの内容に基づいてキャラクタC1の向きが制御される。
図3(b)は、ゲーム内のキャラクタC1がスキルを発動する状況を示している。
図3(b)の例においては、前提として、図3(a)の操作が継続してなされており、タッチ操作管理部61は、管理番号1のタッチ操作(操作種類aのキャラクタC1への移動指示を示すタッチ操作)を管理しているものとする。
図3(a)の状態に引き続き、ゲーム中のキャラクタC1にスキルAを発動させたいと考えて、プレイヤーが自由処理領域に対してタッチ操作をした場合、即ち、上述の操作種類bのタッチ操作を行った場合について説明する。
タッチ操作管理部61は、まずプレイヤーによるタッチ操作を検出すると、そのタッチ操作のタッチ始点に基づいて、そのタッチ操作の種類が操作種類cか否かを判定する。
図3(b)の例では、タッチ始点は自由処理領域内であるため、そのタッチ操作は、操作種類cのタッチ操作ではない。
従って、プレイヤーによるタッチ操作が検出された時点において既に管理されているタッチ操作があるか否かが確認される。
そして、既に管理されているタッチ操作が移動指示に係るものである場合には、タッチ操作管理部61は、検出したタッチ操作を管理番号2のものとして管理を開始する。この管理番号2として管理された自由処理領域へのタッチ操作が、操作種類bのタッチ操作である。
図3(b)の例では、既に管理中のタッチ操作は移動指示の操作であるので、図3(b)におけるタッチ操作は、スキル指示受付部82において、スキル関連指示として受け付けられる。
スキル指示受付部82は、この操作種類bのタッチ操作をスキル関連指示として受け付ける。
なお、既に管理中のタッチ操作がスキル関連指示に係るものである場合には、スキル関連指示の受付けは非活性化しているため、スキル指示受付部82は、スキル関連指示を受付けない。ここで非活性化とは、タッチ操作に関する指示のうちスキル関連指示をスキル発動中に限り一時的に受付けなくすることである。
上記の処理の結果、図3(b)の例においては、プレイヤーが、タッチ操作を開始すると、スキルAを発動させるためのスキルボタンAMPが表示される。
プレイヤーは、スキルAのスキル関連指示を与えるため、スキルボタンAMPを操作する。
即ち、プレイヤーは、スキルAのスキル選択領域内(スキルボタンAPの配置位置を除く)に指Hを接触させることにより、スワイプの状態は第1状態に移行し、指Hの接触位置にスキルボタンAMPが表示され、発動対象のスキルとしてスキルAが選択される。
プレイヤーは、指Hの接触を保ちながらスキルボタンAMPを移動させる。これにより、スワイプの第2状態に移行する。図3(b)の例では、プレイヤーは、スワイプの第2状態において、スキルボタンAMPを、指Hの接触状態を保ちながら所定方向に移動させ、所定の位置で指Hをタッチパネルから離す。つまり、スワイプの状態が第2状態から第3状態に移行する。
この移行時点の直前の指Hのタッチ位置(直前フレームタッチ位置であり、直前位置ボタンTPの位置)から、この移行時点の指Hのタッチ位置(最新フレームタッチ位置であり、スキルボタンAMPの位置)に向かう方向が、スキルの発動方向として設定される。その結果、キャラクタC1は、発動方向に存在するキャラクタC2に向かってスキルAを発動する。
なお、前述の場合と同様に、プレイヤーが表示画面向かって右の方向に対してスワイプした場合は、この右の方向に対してのスワイプによる指示に基づいてキャラクタC1のスキル関連指示がされるとともに、この右のスワイプの方向に基づいてキャラクタC1の「向き」も同時に制御されることも出来る。
また、上述の場合と同様に、キャラクタC1の向きは、スキルの発動方向とも連動するため、移動指示とともに又は独立してスキル関連指示がなされた場合には、このスキル関連指示が優先してキャラクタC1の向きが変動する。これにより、プレイヤーは、キャラクタC1がグローバル座標系において移動する方向がいずれであっても、どちらの方向にスキルが発動するのかを容易に判断できる。
図3(c)は、ゲーム内のキャラクタC1が、図3(b)とは同一種類のスキルを発動するが、異なる操作をする場合の例を示している。
ゲーム中のキャラクタC1にスキルAを発動させたいと考えて、プレイヤーがいずれかのスキルのスキル発動用領域(例えば図3のスキルボタンAP)でタッチ操作を行った場合、即ち、上述の操作種類cのタッチ操作を行った場合について説明する。
上述の場合と同様に、タッチ操作管理部61は、まずプレイヤーによるタッチ操作を検出すると、そのタッチ操作のタッチ始点に基づいて、そのタッチ操作の種類が操作種類cか否かを判定する。
図3(c)の例では、プレイヤーがタッチ操作をスキル選択領域内で行ったため、そのタッチ操作は、順番やタイミングを問わず、スキル関連指示を示す。このようにスキル選択領域内で行われたタッチ操作は、操作種類cのタッチ操作である。
なお、この場合であっても上述の場合と同様に、タッチ操作管理部61は、プレイヤーによるタッチ操作が検出された時点において既に管理しているタッチ操作があるか否かを確認する。
そして、既に管理しているタッチ操作がスキル関連指示に係るものでなければ、タッチ操作管理部61は、検出したタッチ操作を管理番号1又は2のものとして管理する。スキル指示受付部82は、そのタッチ操作をスキル関連指示として受け付ける。
他方、既に管理しているタッチ操作がスキル関連指示に係るものであれば、スキル関連指示の受付けは非活性化しているため、スキル指示受付部82は、そのタッチ操作をスキル関連指示として受付けない。
図3(c)の例では、プレイヤーは、キャラクタC1にスキルAのスキル関連指示を与えるため、スキルボタンAPを操作する。
即ち、プレイヤーは、初期位置にスティックされたスキルボタンAPに指Hを接触させる(スキルボタンAPにタッチする)。これにより、スワイプの第1状態に移行し、発動対象のスキルとして、スキルAが選択される。
プレイヤーは、スキルボタンAPを、指Hの接触を保ちながら移動させる。これにより、スワイプの第2状態に移行する。
その後、プレイヤーは、スワイプの第2状態において、スキルボタンAPを、指Hの接触状態を保ちながら移動させ、所定の位置で指Hをタッチパネルから離す。つまり、スワイプの状態が第2状態から第3状態に移行する。
この移行時点の直前の指Hのタッチ位置(直前フレームタッチ位置であり、図3(c)には図示しないが直前位置ボタンTPの位置)から、この移行時点の指Hのタッチ位置(最新フレームタッチ位置であり、スキルボタンAMPの位置)に向かう方向が、スキルの発動方向として設定される。その結果、キャラクタC1は、発動方向に存在するキャラクタC2に向かってスキルAを発動する。
次に、図3(d)を用いて、スキルの発動不可期間について説明する。
図3(d)の例では、各種スキルのうちスキルAが発動不可能期間(以下、「クールタイム」と呼ぶ)となっている。
本実施形態では、一度、スキルが発動された場合、一定時間経過後でなければ再度スキルを発動することが出来ない期間、いわゆるクールタイムを設定することが出来る。
図3(d)の例は、スキルAが発動された直後であり、スキルボタンAPには数字の9が表示されている。
これは、スキルAのクールタイムが残り9秒であることを示しており、プレイヤーは、残り9秒間の間スキルAを発動することが出来ない(プレイヤーは、スキルボタンAPをスワイプすることが出来ない)。
一方で、スキルボタンHPの周囲の蛍光領域(図3(d)では斜線部で表現された領域)は、必殺技が発動するまでの時間を示している。
時間とともに蛍光領域が増加し、スキルボタンHPの周囲が全て蛍光領域となれば、いつでも必殺技の発動が可能であることを意味している。
なお、図3(d)は、キャラクタC1がいつでも必殺技を発動可能であることを示している。
このように、本実施形態では、スキルや必殺技発動後にクールタイムを設定することができ、スキル発動までの期間(時間)を、適宜、プレイヤーに通知することが出来る。
さらに言えば、スキルの発動が可能となるまでの時間を、プレイヤーに通知するための手段は、いかなる方法でもよく、限定されない。
次に、図4を参照して、図2のプレイヤー端末1が実行するゲーム実行処理について説明する。
即ち、図4は、ゲーム実行処理の流れの一例を説明するフローチャートである。
ステップS1において、ユーザインターフェイス制御部51の表示制御部62は、ゲーム画像を表示部27に表示させる。
ステップS2において、タッチ操作管理部61は、操作種類a又は操作種類cのタッチ操作を検出したか否かを判定する。
操作種類aと操作種類cの両方のタッチ操作が検出されなければ、ステップS2においてNOであると判定されて、処理はS2に戻され、ステップS2の判定処理が繰り返される。
ステップS2の判定処理が繰り返されている際に、操作種類a又は操作種類cのタッチ操作が検出されれば、次のステップS2においてYESであると判定されて、処理はステップS3に進む。
ステップS3において、タッチ操作管理部61は、ステップS2で検出したタッチ操作の種類が操作種類aであるか否かを判定する。
操作種類cのタッチ操作であれば、ステップS3においてNOであると判定されて、処理はステップS8に進む。なお、ステップS8以降の処理については後述する。
これに対して、操作種類aのタッチ操作であれば、ステップS3においてYESであると判定されて、処理はステップS4に進む。
ステップS4において、移動指示受付部81は、ステップS2において検出されたタッチ操作を移動指示として受け付け、移動処理を開始させる。移動処理の詳細については、図5を参照して後述する。
ステップS5において、タッチ操作管理部61は、新たに検出したタッチ操作の種類が操作種類bであるか否かを判定する。
新たに検出したタッチ操作の種類が操作種類bであれば、ステップS5においてYESであると判定されて処理はステップS6に進む。
ステップS6において、スキル指示受付部82は、ステップS5で新たに検出されたタッチ操作をスキル関連指示として受け付け、スキルボタンを新たに表示させる等をして、自由処理領域用のスキルを発動すべく、スキル発動処理を開始させる。スキル発動処理の詳細については図6を参照して後述する。
これに対して、新たに検出したタッチ操作の種類が操作種類cであれば、ステップS5においてNOであると判定されて処理はステップS7に進む。
ステップS7において、スキル指示受付部82は、ステップS5で新たに検出されたタッチ操作をスキル関連指示として受け付け、スキル選択領域用のスキル(ステップS6とは異なる種類のスキル)を発動すべく、スキル発動処理を開始させる。スキル発動処理の詳細については図6を参照して後述する。
このようにして、ステップS6又はS7の処理が終了すると、処理はステップS2に戻され、それ以降の処理が繰り返される。
ところで、上述したようにステップS2で検出されたタッチ操作が種類cの場合、ステップS3においてNOであると判定されて、処理はステップS8に進む。この場合、次のような一連の処理が実行される。
即ち、ステップS8において、スキル指示受付部82は、ステップS2において検出されたタッチ操作をスキル関連指示として受け付け、スキル選択領域用のスキルを発動すべく、スキル発動処理を開始させる。スキル発動処理の詳細については図6を参照して後述する。
ステップS9において、タッチ操作管理部61は、新たに検出されたタッチ操作の種類が操作種類aであるか否かを判定する。
操作種類aのタッチ操作であれば、ステップS9においてYESであると判定されて、処理はステップS10に進む。
ステップS10において、移動指示受付部81は、ステップS9で新たに検出されたタッチ操作を移動指示として受け付け、移動処理を開始させる。移動処理の詳細については図5を用いて後述する。
これに対して、操作種類cのタッチ操作であれば、ステップS9においてNOであると判定されて、処理はステップS11に進む。
ステップS11において、スキル指示受付部82は、スキル関連指示の受付けは非活性化されているため、ステップS9で新たに検出されたタッチ操作に係るスキル関連指示を受付けない。
このようにして、ステップS10又はS11の処理が終了すると、処理はステップS2に戻され、それ以降の処理が繰り返される。
次に、図5を参照して、図2のプレイヤー端末1が実行する移動処理について説明する。
即ち、図5は、移動処理の流れの一例を説明するフローチャートである。
ステップS21において、移動指示受付部81は、図4のゲーム実行処理による移動指示を受付けたか否かを判定する。
移動指示受付部81が、移動指示を受付けていない場合には、ステップS21においてNOであると判定されて処理はS21に戻される。
これに対して、移動指示受付部81が移動指示を受付けている場合には、ステップS21においてYESであると判定されて、処理はステップS22に進む。
ステップS22において、移動指示受付部81は、移動指示を示すタッチ操作のタッチ位置が変化しているか否かを、状態検出部71の検出結果に基づいて判定する。
状態検出部71によりタッチ位置の変化が検出されなければ、ステップS22においてNOであると判定されて処理はステップS21に戻る。
これに対して状態検出部71によりタッチ位置の変化が検出されれば、ステップS22においてYESであると判定されて処理はステップS23に進む。
ステップS23において、表示画像生成部53は、タッチ位置の変化に応じてゲーム中のゲームキャラクタが移動するようなゲーム画像のデータを生成し、表示制御部62は、そのゲーム画像を表示部27に表示させる。
次に、図6を参照して、図1のプレイヤー端末1が実行するスキル発動処理について説明する。
即ち、図6は、スキル発動処理の流れの一例を説明するフローチャートである。
ステップS41において、スキル指示受付部82は、図4のゲーム実行処理によるスキル関連指示を受付けたか否かを判定する。
スキル指示受付部82が、スキル関連指示を受付けていない場合には、ステップS41においてNOであると判定されて処理はS41に戻される。
これに対して、スキル指示受付部82が移動指示を受付けている場合には、ステップS41においてYESであると判定されて、処理はステップS42に進む。
ステップS42において、スキル指示受付部82は、スキル指示タッチ位置が変化しているか否かを、状態検出部71の検出結果に基づいて判定する。
状態検出部71によりタッチ位置の変化が検出されなければ、ステップS42においてNOであると判定されて処理はステップS41に戻る。
これに対して状態検出部71によりタッチ位置の変化が検出されれば、ステップS22においてYESであると判定されて処理はステップS43に進む。
ステップS43において、スキル指示受付部82は、タッチ操作が解除された時点におけるタッチ位置の移動方向に応じて、所定方向の指定を受付け、所定方向へのスキルを発動する。
以上本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、移動指示やスキル関連指示の手法は、特に上述した実施形態に限定されない。そこで、以下、図7乃至図9を参照しつつ、上述の実施形態とは異なる手法が採用された他の実施形態について幾つか説明する。
ここで図7を用いて、上述の実施形態とは別の異なる実施形態について説明する。
図7は、図2のプレイヤー端末1で実行されるゲーム実行処理の結果の一例であって、図3とは異なる例を示す図である。
図7の状態では、ゲーム中のゲームキャラクタとしてのキャラクタGCは待機している状態である。
さらに図7の例では、タッチパネルの表示面の概ね左半分の領域を自由処理領域として規定し、概ね右半分の領域(スキルボタンSA1、スキルボタンSA2が予め配置されている領域を除く)がスキルA若しくはスキルA2のスキル選択領域として規定する。
即ち、上述の実施形態では、タッチ操作が検出された位置と順番に基づいて、タッチ操作の種別を判断していたのに対して、図4の例では、タッチ操作が検出された位置のみに基づいてタッチ操作の種別を判断するのである。
タッチ操作管理部61は、プレイヤーによるタッチ操作を検出すると、タッチ操作が検出された位置の情報から、そのタッチ操作がいかなる性質のタッチ操作であるのか(例えば、移動に関するタッチ操作なのか、スキルに関するタッチ操作なのか等を判断する)を判断し、これら夫々のこれら夫々のタッチ操作の管理を行う。
この状態から、プレイヤーの指等がタッチパネルに接触すると、スワイプの状態は第1状態に移行する。
ここで、検出されたタッチ操作が移動指示用の操作である場合には、当該スワイプは移動指示として受付けられる。他方、検出されたタッチ操作がスキル選択領域で開始されている場合には当該スワイプはスキル関連指示として受付けられる。
さらに図8及び図9を用いて、上述の実施形態とも異なる実施形態について説明する。
図8及び9は、図2のプレイヤー端末1で実行されるゲーム実行処理の結果の一例であって、図3や図7とは異なる例を示す図である。
図8及び図9の例では、プレイヤーからのタッチ操作の有無に依らず移動指示の受付用の操作子MB(以下、「移動ボタンMB」と呼ぶ)が所定の基準位置に表示されている。
例えば、プレイヤーが移動ボタンMBにタッチ操作を行いタッチ操作が開始された場合、即ち、タッチ操作管理部61がタッチ操作を検出した時点のタッチ位置が移動ボタンMBが表示された領域内(以下、「移動領域」と呼ぶ)である場合、タッチ操作管理部61は、このタッチ操作を移動指示のためのタッチ操作として判断し、移動指示受付部81は、このタッチ操作を移動指示として受け付ける。
プレイヤーは、この移動ボタンMBへの接触(タッチ)状態を継続してスワイプ操作することにより、キャラクタGCに自由自在に移動指示を与えることが出来る。
即ち、プレイヤーのタッチ位置の変化方向に応じて、位置が変化する移動ボタンMBとキャラクタGCの動きを連動させることで、プレイヤーは、仮想空間内において自由自在にキャラクタGCに移動指示を与えることが出来るのである。
また、スキルA2の発動指示を与えようとするプレイヤーは、図9の初期位置IPに配置されていたスキルボタンSA2をタッチする。この場合、スワイプの状態として第1状態を検出する。
ここで、スキルボタンSA2は、スキルA2のスキル関連指示を与えるためのスキルボタンであり、その初期位置IPは、スキルA2のスキル選択領域内である。従って、この場合、スキルA2のスキル関連指示が受け付けられる。
そして、前述の場合と同様に、スキル関連指示の受付けは非活性化される。
図9に示すように、プレイヤーは、スキルボタンSA2を、指の接触を保ちながら移動させる。これにより、スワイプの第2状態に移行する。
その後、プレイヤーは、スワイプの第2状態において、スキルボタンSA2を、指の接触状態を保ちながら移動させ、所定の位置NTで指をタッチパネルから離す。つまり、スワイプの状態が第2状態から第3状態に移行する。
この移行時点の直前の指のタッチ位置(直前フレームタッチ位置であり、直前位置ボタンTSA2の位置FP)から、この移行時点の指のタッチ位置(最新フレームタッチ位置であり、スキルボタンSA2の位置NT)に向かう方向が、スキルA2の発動方向として設定される。その結果、キャラクタGCは、発動方向に向かってスキルA2を発動する。
また例えば上述の複数の実施形態では、移動指示を示す操作として移動選択領域へのタッチ操作を規定し、スキル関連指示を示す操作としてスキル選択領域へのタッチ操作を規定した。
しかしながら、各領域へのタッチ操作が規定する動作指示は、必ずしも移動指示又はスキル関連指示に限られない。例えば、特定のアクション等(例えばジャンプ等)いかなる動作指示を規定することも可能である。
また、上述の場合と併せて、規定する領域は移動選択領域及びスキル選択領域に限定されず、3以上の複数の領域に分類し、動作指示を対応させることが出来る。
例えば、ゲーム画像を上中下の3つの操作領域に分類し、これらの3領域に対して、異なる3つの指示を対応付けて、プレイヤーが動作指示を与えるための条件としてもよい。
例えば図3及び図7に示す実施形態では、プレイヤーのタッチ操作が検出されて初めて、移動ボタン(例えば図3(a)の移動ボタンMP)が、ユーザインターフェイス上に表示されることとしているが、プレイヤーのタッチ操作の有無に関わらず、初めからユーザインターフェイス上に表示されてもよい。
この場合、移動ボタンが表示(スティック)されている領域のみを移動選択領域として、それ以外の領域全てをスキル選択領域としてもよい。
また、上述の実施形態では、スキルボタンは初期位置に一定程度スティックするように配置されていたが、特にこれに限定されず、例えば、プレイヤーのタッチ操作が検出されて初めてスキルボタンが表示されてもよい。
例えば上述の複数の実施形態では、プレイヤーが、指(又はタッチペン等)を離すことによりスワイプの各状態(具体的にはスワイプの第3状態からスキルの発動指示に至るまでの状態)を遷移することとしていたが、スワイプの各状態を遷移する条件はこれに限られない。
また例えば、一定時間以上タッチ操作の更新がない(タイムアウトした)場合やゲーム内において何らかの状況変化があった場合に、各状態を遷移してもよい。
例えば上述の複数の実施形態では、移動指示の方向とスキル関連指示の方向とが同じタイミングで指示された場合について言及していないが、例えば、スキル関連指示の方向を優先してゲームキャラクタの向きを制御することとしてもよい。
これによって、ユーザーはどちらの方向にスキルが発動するのかを明確に判断できるようになる。
例えば上述の複数の実施形態では、スキル関連指示を示すタッチ操作が重複してなされた場合には、スキル関連指示を非活性化し、スキル関連指示を受け付けないこととしているが、例えば、後にされたタッチ操作処理をスキル関連指示として受け付けることもよいし、スキル関連指示だけでなく移動指示を非活性化してもよい。
ここで前述の実施形態では、タッチ操作管理部61は、プレイヤーにより、前述のマルチタップが行われた場合に、夫々のタッチ操作の順番等を管理する。
表示媒体へ接触又は近接している前記物体の個数の管理状態とは、このようなタッチ操作管理部61によって管理されたタッチ操作の管理状態を意味する。
タッチ操作管理部61は、このような管理状態とタッチ操作がなされた位置等に基づいて、ゲームキャラクタへの移動指示を受付けるのか、スキル関連指示を受付けるのかを判定する。
しかし、上述の受け付ける指示の判定方法については、上述の方法に限定されない。例えば、図7乃至9に示す実施形態のように、自由に変更が可能である。
ここで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。また、機能ブロックの存在場所も、図2に特に限定されず、任意でよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、プレイヤーにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でプレイヤーに提供される記録媒体等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
以上を換言すると、本発明が適用される情報処理プログラムは、上述の図2の実施形態としての情報処理システムを含め、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理プログラムは、
仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行するコンピュータに、
前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出ステップ(例えば図4のステップS2)と、
前記表示媒体へ接触又は近接している前記物体の個数の管理状態と当該物体の前記表示媒体における位置との一方又は双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定ステップ(例えば図5のステップS21と、図6のステップS41等)と、
前記判定ステップの判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付ステップ(例えば図5のステップS22と、図6のステップS42)と、
を含む制御処理を実行させ、
前記検出ステップは、前記第2指示として受付けられる操作として、前記表示媒体への前記物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて前記物体が移動する第2状態を経て、前記表示媒体への前記物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出するステップを含み、
前記受付ステップは、前記第1状態が検出された際の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の前記物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付けるステップを含む、情報処理を実行させる情報処理プログラムであれば足りる。
ここで、前記受付ステップは、前記第2状態の間、前記種類の選択の受付けを非活性化することができる。
従って、例えばスキル発動中の新たなスキル関連指示の受付けは非活性化されるため、スキルの発動について重複した指示がなされることがない。
さらに、前記情報処理プログラムは、前記第1指示を行う第1操作子を前記表示媒体に表示させ、前記第2指示を行う第2操作子を前記表示媒体に表示させる制御を実行する表示制御ステップをさらに含むことができる。
これにより、第1操作子及び第2操作子をユーザインターフェイス上に表示させることで、プレイヤーは、わかりやすく容易に、ゲームキャラクタへ指示を出すことが出来る。
ここで、前記表示制御ステップは、前記第2状態の間、前記物体の現在の第1の位置と、それよりも前の所定タイミングの第2の位置に、前記第2操作子を夫々表示させる制御を実行するステップを含み、
さらに、前記受付ステップは、前記第2状態から前記第3状態に移行する際の前記第2の位置から前記第1の位置に向かう方向を前記所定の方向として認識し、認識した前記所定の方向の指定を受付けるステップを含むことが出来る。
これにより、ゲームキャラクタは、移動をしながら、所定の方向にスキルを発動する等、プレイヤーは、一度のスワイプ操作で多様な操作指示を与えることが可能となる。
さらに本発明が適用される情報処理プログラムは、上述の図2の実施形態としての情報処理システムを含め、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理装置は、
仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行する情報処理装置であって、
前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出手段(例えば図2のタッチ操作管理部61)と、
前記表示媒体へ接触又は近接している前記物体の個数の管理状態と当該物体の前記表示媒体における位置との一方又は双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定手段(例えば図2のタッチ操作管理部61)と、
前記判定手段の判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付手段(例えば図2の移動指示受付部81と、スキル指示受付部82)と、
前記検出手段は、前記第2指示として受付けられる操作として、前記表示媒体への前記物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて前記物体が移動する第2状態を経て、前記表示媒体への前記物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出する手段(例えば図2の状態検出部71)を含み、
前記受付手段は、前記第1状態が検出された際の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の前記物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付ける手段(例えば図2の移動指示受付部81と、スキル指示受付部82)を有する、
情報処理装置であれば足りる。
1・・・プレイヤー端末、21・・・CPU、表示部・・・27、51・・・ユーザインターフェイス制御部、52・・・受付部、53・・・表示画像生成部、54・・・表示制御部、61・・・タッチ操作管理部、62・・・表示制御部、71・・・状態検出部、81・・・移動指示受付部、82・・・スキル指示受付部

Claims (7)

  1. 仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行するコンピュータに、
    前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出ステップと、
    前記表示媒体へ接触又は近接している前記物体の個数の管理状態と当該物体の前記表示媒体における位置との一方又は双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定ステップと、
    前記判定ステップの判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付ステップと、
    を含む制御処理を実行させ、
    前記検出ステップは、前記第2指示として受付けられる操作として、前記表示媒体への前記物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて前記物体が移動する第2状態を経て、前記表示媒体への前記物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出するステップを含み、
    前記受付ステップは、前記第1状態が検出された際の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の前記物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付けるステップを含む、
    情報処理プログラム。
  2. 前記受付ステップは、前記第2状態の間、前記種類の選択の受付けを非活性化する、
    請求項1に記載の情報処理プログラム。
  3. 前記第1指示と前記第2指示が同時又は重複して受付けられた場合に、前記第2指示で受付けられた前記所定方向の指定に応じて、前記移動オブジェクトの向きが制御される移動オブジェクト制御ステップをさらに含む制御処理を前記コンピュータに実行させる、
    請求項1又は2に記載の情報処理プログラム。
  4. 前記第1指示を行う第1操作子を前記表示媒体に表示させ、前記第2指示を行う第2操作子を前記表示媒体に表示させる制御を実行する表示制御ステップをさらに含む制御処理を実行させる、
    請求項1乃至3に記載のうちのいずれか1つの請求項に記載の情報処理プログラム。
  5. 前記表示制御ステップは、前記第2状態の間、前記物体の現在の第1の位置と、それよりも前の所定タイミングの第2の位置に、前記第2操作子を夫々表示させる制御を実行するステップを含み、
    前記受付ステップは、前記第2状態から前記第3状態に移行する際の前記第2の位置から前記第1の位置に向かう方向を前記所定の方向として認識し、認識した前記所定の方向の指定を受付けるステップを含む、
    請求項4に記載の情報処理プログラム。
  6. 仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行する情報処理装置が実行する情報処理方法であって、
    前記表示媒体への物体の接触又は近接の操作を検出する検出ステップと、
    前記表示媒体において検出された操作に応じて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付け、前記表示媒体の所定の表示領域において検出された操作に応じて、前記第1指示とは異なる前記移動オブジェクトに関する指示であって、種類の選択と方向の指定を少なくとも含む指示を、第2指示として受付ける受付ステップと、
    を含み、
    前記検出ステップは、前記第2指示として受付けられる操作として、前記表示媒体への前記物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて前記物体が移動する第2状態を経て、前記表示媒体への前記物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出するステップを含み、
    前記受付ステップは、前記第1状態が検出された際の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の前記物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付けるステップを含む、
    情報処理方法。
  7. 仮想空間及び当該仮想空間内で移動可能な移動オブジェクトを含む画像を表示媒体に表示させる制御を実行する情報処理装置であって、
    前記表示媒体への1以上の物体の接触又は近接の操作を検出する検出手段と、
    前記表示媒体へ接触又は近接している前記物体の個数の管理状態と当該物体の前記表示媒体における位置との一方又は双方に基づいて、前記移動オブジェクトの仮想空間内での移動に関する指示である第1指示を受付けるのか、前記移動オブジェクトに関する指示であって種類の選択と方向の指定を少なくとも含む指示を第2指示として受け付けるのかを判定する判定手段と、
    前記判定手段の判定結果に応じて、前記第1指示又は前記第2指示を受付ける受付手段と、
    前記検出手段は、前記第2指示として受付けられる操作として、前記表示媒体への前記物体の接触又は近接が開始された第1状態から、前記表示媒体への接触又は近接が維持されて前記物体が移動する第2状態を経て、前記表示媒体への前記物体の接触又は近接の形態が変化する第3状態に至るまでの一連の操作を検出する手段を含み、
    前記受付手段は、前記第1状態が検出された際の前記物体の位置に応じて、1以上の種類のうち所定種類の選択を受付け、前記第2状態から前記第3状態に移行する際の前記物体の移動方向に応じて、所定方向の指定を受付け、前記第3状態の検出以後の所定タイミングで、前記所定種類についての前記所定方向への前記第2指示の実行の指示を受付ける手段を有する、
    情報処理装置。
JP2016219538A 2016-11-10 2016-11-10 情報処理プログラム、情報処理方法、及び情報処理装置 Active JP6143934B1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016219538A JP6143934B1 (ja) 2016-11-10 2016-11-10 情報処理プログラム、情報処理方法、及び情報処理装置
TW106137706A TWI645337B (zh) 2016-11-10 2017-11-01 資訊處理程式、資訊處理方法以及資訊處理裝置
KR1020197012947A KR102232032B1 (ko) 2016-11-10 2017-11-07 정보 처리 프로그램, 정보 처리 방법, 및 정보 처리 장치
CN201780069195.7A CN109982756B (zh) 2016-11-10 2017-11-07 信息处理程序、信息处理方法和信息处理装置
PCT/JP2017/040156 WO2018088408A1 (ja) 2016-11-10 2017-11-07 情報処理プログラム、情報処理方法、及び情報処理装置
US16/406,753 US10990274B2 (en) 2016-11-10 2019-05-08 Information processing program, information processing method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016219538A JP6143934B1 (ja) 2016-11-10 2016-11-10 情報処理プログラム、情報処理方法、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP6143934B1 JP6143934B1 (ja) 2017-06-07
JP2018075225A true JP2018075225A (ja) 2018-05-17

Family

ID=59012155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016219538A Active JP6143934B1 (ja) 2016-11-10 2016-11-10 情報処理プログラム、情報処理方法、及び情報処理装置

Country Status (6)

Country Link
US (1) US10990274B2 (ja)
JP (1) JP6143934B1 (ja)
KR (1) KR102232032B1 (ja)
CN (1) CN109982756B (ja)
TW (1) TWI645337B (ja)
WO (1) WO2018088408A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198427A1 (ja) 2018-04-10 2019-10-17 良成 松田 仮想通貨管理システム及び仮想通貨管理プログラム
JP2020103789A (ja) * 2018-12-28 2020-07-09 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
JP2022522443A (ja) * 2019-09-04 2022-04-19 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報インタラクション方法及び関連装置
JP2022526456A (ja) * 2020-04-28 2022-05-24 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
JP2022533321A (ja) * 2020-04-15 2022-07-22 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム
JP2022533919A (ja) * 2020-04-23 2022-07-27 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想キャラクタの制御方法並びにそのコンピュータ機器、コンピュータプログラム、及び仮想キャラクタの制御装置
JP2022540277A (ja) * 2020-06-05 2022-09-15 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想オブジェクト制御方法、装置、端末及びコンピュータプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8814674B2 (en) * 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
JP6581639B2 (ja) * 2017-11-06 2019-09-25 株式会社カプコン ゲームプログラム、およびゲームシステム
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
JP6588177B1 (ja) * 2019-03-07 2019-10-09 株式会社Cygames 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
JP2021029291A (ja) * 2019-08-16 2021-03-01 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
CN110538452B (zh) * 2019-09-09 2023-09-19 珠海金山数字网络科技有限公司 技能控制方法、装置、计算设备及存储介质
US11071906B2 (en) 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
CN111672115B (zh) 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
US11590413B2 (en) * 2020-07-08 2023-02-28 Nintendo Co., Ltd. Storage medium storing information processing program with changeable operation modes, information processing apparatus, information processing system, and information processing method
CN112206516B (zh) * 2020-10-21 2024-06-11 网易(杭州)网络有限公司 游戏中的信息显示方法、装置、存储介质及计算机设备
CN112717403B (zh) * 2021-01-22 2022-11-29 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2014045966A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP2015123244A (ja) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
JP2016009473A (ja) * 2014-06-26 2016-01-18 ガンホー・オンライン・エンターテイメント株式会社 端末装置
JP2016126514A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
WO2016167094A1 (ja) * 2015-04-16 2016-10-20 株式会社コロプラ ユーザ・インタフェース・プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110034858A (ko) * 2009-09-29 2011-04-06 주식회사 넥슨모바일 게임 운영을 제어하기 위한 사용자 인터페이스 제공 방법
JP2011170834A (ja) * 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
US8379098B2 (en) * 2010-04-21 2013-02-19 Apple Inc. Real time video process control using gestures
JP5237325B2 (ja) * 2010-04-28 2013-07-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
WO2011151501A1 (en) * 2010-06-01 2011-12-08 Nokia Corporation A method, a device and a system for receiving user input
US9116611B2 (en) * 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
JP5563633B2 (ja) * 2012-08-31 2014-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
US20140111429A1 (en) 2012-10-23 2014-04-24 Cirque Corporation Multiple fingers, multiple step gesture
CN103870180A (zh) * 2012-12-13 2014-06-18 腾讯科技(武汉)有限公司 解锁触摸屏的方法和装置
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
KR101919349B1 (ko) 2014-04-04 2018-11-19 가부시키가이샤 코로프라 사용자 인터페이스 프로그램 및 게임 프로그램
CN104076986B (zh) * 2014-07-25 2015-12-09 上海逗屋网络科技有限公司 一种用于多点触摸终端的触摸控制方法与设备
JP6616072B2 (ja) * 2014-12-26 2019-12-04 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
KR20160098700A (ko) * 2015-02-11 2016-08-19 삼성전자주식회사 멀티 터치 입력을 처리하기 위한 전자 장치 및 그 동작 방법
JP6637662B2 (ja) * 2015-03-16 2020-01-29 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP6605225B2 (ja) * 2015-04-28 2019-11-13 株式会社バンダイナムコエンターテインメント 端末装置及びプログラム
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
CN104915117B (zh) * 2015-06-16 2017-03-22 深圳市腾讯计算机系统有限公司 控制与虚拟目标进行交互的方法和装置
CN105183214B (zh) * 2015-08-04 2017-12-19 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN105194871B (zh) * 2015-09-14 2017-03-22 网易(杭州)网络有限公司 一种控制游戏角色的方法
CN105335064B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2014045966A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP2015123244A (ja) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
JP2016009473A (ja) * 2014-06-26 2016-01-18 ガンホー・オンライン・エンターテイメント株式会社 端末装置
JP2016126514A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
WO2016167094A1 (ja) * 2015-04-16 2016-10-20 株式会社コロプラ ユーザ・インタフェース・プログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198427A1 (ja) 2018-04-10 2019-10-17 良成 松田 仮想通貨管理システム及び仮想通貨管理プログラム
JP2020103789A (ja) * 2018-12-28 2020-07-09 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
JP7221686B2 (ja) 2018-12-28 2023-02-14 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
JP7242121B2 (ja) 2019-09-04 2023-03-20 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報インタラクション方法及び関連装置
JP2022522443A (ja) * 2019-09-04 2022-04-19 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報インタラクション方法及び関連装置
JP2022533321A (ja) * 2020-04-15 2022-07-22 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム
US12017141B2 (en) 2020-04-15 2024-06-25 Tencent Technology (Shenzhen) Company Limited Virtual object control method and apparatus, device, and storage medium
JP7350088B2 (ja) 2020-04-15 2023-09-25 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム
JP2022533919A (ja) * 2020-04-23 2022-07-27 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想キャラクタの制御方法並びにそのコンピュータ機器、コンピュータプログラム、及び仮想キャラクタの制御装置
JP7451563B2 (ja) 2020-04-23 2024-03-18 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想キャラクタの制御方法並びにそのコンピュータ機器、コンピュータプログラム、及び仮想キャラクタの制御装置
JP2022526456A (ja) * 2020-04-28 2022-05-24 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
JP2022179474A (ja) * 2020-04-28 2022-12-02 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
JP7427728B2 (ja) 2020-04-28 2024-02-05 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
JP7124235B2 (ja) 2020-04-28 2022-08-23 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
JP2022540277A (ja) * 2020-06-05 2022-09-15 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想オブジェクト制御方法、装置、端末及びコンピュータプログラム

Also Published As

Publication number Publication date
US10990274B2 (en) 2021-04-27
WO2018088408A1 (ja) 2018-05-17
CN109982756B (zh) 2022-09-02
KR20190057381A (ko) 2019-05-28
JP6143934B1 (ja) 2017-06-07
TWI645337B (zh) 2018-12-21
KR102232032B1 (ko) 2021-03-25
TW201823979A (zh) 2018-07-01
CN109982756A (zh) 2019-07-05
US20190265882A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
JP6143934B1 (ja) 情報処理プログラム、情報処理方法、及び情報処理装置
US10478734B2 (en) Game control program, game control method, and game control device
JP6145099B2 (ja) タッチ対応移動体デバイスにおけるゲーム・コントローラー
JP5994019B2 (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP6921193B2 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
EP4102346A1 (en) Method, apparatus, device, and storage medium for controlling interface display
JP2019051132A (ja) 情報処理装置及びプログラム
JP6018265B2 (ja) ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP6228267B2 (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP5784211B1 (ja) 情報処理プログラムおよび情報処理方法
JP2018073230A (ja) ゲーム方法およびゲームプログラム
JP2016130888A (ja) アイコン選択のためのコンピュータ・プログラム、携帯端末、およびコンピュータ実装方法
JP5345253B1 (ja) ゲーム装置、ゲーム方法及びコンピュータプログラム
JP5795113B1 (ja) ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP2015097583A (ja) タッチパネルを備えるゲーム装置、その制御方法およびプログラム
JP6453972B2 (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP5784259B1 (ja) 情報処理プログラムおよび情報処理方法
JP5784260B1 (ja) 情報処理プログラムおよび情報処理方法
JP2019037877A (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP2016207057A (ja) タッチディスプレイを備える携帯端末のためのプログラム及び方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170509

R150 Certificate of patent or registration of utility model

Ref document number: 6143934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250