JP6588177B1 - 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム - Google Patents

情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム Download PDF

Info

Publication number
JP6588177B1
JP6588177B1 JP2019041144A JP2019041144A JP6588177B1 JP 6588177 B1 JP6588177 B1 JP 6588177B1 JP 2019041144 A JP2019041144 A JP 2019041144A JP 2019041144 A JP2019041144 A JP 2019041144A JP 6588177 B1 JP6588177 B1 JP 6588177B1
Authority
JP
Japan
Prior art keywords
displayed
instruction operation
movement instruction
information processing
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019041144A
Other languages
English (en)
Other versions
JP2020144635A (ja
Inventor
さえら 金森
さえら 金森
健吾 森月
健吾 森月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2019041144A priority Critical patent/JP6588177B1/ja
Application granted granted Critical
Publication of JP6588177B1 publication Critical patent/JP6588177B1/ja
Priority to PCT/JP2020/008329 priority patent/WO2020179666A1/ja
Priority to CN202080019217.0A priority patent/CN113613739A/zh
Publication of JP2020144635A publication Critical patent/JP2020144635A/ja
Priority to US17/466,660 priority patent/US20210394064A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Abstract

【課題】表示領域を移動可能なコンピュータゲームにおいて、より簡便な操作をプレイヤに対して提供する。【解決手段】情報処理プログラムが、仮想空間に第1オブジェクト及び第2オブジェクトを配置する配置機能と、前記仮想空間の所定領域を表示媒体に表示させる表示制御機能と、プレイヤによる連続的な移動指示操作の入力に基づいて、前記所定領域を移動する領域移動機能と、前記移動指示操作が継続中に、前記所定領域における所定位置に前記第1オブジェクトが表示された場合に、前記第1オブジェクトを選択する選択機能と、前記移動指示操作が終了した場合に、前記第2オブジェクトに、前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作を実行させる動作実行機能と、をコンピュータに実現する。【選択図】図2

Description

本発明は、情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システムに関する。
コンピュータゲームでは、プレイヤによる様々な操作が行われ、この様々な操作に基づいてゲームが進行していく。一例として、プレイヤは、操作対象のオブジェクトを移動させる操作や、他のオブジェクトを選択する操作や、操作対象のオブジェクトに動作を実行させる操作といった様々な操作を行う。
また、3D(3−Dimension)で表示を行うゲームの場合には、プレイヤは、表示領域を移動させるために、さらに表示領域の移動操作を行うことも一般的である(例えば、特許文献1参照。)。
ゲームにおいて、このような表示領域の移動操作を含む様々な操作を可能とすることにより、プレイヤによる操作の幅を広げ、よりゲーム性を向上させることができる。
特許第5485702公報
しかしながら、上述したように表示領域の移動操作を含む様々な操作を可能とした場合、プレイヤは、このような様々な操作を、順番に行ったり、あるいは同時並行して行ったりしなければならない。そのため、プレイヤからすると操作が煩雑に感じられてしまうという側面があった。
本発明は、このような状況に鑑みてなされたものであり、表示領域を移動可能なコンピュータゲームにおいて、より簡便な操作をプレイヤに対して提供することを目的とする。
上記目的を達成するため、本発明の一態様の情報処理プログラムは、
仮想空間に第1オブジェクト及び第2オブジェクトを配置する配置機能と、
前記仮想空間の所定領域を表示媒体に表示させる表示制御機能と、
プレイヤによる連続的な移動指示操作の入力に基づいて、前記所定領域を移動する領域移動機能と、
前記移動指示操作が継続中に、前記所定領域における所定位置に前記第1オブジェクトが表示された場合に、前記第1オブジェクトを選択する選択機能と、
前記移動指示操作が終了した場合に、前記第2オブジェクトに、前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作を実行させる動作実行機能と、
をコンピュータに実現する。
本発明によれば、表示領域を移動可能なコンピュータゲームにおいて、より簡便な操作をプレイヤに対して提供することができる。
本発明の実施形態に係る、情報処理装置のハードウェアの構成を示すブロック図である。 図1に図示した情報処理装置の機能的構成のうち、複合操作実現処理を実行するための機能的構成を示す機能ブロック図である。 図2の機能的構成を有する図1の情報処理装置が実行する、複合操作実現処理の流れを説明するフローチャートである。 複合操作実現処理における表示の一例として、各オブジェクトの配置等の表示例を示す模式図である。 複合操作実現処理における表示の一例として、第1オブジェクトの選択等の表示例を示す模式図である。 複合操作実現処理における表示の一例として、第2オブジェクトによる動作等の表示例を示す模式図である。 複合操作実現処理における表示の一例として、オブジェクト情報等の表示例を示す模式図である。 複合操作実現処理における表示の一例として、オブジェクト情報等の他の表示例を示す模式図である。 複合操作実現処理における表示の一例として、第2オブジェクトによる他の動作等の表示例を示す模式図である。
以下、本発明の実施形態について、図面を用いて説明する。
[本実施形態の概略]
本実施形態は、表示領域を移動可能なコンピュータゲームにおいて、より簡便な操作をプレイヤに対して提供することを目的とする。
そのために、本実施形態は、仮想空間(一例として、コンピュータゲームが進行する3D空間)に第1オブジェクト(一例として、プレイヤが操作対象とするキャラクタ以外の他のキャラクタ)及び第2オブジェクト(一例として、プレイヤが操作対象とするキャラクタ)を配置する。また、本実施形態は、仮想空間の所定領域を表示媒体(一例として、タッチパネル)に表示させる。
更に、本実施形態は、プレイヤによる連続的な移動指示操作(一例として、プレイヤによるスワイプ操作)の入力に基づいて、所定領域を移動する。更に、本実施形態は、移動指示操作が継続中に、所定領域における所定位置に第1オブジェクトが表示された場合に、第1オブジェクトを選択する。更に、本実施形態は、移動指示操作が終了した場合に、第2オブジェクトに、移動指示操作が継続中に選択した第1オブジェクトに対して実行可能な動作を実行させる。
このような本実施形態によれば、従来であれば複数の操作の組み合わせにより実現される複数の処理を、移動指示操作という1つの操作のみによって実現することができる。
具体的には、(1)表示対象とする所定領域の移動操作(従来であれば、スワイプ操作により実現)と、(2)動作の実行に関連する第1オブジェクトの選択操作(従来であれば、タップ操作により実現)と、(3)第2オブジェクトに対する動作の実行指示操作(従来であれば、別途のタップ操作により実現)という、という従来であればスワイプ操作と複数回のタップ操作といった3つの操作の組み合わせにより実現される複数の処理を、移動指示操作という1つの操作のみによって実現することができる。
また、本実施形態では、このような操作方法を可能とすることから、従来のような、様々な操作を、順番に行ったり、あるいは同時並行して行ったりする場合に、プレイヤからすると操作が煩雑に感じられてしまう、という問題を解決することができる。
すなわち、本実施形態によれば、表示領域を移動可能なコンピュータゲームにおいて、より簡便な操作をプレイヤに対して提供することができる。
[ハードウェア構成]
次に、本実施形態のハードウェアの構成について図1を参照して説明する。図1は、本発明の実施形態に係る、情報処理装置1のハードウェアの構成を示すブロック図である。
情報処理装置1は、図1に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、タッチパネル16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。
CPU11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムにしたがって各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14には、入出力インターフェース15も接続されている。入出力インターフェース15には、タッチパネル16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、が接続されている。
タッチパネル16は、タッチ操作受付部162と表示部161とが重畳することにより構成される。
表示部161は、液晶等のディスプレイにより構成され、ゲームに関する画像等、各種画像をプレイヤが認識可能に表示する。
タッチ操作受付部162は、例えば表示部161に重畳される静電容量式又は抵抗膜式(感圧式)の位置入力センサにより構成され、タッチ操作がなされた位置の座標を検出する。ここで、タッチ操作とは、タッチ操作受付部162に対する物体の接触又は近接の操作をいう。タッチ操作受付部162に対して接触又は近接する物体は、例えばプレイヤの指やタッチペン等である。
タッチ操作としては、例えば、タップ操作や、スワイプ操作や、フリック操作が存在する。ただし、スワイプ操作もフリック操作も、タッチパネル16への物体の接触又は近接が開始された状態(以下、「第1スワイプ状態」と称する。)から、タッチパネル16への接触又は近接が維持されて物体の位置が移動する状態(以下、「第2スワイプ状態」と称する。)を経て、タッチパネル16への物体の接触又は近接が解除される状態(以下、「第3スワイプ状態」と称する。)まで至る一連の操作である点は変わらない。そこで、以下の説明では、このような連続的に行われる一連の移動操作をまとめて「スワイプ操作」と呼ぶことにする。すなわち、以下の説明における「スワイプ操作」は、一般的に呼ばれるスワイプ操作の他、上述のフリック操作等も含まれる広義な概念である。
入力部17は、各種ボタン、方向キーあるいはマイク等で構成され、情報処理装置1の管理者等の指示操作に応じて各種情報を入力する。なお、入力部17は、情報処理装置1の他の各部を収容する本体とは独立した、ゲーム用コントローラ、キーボード、あるいはマウス等の入力装置により実現してもよい。
出力部18は、自身に接続されたスピーカ(図示を省略する)に対して音データを出力する。スピーカは、出力部18が出力した音データを、音楽、効果音、及び音声等としてプレイヤが認識可能に出力する。
記憶部19は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
通信部20は、他の装置との間で行う通信を実現する。例えば、通信部20は、ゲームを実行するためのプログラムをダウンロードするサーバ装置(図示を省略する)や、他の情報処理装置1(図示を省略する)との間で相互に通信を行う。この通信は、例えば、LAN(Local Area Network)や、インターネットや、携帯電話網といったネットワーク、あるいはこれらを組み合わせたネットワークを介して行われる。また、この通信は、中継装置を介するものであってもよいし、中継装置を介することなく装置間で直接行われるものであってもよい。ただし、本実施形態において、通信部20は必須の構成要素ではなく、ハードウェアとして省略されてもよい。
ドライブ21は、必要に応じて適宜設けられる。ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア100が適宜装着される。リムーバブルメディア100には、ゲーム実行するためのプログラムや、画像データ等の各種データが格納される。ドライブ21によってリムーバブルメディア100から読み出されたプログラムや、画像データ等の各種のデータは、必要に応じて記憶部19にインストールされる。
このようなハードウェア構成を有する情報処理装置1は、例えば、スマートフォンや、携帯型のゲーム機といった、情報処理機能を備えた電子機器により実現することができる。
[機能的構成]
次に、図2を参照して情報処理装置1の機能的構成について説明をする。
図2は、図1に図示した情報処理装置1の機能的構成のうち、複合操作実現処理を実行するための機能的構成を示す機能ブロック図である。
ここで、複合操作実現処理とは、プレイヤによる連続的な移動指示操作(上述したように、一例として、プレイヤによるスワイプ操作)という1つの操作を、複合的な操作(以下、「複合操作」と称する。)として取り扱うことにより、複数の操作に対応する複数の処理を1つの操作で実行する一連の処理である。
複合操作実現処理が実行される場合、図2に示すように、CPU11において、操作検出部111と、ゲーム動作制御部112と、出力制御部113と、撮影領域移動部114と、オブジェクト選択部115と、動作実行部116とが機能する。これら機能ブロックは、以下で言及する以外にも、複合操作実現処理を実行するために必要な演算処理や、機能ブロック間での情報の送受を、必要に応じて適宜行う。
また、記憶部19の一領域には、ゲーム動作用データ記憶部191と、パラメータ記憶部192とが設定される。
操作検出部111は、タッチパネル16や入力部17が受け付けた、プレイヤからの操作入力を検出する。また、操作検出部111は、検出したプレイヤの操作入力の内容を判定する。操作検出部111は、例えば、タッチパネル16にてプレイヤからの操作入力を受け付けた場合において、タッチパネル上の何れの座標において操作を受け付けたかを判定する。この場合、操作検出部111は、操作を受け付けた座標の変化等に基づいて、どのような操作内容であるかを判定する。
更に、操作検出部111は、例えば、入力部17を実現するコントローラにてプレイヤからの操作入力を受け付けた場合において、何れのボタンや方向キーにて操作を受け付けたかを判定する。この場合、操作検出部111は、操作を受け付けたボタンや方向キーの種類に基づいて、どのような操作内容であるかを判定する。
そして、操作検出部111は、判定により特定したプレイヤの操作入力の内容を、他の機能ブロックに対して適宜出力する。
ゲーム動作制御部112は、ゲームを動作させるための処理を行うことによって、ゲーム全体の進行を制御する。具体的には、ゲーム動作制御部112は、後述のゲーム動作用データ記憶部191に記憶されるゲームソフトウェアと、操作検出部111から入力されたプレイヤの操作内容とに基づいてゲームの進行を制御する。また、ゲーム動作制御部112は、ゲームの動作の制御に基づいたゲームの進行状況を、他の機能ブロックに対して適宜出力する。
更に、ゲーム動作制御部112は、ゲームの進行に伴い、ゲームにおいて変化する所定のパラメータを管理する。この所定のパラメータは、例えば、プレイヤが操作対象とするオブジェクトである味方キャラクタのレベルやヒットポイントといったステータスの値を示すパラメータ、味方キャラクタが使用可能なアイテムや装備を示すパラメータ、及び過去のゲーム結果を示すパラメータ等を含む。
これら所定のパラメータは、後述のパラメータ記憶部192が記憶する。そして、ゲーム動作制御部112は、ゲームにおいて、これら所定のパラメータの変化が伴う処理(例えば、パラメータの値の増加又は減少が伴う処理や、パラメータの状態を示すフラグを変更する処理。)が発生する場合には、これらの処理の結果に基づいて、所定のパラメータを変化させる。例えば、敵キャラクタによる味方キャラクタへの通常攻撃が成功する処理が発生した場合に、この通常攻撃に対応して味方キャラクタのヒットポイントを減少させる。
また、ゲーム動作制御部112は、この変化後の所定のパラメータに基づいて、パラメータ記憶部192が記憶する所定のパラメータを更新する。更に、ゲーム動作制御部112は、この更新後の所定のパラメータに応じてゲームの進行を継続する。
ゲーム動作制御部112が動作させるゲームは、ゲーム内において複数のオブジェクトが登場するゲームであればよく、ゲームの内容は特に限定されない。すなわち、本実施形態は、ゲームの内容やゲームジャンル等を制限されることなく、任意のゲームに適用することができる。
本実施形態では、一例として、ゲーム動作制御部112が、所定のグローバル座標系で構築される仮想的な3次元空間である仮想空間で、様々な3次元形状の移動オブジェクトが登場する、三人称視点シューティングゲーム(TPS:Third person shooter)を動作させる場合を想定する。
このゲームにおいて、各移動オブジェクトには、それぞれ個別のローカル座標系が設定されており、各ローカル座標系の座標がグローバル座標系の座標に変換されて仮想空間に配置される。
以下の説明では、プレイヤが操作対象とする移動オブジェクト以外のオブジェクトを「第1オブジェクト」と称する。ゲーム動作制御部112は、所定のアルゴリズムに基づいて、第1オブジェクトを移動させるためにローカル座標系での座標を変化させる。これに伴い、変化したローカル座標系の座標がグローバル座標系の座標に変換され、仮想空間における第1オブジェクトの移動が実現される。
また、プレイヤが操作対象とする移動オブジェクトを「第2オブジェクト」と称する。ゲーム動作制御部112は、プレイヤによる第2オブジェクトの移動指示操作に基づいて、第2オブジェクトを移動させるためにローカル座標系での座標を変化させる。これに伴い、変化したローカル座標系の座標がグローバル座標系の座標に変換され、仮想空間における第2オブジェクトの移動が実現される。
更に、ゲーム動作制御部112は、三人称視点を実現するために、各移動オブジェクトと同様にして、仮想空間に仮想カメラを配置する。例えば、ゲーム動作制御部112は、第2オブジェクトの頭上後方から、見下ろす視点を実現するために、第2オブジェクトの後方頭上に対応する位置に仮想カメラを配置する。この仮想カメラの配置位置は、第2オブジェクトの移動に伴って移動する。すなわち、ゲーム動作制御部112は、プレイヤによる第2オブジェクトの移動指示操作に基づいて、仮想カメラを移動させるためにローカル座標系での座標を変化させる。これに伴い、変化したローカル座標系の座標がグローバル座標系の座標に変換され、仮想空間における仮想カメラの移動が実現される。
また、仮想空間における仮想カメラの撮影方向(すなわち、仮想カメラの向き)は、プレイヤによる複合操作に基づいて変更される。
そして、この仮想カメラが、自身の配置された位置から撮影方向を撮影した、仮想空間における仮想カメラの画角に相当する領域(以下、「撮影領域」と称する。)に対応する画像が、後述の出力制御部113により、タッチパネル16に表示される。
出力制御部113は、ゲーム動作制御部112が制御するゲームの進行状況と、後述のゲーム動作用データ記憶部191が記憶する画像データと、上述の仮想カメラの配置位置及び撮影方向と、グローバル座標系における各移動オブジェクトの座標とに基づいて、ゲームの進行状況に応じた画像を生成し、生成した画像をタッチパネル16に表示させるための制御処理を行う。すなわち、出力制御部113は、ゲームの動作に伴い仮想空間や、各移動オブジェクトや、ユーザインタフェース等を描画する処理を行う描画部として機能する。
また他にも、出力制御部113は、ゲーム動作制御部112が制御するゲームの進行状況と、ゲーム動作用データ記憶部191が記憶する音データから、ゲーム用の、音楽、効果音、及び音声等を生成し、生成した音等を出力部18に接続されたスピーカから出力させるための処理を行う。
撮影領域移動部114は、プレイヤによる複合操作に基づいて、仮想空間における仮想カメラの撮影方向を変更させることにより、仮想カメラにより撮影される撮影領域を移動させるための処理を行う。そのために、撮影領域移動部114は、操作検出部111から入力されたプレイヤの操作内容を監視する。そして、撮影領域移動部114は、プレイヤによる複合操作が行われると、各機能ブロックに対して仮想カメラの撮影方向の変更指示を出力する。ここで、複合操作は、上述したように、スワイプ操作である。撮影領域移動部114は、このスワイプ操作での、第2スワイプ状態においてタッチがなされた位置の座標の変化に対応する方向に、仮想カメラの撮影方向を変更させるように、他の機能ブロックに対して指示を出す。
これに伴いゲーム動作制御部112は、仮想空間における仮想カメラの撮影方向を変更させる。また、これに伴い、出力制御部113は、変更後の撮影方向に基づいて撮影された撮影領域に対応する画像を生成し、タッチパネル16に表示させる。これにより、仮想カメラにより撮影される撮影領域の移動は実現される。
オブジェクト選択部115は、プレイヤによる複合操作に基づいて、第1オブジェクトを選択するための処理を行う。そのために、オブジェクト選択部115は、操作検出部111から入力されたプレイヤの操作内容を監視する。そして、オブジェクト選択部115は、プレイヤによる複合操作が行われると、第1スワイプ状態において、第1オブジェクトを選択するためのカーソルを表示するように、他の機能ブロックに対して指示を出す。これに伴い、出力制御部113は、カーソルに対応する画像(例えば、黒丸の画像)を生成し、タッチパネル16に表示させる。このカーソルに対応する画像は、仮想カメラにより撮影された撮影領域の所定位置に、撮影領域に対応する画像に重ねられて表示される。例えば、撮影領域の中央位置に、撮影領域に対応する画像に重ねられて表示される。
そして、第2スワイプ状態において、撮影領域移動部114による処理により撮影領域が移動したり、第1オブジェクトが移動したりしたことにより、このカーソルに対応する画像が表示されている所定位置に第1オブジェクトが表示されると、オブジェクト選択部115は、各機能ブロックに対して、この第1オブジェクトの選択指示を出力する。
これに伴い、ゲーム動作制御部112は、この第1オブジェクトを選択した状態とする。また、この選択した第1オブジェクトに関してタッチパネル16に表示すべき情報(以下、「オブジェクト情報」と称する。)を決定する。オブジェクト情報としてどのような情報を表示するのかは特に限定されない。
例えば、ゲーム動作制御部112は、選択した第1オブジェクトに対して第2オブジェクトが実行可能な動作を示す情報をオブジェクト情報として表示すると決定する。この第2オブジェクトが実行可能な動作は、固定された1つの動作であってもよいが、選択した第1オブジェクトや第2オブジェクトの装備しているアイテム毎に異なる動作であってもよく、ゲーム開発者により任意に定めておくことができる。あるいは、ゲーム動作制御部112は、選択した第1オブジェクトの状態等を示す情報をオブジェクト情報として表示すると決定する。例えば、第1オブジェクトの名称や、第1オブジェクトのパラメータ(例えば、第1オブジェクトの現在のヒットポイント)を示す情報をオブジェクト情報として表示すると決定する。
これに伴い、出力制御部113は、ゲーム動作制御部112が表示すると決定したオブジェクト情報を、タッチパネル16に表示させる。このオブジェクト情報は、仮想カメラにより撮影された撮影領域の所定位置に、撮影領域に対応する画像に重ねて表示される。例えば、カーソルの表示位置の近傍に、撮影領域に対応する画像に重ねられて表示される。この場合に、第1オブジェクトを選択中であることをプレイヤに認識させるために、例えば、出力制御部113は、カーソルの画像を異なる画像(例えば、第1オブジェクトを囲う画像)に変更するようにしてもよい。
動作実行部116は、プレイヤによる複合操作に基づいて、第2オブジェクトに実行可能な動作を実行させるための処理を行う。そのために、動作実行部116は、操作検出部111から入力されたプレイヤの操作内容を監視する。そして、動作実行部116は、プレイヤによる複合操作が行われ、第1オブジェクトが選択された状態において第3スワイプ状態となった場合に、第2オブジェクトに実行可能な動作を行わせるように、他の機能ブロックに対して指示を出す。これに伴い、出力制御部113は、第2オブジェクトに実行可能な動作を実行させる。これに伴い、撮影領域移動部114は、第2オブジェクトが実行した動作に対応する画像(例えば、第2オブジェクトが動作を行うモーションを示す画像や、第1オブジェクトがこの動作に反応するモーションを示す画像や、この動作に伴うエフェクトを示す画像)を生成し、タッチパネル16に表示させる。
ここで、上述したように、第2オブジェクトが実行可能な動作は、選択した第1オブジェクトによって異ならせることができる。例えば、選択した第1オブジェクトが敵キャラクタである場合に、この敵キャラクタに対して行う行動であって、例えば、剣で攻撃、剣で連続攻撃、弓矢で射撃、弓矢で連続射撃、魔法による攻撃を放つ、魔法による攻撃を連続して放つ、盾で防御をする、盾で打撃する等といったゲームキャラクタの単なる移動とは異なる動作である。また、他にも、これらの敵キャラクタに対する攻撃等を行うために、剣や弓矢や盾を構える(あるいは装備)する動作である。なお、これは、一例に過ぎず、例えば、第2オブジェクトが敵キャラクタ以外のキャラクタやアイテム等である場合に、キャラクタに呼びかけたり、アイテムを取得したり等の動作であってもよい。
このように、各機能ブロックが協働することにより、複合操作実現処理が実行され、1つのスワイプ操作を、複合操作として取り扱うことが可能となる。そのため、上述したように、従来であればスワイプ操作と複数回のタップ操作といった3つの操作の組み合わせにより実現される複数の処理を、1つのスワイプ操作のみによって実現することができる。
ゲーム動作用データ記憶部191は、ゲーム動作制御部112がゲームを動作させるために必要となる各種のデータを記憶する。ゲームを動作させるための各種のデータとは、例えばゲームを実行させるためのプログラムであるゲームソフトウェアや、ゲーム用の画像や音を生成するための画像データや音楽データや音声データである。また、本実施形態のように、ゲームにおいて、キャラクタや、背景の少なくとも一部を三次元コンピュータグラフィックスにて表示する場合、ゲーム動作用データ記憶部191には、三次元コンピュータグラフィックスによる表示を実現するための、ポリゴンデータやテクスチャ情報等も格納される。
パラメータ記憶部192は、上述のゲーム動作制御部112の説明において述べたように、所定のパラメータを記憶する。
なお、ゲームを動作させるためのこれら各種のデータは、記憶部19のゲーム動作用データ記憶部191にのみ格納されていてもよいが、ドライブ21によってリムーバブルメディア100から適宜読み出されるようにしてもよい。また他にも、これら各種のデータは、サーバ装置(図示を省略する)や、他の情報処理装置1(図示を省略する)等から、通信部20を介した通信により、情報処理装置1に対して適宜送信されてもよい。すなわち、これら各種のデータは、ゲームのインストール時や、ゲームのバージョンアップ時に、必要に応じて適宜ダウンロードされることにより取得されてもよい。
[動作及び表示例]
次に、情報処理装置1が実行する、複合操作実現処理における動作について図3を参照して説明をする。図3は、複合操作実現処理の流れを説明するフローチャートである。併せて、この複合操作実現処理の動作に伴い、タッチパネル16における表示例の遷移について図4から図7までを参照して説明する。図4から図7までは、タッチパネル16における表示例の遷移について示す模式図である。
複合操作実現処理は、プレイヤによるゲームの開始操作に伴い実行される。なお、以下の図3のフローチャートを参照した説明において特に言及しない処理も含め、上述した各機能ブロックは、複合操作実現処理を行うために必要な処理を適宜実行する。
ステップS11において、オブジェクト選択部115は、プレイヤからの複合操作が開始されたか否かを判定する。プレイヤからの複合操作が開始された場合は、ステップS11においてYesと判定され、処理はステップS12に進む。一方で、プレイヤからの複合操作が開始されない場合は、ステップS11においてNoと判定され、処理はステップS11の判定を繰り返す。
ステップS12において、撮影領域移動部114は、複合操作に基づいて、撮影領域を移動するための処理を開始する。
ステップS13において、出力制御部113は、第1オブジェクトを選択するためのカーソルの表示を行うための処理を開始する。
この場合のタッチパネル16における表示例について、図4を参照して説明する。まず、複合操作が開始される前の時点(すなわち、ステップS11においてNoの時点)では、例えば、図4(A)に示すような表示がなされる。すなわち、撮影領域に対応する画像として、仮想空間と、第1オブジェクトOB11と、第2オブジェクトOB21とが表示される。更に、プレイヤからの第2オブジェクトOB21の移動指示操作を受け付けるための、方向キーを模したソフトウェアボタンBが所定の位置に表示される。プレイヤがソフトウェアボタンBの所定方向に対応する位置に対してタッチ操作を行った場合、操作検出部111は、操作内容をこの所定方向への移動指示操作と判断する。そして、ゲーム動作制御部112は、この移動指示操作に基づいて、第2オブジェクトOB21を移動させる。なお、第2オブジェクトOB21の移動に伴い、仮想カメラの配置位置も移動する点については、上述した通りである。
また、複合操作が開始されて、ステップS12及びステップS13が行われることにより、例えば、図4(B)に示すような表示がなされる。すなわち、プレイヤの指による複合操作における第2スワイプ状態に基づいて、撮影領域は移動する。なお、図中では、プレイヤが複合操作を実行して表示領域が移動する状態を示すために、プレイヤの指F及び矢印を概念的に図示する。また、図4(A)の表示に追加して、カーソルに対応する画像としてカーソル画像Cが撮影領域の中央部分に表示される。
図3に戻り、ステップS14において、オブジェクト選択部115は、撮影領域が移動したり、第1オブジェクトが移動したりしたことにより、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示されたか否かを判定する。カーソル画像Cが表示されている所定位置に第1オブジェクトが表示された場合は、ステップS14においてYesと判定され、処理はステップS16に進む。一方で、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示されない場合は、ステップS14においてNoと判定され、処理はステップS15に進む。
ステップS15において、動作実行部116は、複合操作が第3スワイプ状態を経て終了したか否かを判定する。複合操作が第3スワイプ状態を経て終了した場合は、ステップS15においてYesと判定され、本処理は終了する。一方で、複合操作が第2スワイプ状態維持しており、終了していない場合は、ステップS15においてNoと判定され、処理はステップS14に戻り、ステップS14の判定から繰り返される。
ステップS16において、オブジェクト選択部115は、カーソル画像Cが表示されている所定位置に表示された第1オブジェクトを選択するための処理を開始する。
ステップS17において、オブジェクト選択部115は、カーソル画像Cが表示されている所定位置に表示された第1オブジェクトに対応するオブジェクト情報を表示するための処理を開始する。
この場合のタッチパネル16における表示例について、図5を参照して説明する。ステップS16及びステップS17が行われることにより、例えば、図5(A)に示すような表示がなされる。すなわち、図4(B)の表示に追加して、カーソル画像Cが第1オブジェクトOB11を選択中であることをプレイヤに認識させるために、カーソル画像Cが第1オブジェクトOB11を囲う画像に変更して表示される。また、オブジェクト情報として、オブジェクト情報IN11とオブジェクト情報IN12が表示される。ここで、オブジェクト情報IN11は、第1オブジェクトOB11の状態等を示す情報であり、図中では一例として第1オブジェクトOB11の名称を示す「広葉樹」というテキストが表示されている。また、オブジェクト情報IN12は、選択した第1オブジェクトOB11に対して第2オブジェクトOB21が実行可能な動作を示す情報であり、図中では一例として第2オブジェクトOB21が実行可能な「斧を装備」というテキストが表示されている。これは、第2オブジェクトOB21が、第1オブジェクトOB11を切り倒すための準備として、斧を装備する動作が実行可能であることを示す。
また、他の第2オブジェクトとして、例えば第1オブジェクトOB12が選択された場合、図5(B)に示すような表示がなされる。すなわち、図5(A)の表示における第1オブジェクトOB11ではなく、カーソル画像Cが第1オブジェクトOB12を選択中であることをプレイヤに認識させるために、カーソル画像Cが第1オブジェクトOB12を囲う画像に変更して表示される。また、オブジェクト情報として、オブジェクト情報IN21とオブジェクト情報IN12が表示される。ここで、オブジェクト情報IN21は、第1オブジェクトOB12の状態等を示す情報であり、図中では一例として第1オブジェクトOB12の名称を示す「イノシシ」というテキストと、第1オブジェクトOB12の現在のヒットポイントを示す「HP:120」というテキストが表示されている。また、オブジェクト情報IN22は、選択した第1オブジェクトOB12に対して第2オブジェクトOB21が実行可能な動作を示す情報であり、図中では一例として第2オブジェクトOB21が実行可能な「武器を装備」というテキストが表示されている。これは、第2オブジェクトOB21が、第1オブジェクトOB12に対して攻撃を行うための準備として、武器を装備する動作が実行可能であることを示す。
図3に戻り、ステップS18において、オブジェクト選択部115は、撮影領域が移動したり、第1オブジェクトが移動したりしたことにより、カーソル画像Cが表示されている所定位置の外に第1オブジェクトが表示されたか否かを判定する。カーソル画像Cが表示されている所定位置の外に第1オブジェクトが表示された場合は、ステップS18においてYesと判定され、処理はステップS20に進む。一方で、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示されたままである場合は、ステップS18においてNoと判定され、処理はステップS19に進む。
ステップS19において、動作実行部116は、複合操作が第3スワイプ状態を経て終了したか否かを判定する。複合操作が第3スワイプ状態を経て終了した場合は、ステップS19においてYesと判定され、処理はステップS20に進む。一方で、複合操作が第2スワイプ状態維持しており、終了していない場合は、ステップS19においてNoと判定され、処理はステップS18に戻り、ステップS18の判定から繰り返される。
ステップS20において、動作実行部116は、第2オブジェクトに実行可能な動作を実行させるための処理を行う。これにより本処理は終了する。
この場合のタッチパネル16における表示例について、図6を参照して説明する。ここで、図6(A)は、図5(B)に示す表示と同じ表示である。この場合に、ステップS20が行われることにより、例えば、図6(B)に示すような表示がなされる。すなわち、第2オブジェクトOB21の状態が、武器(ここでは、剣)を装備した状態に変更して表示される。なお、図中では、複合操作が第3スワイプ状態を経て終了した状態を示すために、概念的にプレイヤの指Fを破線で図示する。
また、その後新たに行われる複合操作実現処理において、ステップS20までの動作が行われると(すなわち、再度第1オブジェクトOB12が選択され、第2オブジェクトOB21に実行可能な動作を実行させると)、例えば、図6(カーソル画像C)に示すように、第2オブジェクトOB21が装備している武器による第2オブジェクトOB21に対する攻撃が実行され、第1オブジェクトOB12のヒットポイントは減少する。
このように、プレイヤが複合操作を行うのみで、表示領域に相当する撮影領域を移動するのみならず、選択した第2オブジェクトのオブジェクト情報の表示や、選択した第2オブジェクトに対応する武器の装備や、この第2オブジェクトに対する攻撃の実行等の処理を実現することができる。すなわち、表示領域を移動可能なコンピュータゲームにおいて、より簡便な操作をプレイヤに対して提供することができる。
図3に戻り、ステップS21において、オブジェクト選択部115は、カーソル画像Cが表示されている所定位置に表示された第1オブジェクトを選択するための処理を終了する。これにより、カーソル画像Cは第1オブジェクトを囲う画像から、黒丸の画像に戻る。一方で、ステップS17において表示を開始したオブジェクト情報の一部については、引き続き表示される。
ステップS22において、オブジェクト選択部115は、撮影領域が移動したり、第1オブジェクトが移動したりしたことにより、再度、カーソル画像Cが表示されている所定位置に第1オブジェクト(一度選択されて現在オブジェクト情報が表示されている第1オブジェクトであっても、他の第1オブジェクトでもよい)が表示されたか否かを判定する。再度、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示された場合は、ステップS22においてYesと判定され、処理はステップS16に戻り、繰り返される。一方で、再度、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示されない場合は、ステップS22においてNoと判定され、処理はステップS23に進む。
ステップS23において、動作実行部116は、複合操作が第3スワイプ状態を経て終了したか否かを判定する。複合操作が第3スワイプ状態を経て終了した場合は、ステップS23においてYesと判定され、本処理は終了する。一方で、複合操作が第2スワイプ状態を維持しており、終了していない場合は、ステップS23においてNoと判定され、処理はステップS24に進む。
ステップS24において、オブジェクト選択部115は、撮影領域が移動したり、一度選択されて現在オブジェクト情報が表示されている第1オブジェクトが移動したりしたことにより、この第1オブジェクトが、撮影領域外に位置することになったか否かを判定する。この第1オブジェクトが、撮影領域外に位置することになった場合は、ステップS24においてYesと判定され、処理はステップS25に進む。一方で、この第1オブジェクトが、撮影領域内に位置している場合は、ステップS24においてNoと判定され、処理はステップS22に戻り繰り返される。
ステップS25において、現在表示されているオブジェクト情報を表示するための処理を終了する。そして、処理はステップS14に戻り繰り返される。
この場合のタッチパネル16における表示例について、図7を参照して説明する。図7(A)に示すように、本例では、ステップS16において第1オブジェクトOB13が選択され、ステップS17においてオブジェクト情報としてオブジェクト情報IN31とオブジェクト情報IN32が表示されている場合を想定する。ここで、オブジェクト情報IN31は、第1オブジェクトOB13の状態等を示す情報であり、図中では一例として第1オブジェクトOB13の名称を示す「むーくん」というテキストが表示されている。また、オブジェクト情報IN32は、選択した第1オブジェクトOB14に対して第2オブジェクトOB21が実行可能な動作を示す情報であり、図中では一例として第2オブジェクトOB21が実行可能な「呼びかける」というテキストが表示されている。これは、第2オブジェクトOB21が、第1オブジェクトOB14に呼びかける動作が実行可能であることを示す。
この場合に、ステップS21が行われることにより、例えば、図7(B)に示すような表示がなされる。すなわち、カーソル画像Cは第1オブジェクトを囲う画像から、黒丸の画像に戻る。一方で、ステップS17において表示を開始したオブジェクト情報のうち、オブジェクト情報IN31については、引き続き表示される。これにより、プレイヤはオブジェクト情報IN31を引き続き参照することができる。ただし、第1オブジェクトOB13は選択されていない状態であり、第2オブジェクトOB21が、第1オブジェクトOB14に呼びかける動作は実行できない。そのため、オブジェクト情報IN32については、表示を終了する。
この場合に、第1オブジェクトOB13が、撮影領域外に位置することになって、更にステップS25が行われることにより、オブジェクト情報IN32についても、表示を終了する。すなわち、全てのオブジェクト情報の表示が終了する。これにより、表示は、図4(B)と同様になり、新たな第1オブジェクトを対象として、上述した処理を繰り返すことが可能となる。
[変形例]
以上、本発明の実施形態について説明したが、この実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば、本発明の実施形態を以下の変形例のように変形してもよい。また、以下の変形例同士を組み合わせるように変形してもよい。
<第1の変形例>
上述の実施形態では、オブジェクト選択部115は、ステップS14において、撮影領域が移動したり、第1オブジェクトが移動したりしたことにより、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示されたと判定した場合に、ステップS16及びステップS17を行っていた。すなわち、仮想カメラの撮影方向であって、撮影領域に含まれる範囲に第1オブジェクトが存在する場合に、この第1オブジェクトを選択するための処理と、この第1オブジェクトに対応するオブジェクト情報を表示するための処理を行っていた。これに限らず、更に他の基準も考慮して処理を行うようにしてもよい。例えば、仮想カメラの位置と、この第1オブジェクトの位置との距離も考慮して処理を行うようにしてもよい。
例えば、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示され、且つ、仮想カメラの位置とこの第1オブジェクトの位置との距離が所定距離以内である場合に、ステップS14においてYesと判定し、ステップS16及びステップS17を行うようにしてもよい。ステップS16及びステップS17を行うようにしてもよい。
一方で、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示され、且つ、仮想カメラの位置とこの第1オブジェクトの位置との距離が所定距離以内でない場合には、ステップS14においてNoと判定して、ステップS16及びステップS17は行わないようにしてもよい。あるいは、他の変形例として、カーソル画像Cが表示されている所定位置に第1オブジェクトが表示され、且つ、仮想カメラの位置とこの第1オブジェクトの位置との距離が所定距離以内でない場合には、ステップS14においてYesと判定するが、ステップS16及びステップS17の何れかしか行わないようにしてもよい。例えば、ステップS16における第1オブジェクトを選択するための処理は行うが、ステップS17における第1オブジェクトに対応するオブジェクト情報を表示するための処理を行わないようにしてもよい。
これにより、あまりにも遠方に位置している第1オブジェクトについても、ステップS16やステップS17を行ってしまうことを防止できる。そのために、判定を行うための所定距離の長さは、例えば、第2オブジェクトが実行可能な動作を実行しても違和感を与えない距離とするとよい。これにより、例えば、剣が届かないような遠くに位置する第1オブジェクトに対して、第2オブジェクトが剣による攻撃動作を実行してしまうことを防止することができる。
なお、判定を行うための仮想カメラの位置と第1オブジェクトの位置との距離は、ローカル座標系の座標からグローバル座標系の座標に変換された仮想カメラの座標と、同じくローカル座標系の座標からグローバル座標系の座標に変換された第1オブジェクトの座標との差分に基づいて算出することができる。
また、上述した本変形例を更に変形してもよい。例えば、仮想カメラの位置と第1オブジェクトの位置との距離に基づくのではなく、第2オブジェクトの位置と第1オブジェクトの位置との距離に基づいて、上述の本変形例と同様の処理を行うようにしてもよい。このようにしても、上述した、剣が届かないような遠くに位置する第1オブジェクトに対して、第2オブジェクトが剣による攻撃動作を実行してしまうことを防止することができる、というような効果を奏することができる。
<第2の変形例>
上述の実施形態では、プレイヤによる、タッチパネル16へのスワイプ操作を複合操作として取り扱い、この1つの複合操作に基づいて、複数の処理を実行していた。これに限らず、プレイヤによる他の操作を複合操作として取り扱うようにしてもよい。すなわち、スワイプ操作以外の、撮影領域を移動するための操作であって、操作の開始と、操作の終了とを特定可能な操作を複合操作として取り扱うようにしてもよい。
例えば、入力部17に接続されたコントローラの、十字キーやアナログスティックといった操作用の機構を利用した操作の場合であれば、これら操作用の機構による入力開始の検出した場合に上述の第1スワイプ状態を検出したとして処理を行う。また、これら操作用の機構による所定方向への移動操作を継続して検出している間は上述の第2スワイプ状態を検出したとして処理を行う。更に、これら操作用の機構による所定方向への移動操作の検出が終了した時点(あるいは、検出終了から所定時間が経過した時点)で上述の第3スワイプ状態を検出したとして処理を行う。このようにしても、上述の複合操作実現処理を実現することができる。
あるいは、複数のデバイスを利用する操作の場合であっても、上述の複合操作実現処理を実現することができる。例えば、入力部17に接続されたキーボード等を利用して第2オブジェクトを移動するための操作等を行う一方で、入力部17に接続されたポインティングデバイス(例えば、マウス)を実際に移動させることによって撮影領域を移動するための操作を行う場合であっても、上述の複合操作実現処理を実現することができる。この場合は、ポインティングデバイスの移動が開始された場合に上述の第1スワイプ状態を検出したとして処理を行う。また、ポインティングデバイスによる所定方向への移動を継続して検出している間は上述の第2スワイプ状態を検出したとして処理を行う。更に、これらポインティングデバイスによる所定方向への移動の検出が終了した時点(あるいは、検出終了から所定時間が経過した時点)で上述の第3スワイプ状態を検出したとして処理を行う。このようにしても、上述の複合操作実現処理を実現することができる。
また、加速度センサやジャイロセンサにより、プレイヤがコントローラ自体を移動させたり傾けたりすることを検出するようなコントローラの場合であっても、上述の複合操作実現処理を実現することができる。この場合、上述のポインティングデバイスにおける移動の検出を、コントローラ自体を移動させたり傾けたりすることの検出に置き換えるようにすればよい。
<第3の変形例>
上述の実施形態では、オブジェクト選択部115により選択された第1オブジェクトに対して、第2オブジェクトが実行可能な動作は1つであることを想定していた。これに限定されず、第2オブジェクトが実行可能な動作は複数存在するようにしてもよい。この場合について、図8を参照して説明をする。
図8は、オブジェクト情報の表示例を示す図であり、図5(A)、図5(B)、及び図7(A)と同様の状況を示す図である。ステップS16及びステップS17が行われることにより、例えば、図8に示すような表示がなされる。
すなわち、図4(B)の表示に追加して、カーソル画像Cが第1オブジェクトOB14を選択中であることをプレイヤに認識させるために、カーソル画像Cが第1オブジェクトOB14を囲う画像に変更して表示される。また、オブジェクト情報として、オブジェクト情報IN41とオブジェクト情報IN42とオブジェクト情報IN43とが表示される。ここで、オブジェクト情報IN41は、第1オブジェクトOB13の状態等を示す情報であり、図中では一例として第1オブジェクトOB14の名称を示す「焚き火」というテキストが表示されている。また、オブジェクト情報IN42及びオブジェクト情報IN43は、それぞれ、選択した第1オブジェクトOB14に対して第2オブジェクトOB21が実行可能な動作を示す情報である。図中では一例として第2オブジェクトOB21が実行可能な「温まる」というテキストと、「料理を作る」というテキストが表示されている。
本変形例では、このように、第2オブジェクトが実行可能な動作が複数存在し、その動作それぞれをオブジェクト情報として表示する。そして、プレイヤが、これらの動作の何れかを選択する操作を行った場合に、選択された動作を第2オブジェクトに実行させる。例えば、ステップS23において複合操作が第3スワイプ状態を経て終了したと判定された後に、プレイヤは選択する動作に対応するオブジェクト情報をタップ操作する。そして、このタップ操作に基づいて、選択された動作を第2オブジェクトに実行させる。
このように、上述の複合操作実現処理を実現すると共に、複数の動作を実行可能とすることにより、プレイヤの選択肢を増やすことが可能となる。
また、他の変形例として、例えば、第2オブジェクトが実行可能な動作が複数存在する場合に、第2オブジェクトの状態に応じて、何れかの動作を選択するようにしてもよい。例えば、第2オブジェクトが所有(あるいは装備済み)の武器の種類に基づいて、何れかの動作を選択するようにしてもよい。例えば、図6(B)を参照して上述したように、第2オブジェクトが剣を装備している場合には、第2オブジェクトが実行可能な動作として剣による攻撃を選択する。一方で、例えば、第2オブジェクトが弓矢を装備している場合の他の表示例を図9に示す。この図9に示すように、第2オブジェクトが弓矢を装備している場合には、第2オブジェクトが実行可能な動作として弓矢による攻撃を選択する。このように、第2オブジェクトが所有(あるいは装備済み)の武器の種類に基づいて、何れかの動作を選択することにより、上述の複合操作実現処理を実現すると共に、動作を選択する操作を省略することができる。
<第4の変形例>
上述の実施形態では、複合操作実現処理を実行する機能ブロックを、情報処理装置1という単一の装置で実現することを想定した。これに限らず、複合操作実現処理を実行する機能ブロックを、複数の装置が協働することにより実現するようにしてもよい。例えば、情報処理装置1が実現していた、複合操作実現処理を実行する機能ブロックを、サーバ装置に分散して、クライアント・サーバシステムとして実現してもよい。この場合に、サーバ装置は単一のサーバ装置であってもよいし、クラウドサーバ等のような複数のサーバ装置の組み合わせであってもよい。
そして、情報処理装置1と、このサーバ装置とが適宜通信を行い、情報を適宜送受信する。具体的には、情情報処理装置1は、自身の備えるタッチパネル16にてプレイヤから受け付けた操作をサーバ装置が備える機能ブロックに送信する。また、サーバ装置が備える機能ブロックは、情報処理装置1から受信したプレイヤから受け付けた操作に基づいて、処理を行う。また、サーバ装置は、この処理結果を情報処理装置1に送信する。更に、情報処理装置1は、サーバ装置から受信した処理結果に基づいた画像を、自身の備えるタッチパネル16に表示する。
このようにしても、上述の複合操作実現処理を実現することができる。
<第5の変形例>
上述の実施形態では、1人のプレイヤが参加するゲームを想定して説明を行った。これに限らず、複数のプレイヤが参加するマルチプレイのゲームを上述の実施形態に適用してもよい。この場合、1つの仮想空間に、複数のプレイヤそれぞれに対応して複数の第2オブジェクトが存在し、各プレイヤが各第2オブジェクトを操作するようにする。そして、各第2オブジェクトの操作それぞれにおいて、上述の複合操作実現処理を行うようにする。なお、この場合に、或るプレイヤの操作する第2オブジェクトは、他のプレイヤにとって第1オブジェクトであると扱うようにしてもよい。
<第6の変形例>
上述の実施形態では、プレイヤが複合操作を行うのみで、表示領域に相当する撮影領域を移動するのみならず、選択した第2オブジェクトのオブジェクト情報の表示や、選択した第2オブジェクトに対応する武器の装備や、この第2オブジェクトに対する攻撃の実行等の処理を実現するようにしていた。これに限らず、プレイヤが、複合操作以外の別途の操作を行った場合にも、これらの処理を実現するようにしてもよい。すなわち、或る処理を実現するための操作を複合操作にのみ限定してもよいが、他の操作によってもこの或る処理を実現するようにしてもよい。
例えば、タッチパネル16において、複合操作以外の他の操作(例えば、タップ操作)の操作を受け付けた場合に、選択した第2オブジェクトのオブジェクト情報の表示や、選択した第2オブジェクトに対応する武器の装備や、この第2オブジェクトに対する攻撃の実現等の処理を実現するようにしてもよい。また、他にも、入力部17に含まれる各種ボタンや方向キー等により操作を受け付けた場合に、これらの処理を行うようにしてもよい。
<他の変形例>
以上、本発明の実施形態及びいくつかの変形例について説明をした。なお、本発明は、上述の実施形態及びいくつかの変形例に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
また、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2に示した機能的構成は例示に過ぎず、特に限定されない。すなわち、上述した一連の処理を全体として実行できる機能が情報処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、プレイヤにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア100により構成されるだけでなく、装置本体に予め組み込まれた状態でプレイヤに提供される記録媒体等で構成される。リムーバブルメディア100は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でプレイヤに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれる半導体メモリ等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。また、記録媒体に記録されるプログラムにより実行されるステップは、本発明の要旨を逸脱しない範囲内において、任意の順番に実行されてよい。
1・・・情報処理装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・タッチパネル,161・・・表示部,162・・・タッチ操作受付部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,100・・・リムーバブルメディア,111・・・操作検出部,112・・・ゲーム動作制御部,113・・・出力制御部,114・・・撮影領域移動部,115・・・オブジェクト選択部,116・・・動作実行部,181・・・ゲーム動作用データ記憶部,182・・・パラメータ記憶部

Claims (10)

  1. 仮想空間に第1オブジェクト第2オブジェクト、及び仮想カメラを配置する配置機能と、
    前記仮想空間において前記仮想カメラが自身の配置された位置から所定方向を撮影した領域を、所定領域として表示媒体に表示させると共に、プレイヤによる連続的な移動指示操作の開始に伴い、前記所定領域における所定位置にカーソルを表示させる表示制御機能と、
    前記移動指示操作に基づいて、前記仮想カメラが撮影する前記所定方向を変更することにより、前記所定領域を移動する領域移動機能と、
    前記移動指示操作が継続中に、前記カーソルが表示されている前記所定位置に前記第1オブジェクトが表示された場合に、前記第1オブジェクトを選択する選択機能と、
    前記移動指示操作終了に伴い、前記第2オブジェクトに、前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作を実行させる動作実行機能と、
    をコンピュータに実現する情報処理プログラム。
  2. 前記移動指示操作とは異なる操作である、前記第2オブジェクトに対する移動指示操作に基づいて、前記第2オブジェクトの位置を移動するオブジェクト移動機能を前記コンピュータにさらに実現し、
    前記配置機能は、前記オブジェクト移動機能が移動させた第2オブジェクトの位置に基づいて前記仮想カメラを配置する位置を決定する、
    請求項に記載の情報処理プログラム。
  3. 前記移動指示操作は、前記表示媒体に重畳された入力受付装置により受け付けられる、
    請求項1又は2に記載の情報処理プログラム。
  4. 前記表示制御機能は、
    前記移動指示操作の開始に伴い、前記所定位置に前記カーソルを第1態様で表示させ、
    前記選択機能による前記第1オブジェクトの選択に伴い、前記所定位置に前記カーソルを前記第1態様から第2態様に変更して表示させる、
    請求項1乃至3の何れか1項に記載の情報処理プログラム。
  5. 前記表示制御機能は、
    前記選択機能による前記第1オブジェクトの選択に伴い、選択された前記第1オブジェクトに関する情報を前記所定領域に表示させ
    前記選択機能による前記第1オブジェクトの選択の終了に伴い、前記カーソルを前記第2態様から前記第1態様に変更して表示させると共に、前記選択されていた前記第1オブジェクトに関する情報を前記所定領域に表示させることを継続する、
    請求項4に記載の情報処理プログラム。
  6. 前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作が1つのみ存在する第1の場合には、
    前記動作実行機能は、前記移動指示操作の終了に伴い、前記第2オブジェクトに、前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作を実行させ、
    前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作が複数存在する第2の場合に
    前記表示制御機能は、前記選択機能による前記第1オブジェクトの選択に伴い、前記複数存在する実行可能な動作を選択肢として前記所定領域に表示し、
    前記動作実行機能は、前記移動指示操作の終了後に、前記プレイヤによる前記選択肢からの動作選択操作に基づいて、前記第2オブジェクトに実行させる動作を決定する、
    請求項1乃至の何れか1項に記載の情報処理プログラム。
  7. 動作実行機能は、前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作の種類を、前記第1オブジェクトの種類及び前記第2オブジェクトの状態の何れか又は双方に基づいて決定する、
    請求項1乃至6の何れか1項に記載の情報処理プログラム。
  8. コンピュータが実行する情報処理方法であって、
    仮想空間に第1オブジェクト第2オブジェクト、及び仮想カメラを配置する配置ステップと、
    前記仮想空間において前記仮想カメラが自身の配置された位置から所定方向を撮影した領域を、所定領域として表示媒体に表示させると共に、プレイヤによる連続的な移動指示操作の開始に伴い、前記所定領域における所定位置にカーソルを表示させる表示制御ステップと、
    前記移動指示操作に基づいて、前記仮想カメラが撮影する前記所定方向を変更することにより、前記所定領域を移動する領域移動ステップと、
    前記移動指示操作が継続中に、前記カーソルが表示されている前記所定位置に前記第1オブジェクトが表示された場合に、前記第1オブジェクトを選択する選択ステップと、
    前記移動指示操作終了に伴い、前記第2オブジェクトに、前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作を実行させる動作実行ステップと、
    を含む情報処理方法。
  9. 仮想空間に第1オブジェクト第2オブジェクト、及び仮想カメラを配置する配置手段と、
    前記仮想空間において前記仮想カメラが自身の配置された位置から所定方向を撮影した領域を、所定領域として表示媒体に表示させると共に、プレイヤによる連続的な移動指示操作の開始に伴い、前記所定領域における所定位置にカーソルを表示させる表示制御手段と、
    前記移動指示操作に基づいて、前記仮想カメラが撮影する前記所定方向を変更することにより、前記所定領域を移動する領域移動手段と、
    前記移動指示操作が継続中に、前記カーソルが表示されている前記所定位置に前記第1オブジェクトが表示された場合に、前記第1オブジェクトを選択する選択手段と、
    前記移動指示操作終了に伴い、前記第2オブジェクトに、前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作を実行させる動作実行手段と、
    を備える情報処理装置。
  10. 端末と、前記端末と通信可能に接続されたサーバとを含む情報処理システムであって、
    前記端末は、
    表示をするための表示媒体と、
    前記表示媒体に重畳された入力受付装置と、
    を備え、
    前記サーバは、
    仮想空間に第1オブジェクト第2オブジェクト、及び仮想カメラを配置する配置手段と、
    前記仮想空間において前記仮想カメラが自身の配置された位置から所定方向を撮影した領域を、所定領域として前記表示媒体に表示させると共に、前記入力受付装置が受け付けた、プレイヤによる連続的な移動指示操作の開始に伴い、前記所定領域における所定位置にカーソルを表示させる表示制御手段と、
    前記移動指示操作に基づいて、前記仮想カメラが撮影する前記所定方向を変更することにより、前記所定領域を移動する領域移動手段と、
    前記移動指示操作が継続中に、前記カーソルが表示されている前記所定位置に前記第1オブジェクトが表示された場合に、前記第1オブジェクトを選択する選択手段と、
    前記移動指示操作終了に伴い、前記第2オブジェクトに、前記移動指示操作が継続中に選択した前記第1オブジェクトに対して実行可能な動作を実行させる動作実行手段と、
    を備える情報処理システム。
JP2019041144A 2019-03-07 2019-03-07 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム Active JP6588177B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019041144A JP6588177B1 (ja) 2019-03-07 2019-03-07 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
PCT/JP2020/008329 WO2020179666A1 (ja) 2019-03-07 2020-02-28 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
CN202080019217.0A CN113613739A (zh) 2019-03-07 2020-02-28 信息处理程序、信息处理方法、信息处理装置和信息处理系统
US17/466,660 US20210394064A1 (en) 2019-03-07 2021-09-03 Information processing program, information processing method, information processing device, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019041144A JP6588177B1 (ja) 2019-03-07 2019-03-07 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム

Publications (2)

Publication Number Publication Date
JP6588177B1 true JP6588177B1 (ja) 2019-10-09
JP2020144635A JP2020144635A (ja) 2020-09-10

Family

ID=68159694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019041144A Active JP6588177B1 (ja) 2019-03-07 2019-03-07 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム

Country Status (4)

Country Link
US (1) US20210394064A1 (ja)
JP (1) JP6588177B1 (ja)
CN (1) CN113613739A (ja)
WO (1) WO2020179666A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11577157B2 (en) 2020-07-08 2023-02-14 Nintendo Co., Ltd. Systems and method of controlling game operations based on touch input

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002373350A (ja) * 1996-07-04 2002-12-26 Sega Corp 画像処理装置
JP3515127B2 (ja) * 1996-07-04 2004-04-05 株式会社セガ 画像処理装置、ゲーム機、画像表示方法および記録媒体
JP2001029655A (ja) * 1999-07-23 2001-02-06 Square Co Ltd 行動選択支援方法、記録媒体およびゲーム装置
JP3479504B2 (ja) * 2000-09-21 2003-12-15 コナミ株式会社 ビデオゲーム装置、キャラクタ行動制御方法及びキャラクタ行動制御プログラムが記録されたコンピュータ読み取り可能な記録媒体
JP3931796B2 (ja) * 2002-11-28 2007-06-20 株式会社セガ アクションゲームの制御プログラム
JP2006280731A (ja) * 2005-04-01 2006-10-19 Aruze Corp ゲームプログラム、ゲーム装置及び記録媒体
JP2006305176A (ja) * 2005-04-28 2006-11-09 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP3869452B1 (ja) * 2005-07-28 2007-01-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP3892885B1 (ja) * 2005-09-15 2007-03-14 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4124475B2 (ja) * 2005-12-21 2008-07-23 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
JP5234716B2 (ja) * 2007-03-14 2013-07-10 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP5390560B2 (ja) * 2011-06-03 2014-01-15 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
KR101327995B1 (ko) * 2012-04-12 2013-11-13 동국대학교 산학협력단 디지털 캐릭터를 이용한 무대 공연을 처리하는 장치 및 방법
JP5563633B2 (ja) * 2012-08-31 2014-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
US9299185B2 (en) * 2013-02-12 2016-03-29 Disney Enterprises, Inc. Enhanced system and method for rendering visual surface
US20140357356A1 (en) * 2013-05-28 2014-12-04 DeNA Co., Ltd. Character battle system controlled by user's flick motion
US9878244B2 (en) * 2015-03-11 2018-01-30 Nintendo Co., Ltd. Storage medium having stored therein game program, game apparatus, game system, and game processing method
CN105302434B (zh) * 2015-06-16 2019-03-26 深圳市腾讯计算机系统有限公司 游戏场景中锁定目标的方法和装置
CN105148520A (zh) * 2015-08-28 2015-12-16 上海甲游网络科技有限公司 一种射击游戏的自动瞄准的方法及装置
WO2017090273A1 (ja) * 2015-11-27 2017-06-01 株式会社アースビート ゲーム用オブジェクト制御システム及びプログラム
US10095266B2 (en) * 2016-01-28 2018-10-09 Colopl, Inc. System and method for interfacing between a display and a controller
CN107665231A (zh) * 2016-07-27 2018-02-06 优屏亚太私人有限公司 定位方法和系统
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN106807087B (zh) * 2017-01-23 2018-07-06 腾讯科技(深圳)有限公司 一种应用中模拟对象处理的方法以及移动终端
CN106730834B (zh) * 2017-02-15 2020-06-12 成都艾维拓思科技有限公司 游戏数据处理方法以及装置
CN107376339B (zh) * 2017-07-18 2018-12-28 网易(杭州)网络有限公司 在游戏中锁定目标的交互方法及装置
CN107362535B (zh) * 2017-07-19 2019-04-26 腾讯科技(深圳)有限公司 游戏场景中的目标对象锁定方法、装置及电子设备
CN116450020A (zh) * 2017-09-26 2023-07-18 网易(杭州)网络有限公司 虚拟射击主体控制方法、装置、电子设备及存储介质
CN107890664A (zh) * 2017-10-23 2018-04-10 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN114247131A (zh) * 2018-02-09 2022-03-29 鲸彩在线科技(大连)有限公司 辅助定位方法、装置及设备
CN108355354B (zh) * 2018-02-11 2021-08-10 网易(杭州)网络有限公司 信息处理方法、装置、终端和存储介质
KR102602808B1 (ko) * 2018-03-23 2023-11-17 삼성전자주식회사 터치 입력을 압력 입력으로 결정하기 위한 조건을 변경하는 전자 장치 및 방법
CN108939540B (zh) * 2018-07-04 2021-08-24 网易(杭州)网络有限公司 射击游戏辅助瞄准方法、装置、存储介质、处理器及终端
CN109847354B (zh) * 2018-12-19 2020-05-22 网易(杭州)网络有限公司 一种游戏中虚拟镜头控制的方法及装置

Also Published As

Publication number Publication date
WO2020179666A1 (ja) 2020-09-10
US20210394064A1 (en) 2021-12-23
JP2020144635A (ja) 2020-09-10
CN113613739A (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
US11290543B2 (en) Scene switching method based on mobile terminal
JP2014079643A (ja) 画像処理装置およびその方法
JP6934102B1 (ja) 処理装置、プログラム、及び方法
JP5558546B2 (ja) プログラム、ゲーム装置及びサーバ
JP2006102275A (ja) ゲームシステム、プログラム及び情報記憶媒体
JP6588177B1 (ja) 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
JP2014027975A (ja) プログラム、情報記憶媒体、ゲーム装置及びサーバ
JP2015216996A (ja) ゲームプログラムおよびゲームシステム
JP6621553B1 (ja) 情報処理プログラム、情報処理方法、及び情報処理装置
JP6075720B2 (ja) 画像処理装置およびその方法
CN113680062A (zh) 一种游戏中的信息查看方法及装置
JP2016219057A (ja) 画像処理装置およびその方法
JP2016195864A (ja) 画像処理装置およびその方法
JP2021145888A (ja) プログラム、端末、及びゲームシステム
JP5869176B1 (ja) ゲームプログラムおよびゲーム装置
CN113713371B (zh) 音乐合成方法、装置、设备及介质
JP7383773B2 (ja) 情報処理装置及び情報処理プログラム
KR102170825B1 (ko) 게임 제어 장치 및 방법
JP6999723B2 (ja) プログラム、端末、及びゲームシステム
JP6978540B2 (ja) プログラム、端末、及びゲームシステム
WO2023286222A1 (ja) 処理装置、プログラム及び方法
JP6820642B1 (ja) プログラム及び端末
JP7143065B2 (ja) プログラム、ゲームシステム及びゲーム実行方法
JP6862490B2 (ja) ビデオゲーム処理プログラム、ビデオゲーム処理システム及びビデオゲーム処理方法
JP6123007B1 (ja) ゲームプログラムおよびゲーム装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190307

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190307

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190911

R150 Certificate of patent or registration of utility model

Ref document number: 6588177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250