JP2014531946A - タッチ対応移動体デバイスにおけるゲーム・コントローラー - Google Patents

タッチ対応移動体デバイスにおけるゲーム・コントローラー Download PDF

Info

Publication number
JP2014531946A
JP2014531946A JP2014534644A JP2014534644A JP2014531946A JP 2014531946 A JP2014531946 A JP 2014531946A JP 2014534644 A JP2014534644 A JP 2014534644A JP 2014534644 A JP2014534644 A JP 2014534644A JP 2014531946 A JP2014531946 A JP 2014531946A
Authority
JP
Japan
Prior art keywords
touch
display
area
mobile device
enabled mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014534644A
Other languages
English (en)
Other versions
JP6145099B2 (ja
Inventor
ハモンツリー,モンティ・リー
ギブソン,タイラー・エドワード
アサンズ,エマヌエル・ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014531946A publication Critical patent/JP2014531946A/ja
Application granted granted Critical
Publication of JP6145099B2 publication Critical patent/JP6145099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本明細書では、タッチ対応移動体デバイスによってゲームを制御することに関する種々の技術について記載する。タッチ対応移動体デバイスのディスプレイ上に、サムスティックおよびモード選択ボタンをレンダリングすることができる。サムスティックは、ディスプレイの再割り当て可能エリア上にレンダリングすることができ、モード選択ボタンは、ディスプレイのモード選択エリア上にレンダリングすることができる。モード選択エリアから再割り当て可能エリアまでのタッチ(例えば、ドラッグ)を検出することができ、このドラッグの開始から接触が途切れることなくタッチが検出されている間における再割り当て可能エリア内のタッチに応答して、押し下げられた高さで表されたサムスティックによって、ゲームにおける動作を制御することができる。更に、タッチの途絶を検出したときに、続くタッチに応答して、デフォルトの高さで表されたサムスティックによって、ゲームにおける異なる動作を制御することができる。【選択図】図7

Description

[0001] ビデオ・ゲームは、通例、ディスプレイ上に視覚フィードバックを生成するために、ユーザーとの対話処理を必然的に伴う。例えば、多くの場合、ゲームを操作するためにコントローラーが用いられる。一例によれば、コントローラーは、ビデオ・ゲーム・コンソール上で実行されるゲームを操作するために用いることができ、視覚コンテンツをディスプレイ(例えば、テレビジョン、モニター等)上にレンダリングすることができる。ゲームを操作するために採用された初期のコントローラーの一例に、1つのボタンを含むジョイスティックがある。しかしながら、複数のアナログ入力および離散入力がある近頃のコントローラーの方が最近では主流になっている。一例をあげると、ビデオ・ゲーム・コンソールと共に採用されるコントローラーは、一般に、アナログ・サムスティック(1つまたは複数)、アナログ・トリガー(1つまたは複数)、離散ボタン(1つまたは複数)、および/または方向パッド(1つまたは複数)を含む。したがって、コンソール上で実行することができるゲームは、近頃のコントローラーによって提供される種々の入力を利用するために、増々精巧になりつつある。
[0002] タッチ対応(touch-enabled)移動体デバイスは、増々至る所で見られるようになり、タッチ対応移動体デバイス上で実行することができるコンソール系ゲームは増々普通に入手可能になっている。しかしながら、タッチ対応移動体デバイス上のゲームのバージョンと対話処理するときのユーザー体験は、多くの場合、ビデオ・ゲーム・コンソール上におけるそのゲームのバージョンと対話処理するときのユーザー体験と比較すると、劣っている場合が多い。例えば、タッチ対応移動体デバイスがコンソール用コントローラーに似た触覚フィードバックを通常(conventionally)提供できないために、ユーザー体験が悪影響を受ける可能性がある。
[0003] 更に、ユーザー体験が劣る可能性があるのは、タッチ対応移動体デバイスが、コンソール用コントローラーに採用される制御モデルと比較すると、それよりも少ない入力による単純な制御モデルを用いざるを得ないためである。例えば、タッチ対応移動体デバイスは、通常では2つの制御点(例えば、2つの親指)を有するが、従来のコンソール用コントローラーは2つよりも多い制御点を有する。タッチ対応移動体デバイスがユーザーによって保持されるとき、ユーザーは彼女の2つの親指でタッチ対応移動体デバイスのディスプレイに接触しつつ、彼女の他の指はタッチ対応移動体デバイスを保持するために用いられるのが通例である。更に、ユーザーがタッチ対応移動体デバイスを保持する際に、ディスプレイ上にもっと多くの指を置こうとすると(例えば、1つの手の親指と少なくとも1本の追加の指)、彼女の親指の自然な運動範囲が限られる可能性がある。特に、タッチ対応移動体デバイスが大きくなるに連れてその可能性がある。対照的に、従来のコントローラーは、多くの場合、このコントローラーが保持されているとき、ユーザーの親指以外の指で操作される(operate)ように位置付けられたトリガーおよび/またはボタンを含む。簡略化(less complex)制御モデルがタッチ対応移動体デバイスと共に利用される場合、あるゲームのコンソール・バージョンではユーザーが操作することができる一部の動作が、そのゲームのタッチ対応移動体デバイス・バージョンでは利用できないという可能性があり、ユーザー体験が損なわれる結果となる虞がある。
[0004] 本明細書において説明するのは、タッチ対応移動体デバイスを用いたゲーム制御に関する種々の技術である。タッチ対応移動体デバイスのディスプレイの再割り当て可能エリアに、サムスティックをレンダリングすることができる。更に、モード選択ボタンを、このディスプレイのモード選択エリア上にレンダリングすることができる。更に、ディスプレイのモード選択エリア上に、モード選択ボタンをレンダリングすることができる。ディスプレイの再割り当て可能エリア内において検出される第1タッチに応答して、ゲームにおける第1動作を制御することができる。例えば、サムスティックは、第1動作が制御されるときにはデフォルトの高さで表すことができる。更に、第2タッチは、モード選択エリアから再割り当て可能エリアまでのドラッグとすることができ、これを検出することができる。その後、第3タッチに応答して、ゲームにおける第2動作を制御することができる。第2タッチおよび第3タッチは、接触が途切れずに、検出される。サムスティックは、第2動作が制御されるときは、押し下げられた高さで表すことができる。更に、第3タッチが途切れたことを検出することができ、ゲームにおける第1動作は、ディスプレイの再割り当て可能エリア内で検出される第4タッチに応答して制御することができる。検出された第3タッチの途絶は、サムスティックを、押し下げられた高さで表現されたものから、デフォルトの高さで表現されたものに切り替えることができる。
[0005] 本明細書において説明する種々の実施形態によれば、タッチ対応移動体デバイスのディスプレイのトグル・エリア上に、トグル・ボタンをレンダリングすることができる。サムスティックがディスプレイの再割り当て可能エリア上にレンダリングされているときに、ディスプレイのトグル・エリア内でタッチが検出された場合、ディスプレイの再割り当て可能エリア上におけるサムスティックのレンダリングからディスプレイの再割り当て可能エリア上における方向パッドのレンダリングへの切り替えを実行する(effectuate)ことができる。更に、方向パッドがディスプレイの再割り当て可能エリア上にレンダリングされているときに、このエリア内でタッチを検出することができ、これに応答してゲームにおける動作を制御することができる。例えば、この動作は、サムスティックが再割り当て可能エリア上にレンダリングされている(例えば、デフォルトの高さまたは押し下げられた高さで表現されたサムスティック)ときにこの再割り当て可能エリア内において検出されたタッチに応答して制御することができるゲームにおける動作とは異なることができる。
[0006] 本明細書において明記する他の実施形態によれば、タッチ対応移動体デバイス上で実行されるゲームにおける1つ以上の動作を制御するために、センサーの出力を利用することができる。このセンサーは、ジャイロスコープ、加速度計、カメラ等とすることができる。実施形態には、センサーの出力が、タッチ対応移動体デバイスの傾き度合いを検出するため、および/またはタッチ対応移動体デバイスが回転したか否か検出するために用いることができる場合があり、ゲームにおいて動作(1つまたは複数)を制御するためにこれを用いることができる。加えてまたは代わりに、種々の実施形態では、センサーの出力は、ジェスチャーを検出するために用いることができ、ゲームにおける動作を、検出されたジェスチャーの関数として制御することができる。
[0007] 以上の摘要は、本明細書において論じられるシステムおよび/または方法の態様の基本的な理解を得るために、簡略化した摘要を提示する。この摘要は、本明細書において論じられるシステムおよび/または方法の広範な全体像ではない。このようなシステムおよび/または方法の主要/必須要素を特定することや、その範囲を定める(delineate)ことを意図するのではない。その唯一の目的は、以下で提示される更に詳細な説明に対する前置きとして、一部の概念を簡略化した形態で紹介することである。
図1は、タッチ対応移動体デバイスのディスプレイ上にレンダリングすることができるグラフィカル・ユーザー・インターフェースの一例を示す。 図2は、グラフィカル・ユーザー・インターフェースの一例に含まれる、サムスティックによって表される入力モードに切り替えるための、タッチ対応移動体デバイスとのユーザー対話処理の一例を示す。 図3は、グラフィカル・ユーザー・インターフェースの一例に含まれる、サムスティックによって表される入力モードに切り替えるための、タッチ対応移動体デバイスとのユーザー対話処理の一例を示す。 図4は、グラフィカル・ユーザー・インターフェースの一例に含まれる、サムスティックによって表される入力モードに切り替えるための、タッチ対応移動体デバイスとのユーザー対話処理の一例を示す。 図5は、タッチ対応移動体デバイスのディスプレイ上にレンダリングすることができるグラフィカル・ユーザー・インターフェースの他の例を示す。 図6は、タッチ対応移動体デバイスのディスプレイ上にレンダリングされたゲームにおける動作を操作するために利用することができる、タッチ対応移動体デバイスの向きの種々の例を示す。 図7は、タッチ対応移動体デバイスのディスプレイ上にレンダリングされたゲームにおける動作を操作するために利用することができる、タッチ対応移動体デバイスの向きの種々の例を示す。 図8は、タッチ対応移動体デバイスのディスプレイ上にレンダリングされたゲームにおける動作を操作するために利用することができる、タッチ対応移動体デバイスの向きの種々の例を示す。 図9は、タッチ対応移動体デバイスのディスプレイ上にレンダリングされたゲームにおける動作を操作するために利用することができる、タッチ対応移動体デバイスの向きの種々の例を示す。 図10は、タッチ対応移動体デバイスのディスプレイ上にレンダリングされたゲームにおける動作を操作するために利用することができる、タッチ対応移動体デバイスの向きの追加の例を示す。 図11は、タッチ対応移動体デバイスのディスプレイ上にレンダリングされたゲームにおける動作を操作するために利用することができる、タッチ対応移動体デバイスの向きの追加の例を示す。 図12は、タッチ対応移動体デバイスのディスプレイ上にレンダリングされたゲームにおける動作を操作するために利用することができる、タッチ対応移動体デバイスの向きの追加の例を示す。 図13は、タッチ対応移動体デバイスによって実行するゲームを制御するシステム例1300の機能ブロック図を示す。 図14は、タッチ対応移動体デバイスによってゲームを制御するための方法例を示す流れ図である。 図15は、タッチ対応移動体デバイスのディスプレイの再割り当て可能エリアを通じて受けることができるゲームの入力を変化させるための方法例を示す流れ図である。 図16は、計算デバイスの一例を示す。
[0017] タッチ対応移動体デバイスによってゲームを制御することに関する種々の技術について、これより図面を参照しながら説明する。図面全体において、同様の参照番号が、同様の要素を指すために用いられる。以下の記述では、説明のために限って、1つ以上の態様の完全な理解を得るために多数の具体的な詳細が明記される。しかしながら、このような態様(1つまたは複数)は、これらの具体的な詳細がなくても、実施できることは明白であろう。他方で、1つ以上の態様を説明し易くするために、周知の構造およびデバイスは、ブロック図形態で示される。更に、ある種のシステム・コンポーネントによって実行されるように記載される機能は、多数のコンポーネントによって実行されてもよいことは言うまでもない。同様に、例えば、1つのコンポーネントが、多数のコンポーネントによって実行されるものとして記載された機能を実行するように構成されてもよい。
[0018] 更に、「または」(or)という用語は、排他的な「または」ではなく内包的な「または」を意味することを意図している。即ち、別段指定されない限り、または文脈から明らかでない限り、「XはAまたはBを採用する」という句は、自然な包含的置換(natural inclusive permutation)のいずれかを意味するものとする。すなわち、「XがAまたはBを採用する」という句は、以下の例のいずれによっても満たされる。XはAを採用する、XはBを採用する、またはXはAおよびB双方を採用する。加えて、本願および添付する特許請求の範囲で使用される冠詞「a」および「an」は、一般に、別段の指定がない限り、または文脈から単数形を対象とすることが明らかでない限り、「1つまたは複数」を意味するように解釈されてしかるべきである。
[0019] 本明細書において明記するように、タッチ対応移動体デバイスによってゲームを制御することができる。更に特定すれば、本明細書において説明するタッチ対応移動体デバイス用に設計された対話処理モデルは、タッチ対応移動体デバイスに採用されていた従来の対話処理モデルと比較すると、ゲームを操作するために利用することができるアナログ入力および/または離散入力を、個数を増やして設けることができる。したがって、従前からの手法と比較すると、本明細書において説明する対話処理モデルは、ビデオ・ゲーム・コンソールと共に用いられるコントローラーによってゲームを操作するやり方に一層類似して、ユーザーがタッチ対応移動体デバイスによってゲームを操作することを可能にすることができる。
[0020] これより図面を参照すると、図1は、ディスプレイ上にレンダリングすることができるグラフィカル・ユーザー・インターフェースの一例100を示す。グラフィカル・ユーザー・インターフェース100は、例えば、タッチ対応移動体デバイスのディスプレイ上にレンダリングすることができる。タッチ対応移動体デバイスの例には、電話機(例えば、スマートフォン等)、ハンドヘルド・コンピューター、タブレット・コンピューター等が含まれる。
[0021] 更に、グラフィカル・ユーザー・インターフェース100は、ユーザーがゲームと対話処理することを可能にするようにレンダリングすることができる。例えば、図示しないが、グラフィカル・ユーザー・インターフェース100はゲーム・データー(例えば、ゲームに関係する視覚情報)を含むことは認められてしかるべきである。このゲーム・データーは、タッチ対応移動体デバイスのディスプレイ上の少なくとも一部にレンダリングすることができる。一例として、グラフィカル・ユーザー・インターフェース例100に含まれる視覚インディケーターは、タッチ対応移動体デバイスのディスプレイ上においてゲーム・データーの上にあるレイヤー上にレンダリングすることができるが、特許請求する主題はそのように限定されるのではない。更に、グラフィカル・ユーザー・インターフェース例100に含まれる視覚インディケーターによって表される入力は、ディスプレイ上にレンダリングされるゲーム・データーを操作するために、ユーザーによって利用することができる。
[0022] グラフィカル・ユーザー・インターフェース100は、異なるアナログおよび離散入力を視覚的に表す種々の視覚インディケーターを含む。これらの視覚インディケーターは、グラフィカル・ユーザー・インターフェース100内において、グラフィカル・ユーザー・インターフェース100がレンダリングされるディスプレイの異なるそれぞれのエリア上に配置されるように位置付けられる。更に、1つ以上の実施形態例によれば、ディスプレイのあるエリアは再割り当て可能にすることが考えられ、したがって、グラフィカル・ユーザー・インターフェース100は、第1時間期間中にはディスプレイの再割り当て可能エリアに配置される第1視覚インディケーターを含むことができ、第2時間期間中にはこのディスプレイの再割り当て可能エリアに配置される第2視覚インディケーターを含むことができる。例えば、第1時間期間中では、第2時間期間中と比較して、 このディスプレイの再割り当て可能エリア内で検出されたタッチは、異なる動作を制御することができる。更に他の例によれば、第1時間期間中には、第2時間期間中と比較して、ディスプレイの再割り当て可能エリア内で検出されたタッチに、異なるタイプの入力(例えば、アナログ入力に対して離散入力)をマッピングすることができる。この例によると、異なる動作を制御するために、異なるタイプの入力を利用できることが考えられる。
[0023] 一例によれば、グラフィカル・ユーザー・インターフェース100内における視覚インディケーターによって表される入力の内1つ以上が、タッチ対応移動体デバイスのディスプレイの対応するエリア内で検出されるタッチにマッピングすることができ、したがって、ディスプレイの対応するエリア内において検出されるタッチは、ゲームの種々の動作を制御するために用いることができる。加えてまたは代わりに、グラフィカル・ユーザー・インターフェース100における視覚インディケーターによって表される入力の内少なくとも1つは、タッチ対応移動体デバイスに含まれる1つ以上の異種(disparate)センサーの出力にマッピングすることができ、したがって、異種センサー(1つまたは複数)からの出力は、ゲームの種々の動作を制御するために用いることができる。カメラ、加速度計、ジャイロスコープ等は、タッチ対応移動体デバイスに含めることができる異種センサーの例である。しかしながら、特許請求する主題はそのように限定されるのではないことは認められてしかるべきである。異種センサー(1つまたは複数)を用いることによって、より多くの制御点(例えば、2つの親指に加えて)をサポートすることができる。
[0024] グラフィカル・ユーザー・インターフェース例100に含まれる視覚インディケーターについて、更に以下に説明する。しかしながら、本明細書において例示される視覚インディケーターの内1つ以上を欠くグラフィカル・ユーザー・インターフェース、および/または本明細書において例示される視覚インディケーターとは異なる1つ以上の視覚インディケーターを含むグラフィカル・ユーザー・インターフェースも、本明細書に添付される請求項の範囲に該当することを意図していることは、認められてしかるべきである。図示のように、グラフィカル・ユーザー・インターフェース例100は、2つのサムスティック、即ち、左サムスティック102および右サムスティック104を含む。更に、左サムスティック102は、左サムスティック・ゾーン106内に配置され、右サムスティック104は、グラフィカル・ユーザー・インターフェース100の右サムスティック・ゾーン108内に配置される。また、グラフィカル・ユーザー・インターフェース100は、左モード選択ボタン110および右モード選択ボタン112も含む。左トラフ(trough)114が、左モード選択ボタン110と左サムスティック・ゾーン106との間に位置付けられ、右トラフ116が、右モード選択ボタン112と右サムスティック・ゾーン108との間に位置付けられる。更に、グラフィカル・ユーザー・インターフェース100は、トグル・ボタン118と、4つのタップ・ボタン(例えば、Aボタン120、Bボタン122、Xボタン124、およびYボタン126)とを含む。加えて、グラフィカル・ユーザー・インターフェース100は、左トリガー・ボタン128、右トリガー・ボタン130、左バンパー132、および右バンパー134を含む。
[0025] 図1に示す視覚インディケーターは、グラフィカル・ユーザー・インターフェース100内において、タッチ対応移動体デバイスのディスプレイのそれぞれのエリアにレンダリングされるように位置付けられる。したがって、左サムスティック102(および左サムスティック・ゾーン106)は、ディスプレイの左再割り当て可能エリア上にレンダリングすることができ、右サムスティック104(および右サムスティック・ゾーン108)は、ディスプレイの右再割り当て可能エリアにレンダリングすることができる。更に、左モード選択ボタン110は、ディスプレイの左モード選択エリアにレンダリングすることができ、右モード選択ボタン112は、ディスプレイの右モード選択エリアにレンダリングすることができる。左トラフ114は、ディスプレイの左トラフ・エリア上にレンダリングすることができ、右トラフ116は、ディスプレイの右トラフ・エリア上にレンダリングすることができる。更に、トグル・ボタン118は、ディスプレイのトグル・エリアにレンダリングすることができ、4つのタップ・ボタンは、ディスプレイの対応するそれぞれのタップ・エリアにレンダリングすることができ、左トリガー・ボタン128は、ディスプレイの左トリガー・エリアにレンダリングすることができ、右トリガー・ボタン130は、ディスプレイの右トリガー・エリアにレンダリングすることができ、左バンパー132は、ディスプレイの左バンパー・エリアにレンダリングすることができ、右バンパー134は、ディスプレイの右バンパー・エリアにレンダリングすることができる。
[0026] 更に、左サムスティック102、右サムスティック104、左モード選択ボタン110、右モード選択ボタン112、トグル・ボタン118、Aボタン120、Bボタン122、Xボタン124、およびYボタン126によって表され、ゲームにおける動作を制御するために用いられる入力は、タッチ対応移動体デバイスのディスプレイの対応するエリア内で検出されるタッチにマッピングすることができる。更に、左トグル・ボタン128および右トグル・ボタン130によって表され、ゲーム内における動作を制御するために用いられる入力は、センサーの出力から検出される、タッチ対応移動体デバイスの傾き測定量(例えば、測定傾き角度)にマッピングすることができる。更に、左バンパー132および右バンパー134によって表され、ゲーム内にける動作を制御するために用いられる入力は、センサーの出力から検出される、タッチ対応移動体デバイスの回転にマッピングすることができる。一例によれば、傾き量を検出するために利用されるセンサー、および回転を検出するために利用されるセンサーは、同じセンサーとすることができる。他の例によれば、タッチ対応移動体デバイスの傾き量および回転を検出するために、異なるセンサーを採用することができる。更に他の例によれば、タッチ対応移動体デバイスの傾き量および/または回転を検出するために、1つよりも多いセンサーを利用できることも考えられる。
[0027] 更に、ゲームにおける動作を制御するために利用される入力の内一部(subset)はアナログ入力であり、ゲームにおける動作を制御するために利用される入力の残りは離散入力である。更に具体的には、左サムスティック102、右サムスティック104、左トリガー・ボタン128、および右トリガー・ボタン130によって表される入力は、アナログ入力であり、一方残りの入力は離散入力とすることができる。アナログ入力は、アナログ入力情報を受けることができ、アナログ入力情報は、連続範囲内の値とすることができる。更に、離散入力は離散入力情報を受けることができる。離散入力情報は、オンまたはオフ値、上、下、左、または右値、あるいは他のいずれの離散値でも可能である。例えば、離散入力は、ユーザーのタップに応答することができる。
[0028] 先に注記したように、右サムスティック104によって表される入力は、アナログ入力情報を受けることができるアナログ入力である。一例によれば、ユーザーは、右サムスティック104がレンダリングされるディスプレイの右再割り当て可能エリアの一部に、彼の右親指でタッチする(touch)ことができる。ディスプレイにタッチし続けている間、ユーザーは彼の右親指を右再割り当て可能エリア内(例えば、右サムスティック・ゾーン108内)で動かすことができる。ユーザーが彼の右親指をディスプレイの右再割り当て可能エリア内で動かすと、右サムスティック104が、ディスプレイ上にレンダリングされたグラフィカル・ユーザー・インターフェース100内で動いて、例えば、視覚フィードバックをユーザーに提供することができる。しかしながら、特許請求する主題は、これに限定されるのではない。更に、この例を続けると、ユーザーのタッチを検出し、アナログ入力情報にマッピングすることができる。アナログ入力情報はタッチが検出されたディスプレイ上の位置の関数として、連続する値の範囲内で変化することができる(例えば、アナログ入力情報は、ディスプレイ上の右親指の動き、ディスプレイから右親指を離すこと等に基づいて値の範囲内で変化することができる)。更に、左サムスティック102によって表される入力は、右サムスティック104によって表される入力と実質的に同様とすることもできることも考えられる。
[0029] 更に、前述のように、Aボタン120によって表される入力は、離散入力情報を受けることができる離散入力の一例である。一例によると、Aボタン120がレンダリングされたディスプレイのタップ・エリアをユーザーがタッチしているのか、またはタッチしていないのか検出することができる。この例によれば、Aボタン120がレンダリングされたディスプレイのタップ・エリアにおいてタッチが検出されたか否かを、離散入力情報にマッピングすることができる。例えば、Aボタン120によって表される入力は、ボタンの単一押下(single press)またはボタンの押下継続(press and hold)として機能することができる。一例示によれば、Aボタン120によって表される入力が単一ボタン押下として機能する場合、この離散入力情報は、タッチしていないユーザーから、Aボタン120がレンダリングされたディスプレイのタップ・エリアをタッチするユーザーへの移行検出に応答して(または、代わりに、このようなタップ・エリアをタッチしているユーザーからタッチしていないユーザーへの移行)、第1状態から第2状態(例えば、オンからオフへ、オフからオンへ等)に切り替わることができる。他の例示として、Aボタン120によって表される入力が、ボタン押下継続として機能する場合、離散入力情報は、タッチしていないユーザーから、Aボタン120がレンダリングされたディスプレイのタップ・エリアにタッチするユーザーへの移行検出に応答して、第1状態から第2状態に(例えば、オフからオンへ、オンからオフへ等)切り替わることができ、更にAボタン120がレンダリングされたディスプレイのタップ・エリアにタッチしているユーザーからタッチしていないユーザーへの移行検出に応答して、第2状態から第1状態に(オンからオフへ、オフからオンへ等)逆に切り替わることができる。更に、Bボタン122、Xボタン124、およびYボタン126によって表される入力も、Aボタン120によって表される入力と実質的に同様とすることができることは認められてしかるべきである。
[0030] 図2〜図4を参照すると、右サムスティック104によって表される入力のモードを切り替えるための、タッチ対応移動体デバイス202とのユーザー対話処理の一例が示されている。このユーザー対話処理の一例では、タッチ対応移動体デバイス202はユーザーの右手204の中に保持される。図示しないが、タッチ対応移動体デバイス202は、加えてまたは代わりに、ユーザーの左手の中に保持されることも可能である。例示の目的に限って、図2〜図4は、タッチ対応移動体デバイス202のディスプレイの一部にレンダリングされた図1のグラフィカル・ユーザー・インターフェース100の一部を示す。しかし、タッチ対応移動体デバイス202のディスプレイの、図示されていない残り部分に、図1のグラフィカル・ユーザー・インターフェース100の残り部分をレンダリングできることが考えられる。このユーザー対話処理の一例は、ユーザーの右手204の右親指206がタッチ対応移動体デバイス202のディスプレイの種々のエリアにタッチして、右サムスティック104によって表される入力のモードを切り替えることを示す。例えば、図2〜図4に示すタッチ対応移動体デバイス202とのユーザー対話処理の一例は、ビデオ・ゲーム・コンソールの従来のコントローラー上にある押下可能なアナログ・サムスティックとの対話処理をシミュレートすることができる。更に、ゲームにおける異なる動作を、右サムスティック104によって表される入力によって、モードの関数として制御することができる(例えば、右サムスティック104が、サムスティック・アップ・モードにおけるデフォルトの高さで表されるか、またはサムスティック・ダウン・モードにおける押し下げられた高さで表されるか)。更に、ユーザーが図1の左サムスティック102によって表される入力とも同様に対話処理できる(例えば、左手の左親指を用いて)ことも考えられる。
[0031] このユーザー対話処理の一例では、図2〜図4は、タッチ対応移動体デバイス202のディスプレイの右再割り当て可能エリア上にレンダリングされた右サムスティック104および右サムスティック・ゾーン108を示す。更に、右モード選択ボタン112が、タッチ対応移動体デバイス202のディスプレイの右モード選択エリア上にレンダリングされる。ディスプレイの右再割り当て可能エリアと、ディスプレイの右モード選択エリアとは、重複しない。更に、右トラフ116が、タッチ対応移動体デバイス202のディスプレイの右トラフ・エリアにレンダリングされる。図示する例によれば、右トラフ・エリアは、右再割り当て可能エリアと右モード選択エリアとの間にある。しかしながら、このユーザー対話処理の一例は、例示の目的に限って提示されるのであり、特許請求する主題はこれに限定されるのではないことは、認められてしかるべきである。
[0032] 図2に戻って、右サムスティック104は、タッチ対応移動体デバイス202のディスプレイ上ではデフォルトの高さで表される(例えば、右サムスティック104によって表される入力は、サムスティック・アップ・モードになる)。更に、ユーザーの右親指206はディスプレイの右再割り当て可能エリアにタッチしており、このエリア上に、右サムスティック104および右サムスティック・ゾーン108がレンダリングされる。タッチ対応移動体デバイス202は、ディスプレイの右再割り当て可能エリア内において、右親指206のタッチを検出することができる(例えば、第1タッチを検出することができる)。更に、右サムスティック104が、図2に示すように、デフォルトの高さで表されているときに、ディスプレイの右再割り当て可能エリア内において右親指206のタッチを検出したことに応答して、ゲームにおける第1動作を制御することができる。例えば、この検出されたタッチは、アナログ入力情報にマッピングすることができる。つまり、右サムスティック104がレンダリングされたディスプレイの右再割り当て可能エリアを介して、アナログ入力情報を受けることができる。
[0033] 図3は、再度、タッチ対応移動体デバイス202のディスプレイ上において、デフォルトの高さとした右サムスティック104を示す。更に、ユーザーの右親指206がディスプレイの右モード選択エリアにタッチしており、ここに右モード選択ボタン112がレンダリングされる。一例によれば、ユーザーの右親指206は、図2に示すようなディスプレイの右再割り当て可能エリアから、図3に示すようなディスプレイの右モード選択エリアまでドラッグされたのでもよい(例えば、右親指206とタッチ対応移動体デバイス202のディスプレイとの接触が途切れることなく、第1タッチの開始から接触が途切れることなく等)。他の例として、ユーザーの右親指206が、図2に示すようにディスプレイの右再割り当て可能エリアにタッチした後に、ディスプレイとの接触から離され、その後図3に示すようにディスプレイの右モード選択エリアと接触したのでもよい(例えば、第1タッチ後に接触が途切れる)。
[0034] 更に、ユーザーの右親指206は、図3に示すようなディスプレイの右モード選択エリアから、右再割り当て可能エリアにドラッグすることができる(例えば、右親指206とタッチ対応移動体デバイス202のディスプレイとの間の接触が途切れることなく)。タッチ対応移動体デバイス202は、このようなタッチ(例えば、第2タッチ)を検出することができる。つまり、検出される第2タッチは、ディスプレイの右モード選択エリアからディスプレイの右再割り当て可能エリアへのドラッグである。一例によれば、第2タッチのドラッグが右トラフ・エリアの少なくとも一部を通過したことを検出することができる。しかしながら、特許請求する主題はこれに限定されるのではない。更に、タッチ対応移動体デバイス202は、第2タッチの検出時に、右サムスティック104によって表される入力のモードを切り替えることができる(例えば、右サムスティック104によって表される入力を、サムスティック・ダウン・モードに切り替える)。
[0035] 図4に示すように、右サムスティック104は、押し下げられた高さで表されている。この図示した例によれば、ディスプレイの右再割り当て可能エリア上にレンダリングされた視覚インディケーターの少なくとも一部が、第2タッチ(例えば、前述したドラッグ)を検出したことに応答して、押し下げられた高さに切り替えられた右サムスティック104を表すように変化させられる。一例として、第1視覚インディケーターは、右サムスティック104がデフォルトの高さ(例えば、図2および図3に示すような)で表されるときに、ディスプレイの右再割り当て可能エリア上にレンダリングすることができ、第2視覚インディケーターは、右サムスティック104が押し下げられた高さ(例えば、図4に示すような)で表されるときに、ディスプレイの右再割り当て可能エリア上にレンダリングすることができる。この例によると、第1視覚インディケーターの少なくとも一部と、第2視覚インディケーターは異なる。
[0036] 図4は、移動体デバイスのディスプレイの右再割り当て可能エリアにタッチするユーザーの右親指206を示す。タッチ対応移動体デバイス202は、右親指206が右モード選択エリアからディスプレイの右再割り当て可能エリアまで、接触が途切れることなくドラッグされた後、ディスプレイの右再割り当て可能エリア内における右親指206のタッチ(例えば、第3タッチ)を検出することができる。つまり、第2タッチおよび第3タッチは、接触の途切れを検出することなく、タッチ対応移動体デバイスによって検出される。更に、右サムスティック104が、図4に示すように、押し下げられた高さで表されるときに、ディスプレイの右再割り当て可能エリア内において検出された第3タッチに応答して、ゲームにおける第2動作を制御することができる。
[0037] 更に、第3タッチが途切れたことを検出することができる(例えば、図4に示すようにディスプレイの右再割り当て可能エリアにタッチしているユーザーの右親指206がディスプレイから離されたことを検出することができる)。第3タッチの途絶(discontinuation)を検出すると、タッチ対応移動体デバイス202は、右サムスティック104によって表される入力のモードを切り替えて、図2に示したモードに戻すことができる(例えば、右サムスティック104によって表される入力を、サムスティック・アップ・モードに切り替える)。したがって、右サムスティック104は、例えば、ばね押しを模擬することができる(例えば、離されたときに自動的に飛び出すのを模擬する)。
[0038] その後、第3タッチが途切れた後にタッチ対応移動体デバイス202がユーザーの右親指206がディスプレイの右再割り当て可能エリアにタッチした(例えば、第4タッチ)ことを検出すると、第4タッチに応答してゲームにおける第1動作を再度制御することができる。第4タッチは、右サムスティック104が図2に示すようにデフォルトの高さで表されるときに、ディスプレイの右再割り当て可能エリア内において検出することができる。
[0039] 再度図1を参照すると、トグル・ボタン118によって表される入力は、ディスプレイの左再割り当て可能エリア(例えば、左サムスティック102および左サムスティック・ゾーン106がグラフィカル・ユーザー・インターフェース100においてレンダリングされるエリア)内で検出されるタッチにマッピングする入力のタイプを切り替えることができる。一例によれば、左サムスティック102がディスプレイの左再割り当て可能エリア上にレンダリングされているとき(図1に示すように)、ディスプレイのトグル・エリア(例えば、トグル・ボタン118がレンダリングされるエリア)内におけるタッチを検出することができる。このディスプレイのトグル・エリア内におけるタッチによって、ディスプレイの左再割り当て可能エリア内で検出されるタッチにマッピングする入力のタイプを、アナログ入力から離散入力に切り替えることができる。
[0040] 図5を参照すると、タッチ対応移動体デバイスのディスプレイ上にレンダリングすることができるグラフィカル・ユーザー・インターフェースの他の例が示されている。このタッチ対応移動体デバイスは、前述したようなディスプレイのトグル・エリア内におけるタッチが検出されたときに、ディスプレイ上において、図1のグラフィカル・ユーザー・インターフェース100のレンダリングから、グラフィカル・ユーザー・インターフェース500のレンダリングに切り替えることができる。つまり、タッチ対応移動体デバイスは、ディスプレイのトグル・エリア内においてタッチを検出したときに、図1の左サムスティック102(例えば、図1のグラフィカル・ユーザー・インターフェース100に含まれる)のレンダリングから、ディスプレイの左再割り当て可能エリア上の方向パッド502のレンダリングに切り替えることができる。更に、方向パッド502がディスプレイの左再割り当て可能エリア上にレンダリングされると、ディスプレイの左再割り当て可能エリアは、離散入力として構成することができる。
[0041] 一例によれば、方向パッド502がディスプレイの左再割り当て可能エリア上にレンダリングされているとき(例えば、図5に示すように)にディスプレイのトグル・エリア(例えば、トグル・ボタン118がレンダリングされるエリア)内において異種の接触が検出された場合、タッチ対応移動体デバイスは、方向パッド502のレンダリングから、ディスプレイの左再割り当て可能エリア上における図1の左サムスティック102のレンダリングに切り替えることができる。したがって、図1のグラフィカル・ユーザー・インターフェース100を再度タッチ対応移動体デバイスのディスプレイ上にレンダリングすることができる。したがって、この例によると、ディスプレイの左再割り当て可能エリアは、図1の左サムスティック102がそこにレンダリングされているときには、アナログ入力として構成することができる。このように、トグル・ボタン118によって表される入力は、タッチ対応移動体デバイスのディスプレイの左再割り当て可能エリアを、アナログ入力(例えば、アナログ入力情報を受ける)と離散入力(例えば、離散入力情報を受ける)との間で切り替えさせることができることが考えられる。加えてまたは代わりに、図示しないが、ディスプレイの右再割り当て可能エリアも同様に、トグル・ボタン118によって表される入力と同様の入力と関連付けることができることも認められてしかるべきである。
[0042] 一例によれば、方向パッド502がディスプレイ上にレンダリングされているときには、左モード選択ボタン110によって表される入力をディスエーブルすることができることが考えられる。他の例によれば、方向パッド502がディスプレイ上にレンダリングされているときには、左モード選択ボタン110によって表される入力をイネーブルすることができる。この例によると、方向パッド502がディスプレイ上にレンダリングされているときにディスプレイの左モード選択エリア内において検出されたタッチは、タッチ対応移動体デバイスのディスプレイの左再割り当て可能エリアを、方向パッド502のレンダリングから、ディスプレイの左再割り当て可能エリア上における図1の左サムスティック102のレンダリングに切り替えさせることができる(例えば、先に明記したディスプレイのトグル・エリア内においてタッチを検出したときと同様)。
[0043] 他の例によれば、ディスプレイの左モード選択エリアからディスプレイの左再割り当て可能エリアへのタッチ(例えば、図3および図4に関して先に説明したドラッグと同様のドラッグ)を検出することができる。このようなタッチを検出すると、タッチ対応移動体デバイスは、ディスプレイの再割り当て可能エリア上における方向パッド502のレンダリングから、ディスプレイの再割り当て可能エリア上における図1の左サムスティック102のレンダリングに切り替えることができる(例えば、図1のグラフィカル・ユーザー・インターフェース100をディスプレイ上にレンダリングすることができる)。更に、この例によると、左サムスティック102は、押し下げられた高さ(例えば、図4に示した例と同様)であることを直接表すことができる。したがって、図4の例と同様、タッチが検出され続ける間に(例えば、ドラッグの開始時に開始する接触が途切れることなく)ディスプレイの左再割り当て可能エリア内で検出される次のタッチに応答して、押し下げられた高さで表現された図1の左サムスティック102によって、ゲームにおける動作を制御することができる。更に、このタッチが途切れたことが検出された後、ディスプレイの左再割り当て可能エリア内における更に別のその後のタッチに応答して、デフォルトの高さで表される図1の左サムスティック102によって、ゲームにおける異なる動作を制御することができる。
[0044] 図6〜図9を参照すると、タッチ対応移動体デバイス202のディスプレイ上においてレンダリングされるゲームにおいて動作を操作するために利用することができる、タッチ対応移動体デバイス202の種々の向きの例が示されている。一例によれば、ゲームにおいて動作を制御するために用いられる種々の入力は、タッチ対応移動体デバイス202の測定傾き量にマッピングすることができる。例えば、タッチ対応移動体デバイス202の傾き量は、タッチ対応移動体デバイス202に含まれるセンサー(図示せず)によって測定することができる。
[0045] 図6は、静止姿勢(rest pose)にしたタッチ対応移動体デバイス202を示す。更に、この静止姿勢におけるタッチ対応移動体デバイス202のディスプレイの表面は、図7〜図9において言及される所定の平面を定めることができる。尚、タッチ対応移動体デバイス202の静止姿勢は、実質的にあらゆるやり方で識別することができることは認められてしかるべきである。種々の例示(illustration)によれば、静止姿勢は、タッチ対応移動体デバイス202の予め設定された向き、タッチ対応移動体デバイス202において電源を入れた時点の向き、ゲーム開始時の向き、タッチ対応移動体デバイス202を傾けることなく所定の時間量が経過した後におけるタッチ対応移動体デバイス202の向き等であるとして識別することができる。なおもその上、特許請求する主題は、実質的に他のいずれのやり方でも静止姿勢を識別することも考えられることは認められてしかるべきである。
[0046] 所定の平面に対するタッチ対応移動体デバイス202の傾き量を測定することができる。更に、タッチ対応移動体デバイス202の傾き量の関数として、ゲームにおける動作を制御することができる。尚、タッチ対応移動体デバイス202の傾き量がゲームについてのアナログ入力情報にマップすることができることが考えられる。更に、タッチ対応移動体デバイス202の傾き量が所定の平面に対して一定のままでいるときは、ゲームについてのアナログ入力情報のレベルは一定のまま留まることができる。
[0047] 図7は、静止姿勢によって定められる所定の平面に対して右上角が傾けられたタッチ対応移動体デバイス202を示す。図示する例によれば、図1のグラフィカル・ユーザー・インターフェース例100に含まれる右トリガー・ボタン130によって表される入力は、タッチ対応移動体デバイス202の傾き量にマッピングすることができる。 この傾き量は所定の平面に対して測定される。つまり、タッチ対応移動体デバイス202の右上角が下向きに、様々な向きにユーザーによって傾けられると、図1の右トリガー・ボタン130によって表される入力をアクティブにする(activate)ことができる。したがって、タッチ対応移動体デバイス202の右上角の傾き量は、ビデオ・ゲーム・コンソールによって利用される従来のコントローラーのトリガーを、様々な度合いの圧力で絞る(squeeze)動作を模擬することができる。更に他の例として、タッチ対応移動体デバイス202のディスプレイ上にレンダリングされる図1の右トリガー・ボタン130の押下は、測定される傾き量の関数として描写することができる(例えば、視覚フィードバックをユーザーに供給することができる)。
[0048] 同様に、図8は静止姿勢によって定められる所定の平面に対して左上角が傾けられたタッチ対応移動体デバイス202を示す。尚、図1の左トリガー・ボタン128によって表される入力は、先に説明した図7の例と比較して、実質的に同様に、左上角の傾き量の関数として操作できることは認められてしかるべきである。更に、図9は、静止姿勢によって定められる所定の平面に対して左上角および右上角双方が共に傾けられたタッチ対応移動体デバイス202を示す。この例によれば、図1の左トリガー・ボタン128によって表される入力、および図1の右トリガー・ボタン130によって表される入力の双方は、図7に関して先に説明した例にしたがって、同時に操作することができる。
[0049] 図10〜図12に移ると、タッチ対応移動体デバイス202のディスプレイ上にレンダリングされるゲームにおいて動作を操作するために利用することができる、タッチ対応移動体デバイス202の更に他の向き例を示す。例えば、タッチ対応移動体デバイス202を、図6に示した静止姿勢から図10〜図12に示す向きに動かすことができる。このような動きを、ゲームにおける動作を制御するために用いられる1つ以上の入力にマッピングすることができる。図示のように、図10および図11は、静止姿勢に対してタッチ対応移動体デバイス202のディスプレイの表面によって定められる平面において回転させられるタッチ対応移動体デバイス202を示す。更に、図12は、静止姿勢に対してタッチ対応移動体デバイス202のディスプレイの表面によって定められる平面において下向きに動かされたタッチ対応移動体デバイス202を示す。
[0050] 一例によれば、ディスプレイの表面によって定められる平面においてタッチ対応移動体デバイス202が回転させられたか否か検出することができる。更に、タッチ対応移動体デバイス202が回転させられたと検出されたか否かによって、ゲームにおける動作を制御することができる。更にまた、タッチ対応移動体デバイス202が回転させられたか否かを、ゲームについての離散入力情報にマッピングすることができる。
[0051] 例えば、図10に示すような、タッチ対応移動体デバイス202の時計回り方向の回転(例えば、図6からの方位と比較して)、または図11に示すような、タッチ対応移動体デバイス202の反時計回り方向の回転(例えば、図6からの向きと比較して)を検出することができる。一例示として、時計回り方向の回転が検出されたか否かは、図1の右バンパー134によって表される入力にマッピングすることができ(例えば、離散入力)、反時計回り方向の回転が検出されたか否かは、図1の左バンパー132によって表される入力にマッピングすることができる(例えば、離散入力)。一例示によると、時計回り方向の回転または反時計回り方向の回転は、タッチ対応移動体デバイス202の右上角または左上角をユーザーがタップすることによって発生させることができる。しかしながら、タッチ対応移動体デバイス202を回転させるために、このようなタップを採用する必要はないことは認められてしかるべきである。
[0052] 更に他の例によれば、図12に示すように、ディスプレイの表面によって定められる平面においてタッチ対応移動体デバイス202が下向きに動かされたか否か検出することができる。この例によると、タッチ対応移動体デバイス202が、下方向に動かされたことが検出された場合、図1の左バンパー132によって表される入力、および図1の右バンパー134によって表される入力の双方をアクティブにすることができる。更に、図示しないが、タッチ対応移動体デバイス202の上方向への動きも、加えてまたは代わりに、下方向の動きに関する以上の論述と比較して同様に、検出し利用することができることも考えられる。
[0053] これより図13を参照して、タッチ対応移動体デバイス(例えば、図2のタッチ対応移動体デバイス202)によって実行されるゲームを制御するシステム例1300を示す。システム1300は、出力コンポーネント1302を含む。出力コンポーネント1302は、グラフィカル・ユーザー・インターフェース1304(例えば、図1のグラフィカル・ユーザー・インターフェース100、図5のグラフィカル・ユーザー・インターフェース500等)をタッチ対応移動体デバイスのディスプレイ1306上にレンダリングする。例えば、出力コンポーネント1302によってレンダリングされるグラフィカル・ユーザー・インターフェース1304は、ゲーム・データーを含むことができる。一例示によれば、このゲーム・データーは、出力コンポーネント1302によって生成することができる。しかしながら、異種のコンポーネント(図示せず)によってゲーム・データーを生成できることも更に考えられる。
[0054] 更に、システム1300は、ディスプレイ1306からのタッチ関連データーを受けることができる対話処理分析コンポーネント1308を含む。対話処理分析コンポーネント1308は、ディスプレイ1306から受けたタッチ関連データーに基づいて、本明細書において説明した種々のタッチを検出するように構成することができる。更に、対話処理コンポーネント1308は、本明細書において明記したように、グラフィカル・ユーザー・インターフェース1304に含まれる種々のインディケーターによって表される種々の入力とすることができる。
[0055] 更に、システム1300は、操作コンポーネント1310を含む。操作コンポーネント1310は、出力コンポーネント1302によってレンダリングされるグラフィカル・ユーザー・インターフェース1304を制御することができる。更に具体的には、操作コンポーネント1310は、対話処理分析コンポーネント1308から受けた入力情報(例えば、アナログ入力情報、離散入力情報等)を用いて、ゲームにおける対応する動作を制御することができ、グラフィカル・ユーザー・インターフェース1304の一部としてレンダリングされる(または実質的に他のあらゆるやり方で出力コンポーネント1302によって出力される)ゲーム・データーを変更させることができる。
[0056] 一例によれば、出力コンポーネント1302は、ディスプレイ1306の再割り当て可能エリア上に少なくとも1つのサムスティック(例えば、図1の左サムスティック102、図1の右サムスティック104等)と、ディスプレイ1306のモード選択エリア上にモード選択ボタン(例えば、図1の左モード選択ボタン110、右モード選択ボタン112等)とをレンダリングすることができる。更に、ディスプレイ1306の再割り当て可能エリアおよびモード選択エリアは、重複しない。この例によると、対話処理分析コンポーネント1308は、ディスプレイ1306のモード選択エリアからディスプレイ1306の再割り当て可能エリアへのドラッグを検出するように構成することができる。更に、対話処理分析コンポーネント1308は、ディスプレイ1306の再割り当て可能エリア内におけるタッチを検出するように構成することができる。
[0057] 更に、操作コンポーネント1310は、ドラッグ(例えば、ディスプレイ1306のモード選択エリアからディスプレイ1306の再割り当て可能エリアまで)およびタッチ(例えば、ディスプレイ1306の再割り当て可能エリア内)が検出され、対話処理分析コンポーネント1308による接触の途切れがないとき、ディスプレイ1306の再割り当て可能エリア内において検出されたタッチに応答して、ゲームにおける第1動作を制御することができる。ゲームにおける第1動作は、出力コンポーネント1302によってディスプレイ上にレンダリングされたサムスティックが押し下げられた高さで表されている間においてディスプレイ1306の再割り当て可能エリア内で検出されたタッチに基づいて、制御することができる。つまり、ゲームにおける第1動作は、ビデオ・ゲーム・コンソールと共に利用される従来のコントローラー上で押下しながらアナログ・サムスティックを動かすことによって通例実行することができる動作とすることができる。一例示によれば、以上で説明したように制御することができるゲームにおける第1動作は、ファースト・パーソン・シューティング・ゲームまたはロール・プレーイング・ゲーム(RPG)型ゲームにおける屈む動作とすることができる。しかしながら、特許請求する主題はこれに限定されるのではない。
[0058] 更に、操作コンポーネント1310は、他の状態では、出力コンポーネント1302によってディスプレイ1306上にサムスティックがレンダリングされているときに(例えば、再割り当て可能エリア内においてドラッグおよびタッチが途切れなく検出されないとき)、ゲームにおける第2動作を制御することができる。このようなシナリオでは、出力コンポーネント1302によってディスプレイ1306上にレンダリングされるサムスティックは、デフォルトの高さで表される。ゲームにおける第2動作は、対話処理分析コンポーネント1308によるディスプレイ1306の再割り当て可能エリア内で検出されたタッチに応答して制御することができる。例えば、ゲームにおける第2動作は、ビデオ・ゲーム・コンソールと共に利用される従来のコントローラー上でアナログ・サムスティックを動かす(押下せずに)ことによって通例実行することができる動作とすることができる。例示として、以上で説明したように制御することができるゲームにおける第2動作は、ファースト・パーソン・シューティング・ゲームまたはRPG型ゲームにおける歩行または走行動作とすることができる。とはいえ、特許請求する主題は、以上の例示に限定されるのではない。
[0059] 種々の実施形態例では、対話処理分析コンポーネント1308は、任意に、入力変更コンポーネント(input alteration component)1312を含むことができる。このような実施形態例によれば、出力コンポーネント1302は、更に、ディスプレイ1306のトグル・エリア上にトグル・ボタン(例えば、図1のトグル・ボタン118)をレンダリングすることができる。加えて、対話処理分析コンポーネント1308は、更に、ディスプレイ1306のトグル・エリア内においてタッチを検出するように構成することができる。更に、入力変更コンポーネント1312は、ディスプレイ1306のトグル・エリア内で検出されるタッチに応答して、ディスプレイ1306の再割り当て可能エリア内で検出されるタッチを、ゲームについてのアナログ入力情報にマッピングするタッチと、ゲームについての離散入力情報にマッピングするタッチとの間で切り替えることができる。したがって、出力コンポーネント1302は、アナログ入力情報にマッピングされているときには、ディスプレイ1306の再割り当て可能エリア上にサムスティックをレンダリングすることができ、離散入力情報にマッピングされているときには、ディスプレイの再割り当て可能エリア上に方向パッド(例えば、図5の方向パッド502)をレンダリングすることができる。更に、操作1310は、離散入力情報にマッピングされているとき、対話処理分析コンポーネント1308によってディスプレイ1306の再割り当て可能エリア内で検出されたタッチに応答して、ゲームにおける第3動作を制御することもできる。
[0060] 他の実施形態例によれば、システム1300は、任意に、データーを対話処理分析コンポーネント1308に供給することができるセンサー1314を含むことができる。センサー1314は、例えば、ジャイロスコープ、加速度計、カメラ等とすることができる。更に、システム1300が、任意に、複数のセンサーを含むことができることも考えられる。尚、センサー1314をタッチ対応移動体デバイスに含ませることもできることは、認められてしかるべきである。
[0061] 例示として、対話処理分析コンポーネント1308は、センサー1314から受け取ったデーターを用いて、タッチ対応移動体デバイスの所定平面(例えば、図6〜図9に示す)に対する傾き度合いを測定することができる。この所定平面は、タッチ対応移動体デバイスの静止姿勢に基づいて設定することができる。更に、対話処理分析コンポーネント1308は、センサー1314から受け取ったデーターを用いて、タッチ対応移動体デバイスが、ディスプレイ1306の表面によって定められる平面内で回転させられたか否か(例えば、図10〜図12に示すように)検出することもできる。操作コンポーネント1310は、移動体デバイスの傾き度合いに応答して、ゲームにおける動作を制御することができ、更にタッチ対応移動体デバイスが回転されられたか否かに応答して、ゲームにおける異種の動作を制御することができる。
[0062] 更に他の例によれば、センサー1314は、タッチ対応移動体デバイスと結合された(例えば、組み込まれた等)カメラとすることができる。この例によると、対話処理分析コンポーネント1308は、一連の画像をこのカメラから受け取ることができる。更に、対話処理分析コンポーネント1308は、カメラから受け取った一連の画像から、ユーザーのジェスチャーを検出することができる(例えば、一連の画像に対して信号号処理を実行する等)。更に、操作コンポーネント1310は、対話処理分析コンポーネント1308によって検出されたユーザーのジェスチャーに応答して、ゲームにおける動作を制御することができる。例示として、ジェスチャーはユーザーの頭部の動き(上、下、左、または右等)、顔のジェスチャー(例えば、歯を食いしばる、瞬きする、口を開閉する等のような微細なジェスチャー)、手振り等とすることができる。更に他の例として、対話処理分析コンポーネント1308によって検出される異なるジェスチャーは、それぞれ、異なる動作を制御するために利用できることも考えられる。
[0063] 更に他の例によれば、出力コンポーネント1302は、ゲームの制御に関係するフォース・フィードバック(force feedback)を提供するために、タッチ対応移動体デバイスを振動させることもできる。一例示によれば、図2〜図4において説明したユーザー対話処理の例を参照すると、第3タッチの途絶を検出したとき、出力コンポーネント1302は、タッチ対応移動体デバイスを振動させて、サムスティックが再度デフォルトの高さに切り替えられたことを意味する触覚フィードバックを提供することができる。しかしながら、特許請求する主題は、以上の触覚フィードバックの例に限定されるのではないことは認められてしかるべきであり、加えてまたは代わりに、実質的に他のあらゆるユーザー対話処理に応答する触覚フィードバックを出力コンポーネント1302によって提供できることが考えられる。
[0064] 図14および図15は、ゲームの制御をタッチ対応移動体デバイスと関係付ける方法例を示す。これらの方法は、シーケンスで実行される一連の動作(act)であるとして示し説明するが、これらの方法はそのシーケンスの順序によって限定されないことは言うまでもなく、認められてしかるべきである。例えば、一部の動作は、本明細書において説明する順序とは異なる順序で出てくることができる。加えて、1つの動作が他の動作と同時に出てくることもできる。更に、場合によっては、本明細書において説明する方法を実現するために、全ての動作は必要とされなくこともあり得る。
[0065] 更に、本明細書において説明する動作は、コンピューター実行可能命令であってもよく、1つ以上のプロセッサーによって実現すること、および/または1つまたは複数のコンピューター読み取り可能媒体上に格納することができる。コンピューター実行可能命令は、ルーチン、サブルーチン、プログラム、実行のスレッド等を含むことができる。更にその上、これらの方法の動作結果をコンピューター読み取り可能媒体に格納すること、ディスプレイ・デバイス上に表示すること等ができる。
[0066] 図14は、タッチ対応移動体デバイスによってゲームを制御する方法1400を示す。1402において、タッチ対応移動体デバイスのディスプレイの再割り当て可能エリア上に、サムスティックをレンダリングすることができる。1404において、タッチ対応移動体デバイスのディスプレイのモード選択エリア上に、モード選択ボタンをレンダリングすることができる。更に、再割り当て可能エリアおよびモード選択エリアは重複しない。1406において、ディスプレイの再割り当て可能エリア内において検出された第1タッチに応答して、デフォルトの高さで表されたサムスティックによって、ゲームにおける第1動作を制御することができる。
[0067] 1408において、第2タッチを検出することができる。第2タッチは、ディスプレイのモード選択エリアからディスプレイの再割り当て可能エリアへのドラッグとすることができる。1410において、ディスプレイの再割り当て可能エリア内において検出された第3タッチに応答して、押し下げられた高さで表されたサムスティックによって、ゲームにおける第2動作を制御することができる。更に、第2タッチおよび第3タッチは、接触の途切れなく(例えば、第2タッチの始まりから第3タッチの終了まで検出される連続的な接触)検出される。例えば、第2タッチおよび第3タッチは、ディスプレイから離すことがない、1回のディスプレイへのタッチであることができる。1412において、第3タッチの途絶を検出することができる。1414において、第3タッチの途絶を検出したときに、ディスプレイの再割り当て可能エリア内で検出された第4タッチに応答して、デフォルトの高さで表されたサムスティックによって、ゲームにおける第1動作を制御することができる。
[0068] 図15に移ると、タッチ対応移動体デバイスのディスプレイの再割り当て可能エリアを通じて受け取ることができる、ゲームに対する入力を変化させる方法1500が示されている。1502において、トグル・ボタン、サムスティック、およびモード選択ボタンを、タッチ対応移動体デバイスのディスプレイ上にレンダリングすることができる。トグル・ボタンは、タッチ対応移動体デバイスのディスプレイのトグル・エリア上にレンダリングすることができる。更に、サムスティックは、タッチ対応移動体デバイスのディスプレイの再割り当て可能エリア上にレンダリングすることができる。更にまた、モード選択ボタンは、タッチ対応移動体デバイスのディスプレイのモード選択エリア上にレンダリングすることができ、ディスプレイのモード選択エリアおよびディスプレイの再割り当て可能エリアは重複しない。
[0069] 1504において、第1タッチを検出することができる。第1タッチは、ディスプレイのモード選択エリアからディスプレイの再割り当て可能エリアまでのドラッグとすることができる。1506において、ディスプレイの再割り当て可能エリア内において第2タッチを検出することができる。更に、第1タッチおよび第2タッチは、接触が途切れることなく、検出される。1508において、ディスプレイの再割り当て可能エリア内で検出された第2タッチに応答して、押し下げられた高さで表されたサムスティックによって、ゲームにおける第1動作を制御することができる。
[0070] 1510において、第2タッチの途絶を検出することができる(例えば、ユーザーの親指がディスプレイから離されたことを検出することができる)。1512において、第2タッチの途絶を検出した後、ディスプレイの再割り当て可能エリア内において、第3タッチを検出することができる。1514において、ディスプレイの再割り当て可能エリア内で検出された第3タッチに応答して、デフォルトの高さで表されたサムスティックによって、ゲームにおける第2動作を制御することができる。
[0071] 1516において、サムスティックがディスプレイの再割り当て可能エリア上にレンダリングされているときに、ディスプレイのトグル・エリア内において第4タッチを検出することができる。1518において、ディスプレイのトグル・エリア内で検出された第4タッチに応答して、サムスティックのレンダリングから、ディスプレイの再割り当て可能エリア上の方向パッドのレンダリングへの切り替えを実行することができる。1520において、ディスプレイの再割り当て可能エリア上にレンダリングされた方向パッドによって、ディスプレイの再割り当て可能エリア内において第5タッチを検出することができる。1522において、ディスプレイの再割り当て可能エリア内で検出された第5タッチに応答して、ゲームにおける第3動作を制御することができる。
[0072] これより図16を参照すると、本明細書において開示したシステムおよび方法にしたがって用いることができる計算デバイスの一例1600の上位図が示されている。例えば、計算デバイス1600は、タッチ対応移動体デバイスによって実行されるゲームを制御するシステムにおいて用いることができる。計算デバイス1600は、メモリー1604に格納されている命令を実行する少なくとも1つのプロセッサー1602を含む。この命令は、例えば、先に論じた1つ以上のコンポーネントによって実行されると説明した機能を実現するための命令、または先に説明した方法の内1つ以上を実現するための命令でもよい。プロセッサー1602は、システム・バス1606を介してメモリー1604にアクセスすることができる。実行可能命令を格納することに加えて、メモリー1604はゲーム・データー、視覚インディケーター等も格納することができる。
[0073] 加えて、計算デバイス1600は、システム・バス1606を介してプロセッサー1602によってアクセス可能なデーター・ストア1608も含む。データー・ストア1608は、実行可能命令、ゲーム・データー、視覚インディケーター等を含むことができる。また、計算デバイス1600は、外部デバイスが計算デバイス1600と通信することを可能にする入力インターフェース1610も含む。例えば、入力インターフェース1610は、外部コンピューター・デバイス、ユーザー等から命令を受け取るために用いることができる。また、計算デバイス1600は、計算デバイス1600を1つ以上の外部デバイスとインターフェースする出力インターフェース1612も含む。例えば、計算デバイス1600は、テキスト、画像等を出力インターフェース1612を介して表示することができる。
[0074] 加えて、1つのシステムとして示すが、計算デバイス1600は分散型システムであってもよいことは言うまでもない。つまり、例えば、様々なデバイスがネットワーク接続を通じて通信することができ、計算デバイス1600によって実行されると説明したタスクを集合的に実行することができる。
[0075] 本明細書において用いる場合、「コンポーネント」および「システム」という用語は、プロセッサーによって実行されるときにある種の機能を実行させるコンピューター実行可能命令が構成されたコンピューター読み取り可能データー・ストレージを包含する(encompass)ことを意図している。コンピューター実行可能命令は、ルーチン、関数等を含むことができる。また、コンポーネントまたはシステムは、1つのデバイス上に局在されても、様々なデバイスに跨がって分散されてもよいことも言うまでもない。
[0076] 更に、本明細書において用いる場合、「一例の」(exemplary)という用語は、「何かの例示または一例として役割を果たす」ことも意味するものとする。
[0077] 本明細書において説明した種々の機能は、ハードウェア、ソフトウェア、またはそのあらゆる組み合わせで実現することができる。ソフトウェアで実現する場合、機能は、コンピューター読み取り可能媒体上における1つ以上の命令またはコードとして格納または送信することができる。コンピューター読み取り可能媒体は、コンピューター読み取り可能記憶媒体を含む。コンピューター読み取り可能記憶媒体は、コンピューターによってアクセスすることができる入手可能な記憶媒体であれば、いずれでも可能である。一例として、そして限定ではなく、このようなコンピューター読み取り可能記憶媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスク・ストレージ、磁気ディスク・ストレージまたは他の磁気記憶デバイス、あるいは所望のプログラム・コードを命令またはデーター構造の形態で搬送または格納するために用いることができ、コンピューターによってアクセスすることができる他のいずれの媒体でも含むことができる。ディスク(disk and disc)は、本明細書において用いる場合、コンパクト・ディスク(CD)、レーザー・ディスク、光ディスク、ディジタル・バーサタイル・ディスク(DVD)、フロッピー(登録商標)・ディスク、およびブルー・レイ・ディスク(BD)を含み、ディスク(disk)は通常データーを磁気的に再生し、ディスク(disc)は通常レーザを用いて光学的にデーターを再生する。更に、伝搬信号は、コンピューター読み取り可能記憶媒体の範囲には含まれない。また、コンピューター読み取り可能媒体は、通信媒体も含み、コンピューター・プログラムを1つの場所から他の場所に転送するのを容易にする媒体であればいずれも含む。接続は、例えば、通信媒体であることができる。例えば、ソフトウェアがウェブサイト、サーバー、または他の離れたソースから同軸ケーブル、光ファイバー・ケーブル、撚り線対、ディジタル加入者回線(DSL)、あるいは赤外線、無線、およびマイクロ波のようなワイヤレス技術を用いて送信される場合、これらの同軸ケーブル、光ファイバー・ケーブル、撚り線対、DSL、あるいは赤外線、無線、およびマイクロ波のようなワイヤレス技術が、通信媒体の定義に含まれる。以上の組み合わせも、コンピューター読み取り可能媒体の範囲に含まれる。
[0078] 以上で説明したことには、1つ以上の実施形態の例が含まれる。勿論、前述の態様を説明する目的で、以上のデバイスや方法についてあらゆる着想可能な変更および変形を記載することは不可能であるが、当業者であれば、種々の態様の多くの他の変更や置換(permutation)も可能であることを認めることができよう。したがって、以上で説明した態様は、添付した請求項の主旨および範囲に該当する、このような変形、変更、および変種(variations)を全て含む(embrace)ことを意図している。更に、「含む」(includes)という用語が詳細な説明または請求項において使用される場合に限って、このような用語は、「備える」(comprising)という用語が請求項において移行性単語として用いられるときに「備える」が解釈される場合と同様に、内包的であることを意図している。

Claims (10)

  1. タッチ対応移動体デバイスによってゲームを制御する方法であって、
    前記タッチ対応移動体デバイスのディスプレイの再割り当て可能エリア上にサムスティックをレンダリングするステップと、
    前記タッチ対応移動体デバイスのディスプレイのモード選択エリア上に、モード選択ボタンをレンダリングするステップであって、前記再割り当て可能エリアおよび前記モード選択エリアが重複しない、ステップと、
    前記ディスプレイの前記再割り当て可能エリア内で検出された第1タッチに応答して、デフォルトの高さで表された前記サムスティックによって、前記ゲームにおける第1動作を制御するステップと、
    第2タッチを検出するステップであって、前記第2タッチが、前記ディスプレイのモード選択エリアから前記ディスプレイの再割り当て可能エリアまでのドラッグである、ステップと、
    前記ディスプレイの再割り当て可能エリア内で検出された第3タッチに応答して、押し下げられた高さで表された前記サムスティックによって、前記ゲームにおける第2動作を制御するステップであって、前記第2タッチおよび前記第3タッチが、接触の途切れなく検出される、ステップと、
    前記第3タッチの途絶を検出するステップと、
    前記第3タッチの途絶を検出したときに、前記ディスプレイの再割り当て可能エリア内で検出された第4タッチに応答して、前記デフォルトの高さで表された前記サムスティックによって、前記ゲームにおける前記第1動作を制御するステップと、
    を含む、方法。
  2. 請求項1記載の方法であって、更に、
    前記サムスティックが前記デフォルトの高さで表されるときに、前記ディスプレイの前記再割り当て可能エリア上に第1視覚インディケーターをレンダリングするステップと、
    前記サムスティックが前記押し下げられた高さで表されるときに、前記ディスプレイの前記再割り当て可能エリア上に第2視覚インディケーターをレンダリングするステップであって、前記第1視覚インディケーターおよび前記第2視覚インディケーターが、少なくとも一部が異なる、ステップと、
    を含む、方法。
  3. 請求項1記載の方法であって、更に、
    前記タッチ対応移動体デバイスのディスプレイのトグル・エリア上にトグル・ボタンをレンダリングするステップと、
    前記サムスティックが前記ディスプレイの再割り当て可能エリア上にレンダリングされるときに、前記ディスプレイのトグル・エリア内において第5タッチを検出するステップと、
    前記第5タッチを検出したときに、前記サムスティックのレンダリングから、前記ディスプレイの再割り当て可能エリア上における方向パッドのレンダリングに切り替えるステップであって、前記ディスプレイの再割り当て可能エリアが、前記方向パッドが前記再割り当て可能エリア上にレンダリングされるときには離散入力として構成される、ステップと、
    を含む、方法。
  4. 請求項1記載の方法であって、更に、
    所定の平面に対する前記タッチ対応移動体デバイスの傾き量を測定するステップと、
    前記ゲームにおける第3動作を、前記タッチ対応移動体デバイスの傾き量の関数として制御するステップであって、前記タッチ対応移動体デバイスの傾き量が、前記ゲームについてのアナログ入力情報にマッピングし、前記ゲームについてのアナログ入力情報のレベルが、前記タッチ対応移動体デバイスの傾き量が前記所定の平面に対して一定のままであるときには、一定のままである、ステップと、
    前記タッチ対応移動体デバイスのディスプレイ上にトリガー・ボタンをレンダリングするステップと、
    前記タッチ対応移動体デバイスの傾き量の関数として、前記トリガー・ボタンの押下を描画するステップと、
    を含む、方法。
  5. 請求項1記載の方法であって、更に、
    前記タッチ対応移動体デバイスが、前記ディスプレイの表面によって定められる平面内において回転させられたか否か検出するステップと、
    前記タッチ対応移動体デバイスが回転させられたと検出されたか否かの関数として、前記ゲームにおける第3動作を制御するステップであって、前記回転された前記タッチ対応移動体デバイスが、前記ゲームについての離散入力情報にマッピングする、ステップと、
    を含む、方法。
  6. 請求項1記載の方法であって、更に、前記ディスプレイのトラフ・エリア上にトラフをレンダリングするステップを含み、前記トラフ・エリアが前記再割り当て可能エリアと前記モード選択エリアとの間にあり、前記第2タッチのドラッグが、前記トラフ・エリアの少なくとも一部を通過することが検出される、方法。
  7. 請求項1記載の方法であって、更に、前記サムスティックが再度前記デフォルトの高さとなるように切り替えられたことを意味する触覚フィードバックを提供するために、前記第3タッチの途絶を検出したときに、前記タッチ対応移動体デバイスを振動させるステップを含む、方法。
  8. タッチ対応移動体デバイスによって実行されるゲームを制御するシステムであって、
    前記タッチ対応移動体デバイスのディスプレイの再割り当て可能エリア上に少なくとも1つのサムスティックと、前記タッチ対応移動体デバイスのディスプレイのモード選択エリア上にモード選択ボタンとをレンダリングする出力コンポーネントであって、前記再割り当て可能エリアおよび前記モード選択エリアが重複しない、出力コンポーネントと、
    前記ディスプレイのモード選択エリアから前記ディスプレイの再割り当て可能エリアまでのドラッグと、前記ディスプレイの再割り当て可能エリア内におけるタッチとを少なくとも検出するように構成された対話処理分析コンポーネントと、
    前記ディスプレイのモード選択エリアから前記ディスプレイの再割り当て可能エリアまでのドラッグ、および前記ディスプレイの再割り当て可能エリア内におけるタッチが、接触の途切れなく検出されたとき、前記ディスプレイの再割り当て可能エリア内で検出された前記タッチに応答して、押し下げられた高さで表された前記サムスティックによって、前記ゲームにおける第1動作を制御し、それ以外の場合、前記ディスプレイの再割り当て可能エリア内で検出された前記タッチに応答して、デフォルトの高さで表された前記サムスティックによって前記ゲームにおける第2動作を制御する操作コンポと、
    を含む、システム。
  9. 請求項8記載のシステムにおいて、前記対話処理分析コンポーネントが、前記タッチ対応移動体デバイスと結合されたカメラから受け取った一連の画像から、前記ユーザーのジェスチャーを検出し、前記操作コンポーネントが、前記ユーザーのジェスチャーに応答して、前記ゲームにおける第3動作を制御する、システム。
  10. コンピューター実行可能命令を含むコンピューター読み取り可能記憶媒体であって、前記コンピューター実行可能命令をプロセッサーによって実行すると、前記プロセッサーに、
    タッチ対応移動体デバイスのディスプレイのトグル・エリア上にトグル・ボタンをレンダリングする動作と、
    前記タッチ対応移動体デバイスのディスプレイの再割り当て可能エリア上にサムスティックをレンダリングする動作と、
    前記タッチ対応移動体デバイスのディスプレイのモード選択エリア上にモード選択ボタンをレンダリングする動作であって、前記再割り当て可能エリアおよび前記モード選択エリアが重複しない、動作と、
    第1タッチを検出する動作であって、前記第1タッチが、前記ディスプレイのモード選択エリアから前記ディスプレイの再割り当て可能エリアまでのドラッグである、動作と、
    前記ディスプレイの再割り当て可能エリア内において第2タッチを検出する動作であって、前記第1タッチおよび前記第2タッチが接触の途切れなく検出される、動作と、
    前記ディスプレイの再割り当て可能エリア内で検出した前記第2タッチに応答して、押し下げられた高さで表された前記サムスティックによってゲームにおける第1動作を制御する動作と、
    前記第2タッチの途絶を検出する動作と、
    前記第2タッチの途絶を検出した後、前記ディスプレイの再割り当て可能エリア内で第3タッチを検出する動作と、
    前記ディスプレイの再割り当て可能エリア内で検出された前記第3タッチに応答して、デフォルトの高さで表された前記サムスティックによって前記ゲームにおける第2動作を制御する動作と、
    前記サムスティックが前記ディスプレイの再割り当て可能エリア上にレンダリングされるときに、前記ディスプレイのトグル・エリア内において第4タッチを検出する動作と、
    前記ディスプレイのトグル・エリア内で検出された前記第4タッチに応答して、前記サムスティックのレンダリングから、前記ディスプレイの再割り当て可能エリア上における方向パッドのレンダリングに切り替える動作と、
    前記ディスプレイの再割り当て可能エリア上にレンダリングされた前記方向パッドによって、前記ディスプレイの再割り当て可能エリア内における第5タッチを検出する動作と、
    前記ディスプレイの再割り当て可能エリア内で検出された前記第5タッチに応答して、前記ゲームにおける第3動作を制御する動作と、
    を実行させる、コンピューター読み取り可能記憶媒体。
JP2014534644A 2011-10-04 2012-10-03 タッチ対応移動体デバイスにおけるゲーム・コントローラー Active JP6145099B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/252,207 2011-10-04
US13/252,207 US8678927B2 (en) 2011-10-04 2011-10-04 Game controller on mobile touch-enabled devices
PCT/US2012/058505 WO2013052514A1 (en) 2011-10-04 2012-10-03 Game controller on mobile touch-enabled devices

Publications (2)

Publication Number Publication Date
JP2014531946A true JP2014531946A (ja) 2014-12-04
JP6145099B2 JP6145099B2 (ja) 2017-06-07

Family

ID=47529946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014534644A Active JP6145099B2 (ja) 2011-10-04 2012-10-03 タッチ対応移動体デバイスにおけるゲーム・コントローラー

Country Status (7)

Country Link
US (3) US8678927B2 (ja)
EP (1) EP2763762A4 (ja)
JP (1) JP6145099B2 (ja)
KR (1) KR101956410B1 (ja)
CN (1) CN102886140B (ja)
HK (1) HK1178832A1 (ja)
WO (1) WO2013052514A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5937773B1 (ja) * 2016-03-09 2016-06-22 株式会社Cygames プログラム及び携帯端末
JP2016123479A (ja) * 2014-12-26 2016-07-11 株式会社Cygames ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP2016123843A (ja) * 2015-07-13 2016-07-11 株式会社Cygames ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3117768B1 (en) 2006-05-19 2019-11-06 The Queen's Medical Center Motion tracking system and method for real time adaptive imaging and spectroscopy
US9411509B2 (en) 2010-12-29 2016-08-09 Microsoft Technology Licensing, Llc Virtual controller for touch display
JP5103538B2 (ja) * 2011-02-25 2012-12-19 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US8678927B2 (en) 2011-10-04 2014-03-25 Microsoft Corporation Game controller on mobile touch-enabled devices
TW201334843A (zh) * 2012-02-20 2013-09-01 Fu Li Ye Internat Corp 具有觸控面板媒體的遊戲控制方法及該遊戲媒體
KR101431581B1 (ko) * 2012-06-22 2014-09-23 성균관대학교산학협력단 모바일 단말기를 기반으로 한 가상 게임 컨트롤러 장치 및 이를 이용한 원격 컨트롤 시스템
JP5563633B2 (ja) * 2012-08-31 2014-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
US9056244B2 (en) * 2012-09-12 2015-06-16 Wms Gaming Inc. Gaming apparatus incorporating targeted haptic feedback
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
JP6095393B2 (ja) * 2013-02-12 2017-03-15 株式会社スクウェア・エニックス ビデオゲーム装置、及びビデオゲーム処理プログラム
GB2516609A (en) * 2013-04-30 2015-02-04 Robert Kasperek Hybrid gaming controller for touch screen mobile devices
US9937416B2 (en) 2013-06-11 2018-04-10 Microsoft Technology Licensing, Llc Adaptive touch input controls
KR102158843B1 (ko) * 2013-08-05 2020-10-23 삼성전자주식회사 모바일 디바이스를 이용한 사용자 입력 방법 및 모바일 디바이스
USD745533S1 (en) * 2013-08-27 2015-12-15 Tencent Technology (Shenzhen) Company Limited Display screen or a portion thereof with graphical user interface
US10328344B2 (en) * 2013-10-11 2019-06-25 Valve Corporation Game controller systems and methods
JP5584347B1 (ja) * 2013-12-17 2014-09-03 慎司 西村 コンピューターゲーム用擬似体験リモコンボタン
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
US10747416B2 (en) 2014-02-13 2020-08-18 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US10712918B2 (en) 2014-02-13 2020-07-14 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US10866714B2 (en) * 2014-02-13 2020-12-15 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
JP5632550B1 (ja) * 2014-02-18 2014-11-26 株式会社 ディー・エヌ・エー ゲームプログラム、及び、情報処理装置
WO2015148391A1 (en) 2014-03-24 2015-10-01 Thomas Michael Ernst Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US10013083B2 (en) 2014-04-28 2018-07-03 Qualcomm Incorporated Utilizing real world objects for user input
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
JP5723050B1 (ja) * 2014-08-29 2015-05-27 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
US9904463B2 (en) * 2014-09-23 2018-02-27 Sulake Corporation Oy Method and apparatus for controlling user character for playing game within virtual environment
CN104750416B (zh) * 2015-03-13 2018-07-13 上海雪宝信息科技有限公司 一种用于在触摸终端上执行对象操作的方法与设备
JP5789067B1 (ja) * 2015-03-26 2015-10-07 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
US10543427B2 (en) * 2015-04-29 2020-01-28 Microsoft Technology Licensing, Llc Game controller function remapping via external accessory
US10232255B2 (en) * 2015-04-30 2019-03-19 Microsoft Technology Licensing, Llc Paddle accessory for a game controller
US9925457B2 (en) 2015-06-09 2018-03-27 Microsoft Technology Licensing, Llc User-replaceable thumbstick top for game controller
US10427035B2 (en) 2015-06-09 2019-10-01 Microsoft Technology Licensing, Llc Game controller with removable trigger accessory
US9764230B2 (en) 2015-06-09 2017-09-19 Microsoft Technology Licensing, Llc Game controller with user-replaceable thumbstick top
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
JP5856345B1 (ja) * 2015-07-30 2016-02-09 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
CN105214306B (zh) * 2015-09-02 2017-03-08 网易(杭州)网络有限公司 一种游戏角色控制方法及一种虚拟控制部件的控制方法
CN105194871B (zh) 2015-09-14 2017-03-22 网易(杭州)网络有限公司 一种控制游戏角色的方法
CN105148517B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
KR102481632B1 (ko) * 2016-04-26 2022-12-28 삼성전자주식회사 전자 장치 및 전자 장치의 디스플레이를 이용한 적응적 터치 입력 방법
KR101866198B1 (ko) * 2016-07-06 2018-06-11 (주) 덱스인트게임즈 터치스크린 기반의 게임제공방법 및 프로그램
US10286304B2 (en) * 2016-08-30 2019-05-14 Microsoft Technology Licensing, Llc Controller having accessory connectors for externalizing controls
CN106341427A (zh) * 2016-11-17 2017-01-18 腾讯科技(深圳)有限公司 一种基于移动终端的对象扫描方法及移动终端
US10507385B2 (en) 2017-01-25 2019-12-17 Kieran S. Lyden Game controller
JP6450794B2 (ja) * 2017-03-27 2019-01-09 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
CN107008003B (zh) * 2017-04-13 2020-08-14 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及计算机可读存储介质
US10369470B2 (en) * 2017-04-28 2019-08-06 PlayFusion Limited User interface control cluster for enhancing a gaming experience
CN110662587B (zh) 2017-05-22 2024-01-23 任天堂株式会社 游戏程序、信息处理装置、信息处理系统以及游戏处理方法
JP6921193B2 (ja) * 2017-05-22 2021-08-18 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
WO2018216078A1 (ja) 2017-05-22 2018-11-29 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
CN107395963B (zh) * 2017-07-12 2019-02-01 珠海格力电器股份有限公司 一种自动拍照的控制方法及其装置
CN107617213B (zh) 2017-07-27 2019-02-19 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN109550246B (zh) * 2017-09-25 2022-03-25 腾讯科技(深圳)有限公司 游戏客户端的控制方法、装置、存储介质和电子装置
CN107823878A (zh) * 2017-11-27 2018-03-23 苏州运智互动科技有限公司 用于模拟双摇杆操作的触摸控制装置及其模拟方法
CN108786103A (zh) * 2018-04-28 2018-11-13 深圳市谷粒科技有限公司 一种游戏手柄的多功能设置方法
CN108635850B (zh) * 2018-05-17 2022-04-15 网易(杭州)网络有限公司 信息处理方法、装置及存储介质
US11045719B2 (en) * 2018-09-12 2021-06-29 King.Com Ltd. Method and computer device for controlling a touch screen
CN109350964B (zh) * 2018-09-28 2020-08-11 腾讯科技(深圳)有限公司 控制虚拟角色的方法、装置、设备及存储介质
CN109814736A (zh) * 2018-12-05 2019-05-28 苏州蜗牛数字科技股份有限公司 一种摇杆数值的处理方法
CN109908574B (zh) * 2019-02-22 2020-09-08 网易(杭州)网络有限公司 游戏角色控制方法、装置、设备和存储介质
CN110270098B (zh) 2019-06-21 2023-06-23 腾讯科技(深圳)有限公司 控制虚拟对象对虚拟物品进行标记的方法、装置及介质
CN111589131B (zh) * 2020-04-24 2022-02-22 腾讯科技(深圳)有限公司 虚拟角色的控制方法、装置、设备及介质
JP2023001762A (ja) * 2021-06-21 2023-01-06 株式会社アニプレックス ゲームをプレイヤに提供するプログラムおよび情報処理装置
CN113797558A (zh) * 2021-09-07 2021-12-17 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
WO2023214929A1 (en) * 2022-05-05 2023-11-09 Razer (Asia-Pacific) Pte. Ltd. A game controller
CN117398677B (zh) * 2023-12-12 2024-05-07 荣耀终端有限公司 游戏适配方法、装置、电子设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001170358A (ja) * 1999-10-04 2001-06-26 Nintendo Co Ltd ゲームシステム及びそれに用いられるゲーム情報記憶媒体
JP2005211260A (ja) * 2004-01-29 2005-08-11 Namco Ltd 操作対象の動作指令装置、操作対象の動作指令用プログラム、およびそのプログラムを記録した記録媒体
US20100041480A1 (en) * 2008-08-12 2010-02-18 Sony Corporation Universal game console controller
JP2010526391A (ja) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
JP2011141632A (ja) * 2010-01-06 2011-07-21 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925189A (en) * 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5059958A (en) * 1990-04-10 1991-10-22 Jacobs Jordan S Manually held tilt sensitive non-joystick control box
US7586398B2 (en) * 1998-07-23 2009-09-08 Universal Electronics, Inc. System and method for setting up a universal remote control
US7358956B2 (en) 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US6861946B2 (en) * 2000-05-17 2005-03-01 Caveo Technology Llc. Motion-based input system for handheld devices
JP2004525675A (ja) * 2001-01-24 2004-08-26 インターリンク エレクトロニクス インコーポレイテッド ゲーム及びホーム・エンターテイメント・デバイス遠隔制御
US7474772B2 (en) 2003-06-25 2009-01-06 Atrua Technologies, Inc. System and method for a miniature user input device
JP3734819B1 (ja) * 2004-07-26 2006-01-11 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
JP2006192246A (ja) * 2004-12-13 2006-07-27 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2006340744A (ja) 2005-06-07 2006-12-21 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
US8313379B2 (en) 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US8882590B2 (en) 2006-04-28 2014-11-11 Nintendo Co., Ltd. Touch-controlled game character motion providing dynamically-positioned virtual control pad
US7422145B2 (en) 2006-05-08 2008-09-09 Nokia Corporation Mobile communication terminal and method
US9011249B2 (en) 2006-06-30 2015-04-21 Wms Gaming Inc. Method and apparatus for use of movement and position sensors with portable handheld wagering devices
JP2008017935A (ja) * 2006-07-11 2008-01-31 Aruze Corp ゲーム装置およびゲーム装置の画像変化制御方法
US8216056B2 (en) * 2007-02-13 2012-07-10 Cfph, Llc Card picks for progressive prize
US8323102B2 (en) * 2006-10-06 2012-12-04 Cfph, Llc Remote play of a table game through a mobile device
TWI350466B (en) * 2007-11-06 2011-10-11 Htc Corp Method for inputting character
JP4637294B2 (ja) * 2008-05-29 2011-02-23 日本写真印刷株式会社 タッチ入力機能を備えた保護パネル
US8142283B2 (en) * 2008-08-20 2012-03-27 Cfph, Llc Game of chance processing apparatus
KR101481556B1 (ko) * 2008-09-10 2015-01-13 엘지전자 주식회사 이동 단말기 및 이를 이용한 객체 표시방법
JP4773492B2 (ja) * 2008-09-12 2011-09-14 任天堂株式会社 ゲーム装置およびゲームプログラム
US8556714B2 (en) * 2009-05-13 2013-10-15 Wms Gaming, Inc. Player head tracking for wagering game control
US8816981B2 (en) * 2009-08-31 2014-08-26 Nissha Printing Co., Ltd. Mount structure of touch panel with vibration function
KR20110034858A (ko) 2009-09-29 2011-04-06 주식회사 넥슨모바일 게임 운영을 제어하기 위한 사용자 인터페이스 제공 방법
US9176542B2 (en) * 2009-11-06 2015-11-03 Sony Corporation Accelerometer-based touchscreen user interface
JP5390433B2 (ja) * 2010-02-26 2014-01-15 株式会社バンダイナムコゲームス プログラム、情報記憶媒体およびゲーム装置
US8591334B2 (en) * 2010-06-03 2013-11-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
US8382591B2 (en) * 2010-06-03 2013-02-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
US20110316888A1 (en) * 2010-06-28 2011-12-29 Invensense, Inc. Mobile device user interface combining input from motion sensors and other controls
EP2423796B1 (en) * 2010-08-24 2019-10-02 LG Electronics Inc. Mobile terminal and displaying method thereof
JP5379176B2 (ja) * 2011-01-25 2013-12-25 株式会社ソニー・コンピュータエンタテインメント 携帯型電子機器
JP2012168932A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
US20120242584A1 (en) * 2011-03-22 2012-09-27 Nokia Corporation Method and apparatus for providing sight independent activity reports responsive to a touch gesture
US10222974B2 (en) * 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
US8678927B2 (en) * 2011-10-04 2014-03-25 Microsoft Corporation Game controller on mobile touch-enabled devices
US20130225295A1 (en) * 2012-02-24 2013-08-29 Nintendo Co., Ltd. Methods and/or systems for controlling virtual objects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001170358A (ja) * 1999-10-04 2001-06-26 Nintendo Co Ltd ゲームシステム及びそれに用いられるゲーム情報記憶媒体
JP2005211260A (ja) * 2004-01-29 2005-08-11 Namco Ltd 操作対象の動作指令装置、操作対象の動作指令用プログラム、およびそのプログラムを記録した記録媒体
JP2010526391A (ja) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
US20100041480A1 (en) * 2008-08-12 2010-02-18 Sony Corporation Universal game console controller
JP2011141632A (ja) * 2010-01-06 2011-07-21 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016123479A (ja) * 2014-12-26 2016-07-11 株式会社Cygames ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP2016123843A (ja) * 2015-07-13 2016-07-11 株式会社Cygames ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP5937773B1 (ja) * 2016-03-09 2016-06-22 株式会社Cygames プログラム及び携帯端末
JP2017091494A (ja) * 2016-03-09 2017-05-25 株式会社Cygames プログラム及び携帯端末

Also Published As

Publication number Publication date
US10035063B2 (en) 2018-07-31
JP6145099B2 (ja) 2017-06-07
US8678927B2 (en) 2014-03-25
US20160041717A1 (en) 2016-02-11
US20130084980A1 (en) 2013-04-04
CN102886140B (zh) 2015-06-17
EP2763762A1 (en) 2014-08-13
WO2013052514A1 (en) 2013-04-11
KR20140112470A (ko) 2014-09-23
EP2763762A4 (en) 2015-07-15
US20140155165A1 (en) 2014-06-05
CN102886140A (zh) 2013-01-23
US9174124B2 (en) 2015-11-03
HK1178832A1 (en) 2013-09-19
KR101956410B1 (ko) 2019-03-08

Similar Documents

Publication Publication Date Title
JP6145099B2 (ja) タッチ対応移動体デバイスにおけるゲーム・コントローラー
JP5951638B2 (ja) タッチディスプレイ用仮想コントローラ
WO2015084684A2 (en) Bezel gesture techniques
JP2023514103A (ja) 選択可能なアイコンを含むディスプレイを有するコントローラ
US20240176483A1 (en) Virtualized physical controller
US20240149147A1 (en) Virtual button charging
EP4288860A1 (en) Infinite drag and swipe for virtual controller
JP2024511304A (ja) 状態ベースのアクションボタン
US20240149155A1 (en) Virtual automatic aiming
JP7105574B2 (ja) プログラム及びゲーム装置
KR20220119921A (ko) 사용자 인터페이스 제공 방법 및 모바일 단말
CN117112094A (zh) 控件交互方法、装置、存储介质及电子装置
KR20180103366A (ko) 반응형 유저 인터페이스 제공 장치 및 방법

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170512

R150 Certificate of patent or registration of utility model

Ref document number: 6145099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250