JP2014139789A - タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法 - Google Patents

タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法 Download PDF

Info

Publication number
JP2014139789A
JP2014139789A JP2014011500A JP2014011500A JP2014139789A JP 2014139789 A JP2014139789 A JP 2014139789A JP 2014011500 A JP2014011500 A JP 2014011500A JP 2014011500 A JP2014011500 A JP 2014011500A JP 2014139789 A JP2014139789 A JP 2014139789A
Authority
JP
Japan
Prior art keywords
user
virtual space
sensitive surface
touch
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014011500A
Other languages
English (en)
Inventor
Benjamin James Cousins
ジェイムズ カズンズ,ベンジャミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Publication of JP2014139789A publication Critical patent/JP2014139789A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法を提供する。
【解決手段】ユーザは、無線クライアント装置12におけるタッチセンシティブ表面22を介して仮想空間とインタラクトすることができ、タッチセンシティブ表面にコントロール入力を提供することにより、仮想空間とインタラクトすることができる。コントロール入力は、仮想空間の一又は複数のビューに反映され得る。システムは、仮想空間の一又は複数のビューがシューティングゲームの一又は複数のビューを含むように構成されてもよく、ユーザが、タッチセンシティブ表面を介して片手の指を主として用いてゲームとインタラクトできるように構成され得る。ユーザは、自らに提示された仮想空間内でのアクションに対応する様々なコマンド入力をタッチセンシティブ表面に入力することができる。
【選択図】図1

Description

本開示は、タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法に関する。
携帯装置においてタッチパネルを用いてプレイされるファーストパーソン・シューティングゲームが存在する。携帯装置においてタッチパネルを用いてプレイされるファーストパーソン・シューティングゲームにおいては、典型的には、ユーザキャラクタやそれ以外のゲーム要素をコントロールするために「仮想スティック」が用いられる。仮想スティックによるコントロール方法は、タッチパネルディスプレイで電子ゲーム機のコントロールをシミュレートするものである。仮想スティックによるコントロール方法では、ユーザは両手でシューティングゲームをプレイしなければならない。
本開示の一態様は、ユーザが仮想空間と容易にインタラトできるように構成されたシステムに関連する。ユーザは、無線クライアント装置におけるタッチセンシティブ表面を介して仮想空間とインタラクトすることができる。ユーザは、タッチセンシティブ表面にコントロール入力を提供することにより、仮想空間とインタラクトすることができる。コントロール入力は、仮想空間の一又は複数のビューに反映されてもよい。一部の実施形態におけるシステムは、仮想空間の少なくとも1つのビューがシューティングゲームの少なくとも1つのビューを含むように構成される。システムは、ユーザが主として片手の指を用いて、タッチセンシティブ表面を介してゲームとインタラクトできるように構成されてもよい。ユーザは、自らに提示された仮想空間内でのアクションに対応する様々なコマンド入力をタッチセンシティブ表面に入力することができる。一部の実施形態におけるシステムは、無線クライアント装置やゲームサーバ等の構成要素を備える。
無線クライアント装置は、ユーザが仮想空間やゲーム等のアプリケーションとインタラクトするためのインタフェースを提供するように構成されてもよい。無線クライアント装置は、ゲームサーバや他の無線クライアント等のクライアント・サーバ構成における装置と通信するように構成されてもよい。無線クライアント装置は、ユーザインタフェース、一又は複数のプロセッサ、電子ストレージ等の構成要素を備える。
ユーザインタフェースは、無線クライアントとユーザとの間のインタフェースを提供するように構成されてもよい。ユーザは、当該インタフェースを介してシステムに情報を提供し、また、システムから情報を受け取ることができる。ユーザインタフェースは、タッチセンシティブ表面等の構成要素を備えてもよい。
プロセッサは、一又は複数のコンピュータプログラムモジュールを実行するように構成されてもよい。一又は複数のコンピュータプログラムモジュールは、ゲームモジュール、ジェスチャ認識モジュール、制御モジュール、及び/又はこれら以外のモジュールのうちの少なくとも1つを備えることができる。
ゲームモジュールは、仮想空間のインスタンスを実行するように構成されてもよい。ゲームモジュールは、無線クライアントにおいてユーザに提示するために仮想空間の一又は複数のビューをアッセンブルする(assemble)ことによって、ユーザと仮想空間とのインタラクションを容易にするように構成されてもよい。ユーザは、タッチセンシティブ表面にコントロール入力を提供することによって仮想空間とインタラクトすることができる。このコントロール入力は、仮想空間のビューに反映される。
ゲームモジュールは、仮想空間のビューをアッセンブルするために仮想空間のインスタンスを実行し、ビューを定義するビュー情報を決定するためにその仮想空間のインスタンスを用いることができる。ゲームモジュールは、仮想空間のビューをアッセンブルするために、ゲームサーバからビュー情報を取得することができる。このゲームサーバは、仮想空間のインスタンスを実行してビュー情報を決定することができる。ビュー情報には、仮想空間状態情報、マップ情報、物体又はエンティティの位置情報、出現(manifestation)情報(物体やエンティティが仮想空間においてどのように出現するかを定義する)、及び/又はビューや仮想空間に関連するオブジェクト情報の少なくとも1つが含まれ得る。
一部の実施形態におけるゲームモジュールは、ユーザが仮想空間においてゲームに参加することができるように構成されてもよい。このゲームは、シューティングゲームメカニクスを備えてもよい。シューティングゲームメカニクスは、ユーザに提示されたビューのフィールドにおいて弾(projectile)を標的に向けることや標的に向けて弾を発射することを含む。この弾は、仮想空間の仮想的な武器(例えば、ユーザキャラクタやそれ以外のエンティティによって携行され使用される)から発射されるものであってもよい。シューティングゲームメカニクスは、弾を標的に向けて発射することに加えて、仮想空間内でキャラクタ(例えばユーザキャラクタやそれ以外のエンティティ)の位置をコントロールすることを含んでもよい。一部の実施形態におけるシューティングゲームメカニクスは、武器の仮想的な照準ツールを用いて標的に照準を合わせること、武器を変更すること、武器に弾丸を込め直すこと、及び/又はシューティングゲームメカニクスのその他の態様を含むことができる。
ジェスチャ認識モジュールは、タッチセンシティブ表面でユーザによってなされる一連のジェスチャのうちの個々のジェスチャを特定するように構成されてもよい。ジェスチャ認識モジュールは、タッチセンシティブ表面からの出力信号に基づいて当該一連のジェスチャのうちの個々のジェスチャを特定するように構成されてもよい。ジェスチャは、一又は複数のジェスチャパラメータによって定義されてもよい。一又は複数のジェスチャパラメータには、接触中における一又は複数の動きの方向、一又は複数の接触位置、一又は複数の動きの特定の順序、一又は複数の位置の特定の配置、複数の接触間の相対位置、複数の接触の相対的なタイミング、一又は複数の接触の保持時間、及び/又は前記以外のパラメータが含まれる。個々のジェスチャのジェスチャ定義は、一又は複数のジェスチャパラメータについてのパラメータ値を特定することができる。ジェスチャ認識モジュールは、複数の記憶されたジェスチャ定義へアクセスすることができる。
ユーザジェスチャの特定は、タッチセンシティブ表面からの出力信号によって伝達される情報の分析に基づいてなされる。この分析は、ジェスチャ定義と当該出力信号によって伝達される情報との比較を含む。ジェスチャ認識モジュールは、ユーザとタッチセンシティブ表面との現時点又は以前のインタラクションに関するジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、現在又は以前実行されたインタラクションがジェスチャ定義のうちの1つと一致するかを決定するために、ジェスチャ定義によって特定されるパラメータ値と比較されてもよい。ジェスチャ定義とユーザによって実行されたインタラクションが一致することに応じて、ジェスチャ認識モジュールは、ユーザのインタラクションを一致ジェスチャ定義(mached gesture definition)と特定する。
制御モジュールは、ユーザからのコントロール入力を決定するように構成されてもよい。制御モジュールは、特定されたジェスチャに基づいてコントロール入力を決定するように構成されてもよい。制御モジュールは、ジェスチャ認識モジュールが一連のジェスチャのうちの個々のジェスチャを特定したことに応じて、当該特定されたジェスチャに対応するコントロール入力を決定するように構成されてもよい。ゲームモジュールは、コントロール入力の受信によって仮想空間内にアクションを起こすように構成されてもよい。
タッチセンシティブ表面は、ユーザの接触に応じて出力信号を生成するように構成されてもよい。出力信号は、タッチセンシティブ表面における一又は複数の接触位置に関連する情報を伝達するように構成されてもよい。一部の実施形態におけるタッチセンシティブ表面はディスプレイを含む。ディスプレイは、視覚情報をユーザに提示するように構成される。視覚情報には、仮想空間の一又は複数のビューやそれ以外のビューが含まれる。一部の実施形態において、タッチセンシティブ表面における一又は複数の接触位置は、ディスプレイ上の一又は複数の位置に対応していてもよい。
一部の実施形態におけるタッチセンシティブ表面は、タッチスクリーンを含む。タッチスクリーンは、無線クライアントにインタフェースを提供するように構成されてもよい。ユーザは、当該インタフェースを介して無線クライアントに情報を入力し、また、無線クライアントから情報を受け取ることができる。タッチスクリーンの電子ディスプレイ機能を通じて、仮想空間のビュー、ファーストパーソン・シューティングゲームのビュー、グラフィックス、テキスト、及び/又は前記以外の視覚コンテンツがユーザに提供され得る。タッチスクリーンは、その電子ディスプレイの一部又は全部に重ね合わされ、その表面に接触しているか又はその近くにある一又は複数の物体の位置を示す出力信号を生成するように構成された一又は複数のセンサを備えてもよい。
ユーザによって実行されるタッチセンシティブ表面への第1のユーザインタラクションは、2本指タップジェスチャである。例えば、当該第1のユーザインタラクションによって、仮想空間の第1のビュー内で武器から対応する弾を発射させるようにしてもよい。ユーザは、仮想空間において弾を発射したる狙いをつけたるするために、第1のインタラクションを用いることができる。第1のユーザインタラクションは、タッチセンシティブ表面の2つの位置を実質的に同時にタップすることを含む。ジェスチャ認識モジュールは、当該第1のユーザインタラクションを、タッチセンシティブ表面でのユーザによる2本指タップと特定することができるように構成され得る。制御モジュールは、ジェスチャ認識モジュールが2本指タップジェスチャを特定したことに応じて、ユーザからの第1のコントロール入力を決定することができる。ゲームモジュールは、この第1のコントロール入力により、仮想空間で弾を発射する。第1のコントロール入力は、弾が向けられる仮想空間内の標的位置を特定することができる。一部の実施形態における標的位置は、タッチセンシティブ表面上のコントロール位置に対応するものである。このコントロール位置は、ユーザが2本指タップジェスチャで触れたタッチセンシティブ表面の位置の片方又は両方に対応するものである。一部の実施形態において、コントロール位置は、標的の位置が表示されているタッチスクリーン上の位置であってもよい。一部の実施形態において、コントロール位置は、ユーザが2本指タップで触れたタッチセンシティブ表面の位置の中心点であってもよい。
タッチセンシティブ表面における第2のユーザインタラクションは、リバースピンチ(reverse pinch)ジェスチャである。システムは、タッチセンシティブ表面における第2のユーザインタラクションの入力に応じて、銃器の照準ツールによる照準合わせをシミュレートするビューを少なくとも1つ提示するように構成されてもよい。第2のユーザインタラクションは、タッチセンシティブ表面の2つの位置に実質的に同時に触れ、その後、タッチセンシティブ表面に触れたまま2つの接触位置を離すように動かすことを含んでもよい。ジェスチャ認識モジュールは、当該第2のユーザインタラクションを、タッチセンシティブ表面でのユーザによるリバースピンチと特定することができるように構成され得る。制御モジュールは、ジェスチャ認識モジュールがリバースピンチジェスチャを特定したことに応じて、ユーザからの第2のコントロール入力を決定することができる。第2のコントロール入力により、ゲームモジュールは、仮想空間の第2のビューにおいて照準ツールにより照準合わせをシミュレートできる。一部の実施形態においては、ゲームモジュールは、当該ゲームモジュールに第2のビューを通じて照準ツールを用いた照準合わせをシミュレートさせる第2のコントロール入力に応じて、仮想空間やゲームプレイ中にユーザが通常利用可能なゲーム機能の少なくとも一部が減少するように構成されてもよい。一部の実施形態におけるシステムは、タッチセンシティブ表面における第3のユーザインタラクションに応じて照準ビューが終了するように構成されてもよい。第3のユーザインタラクションは、ピンチジェスチャであってもよい。
ユーザによって実行されるタッチセンシティブ表面への第4のユーザインタラクションは、ムーブジェスチャ(move gesture)であってもよい。第4のインタラクションは、仮想空間内の移動位置に対応するタッチセンシティブ表面の位置に触れることを含む。ジェスチャ認識モジュールは、当該第4のユーザインタラクションを、タッチセンシティブ表面でのユーザによるムーブジェスチャと特定することができるように構成され得る。制御モジュールは、ジェスチャ認識モジュールがムーブジェスチャを特定したことに応じて、第4のコントロール入力を決定するように構成されてもよい。この第4のコントロール入力は、ゲームモジュールをして、ユーザに提示されるビューを、仮想空間内での現在位置に対応する第3のビューから移動地点を表す第4のビューに変更させるものである。一部の実施形態において、移動位置は、ユーザがムーブジェスチャで触れるタッチスクリーン上の位置であってもよい。
ユーザが仮想空間と容易にインタラクトできるように構成されたシステムの模式図。
タッチセンシティブ表面においてユーザによってなされた第1のユーザインタラクションを示す。
タッチセンシティブ表面に表示される標的に向かう弾の発射を示す。
タッチセンシティブ表面においてユーザによってなされる第2のユーザインタラクションを示す。
タッチセンシティブ表面における接触位置の動きを示す。
仮想空間のビューの段階的なズーム(staged zoom)を示す。
照準ツールによる照準を示す。
タッチセンシティブ表面においてユーザによってなされる第4のユーザインタラクションを示す。
タッチセンシティブ表面に表示された仮想空間における移動位置を示す。
当該移動位置からの仮想空間のビューを示す。
タッチセンシティブ表面においてユーザによってなされた第5のユーザインタラクションを示す。
タッチセンシティブ表面における第5のユーザインタラクションの接触位置を示す。
タッチセンシティブ表面においてユーザによってなされる第6のユーザインタラクションを示す。
タッチセンシティブ表面においてユーザによってなされる第7のユーザインタラクションを示す。
タッチセンシティブ表面においてユーザによってなされる第8のユーザインタラクションを示す。
タッチセンシティブ表面における第8のユーザインタラクションの接触位置を示す。
仮想空間とのインタラクションを容易にする方法を示す。
図1は、ユーザが仮想空間と容易にインタラクトできるように構成されたシステム10の模式図である。ユーザは、無線クライアント装置12におけるタッチセンシティブ表面を介して仮想空間とインタラクトすることができる。ユーザは、タッチセンシティブ表面にコントロール入力を提供することにより、仮想空間とインタラクトすることができる。コントロール入力は、仮想空間の一又は複数のビュー(view)に反映されてもよい。一部の実施形態において、システム10は、仮想空間の一又は複数のビューがシューティングゲーム(例えば、ファーストパーソン・シューティングゲーム、サードパーソン・シューティングゲーム、及び/又はこれら以外のシューティングゲームメカニクス)の一又は複数のビューを含むように構成されてもよい。ゲームは、完全にシューティングスタイルのゲームでもよいし、シューティングメカニクス以外の構成要素やメカニクスを有するゲームであってもよい。システム10は、ユーザが、タッチセンシティブ表面を介して片手の指を主として用いてゲームとインタラクトできるように構成され得る。ユーザは、自らに提示された仮想空間内でのアクションに対応する様々なコマンド入力をタッチセンシティブ表面に入力することができる。
本明細書では、シューティングゲームに関連付けてシステム10の使用を説明しているが、このことは、本開示の範囲を限定することを意図するものではない。むしろ、本明細書において説明されている原理やシステムは、仮想空間やそれ以外の片手によるコントロールが望ましい電子的アプリケーションに適用されるものである。一部の実施形態において、システム10は、無線クライアント装置12やゲームサーバ14等の構成要素を備える。
無線クライアント装置12は、ユーザが仮想空間やゲーム等のアプリケーションとインタラクトするためのインタフェースを提供するように構成されてもよい。無線クライアント装置12には、例えば、スマートフォンやタブレットコンピュータプラットフォーム等の携帯デバイスが含まれる。無線クライアント装置12は、ゲームサーバ14、他の無線クライアントといったクライアント・サーバ構成におけるデバイスと通信するように構成されてもよい。このような通信は、少なくとも部分的に、一又は複数の無線通信媒体を介して実現され得る。このように、通信は、インターネット等のネットワークやその他のネットワークを介して送受信される。無線クライアント装置12は、ユーザインタフェース16、一又は複数のプロセッサ18、電子ストレージ20等の構成要素を備える。
ユーザインタフェース16は、無線クライアント12とユーザとの間のインタフェースを提供するように構成されてもよい。ユーザは、当該インタフェース16を介してシステム10に情報を提供し、また、システムから情報を受け取ることができる。ユーザインタフェース16は、タッチセンシティブ表面22、ディスプレイ24等の構成要素を備えてもよい。
プロセッサ18は、一又は複数のコンピュータプログラムモジュールを実行するように構成されてもよい。一又は複数のコンピュータプログラムモジュールは、ゲームモジュール30、ジェスチャ認識モジュール32、制御モジュール34、及び/又はこれら以外のモジュールを少なくとも1つ備えることができる。
ゲームモジュール30は、仮想空間のインスタンスを実行するように構成されてもよい。ゲームモジュール30は、無線クライアント12においてユーザに提示される仮想空間の一又は複数のビューをアッセンブルする(assemble)ことによって、ユーザと仮想空間とのインタラクションを容易にするように構成されてもよい。ユーザは、タッチセンシティブ表面22にコントロール入力を提供することによって仮想空間とインタラクトすることができる。このコントロール入力は、仮想空間のビューに反映される。
ゲームモジュール30は、仮想空間のビューをアッセンブルするために仮想空間のインスタンスを実行し、また、ビューを定義するビュー情報を決定するためにその仮想空間のインスタンスを用いることができる。ゲームサーバ14は、仮想空間のインスタンスを実行してビュー情報を決定することができ、ゲームモジュール30は、仮想空間のビューをアッセンブルするために、このゲームサーバ14からビュー情報を取得することができる。ビュー情報には、仮想空間状態情報、マップ情報、物体(object)又はエンティティ(entity)位置情報、出現(manifestation)情報(物体やエンティティが仮想空間においてどのように出現するかを定義する)、及び/又はビューや仮想空間に関連するオブジェクト情報の少なくとも1つが含まれ得る。
仮想空間は、ユーザがクライアント(例えば、無線クライアント装置12)を介してアクセスすることができるシミュレートされた空間を含む。この空間は、ユーザに仮想空間のビューを提示する。シミュレートされた空間は、地形を有し、一又は複数のユーザによるリアルタイムのインタラクションを表すことができる。また、地形内に配置され、当該地形内での移動が可能な一又は複数のオブジェクトを含むことができる。一部のインスタンスにおいて、地形は2次元の地形であってもよい。他のインスタンスにおいて、地形は3次元の地形であってもよい。地形には、空間の次元、仮想空間「ネイティブ」の表面や物体の表面特性の少なくとも1つが含まれ得る。一部のインスタンスにおいて、地形は、当該空間の少なくとも相当の部分を通り抜ける表面(例えば地表面)を描写するものであってもよい。一部のインスタンスにおいて、地形は、空間内に配置された物体を有する体積(volume)(例えば、仮想空間内に配置された一又は複数の天体を有する無重力空間のシミュレーション)を描写するものであってもよい。
ゲームモジュール30によって実行される仮想空間のインスタンス内で、ユーザは仮想空間と又は互いにインタラクトする一又は複数のエンティティを制御することができる。エンティティには、キャラクター、オブジェクト、シミュレートされた物理現象(例えば、風、雨、地震等の現象)、仮想空間内の前記以外の要素の少なくとも1つが含まれる。ユーザキャラクタにはアバタが含まれる。本明細書で説明されるように、エンティティは、個々のユーザを表す仮想空間に存在する物体(又は物体群)を意味してもよい。エンティティは、そのエンティティが関連付けられているユーザによってコントロールされてもよい。ユーザコントロール要素(user controlled element)は、仮想空間を進み、仮想空間(例えば、仮想空間内の非ユーザキャラクタや仮想空間内の他のオブジェクト)とインタラクトできる。所定のユーザによってコントロールされ、所定のユーザに関連付けられるユーザコントロール要素は、当該所定のユーザによって生成され、カスタマイズされてもよい。ユーザは、(例えば、ユーザキャラクタやそれ以外のユーザコントロール要素及び/又はそれ以外のアイテムの操作によって)仮想空間内で使用可能な仮想グッズや仮想通貨の「在庫」を保有することができる。
一部の実施形態において、ユーザは、仮想空間内でやりとりされるコミュニケーションを介して互いにインタラクトすることができる。このようなコミュニケーションには、テキストチャット、インスタントメッセージ、プライベートメッセージ、音声通信等の通信が含まれる。コミュニケーションは、ユーザ各自のクライアント装置(例えばクライアント装置12)を用いて受信及び入力される。コミュニケーションは、ゲームサーバ14を通じて適切なユーザに対して送信され、また適切なユーザから送信される。
一部の実施形態において、ゲームモジュール30は、ユーザが仮想空間においてゲームに参加することができるように構成されてもよい。ゲームは、シューティングゲームメカニクスを備えてもよい。シューティングゲームメカニクスは、ユーザに提示されたビューのフィールドにおいて弾(projectile)を標的に向けることや、標的に向けて弾を発射することを含む。弾は、仮想空間の仮想的な武器(例えば、ユーザキャラクタやそれ以外のエンティティによって携行され使用される)から発射されてもよい。シューティングゲームメカニクスは、弾を標的に向けて発射することに加えて、仮想空間内でキャラクタ(例えばユーザキャラクタやそれ以外のエンティティ)の位置をコントロールすることを含んでもよい。一部の実施形態において、シューティングゲームメカニクスは、武器の仮想的な照準ツールを用いて標的に照準を合わせること、武器を変更すること、武器に弾丸を込め直すこと、及び/又はシューティングゲームメカニクスのその他の態様を含むことができる。一部の実施形態において、ゲームは、様々なタスク、レベル、クエスト、及び/又は、一又は複数のユーザが参加できる前記以外のチャレンジやアクティビティを含む。ゲームには、ユーザ(又はそのエンティティ)が敵同士になるアクティビティや、ユーザ(又はそのエンティティ)が味方同士になるアクティビティが含まれてもよい。ゲームには、ユーザ(又はそのエンティティ)がノンプレイヤキャラクタの敵になるアクティビティや、ユーザ(又はそのエンティティ)がノンプレイヤキャラクタのの味方になるアクティビティが含まれてもよい。ゲームにおいてユーザによってコントロールされるエンティティは、ポイント、仮想通貨等の仮想アイテム、経験値、レベル、及び/又は前記以外の経験や成功を示す区別(demarcation)を取得できる。ゲームは、仮想空間内で実行されてもよく、仮想空間外で実行されてもよい。ゲーム(及び/又はゲームが実行される仮想空間)は、同期型、非同期型、準同期型のいずれであってもよい。
ジェスチャ認識モジュール32は、タッチセンシティブ表面22でユーザによりなされる一連のジェスチャのうちの個々のジェスチャを特定するように構成されてもよい。ジェスチャ認識モジュール32は、タッチセンシティブ表面22からの出力信号に基づいて、一連のジェスチャのうちの個々のジェスチャを特定するように構成されてもよい。ジェスチャは、一又は複数のジェスチャパラメータによって定義されてもよい。一又は複数のジェスチャパラメータには、接触中の一又は複数の動きの方向、一又は複数の接触位置、一又は複数の動きの具体的な順序、一又は複数の位置の具体的な配置、複数の接触間の相対位置、複数の接触の相対的なタイミング、一又は複数の接触の保持時間、及び/又は前記以外のパラメータが含まれる。個々のジェスチャのジェスチャ定義は、一又は複数のジェスチャパラメータについてパラメータ値を特定するものである。ジェスチャ認識モジュール32は、複数の記憶されたジェスチャ定義(例えば、無線クライアント装置12に記憶されている)へアクセスすることができる。
ユーザジェスチャの特定は、タッチセンシティブ表面22からの出力信号によって伝達される情報の分析に基づいてなされる。この分析は、ジェスチャ定義と当該出力信号によって伝達される情報との比較を含む。ジェスチャ認識モジュール32は、ユーザとタッチセンシティブ表面22との現時点又は以前のインタラクションに関するジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、現在又は以前実行されたインタラクションがジェスチャ定義のうちの1つと一致するかを決定するために、ジェスチャ定義によって特定されるパラメータ値と比較されてもよい。ジェスチャ定義とユーザによって実行されたインタラクションが一致する場合には、ジェスチャ認識モジュール32は、ユーザのインタラクションを一致ジェスチャ定義(mached gesture definition)と特定する。
一連のジェスチャのうちの個々のジェスチャには、2本指タップジェスチャ、リバースピンチジェスチャ、ムーブジェスチャ、ルックジェスチャ(look gesture)、ターンジェスチャ(turn gesture)、武器交換ジェスチャ、リロードジェスチャやこれ以外のジェスチャが含まれる。
制御モジュール34は、ユーザからのコントロール入力を決定するように構成されてもよい。制御モジュール34は、特定されたジェスチャに基づいてコントロール入力を決定するように構成されてもよい。制御モジュール34は、ジェスチャ認識モジュールが一連のジェスチャのうちの個々のジェスチャを特定したことに応じて、当該特定されたジェスチャに対応するコントロール入力を決定するように構成されてもよい。ゲームモジュール30は、コントロール入力の受信によって、例えば仮想空間内やファーストパーソン・シューティングゲームでのアクションが引き起こされるように構成されてもよい。一実施形態において、コントロール入力は、一又は複数のアクションを発生させるように構成されてもよい。このアクションには、弾の狙いをつけ発射すること(例えば2本指タップジェスチャに応じて行われる)、照準ツールを用いて一又は複数の物体に照準を合わせること(例えばリバースピンチジェスチャに応じて行われる)、仮想空間内でユーザキャラクタを移動させること(例えばムーブジェスチャに応じて行われる)、特定の方向を見ること(例えばルックジェスチャに応じて行われる)、方向転換すること(例えばターンジェスチャに応じて行われる)、武器を交換すること(例えば武器交換ジェスチャに応じて行われる)、武器を再充填すること(例えばリロードジェスチャに応じて行われる)、及び/又は前記以外のアクションが含まれる。
タッチセンシティブ表面22は、ユーザの接触に応じて出力信号を生成するように構成されてもよい。出力信号は、タッチセンシティブ表面の一又は複数の接触位置に関連する情報を伝達するように構成されてもよい。一部の実施形態におけるタッチセンシティブ表面22は、ディスプレイ24を備えてもよい。ディスプレイ24は、視覚情報をユーザに提示するように構成されてもよい。視覚情報には、仮想空間の一又は複数のビューやそれ以外のビューが含まれる。一部の実施形態において、タッチセンシティブ表面22における一又は複数の接触位置は、ディスプレイ24上の一又は複数の位置に対応していてもよい。
一部の実施形態において、タッチセンシティブ表面22は、タッチスクリーンを備えてもよい。タッチスクリーンは、無線クライアント12にインタフェースを提供するように構成されてもよい。ユーザは、当該インタフェースを介して、無線クライアント12に情報を入力し、また、無線クライアント12から情報を受け取ることができる。タッチスクリーンの電子ディスプレイ機能を通じて、仮想空間のビュー、ファーストパーソン・シューティングゲームのビュー、グラフィックス、テキスト、及び/又は前記以外の視覚コンテンツがユーザに提供され得る。タッチスクリーンは、その電子ディスプレイの一部か全部に重ね合わされており、その表面に接触しているか又はその近くにある一又は複数の物体の位置を示す出力信号を生成するように構成された一又は複数のセンサを備えてもよい。タッチスクリーンのセンサには、抵抗センサ、容量性センサ、表面弾性波センサ、又はこれらの以外のセンサの少なくとも1つが含まれる。一部の実施形態において、タッチスクリーンには、ガラスパネル、導電例や、抵抗レイヤ、傷防止レイヤ、電荷蓄積レイヤ、トランスデューサ、反射体、又はこれら以外の構成要素の一又は複数を含む。
図2及び図3は、ユーザ100によってタッチセンシティブ表面22(図2及び図3ではタッチスクリーンとして図示されている)に対してなされた第1のユーザインタラクション200(図2)を示している。第1のユーザインタラクション200は、2本指タップジェスチャであってもよい。第1のユーザインタラクション200は、例えば、仮想空間の第1のビュー201において、武器304からの対応する弾300の発射302(図3)をもたらす。ユーザ100は、仮想空間において弾300を発射し、発射の狙いをつけるためにインタラクション200を用いることができる。図2に示すように、インタラクション200は、タッチセンシティブ表面22の2つの位置202、204を実質的に同時にタップすることを含む。位置202及び位置204におけるタップインタラクションは、その両方のタップインタラクションが所定の時間内でなされたときに実質的に同時と判断され得る。この所定の時間は、タッチセンシティブ表面22が位置202や位置204での最初の接触を受信したときに開始されてもよい。この所定の時間は、製造時に定められてもよく、無線クライアントのユーザインタフェース(例えば無線クライアント12のユーザインタフェース16)を利用してユーザによって設定されてもよく、これら以外の方法によって決定されてもよい。ジェスチャ認識モジュール(例えば図1に図示され本明細書で説明されるジェスチャ認識モジュール32)は、ユーザインタラクション200を、ユーザによってタッチセンシティブ表面22になされた2本指タップジェスチャと特定するように構成されてもよい。ジェスチャ認識モジュールは、インタラクション200のジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、2本指タップジェスチャの定義によって特定されるパラメータ値と比較され、インタラクション200が2本指タップジェスチャのジェスチャ定義と一致するか否かが決定される。2本指タップジェスチャ定義のパラメータ値とユーザによって実行されたインタラクション200のパラメータ値とが一致した場合には、ジェスチャ認識モジュールは、当該インタラクション200を2本指タップジェスチャと特定できる。インタラクションが2本指タップジェスチャか否かを決定するために用いられるジェスチャ定義には、接触位置202、204間の距離210を定義するパラメータ値やパラメータ閾値、最少接触時間や最大接触時間、接触位置202、204についての最大運動距離(maximum motion distance)、位置202における接触と位置204における接触との間の最大間隔、及び/又は前記以外のジェスチャパラメータが含まれる。
制御モジュール(例えば、図1に図示され、本明細書で説明されている制御モジュール34)は、ジェスチャ認識モジュールが2本指タップジェスチャ(図2)を特定した場合に、ゲームモジュール(例えば、図1に図示され、本明細書で説明されているゲームモジュール30)に、仮想空間における弾の発射302を実行させるように構成されてもよい。第1のコントロール入力は、弾が向けられる仮想空間内の標的位置306を特定することができる。一部の実施形態において、標的位置306は、ユーザ100が2本指タップジェスチャで触れたタッチセンシティブ表面の位置の片方又は両方に対応するタッチセンシティブ表面22上のコントロール位置308に対応するものであってもよい。一部の実施形態において(例えば、タッチセンシティブ表面22がタッチスクリーンを備える場合)、コントロール位置308は、タッチスクリーンにおいてターゲット位置306が表示される位置であってもよい。一部の実施形態において、コントロール位置308は、ユーザ100が2本指タップで触れたタッチセンシティブ表面22の位置202、204の中心点であってもよい。
図4ないし図7は、ユーザ100によってタッチセンシティブ表面22(図4ないし図7ではタッチスクリーンとして図示されている)に対してなされた第2のユーザインタラクション400(図4)を示している。第2のユーザインタラクション400は、リバースピンチジェスチャであってもよい。システム10は、タッチセンシティブ表面22における第2のユーザインタラクション400の入力に応じて、銃器の照準ツールによる照準合わせをシミュレートする一又は複数のビュー(図7に示されている照準ビュー700)を提示するように構成されてもよい。図4に示されているように、第2のユーザインタラクション400は、タッチセンシティブ表面22の2つの位置402、404に実質的に同時に接触し、タッチセンシティブ表面22との接触を維持したままその2つの接触位置402、404が離れるように移動406することを含んでもよい。図5は、新しい位置502及び位置504まで離れた位置402及び位置404を図示している。ジェスチャ認識モジュール(例えば図1に図示され本明細書で説明されるジェスチャ認識モジュール32)は、ユーザインタラクション400を、ユーザ100によってタッチセンシティブ表面22になされたリバースピンチジェスチャと特定するように構成されてもよい。ジェスチャ認識モジュールは、インタラクション400のジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、リバースピンチジェスチャの定義によって特定されるパラメータ値と比較され、インタラクション400がリバースピンチジェスチャのジェスチャ定義と一致するか否かが決定される。リバースピンチジェスチャ定義のパラメータ値とユーザ100によって実行されたインタラクション400のパラメータ値とが一致した場合には、ジェスチャ認識モジュールは、当該インタラクション400をリバースピンチジェスチャと特定できる。インタラクション400がリバースピンチジェスチャか否かを決定するために用いられるジェスチャ定義には、接触位置402、404間の最小の又は最大の距離511(図5)を少なくとも1つ定義するパラメータ値やパラメータ閾値、接触位置502、504間の最小の又は最大の距離514、接触位置402、404についての最小運動距離510、512、及び/又は前記以外の値が含まれる。
制御モジュール(例えば図1に図示され本明細書において説明される制御モジュール34)は、ジェスチャ認識モジュールがリバースピンチジェスチャを特定したことに応じて、ユーザ100からの第2のコントロール入力を決定することができる。第2のコントロール入力は、ゲームモジュール(例えば図に図示され本明細書で説明されるゲームモジュール30)に、仮想空間の第2のビュー401における照準ツールを用いた照準合わせをシミュレートさせるものであってもよい。照準ツールを用いた照準合わせのシミュレーションによって、ユーザ100に提示される仮想空間の第2のビュー401は、図6に示されるように、第1のズームレベル600から第2のズームレベル602に変化することができる。第2のズームレベル602は、第1のズームレベル600よりも拡大されている。図7に示されるように、一部の実施形態において、第2のズームレベル602は、銃器の照準器を用いて照準ビュー700のズームレベルをシミュレートするように構成され得る。一部の実施形態において、第2のコントロール入力により、第2のビュー401の一部(例えば、シミュレートされた銃器の照準ビューを通して見られる部分)は第2のズームレベルに拡大されているが、第2のビュー401の残りの部分は第1のズームレベル600にとどまる。
一部の実施形態において、ゲームモジュールは、当該ゲームモジュールに第2のビュー401において照準ツールによる照準合わせをシミュレートさせる第2のコントロール入力に応じて、仮想空間やゲームプレイ中にユーザが通常利用可能なゲーム機能の少なくとも一部を減少させるように構成されてもよい。例えば、ユーザは、ファーストパーソン・シューティングゲームをプレイしているときに、ゲームを第1のズームレベル600で見ているときに武器を変更することができるが、ゲームをシミュレートされた照準ビュー700を通じて第2のズームレベル602で見ているときには武器を交換できない。
一部の実施形態において、システム10は、タッチセンシティブ表面22における第3のユーザインタラクションに応じて照準ビュー700を終了させるように構成されてもよい。第3のユーザインタラクションは、ピンチジェスチャであってもよい。第3のユーザインタラクションは、タッチセンシティブ表面22の2つの位置に実質的に同時に接触し、その後、タッチセンシティブ表面22に触れたまま2つの接触位置を近づけるように動かす(例えば、図5及び図4に示された動きと実質的に逆向き)ことを含んでもよい。ジェスチャ認識モジュールは、当該第3のユーザインタラクションを、タッチセンシティブ表面22でのユーザ100によるピンチジェスチャとして特定することができるように構成され得る。ジェスチャ認識モジュールは、第3のインタラクションのジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、ピンチジェスチャの定義によって特定されるパラメータ値と比較され、第3のインタラクションがピンチジェスチャのジェスチャ定義と一致するか否かが決定される。ピンチジェスチャ定義のパラメータ値とユーザによって実行された第3のインタラクションのパラメータ値とが一致した場合には、ジェスチャ認識モジュールは、当該第3のインタラクション400をピンチジェスチャと特定できる。制御モジュール(例えば図1に図示され本明細書において説明される制御モジュール34)は、ジェスチャ認識モジュールが第3のユーザインタラクションをピンチジェスチャと特定したことに応じて、ユーザ100からの第3のコントロール入力を決定することができる。第3のコントロール入力によって、ゲームモジュールは、照準ビュー700を終了させることができる。
図8ないし図10は、ユーザによってタッチセンシティブ表面22(図8ないし図10ではタッチスクリーンとして図示されている)になされる第4のユーザインタラクション800(図8)と、これに対応する、仮想空間の第3のビュー801(図8)から仮想空間の第4のビュー1001(図10)への変化を示す。一部の実施形態において、ゲームモジュール(例えば図に図示され本明細書で説明されるゲームモジュール30)は、ユーザ100に提示される仮想空間の一又は複数のビューが第3のビュー801(図8)及び第4のビュー1001(図10)を含むように構成される。図8ないし図10に示されているように、第3のビュー801は、仮想空間における現在位置に対応し、第4のビュー1001は、仮想空間における移動位置804(図8及び図9)に対応する。
第4のインタラクション800は、ムーブジェスチャであってもよい。第4のインタラクション800は、仮想空間内の移動位置804に対応するタッチセンシティブ表面22の位置に触れることを含む。ジェスチャ認識モジュール(例えば図1に図示され本明細書で説明されるジェスチャ認識モジュール32)は、ユーザインタラクション800を、ユーザ100によってタッチセンシティブ表面22になされたムーブジェスチャと特定するように構成されてもよい。ジェスチャ認識モジュールは、インタラクション800のジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、ムーブジェスチャの定義によって特定されるパラメータ値と比較され、インタラクション800がムーブジェスチャのジェスチャ定義と一致するか否かが決定される。ムーブジェスチャ定義のパラメータ値とユーザによって実行されたインタラクション800のパラメータ値とが一致した場合には、ジェスチャ認識モジュールは、当該インタラクション800をムーブジェスチャと特定できる。インタラクション800がムーブジェスチャか否かを決定するために用いられるジェスチャ定義には、仮想空間における移動位置804を定義するタッチセンシティブ表面22における最小の又は最大の領域820(図9)を少なくとも1つ定義するパラメータ値やパラメータ閾値、タッチセンシティブ表面22の位置1502においてユーザによってなされる接触の最小又は最大の接触時間、及び/又は前記以外のジェスチャパラメータが含まれる。
制御モジュール(例えば図1に図示され本明細書において説明される制御モジュール34)は、ジェスチャ認識モジュールがムーブジェスチャを特定したことに応じて、ゲームモジュールに、ユーザ100に提示されるビューを第3のビュー801(図8及び図9)から第4のビュー(図10)に変更させるように構成されてもよい。一部の実施形態において(例えば、タッチセンシティブ表面22がタッチスクリーンを備える場合)、移動位置804は、タッチスクリーン上のユーザ100がムーブジェスチャ800で接触する位置であってもよい。一部の実施形態において、第3のビュー801から第4のビュー1001への変更は、仮想空間やファーストパーソン・シューティングゲームにおけるシミュレートされた移動を含んでもよい。一部の実施形態において、仮想空間におけるシミュレートされた移動は、ユーザ100に対して表示される仮想空間のインスタンスにおけるオブジェクトの周囲の経路を自動的に(例えば、シミュレートされた動きの間に、ユーザがタッチセンシティブ表面22に追加的な接触をする必要なく)発見することを含んでもよい。
図11及び図12は、仮想空間の第5のビュー1101においてユーザ100によってタッチセンシティブ表面22(図11及び図12ではタッチスクリーンとして図示されている)に対してなされた第5のユーザインタラクション1100(図11)を示す。第5のユーザインタラクション1100は、ルックジェスチャであってもよい。ユーザは、仮想空間において、一又は複数の方向を「見る(ルックする)」ことができる。一部の実施形態において、ルックすることには、ゲームモジュール(例えば図に図示され本明細書で説明されるゲームモジュール30)が、仮想空間のビューを、第5のビュー1101から、ユーザ100のインタラクション1100によって指示された方向を表す第6のビュー1103(図12)に変更することを含む。
図11及び図12に示されるように、インタラクション1100には、タッチセンシティブ表面22上での方向性スワイプ(directional swipe)1102が含まれる。方向性スワイプ1102は、単一の位置1104でタッチセンシティブ表面22に接触し、続いて、タッチセンシティブ表面22に触れたまま、その接触位置1104を、第1の方向1106、第2の方向1108、第3の方向1110、第4の方向1112、及びこれ以外の方向のうちの少なくとも1つの方向に動かすことを含んでもよい。ジェスチャ認識モジュール(例えば図1に図示され本明細書で説明されるジェスチャ認識モジュール32)は、ユーザインタラクション1100を、ユーザ100によってタッチセンシティブ表面22になされたルックジェスチャと特定するように構成されてもよい。ジェスチャ認識モジュールは、インタラクション1100のジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、ルックジェスチャの定義によって特定されるパラメータ値と比較され、インタラクション1100がルックジェスチャのジェスチャ定義と一致するか否かが決定される。ルックジェスチャ定義のパラメータ値とユーザ100によって実行されたインタラクション1100のパラメータ値とが一致した場合には、ジェスチャ認識モジュールは、当該インタラクション1100をルックジェスチャと特定できる。インタラクション1100がルックジェスチャか否かを決定するために用いられるジェスチャ定義には、仮想空間における移動位置804を定義するタッチセンシティブ表面22における少なくとも1つの2次元方向を定義するパラメータ値やパラメータ閾値、タッチセンシティブ表面22においてユーザによってなされる方向性スワイプの最小距離1210、及び/又は前記以外のジェスチャパラメータが含まれる。
コントロールモジュール(例えば制御モジュール34)は、ジェスチャ認識モジュールがルックジェスチャ(図11)を特定した場合に、ユーザ100からの第5のコントロール入力を決定できるように構成されてもよい。第5のコントロール入力により、ゲームモジュールは、第5のビュー1101からユーザ100のインタラクション1100によって指示される方向を表す第6のビュー1103に変更する。
一部の実施形態において、制御モジュールは、第1の方向1106の方向性スワイプ1102に応じて、第5のコントロール入力を決定することができる。この第5のコントロール入力は、ゲームモジュールをして、第5のビュー1101を仮想空間で見下ろすことを表す第6のビュー1103に変更させるためのものである。一部の実施形態において、制御モジュールは、第2の方向1108の方向性スワイプ1102に応じて、ゲームモジュールをして、第5のビュー1101を仮想空間で見上げることを表す第6のビュー1103に変更させるための第5のコントロール入力を決定することができる。一部の実施形態において、制御モジュールは、第3の方向1110の方向性スワイプ1102に応じて、ゲームモジュールをして、第5のビュー1101を仮想空間で左を見ることを表す第6のビュー1103に変更させるための第5のコントロール入力を決定することができる。一部の実施形態において、制御モジュールは、第4の方向1112の方向性スワイプ1102に応じて、ゲームモジュールをして、第5のビュー1101を、仮想空間で右を見ることを表す第6のビュー1103に変更させるための第5のコントロール入力を決定することができる。本明細書で説明された4つの方向は限定的なものではない。システム10は、ユーザが仮想空間において任意の方向を「見る(ルックする)」ために前記以外の少なくとも1つの方向における類似のスワイプジェスチャを用いることができるように構成されてもよい。
図13は、仮想空間の第7のビュー1301におけるタッチセンシティブ表面22(図13ではタッチスクリーンとして図示されている)での第6のユーザインタラクション1300を示す。第6のユーザインタラクション1300は、ターンジェスチャであってもよい。ユーザインタラクション1300は、タッチセンシティブ表面22の単一の位置1302において、ターンジェスチャ領域1306内でタッチセンシティブ表面22の端部1304に向かって接触することを含む。一部の実施形態において、ユーザインタラクション1300は、ターンジェスチャ領域の中心や中心付近に接触することを含んでもよい。ジェスチャ認識モジュール(例えばジェスチャ認識モジュール32)は、ユーザインタラクション1300を、ユーザ100によってタッチセンシティブ表面22になされたターンジェスチャと特定するように構成されてもよい。ジェスチャ認識モジュールは、インタラクション1300のジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、ターンジェスチャの定義によって特定されるパラメータ値と比較され、インタラクション1300がターンジェスチャのジェスチャ定義と一致するか否かが決定される。ターンジェスチャ定義のパラメータ値とユーザ100によって実行されたインタラクション1300のパラメータ値とが一致した場合には、ジェスチャ認識モジュールは、当該インタラクション1300をターンジェスチャと特定できる。インタラクション1300がターンジェスチャか否かを決定するために用いられるジェスチャ定義には、ターンジェスチャ領域1306を定義するタッチセンシティブ表面22における最小の又は最大の領域820の少なくとも1つを定義するパラメータ値やパラメータ閾値、接触時間パラメータ、及び/又は前記以外のパラメータが含まれる。
コントロールモジュール(例えば図1の制御モジュール34)は、ジェスチャ認識モジュールがターンジェスチャを特定した場合に、ユーザ100からの第6のコントロール入力を決定できるように構成されてもよい。第6のコントロール入力により、ゲームモジュール(例えばゲームモジュール30)は、第7のビュー1301からユーザ100の実質的に背後の方向(例えば第7のビューから180度回転した方向)を表す第8のビューに変更する。一部の実施形態におけるシステム10は、例えば、ターンジェスチャ領域1306を囲む線や、ユーザ100に表示される第7のビューの他の領域に対してターンジェスチャ領域を示す線以外の視認可能なマーキングによってユーザにターンジェスチャ領域1306を可視化するように構成されてもよい。一部の実施形態におけるシステム10は、ターンジェスチャ領域をユーザ100に見えなくするように構成されてもよい。
図14は、仮想空間の第9のビュー1401におけるタッチセンシティブ表面22(図14ではタッチスクリーンとして図示されている)での第7のユーザインタラクション1400を示す。第7のユーザインタラクション1400は、武器交換ジェスチャであってもよい。ゲームモジュール(例えばゲームモジュール30)は、第9のビュー1401においてユーザ100に武器304を表示するように構成されてもよい。第7のインタラクション1400は、仮想空間内で武器304が表示される位置に対応するタッチセンシティブ表面22の単一の位置1402に触れることを含む。一部の実施形態において、ユーザインタラクション1400は、タッチセンシティブ表面22の武器304に対応する位置に接触すること、及び、タッチセンシティブ表面22において位置1402をタッチセンシティブ表面22の端部1304に向かう第2の方向1108にスワイプ1102することを含んでもよい。ジェスチャ認識モジュール(例えばジェスチャ認識モジュール32)は、ユーザインタラクション1400を、ユーザ100によってタッチセンシティブ表面22になされた武器交換ジェスチャと特定するように構成されてもよい。ジェスチャ認識モジュールは、インタラクション1400のジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、武器交換ジェスチャの定義によって特定されるパラメータ値と比較され、インタラクション1400が武器交換ジェスチャのジェスチャ定義と一致するか否かが決定される。武器交換ジェスチャ定義のパラメータ値とユーザ100によって実行されたインタラクション1400のパラメータ値とが一致した場合には、ジェスチャ認識モジュールは、当該インタラクション1400を武器交換ジェスチャと特定できる。インタラクション1400が武器交換ジェスチャか否かを決定するために用いられるジェスチャ定義には、武器304が表示される位置1402を定義するタッチセンシティブ表面22における最小の又は最大の領域1410を少なくとも1つ定義するパラメータ値やパラメータ閾値、タッチセンシティブ表面22における方向、タッチセンシティブ表面22においてユーザが行うスワイプの最小距離1412、及び/又は前記以外のジェスチャパラメータが含まれる。
制御モジュール(例えば制御モジュール34)は、ジェスチャ認識モジュールが武器交換ジェスチャを特定したことに応じて、ゲームモジュール(例えばゲームモジュール30)をして武器304を他の武器に交換させる、ユーザからの第7のコントロール入力を決定するように構成されてもよい。本明細書で説明したインタラクション1400に関連するスワイプの方向や端部の説明は限定的なものではない。インタラクション1400には、タッチセンシティブ表面22の任意の端部に向かう方向に武器304上でスワイプすることを含む。
図15及び図16は、仮想空間の第10のビュー1501においてユーザ100によってタッチセンシティブ表面22(図15及び図16ではタッチスクリーンとして図示されている)に対してなされた第8のユーザインタラクション1500(図15)を示す。第8のユーザインタラクション1500は、リロードジェスチャであってもよい。ゲームモジュール(例えばゲームモジュール30)は、ビュー1501においてユーザ100に武器304を表示するように構成されてもよい。ユーザインタラクション1500は、仮想空間内で武器304が表示される位置に対応するタッチセンシティブ表面22の位置22におけるシングルタップを含む。ジェスチャ認識モジュール(例えばジェスチャ認識モジュール32)は、ユーザインタラクション1500を、ユーザ100によってタッチセンシティブ表面22になされたリロードジェスチャと特定するように構成されてもよい。ジェスチャ認識モジュールは、インタラクション1500のジェスチャパラメータのパラメータ値を決定するように構成されてもよい。決定されたパラメータ値は、リロードジェスチャの定義によって特定されるパラメータ値と比較され、インタラクション1500がリロードジェスチャのジェスチャ定義と一致するか否かが決定される。リロードジェスチャ定義のパラメータ値とユーザ100によって実行されたインタラクション1500のパラメータ値とが一致した場合には、ジェスチャ認識モジュールは、当該インタラクション1500をリロードジェスチャと特定できる。インタラクション1500がリロードジェスチャか否かを決定するために用いられるジェスチャ定義には、仮想空間において武器が表示される位置1502を定義するタッチセンシティブ表面22における最小の又は最大の領域1610(図16)を少なくとも1つ定義するパラメータ値やパラメータ閾値、タッチセンシティブ表面22の位置1502においてユーザによってなされる接触の最小又は最大の接触時間、及び/又は前記以外のジェスチャパラメータが含まれる。
制御モジュール(例えば制御モジュール34)は、ジェスチャ認識モジュールがリロードジェスチャを特定したことに応じて、ゲームモジュールをして武器304を再充填(リロード)させる、ユーザからの第8のコントロール入力を決定するように構成されてもよい。
図1に戻って、一部の実施形態においては、ユーザインタフェース16は、システム10とユーザとの間のインタフェースを提供するように構成されてもよい。ユーザは、当該インタフェースを介してシステム10に情報を提供し、また、システムから情報を受け取ることができる。これにより、追加的なデータ、キュー、結果、命令、及びこれら以外の任意の通信可能なアイテム(「情報」と総称される)が、ユーザとシステム10との間で伝達される。ユーザインタフェース16に好適に含められる追加的なインタフェース装置の例には、タッチセンシティブ表面22,ディスプレイ24、キーパッド、ボタン、スイッチ、キーボード、つまみ、レバー、スピーカー、マイク、インジケータライト、アラーム、プリンタ、及び/又はこれら以外のインタフェース装置が含まれる。一実施形態において、ユーザインタフェース16は、複数の別個のインタフェースを含んでもよい。一実施形態において、ユーザインタフェース16は、無線クライアント12と一体に設けられたインタフェースを少なくとも1つ備える。
上記以外のコミュニケーション技術も、有線か無線かを問わず、本開示におけるユーザインタフェース16として考慮されている。例えば、本開示においては、ユーザインタフェースの少なくとも一部分が、無線クライアント12に設けられるリムーバブルストレージインタフェースと一体に設けられてもよい。この例においては、情報は、ユーザが無線クライアント12の実装をカスタマイズできるようにするリムーバブルストレージ(例えば、スマートカード、フラッシュドライブ、リムーバブルディスク等)から無線クライアント12にロードされてもよい。他の例示的な入力装置及びユーザインタフェース16の少なくとも一部として無線クライアント12とともに用いられる技術には、RS−232ポート、RFリンク、IRリンク、モデム(電話、ケーブル、又はこれら以外のもの)が含まれるがこれらには限られない。要するに、本開示においては、情報をクライアントコンピューティングプラットフォーム16に伝達するための任意の技術がユーザインタフェース16として用いられ得る。
電子ストレージ20には、情報を電子的に記憶する電子ストレージメディアが含まれる。電子ストレージ20の電子ストレージメディアには、無線クライアント12と一体に(すなわち、実質的に着脱不能に)設けられたシステムストレージ、及び、例えばポート(USBポート、ファイヤーワイヤーポート等)やドライブ(ディスクドライブ等)を介して無線クライアント12と着脱可能に接続されたリムーバブルストレージの少なくとも一方が含まれる。電子ストレージ20には、光学的に読み取り可能な記憶メディア(光学ディスク等)、磁気的に読み取り可能な記憶メディア(磁気テープ、磁気ハードドライブ、フロッピードライブ等)、電荷型ストレージメディア(EEPROM、RAM等)、ソリッドステート・ストレージメディア(フラッシュドライブ等)、及び/又は前記以外の電子的に読み取り可能なストレージメディアが含まれる。電子ストレージ20には、一又は複数の仮想ストレージリソース(例えば、クラウドストレージ、仮想プライベートネットワーク、及び/又はこれら以外の仮想ストレージリソース)が含まれる。電子ストレージ20は、ソフトウェアアルゴリズム、プロセッサ18によって決定された情報、ゲームサーバ14から受信した情報、及び/又は無線クライアント12が本明細書で説明したように機能できるようにする、前記以外の情報を記憶することができる。非限定的な例として、ジェスチャ認識モジュールによって認識される一連のジェスチャの定義は、電子ストレージ20に記憶されてもよい。
ゲームサーバ14は、仮想空間、ファーストパーソン・シューティングゲーム、及び/又はこれら以外のアプリケーションをネットワーク化された状態でホストするように構成されてもよい。ゲームサーバ14は、ユーザインタフェース16、一又は複数のプロセッサ40、電子ストレージ42等の構成要素を備える。プロセッサ40は、ゲームサーバモジュール44を実行するように構成されてもよい。ゲームサーバモジュール44は、当該無線クライアント装置のユーザに対してオンラインのマルチプレイヤ経験を提供するために仮想空間及び/又はゲーム情報を、無線クライアント装置12及び/又は一又は複数のそれ以外の無線クライアント装置において実行されるゲームモジュール(例えばゲームモジュール30)に伝達するように構成されてもよい。これには、無線クライアント装置のユーザが共有される仮想空間経験に参加しやすくなるように、仮想空間のインスタンスを実行して、ビュー情報、仮想空間状態情報、及び/又は前記以外の仮想宇空間情報を含む仮想空間情報を、無線クライアント装置12及び/又はそれ以外の一又は複数の無線クライアント装置に提供することが含まれる。ゲームサーバモジュール44は、ユーザ同士のコミュニケーションやゲームプレイを行い易くするように構成されてもよい。
プロセッサ40は、プロセッサ18(図1に示されており既に説明も行った)に関して説明した方法の一又は複数の方法で実装される。これには、プロセッサ40が複数の処理ユニットを備える実装態様や、プロセッサ40がクラウド内で仮想化される実装態様が含まれる。電子ストレージ42は、電子ストレージ20(図1に示されており既に説明も行った)に関して説明した方法の一又は複数の方法で実装される。
図17は、仮想空間とのインタラクションを容易にする方法を示す。以下で説明する方法1700の工程は、説明のためのものに過ぎない。一部の実施形態において、方法1700は、説明されていない一又は複数の追加的な工程を備えて実現されてもよく、説明する工程の一又は複数を省略して実現されてもよい。また、図17に示されて本明細書で説明される方法の工程の順序は限定的なものではない。
一部の実施形態において、方法1700は、一又は複数の処理装置(例えば、デジタルプロセッサ、アナログプロセッサ、情報処理用のデジタル回路、情報処理用のアナログ回路、ステートマシン、及び/又は電子的に情報を処理する前記以外のメカニズム)において実行され得る。この一又は複数の処理装置には、電子ストレージメディアに電子的に格納された命令に応じて、方法1700の工程の一部又は全部を実行する一又は複数の装置を備えてもよい。この一又は複数の処理装置には、方法1700の工程の一又は複数を実行するために設計されたハードウェア、ファームウェア、及び/又はソフトウェアで構成された一又は複数の装置が含まれる。一部の実施形態において、以下で説明する工程の少なくとも一部は、サーバによって実行されてもよい。本明細書で説明されるシステムは、ネットワークを介してクライアントサーバ関係において、当該サーバと通信する。
工程1702において、仮想空間のビューが、ユーザへの提示のためにアッセンブルされる。一部の実施形態において、工程1702は、ゲームモジュール30(図1に示されており本明細書において説明もされている)と類似又は同一のゲームモジュールによって実行されてもよい。
工程1704において、タッチセンシティブ表面へのコントロール入力が受信される。タッチセンシティブ表面は、ユーザの接触に応じて出力信号を生成するように構成されてもよい。出力信号は、タッチセンシティブ表面における少なくとも1つの接触位置に関連する情報を伝達するように構成されてもよい。コントロール入力は、仮想空間のビューに反映されてもよい。一部の実施形態において、工程1704は、タッチセンシティブ表面22(図1に示されており本明細書において説明もされている)と類似又は同一のタッチセンシティブ表面によって実行されてもよい。
工程1706において、一連のジェスチャのうちの個々のジェスチャが特定される。この一連のジェスチャのうちの個々のジェスチャは、タッチセンシティブ表面においてユーザによってなされてもよい。この一連のジェスチャのうちの個々のジェスチャは、タッチセンシティブ表面からの出力信号に基づいて特定されてもよい。この一連のジェスチャのうちの個々のジェスチャには、2本指タップジェスチャが含まれる。2本指タップジェスチャは、タッチセンシティブ表面の2つの位置を実質的に同時にタップすることを含む。一部の実施形態において、工程1706は、ジェスチャ認識モジュール32(図1に示されており本明細書において説明もされている)と類似又は同一のジェスチャ認識モジュールによって実行されてもよい。
工程1708においては、ユーザからのコントロール入力が決定される。ユーザからのコントール入力の決定は、特定されたジェスチャに基づくものであってもよい。2本指タップジェスチャの特定に応じて、ユーザからの第1のコントロール入力が決定され得る。一部の実施形態において、工程1708は、制御モジュール34(図1に示されており本明細書において説明もされている)と類似又は同一の制御ジュールによって実行されてもよい。
工程1710においては、仮想空間内で弾が発射される。第1のコントロール入力によって、仮想空間内で弾が発射されてもよい。2本指タップジェスチャの特定に応じて、弾が向けられる仮想空間内の標的位置が決定される。この標的位置は、ユーザが2本指タップジェスチャで触れたタッチセンシティブ表面の位置の片方又は両方に対応するタッチセンシティブ表面上のコントロール位置に対応するものであってもよい。一部の実施形態において、工程1710は、ゲームモジュール30(図1に示されており本明細書において説明もされている)と類似又は同一のゲームモジュールによって実行されてもよい。
以上、現時点で最も実用的であり好ましいと考えられる態様に基づいて、本開示のシステムや方法を例示のために詳細に説明したが、このような詳細な説明は例示のみを目的としたものである。本開示は開示された実施形態に限定されるものではなく、むしろ添付された特許請求の範囲の趣旨及び範囲に入る変形や均等な配置も本発明に含められることが意図されている。例えば、本開示においては、あらゆる実施形態の一又は複数の特徴を他の実施形態の一又は複数の特徴と可能な限り結合することができる。

Claims (15)

  1. 仮想空間とのインタラクションを容易にするシステムであって、
    ユーザからの接触に応じて出力信号を生成するように構成されたタッチセンシティブ表面と、
    コンピュータプログラムモジュールを実行するように構成された一又は複数のプロセッサと、を備え、
    前記出力信号は、前記タッチセンシティブ表面への一又は複数の接触位置に関連する情報を伝達するように構成され、
    前記コンピュータプログラムモジュールは、
    前記ユーザに提示するために前記仮想空間のビューをアッセンブルすることにより、前記仮想空間に反映されるコントロール入力を提供することにより前記仮想空間とインタラクトする前記ユーザによる、当該仮想空間とのインタラクションを容易にするように構成されたゲームモジュールと、
    前記タッチセンシティブ表面からの前記出力信号に基づいて、前記タッチセンシティブ表面において前記ユーザによってなされる一連のジェスチャのうちの個々のジェスチャを特定するように構成されたジェスチャ認識モジュールと、
    前記特定されたジェスチャに基づいて、前記ユーザからのコントロール入力を決定するように構成された制御モジュールと、を備え、
    前記一連のジェスチャのうちの個々のジェスチャは2本指タップジェスチャを含み、前記2本指タップジェスチャはタッチセンシティブ表面の2つの位置を実質的に同時にタップすることを含むものであり、
    前記制御モジュールは、前記ジェスチャ認識モジュールが前記2本指タップジェスチャを特定したことに応じて、前記ユーザからの第1のコントロール入力を決定するように構成され、当該第1のコントロール入力は、前記仮想空間で弾を発射させるものである、
    ことを特徴とするシステム。
  2. 前記制御モジュールは、前記ジェスチャ認識モジュールが前記2本指タップジェスチャを特定したことに応じて、前記仮想空間内において前記弾が向かう標的位置を前記第1のコントロール入力によって特定するように構成され、前記標的位置は、前記ユーザが前記2本指タップジェスチャで触れた前記タッチセンシティブ表面の位置の片方又は両方に対応する前記タッチセンシティブ表面上のコントロール位置に対応するものであることを特徴とする請求項1に記載のシステム。
  3. 前記タッチセンシティブ表面は、前記仮想空間の前記ビューを提示するように構成されたタッチスクリーンであり、前記コントロール位置は、前記タッチスクリーンにおいて前記標的位置が表示されている位置であることを特徴とする請求項2に記載のシステム。
  4. 前記コントロール位置は、前記ユーザが前記2本指タップで触れた前記タッチセンシティブ表面の前記2つの位置の中心点であることを特徴とする請求項2に記載のシステム。
  5. 前記ジェスチャ認識モジュールは、前記一連のジェスチャのうちの個々のジェスチャがリバースピンチジェスチャを含むように構成され、前記リバースピンチジェスチャは、前記タッチセンシティブ表面の2つの位置に実質的に同時に触れ、その後、前記タッチセンシティブ表面に触れたまま前記2つの接触位置を離すように動かすことを含み、
    前記制御モジュールは、前記ジェスチャ認識モジュールが前記リバースピンチジェスチャを特定したことに応じて、前記ユーザからの第2のコントロール入力を決定するように構成され、当該第2のコントロール入力は、前記仮想空間の前記ビューのズームレベルを第1のズームレベルから第2のズームレベルに変更させるものであり、前記第2のズームレベルは前記第1のズームレベルよりも拡大されたものであることを特徴とする請求項1に記載のシステム。
  6. 前記第2のズームレベルは、銃器の照準ツールによる照準ビューのズームレベルをシミュレートするように構成されたことを特徴とする請求項5に記載のシステム。
  7. 前記ゲームモジュールは、前記ユーザに提示される前記仮想空間の前記ビューが第1のビュー及び第2のビューを含むように構成され、前記第1のビューは、前記仮想空間内での現在位置に対応し、前記第2のビューは、前記仮想空間内での移動位置に対応することを特徴とする請求項1に記載のシステム。
  8. 前記ジェスチャ認識モジュールは、前記一連のジェスチャのうちの個々のジェスチャがムーブジェスチャを含むように構成され、前記ムーブジェスチャは、前記タッチセンシティブ表面の前記仮想空間内の前記移動位置に対応する位置に触れることを含み、
    前記制御モジュールは、前記ジェスチャ認識モジュールが前記ムーブジェスチャを特定したことに応じて、第3のコントロール入力を決定するように構成され、当該第3のコントロール入力は、前記ゲームモジュールに、前記ユーザに提示される前記ビューを前記第1のビューから前記第2のビューに変更させるものであることを特徴とする請求項7に記載のシステム。
  9. 前記タッチセンシティブ表面は前記仮想空間の前記第1のビュー及び前記第2のビューを提示するように構成されたタッチスクリーンであり、前記移動地点は、前記ユーザが前記ムーブジェスチャで触れる前記タッチスクリーン上の位置であることを特徴とする請求項8に記載のシステム。
  10. 前記第1のビューを前記第2のビューに変更することが、前記仮想空間内でのシミュレートされた移動を含むことを特徴とする請求項8に記載のシステム。
  11. 前記ゲームモジュールは、前記仮想空間に前記ユーザに提示するためのファーストパーソン・シューティングゲームのインスタンスを出現させることにより前記仮想空間とのインタラクションを容易にし、前記ユーザは、前記タッチセンシティブ表面を介して前記コントロール入力を提供することにより、前記ファーストパーソン・シューティングゲームとインタラクトすることを特徴とする請求項1に記載のシステム。
  12. 仮想空間とのインタラクションを容易にする方法であって、
    ユーザに提示するために前記仮想空間のビューをアッセンブルする工程と、
    前記ユーザによる接触に応じて出力信号を生成するように構成されたタッチセンシティブ表面への前記ユーザからのコントロール入力を受信する工程と、
    前記タッチセンシティブ表面からの前記出力信号に基づいて、前記タッチセンシティブ表面において前記ユーザによってなされた一連のジェスチャのうちの個々のジェスチャを特定する工程と、
    前記特定されたジェスチャに基づいて、前記ユーザからの前記コントール入力を決定する工程と、を備え、
    前記出力信号は、前記タッチセンシティブ表面への一又は複数の接触位置に関連する情報を伝達するように構成され、
    前記コントロール入力は、前記仮想空間の前記ビューに反映されるものであり、
    前記一連のジェスチャのうちの個々のジェスチャは2本指タップジェスチャを含み、前記2本指タップジェスチャはタッチセンシティブ表面の2つの位置を実質的に同時にタップすることを含み
    前記2本指タップジェスチャの特定に応じて、前記ユーザからの前記コントロール入力が決定され、前記コントロール入力によって前記仮想空間において弾が発射されることを特徴とする方法。
  13. 前記2本指タップジェスチャの特定に応じて、前記弾が向けられる前記仮想空間内の標的位置を特定する工程をさらに備え、前記標的位置は、前記ユーザが前記2本指タップジェスチャで触れた前記タッチセンシティブ表面の位置の片方又は両方に対応する前記タッチセンシティブ表面上のコントロール位置に対応するものであることを特徴とする請求項12に記載の方法。
  14. 前記タッチセンシティブ表面は前記仮想空間の前記ビューを提示するように構成されたタッチスクリーンであり、前記コントロール位置は、前記タッチスクリーンにおいて前記標的位置が表示されている位置であることを特徴とする請求項13に記載の方法。
  15. 前記コントロール位置は、前記ユーザが前記2本指タップで触れた前記タッチセンシティブ表面の前記2つの位置の中心点であることを特徴とする請求項13に記載の方法。
JP2014011500A 2012-08-31 2014-01-24 タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法 Pending JP2014139789A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/600,806 2012-08-31
US13/600,806 US8777743B2 (en) 2012-08-31 2012-08-31 System and method for facilitating interaction with a virtual space via a touch sensitive surface

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013175462A Division JP5563709B2 (ja) 2012-08-31 2013-08-27 タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法

Publications (1)

Publication Number Publication Date
JP2014139789A true JP2014139789A (ja) 2014-07-31

Family

ID=48792986

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013175462A Active JP5563709B2 (ja) 2012-08-31 2013-08-27 タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法
JP2014011500A Pending JP2014139789A (ja) 2012-08-31 2014-01-24 タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013175462A Active JP5563709B2 (ja) 2012-08-31 2013-08-27 タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法

Country Status (5)

Country Link
US (2) US8777743B2 (ja)
EP (1) EP2711059B1 (ja)
JP (2) JP5563709B2 (ja)
KR (1) KR20140029158A (ja)
CN (1) CN103677620A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5723050B1 (ja) * 2014-08-29 2015-05-27 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP5789067B1 (ja) * 2015-03-26 2015-10-07 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP5856345B1 (ja) * 2015-07-30 2016-02-09 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP2016171874A (ja) * 2015-03-16 2016-09-29 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP6309143B1 (ja) * 2017-05-30 2018-04-11 株式会社 ディー・エヌ・エー ゲームプログラム、情報処理装置、及び、情報処理方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5909023B2 (ja) * 2013-04-05 2016-04-26 グリー株式会社 オンラインシューティングゲームの提供装置及びその方法
DE102014019199A1 (de) 2014-12-19 2016-06-23 Diehl Bgt Defence Gmbh & Co. Kg Maschinenwaffe
FR3036818B1 (fr) * 2015-06-01 2017-06-09 Sagem Defense Securite Systeme de visee comportant un ecran recouvert d'une interface tactile et procede de visee correspondant
CN105498202A (zh) * 2015-11-26 2016-04-20 珠海网易达电子科技发展有限公司 全触屏划屏射击操作方式
CN105426052A (zh) * 2015-12-01 2016-03-23 成都龙渊网络科技有限公司 用于在触摸终端上管理操作工具的方法与设备
CN105607851A (zh) * 2015-12-18 2016-05-25 上海逗屋网络科技有限公司 用于触摸终端的场景控制方法及设备
CN105688409A (zh) * 2016-01-27 2016-06-22 网易(杭州)网络有限公司 游戏控制方法及装置
WO2017136830A1 (en) * 2016-02-05 2017-08-10 Prizm Labs, Inc. Physical/virtual game system and methods for manipulating virtual objects within a virtual game environment
CN105808106B (zh) * 2016-03-22 2018-12-04 苏州熙烁数字科技有限公司 基于滑动轨迹执行战斗操作的游戏设备及游戏提供方法
JP6089143B1 (ja) * 2016-09-26 2017-03-01 株式会社 ディー・エヌ・エー ゲームを提供するためのシステム、方法、及びプログラム
CN107193479B (zh) * 2017-05-26 2018-07-10 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107469354B (zh) * 2017-08-30 2018-06-22 网易(杭州)网络有限公司 补偿声音信息的视觉方法及装置、存储介质、电子设备
CN108363531A (zh) * 2018-01-17 2018-08-03 网易(杭州)网络有限公司 一种游戏中的交互方法及装置
US11045719B2 (en) * 2018-09-12 2021-06-29 King.Com Ltd. Method and computer device for controlling a touch screen
CN109508093B (zh) * 2018-11-13 2022-08-09 江苏视睿迪光电有限公司 一种虚拟现实交互方法及装置
CN110433489A (zh) * 2018-11-28 2019-11-12 网易(杭州)网络有限公司 游戏中瞄准的控制方法、装置、存储介质和电子装置
CN109701264A (zh) * 2018-12-21 2019-05-03 努比亚技术有限公司 游戏放大镜控制方法、装置、移动终端及存储介质
CN110585704B (zh) * 2019-09-20 2021-04-09 腾讯科技(深圳)有限公司 虚拟场景中的对象提示方法、装置、设备及存储介质
US11517812B2 (en) 2021-02-19 2022-12-06 Blok Party, Inc. Application of RFID gamepieces for a gaming console

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4353552A (en) * 1979-02-23 1982-10-12 Peptek, Incorporated Touch panel system and method
US5053757A (en) * 1987-06-04 1991-10-01 Tektronix, Inc. Touch panel with adaptive noise reduction
JP3345600B2 (ja) * 2000-04-10 2002-11-18 コナミ株式会社 ゲームシステムおよびコンピュータ読取可能な記憶媒体
US8059099B2 (en) * 2006-06-02 2011-11-15 Apple Inc. Techniques for interactive input to portable electronic devices
JP2005342266A (ja) 2004-06-03 2005-12-15 Aruze Corp ゲームシステム
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
JP2008017934A (ja) * 2006-07-11 2008-01-31 Aruze Corp ゲーム装置およびゲーム装置の画像変化制御方法
US7710318B2 (en) * 2006-08-24 2010-05-04 Sirf Technology Method of enhanced cold start and associated user interface for navigational receivers
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US8564546B1 (en) * 2008-02-27 2013-10-22 Cypress Semiconductor Corporation Multiple touch resolve
US8441452B1 (en) * 2008-04-10 2013-05-14 Cypress Semiconductor Corporation Multiple touch detection
JP2010017395A (ja) * 2008-07-11 2010-01-28 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
KR101665034B1 (ko) * 2008-08-22 2016-10-24 구글 인코포레이티드 이동 장치 상의 삼차원 환경에서의 네비게이션
US8698750B2 (en) * 2008-09-18 2014-04-15 Microsoft Corporation Integrated haptic control apparatus and touch sensitive display
US20100214218A1 (en) * 2009-02-20 2010-08-26 Nokia Corporation Virtual mouse
US8312387B2 (en) * 2009-08-10 2012-11-13 Microsoft Corporation Target element zoom
JP5269745B2 (ja) * 2009-10-30 2013-08-21 任天堂株式会社 オブジェクト制御プログラム、オブジェクト制御装置、オブジェクト制御システム及びオブジェクト制御方法
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
JP5840385B2 (ja) * 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US8661354B2 (en) * 2010-09-24 2014-02-25 Nokia Corporation Methods, apparatuses and computer program products for using near field communication to implement games and applications on devices
US8866735B2 (en) * 2010-12-16 2014-10-21 Motorla Mobility LLC Method and apparatus for activating a function of an electronic device
US20130002567A1 (en) * 2011-06-30 2013-01-03 Ricky Lee Method and System of Implementing Multi-Touch Panel Gestures in Computer Applications Without Multi-Touch Panel Functions
JP5204286B2 (ja) * 2011-11-02 2013-06-05 株式会社東芝 電子機器および入力方法
TWI597626B (zh) * 2011-11-08 2017-09-01 威盛電子股份有限公司 觸控面板的控制裝置、單點多指動作判斷方法以及用於產生單點多指動作的觸控筆

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5723050B1 (ja) * 2014-08-29 2015-05-27 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP2016049250A (ja) * 2014-08-29 2016-04-11 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP2016171874A (ja) * 2015-03-16 2016-09-29 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP5789067B1 (ja) * 2015-03-26 2015-10-07 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP2016049434A (ja) * 2015-03-26 2016-04-11 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP5856345B1 (ja) * 2015-07-30 2016-02-09 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP2016049444A (ja) * 2015-07-30 2016-04-11 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
JP6309143B1 (ja) * 2017-05-30 2018-04-11 株式会社 ディー・エヌ・エー ゲームプログラム、情報処理装置、及び、情報処理方法
JP2018201626A (ja) * 2017-05-30 2018-12-27 株式会社 ディー・エヌ・エー ゲームプログラム、情報処理装置、及び、情報処理方法

Also Published As

Publication number Publication date
US20140066197A1 (en) 2014-03-06
JP2014049130A (ja) 2014-03-17
EP2711059A2 (en) 2014-03-26
EP2711059B1 (en) 2018-05-23
JP5563709B2 (ja) 2014-07-30
US20140256442A1 (en) 2014-09-11
US8777743B2 (en) 2014-07-15
US9700787B2 (en) 2017-07-11
KR20140029158A (ko) 2014-03-10
EP2711059A3 (en) 2015-03-04
CN103677620A (zh) 2014-03-26

Similar Documents

Publication Publication Date Title
JP5563709B2 (ja) タッチセンシティブ表面を介した仮想空間とのインタラクションを容易にするシステム及び方法
US11712634B2 (en) Method and apparatus for providing online shooting game
WO2021017784A1 (zh) 虚拟对象的控制方法、装置、终端及存储介质
JP2022533321A (ja) 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム
US9764226B2 (en) Providing enhanced game mechanics
CN107913520A (zh) 信息处理方法、装置、电子设备及存储介质
US11577171B2 (en) Method and apparatus for prompting that virtual object is attacked, terminal, and storage medium
JP2022539288A (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム
KR20210006513A (ko) 게임 시스템을 위한 그래픽 사용자 인터페이스
CN111589145B (zh) 虚拟物品的显示方法、装置、终端和存储介质
WO2023020125A1 (zh) 虚拟环境画面的显示方法、装置、终端、介质及程序产品
CN108744513A (zh) 射击游戏中的瞄准方法、装置、电子设备及存储介质
US11045719B2 (en) Method and computer device for controlling a touch screen
CN111905380B (zh) 虚拟对象的控制方法、装置、终端及存储介质
KR102557808B1 (ko) 게임 서비스 시스템 및 상기 시스템에서의 메모 공유 방법
CN111643895A (zh) 操作响应方法、装置、终端及存储介质
JP7419400B2 (ja) 仮想オブジェクトの制御方法、装置、端末及びコンピュータプログラム
US12017141B2 (en) Virtual object control method and apparatus, device, and storage medium
US10099134B1 (en) System and method to better engage passive users of a virtual space by providing panoramic point of views in real time