JP2020522298A - コンピューティング装置のユーザインターフェースを制御する装置および方法 - Google Patents

コンピューティング装置のユーザインターフェースを制御する装置および方法 Download PDF

Info

Publication number
JP2020522298A
JP2020522298A JP2019565285A JP2019565285A JP2020522298A JP 2020522298 A JP2020522298 A JP 2020522298A JP 2019565285 A JP2019565285 A JP 2019565285A JP 2019565285 A JP2019565285 A JP 2019565285A JP 2020522298 A JP2020522298 A JP 2020522298A
Authority
JP
Japan
Prior art keywords
user interface
movement
contact
processor
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019565285A
Other languages
English (en)
Other versions
JP7229942B2 (ja
Inventor
トウコ タハコカッリオ
トウコ タハコカッリオ
ヨンネ ロイッカネン
ヨンネ ロイッカネン
ヨン フランザス
ヨン フランザス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Supercell Oy
Original Assignee
Supercell Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Supercell Oy filed Critical Supercell Oy
Publication of JP2020522298A publication Critical patent/JP2020522298A/ja
Application granted granted Critical
Publication of JP7229942B2 publication Critical patent/JP7229942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

タッチセンシティブユーザインターフェース(102、200、300、400、500、600、700)およびプロセッサ(104)を備える装置が開示される。プロセッサは、ユーザインターフェース上の第1のポジションでの第1の接触(216、404)を検出し、第1のポジションからの第1の接触の動きを判断して、動きが所定の動き閾値未満である場合、第1の接触の解放が検出されると、ユーザインターフェース上の第1のオブジェクト(204)を、ユーザインターフェース上の初期のポジションから第1のポジションのエリアまたは第1のポジションに近いエリアに移動させるように構成される。動きが所定の動き閾値よりも大きい場合、動きの終点に近いエリアに対応する第2のポジションを特定し、第1の接触の解放が検出されると、第1のオブジェクトから第2のポジションに対してアクションを実行する。【選択図】図2B

Description

本開示は、全般的に、ユーザインターフェースに関し、特に、ゲームシステムのグラフィカルユーザインターフェースに関する。
背景
近年、スマートフォンおよびタブレットコンピュータなどの携帯用通信デバイスの使用法の多様性が全般的に増した。さらに、通信、ナビゲーション、生産性向上などの用途以外に、そのようなデバイスは、そのユーザに娯楽を提供するためにも使用される。例として、デバイスは通常、ユーザがビデオを鑑賞し、読書し、画像を捕捉し、ソーシャルネットワーキングに参加できるようにするアプリケーションを有する。さらにデバイスは、ユーザがゲームをプレイできるようにするアプリケーションも有することもある。
通常、ゲームには、ゲームから報酬を収集する、他のオブジェクトを排除するなど、ゲームの様々な目的を達成するために制御されるオブジェクト(キャラクタなど)があるであろう。従来、そのようなオブジェクトは、デバイスに関連するキーパッド上の1つ以上のキーを押下することにより制御される。しかしながら、タッチスクリーンを有する(且つ従来の携帯電話に関連するキーパッドを欠く)スマートフォンが導入されたことで、オブジェクトの制御には様々な問題が伴う。
例として、一般に、ゲームのグラフィカルユーザインターフェースの面積の一部が、例えば仮想キーボード、オブジェクトにより保有される能力をアクティブ化する1つ以上のボタンなどの制御部を提供するために確保される。しかしながら、そのようにグラフィカルユーザインターフェースの面積を確保することで、ゲームに関連する構成要素および/または情報の表示に利用可能な面積は小さくなる。さらに、複雑なゲームメカニクスを採用するゲームの事例では、タッチスクリーン上に複数の指が置かれることが原因で、グラフィカルユーザインターフェースがユーザの視界から実質的に遮られることもある。当然のことながら、そのような問題は、ユーザにとって煩わしいゲーム体験をもたらす。
さらに、問題を克服するために、例えば限定的な制御部、オブジェクトが保有する限定的な能力、自動移動、自動照準、自動発射、低速ゲームプレイなど、単純化されたゲームメカニクスをゲームが採用することもある。そのようにゲームメカニクスを単純化することで、ユーザにとってはやりがいが低下し、したがって楽しさも低下したゲーム体験がもたらされる。
故に、前述の検討事項を考慮すると、ゲーム体験に関連する上述の欠点を克服する必要性が存在する。
摘要
本開示は、装置を提供することを追求する。本開示はさらに、コンピューティング装置のユーザインターフェースを制御する方法を提供することを追求する。本開示は、タッチセンシティブユーザインターフェースを有するデバイス上でのゲームに関連する既存の問題に対する解決策を提供することを追求する。本開示の目的は、従来技術で遭遇される問題を少なくとも部分的に克服する解決策を提供して、タッチセンシティブユーザインターフェースの単純且つ効果的な制御を提供し、それによって、楽しいゲーム体験を可能にすることである。
一側面において、本開示の実施形態は、タッチセンシティブなユーザインターフェースおよびプロセッサを備える装置を提供する。ここで前記プロセッサは、
前記ユーザインターフェース上の第1のポジションでの第1の接触を検出することと;
前記第1のポジションからの前記第1の接触の動きを判断することと;
を遂行するように構成されると共に、
前記動きが所定の動き閾値未満である場合、前記第1の接触の解放が検出されると、前記ユーザインターフェース上の第1のオブジェクトを、前記ユーザインターフェース上の初期のポジションから、前記第1のポジションのエリアもしくは前記第1のポジションに近いエリアに移動すること;
前記動きが前記所定の動き閾値よりも大きい場合、
・ 前記動きの終点に近いエリアに対応する第2のポジションを特定すること、および
・ 前記第1の接触の前記解放が検出されると、前記第1のオブジェクトから前記第2のポジションに対するアクションを実行すること;
を遂行するように構成される。
別の側面において、本開示の実施形態は、コンピューティング装置のユーザインターフェースを制御する方法を提供する。ここで前記コンピューティング装置は、機械可読命令を実行するように構成されたプロセッサを備え、前記プロセッサによる前記機械可読命令の実行は、前記プロセッサに、
前記ユーザインターフェース上の第1のポジションでの第1の接触を検出することと;
前記第1のポジションからの前記第1の接触の動きを判断することと;
を遂行させると共に、
前記動きが所定の動き閾値未満である場合、前記第1の接触の解放が検出されると、前記ユーザインターフェース上の第1のオブジェクトを、前記ユーザインターフェース上の初期のポジションから、前記第1のポジションのエリアもしくは前記第1のポジションに近いエリアに移動させること;
前記動きが前記所定の動き閾値よりも大きい場合、
・ 前記動きの終点に近いエリアに対応する第2のポジションを特定すること、および
・ 前記第1の接触の前記解放が検出されると、前記第1のオブジェクトから前記第2のポジションに対するアクションを実行すること;
を遂行させる。
本開示の実施形態は、従来技術における前述の問題を実質的になくすか、またはそれに少なくとも部分的に対処し、タッチセンシティブユーザインターフェースの単純且つ便利な制御を可能にする。
本開示のさらなる側面、利点、特徴および目的は、添付の特許請求の範囲に関連して解釈される図面および例示の実施形態の詳細な説明から明らかになるであろう。
当然のことながら、本開示の各特徴は、添付の特許請求の範囲により定義される本開示の範囲から逸脱することなく、様々な組み合わせに統合可能である。
上記の摘要、ならびに以下の例示の実施形態の詳細な説明は、添付の図面と併せて読むとより深く理解される。本開示を説明する目的で、本開示の例示的な構成が図面に示されている。しかしながら、本開示は、本願明細書に開示される特定の方法および手段に限定されるものではない。さらに、当業者には当然のことながら、図面は正確な縮尺ではない。同じ構成要素は可能な限り同一の番号で示した。
以下、次の図面を参照しながら、単なる例として本開示の実施形態について記載する。
本開示の実施形態に従った装置のブロック図である。 本開示の実施形態に従った図1の装置のユーザインターフェースである。 本開示の実施形態に従った図1の装置のユーザインターフェースである。 本開示の実施形態に従った図1の装置のユーザインターフェースである。 本開示の実施形態に従った図1の装置のユーザインターフェースである。 本開示の実施形態に従った図1の装置のユーザインターフェースである。 本開示の実施形態に従った図1の装置のユーザインターフェースである。 本開示の実施形態に従った図1の装置のユーザインターフェースである。 本開示の実施形態に従った図1の装置のユーザインターフェースである。 コンピューティング装置のユーザインターフェースを制御する方法のステップを示す。
実施形態の詳細説明
添付の図面では、下線付きの番号を用いて、下線付きの番号を上に配置された項目、または下線付きの番号と隣接する項目を表す。下線なしの番号は、下線なしの番号を項目につなげる線で特定される項目に関係する。番号に下線がなく関連する矢印を伴う場合、下線なしの番号は、矢印が指す項目全体を特定するために使用されている。
以下の詳細な説明は、本開示の実施形態と、それを実装できる方法とを示す。本開示を実施する形態がいくつか開示されているが、当業者であれば当然のことながら、本開示を実施または実践する他の実施形態もあり得る。
一側面において、本開示の実施形態は、タッチセンシティブなユーザインターフェースおよびプロセッサを備える装置を提供する。ここで前記プロセッサは、
前記ユーザインターフェース上の第1のポジションでの第1の接触を検出することと;
前記第1のポジションからの前記第1の接触の動きを判断することと;
を遂行するように構成されると共に、
前記動きが所定の動き閾値未満である場合、前記第1の接触の解放が検出されると、前記ユーザインターフェース上の第1のオブジェクトを、前記ユーザインターフェース上の初期のポジションから、前記第1のポジションのエリアもしくは前記第1のポジションに近いエリアに移動すること;
前記動きが前記所定の動き閾値よりも大きい場合、
・ 前記動きの終点に近いエリアに対応する第2のポジションを特定すること、および
・ 前記第1の接触の前記解放が検出されると、前記第1のオブジェクトから前記第2のポジションに対するアクションを実行すること;
を遂行するように構成される。
別の側面において、本開示の実施形態は、コンピューティング装置のユーザインターフェースを制御する方法を提供する。ここで前記コンピューティング装置は、機械可読命令を実行するように構成されたプロセッサを備え、前記プロセッサによる前記機械可読命令の実行は、前記プロセッサに、
前記ユーザインターフェース上の第1のポジションでの第1の接触を検出することと;
前記第1のポジションからの前記第1の接触の動きを判断することと;
を遂行させると共に、
前記動きが所定の動き閾値未満である場合、前記第1の接触の解放が検出されると、前記ユーザインターフェース上の第1のオブジェクトを、前記ユーザインターフェース上の初期のポジションから、前記第1のポジションのエリアもしくは前記第1のポジションに近いエリアに移動させること;
前記動きが前記所定の動き閾値よりも大きい場合、
・ 前記動きの終点に近いエリアに対応する第2のポジションを特定すること、および
・ 前記第1の接触の前記解放が検出されると、前記第1のオブジェクトから前記第2のポジションに対するアクションを実行すること;
を遂行させる。
前記装置はタッチセンシティブなユーザインターフェースを備える。実施形態において、前記装置は、携帯用通信デバイスである。例として、前記装置は、スマートフォン、タブレットコンピュータ、ラップトップコンピュータなどである。そのような事例において、装置のタッチセンシティブユーザインターフェースは、携帯用通信デバイスのタッチスクリーンディスプレイである。当然のことながら、タッチセンシティブユーザインターフェースは、装置のユーザが装置とやり取りできるようにする。例として、装置のユーザは、タッチセンシティブユーザインターフェース上にレンダリングされるグラフィカルユーザインターフェース上で、装置に入力を提供してもよい。
前記装置は、プロセッサをさらに備える。装置のプロセッサは、タッチセンシティブユーザインターフェースを使用して装置のユーザにより提供される1つ以上の入力を受信して、対応する応答を提供するように動作可能である。例として、入力は、携帯用通信デバイス上にインストールされたアプリケーション(つまり「アプリ」)を起動する命令を備える。そのような事例において、入力される命令は、装置のタッチセンシティブユーザインターフェース上に提示されるアプリケーションに関連するアイコンに対するタップ接触(または「ジェスチャ」)を使用してユーザにより提供される。
実施形態において、ユーザにより提供される入力は、ゲームアプリケーションを起動する命令を備える。そのような事例において、プロセッサは、ユーザにより提供される入力を受信した後に、ゲームアプリケーション(つまりゲーム)を起動するように構成される。さらにプロセッサは、ゲームに関連するグラフィカルユーザインターフェース(つまりユーザインターフェース)をタッチセンシティブユーザインターフェース上にレンダリングするように構成される。或る例において、ゲームは、アクションゲーム、ロールプレイングゲーム(RPG:role−playing game)、戦略ゲーム、射撃ゲーム、パズルゲームなどのうちの1つとすることができる。当然のことながら、ゲームは、ユーザインターフェース上にレンダリングされるプレイフィールドを備えてもよい。さらに、プレイフィールドは、装置のユーザ(つまりプレイヤ)によって制御されるキャラクタなどのオブジェクトを1つ以上備えてもよい。さらに、プレイフィールドは、プレイフィールド内の特定のエリアへの1つ以上のオブジェクトの移動を制限する、壁などの1つ以上の障害物も備えることができる。任意選択で、プレイフィールドは、プレイヤに対し支援を提供し且つ/またはプレイヤのパフォーマンスに関連するスコアを上げる、星、ヘルス受取場所または弾薬受取場所など、1つ以上の構成要素を備える。さらに、ユーザインターフェースは、ゲームのスコアまたはオブジェクトのヘルスに関連する情報などの情報をプレイヤに提供する、1つ以上のインジケータも提示してもよい。
或る例において、ゲームは、プレイヤにより制御されるオブジェクトおよび他の1つ以上のオブジェクト(敵キャラクタなど)を備える。一実施形態において、他の1つ以上のオブジェクトは、ゲームの他のプレイヤにより制御される。あるいは、他の1つ以上のオブジェクトは、人工知能(AI:artificial intelligence)アルゴリズムを使用するなど、コンピュータにより制御される。
一例において、オブジェクトは、目標を達成するためにゲームのプレイヤにより使用される様々なスキルまたは能力を保有する。例として、オブジェクトは、ゲームから他のオブジェクトを排除するために使用可能な1つ以上の武器を保有する。そのようなスキルまたは能力は、装置のタッチセンシティブユーザインターフェースとの複数の所定の接触のうちの1つを使用してゲームのプレイヤによりアクティブ化され得る。プロセッサは、下記で本願明細書において説明される形で所定の接触を判断するように構成されてもよい。
プロセッサは、ユーザインターフェース上の第1のポジションでのユーザインターフェースとの第1の接触を検出するように構成される。一実施形態において、プロセッサは、第1の接触の第1のポジションを記録することができる。例として、一実施形態において、第1の接触の第1のポジションとは、XY座標など、ユーザインターフェースの中の位置座標を指し得る。ポジション(0,0)は、ユーザインターフェース(すなわちデバイスのタッチスクリーン/ディスプレイ)の左上の角を指すことができ、(MaxX,0)は右上の角を指すことができ、(0,MaxY)は左下の角を指すことができ、(MaxX,MaxY)は右下の角を指すことができ、MaxXはユーザインターフェースの水平方向の画素の数であり、MaxYはユーザインターフェースの垂直方向の画素の数である。使用される座標系は、任意の単位とされ得る。例として、水平方向(X方向)において座標が0から開始し1000単位数、垂直方向(Y方向)において座標が0から開始し500単位数続くように、座標系を定義できる。このように、座標系、ひいては接触のポジションを、ユーザインターフェースの画面サイズおよび解像度とは独立して定義できる。第1の接触とは、指または別のポインタを用いてユーザインターフェースに触れることを指し得る。他の実施形態において、第1のポジションを記録するために適切な方法を使用できる。
プロセッサは、ユーザインターフェースの中での、第1のポジションから第2のポジションへの第1の接触の動きを検出するように構成される。例として、これは、第1のポジション(X1=100,Y1=120)から第2のポジション(X2=70,Y2=140)への指の動きであってもよいであろう。プロセッサは、第1のポジションと第2のポジションとの間の距離を判断するようにさらに構成される。例として、X1、Y1、X2、Y2の上記の値を参照すると、距離はX方向に30単位、およびY方向に20単位とすることができるであろう。さらに、点(X1,Y1)から(X2,Y2)までの距離は、sqrt(30^2+20^2)=36単位と計算できるであろう。
さらに、プロセッサは、第1の接触のユーザインターフェースからの解放を検出するように構成される。一実施形態において、プロセッサは、解放が検出されると、ユーザインターフェース上の第1のオブジェクトの移動または第2のオブジェクトに対するアクションを実行するように構成される。
例として、一実施形態において、プロセッサは、第1のポジションと第2のポジションとの間の判断された動きの距離と、所定の動き閾値または距離閾値とを比較するように構成される。さらにプロセッサは、比較に基づき、第1の接触のタイプ、およびユーザインターフェース上にレンダリングされた第1のオブジェクトに関してユーザインターフェース上で実行されるべきアクションを判断するように構成される。一実施形態において、所定の動き閾値の範囲は、ユーザインターフェースの対辺間の距離の、おおよそ3%からおおよそ12%以下の間とすることができる。所定の動き閾値未満の動きの範囲は、ユーザインターフェースの対辺間の距離のおおよそ12%未満とすることができる。好適には、所定の動き閾値の範囲は、ユーザインターフェースの対辺間の距離の4〜8%の間である。より好適には、ユーザインターフェースの対辺間の距離の6%である。
例として、上記の値X1、Y2、X2、Y2を使用すると、所定の動きまたは距離閾値が40単位であれば、判断された距離(36)は所定の距離閾値未満である。所定の距離閾値が32単位であれば、判断された距離(36)は所定の距離閾値より大きい。
一実施形態において、判断された距離が所定の距離閾値未満である場合、第1の接触のタイプは移動命令であると判断され、第1のオブジェクトは、ユーザインターフェース上の現在のポジションから第2のポジションのエリアへ移動するように構成される。実施形態によれば、ユーザインターフェースからの第1の接触の解放が検出されると、移動アクションが実行される。第2のポジションのエリアとは、ユーザインターフェースからの指の解放が発生した第2のポジションがその中心点であるエリアを指し得る。エリアは、例として、5×5単位のエリアとすることができるであろう。或る例において、所定の距離閾値はユーザインターフェースの幅(ユーザインターフェースがランドスケープの向きであるときのx方向)の5%である。幅が、例として1000単位であれば、所定の距離閾値は50単位となるであろう。そのような事例において、プロセッサは、判断された距離が50単位未満である(10単位など)と判断されると、第1の接触のタイプが移動命令であると判断するように構成される。当然のことながら、第1のオブジェクト(プレイヤにより制御されるキャラクタなど)は、ゲームが開始すると、ユーザインターフェース上の所定の位置にレンダリングされてもよい。或る例において、第1のオブジェクトは、ゲームの開始時、プレイフィールドの中央エリアに位置する。さらに、ゲームのプレイヤは、報酬を収集したり、または別のオブジェクトからの攻撃から逃げたりなどするために、第1のオブジェクトをプレイフィールドの他の位置に移動させる必要があるかもしれない。そのような事例において、プレイヤは、ユーザインターフェース上の所望のエリア上で「移動」接触(すなわち、指がまったく動かないか、または動きが所定の距離閾値を超過しない)を実行して、オブジェクトを中央エリアなどのその現在位置から、第1の接触のエリア(すなわち、指がユーザインターフェースから解放された所に対応するエリア)または所望のエリアに移動させる。当然のことながら、プレイヤによって行われるそのような接触を使用して第1のオブジェクトが移動されることで、ユーザインターフェース上に制御部(仮想キーボードなど)が提示される必要をなくすことができる。さらに、そのように制御部をなくすことで、ゲームに関連する構成要素および/または情報を表示するエリアがより大きくなる。さらに、そのように第1のプレイヤにより行われる接触により第1のオブジェクトが移動されることで、より速い応答が可能となり、それによって、ペースが速く刺激的でより楽しいゲームをプレイヤに提供できる。
実施形態において、判断された距離が所定の動きまたは距離閾値よりも大きい場合、第1の接触のタイプは、アクション命令であると判断され、第1のオブジェクトは、移動を含む以外のアクションをユーザインターフェース上で実行するように構成される。所定の距離閾値が50単位(x方向距離の5%など)であり、第1のポジションと第2のポジションとの間の距離が50単位を超える事例において、第1の接触のタイプは、アクション命令であると判断される。
一例において、第1の接触のタイプは、プレイヤによるタッチセンシティブユーザインターフェース上で触れて移動する指の接触(つまり「アクション接触」)である。別の例において、第1のオブジェクトは、ゲームから他のオブジェクトの1つ以上を排除するためのアクションを実行するように構成される。実施形態によれば、このアクションは、第1のオブジェクトにより、ユーザインターフェース上に提示される別のオブジェクトに対して発射することを含む。例として、第1のオブジェクトは、その保有する武器から、1つ以上の発射体(弾丸など)を、ユーザインターフェース上の別のオブジェクト(別のプレイヤにより制御されているキャラクタなど)に向かって放出する。実施形態によれば、ユーザインターフェースから第1の接触が解放されるのが検出されると、アクションが実行される。
実施形態によれば、プロセッサは、第1のアクションがアクション命令であると判断されると、ユーザインターフェース上にセクタなどのインジケータを生成するようにさらに構成され、セクタは、第1のオブジェクトにより実行されるアクションの経路を画定し、セクタは、第1の接触の現在のポジションから、第2のポジション、または第2の接触のポジションに関連する方向に向かう方向を有する。一実施形態において、第1の接触の現在のポジションは、第1の接触の動きのおおよその終点または第2のポジションである。セクタは、第1のオブジェクトのポジションから、第1の接触の第2のポジションに向かう方向に生成できる。この実施形態において、セクタのエリアは、第2のポジションの座標点と重なる。あるいは、第1のオブジェクトからのセクタの方向は、第1のポジションから第2のポジションへの方向に関係してもよいであろう。
例として、第1のオブジェクトが座標(200,50)にあり、第1のポジションが座標(10,20)にあり、第2のポジションが座標(10,100)にある場合、セクタは、第1のオブジェクトの現在のポジションから、ユーザインターフェースにおけるy方向の方向に向かうことになるであろう。当然のことながら、プレイフィールド内の1つ以上のオブジェクトは、ゲームの様々な時点で、互いに対して異なる向きを有するかもしれない。例として、第1のオブジェクトは、プレイヤがゲームに勝つために排除する必要がある別のオブジェクトに照準線が合わない向きにあるかもしれない。そのような事例では、プレイヤは、第1のオブジェクトの向きを変更して別のオブジェクトに照準線を合わせるために、第1のオブジェクトを動かす必要がある。その後、第1のオブジェクトは、別のオブジェクトに向かって発射して、別のオブジェクトをゲームから排除する必要がある。そのような事例において、プレイヤは、第1のオブジェクトの現在のポジションから第1の方向(別のオブジェクトの方向など)にアクションタイプ接触を実行して、ユーザインターフェース上にセクタを生成する。あるいは、プレイヤは、第1のオブジェクトの現在のポジションに対して相対的なポジションからアクションタイプ接触を実行する。一例において、ユーザは、第1のオブジェクトの左、右、下または上のうちの1つからアクションタイプ接触を実行して、ユーザインターフェース上にセクタを生成する。一実施形態によれば、セクタは、第1の接触からの判断された距離が所定の閾値を超えるとすぐに、ユーザインターフェース上にレンダリングされてもよいであろう。セクタに関係するアクション(セクタの方向に向かって射撃するなど)は、ユーザインターフェースからの第1の接触の解放が検出されると実行されてもよいであろう。
実施形態によれば、単体の一実施形態、または本願明細書に記載の他の実施形態と組み合わせた一実施形態において、プロセッサは、第1の接触のエリアから第2のポジションの方向に、ユーザインターフェース上に軌跡線をレンダリングするようにさらに構成される。あるいは、軌跡線は、第1のオブジェクトから、第1のポジションと第2のポジションとの互いの相対的なポジションから導出できる方向にレンダリングされ得るであろう。或る例において、軌跡線は、第1のオブジェクトにより別のオブジェクトに向かって発射される発射体の進行の経路を画定する。一実施形態において、プロセッサは、プロセッサが第1の接触のユーザインターフェースからの解放を検出するとアクションを実行するように構成される。例として、プレイヤがユーザインターフェースから接触を解放すると、発射体が、別のオブジェクトに向かう軌跡線により画定された経路に沿って発射される。当然のことながら、そのように接触のタイプに基づきアクション命令を判断することにより、第1のオブジェクトが別のオブジェクトに向かって迅速に発射されることが可能になるなど、より速い応答が可能になる。さらに、そのようにアクション命令を判断することで、例えば自動照準、自動発射などのゲームメカニクスの使用を削減することができ、それによって、より刺激的で楽しいゲーム体験が可能になる。
実施形態において、プロセッサは、アクション後のユーザインターフェース上の回転動作接触を検出し、回転動作に対応するユーザインターフェース上の方向にセクタを回転させるようにさらに構成される。例として、別のオブジェクトは、第1のオブジェクトの移動中に、第1のオブジェクトに対するその向きを変更したかもしれない。その結果として、プレイヤは、別のオブジェクトの向きの変更に応答して、第1のオブジェクトにより発射される発射体の進行の経路を調節する必要がある。そのような事例において、セクタを生成するアクションを実行し次第、プレイヤは、回転動作接触を実行して所望の方向にセクタを回転させる。一例において、回転動作接触は、接触を解放することなく実行される。一実施形態において、回転動作接触は、セクタにより画定されるエリアの内側にプレイヤの指1本以上が接触することにより実行される。あるいは回転動作接触は、セクタにより画定されるエリアに対して相対的なポジションにプレイヤの指1本以上が接触することにより実行される。例として、回転動作接触を実行するために、プレイヤの指1本以上が、セクタにより画定されたエリアの左、右、上または下で、タッチセンシティブユーザインターフェースに接触する。さらに、そのような回転動作接触により、プレイヤは、セクタを時計回り方向および/または反時計回り方向に回転させることができる。
実施形態によれば、プロセッサは、ユーザインターフェース上に制御オブジェクトをレンダリングするように構成され、制御オブジェクトは、時計回りまたは反時計回りの1つ以上の方向にセクタを回転させるために、時計回りまたは反時計回りの1つ以上の方向に回転されるように構成される。一例において、制御オブジェクトは、円形エリアの中で動かすことができる制御ボタンである。そのような事例において、円形エリアの中での、制御ボタンの、そのデフォルトのポジション(円形エリアの中心など)に対するポジションが、セクタの回転を時計回りおよび反時計回りのうちの1つ以上の方向に決定する。別の例において、円形エリアの中心からの制御ボタンの変位が、第1のオブジェクトにより発射される発射体の1つ以上の属性(速度またはダメージ出力など)を決定してもよい。そのような事例において、円形エリア内のデフォルトのポジションからの制御ボタンの変位が大きいほど、デフォルトのポジションからの制御ボタンの変位が小さい場合に比べてより高速に発射体が発射されてもよい。或る例において、制御オブジェクトは、ユーザインターフェース上にレンダリングされる仮想のジョイスティックである。プレイヤは、セクタを回転させるために、仮想ジョイスティックを時計回りおよび/または反時計回りの方向に回転させる必要があるかもしれない。
一実施形態において、プロセッサは、第1のオブジェクトによりアクションが実行される経路を画定するために、第1の接触に続いて第1のオブジェクトの現在のポジションから第1の方向にユーザインターフェース上で描かれるパターンを検出するように構成される。或る例において、第1のオブジェクトは、別のオブジェクトに向かって第1のオブジェクトが発射できる追加の武器(手榴弾など)を1つ以上有する。なお、1つ以上の追加の武器の軌道は、直線経路を構成しなくてもよい。そのような事例において、プレイヤは、1つ以上の追加の武器を発射する経路を画定するために、ユーザインターフェース上でパターンを描く。実施形態において、プロセッサは、第1の接触のエリアから解放のエリアまでのユーザインターフェース上の距離を判断するようにさらに構成され、距離は、アクションの到達範囲を決定する。別の実施形態において、プロセッサは、第1の接触のエリアから、ユーザインターフェース上で描かれるパターンに沿って、ユーザインターフェース上に軌道弧をレンダリングするようにさらに構成される。或る例では、プレイヤは、ユーザインターフェース上でフリックアクションを実行し、その結果、フリックアクションは短い円弧を構成する。そのような事例において、第1の接触のエリアから解放のエリアまでのユーザインターフェース上の距離は、フリックアクションに応答して第1のオブジェクトにより発射される1つ以上の発射体の到達範囲を画定してもよい。
一実施形態によれば、プロセッサは、ユーザインターフェース上に1つ以上のボタンをレンダリングするように構成される。例として、1つ以上のボタンは、それに対してタップ接触を実行することによりプレイヤによりアクティブ化できる、特別なアクションまたは能力に関連する。或る例において、特別なアクションは、ユーザインターフェース上の様々なエリアに位置する報酬(星など)を収集することにより、且つ/または他のプレイヤを排除することにより、第1のオブジェクトによって獲得される。
一実施形態において、プロセッサは、ユーザインターフェースとの2つ以上の接触を検出するように構成される。或る例において、ユーザインターフェースとの2つ以上の接触は、プレイヤが複数の指を使用してゲームをプレイすることに関連する。一例において、プレイヤは、第1のオブジェクトの移動の経路を画定するために、2本以上の指を使用して、ユーザインターフェースの複数のエリアに対してタップ接触を実行する。
本記載はさらに、コンピューティング装置のユーザインターフェースを制御する方法に関し、コンピューティング装置は、機械可読命令を実行するように構成されたプロセッサを備え、プロセッサによる機械可読命令の実行は、プロセッサに、ユーザインターフェースとの第1の接触を検出させる。一実施形態において、プロセッサは、第1の接触の第1のポジションを記録する。さらにプロセッサは、第1のポジションから第2のポジションへの第1の接触の動きを検出し、動きの距離、つまり第1のポジションと第2のポジションとの間の距離を判断する。さらにプロセッサは、判断された距離と、所定の動きまたは距離閾値とを比較し、第1の接触のタイプを判断する。動きが所定の動き閾値未満である場合、第1の接触の解放が検出されると、ユーザインターフェース上の第1のオブジェクトが、ユーザインターフェース上の初期のポジションから第1のポジションのエリアもしくは第1のポジションに近いエリアに移動される。動きが所定の動き閾値よりも大きい場合、動きの終点に近いエリアに対応する第2のポジションが特定され、第1の接触の解放が検出されると、第1のオブジェクトから第2のポジションに対してアクションが実行される。動きの終点に近いエリアは、第1の接触の解放が検出される点を囲む、半径Xの円形エリア、または幅Yの四角形など他の幾何学的エリアに対応することができる。半径X(または四角形の幅Y)は、例として、ユーザインターフェースの全幅の1〜20%、3〜10%または3〜5%とすることができる。半径Xは、例として、1、2、3、5、7、9、10、12、14または16%から、最大2、3、5、7、9、10、12、14、16、19または20%とすることができる。
実施形態において、プロセッサにより実行されるアクションは、第1のオブジェクトに、ユーザインターフェース上に提示される別のオブジェクトに対して発射させることを含む。
別の実施形態によれば、機械可読命令の実行はプロセッサに、判断された動きが所定の動き閾値よりも大きい場合、第1のオブジェクトから終点に向かって延びるインジケータをユーザインターフェース上に提示させる。一実施形態において、インジケータは、第1のオブジェクトの現在の位置に対応する起点と、第1の接触の動きとともに移動する末端とを有する。
例として、プロセッサには、ユーザインターフェース上にセクタを生成させることができ、セクタは、第1のオブジェクトにより実行されるアクションの経路を画定する。セクタは、現在のポジションから第2のポジションに関連する方向に向かう方向を有することができる。この関連は、現在のポジションから第2のポジションまでのことを指し得るであろう。あるいは、この関連は、第2のポジションの第1のポジションに対する相対的なポジションを比較することを指し得るであろう(第1のポジションから第2のポジションへの方向ベクトルを作成し、それを現在のポジションからのセクタの方向として使用する)。
一実施形態において、機械可読命令の実行はプロセッサに、第1の接触のエリアから第2のポジションに関連する方向に、ユーザインターフェース上に軌跡線をレンダリングさせ、軌跡線は、現在のポジションから第2のポジションに関連する方向へ向かう方向を有する。この関連は、現在のポジションから第2のポジションまでのことを指し得るであろう。あるいは、この関連は、第2のポジションの第1のポジションに対する相対的なポジションを比較することを指し得るであろう(第1のポジションから第2のポジションへの方向ベクトルを作成し、それを現在のポジションからの軌跡線の方向として使用する)。
実施形態において、プロセッサによる機械可読命令の実行はプロセッサに、ユーザインターフェース上のセクタを回転動作に対応する方向に回転させるための、ユーザインターフェース上の回転動作接触を検出させる。
実施形態によれば、機械可読命令の実行はプロセッサに、ユーザインターフェース上に制御オブジェクトをレンダリングさせ、時計回りおよび反時計回りのうちの1つ以上の方向での制御オブジェクトの回転を検出させ、検出された回転に対応する時計回りまたは反時計回りのうちの1つ以上の方向にセクタを回転させる。
一実施形態において、機械可読命令の実行はプロセッサに、プロセッサが第1の接触のユーザインターフェースからの解放を検出するとアクションを実行させる。
一実施形態によれば、機械可読命令の実行はプロセッサに、第1の接触のエリアから解放のエリアまでのユーザインターフェース上の距離を判断させ、この距離は、アクションの到達範囲を決定する。
装置および方法は、第1のポジションと第2のポジションとの間の動きの距離と、所定の距離閾値との比較により、ユーザインターフェースとの接触のタイプを判断することを可能にする。そのような判断は、ユーザインターフェースでユーザが行うことができる様々なタイプの接触(移動またはアクションなど)を容易に識別することを可能にする。さらに、所定の距離閾値は変化させることができ、接触のタイプの判断における適応性を向上させることができる。さらに、ユーザインターフェース上にレンダリングされる第1のオブジェクトに関してユーザインターフェース上で実行されるべきアクションは、比較に基づき判断される。そのような比較により、第1のオブジェクトにより実行されるべきアクションをより速く判断することが可能となり、それによって、より刺激的で楽しいゲーム体験が可能となる。さらに、そのように接触のタイプを判断することで、画面上の制御部の必要がなくなり、それによって、ユーザインターフェースをすっきりとさせることができ、ゲームに関連する重要な構成要素および/または情報の提示に提供されるエリアをより大きくできる。
図面の詳細説明
図1は、本開示の実施形態に従った装置100のブロック図である。図のように、装置100は、タッチセンシティブユーザインターフェース102、プロセッサ104および距離判断ユニット106を備える。
図2A、図2Bおよび図2Cは、本開示の実施形態に従った図1の装置100のユーザインターフェース200である。図のように、ユーザインターフェース200は、プレイフィールド202および第1のオブジェクト204(プレイヤにより制御されるキャラクタ)を備える。プレイフィールド202は、他のオブジェクト206(別のプレイヤにより制御されるキャラクタ)および208(コンピュータ制御されるキャラクタ)をさらに備える。プレイフィールド202は、壁210など様々な障害物も備える。図のように、ユーザインターフェース200は、インジケータ212およびボタン214をさらに備える。図2Aを参照する。ユーザインターフェース200との第1のポジション(X1,Y1)での第1の接触216が検出される。一実施形態において、第1の接触216の動きが検出され、第1の接触216の第1のポジションからの動きの距離が判断される。動きが、中心(X1,Y1)および所定の距離閾値の半径dを有する円形C217の中にとどまる場合、第1の接触216のタイプは移動命令であると判断される。この例において、図2Aに示される半径dは、所定の動き閾値または距離を画定する。
この例において、移動命令は、第1の接触216のユーザインターフェースからの解放が検出されると、第1のオブジェクト204を、ユーザインターフェース200上のその現在のポジション224のエリアから第1の接触216のエリアに移動させるように構成される。第1の接触のエリアは、ユーザインターフェースからの第1の接触216の解放が検出される箇所のエリア、またはその箇所の近傍を指すことができる。エリアは、円形C217と実質的に同じとすることができる。
図2Bも参照する。一実施形態において、検出された、第1の接触216の第1のポジション(X1,Y1)からの動きが、中心(X1,Y1)を有し所定の距離閾値の半径dを表現する円形C217の外に及ぶ、または出ると判断されれば、第1の接触216のタイプがアクション接触であると判断される。
この例において、図2Bに示されているように、セクタ226がユーザインターフェース200内にレンダリングされる。図2Bの例において、セクタ226は、概して円錐形として示されており、第1のオブジェクト204のポジション224を、またはその近くを起点とする或る方向に延びる。セクタ226のもう一方の端は、この例では起点よりも幅が広く、概して第2のポジション(X2,Y2)のエリアまたは第2のポジション(X2,Y2)に近いエリアまで延びる。
一実施形態において、セクタ226は、ユーザインターフェース200から動きが解放されるのが検出されると生成されることが可能である。他の実施形態において、セクタ226は、動きが半径dの先まで及ぶと判断されるとすぐに生成されることが可能である。例としてこれは、(X1,Y1)と(X2,Y2)との間の距離、または(X1,Y1)から(X2,Y2)までの距離がdより大きいと判断される場合を含む。セクタ226の例示は、本願明細書では概して円錐形のインジケータとして示されているが、開示された実施形態の側面はそのように限定されない。他の実施形態において、セクタ226は、本願明細書にさらに記載されるように、アクションが発生できる区域またはエリアを概して示す任意の適切な形でユーザインターフェース200上に提示できる。
ユーザインターフェースからの解放が検出されると、射撃などのアクションが実行される。射撃は、セクタ226の方向に発生する。あるいは、(図2Cに示されているように)第1のオブジェクト204に対して方向ベクトルvの方向にセクタ226をレンダリングするように装置を構成できる。方向ベクトルvは、座標(X1,Y1)および(X2,Y2)により定義されるベクトルである。
図2Aの例において、第1の接触216のタイプが移動命令とされるための第1の接触216の「動き」は、円形C217の半径dより向こうに及ばない任意の動きとすることができる。この「動き」は、円形C217の中での任意の動き、またはまったく動きがないことを含むことができる。
例として、一実施形態において第1の接触216は、任意の長さの時間にわたり、判断される任意の距離、円形C217の中を動くことができる。これは、任意数の回転の、第1の接触216の円形動作などの回転動作を含むことができる。第1の接触216の解放前に第1の接触216の動きが円形C217の半径dの先まで及ばない限り、第1の接触216のタイプは移動命令であると判断される。
別の例として、第1の接触216の動きは、往復動作とすることができるであろう。ここでもやはり、第1の接触216の解放前に動きが半径dにより画定される円形C217の境界の先まで通過しない限り、第1の接触216のタイプは移動命令であると判断される。
この実施形態において、動きは、まったく動きがないこととすることもできるであろう。例として、第1の接触216は、円形C217の中の点またはポジションでの実質的に静止した接触とすることができるであろう。この例においても、動きのタイプは移動命令であると判断される。
一実施形態において、第1の接触216の解放より前の任意の時点で、動きが円形C217の半径dの先まで進むと検出されれば、動きのタイプはアクション命令であると判断される。例として、第1の接触216の動きが、半径dにより画定され所定の動き閾値を表現する円形C217の境界を横断すると判断される。この時点で、第1の接触216の動きは、本願明細書において概して定義されているアクション命令であると判断される。
一実施形態において、第1の接触216の動きが境界の先まで及ぶと判断された後に、動きが半径dにより画定される円形C217の境界の中に戻っても、動きのタイプはアクション命令であると判断される。したがって、図2Bの例を参照して、第1の接触216の動きが半径dを越えておおよそ点(X2,Y2)まで及び、次いでユーザインターフェース200から第1の接触216が解放されるのが検出される前に、半径dの中のおおよそ(X1,Y1)に戻ると、動きのタイプはアクション命令であると判断される。
言い換えれば、第1の接触216の動きが、第1の接触216の解放が検出される前の任意の時点で半径dの先まで及べば、それがわずかで一瞬でしかなくても、動きのタイプはアクション命令であると判断される。第1の接触216の動きが、半径dにより画定される円形C217の境界の領域の中にとどまれば、どれだけの動きがあっても動きのタイプは移動命令であると判断される。
図2Aの半径dにより画定される所定の動き閾値は、ユーザにより定義された閾値とすることができる。値は、値dが最低限度の動きの値となるようにセットされるべきである。要するに、動きが半径dの外に出るか、またはその先まで進めば、その動きはアクションタイプ命令である。動きが半径dの境界の中にとどまれば、その動きは移動タイプの命令である。さらに、所定の動き閾値は、任意の、自由裁量による形状の境界とすることができる。つまり、半径を有する円形に限定されない。形状は、楕円形、矩形、三角形などとすることができる。3次元(3D:three dimensional)ディスプレイのケースでは、形状は、球または立方体などの任意の幾何学的3Dオブジェクトを含むことができ、所定の動き閾値は、そのような幾何学的形状の外面となるであろう。
図3は、本開示の別の実施形態に従った図1の装置100のユーザインターフェース300である。図のように、セクタ306が、ユーザインターフェース300上で、第1のオブジェクト204の現在のポジション304から第1の方向にレンダリングされている。セクタ306は、第1のオブジェクト204により実行されるアクション308の経路を画定する。さらにアクション308は、第1のオブジェクト204によりユーザインターフェース300上の別のオブジェクト208に対して発射することを含む。さらに軌跡線310が、ユーザインターフェース300上で、現在の位置304のエリアから第2のポジション302の方向にレンダリングされる。
図4は、本開示のさらに別の実施形態に従った図1の装置100のユーザインターフェース400である。図のように、第1の接触404の回転動作402がユーザインターフェース400上で検出されている。さらに、セクタ302が、回転動作402に対応するユーザインターフェース400上の方向に回転される。
図5は、本開示の実施形態に従った図1の装置100のユーザインターフェース500である。図のように、回転動作接触502がユーザインターフェース500上で検出される。回転動作接触502は、セクタ306により画定されたエリアの上方で行われる。さらに、セクタ306が、回転動作502に対応するユーザインターフェース500上の方向に回転される。
図6は、本開示の別の実施形態に従った図1の装置100のユーザインターフェース600である。図のように、ユーザインターフェース600上に制御オブジェクト602がレンダリングされ、制御オブジェクト602は、時計回りまたは反時計回りの1つ以上の方向にセクタ306を回転させるために、時計回りまたは反時計回りの1つ以上の方向に回転されるように構成される。
図7は、本開示のさらに別の実施形態に従った図1の装置100のユーザインターフェース700である。図のように、描かれたパターン702がユーザインターフェース700上で検出されている。パターン702は、第1のオブジェクト204により実行されるアクション704の経路を画定する。さらにアクション704は、描かれたパターン702により画定された経路に沿って発射体を放出することを含む。
図8は、コンピューティング装置のユーザインターフェースを制御する方法800のステップを示す。コンピューティング装置は、機械可読命令を実行するように構成されたプロセッサを備える。ステップ802にて、ユーザインターフェースとの第1の接触が検出される。ステップ804にて、第1の接触の第1のポジションが記録される。ステップ806にて、ユーザインターフェースの中での、第1のポジションから第2のポジションへの第1の接触(点)の動きが検出される。ステップ808にて、第1のポジションと第2のポジションとの間の距離が判断される。ステップ810にて、判断された距離が、所定の距離閾値と比較される。ステップ812にて、比較に基づき、第1の接触のタイプ、およびユーザインターフェース上にレンダリングされた第1のオブジェクトに関してユーザインターフェース上で実行されるべきアクションが判断される。
ステップ802〜812は例示にすぎず、上記で例示されたように、本願の特許請求の範囲に記載の範囲から逸脱せずに、1つ以上のステップが追加され、1つ以上のステップが削除され、または1つ以上のステップが異なる順序で提供される他の選択肢も提供可能である。
添付の特許請求の範囲により定義される本開示の範囲から逸脱することなく、上述した本開示の実施形態に対する変更が可能である。本開示の記載および請求に用いられる「含む」「備える」、「組み込む」、「有する」、「である」などの表現は、非排他的な形で解釈されるものとし、すなわち、明示的に記載されていない項目、部品または構成要素の存在も可能である。単数形への言及は、複数形にも関係すると解釈されるものとする。

Claims (20)

  1. タッチセンシティブなユーザインターフェース(102、200、300、400、500、600、700)と、プロセッサ(104)とを備える装置(100)であって、前記プロセッサは、
    前記ユーザインターフェース上の第1のポジションでの第1の接触(216、404)を検出することと;
    前記第1のポジションからの前記第1の接触の動きを判断することと;
    を遂行するように構成されると共に、
    前記動きが所定の動き閾値未満である場合、前記第1の接触の解放が検出されると、前記ユーザインターフェース上の第1のオブジェクト(204)を、前記ユーザインターフェース上の初期のポジションから、前記第1のポジションのエリアもしくは前記第1のポジションに近いエリアに移動すること;
    前記動きが前記所定の動き閾値よりも大きい場合、
    ・ 前記動きの終点に近いエリアに対応する第2のポジションを特定すること、および
    ・ 前記第1の接触の前記解放が検出されると、前記第1のオブジェクトから前記第2のポジションに対するアクションを実行すること;
    を遂行するように構成される、装置(100)。
  2. 前記判断された動きが前記所定の動き閾値よりも大きい場合、前記第1のオブジェクト(204)から前記終点に向かって延びるインジケータを前記ユーザインターフェース上に提示する、請求項1に記載の装置。
  3. 前記インジケータは、前記第1のオブジェクト(204)の現在の位置に対応する起点と、前記第1の接触(216、404)の前記動きとともに移動する末端とを有する、請求項2に記載の装置。
  4. 前記インジケータは、セクタ円錐の形である、請求項3に記載の装置。
  5. 前記プロセッサは、前記第1のオブジェクト(204)にある前記起点に対して前記セクタ円錐を、前記第1の接触(216、404)の前記動きに対応して回転させるように構成される、請求項4に記載の装置。
  6. 前記プロセッサは、前記ユーザインターフェース(102、200、300、400、500、600、700)上の回転動作接触(502)を検出して、前記回転動作(402、502)に対応する前記ユーザインターフェース上の方向に前記セクタ円錐を回転させるようにさらに構成される、請求項5に記載の装置。
  7. 前記アクションは、前記第2のポジションまたは前記第2のポジションの近くで前記ユーザインターフェース(102、200、300、400、500、600、700)上に提示される別のオブジェクトに対する、前記第1のオブジェクト(204)による発射を含む、請求項1から6のいずれか1項に記載の装置。
  8. 前記プロセッサは、前記ユーザインターフェース(102、200、300、400、500、600、700)上に制御オブジェクト(602)をレンダリングするように構成され、前記制御オブジェクトは、時計回りまたは反時計回りの1つ以上の方向にセクタ円錐を回転させるために、前記時計回りまたは反時計回りの1つ以上の方向に回転されるように構成される、請求項1から7のいずれか1項に記載の装置。
  9. 前記プロセッサは、前記判断された動きが前記所定の動き閾値よりも大きい場合、前記ユーザインターフェース(102、200、300、400、500、600、700)上で前記第2のポジションと前記第1のオブジェクト(204)の前記第1のポジションとの間に軌跡線をレンダリングするようにさらに構成される、請求項1から8のいずれか1項に記載の装置。
  10. 前記プロセッサは、前記判断された動きが前記所定の閾値よりも大きい場合、前記ユーザインターフェース(102、200、300、400、500、600、700)上の前記第2のポジションと前記第1のオブジェクト(204)の前記初期のポジションとの間の第2の距離を判断するようにさらに構成され、前記プロセッサは、前記アクションの到達範囲を決定するために前記第2の距離を使用する、請求項1から9のいずれか1項に記載の装置。
  11. 前記所定の動き閾値の範囲は、前記ユーザインターフェース(102、200、300、400、500、600、700)の対辺間の距離の3〜12%である、請求項1から10のいずれか1項に記載の装置。
  12. 前記所定の動き閾値未満の動きの範囲は、前記ユーザインターフェース(102、200、300、400、500、600、700)の対辺間の距離の12%未満である、請求項1から11のいずれか1項に記載の装置。
  13. コンピューティング装置のユーザインターフェース(102、200、300、400、500、600、700)を制御する方法であって、前記コンピューティング装置は、機械可読命令を実行するように構成されたプロセッサ(104)を備え、前記プロセッサによる前記機械可読命令の実行は、前記プロセッサに、
    前記ユーザインターフェース上の第1のポジションでの第1の接触(216、404)を検出することと;
    前記第1のポジションからの前記第1の接触の動きを判断することと;
    を遂行させると共に、
    前記動きが所定の動き閾値未満である場合、前記第1の接触の解放が検出されると、前記ユーザインターフェース上の第1のオブジェクト(204)を、前記ユーザインターフェース上の初期のポジションから、前記第1のポジションのエリアもしくは前記第1のポジションに近いエリアに移動させること;
    前記動きが前記所定の動き閾値よりも大きい場合、
    ・ 前記動きの終点に近いエリアに対応する第2のポジションを特定すること、および
    ・ 前記第1の接触の前記解放が検出されると、前記第1のオブジェクトから前記第2のポジションに対するアクションを実行すること;
    を遂行させる、方法。
  14. 前記プロセッサ(104)が、前記機械可読命令を実行すると、前記判断された動きが前記所定の動き閾値よりも大きい場合、前記第1のオブジェクト(204)から前記終点に向かって延びるインジケータの前記ユーザインターフェース(102、200、300、400、500、600、700)上での提示を生じさせることをさらに含む、請求項13に記載の方法。
  15. 前記プロセッサ(104)が、前記第1のオブジェクト(204)にある前記起点に対して前記インジケータを、前記第1の接触(216、404)の前記動きに対応して回転させることを含む、請求項14に記載の方法。
  16. 前記プロセッサ(104)が、前記ユーザインターフェース(102、200、300、400、500、600、700)上の回転動作接触(502)を検出して、前記回転動作(402、502)に対応する前記ユーザインターフェース上の方向に前記インジケータを回転させることを含む、請求項15に記載の方法。
  17. 前記アクションは、前記第2のポジションまたは前記第2のポジションの近くで前記ユーザインターフェース(102、200、300、400、500、600、700)上に提示される別のオブジェクトに対する、前記第1のオブジェクト(204)による発射を含む、請求項13〜16のいずれか1項に記載の方法。
  18. 前記プロセッサ(104)が、前記ユーザインターフェース(102、200、300、400、500、600、700)上で制御オブジェクト(602)のレンダリングを生じさせることを含み、前記制御オブジェクトは、時計回りまたは反時計回りの1つ以上の方向に前記インジケータを回転させるために、前記時計回りまたは反時計回りの1つ以上の方向に回転されるように構成される、請求項14又は15に記載の方法。
  19. 前記プロセッサ(104)が、前記判断された動きが前記所定の動き閾値よりも大きい場合、前記ユーザインターフェース(102、200、300、400、500、600、700)上で前記第2のポジションと前記第1のオブジェクト(204)の前記ポジションとの間に軌跡線のレンダリングを生じさせることを含む、請求項13〜18のいずれか1項に記載の方法。
  20. 前記プロセッサ(104)が、前記判断された動きが前記所定の閾値よりも大きい場合、前記ユーザインターフェース(102、200、300、400、500、600、700)上の前記第2のポジションと前記第1のオブジェクト(204)の前記初期のポジションとの間の第2の距離を判断することを含み、前記プロセッサは、前記アクションの到達範囲を決定するために前記第2の距離を使用する、請求項13〜19のいずれか1項に記載の方法。
JP2019565285A 2017-06-09 2018-05-28 コンピューティング装置のユーザインターフェースを制御する装置および方法 Active JP7229942B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/618,179 US10413814B2 (en) 2017-06-09 2017-06-09 Apparatus and method for controlling user interface of computing apparatus
US15/618,179 2017-06-09
PCT/FI2018/050401 WO2018224728A1 (en) 2017-06-09 2018-05-28 Apparatus and method for controlling user interface of computing apparatus

Publications (2)

Publication Number Publication Date
JP2020522298A true JP2020522298A (ja) 2020-07-30
JP7229942B2 JP7229942B2 (ja) 2023-02-28

Family

ID=62563178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019565285A Active JP7229942B2 (ja) 2017-06-09 2018-05-28 コンピューティング装置のユーザインターフェースを制御する装置および方法

Country Status (7)

Country Link
US (4) US10413814B2 (ja)
EP (1) EP3635526B1 (ja)
JP (1) JP7229942B2 (ja)
KR (1) KR102495380B1 (ja)
CN (1) CN110678835A (ja)
ES (1) ES2891317T3 (ja)
WO (1) WO2018224728A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10413814B2 (en) * 2017-06-09 2019-09-17 Supercell Oy Apparatus and method for controlling user interface of computing apparatus
US10786734B2 (en) * 2019-02-20 2020-09-29 Supercell Oy Method for facilitating user interactions in gaming environment
CN109966738B (zh) 2019-02-22 2020-07-31 网易(杭州)网络有限公司 信息处理方法、处理装置、电子设备和存储介质
US12008733B2 (en) * 2022-05-11 2024-06-11 Supercell Oy Method for rendering user interface and computing device therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000167A (ja) * 2009-06-16 2011-01-06 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2014045965A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP6043448B1 (ja) * 2016-02-25 2016-12-14 株式会社コロプラ ゲームプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001149643A (ja) * 1999-09-16 2001-06-05 Sony Computer Entertainment Inc 3次元ゲームにおけるオブジェクト表示方法、情報記録媒体およびエンタテインメント装置
CN101963863B (zh) * 2010-09-30 2015-07-08 华为终端有限公司 用户触摸操作模式自适应的方法和装置
JP5894380B2 (ja) * 2011-06-15 2016-03-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP5285789B2 (ja) * 2012-02-16 2013-09-11 株式会社コナミデジタルエンタテインメント ゲーム装置及びこれに用いるコンピュータプログラム
KR101398086B1 (ko) 2012-07-06 2014-05-30 (주)위메이드엔터테인먼트 온라인 게임에서의 유저 제스처 입력 처리 방법
EP2772867A1 (en) * 2013-02-28 2014-09-03 Assistance Publique, Hopitaux De Paris Method for assessing activity of an Autoinflammatory Disease
KR20140135275A (ko) * 2013-05-06 2014-11-26 (주)위메이드엔터테인먼트 모바일 게임에서의 유저 캐릭터 조작 방법
US10549180B2 (en) * 2013-09-30 2020-02-04 Zynga Inc. Swipe-direction gesture control for video games using glass input devices
KR102319286B1 (ko) * 2014-08-13 2021-10-29 삼성전자 주식회사 드래그 앤 드롭 처리 방법 및 장치
CN104436657B (zh) * 2014-12-22 2018-11-13 青岛烈焰畅游网络技术有限公司 游戏控制方法、装置以及电子设备
US10095396B2 (en) * 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9875020B2 (en) * 2015-07-14 2018-01-23 King.Com Ltd. Method for capturing user input from a touch screen and device having a touch screen
CN105183214B (zh) * 2015-08-04 2017-12-19 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN105214306B (zh) * 2015-09-02 2017-03-08 网易(杭州)网络有限公司 一种游戏角色控制方法及一种虚拟控制部件的控制方法
CN105194871B (zh) * 2015-09-14 2017-03-22 网易(杭州)网络有限公司 一种控制游戏角色的方法
US9870080B2 (en) * 2015-09-18 2018-01-16 Synaptics Incorporated Method, system, and device for controlling a cursor or user interface action as a function of touch and force input
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
US10413814B2 (en) * 2017-06-09 2019-09-17 Supercell Oy Apparatus and method for controlling user interface of computing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000167A (ja) * 2009-06-16 2011-01-06 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2014045965A (ja) * 2012-08-31 2014-03-17 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP6043448B1 (ja) * 2016-02-25 2016-12-14 株式会社コロプラ ゲームプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"モンスターハンタースマート", ファミ通APP IPHONE NO.010, JPN6022013659, 17 October 2013 (2013-10-17), pages 18, ISSN: 0004909938 *

Also Published As

Publication number Publication date
ES2891317T3 (es) 2022-01-27
KR102495380B1 (ko) 2023-02-02
US11590414B2 (en) 2023-02-28
US20230277923A1 (en) 2023-09-07
KR20200015587A (ko) 2020-02-12
US11045720B2 (en) 2021-06-29
EP3635526B1 (en) 2021-07-28
CN110678835A (zh) 2020-01-10
US10413814B2 (en) 2019-09-17
US12048872B2 (en) 2024-07-30
US20210322866A1 (en) 2021-10-21
US20200016483A1 (en) 2020-01-16
EP3635526A1 (en) 2020-04-15
WO2018224728A1 (en) 2018-12-13
US20180353849A1 (en) 2018-12-13
JP7229942B2 (ja) 2023-02-28

Similar Documents

Publication Publication Date Title
KR102559288B1 (ko) 고정된 오프셋 타겟팅 위치를 선택하는 기법
US12048872B2 (en) Apparatus and method for controlling user interface of computing apparatus
JP6438198B2 (ja) プログラム及びゲーム装置
US20130217498A1 (en) Game controlling method for use in touch panel medium and game medium
JP6217000B2 (ja) ゲーム装置及びプログラム
US8777746B2 (en) Gestures to encapsulate intent
JP6193586B2 (ja) プログラム、システム、および、方法
JP6450875B1 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP7477804B2 (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
JP7518442B2 (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
JP2020110603A (ja) ゲームプログラム、方法、および情報処理装置
JP2020110453A (ja) ゲームプログラム、方法、および情報処理装置
JP7345093B2 (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
JP2014106803A (ja) 行動制御装置、行動制御方法、プログラム
KR20170004658A (ko) 부대 발사를 이용한 전투 게임 시스템 및 방법
JP2020089494A (ja) ゲームプログラム、ゲーム表示方法及びゲーム端末
JP2019150557A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP2020028652A (ja) ゲームプログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7229942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150