JP2018518997A - タッチスクリーンに基づく操作及び制御方法及び端末 - Google Patents

タッチスクリーンに基づく操作及び制御方法及び端末 Download PDF

Info

Publication number
JP2018518997A
JP2018518997A JP2017544614A JP2017544614A JP2018518997A JP 2018518997 A JP2018518997 A JP 2018518997A JP 2017544614 A JP2017544614 A JP 2017544614A JP 2017544614 A JP2017544614 A JP 2017544614A JP 2018518997 A JP2018518997 A JP 2018518997A
Authority
JP
Japan
Prior art keywords
effect range
area
auxiliary control
contact point
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017544614A
Other languages
English (en)
Other versions
JP6423106B2 (ja
Inventor
タン,ヨン
リアオ,チャンヤン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2018518997A publication Critical patent/JP2018518997A/ja
Application granted granted Critical
Publication of JP6423106B2 publication Critical patent/JP6423106B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2401Detail of input, input devices
    • A63F2009/2402Input by manual operation
    • A63F2009/241Touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

タッチスクリーンベースの制御方法を開示する。この方法は:タッチスクリーン上に表示される第1アイコンに作用する第1接触点を検出するステップと;補助制御領域及び候補効果範囲領域を表示するステップであって、候補効果範囲領域の面積が補助制御領域の面積よりも大きいステップと;第1接触点が補助制御領域内へ移動されると、第1接触点の位置及び候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得するステップと;取得された第1効果範囲内の仮想ターゲットに対して、第1アイコンに対応する第1操作を実行するステップを含む。

Description

本開示は、制御技術の分野に関し、具体的には、タッチスクリーンベースの制御方法及び端末に関する。
マルチプレーヤ・オンラインバトル・アリーナゲーム(MOBA(multiplayer online battle arena games)ゲーム)では、ユーザは技(skill)を出す(cast)ためにゲームキャラクタを制御する必要がある。現在、キーボード又はマウスのような入力デバイスを使用することにより、ゲームキャラクタをデスクトップコンピュータ上で都合よく制御して技を出すことができる。しかしながら、タッチスクリーンを有するモバイル端末の操作は、デスクトップコンピュータのものとは大きく異なる。MOBAゲームにおいてゲームキャラクタを制御して技を出すためにデスクトップコンピュータで元々使用されていた制御方法を、タッチスクリーンを有するモバイル端末に直接適用することは難しい。
従来の技術では、MOBAゲームにおいて、仮想ターゲットを制御して技を出すためのタッチスクリーンベースの制御方法がある。図1を参照すると、モバイル端末は、タッチスクリーン上に1つ以上の技アイコンを表示する。ユーザは、タッチスクリーン上に表示された技アイコン102を指で触り、技アイコン102をタッチスクリーン上のターゲット位置104へドラッグしてタッチスクリーンから離すと、制御されたユーザのゲームキャラクタ106を制御して、技アイコン102に対応する技を出す。この場合、モバイル端末は、技アイコン102に対応する技の効果範囲108を描画する。効果範囲108はターゲット位置104を覆う。このように、技を出した後、効果範囲108内に別の仮想ターゲット110が存在する場合、この仮想ターゲット110は、技アイコン102に対応する技の影響を受ける。具体的には、仮想ターゲット110のゲーム属性が増加又は減少するか、仮想ターゲット110の動きが制限される。
しかしながら、MOBAゲームにおいて技を出すためにゲームキャラクタを制御する従来のタッチスクリーンベースの制御方法では、ユーザは指でタッチスクリーン上の大きな範囲内でドラッグ操作を行う必要があり、ユーザが、タッチスクリーン上で影響を与えたいと思うターゲットを覆ってしまう可能性がある。したがって、操作(operation)が非常に不便であり、操作効率に影響を与える。
本出願において開示されるタッチスクリーンベースの制御方法及び端末は、背景技術で説明される1つ以上の課題及び他の課題を解決する。
本発明の実施形態の第1側面は、タッチスクリーンベースの制御方法を提供する。当該方法は:
タッチスクリーン上に表示される第1アイコンに作用する第1接触点を検出するステップと;
補助制御領域(auxiliary control region)及び候補効果範囲領域(candidate effect range region)を表示するステップであって、候補効果範囲領域の面積(area)が補助制御領域の面積よりも大きいステップと;
第1接触点が補助制御領域内へ移動されると、第1接触点の位置及び候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得するステップと;
取得された第1効果範囲内の仮想ターゲットに対して、第1アイコンに対応する第1操作を実行するステップと;
を含む。
本発明の実施形態の第2側面は、不揮発性記憶媒体とプロセッサとを備えた端末を提供する。不揮発性記憶媒体は命令を記憶し、該命令がプロセッサによって実行されると、プロセッサは:
タッチスクリーン上に表示される第1アイコンに作用する第1接触点を検出するステップと;
補助制御領域及び候補効果範囲領域を表示するステップであって、候補効果範囲領域の面積が補助制御領域の面積よりも大きいステップと;
第1接触点が補助制御領域内へ移動されると、第1接触点の位置及び候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得するステップと;
取得された第1効果範囲内の仮想ターゲットに対して、第1アイコンに対応する第1操作を実行するステップと;
を実行することを可能にされる。
本発明の実施形態又は既存の技術における技術的解決策をより明確に説明するために、以下に、実施形態又は既存技術を説明するために必要な添付の図面を簡単に紹介する。明らかに、以下の説明における添付の図面は、単に、本発明の一部の実施形態を示すものに過ぎず、当業者は創造的な努力なしにこれらの添付図面から他の図面を導くことができる。
MOBAゲームにおいて技を出すためにゲームキャラクタを制御する従来のタッチスクリーンベースの制御方法の概略的な操作図である。
一実施形態による端末の概略的な構成図である。
一実施形態による、タッチスクリーンベースの制御方法の概略的なフローチャートである。
一実施形態による、端末上でタッチスクリーンベースの制御方法を実装する第1インターフェースを示す図である。
一実施形態による、端末上でタッチスクリーンベースの制御方法を実装する第2インターフェースを示す図である。
一実施形態による、端末上でタッチスクリーンベースの制御方法を実装する第3インターフェースを示す図である。
一実施形態による、候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係及び第1接触点の位置に従って第1効果範囲を取得するステップの概略的なフローチャートである。
一実施形態による、第1効果範囲の代表位置を取得する概略的な原理図である。
別の実施形態による、候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係及び第1接触点の位置に従って第1効果範囲を取得するステップの概略的なフローチャートである。
別の実施形態による、第1効果範囲の代表位置を取得する概略的な原理図である。
一実施形態による、第2接触点に応じて第2操作を実行するステップの概略的なフローチャートである。
一実施形態による、端末上でタッチスクリーンベースの制御方法を実装する第4インターフェースを示す図である。
一実施形態による、タッチスクリーンベースの制御方法の概略的なフローチャートである。
一実施形態による、端末上でタッチスクリーンベースの制御方法を実装する第5インターフェースを示す図である。
一実施形態による、端末上でタッチスクリーンベースの制御方法を実装する第6インターフェースを示す図である。
一実施形態による、端末上でタッチスクリーンベースの制御方法を実装する第7インターフェースを示す図である。
一実施形態による、端末上でタッチスクリーンベースの制御方法を実装する第8インターフェースを示す図である。
一実施形態による、タッチスクリーンベースの制御装置の構造ブロック図である。
別の実施形態による、タッチスクリーンベースの制御装置の構造ブロック図である。
一実施形態による、位置決めモジュールの構造ブロック図である。
更に別の実施形態による、タッチスクリーンベースの制御装置の構成ブロック図である。
本開示の目的、技術的解決策及び利点を、より明確でより理解しやすいものにするため、以下では、添付の図面及び実施形態を参照して本開示を更に詳細に説明する。本明細書に記載される特定の実施形態は、単に本開示を説明するために使用されているに過ぎず、本開示を限定するように意図されていないことを理解されたい。
図2に図示されるように、一実施形態では、システムバスを使用して接続されるプロセッサ、不揮発性記憶媒体、メモリ及びタッチスクリーンを含む端末200が提供される。プロセッサは、演算機能及び端末200全体の作業を制御する機能を有する。プロセッサは、タッチスクリーンベースの制御方法を実行するように構成される。不揮発性記憶媒体は、磁気記憶媒体、光記憶媒体及びフラッシュ記憶媒体を含む。不揮発性記憶媒体は、オペレーティングシステム及びタッチスクリーンベースの制御装置を格納する。タッチスクリーンベースの制御装置は、タッチスクリーンベースの制御方法を実施するように構成される。メモリは、オペレーティングシステム及びタッチスクリーンベースの制御装置のためにキャッシュを提供するように構成される。タッチスクリーンは、抵抗性タッチスクリーン、静電容量検出タッチスクリーン、赤外線タッチスクリーン及び表面弾性波タッチスクリーンを含む。タッチスクリーンは、タッチスクリーンに作用するタッチ操作を検出し、処理のためにタッチデータをプロセッサに返すように構成される。タッチスクリーンは更に、プロセッサによって指示されるように情報を表示するよう構成される。端末200は、例えば大型のゲームコンソール又は公的クエリマシン(public query machine)のように、タッチスクリーンを有する公的サービスデバイスであってよく、端末200はモバイル端末であってよい。モバイル端末は、携帯電話及びタブレットコンピュータを含む。
図3に図示されるように、一実施形態では、タッチスクリーンベースの制御方法が提供される。この実施形態では、説明のために、方法が図2の端末200に適用される例を使用する。この方法は、具体的には以下のステップを含む:
ステップ302:タッチスクリーン上に表示される第1アイコンに作用する第1接触点を検出する。
具体的には、アイコンは、このアイコンによって実施することができる操作を直感的に表示するために使用される。各アイコンは1つの操作に対応する。タッチスクリーンは、少なくとも1つのアイコンを表示する。アイコンの形やサイズは同じであっても異なっていてもよい。アイコンは、テキスト、記号、パターン又はアイコンの色、あるいはこれらの組合せのうちの少なくとも1つを使用することによって、互いに区別することができる。図4に図示されるように、アイコン402a、402b、402c及び402dが、タッチスクリーン上に表示されてよい。
端末200は、タッチスクリーンにアイコンを表示し、タッチスクリーンに表示されるアイコンは、少なくとも第1アイコンを含む。第1アイコン、第1接触点等における「第1」は、そのアイコンや接触点を識別するために使用され、数量を限定するためには使用されない。具体的には、ユーザは、指や容量式スタイラス等のようなタッチ対象物(touch subject)を使用してタッチスクリーンに触れることができる。このようにして、端末200は、タッチスクリーン上のタッチ対象物によってトリガされる接触点を検出することができる。タッチスクリーンが第1アイコンを表示している領域内に接触点が存在することが端末200によって検出された場合、その接触点は、第1アイコンに作用する第1接触点である。
ステップ304:補助制御領域及び候補効果範囲領域を表示する。候補効果範囲領域の面積は補助制御領域の面積より大きい。
具体的には、補助制御領域は、ユーザが操作を行う領域であり、候補効果範囲領域は、第1アイコンに対応する第1操作の第1効果範囲を決定するために使用される選択領域である。補助制御領域及び候補効果範囲領域は互いに交差していてもよく、互いから離間していてもよい。図4を参照すると、端末200は、補助制御領域404と候補効果範囲領域406を表示する。候補効果範囲領域が表示のために描画されるとき、候補効果範囲領域は立体表示効果の要件に従って変形されてよく、候補効果範囲領域が、その立体効果の下で対応する形状を有することができるという効果を得ることができる。例えば円形の候補効果範囲領域は、描画されるときは楕円形であるが、視覚的には円形である。
候補効果範囲領域の面積は、補助制御領域の面積よりも大きい。これは、ユーザが、操作中により小さな補助制御領域で操作し、タッチスクリーン全体の大きな領域では移動又は操作する必要がないということを確実にする。
補助制御領域と候補効果範囲領域は、幾何学的に類似していてもよい。例えば双方が円、楕円、多角形、あるいはエッジが同じ形状を持つ不規則な図形である。補助制御領域と候補効果範囲領域の形状は異なっていてもよい。補助制御領域内の位置を、候補効果範囲領域内の対応する位置にマッピングすることができる限り、例えば補助制御領域が円であり、対応する候補効果範囲領域が矩形であってよく、あるいは、補助制御領域が円であって、対応する候補効果範囲領域が多角形であってもよい。
一実施形態において、補助制御領域及び候補効果範囲領域はともに中心対称図形又は軸対称図形である。元の図形が該元の図形の中心点の周囲に180度回転した後に得られる図形が、元の図形と重なる場合は、元の図形を中心対称図形と呼び、中心点は対称の中心と呼ばれる。中心対称図形は、例えば辺の数が均等な円又は多角形であってよい。
一実施形態では、補助制御領域及び候補効果範囲領域はともに軸対称図形である。軸対称図形が対称軸に沿って折り返されると、軸対称図形の対称軸によって分離される2つの部分は互いに完全に重なる。軸対称図形は、例えば円、多角形、又は楕円であってよい。
一実施形態では、候補効果範囲領域の位置は、現在のユーザのゲームキャラクタの位置に従って決定される。現在のユーザのゲームキャラクタは、端末200のユーザによって現在制御されているゲームキャラクタを指す。具体的には、端末200は、現在のユーザのゲームキャラクタの位置を中心点として使用することにより候補効果範囲領域を描画してもよく、あるいは、現在のユーザのゲームキャラクタの位置を起点(starting point)として使用することにより候補効果範囲領域を描画してもよい。
一実施形態では、端末200は、補助制御領域と幾何学的に類似し、かつその面積が補助制御領域の面積よりも小さい図形、例えば図4の405を、補助制御領域内に表示してもよい。図形の領域は、第1アイコンの第1効果範囲と正の相関性がある(positively correlated)。この実施形態では、補助制御領域内の図形を使用することにより、第1アイコンに対応する第1操作の第1効果範囲の面積を直感的に表示することができ、これにより、ユーザは、操作中に第1効果範囲のサイズに従って第1効果範囲の位置を調整する。
ステップ306:第1接触点が補助制御領域内に移動されるとき、第1接触点の位置、及び、候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って、第1効果範囲を取得する。
具体的には、端末200は、第1接触点の移動を検出し、第1接触点が移動されるとき、第1接触点の移動軌跡(moving trace)に沿って移動するように第1アイコンを制御する。例えば第1アイコンは、第1接触点を中心として使用することにより、常に描画されてリフレッシュされてよい。このようにして、第1アイコンは、タッチ対象物が移動する間に視覚的に移動する。
補助制御領域内の位置は、候補効果範囲領域の位置とのマッピング関係を有する。補助制御領域内の第1接触点の位置は、マッピング関係に従って、候補効果範囲領域内の第1効果範囲の位置にマッピングされてよい。第1効果範囲は、円、扇形、直線又は任意の不規則な形状であってよい。
一実施形態では、補助制御領域と候補効果範囲領域が幾何学的に類似している場合、端末200は、補助制御領域に対する第1接触点の位置と、候補効果範囲領域に対する補助制御領域の比に従って、候補効果範囲領域に対する第1効果範囲の位置を決定することができる。
一実施形態では、補助制御領域と候補効果範囲領域が幾何学的に類似していない場合、あらかじめ補助制御領域内の位置と候補効果範囲領域内の位置との間の非線形マッピング関係を確立することができ、その結果、端末200は、非線形マッピング関係と、補助制御領域に対する第1接触点の位置とに従って、候補効果範囲領域に対する第1効果範囲の位置を決定することができる。
例えば図5を参照すると、ユーザが第1アイコン402aに触れ、第1接触点が生成される。ユーザは第1アイコンを補助制御領域404へドラッグする。この場合、第1アイコン402aは、補助制御領域404に対して右上の位置にある。候補効果範囲領域406に対する第1効果範囲408の代表位置410を計算することができる。図5内の点線は第1アイコンを表しており、移動前の第1アイコンの位置を表す。
ステップ308:取得した第1効果範囲の仮想ターゲットに対して、第1アイコンに対応する第1操作を実行する。
具体的には、操作決定イベント(operation determining event)を検出すると、端末200は、取得した第1効果範囲内の仮想ターゲットに対して、第1アイコンに対応する第1操作を実行することができる。操作決定イベントは、ユーザが第1効果範囲の位置を決定することを表すイベントである。一実施形態では、操作決定イベントは、接触点が消滅(disappear)すること、接触点が第1事前設定持続時間(preset duration)内は静的なままであること(stay static)、接触点が検出されてから第2事前設定持続時間に到達することを含む。
具体的には、第1接触点が消滅することは、タッチ対象物がタッチスクリーンのタッチ面から離れるときに発生するイベントである。第1接触点が第1事前設定持続時間内は静的なままであることは、タッチ対象物が、第1事前設定持続時間よりも長い期間、タッチスクリーンの同じ位置に触れていることを表す。第1接触点が検出されてから第2事前設定持続時間に到達することは、ユーザが第2事前設定持続時間内に決定(determining)を行うことを妨げる可能性がある。第2事前設定持続時間に到達する場合、ユーザが決定を行うことを示す。第1事前設定持続時間及び第2事前設定持続時間は、必要に応じて設定されてよい。
仮想ターゲットはデジタル操作物体(operational object)である。一実施形態では、仮想ターゲットは、プレイヤキャラクタと非プレイヤキャラクタ(NPC)とを含む。プレイヤキャラクタとは、プレイヤによって操作されるゲームキャラクタを指す。MOBAゲームでは、プレイヤキャラクタはヒーローと呼ばれることがある。各ヒーローはそれぞれの名前を持ち、様々な効果がある技を持っている。プレイヤキャラクタは成長機能を有する。プレイヤにより制御される様々なゲームキャラクタが、ゲームの進行により変化する。非プレイヤキャラクタは、MOBAゲームで自動的に制御されるゲームキャラクタである。非プレイヤキャラクタの様々なゲーム属性は通常一定であるか、あるいは成長特徴は比較的弱い。非プレイヤキャラクタは、騎兵、歩兵、射手、魔法使い、射手塔(archer tower)、小塔(turret)、魔法塔(magic tower)、破壊者(demolisher)、迫撃砲(mortar)、獣兵(beast soldier)等のうちの少なくとも1つであってよい。
一実施形態では、第1操作には、仮想ターゲットのゲーム属性値を変更すること、仮想ターゲットに指定の状態(specified state)を追加すること又は仮想ターゲットの移動性を制限することのうちの少なくとも1つが含まれる。ここでの変更は増加又は減少であってよい。仮想ターゲットのゲーム属性値を変更することは、物理的力の値(physical strength value)を変更すること、魔力値(magic value)を変更すること、敏捷性の属性値(agility attribute value)を変更すること、力の属性値(strength attribute value)を変更すること及び知性の属性値(intelligence attribute value)を変更することを含む。指定の状態には、無敵状態(unbeatable state)、魔法攻撃防御状態(magic attack-immune status)、物理攻撃防御状態(physical attack-immune status)、霊妙状態(ethereal status)、被毒状態(poisoned status)、減速状態、加速状態等の少なくとも1つが含まれる。移動性の制限は、フリーズ技能によって生じる仮想ターゲットのフリーズ、又は放心技能(daze skill)によって生じる仮想ターゲットの放心のうちの少なくとも1つを含む。
タッチスクリーンベースの制御方法によれば、タッチスクリーンはアイコンを表示する。ユーザは、タッチスクリーン上に表示されるアイコンのうちの第1アイコンをタップする。タッチスクリーンは、より小さい面積を有する補助制御領域と、より大きな面積を有する候補効果範囲領域を表示する。補助制御領域の位置は、候補効果範囲領域の位置とのマッピング関係を有する。このように、ユーザが第1アイコンをタップして第1アイコンを補助制御領域へドラッグするとき、ユーザは、小さい領域の補助制御領域に対する第1接触点の位置を調整することにより、大きい領域の候補効果範囲領域に対する第1効果範囲の位置を調整することができ、更には第1効果範囲内の仮想ターゲットに対して第1アイコンに対応する第1操作を実行することができる。ユーザは、大きい領域内でドラッグ操作を行う必要がなく、これにより、操作の利便性が向上し、第1効果範囲を正確に位置決め(positioning)することができる。
タッチスクリーンベースの制御方法は、MOBAゲームに適用されるだけでなく、設計分野に適用されてもよいことが理解されよう。例えば設計者は、補助制御領域を操作することによって候補効果範囲領域内の仮想ターゲットの着色部分を位置決めすることができる。この場合、仮想ターゲットは、例えば漫画のキャラクタ、衣服又は靴といった、編集又は設計される物体(object)である。
一実施形態において、タッチスクリーンベースの制御方法は更に、第1接触点が補助制御領域の外へ移動されるときに第1効果範囲をキャンセルするステップを含む。従来の技術では、アイコンをドラッグした後は、技を出す必要があり、キャンセルすることはできない。しかし、この実施形態では、第1接触点の移動が検出される。第1接触点が補助制御領域の外に移動されると、後続の第1操作をキャンセルするために、第1接触点の位置及び候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得する動作がキャンセルされる。この実施形態では、ユーザは、補助制御領域の外に第1アイコンを移動しようとすることによって、対応する第1操作をキャンセルすることができる。このことは、操作をより便利にする。
例えば図6を参照すると、第1アイコン402aを補助制御領域404へ移動させた後に、ユーザが第1アイコン402aに対応する第1操作をキャンセルしたい場合、ユーザは続けて第1アイコン402aを補助制御領域404のエッジへ移動させ、この場合、第1効果範囲408は図6のように表示され、次いで補助制御領域404の外への第1アイコン402aの移動を続ける。この場合、端末200は、候補効果範囲領域406に対する第1効果範囲の位置の取得を止め、第1効果範囲の表示を止めて、第1アイコン402aに対応する第1操作を実行しない。
図7に図示されるように、補助制御領域と候補効果範囲領域は幾何学的に類似している実施形態では、第1接触点の位置、及び、候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得するステップ306は、具体的に、以下のステップを含む:
ステップ702:補助制御領域の中心点から第1接触点までの方向、第1接触点と中心点との間の第1距離、上記の方向に沿った補助制御領域の中心点とそのエッジとの間の第2距離、上記方向に沿った候補効果範囲領域の中心点と候補効果範囲領域のエッジとの間の第3距離を取得する。
詳細は図8を参照されたい。補助制御領域802と候補効果範囲領域804は幾何学的に類似している。端末200は、補助制御領域802の中心点c1に対する第1接触点p1の方向fを取得する。端末200は、第1接触点p1と中心点c1との間の第1距離であるd1を取得する。端末200は、方向fに沿った中心点c1と補助制御領域802のエッジとの間の第2距離であるd2を取得する。端末200は、方向fに沿った候補効果範囲領域804の中心点c2と候補効果範囲領域804のエッジとの間の第3距離であるd3を取得する。方向fを第1方向と呼ぶことがある。補助制御領域802の中心点c1は、補助制御領域802の対称点又は重心点であるか、あるいは補助制御領域802のほぼ中央の点であってもよい。
ステップ704:第2距離に対する第1距離の比を計算する。
具体的には、第2距離d2に対する第1距離d1の比であるd1/d2が計算される。
ステップ706:上記の比に従って、上記方向に沿って候補効果範囲領域の中心点から開始する第3距離上の点を取得し、該取得された点に従って第1効果範囲を取得する。
具体的には、点p2は、方向fに沿って候補効果範囲領域804の中心点c2から開始する第3距離d3上のd1/d2の位置で得られる。点p2は、第1効果範囲の代表位置(representative location)として使用される。第1効果範囲は、中心点p2を中心として使用することにより描画され、第1効果範囲が得られる。
この実施形態において、補助制御領域と候補効果範囲領域が幾何学的に類似しているとき、補助制御領域と候補効果範囲領域は、いずれかの規則的な形状であっても不規則な形状であってもよく、非常に高い適合性を有する。
図9に図示されるように、補助制御領域と候補効果範囲領域の双方が円である一実施形態では、第1接触点の位置、及び、候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って、第1効果範囲を取得するステップ306は、具体的に、以下のステップを含む:
ステップ902:補助制御領域の中心から第1接触点までの距離及び方向と、候補効果範囲領域及び補助制御領域のそれぞれの半径を取得する。
具体的には、図10を参照すると、補助制御領域1002と候補効果範囲領域1004の双方が円である。補助制御領域1002の中心はC1であり、半径はR1である。候補効果範囲領域1004の中心はC2であり、半径はR2である。第1接触点はP1であり、第1アイコンは1003であり、第1効果範囲は1005であり、第1効果範囲1005の代表位置はP2である。補助制御領域1002の中心から第1接触点P1までの方向はFである。方向Fは第2方向と呼ばれることがある。
ステップ904:補助制御領域の半径に対する候補効果範囲領域の半径の比に従って、上記の方向に沿って候補効果範囲領域の半径上の点を取得し、該取得した点に従って第1効果範囲を取得する。
具体的には、以下の式が提供される:
C2P2/R2=C1P1/R1
ここで、C2P2は候補効果範囲領域1004の中心C2と代表位置P2との間の距離、C1P1は補助制御領域1002の中心C1と第1接触点P1との間の距離であり、C2P2及びC1P1の方向は同じである。
上記の式に従って、C2P2=C1P1*R2/R1を得ることができる。すなわち、補助制御領域1002の中心C1と第1接触点P1との間の距離に、補助制御領域1002の半径に対する候補効果範囲領域1004の半径の比R2/R1を乗算して、方向Fに沿った候補効果範囲領域1004の半径上の点P2を取得し、第1効果範囲の代表位置を取得する。
本実施形態では、補助制御領域と候補効果範囲領域が双方とも円であるとき、その半径の比に従って第1効果範囲を迅速に決定することができる。したがって、計算効率が高い。
図11に図示されるように、一実施形態では、タッチスクリーンベースの制御方法は更に、第2接触点に従って第2操作を実行するステップを含む。この方法は、具体的には以下のステップを含む。
ステップ1102:タッチスクリーン上に表示される第2アイコンに作用する第2接触点を検出する。
具体的には、ユーザは、指や容量式スタイラス等のタッチ対象物を使用することによりタッチスクリーンに触れてよい。このようにして、端末200は、タッチスクリーン上のタッチ対象物によってトリガされる接触点を検出することができる。タッチスクリーンが第2アイコンを表示している領域内に接触点が存在することが端末200によって検出された場合、接触点は、表示されるアイコンのうち第2アイコンに作用する第2接触点である。
ステップ1104:第2接触点が補助制御領域内へ移動されると、第2接触点の位置、及び、候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って第2効果範囲を取得する。
具体的には、端末200は、第2接触点の移動を検出し、第2接触点が移動されると、第2接触点の移動軌跡に沿って移動するように第2アイコンを制御する。例えば第2接触点を中心として使用することにより、第2アイコンが常に描画され、リフレッシュされ得る。このようにして、タッチ対象物が移動する間、第2アイコンは視覚的に移動する。
補助制御領域の位置は、候補効果範囲領域の位置とのマッピング関係を有する。代表位置に従って第2効果範囲を決定するために、補助制御領域内の第2接触点の位置を、マッピング関係に従って候補効果範囲領域内の第2効果範囲の代表位置にマッピングすることができる。
一実施形態において、補助制御領域と候補効果範囲領域が幾何学的に類似している場合、端末200は、第2効果範囲を取得するために、補助制御領域に対する第2接触点の位置と、候補効果範囲領域に対する補助制御領域の比に従って、第2効果範囲の代表位置を決定することができる。
一実施形態において、補助制御領域と候補効果範囲領域が幾何学的に類似していない場合、端末200は、あらかじめ補助制御領域内の位置と候補効果範囲領域内の位置との間の非線形マッピング関係を確立することができ、これにより、端末200は、非線形マッピング関係と、補助制御領域に対する第2接触点の位置に従って、第2効果範囲を決定することができる。
ステップ1106:第1操作をキャンセルし、取得した第2効果範囲内の仮想ターゲットに対して、第2アイコンに対応する第2操作を実行する。
具体的には、操作決定イベントを検出すると、端末200は、第1操作をキャンセルし、取得した第2効果範囲内の第2アイコンに対応する第2操作を実行してよい。一実施形態では、操作決定イベントは、接触点が消滅すること、接触点が第1事前設定持続時間内は静的なままであること、そして接触点が検出されてから第2事前設定持続時間に到達することを含む。
具体的には、第2接触点が消滅することは、タッチ対象物がタッチスクリーンのタッチ面を離れるときに発生するイベントである。第2接触点が第1事前設定持続時間内は静的なままであることは、タッチ対象物が、第1事前設定持続時間よりも長い期間、タッチスクリーンの同じ位置に触れていることを表す。第2接触点が検出されてから第2事前設定持続時間に到達することは、ユーザが第2事前設定持続時間内に決定を行うことを妨げる可能性がある。第2事前設定持続時間に到達する場合、ユーザが決定を行うことを指示する。第1事前設定持続時間及び第2事前設定持続時間は、必要に応じて設定されてよい。
一実施形態において、第2操作は、仮想ターゲットのゲーム属性値を変更すること、仮想ターゲットに指定の状態を追加すること又は仮想ターゲットの移動性を制限することのうちの少なくとも1つを含む。
端末200は、操作決定イベントを検出すると、第1操作が依然として実行されている場合、第1操作をキャンセルして、取得した第2効果範囲内の第2アイコンに対応する第2操作を実行する。端末200は、操作決定イベントを検出すると、第1操作が既に終了している場合、取得した第2効果範囲内の第2アイコンに対応する第2操作を直接実行する。操作決定イベントを検出する前、端末200は、第1操作の実行を妨げない。
例えば図12を参照すると、端末200による第1操作を実行するプロセスにおいて、第1アイコン402aは、第1操作がトリガされる位置にとどまる。この場合、ユーザは、タッチスクリーン上の第2アイコン402bに触れ、第2アイコン402bを補助操作領域へドラッグし、第1操作の実行はドラッグプロセスでは中断されない。端末200は、第2効果範囲412の代表位置を取得する。ユーザが第2アイコン402bに接触することを止めると、端末200は第1操作の実行を中断し、第1アイコン402aはそれ以上補助操作領域内にとどまらず、第1アイコン402aの元の位置へリセットされる。さらに、端末200は、第2アイコン402bに対応する第2操作を実行し、第2アイコン402bは、第2操作がトリガされる位置にとどまる。
この実施形態では、第1アイコンに対応する第1操作を、第2アイコンに対応する第2操作によってキャンセルすることができ、これにより、操作の制御性を向上させることができる。
一実施形態では、方法は更に、ステップ304の前に、第1接触点の移動を検出するステップと;第1接触点が移動するとき、ステップ304及び後続のステップを実行するステップ;又は第1接触点が静的であり、操作決定イベントが検出されるとき、ロックされた仮想ターゲット(locked virtual target)を取得し、ロックされた仮想ターゲットの位置に従って第1効果範囲を決定し、第1効果範囲内の仮想ターゲットに対して第1アイコンに対応する第1操作を実行するステップとを含む。
具体的には、仮想ターゲットをロックすることは、仮想ターゲットを操作物体として使用することを指す。第1接触点が移動した場合、現在のユーザが、補助操作領域を使用することにより第1効果範囲を決定する必要があることを示す。第1接触点が静的であり、操作決定イベントが検出された場合、現在のユーザが第1効果範囲を自動的に決定する必要があることを示す。この場合、第1効果範囲は、ロックされた仮想ターゲットの位置に応じて決定され、第1操作がトリガされる。
一実施形態において、ユーザは、仮想ターゲットを直接操作することによって、例えば仮想ターゲットをテーピング(taping)することを指示することによって、仮想ターゲットをロックすることができる。一実施形態において、ユーザが仮想ターゲットをロックしていない場合、仮想ターゲットは、仮想ターゲットの重要性の優先度(importance priorities)及び/又は仮想ターゲットと現在のユーザのゲームキャラクタとの間の距離に従って、自動的にロックされてよい。例えばMOBAゲームでは、より重要度の高いゲームキャラクタを選択してロックすることが好ましいことがある。重要度の高いゲームキャラクタが存在しない場合、より重要度の低いゲームキャラクタを選択してロックする。別の例として、現在のユーザのゲームキャラクタに最も近いゲームキャラクタを選択してロックすることが好ましいことがある。
この実施形態では、第1接触点が移動されたかどうかを検出することによって第1効果範囲を決定するための異なる方法がユーザに提供され、これにより、第1操作をトリガするための異なる方法を提供する。これらの方法は、様々なゲームシナリオに適用されてよく、高い互換性と高い操作性を有する。
図13を参照すると、特定の実施形態では、タッチスクリーンベースの制御方法が提供される。この実施形態は、モバイル端末のMOBAゲームに適用される。アイコンは技アイコンである。補助制御領域は補助円である。候補効果範囲領域は実際の円である。補助円と実際の円はともに円である。効果範囲は技発揮範囲(skill cast range)である。実際の円の面積は、補助円の面積よりも大きい。実際の円は、ここでは、ゲームマップ上に実際に表示される円をいう。方法は、具体的には以下のステップを含む:
ステップ1302:タッチスクリーン上に表示される第1技アイコンに作用する第1接触点を検出する。
ステップ1304:第1接触点の移動を検出する;第1接触点が移動され、スライディング操作(sliding operation)が形成されるとき、ステップ1306を実行するし;あるいは第1接触点が静的であり、タップ操作が形成されるとき、ステップ1322を実行する。
ステップ1306:現在のユーザのゲームキャラクタの位置を取得し、現在のユーザのゲームキャラクタの位置に従って実際の円(actual circle)の位置を決定する。
ステップ1308:補助円(auxiliary circle)を表示し、実際の円の決定された位置に実際の円を表示する。ここで、実際の円の面積は補助円の面積より大きい。
ステップ1310:第1接触点が補助円へ移動されるとき、第1接触点の位置、及び、実際の円の位置と補助円の位置との間のマッピング関係に従って、第1技発揮範囲を取得する。
ステップ1312:第1接触点が補助円の外に移動されると、第1技発揮範囲の取得をキャンセルする。
ステップ1314:取得した第1技発揮範囲内の仮想ターゲットに対して、第1アイコンに対応する第1技を出す。
ステップ1316:タッチスクリーン上に表示される第2技アイコンに作用する第2接触点を検出する。
ステップ1318:第2接触点が補助円に移動されるとき、第2接触点の位置、及び、実際の円の位置と補助円の位置との間のマッピング関係に従って、第2技発揮範囲を取得する。
ステップ1320:第1技を出すことを中断し、取得した第2技発揮範囲の仮想ターゲットに対して、第2技アイコンに対応する第2技を出す。ステップ1316からステップ1320は省略してもよいことが理解されよう。
ステップ1322:ロックされた仮想ターゲットを取得し、ロックされた仮想ターゲットの位置に従って第1技発揮範囲を決定し、対応する第1技発揮範囲内の仮想ターゲットに対して、第1アイコンに対応する第1技を出す。
仮想ターゲットがロックされているとき、仮想ターゲットは、重要度に従って、あるいは仮想ターゲットと現在のユーザのゲームキャラクタとの間の距離に従って選択されてよい。
この実施形態では、ユーザは、タッチスクリーン上に表示されるアイコンのうち第1技アイコンをタップし、タッチスクリーンは補助円と実際の円を表示し、補助円の位置は、実際の円の位置とのマッピング関係を有する。このように、第1技アイコンをタップして第1技アイコンを補助円へドラッグすると、ユーザは、より小さな面積を有する補助円内で第1接触点の位置を制御することにより、より大きな面積を有する実際の円内の第1技発揮範囲の位置を調整することができる。このようにして、ユーザは、大きな領域内でドラッグ操作を行う必要がなく、操作の利便性が向上し、第1効果範囲を正確に位置決めすることができる。
第1技発揮範囲を決定するためにユーザによって使用される方法は、第1接触点が移動されたかどうかを検出することによって決定され、これにより、ユーザに複数の制御方法を提供することができる。ユーザが第1技アイコンをタップするが移動させないとき、ユーザは、第1技発揮範囲を決定し、更には第1技発揮範囲内の仮想ターゲットに対して第1技を出すために、ロックされた仮想ターゲットの位置を迅速に取得することができ、これにより、迅速に技を出すことができる。このようにして、正確で効率的な位置決めによって特徴付けられる技の発揮方法をゲームの熟練者(game master hand)に提供することができ、また、シンプルで直接的な技の発揮方法をゲームの初心者(game green hand)に提供することができる。
加えて、ユーザが第1技アイコンを補助円の外に移動させると、第1技の発揮をキャンセルすることができる。ユーザが間違った技を選択したり、技を出す戦略を突然変更したりするとき、技の発揮を迅速にキャンセルすることができ、これにより、例えば別の技を出すことを選択するか、現在のユーザのゲームキャラクタを移動させるよう制御することのように別の操作を続けることができる。
タッチスクリーンベースの制御方法の原理は、特定の適用シナリオを使用することにより、以下で説明される。この適用シナリオは、モバイル端末のMOBAゲームに適用される。アイコンは技アイコンである。補助制御領域は補助円である。候補効果範囲領域は実際の円である。補助円と実際の円はともに円形である。効果範囲は技発揮範囲である。実際の円の面積は、補助円の面積よりも大きい。具体的には、以下のステップが含まれる:
ユーザがタッチスクリーン上に表示される第1技アイコンをタップすると、タッチスクリーンは、現在のユーザキャラクタを中心として使用して実際の円を表示し、タッチスクリーンのエッジに補助円を表示する。具体的には、図14を参照すると、ユーザは、第1技アイコン1401をタップする。第1技アイコン1401に対応する第1技は、フリーズ魔法(freezing magic)である。発揮効果は、第1技発揮範囲内の仮想ターゲットに対して一定の値のダメージを生じ、仮想ターゲットの移動速度が減少することである。この場合、タッチスクリーンは、現在のユーザのゲームキャラクタ1402を中心として使用することにより実際の円を表示し、タッチスクリーンの右側に補助円を表示する。図中の技アイコン1403は、以前に出した技に対応する技アイコンである。技アイコンがタップされると、以前に出した技をすぐに出すことができる。
ユーザは、第1技アイコンを補助円へドラッグする。モバイル端末は、補助円内の第1技アイコンの位置、及び、実際の円の位置と補助円の位置とのマッピング関係に基づいて第1技発揮範囲を獲得する。図14を参照すると、ユーザは、第1技アイコン1401を補助円に移動させ、モバイル端末は、第1技発揮範囲の代表点の位置を計算し、代表点を中心として使用して第1技発揮範囲の一定の半径に従うことにより、第1技発揮範囲1404を形成する。具体的には、図15を参照すると、代表点Bが計算されるとき、実際の円の中心がA、実際の円の半径がr、補助円の中心がa、補助円の半径がR、第1技アイコンの中心がbでありと仮定すると、ab=AB*R/rであり、abとABの方向は同じである。
ユーザは、第1技アイコンを補助円の外へドラッグして、第1技発揮範囲を取得することをキャンセルする。具体的には、ユーザが第1技アイコンを補助円のエッジへドラッグすると、図16に図示される第1技発揮範囲1601が表示される。第1技発揮範囲の取得は、ユーザがドラッグの実行を続けるとキャンセルされ、第1技を出すことがキャンセルされる。
ユーザが第1技アイコンを補助円へドラッグしてタッチを終了した後、モバイル端末は、取得した第1技発揮範囲内の仮想ターゲットに対して、第1アイコンに対応する第1技を出す。具体的には、図14を参照すると、第1技アイコン1401に対応する第1技は、フリーズ魔法である。この場合、モバイル端末は、取得した第1技発揮範囲内の仮想ターゲットにフリーズ魔法を出す。これは各仮想ターゲットを傷つけ、これらの仮想ターゲットの移動速度を低下させる。
ユーザが第1技アイコンを直接タップし、第1技アイコンを移動させない場合、モバイル端末は、ロックされた仮想ターゲットを取得し、ロックされた仮想ターゲットの位置に従って第1技発揮範囲を決定し、第1技発揮範囲内の仮想ターゲットに対して第1技を出す。仮想ターゲットが現在のユーザのゲームキャラクタの攻撃範囲内にない場合、モバイル端末は、仮想ターゲットが現在のユーザのゲームキャラクタの攻撃範囲内になるように移動するよう現在のユーザのゲームキャラクタを制御し、次いで、ロックされた仮想ターゲットの位置に従って第1技発揮範囲を決定し、第1技を出す。図17を参照すると、仮想ターゲット、具体的にはHu Wangという名前のヒーロー1701が、敵の仮想ターゲットをタップすることによりロックされている場合は、ユーザは第1技アイコン1702を直接タップする。補助円と実際の円は表示されていない。代わりに、第1技発揮範囲が、ヒーロー1701の位置に従って直接形成される。第1技は、ヒーロー1701を傷つけるために、第1技発揮範囲内で直接発揮される。ここでは、複数の制御方法がユーザに提供され、正確かつ効率的な位置決めによって特徴付けられる技の発揮方法をゲームの熟練者に提供することができ、シンプルで直接的な技の発揮方法をゲームの初心者に提供することもできる。
図18を参照すると、一実施形態では、接触点検出モジュール1801、表示モジュール1802、位置決めモジュール1803及び操作実行モジュール1804を含む、タッチスクリーンベースの制御装置1800が提供される。
接触点検出モジュール1801は、タッチスクリーン上に表示される第1アイコンに作用する第1接触点を検出するように構成される。
具体的には、アイコンは、このアイコンによって実現可能な操作を直感的に表示するために使用される。各アイコンは1つの操作に対応する。タッチスクリーンは少なくとも1つのアイコンを表示する。アイコンの形及びサイズは同じであっても異なっていてもよい。アイコンは:テキスト、記号、パターン又はアイコンの色、あるいはこれらの組合せのうちの少なくとも1つを使用することによって、互いに区別され得る。
タッチスクリーン上に表示されるアイコンは、少なくとも第1アイコンを含む。第1アイコン、第1接触点等における「第1」とは、アイコンや接触点を識別するために使用されており、数量を限定するためには使用されていない。具体的には、ユーザは、指又は容量式スタイラスといったタッチ対象物を使用することによりタッチスクリーンに触れることができる。このようにして、接触点検出モジュール1801は、タッチスクリーン上のタッチ対象物によってトリガされる接触点を検出するように構成される。タッチスクリーンが第1アイコンを表示している領域内に接触点が存在することを接触点検出モジュール1801が検出した場合、接触点は、第1アイコンに作用する第1接触点である。
表示モジュール1802は、補助制御領域及び候補効果範囲領域を表示するように構成される。候補効果範囲領域の面積は補助制御領域の面積よりも大きい。
具体的には、補助制御領域は、ユーザが操作を行う領域であり、候補効果範囲領域は、第1アイコンに対応する第1操作の第1効果範囲を決定するために使用される選択領域である。補助制御領域と候補効果範囲領域は互いに交差してもよく、互いに離間していてもよい。候補効果範囲領域が表示のために描画されるとき、候補効果範囲領域は、立体表示効果における要求に従って変形されてよく、候補効果範囲領域がその立体効果の下で対応する形状を有するという効果を得ることができる。例えば円形の候補効果範囲領域は、描画されるときに楕円形であるが、視覚的には円形である。
候補効果範囲領域の面積は、補助制御領域の面積よりも大きい。このことは、ユーザが、操作中により小さい補助制御領域で操作し、タッチスクリーン全体の大きな領域で移動又は操作する必要がないことを確実にする。
補助制御領域と候補効果範囲領域は、幾何学的に類似していてもよい。例えば双方の領域が、円、楕円、多角形又はエッジが同じ形状を持つ不規則な図形である。補助制御領域と候補効果範囲領域の形状は異なっていてもよい。例えば補助制御領域内の位置を候補効果範囲領域内の対応する位置にマッピングすることができる限りにおいて、補助制御領域が円であり、対応する候補効果範囲領域が矩形であってもよく、あるいは、補助制御領域が円であり、対応する候補効果範囲領域が多角形であってもよい。
一実施形態では、補助制御領域及び候補効果範囲領域がともに中心対称図形又は軸対称図形である。元の図形が元の図形の中心点を中心に180度回転された後の図形が、元の図形と重なる場合は、元の図形を中心対称図形と呼び、中心点が対称の中心と呼ばれる。中心対称図形は、例えば円、あるいは等しい数の辺を有する多角形であってよい。
一実施形態では、補助制御領域及び候補効果範囲領域がともに軸対称図形である。軸対称図形がその対称軸に沿って折り畳まれた後、軸対称図形の対称軸によって分離される2つの部分は互いに完全に重なる。軸対称図形は、例えば円、多角形又は楕円であってよい。
一実施形態において、候補効果範囲領域の位置は、現在のユーザのゲームキャラクタの位置に従って決定される。現在のユーザのゲームキャラクタは、現在のユーザによって制御されるゲームキャラクタである。表示モジュール1802は、現在のユーザのゲームキャラクタの位置を中心点として使用することにより、候補効果範囲領域を描画するように構成されてよい。表示モジュール1802は、現在のユーザのゲームキャラクタの位置を起点として使用することにより、候補効果範囲領域を描画するように更に構成されてもよい。
一実施形態では、表示モジュール1802は、補助制御領域と幾何学的に類似し、かつその面積が補助制御領域の面積よりも小さい図形、例えば図4の405を、補助制御領域内に表示するように構成されてよい。図形の面積は、第1アイコンの第1効果範囲と正の相関性がある。この実施形態では、第1アイコンに対応する第1操作の第1効果範囲のサイズを、補助制御領域内の図形を使用することにより直感的に表示することができ、これにより、ユーザが、第1効果範囲のサイズに従って、第1効果範囲の位置を操作中に調整することができる。
位置決めモジュール1803は、第1接触点が補助制御領域内に移動されると、第1接触点の位置、及び、候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って、第1効果範囲を取得するように構成される。
具体的には、位置決めモジュール1803は、第1接触点の移動を検出し、第1接触点が移動されたとき、第1接触点の移動軌跡に沿って移動するように第1アイコンを制御する。例えば第1アイコンは、第1接触点を中心として使用することにより常に描画され、リフレッシュされてよい。このようにして、第1アイコンは、タッチ対象物が移動している間に視覚的に移動する。
補助制御領域の位置は、候補効果範囲領域の位置とのマッピング関係を有する。補助制御領域内の第1接触点の位置は、マッピング関係に従って、候補効果範囲領域の第1効果範囲の位置にマッピングされてよい。第1効果範囲は、円、扇形、直線又は任意の不規則な形状であってよい。
一実施形態において、補助制御領域と候補効果範囲領域が幾何学的に類似している場合、位置決定モジュール1803は、候補効果範囲領域に対する第1効果範囲の位置を、補助制御領域に対する第1接触点の位置と、候補効果範囲領域に対する補助効果制御領域の比とに従って決定するように構成されてよい。
一実施形態において、補助制御領域と候補効果範囲領域が幾何学的に類似していない場合、位置決めモジュール1803は、あらかじめ確立される補助制御領域内の位置と候補効果範囲領域内の位置との間の非線形マッピング関係と、補助制御領域に対する第1接触点の位置とに従って、候補効果範囲領域に対する第1効果範囲の位置を決定するように構成されてよい。
操作実行モジュール1804は、取得した第1効果範囲内の仮想ターゲットに対して、第1アイコンに対応する第1操作を実行するように構成される。
具体的には、操作決定イベントを検出すると、操作決定部1804は、取得した第1効果範囲内の仮想ターゲットに対して、第1アイコンに対応する第1操作を実行するように構成されてよい。一実施形態では、操作決定イベントは、接触点が消滅すること、接触点が第1事前設定持続時間内は静的なままであること、接触点が検出されてから第2事前設定持続時間に到達することを含む。接触点は、ここでは、第1接触点と第2接触点とを含む。第1接触点が消滅することは、タッチ対象物がタッチスクリーンのタッチ面を離れるときに発生するイベントである。第1接触点が第1事前設定持続時間内に静的なままであることは、タッチ対象物が、第1事前設定持続時間より長い期間、タッチスクリーンの同じ位置に触れていることを表す。第1接触点が検出されてから第2事前設定持続時間に到達することは、第2事前設定持続時間内にユーザが決定を行うことを妨げる可能性がある。第2事前設定持続時間に到達する場合、ユーザが決定を行うことを示す。第1事前設定持続時間及び第2事前設定持続時間は、必要に応じて設定されてよい。
仮想ターゲットはデジタル操作物体である。一実施形態では、仮想ターゲットは、プレイヤキャラクタと非プレイヤキャラクタ(NPC)とを含む。プレイヤキャラクタとは、プレイヤによって操作されるゲームキャラクタを指す。MOBAゲームでは、プレイヤキャラクタはヒーローと呼ばれることがある。各ヒーローはそれぞれの名前を持ち、様々な効果がある技を持っている。プレイヤキャラクタは成長機能を有する。プレイヤにより制御される様々なゲームキャラクタが、ゲームの進行により変化する。非プレイヤキャラクタは、MOBAゲームで自動的に制御されるゲームキャラクタである。非プレイヤキャラクタの様々なゲーム属性は通常一定であるか、あるいは成長特徴は比較的弱い。非プレイヤキャラクタは、騎兵、歩兵、射手、魔法使い、射手塔、小塔、魔法塔、破壊者、迫撃砲、獣兵等であってよい。
一実施形態では、第1操作は、仮想ターゲットのゲーム属性値を変更すること、仮想ターゲットに指定の状態を追加すること又は仮想ターゲットの移動性を制限することのうちの少なくとも1つを含む。ここでの変更は増加又は減少であってよい。仮想ターゲットのゲーム属性値を変更することは、物理的力の値を変更すること、魔力値を変更すること、敏捷性の属性値を変更すること、力の属性値を変更すること及び知性の属性値を変更することを含む。指定の状態は、無敵状態、魔法攻撃防御状態、物理攻撃防御状態、霊妙状態、被毒状態、減速状態、加速状態等を含む。移動性の制限は、フリーズ技能によって生じる仮想ターゲットのフリーズ又は放心技能によって生じる仮想ターゲットの放心を含む。
タッチスクリーンベースの制御装置1800によれば、タッチスクリーンはアイコンを表示する。ユーザは、タッチスクリーン上に表示されるアイコンのうち第1アイコンをタップする。タッチスクリーンは、より小さい面積を有する補助制御領域と、より大きな面積を有する候補効果範囲領域とを表示する。補助制御領域の位置は、候補効果範囲領域の位置とのマッピング関係を有する。このように、ユーザが第1アイコンをタップして第1アイコンを補助制御領域へドラッグするとき、ユーザは、小さい領域の補助制御領域に対する第1接触点の位置を調整することにより、大きい領域の候補効果範囲領域に対する第1効果範囲の位置を調整することができ、第1効果範囲内の仮想ターゲットに対して、第1アイコンに対応する第1操作を更に実行することができる。ユーザは、大きい領域内でドラッグ操作を行う必要がなく、これにより、操作の利便性が向上し、第1効果範囲を正確に位置決めすることができる。
図19を参照すると、一実施形態では、タッチスクリーンベースの制御装置1800は、操作キャンセルモジュール1805を更に含む。操作キャンセルモジュール1805は、第1接触点が補助制御領域の外へ移動されるときに、第1効果範囲の取得をキャンセルするように構成される。従来の技術では、アイコンをドラッグした後は、技を出す必要があり、キャンセルすることはできない。しかしながら、この実施形態では、第1接触点の移動を検出する。第1接触点が補助制御領域の外に移動されると、第1接触点の位置及び候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得する操作をキャンセルし、後続の第1操作をキャンセルする。この実施形態では、ユーザは、補助制御領域の外に第1アイコンを移動しようとすることによって、対応する第1操作をキャンセルすることができる。このことは、操作をより便利にする。
図20に図示されるように、一実施形態において、補助制御領域と候補効果範囲領域は幾何学的に類似する。位置決めモジュール1803は、取得モジュール1803aと、第1効果範囲決定モジュール1803bとを含む。
取得モジュール1803aは、補助制御領域の中心点から第1接触点までの方向、第1接触点と中心点との間の第1距離、上記の方向に沿った補助制御領域の中心点とエッジとの間の第2距離、上記方向に沿った候補効果範囲領域の中心点と候補効果範囲領域のエッジとの間の第3距離を取得するように構成される。
第1効果範囲決定モジュール1803bは、第1距離と第2距離との比を計算し、この比に従って、上記方向に沿って候補効果範囲領域の中心点から開始する第3距離上の点を取得し、該取得された点に従って第1効果範囲を得る。
この実施形態において、補助制御領域と候補効果範囲領域が幾何学的に類似しているとき、補助制御領域と候補効果範囲領域は、いずれかの規則的な形状であっても不規則な形状であってもよく、非常に高い適合性を有する。
一実施形態では、位置決めモジュール1803は、取得モジュール1803a及び第1効果範囲決定モジュール1803bを含む。
取得モジュール1803aは、補助制御領域の円中心から第1接触点までの距離及び方向と、候補効果範囲領域と補助制御領域のそれぞれの半径を取得するように構成される。
第1効果範囲決定モジュール1803bは、補助制御領域の半径に対する候補効果範囲領域の半径の比に従って、上記の方向に沿って候補効果範囲領域の半径上の点を取得し、該取得した点に従って第1効果範囲を取得するように構成される。
この実施形態では、補助制御領域と候補効果範囲領域がともに円であるとき、その半径の比に従って第1効果範囲を迅速に決定することができる。したがって、計算効率が高い。
一実施形態では、接触点検出モジュール1801は、タッチスクリーン上に表示される第2アイコンに作用する第2接触点を検出するように更に構成される。
具体的には、接触点検出モジュール1801は、第2接触点の移動を検出し、第2接触点が移動されると、第2接触点の移動軌跡に沿って移動するように第2アイコンを制御する。例えば第2接触点を中心として使用することにより、第2アイコンが常に描画され、リフレッシュされ得る。このようにして、タッチ対象物が移動する間、第2アイコンは視覚的に移動する。
位置決めモジュール1803は更に、第2接触点が補助制御領域内へ移動されると、第2接触点の位置、及び、候補効果範囲領域の位置と補助制御領域の位置とのマッピング関係に従って第2効果範囲を取得するように構成される。
補助制御領域の位置は、候補効果範囲領域の位置とのマッピング関係を有する。補助制御領域内の第2接触点の位置を、マッピング関係に従って候補効果範囲領域内の第2効果範囲の代表位置にマッピングすることができ、これにより代表位置に従って第2効果範囲を決定することができる。
一実施形態において、補助制御領域と候補効果範囲領域が幾何学的に類似している場合、位置決めモジュール1803は、第2効果範囲を取得するために、補助制御領域に対する第2接触点の位置と、候補効果範囲領域に対する補助制御領域の比に従って、第2効果範囲の代表位置を決定するように構成されてよい。
一実施形態において、補助制御領域と候補効果範囲領域が幾何学的に類似していない場合、位置決めモジュール1803は、補助制御領域内の位置と候補効果範囲領域内の位置との間の非線形マッピング関係と、補助制御領域に対する第2接触点の位置に従って、第2効果範囲を決定するように構成されてよい。
操作実行モジュール1804は更に、第1操作をキャンセルし、取得した第2効果範囲の仮想ターゲットに対して、第2アイコンに対応する第2操作を実行するように構成される。
具体的には、操作決定イベントを検出すると、操作実行モジュール1804は、第1操作をキャンセルし、取得した第2効果範囲内の第2アイコンに対応する第2操作を実行するように構成されてよい。一実施形態では、操作決定イベントは、接触点が消滅すること、接触点が第1事前設定持続時間内は静的にとどまること、そして接触点が検出されてから第2事前設定持続時間に到達することを含む。
具体的には、第2接触点が消滅することは、タッチ対象物がタッチスクリーンのタッチ面を離れるときに発生するイベントである。第2接触点が第1事前設定持続時間内は静的なままであることは、タッチ対象物が、第1事前設定持続時間よりも長い期間、タッチスクリーンの同じ位置に触れていることを表す。第2接触点が検出されてから第2事前設定持続時間に到達することは、ユーザが第2事前設定持続時間内に決定を行うことを妨げる可能性がある。第2事前設定持続時間に到達する場合、ユーザが決定を行うことを示す。第1事前設定持続時間及び第2事前設定持続時間は、必要に応じて設定されてよい。
一実施形態において、第2操作は、仮想ターゲットのゲーム属性値を変更すること、仮想ターゲットに指定の状態を追加すること又は仮想ターゲットの移動性を制限することのうちの少なくとも2つを含む。
操作実行モジュール1804は、操作決定イベントを検出すると、第1操作がまだ行われている場合は、第1操作をキャンセルして、取得した第2効果範囲内の第2アイコンに対応する第2操作を実行する。操作実行モジュール1804は、操作決定イベントを検出すると、第1操作が既に終了している場合は、取得した第2効果範囲内の第2アイコンに対応する第2操作を直接実行する。操作決定イベントを検出する前は、端末200は、第1操作の実行を妨げない。
この実施形態では、第1アイコンに対応する第1操作を、第2アイコンに対応する第2操作によってキャンセルすることができ、これにより、操作の制御性を向上させることができる。
図21に図示されるように、一実施形態において、タッチスクリーンベースの制御装置1800は、第1接触点の移動を検出するように構成される移動検出モジュール1806を更に含む。
表示モジュール1802は、第1接触点が移動されると、補助制御領域及び候補効果範囲領域を表示するように更に構成される。
操作実行モジュール1804は、第1接触点が静的であり、操作決定イベントが検出されるとき、ロックされた仮想ターゲットを取得し、ロックされた仮想ターゲットの位置に従って第1効果範囲を決定し、対応する第1効果範囲内の仮想ターゲットに対して、第1アイコンに対応する第1操作を実行するように更に構成される。
具体的には、仮想ターゲットをロックすることは、仮想ターゲットを操作物体として使用することを指す。第1接触点が移動された場合、現在のユーザが、補助操作領域を使用することにより第1効果範囲を決定する必要があることを示す。第1接触点が静的であり、操作決定イベントが検出される場合、現在のユーザが、第1効果範囲を自動的に決定する必要があることを示す。この場合、第1効果範囲は、ロックされた仮想ターゲットの位置に従って決定され、第1操作がトリガされる。
一実施形態において、ユーザは、仮想ターゲットを直接操作することによって、例えば仮想ターゲットをテーピングすることを指示することによって、仮想ターゲットをロックすることができる。一実施形態において、ユーザが仮想ターゲットをロックしていない場合、仮想ターゲットは、仮想ターゲットの重要性の優先度及び/又は仮想ターゲットと現在のユーザのゲームキャラクタとの間の距離に従って自動的にロックされてよい。例えばMOBAゲームでは、より重要度の高いゲームキャラクタを選択してロックすることが好ましいことがある。重要度の高いゲームキャラクタが存在しない場合、より重要度の低いゲームキャラクタを選択してロックする。別の例として、現在のユーザのゲームキャラクタに最も近いゲームキャラクタを選択してロックすることが好ましいことがある。
この実施形態では、第1接触点が移動されたかどうかを検出することによって、第1効果範囲を決定するための異なる方法がユーザに提供され、これにより、第1操作をトリガするための異なる方法を提供する。これらの方法は、様々なゲームシナリオに適用されてよく、高い互換性と高い操作性を有する。
一実施形態では、表示モジュール1802は、現在のユーザのゲームキャラクタの位置に従って決定される候補範囲領域を表示するように更に構成される。
一実施形態では、接触点検出モジュール1801は、タッチスクリーンに表示される第1技アイコンに作用する第1接触点を検出するように更に構成される。
移動検出モジュール1806は、第1接触点の動きを検出するように構成される。
表示モジュール1802は、第1接触点が移動されてスライディング操作が形成されると、現在のユーザのゲームキャラクタの位置を取得して、現在のユーザの位置に従って実際の円の位置を決定し;補助円を表示して、実際の円の決定された位置に実際の円を表示するように更に構成される。この場合、実際の円の面積は補助円の面積より大きい。
位置決めモジュール1803は、第1接触点が補助円へ移動されると、第1接触点の位置、及び、実際の円の位置と補助円の位置とのマッピング関係に従って第1技発揮範囲を取得するように構成される。
操作実行モジュール1804は、取得した第1技発揮範囲内の仮想ターゲットに対して、第1アイコンに対応する第1技を出すように構成される。
操作キャンセルモジュール1805は、第1接触点が補助円の外に移動されるとき、第1技発揮範囲の取得をキャンセルするように更に構成される。
操作実行モジュール1804は、第1接触点が静的であり、タップ操作が形成されるとき、ロックされた仮想ターゲットを取得し、ロックされた仮想ターゲットの位置に従って第1技発揮範囲を決定し、対応する第1技発揮範囲内の仮想ターゲットに対して、第1アイコンに対応する第1技を出すように更に構成される。仮想ターゲットがロックされているとき、仮想ターゲットは、重要度に従って、あるいは仮想ターゲットと現在のユーザのゲームキャラクタとの間の距離に従って選択されてよい。
一実施形態では、接触点検出モジュール1801は、タッチスクリーン上に表示される第2技アイコンに作用する第2接触点を検出するように更に構成される。
位置決めモジュール1803は、第2接触点が補助円内に移動されると、第2接触点の位置、及び、実際の円の位置と補助円の位置との間のマッピング関係に従って第2技発揮範囲を取得するように更に構成される。
操作実行モジュール1804は、第1技を出すことを中断し、取得した第2技発揮範囲内の仮想ターゲットに対して、第2技アイコンに対応する第2技を出すように構成される。
この実施形態では、ユーザは、タッチスクリーンに表示されたアイコンの第1技アイコンをタップし、タッチスクリーンは、補助円と実際の円を表示し、補助円の位置が実際の円の位置とのマッピング関係を有する。このように、第1技アイコンをタップして第1技アイコンを補助円へドラッグすると、ユーザは、より小さい面積を有する補助円内の第1接触点の位置を制御することによって、より大きな面積を有する実際の円内の第1技発揮範囲の位置を調整することができる。このように、ユーザは大きな領域でドラッグ操作を行う必要がなく、これにより、操作の利便性が向上し、第1効果範囲を正確に位置決めすることができる。
第1技発揮範囲を決定するためにユーザによって使用される方法は、第1接触点が移動されたかどうかを検出することによって決定されてよく、それによってユーザに対して複数の制御方法を提供する。ユーザが第1技アイコンをタップするが移動しない場合、ユーザは、第1技発揮範囲を決定し、更に第1技発揮範囲内の仮想ターゲットに対する第1技を出すために、ロックされた仮想ターゲットの位置を迅速に取得することができ、これにより技を迅速に出すことができる。このようにして、正確かつ効率的な位置決めによって特徴付けられる技の発揮方法をゲームの熟練者に提供することができ、シンプルで直接的な技の発揮方法をゲームの初心者に提供することもできる。
加えて、ユーザが補助円の外に第1技アイコンを移動させると、第1技の発揮をキャンセルすることができる。ユーザが間違った技を選択したり、技を出す戦略を突然変更したりするとき、技の発揮を迅速にキャンセルすることができ、これにより、例えば別の技を出すことを選択するか、現在のユーザのゲームキャラクタを移動させるよう制御することのように別の操作を続けることができる。
当業者であれば、実施形態における方法の処理の全て又は一部が、関連するハードウェアに指示するコンピュータプログラムによって実施され得ることを理解することができる。プログラムは、コンピュータ読取可能記憶媒体に格納されてもよい。プログラムが実行されると、実施形態における方法の処理が実行される。上記記憶媒体は、磁気ディスク、光ディスク、ROM(Read Only Memory)、RAM(Random Access Memory)等の不揮発性記憶媒体であってよい。
上記実施形態の技術的特徴を組み合わせてもよい。説明の簡潔性のために、前述の実施形態では、技術的特徴の必ずしも全ての可能な組合せが記載されているわけではない。しかしながら、これらの組合せは、これらの組合せが矛盾しない限り、本明細書に記載された範囲内にあるべきである。
上記の実施形態は、本発明の一部の実施形態に過ぎず、その説明は、比較的具体的で詳細である。しかしながら、これは本開示の特許範囲に対する限定として理解されるべきではない。当業者は、本開示の概念から逸脱することなく、いくつかの変形及び改良を更に行うことができ、その変形及び改良は、本開示の保護範囲に属することに留意すべきである。したがって、本開示の保護範囲は、添付の特許請求の範囲の保護範囲に従うものとする。

Claims (16)

  1. タッチスクリーンベースの制御方法であって、当該方法は:
    タッチスクリーン上に表示される第1アイコンに作用する第1接触点を検出するステップと;
    補助制御領域及び候補効果範囲領域を表示するステップであって、前記候補効果範囲領域の面積が前記補助制御領域の面積よりも大きいステップと;
    前記第1接触点が前記補助制御領域内へ移動されると、前記第1接触点の位置及び前記候補効果範囲領域の位置と前記補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得するステップと;
    前記取得された第1効果範囲内の仮想ターゲットに対して、前記第1アイコンに対応する第1操作を実行するステップと;
    を具備する方法。
  2. 前記第1接触点が前記補助制御領域の外に移動されると、前記第1効果範囲をキャンセルするステップ、
    を更に備える、請求項1に記載の方法。
  3. 前記補助制御領域と候補効果範囲領域は幾何学的に類似している、
    請求項1に記載の方法。
  4. 前記第1接触点の位置及び前記候補効果範囲領域の位置と前記補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得するステップは:
    前記補助制御領域の中心点から前記第1接触点までの方向、前記第1接触点と前記中心点との間の第1距離、前記方向に沿った前記中心点と前記補助制御領域のエッジとの間の第2距離及び前記方向に沿った前記候補効果範囲領域の中心点と前記候補効果範囲領域のエッジとの間の第3距離を取得するステップと;
    前記第2距離に対する前記第1距離の比を計算するステップと;
    前記比に従って、前記方向に沿って前記候補効果範囲領域の中心点から始まる前記第3距離上の点を取得し、該取得した点に従って前記第1効果範囲を取得するステップと;
    を備える、請求項3に記載の方法。
  5. 前記補助制御領域と前記候補効果範囲領域と双方とも円であり、前記第1接触点の位置及び前記候補効果範囲領域の位置と前記補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得するステップは:
    前記補助制御領域の円中心から前記第1接触点までの距離及び方向と、前記候補効果範囲領域及び前記補助制御領域のそれぞれの半径を決定するステップと;
    前記補助制御領域の半径に対する前記候補効果範囲領域の半径の比に従って、前記方向に沿って前記候補効果範囲領域の半径上の点を取得し、該取得された点に従って第1効果範囲を取得するステップと;
    を備える、請求項1に記載の方法。
  6. 前記タッチスクリーン上に表示される第2アイコンに作用する第2接触点を検出するステップと;
    前記第2接触点が前記補助制御領域内へ移動されると、前記第2接触点の位置及び前記候補効果範囲領域の位置と前記補助制御領域の位置との間の前記マッピング関係に従って第2効果範囲を取得するステップと;
    前記第1操作を、前記取得された第2効果範囲内の仮想ターゲットに対して、前記第2アイコンに対応する第2操作を実行することに置き換えるステップと;
    を更に備える、請求項1に記載の方法。
  7. 前記補助制御領域及び前記候補効果範囲領域を表示するステップの前に、
    前記第1接触点の移動を検出するステップと;
    前記第1接触点が移動されると、前記補助制御領域及び前記候補効果範囲領域を表示するステップを実行するステップと;
    前記第1接触点が静的であり、操作決定イベントが検出されると、ロックされた仮想ターゲットを取得し、前記ロックされた仮想ターゲットの位置に従って前記第1効果範囲を決定し、対応する前記第1効果範囲内の前記仮想ターゲットに対して、前記第1アイコンに対応する前記第1操作を実行するステップと;
    を更に備える、請求項1に記載の方法。
  8. 前記候補効果範囲領域の位置は、現在のユーザのゲームキャラクタの位置に従って決定され;
    前記第1操作は、前記仮想ターゲットのゲーム属性値を変更すること、前記仮想ターゲットに指定の状態を追加すること又は前記仮想ターゲットの移動性を制限すること、のうちの少なくとも1つを含む、
    請求項1に記載の方法。
  9. 不揮発性記憶媒体とプロセッサとを備えた端末であって、前記不揮発性記憶媒体は命令を記憶し、該命令が前記プロセッサによって実行されると、前記プロセッサは:
    タッチスクリーン上に表示される第1アイコンに作用する第1接触点を検出するステップと;
    補助制御領域及び候補効果範囲領域を表示するステップであって、前記候補効果範囲領域の面積が前記補助制御領域の面積よりも大きいステップと;
    前記第1接触点が前記補助制御領域内へ移動されると、前記第1接触点の位置及び前記候補効果範囲領域の位置と前記補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得するステップと;
    前記取得された第1効果範囲内の仮想ターゲットに対して、前記第1アイコンに対応する第1操作を実行するステップと;
    を実行することを可能にされる、端末。
  10. 前記命令が前記プロセッサによって実行されると、前記プロセッサは更に:
    前記第1接触点が前記補助制御領域の外に移動されると、前記第1効果範囲をキャンセルするステップ、
    を実行することを可能にされる、請求項9に記載の端末。
  11. 前記補助制御領域と候補効果範囲領域は幾何学的に類似している、
    請求項9に記載の端末。
  12. 前記プロセッサによって実行される、前記第1接触点の位置及び前記候補効果範囲領域の位置と前記補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得する前記のステップは、特に:
    前記補助制御領域の中心点から前記第1接触点までの方向、前記第1接触点と前記中心点との間の第1距離、前記方向に沿った前記中心点と前記補助制御領域のエッジとの間の第2距離及び前記方向に沿った前記候補効果範囲領域の中心点と前記候補効果範囲領域のエッジとの間の第3距離を取得するステップと;
    前記第2距離に対する前記第1距離の比を計算するステップと;
    前記比に従って、前記方向に沿って前記候補効果範囲領域の中心点から始まる前記第3距離上の点を取得し、該取得した点に従って前記第1効果範囲を取得するステップと;
    を備える、請求項11に記載の端末。
  13. 前記補助制御領域と前記候補効果範囲領域と双方とも円であり、前記プロセッサによって実行される、前記第1接触点の位置及び前記候補効果範囲領域の位置と前記補助制御領域の位置とのマッピング関係に従って第1効果範囲を取得する前記のステップは、特に:
    前記補助制御領域の円中心から前記第1接触点までの距離及び方向と、前記候補効果範囲領域及び前記補助制御領域のそれぞれの半径を決定するステップと;
    前記補助制御領域の半径に対する前記候補効果範囲領域の半径の比に従って、前記方向に沿って前記候補効果範囲領域の半径上の点を取得し、該取得された点に従って第1効果範囲を取得するステップと;
    を備える、請求項11に記載の端末。
  14. 前記命令が前記プロセッサによって実行されると、前記プロセッサは更に:
    前記タッチスクリーン上に表示される第2アイコンに作用する第2接触点を検出するステップと;
    前記第2接触点が前記補助制御領域内へ移動されると、前記第2接触点の位置及び前記候補効果範囲領域の位置と前記補助制御領域の位置との間の前記マッピング関係に従って第2効果範囲を取得するステップと;
    前記第1操作を、前記取得された第2効果範囲内の仮想ターゲットに対して、前記第2アイコンに対応する第2操作を実行することに置き換えるステップと;
    を実行することを可能にされる、請求項9に記載の端末。
  15. 前記プロセッサによって実行される、前記補助制御領域及び前記候補効果範囲領域を表示する前記のステップの前に:
    前記第1接触点の移動を検出するステップと;
    前記第1接触点が移動されると、前記補助制御領域及び前記候補効果範囲領域を表示するステップと;
    前記第1接触点が静的であり、操作決定イベントが検出されると、ロックされた仮想ターゲットを取得し、前記ロックされた仮想ターゲットの位置に従って前記第1効果範囲を決定し、対応する前記第1効果範囲内の前記仮想ターゲットに対して、前記第1アイコンに対応する前記第1操作を実行するステップと;
    を更に備える、請求項9に記載の端末。
  16. 前記候補効果範囲領域の位置は、現在のユーザのゲームキャラクタの位置に従って決定され;
    前記第1操作は、前記仮想ターゲットのゲーム属性値を変更すること、前記仮想ターゲットに指定の状態を追加すること又は前記仮想ターゲットの移動性を制限すること、のうちの少なくとも1つを含む、
    請求項9に記載の端末。
JP2017544614A 2015-06-16 2016-01-11 タッチスクリーンに基づく操作及び制御方法及び端末 Active JP6423106B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510334762.XA CN104898953B (zh) 2015-06-16 2015-06-16 基于触控屏的操控方法和装置
CN201510334762.X 2015-06-16
PCT/CN2016/070598 WO2016201971A1 (zh) 2015-06-16 2016-01-11 基于触控屏的操控方法和终端

Publications (2)

Publication Number Publication Date
JP2018518997A true JP2018518997A (ja) 2018-07-19
JP6423106B2 JP6423106B2 (ja) 2018-11-14

Family

ID=54031640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017544614A Active JP6423106B2 (ja) 2015-06-16 2016-01-11 タッチスクリーンに基づく操作及び制御方法及び端末

Country Status (13)

Country Link
US (1) US10456667B2 (ja)
EP (1) EP3312710B1 (ja)
JP (1) JP6423106B2 (ja)
KR (1) KR101836961B1 (ja)
CN (1) CN104898953B (ja)
AU (1) AU2016279157B2 (ja)
CA (1) CA2974841C (ja)
ES (1) ES2889908T3 (ja)
MX (1) MX2017015685A (ja)
MY (1) MY181167A (ja)
PL (1) PL3312710T3 (ja)
RU (1) RU2686011C1 (ja)
WO (1) WO2016201971A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021515601A (ja) * 2018-12-26 2021-06-24 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 情報処理方法、装置、記憶媒体及び電子デバイス
JP2022042672A (ja) * 2020-09-03 2022-03-15 エヌエイチエヌ コーポレーション ゲーム制御方法、プログラム、サーバ及び通信装置
JP2022525243A (ja) * 2020-04-29 2022-05-11 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト制御方法並びにその装置、コンピュータ装置及びプログラム
JP2022534187A (ja) * 2020-02-14 2022-07-28 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム
JP2022539289A (ja) * 2020-06-05 2022-09-08 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト照準方法、装置及びプログラム
JP7350088B2 (ja) 2020-04-15 2023-09-25 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
CN105117133B (zh) * 2015-09-10 2019-06-28 北京亿虎乐游网络科技有限公司 一种提供触摸屏多选操作的控制方法和系统
CN105260100B (zh) 2015-09-29 2017-05-17 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105094346B (zh) * 2015-09-29 2018-09-25 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105194873B (zh) 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
CN105511782B (zh) * 2015-11-30 2018-12-21 网易(杭州)网络有限公司 一种游戏指令处理方法及装置
CN106055152A (zh) * 2016-05-26 2016-10-26 广州多益网络股份有限公司 一种手游角色移动控制方法及装置
CN107544972B (zh) * 2016-06-23 2019-09-13 腾讯科技(深圳)有限公司 地图编辑方法和装置
CN106422329A (zh) * 2016-11-01 2017-02-22 网易(杭州)网络有限公司 游戏操控方法和装置
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN106354418B (zh) * 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
CN107391000B (zh) * 2017-06-09 2022-08-05 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107422938A (zh) 2017-06-21 2017-12-01 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107376339B (zh) * 2017-07-18 2018-12-28 网易(杭州)网络有限公司 在游戏中锁定目标的交互方法及装置
CN107362535B (zh) * 2017-07-19 2019-04-26 腾讯科技(深圳)有限公司 游戏场景中的目标对象锁定方法、装置及电子设备
CN107479749B (zh) * 2017-08-08 2019-09-27 腾讯科技(成都)有限公司 基于触控屏的操控方法及装置、移动终端及可读存储介质
CN107803028B (zh) * 2017-09-30 2019-03-08 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
JP6391893B1 (ja) * 2017-10-11 2018-09-19 三菱電機株式会社 操作入力装置、情報処理システムおよび操作判定方法
CN107992281A (zh) * 2017-10-27 2018-05-04 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
CN108079572B (zh) * 2017-12-07 2021-06-04 网易(杭州)网络有限公司 信息处理方法、电子设备及存储介质
CN108037888B (zh) * 2017-12-11 2020-11-24 网易(杭州)网络有限公司 技能控制方法、装置、电子设备及存储介质
CN108066988A (zh) * 2018-01-04 2018-05-25 腾讯科技(深圳)有限公司 目标设置方法、装置及存储介质
CN108543308B (zh) * 2018-02-27 2020-08-04 腾讯科技(深圳)有限公司 虚拟场景中的虚拟对象的选择方法和装置
KR102614708B1 (ko) * 2018-05-17 2023-12-15 주식회사 엔씨소프트 타겟 객체 선택 방법 및 이를 수행하기 위한 게이밍 디바이스
CN108635850B (zh) * 2018-05-17 2022-04-15 网易(杭州)网络有限公司 信息处理方法、装置及存储介质
CN108854069B (zh) * 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 音源确定方法和装置、存储介质及电子装置
CN108837507A (zh) * 2018-05-29 2018-11-20 网易(杭州)网络有限公司 虚拟道具控制方法及装置、电子设备、存储介质
CN109865282B (zh) * 2019-03-05 2020-03-17 网易(杭州)网络有限公司 移动终端中的信息处理方法、装置、介质及电子设备
CN110339555B (zh) * 2019-04-03 2024-02-23 网易(杭州)网络有限公司 游戏中的信息处理方法、装置、移动终端及可读存储介质
CN110052034A (zh) * 2019-04-12 2019-07-26 网易(杭州)网络有限公司 游戏中的信息标注方法、装置、介质及电子设备
CN110354495A (zh) * 2019-08-13 2019-10-22 网易(杭州)网络有限公司 目标对象的确定方法、装置及电子设备
US11071906B2 (en) 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
CN111228805B (zh) * 2020-01-08 2023-07-14 腾讯科技(深圳)有限公司 虚拟操作对象的控制方法和装置、存储介质及电子装置
CN111589130B (zh) * 2020-04-24 2022-02-22 腾讯科技(深圳)有限公司 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN111589114B (zh) * 2020-05-12 2023-03-10 腾讯科技(深圳)有限公司 虚拟对象的选择方法、装置、终端及存储介质
CN115779433A (zh) * 2020-06-05 2023-03-14 腾讯科技(深圳)有限公司 控制虚拟对象释放技能的方法、装置、终端及存储介质
CN111672102A (zh) * 2020-06-05 2020-09-18 腾讯科技(深圳)有限公司 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN111773673B (zh) * 2020-07-14 2024-01-26 网易(杭州)网络有限公司 一种技能释放方法、装置、电子设备及存储介质
CN111803932A (zh) * 2020-07-22 2020-10-23 网易(杭州)网络有限公司 一种游戏中虚拟角色的技能释放方法、终端及存储介质
CN111773678A (zh) * 2020-07-27 2020-10-16 网易(杭州)网络有限公司 一种游戏的数据处理方法和装置
CN111913624B (zh) * 2020-08-18 2022-06-07 腾讯科技(深圳)有限公司 虚拟场景中对象的交互方法及装置
US11731037B2 (en) * 2020-09-11 2023-08-22 Riot Games, Inc. Rapid target selection with priority zones
CN114253433A (zh) * 2020-09-24 2022-03-29 荣耀终端有限公司 一种动态元素控制方法、电子设备和计算机可读存储介质
AU2022234766A1 (en) * 2021-03-10 2023-10-05 Bungie, Inc. Controller state management for client-server networking
JP2024513669A (ja) * 2021-03-10 2024-03-27 バンジー, インコーポレイテッド 仮想ボタンチャージング
WO2022192178A1 (en) * 2021-03-10 2022-09-15 Bungie, Inc. Virtualized physical controller
CA3160509A1 (en) 2021-05-14 2022-11-14 Tencent Technology (Shenzhen) Company Limited Virtual object control method, apparatus, device, and computer-readable storage medium
CN113318430A (zh) * 2021-05-28 2021-08-31 网易(杭州)网络有限公司 虚拟角色的姿态调整方法、装置、处理器及电子装置
JP2023001762A (ja) * 2021-06-21 2023-01-06 株式会社アニプレックス ゲームをプレイヤに提供するプログラムおよび情報処理装置
US11484793B1 (en) * 2021-09-02 2022-11-01 Supercell Oy Game control
CN113663323A (zh) * 2021-09-08 2021-11-19 网易(杭州)网络有限公司 终端操作方法、装置、电子设备和存储介质
CN117693386A (zh) * 2022-06-24 2024-03-12 上海莉莉丝科技股份有限公司 游戏控制方法、电子设备和计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011238200A (ja) * 2010-04-15 2011-11-24 Tokyo Anagram Co Ltd 情報処理装置、オブジェクト処理方法及びプログラム
JP2012176053A (ja) * 2011-02-25 2012-09-13 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
JP2015011342A (ja) * 2013-06-26 2015-01-19 アップリフィエル オーユーApplifier Oy 携帯デバイスのオーディオ装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
KR101012300B1 (ko) * 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
KR101347518B1 (ko) * 2010-08-12 2014-01-07 주식회사 팬택 필터의 선택이 가능한 증강 현실 사용자 장치 및 방법, 그리고, 증강 현실 서버
JP5718042B2 (ja) * 2010-12-24 2015-05-13 株式会社ソニー・コンピュータエンタテインメント タッチ入力処理装置、情報処理装置およびタッチ入力制御方法
KR20130105044A (ko) * 2012-03-16 2013-09-25 삼성전자주식회사 터치 스크린 단말기의 사용자 인터페이스 방법 및 장치
CN102819394B (zh) * 2012-07-27 2016-06-08 东莞宇龙通信科技有限公司 终端和终端操作方法
JP5942762B2 (ja) * 2012-10-04 2016-06-29 富士ゼロックス株式会社 情報処理装置及びプログラム
JP5624168B2 (ja) * 2013-03-28 2014-11-12 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
CN103412725B (zh) * 2013-08-27 2016-07-06 广州市动景计算机科技有限公司 一种触控操作方法和装置
JP6148149B2 (ja) * 2013-10-23 2017-06-14 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、及びビデオゲーム処理システム
RU146516U1 (ru) * 2013-12-03 2014-10-10 Чин Пен ЧАНГ Система управления сенсорным вводом данных сенсорной панели
CN104793774A (zh) * 2014-01-20 2015-07-22 联发科技(新加坡)私人有限公司 电子装置控制方法
CN104076986B (zh) * 2014-07-25 2015-12-09 上海逗屋网络科技有限公司 一种用于多点触摸终端的触摸控制方法与设备
CN104750416B (zh) * 2015-03-13 2018-07-13 上海雪宝信息科技有限公司 一种用于在触摸终端上执行对象操作的方法与设备
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
US10587790B2 (en) * 2015-11-04 2020-03-10 Tencent Technology (Shenzhen) Company Limited Control method for photographing using unmanned aerial vehicle, photographing method using unmanned aerial vehicle, mobile terminal, and unmanned aerial vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011238200A (ja) * 2010-04-15 2011-11-24 Tokyo Anagram Co Ltd 情報処理装置、オブジェクト処理方法及びプログラム
JP2012176053A (ja) * 2011-02-25 2012-09-13 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
JP2015011342A (ja) * 2013-06-26 2015-01-19 アップリフィエル オーユーApplifier Oy 携帯デバイスのオーディオ装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021515601A (ja) * 2018-12-26 2021-06-24 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 情報処理方法、装置、記憶媒体及び電子デバイス
JP7038817B2 (ja) 2018-12-26 2022-03-18 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 情報処理方法、装置、記憶媒体及び電子デバイス
JP2022534187A (ja) * 2020-02-14 2022-07-28 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム
JP7488284B2 (ja) 2020-02-14 2024-05-21 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム
JP7350088B2 (ja) 2020-04-15 2023-09-25 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム
JP2022525243A (ja) * 2020-04-29 2022-05-11 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト制御方法並びにその装置、コンピュータ装置及びプログラム
JP7138810B2 (ja) 2020-04-29 2022-09-16 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト制御方法並びにその装置、コンピュータ装置及びプログラム
JP2022539289A (ja) * 2020-06-05 2022-09-08 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクト照準方法、装置及びプログラム
US11893217B2 (en) 2020-06-05 2024-02-06 Tencent Technology (Shenzhen) Company Limited Method and apparatus for aiming at virtual object, device, and storage medium
JP2022042672A (ja) * 2020-09-03 2022-03-15 エヌエイチエヌ コーポレーション ゲーム制御方法、プログラム、サーバ及び通信装置
JP7220188B2 (ja) 2020-09-03 2023-02-09 エヌエイチエヌ コーポレーション ゲーム制御方法、プログラム、サーバ及び通信装置

Also Published As

Publication number Publication date
CN104898953A (zh) 2015-09-09
CA2974841C (en) 2019-04-30
AU2016279157A1 (en) 2017-10-19
EP3312710B1 (en) 2021-08-25
EP3312710A1 (en) 2018-04-25
WO2016201971A1 (zh) 2016-12-22
ES2889908T3 (es) 2022-01-14
MX2017015685A (es) 2018-04-18
US20170340959A1 (en) 2017-11-30
CN104898953B (zh) 2016-10-26
KR20170103932A (ko) 2017-09-13
JP6423106B2 (ja) 2018-11-14
US10456667B2 (en) 2019-10-29
KR101836961B1 (ko) 2018-03-09
PL3312710T3 (pl) 2021-12-20
AU2016279157B2 (en) 2019-06-27
RU2686011C1 (ru) 2019-04-23
EP3312710A4 (en) 2018-05-30
CA2974841A1 (en) 2016-12-22
MY181167A (en) 2020-12-21

Similar Documents

Publication Publication Date Title
JP6423106B2 (ja) タッチスクリーンに基づく操作及び制御方法及び端末
US10507383B2 (en) Information processing method and apparatus, electronic device, and storage medium
US11298609B2 (en) Virtual object movement control method and apparatus, electronic apparatus, and storage medium
US11478696B2 (en) Interaction method and apparatus for locking target in game
US10583355B2 (en) Information processing method and apparatus, electronic device, and storage medium
US10716997B2 (en) Information processing method and apparatus, electronic device, and storage medium
US20190060745A1 (en) Information Processing Method and Apparatus, Storage Medium, and Electronic Device
US10716996B2 (en) Information processing method and apparatus, electronic device, and storage medium
JP2019067390A (ja) 情報処理方法、装置、電子機器及び記憶媒体
JP2019067380A (ja) 情報処理方法、装置、電子機器及び記憶媒体
JP6135794B1 (ja) 情報処理装置およびゲームプログラム
CN109364476A (zh) 游戏的控制方法和装置
JP7261845B2 (ja) 画像制御方法およびプログラム
US20210322866A1 (en) Apparatus and method for controlling user interface of computing apparatus
JP2018020001A (ja) 情報処理装置およびゲームプログラム
JP7477804B2 (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
KR20150100236A (ko) 터치 입력에 의해 제어되는 단말 및 단말 제어 방법
JP7345093B2 (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
JP2020089492A (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
JP2020089494A (ja) ゲームプログラム、ゲーム表示方法及びゲーム端末

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181017

R150 Certificate of patent or registration of utility model

Ref document number: 6423106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250