JP2022540278A - 仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム - Google Patents
仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022540278A JP2022540278A JP2021563357A JP2021563357A JP2022540278A JP 2022540278 A JP2022540278 A JP 2022540278A JP 2021563357 A JP2021563357 A JP 2021563357A JP 2021563357 A JP2021563357 A JP 2021563357A JP 2022540278 A JP2022540278 A JP 2022540278A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- virtual object
- determining
- locations
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000004590 computer program Methods 0.000 title description 3
- 230000015654 memory Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 15
- 238000003825 pressing Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 23
- 230000002093 peripheral effect Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009183 running Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000009187 flying Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000009184 walking Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5375—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1068—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
- A63F2300/1075—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作が通過した少なくとも2つのタッチ位置を決定するステップであって、前記少なくとも2つのタッチ位置は前記タッチ操作が最後に通過したプリセット数のタッチ位置から選択される、ステップと、
プリセットポリシーに基づいて前記少なくとも2つのタッチ位置に対して合併を行うことにより、前記タッチ操作の目標タッチ位置を決定するステップと、
前記目標タッチ位置が指示する第1照準方向を決定するステップと、
第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御するステップと、を含む。
前記タッチ位置決定モジュールは、タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作が通過した少なくとも2つのタッチ位置を決定することに用いられ、前記少なくとも2つのタッチ位置は前記タッチ操作が最後に通過したプリセット数のタッチ位置から選択され、
前記目標位置決定モジュールは、プリセットポリシーに基づいて前記少なくとも2つのタッチ位置に対して合併を行うことにより、前記タッチ操作の目標タッチ位置を決定することに用いられ、
前記第1方向決定モジュールは、前記目標タッチ位置が指示する第1照準方向を決定することに用いられ、
前記第1制御モジュールは、第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御することに用いられる。
上記タッチ位置決定モジュール1701は、タッチ制御領域に対するタッチ操作に応答し、タッチ操作が通過した少なくとも2つのタッチ位置を決定することに用いられ、少なくとも2つのタッチ位置はタッチ操作が最後に通過したプリセット数のタッチ位置から選択され、
上記目標位置決定モジュール1702は、プリセットポリシーに基づいて少なくとも2つのタッチ位置に対して合併を行うことにより、タッチ操作の目標タッチ位置を決定することに用いられ、
上記第1方向決定モジュール1703は、目標タッチ位置が指示する第1照準方向を決定することに用いられ、
上記第1制御モジュール1704は、第1仮想オブジェクトが第1照準方向に応じてスキル解放操作を実行するように制御することに用いられる。
上記重み決定ユニット1712は、少なくとも2つのタッチ位置の配列順序に応じて、少なくとも2つのタッチ位置の重みを決定することに用いられ、
上記座標決定ユニット1722は、少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の座標に対して重み付け処理を行い、目標タッチ位置の座標を獲得することに用いられる。
少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の横座標に対して重み付け加算を行い、目標タッチ位置の横座標を獲得し、
少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の縦座標に対して重み付け加算を行い、目標タッチ位置の縦座標を獲得することに用いられる。
上記第1位置決定ユニット1711は、タッチ制御領域でのタッチ点に対応する押下操作に応答し、押下操作に対応する初期タッチ位置を決定することに用いられ、
上記第2位置決定ユニット1721は、タッチ点がタッチ制御領域でスライドする過程での少なくとも1つのタッチ位置を決定することに用いられ、
上記第3位置決定ユニット1731は、タッチ制御領域でのタッチ点に対応する浮上操作に応答し、浮上操作に対応する終止タッチ位置を決定することに用いられる。
上記識別子割り当てモジュール1705は、タッチ制御領域でのタッチ点に対応する押下操作に応答し、タッチ点のためにタッチ識別子を割り当てることに用いられ、
上記第2位置決定ユニット1721は、タッチ制御領域で検出した、タッチ識別子とマッチングする少なくとも2つのタッチ位置を決定することに用いられる。
上記オブジェクト決定ユニット1714は、第1照準方向上において、第1仮想オブジェクトとの間の距離が最も近い第2仮想オブジェクトを決定することに用いられ、
上記第1制御ユニット1724は、第1仮想オブジェクトが第2仮想オブジェクトにスキル解放操作を実行するように制御することに用いられる。
上記照準位置決定ユニット1734は、第1照準方向及び第1プリセット距離に基づいて、第1照準方向上における照準位置を決定することに用いられ、照準位置と第1仮想オブジェクトとの間の距離は第1プリセット距離であり、
上記第2制御ユニット1744は、第1仮想オブジェクトが照準位置にスキル解放操作を実行するように制御することに用いられる。
目標位置決定モジュール1702は、終止タッチ位置が第2タッチ制御サブ領域に位置すると、少なくとも2つのタッチ位置に基づいて、タッチ操作の目標タッチ位置を決定することに用いられる。
上記第2方向決定モジュール1706は、少なくとも2つのタッチ位置がいずれも第1タッチ制御サブ領域に位置すると、プリセットルールに応じて第2照準方向を決定することに用いられ、
上記第2制御モジュール1707は、第1仮想オブジェクトが第2照準方向に応じてスキル解放操作を実行するように制御することに用いられる。
上記オブジェクト位置決定ユニット1716は、第1仮想オブジェクトとの間の距離が第2プリセット距離よりも小さい第3仮想オブジェクトの位置を決定することに用いられ、
上記第2方向決定ユニット1726は、第1仮想オブジェクトの位置及び第3仮想オブジェクトの位置に基づいて、第2照準方向を決定することに用いられる。
上記ボタン表示モジュール1708は、第1仮想オブジェクトに対応する仮想シーンインターフェースによって、第1仮想オブジェクトのスキル解放ボタンを表示することに用いられ、
上記タッチ制御領域表示モジュール1709は、スキル解放ボタンに対するトリガー操作に応答し、仮想シーンインターフェースによってタッチ制御領域を表示することに用いられる。
20 ネットワーク
30 端末
40 端末
50 端末
300 仮想シーンインターフェース
301 第1仮想オブジェクト
302 第2仮想オブジェクト
303 スキル解放ボタン
400 タッチ制御領域
500 仮想シーンインターフェース
1900 端末
1901 プロセッサ
1902 メモリ
1903 周辺機器インターフェース
1904 無線周波数回路
1905 表示画面
1906 カメラコンポーネント
1907 オーディオ回路
1908 測位コンポーネント
1909 電源
1910 センサ
1911 加速度センサ
1912 ジャイロセンサ
1914 指紋センサ
1915 光学センサ
1916 近接センサ
1919 圧力センサ
2000 サーバ
2001 プロセッサ
2002 メモリ
Claims (20)
- 1つの端末機器により実行される、仮想オブジェクトの制御方法であって、前記方法は、
タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作が通過した少なくとも2つのタッチ位置を決定するステップであって、前記少なくとも2つのタッチ位置は前記タッチ操作が最後に通過したプリセット数のタッチ位置から選択される、ステップと、
プリセットポリシーに基づいて前記少なくとも2つのタッチ位置に対して合併を行うことにより、前記タッチ操作の目標タッチ位置を決定するステップと、
前記目標タッチ位置が指示する第1照準方向を決定するステップと、
第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御するステップと、を含む、仮想オブジェクトの制御方法。 - 前記タッチ操作の目標タッチ位置を決定するステップは、
前記少なくとも2つのタッチ位置の配列順序に応じて、前記少なくとも2つのタッチ位置の重みを決定するステップと、
前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の座標に対して重み付け合併を行い、前記目標タッチ位置の座標を獲得するステップと、を含む、請求項1に記載の方法。 - 前記目標タッチ位置の座標を獲得するステップは、
前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の横座標に対して重み付け加算を行い、前記目標タッチ位置の横座標を獲得するステップと、
前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の縦座標に対して重み付け加算を行い、前記目標タッチ位置の縦座標を獲得するステップと、を含む、請求項2に記載の方法。 - 前記タッチ操作が通過した少なくとも2つのタッチ位置を決定するステップは、
前記タッチ制御領域でのタッチ点に対応する押下操作に応答するステップと、
前記タッチ点が前記タッチ制御領域でスライドする過程での少なくとも1つの中間タッチ位置を決定するステップと、
前記タッチ制御領域での前記タッチ点に対応する浮上操作に応答し、前記浮上操作に対応する終止タッチ位置を決定するステップと、
前記少なくとも1つの中間タッチ位置及び前記終止タッチ位置から前記プリセット数のタッチ位置を決定するステップと、を含む、請求項1に記載の方法。 - 前記タッチ制御領域でのタッチ点に対応する押下操作に応答し、前記タッチ点のためにタッチ識別子を割り当てるステップをさらに含み、
前記タッチ点が前記タッチ制御領域でスライドする過程での少なくとも1つのタッチ位置を決定する前記ステップは、
前記タッチ制御領域で検出した、前記タッチ識別子とマッチングする少なくとも2つのタッチ位置を決定するステップを含む、請求項4に記載の方法。 - 第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御する前記ステップは、
前記第1照準方向上において、前記第1仮想オブジェクトとの間の距離が最も近い第2仮想オブジェクトを決定するステップと、
前記第1仮想オブジェクトが前記第2仮想オブジェクトに前記スキル解放操作を実行するように制御するステップと、を含む、請求項1に記載の方法。 - 第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御する前記ステップは、
前記第1照準方向及び第1プリセット距離に基づいて、前記第1照準方向上における照準位置を決定するステップであって、前記照準位置と前記第1仮想オブジェクトとの間の距離は前記第1プリセット距離である、ステップと、
前記第1仮想オブジェクトが前記照準位置に前記スキル解放操作を実行するように制御するステップと、を含む、請求項1に記載の方法。 - 前記タッチ制御領域は第1タッチ制御サブ領域及び第2タッチ制御サブ領域を含み、前記第2タッチ制御サブ領域は前記第1タッチ制御サブ領域の外側に位置し、前記少なくとも2つのタッチ位置に基づいて、前記タッチ操作の目標タッチ位置を決定する前記ステップは、
終止タッチ位置が前記第2タッチ制御サブ領域に位置すると、前記少なくとも2つのタッチ位置に基づいて、前記タッチ操作の目標タッチ位置を決定するステップを含む、請求項1に記載の方法。 - タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作の少なくとも2つのタッチ位置を決定する前記ステップの後に、前記方法は、
前記少なくとも2つのタッチ位置がいずれも前記第1タッチ制御サブ領域に位置すると、プリセットルールに応じて第2照準方向を決定するステップと、
前記第1仮想オブジェクトが前記第2照準方向に応じて前記スキル解放操作を実行するように制御するステップと、をさらに含む、請求項8に記載の方法。 - プリセットルールに応じて第2照準方向を決定する前記ステップは、
前記第1仮想オブジェクトとの間の距離が第2プリセット距離よりも小さい第3仮想オブジェクトの位置を決定するステップと、
前記第1仮想オブジェクトの位置及び前記第3仮想オブジェクトの位置に基づいて、前記第2照準方向を決定するステップと、を含む、請求項9に記載の方法。 - タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作の少なくとも2つのタッチ位置を決定する前記ステップの前に、前記方法は、
前記第1仮想オブジェクトに対応する仮想シーンインターフェースによって、前記第1仮想オブジェクトのスキル解放ボタンを表示するステップと、
前記スキル解放ボタンに対するトリガー操作に応答し、前記仮想シーンインターフェースによって前記タッチ制御領域を表示するステップと、をさらに含む、請求項1に記載の方法。 - 仮想オブジェクトの制御装置であって、タッチ位置決定モジュール、目標位置決定モジュール、第1方向決定モジュール、及び第1制御モジュールを含み、
前記タッチ位置決定モジュールは、タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作が通過した少なくとも2つのタッチ位置を決定することに用いられ、前記少なくとも2つのタッチ位置は前記タッチ操作が最後に通過したプリセット数のタッチ位置から選択され、
前記目標位置決定モジュールは、プリセットポリシーに基づいて前記少なくとも2つのタッチ位置に対して合併を行うことにより、前記タッチ操作の目標タッチ位置を決定することに用いられ、
前記第1方向決定モジュールは、前記目標タッチ位置が指示する第1照準方向を決定することに用いられ、
前記第1制御モジュールは、第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御することに用いられる、仮想オブジェクトの制御装置。 - 前記タッチ位置決定モジュールは、重み決定ユニット及び座標決定ユニットを含み、
前記重み決定ユニットは、前記少なくとも2つのタッチ位置の配列順序に応じて、前記少なくとも2つのタッチ位置の重みを決定することに用いられ、
前記座標決定ユニットは、前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の座標に対して重み付け合併を行い、前記目標タッチ位置の座標を獲得することに用いられる、請求項12に記載の装置。 - 前記目標位置決定モジュールは、重み決定ユニット及び座標決定ユニットを含み、
前記重み決定ユニットは、前記少なくとも2つのタッチ位置の配列順序に応じて、前記少なくとも2つのタッチ位置の重みを決定することに用いられ、
前記座標決定ユニットは、前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の座標に対して重み付け合併を行い、前記目標タッチ位置の座標を獲得することに用いられる、請求項13に記載の装置。 - 前記タッチ位置決定モジュールは、第1位置決定ユニット、第2位置決定ユニット及び第3位置決定ユニットを含み、
前記第1位置決定ユニットは、前記タッチ制御領域でのタッチ点に対応する押下操作に応答し、前記押下操作に対応する初期タッチ位置を決定することに用いられ、
前記第2位置決定ユニットは、前記タッチ点が前記タッチ制御領域でスライドする過程での少なくとも1つのタッチ位置を決定することに用いられ、
前記第3位置決定ユニットは、前記タッチ制御領域での前記タッチ点に対応する浮上操作に応答し、前記浮上操作に対応する終止タッチ位置を決定することに用いられる、請求項12に記載の装置。 - 前記第1制御モジュールは、オブジェクト決定ユニット及び第1制御ユニットを含み、
前記オブジェクト決定ユニットは、前記第1照準方向上において、前記第1仮想オブジェクトとの間の距離が最も近い第2仮想オブジェクトを決定することに用いられ、
前記第1制御ユニットは、前記第1仮想オブジェクトが前記第2仮想オブジェクトに前記スキル解放操作を実行するように制御することに用いられる、請求項12に記載の装置。 - 前記第1制御モジュールは、照準位置決定ユニット及び第2制御ユニットを含み、
前記照準位置決定ユニットは、前記第1照準方向及び第1プリセット距離に基づいて、前記第1照準方向上における照準位置を決定することに用いられ、前記照準位置と前記第1仮想オブジェクトとの間の距離は前記第1プリセット距離であり、
前記第2制御ユニットは、前記第1仮想オブジェクトが前記照準位置に前記スキル解放操作を実行するように制御することに用いられる、請求項12に記載の装置。 - 前記タッチ制御領域は第1タッチ制御サブ領域及び第2タッチ制御サブ領域を含み、前記第2タッチ制御サブ領域は前記第1タッチ制御サブ領域の外側に位置し、
目標位置決定モジュールは、終止タッチ位置が前記第2タッチ制御サブ領域に位置すると、前記少なくとも2つのタッチ位置に基づいて、前記タッチ操作の目標タッチ位置を決定することに用いられる、請求項12に記載の装置。 - コンピュータ機器であって、前記コンピュータ機器はプロセッサ及びメモリを含み、前記メモリに少なくとも1つの命令が記憶されており、前記少なくとも1つの命令は前記プロセッサがロードし、実行することにより、請求項1~11のいずれか一項に記載の仮想オブジェクトの制御方法を実施する、ことを特徴とするコンピュータ機器。
- コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体に少なくとも1つの命令が記憶されており、前記少なくとも1つの命令はプロセッサがロードし、実行することにより、請求項1~11のいずれか一項に記載の仮想オブジェクトの制御方法を実施する、ことを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010507467.0A CN111672115B (zh) | 2020-06-05 | 2020-06-05 | 虚拟对象控制方法、装置、计算机设备及存储介质 |
CN202010507467.0 | 2020-06-05 | ||
PCT/CN2021/093061 WO2021244237A1 (zh) | 2020-06-05 | 2021-05-11 | 虚拟对象控制方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022540278A true JP2022540278A (ja) | 2022-09-15 |
JP7384521B2 JP7384521B2 (ja) | 2023-11-21 |
Family
ID=72435176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021563357A Active JP7384521B2 (ja) | 2020-06-05 | 2021-05-11 | 仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (2) | US12005360B2 (ja) |
EP (1) | EP3939679A4 (ja) |
JP (1) | JP7384521B2 (ja) |
KR (1) | KR102648249B1 (ja) |
CN (1) | CN111672115B (ja) |
WO (1) | WO2021244237A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111672115B (zh) | 2020-06-05 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 虚拟对象控制方法、装置、计算机设备及存储介质 |
CN112717403B (zh) * | 2021-01-22 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011141632A (ja) * | 2010-01-06 | 2011-07-21 | Square Enix Co Ltd | ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム |
JP2018068781A (ja) * | 2016-10-31 | 2018-05-10 | 株式会社バンク・オブ・イノベーション | ビデオゲーム処理装置、及びビデオゲーム処理プログラム |
JP2018517533A (ja) * | 2015-10-10 | 2018-07-05 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 情報処理方法、端末、及びコンピュータ記憶媒体 |
CN110613933A (zh) * | 2019-09-24 | 2019-12-27 | 网易(杭州)网络有限公司 | 游戏中技能释放控制方法、装置、存储介质和处理器 |
JP2020039403A (ja) * | 2018-09-06 | 2020-03-19 | 株式会社バンダイナムコエンターテインメント | プログラム、ゲームシステム及びサーバシステム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5044956A (en) * | 1989-01-12 | 1991-09-03 | Atari Games Corporation | Control device such as a steering wheel for video vehicle simulator with realistic feedback forces |
US5999168A (en) * | 1995-09-27 | 1999-12-07 | Immersion Corporation | Haptic accelerator for force feedback computer peripherals |
JP2004057634A (ja) * | 2002-07-31 | 2004-02-26 | Shuji Sonoda | ゲーム装置及びそれを実現するプログラム |
US20090143141A1 (en) * | 2002-08-06 | 2009-06-04 | Igt | Intelligent Multiplayer Gaming System With Multi-Touch Display |
US8210943B1 (en) * | 2006-05-06 | 2012-07-03 | Sony Computer Entertainment America Llc | Target interface |
US8834245B2 (en) * | 2007-08-17 | 2014-09-16 | Nintendo Co., Ltd. | System and method for lock on target tracking with free targeting capability |
US8920240B2 (en) * | 2010-04-19 | 2014-12-30 | Guillemot Corporation S.A. | Directional game controller |
JP5832489B2 (ja) * | 2013-08-26 | 2015-12-16 | 株式会社コナミデジタルエンタテインメント | 移動制御装置及びプログラム |
CN104216617B (zh) * | 2014-08-27 | 2017-05-24 | 小米科技有限责任公司 | 光标位置确定方法和装置 |
CN104935725B (zh) * | 2015-04-23 | 2016-07-27 | 努比亚技术有限公司 | 移动终端及其利用虚拟边框区域实现功能调节的方法 |
CN105194873B (zh) * | 2015-10-10 | 2019-01-04 | 腾讯科技(成都)有限公司 | 一种信息处理方法、终端及计算机存储介质 |
JP6143934B1 (ja) * | 2016-11-10 | 2017-06-07 | 株式会社Cygames | 情報処理プログラム、情報処理方法、及び情報処理装置 |
KR20230070318A (ko) | 2016-12-05 | 2023-05-22 | 매직 립, 인코포레이티드 | 혼합 현실 환경의 가상 사용자 입력 콘트롤들 |
CN109529327B (zh) * | 2017-09-21 | 2022-03-04 | 腾讯科技(深圳)有限公司 | 虚拟交互场景中目标定位方法、装置及电子设备 |
CN108509139B (zh) * | 2018-03-30 | 2019-09-10 | 腾讯科技(深圳)有限公司 | 虚拟对象的移动控制方法、装置、电子装置及存储介质 |
CN108499104B (zh) * | 2018-04-17 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 虚拟场景中的方位显示方法、装置、电子装置及介质 |
CN108837506A (zh) * | 2018-05-25 | 2018-11-20 | 网易(杭州)网络有限公司 | 一种竞速游戏中虚拟道具的控制方法、装置及存储介质 |
CN108771863B (zh) | 2018-06-11 | 2022-04-15 | 网易(杭州)网络有限公司 | 射击游戏的控制方法和装置 |
CN110624240B (zh) * | 2018-06-25 | 2023-10-13 | 腾讯科技(上海)有限公司 | 一种网络游戏的操作控制方法、装置、终端设备和介质 |
CN109224439B (zh) * | 2018-10-22 | 2022-07-29 | 网易(杭州)网络有限公司 | 游戏瞄准的方法及装置、存储介质、电子装置 |
US11189127B2 (en) * | 2019-06-21 | 2021-11-30 | Green Jade Games Ltd | Target shooting game with banking of player error |
CN110275639B (zh) * | 2019-06-26 | 2023-03-28 | Oppo广东移动通信有限公司 | 触摸数据处理方法、装置、终端及存储介质 |
CN110665222B (zh) | 2019-09-29 | 2024-04-19 | 网易(杭州)网络有限公司 | 游戏中的瞄准方向控制方法、装置、电子设备及存储介质 |
CN110652725A (zh) | 2019-09-29 | 2020-01-07 | 网易(杭州)网络有限公司 | 游戏中瞄准方向的控制方法、装置、电子设备及存储介质 |
US11071906B2 (en) * | 2019-10-08 | 2021-07-27 | Zynga Inc. | Touchscreen game user interface |
CN111151002A (zh) * | 2019-12-30 | 2020-05-15 | 北京金山安全软件有限公司 | 触控瞄准方法和装置 |
US11541317B2 (en) * | 2020-02-06 | 2023-01-03 | Sony Interactive Entertainment Inc. | Automated weapon selection for new players using AI |
CN111672115B (zh) * | 2020-06-05 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 虚拟对象控制方法、装置、计算机设备及存储介质 |
CN116688502A (zh) * | 2022-02-25 | 2023-09-05 | 腾讯科技(深圳)有限公司 | 虚拟场景中的位置标记方法、装置、设备及存储介质 |
-
2020
- 2020-06-05 CN CN202010507467.0A patent/CN111672115B/zh active Active
-
2021
- 2021-05-11 KR KR1020217034213A patent/KR102648249B1/ko active IP Right Grant
- 2021-05-11 WO PCT/CN2021/093061 patent/WO2021244237A1/zh unknown
- 2021-05-11 EP EP21782630.4A patent/EP3939679A4/en active Pending
- 2021-05-11 JP JP2021563357A patent/JP7384521B2/ja active Active
- 2021-10-22 US US17/507,965 patent/US12005360B2/en active Active
-
2024
- 2024-06-05 US US18/733,985 patent/US20240325910A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011141632A (ja) * | 2010-01-06 | 2011-07-21 | Square Enix Co Ltd | ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム |
JP2018517533A (ja) * | 2015-10-10 | 2018-07-05 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 情報処理方法、端末、及びコンピュータ記憶媒体 |
JP2018068781A (ja) * | 2016-10-31 | 2018-05-10 | 株式会社バンク・オブ・イノベーション | ビデオゲーム処理装置、及びビデオゲーム処理プログラム |
JP2020039403A (ja) * | 2018-09-06 | 2020-03-19 | 株式会社バンダイナムコエンターテインメント | プログラム、ゲームシステム及びサーバシステム |
CN110613933A (zh) * | 2019-09-24 | 2019-12-27 | 网易(杭州)网络有限公司 | 游戏中技能释放控制方法、装置、存储介质和处理器 |
Also Published As
Publication number | Publication date |
---|---|
US20220040579A1 (en) | 2022-02-10 |
EP3939679A1 (en) | 2022-01-19 |
KR102648249B1 (ko) | 2024-03-14 |
CN111672115A (zh) | 2020-09-18 |
WO2021244237A1 (zh) | 2021-12-09 |
CN111672115B (zh) | 2022-09-23 |
US12005360B2 (en) | 2024-06-11 |
JP7384521B2 (ja) | 2023-11-21 |
EP3939679A4 (en) | 2022-08-31 |
US20240325910A1 (en) | 2024-10-03 |
KR20210151843A (ko) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102592632B1 (ko) | 가상 환경에서 마크 정보를 생성하는 방법 및 장치, 전자 장치 및 저장 매체 | |
JP7331124B2 (ja) | 仮想オブジェクトの制御方法、装置、端末及び記憶媒体 | |
WO2021227682A1 (zh) | 虚拟对象的控制方法、装置、设备及介质 | |
CN111672127B (zh) | 虚拟对象的控制方法、装置、设备以及存储介质 | |
JP7124235B2 (ja) | 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム | |
CN111035918B (zh) | 基于虚拟环境的侦察界面显示方法、装置及可读存储介质 | |
WO2021143259A1 (zh) | 虚拟对象的控制方法、装置、设备及可读存储介质 | |
US11878242B2 (en) | Method and apparatus for displaying virtual environment picture, device, and storage medium | |
CN110465087B (zh) | 虚拟物品的控制方法、装置、终端及存储介质 | |
US11847734B2 (en) | Method and apparatus for displaying virtual environment picture, device, and storage medium | |
JP2022534187A (ja) | 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム | |
US20240325910A1 (en) | Virtual object control method and apparatus, computer device, and storage medium | |
JP2022540283A (ja) | 仮想シーンにおける仮想オブジェクト制御方法、装置、機器及びコンピュータプログラム | |
WO2021227684A1 (en) | Method for selecting virtual objects, apparatus, terminal and storage medium | |
JP2024509064A (ja) | 位置マークの表示方法及び装置、機器並びにコンピュータプログラム | |
CN113134232B (zh) | 虚拟对象的控制方法、装置、设备及计算机可读存储介质 | |
JPWO2021143259A5 (ja) | ||
US20230271087A1 (en) | Method and apparatus for controlling virtual character, device, and storage medium | |
JP2022548436A (ja) | 仮想オブジェクトの制御方法、装置、端末及びコンピュータプログラム | |
CN113509729B (zh) | 虚拟道具的控制方法、装置、计算机设备及存储介质 | |
US20240367042A1 (en) | Method for selecting virtual objects, apparatus, terminal and storage medium | |
WO2023246307A1 (zh) | 虚拟环境中的信息处理方法、装置、设备及程序产品 | |
CN116966567A (zh) | 一种射击游戏的控制方法、装置、电子设备和存储介质 | |
CN113546403A (zh) | 角色控制方法、装置、终端和计算机可读存储介质 | |
CN116983649A (zh) | 虚拟对象的控制方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211025 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230302 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230825 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7384521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |