JP2023507686A - 仮想オブジェクトの制御方法、装置、機器、記憶媒体及びコンピュータプログラム製品 - Google Patents

仮想オブジェクトの制御方法、装置、機器、記憶媒体及びコンピュータプログラム製品 Download PDF

Info

Publication number
JP2023507686A
JP2023507686A JP2021565094A JP2021565094A JP2023507686A JP 2023507686 A JP2023507686 A JP 2023507686A JP 2021565094 A JP2021565094 A JP 2021565094A JP 2021565094 A JP2021565094 A JP 2021565094A JP 2023507686 A JP2023507686 A JP 2023507686A
Authority
JP
Japan
Prior art keywords
control
state
virtual object
switching
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021565094A
Other languages
English (en)
Other versions
JP7391448B2 (ja
Inventor
▲澤▼▲鋒▼ ▲楊▼
佳▲綺▼ 潘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202011302236.2A external-priority patent/CN112402959A/zh
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2023507686A publication Critical patent/JP2023507686A/ja
Application granted granted Critical
Publication of JP7391448B2 publication Critical patent/JP7391448B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/30Miscellaneous game characteristics with a three-dimensional image
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2023507686000001
本願は仮想オブジェクトの制御方法、装置、機器、記憶媒体及びコンピュータプログラム製品を提供しており、方法は、仮想シーン中の仮想オブジェクトが第1の運動状態にあるときに、前記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示するステップであって、前記少なくとも2つの切り替えコントロールのうち前記目標切り替えコントロール以外の切り替えコントロールは、前記目標切り替えコントロールのコントロールコピーであり、前記コントロールコピーの提示位置は前記目標切り替えの提示位置と異なる、ステップと、前記コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御するステップと、を含む。本願により、コントロールコピーによって運動状態の切り替えを実現し、ヒューマンコンピュータインタラクション効率を向上させることができる。

Description

本願はコンピュータの技術分野に関し、特に仮想オブジェクトの制御方法、装置、機器、コンピュータ可読記憶媒体及びコンピュータプログラム製品に関する。
[関連出願の相互参照]
本願は出願番号が202011302236.2、出願日が2020年11月19日の中国特許出願に基づいて提出され、且つ該中国特許出願の優先権を主張しており、該中国特許出願のすべての内容はここで本願において参考として組み込まれている。
図形処理ハードウェアに基づく表示技術は、環境を感知し及び情報を取得するためのチャンネルを拡張し、特に仮想シーンの表示技術は、実際の応用ニーズに応じてユーザー又は人工知能に制御された仮想オブジェクト間のさまざまなインタラクションを実現することができ、さまざまな典型的な応用シーンを有し、例えば軍事演習シミュレーション、及びゲーム等の仮想シーン中に、仮想オブジェクト間の本当の戦闘過程をシミュレートすることができる。
関連技術では、ユーザーは端末によって仮想シーン中に位置する仮想オブジェクトが動くように制御することができ、例えば、仮想オブジェクトが仮想シーン中で運動するように制御し、且つ仮想オブジェクトの運動状態を切り替える。仮想オブジェクトが運動状態切り替えを実行するように制御する必要があるとき、ユーザーは状態切り替えコントロールをトリガーすることによって実現する必要があるが、状態切り替えコントロールの提示位置は各ユーザーの操作習慣に適合できず、ヒューマンコンピュータインタラクション効率の低下を引き起こす。
本願の実施例は仮想オブジェクトの制御方法、装置、及びコンピュータ可読記憶媒体を提供しており、コントロールコピーによって運動状態の切り替えを実現し、ヒューマンコンピュータインタラクション効率を向上させることができる。
本願の実施例の技術的手段は以下のように実現される。
本願の実施例は仮想オブジェクトの制御方法を提供しており、前記方法はコンピュータ機器により実行され、前記方法は、
仮想シーン中の仮想オブジェクトが第1の運動状態にあるときに、前記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示するステップであって、
前記少なくとも2つの切り替えコントロールのうち前記目標切り替えコントロール以外の切り替えコントロールは、前記目標切り替えコントロールのコントロールコピーであり、前記コントロールコピーの提示位置は前記目標切り替えの提示位置と異なる、ステップと、
前記コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御するステップと、を含む。
本願の実施例は仮想オブジェクトの制御装置を提供しており、前記装置は、
仮想シーン中の仮想オブジェクトが第1の運動状態にあるときに、前記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示するように配置される提示モジュールであって、
前記少なくとも2つの切り替えコントロールのうち前記目標切り替えコントロール以外の切り替えコントロールは、前記目標切り替えコントロールのコントロールコピーであり、前記コントロールコピーの提示位置は前記目標切り替えの提示位置と異なる、提示モジュールと、
前記コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御するように配置される切り替えモジュールとを含む。
本願の実施例はコンピュータ機器を提供しており、前記コンピュータ機器は、
実行可能命令を記憶することに用いられるメモリと、
前記メモリ中に記憶された実行可能命令を実行するときに、本願の実施例により提供された仮想オブジェクトの制御方法を実現することに用いられるプロセッサとを含む。
本願の実施例はコンピュータ可読記憶媒体を提供しており、実行可能命令が記憶されており、プロセッサに実行されるときに、本願の実施例により提供された仮想オブジェクトの制御方法を実現することに用いられる。
本願の実施例はコンピュータプログラム製品を提供しており、コンピュータプログラム又は命令を含み、前記コンピュータプログラム又は命令はプロセッサに実行される時に本願の実施例により提供された仮想オブジェクトの制御方法を実現する。
本願の実施例は以下の有益な効果を有する。
本願の実施例を応用して、仮想シーン中の仮想オブジェクトが第1の運動状態にあるときに、前記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する。ここで、前記少なくとも2つの切り替えコントロールのうち前記目標切り替えコントロール以外の切り替えコントロールは、前記目標切り替えコントロールのコントロールコピーであり、前記コントロールコピーの提示位置は前記目標切り替えの提示位置と異なり、前記コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御する。このようにして、目標切り替えコントロールの提示位置はユーザーの操作習慣を満たさないときに、少なくとも2つの切り替えコントロールからコントロールコピーを選択して、運動状態の切り替えを実現し、ヒューマンコンピュータインタラクション効率を向上させることができる。
図1は本願の実施例により提供された仮想道具の制御方法の実施シーンの模式図である。 図2は本願の実施例により提供されたコンピュータ機器500の構造模式図である。 図3は本願の実施例により提供された仮想道具の制御方法のフロー模式図である。 図4は本願の実施例により提供されたドラッグ操作の模式図である。 図5は本願の実施例により提供された仮想シーンのインタフェース模式図である。 図6は本願の実施例により提供された仮想シーンのインタフェース模式図である。 図7は本願の実施例により提供された仮想シーンのインタフェース模式図である。 図8は本願の実施例により提供された仮想シーンのインタフェース模式図である。 図9は本願の実施例により提供された仮想シーンのインタフェース模式図である。 図10Aは本願の実施例により提供された仮想シーンの画面模式図である。 図10Bは本願の実施例により提供された仮想シーンの画面模式図である。 図11は本願の実施例により提供されたコントロールコピーを提示するインタフェース模式図である。 図12は本願の実施例により提供されたコントロールコピーを提示するインタフェース模式図である。 図13は本願の実施例により提供された仮想オブジェクトの制御方法のフロー模式図である。 図14は本願の実施例により提供された仮想オブジェクトの制御方法のフロー模式図である。 図15は本願の実施例により提供された仮想シーンのインタフェース模式図である。 図16は本願の実施例により提供された仮想シーンのインタフェース模式図である。 図17は本願の実施例により提供された仮想シーンのインタフェース模式図である。
本願の目的、技術的手段及び利点をより明確にするために、以下、図面と併せて本願をさらに詳細に記述する。記述した実施例は本願に対する制限とみなすべきではなく、当業者が創造的な労働をしないことを前提に取得するすべての他の実施例は、いずれも本願の保護範囲に属する。
以下の記述では、「いくつかの実施例」に関し、それはすべての可能な実施例のサブセットを記述するが、理解できるように、「いくつかの実施例」がすべての可能な実施例の同じサブセット又は異なるサブセットであってもよく、且つ矛盾しない場合に互いに組み合わせることができる。
以下の記述では、関する用語「第1/第2/第3」は単に類似オブジェクトを区別するためのものであり、オブジェクトに対する特定の順序を表さず、理解できるように、「第1/第2/第3」は許可されている場合に特定の順序又は前後順番を交換でき、それにより、ここで記述された本願の実施例はここで図示又は記述された順序以外の順序で実施できる。
特に定義されていない限り、本明細書に使用されたすべての技術及び科学用語は当業者が通常、理解する意味と同じである。本明細書に使用された用語は本願の実施例を説明することのみを目的として、本願を制限することを意図するものではない。
本願の実施例をさらに詳細に説明する前に、本願の実施例に関する名詞及び用語を説明し、本願の実施例に関する名詞及び用語は以下の解釈に適用できる。
1)クライアントとは、端末中に実行されおり、さまざまなサービスを提供することに用いられるアプリケーションプログラムであり、例えば、ビデオ再生クライアント、ゲームクライアント等である。
2)~に応答して、とは、実行された操作が依存する条件又は状態を示すことに用いられ、依存する条件又は状態を満たすときに、実行される1つ又は複数の操作はリアルタイムであってもよく、設定された遅延を有してもよく、特別な説明がない場合、実行された複数の操作については実行の前後順序の制限が存在しない。
3)仮想シーンとは、アプリケーションプログラムが端末上に実行されている時に表示(又は提供)する仮想シーンである。該仮想シーンは、実世界のシミュレーション環境であってもよく、半シミュレーション半架空の仮想環境であってもよく、さらに純粋に架空の仮想環境であってもよい。仮想シーンは2次元仮想シーン、2.5次元仮想シーン又は3次元仮想シーンのうちの任意の1種であってもよく、本願の実施例は仮想シーンの次元を限定していない。例えば、仮想シーンは空、陸地、海等を含んでもよく、該陸地は砂漠、都市等の環境要素を含んでもよく、ユーザーは仮想オブジェクトが該仮想シーン中で移動するように制御できる。
4)仮想オブジェクトとは、仮想シーンでインタラクションを行うことができるさまざまな人及び物のイメージであり、又は仮想シーン中の動き可能なオブジェクトである。該動き可能なオブジェクトは仮想人物、仮想動物、アニメ人物等であってもよく、例えば、仮想シーン中に表示された人物、動物、植物、ドラム缶、壁、石等である。該仮想オブジェクトは該仮想シーン中の、ユーザーを表すことに用いられる1つの仮想される仮想イメージであってもよい。仮想シーン中には複数の仮想オブジェクトを含んでもよく、各仮想オブジェクトは仮想シーン中に自体の形状及び体積を有し、仮想シーン中の一部の空間を占める。
選択可能に、該仮想オブジェクトはクライアント上の操作によって制御されるユーザーキャラクターであってもよく、訓練によって仮想シーン対戦中に設置された人工知能(AI、Artificial Intelligence)であってもよく、さらに仮想シーンインタラクション中に設置されたノンプレイヤーキャラクター(NPC、Non-Player Character)であってもよい。選択可能に、該仮想オブジェクトは仮想シーン中で対抗式インタラクションを行う仮想人物であってもよい。選択可能に、該仮想シーン中でインタラクションに参加する仮想オブジェクトの数は予め設定されてもよく、インタラクションに加入するクライアントの数に応じて動的に決定されてもよい。
5)シーンデータとは、仮想シーン中のオブジェクトがインタラクション過程において表現されたさまざまな特徴を表し、例えば、オブジェクトの仮想シーン中での位置を含んでもよい。もちろん、仮想シーンのタイプに応じて異なるタイプの特徴を含んでもよく、例えば、ゲームの仮想シーン中に、シーンデータは仮想シーン中のさまざまな機能を配置する時にウェイトする必要がある時間を含んでもよく(特定の時間内に同一機能を使用できる回数に決められる)、ゲームキャラクターのさまざまな状態の属性値を表してもよく、例えばヒットポイント(赤の量とも呼ばれる)及び魔法値(青の量とも呼ばれる)等を含む。
図1に参照されるように、図1は本願の実施例により提供された仮想道具の制御方法の実施シーンの模式図であり、1つの例示的なアプリケーションへのサポートを実現するために、端末(端末400-1及び端末400-2が例示的に示される)は、ネットワーク300によってサーバ200に接続され、ネットワーク300はワイドエリアネットワーク又はローカルエリアネットワーク、又はこれらの組み合わせであってもよく、無線リンクを使用してデータ伝送を実現する。
いくつかの実施例では、サーバ200は独立した物理サーバであってもよく、複数の物理サーバで構成されたサーバクラスター又は分散型システムであってもよく、さらに、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウド記憶、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメイン名サービス、セキュリティサービス、内容配信ネットワーク(CDN、Content Delivery Network)、ビッグデータ、及び人工知能プラットフォーム等の基本的なクラウドコンピューティングサービスを提供するクラウドサーバであってもよい。端末はスマートフォン、タブレットコンピュータ、ノートパソコン、デスクトップコンピュータ、スマートスピーカー、スマートウォッチ等であってもよいが、これに制限されない。端末及びサーバは、有線又は無線通信方式によって直接的又は間接的に接続することができ、本願の実施例において制限しない。
実際の実施のときに、端末(例えば端末400-1)には仮想シーンをサポートするアプリケーションプログラムがインストール及び実行されている。該アプリケーションプログラムは一人称シューティングゲーム(FPS、First-Person Shooting game)、三人称シューティングゲーム、マルチプレイヤーオンラインバトルアリーナゲーム(MOBA、Multiplayer Online Battle Arena games)、仮想現実アプリケーションプログラム、三次元マッププログラム、軍事シミュレーションプログラム又はマルチプレイヤーガンバトルサバイバルゲームのうちの任意の1種であってもよい。ユーザーは端末を使用して仮想シーン中に位置する仮想オブジェクトが動くように操作し、該動きは、体の姿勢の調整、爬行、歩き、走り、サイクリング、ジャンプ、運転、拾い、シューティング、攻撃、投げのうちの少なくとも1種を含むがそれらに制限されない。例示的に、該仮想オブジェクトは仮想人物であり、例えばシミュレーション人物キャラクター又はアニメ人物キャラクターである。
1つの例示的なシーンでは、端末400-1により制御された第1の仮想オブジェクトとその他の端末400-2により制御された第2の仮想オブジェクトは同一の仮想シーン中に位置し、このときに、第1の仮想オブジェクトは仮想シーン中で第2の仮想オブジェクトとインタラクションすることができる。いくつかの実施例では、第1の仮想オブジェクトと第2の仮想オブジェクトは同盟関係であってもよく、例えば、第1の仮想オブジェクトと第2の仮想オブジェクトは同一のチーム及び組織に属し、仮想シーン中にさらに第1の仮想オブジェクトと敵対関係の仮想オブジェクトが存在し、敵対関係の仮想オブジェクト間は、陸地上に互いにシューティングする方式で対抗式インタラクションを行うことができる。
1つの例示的なシーンでは、端末400-1は仮想オブジェクトを制御して仮想シーン中で運動させ、端末上に仮想オブジェクトの運動視角で仮想シーンを観察して得た仮想シーンの画面を提示し、仮想シーン中の仮想隊形が第1の運動状態(例えば急走状態)にあるときに、仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する。ここで、少なくとも2つの切り替えコントロールのうち目標切り替えコントロール以外の切り替えコントロールは、目標切り替えコントロールのコントロールコピーであり、コントロールコピーの提示位置は目標切り替えの提示位置と異なり、コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、仮想オブジェクトを第1の運動状態から第2の運動状態に切り替える(例えば急走状態からスライディング状態に切り替える)ように制御する。ここで、仮想シーンの画面中にはオブジェクトインタラクション環境、インタラクションオブジェクト等を含み、仮想シーンの画面は仮想シーンデータに基づいて得られる。
1つの例示的なシーンでは、軍事仮想シミュレーションアプリケーションでは、仮想シーン技術を採用し、被訓練者を視覚的及び聴覚的に戦場環境を本当に体験させ、戦闘領域の環境特徴を把握し、必要な機器によって仮想環境中のオブジェクトと相互作用を行い、仮想戦場環境の実現方法は、戦闘背景、戦地シーン、さまざまな武器や装備及び戦闘要員等を含む相応な3次元戦場環境図形画像ライブラリによって実現することができ、背景生成及び画像合成によって危険でほぼ現実的な立体戦場環境を作成する。
実際の実施のときに、端末400-1は仮想オブジェクト(例えばシミュレートされた戦闘要員)が仮想シーン(例えば都市A)を観察して得た仮想シーンの画面を提示し、仮想シーン中の仮想オブジェクトが第1の運動状態(例えば急走状態)にあるときに、仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する。ここで、少なくとも2つの切り替えコントロールのうち目標切り替えコントロール以外の切り替えコントロールは、目標切り替えコントロールのコントロールコピーであり、コントロールコピーの提示位置は目標切り替えの提示位置と異なり、例えば、仮想シーンのインタフェースの右側に目標切り替えコントロールを表示し、仮想シーンのインタフェースの左側に目標切り替えコントロールのコントロールコピーを表示し、コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、仮想オブジェクトを第1の運動状態から第2の運動状態に切り替える(例えば、急走状態からスライディング状態に切り替える)ように制御する。
図2に参照されるように、図2は本願の実施例により提供されたコンピュータ機器500の構造模式図であり、実際の応用では、コンピュータ機器500は図1中の端末又はサーバ200であってもよく、コンピュータ機器が図1に示される端末であることを例として、本願の実施例の仮想オブジェクトの制御方法を実施するコンピュータ機器を説明する。図2に示されるコンピュータ機器500は、少なくとも1つのプロセッサ510と、メモリ550と、少なくとも1つのネットワークインタフェース520と、ユーザーインタフェース530とを含む。コンピュータ機器500中の各アセンブリはバスシステム540によって一体に結合される。理解できるように、バスシステム540はそれらのアセンブリ間の接続通信を実現することに用いられる。バスシステム540はデータバスを含むだけでなく、さらに電源バスと、制御バスと、状態信号バスとを含む。明確に説明するために、図2中にさまざまなバスをいずれもバスシステム540としてマークしている。
プロセッサ510は1種の集積回路チップであってもよく、信号処理能力を有し、例えば汎用プロセッサ、デジタル信号プロセッサ(DSP、Digital Signal Processor)、又はその他のプログラマブルロジックデバイス、ディスクリートゲート又はトランジスタロジックデバイス、ディスクリートハードウェアアセンブリ等である。ここで、汎用プロセッサはマイクロプロセッサ又は任意の通常のプロセッサ等であってもよい。
ユーザーインタフェース530は、メディア内容の提示を可能にする1つ又は複数の出力装置531を含み、1つ又は複数のスピーカ及び/又は1つ又は複数のビジュアルディスプレイを含む。ユーザーインタフェース530は、1つ又は複数の入力装置532をさらに含み、ユーザー入力を容易にするユーザーインタフェース部材を含み、例えば、キーボード、マウス、マイクロホン、タッチディスプレイ、カメラ、その他の入力ボタン及びコントロールである。
メモリ550は取り外し可能なもの、取り外し不可能なもの又はその組み合わせであってもよい。例示的なハードウェア機器はソリッドステートメモリ、ハードディスクドライバ、光ディスクドライバ等を含む。メモリ550は、選択可能に、物理的位置上にプロセッサ510から離れる1つ又は複数の記憶機器を含む。
メモリ550は、揮発性メモリ又は不揮発性メモリを含み、揮発性及び不揮発性メモリの両方を含んでもよい。不揮発性メモリは、読み取り専用メモリ(ROM、Read Only Memory)であってもよく、揮発性メモリは、ランダムアクセスメモリ(RAM、Random Access Memory)であってもよい。本願の実施例に記述されたメモリ550は任意の適切なタイプのメモリを含むことを意図している。
いくつかの実施例では、メモリ550は、データを記憶してさまざまな操作をサポートすることができ、それらのデータの例はプログラム、モジュール、及びデータ構造又はそのサブセット若しくはスーパーセットを含み、以下、例示的に説明している。
オペレーティングシステム551は、さまざまな基本的なシステムサービスを処理し及びハードウェア関連タスクを実行することに用いられるシステムプログラムを含み、例えば、フレームワークレイヤー、コアライブラリレイヤー、ドライバーレイヤー等であり、さまざまな基本的なサービスを実現し及びハードウェアに基づくタスクを処理することに用いられる。
ネットワーク通信モジュール552は、1つ又は複数の(有線又は無線)ネットワークインタフェース520を経由してその他の計算機器に到達することに用いられ、例示的に、ネットワークインタフェース520は、ブルートゥース(登録商標)、無線相容性認証(WiFi)、及びユニバーサルシリアルバス(USB、Universal Serial Bus)等を含む。
提示モジュール553は、ユーザーインタフェース530に関連する1つ又は複数の出力装置531(例えば、ディスクプレイ、スピーカ等)を経由して情報の提示を可能にすることに用いられる(例えば、周辺装置を操作し及び内容及び情報を表示することに用いられるユーザーインタフェース)。
入力処理モジュール554は、1つ又は複数の入力装置532の一つからの1つ又は複数のユーザー入力又は1つ又は複数のインタラクションを検出し及び検出した入力又はインタラクションを翻訳することに用いられる。
いくつかの実施例では、本願の実施例により提供された仮想オブジェクトの制御装置はソフトウェア方式を採用して実現されることができ、図2にはメモリ550中に記憶された仮想オブジェクトの制御装置555が示されており、それはプログラム及びプラグイン等の形態のソフトウェアであってよく、提示モジュール5551及び切り替えモジュール5552のようなソフトウェアモジュールを含み、それらのモジュールは論理的であり、従って、実現された機能に応じて任意の組み合わせ又はさらなる分割を行うことができる。以下、各モジュールの機能を説明する。
いくつかの実施例では、端末はコンピュータプログラムを実行することによって本願の実施例により提供された仮想オブジェクトの制御方法を実現することができる。例を挙げて、コンピュータプログラムはオペレーティングシステム中のネイティブプログラム又はソフトウェアモジュールであってもよく、ローカル(Native)アプリケーションプログラム(APP、Application)、すなわち、オペレーティングシステム中にインストールしない実行できないプログラムであってもよく、例えば、ゲームAPPであり、さらに、アプレット、すなわちブラウザ環境にダウンロードするだけで実行できるプログラムであってもよく、さらに、任意のAPP中に組み込むことができるアプレットであってもよい。要すると、上記コンピュータプログラムは任意の形態のアプリケーションプログラム、モジュール又はプラグインであってもよい。
続いて、本願の実施例により提供された仮想オブジェクトの制御方法を説明し、実際の実施のときに、本願の実施例により提供された仮想オブジェクトの制御方法はサーバ又は端末により単独して実施されてもよく、サーバ及び端末により共同に実施されてもよい。
図3に参照されるように、図3は本願の実施例により提供された仮想オブジェクトの制御方法のフロー模式図であり、図3に示されるステップと併せて説明する。
ステップ301:端末は仮想シーン中の仮想オブジェクトが第1の運動状態にあるときに、仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する。
ここで、少なくとも2つの切り替えコントロールのうち目標切り替えコントロール以外の切り替えコントロールは、目標切り替えコントロールのコントロールコピーであり、コントロールコピーの提示位置は目標切り替えの提示位置と異なる。
実際の応用では、端末上には仮想シーンをサポートするアプリケーションプログラムがインストールされている。該アプリケーションプログラムは、一人称シューティングゲーム、三人称シューティングゲーム、マルチプレイヤーオンラインバトルアリーナゲーム、仮想現実アプリケーションプログラム、三次元マッププログラム、軍事シミュレーションプログラム又はマルチプレイヤーガンバトルサバイバルゲームのうちの任意の1種であってもよい。ユーザーは端末を使用して仮想シーン中に位置する仮想オブジェクトが動くように操作でき、該動きは、体の姿勢の調整、爬行、歩き、走り、サイクリング、ジャンプ、運転、拾い、シューティング、攻撃、投げのうちの少なくとも1種を含むがそれらに制限されない。例示的に、該仮想オブジェクトは仮想人物であり、例えばシミュレーション人物キャラクター又はアニメ人物キャラクターである。
プレーヤーが端末上のアプリケーションプログラムを開き、且つ端末が該アプリケーションプログラムを実行するときに、端末は仮想シーンの画面を提示する。ここで、仮想シーンの画面はオブジェクトが一人称視角で仮想シーンを観察して得られ、又は三人称視角で仮想シーンを観察して得られ、仮想シーンの画面中にはインタラクションオブジェクト及びオブジェクトインタラクション環境を含み、例えば、互いに敵対関係の第1の仮想オブジェクトと第2の仮想オブジェクトが仮想シーン中でインタラクションを行う。
実際の実施のときに、仮想オブジェクトの運動状態は歩き状態、走り状態、急走状態、爬行状態、ジャンプ状態、スライディング状態等であってもよい。ここで、第1の運動状態は上記運動状態のうちの任意の運動状態であってもよく、切り替えコントロール(目標切り替えコントロール及び目標切り替えコントロールのコントロールコピーを含む)によって運動状態の切り替えを実現でき、すなわち、仮想オブジェクトの運動状態を第1の運動状態から他の状態に切り替え、例えば、急走状態からスライディング状態に切り替える。ここで、少なくとも2つの切り替えコントロールのうちの任意の1つの切り替えコントロールに基づいて状態切り替え操作をトリガーすることができ、状態切り替え後に、仮想オブジェクトの運動状態は一定であってもよく、例えば、切り替え後の運動状態をスライディング状態に設定することができ、第1の運動状態に応じて対応して決定してもよく、例えば、第1の運動状態が急走状態であるときに、切り替え後の運動状態がスライディング状態であり、第1の運動状態が歩き状態であるときに、切り替え後の運動状態が走り状態である。
いくつかの実施例では、端末は仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する前に、さらに仮想シーンのインタフェース中に、方向ジョイスティックコントロールを提示することができ、方向ジョイスティックコントロールに対するドラッグ操作に応答して、ドラッグ操作のドラッグ距離を決定し、ドラッグ距離が目標距離に達するときに、仮想オブジェクトが第1の運動状態で運動するように制御する。
実際の実施のときに、方向リモートセンシングコントロールは仮想オブジェクトの運動方向を制御することに用いられ、端末はユーザーによってトリガーされたドラッグ操作の開始位置及び終了位置を取得する。ここで、座標の形式でドラッグ操作の開始位置(すなわちユーザーが方向ジョイスティックにタッチする位置)及び終了位置(すなわちユーザーが方向ジョイスティックを解放する位置)を記録でき、次に、開始位置及び終了位置に基づき、ドラッグ操作のドラッグ距離を決定し、ドラッグ距離と目標距離とを比較し、もしドラッグ距離が目標距離に達するなら、仮想オブジェクトが第1の運動状態で運動するように制御し、さもないと、他の操作を実行し、例えば、仮想オブジェクトが他の運動状態で運動するように制御する。
例えば、図4は本願の実施例により提供されたドラッグ操作の模式図であり、図4に参照されるように、ドラッグ操作の開始位置は401であり、ドラッグ操作の終了位置は402であり、開始位置の座標(x1,y1)、終了位置の座標(x2,y2)を取得し、開始位置の座標(x1,y1)及び終了位置の座標(x2,y2)に基づき、開始位置と終了位置との間の距離を計算して、ドラッグ操作のドラッグ距離を得て、次に、ドラッグ距離と目標距離とを比較して、ドラッグ距離が目標距離に達することを決定すると、仮想オブジェクトが第1の運動状態で運動するように制御する。
いくつかの実施例では、端末は仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する前に、さらに仮想シーンインタフェース中に、方向ジョイスティックコントロールを提示でき、方向ジョイスティックコントロールに対するドラッグ操作に応答して、ドラッグ操作により指示されたドラッグ方向及びドラッグ距離を決定し、ドラッグ方向が目標ドラッグ方向に合致し、且つドラッグ距離が目標距離に達するときに、仮想オブジェクトが第1の運動状態で運動するように制御する。
実際の実施のときに、目標ドラッグ方向及びドラッグ距離を予め設定することができる。ここで、仮想シーン画面中に目標ドラッグ方向及びドラッグ距離に対応する通知情報を提示して、ユーザーが相応なドラッグ操作を実行するように指示するようにしてもよい。例えば、第1の運動状態が急走状態であることを例として、図5は本願の実施例により提供された仮想シーンのインタフェース模式図であり、図5に参照されるように、仮想シーンインタフェース中に方向ジョイスティックコントロール及び通知情報を提示し、通知情報は矢印501と急走アイコン502とを含み、矢印501は目標ドラッグ方向を指示することに用いられ、矢印501及び急走アイコン502は目標距離、すなわち方向ジョイスティックコントロール503から矢印によって指示された方向に沿って、急走アイコン502までの距離、すなわち目標距離を共同に指示することに用いられる。
いくつかの実施例では、仮想オブジェクトが第1の運動状態で仮想シーン中で運動する時のみ、目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する。ここで、少なくとも2つの切り替えコントロールは新しく提示されてもよく、すなわち、仮想オブジェクトが第1の運動状態及び第2の運動状態以外のその他の状態にあるときに、該少なくとも2つの切り替えコントロールを提示せず、又は少なくとも2つの切り替えコントロールのうちの一部の切り替えコントロールのみを提示し、仮想オブジェクトが第1の運動状態で仮想シーン中で運動するときに、該少なくとも2つの切り替えコントロールを提示する。このようにすると、表示リソースを節約できる。仮想オブジェクトが立ち状態にあるときに、切り替えコントロールコピー及び目標切り替えコントロールを提示せず、方向ジョイスティックコントロールに対するドラッグ操作を受信し、且つドラッグ距離が目標距離に達するときに、仮想オブジェクトが急走状態で運動するように制御し、且つ少なくとも2つの切り替えコントロール、すなわち目標切り替えコントロール及び切り替えコントロールコピーを提示し、又は、ここでの少なくとも2つの切り替えコントロールのうちの一部又はすべての切り替えコントロールは終始仮想シーンの画面中に提示されてもよく、仮想オブジェクトが第1の運動状態にあるときに、既に提示された切り替えコントロールをアクティブ状態にし、アクティブ状態にある時のみ、該切り替えコントロールはトリガーされることができる。
いくつかの実施例では、端末は以下の方式によって仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示でき、仮想シーンのインタフェース中に目標切り替えコントロールを提示し、且つ方向ジョイスティックコントロールを目標切り替えコントロールのコントロールコピーに切り替える。
実際の実施のときに、仮想シーンのインタフェース中の既存のコントロールを目標切り替えコントロールのコントロールコピーに切り替えることで、少なくとも2つの切り替えコントロールを提示すると同時に、表示リソースの浪費を回避できる。ここで、方向ジョイスティックコントロールを目標切り替えコントロールのコントロールコピーに切り替えることは、既存の方向ジョイスティックコントロール中に目標切り替えコントロールのコントロールコピーを追加して、方向ジョイスティックコントロール及び目標切り替えコントロールのコントロールコピーを含む組み合わせコントロールを提示してもよく、方向ジョイスティックコントロールの表示を直接キャンセルして、方向ジョイスティックコントロールの表示領域中に目標切り替えコントロールのコントロールコピーを表示してもよい。
例として、図6は本願の実施例により提供された仮想シーンのインタフェース模式図であり、図6に参照されるように、仮想シーンのインタフェース中に方向ジョイスティックコントロール601及び目標切り替えコントロール602を提示して、ユーザーは方向ジョイスティックコントロールに対するドラッグ操作を実行し、それを特定の領域にドラッグした後に、仮想オブジェクトが急走状態に入るように制御し、且つ方向ジョイスティックコントロールの中間に切り替えボタン603を提示して、方向ジョイスティックコントロールを目標切り替えコントロールのコントロールコピーに切り替える。
ここで、目標切り替えコントロールのコントロールコピーを提示するときに、該コントロールコピーを差別表示でき、例えば、該コントロールコピーに対応する呼吸光効果を表示して、ユーザーが該コントロールコピーをトリガーするように通知する。例えば、図6に参照されるように、切り替えボタン603を提示すると同時に、相応な呼吸光効果を表示する。実際の実施のときに、差別表示の時間を予め設定でき、例えば、差別表示の時間を2秒に設定でき、そうすると、仮想オブジェクトがその他の状態から第1の運動状態に切り替えることからタイミングし、2秒に達するときに、呼吸光効果をキャンセルする。
いくつかの実施例では、端末は以下の方式によって仮想シーンのインタフェース中に目標切り替えコントロールの少なくとも2つの切り替えコントロールを提示でき、仮想シーンのインタフェース中に目標切り替えコントロールを提示し、且つフローティング状態で目標切り替えコントロールのコントロールコピーを提示し、対応して、端末はさらにコントロールコピーに対するドラッグ操作に応答して、コントロールコピーが仮想シーンのインタフェース中で移動するように制御でき、ドラッグ操作が解放されるときに、コントロールコピーがドラッグ操作の解放位置に位置するように制御する。
実際の実施のときに、目標切り替えコントロールのコントロールコピーを移動可能に設定でき、ドラッグ操作によってコントロールコピーの位置を調整し、そうすると、ユーザーは自分のニーズに応じて、コントロールコピーの位置を調整して、それを自分の操作習慣に一致する位置に移動して、さらにヒューマンコンピュータインタラクションの効率を向上させることができる。
実際の応用では、フローティング状態で目標切り替えコントロールのコントロールコピーを提示して、該コントロールコピーを仮想シーンのインタフェースの上にフローティングさせることができ、対応して、ユーザーは該コントロールコピーに対するドラッグ操作を実行でき、端末はドラッグ操作に対応する位置(すなわちユーザーがタッチする位置)を取得して、コントロールコピーがドラッグ操作の実行に伴って移動するように制御する。ここで、移動過程で、コントロールコピーの位置はユーザーがタッチする位置に一致する。ドラッグ操作が解放されるときに、ドラッグ操作の解放位置を取得し、該解放位置はコントロールコピーの最終的な位置である。
例えば、図7は本願の実施例により提供された仮想シーンのインタフェース模式図であり、図7に参照されるように、仮想シーンのインタフェース上に、フローティング状態で目標切り替えコントロールのコントロールコピー701を提示し、ユーザーは該コントロールコピーに対するドラッグ操作を実行し、例えば、右へドラッグすると、コントロールコピー701が右へ移動するように制御する。
いくつかの実施例では、端末は以下の方式によって仮想シーンのインタフェース中に目標切り替えコントロールの少なくとも2つの切り替えコントロールを提示でき、仮想シーンのインタフェースが少なくとも2つの領域を含むときに、各領域に1つの切り替えコントロールを提示する。
実際の実施のときに、仮想シーンのインタフェースを少なくとも2つの領域に予め分けることができ、例えば、仮想シーンのインタフェースを中間から分け、左半領域及び右半領域に分け、それぞれ左半領域及び右半領域に1つの切り替えコントロールを提示する。例えば、図8は本願の実施例により提供された仮想シーンのインタフェース模式図であり、図8に参照されるように、仮想シーンのインタフェースは3つの領域、すなわち領域801、領域802、領域803を含み、領域801に目標切り替えコントロールを提示し、領域802及び領域803にそれぞれ1つの切り替えコントロールコピーを提示する。
ステップ302:コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、仮想オブジェクトを第1の運動状態から第2の運動状態に切り替えるように制御する。
いくつかの実施例では、端末は以下の方式によって状態切り替え操作をトリガーすることができ、コントロールコピーに対する押圧操作を受信し、押圧操作を状態切り替え操作とし、対応して、端末は仮想オブジェクトを第1の運動状態から第2の運動状態に切り替えるように制御した後に、さらに押圧操作解放前に、仮想オブジェクトが第2の運動状態にあるように制御でき、且つ押圧操作が解放されるときに、仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるように制御する。
実際の実施のときに、状態切り替え操作は押圧操作であってもよく、端末はユーザーの押圧操作を監視し、ユーザーがコントロールコピーにタッチするときに、端末は仮想オブジェクトを第1の運動状態から第2の運動状態に切り替えるように制御し、且つ押圧操作の継続過程において、仮想オブジェクトが第2の運動状態で仮想シーン中で運動するように制御し、ユーザーが押圧操作を解放するときに、すなわち、ユーザーの手がスクリーンから離れるときに、仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるように制御する。
例示的に、第1の運動状態が急走状態であり、第2の運動状態がスライディング状態であることを例として、ユーザーが切り替えコントロールを押圧し、仮想オブジェクトを急走状態からスライディング状態に切り替えるように制御し、ユーザーが該切り替えコントロールを押す継続過程において、仮想オブジェクトがスライディング状態で運動し、ユーザーは該切り替えコントロールを解放し、仮想オブジェクトをスライディング状態から急走状態に切り替えるように制御する。
ここで、端末はコントロールコピーに対する押圧操作を受信した後に、目標表示モードを採用して該コントロールコピーを表示して、該コントロールコピーがトリガーされることを指示し、例えばハイライト形式で該コントロールコピーを表示できる。実際の実施のときに、目標表示モードを採用して該コントロールコピーを表示すると同時に、さらに目標表示モードを採用してその他の切り替えコントロールを表示でき、例えば、仮想シーンのインタフェース中には1つのコントロールコピー及び1つの目標切り替えコントロールを含むときに、ユーザーはコントロールコピーを押すと、コントロールコピー及び目標切り替えコントロールがいずれもハイライト表示される。
例えば、図9は本願の実施例により提供された仮想シーンのインタフェース模式図であり、図9に参照されるように、ユーザーが該切り替えコントロールを押す期間内に、ハイライト形式で目標切り替えコントロール901及びコントロールコピー902を表示する。
いくつかの実施例では、端末は以下の方式によって状態切り替え操作をトリガーすることができる。コントロールコピーに対する第1のクリック操作を受信し、第1のクリック操作を状態切り替え操作とし、対応して、端末は仮想オブジェクトを第1の運動状態から第2の運動状態に切り替えるように制御した後に、さらにコントロールコピーに対する第2のクリック操作を受信でき、第2のクリック操作に応答して、仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるように制御する。
ここで、状態切り替え操作はクリック操作であってもよく、そうすると、ユーザーはクリック操作を実行した後に、その他の操作を実行でき、終始該切り替えコントロールを押す必要がなく、ヒューマンコンピュータインタラクション効率を向上させることができる。
実際の実施のときに、端末はユーザーのクリック操作を監視し、ユーザーが該コントロールコピーをクリックするときに、端末は仮想オブジェクトを第1の運動状態から第2の運動状態に切り替えるように制御し、且つ仮想オブジェクトが第2の運動状態で運動するように制御し、仮想オブジェクトが第2の運動状態で運動する過程において、ユーザーは該コントロールコピーを再びクリックして、仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるように制御する。
例示的に、第1の運動状態が急走状態であり、第2の運動状態がスライディング状態であることを例として、ユーザーがコントロールコピーを初めてクリックするときに、仮想オブジェクトを急走状態からスライディング状態に切り替えるように制御し、且つ仮想オブジェクトが継続的にスライディング状態で運動するように制御し、ユーザーは該コントロールコピーを再びクリックするときに、仮想オブジェクトをスライディング状態から急走状態に切り替えるように制御する。
ここで、端末はコントロールコピーに対する第1のクリック操作を受信した後に、目標表示モードで該コントロールコピーを表示して、該コントロールコピーがトリガーされることを指示し、例えば、ハイライト形式で該コントロールコピーを表示でき、端末はコントロールコピーに対する第2のクリック操作を受信した後に、目標表示モードを採用して該コントロールコピーを表示することをキャンセルし、例えば、ハイライトをキャンセルする。
いくつかの実施例では、状態切り替え操作がクリック操作であってもよいときに、コントロールコピーに対する第1のクリック操作を受信し、端末は仮想オブジェクトを第1の運動状態から第2の運動状態に切り替えるように制御し、且つ仮想オブジェクトが第2の運動状態で運動するように制御し、仮想オブジェクトが第2の運動状態で運動する過程において、ユーザーは該コントロールコピーを再びクリックして、仮想オブジェクトを第2の運動状態から第3の運動状態に切り替えるように制御する。
すなわち、ここでのコントロールコピーは複数種の運動状態間の切り替えを実現することに用いることができ、例えば、端末はコントロールコピーに対する第1のクリック操作を受信するときに、仮想オブジェクトを急走状態からスライディング状態に切り替えるように制御し、端末はコントロールコピーに対する第2のクリック操作を受信するときに、仮想オブジェクトをスライディング状態から歩行状態に切り替えるように制御する。
いくつかの実施例では、端末はさらに仮想オブジェクトが第2の運動状態にある過程において、コントロールコピー及び目標切り替えコントロールが選択不可状態にあるように制御でき、仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるときに、コントロールコピー及び目標切り替えコントロールを選択不可状態から選択可能状態に切り替えるように制御して、選択可能状態のコントロールコピー又は目標切り替えコントロールに基づいて状態切り替え操作をトリガーする。
実際の実施のときに、仮想シーンのインタフェース中には複数の切り替えコントロールを含み、ユーザーがその中の任意の切り替えコントロールをトリガーするときに、すべての切り替えコントロールを選択不可状態にし、すなわち、仮想オブジェクトが第2の運動状態にある過程において、切り替えコントロールを再びトリガーすることができない。例えば、仮想シーンのインタフェース中には1つの目標切り替えコントロール及び3つのコントロールコピーを含むときに、ユーザーは3つのコントロールコピーのうちのあるコントロールコピーに基づいて状態切り替え操作をトリガーするときに、1つの目標切り替えコントロール及び3つのコントロールコピーをいずれも選択不可状態にする。
実際の応用では、仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるときに、すべての切り替えコントロールを改めて選択可能状態にする。ここで、第2の運動状態が運動できる目標運動距離を予め設定し、すなわち仮想オブジェクトが第2の運動状態で目標運動距離運動した後に、姿勢切り替えを自動的に行い、仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるように制御し、又は、第2の運動状態の継続可能な目標時間を予め設定でき、すなわち仮想オブジェクトが第2の運動状態で目標時間運動した後に、姿勢切り替えを自動的に行い、仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるように制御する。
いくつかの実施例では、端末はさらに、仮想シーンのインタフェース中の方向調整領域に基づいてトリガーされたスライド操作を受信し、スライド操作に対応するスライド方向及びスライド距離に基づき、仮想オブジェクトの運動視角を調整する。ここで、運動視角の調整方向はスライド方向と対応し、運動視角の調整角度はスライド距離と対応する。
ここで、方向調整領域のジェスチャーを検出し、検出したジェスチャーがスライド操作に対応するジェスチャーであるときに、スライド操作を受信することを決定し、且つスライド操作により指示されたスライド方向及びスライド距離を取得し、次に、スライド方向及びスライド距離に基づき、運動視角の調整方向及び調整角度を決定し、例えば運動視角の調整方向がスライド方向に一致し、調整角度がスライド距離に比例する。
例えば、図10A-10Bは本願の実施例により提供された仮想シーンの画面模式図であり、図10A-10Bに参照されるように、スライド方向がいずれも左であり、仮想オブジェクトを中心として、視角が左へ回転するように制御する。ここで、図10A中のスライド距離は図10B中のスライド距離未満であり、対応して、図10A中の視角が45度方向から真北方向(360度方向)に回転し、図10B中の視角は45度方向から345度方向に回転し、すなわち図10A中の調整角度は図10B中の調整角度未満である。
いくつかの実施例では、コントロールコピーが方向ホイール及び切り替えボタンを含む組み合わせコントロールであるときに、端末はさらに、方向ホイールに基づいてトリガーされた方向調整操作を受信し、方向調整操作の方向ホイール上でのトリガー位置を取得し、トリガー位置により指示された方向に従って、仮想オブジェクトの運動視角を調整する。
実際の実施のときに、方向調整操作はクリック操作であってもよく、クリック操作に対応するクリック位置に従って、ホイールの中心点位置をクリック位置の方向に指し示し、トリガー位置により指示された方向とし、例えば、図11は本願の実施例により提供されたコントロールコピーによって提示されたインタフェース模式図であり、1101はクリック操作に対応するクリック位置であり、矢印1102により指示された方向はトリガー位置により指示された方向である。
いくつかの実施例では、切り替えボタンは方向ホイールの中間に位置し、方向調整操作は切り替えボタンに対するドラッグ操作であってもよく、切り替えボタンが方向ホイール中で移動するように制御して、切り替えボタンの方向ホイール上での位置を、方向調整操作の方向ホイール上でのトリガー位置として、例えば、図12は本願の実施例により提供されたコントロールコピーによって提示されたインタフェース模式図であり、切り替えボタン1201の方向ホイール中での位置を取得して、該位置をトリガー位置として、対応して、トリガー位置により指示された方向は矢印1202により指示された方向である。
いくつかの実施例では、端末はさらにコントロールコピーが方向ジョイスティック及び切り替えボタンを含む組み合わせコントロールであってもよいときに、方向ジョイスティックに対するドラッグ操作に応答して、仮想オブジェクトが第2の運動状態で、ドラッグ操作により指示された方向へ運動するように制御する。
実際の実施のときに、仮想オブジェクトが第2の運動形態で運動する過程において、さらに、方向ジョイスティックコントロールによって仮想オブジェクトの運動方向を制御できる。ここで、ジョイスティックドラッグ操作に対応するドラッグ方向により指示された方向は運動方向であり、例えば、左へドラッグすると仮想オブジェクトが左へ運動するように制御する。
いくつかの実施例では、端末はさらに状態切り替え操作がコントロールコピーに対する押圧操作であるときに、押圧操作に対応する圧力を取得でき、圧力値に基づき、仮想オブジェクトが圧力値と対応する速度を採用して、第2の運動状態で運動するように制御する。
実際の実施のときに、圧力値と速度との間の対応関係を予め設定でき、例えば、圧力値と運動速度が比例してもよく、すなわち圧力値が大きければ大きいほど、対応する速度が高く、次に圧力値と運動速度との間の対応関係に従って、仮想オブジェクトが第2の運動状態で運動するように制御する。そうすると、仮想オブジェクトが第2の運動状態で運動するように制御すると同時に、仮想オブジェクトの運動速度を制御できるが、他のボタンをトリガーする必要がなく、ヒューマンコンピュータインタラクション効率を向上させる。
本願の実施例を応用し、ユーザーは自分の操作習慣に応じて、少なくとも2つの切り替えコントロールから1つの切り替えコントロールを選択して、運動状態の切り替えを実現して、ヒューマンコンピュータインタラクション効率を向上させることができる。
以下、第1の運動状態が急走状態であり、第2の運動状態がスライディング状態であることを例として、本願の実施例により提供された仮想オブジェクトの制御方法を説明し、該仮想オブジェクトの制御方法は端末及びサーバにより共同に実施され、図13は本願の実施例により提供された仮想オブジェクトの制御方法のフロー模式図であり、図13に参照されるように、本願の実施例により提供された仮想オブジェクトの制御方法は、以下のステップ1301~ステップ1310を含む。
ステップ1301:端末はゲーム開始ボタンを提示する。
ステップ1302:端末はゲームボタンに対するクリック操作に応答して、仮想シーンのシーンデータの取得要求をサーバに送信する。
ステップ1303:サーバはシーンデータを端末に送信する。
ステップ1304:端末は受信されたシーンデータに基づいてレンダリングして、仮想シーンのインタフェースを提示し、且つ仮想シーンのインタフェース中に立ち状態の仮想オブジェクトを提示する。
ステップ1305:方向ジョイスティックコントロールに対するドラッグ操作に応答して、ドラッグ距離が目標距離に達することを決定するときに、上記仮想オブジェクトが急走状態で運動するように制御する。
ステップ1306:サーバに切り替えコントロールの取得要求を送信する。
ステップ1307:サーバは切り替えコントロールのデータを端末に送信する。
ステップ1308:端末は切り替えコントロールのデータに基づいてレンダリングして、目標切り替えコントロールを提示し、且つ方向ジョイスティックコントロールを目標切り替えコントロールのコントロールコピーに切り替える。
ステップ1309:コントロールコピーに対するクリック操作に応答して、仮想オブジェクトを上記第1の運動状態から第2の運動状態に切り替えるように制御して、且つ目標切り替えコントロール及びコントロールコピーを選択不可状態にする。
ステップ1310:仮想オブジェクトが第2の運動状態で運動する距離は目標運動距離に達するときに、仮想オブジェクトを上記第2の運動状態から第1の運動状態に切り替えるように制御し、且つ目標切り替えコントロール及びコントロールコピーを選択可能状態にする。
そうすると、ユーザーは選択可能状態の目標切り替えコントロール及びコントロールコピーに基づき、状態切り替え操作を再びトリガーすることができる。
本願の実施例を応用し、ユーザーは自分の操作習慣に応じて、少なくとも2つの切り替えコントロールから1つの切り替えコントロールを選択して、運動状態の切り替えを実現して、ヒューマンコンピュータインタラクション効率を向上させることができる。
以下、本願の実施例の1つの実際の応用シーン中での例示的な応用を説明する。ここで、第1の運動状態が急走状態であり、第2の運動状態がスライディング状態であることを例として、本願の実施例により提供された仮想オブジェクトの制御方法を説明する。
図14は本願の実施例により提供された仮想オブジェクトの制御方法のフロー模式図であり、図14に参照されるように、本願の実施例により提供された仮想オブジェクトの制御方法は以下のステップ1401~ステップ1409を含む。
ステップ1401:スクリーンジェスチャーを検出する。
ステップ1402:検出されたスクリーンジェスチャーが条件を満たすジェスチャーであるかどうかを判断し、YESであると、ステップ1403を実行する。
実際の実施のときに、方向ジョイスティックコントロールに対するドラッグ操作を受信するかどうかを検出し、もしドラッグ操作を受信するなら、さらにジョイスティックを特定の領域にドラッグするかどうかを判断し、YESであると、仮想オブジェクトが急走状態に入るように制御する。
ここで、移動機器のスクリーン上で検出した方向ジョイスティックコントロールに対するドラッグ操作は、主に2つのイベントを有し、すなわちタッチ開始時のトリガーイベント及びタッチ終了時のトリガーイベントであり、イベントデータに従って、タッチ開始時の位置及び終了時の位置を取得する。ここで、座標で位置を表し、次に、プロセッサは取得された位置に基づき、スクリーンジェスチャーがジョイスティックに対するドラッグ操作であるかどうか、及び特定の領域にドラッグするかどうかを判断し、YESであると、スクリーンジェスチャーが条件を満たすジェスチャーであると決定する。
ステップ1403:しゃがみコントロールを目標切り替えコントロールに切り替え、且つ方向ジョイスティックコントロールを目標切り替えコントロールのコピーコントロールに切り替える。
ここで、図15に参照されるように、図15は本願の実施例により提供された仮想シーンのインタフェース模式図である。図15に参照されるように、仮想シーンのインタフェース中に方向ジョイスティックコントロール1501及びしゃがみコントロール1502を提示し、ユーザーは方向ジョイスティックコントロールに対するドラッグ操作を実行して、それを特定の領域にドラッグした後に、仮想オブジェクトが急走状態に入るように制御し、且つ方向ジョイスティックコントロールの中間に切り替えボタン1503を提示して、方向ジョイスティックコントロールを目標切り替えコントロールのコントロールコピーに切り替え、且つしゃがみコントロール1502を目標切り替えコントロール1504に切り替える。
ステップ1404:仮想オブジェクトが急走状態で運動するように制御する。
ステップ1405:スライディングボタンに対するトリガー操作を受信するかどうかを検出し、YESであると、ステップ1406を実行し、さもないと、ステップ1404を実行する。
ここでのトリガー操作はクリック操作であってもよく、長押し操作であってもよい。
例えば、図16は本願の実施例により提供された仮想シーンのインタフェース模式図であり、図16に参照されるように、ユーザーは方向ジョイスティックコントロール上に位置するスライディングボタン1601をクリックし、プロセッサはスライディングボタン上でのクリックジェスチャーであることを検出するときに、プロセッサはイベントデータを収集した後に、制御ユニットはスライディングボタンをハイライト状態で表示するように制御し、且つプロセッサは仮想オブジェクトがスライディング動作を実行するように制御する。
ステップ1406:仮想オブジェクトを急走状態からスライディング状態に切り替えるように制御する。
ここで、仮想オブジェクトを急走状態からスライディング状態に切り替えるように制御すると同時に、目標切り替えボタン及びコントロールコピーをハイライト表示する。
ステップ1407:仮想オブジェクトをスライディング状態から急走状態に切り替えるように制御する。
ここで、トリガー操作が押圧操作であるときに、ユーザーはコントロールコピーを解放して、目標切り替えコントロール及びコントロールコピーのハイライト表示をキャンセルし、スライディングを終了し、仮想オブジェクトを仮想状態から急走状態に切り替えるように制御する。実際の実施のときに、さらにその他の方式によって仮想オブジェクトをスライディング状態から急走状態に切り替えるように制御でき、例えば、仮想オブジェクトがスライディング状態で目標運動距離運動した後に、急走状態に自動的に切り替わる。
ステップ1408:急走キャンセル操作を受信するかどうかを判断し、YESであると、ステップ1409を実行し、さもないと、ステップ1404を実行する。
ステップ1409:急走をキャンセルする。
ここで、プロセッサは仮想オブジェクトが急走状態ではないということを採取するに至ったときに、スライディングボタンをしゃがみボタンに切り替え、且つ仮想オブジェクトが急走動作をキャンセルするように制御する。
図17は本願の実施例により提供された仮想シーンの画面模式図であり、図17に参照されるように、仮想シーンの画面中の仮想オブジェクトがスライディング状態1701Aから急走状態1701Bに切り替わる。
本願の実施例は以下の有益な効果を有する。
本願の上記実施例を応用することで、ユーザーは自分のニーズに応じて、スライディング操作をトリガーすることに用いられるコントロールを選択することができ、例えばコントロールコピーによってトリガーして、ヒューマンコンピュータインタラクション効率を向上させる。
以下、本願の実施例により提供された仮想オブジェクトの制御装置555の実施がソフトウェアモジュールである例示的な構造を説明し続け、いくつかの実施例では、図2に示すように、メモリ550に記憶された仮想オブジェクトの制御装置555中のソフトウェアモジュールは提示モジュール5551と、切り替えモジュール5552とを含んでもよい。
提示モジュール5551は、仮想シーン中の仮想オブジェクトが第1の運動状態にあるときに、上記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示するように配置され、
ここで、上記少なくとも2つの切り替えコントロールのうち上記目標切り替えコントロール以外の切り替えコントロールは、上記目標切り替えコントロールのコントロールコピーであり、上記コントロールコピーの提示位置は上記目標切り替えの提示位置と異なり、
切り替えモジュール5552は、上記コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、上記仮想オブジェクトを上記第1の運動状態から第2の運動状態に切り替えるように制御するように配置される。
いくつかの実施では、上記提示モジュールはさらに、上記仮想シーンのインタフェース中に、方向ジョイスティックコントロールを提示し、上記方向ジョイスティックコントロールに対するドラッグ操作に応答して、上記ドラッグ操作のドラッグ距離を決定し、上記ドラッグ距離が目標距離に達するときに、上記仮想オブジェクトが第1の運動状態で運動するように制御するように配置される。
いくつかの実施では、上記提示モジュールはさらに、上記仮想シーンのインタフェース中に目標切り替えコントロールを提示し、且つ
上記方向ジョイスティックコントロールを目標切り替えコントロールのコントロールコピーに切り替えるように配置される。
いくつかの実施では、上記提示モジュールはさらに、上記仮想シーンのインタフェース中に目標切り替えコントロールを提示し、且つフローティング状態で上記目標切り替えコントロールのコントロールコピーを提示するように配置され、
対応して、上記方法はさらに、
上記コントロールコピーに対するドラッグ操作に応答して、上記コントロールコピーが上記仮想シーンのインタフェース中で移動するように制御するステップと、
上記ドラッグ操作が解放されるときに、上記コントロールコピーが上記ドラッグ操作の解放位置に位置するように制御するステップと、を含む。
いくつかの実施では、上記提示モジュールはさらに、上記仮想シーンのインタフェースが少なくとも2つの領域を含むときに、各上記領域に一つの切り替えコントロールを提示するように配置される。
いくつかの実施では、上記提示モジュールはさらに、上記仮想オブジェクトが上記第2の運動状態にある過程において、上記コントロールコピー及び上記目標切り替えコントロールが選択不可状態にあるように制御し、
上記仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるときに、上記コントロールコピー及び上記目標切り替えコントロールを選択不可状態から選択可能状態に切り替えるように制御し、
上記選択可能状態の上記コントロールコピー又は上記目標切り替えコントロールに基づき状態切り替え操作をトリガーするように配置される。
いくつかの実施では、上記切り替えモジュールはさらに、上記コントロールコピーに対する押圧操作を受信し、上記押圧操作を上記状態切り替え操作とするように配置され、
対応して、上記仮想オブジェクトを上記第1の運動状態から第2の運動状態に切り替えるように制御する上記ステップの後に、上記方法はさらに、
上記押圧操作が解放される前に、上記仮想オブジェクトが上記第2の運動状態にあるように制御し、且つ上記押圧操作が解放されるときに、上記仮想オブジェクトを上記第2の運動状態から上記第1の運動状態に切り替えるように制御するステップを含む。
いくつかの実施では、上記切り替えモジュールはさらに、上記コントロールコピーに対する第1のクリック操作を受信し、上記第1のクリック操作を上記状態切り替え操作とし、
上記コントロールコピーに対する第2のクリック操作を受信し、
上記第2のクリック操作に応答して、上記仮想オブジェクトを上記第2の運動状態から上記第1の運動状態に切り替えるように制御するように配置される。
いくつかの実施では、上記切り替えモジュールはさらに、上記仮想シーンのインタフェース中の方向調整領域に基づいてトリガーされたスライド操作を受信し、
上記スライド操作に対応するスライド方向及びスライド距離に基づき、上記仮想オブジェクトの運動視角を調整するように配置され、
ここで、上記運動視角の調整方向は上記スライド方向と対応し、上記運動視角の調整角度は上記スライド距離と対応する。
いくつかの実施では、上記切り替えモジュールはさらに、上記コントロールコピーが方向ホイール及び切り替えボタンを含む組み合わせコントロールであるときに、上記方向ホイールに基づいてトリガーされた方向調整操作を受信するように配置され、
対応して、上記仮想オブジェクトの運動視角を調整する上記ステップは、
上記方向調整操作の上記方向ホイール上でのトリガー位置を取得するステップと、
上記トリガー位置により指示された方向に従い、上記仮想オブジェクトの運動視角を調整するステップと、を含む。
いくつかの実施では、上記切り替えモジュールはさらに、上記コントロールコピーが方向ジョイスティック及び切り替えボタンを含む組み合わせコントロールであるときに、上記方向ジョイスティックに対するドラッグ操作に応答して、上記仮想オブジェクトが第2の運動状態で、上記ドラッグ操作により指示された方向へ運動するように制御するように配置される。
いくつかの実施では、上記切り替えモジュールはさらに、上記状態切り替え操作が上記コントロールコピーに対する押圧操作であるときに、上記押圧操作に対応する圧力を取得し、
上記圧力値に基づき、上記仮想オブジェクトが上記圧力値と対応する速度を採用して、上記第2の運動状態で運動するように制御するように配置される。
本願の実施例はコンピュータプログラム製品又はコンピュータプログラムを提供しており、該コンピュータプログラム製品又はコンピュータプログラムはコンピュータ命令を含み、該コンピュータ命令はコンピュータ可読記憶媒体中に記憶されている。コンピュータ機器のプロセッサはコンピュータ可読記憶媒体から該コンピュータ命令を読み取り、プロセッサは該コンピュータ命令を実行して、該コンピュータ機器に本願の実施例の上記仮想オブジェクトの制御方法を実行させる。
本願の実施例は実行可能命令が記憶されているコンピュータ可読記憶媒体を提供しており、ここで、実行可能命令が記憶されており、実行可能命令はプロセッサに実行されるときに、プロセッサが本願の実施例により提供された方法、例えば、図3に示される方法を実行することを引き起こす。
いくつかの実施例では、コンピュータ可読記憶媒体はFRAM(登録商標)、ROM、PROM、EPROM、EEPROM、フラッシュメモリ、磁気表面メモリ、光ディスク、又はCD-ROM等のメモリであってもよく、上記メモリの1つ又は任意の組み合わせを含むさまざまな機器であってもよい。
いくつかの実施例では、実行可能命令はプログラム、ソフトウェア、ソフトウェアモジュール、スクリプト又はコードの形式を採用し、任意の形式のプログラミング言語(コンパイル又はインタープリタ型言語、又は宣言型言語又は手続き型言語を含む)で作成してもよく、且つそれは任意の形式で構成することができ、独立したプログラムとして構成され又はモジュール、アセンブリ、サブルーチン又は計算環境中に使用されることに適する他のユニットとして構成されることを含む。
例として、実行可能命令はファイルシステム中のファイルに対応することができるが、必ずしも対応する必要はなく、他のプログラム又はデータを保存するファイルの一部に記憶されることができ、例えば、ハイパーテキストマークアップ言語(HTML、Hyper Text Markup Language)ドキュメント中の1つ又は複数のスクリプト中に記憶され、検討されたプログラムのために配置された単一のファイル中に記憶され、又は、複数の共同ファイル(例えば、1つ又は複数のモジュール、サブルーチン又はコード部分が記憶されているファイル)中に記憶される。
例として、実行可能命令は1つの計算機器上で実行され、又は1つの場所に位置する複数の計算機器上で実行され、又は、複数の場所に分布し且つ通信ネットワークによって互いに接続される複数の計算機器上で実行されるように構成できる。
以上は本願の実施例に過ぎず、本願の特許発明の技術的範囲を制限するように配置されるものではない。本願の精神及び原則内で行われる任意の修正、均等物への置換や改良等であれば、全て本願の特許発明の技術的範囲内に含まれる。
200 サーバ
300 ネットワーク
301 ステップ
302 ステップ
400-1 端末
400-2 端末
500 コンピュータ機器
501 矢印
502 急走アイコン
503 方向ジョイスティックコントロール
510 プロセッサ
520 ネットワークインタフェース
530 ユーザーインタフェース
531 出力装置
532 入力装置
540 バスシステム
550 メモリ
551 オペレーティングシステム
552 ネットワーク通信モジュール
553 提示モジュール
554 入力処理モジュール
555 制御装置
601 方向ジョイスティックコントロール
602 コントロール
603 ボタン
701 コントロールコピー
801 領域
802 領域
803 領域
901 コントロール
902 コントロールコピー
1102 矢印
1201 ボタン
1202 矢印
1501 方向ジョイスティックコントロール
1502 コントロール
1503 ボタン
1504 コントロール
1601 スライディングボタン
1701A スライディング状態
1701B 急走状態
5551 提示モジュール
5552 モジュール

Claims (16)

  1. コンピュータ機器により実行される、仮想オブジェクトの制御方法であって、前記方法は、
    仮想シーン中の仮想オブジェクトが第1の運動状態にあるときに、前記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示するステップであって、
    前記少なくとも2つの切り替えコントロールのうち前記目標切り替えコントロール以外の切り替えコントロールは、前記目標切り替えコントロールのコントロールコピーであり、前記コントロールコピーの提示位置は前記目標切り替えの提示位置と異なる、ステップと、
    前記コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御するステップと、を含む、仮想オブジェクトの制御方法。
  2. 前記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する前記ステップの前に、前記方法は、
    前記仮想シーンのインタフェース中に、方向ジョイスティックコントロールを提示するステップと、
    前記方向ジョイスティックコントロールに対するドラッグ操作に応答して、前記ドラッグ操作のドラッグ距離を決定するステップと、
    前記ドラッグ距離が目標距離に達するときに、前記仮想オブジェクトが第1の運動状態で運動するように制御するステップと、をさらに含む、請求項1に記載の方法。
  3. 前記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示する前記ステップは、
    前記仮想シーンのインタフェース中に目標切り替えコントロールを提示し、且つ前記方向ジョイスティックコントロールを目標切り替えコントロールのコントロールコピーに切り替えるステップを含む、請求項2に記載の方法。
  4. 前記仮想シーンのインタフェース中に目標切り替えコントロールの少なくとも2つの切り替えコントロールを提示する前記ステップは、
    前記仮想シーンのインタフェース中に目標切り替えコントロールを提示し、且つフローティング状態で前記目標切り替えコントロールのコントロールコピーを提示するステップを含み、
    対応して、前記方法は、
    前記コントロールコピーに対するドラッグ操作に応答して、前記コントロールコピーが前記仮想シーンのインタフェース中で移動するように制御するステップと、
    前記ドラッグ操作が解放されるときに、前記コントロールコピーが前記ドラッグ操作の解放位置に位置するように制御するステップと、をさらに含む、請求項1に記載の方法。
  5. 前記仮想シーンのインタフェース中に目標切り替えコントロールの少なくとも2つの切り替えコントロールを提示する前記ステップは、
    前記仮想シーンのインタフェースが少なくとも2つの領域を含むときに、各前記領域に一つの切り替えコントロールを提示するステップを含む、請求項1に記載の方法。
  6. 前記方法は、
    前記仮想オブジェクトが前記第2の運動状態にある過程において、前記コントロールコピー及び前記目標切り替えコントロールが選択不可状態にあるように制御するステップと、
    前記仮想オブジェクトを第2の運動状態から第1の運動状態に切り替えるときに、前記コントロールコピー及び前記目標切り替えコントロールを選択不可状態から選択可能状態に切り替えるように制御するステップと、
    前記選択可能状態の前記コントロールコピー又は前記目標切り替えコントロールに基づき、状態切り替え操作をトリガーするステップと、をさらに含む、請求項1に記載の方法。
  7. 前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御する前記ステップの前に、前記方法は、
    前記コントロールコピーに対する押圧操作を受信し、前記押圧操作を前記状態切り替え操作とするステップをさらに含み、
    対応して、前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御する前記ステップの後に、前記方法は、
    前記押圧操作が解放される前に、前記仮想オブジェクトが前記第2の運動状態にあるように制御し、且つ前記押圧操作が解放されるときに、前記仮想オブジェクトを前記第2の運動状態から前記第1の運動状態に切り替えるように制御するステップをさらに含む、請求項1に記載の方法。
  8. 前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御する前記ステップの前に、前記方法は、
    前記コントロールコピーに対する第1のクリック操作を受信し、前記第1のクリック操作を前記状態切り替え操作とするステップをさらに含み、
    対応して、前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御する前記ステップの後に、前記方法は、
    前記コントロールコピーに対する第2のクリック操作を受信するステップと、
    前記第2のクリック操作に応答して、前記仮想オブジェクトを前記第2の運動状態から前記第1の運動状態に切り替えるように制御するステップと、をさらに含む、請求項1に記載の方法。
  9. 前記方法は、
    前記仮想シーンのインタフェース中の方向調整領域に基づいてトリガーされたスライド操作を受信するステップと、
    前記スライド操作に対応するスライド方向及びスライド距離に基づき、前記仮想オブジェクトの運動視角を調整するステップと、を含み、
    前記運動視角の調整方向は前記スライド方向と対応し、前記運動視角の調整角度は前記スライド距離と対応する、請求項1に記載の方法。
  10. 前記方法は、
    前記コントロールコピーが方向ホイール及び切り替えボタンを含む組み合わせコントロールであるときに、前記方向ホイールに基づいてトリガーされた方向調整操作を受信するステップと、
    前記方向調整操作の前記方向ホイール上でのトリガー位置を取得するステップと、
    前記トリガー位置により指示された方向に従い、前記仮想オブジェクトの運動視角を調整するステップと、をさらに含む請求項1に記載の方法。
  11. 前記方法は、
    前記コントロールコピーが方向ジョイスティック及び切り替えボタンを含む組み合わせコントロールであるときに、前記方向ジョイスティックに対するドラッグ操作に応答して、前記仮想オブジェクトが第2の運動状態で、前記ドラッグ操作により指示された方向へ運動するように制御するステップをさらに含む、請求項1に記載の方法。
  12. 前記方法は、
    前記状態切り替え操作が前記コントロールコピーに対する押圧操作であるときに、前記押圧操作に対応する圧力を取得するステップと、
    前記圧力値に基づき、前記仮想オブジェクトが前記圧力値と対応する速度を採用し、前記第2の運動状態で運動するように制御するステップと、をさらに含む請求項1に記載の方法。
  13. 仮想オブジェクトの制御装置であって、前記装置は、
    仮想シーン中の仮想オブジェクトが第1の運動状態にあるときに、前記仮想シーンのインタフェース中に目標切り替えコントロールを含む少なくとも2つの切り替えコントロールを提示するように配置される提示モジュールであって、
    前記少なくとも2つの切り替えコントロールのうち前記目標切り替えコントロール以外の切り替えコントロールは、前記目標切り替えコントロールのコントロールコピーであり、前記コントロールコピーの提示位置は前記目標切り替えの提示位置と異なる、提示モジュールと、
    前記コントロールコピーに基づいてトリガーされた状態切り替え操作に応答して、前記仮想オブジェクトを前記第1の運動状態から第2の運動状態に切り替えるように制御するように配置される切り替えモジュールと、を含む仮想オブジェクトの制御装置。
  14. コンピュータ機器であって、
    実行可能命令を記憶することに用いられるメモリと、
    前記メモリ中に記憶された実行可能命令を実行するときに、請求項1~12のいずれか一項に記載の仮想オブジェクトの制御方法を実現することに用いられるプロセッサと、を含むコンピュータ機器。
  15. 実行可能命令が記憶されており、プロセッサによって実行されるときに、請求項1~12のいずれか一項に記載の仮想オブジェクトの制御方法を実現することに用いられるコンピュータ可読記憶媒体。
  16. コンピュータプログラム又は命令を含み、前記コンピュータプログラム又は命令はプロセッサによって実行される時に請求項1~12のいずれか一項に記載の仮想オブジェクトの制御方法を実現するコンピュータプログラム製品。
JP2021565094A 2020-11-19 2021-08-31 仮想オブジェクトの制御方法、装置、機器、記憶媒体及びコンピュータプログラム製品 Active JP7391448B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011302236.2 2020-11-19
CN202011302236.2A CN112402959A (zh) 2020-11-19 2020-11-19 虚拟对象的控制方法、装置、设备及计算机可读存储介质
PCT/CN2021/115804 WO2022105362A1 (zh) 2020-11-19 2021-08-31 虚拟对象的控制方法、装置、设备、存储介质及计算机程序产品

Publications (2)

Publication Number Publication Date
JP2023507686A true JP2023507686A (ja) 2023-02-27
JP7391448B2 JP7391448B2 (ja) 2023-12-05

Family

ID=81587558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021565094A Active JP7391448B2 (ja) 2020-11-19 2021-08-31 仮想オブジェクトの制御方法、装置、機器、記憶媒体及びコンピュータプログラム製品

Country Status (3)

Country Link
US (2) US11803301B2 (ja)
JP (1) JP7391448B2 (ja)
KR (1) KR20220071149A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109701274B (zh) * 2018-12-26 2019-11-08 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN117193585A (zh) * 2022-05-31 2023-12-08 京东方科技集团股份有限公司 基于光场显示装置的交互方法及相关设备
CN115328371B (zh) * 2022-06-23 2023-09-15 网易(杭州)网络有限公司 对象调节的方法、装置和电子设备
CN117618919A (zh) * 2022-08-12 2024-03-01 腾讯科技(成都)有限公司 虚拟道具的改造处理方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019153837A1 (zh) * 2018-02-09 2019-08-15 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、电子装置及存储介质
US20200282308A1 (en) * 2018-03-30 2020-09-10 Tencent Technology (Shenzhen) Company Limited Method and apparatus for controlling virtual object to move, electronic device, and storage medium
US20200298104A1 (en) * 2018-03-30 2020-09-24 Tencent Technology (Shenzhen) Company Limited Virtual object movement control method and apparatus, electronic apparatus, and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
CN110124314A (zh) 2019-05-15 2019-08-16 网易(杭州)网络有限公司 游戏中的线索检索方法及装置、电子设备、存储介质
CN110270086B (zh) 2019-07-17 2023-03-24 网易(杭州)网络有限公司 一种游戏中虚拟角色的移动控制方法及装置
CN111097166A (zh) 2019-12-12 2020-05-05 腾讯科技(深圳)有限公司 虚拟操作对象的控制方法和装置、存储介质及电子装置
CN111399639B (zh) 2020-03-05 2022-07-12 腾讯科技(深圳)有限公司 虚拟环境中运动状态的控制方法、装置、设备及可读介质
CN112402959A (zh) 2020-11-19 2021-02-26 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019153837A1 (zh) * 2018-02-09 2019-08-15 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、电子装置及存储介质
US20200282308A1 (en) * 2018-03-30 2020-09-10 Tencent Technology (Shenzhen) Company Limited Method and apparatus for controlling virtual object to move, electronic device, and storage medium
US20200298104A1 (en) * 2018-03-30 2020-09-24 Tencent Technology (Shenzhen) Company Limited Virtual object movement control method and apparatus, electronic apparatus, and storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
荒野行動 スタートガイドブック, JPN6023009235, 1 April 2019 (2019-04-01), pages 33頁, ISSN: 0005010882 *

Also Published As

Publication number Publication date
US20240028193A1 (en) 2024-01-25
KR20220071149A (ko) 2022-05-31
JP7391448B2 (ja) 2023-12-05
US20220155953A1 (en) 2022-05-19
US11803301B2 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
JP7391448B2 (ja) 仮想オブジェクトの制御方法、装置、機器、記憶媒体及びコンピュータプログラム製品
WO2022105362A1 (zh) 虚拟对象的控制方法、装置、设备、存储介质及计算机程序产品
CN112416196B (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
WO2022057529A1 (zh) 虚拟场景中的信息提示方法、装置、电子设备及存储介质
JP2020527262A (ja) 仮想キャラクターの変位制御方法、装置、および記憶媒体
TWI831066B (zh) 虛擬場景中狀態切換方法、裝置、設備、媒體及程式產品
JP7477640B2 (ja) 仮想環境画面の表示方法、装置及びコンピュータプログラム
WO2022088941A1 (zh) 虚拟按键的位置调整方法、装置、设备、存储介质及程序产品
TWI831074B (zh) 虛擬場景中的信息處理方法、裝置、設備、媒體及程式產品
WO2023005522A1 (zh) 虚拟技能的控制方法、装置、设备、存储介质及程序产品
CN112138385B (zh) 虚拟射击道具的瞄准方法、装置、电子设备及存储介质
KR20240033087A (ko) 가상 시나리오에서의 오프닝 조작의 제어 방법, 장치, 기기, 저장 매체 및 프로그램 제품
JP7232350B2 (ja) 仮想キーの位置調整方法及び装置、並びコンピュータ装置及びプログラム
WO2024032104A1 (zh) 虚拟场景中的数据处理方法、装置、设备、存储介质及程序产品
WO2023065949A1 (zh) 虚拟场景中的对象控制方法、装置、终端设备、计算机可读存储介质、计算机程序产品
WO2023138142A1 (zh) 虚拟场景中的运动处理方法、装置、设备、存储介质及程序产品
WO2022156629A1 (zh) 虚拟对象的控制方法、装置、电子设备、存储介质及计算机程序产品
CN114210051A (zh) 虚拟场景中的载具控制方法、装置、设备及存储介质
CN116688502A (zh) 虚拟场景中的位置标记方法、装置、设备及存储介质
JP7507878B2 (ja) 仮想オブジェクトの制御方法、装置、機器、及びプログラム
WO2023221716A1 (zh) 虚拟场景中的标记处理方法、装置、设备、介质及产品
WO2024146246A1 (zh) 虚拟场景的交互处理方法、装置、电子设备及计算机存储介质
WO2024060924A1 (zh) 虚拟场景的互动处理方法、装置、电子设备及存储介质
CN117797478A (zh) 虚拟对象的交互处理方法、装置、电子设备及存储介质
CN113663326A (zh) 一种游戏技能的瞄准方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230313

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231116

R150 Certificate of patent or registration of utility model

Ref document number: 7391448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150