JP7231737B2 - Motion control method, device, electronic device and program - Google Patents
Motion control method, device, electronic device and program Download PDFInfo
- Publication number
- JP7231737B2 JP7231737B2 JP2021531040A JP2021531040A JP7231737B2 JP 7231737 B2 JP7231737 B2 JP 7231737B2 JP 2021531040 A JP2021531040 A JP 2021531040A JP 2021531040 A JP2021531040 A JP 2021531040A JP 7231737 B2 JP7231737 B2 JP 7231737B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- function
- display mode
- shooting
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/219—Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/22—Setup operations, e.g. calibration, key configuration or button assignment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/422—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/218—Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1068—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8076—Shooting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
Description
本願は、2019年04月11日に中国特許庁へ提出された、出願番号が201910290727.0であり、出願名称が「動作制御方法、装置、電子機器および記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は本願に引用にて結合される。 This application takes precedence over a Chinese patent application with application number 201910290727.0 and titled "Motion Control Method, Apparatus, Electronic Equipment and Storage Medium" filed with the Chinese Patent Office on April 11, 2019. claims, the entire contents of which are incorporated herein by reference.
本願は、コンピュータ技術分野に関し、特に、動作制御方法、装置、電子機器および記憶媒体に関する。 TECHNICAL FIELD The present application relates to the field of computer technology, and more particularly to motion control methods, devices, electronic devices and storage media.
コンピュータ技術の発達および端末機能の多様化に伴い、端末で射撃ゲームをプレイできることなど、端末でプレイできるゲームの種類はますます増えている。 With the development of computer technology and the diversification of terminal functions, the types of games that can be played on terminals, such as shooting games, are increasing more and more.
現在、ゲームに対応する動作制御方法では、通常、ユーザによる動作に応じて対応する機能が実現される。例えば、攻撃動作を受信すると、攻撃するように仮想オブジェクトを制御する。しかしながら、動作プロセスが煩雑で複雑であり、動作制御効率が低い場合が多いため、上記の煩雑で複雑な動作や低効率の問題を解決するための動作制御方法が急務となっている。 At present, in motion control methods corresponding to games, the corresponding functions are usually realized according to the motions made by the user. For example, upon receiving an attack motion, control the virtual object to attack. However, the operation process is cumbersome and complicated, and the efficiency of operation control is often low. Therefore, there is an urgent need for an operation control method to solve the problems of complicated and complicated operation and low efficiency.
本願による各実施例は、動作制御方法、装置、電子機器および記憶媒体を提供する。 Each embodiment according to the present application provides an operation control method, an apparatus, an electronic device and a storage medium.
1側面において、電子機器が実行する動作制御方法であって、
グラフィカルユーザインターフェースにターゲットボタンを表示するステップであって、前記ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する、ステップと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定するステップと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む
動作制御方法を提供する。
In one aspect, an operation control method performed by an electronic device, comprising:
displaying a target button on a graphical user interface, said target button corresponding to a display mode switching function and a shooting function;
When a touch operation to the target button is detected, the target function to be triggered among the display mode switching function and the shooting function and the target function are selected according to the type of the virtual item controlled by the current virtual object. determining a corresponding target mode;
executing the target function on the graphical user interface based on the target mode.
1側面において、電子機器が実行する動作制御方法であって、
グラフィカルユーザインターフェースにターゲットボタンを表示するステップであって、前記ターゲットボタンは複数の制御機能に対応し、前記複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む、ステップと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別、前記現在の仮想オブジェクトの移動状態または前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、前記複数の制御機能のうちのトリガー対象のターゲット機能および前記ターゲット機能に対応するターゲットモードを決定するステップと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む
動作制御方法を提供する。
In one aspect, an operation control method performed by an electronic device, comprising:
displaying a target button on a graphical user interface, said target button corresponding to a plurality of control functions, said plurality of control functions being among a display mode switching function, a shooting function, a motion control function and a viewing angle adjustment function. a step comprising at least two of
when a touch motion on the target button is detected, at least a type of virtual item controlled by a current virtual object, a moving state of the current virtual object, or an environment within a virtual scene of the current virtual object. determining, according to one, a target function to be triggered among the plurality of control functions and a target mode corresponding to the target function;
executing the target function on the graphical user interface based on the target mode.
1側面において、
表示モード切り替え機能および射撃機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する決定モジュールと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える
動作制御装置を提供する。
In one aspect,
a display module for displaying a target button corresponding to a display mode switching function and a shooting function on a graphical user interface;
When a touch operation to the target button is detected, the target function to be triggered among the display mode switching function and the shooting function and the target function are selected according to the type of the virtual item controlled by the current virtual object. a determination module that determines the corresponding target mode;
an execution module for executing the target function at the graphical user interface based on the target mode.
1側面において、
複数の制御機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールであって、前記複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含むものである表示モジュールと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、前記複数の制御機能のうちのトリガー対象のターゲット機能および前記ターゲット機能に対応するターゲットモードを決定する決定モジュールと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える
動作制御装置を提供する。
In one aspect,
A display module for displaying target buttons corresponding to a plurality of control functions on a graphical user interface, the plurality of control functions being at least two of a display mode switching function, a shooting function, a motion control function and a viewing angle adjustment function. a display module comprising:
when a touch action on the target button is detected, at least a type of virtual item controlled by a current virtual object, a moving state of the current virtual object, and an environment within a virtual scene of the current virtual object. a determining module, according to one, for determining a target function to trigger among the plurality of control functions and a target mode corresponding to the target function;
an execution module for executing the target function at the graphical user interface based on the target mode.
1側面において、メモリとプロセッサを備える電子機器であって、
前記メモリにはコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令が前記プロセッサによって実行されると、前記プロセッサに上記の動作制御方法のステップを実行させる
電子機器を提供する。
In one aspect, an electronic device comprising a memory and a processor, comprising:
An electronic device is provided in which computer readable instructions are stored in the memory and, when the computer readable instructions are executed by the processor, cause the processor to perform the steps of the above operational control method.
1側面において、コンピュータ読み取り可能な命令が記憶されている1つまたは複数の不揮発性記憶媒体であって、
前記コンピュータ読み取り可能な命令が1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、上記の動作制御方法のステップを実行させる
不揮発性記憶媒体を提供する。
In one aspect, one or more non-volatile storage media having computer readable instructions stored thereon, comprising:
A non-volatile storage medium is provided wherein the computer readable instructions, when executed by one or more processors, cause the one or more processors to perform the steps of the operational control method described above.
本願の1つまたは複数の実施例の詳細は、以下の図面および説明に記載されている。本願の他の特徴、目的および利点は、明細書、図面および特許請求の範囲から明らかになるであろう。 The details of one or more implementations of the application are set forth in the drawings and description below. Other features, objects and advantages of the present application will become apparent from the specification, drawings and claims.
以下、本願の実施例における技術態様をより明確に説明するために、実施例の説明に必要な図面を簡単に記述する。明らかに、以下の説明の図面は、本願のいくつかの実施例にすぎず、当業者のとっては、これらの図面に基づいて、創造的な作業なしに他の図面を取得することができる。 In the following, in order to more clearly describe the technical aspects of the embodiments of the present application, the drawings necessary for describing the embodiments will be briefly described. Obviously, the drawings in the following description are just some embodiments of the present application, and those skilled in the art can obtain other drawings based on these drawings without creative work. .
以下、本願の目的、技術態様および利点をより明確にするために、本願の実施形態を、添付の図面を参照しながらさらに詳細に説明する。 In order to make the objects, technical aspects and advantages of the present application clearer, the embodiments of the present application will now be described in further detail with reference to the accompanying drawings.
本願実施例は、主に電子ゲームまたはシミュレーショントレーニングシーンに関する。電子ゲームシーンを例にすると、ユーザは、事前に当該端末で動作を行うことができ、当該端末は、ユーザによる動作を検出すると、電子ゲームのゲーム構成ファイルをダウンロードすることができる。当該ゲーム構成ファイルは、当該電子ゲームのアプリケーションプログラム、インターフェース表示データまたは仮想シーンデータ等を含むことができ、これにより、当該ユーザが当該端末で電子ゲームにログインするときに、当該ゲーム構成ファイルを呼び出して、電子ゲームインターフェースをレンダリングして表示することができる。ユーザは、端末でタッチ動作を実行することができ、当該端末はタッチ動作を検出すると、当該タッチ動作に対応するゲームデータを決定し、当該ゲームデータをレンダリングして表示することができ、当該ゲームデータは、仮想シーンデータ、当該仮想シーン内の仮想オブジェクトの挙動データ等を含むことができる。 Embodiments of the present application relate primarily to electronic games or simulation training scenes. Taking the electronic game scene as an example, the user can perform an action on the terminal in advance, and the terminal can download the game configuration file of the electronic game upon detecting the action by the user. The game configuration file can include an application program, interface display data, virtual scene data, etc. of the electronic game, so that the game configuration file can be called when the user logs into the electronic game on the terminal. can be used to render and display an electronic game interface. A user can perform a touch action on a terminal, and when the terminal detects a touch action, the terminal can determine game data corresponding to the touch action, render and display the game data, and display the game data. The data can include virtual scene data, behavior data of virtual objects in the virtual scene, and the like.
本願に係わる仮想シーンは、1つの3次元仮想空間をシミュレートするために用いられてもよく、1つの2次元仮想空間をシミュレートするために用いられてもよい。当該3次元仮想空間または2次元仮想空間は、オープン空間であることができる。当該仮想シーンは、現実における真の環境をシミュレートするために用いられることができ、例えば、当該仮想シーンは、空、陸地、海等を含み、当該陸地は、砂漠、都市等の環境要素を含み、ユーザは、当該仮想シーンで移動するように仮想オブジェクトを制御することができる。ここで、仮想オブジェクトは、ユーザを表すための1つの仮想の仮想キャラクター、またはペット等のユーザに関連付けられた生き物を表すために使用される1つ仮想の仮想キャラクターであることができる。当該仮想キャラクターは、人間または動物などの任意の形態であることができ、本願はこれに限定されない。 A virtual scene according to the present application may be used to simulate one 3D virtual space, or may be used to simulate one 2D virtual space. The three-dimensional virtual space or two-dimensional virtual space can be an open space. The virtual scene can be used to simulate a true environment in reality, for example, the virtual scene includes the sky, land, sea, etc., and the land includes environmental elements such as deserts, cities, etc. Including, the user can control the virtual object to move in the virtual scene. Here, the virtual object can be a virtual virtual character to represent the user or a virtual virtual character used to represent a creature associated with the user, such as a pet. The virtual character can be of any form, such as human or animal, and the application is not so limited.
当該仮想シーンには、さらに他の仮想オブジェクトを含むことができる。即ち、当該仮想シーンは、複数の仮想オブジェクトを含むことができ、各仮想オブジェクトは、仮想シーンにおいて独自の形状および体積を有し、仮想シーンにおける空間の一部を占める。シューティングゲームを例にすると、ユーザは仮想オブジェクトを制御して、自由落下、滑空、またはパラシュートを開くことで当該仮想シーンの空中で降下したり、陸地で走ったり、ジャンプしたり、這ったり、前に腰を曲げて進んだりすることができる。仮想オブジェクトを制御して海で泳いだり、浮いたり、ダイビングしたりすることもできる。もちろん、ユーザは仮想オブジェクトを制御して、乗り物に乗って当該仮想シーン内で移動させることもでき、ここでは、上記のシーンのみを例にして説明し、本願実施例はこれに限定されない。ユーザはさらに、仮想アイテムを使用して他の仮想オブジェクトと戦うように仮想オブジェクトを制御することができる。当該仮想アイテムは、冷兵器またはホットウェポンであることができ、本願実施例では特に限定されない。 The virtual scene can further include other virtual objects. That is, the virtual scene can include multiple virtual objects, each virtual object having its own shape and volume in the virtual scene and occupying a portion of space in the virtual scene. Taking a shooting game as an example, a user can control a virtual object to free-fall, glide, or open a parachute to descend in the air of the virtual scene, run, jump, crawl, or move forward. You can bend over and go forward. You can also control virtual objects to swim, float, and dive in the ocean. Of course, the user can also control the virtual object to ride a vehicle and move it within the virtual scene, and only the above scene will be described here as an example, and the embodiments of the present application are not limited thereto. The user can further control virtual objects to fight other virtual objects using virtual items. The virtual item can be a cold weapon or a hot weapon, and is not particularly limited in this embodiment.
通常、端末スクリーンには、現在の端末で制御される仮想オブジェクトの視角画面が表示され、当該端末スクリーンには、当該現在の端末によって制御される仮想オブジェクトの照準点を表示することもできる。当該照準点は、現在の端末で制御される仮想オブジェクトの視角画面における照準ターゲットを表記するために用いられることができ、当該仮想シーンにおける当該照準点の位置は、現在の端末によって制御される仮想オブジェクトの攻撃ポイントとして使用できる。 Usually, the terminal screen displays the viewing angle screen of the virtual object controlled by the current terminal, and the terminal screen can also display the aiming point of the virtual object controlled by the current terminal. The aiming point can be used to represent the aiming target in the viewing angle screen of the virtual object controlled by the current terminal, and the position of the aiming point in the virtual scene is the virtual object controlled by the current terminal. Can be used as attack points for objects.
具体的には、当該照準点は、当該端末スクリーンの中心位置に表示することができる。もちろん、当該照準点は、他の位置に表示することもでき、本願実施例では特に限定されない。当該照準点の表示パターンは、複数の種類があるため、照準点の表示パターンはシステムデフォルトで表示されてもよく、ユーザの設定に応じて調整されてもよい。ユーザは、端末に表示された照準点を見ると、現在の照準点に対応する仮想シーンでの位置が照準しようとする領域であるかを判断でき、その領域でなければ、ユーザは視角調整動作により仮想シーンの視角を調整して、当該照準点の照準する領域を調整できる。もちろん、ユーザは、通常照準点を仮想シーン内の他の仮想オブジェクトの本体にすばやく且つ正確に調整して、それにより、他の当該仮想オブジェクトを射撃、平手打ちまたはボクシング等を行うことができる。 Specifically, the aiming point can be displayed at the center position of the terminal screen. Of course, the aiming point can be displayed at other positions, and is not particularly limited in the embodiments of the present application. Since there are a plurality of types of display patterns for the aiming point, the display pattern for the aiming point may be displayed as a system default, or may be adjusted according to user settings. By looking at the aiming point displayed on the terminal, the user can determine whether or not the position in the virtual scene corresponding to the current aiming point is the area to be aimed at. can adjust the viewing angle of the virtual scene to adjust the aiming area of the aiming point. Of course, the user can usually quickly and accurately adjust the aiming point to the body of another virtual object in the virtual scene, thereby shooting, slapping, boxing, etc. at that other virtual object.
当該視角調整動作は、複数の種類の動作モードを含むことができる。一可能な実現形態において、当該視角調整動作は、スライド動作であることができ、端末が、当該スライド動作が検出された場合、当該スライド動作のスライド方向、スライド距離およびスライド速度に基づいて、当該スライド動作に対応する視角の回動方向、回動角度および回動速度を決定することができる。例えば、当該スライド動作のスライド方向は、視角の回動方向に対応し、当該スライド動作のスライド距離の大きさは視角の回動角度と正の相関があることができる。もちろん、当該スライド動作のスライド速度も当該視角の回動速度と正の相関があることができる。 The viewing angle adjustment operation can include multiple types of operation modes. In one possible implementation, the viewing angle adjusting operation can be a sliding operation, and when the sliding operation is detected, the terminal can determine the viewing angle according to the sliding direction, sliding distance and sliding speed of the sliding operation. The rotation direction, rotation angle and rotation speed of the viewing angle corresponding to the sliding motion can be determined. For example, the slide direction of the slide motion corresponds to the rotation direction of the viewing angle, and the magnitude of the slide distance of the slide motion can be positively correlated with the rotation angle of the viewing angle. Of course, the sliding speed of the sliding motion may also have a positive correlation with the rotation speed of the viewing angle.
別の可能な実現形態において、当該視角調整動作はさらに、端末に対する回動動作であることができる。当該端末内の角速度センサ(ジャイロスコープなど)によって当該回動動作が検出された場合、当該回動動作の回動方向、回動角度および回動速度にしたがって、視角の回動方向、回動角度および回動速度を決定することができる。例えば、当該回動動作の回動方向は、視角の回動方向であることができ、当該回動動作の回動角度は、当該視角の回動角度と正の相関があることができ、当該回動動作の回動速度は、当該視角の回動速度と正の相関があることができる。もちろん、当該視角調整動作は、キー動作、仮想ジョイスティック領域のドラッグ動作、または真のジョイスティック機器のトグル動作等であることができ、本発明は特に限定しない。 In another possible implementation, the viewing angle adjustment motion can also be a pivoting motion with respect to the terminal. When the rotation motion is detected by an angular velocity sensor (gyroscope, etc.) in the terminal, the rotation direction and rotation angle of the viewing angle are determined according to the rotation direction, rotation angle, and rotation speed of the rotation motion. and rotation speed can be determined. For example, the rotation direction of the rotation motion can be the rotation direction of the viewing angle, and the rotation angle of the rotation motion can be positively correlated with the rotation angle of the viewing angle. The rotation speed of the rotation motion can have a positive correlation with the rotation speed of the viewing angle. Of course, the viewing angle adjusting operation can be a key operation, a virtual joystick region dragging operation, a true joystick device toggling operation, etc., and the present invention is not particularly limited.
もちろん、当該視角調整動作は、さらにジェスチャ動作などの他の方式を含むことができ、本願実施例はこれを限定しない。ユーザが仮想オブジェクトを制御する場合、上記のいくつかの視角調整動作の組み合わせによって異なる制御効果を実現することもでき、例えば、当該ユーザの視角に対する視角調整動作がスライド動作であるが、当該スライド動作時、端末が当該スライド動作中の動作の押し付け力を検出し、当該押し付け力が特定の押し付け力より大きいか否かに基づいて、射撃等を実行するか否かを決定する。上記は、例示的な説明に過ぎず、具体的な実施において、上記のいくつかの視角調整動作の組み合わせ方法や、どのような制御効果をもたらすかなどは、本発明では特に限定しない。 Of course, the viewing angle adjustment operation can also include other methods such as gesture operation, and the embodiments of the present application are not limited thereto. When a user controls a virtual object, different control effects can be achieved by combining several of the above viewing angle adjustment actions. Then, the terminal detects the pressing force during the sliding motion, and determines whether to shoot or not according to whether the pressing force is greater than a specific pressing force. The above is merely an exemplary description, and in a specific implementation, the present invention does not particularly limit the method of combining the several viewing angle adjustment operations described above, or what kind of control effect is produced.
上記の電子ゲームシーンでは、仮想オブジェクトが通常に、仮想アイテムを制御して他の仮想オブジェクトと戦うようにする。一部の銃器アイテムには、照準器が装備されることもできるため、照準器に基づいて仮想シーンを観察してもよい。当該照準器は、機械的な照準器であることができ、機械的な照準器は、銃器アイテムに本来装備されていた観測機器を意味する。当該照準器は、後で当該銃器アイテムに装備したスコープなどの照準器であることができる。ここで、当該スコープは、倍率を有することができ、当該倍率は、1または1より大きい値であることができる。例えば、当該スコープは、レッドドットスコープ、ホログラフィックスコープ、2倍スコープ、4倍スコープ、8倍スコープ等などであることができる。ここで、レッドドットスコープおよびホログラフィックスコープの倍率が1であるが、2倍スコープ、4倍スコープおよび8倍スコープの倍率は1より大きい。もちろん、当該スコープの倍率は、他の数値であってもよく、例えば、当該スコープは、3倍レンズ、6倍レンズ、15倍レンズ等であることができる。本願実施例は、当該スコープの倍率を限定しない。 In the electronic game scene described above, virtual objects typically control virtual items to fight other virtual objects. Some firearm items may also be equipped with sights, so the virtual scene may be observed based on the sights. The sight can be a mechanical sight, meaning a sighting device originally equipped with the firearm item. The sight can be a sight, such as a scope later mounted on the firearm item. Here, the scope can have a magnification, and the magnification can be one or a value greater than one. For example, the scope can be a red dot scope, a holographic scope, a 2x scope, a 4x scope, an 8x scope, and the like. Here, the red dot scope and the holographic scope have a magnification of 1, while the 2x, 4x and 8x scopes have a magnification greater than one. Of course, the magnification of the scope can be other values, for example, the scope can be a 3x lens, a 6x lens, a 15x lens, and so on. The embodiments of the present application do not limit the magnification of the scope.
一般的に、当該照準器は、仮想オブジェクトの照準と射撃を支援するためのものであるため、仮想オブジェクトが仮想アイテムを制御して照準または射撃を行う場合、仮想シーンの表示モードを照準器に基づく表示モードに切り替え、このようにして敵の仮想オブジェクトをより正確に照準して射撃することができる。例えば、図1に示すように、仮想シーンは、照準器に基づく表示モードではなく、第1表示モードになっている。図2に示すように、ユーザが仮想シーンに現れた他の仮想オブジェクトを正確に射撃するように仮想オブジェクトを制御するためには、仮想シーンの表示モードを照準器に基づく表示モードに切り替え、仮想オブジェクトによって制御される仮想アイテムでの照準器を介して仮想シーンを観察することができる。 In general, the sighting device is for supporting aiming and shooting of the virtual object. Therefore, when the virtual object controls the virtual item for aiming or shooting, the display mode of the virtual scene is set to the sighting device. based display mode, and in this way can aim and shoot at enemy virtual objects more accurately. For example, as shown in FIG. 1, the virtual scene is in a first display mode rather than a sight-based display mode. As shown in FIG. 2, in order for the user to control the virtual objects to accurately shoot other virtual objects appearing in the virtual scene, the display mode of the virtual scene is switched to a sight-based display mode, and the virtual A virtual scene can be viewed through a sight on a virtual item controlled by an object.
図3は、本願実施例による動作制御方法のフローチャートである。当該方法は、電子機器に適用することができ、当該電子機器は、端末またはサーバとして提供することができ、本願実施例はこれに限定されない。以下の実施例では、当該動作制御方法が端末によって実行されることを例にして説明する。図3を参照すると、当該方法は、次のステップ301~308を含むことができる。 FIG. 3 is a flow chart of an operation control method according to an embodiment of the present application. The method can be applied to an electronic device, and the electronic device can be provided as a terminal or a server, and embodiments of the present application are not limited thereto. In the following embodiments, an example in which the operation control method is executed by a terminal will be described. Referring to FIG. 3, the method can include the following steps 301-308.
ステップ301において、端末が、グラフィカルユーザインターフェースにターゲットボタンを表示し、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する。
In
本願実施例において、端末は、動作制御機能を提供することができ、ターゲットボタンを提供することができる。当該ターゲットボタンは、複数の種類の制御機能に対応し、ユーザは、ターゲットボタンに対して一回のタッチ動作を実行することで、複数の種類の制御機能を実現することができる。具体的には、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応することができる。 In an embodiment of the present application, the terminal can provide motion control functions and can provide target buttons. The target button corresponds to multiple types of control functions, and the user can achieve multiple types of control functions by performing a single touch operation on the target button. Specifically, the target button can correspond to a display mode switching function and a shooting function.
ここで、端末による当該ターゲットボタンの方法は、端末がグラフィカルユーザインターフェースにターゲットボタンを表示することで、ユーザが当該ターゲットボタンに対してタッチ動作を行うものであることができる。具体的には、当該端末は、ターゲットボタンを表示する際、次のステップ1ないし3のうちの少なくとも1つのステップによって実現することができる。 Here, the method of the target button by the terminal can be such that the terminal displays the target button on the graphical user interface, and the user performs a touch operation on the target button. Specifically, when the terminal displays the target button, it can be realized by at least one of the following steps 1 to 3.
ステップ1において、端末がグラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示する。 In step 1, the terminal displays the target button at the target position in the graphical user interface.
ステップ2において、端末がグラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示する。 In step 2, the terminal displays the target button on the graphical user interface according to the target size.
ステップ3において、端末がグラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。 In step 3, the terminal displays the target button on the graphical user interface according to the target transparency.
即ち、当該ターゲットボタンの表示状況は、少なくとも1つの表示パラメータを含むことができ、当該少なくとも1つの表示パラメータは、表示位置、サイズおよび透明度のうちの少なくとも1つを含むことができる。ここで、当該ターゲットボタンの表示位置はターゲット位置であり、サイズはターゲットサイズであり、透明度はターゲット透明度である。上記の少なくとも1つの表示パラメータの設定により、当該ターゲットボタンの表示状況を実際のニーズに合わせて柔軟に変更することができる。 That is, the display status of the target button may include at least one display parameter, and the at least one display parameter may include at least one of display position, size and transparency. Here, the display position of the target button is the target position, the size is the target size, and the transparency is the target transparency. By setting the at least one display parameter, the display status of the target button can be flexibly changed according to actual needs.
一可能な実現形態において、当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、当業者によって必要に応じて設定され、本願実施例はこれを限定しない。例えば、目標位置は、ユーザが端末を持っているときの端末スクリーンとのユーザの手の接触位置に応じて決定することができ、接触位置のプリセットの範囲内にあることができる。たとえば、ターゲット位置をユーザが容易にクリックする位置に設定して、ユーザ動作の複雑さを軽減する。たとえば、図4に示すように、ターゲットボタン401が配置されているターゲット位置は、グラフィカルユーザインターフェースの右下隅の領域の位置にすることができ、ユーザが端末を持っているとき、指はちょうど当該位置に配置される。当該ターゲットサイズを小さく設定したり、ターゲット透明度を大きく設定したりすることができるため、当該ターゲットボタンによってグラフィカルユーザインターフェースが過度にオクルージョンされることはない。つまり、目標サイズはボタンの通常のサイズよりも小さくすることができ、当該ターゲット透明度は通常の透明度よりも大きくすることができる。ここで、当該ボタンの通常のサイズはボタンの平均サイズであり、当該通常の透明度は、ボタンの一般的なものであり、または当該通常の透明度は0にすることができる。これらは、当業者によって必要に応じて設定されることができ、本願実施例はこれを限定しない。
In one possible implementation, at least one of the target position, target size and target transparency are set as needed by those skilled in the art, and the embodiments are not limited thereto. For example, the target position can be determined according to the contact position of the user's hand with the terminal screen when the user is holding the terminal, and can be within a preset range of contact positions. For example, the target position is set to a position that the user can easily click to reduce the complexity of user actions. For example, as shown in FIG. 4, the target position where the
当該ターゲットボタンはターゲット提示情報を表示することもでき、当該ターゲット提示情報は、当該ターゲットボタンが表示モード切り替え機能および射撃制御機能を同時に有することを提示するために使用され、例えば、当該ターゲットボタンは照準点と弾丸のパターンを表示できる。このようにして、当該ターゲットボタンが表示モード切り替え機能と射撃制御機能を同時に提供できることを提示することができる。 The target button can also display target presentation information, and the target presentation information is used to indicate that the target button has a display mode switching function and a shooting control function at the same time. Aimpoints and bullet patterns can be displayed. In this way, it can be presented that the target button can simultaneously provide a display mode switching function and a fire control function.
別の可能な実現形態において、当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、さらに、ユーザが自体の使用習慣にしたがってカスタマイズすることができる。具体的には、端末は、構成インターフェースを提供でき、ユーザは、当該ターゲットボタンの表示状況を変更するために、当該構成インターフェースでカスタマイズすることができる。当該表示状況の設定プロセスは、次のステップ1ないし3のうちの少なくとも1つのステップによって実現される。 In another possible implementation, at least one of the target position, target size and target transparency can be further customized by the user according to his usage habits. Specifically, the terminal can provide a configuration interface, and the user can customize the configuration interface to change the display status of the target button. The display state setting process is realized by at least one of steps 1 to 3 below.
ステップ1において、端末は、構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得する。 In step 1, the terminal acquires the alignment information of the target button according to the configuration interface, and acquires the target position of the target button according to the alignment information.
ステップ2において、端末は、構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得する。 In step 2, the terminal acquires the size adjustment information of the target button according to the configuration interface, and acquires the target size of the target button according to the size adjustment information.
ステップ3において、端末は、構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。 In step 3, the terminal acquires the transparency adjustment information of the target button according to the configuration interface, and acquires the target transparency of the target button according to the transparency adjustment information.
例えば、図5に示すように、当該構成インターフェースには、当該ターゲットボタンの表示パラメータ調整オプションが提供され、当該表示パラメータ調整オプションは、ボタンサイズ(サイズ)、透明度および当該ターゲットボタンである。ユーザは、当該表示パラメータ調整オプションに対して動作し、端末は、動作にしたがって、対応する調整情報を取得し、それにより、調整情報に基づき、ターゲットボタンの表示パラメータを調整することができる。具体的には、ユーザは、当該ボタンサイズの調整バーを調整することができ、端末は、当該調整バーに対するユーザの調整動作に基づき、表示された当該ターゲットボタンのサイズを調整して、調整プレビュー効果を提供することができる。例えば、図5に示す「179%」は、ターゲットボタンのサイズがデフォルトサイズの179%であることを示す。同様に、ユーザは透明度調整バーに対して調整動作を実行することもできる。例えば、図5に示す「100%」は、ターゲットボタンの透明度が100%であることを示す。ユーザが当該ターゲットボタンのターゲット位置を調整する場合、当該ターゲットボタンをドラッグする動作により実現でき、端末は当該ターゲットボタンに対するドラッグ動作により、当該ターゲットボタンの位置を調整することができる。例えば、ドラッグボタンの位置は、ドラッグ動作の位置変化につれて変化される。図5では、点線の位置がターゲットボタンの元の位置であり、ターゲットボタンのドラッグ動作を受信すると、ドラッグ位置の変化につれて、ターゲットボタンは元の位置から始まって、ドラッグ位置とともに移動する。 For example, as shown in FIG. 5, the configuration interface is provided with display parameter adjustment options for the target button, where the display parameter adjustment options are button size (size), transparency and the target button. The user operates on the display parameter adjustment option, and the terminal obtains corresponding adjustment information according to the operation, so that the display parameters of the target button can be adjusted according to the adjustment information. Specifically, the user can adjust the adjustment bar for the button size, and the terminal adjusts the size of the displayed target button based on the user's adjustment operation on the adjustment bar to provide an adjustment preview. effect can be provided. For example, "179%" shown in FIG. 5 indicates that the size of the target button is 179% of the default size. Similarly, the user can also perform adjustment actions on the transparency adjustment bar. For example, "100%" shown in FIG. 5 indicates that the transparency of the target button is 100%. When the user adjusts the target position of the target button, it can be realized by dragging the target button, and the terminal can adjust the position of the target button by dragging the target button. For example, the position of the drag button is changed as the position of the drag operation changes. In FIG. 5, the position of the dotted line is the original position of the target button, and upon receiving the drag operation of the target button, as the drag position changes, the target button starts from the original position and moves with the drag position.
具体的な一可能な実施例において、端末は、当該構成インターフェースに当該ターゲットボタンを表示でき、ユーザは、当該ターゲットボタンに対して選択動作を実行できる。端末が当該ターゲットボタンの選択動作を検出すると、当該ターゲットボタンの表示パラメータ調整オプションを表示することができる。一可能な実現形態において、当該構成インターフェースにはさらに、他のボタンが提供され、それによりユーザが他のボタンの表示パラメータにも設定することができ、本願実施例はこれを限定しない。 In one specific possible embodiment, the terminal can display the target button on the configuration interface, and the user can perform a selection action on the target button. When the terminal detects the selection action of the target button, it can display the display parameter adjustment options of the target button. In one possible implementation, the configuration interface is further provided with other buttons, so that the user can also set the display parameters of other buttons, and the embodiments are not limited to this.
一可能な実現形態において、当該動作制御機能の状態は、オン状態およびオフ状態を含むことができ、ユーザは、当該動作制御機能の状態を設定することにより、端末がその動作制御機能を提供する必要があるか否かを決定することができる。具体的には、構成情報によって動作制御機能がオン状態にあると決定されると、端末は、グラフィカルユーザインターフェースにターゲットボタンを表示する当該ステップを実行することができる。即ち、動作制御機能がオンになっていると決定された場合、端末は動作制御機能を提供して、構成情報にしたがって動作制御機能がオフ状態になっていると決定された場合、端末は、当該ステップ301を実行しなくてもよい。
In one possible implementation, the state of the operation control function can include an on state and an off state, and the user sets the state of the operation control function so that the terminal provides the operation control function. You can decide if you need it or not. Specifically, when the configuration information determines that the motion control function is in the ON state, the terminal can perform the corresponding step of displaying the target button on the graphical user interface. That is, if it is determined that the operation control function is turned on, the terminal provides the operation control function, and if it is determined that the operation control function is turned off according to the configuration information, the terminal: The
ここで、端末が当該動作制御機能の状態を設定する場合、機能構成インターフェースを介して実現することができる。具体的には、端末は、機能構成インターフェースおよび当該動作制御機能の状態設定動作に基づき、当該動作制御機能の状態を設定し、即ち、機能構成インターフェースに基づき、当該動作制御機能の構成情報を決定して、当該動作制御機能の状態を決定する。当該機能構成インターフェースには、オンオプション、オフオプションなど、当該動作制御機能の状態設定オプションが提供されることができる。ユーザは、当該動作制御機能の状態設定オプションに対してタッチ動作を実行して、当該動作制御機能の状態を変更することができる。例えば、図6に示すように、一具体的な例において、当該ターゲットボタンを「ミラーと発砲ボタンを開くための1つのキー」と呼んでもよく、当該ターゲットボタンの周辺には、オン(「オン」)とオフオプション(「オフ」)が設定されてもよく、ユーザは、当該ターゲットボタンの使用状態を変更し、即ち、当該動作制御機能の状態を変更するために、当該オンまたはオフのオプションに対して選択動作を実行することができる。ユーザがオンオプションを選択すれば、当該動作制御機能はオン状態になり、ユーザがオフオプションを選択すれば、当該動作制御機能がオフ状態になる。 Here, when the terminal sets the state of the operation control function, it can be realized through the function configuration interface. Specifically, the terminal sets the state of the operation control function based on the function configuration interface and the state setting operation of the operation control function, that is, determines the configuration information of the operation control function based on the function configuration interface. to determine the state of the operation control function. The function configuration interface may be provided with state setting options for the operation control function, such as an on option and an off option. A user can perform a touch action on the set state option of the motion control function to change the state of the motion control function. For example, as shown in FIG. 6, in one specific example, the target button may be called "one key to open the mirror and fire button", and around the target button is an on ("on ) and an off option (“off”) may be set, and the user can select the on or off option to change the state of use of the target button, i.e., change the state of the motion control function. A selection operation can be performed on the . If the user selects the on option, the motion control function is turned on, and if the user selects the off option, the motion control function is turned off.
ステップ302において、当該ターゲットボタンのタッチ動作が検出された場合、端末は当該現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得し、当該種別が第1種別であれば、ステップ303およびステップ304を実行し、当該種別が第2種別であれば、ステップ305およびステップ306を実行し、当該種別が第3種別であれば、ステップ307およびステップ308を実行する。
In
当該グラフィカルユーザインターフェースにターゲットボタンが表示された場合、ユーザは、当該ターゲットボタンに対してタッチ動作を実行することができ、それにより、端末がユーザのタッチ動作に基づき、対応する動作制御機能を提供することができる。本願実施例において、現在の仮想オブジェクトによって制御される仮想アイテムの種別が異なる場合、端末によって提供された動作制御機能も異なることができる。したがって、ステップ302において、端末は、現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得することができ、それにより、当該種別に基づき、提供する必要のある動作制御機能をさらに決定することができる。ここで、当該仮想アイテムの種別は、必要に応じて当業者によって設定されるものであり、当該仮想アイテムの名称によって決定されるものでもある。もちろん、ユーザ自身の使用習慣に応じてユーザによって設定されることもでき、本願実施例はこれを限定しない。
When a target button is displayed on the graphical user interface, the user can perform a touch action on the target button, so that the terminal provides corresponding action control functions based on the user's touch action. can do. In the embodiments of the present application, if the types of virtual items controlled by the current virtual object are different, the motion control functions provided by the terminal may also be different. Therefore, in
本願実施例において、仮想アイテムの種別が第1種別、第2種別および第3種別を含むことができ、当該仮想アイテムの種別が異なる場合、端末は、以下のステップ303ないしステップ308のうちの2つのステップをそれぞれ実行することができる。即ち、当該仮想アイテムの種別が異なる場合、端末は、異なる制御機能を提供でき、提供された制御機能のモードが異なってもよく、当該モードは、タッチ動作に基づいて対応する機能を実行する方法を示すために使用される。ここでは、当該仮想アイテムの種別に3つの種別を含むことを例にして説明する。もちろん、当該仮想アイテムは、第4種別を含むこともでき、当該仮想アイテムの種別が第4種別である場合、端末はさらに、他の動作制御機能を実行することができ、本願実施例は、当該仮想アイテムの種別を限定しない。
In an embodiment of the present application, the types of virtual items can include a first type, a second type and a third type, and if the virtual item types are different, the terminal performs two of
ステップ303において、端末は、当該表示モード切り替え機能と当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In
端末が仮想アイテムの種別を取得した後、当該種別が第1種別である場合、端末は、当該ステップ303を実行でき、当該ステップ303で決定されたターゲット機能および対応するターゲットモードに基づいて、以下のステップ304を実行する。当該仮想アイテムの種別が第1種別である場合、端末は、表示モード切り替え機能もトリガーし、射撃機能もトリガーすることを決定できる。仮想シーンの表示モードは、第1表示モードおよび第2表示モードを含むことができる。ここで、第2表示モードは、照準器に基づく表示モードであることができ、第1表示モードは、当該第2表示モード以外の表示モードであることができる。当該表示モード切り替え機能は、当該仮想シーンの表示モードを切り替えることを意味する。
After the terminal obtains the type of the virtual item, if the type is the first type, the terminal can perform the
端末は、当該表示モード切り替え機能および射撃機能に対して両方のターゲットモードをそれぞれ決定することができる。端末は、表示モード切り替え機能に対応するターゲットモードがターゲット表示モード切り替えモードであり、射撃機能に対応するターゲットモードが第1射撃モードであると決定する。2つのターゲットモードは、当該タッチ動作の異なる段階で対応するターゲット機能を実行する方法を示すために使用される。ここで、当該タッチ動作は、当該タッチ動作の開始時、タッチ動作の持続期間および当該タッチ動作の終了時の複数の段階を含むことができる。 The terminal can determine both target modes respectively for the display mode switching function and the shooting function. The terminal determines that the target mode corresponding to the display mode switching function is the target display mode switching mode, and the target mode corresponding to the shooting function is the first shooting mode. Two target modes are used to indicate how to perform corresponding target functions at different stages of the touch operation. Here, the touch action may include multiple stages at the start of the touch action, the duration of the touch action, and the end of the touch action.
一可能な実現形態において、当該第1種別の仮想アイテムは、複数の種類の射撃種別を含むことができ、具体的には、当該第1種別の仮想アイテムは、第1射撃種別および第2射撃種別を含むことができる。例えば、一具体的な例において、当該第1射撃種別は、自動射撃種別であることができ、当該第2射撃種別は、シングルショット射撃種別であり得る。もちろん、当該第1種別の仮想アイテムはさらに、射撃モードを含むことができ、例えば、当該第1種別の仮想アイテムが第1射撃種別、即ち、自動射撃種別を含んでもよい。詳細については、以下のステップ304を参照でき、本願実施例について、本文では詳細に説明しない。 In one possible implementation, the first type of virtual item may include multiple types of shooting types, specifically, the first type of virtual item may include a first shooting type and a second shooting type. Can include type. For example, in one specific example, the first shooting type can be an automatic shooting type and the second shooting type can be a single shot shooting type. Of course, the first type of virtual item may also include a shooting mode, for example, the first type of virtual item may include a first shooting type, i.e. an automatic shooting type. For details, refer to step 304 below, and the present embodiment will not be described in detail in the text.
ステップ304において、端末は、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替える。
In
端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。具体的には、当該ターゲット表示モード切り替えモードは、タッチ動作の開始時に仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、タッチ動作の終了時に仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることを示すために使用される。当該第1射撃モードは、タッチ動作の持続期間に射撃機能を継続して実行することを示すために使用される。したがって、端末は、当該ステップ304を実行して、当該表示モード切り替え機能および射撃機能を実現することができる。
After the terminal determines the target function and the corresponding target mode, it can perform the corresponding target function based on the target mode and touch operation. Specifically, in the target display mode switching mode, the display mode of the virtual scene is switched from the first display mode to the second display mode at the start of the touch operation, and the display mode of the virtual scene is switched to the second display at the end of the touch operation. Used to indicate switching from mode to the first display mode. The first shooting mode is used to indicate that the shooting function continues for the duration of the touch action. Therefore, the terminal can perform the
例えば、ここでは、接触制御動を長押し動作として使用する例をとって説明し、当該仮想アイテムが自動射撃種別付きのシューターライフルを例にすると、ユーザは、ターゲットボタンに対して長押し動作を実行でき、当該長押し動作の開始時、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えることができ(照準器に基づく表示モード)、図7に示すように、図7の当該仮想シーンの表示モードが第2表示モードであり、即ち、照準器に基づく表示モードであり、当該長押し動作を持続するプロセスで、端末は、継続して射撃機能を実行でき、ユーザが長押し動作を終了した時、端末は、射撃機能を停止して、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることができる。ここで、表示モードを第1表示モードから第2表示モードに切り替えるプロセスは「ミラーオン」と呼ばれ、表示モードを第2表示モードから第1表示モードに切り替えるプロセスは、「ミラーオフ」と呼ばれる。したがって、当該ステップ304において、端末は、タッチ動作の開始を検出した時にミラーオンして、射撃を継続し、タッチ動作の終了時に射撃を停止しミラーオフする。ユーザは、1つのターゲットボタンを押すだけで「ミラーオン-射撃-ミラーオフ」の動作プロセスを完了することができ、緊急時にユーザの照準射撃の体験を大幅にスピードアップする。
For example, here, an example of using a contact control motion as a long-pressing motion will be described, and if the virtual item is a shooter rifle with an automatic shooting type, the user can perform a long-pressing motion on the target button. at the start of the long press action, the terminal can switch the display mode of the virtual scene from the first display mode to the second display mode (sight-based display mode), as shown in FIG. The display mode of the virtual scene in FIG. 7 is the second display mode, that is, the display mode based on sights, and in the process of continuing the long press action, the terminal can continue to perform the shooting function, When the user finishes the long press action, the terminal can stop the shooting function and switch the display mode of the virtual scene from the second display mode to the first display mode. Here, the process of switching the display mode from the first display mode to the second display mode is called "mirror on", and the process of switching the display mode from the second display mode to the first display mode is called "mirror off". Therefore, in
電子ゲームの場合、緊急な接戦事態で、プレーヤーは、表示モードの切り替えと射撃の両方を完了するための、複数の動作を実行するのに十分な時間がないことがよくある。本願実施例において、ターゲットボタンを一回動作するだけで、表示モードの切り替え(照準)および射撃プロセスを迅速に完了でき、さらに、ボタン動作が簡単で便利なため、プレーヤーのゲーム体験を効果的に向上させることができる。 For electronic games, in an emergency close-quarters situation, the player often does not have enough time to perform multiple actions to both switch display modes and complete shooting. In the embodiment of the present application, a single operation of the target button can quickly complete the display mode switching (aiming) and shooting process, and the button operation is simple and convenient, so that the player's gaming experience can be effectively improved. can be improved.
一可能な実現形態において、当該第1種別の仮想アイテムは、複数の種類の射撃種別を含むことができ、異なる射撃種別である場合、端末が実行する必要のある動作制御機能モードも異なることができる。したがって、当該仮想アイテムの種別が第1種別である場合、端末は、当該仮想アイテムの現在の射撃種別を取得することができ、それにより、当該射撃種別に基づいて、動作制御機能を更に実行する方法を決定する。以下、2つの射撃種別を例として説明する。 In one possible implementation, the virtual item of the first type can contain multiple types of shooting types, and for different shooting types, the operation control function modes that the terminal needs to perform may also be different. can. Therefore, if the type of the virtual item is the first type, the terminal can obtain the current shooting type of the virtual item, thereby further performing motion control functions based on the shooting type. Decide how. Two shooting types will be described below as examples.
当当該射撃種別が第1射撃種別である場合、端末は、上記のステップ303を実行でき、即ち、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定する、ステップを実行する。もちろん、端末は、ステップ304をさらに実行することもできる。ここで、当該第1射撃種別は、当該仮想アイテムが一回動作に基づいて継続して射撃することができることを表示するために使用され、例えば、当該第1射撃種別は、自動射撃種別と呼ばれてもよい。当該仮想アイテムの射撃種別が当該第1射撃種別である場合、端末は、当該ステップ303およびステップ304を実行することができる。
If the shooting type is the first shooting type, the terminal can execute the
当当該射撃種別が第2射撃種別である場合、端末は、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定することができる。ここで、第2射撃種別は、当該仮想アイテムが一回動作に基づいて射撃を一回行うことを示すために使用される。例えば、第2射撃種別は、シングルショット射撃種別と呼ばれてもよい。当該仮想アイテムの射撃種別が第2射撃種別である場合、当該仮想アイテムは、タッチ動作の持続期間に継続して射撃することができなく、上記のステップ303とは、射撃機能に対応するターゲットモードが第2射撃モードであることを端末によって決定されることができる方面で異なっている。それにより、ステップ304において、端末は、射撃機能を実行する状況も異なり、タッチ動作の開始時にミラーオンして、タッチ動作の終了時に射撃し、ミラーオフすることができる。
If the shooting type is the second shooting type, the terminal determines the display mode switching function and the shooting function as the trigger target target function, and makes the target display mode switching mode correspond to the display mode switching function. A target mode can be determined, and a second shooting mode can be determined as a target mode corresponding to the shooting function. Here, the second shooting type is used to indicate that the virtual item shoots once based on the one-time action. For example, the second shooting type may be referred to as the single-shot shooting type. If the shooting type of the virtual item is the second shooting type, the virtual item cannot be shot continuously during the duration of the touch action, and the
もちろん、別の可能な実現形態も考えられる。当該端末は、当該仮想アイテムの射撃種別を取得しなくて、当該射撃種別が第1射撃種別または第2射撃種別である場合にいずれも当該ステップ303およびステップ304を実行する。即ち、仮想アイテムの射撃種別を射撃モードの基準要素として使用しなく、本願実施例は、どの方式を具体的に採用するかを限定しない。
Of course, other possible implementations are also conceivable. If the terminal does not acquire the shooting type of the virtual item and the shooting type is the first shooting type or the second shooting type, both the
上記のステップ303およびステップ304は、仮想アイテムの種別が第1種別である場合に、端末が実行する必要がある動作制御のステップである。当該種別が第2種別である場合、端末は、以下のステップ305およびステップ306を実行でき、当該種別が第3種別である場合、端末は、以下のステップ307およびステップ308を実行することができる。
The
ステップ305において、端末は、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In
上記のステップ302の後に、端末は、仮想アイテムの種別を取得した後、当該種別が第2種別である場合、端末は、当該ステップ305を実行し、当該ステップ305で決定されたターゲット機能および対応するターゲットモードに基づいて、以下のステップ306を実行することができる。
After
当該仮想アイテムの種別が第2種別である場合、端末は、表示モード切り替え機能もトリガーし、射撃機能もトリガーすることを決定する。当該表示モード切り替え機能および射撃機能について、端末はさらに、両方のターゲットモードをそれぞれ決定することもできる。端末は、表示モード切り替え機能に対応するターゲットモードがターゲット表示モード切り替えモードであることを決定し、射撃機能に対応するターゲットモードが第2射撃モードであることを決定する。両方のターゲットモードは、当該タッチ動作の異なる段階で対応するターゲット機能を実行する方法を示すために使用される。 If the type of the virtual item is the second type, the terminal determines to trigger the display mode switching function and also trigger the shooting function. For the display mode switching function and the shooting function, the terminal can also determine both target modes respectively. The terminal determines that the target mode corresponding to the display mode switching function is the target display mode switching mode, and determines that the target mode corresponding to the shooting function is the second shooting mode. Both target modes are used to indicate how to perform corresponding target functions at different stages of the touch operation.
一可能な実現形態において、当該第2種別の仮想アイテムは、第2射撃モードを含むことができ、当該第2射撃モードは、当該仮想アイテムが一回動作に基づいて射撃を一回実行することを示すために使用される。このように、当該第2種別の仮想アイテムの第2射撃モードは、上記のステップ304における第1種別の仮想アイテムが第2射撃種別である場合の第2射撃モードと同様である。本文ではシングルショット射撃種別と呼ばれる。
In one possible implementation, the second type of virtual item may include a second shooting mode, wherein the second shooting mode is that the virtual item performs a shot based on a single motion. used to indicate Thus, the second shooting mode for the second type virtual item is similar to the second shooting mode for the first type virtual item of the second shooting type in
ステップ306において、端末は、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替える。
In
端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。具体的には、当該ターゲット表示モード切り替えモードは、上記のステップ304と同様に、当該第2射撃モードは、当該タッチ動作の終了時に射撃機能を実行することを示すために使用される。したがって、端末が当該ステップ306を実行して、当該表示モード切り替え機能および射撃機能を実現する。
After the terminal determines the target function and the corresponding target mode, it can perform the corresponding target function based on the target mode and touch operation. Specifically, the target display mode switching mode, similar to step 304 above, is used to indicate that the second shooting mode will perform a shooting function at the end of the touch action. Therefore, the terminal executes the
例えば、本文で接触制御動を長押し動作として使用する例をとって説明する。仮想オブジェクトによって制御される仮想アイテムがスナイパーライフルであることを例として、ユーザは、ターゲットボタンに対して長押し動作を実行し、当該長押し動作の開始時に、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えることができ(照準器に基づく表示モード)、ユーザが長押し動作を終了した場合、端末は、射撃機能を停止し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることができる。ここで、表示モードを照準器に基づく表示モードに切り替えるプロセスを「ミラーオン」と呼び、表示モードを照準器に基づく表示モードから第1表示モードに切り替えるプロセスを「ミラーオフ」と呼ぶ。図8に示すように、当該ステップ306において、端末は、タッチ動作の開始を検出した時にミラーオンし、タッチ動作の終了時に射撃し、ミラーオフする。図8には、タッチ動作の終了時のミラーオフ後の仮想シーンのみを示し、他のプロセスは示していない。ここで、当該仮想シーンの表示モードは照準器に基づく表示モードであることは、図7を参照すればよい。
For example, an example in which the touch control motion is used as a long press motion will be described in the text. Taking the virtual item controlled by the virtual object as an example of a sniper rifle, the user performs a long press action on the target button, and at the start of the long press action, the terminal changes the display mode of the virtual scene. The first display mode can be switched to the second display mode (aim-based display mode), and when the user finishes the long press action, the terminal stops the shooting function and switches the virtual scene display mode to the second display mode. A display mode can be switched to a first display mode. Here, the process of switching the display mode to the sight-based display mode is called "mirror on", and the process of switching the display mode from the sight-based display mode to the first display mode is called "mirror off". As shown in FIG. 8, in this
上記のステップ305およびステップ306は、仮想アイテムの種別が第2種別である場合に端末が実行する必要のある動作制御のステップであり、当該種別が第3種別である場合、端末は、以下のステップ307およびステップ308を実行することができる。
The
ステップ307において、端末は、当該射撃機能を当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In
上記のステップ302の後、端末が仮想アイテムの種別を取得した後、当該種別が第3種別である場合、端末は、当該ステップ307を実行し、当該ステップ307によって決定されたターゲット機能および対応するターゲットモードに基づき、以下のステップ308を実行することができる。
After the
当該仮想アイテムの種別が第3種別である場合、端末は、射撃機能をトリガーするが、表示モード切り替え機能をトリガーしなくてもよい。したがって、端末はさらに、当該射撃機能のターゲットモード、即ち、第3射撃モードを決定することができる。当該第3射撃モードは、当該タッチ動作のどの段階で当該射撃機能を実行するかを示すために使用される。 If the type of the virtual item is the third type, the terminal may trigger the shooting function but not the display mode switching function. Therefore, the terminal can further determine the target mode of the shooting function, namely the third shooting mode. The third shooting mode is used to indicate at what stage of the touch action the shooting function is performed.
ステップ308において、端末は、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。
In
端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。当該ステップ308において、端末は、第3射撃モードに基づき、射撃機能を実行することができる。一可能な実現形態において、当該第3ターゲットモードは、当該タッチ動作の開始時に射撃機能を実行することを示すために使用される。したがって、端末が当該ステップ308を実行して、当該射撃モードを実現する。
After the terminal determines the target function and the corresponding target mode, it can perform the corresponding target function based on the target mode and touch operation. At
例えば、接触制御動をクリック動作として使用する例をとって説明する。仮想オブジェクトによって制御される仮想アイテムが自動射撃種別を持たない精密シューターライフルを例にすると、ユーザは、ターゲットボタンに対してクリック動作を実行でき、当該クリック動作の開始時、端末が射撃機能を実行することができる。当該接触制御動を長押し動作として使用すると、当該タッチ動作の開始時、端末が射撃機能を実行することができ、当該タッチ動作が終了するまで、当該端末は、当該射撃機能を再び実行しなくてもよい。図9に示すように、当該ステップ308において、端末がタッチ動作の開始を検出した時に射撃することができる。当該タッチ動作の動作プロセスで、端末は上記のミラーオンおよびミラーオフのプロセスを実行しなくてもよい。
For example, an example of using a touch control motion as a click motion will be described. Taking a precision shooter rifle as an example, where the virtual item controlled by the virtual object does not have an automatic shooting type, the user can perform a click action on the target button, and when the click action starts, the terminal performs a shooting function. can do. If the touch control action is used as a long press action, the terminal can perform the shooting function when the touch action starts, and the terminal will not perform the shooting function again until the touch action ends. may As shown in FIG. 9, in this
なお、上記のステップ302、ステップ303、ステップ305およびステップ307は、当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する、プロセスである。ステップ304、ステップ306およびステップ308は、当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する、プロセスであり、当該仮想アイテムの種別が異なる場合、当該端末は、トリガー対象のターゲット機能および対応するターゲットモードが異なってもよく、端末が実行する必要のある動作制御ステップも異なってもよい。
Note that the
上記のプロセスは、仮想アイテムの種別を分割して、異なる種別の仮想アイテムに対して異なる動作制御プロセスを提供したが、同じ動作制御プロセスを採用していない。このように、ほとんどの銃器は射撃時に不快感がなく、さらに戦闘の状況に影響を与えることもない。小さいことで大きく失うことなく、動作制御プロセスが柔軟で便利なので、様々な撃シーンのニーズを満たすことができる。さらに、1つのターゲットボタンを介して、複数の種類の動作制御プロセスを実現し、スムーズな動作体験を提供し、ユーザに動作圧力をかけずに、ユーザ動作を簡素化し、且つユーザは、自分の使用習慣に応じてカスタマイズして、ユーザ体験を向上するために、当該ボタンの機能を自分の手に最も適した状況に調整することができる。 Although the above process splits the types of virtual items to provide different motion control processes for different types of virtual items, it does not employ the same motion control process. As such, most firearms are comfortable to shoot and do not affect the combat situation. Small doesn't lose big, and the motion control process is flexible and convenient, so it can meet the needs of different shooting scenes. In addition, through one target button, it can realize multiple types of motion control processes, provide a smooth motion experience, simplify the user's motion without putting pressure on the user, and allow the user to Customized according to usage habits, the function of the button can be adjusted to the situation that best fits one's hand in order to enhance the user experience.
上記は仮想アイテムの種別が第1種別、第2種別および第3種別を含む場合のみを提供する。一可能な実現形態において、当該仮想アイテムはさらに、他の種別を含むことができ、上記はいずれも当業者が必要に応じて設定することができる。もちろん、ユーザによって、自分の使用習慣に応じてこともできる。 The above only provides the case where the types of virtual items include a first type, a second type and a third type. In one possible implementation, the virtual item can also include other types, any of which can be configured as needed by those skilled in the art. Of course, it can also be done by the user according to his usage habits.
一可能な実現形態において、当該端末は、動作制御機能構成インターフェースを提供することができる。当該動作制御機能構成インターフェースには、制御機能オプションおよびモードオプションを含むことができる。ユーザは、制御機能オプションで選択動作を実行し、実行ロジックオプションで設定動作を行うことができ、それにより、端末は、当該選択動作または設定動作に基づき、当該ターゲットボタンに対応する制御機能、および制御機能に対応するターゲットモードを更新することができる。もちろん、当該動作制御機能構成インターフェースには、仮想アイテムの種別設定オプションを提供することもできる。当該種別設定オプションで、ユーザは、仮想アイテムの種別を設定してもよく、各種別の仮想アイテムに何があるのかを設定することもでき、上記はいずれも当業者が当業者自身の使用習慣にしたがってカスタマイズすることができ、本願実施例はこれを限定しない。 In one possible implementation, the terminal can provide an operation control function configuration interface. The motion control feature configuration interface may include control feature options and mode options. A user can perform a selection operation with a control function option and a setting operation with an execution logic option, whereby the terminal, based on the selection operation or the setting operation, selects a control function corresponding to the target button, and Target modes corresponding to control functions can be updated. Of course, the operation control function configuration interface may also provide a virtual item type setting option. In the type setting option, the user may set the type of virtual item, and also set what is in each type of virtual item, all of which are subject to the person skilled in the art's own usage habits. can be customized according to, and the embodiments are not limited thereto.
一可能な実現形態において、上記の動作制御方法のプロセスで、当該ターゲットボタンを介して視角調整機能を提供することができる。ユーザが当該ターゲットボタンに対してタッチ動作を実行する時、端末はさらに、当該タッチ動作に基づき、仮想シーンの視角を調整することができる。具体的には、当該ターゲットボタンは、視角調整機能にも対応できる。上記のステップ302、303、305および307において、当該ターゲットボタンのタッチ動作が検出された場合、端末はさらに、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定することができる。上記のステップ304、306および308において、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、端末はさらに、当該タッチ動作の動作方向および動作速度にしたがって、仮想シーンの視角を調整することができる。
In one possible implementation, the process of the above motion control method can provide a viewing angle adjustment function via the target button. When the user performs a touch action on the target button, the terminal can further adjust the viewing angle of the virtual scene according to the touch action. Specifically, the target button can also correspond to the viewing angle adjustment function. In the
一具体的な実施例において、上記の視角調整プロセスで、当該タッチ動作の動作方向および動作速度、仮想シーンの視角のターゲット回動速度を取得することができ、当該ターゲット回動速度は、方向およびサイズを含み、端末は、当該ターゲット回動速度に基づき、仮想シーンの視角を調整することができる。 In a specific embodiment, in the above viewing angle adjustment process, the motion direction and motion speed of the touch motion and the target rotation speed of the viewing angle of the virtual scene can be obtained, and the target rotation speed is the direction and Including the size, the terminal can adjust the viewing angle of the virtual scene according to the target rotation speed.
例えば、当該接触制御動を長押し動作とスライド動作との組み合わせとして使用する例をとって説明する。仮想アイテムの種別が第1種別である場合、タッチ動作の開始時、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、タッチ動作の持続期間に射撃機能を継続して実行することができる。ユーザが視角を調整しようとする時、ターゲットボタンを押してスライドするか、当該ターゲットボタンをドラッグし、それにより、端末が動作方向と動作速度に基づいて視角調整を行うことができる。当該仮想シーンの視角を調整すると、照準点が狙う仮想シーン内の位置も変化するため、それにより、当該視角調整プロセスで、ユーザは照準の位置を調整して、継続して射撃して、タッチ動作が終了するまで、端末が射撃を停止し、第1表示モードに切り替えて戻る。 For example, an example in which the contact control motion is used as a combination of a long press motion and a slide motion will be described. If the type of the virtual item is the first type, the terminal switches the display mode of the virtual scene from the first display mode to the second display mode at the start of the touch action, and continues the shooting function during the duration of the touch action. can be run with When the user wants to adjust the viewing angle, press and slide the target button or drag the target button, so that the terminal can adjust the viewing angle according to the movement direction and movement speed. Adjusting the viewing angle of the virtual scene also changes the position in the virtual scene that the aiming point aims at, so that in the viewing angle adjustment process, the user can adjust the position of the aiming to continue shooting and touching. Until the operation is finished, the terminal stops shooting and switches back to the first display mode.
さらに例えば、仮想アイテムの種別が第2種別である場合、タッチ動作の開始時に、端末が仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続のプロセスで、ユーザは、照準の位置を変更するために視角を調整することができる。調整後に、ユーザは、タッチ動作を停止する。このとき、端末は現在の照準点が狙っている位置に対して射撃し、第1表示モードに切り替えて戻ることができる。 Furthermore, for example, if the type of the virtual item is the second type, the terminal switches the display mode of the virtual scene from the first display mode to the second display mode at the start of the touch action, and in the process of continuing the touch action, The user can adjust the viewing angle to change the aiming position. After adjustment, the user stops touching. At this time, the terminal can shoot at the position targeted by the current aiming point and switch back to the first display mode.
さらに例えば、仮想アイテムの種別が第3種別である場合、タッチ動作の開始時、端末は射撃することができ、タッチ動作を継続する場合、射撃しなく、タッチ動作に基づいて視角を調整することができる。 Further, for example, if the type of the virtual item is the third type, the terminal can shoot at the start of the touch action, and not shoot when the touch action continues, and adjust the viewing angle based on the touch action. can be done.
一可能な実現形態において、上記の動作制御方法のプロセスで、当該ターゲットボタンを介して動き制御機能を提供することもできる。ユーザが当該ターゲットボタンに対してタッチ動作を行う時、端末は、当該タッチ動作に基づき、仮想オブジェクトが対応する動きを実行するために、仮想オブジェクトを制御することもできる。 In one possible implementation, the process of the motion control method described above may also provide motion control functionality via the target button. When the user makes a touch action on the target button, the terminal can also control the virtual object to perform the corresponding movement according to the touch action.
具体的には、当該ターゲットボタンはさらに、動き制御機能に対応することができる。上記のステップ302、303、305および307では、当該ターゲットボタンのタッチ動作が検出された場合、端末は、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定することもできる。上記のステップ304、306および308において、端末は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御すること、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、端末が当該現在の仮想オブジェクトの動きを制御することのうちのいずれか1つをさらに実行することができる。
Specifically, the target button may also correspond to a motion control function. In the
based on the target motion control mode, when the start of the touch action is detected, the terminal controls the current virtual object to perform the target motion;
Based on the target motion control mode, if the start of the touch motion is detected, the terminal controls the current virtual object to perform the target motion, and if the end of the touch motion is detected, the The terminal may further perform any one of controlling the motion of the current virtual object such that the motion before performing the target motion is restored.
例えば、当該ターゲット動きが、横向き動きまたは横臥動き、スクワット動きまたはジャンプ動き等であることができる。当該ターゲット動きが横向き動きであることを例にすると、当該タッチ動作の開始時、端末は、仮想オブジェクトの横向きを制御し、上記のステップ304、306または308の他の動きを実行することができ、上記の視角調整のステップも実行することができる。タッチ動作の終了時、端末は、再び仮想オブジェクトを制御して横向きの状態からその前の状態に回復できる。
For example, the target motion can be a sideways or lying motion, a squat motion or a jumping motion, or the like. Taking for example that the target motion is sideways motion, at the start of the touch action, the terminal can control the sideways direction of the virtual object and perform other motions in
別の可能な実現形態において、上記の動作制御方法のプロセスは、複数の種類の動きの動き制御機能を提供することができる。ユーザが当該ターゲットボタンに対してタッチ動作を実行する時、端末は、当該タッチ動作に基づき、仮想オブジェクトを制御して対応する動きを行うようにする。 In another possible implementation, the motion control method process described above can provide motion control functions for multiple types of motion. When the user performs a touch action on the target button, the terminal controls the virtual object to perform corresponding movements according to the touch action.
具体的には、当該ターゲットボタンは、動き制御機能にも対応する。当該動き制御機能には、複数の動きの動き制御モードを含むことができ、各動き制御モードは、仮想オブジェクトの1つの動きに対応し、仮想オブジェクトの1つの動きの制御状況に対応できる。上記のステップ302で、当該ターゲットボタンのタッチ動作が検出された場合、端末は、当該現在の仮想オブジェクトの移動状態と当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つを取得することができる。これを判断根拠として、上記のステップ303、305および307において、端末は当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態と当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定することができる。上記のステップ304、306および308において、端末は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、当該現在の仮想オブジェクトを制御して当該ターゲット動き制御モードに対応するターゲット動きを実行するようにすること、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、端末が当該現在の仮想オブジェクトの動きを制御することのうちのいずれか1項を実行することもできる。
Specifically, the target button also corresponds to a motion control function. The motion control function may include multiple motion motion control modes, each motion control mode may correspond to one motion of the virtual object and may correspond to one motion control situation of the virtual object. In
based on the target motion control mode, when the start of the touch action is detected, the terminal controls the current virtual object to perform the target motion corresponding to the target motion control mode;
Based on the target motion control mode, if the start of the touch action is detected, the terminal controls the current virtual object to perform the target motion corresponding to the target motion control mode, and performs the touch action. is detected, the terminal may also perform any one of controlling the motion of the current virtual object such that the motion before performing the target motion is restored. .
当該実現形態において、当該動き制御機能は、複数の動きの動き制御モードに対応することができる。端末は、現在の仮想オブジェクトの移動状態にしたがって、または現在の仮想オブジェクトの仮想シーンにおける環境にしたがって、または両方にしたがって、今回仮想オブジェクトを制御して実行するターゲット動きがどの動きであるか、どの動きモードに応じて、当該仮想オブジェクトが当該ターゲット動きを実行するように制御するかを取得し、それにより、後続的に仮想オブジェクトを制御して対応する動きを実行するようにする。例えば、当該複数の動きは、横向き、スクワットおよび横臥の3つ動きを含むことができ、当該仮想オブジェクトが仮想シーン内の石の周辺にある時、端末は、ターゲット動き制御モードが横向き動きの動き制御モードであることを決定でき、その後に仮想オブジェクトを制御して横向き動きをするようにする。当該仮想オブジェクトがクロール状態にある場合、端末はターゲット動き制御モードがスクワット動きの動き制御モードであると決定でき、その後に当該仮想オブジェクトを制御してスクワット動きをするようにする。 In such implementations, the motion control function may support multiple motion motion control modes. The terminal determines which movement is the target movement to be performed by controlling the virtual object this time, according to the current movement state of the virtual object, or according to the environment of the current virtual object in the virtual scene, or both. Obtaining whether to control the virtual object to perform the target motion according to the motion mode, thereby subsequently controlling the virtual object to perform the corresponding motion. For example, the plurality of motions may include three motions of sideways, squat and lying down, and when the virtual object is around a stone in the virtual scene, the terminal determines that the target motion control mode is the sideways motion motion. It can be determined that it is in control mode, after which it controls the virtual object to make sideways movements. If the virtual object is in a crawling state, the terminal can determine that the target motion control mode is a squat motion motion control mode, and then control the virtual object to make a squat motion.
ここでは2つの具体的な例のみで説明する。なお、当該複数の動き制御モードおよび動き制御モードと、仮想オブジェクトの移動状態および仮想シーンにおける環境のうちのいずれか1項との対応関係は、いずれも当業者が必要に応じて設定することができ、ユーザによって自身の使用習慣にしたがってカスタマイズすることもでき、本願実施例はこれを限定しない。 Only two specific examples are described here. Any of the plurality of motion control modes and the correspondence relationship between the motion control mode and any one of the moving state of the virtual object and the environment in the virtual scene can be set as necessary by those skilled in the art. It can also be customized by users according to their own usage habits, and the embodiments of the present application do not limit this.
上記の動作制御方法の具体的なプロセスを、図10の一具体的な例の方式で以下に説明する。図10を参照すると、当該動作制御機能を「ワンクリックミラーオン発砲機能」と呼び、端末は、当該ワンクリックミラーオン発砲機能の開閉を検出できる。オンになった場合、端末はカスタムパネル(構成インターフェース)内のミラーと発砲ボタンを開くための1つのキーの位置、サイズおよび透明度データを読み取って適用することができ、即ち、端末は、動作制御機能の状態を判断することができる。当該動作制御機能がオン状態にある場合、端末は、グラフィカルユーザインターフェースにターゲットボタンを表示し、且つ当該ターゲットボタンは3つの表示パラメータを有し、当該3つの表示パラメータは、構成インターフェースに構成できる。端末が、プレーヤーが銃器を手持ちする種別を検出でき、即ち、端末が、現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得できることを指し、仮想アイテムが全自動射撃種別付きのシューターライフルであるなど、当該種別が第1種別である場合、端末は、ユーザが当該ターゲットボタンを押すときにミラーオンし、押す期間に射撃し、ユーザが手を放すときにミラーオフすることができる。仮想アイテムが自動射撃の種別のないスナイパーライフルであることなど、当該種別が第2種別である場合、端末は、仮想アイテムが自動射撃種別のない精密シューターライフルであるなど、ユーザが当該ターゲットボタンを押す時ミラーオンし、ユーザが手を放すときにミラーオフし、射撃する。当該種別が第3種別である場合、端末は、ユーザが押すときに射撃することができる。これにより、端末は、今回のワンクリックミラーオン発砲機能を完了し、プレーヤーの次のステップの動作を検出し、当該ワンクリックミラーオン発砲機能がオフした場合、端末は、その後の各フレーム数でプレーヤーが当該機能をオンにしたかを徐々に検出できる。 A specific process of the above operation control method will be described below with a method of one specific example in FIG. 10 . Referring to FIG. 10 , this motion control function is called “one-click mirror-on firing function”, and the terminal can detect opening and closing of this one-click mirror-on firing function. When turned on, the terminal can read and apply the position, size and transparency data of one key to open the mirror and fire button in the custom panel (configuration interface), i.e. the terminal can The state of the function can be determined. When the operation control function is in an on state, the terminal displays a target button on the graphical user interface, and the target button has three display parameters, which can be configured in the configuration interface. The terminal can detect the type of firearm held by the player, that is, the terminal can obtain the type of virtual item controlled by the current virtual object, and the virtual item is a shooter rifle with automatic shooting type. and so on, if the type is the first type, the terminal can mirror on when the user presses the target button, shoot during the pressing period, and mirror off when the user releases the target button. If the virtual item is of the second type, such as a sniper rifle without an automatic fire type, the terminal will indicate that the virtual item is a precision shooter rifle without an automatic fire type, such as when the user presses the target button. Mirrors on when pressed, mirrors off when user releases and shoots. If the type is the third type, the terminal can shoot when the user presses. This will allow the terminal to complete this one-click mirror-on firing function, detect the player's next step action, and when the said one-click mirror-on firing function is turned off, the terminal will, in each subsequent frame number, Gradually detect if the player has turned on the feature.
本願実施例は、グラフィカルユーザインターフェースに表示モード切り替え機能および射撃機能に対応するターゲットボタンを表示して、ターゲットボタンへのタッチ動作が検出された場合、仮想オブジェクトによって制御される仮想アイテムの種別にしたがって当該タッチ動作トリガー対象の機能を決定し、今回対応する機能を実行するのに必要とするモードを決定し、表示モード切り替え機能および射撃機能はいずれも同じボタンに対応し、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現することができ、且つ仮想アイテムの種別にしたがって、一回の動作で異なる動作制御機能を実現するため、動作プロセスが簡単便利で、動作制御効率が高い。 The embodiment of the present application displays a target button corresponding to the display mode switching function and the shooting function on the graphical user interface, and when a touch operation to the target button is detected, according to the type of virtual item controlled by the virtual object, Determine the function to be triggered by the touch operation, determine the mode required to execute the corresponding function this time, the display mode switching function and the shooting function both correspond to the same button, and for one button Multiple types of motion control functions can be achieved by performing a single touch motion, and different motion control functions can be implemented with a single motion according to the type of the virtual item, simplifying the motion process. It is convenient and the operation control efficiency is high.
図11は、本願実施例による動作制御方法のフローチャートであり、図11を参照すると、当該方法は、次のステップ1101~1103を含むことができる。 FIG. 11 is a flowchart of a motion control method according to an embodiment of the present application, and referring to FIG. 11, the method can include the following steps 1101-1103.
ステップ1101において、端末がグラフィカルユーザインターフェースにターゲットボタンを表示し、当該ターゲットボタンは、複数の制御機能に対応し、当該複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む。
In
当該ステップ1101は、上記のステップ301と同じであり、当該ターゲットボタンの表示プロセスも以下のステップ1ないしステップ3のうちの少なくとも1つのステップを含むことができる。
The
ステップ1において、端末が、グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示する。 In step 1, the terminal displays the target button at the target position in the graphical user interface.
ステップ2において、端末が、グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示する。 In step 2, the terminal displays the target button according to the target size on the graphical user interface.
ステップ3において、端末が、グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタン表示する。 In step 3, the terminal displays the target button on the graphical user interface according to the target transparency.
当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、当業者によって必要に応じて設定されることができ、自身習慣にしたがってユーザによって設定されることもできる。具体的には、当該ユーザが構成した設定も以下のステップ1ないしステップ3のうちの少なくとも1つのステップを含むことができる。 At least one of the target position, target size and target transparency can be set as needed by those skilled in the art, or can be set by the user according to their own habits. Specifically, the user-configured settings may also include at least one of steps 1 through 3 below.
ステップ1において、端末は、構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得する。 In step 1, the terminal acquires the alignment information of the target button according to the configuration interface, and acquires the target position of the target button according to the alignment information.
ステップ2において、端末は、構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得する。 In step 2, the terminal acquires the size adjustment information of the target button according to the configuration interface, and acquires the target size of the target button according to the size adjustment information.
ステップ3において、端末は、構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。 In step 3, the terminal acquires the transparency adjustment information of the target button according to the configuration interface, and acquires the target transparency of the target button according to the transparency adjustment information.
上記の内容は、いずれも上記のステップ301を参照でき、本願実施例は詳細に説明しない。
The above contents can all refer to the
ステップ1102において、当該ターゲットボタンのタッチ動作が検出された場合、端末は、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、当該複数の制御機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する。
In
当該ステップ1102は、上記のステップ302およびステップ303に記載の内容と同じであり、またはステップ302およびステップ305に記載の内容と同じであり、またはステップ302およびステップ307に記載の内容と同じである。異なることとして、上記のステップ302およびステップ303に記載の内容、またはステップ302およびステップ305に記載の内容、またはステップ302およびステップ307に記載の内容には、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該ターゲットボタンに対応する複数の制御機能からトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する例のみを提供するが、当該端末は、さらに当該現在の仮想オブジェクトの移動状態、または現在の仮想オブジェクトの仮想シーンにおける環境、または上記の3つの影響要素の任意の組み合わせにしたがって、当該ターゲット機能とターゲット機能に対応するターゲットモードとを決定することもできる。例えば、上記のステップ308に示す移動状態または当該環境にしたがって、ターゲット機能およびターゲットモードを決定するプロセスである。本願実施例はここで詳しく列挙しない。
The
なお、具体的に、当該3つの影響要素をどの影響要素またはいくつの影響要素を採用するかは、影響要素と制御機能との対応関係およびターゲット機能に対応するターゲットモードは、いずれも当業者が必要に応じて設定することができ、自身使用習慣にしたがってユーザがカスタマイズし、本願実施例はこれを限定しない。 It should be noted that a person skilled in the art can specifically determine which influence element or how many influence elements to adopt for the three influence elements, the correspondence relationship between the influence element and the control function, and the target mode corresponding to the target function. It can be set according to needs and customized by users according to their own usage habits, and the embodiments of the present application do not limit it.
ステップ1103において、端末は、当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する。
In
当該ステップ1103は、上記のステップ304、306およびステップ308と同じであり、本願実施例はここで詳細に説明しない。上記の図3に示す実施例における3つの種別の例、および任意の実現形態は本実施例ではいずれも同じであり、本願実施例はここで詳細に説明しない。
The
本願実施例は、グラフィカルユーザインターフェースに複数の制御機能に対応するターゲットボタンが表示されることにより、ターゲットボタンのタッチ動作を検出したとき、複数の種類の影響要素によって、今回の動作トリガー対象のターゲット機能がどっちか、どのようなモードに応じてこれらのターゲット機能を実行するかを決定することができる。複数の制御機能をすべて同一なボタンに関連付け、1つのボタンに対して一回のタッチ動作を行うことにより、複数の種類の動作制御機能を実現することができ、且つ影響要素によって、ターゲットボタンに対して一回の動作を行って異なる動作制御機能を実現する。動作プロセスが簡単便利で、動作制御効率が高い。 In the embodiment of the present application, target buttons corresponding to a plurality of control functions are displayed on the graphical user interface, and when a touch operation of the target button is detected, a target to be triggered by the current operation is determined by a plurality of types of influencing factors. A function can decide which and in what mode to execute these target functions. By associating multiple control functions with the same button and performing a single touch action on a button, multiple types of motion control functions can be realized, and the target button can be controlled by the influence factor. Different motion control functions are realized by performing a single motion. The operation process is simple and convenient, and the operation control efficiency is high.
上記のすべての選択的な技術的解決策で、任意の組み合わせで本発明の選択的な実施例を採用することができ、ここでは詳細に説明しない。 All of the above optional technical solutions can be used in any combination in the selective embodiments of the present invention, and will not be described in detail herein.
本願実施例の各ステップは、必ずしも番号によって示される順序で順次に実行されるとは限らないことを理解されたい。本文に明確な説明がない限り、これらのステップの実行には厳密な順序がなく、これらのステップは他の順序で実行できる。さらに、各実施例のステップの少なくとも一部は、複数のサブステップまたは複数の段階を含むことができ、これらのサブステップまたは段階は必ずしも同時に実行されるとは限らなく、異なる時刻に実行してもよい。これらのサブステップまたは段階の実行順番も順次に実行されるとは限らず、他のステップまたは他のステップのサブステップまたは段階の少なくとも一部と交互または交替的に実行することができる。 It should be understood that the steps of the embodiments herein are not necessarily performed sequentially in the order indicated by the numbers. Unless explicitly stated in the text, there is no strict order for performing these steps, and these steps can be performed in other orders. Further, at least some of the steps of each embodiment may include multiple sub-steps or stages, which are not necessarily performed at the same time, but may be performed at different times. good too. Nor is the order in which these sub-steps or stages are performed sequentially, but may be performed alternately or alternately with other steps or at least some of the sub-steps or stages of other steps.
図12は、本願実施例による動作制御装置の構造概略図である。図12を参照すると、当該装置は、
グラフィカルユーザインターフェースにターゲットボタンを表示する第1表示モジュール1201であって、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する、第1表示モジュール1201と、
当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する第1決定モジュール1202と、
当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する第1実行モジュール1203と、を備えることができる。
FIG. 12 is a structural schematic diagram of the motion control device according to the embodiment of the present application. Referring to Figure 12, the device comprises:
a
When a touch operation of the target button is detected, corresponding to the target function to be triggered among the display mode switching function and the shooting function and the target function according to the type of the virtual item controlled by the current virtual object. a first determining
and a
一可能な実現形態において、当該第1決定モジュール1202は、
当該仮想アイテムの種別が第1種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第2種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第3種別であるである場合、当該射撃機能を当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In one possible implementation, the
If the type of the virtual item is the first type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is set as the target mode corresponding to the display mode switching function. If the first shooting mode is determined as the target mode corresponding to the shooting function, or if the type of the virtual item is the second type, the display mode switching function and the shooting function are set as the target function of the trigger target. , the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, the second shooting mode is determined as the target mode corresponding to the shooting function, or the type of the virtual item is the third If yes, the shooting function is determined as the target function to be triggered, and the third shooting mode is determined as the target mode corresponding to the shooting function.
一可能な実現形態において、当該第1実行モジュール1203は、
当該仮想アイテムの種別が第1種別である場合、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第2種別である場合、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第3種別である場合、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。
In one possible implementation, the first execution module 1203:
When the type of the virtual item is the first type, when the start of the touch operation is detected based on the target display mode switching mode and the first shooting mode, the display mode of the virtual scene is changed from the first display mode. Switch to the second display mode, continue to execute the shooting function during the duration of the touch action, and when the end of the touch action is detected, change the display mode of the virtual scene from the second display mode to the first display mode. switching, or when the type of the virtual item is the second type, when the start of the touch operation is detected based on the target display mode switching mode and the second shooting mode, the display mode of the virtual scene is changed to the first type. If the display mode is switched to the second display mode, and the end of the touch action is detected, the shooting function is executed, the display mode of the virtual scene is switched from the second display mode to the first display mode, or the virtual item is the third type, when the start of the touch action is detected based on the third shooting mode, the shooting function is executed.
一可能な実現形態において、当該第1決定モジュール1202は、
当該仮想アイテムの種別が第1種別である場合、当該仮想アイテムの現在の射撃種別を取得し、または
当該射撃種別が第1射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該射撃種別が第2射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In one possible implementation, the
If the type of the virtual item is the first type, get the current shooting type of the virtual item, or if the shooting type is the first shooting type, activate the display mode switching function and the shooting function with the trigger The target function is determined, the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, the first shooting mode is determined as the target mode corresponding to the shooting function, or the shooting type is If it is the second shooting type, the display mode switching function and the shooting function are determined as the target function of the trigger target, the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, and the second A shooting mode is determined as a target mode corresponding to the shooting function.
一可能な実現形態において、当該第1表示モジュール1201は、
グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。
In one possible implementation, the
Displaying the target button in the graphical user interface at the target position, or Displaying the target button in the graphical user interface according to the target size, or Displaying the target button in the graphical user interface according to the target transparency. do.
一可能な実現形態において、当該装置はさらに、取得モジュールを備え、当該取得モジュールは、
構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得し、または
構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得し、または
構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。
In one possible implementation, the apparatus further comprises an acquisition module, the acquisition module comprising:
obtaining alignment information for the target button based on a configuration interface; obtaining a target position for the target button based on the alignment information; or obtaining sizing information for the target button based on a configuration interface; Obtaining the target size of the target button based on the size adjustment information, or obtaining transparency adjustment information of the target button based on the configuration interface, and obtaining target transparency of the target button based on the transparency adjustment information. .
一可能な実現形態において、当該ターゲットボタンは、視角調整機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定する。
In one possible implementation, the target button also corresponds to a viewing angle adjustment function, and the first determining
当該第1実行モジュール1203はさらに、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、当該タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角を調整する。
The
一可能な実現形態において、当該ターゲットボタンは、動き制御機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。
In one possible implementation, the target button also corresponds to a motion control function, and the
当該第1実行モジュール1203はさらに、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
The
Based on the target motion control mode, if the start of the touch action is detected, control the current virtual object to perform the target motion, or Based on the target motion control mode, control the start of the touch action. If detected, control the current virtual object to perform the target motion, and if the end of the touch motion is detected, control the current virtual object to restore the motion before performing the target motion. to control the movement of virtual objects in
一可能な実現形態において、当該ターゲットボタンは、動き制御機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。
当該第1実行モジュール1203はさらに、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
In one possible implementation, the target button also corresponds to a motion control function, and the
The
control the current virtual object to perform a target motion corresponding to the target motion control mode when the start of the touch motion is detected based on the target motion control mode; or controlling the current virtual object to perform a target motion corresponding to the target motion control mode when the start of the touch motion is detected, and when the end of the touch motion is detected, according to Control the motion of the current virtual object so that it is restored to the motion before performing the target motion.
一可能な実現形態において、当該第1表示モジュール1201は、構成情報によって動作制御機能がオン状態にあると決定されると、グラフィカルユーザインターフェースにターゲットボタンを表示する当該ステップを実行する。
In one possible implementation, said
本願実施例による装置は、グラフィカルユーザインターフェースに表示モード切り替え機能および射撃機能に対応するターゲットボタンが表示されることにより、ターゲットボタンへのタッチ動作が検出された場合、仮想オブジェクトによって制御される仮想アイテムの種別にしたがって当該タッチ動作トリガー対象の1つまたは複数の機能を決定し、今回対応する機能を実行するためにどのモードに従う必要があるかによって決定され、表示モード切り替え機能および射撃機能は、いずれも同じボタンに態様し、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現でき、且つ仮想アイテムの種別にしたがって、一回の動作で異なる動作制御機能を実現するため、動作プロセスが簡単便利で、動作制御効率が高い。 The device according to the embodiment of the present application displays a target button corresponding to the display mode switching function and the shooting function on the graphical user interface, so that when a touch operation to the target button is detected, the virtual item controlled by the virtual object Determines one or more functions to be triggered by the touch operation according to the type of , and is determined by which mode must be followed to perform the corresponding function this time, and the display mode switching function and the shooting function are are the same button, and by performing one touch operation on one button, it is possible to realize a plurality of types of operation control functions, and according to the type of the virtual item, one operation can control different operations In order to realize the function, the operation process is simple and convenient, and the operation control efficiency is high.
上記の実施例が提供した動作制御装置が動作制御を実現するとき、上記の各機能モジュールの分割のみで例にして説明し、実際の適用では、必要に応じて異なる機能モジュールによって上記の機能分配を完了し、即ち、電子機器の内部構造を異なる機能モジュールに分割して、上記に記述した機能の全部または一部を完了する。なお、上記の実施例が提供した動作制御装置と動作制御方法の実施例は同じ構想に属し、その具体的な実現プロセスは、方法実施例の詳細を参照すればよく、ここでは詳細に説明しない。 When the motion control device provided by the above embodiment realizes motion control, only the division of the above functional modules will be described as an example. , that is, dividing the internal structure of the electronic device into different functional modules to complete all or part of the functions described above. It should be noted that the embodiments of the motion control device and the motion control method provided in the above embodiments belong to the same idea, and the specific implementation process thereof can be referred to the details of the method embodiments, which will not be described in detail herein. .
図13は、本願実施例による動作制御装置の構造概略図であり、図13を参照すると、当該装置は、
グラフィカルユーザインターフェースにターゲットボタンを表示する第2表示モジュール1301であって、当該ターゲットボタンは複数の制御機能に対応し、当該複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む、第2表示モジュール1301と、
当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、当該複数の制御機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する第2決定モジュール1302と、
当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する第2実行モジュール1303と、を備えることができる。
FIG. 13 is a structural schematic diagram of a motion control device according to an embodiment of the present application. Referring to FIG. 13, the device includes:
A
When a touch operation of the target button is detected, the movement state of the current virtual object and the environment in the virtual scene of the current virtual object are selected according to the type of virtual item controlled by the current virtual object. a second determining
a
一可能な実現形態において、当該ターゲットボタンが表示モード切り替え機能および射撃機能に対応する場合、当該第2決定モジュール1302は、
当該仮想アイテムの種別が第1種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第2種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第3種別である場合、当該射撃機能当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In one possible implementation, if the target button corresponds to the display mode switching function and the shooting function, the
If the type of the virtual item is the first type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is set as the target mode corresponding to the display mode switching function. If the first shooting mode is determined as the target mode corresponding to the shooting function, or if the type of the virtual item is the second type, the display mode switching function and the shooting function are set as the target function of the trigger target. , the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, the second shooting mode is determined as the target mode corresponding to the shooting function, or the type of the virtual item is the third If so, the shooting function is determined as the target function for the trigger target, and the third shooting mode is determined as the target mode corresponding to the shooting function.
一可能な実現形態において、当該第2実行モジュール1303は、
当該仮想アイテムの種別が第1種別である場合、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第2種別である場合、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第3種別である場合、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。
In one possible implementation, the second execution module 1303:
When the type of the virtual item is the first type, when the start of the touch operation is detected based on the target display mode switching mode and the first shooting mode, the display mode of the virtual scene is changed from the first display mode. Switch to the second display mode, continue to execute the shooting function during the duration of the touch action, and when the end of the touch action is detected, change the display mode of the virtual scene from the second display mode to the first display mode. switching, or when the type of the virtual item is the second type, when the start of the touch operation is detected based on the target display mode switching mode and the second shooting mode, the display mode of the virtual scene is changed to the first type. If the display mode is switched to the second display mode, and the end of the touch action is detected, the shooting function is executed, the display mode of the virtual scene is switched from the second display mode to the first display mode, or the virtual item is the third type, when the start of the touch action is detected based on the third shooting mode, the shooting function is executed.
一可能な実現形態において、当該第2決定モジュール1302は、
当該仮想アイテムの種別が第1種別である場合、当該仮想アイテムの現在の射撃種別を取得し、または
当該射撃種別が第1射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当当該射撃種別が第2射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In one possible implementation, the
If the type of the virtual item is the first type, get the current shooting type of the virtual item, or if the shooting type is the first shooting type, activate the display mode switching function and the shooting function with the trigger The target function is determined, the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, the first shooting mode is determined as the target mode corresponding to the shooting function, or the shooting type is the second shooting type, the display mode switching function and the shooting function are determined as target functions for the trigger target, the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, and 2 shooting mode is determined as the target mode corresponding to the shooting function.
一可能な実現形態において、当該第2表示モジュール1301は、
グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。
In one possible implementation, the
Displaying the target button in the graphical user interface at the target position, or Displaying the target button in the graphical user interface according to the target size, or Displaying the target button in the graphical user interface according to the target transparency. do.
一可能な実現形態において、当該装置はさらに、取得モジュールをさらに備え、当該取得モジュールは、
構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得し、または
構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得し、または
構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。
In one possible implementation, the apparatus further comprises an acquisition module, the acquisition module comprising:
obtaining alignment information for the target button based on a configuration interface; obtaining a target position for the target button based on the alignment information; or obtaining sizing information for the target button based on a configuration interface; Obtaining the target size of the target button based on the size adjustment information, or obtaining transparency adjustment information of the target button based on the configuration interface, and obtaining target transparency of the target button based on the transparency adjustment information. .
一可能な実現形態において、当該第2決定モジュール1302はさらに、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが視角調整機能に対応する時、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定し、または
当該第2実行モジュール1303は、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、当該タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角に対して調整する。
In one possible implementation, the
一可能な実現形態において、当該決定モジュール1302は、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが動き制御機能に対応することを検出した時、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定し、
当該第2実行モジュール1303は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
In one possible implementation, the
The
controlling the current virtual object to perform a target motion when the start of the touch motion is detected based on the target motion control mode;
Based on the target motion control mode, controlling the current virtual object to perform the target motion when the start of the touch motion is detected, and performing the target motion when the end of the touch motion is detected. Control the motion of the current virtual object so that the motion before execution is restored.
一可能な実現形態において、当該第2決定モジュール1302は、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが動き制御機能に対応することが検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。
In one possible implementation, the second determining
当該実行モジュール1303は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御する、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
The
control the current virtual object to perform a target motion corresponding to the target motion control mode when the start of the touch motion is detected based on the target motion control mode; or controlling the current virtual object to perform a target motion corresponding to the target motion control mode when the start of the touch motion is detected based on; when the end of the touch motion is detected; Control the motion of the current virtual object so that it is restored to the motion before performing the target motion.
一可能な実現形態において、当該第2表示モジュール1301は、構成情報によって動作制御機能がオン状態にあると決定されると、当該グラフィカルユーザインターフェース中でターゲットボタンのステップを実行する。
In one possible implementation, the
本願実施例による装置は、グラフィカルユーザインターフェースに複数の制御機能に対応するターゲットボタンが表示され、ターゲットボタンのタッチ動作が検出された場合、複数の種類の影響要素によって今回の動作トリガー対象のターゲット機能がどっちか、同のようなモードに応じてこれらのターゲット機能を実行するかを決定し、複数の制御機能はいずれも同じボタンに関連付け、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現でき、且つ影響要素はターゲットボタンに対して一回の動作で異なる動作制御機能を実現できるため、動作プロセスが簡単便利で、動作制御効率が高い。 In the device according to the embodiment of the present application, target buttons corresponding to a plurality of control functions are displayed on the graphical user interface, and when a touch operation of the target button is detected, the target function to be triggered by the current operation is determined by a plurality of types of influencing factors. determines which of these target functions will be executed according to similar modes, multiple control functions are all associated with the same button, and one button is touched. At the same time, it can realize multiple types of operation control functions, and the influencing element can realize different operation control functions in one operation for the target button, so that the operation process is simple and convenient, and the operation control efficiency is high.
説明する必要があることとして、上記の実施例が提供した動作制御装置が動作制御を実現する場合、上記の各機能モジュールの分割のみを例にして説明する。実際の適用では、必要に応じて上記の機能分配を異なる機能モジュールによって完了し、即ち、電子機器の内部構造を異なる機能モジュールに分割して、以上の記述したものの全部または一部を完了する。なお、上記の実施例が提供した動作制御装置と動作制御方法の実施例は同じ構想に属し、その具体的な実現プロセスは、方法実施例の詳細を参照すればよく、ここでは詳細に説明しない。 What needs to be explained is that when the motion control device provided by the above embodiment implements motion control, only the above division of each functional module will be described as an example. In practical application, the above functional distribution is completed by different functional modules according to need, that is, the internal structure of the electronic equipment is divided into different functional modules to complete all or part of the above description. It should be noted that the embodiments of the motion control device and the motion control method provided in the above embodiments belong to the same idea, and the specific implementation process thereof can be referred to the details of the method embodiments, which will not be described in detail herein. .
上記の電子機器は、以下の図14に記載の端末として提供し、以下の図15に示すようなサーバとして提供されてもよく、本願実施例はこれを限定しない。 The electronic device described above may be provided as a terminal shown in FIG. 14 below and may be provided as a server shown in FIG. 15 below, and the embodiments of the present application are not limited to this.
図14は、本願実施例による端末の構造概略図である。当該端末1400は、スマトフォン、タブレットコンピュータ、MP3(Moving Picture Experts Group Audio Layer III、動画エキスパートグループオーディオレイヤー3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV、動画エキスパートグループオーディオレイヤー4)プレーヤー、ラップトップコンピュータまたはデスクトップコンピュータなどであってもよい。端末1400は、ユーザ機器、携帯式端末、ラップトップ端末、デスクトップ端末などの他の名称で称されることもできる。 FIG. 14 is a structural schematic diagram of a terminal according to an embodiment of the present application. The terminal 1400 is a smartphone, a tablet computer, an MP3 (Moving Picture Experts Group Audio Layer III, video expert group audio layer 3) player, an MP4 (Moving Picture Experts Group Audio Layer IV, video expert group audio layer 4) player, a laptop. It may be a computer or a desktop computer or the like. Terminal 1400 may also be referred to by other names, such as user equipment, a handheld terminal, a laptop terminal, a desktop terminal, and so on.
通常、端末1400は、1つまたは複数のプロセッサ1401および1つまたは複数のメモリ1402を備える。
Terminal 1400 typically comprises one or
プロセッサ1401は、4コアプロセッサ、8コアプロセッサなどの1つまたは複数の処理コアを備えることができる。プロセッサ1401は、デジタル信号プロセッサ(Digital Signal Processing、DSPと略称)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array、FPGAと略称)、プログラマブルロジックアレイ(Programmable Logic Array、PLAと略称)のうちの少なくとも1つのハードウェア形式を採用して実現することができる。プロセッサ1401は、メインプロセッサおよびセカンダリプロセッサを備えることもでき、メインプロセッサは、アウェイク状態でデータを処理するために使用されるプロセッサであり、中央処理装置(Central Processing Unit、CPUと略称)とも称し、セカンダリプロセッサは、スタンバイ状態でデータを処理するために使用される低電力プロセッサである。いくつかの実施例において、プロセッサ1401グラフィックスプロセッサ(Graphics Processing Unit、GPUと略称)と統合されてもよく、GPUは、ディスプレイ画面に表示される必要があるコンテンツをレンダリングおよび描画するために使用される。いくつかの実施例において、プロセッサ1401は、人工知能(Artificial Intelligence、AIと略称)プロセッサをさらに備えることができ、当該AIプロセッサは、機械学習に関する計算操作を処理するために使用される。
メモリ1402は、1つまたは複数のコンピュータ読み取り可能な記憶媒体を含むことができ、当該コンピュータ読み取り可能な記憶媒体は非一時的である。メモリ1402は、1つまたは複数の磁気ディスクメモリ、フラッシュメモリなどの、高速ランダムアクセスメモリ、および不揮発性メモリを備えることもできる。いくつかの実施例において、本願の方法の実施例で開示されるカメラの位置決め方法を実現するために、メモリ1402の非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令を記憶するために使用され、当該少なくとも1つの命令は、プロセッサ1401に含まれる。
いくつかの実施例において、端末1400は、周辺機器インターフェース1403および少なくとも1つの周辺機器を例示的に備えることもできる。プロセッサ1401、メモリ1402および周辺機器インターフェース1403間は、バスまたは信号線を介して接続することができる。各周辺機器は、バス、信号線または回路基板および周辺機器インターフェース1403を介して接続することができる。具体的に、周辺機器は、無線周波数回路1404、表示スクリーン1405、カメラコンポーネント1406、オーディオ回路1407、位置決めコンポ―ネット1408および電源1409のうちの少なくとも1つを含む。
In some embodiments, terminal 1400 can also illustratively include a
周辺機器インターフェース1403は、入力/出力(Input /Output、I/Oと略称)に関する少なくとも1つの周辺機器をプロセッサ1401およびメモリ1402に接続することができる。いくつかの実施例において、プロセッサ1401、メモリ1402および周辺機器インターフェース1403は、同じチップまたは回路基板にとうごうされ、いくつかの他の実施例において、プロセッサ1401、メモリ1402および周辺機器インターフェース1403における任意の1つまたは2つは、独立したチップまたは回路基板で実現し、本実施例は、これらに対して限定しない。
無線周波数回路1404は、電磁信号とも称される無線周波数(Radio Frequency、RFと略称)信号を送信および受信するために使用される。無線周波数回路1404は、電磁信号を介して通信ネットワークおよび他の通信機器と通信する。無線周波数回路1404は、電子信号を電磁信号に変換して送信し、または、受信した電磁信号を電子信号に変換する。例示的に、無線周波数回路1404は、アンテナシステム、RFトランシーバ、1つまたは複数の増幅器、チューナー、発振器、数字信号プロセッサ、コーデックチップセット、ユーザ識別モジュールカードなどを備える無線周波数回路1404は、少なくとも1つの無線通信プロトコルを介して他の端末と通信することができる。当該無線通信プロトコルは、メトロポリタンエリアネットワーク、各世代の移動通信ネットワーク(2G、3G、4Gおよび11G)、ワイヤレスメトロポリタンエリアネットワークおよび/またはワイファイ(Wireless Fidelity、WiFiと略称)ネットワークを含むが、これらに限定されない。いくつかの実施例において、無線周波数回路1404は、近距離無線通信(Near Field Communication、NFCと略称)に関する回路をさらに備えるが、本願は、これらに対して限定しない。
スクリーン1405は、ユーザインターフェース(User Interface、UIと略称)を表示する。当該UIは、グラフィック、テキスト、アイコン、ビデオ、およびそれらの任意の組み合わせを含めることができる。スクリーン1405がスクリーンをタッチすると、スクリーン1405は、スクリーン1405の表面または表面の上側のタッチ信号を撮影する機能を備える。当該タッチ信号は、制御信号としてプロセッサ1401に入力されて処理される。この場合、スクリーン1405は、ソフトボタンおよび/またはソフトキーボードとも称する、仮想ボタンおよび/または仮想キーボードを提供する。いくつかの実施例において、スクリーン1405は1つであってもよく、端末1400のフロントパネルを配置し、別のいくつかの実施例において、スクリーン1405は、少なくとも2つであってもよく、端末1400の異なる表面または折りたたみデザインにそれぞれ配置され、さらにいくつかの実施例において、スクリーン1405は、端末1400の曲面または折りたたみ面に配置される可撓性ディスプレイであってもよい。さらに、スクリーン1405は、長方形以外の不規則な形、即ち、特徴な形状のスクリーンに設定されてもよい。スクリーン1405は、液晶ディスプレイ(Liquid Crystal Display、LCDと略称)、有機発光ダイオード(Organic Light-Emitting Diode、OLEDと略称)などの素材で作られることができる。
A
カメラコンポーネント1406は、画像またはビデオを撮影する。例示的に、カメラコンポーネント1406は、フロントカメラおよびリアカメラを備える。通常、フロントカメラは、端末のフロントパネルに配置され、リアカメラは、端末の背面に配置される。いくつかの実施例において、リアカメラは少なくとも2つであり、それぞれ、メインカメラ、被写界深度カメラ、広角カメラ、望遠カメラのうちのいずれか1つであり、メインカメラと被写界深度カメラの融合で背景ぼかし機能を実現し、メインカメラおよび望遠カメラの融合でパノラマ撮影およびバーチャルリアリティ(Virtual Reality、VRと略称)撮影機能または他の融合撮影機能を実現する。いくつかの実施例において、カメラコンポーネント1406は、フラッシュをさらに備える。フラッシュは、単色温度フラッシュであってもよく、二色温度フラッシュであってもよい。二色フラッシュは、暖かい色フラッシュと冷たい色フラッシュの組み合わせであり、異なる色温度での光の補正に使用されることができる。
オーディオ回路1407は、マイクおよびスピーカを含むことができる。マイクは、ユーザと環境の音波を撮影し、音声通信を実現するために、音波を電子信号に変換してプロセッサ1401に入力して処理し、または無線周波数回路1404に入力する。ステレオ撮影またはノイズ低減を目的とし、マイクは複数であってもよく、それぞれ、端末1400の異なる部位を配置することができる。マイクは、アレイマイクまたは全方位撮像型マイクであってもよい。スピーカは、プロセッサ1401または無線周波数回路1404からの電子信号を音波に変換する。スピーカは、従来のフィルムスピーカであってもよく、電圧セラミックスピーカであってもよい。スピーカが電圧セラミックスピーカである場合、電子信号を人間の可聴音波に変換してもよく、距離測定などの目的で電子信号を人間の不可聴音波に変換してもよい。いくつかの実施例において、オーディオ回路1407は、ヘッドフォンジャックをさらに含む。
位置決めコンポーネント1408は、ナビゲーションまたは位置に基づくサービス(Location Based Service、LBSと略称)を実現するために、端末1400の現在の地理位置を位置決めする。位置決めコンポーネント1408は、アメリカの全地球測位システム(Global Positioning System、GPSと略称)であってもよく、中国の北斗衛星測位システム、ロシアのグロナスシステムまたはユロッパのガリレオシステムに基づく位置決めコンポーネントであってもよい。
A
電源1409は、端末1400における各コンポーネントに電力を供給する。電源1409は、交流、直流、使い捨て電池、または充電式電池であることができる。電源1409が充電式電池を備える場合、当該充電式電池は、有線充電または無線充電をサポートすることができる。当該充電式電池は、高速充電技術をサポートすることできある。
いくつかの実施例において、端末1400は、1つまたは複数のセンサ1410をさらに備える。当該1つまたは複数のセンサ1410は、加速度センサ1411、ジャイロセンサ1412、圧力センサ1413、指紋センサ1414、光学センサ1415および近接センサ1416を含むが、これらに限定されない。 In some examples, terminal 1400 further comprises one or more sensors 1410 . The one or more sensors 1410 include, but are not limited to, an acceleration sensor 1411, a gyro sensor 1412, a pressure sensor 1413, a fingerprint sensor 1414, an optical sensor 1415 and a proximity sensor 1416.
加速度センサ1411は、端末1400によって確立された座標系の3つの座標軸上の加速度の大きさを検出することができる。例えば、加速度センサ1411は、3つの座標軸上の重力加速度の成分を検出するために使用されることができる。プロセッサ1401は、加速度センサ1411で撮影された重力加速度信号に従って、ランドスケープビューまたはポートレートビューをユーザインターフェースで表示するために、表示スクリーン1405を制御することができる。加速度センサ1411は、ゲームまたはユーザの運動データの撮影に使用されることもできる。
Acceleration sensor 1411 can detect the magnitude of acceleration on the three coordinate axes of the coordinate system established by terminal 1400 . For example, acceleration sensor 1411 can be used to detect the components of gravitational acceleration on three coordinate axes. The
ジャイロセンサ1412は、端末1400の本体方向および回動角度を検出することができ、ジャイロセンサ1412は、加速度センサ1411と協働して、端末1400に対するユーザの3D動作を撮影することができる。プロセッサ1401は、ジャイロセンサ1412で撮影されたデータに従って、モーションセンシング(ユーザの傾斜操作に応じてUIを変更するなど)、撮影中の画像安定化、ゲーム制御および慣性ナビゲーションなどの機能を実現することができる。
The gyro sensor 1412 can detect the main body direction and rotation angle of the terminal 1400 , and the gyro sensor 1412 can photograph the 3D motion of the user with respect to the terminal 1400 in cooperation with the acceleration sensor 1411 . The
圧力センサ1413は、端末1400のサイドフレームおよび/または表示スクリーン1405の下に配置されることができる。圧力センサ1413が端末1400のサイドフレームに配置される場合、端末1400に対するユーザのホールディング信号を検出し、プロセッサ1401によって、圧力センサ1413によって撮影されたホールディング信号に従って、右手と左手の識別またはクイック操作を実行することができる。圧力センサ1413が表示スクリーン1405の下に配置される場合、プロセッサ1401によって、ユーザが表示スクリーン1405に対する圧力操作に従って、UIインターフェース上の可操作性制御部に対する制御を実現する。可操作性制御部は、ボタン制御部、スクロール・バー制御部、アイコン制御部、メニュー制御部のうちの1つを備える。
Pressure sensors 1413 may be located on the side frames of terminal 1400 and/or under
指紋センサ1414は、ユーザの指紋を撮影し、プロセッサ1401によって、指紋センサ1414で撮影された指紋に従ってユーザの身元を識別し、または、指紋センサ1414によって、指紋に従ってユーザの身元を識別する。ユーザの身元が可信身元であると識別された場合、プロセッサ1401によって、当該ユーザが関する敏感な操作を有することを認可し、当該敏感な操作は、画面のロックの解除、暗号化された情報の閲覧、ソフトウェアのダウンロード、支払いおよび設定の変更などを含む。指紋センサ1414は、端末1400の正面、背面または測面に配置されることができる。端末1400が、物理的ボタンまたはメーカーのLogoに配置される場合、指紋センサ1414は、物理的ボタンまたはメーカーのロゴと統合されてもよい。
The fingerprint sensor 1414 captures the fingerprint of the user and identifies the user according to the fingerprint captured by the fingerprint sensor 1414 by the
光学センサ1415は、環境光の強度を撮影する。一実施例において、プロセッサ1401は、光学センサ1415によって撮影された環境光の強度に従って、表示スクリーン1405のディスプレイ輝度を制御することができる。具体的に、環境光の強度が高い場合、表示スクリーン1405のディスプレイ輝度を挙げ、環境光の強度が低い場合、表示スクリーン1405のディスプレイ輝度を下げる。別の実施例において、プロセッサ1401は、光学センサ1415によって撮影された環境光の強度に従って、カメラコンポーネント1406の撮影パラメータを動的に調整することもできる。
Optical sensor 1415 captures the intensity of ambient light. In one embodiment,
近接センサ1416は、距離センサとも称され、通常、端末1400のフロントパネルに配置される。近接センサ1416は、ユーザと端末1400の正面との間の距離を撮影する。一実施例において、近接センサ1416がユーザと端末1400の正面との間の距離がますます小さくなることが検出された場合、プロセッサ1401が、表示スクリーン1405がオンスクリーン状態からオフスクリーン状態に切り替えるように制御し、近接センサ1416がユーザと端末1400の正面との間の距離がますます大きくなることが検出された場合、プロセッサ1401が、表示スクリーン1405がオフスクリーン状態からオンスクリーン状態に切り替えるように制御する。
Proximity sensor 1416 , also referred to as a distance sensor, is typically located on the front panel of terminal 1400 . Proximity sensor 1416 captures the distance between the user and the front of terminal 1400 . In one embodiment, when the proximity sensor 1416 detects that the distance between the user and the front of the terminal 1400 is getting smaller and smaller, the
図14で示された構造は、端末1400に対して限定するものではなく、図に示されたものより多いまたはより少ないコンポーネントを備え、またはいくつかのコンポーネントを組み合わせ、または異なるコンポーネント配置を採用することができる。 The structure shown in FIG. 14 is non-limiting for terminal 1400 and includes more or fewer components than those shown in the figure, or combines several components or employs different component arrangements. be able to.
図15は本願実施例によるサーバの構造概略図であり、当該サーバ1500は、異なる構成または性能のため、比較的大きな違いを有することができ、1つまたは複数のプロセッサ(central processing units、CPU)1501および1つまたは複数のメモリ1502を備えることができる。ここで、当該1つまたは複数のメモリ1502に少なくとも1つの命令が記憶され、少なくとも1つの命令は、当該1つまたは複数のプロセッサ1501によってロードされ実行されて、上記の各方法の実施例が提供した動作制御方法を実現する。もちろん、当該サーバ1500はさらに、有線または無線のネットワークインターフェース、キーボードおよび入出力のための入力および出力インターフェース等の部材を有することができ、当該サーバ1500はさらに、他の機器機能を実現するための他の部材を含むことができ、ここでは詳細に説明しない。
FIG. 15 is a structural schematic diagram of a server according to an embodiment of the present application, the
例示的な実施例では、コンピュータ読み取り可能な記憶媒体をさらに提供し、例えば、命令を含むメモリを提供し、上記の命令は、上記の実施例における動作制御方法を完了するために、プロセッサによって実行される。例えば、当該コンピュータ読み取り可能な記憶媒体は、読み取り専用メモリ(Read-Only Memory,ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、コンパクトディスク読み取り専用メモリ(Compact Disc Read-Only Memory、CD-ROM)、磁気テープ、フロッピーディスクおよび光学データ記憶装置等などであることができる。 Example embodiments further provide a computer-readable storage medium, e.g., provide a memory containing instructions, the instructions being executed by a processor to complete the motion control methods in the above embodiments. be done. For example, the computer readable storage medium may be Read-Only Memory (ROM), Random Access Memory (RAM), Compact Disc Read-Only Memory (CD-ROM). ), magnetic tapes, floppy disks, optical data storage devices, and the like.
当業者は、上記の実施例のステップの全部または一部を、ハードウェアによって実現するか、または関連するハードウェアに完了するように指示するプログラムによって実現できることを理解できる。当該プログラムは、コンピュータ読み取り可能な記憶媒体に記憶することができ、上記に記載した記憶媒体は、読み取り専用メモリ、磁気ディスクまたは光ディスクなどであることができる。上記は、本発明の好ましい実施例にすぎず、本発明を限定することを意図するものではない。本発明の思想と原則の範囲内で行われた変更、同等の交換、改善などは、本発明の保護範囲に含まれるものである。 Those skilled in the art can understand that all or part of the steps of the above embodiments can be implemented by hardware or by a program instructing relevant hardware to complete. The program can be stored in a computer-readable storage medium, and the storage medium described above can be a read-only memory, a magnetic disk, an optical disk, or the like. The above are only preferred embodiments of the present invention and are not intended to limit the present invention. Any modification, equivalent replacement, improvement, etc. made within the spirit and principle of the present invention shall fall within the protection scope of the present invention.
1201 第1表示モジュール
1202 第1決定モジュール
1203 第1実行モジュール
1301 第2表示モジュール
1302 第2決定モジュール
1303 第2実行モジュール
1401 プロセッサ
1402 メモリ
1403 周辺機器インターフェース
1404 無線周波数回路
1405 表示スクリーン
1406 カメラコンポーネント
1407 オーディオ回路
1408 位置決めコンポーネント
1409 電源
1410 センサ
1411 加速度センサ
1412 ジャイロセンサ
1413 圧力センサ
1414 指紋センサ
1415 光学センサ
1416 近接センサ
1500 サーバ
1501 プロセッサ
1502 メモリ
1201 first display module
1202 first decision module
1203 First execution module
1301 second display module
1302 second decision module
1303 second execution module
1401 processor
1402 memory
1403 peripheral interface
1404 Radio Frequency Circuit
1405 display screen
1406 camera component
1407 audio circuit
1408 positioning component
1409 power supply
1410 sensor
1411 Accelerometer
1412 gyro sensor
1413 pressure sensor
1414 fingerprint sensor
1415 optical sensor
1416 proximity sensor
1500 servers
1501 processor
1502 memory
Claims (15)
グラフィカルユーザインターフェースに複数の制御機能に対応するターゲットボタンを表示するステップであって、前記複数の制御機能は、表示モード切り替え機能、射撃機能および複数の動き制御機能に対応するものであるステップと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別と、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つとにしたがって、前記表示モード切り替え機能、射撃機能および前記複数の動き制御機能のうち、それぞれの前記機能に対応するトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定するステップと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む、動作制御方法。 An operation control method executed by an electronic device,
displaying target buttons corresponding to a plurality of control functions on a graphical user interface, the plurality of control functions corresponding to a display mode switching function , a shooting function and a plurality of motion control functions ;
when a touch operation on the target button is detected, the type of virtual item controlled by the current virtual object, the movement state of the current virtual object, and the environment in the virtual scene of the current virtual object. determining a target function to be triggered corresponding to each of the display mode switching function , the shooting function and the plurality of motion control functions , and a target mode corresponding to the target function, according to at least one of the functions. a step;
and performing the target function on the graphical user interface based on the target mode.
前記仮想アイテムの種別が第1種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
ことを特徴とする、請求項1に記載の方法。 determining a target function to be triggered among the display mode switching function and the shooting function and a target mode corresponding to the target function according to the type of virtual item controlled by the current virtual object;
When the type of the virtual item is the first type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is set as a target mode corresponding to the display mode switching function. and determining a first shooting mode as the target mode corresponding to the shooting function.
前記仮想アイテムの種別が第1種別である場合、前記ターゲット表示モード切り替えモードおよび前記第1射撃モードに基づき、前記タッチ動作の開始が検出されると、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えるとともに、前記タッチ動作の持続期間に射撃機能を継続して実行し、前記タッチ動作の終了が検出されると、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えるステップを含む
ことを特徴とする、請求項2に記載の方法。 The step of executing the target function in the graphical user interface based on the target mode comprises:
When the type of the virtual item is the first type, when the start of the touch operation is detected, the display mode of the virtual scene is changed from the first display mode based on the target display mode switching mode and the first shooting mode. While switching to the second display mode, the shooting function is continuously executed during the duration of the touch operation, and when the end of the touch operation is detected, the display mode of the virtual scene is changed from the second display mode to the first display mode. 3. The method of claim 2, comprising switching to .
前記仮想アイテムの種別が第1種別である場合、前記仮想アイテムの現在の射撃種別を取得するステップと、
前記射撃種別が第1射撃種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを実行する、ステップと、
前記射撃種別が第2射撃種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップと、を含む
ことを特徴とする、請求項2に記載の方法。 determining a target function to be triggered among the display mode switching function and the shooting function and a target mode corresponding to the target function according to the type of virtual item controlled by the current virtual object;
obtaining a current shooting type of the virtual item if the type of the virtual item is a first type;
When the shooting type is the first shooting type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is determined as the target mode corresponding to the display mode switching function. and determining a first shooting mode as the target mode corresponding to the shooting function;
When the shooting type is the second shooting type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is determined as the target mode corresponding to the display mode switching function. and determining a second fire mode as the target mode corresponding to the fire function.
前記仮想アイテムの種別が第2種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
ことを特徴とする、請求項1に記載の方法。 determining a target function to be triggered among the display mode switching function and the shooting function and a target mode corresponding to the target function according to the type of virtual item controlled by the current virtual object;
When the type of the virtual item is the second type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is set as a target mode corresponding to the display mode switching function. and determining a second fire mode as the target mode corresponding to the fire function.
前記仮想アイテムの種別が第2種別である場合、前記ターゲット表示モード切り替えモードおよび前記第2射撃モードに基づき、前記タッチ動作の開始が検出されると、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、前記タッチ動作の終了が検出されると、前記射撃機能を実行するとともに、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えるステップを含む
ことを特徴とする、請求項5に記載の方法。 The step of executing the target function in the graphical user interface based on the target mode comprises:
When the type of the virtual item is the second type, the display mode of the virtual scene is changed from the first display mode when the start of the touch operation is detected based on the target display mode switching mode and the second shooting mode. switching to a second display mode, and when the end of the touch action is detected, executing the shooting function and switching the display mode of the virtual scene from the second display mode to the first display mode. 6. The method of claim 5, wherein
前記仮想アイテムの種別が第3種別である場合、前記射撃機能を前記トリガー対象のターゲット機能として決定し、第3射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
ことを特徴とする、請求項1に記載の方法。 determining a target function to be triggered among the display mode switching function and the shooting function and a target mode corresponding to the target function according to the type of virtual item controlled by the current virtual object;
determining the shooting function as the target function to be triggered, and determining a third shooting mode as the target mode corresponding to the shooting function, if the virtual item is of a third type. The method of claim 1, wherein
前記仮想アイテムの種別が第3種別である場合、前記第3射撃モードに基づき、前記タッチ動作の開始が検出されると、前記射撃機能を実行するステップを含む
ことを特徴とする、請求項7に記載の方法。 The step of executing the target function in the graphical user interface based on the target mode comprises:
and executing the shooting function when the start of the touch action is detected based on the third shooting mode when the type of the virtual item is the third type. The method described in .
グラフィカルユーザインターフェースのターゲット位置に、前記ターゲットボタンを表示するステップ、
グラフィカルユーザインターフェースに、ターゲットサイズに応じて前記ターゲットボタンを表示するステップ、および
グラフィカルユーザインターフェースに、ターゲット透明度に応じて前記ターゲットボタンを表示するステップのうちの少なくとも1つを含む
ことを特徴とする、請求項1に記載の方法。 The step of displaying a target button on the graphical user interface comprises:
displaying said target button at a target location of a graphical user interface;
displaying the target button in a graphical user interface according to a target size; and displaying the target button in a graphical user interface according to a target transparency. The method of claim 1.
構成インターフェースに基づき、前記ターゲットボタンのサイズ調整情報を取得し、前記サイズ調整情報に基づき、前記ターゲットボタンのターゲットサイズを取得するステップ、および
構成インターフェースに基づき、前記ターゲットボタンの透明度調整情報を取得し、前記透明度調整情報に基づき、前記ターゲットボタンのターゲット透明度を取得するステップのうちの少なくとも1つをさらに含む
ことを特徴とする、請求項9に記載の方法。 obtaining alignment information of the target button based on a configuration interface, and obtaining a target position of the target button based on the alignment information;
obtaining size adjustment information of the target button based on a configuration interface; obtaining target size of the target button based on the size adjustment information; and obtaining transparency adjustment information of the target button based on a configuration interface. , obtaining a target transparency of the target button based on the transparency adjustment information.
前記方法は、
前記ターゲットボタンへのタッチ動作が検出されると、前記視角調整機能を前記トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを前記視角調整機能に対応するターゲットモードとして決定するステップをさらに含み、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
前記ターゲット視角調整モードに基づき、前記タッチ動作の持続期間に、前記タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角を調整するステップをさらに含む
ことを特徴とする、請求項1に記載の方法。 The target button also corresponds to a viewing angle adjustment function,
The method includes:
determining the viewing angle adjustment function as the target function to be triggered and determining a target viewing angle adjustment mode as a target mode corresponding to the viewing angle adjustment function when a touch operation on the target button is detected;
The step of executing the target function in the graphical user interface based on the target mode comprises:
2. The method according to claim 1, further comprising adjusting a viewing angle of the virtual scene according to the target viewing angle adjustment mode and according to the motion direction and motion speed of the touch motion during the duration of the touch motion. described method.
構成情報によって動作制御機能がオン状態にあると決定されると、前記グラフィカルユーザインターフェースにターゲットボタンを表示する前記ステップを実行する、ステップを含む
ことを特徴とする、請求項1に記載の方法。 The step of displaying a target button on the graphical user interface comprises:
2. The method of claim 1, comprising performing the step of displaying a target button on the graphical user interface when configuration information determines that a motion control function is in an on state.
表示モード切り替え機能、射撃機能および複数の動き制御機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別と、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つとにしたがって、前記表示モード切り替え機能、射撃機能および前記複数の動き制御機能のうち、それぞれの前記機能に対応するトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する決定モジュールと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える、動作制御装置。 A motion control device,
a display module for displaying a target button corresponding to a display mode switching function , a shooting function and a plurality of motion control functions on a graphical user interface;
when a touch operation on the target button is detected, the type of virtual item controlled by the current virtual object, the movement state of the current virtual object, and the environment in the virtual scene of the current virtual object. determining a target function to be triggered corresponding to each of the display mode switching function , the shooting function and the plurality of motion control functions , and a target mode corresponding to the target function, according to at least one of the functions. a decision module;
an execution module for executing the target function on the graphical user interface based on the target mode.
前記メモリにコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令が前記プロセッサによって実行されると、前記プロセッサに請求項1ないし12のいずれか1項に記載の動作制御方法のステップを実行させる、電子機器。 An electronic device comprising a memory and a processor,
Computer readable instructions are stored in the memory, and when the computer readable instructions are executed by the processor, cause the processor to perform the steps of the motion control method of any one of claims 1 to 12 . electronic equipment.
1つまたは複数のプロセッサに請求項1ないし12のいずれか1項に記載の動作制御方法のステップを実行させる、プログラム。 a program,
A program that causes one or more processors to execute the steps of the motion control method according to any one of claims 1 to 12 .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910290727.0A CN110141869A (en) | 2019-04-11 | 2019-04-11 | Method of controlling operation thereof, device, electronic equipment and storage medium |
CN201910290727.0 | 2019-04-11 | ||
PCT/CN2020/079706 WO2020207206A1 (en) | 2019-04-11 | 2020-03-17 | Operation control method and apparatus, and electronic device and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509295A JP2022509295A (en) | 2022-01-20 |
JP7231737B2 true JP7231737B2 (en) | 2023-03-01 |
Family
ID=67588909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021531040A Active JP7231737B2 (en) | 2019-04-11 | 2020-03-17 | Motion control method, device, electronic device and program |
Country Status (8)
Country | Link |
---|---|
US (1) | US20210260479A1 (en) |
JP (1) | JP7231737B2 (en) |
KR (1) | KR102578242B1 (en) |
CN (1) | CN110141869A (en) |
AU (1) | AU2020256524A1 (en) |
CA (1) | CA3132897A1 (en) |
SG (1) | SG11202104911TA (en) |
WO (1) | WO2020207206A1 (en) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110141869A (en) * | 2019-04-11 | 2019-08-20 | 腾讯科技(深圳)有限公司 | Method of controlling operation thereof, device, electronic equipment and storage medium |
CN110339562B (en) * | 2019-08-01 | 2023-09-15 | 腾讯科技(深圳)有限公司 | Virtual object control method, device, terminal and storage medium |
CN110448908B (en) * | 2019-08-22 | 2020-12-01 | 腾讯科技(深圳)有限公司 | Method, device and equipment for applying sighting telescope in virtual environment and storage medium |
CN110665229B (en) * | 2019-10-11 | 2021-08-20 | 腾讯科技(深圳)有限公司 | Method and related device for element interaction in shooting game |
CN110975289B (en) * | 2019-11-14 | 2021-10-15 | 腾讯科技(深圳)有限公司 | Shooting mode switching control method and device, storage medium and electronic device |
CN111068330B (en) * | 2019-11-21 | 2021-07-27 | 腾讯科技(深圳)有限公司 | Processing method and device of virtual attack prop, storage medium and electronic device |
CN111359214B (en) * | 2020-03-05 | 2021-05-11 | 腾讯科技(深圳)有限公司 | Virtual item control method and device, storage medium and electronic device |
CN111632380A (en) * | 2020-05-28 | 2020-09-08 | 腾讯科技(深圳)有限公司 | Virtual attitude switching method and device, storage medium and electronic device |
JP7408685B2 (en) * | 2020-09-11 | 2024-01-05 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Methods, devices, equipment and storage media for adjusting the position of controls in application programs |
CN112316428A (en) * | 2020-10-27 | 2021-02-05 | 腾讯科技(深圳)有限公司 | Method and device for processing virtual prop and computer readable storage medium |
CN112402960B (en) * | 2020-11-19 | 2022-11-04 | 腾讯科技(深圳)有限公司 | State switching method, device, equipment and storage medium in virtual scene |
CN112354181B (en) * | 2020-11-30 | 2022-12-30 | 腾讯科技(深圳)有限公司 | Open mirror picture display method and device, computer equipment and storage medium |
CN112791398A (en) * | 2021-02-03 | 2021-05-14 | 网易(杭州)网络有限公司 | Method and device for controlling virtual time-of-use mirror in game, electronic equipment and storage medium |
CN113318430A (en) * | 2021-05-28 | 2021-08-31 | 网易(杭州)网络有限公司 | Virtual character posture adjusting method and device, processor and electronic device |
CN113546425B (en) * | 2021-07-27 | 2024-03-01 | 网易(杭州)网络有限公司 | Method, device, terminal and storage medium for processing virtual article in game |
KR102354559B1 (en) * | 2021-08-24 | 2022-01-21 | 한국기술교육대학교 산학협력단 | Multi-kinds interface devices for content control |
CN113687761B (en) * | 2021-08-24 | 2023-08-08 | 网易(杭州)网络有限公司 | Game control method and device, electronic equipment and storage medium |
KR102646689B1 (en) * | 2021-10-20 | 2024-03-12 | (주)크래프톤 | Method to provide User interface for mobile game and device using the same |
CN113926181A (en) * | 2021-10-21 | 2022-01-14 | 腾讯科技(深圳)有限公司 | Object control method and device of virtual scene and electronic equipment |
CN113986079B (en) * | 2021-10-28 | 2023-07-14 | 腾讯科技(深圳)有限公司 | Virtual button setting method and device, storage medium and electronic equipment |
CN114371898B (en) * | 2021-12-10 | 2022-11-22 | 北京城市网邻信息技术有限公司 | Information display method, equipment, device and storage medium |
CN114217708B (en) * | 2021-12-15 | 2023-05-26 | 腾讯科技(深圳)有限公司 | Control method, device, equipment and storage medium for opening operation in virtual scene |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140243058A1 (en) | 2013-02-26 | 2014-08-28 | Gree, Inc. | Shooting game control method and game system |
JP5727655B1 (en) | 2014-09-17 | 2015-06-03 | 株式会社Pgユニバース | Information processing apparatus, information processing method, and program |
CN105688409A (en) | 2016-01-27 | 2016-06-22 | 网易(杭州)网络有限公司 | Game control method and device |
JP2017201513A (en) | 2016-05-03 | 2017-11-09 | ホットヘッド ホールディングス インコーポレイテッド | Zoom control for virtual environment user interface |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101298030B1 (en) * | 2013-03-12 | 2013-08-26 | 주식회사 네시삼십삼분 | Computer readable medium recording a shooting game |
CN106293070B (en) * | 2016-07-27 | 2019-11-15 | 网易(杭州)网络有限公司 | Virtual role view directions control method and device |
KR20180116870A (en) * | 2017-04-18 | 2018-10-26 | 주식회사 드래곤플라이 | Game device and computer program |
CN108525294B (en) * | 2018-04-04 | 2021-07-27 | 网易(杭州)网络有限公司 | Control method and device for shooting game |
CN108553891A (en) * | 2018-04-27 | 2018-09-21 | 腾讯科技(深圳)有限公司 | Object method of sight and device, storage medium and electronic device |
CN108771863B (en) * | 2018-06-11 | 2022-04-15 | 网易(杭州)网络有限公司 | Control method and device for shooting game |
CN109091869B (en) * | 2018-08-10 | 2022-07-26 | 腾讯科技(深圳)有限公司 | Method and device for controlling action of virtual object, computer equipment and storage medium |
CN109589601B (en) * | 2018-12-10 | 2022-04-08 | 网易(杭州)网络有限公司 | Virtual sighting telescope control method and device, electronic equipment and storage medium |
CN110141869A (en) * | 2019-04-11 | 2019-08-20 | 腾讯科技(深圳)有限公司 | Method of controlling operation thereof, device, electronic equipment and storage medium |
-
2019
- 2019-04-11 CN CN201910290727.0A patent/CN110141869A/en active Pending
-
2020
- 2020-03-17 AU AU2020256524A patent/AU2020256524A1/en not_active Abandoned
- 2020-03-17 CA CA3132897A patent/CA3132897A1/en active Pending
- 2020-03-17 JP JP2021531040A patent/JP7231737B2/en active Active
- 2020-03-17 WO PCT/CN2020/079706 patent/WO2020207206A1/en active Application Filing
- 2020-03-17 SG SG11202104911TA patent/SG11202104911TA/en unknown
- 2020-03-17 KR KR1020217017252A patent/KR102578242B1/en active IP Right Grant
-
2021
- 2021-05-11 US US17/317,853 patent/US20210260479A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140243058A1 (en) | 2013-02-26 | 2014-08-28 | Gree, Inc. | Shooting game control method and game system |
JP5727655B1 (en) | 2014-09-17 | 2015-06-03 | 株式会社Pgユニバース | Information processing apparatus, information processing method, and program |
CN105688409A (en) | 2016-01-27 | 2016-06-22 | 网易(杭州)网络有限公司 | Game control method and device |
JP2017201513A (en) | 2016-05-03 | 2017-11-09 | ホットヘッド ホールディングス インコーポレイテッド | Zoom control for virtual environment user interface |
Non-Patent Citations (3)
Title |
---|
[PUBGモバイル]iPadのおすすめボタン配置を紹介(4本指),コンプリ[online],2019年02月09日,https://compri.jp/pubg-button-setup/,特に本文、図を参照。[検索日2022年6月8日] |
[荒野行動]『瞬殺モード』を解説!狙撃の重要テクニックを活用しよう!,GameWith[online],2019年04月07日,https://web.archive.org/web/20190407044505/https://gamewith.jp/knives-out/article/show/109698,特に本文、図を参照。[検索日2022年6月8日] |
[荒野行動]知らなきゃ損!!『瞬殺モード』の使い方利点解説!使いこなせればSR無双当たり前!?[Knives out実況],YouTube[online][video],2018年04月20日,https://www.youtube.com/watch?v=AmDJSeQuvOg,特に動画時間[00:40]-[01:10]等参照。[検索日2022年6月8日] |
Also Published As
Publication number | Publication date |
---|---|
CA3132897A1 (en) | 2020-10-15 |
KR102578242B1 (en) | 2023-09-12 |
KR20210086705A (en) | 2021-07-08 |
SG11202104911TA (en) | 2021-06-29 |
WO2020207206A1 (en) | 2020-10-15 |
US20210260479A1 (en) | 2021-08-26 |
AU2020256524A1 (en) | 2021-10-07 |
JP2022509295A (en) | 2022-01-20 |
CN110141869A (en) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7231737B2 (en) | Motion control method, device, electronic device and program | |
CN109350964B (en) | Method, device, equipment and storage medium for controlling virtual role | |
JP7155405B2 (en) | ACCESSORY SELECTION METHOD IN VIRTUAL ENVIRONMENT AND DEVICE, DEVICE AND COMPUTER PROGRAM THEREOF | |
CN108619721B (en) | Distance information display method and device in virtual scene and computer equipment | |
JP7419382B2 (en) | Method and apparatus and computer program for controlling a virtual object to mark a virtual item | |
CN109614171B (en) | Virtual item transfer method and device, electronic equipment and computer storage medium | |
WO2019214402A1 (en) | Accessory switch method and apparatus in virtual environment, device, and storage medium | |
CN108671545B (en) | Method, device and storage medium for controlling interaction between virtual object and virtual scene | |
TWI796777B (en) | Virtual object control method, device, terminal and storage medium | |
JP7309913B2 (en) | Viewpoint rotation method, device, terminal and computer program | |
CN111589132A (en) | Virtual item display method, computer equipment and storage medium | |
CN109324739B (en) | Virtual object control method, device, terminal and storage medium | |
WO2021031765A1 (en) | Application method and related apparatus of sighting telescope in virtual environment | |
WO2020151594A1 (en) | Viewing angle rotation method, device, apparatus and storage medium | |
CN112221134A (en) | Virtual environment-based picture display method, device, equipment and medium | |
CN110738738B (en) | Virtual object marking method, equipment and storage medium in three-dimensional virtual scene | |
CN110152309B (en) | Voice communication method, device, electronic equipment and storage medium | |
CN112121438B (en) | Operation prompting method, device, terminal and storage medium | |
RU2787649C1 (en) | Method and device for control of operations, electronic device, and data carrier | |
JP7413563B2 (en) | Virtual object control method, device, equipment and computer program | |
JP7471369B2 (en) | Method for selecting accessories in a virtual environment, and device, equipment, and computer program therefor | |
US20240123342A1 (en) | Method, apparatus, device, and storage medium for perspective rotation | |
CN113633976A (en) | Operation control method, device, equipment and computer readable storage medium | |
CN114011073A (en) | Method, device and equipment for controlling vehicle and computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210528 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7231737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |