JP7231737B2 - Motion control method, device, electronic device and program - Google Patents

Motion control method, device, electronic device and program Download PDF

Info

Publication number
JP7231737B2
JP7231737B2 JP2021531040A JP2021531040A JP7231737B2 JP 7231737 B2 JP7231737 B2 JP 7231737B2 JP 2021531040 A JP2021531040 A JP 2021531040A JP 2021531040 A JP2021531040 A JP 2021531040A JP 7231737 B2 JP7231737 B2 JP 7231737B2
Authority
JP
Japan
Prior art keywords
target
function
display mode
shooting
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021531040A
Other languages
Japanese (ja)
Other versions
JP2022509295A (en
Inventor
槿 ▲楊▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022509295A publication Critical patent/JP2022509295A/en
Application granted granted Critical
Publication of JP7231737B2 publication Critical patent/JP7231737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons

Description

本願は、2019年04月11日に中国特許庁へ提出された、出願番号が201910290727.0であり、出願名称が「動作制御方法、装置、電子機器および記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は本願に引用にて結合される。 This application takes precedence over a Chinese patent application with application number 201910290727.0 and titled "Motion Control Method, Apparatus, Electronic Equipment and Storage Medium" filed with the Chinese Patent Office on April 11, 2019. claims, the entire contents of which are incorporated herein by reference.

本願は、コンピュータ技術分野に関し、特に、動作制御方法、装置、電子機器および記憶媒体に関する。 TECHNICAL FIELD The present application relates to the field of computer technology, and more particularly to motion control methods, devices, electronic devices and storage media.

コンピュータ技術の発達および端末機能の多様化に伴い、端末で射撃ゲームをプレイできることなど、端末でプレイできるゲームの種類はますます増えている。 With the development of computer technology and the diversification of terminal functions, the types of games that can be played on terminals, such as shooting games, are increasing more and more.

現在、ゲームに対応する動作制御方法では、通常、ユーザによる動作に応じて対応する機能が実現される。例えば、攻撃動作を受信すると、攻撃するように仮想オブジェクトを制御する。しかしながら、動作プロセスが煩雑で複雑であり、動作制御効率が低い場合が多いため、上記の煩雑で複雑な動作や低効率の問題を解決するための動作制御方法が急務となっている。 At present, in motion control methods corresponding to games, the corresponding functions are usually realized according to the motions made by the user. For example, upon receiving an attack motion, control the virtual object to attack. However, the operation process is cumbersome and complicated, and the efficiency of operation control is often low. Therefore, there is an urgent need for an operation control method to solve the problems of complicated and complicated operation and low efficiency.

本願による各実施例は、動作制御方法、装置、電子機器および記憶媒体を提供する。 Each embodiment according to the present application provides an operation control method, an apparatus, an electronic device and a storage medium.

1側面において、電子機器が実行する動作制御方法であって、
グラフィカルユーザインターフェースにターゲットボタンを表示するステップであって、前記ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する、ステップと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定するステップと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む
動作制御方法を提供する。
In one aspect, an operation control method performed by an electronic device, comprising:
displaying a target button on a graphical user interface, said target button corresponding to a display mode switching function and a shooting function;
When a touch operation to the target button is detected, the target function to be triggered among the display mode switching function and the shooting function and the target function are selected according to the type of the virtual item controlled by the current virtual object. determining a corresponding target mode;
executing the target function on the graphical user interface based on the target mode.

1側面において、電子機器が実行する動作制御方法であって、
グラフィカルユーザインターフェースにターゲットボタンを表示するステップであって、前記ターゲットボタンは複数の制御機能に対応し、前記複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む、ステップと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別、前記現在の仮想オブジェクトの移動状態または前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、前記複数の制御機能のうちのトリガー対象のターゲット機能および前記ターゲット機能に対応するターゲットモードを決定するステップと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む
動作制御方法を提供する。
In one aspect, an operation control method performed by an electronic device, comprising:
displaying a target button on a graphical user interface, said target button corresponding to a plurality of control functions, said plurality of control functions being among a display mode switching function, a shooting function, a motion control function and a viewing angle adjustment function. a step comprising at least two of
when a touch motion on the target button is detected, at least a type of virtual item controlled by a current virtual object, a moving state of the current virtual object, or an environment within a virtual scene of the current virtual object. determining, according to one, a target function to be triggered among the plurality of control functions and a target mode corresponding to the target function;
executing the target function on the graphical user interface based on the target mode.

1側面において、
表示モード切り替え機能および射撃機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する決定モジュールと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える
動作制御装置を提供する。
In one aspect,
a display module for displaying a target button corresponding to a display mode switching function and a shooting function on a graphical user interface;
When a touch operation to the target button is detected, the target function to be triggered among the display mode switching function and the shooting function and the target function are selected according to the type of the virtual item controlled by the current virtual object. a determination module that determines the corresponding target mode;
an execution module for executing the target function at the graphical user interface based on the target mode.

1側面において、
複数の制御機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールであって、前記複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含むものである表示モジュールと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、前記複数の制御機能のうちのトリガー対象のターゲット機能および前記ターゲット機能に対応するターゲットモードを決定する決定モジュールと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える
動作制御装置を提供する。
In one aspect,
A display module for displaying target buttons corresponding to a plurality of control functions on a graphical user interface, the plurality of control functions being at least two of a display mode switching function, a shooting function, a motion control function and a viewing angle adjustment function. a display module comprising:
when a touch action on the target button is detected, at least a type of virtual item controlled by a current virtual object, a moving state of the current virtual object, and an environment within a virtual scene of the current virtual object. a determining module, according to one, for determining a target function to trigger among the plurality of control functions and a target mode corresponding to the target function;
an execution module for executing the target function at the graphical user interface based on the target mode.

1側面において、メモリとプロセッサを備える電子機器であって、
前記メモリにはコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令が前記プロセッサによって実行されると、前記プロセッサに上記の動作制御方法のステップを実行させる
電子機器を提供する。
In one aspect, an electronic device comprising a memory and a processor, comprising:
An electronic device is provided in which computer readable instructions are stored in the memory and, when the computer readable instructions are executed by the processor, cause the processor to perform the steps of the above operational control method.

1側面において、コンピュータ読み取り可能な命令が記憶されている1つまたは複数の不揮発性記憶媒体であって、
前記コンピュータ読み取り可能な命令が1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、上記の動作制御方法のステップを実行させる
不揮発性記憶媒体を提供する。
In one aspect, one or more non-volatile storage media having computer readable instructions stored thereon, comprising:
A non-volatile storage medium is provided wherein the computer readable instructions, when executed by one or more processors, cause the one or more processors to perform the steps of the operational control method described above.

本願の1つまたは複数の実施例の詳細は、以下の図面および説明に記載されている。本願の他の特徴、目的および利点は、明細書、図面および特許請求の範囲から明らかになるであろう。 The details of one or more implementations of the application are set forth in the drawings and description below. Other features, objects and advantages of the present application will become apparent from the specification, drawings and claims.

以下、本願の実施例における技術態様をより明確に説明するために、実施例の説明に必要な図面を簡単に記述する。明らかに、以下の説明の図面は、本願のいくつかの実施例にすぎず、当業者のとっては、これらの図面に基づいて、創造的な作業なしに他の図面を取得することができる。 In the following, in order to more clearly describe the technical aspects of the embodiments of the present application, the drawings necessary for describing the embodiments will be briefly described. Obviously, the drawings in the following description are just some embodiments of the present application, and those skilled in the art can obtain other drawings based on these drawings without creative work. .

本願実施例による仮想シーンの表示モードの概略図である。FIG. 4 is a schematic diagram of a display mode of a virtual scene according to an embodiment of the present application; 本願実施例による仮想シーンの表示モードの概略図である。FIG. 4 is a schematic diagram of a display mode of a virtual scene according to an embodiment of the present application; 本願実施例による動作制御方法のフローチャートである。4 is a flow chart of an operation control method according to an embodiment of the present application; 本願実施例によるターゲットボタンの表示インターフェースの概略図である。FIG. 4 is a schematic diagram of a target button display interface according to an embodiment of the present application; 本願実施例による構成インターフェースの概略図である。FIG. 4 is a schematic diagram of a configuration interface according to an embodiment of the present application; 本願実施例による機能構成インターフェースの概略図である。FIG. 4 is a schematic diagram of a functional configuration interface according to an embodiment of the present application; 本願実施例による仮想アイテムの種別が第1種別である場合にターゲット機能の実行中におけるインターフェースの概略図である。FIG. 4 is a schematic diagram of an interface during execution of a target function when the type of virtual item is the first type according to an embodiment of the present application; 本願実施例による仮想アイテムの種別が第2種別である場合にターゲット機能の実行後のインターフェースの概略図である。FIG. 4 is a schematic diagram of an interface after execution of a target function when the type of virtual item is the second type according to an embodiment of the present application; 本願実施例による仮想アイテムの種別が第3種別である場合にターゲット機能の実行中おけるインターフェースの概略図である。FIG. 5 is a schematic diagram of an interface during execution of a target function when the type of virtual item is the third type according to an embodiment of the present application; 本願実施例による動作制御方法のフローチャートである。4 is a flow chart of an operation control method according to an embodiment of the present application; 本願実施例による動作制御方法のフローチャートである。4 is a flow chart of an operation control method according to an embodiment of the present application; 本願実施例による動作制御装置の構造概略図である。1 is a structural schematic diagram of a motion control device according to an embodiment of the present application; FIG. 本願実施例による動作制御装置の構造概略図である。1 is a structural schematic diagram of a motion control device according to an embodiment of the present application; FIG. 本願実施例による端末の構造概略図である。FIG. 4 is a structural schematic diagram of a terminal according to an embodiment of the present application; 本願実施例によるサーバの構造概略図である。FIG. 4 is a structural schematic diagram of a server according to an embodiment of the present application;

以下、本願の目的、技術態様および利点をより明確にするために、本願の実施形態を、添付の図面を参照しながらさらに詳細に説明する。 In order to make the objects, technical aspects and advantages of the present application clearer, the embodiments of the present application will now be described in further detail with reference to the accompanying drawings.

本願実施例は、主に電子ゲームまたはシミュレーショントレーニングシーンに関する。電子ゲームシーンを例にすると、ユーザは、事前に当該端末で動作を行うことができ、当該端末は、ユーザによる動作を検出すると、電子ゲームのゲーム構成ファイルをダウンロードすることができる。当該ゲーム構成ファイルは、当該電子ゲームのアプリケーションプログラム、インターフェース表示データまたは仮想シーンデータ等を含むことができ、これにより、当該ユーザが当該端末で電子ゲームにログインするときに、当該ゲーム構成ファイルを呼び出して、電子ゲームインターフェースをレンダリングして表示することができる。ユーザは、端末でタッチ動作を実行することができ、当該端末はタッチ動作を検出すると、当該タッチ動作に対応するゲームデータを決定し、当該ゲームデータをレンダリングして表示することができ、当該ゲームデータは、仮想シーンデータ、当該仮想シーン内の仮想オブジェクトの挙動データ等を含むことができる。 Embodiments of the present application relate primarily to electronic games or simulation training scenes. Taking the electronic game scene as an example, the user can perform an action on the terminal in advance, and the terminal can download the game configuration file of the electronic game upon detecting the action by the user. The game configuration file can include an application program, interface display data, virtual scene data, etc. of the electronic game, so that the game configuration file can be called when the user logs into the electronic game on the terminal. can be used to render and display an electronic game interface. A user can perform a touch action on a terminal, and when the terminal detects a touch action, the terminal can determine game data corresponding to the touch action, render and display the game data, and display the game data. The data can include virtual scene data, behavior data of virtual objects in the virtual scene, and the like.

本願に係わる仮想シーンは、1つの3次元仮想空間をシミュレートするために用いられてもよく、1つの2次元仮想空間をシミュレートするために用いられてもよい。当該3次元仮想空間または2次元仮想空間は、オープン空間であることができる。当該仮想シーンは、現実における真の環境をシミュレートするために用いられることができ、例えば、当該仮想シーンは、空、陸地、海等を含み、当該陸地は、砂漠、都市等の環境要素を含み、ユーザは、当該仮想シーンで移動するように仮想オブジェクトを制御することができる。ここで、仮想オブジェクトは、ユーザを表すための1つの仮想の仮想キャラクター、またはペット等のユーザに関連付けられた生き物を表すために使用される1つ仮想の仮想キャラクターであることができる。当該仮想キャラクターは、人間または動物などの任意の形態であることができ、本願はこれに限定されない。 A virtual scene according to the present application may be used to simulate one 3D virtual space, or may be used to simulate one 2D virtual space. The three-dimensional virtual space or two-dimensional virtual space can be an open space. The virtual scene can be used to simulate a true environment in reality, for example, the virtual scene includes the sky, land, sea, etc., and the land includes environmental elements such as deserts, cities, etc. Including, the user can control the virtual object to move in the virtual scene. Here, the virtual object can be a virtual virtual character to represent the user or a virtual virtual character used to represent a creature associated with the user, such as a pet. The virtual character can be of any form, such as human or animal, and the application is not so limited.

当該仮想シーンには、さらに他の仮想オブジェクトを含むことができる。即ち、当該仮想シーンは、複数の仮想オブジェクトを含むことができ、各仮想オブジェクトは、仮想シーンにおいて独自の形状および体積を有し、仮想シーンにおける空間の一部を占める。シューティングゲームを例にすると、ユーザは仮想オブジェクトを制御して、自由落下、滑空、またはパラシュートを開くことで当該仮想シーンの空中で降下したり、陸地で走ったり、ジャンプしたり、這ったり、前に腰を曲げて進んだりすることができる。仮想オブジェクトを制御して海で泳いだり、浮いたり、ダイビングしたりすることもできる。もちろん、ユーザは仮想オブジェクトを制御して、乗り物に乗って当該仮想シーン内で移動させることもでき、ここでは、上記のシーンのみを例にして説明し、本願実施例はこれに限定されない。ユーザはさらに、仮想アイテムを使用して他の仮想オブジェクトと戦うように仮想オブジェクトを制御することができる。当該仮想アイテムは、冷兵器またはホットウェポンであることができ、本願実施例では特に限定されない。 The virtual scene can further include other virtual objects. That is, the virtual scene can include multiple virtual objects, each virtual object having its own shape and volume in the virtual scene and occupying a portion of space in the virtual scene. Taking a shooting game as an example, a user can control a virtual object to free-fall, glide, or open a parachute to descend in the air of the virtual scene, run, jump, crawl, or move forward. You can bend over and go forward. You can also control virtual objects to swim, float, and dive in the ocean. Of course, the user can also control the virtual object to ride a vehicle and move it within the virtual scene, and only the above scene will be described here as an example, and the embodiments of the present application are not limited thereto. The user can further control virtual objects to fight other virtual objects using virtual items. The virtual item can be a cold weapon or a hot weapon, and is not particularly limited in this embodiment.

通常、端末スクリーンには、現在の端末で制御される仮想オブジェクトの視角画面が表示され、当該端末スクリーンには、当該現在の端末によって制御される仮想オブジェクトの照準点を表示することもできる。当該照準点は、現在の端末で制御される仮想オブジェクトの視角画面における照準ターゲットを表記するために用いられることができ、当該仮想シーンにおける当該照準点の位置は、現在の端末によって制御される仮想オブジェクトの攻撃ポイントとして使用できる。 Usually, the terminal screen displays the viewing angle screen of the virtual object controlled by the current terminal, and the terminal screen can also display the aiming point of the virtual object controlled by the current terminal. The aiming point can be used to represent the aiming target in the viewing angle screen of the virtual object controlled by the current terminal, and the position of the aiming point in the virtual scene is the virtual object controlled by the current terminal. Can be used as attack points for objects.

具体的には、当該照準点は、当該端末スクリーンの中心位置に表示することができる。もちろん、当該照準点は、他の位置に表示することもでき、本願実施例では特に限定されない。当該照準点の表示パターンは、複数の種類があるため、照準点の表示パターンはシステムデフォルトで表示されてもよく、ユーザの設定に応じて調整されてもよい。ユーザは、端末に表示された照準点を見ると、現在の照準点に対応する仮想シーンでの位置が照準しようとする領域であるかを判断でき、その領域でなければ、ユーザは視角調整動作により仮想シーンの視角を調整して、当該照準点の照準する領域を調整できる。もちろん、ユーザは、通常照準点を仮想シーン内の他の仮想オブジェクトの本体にすばやく且つ正確に調整して、それにより、他の当該仮想オブジェクトを射撃、平手打ちまたはボクシング等を行うことができる。 Specifically, the aiming point can be displayed at the center position of the terminal screen. Of course, the aiming point can be displayed at other positions, and is not particularly limited in the embodiments of the present application. Since there are a plurality of types of display patterns for the aiming point, the display pattern for the aiming point may be displayed as a system default, or may be adjusted according to user settings. By looking at the aiming point displayed on the terminal, the user can determine whether or not the position in the virtual scene corresponding to the current aiming point is the area to be aimed at. can adjust the viewing angle of the virtual scene to adjust the aiming area of the aiming point. Of course, the user can usually quickly and accurately adjust the aiming point to the body of another virtual object in the virtual scene, thereby shooting, slapping, boxing, etc. at that other virtual object.

当該視角調整動作は、複数の種類の動作モードを含むことができる。一可能な実現形態において、当該視角調整動作は、スライド動作であることができ、端末が、当該スライド動作が検出された場合、当該スライド動作のスライド方向、スライド距離およびスライド速度に基づいて、当該スライド動作に対応する視角の回動方向、回動角度および回動速度を決定することができる。例えば、当該スライド動作のスライド方向は、視角の回動方向に対応し、当該スライド動作のスライド距離の大きさは視角の回動角度と正の相関があることができる。もちろん、当該スライド動作のスライド速度も当該視角の回動速度と正の相関があることができる。 The viewing angle adjustment operation can include multiple types of operation modes. In one possible implementation, the viewing angle adjusting operation can be a sliding operation, and when the sliding operation is detected, the terminal can determine the viewing angle according to the sliding direction, sliding distance and sliding speed of the sliding operation. The rotation direction, rotation angle and rotation speed of the viewing angle corresponding to the sliding motion can be determined. For example, the slide direction of the slide motion corresponds to the rotation direction of the viewing angle, and the magnitude of the slide distance of the slide motion can be positively correlated with the rotation angle of the viewing angle. Of course, the sliding speed of the sliding motion may also have a positive correlation with the rotation speed of the viewing angle.

別の可能な実現形態において、当該視角調整動作はさらに、端末に対する回動動作であることができる。当該端末内の角速度センサ(ジャイロスコープなど)によって当該回動動作が検出された場合、当該回動動作の回動方向、回動角度および回動速度にしたがって、視角の回動方向、回動角度および回動速度を決定することができる。例えば、当該回動動作の回動方向は、視角の回動方向であることができ、当該回動動作の回動角度は、当該視角の回動角度と正の相関があることができ、当該回動動作の回動速度は、当該視角の回動速度と正の相関があることができる。もちろん、当該視角調整動作は、キー動作、仮想ジョイスティック領域のドラッグ動作、または真のジョイスティック機器のトグル動作等であることができ、本発明は特に限定しない。 In another possible implementation, the viewing angle adjustment motion can also be a pivoting motion with respect to the terminal. When the rotation motion is detected by an angular velocity sensor (gyroscope, etc.) in the terminal, the rotation direction and rotation angle of the viewing angle are determined according to the rotation direction, rotation angle, and rotation speed of the rotation motion. and rotation speed can be determined. For example, the rotation direction of the rotation motion can be the rotation direction of the viewing angle, and the rotation angle of the rotation motion can be positively correlated with the rotation angle of the viewing angle. The rotation speed of the rotation motion can have a positive correlation with the rotation speed of the viewing angle. Of course, the viewing angle adjusting operation can be a key operation, a virtual joystick region dragging operation, a true joystick device toggling operation, etc., and the present invention is not particularly limited.

もちろん、当該視角調整動作は、さらにジェスチャ動作などの他の方式を含むことができ、本願実施例はこれを限定しない。ユーザが仮想オブジェクトを制御する場合、上記のいくつかの視角調整動作の組み合わせによって異なる制御効果を実現することもでき、例えば、当該ユーザの視角に対する視角調整動作がスライド動作であるが、当該スライド動作時、端末が当該スライド動作中の動作の押し付け力を検出し、当該押し付け力が特定の押し付け力より大きいか否かに基づいて、射撃等を実行するか否かを決定する。上記は、例示的な説明に過ぎず、具体的な実施において、上記のいくつかの視角調整動作の組み合わせ方法や、どのような制御効果をもたらすかなどは、本発明では特に限定しない。 Of course, the viewing angle adjustment operation can also include other methods such as gesture operation, and the embodiments of the present application are not limited thereto. When a user controls a virtual object, different control effects can be achieved by combining several of the above viewing angle adjustment actions. Then, the terminal detects the pressing force during the sliding motion, and determines whether to shoot or not according to whether the pressing force is greater than a specific pressing force. The above is merely an exemplary description, and in a specific implementation, the present invention does not particularly limit the method of combining the several viewing angle adjustment operations described above, or what kind of control effect is produced.

上記の電子ゲームシーンでは、仮想オブジェクトが通常に、仮想アイテムを制御して他の仮想オブジェクトと戦うようにする。一部の銃器アイテムには、照準器が装備されることもできるため、照準器に基づいて仮想シーンを観察してもよい。当該照準器は、機械的な照準器であることができ、機械的な照準器は、銃器アイテムに本来装備されていた観測機器を意味する。当該照準器は、後で当該銃器アイテムに装備したスコープなどの照準器であることができる。ここで、当該スコープは、倍率を有することができ、当該倍率は、1または1より大きい値であることができる。例えば、当該スコープは、レッドドットスコープ、ホログラフィックスコープ、2倍スコープ、4倍スコープ、8倍スコープ等などであることができる。ここで、レッドドットスコープおよびホログラフィックスコープの倍率が1であるが、2倍スコープ、4倍スコープおよび8倍スコープの倍率は1より大きい。もちろん、当該スコープの倍率は、他の数値であってもよく、例えば、当該スコープは、3倍レンズ、6倍レンズ、15倍レンズ等であることができる。本願実施例は、当該スコープの倍率を限定しない。 In the electronic game scene described above, virtual objects typically control virtual items to fight other virtual objects. Some firearm items may also be equipped with sights, so the virtual scene may be observed based on the sights. The sight can be a mechanical sight, meaning a sighting device originally equipped with the firearm item. The sight can be a sight, such as a scope later mounted on the firearm item. Here, the scope can have a magnification, and the magnification can be one or a value greater than one. For example, the scope can be a red dot scope, a holographic scope, a 2x scope, a 4x scope, an 8x scope, and the like. Here, the red dot scope and the holographic scope have a magnification of 1, while the 2x, 4x and 8x scopes have a magnification greater than one. Of course, the magnification of the scope can be other values, for example, the scope can be a 3x lens, a 6x lens, a 15x lens, and so on. The embodiments of the present application do not limit the magnification of the scope.

一般的に、当該照準器は、仮想オブジェクトの照準と射撃を支援するためのものであるため、仮想オブジェクトが仮想アイテムを制御して照準または射撃を行う場合、仮想シーンの表示モードを照準器に基づく表示モードに切り替え、このようにして敵の仮想オブジェクトをより正確に照準して射撃することができる。例えば、図1に示すように、仮想シーンは、照準器に基づく表示モードではなく、第1表示モードになっている。図2に示すように、ユーザが仮想シーンに現れた他の仮想オブジェクトを正確に射撃するように仮想オブジェクトを制御するためには、仮想シーンの表示モードを照準器に基づく表示モードに切り替え、仮想オブジェクトによって制御される仮想アイテムでの照準器を介して仮想シーンを観察することができる。 In general, the sighting device is for supporting aiming and shooting of the virtual object. Therefore, when the virtual object controls the virtual item for aiming or shooting, the display mode of the virtual scene is set to the sighting device. based display mode, and in this way can aim and shoot at enemy virtual objects more accurately. For example, as shown in FIG. 1, the virtual scene is in a first display mode rather than a sight-based display mode. As shown in FIG. 2, in order for the user to control the virtual objects to accurately shoot other virtual objects appearing in the virtual scene, the display mode of the virtual scene is switched to a sight-based display mode, and the virtual A virtual scene can be viewed through a sight on a virtual item controlled by an object.

図3は、本願実施例による動作制御方法のフローチャートである。当該方法は、電子機器に適用することができ、当該電子機器は、端末またはサーバとして提供することができ、本願実施例はこれに限定されない。以下の実施例では、当該動作制御方法が端末によって実行されることを例にして説明する。図3を参照すると、当該方法は、次のステップ301~308を含むことができる。 FIG. 3 is a flow chart of an operation control method according to an embodiment of the present application. The method can be applied to an electronic device, and the electronic device can be provided as a terminal or a server, and embodiments of the present application are not limited thereto. In the following embodiments, an example in which the operation control method is executed by a terminal will be described. Referring to FIG. 3, the method can include the following steps 301-308.

ステップ301において、端末が、グラフィカルユーザインターフェースにターゲットボタンを表示し、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する。 In step 301, the terminal displays a target button on the graphical user interface, which corresponds to the display mode switching function and the shooting function.

本願実施例において、端末は、動作制御機能を提供することができ、ターゲットボタンを提供することができる。当該ターゲットボタンは、複数の種類の制御機能に対応し、ユーザは、ターゲットボタンに対して一回のタッチ動作を実行することで、複数の種類の制御機能を実現することができる。具体的には、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応することができる。 In an embodiment of the present application, the terminal can provide motion control functions and can provide target buttons. The target button corresponds to multiple types of control functions, and the user can achieve multiple types of control functions by performing a single touch operation on the target button. Specifically, the target button can correspond to a display mode switching function and a shooting function.

ここで、端末による当該ターゲットボタンの方法は、端末がグラフィカルユーザインターフェースにターゲットボタンを表示することで、ユーザが当該ターゲットボタンに対してタッチ動作を行うものであることができる。具体的には、当該端末は、ターゲットボタンを表示する際、次のステップ1ないし3のうちの少なくとも1つのステップによって実現することができる。 Here, the method of the target button by the terminal can be such that the terminal displays the target button on the graphical user interface, and the user performs a touch operation on the target button. Specifically, when the terminal displays the target button, it can be realized by at least one of the following steps 1 to 3.

ステップ1において、端末がグラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示する。 In step 1, the terminal displays the target button at the target position in the graphical user interface.

ステップ2において、端末がグラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示する。 In step 2, the terminal displays the target button on the graphical user interface according to the target size.

ステップ3において、端末がグラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。 In step 3, the terminal displays the target button on the graphical user interface according to the target transparency.

即ち、当該ターゲットボタンの表示状況は、少なくとも1つの表示パラメータを含むことができ、当該少なくとも1つの表示パラメータは、表示位置、サイズおよび透明度のうちの少なくとも1つを含むことができる。ここで、当該ターゲットボタンの表示位置はターゲット位置であり、サイズはターゲットサイズであり、透明度はターゲット透明度である。上記の少なくとも1つの表示パラメータの設定により、当該ターゲットボタンの表示状況を実際のニーズに合わせて柔軟に変更することができる。 That is, the display status of the target button may include at least one display parameter, and the at least one display parameter may include at least one of display position, size and transparency. Here, the display position of the target button is the target position, the size is the target size, and the transparency is the target transparency. By setting the at least one display parameter, the display status of the target button can be flexibly changed according to actual needs.

一可能な実現形態において、当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、当業者によって必要に応じて設定され、本願実施例はこれを限定しない。例えば、目標位置は、ユーザが端末を持っているときの端末スクリーンとのユーザの手の接触位置に応じて決定することができ、接触位置のプリセットの範囲内にあることができる。たとえば、ターゲット位置をユーザが容易にクリックする位置に設定して、ユーザ動作の複雑さを軽減する。たとえば、図4に示すように、ターゲットボタン401が配置されているターゲット位置は、グラフィカルユーザインターフェースの右下隅の領域の位置にすることができ、ユーザが端末を持っているとき、指はちょうど当該位置に配置される。当該ターゲットサイズを小さく設定したり、ターゲット透明度を大きく設定したりすることができるため、当該ターゲットボタンによってグラフィカルユーザインターフェースが過度にオクルージョンされることはない。つまり、目標サイズはボタンの通常のサイズよりも小さくすることができ、当該ターゲット透明度は通常の透明度よりも大きくすることができる。ここで、当該ボタンの通常のサイズはボタンの平均サイズであり、当該通常の透明度は、ボタンの一般的なものであり、または当該通常の透明度は0にすることができる。これらは、当業者によって必要に応じて設定されることができ、本願実施例はこれを限定しない。 In one possible implementation, at least one of the target position, target size and target transparency are set as needed by those skilled in the art, and the embodiments are not limited thereto. For example, the target position can be determined according to the contact position of the user's hand with the terminal screen when the user is holding the terminal, and can be within a preset range of contact positions. For example, the target position is set to a position that the user can easily click to reduce the complexity of user actions. For example, as shown in FIG. 4, the target position where the target button 401 is located may be the position of the lower right corner area of the graphical user interface, and when the user is holding the terminal, the finger is just in the relevant position. placed in position. The target size can be set small and the target transparency can be set large so that the target buttons do not overly occlude the graphical user interface. That is, the target size can be smaller than the normal size of the button and the target transparency can be larger than the normal transparency. where the normal size of the button is the average size of the button, and the normal transparency is the normal transparency of the button, or the normal transparency can be 0; These can be set as needed by those skilled in the art, and the embodiments of the present application do not limit this.

当該ターゲットボタンはターゲット提示情報を表示することもでき、当該ターゲット提示情報は、当該ターゲットボタンが表示モード切り替え機能および射撃制御機能を同時に有することを提示するために使用され、例えば、当該ターゲットボタンは照準点と弾丸のパターンを表示できる。このようにして、当該ターゲットボタンが表示モード切り替え機能と射撃制御機能を同時に提供できることを提示することができる。 The target button can also display target presentation information, and the target presentation information is used to indicate that the target button has a display mode switching function and a shooting control function at the same time. Aimpoints and bullet patterns can be displayed. In this way, it can be presented that the target button can simultaneously provide a display mode switching function and a fire control function.

別の可能な実現形態において、当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、さらに、ユーザが自体の使用習慣にしたがってカスタマイズすることができる。具体的には、端末は、構成インターフェースを提供でき、ユーザは、当該ターゲットボタンの表示状況を変更するために、当該構成インターフェースでカスタマイズすることができる。当該表示状況の設定プロセスは、次のステップ1ないし3のうちの少なくとも1つのステップによって実現される。 In another possible implementation, at least one of the target position, target size and target transparency can be further customized by the user according to his usage habits. Specifically, the terminal can provide a configuration interface, and the user can customize the configuration interface to change the display status of the target button. The display state setting process is realized by at least one of steps 1 to 3 below.

ステップ1において、端末は、構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得する。 In step 1, the terminal acquires the alignment information of the target button according to the configuration interface, and acquires the target position of the target button according to the alignment information.

ステップ2において、端末は、構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得する。 In step 2, the terminal acquires the size adjustment information of the target button according to the configuration interface, and acquires the target size of the target button according to the size adjustment information.

ステップ3において、端末は、構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。 In step 3, the terminal acquires the transparency adjustment information of the target button according to the configuration interface, and acquires the target transparency of the target button according to the transparency adjustment information.

例えば、図5に示すように、当該構成インターフェースには、当該ターゲットボタンの表示パラメータ調整オプションが提供され、当該表示パラメータ調整オプションは、ボタンサイズ(サイズ)、透明度および当該ターゲットボタンである。ユーザは、当該表示パラメータ調整オプションに対して動作し、端末は、動作にしたがって、対応する調整情報を取得し、それにより、調整情報に基づき、ターゲットボタンの表示パラメータを調整することができる。具体的には、ユーザは、当該ボタンサイズの調整バーを調整することができ、端末は、当該調整バーに対するユーザの調整動作に基づき、表示された当該ターゲットボタンのサイズを調整して、調整プレビュー効果を提供することができる。例えば、図5に示す「179%」は、ターゲットボタンのサイズがデフォルトサイズの179%であることを示す。同様に、ユーザは透明度調整バーに対して調整動作を実行することもできる。例えば、図5に示す「100%」は、ターゲットボタンの透明度が100%であることを示す。ユーザが当該ターゲットボタンのターゲット位置を調整する場合、当該ターゲットボタンをドラッグする動作により実現でき、端末は当該ターゲットボタンに対するドラッグ動作により、当該ターゲットボタンの位置を調整することができる。例えば、ドラッグボタンの位置は、ドラッグ動作の位置変化につれて変化される。図5では、点線の位置がターゲットボタンの元の位置であり、ターゲットボタンのドラッグ動作を受信すると、ドラッグ位置の変化につれて、ターゲットボタンは元の位置から始まって、ドラッグ位置とともに移動する。 For example, as shown in FIG. 5, the configuration interface is provided with display parameter adjustment options for the target button, where the display parameter adjustment options are button size (size), transparency and the target button. The user operates on the display parameter adjustment option, and the terminal obtains corresponding adjustment information according to the operation, so that the display parameters of the target button can be adjusted according to the adjustment information. Specifically, the user can adjust the adjustment bar for the button size, and the terminal adjusts the size of the displayed target button based on the user's adjustment operation on the adjustment bar to provide an adjustment preview. effect can be provided. For example, "179%" shown in FIG. 5 indicates that the size of the target button is 179% of the default size. Similarly, the user can also perform adjustment actions on the transparency adjustment bar. For example, "100%" shown in FIG. 5 indicates that the transparency of the target button is 100%. When the user adjusts the target position of the target button, it can be realized by dragging the target button, and the terminal can adjust the position of the target button by dragging the target button. For example, the position of the drag button is changed as the position of the drag operation changes. In FIG. 5, the position of the dotted line is the original position of the target button, and upon receiving the drag operation of the target button, as the drag position changes, the target button starts from the original position and moves with the drag position.

具体的な一可能な実施例において、端末は、当該構成インターフェースに当該ターゲットボタンを表示でき、ユーザは、当該ターゲットボタンに対して選択動作を実行できる。端末が当該ターゲットボタンの選択動作を検出すると、当該ターゲットボタンの表示パラメータ調整オプションを表示することができる。一可能な実現形態において、当該構成インターフェースにはさらに、他のボタンが提供され、それによりユーザが他のボタンの表示パラメータにも設定することができ、本願実施例はこれを限定しない。 In one specific possible embodiment, the terminal can display the target button on the configuration interface, and the user can perform a selection action on the target button. When the terminal detects the selection action of the target button, it can display the display parameter adjustment options of the target button. In one possible implementation, the configuration interface is further provided with other buttons, so that the user can also set the display parameters of other buttons, and the embodiments are not limited to this.

一可能な実現形態において、当該動作制御機能の状態は、オン状態およびオフ状態を含むことができ、ユーザは、当該動作制御機能の状態を設定することにより、端末がその動作制御機能を提供する必要があるか否かを決定することができる。具体的には、構成情報によって動作制御機能がオン状態にあると決定されると、端末は、グラフィカルユーザインターフェースにターゲットボタンを表示する当該ステップを実行することができる。即ち、動作制御機能がオンになっていると決定された場合、端末は動作制御機能を提供して、構成情報にしたがって動作制御機能がオフ状態になっていると決定された場合、端末は、当該ステップ301を実行しなくてもよい。 In one possible implementation, the state of the operation control function can include an on state and an off state, and the user sets the state of the operation control function so that the terminal provides the operation control function. You can decide if you need it or not. Specifically, when the configuration information determines that the motion control function is in the ON state, the terminal can perform the corresponding step of displaying the target button on the graphical user interface. That is, if it is determined that the operation control function is turned on, the terminal provides the operation control function, and if it is determined that the operation control function is turned off according to the configuration information, the terminal: The step 301 may not be executed.

ここで、端末が当該動作制御機能の状態を設定する場合、機能構成インターフェースを介して実現することができる。具体的には、端末は、機能構成インターフェースおよび当該動作制御機能の状態設定動作に基づき、当該動作制御機能の状態を設定し、即ち、機能構成インターフェースに基づき、当該動作制御機能の構成情報を決定して、当該動作制御機能の状態を決定する。当該機能構成インターフェースには、オンオプション、オフオプションなど、当該動作制御機能の状態設定オプションが提供されることができる。ユーザは、当該動作制御機能の状態設定オプションに対してタッチ動作を実行して、当該動作制御機能の状態を変更することができる。例えば、図6に示すように、一具体的な例において、当該ターゲットボタンを「ミラーと発砲ボタンを開くための1つのキー」と呼んでもよく、当該ターゲットボタンの周辺には、オン(「オン」)とオフオプション(「オフ」)が設定されてもよく、ユーザは、当該ターゲットボタンの使用状態を変更し、即ち、当該動作制御機能の状態を変更するために、当該オンまたはオフのオプションに対して選択動作を実行することができる。ユーザがオンオプションを選択すれば、当該動作制御機能はオン状態になり、ユーザがオフオプションを選択すれば、当該動作制御機能がオフ状態になる。 Here, when the terminal sets the state of the operation control function, it can be realized through the function configuration interface. Specifically, the terminal sets the state of the operation control function based on the function configuration interface and the state setting operation of the operation control function, that is, determines the configuration information of the operation control function based on the function configuration interface. to determine the state of the operation control function. The function configuration interface may be provided with state setting options for the operation control function, such as an on option and an off option. A user can perform a touch action on the set state option of the motion control function to change the state of the motion control function. For example, as shown in FIG. 6, in one specific example, the target button may be called "one key to open the mirror and fire button", and around the target button is an on ("on ) and an off option (“off”) may be set, and the user can select the on or off option to change the state of use of the target button, i.e., change the state of the motion control function. A selection operation can be performed on the . If the user selects the on option, the motion control function is turned on, and if the user selects the off option, the motion control function is turned off.

ステップ302において、当該ターゲットボタンのタッチ動作が検出された場合、端末は当該現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得し、当該種別が第1種別であれば、ステップ303およびステップ304を実行し、当該種別が第2種別であれば、ステップ305およびステップ306を実行し、当該種別が第3種別であれば、ステップ307およびステップ308を実行する。 In step 302, if the touch action of the target button is detected, the terminal obtains the type of the virtual item controlled by the current virtual object, if the type is the first type, step 303 and step 304; If the type is the second type, steps 305 and 306 are executed, and if the type is the third type, steps 307 and 308 are executed.

当該グラフィカルユーザインターフェースにターゲットボタンが表示された場合、ユーザは、当該ターゲットボタンに対してタッチ動作を実行することができ、それにより、端末がユーザのタッチ動作に基づき、対応する動作制御機能を提供することができる。本願実施例において、現在の仮想オブジェクトによって制御される仮想アイテムの種別が異なる場合、端末によって提供された動作制御機能も異なることができる。したがって、ステップ302において、端末は、現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得することができ、それにより、当該種別に基づき、提供する必要のある動作制御機能をさらに決定することができる。ここで、当該仮想アイテムの種別は、必要に応じて当業者によって設定されるものであり、当該仮想アイテムの名称によって決定されるものでもある。もちろん、ユーザ自身の使用習慣に応じてユーザによって設定されることもでき、本願実施例はこれを限定しない。 When a target button is displayed on the graphical user interface, the user can perform a touch action on the target button, so that the terminal provides corresponding action control functions based on the user's touch action. can do. In the embodiments of the present application, if the types of virtual items controlled by the current virtual object are different, the motion control functions provided by the terminal may also be different. Therefore, in step 302, the terminal can obtain the type of the virtual item controlled by the current virtual object, thereby further determining the motion control functions it needs to provide based on the type. can. Here, the type of the virtual item is set by a person skilled in the art as necessary, and is also determined by the name of the virtual item. Of course, it can also be set by the user according to his own usage habits, and the embodiments of the present application do not limit this.

本願実施例において、仮想アイテムの種別が第1種別、第2種別および第3種別を含むことができ、当該仮想アイテムの種別が異なる場合、端末は、以下のステップ303ないしステップ308のうちの2つのステップをそれぞれ実行することができる。即ち、当該仮想アイテムの種別が異なる場合、端末は、異なる制御機能を提供でき、提供された制御機能のモードが異なってもよく、当該モードは、タッチ動作に基づいて対応する機能を実行する方法を示すために使用される。ここでは、当該仮想アイテムの種別に3つの種別を含むことを例にして説明する。もちろん、当該仮想アイテムは、第4種別を含むこともでき、当該仮想アイテムの種別が第4種別である場合、端末はさらに、他の動作制御機能を実行することができ、本願実施例は、当該仮想アイテムの種別を限定しない。 In an embodiment of the present application, the types of virtual items can include a first type, a second type and a third type, and if the virtual item types are different, the terminal performs two of steps 303 through 308 below. steps can be performed respectively. That is, if the types of the virtual items are different, the terminal can provide different control functions, and the modes of the provided control functions may be different, and the modes are the methods of performing the corresponding functions based on the touch actions. used to indicate Here, an example in which three types are included in the types of the virtual item will be described. Of course, the virtual item can also include a fourth type, and if the virtual item's type is the fourth type, the terminal can also perform other operation control functions. The type of virtual item is not limited.

ステップ303において、端末は、当該表示モード切り替え機能と当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定する。 In step 303, the terminal determines the display mode switching function and the shooting function as the target functions to be triggered, determines the target display mode switching mode as the target mode corresponding to the display mode switching function, and first shoots mode is determined as the target mode corresponding to the shooting function.

端末が仮想アイテムの種別を取得した後、当該種別が第1種別である場合、端末は、当該ステップ303を実行でき、当該ステップ303で決定されたターゲット機能および対応するターゲットモードに基づいて、以下のステップ304を実行する。当該仮想アイテムの種別が第1種別である場合、端末は、表示モード切り替え機能もトリガーし、射撃機能もトリガーすることを決定できる。仮想シーンの表示モードは、第1表示モードおよび第2表示モードを含むことができる。ここで、第2表示モードは、照準器に基づく表示モードであることができ、第1表示モードは、当該第2表示モード以外の表示モードであることができる。当該表示モード切り替え機能は、当該仮想シーンの表示モードを切り替えることを意味する。 After the terminal obtains the type of the virtual item, if the type is the first type, the terminal can perform the step 303, based on the target function and the corresponding target mode determined in the step 303, the following: , step 304 is executed. If the type of the virtual item is the first type, the terminal may decide to trigger the display mode switching function and also trigger the shooting function. The display modes of the virtual scene can include a first display mode and a second display mode. Here, the second display mode can be a sight-based display mode, and the first display mode can be a display mode other than the second display mode. The display mode switching function means switching the display mode of the virtual scene.

端末は、当該表示モード切り替え機能および射撃機能に対して両方のターゲットモードをそれぞれ決定することができる。端末は、表示モード切り替え機能に対応するターゲットモードがターゲット表示モード切り替えモードであり、射撃機能に対応するターゲットモードが第1射撃モードであると決定する。2つのターゲットモードは、当該タッチ動作の異なる段階で対応するターゲット機能を実行する方法を示すために使用される。ここで、当該タッチ動作は、当該タッチ動作の開始時、タッチ動作の持続期間および当該タッチ動作の終了時の複数の段階を含むことができる。 The terminal can determine both target modes respectively for the display mode switching function and the shooting function. The terminal determines that the target mode corresponding to the display mode switching function is the target display mode switching mode, and the target mode corresponding to the shooting function is the first shooting mode. Two target modes are used to indicate how to perform corresponding target functions at different stages of the touch operation. Here, the touch action may include multiple stages at the start of the touch action, the duration of the touch action, and the end of the touch action.

一可能な実現形態において、当該第1種別の仮想アイテムは、複数の種類の射撃種別を含むことができ、具体的には、当該第1種別の仮想アイテムは、第1射撃種別および第2射撃種別を含むことができる。例えば、一具体的な例において、当該第1射撃種別は、自動射撃種別であることができ、当該第2射撃種別は、シングルショット射撃種別であり得る。もちろん、当該第1種別の仮想アイテムはさらに、射撃モードを含むことができ、例えば、当該第1種別の仮想アイテムが第1射撃種別、即ち、自動射撃種別を含んでもよい。詳細については、以下のステップ304を参照でき、本願実施例について、本文では詳細に説明しない。 In one possible implementation, the first type of virtual item may include multiple types of shooting types, specifically, the first type of virtual item may include a first shooting type and a second shooting type. Can include type. For example, in one specific example, the first shooting type can be an automatic shooting type and the second shooting type can be a single shot shooting type. Of course, the first type of virtual item may also include a shooting mode, for example, the first type of virtual item may include a first shooting type, i.e. an automatic shooting type. For details, refer to step 304 below, and the present embodiment will not be described in detail in the text.

ステップ304において、端末は、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替える。 In step 304, the terminal switches the display mode of the virtual scene from the first display mode to the second display mode when the start of the touch action is detected based on the target display mode switching mode and the first shooting mode. , the shooting function is continuously executed during the duration of the touch action, and when the end of the touch action is detected, the display mode of the virtual scene is switched from the second display mode to the first display mode.

端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。具体的には、当該ターゲット表示モード切り替えモードは、タッチ動作の開始時に仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、タッチ動作の終了時に仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることを示すために使用される。当該第1射撃モードは、タッチ動作の持続期間に射撃機能を継続して実行することを示すために使用される。したがって、端末は、当該ステップ304を実行して、当該表示モード切り替え機能および射撃機能を実現することができる。 After the terminal determines the target function and the corresponding target mode, it can perform the corresponding target function based on the target mode and touch operation. Specifically, in the target display mode switching mode, the display mode of the virtual scene is switched from the first display mode to the second display mode at the start of the touch operation, and the display mode of the virtual scene is switched to the second display at the end of the touch operation. Used to indicate switching from mode to the first display mode. The first shooting mode is used to indicate that the shooting function continues for the duration of the touch action. Therefore, the terminal can perform the step 304 to realize the display mode switching function and the shooting function.

例えば、ここでは、接触制御動を長押し動作として使用する例をとって説明し、当該仮想アイテムが自動射撃種別付きのシューターライフルを例にすると、ユーザは、ターゲットボタンに対して長押し動作を実行でき、当該長押し動作の開始時、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えることができ(照準器に基づく表示モード)、図7に示すように、図7の当該仮想シーンの表示モードが第2表示モードであり、即ち、照準器に基づく表示モードであり、当該長押し動作を持続するプロセスで、端末は、継続して射撃機能を実行でき、ユーザが長押し動作を終了した時、端末は、射撃機能を停止して、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることができる。ここで、表示モードを第1表示モードから第2表示モードに切り替えるプロセスは「ミラーオン」と呼ばれ、表示モードを第2表示モードから第1表示モードに切り替えるプロセスは、「ミラーオフ」と呼ばれる。したがって、当該ステップ304において、端末は、タッチ動作の開始を検出した時にミラーオンして、射撃を継続し、タッチ動作の終了時に射撃を停止しミラーオフする。ユーザは、1つのターゲットボタンを押すだけで「ミラーオン-射撃-ミラーオフ」の動作プロセスを完了することができ、緊急時にユーザの照準射撃の体験を大幅にスピードアップする。 For example, here, an example of using a contact control motion as a long-pressing motion will be described, and if the virtual item is a shooter rifle with an automatic shooting type, the user can perform a long-pressing motion on the target button. at the start of the long press action, the terminal can switch the display mode of the virtual scene from the first display mode to the second display mode (sight-based display mode), as shown in FIG. The display mode of the virtual scene in FIG. 7 is the second display mode, that is, the display mode based on sights, and in the process of continuing the long press action, the terminal can continue to perform the shooting function, When the user finishes the long press action, the terminal can stop the shooting function and switch the display mode of the virtual scene from the second display mode to the first display mode. Here, the process of switching the display mode from the first display mode to the second display mode is called "mirror on", and the process of switching the display mode from the second display mode to the first display mode is called "mirror off". Therefore, in step 304, the terminal turns on the mirror when detecting the start of the touch action, continues shooting, and stops shooting and turns off the mirror when the touch action ends. The user can complete the "mirror on-shoot-mirror off" motion process by pressing one target button, greatly speeding up the user's aiming shooting experience in an emergency.

電子ゲームの場合、緊急な接戦事態で、プレーヤーは、表示モードの切り替えと射撃の両方を完了するための、複数の動作を実行するのに十分な時間がないことがよくある。本願実施例において、ターゲットボタンを一回動作するだけで、表示モードの切り替え(照準)および射撃プロセスを迅速に完了でき、さらに、ボタン動作が簡単で便利なため、プレーヤーのゲーム体験を効果的に向上させることができる。 For electronic games, in an emergency close-quarters situation, the player often does not have enough time to perform multiple actions to both switch display modes and complete shooting. In the embodiment of the present application, a single operation of the target button can quickly complete the display mode switching (aiming) and shooting process, and the button operation is simple and convenient, so that the player's gaming experience can be effectively improved. can be improved.

一可能な実現形態において、当該第1種別の仮想アイテムは、複数の種類の射撃種別を含むことができ、異なる射撃種別である場合、端末が実行する必要のある動作制御機能モードも異なることができる。したがって、当該仮想アイテムの種別が第1種別である場合、端末は、当該仮想アイテムの現在の射撃種別を取得することができ、それにより、当該射撃種別に基づいて、動作制御機能を更に実行する方法を決定する。以下、2つの射撃種別を例として説明する。 In one possible implementation, the virtual item of the first type can contain multiple types of shooting types, and for different shooting types, the operation control function modes that the terminal needs to perform may also be different. can. Therefore, if the type of the virtual item is the first type, the terminal can obtain the current shooting type of the virtual item, thereby further performing motion control functions based on the shooting type. Decide how. Two shooting types will be described below as examples.

当当該射撃種別が第1射撃種別である場合、端末は、上記のステップ303を実行でき、即ち、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定する、ステップを実行する。もちろん、端末は、ステップ304をさらに実行することもできる。ここで、当該第1射撃種別は、当該仮想アイテムが一回動作に基づいて継続して射撃することができることを表示するために使用され、例えば、当該第1射撃種別は、自動射撃種別と呼ばれてもよい。当該仮想アイテムの射撃種別が当該第1射撃種別である場合、端末は、当該ステップ303およびステップ304を実行することができる。 If the shooting type is the first shooting type, the terminal can execute the above step 303, namely, determine the display mode switching function and the shooting function as the triggering target function, and switch the target display mode. determining a mode as the target mode corresponding to the display mode switching function, and determining a first shooting mode as the target mode corresponding to the shooting function; Of course, the terminal can also perform step 304 further. Here, the first shooting type is used to indicate that the virtual item can continuously shoot based on a single action, for example, the first shooting type is called an automatic shooting type. may be If the shooting type of the virtual item is the first shooting type, the terminal can perform steps 303 and 304 .

当当該射撃種別が第2射撃種別である場合、端末は、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定することができる。ここで、第2射撃種別は、当該仮想アイテムが一回動作に基づいて射撃を一回行うことを示すために使用される。例えば、第2射撃種別は、シングルショット射撃種別と呼ばれてもよい。当該仮想アイテムの射撃種別が第2射撃種別である場合、当該仮想アイテムは、タッチ動作の持続期間に継続して射撃することができなく、上記のステップ303とは、射撃機能に対応するターゲットモードが第2射撃モードであることを端末によって決定されることができる方面で異なっている。それにより、ステップ304において、端末は、射撃機能を実行する状況も異なり、タッチ動作の開始時にミラーオンして、タッチ動作の終了時に射撃し、ミラーオフすることができる。 If the shooting type is the second shooting type, the terminal determines the display mode switching function and the shooting function as the trigger target target function, and makes the target display mode switching mode correspond to the display mode switching function. A target mode can be determined, and a second shooting mode can be determined as a target mode corresponding to the shooting function. Here, the second shooting type is used to indicate that the virtual item shoots once based on the one-time action. For example, the second shooting type may be referred to as the single-shot shooting type. If the shooting type of the virtual item is the second shooting type, the virtual item cannot be shot continuously during the duration of the touch action, and the above step 303 is the target mode corresponding to the shooting function. are different in that they can be determined by the terminal to be in the second firing mode. Accordingly, in step 304, the terminal can perform the shooting function in different situations, mirror on at the beginning of the touch action, and shoot and mirror off at the end of the touch action.

もちろん、別の可能な実現形態も考えられる。当該端末は、当該仮想アイテムの射撃種別を取得しなくて、当該射撃種別が第1射撃種別または第2射撃種別である場合にいずれも当該ステップ303およびステップ304を実行する。即ち、仮想アイテムの射撃種別を射撃モードの基準要素として使用しなく、本願実施例は、どの方式を具体的に採用するかを限定しない。 Of course, other possible implementations are also conceivable. If the terminal does not acquire the shooting type of the virtual item and the shooting type is the first shooting type or the second shooting type, both the steps 303 and 304 are executed. That is, the shooting type of the virtual item is not used as a reference factor for the shooting mode, and the embodiments of the present application do not limit which method is specifically adopted.

上記のステップ303およびステップ304は、仮想アイテムの種別が第1種別である場合に、端末が実行する必要がある動作制御のステップである。当該種別が第2種別である場合、端末は、以下のステップ305およびステップ306を実行でき、当該種別が第3種別である場合、端末は、以下のステップ307およびステップ308を実行することができる。 The above steps 303 and 304 are operation control steps that the terminal needs to execute when the virtual item type is the first type. If the type is the second type, the terminal may perform steps 305 and 306 below, and if the type is the third type, the terminal may perform steps 307 and 308 below. .

ステップ305において、端末は、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。 In step 305, the terminal determines the display mode switching function and the shooting function as the target functions to be triggered, determines the target display mode switching mode as the target mode corresponding to the display mode switching function, and performs a second shooting. mode is determined as the target mode corresponding to the shooting function.

上記のステップ302の後に、端末は、仮想アイテムの種別を取得した後、当該種別が第2種別である場合、端末は、当該ステップ305を実行し、当該ステップ305で決定されたターゲット機能および対応するターゲットモードに基づいて、以下のステップ306を実行することができる。 After step 302 above, the terminal acquires the type of the virtual item, and if the type is the second type, the terminal executes step 305, and Based on the target mode to be used, step 306 below can be performed.

当該仮想アイテムの種別が第2種別である場合、端末は、表示モード切り替え機能もトリガーし、射撃機能もトリガーすることを決定する。当該表示モード切り替え機能および射撃機能について、端末はさらに、両方のターゲットモードをそれぞれ決定することもできる。端末は、表示モード切り替え機能に対応するターゲットモードがターゲット表示モード切り替えモードであることを決定し、射撃機能に対応するターゲットモードが第2射撃モードであることを決定する。両方のターゲットモードは、当該タッチ動作の異なる段階で対応するターゲット機能を実行する方法を示すために使用される。 If the type of the virtual item is the second type, the terminal determines to trigger the display mode switching function and also trigger the shooting function. For the display mode switching function and the shooting function, the terminal can also determine both target modes respectively. The terminal determines that the target mode corresponding to the display mode switching function is the target display mode switching mode, and determines that the target mode corresponding to the shooting function is the second shooting mode. Both target modes are used to indicate how to perform corresponding target functions at different stages of the touch operation.

一可能な実現形態において、当該第2種別の仮想アイテムは、第2射撃モードを含むことができ、当該第2射撃モードは、当該仮想アイテムが一回動作に基づいて射撃を一回実行することを示すために使用される。このように、当該第2種別の仮想アイテムの第2射撃モードは、上記のステップ304における第1種別の仮想アイテムが第2射撃種別である場合の第2射撃モードと同様である。本文ではシングルショット射撃種別と呼ばれる。 In one possible implementation, the second type of virtual item may include a second shooting mode, wherein the second shooting mode is that the virtual item performs a shot based on a single motion. used to indicate Thus, the second shooting mode for the second type virtual item is similar to the second shooting mode for the first type virtual item of the second shooting type in step 304 above. Referred to in the text as the single-shot fire type.

ステップ306において、端末は、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替える。 In step 306, the terminal switches the display mode of the virtual scene from the first display mode to the second display mode when the start of the touch action is detected based on the target display mode switching mode and the second shooting mode. , when the end of the touch action is detected, the shooting function is executed, and the display mode of the virtual scene is switched from the second display mode to the first display mode.

端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。具体的には、当該ターゲット表示モード切り替えモードは、上記のステップ304と同様に、当該第2射撃モードは、当該タッチ動作の終了時に射撃機能を実行することを示すために使用される。したがって、端末が当該ステップ306を実行して、当該表示モード切り替え機能および射撃機能を実現する。 After the terminal determines the target function and the corresponding target mode, it can perform the corresponding target function based on the target mode and touch operation. Specifically, the target display mode switching mode, similar to step 304 above, is used to indicate that the second shooting mode will perform a shooting function at the end of the touch action. Therefore, the terminal executes the step 306 to realize the display mode switching function and the shooting function.

例えば、本文で接触制御動を長押し動作として使用する例をとって説明する。仮想オブジェクトによって制御される仮想アイテムがスナイパーライフルであることを例として、ユーザは、ターゲットボタンに対して長押し動作を実行し、当該長押し動作の開始時に、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えることができ(照準器に基づく表示モード)、ユーザが長押し動作を終了した場合、端末は、射撃機能を停止し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることができる。ここで、表示モードを照準器に基づく表示モードに切り替えるプロセスを「ミラーオン」と呼び、表示モードを照準器に基づく表示モードから第1表示モードに切り替えるプロセスを「ミラーオフ」と呼ぶ。図8に示すように、当該ステップ306において、端末は、タッチ動作の開始を検出した時にミラーオンし、タッチ動作の終了時に射撃し、ミラーオフする。図8には、タッチ動作の終了時のミラーオフ後の仮想シーンのみを示し、他のプロセスは示していない。ここで、当該仮想シーンの表示モードは照準器に基づく表示モードであることは、図7を参照すればよい。 For example, an example in which the touch control motion is used as a long press motion will be described in the text. Taking the virtual item controlled by the virtual object as an example of a sniper rifle, the user performs a long press action on the target button, and at the start of the long press action, the terminal changes the display mode of the virtual scene. The first display mode can be switched to the second display mode (aim-based display mode), and when the user finishes the long press action, the terminal stops the shooting function and switches the virtual scene display mode to the second display mode. A display mode can be switched to a first display mode. Here, the process of switching the display mode to the sight-based display mode is called "mirror on", and the process of switching the display mode from the sight-based display mode to the first display mode is called "mirror off". As shown in FIG. 8, in this step 306, the terminal turns on the mirror when detecting the start of the touch action, and shoots and turns off the mirror when the touch action ends. FIG. 8 only shows the virtual scene after the mirror is turned off at the end of the touch operation, and does not show other processes. Here, referring to FIG. 7, the display mode of the virtual scene is a display mode based on a sighting device.

上記のステップ305およびステップ306は、仮想アイテムの種別が第2種別である場合に端末が実行する必要のある動作制御のステップであり、当該種別が第3種別である場合、端末は、以下のステップ307およびステップ308を実行することができる。 The above steps 305 and 306 are operation control steps that the terminal needs to execute when the virtual item type is the second type, and when the type is the third type, the terminal performs the following Steps 307 and 308 can be performed.

ステップ307において、端末は、当該射撃機能を当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。 In step 307, the terminal determines the shooting function as the target function to be triggered, and determines the third shooting mode as the target mode corresponding to the shooting function.

上記のステップ302の後、端末が仮想アイテムの種別を取得した後、当該種別が第3種別である場合、端末は、当該ステップ307を実行し、当該ステップ307によって決定されたターゲット機能および対応するターゲットモードに基づき、以下のステップ308を実行することができる。 After the above step 302, after the terminal obtains the type of the virtual item, if the type is the third type, the terminal performs the step 307, the target function determined by the step 307 and the corresponding Based on the target mode, step 308 below can be performed.

当該仮想アイテムの種別が第3種別である場合、端末は、射撃機能をトリガーするが、表示モード切り替え機能をトリガーしなくてもよい。したがって、端末はさらに、当該射撃機能のターゲットモード、即ち、第3射撃モードを決定することができる。当該第3射撃モードは、当該タッチ動作のどの段階で当該射撃機能を実行するかを示すために使用される。 If the type of the virtual item is the third type, the terminal may trigger the shooting function but not the display mode switching function. Therefore, the terminal can further determine the target mode of the shooting function, namely the third shooting mode. The third shooting mode is used to indicate at what stage of the touch action the shooting function is performed.

ステップ308において、端末は、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。 In step 308, the terminal performs the shooting function when the start of the touch action is detected according to the third shooting mode.

端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。当該ステップ308において、端末は、第3射撃モードに基づき、射撃機能を実行することができる。一可能な実現形態において、当該第3ターゲットモードは、当該タッチ動作の開始時に射撃機能を実行することを示すために使用される。したがって、端末が当該ステップ308を実行して、当該射撃モードを実現する。 After the terminal determines the target function and the corresponding target mode, it can perform the corresponding target function based on the target mode and touch operation. At step 308, the terminal can perform a shooting function according to the third shooting mode. In one possible implementation, the third target mode is used to indicate performing a shooting function at the start of the touch action. Therefore, the terminal executes the step 308 to realize the shooting mode.

例えば、接触制御動をクリック動作として使用する例をとって説明する。仮想オブジェクトによって制御される仮想アイテムが自動射撃種別を持たない精密シューターライフルを例にすると、ユーザは、ターゲットボタンに対してクリック動作を実行でき、当該クリック動作の開始時、端末が射撃機能を実行することができる。当該接触制御動を長押し動作として使用すると、当該タッチ動作の開始時、端末が射撃機能を実行することができ、当該タッチ動作が終了するまで、当該端末は、当該射撃機能を再び実行しなくてもよい。図9に示すように、当該ステップ308において、端末がタッチ動作の開始を検出した時に射撃することができる。当該タッチ動作の動作プロセスで、端末は上記のミラーオンおよびミラーオフのプロセスを実行しなくてもよい。 For example, an example of using a touch control motion as a click motion will be described. Taking a precision shooter rifle as an example, where the virtual item controlled by the virtual object does not have an automatic shooting type, the user can perform a click action on the target button, and when the click action starts, the terminal performs a shooting function. can do. If the touch control action is used as a long press action, the terminal can perform the shooting function when the touch action starts, and the terminal will not perform the shooting function again until the touch action ends. may As shown in FIG. 9, in this step 308, the terminal can fire when it detects the start of the touch action. In the operation process of the touch operation, the terminal need not perform the mirror on and mirror off process above.

なお、上記のステップ302、ステップ303、ステップ305およびステップ307は、当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する、プロセスである。ステップ304、ステップ306およびステップ308は、当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する、プロセスであり、当該仮想アイテムの種別が異なる場合、当該端末は、トリガー対象のターゲット機能および対応するターゲットモードが異なってもよく、端末が実行する必要のある動作制御ステップも異なってもよい。 Note that the above steps 302, 303, 305, and 307 perform the display mode switching function and A process of determining a target function to trigger and a target mode corresponding to the target function of the fire function. Steps 304, 306 and 308 are the process of executing the target function in the graphical user interface according to the target mode, and if the virtual items are of different types, the terminal may select the target function to be triggered. and corresponding target modes may be different, and the operation control steps that the terminal needs to perform may also be different.

上記のプロセスは、仮想アイテムの種別を分割して、異なる種別の仮想アイテムに対して異なる動作制御プロセスを提供したが、同じ動作制御プロセスを採用していない。このように、ほとんどの銃器は射撃時に不快感がなく、さらに戦闘の状況に影響を与えることもない。小さいことで大きく失うことなく、動作制御プロセスが柔軟で便利なので、様々な撃シーンのニーズを満たすことができる。さらに、1つのターゲットボタンを介して、複数の種類の動作制御プロセスを実現し、スムーズな動作体験を提供し、ユーザに動作圧力をかけずに、ユーザ動作を簡素化し、且つユーザは、自分の使用習慣に応じてカスタマイズして、ユーザ体験を向上するために、当該ボタンの機能を自分の手に最も適した状況に調整することができる。 Although the above process splits the types of virtual items to provide different motion control processes for different types of virtual items, it does not employ the same motion control process. As such, most firearms are comfortable to shoot and do not affect the combat situation. Small doesn't lose big, and the motion control process is flexible and convenient, so it can meet the needs of different shooting scenes. In addition, through one target button, it can realize multiple types of motion control processes, provide a smooth motion experience, simplify the user's motion without putting pressure on the user, and allow the user to Customized according to usage habits, the function of the button can be adjusted to the situation that best fits one's hand in order to enhance the user experience.

上記は仮想アイテムの種別が第1種別、第2種別および第3種別を含む場合のみを提供する。一可能な実現形態において、当該仮想アイテムはさらに、他の種別を含むことができ、上記はいずれも当業者が必要に応じて設定することができる。もちろん、ユーザによって、自分の使用習慣に応じてこともできる。 The above only provides the case where the types of virtual items include a first type, a second type and a third type. In one possible implementation, the virtual item can also include other types, any of which can be configured as needed by those skilled in the art. Of course, it can also be done by the user according to his usage habits.

一可能な実現形態において、当該端末は、動作制御機能構成インターフェースを提供することができる。当該動作制御機能構成インターフェースには、制御機能オプションおよびモードオプションを含むことができる。ユーザは、制御機能オプションで選択動作を実行し、実行ロジックオプションで設定動作を行うことができ、それにより、端末は、当該選択動作または設定動作に基づき、当該ターゲットボタンに対応する制御機能、および制御機能に対応するターゲットモードを更新することができる。もちろん、当該動作制御機能構成インターフェースには、仮想アイテムの種別設定オプションを提供することもできる。当該種別設定オプションで、ユーザは、仮想アイテムの種別を設定してもよく、各種別の仮想アイテムに何があるのかを設定することもでき、上記はいずれも当業者が当業者自身の使用習慣にしたがってカスタマイズすることができ、本願実施例はこれを限定しない。 In one possible implementation, the terminal can provide an operation control function configuration interface. The motion control feature configuration interface may include control feature options and mode options. A user can perform a selection operation with a control function option and a setting operation with an execution logic option, whereby the terminal, based on the selection operation or the setting operation, selects a control function corresponding to the target button, and Target modes corresponding to control functions can be updated. Of course, the operation control function configuration interface may also provide a virtual item type setting option. In the type setting option, the user may set the type of virtual item, and also set what is in each type of virtual item, all of which are subject to the person skilled in the art's own usage habits. can be customized according to, and the embodiments are not limited thereto.

一可能な実現形態において、上記の動作制御方法のプロセスで、当該ターゲットボタンを介して視角調整機能を提供することができる。ユーザが当該ターゲットボタンに対してタッチ動作を実行する時、端末はさらに、当該タッチ動作に基づき、仮想シーンの視角を調整することができる。具体的には、当該ターゲットボタンは、視角調整機能にも対応できる。上記のステップ302、303、305および307において、当該ターゲットボタンのタッチ動作が検出された場合、端末はさらに、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定することができる。上記のステップ304、306および308において、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、端末はさらに、当該タッチ動作の動作方向および動作速度にしたがって、仮想シーンの視角を調整することができる。 In one possible implementation, the process of the above motion control method can provide a viewing angle adjustment function via the target button. When the user performs a touch action on the target button, the terminal can further adjust the viewing angle of the virtual scene according to the touch action. Specifically, the target button can also correspond to the viewing angle adjustment function. In the above steps 302, 303, 305 and 307, if the touch action of the target button is detected, the terminal further determines the viewing angle adjustment function as the triggered target function, and sets the target viewing angle adjustment mode to the viewing angle It can be determined as the target mode corresponding to the adjustment function. In steps 304, 306 and 308 above, according to the target viewing angle adjustment mode, for the duration of the touch action, the terminal further adjusts the viewing angle of the virtual scene according to the action direction and action speed of the touch action. can be done.

一具体的な実施例において、上記の視角調整プロセスで、当該タッチ動作の動作方向および動作速度、仮想シーンの視角のターゲット回動速度を取得することができ、当該ターゲット回動速度は、方向およびサイズを含み、端末は、当該ターゲット回動速度に基づき、仮想シーンの視角を調整することができる。 In a specific embodiment, in the above viewing angle adjustment process, the motion direction and motion speed of the touch motion and the target rotation speed of the viewing angle of the virtual scene can be obtained, and the target rotation speed is the direction and Including the size, the terminal can adjust the viewing angle of the virtual scene according to the target rotation speed.

例えば、当該接触制御動を長押し動作とスライド動作との組み合わせとして使用する例をとって説明する。仮想アイテムの種別が第1種別である場合、タッチ動作の開始時、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、タッチ動作の持続期間に射撃機能を継続して実行することができる。ユーザが視角を調整しようとする時、ターゲットボタンを押してスライドするか、当該ターゲットボタンをドラッグし、それにより、端末が動作方向と動作速度に基づいて視角調整を行うことができる。当該仮想シーンの視角を調整すると、照準点が狙う仮想シーン内の位置も変化するため、それにより、当該視角調整プロセスで、ユーザは照準の位置を調整して、継続して射撃して、タッチ動作が終了するまで、端末が射撃を停止し、第1表示モードに切り替えて戻る。 For example, an example in which the contact control motion is used as a combination of a long press motion and a slide motion will be described. If the type of the virtual item is the first type, the terminal switches the display mode of the virtual scene from the first display mode to the second display mode at the start of the touch action, and continues the shooting function during the duration of the touch action. can be run with When the user wants to adjust the viewing angle, press and slide the target button or drag the target button, so that the terminal can adjust the viewing angle according to the movement direction and movement speed. Adjusting the viewing angle of the virtual scene also changes the position in the virtual scene that the aiming point aims at, so that in the viewing angle adjustment process, the user can adjust the position of the aiming to continue shooting and touching. Until the operation is finished, the terminal stops shooting and switches back to the first display mode.

さらに例えば、仮想アイテムの種別が第2種別である場合、タッチ動作の開始時に、端末が仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続のプロセスで、ユーザは、照準の位置を変更するために視角を調整することができる。調整後に、ユーザは、タッチ動作を停止する。このとき、端末は現在の照準点が狙っている位置に対して射撃し、第1表示モードに切り替えて戻ることができる。 Furthermore, for example, if the type of the virtual item is the second type, the terminal switches the display mode of the virtual scene from the first display mode to the second display mode at the start of the touch action, and in the process of continuing the touch action, The user can adjust the viewing angle to change the aiming position. After adjustment, the user stops touching. At this time, the terminal can shoot at the position targeted by the current aiming point and switch back to the first display mode.

さらに例えば、仮想アイテムの種別が第3種別である場合、タッチ動作の開始時、端末は射撃することができ、タッチ動作を継続する場合、射撃しなく、タッチ動作に基づいて視角を調整することができる。 Further, for example, if the type of the virtual item is the third type, the terminal can shoot at the start of the touch action, and not shoot when the touch action continues, and adjust the viewing angle based on the touch action. can be done.

一可能な実現形態において、上記の動作制御方法のプロセスで、当該ターゲットボタンを介して動き制御機能を提供することもできる。ユーザが当該ターゲットボタンに対してタッチ動作を行う時、端末は、当該タッチ動作に基づき、仮想オブジェクトが対応する動きを実行するために、仮想オブジェクトを制御することもできる。 In one possible implementation, the process of the motion control method described above may also provide motion control functionality via the target button. When the user makes a touch action on the target button, the terminal can also control the virtual object to perform the corresponding movement according to the touch action.

具体的には、当該ターゲットボタンはさらに、動き制御機能に対応することができる。上記のステップ302、303、305および307では、当該ターゲットボタンのタッチ動作が検出された場合、端末は、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定することもできる。上記のステップ304、306および308において、端末は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御すること、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、端末が当該現在の仮想オブジェクトの動きを制御することのうちのいずれか1つをさらに実行することができる。
Specifically, the target button may also correspond to a motion control function. In the above steps 302, 303, 305 and 307, if the touch action of the target button is detected, the terminal determines the motion control function as the target function to be triggered, and sets the target motion control mode to the motion control mode. It can also be determined as the target mode corresponding to the function. In steps 304, 306 and 308 above, the terminal:
based on the target motion control mode, when the start of the touch action is detected, the terminal controls the current virtual object to perform the target motion;
Based on the target motion control mode, if the start of the touch motion is detected, the terminal controls the current virtual object to perform the target motion, and if the end of the touch motion is detected, the The terminal may further perform any one of controlling the motion of the current virtual object such that the motion before performing the target motion is restored.

例えば、当該ターゲット動きが、横向き動きまたは横臥動き、スクワット動きまたはジャンプ動き等であることができる。当該ターゲット動きが横向き動きであることを例にすると、当該タッチ動作の開始時、端末は、仮想オブジェクトの横向きを制御し、上記のステップ304、306または308の他の動きを実行することができ、上記の視角調整のステップも実行することができる。タッチ動作の終了時、端末は、再び仮想オブジェクトを制御して横向きの状態からその前の状態に回復できる。 For example, the target motion can be a sideways or lying motion, a squat motion or a jumping motion, or the like. Taking for example that the target motion is sideways motion, at the start of the touch action, the terminal can control the sideways direction of the virtual object and perform other motions in steps 304, 306 or 308 above. , the above viewing angle adjustment step can also be performed. At the end of the touch action, the terminal can again control the virtual object to recover from landscape orientation to its previous state.

別の可能な実現形態において、上記の動作制御方法のプロセスは、複数の種類の動きの動き制御機能を提供することができる。ユーザが当該ターゲットボタンに対してタッチ動作を実行する時、端末は、当該タッチ動作に基づき、仮想オブジェクトを制御して対応する動きを行うようにする。 In another possible implementation, the motion control method process described above can provide motion control functions for multiple types of motion. When the user performs a touch action on the target button, the terminal controls the virtual object to perform corresponding movements according to the touch action.

具体的には、当該ターゲットボタンは、動き制御機能にも対応する。当該動き制御機能には、複数の動きの動き制御モードを含むことができ、各動き制御モードは、仮想オブジェクトの1つの動きに対応し、仮想オブジェクトの1つの動きの制御状況に対応できる。上記のステップ302で、当該ターゲットボタンのタッチ動作が検出された場合、端末は、当該現在の仮想オブジェクトの移動状態と当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つを取得することができる。これを判断根拠として、上記のステップ303、305および307において、端末は当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態と当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定することができる。上記のステップ304、306および308において、端末は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、当該現在の仮想オブジェクトを制御して当該ターゲット動き制御モードに対応するターゲット動きを実行するようにすること、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、端末が当該現在の仮想オブジェクトの動きを制御することのうちのいずれか1項を実行することもできる。
Specifically, the target button also corresponds to a motion control function. The motion control function may include multiple motion motion control modes, each motion control mode may correspond to one motion of the virtual object and may correspond to one motion control situation of the virtual object. In step 302 above, if a touch action of the target button is detected, the terminal acquires at least one of the moving state of the current virtual object and the environment in the virtual scene of the current virtual object. be able to. Based on this, in the above steps 303, 305 and 307, the terminal determines the motion control function as the target function to be triggered, and determines the movement state of the current virtual object and the virtual scene of the current virtual object. A target motion control mode of the plurality of motion control modes can be determined as the target mode corresponding to the motion control function according to at least one of the circumstances within. In steps 304, 306 and 308 above, the terminal:
based on the target motion control mode, when the start of the touch action is detected, the terminal controls the current virtual object to perform the target motion corresponding to the target motion control mode;
Based on the target motion control mode, if the start of the touch action is detected, the terminal controls the current virtual object to perform the target motion corresponding to the target motion control mode, and performs the touch action. is detected, the terminal may also perform any one of controlling the motion of the current virtual object such that the motion before performing the target motion is restored. .

当該実現形態において、当該動き制御機能は、複数の動きの動き制御モードに対応することができる。端末は、現在の仮想オブジェクトの移動状態にしたがって、または現在の仮想オブジェクトの仮想シーンにおける環境にしたがって、または両方にしたがって、今回仮想オブジェクトを制御して実行するターゲット動きがどの動きであるか、どの動きモードに応じて、当該仮想オブジェクトが当該ターゲット動きを実行するように制御するかを取得し、それにより、後続的に仮想オブジェクトを制御して対応する動きを実行するようにする。例えば、当該複数の動きは、横向き、スクワットおよび横臥の3つ動きを含むことができ、当該仮想オブジェクトが仮想シーン内の石の周辺にある時、端末は、ターゲット動き制御モードが横向き動きの動き制御モードであることを決定でき、その後に仮想オブジェクトを制御して横向き動きをするようにする。当該仮想オブジェクトがクロール状態にある場合、端末はターゲット動き制御モードがスクワット動きの動き制御モードであると決定でき、その後に当該仮想オブジェクトを制御してスクワット動きをするようにする。 In such implementations, the motion control function may support multiple motion motion control modes. The terminal determines which movement is the target movement to be performed by controlling the virtual object this time, according to the current movement state of the virtual object, or according to the environment of the current virtual object in the virtual scene, or both. Obtaining whether to control the virtual object to perform the target motion according to the motion mode, thereby subsequently controlling the virtual object to perform the corresponding motion. For example, the plurality of motions may include three motions of sideways, squat and lying down, and when the virtual object is around a stone in the virtual scene, the terminal determines that the target motion control mode is the sideways motion motion. It can be determined that it is in control mode, after which it controls the virtual object to make sideways movements. If the virtual object is in a crawling state, the terminal can determine that the target motion control mode is a squat motion motion control mode, and then control the virtual object to make a squat motion.

ここでは2つの具体的な例のみで説明する。なお、当該複数の動き制御モードおよび動き制御モードと、仮想オブジェクトの移動状態および仮想シーンにおける環境のうちのいずれか1項との対応関係は、いずれも当業者が必要に応じて設定することができ、ユーザによって自身の使用習慣にしたがってカスタマイズすることもでき、本願実施例はこれを限定しない。 Only two specific examples are described here. Any of the plurality of motion control modes and the correspondence relationship between the motion control mode and any one of the moving state of the virtual object and the environment in the virtual scene can be set as necessary by those skilled in the art. It can also be customized by users according to their own usage habits, and the embodiments of the present application do not limit this.

上記の動作制御方法の具体的なプロセスを、図10の一具体的な例の方式で以下に説明する。図10を参照すると、当該動作制御機能を「ワンクリックミラーオン発砲機能」と呼び、端末は、当該ワンクリックミラーオン発砲機能の開閉を検出できる。オンになった場合、端末はカスタムパネル(構成インターフェース)内のミラーと発砲ボタンを開くための1つのキーの位置、サイズおよび透明度データを読み取って適用することができ、即ち、端末は、動作制御機能の状態を判断することができる。当該動作制御機能がオン状態にある場合、端末は、グラフィカルユーザインターフェースにターゲットボタンを表示し、且つ当該ターゲットボタンは3つの表示パラメータを有し、当該3つの表示パラメータは、構成インターフェースに構成できる。端末が、プレーヤーが銃器を手持ちする種別を検出でき、即ち、端末が、現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得できることを指し、仮想アイテムが全自動射撃種別付きのシューターライフルであるなど、当該種別が第1種別である場合、端末は、ユーザが当該ターゲットボタンを押すときにミラーオンし、押す期間に射撃し、ユーザが手を放すときにミラーオフすることができる。仮想アイテムが自動射撃の種別のないスナイパーライフルであることなど、当該種別が第2種別である場合、端末は、仮想アイテムが自動射撃種別のない精密シューターライフルであるなど、ユーザが当該ターゲットボタンを押す時ミラーオンし、ユーザが手を放すときにミラーオフし、射撃する。当該種別が第3種別である場合、端末は、ユーザが押すときに射撃することができる。これにより、端末は、今回のワンクリックミラーオン発砲機能を完了し、プレーヤーの次のステップの動作を検出し、当該ワンクリックミラーオン発砲機能がオフした場合、端末は、その後の各フレーム数でプレーヤーが当該機能をオンにしたかを徐々に検出できる。 A specific process of the above operation control method will be described below with a method of one specific example in FIG. 10 . Referring to FIG. 10 , this motion control function is called “one-click mirror-on firing function”, and the terminal can detect opening and closing of this one-click mirror-on firing function. When turned on, the terminal can read and apply the position, size and transparency data of one key to open the mirror and fire button in the custom panel (configuration interface), i.e. the terminal can The state of the function can be determined. When the operation control function is in an on state, the terminal displays a target button on the graphical user interface, and the target button has three display parameters, which can be configured in the configuration interface. The terminal can detect the type of firearm held by the player, that is, the terminal can obtain the type of virtual item controlled by the current virtual object, and the virtual item is a shooter rifle with automatic shooting type. and so on, if the type is the first type, the terminal can mirror on when the user presses the target button, shoot during the pressing period, and mirror off when the user releases the target button. If the virtual item is of the second type, such as a sniper rifle without an automatic fire type, the terminal will indicate that the virtual item is a precision shooter rifle without an automatic fire type, such as when the user presses the target button. Mirrors on when pressed, mirrors off when user releases and shoots. If the type is the third type, the terminal can shoot when the user presses. This will allow the terminal to complete this one-click mirror-on firing function, detect the player's next step action, and when the said one-click mirror-on firing function is turned off, the terminal will, in each subsequent frame number, Gradually detect if the player has turned on the feature.

本願実施例は、グラフィカルユーザインターフェースに表示モード切り替え機能および射撃機能に対応するターゲットボタンを表示して、ターゲットボタンへのタッチ動作が検出された場合、仮想オブジェクトによって制御される仮想アイテムの種別にしたがって当該タッチ動作トリガー対象の機能を決定し、今回対応する機能を実行するのに必要とするモードを決定し、表示モード切り替え機能および射撃機能はいずれも同じボタンに対応し、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現することができ、且つ仮想アイテムの種別にしたがって、一回の動作で異なる動作制御機能を実現するため、動作プロセスが簡単便利で、動作制御効率が高い。 The embodiment of the present application displays a target button corresponding to the display mode switching function and the shooting function on the graphical user interface, and when a touch operation to the target button is detected, according to the type of virtual item controlled by the virtual object, Determine the function to be triggered by the touch operation, determine the mode required to execute the corresponding function this time, the display mode switching function and the shooting function both correspond to the same button, and for one button Multiple types of motion control functions can be achieved by performing a single touch motion, and different motion control functions can be implemented with a single motion according to the type of the virtual item, simplifying the motion process. It is convenient and the operation control efficiency is high.

図11は、本願実施例による動作制御方法のフローチャートであり、図11を参照すると、当該方法は、次のステップ1101~1103を含むことができる。 FIG. 11 is a flowchart of a motion control method according to an embodiment of the present application, and referring to FIG. 11, the method can include the following steps 1101-1103.

ステップ1101において、端末がグラフィカルユーザインターフェースにターゲットボタンを表示し、当該ターゲットボタンは、複数の制御機能に対応し、当該複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む。 In step 1101, the terminal displays a target button on the graphical user interface, the target button corresponds to a plurality of control functions, the plurality of control functions are a display mode switching function, a shooting function, a motion control function and a viewing angle adjustment. including at least two of the functions.

当該ステップ1101は、上記のステップ301と同じであり、当該ターゲットボタンの表示プロセスも以下のステップ1ないしステップ3のうちの少なくとも1つのステップを含むことができる。 The step 1101 is the same as the step 301 described above, and the target button display process may also include at least one of steps 1 to 3 below.

ステップ1において、端末が、グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示する。 In step 1, the terminal displays the target button at the target position in the graphical user interface.

ステップ2において、端末が、グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示する。 In step 2, the terminal displays the target button according to the target size on the graphical user interface.

ステップ3において、端末が、グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタン表示する。 In step 3, the terminal displays the target button on the graphical user interface according to the target transparency.

当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、当業者によって必要に応じて設定されることができ、自身習慣にしたがってユーザによって設定されることもできる。具体的には、当該ユーザが構成した設定も以下のステップ1ないしステップ3のうちの少なくとも1つのステップを含むことができる。 At least one of the target position, target size and target transparency can be set as needed by those skilled in the art, or can be set by the user according to their own habits. Specifically, the user-configured settings may also include at least one of steps 1 through 3 below.

ステップ1において、端末は、構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得する。 In step 1, the terminal acquires the alignment information of the target button according to the configuration interface, and acquires the target position of the target button according to the alignment information.

ステップ2において、端末は、構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得する。 In step 2, the terminal acquires the size adjustment information of the target button according to the configuration interface, and acquires the target size of the target button according to the size adjustment information.

ステップ3において、端末は、構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。 In step 3, the terminal acquires the transparency adjustment information of the target button according to the configuration interface, and acquires the target transparency of the target button according to the transparency adjustment information.

上記の内容は、いずれも上記のステップ301を参照でき、本願実施例は詳細に説明しない。 The above contents can all refer to the above step 301, and the embodiments of the present application will not be described in detail.

ステップ1102において、当該ターゲットボタンのタッチ動作が検出された場合、端末は、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、当該複数の制御機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する。 In step 1102, if a touch action of the target button is detected, the terminal controls the movement state of the current virtual object and the virtual object of the current virtual object according to the type of virtual item controlled by the current virtual object. A target function to be triggered among the plurality of control functions and a target mode corresponding to the target function are determined according to at least one of the environments in the scene.

当該ステップ1102は、上記のステップ302およびステップ303に記載の内容と同じであり、またはステップ302およびステップ305に記載の内容と同じであり、またはステップ302およびステップ307に記載の内容と同じである。異なることとして、上記のステップ302およびステップ303に記載の内容、またはステップ302およびステップ305に記載の内容、またはステップ302およびステップ307に記載の内容には、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該ターゲットボタンに対応する複数の制御機能からトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する例のみを提供するが、当該端末は、さらに当該現在の仮想オブジェクトの移動状態、または現在の仮想オブジェクトの仮想シーンにおける環境、または上記の3つの影響要素の任意の組み合わせにしたがって、当該ターゲット機能とターゲット機能に対応するターゲットモードとを決定することもできる。例えば、上記のステップ308に示す移動状態または当該環境にしたがって、ターゲット機能およびターゲットモードを決定するプロセスである。本願実施例はここで詳しく列挙しない。 The step 1102 is the same as described in steps 302 and 303 above, or the same as steps 302 and 305, or the same as steps 302 and 307. . What is different is that what is described in steps 302 and 303, or what is described in steps 302 and 305, or what is described in steps 302 and 307 above, includes the virtual item controlled by the current virtual object. according to the classification of the current virtual object or the environment in the virtual scene of the current virtual object, or any combination of the above three influencing factors, the target function and the target mode corresponding to the target function can also be determined. For example, the process of determining the target function and target mode according to the locomotion state or environment of interest shown in step 308 above. The embodiments of the present application are not listed here in detail.

なお、具体的に、当該3つの影響要素をどの影響要素またはいくつの影響要素を採用するかは、影響要素と制御機能との対応関係およびターゲット機能に対応するターゲットモードは、いずれも当業者が必要に応じて設定することができ、自身使用習慣にしたがってユーザがカスタマイズし、本願実施例はこれを限定しない。 It should be noted that a person skilled in the art can specifically determine which influence element or how many influence elements to adopt for the three influence elements, the correspondence relationship between the influence element and the control function, and the target mode corresponding to the target function. It can be set according to needs and customized by users according to their own usage habits, and the embodiments of the present application do not limit it.

ステップ1103において、端末は、当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する。 In step 1103, the terminal executes the target function in the graphical user interface according to the target mode.

当該ステップ1103は、上記のステップ304、306およびステップ308と同じであり、本願実施例はここで詳細に説明しない。上記の図3に示す実施例における3つの種別の例、および任意の実現形態は本実施例ではいずれも同じであり、本願実施例はここで詳細に説明しない。 The step 1103 is the same as steps 304, 306 and 308 above, and the present embodiment will not be described in detail here. The three types of examples and optional implementations in the embodiment shown in FIG. 3 above are all the same in this embodiment, and the present embodiment will not be described in detail here.

本願実施例は、グラフィカルユーザインターフェースに複数の制御機能に対応するターゲットボタンが表示されることにより、ターゲットボタンのタッチ動作を検出したとき、複数の種類の影響要素によって、今回の動作トリガー対象のターゲット機能がどっちか、どのようなモードに応じてこれらのターゲット機能を実行するかを決定することができる。複数の制御機能をすべて同一なボタンに関連付け、1つのボタンに対して一回のタッチ動作を行うことにより、複数の種類の動作制御機能を実現することができ、且つ影響要素によって、ターゲットボタンに対して一回の動作を行って異なる動作制御機能を実現する。動作プロセスが簡単便利で、動作制御効率が高い。 In the embodiment of the present application, target buttons corresponding to a plurality of control functions are displayed on the graphical user interface, and when a touch operation of the target button is detected, a target to be triggered by the current operation is determined by a plurality of types of influencing factors. A function can decide which and in what mode to execute these target functions. By associating multiple control functions with the same button and performing a single touch action on a button, multiple types of motion control functions can be realized, and the target button can be controlled by the influence factor. Different motion control functions are realized by performing a single motion. The operation process is simple and convenient, and the operation control efficiency is high.

上記のすべての選択的な技術的解決策で、任意の組み合わせで本発明の選択的な実施例を採用することができ、ここでは詳細に説明しない。 All of the above optional technical solutions can be used in any combination in the selective embodiments of the present invention, and will not be described in detail herein.

本願実施例の各ステップは、必ずしも番号によって示される順序で順次に実行されるとは限らないことを理解されたい。本文に明確な説明がない限り、これらのステップの実行には厳密な順序がなく、これらのステップは他の順序で実行できる。さらに、各実施例のステップの少なくとも一部は、複数のサブステップまたは複数の段階を含むことができ、これらのサブステップまたは段階は必ずしも同時に実行されるとは限らなく、異なる時刻に実行してもよい。これらのサブステップまたは段階の実行順番も順次に実行されるとは限らず、他のステップまたは他のステップのサブステップまたは段階の少なくとも一部と交互または交替的に実行することができる。 It should be understood that the steps of the embodiments herein are not necessarily performed sequentially in the order indicated by the numbers. Unless explicitly stated in the text, there is no strict order for performing these steps, and these steps can be performed in other orders. Further, at least some of the steps of each embodiment may include multiple sub-steps or stages, which are not necessarily performed at the same time, but may be performed at different times. good too. Nor is the order in which these sub-steps or stages are performed sequentially, but may be performed alternately or alternately with other steps or at least some of the sub-steps or stages of other steps.

図12は、本願実施例による動作制御装置の構造概略図である。図12を参照すると、当該装置は、
グラフィカルユーザインターフェースにターゲットボタンを表示する第1表示モジュール1201であって、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する、第1表示モジュール1201と、
当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する第1決定モジュール1202と、
当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する第1実行モジュール1203と、を備えることができる。
FIG. 12 is a structural schematic diagram of the motion control device according to the embodiment of the present application. Referring to Figure 12, the device comprises:
a first display module 1201 for displaying a target button in a graphical user interface, the target button corresponding to a display mode switching function and a shooting function;
When a touch operation of the target button is detected, corresponding to the target function to be triggered among the display mode switching function and the shooting function and the target function according to the type of the virtual item controlled by the current virtual object. a first determining module 1202 for determining a target mode;
and a first execution module 1203 for executing the target function in the graphical user interface based on the target mode.

一可能な実現形態において、当該第1決定モジュール1202は、
当該仮想アイテムの種別が第1種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第2種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第3種別であるである場合、当該射撃機能を当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In one possible implementation, the first decision module 1202 includes:
If the type of the virtual item is the first type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is set as the target mode corresponding to the display mode switching function. If the first shooting mode is determined as the target mode corresponding to the shooting function, or if the type of the virtual item is the second type, the display mode switching function and the shooting function are set as the target function of the trigger target. , the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, the second shooting mode is determined as the target mode corresponding to the shooting function, or the type of the virtual item is the third If yes, the shooting function is determined as the target function to be triggered, and the third shooting mode is determined as the target mode corresponding to the shooting function.

一可能な実現形態において、当該第1実行モジュール1203は、
当該仮想アイテムの種別が第1種別である場合、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第2種別である場合、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第3種別である場合、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。
In one possible implementation, the first execution module 1203:
When the type of the virtual item is the first type, when the start of the touch operation is detected based on the target display mode switching mode and the first shooting mode, the display mode of the virtual scene is changed from the first display mode. Switch to the second display mode, continue to execute the shooting function during the duration of the touch action, and when the end of the touch action is detected, change the display mode of the virtual scene from the second display mode to the first display mode. switching, or when the type of the virtual item is the second type, when the start of the touch operation is detected based on the target display mode switching mode and the second shooting mode, the display mode of the virtual scene is changed to the first type. If the display mode is switched to the second display mode, and the end of the touch action is detected, the shooting function is executed, the display mode of the virtual scene is switched from the second display mode to the first display mode, or the virtual item is the third type, when the start of the touch action is detected based on the third shooting mode, the shooting function is executed.

一可能な実現形態において、当該第1決定モジュール1202は、
当該仮想アイテムの種別が第1種別である場合、当該仮想アイテムの現在の射撃種別を取得し、または
当該射撃種別が第1射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該射撃種別が第2射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In one possible implementation, the first decision module 1202 includes:
If the type of the virtual item is the first type, get the current shooting type of the virtual item, or if the shooting type is the first shooting type, activate the display mode switching function and the shooting function with the trigger The target function is determined, the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, the first shooting mode is determined as the target mode corresponding to the shooting function, or the shooting type is If it is the second shooting type, the display mode switching function and the shooting function are determined as the target function of the trigger target, the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, and the second A shooting mode is determined as a target mode corresponding to the shooting function.

一可能な実現形態において、当該第1表示モジュール1201は、
グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。
In one possible implementation, the first display module 1201 includes:
Displaying the target button in the graphical user interface at the target position, or Displaying the target button in the graphical user interface according to the target size, or Displaying the target button in the graphical user interface according to the target transparency. do.

一可能な実現形態において、当該装置はさらに、取得モジュールを備え、当該取得モジュールは、
構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得し、または
構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得し、または
構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。
In one possible implementation, the apparatus further comprises an acquisition module, the acquisition module comprising:
obtaining alignment information for the target button based on a configuration interface; obtaining a target position for the target button based on the alignment information; or obtaining sizing information for the target button based on a configuration interface; Obtaining the target size of the target button based on the size adjustment information, or obtaining transparency adjustment information of the target button based on the configuration interface, and obtaining target transparency of the target button based on the transparency adjustment information. .

一可能な実現形態において、当該ターゲットボタンは、視角調整機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定する。 In one possible implementation, the target button also corresponds to a viewing angle adjustment function, and the first determining module 1202 further determines the viewing angle adjustment function when a touch motion of the target button is detected. A target function to be triggered is determined, and a target viewing angle adjustment mode is determined as a target mode corresponding to the viewing angle adjustment function.

当該第1実行モジュール1203はさらに、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、当該タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角を調整する。 The first execution module 1203 further adjusts the viewing angle of the virtual scene according to the target viewing angle adjustment mode and according to the motion direction and motion speed of the touch motion during the duration of the touch motion.

一可能な実現形態において、当該ターゲットボタンは、動き制御機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。 In one possible implementation, the target button also corresponds to a motion control function, and the first determination module 1202 further assigns the motion control function to the target button when a touch motion of the target button is detected. A target function to be triggered is determined, and a target motion control mode is determined as a target mode corresponding to the motion control function.

当該第1実行モジュール1203はさらに、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
The first execution module 1203 further:
Based on the target motion control mode, if the start of the touch action is detected, control the current virtual object to perform the target motion, or Based on the target motion control mode, control the start of the touch action. If detected, control the current virtual object to perform the target motion, and if the end of the touch motion is detected, control the current virtual object to restore the motion before performing the target motion. to control the movement of virtual objects in

一可能な実現形態において、当該ターゲットボタンは、動き制御機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。
当該第1実行モジュール1203はさらに、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
In one possible implementation, the target button also corresponds to a motion control function, and the first determination module 1202 further assigns the motion control function to the target button when a touch motion of the target button is detected. A target motion control mode of a plurality of motion control modes, determined as a target function to be triggered, according to at least one of a movement state of the current virtual object and an environment within a virtual scene of the current virtual object. is determined as the target mode corresponding to the motion control function.
The first execution module 1203 further:
control the current virtual object to perform a target motion corresponding to the target motion control mode when the start of the touch motion is detected based on the target motion control mode; or controlling the current virtual object to perform a target motion corresponding to the target motion control mode when the start of the touch motion is detected, and when the end of the touch motion is detected, according to Control the motion of the current virtual object so that it is restored to the motion before performing the target motion.

一可能な実現形態において、当該第1表示モジュール1201は、構成情報によって動作制御機能がオン状態にあると決定されると、グラフィカルユーザインターフェースにターゲットボタンを表示する当該ステップを実行する。 In one possible implementation, said first display module 1201 performs said step of displaying the target button on the graphical user interface when the configuration information determines that the motion control function is on.

本願実施例による装置は、グラフィカルユーザインターフェースに表示モード切り替え機能および射撃機能に対応するターゲットボタンが表示されることにより、ターゲットボタンへのタッチ動作が検出された場合、仮想オブジェクトによって制御される仮想アイテムの種別にしたがって当該タッチ動作トリガー対象の1つまたは複数の機能を決定し、今回対応する機能を実行するためにどのモードに従う必要があるかによって決定され、表示モード切り替え機能および射撃機能は、いずれも同じボタンに態様し、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現でき、且つ仮想アイテムの種別にしたがって、一回の動作で異なる動作制御機能を実現するため、動作プロセスが簡単便利で、動作制御効率が高い。 The device according to the embodiment of the present application displays a target button corresponding to the display mode switching function and the shooting function on the graphical user interface, so that when a touch operation to the target button is detected, the virtual item controlled by the virtual object Determines one or more functions to be triggered by the touch operation according to the type of , and is determined by which mode must be followed to perform the corresponding function this time, and the display mode switching function and the shooting function are are the same button, and by performing one touch operation on one button, it is possible to realize a plurality of types of operation control functions, and according to the type of the virtual item, one operation can control different operations In order to realize the function, the operation process is simple and convenient, and the operation control efficiency is high.

上記の実施例が提供した動作制御装置が動作制御を実現するとき、上記の各機能モジュールの分割のみで例にして説明し、実際の適用では、必要に応じて異なる機能モジュールによって上記の機能分配を完了し、即ち、電子機器の内部構造を異なる機能モジュールに分割して、上記に記述した機能の全部または一部を完了する。なお、上記の実施例が提供した動作制御装置と動作制御方法の実施例は同じ構想に属し、その具体的な実現プロセスは、方法実施例の詳細を参照すればよく、ここでは詳細に説明しない。 When the motion control device provided by the above embodiment realizes motion control, only the division of the above functional modules will be described as an example. , that is, dividing the internal structure of the electronic device into different functional modules to complete all or part of the functions described above. It should be noted that the embodiments of the motion control device and the motion control method provided in the above embodiments belong to the same idea, and the specific implementation process thereof can be referred to the details of the method embodiments, which will not be described in detail herein. .

図13は、本願実施例による動作制御装置の構造概略図であり、図13を参照すると、当該装置は、
グラフィカルユーザインターフェースにターゲットボタンを表示する第2表示モジュール1301であって、当該ターゲットボタンは複数の制御機能に対応し、当該複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む、第2表示モジュール1301と、
当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、当該複数の制御機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する第2決定モジュール1302と、
当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する第2実行モジュール1303と、を備えることができる。
FIG. 13 is a structural schematic diagram of a motion control device according to an embodiment of the present application. Referring to FIG. 13, the device includes:
A second display module 1301 for displaying a target button in a graphical user interface, the target button corresponding to a plurality of control functions, the plurality of control functions being a display mode switching function, a shooting function, a motion control function and a viewing angle. a second display module 1301 including at least two of the adjustment functions;
When a touch operation of the target button is detected, the movement state of the current virtual object and the environment in the virtual scene of the current virtual object are selected according to the type of virtual item controlled by the current virtual object. a second determining module 1302 for determining, according to at least one, a target function to be triggered of the plurality of control functions and a target mode corresponding to the target function;
a second execution module 1303 for executing the target function in the graphical user interface based on the target mode.

一可能な実現形態において、当該ターゲットボタンが表示モード切り替え機能および射撃機能に対応する場合、当該第2決定モジュール1302は、
当該仮想アイテムの種別が第1種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第2種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第3種別である場合、当該射撃機能当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In one possible implementation, if the target button corresponds to the display mode switching function and the shooting function, the second decision module 1302 will:
If the type of the virtual item is the first type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is set as the target mode corresponding to the display mode switching function. If the first shooting mode is determined as the target mode corresponding to the shooting function, or if the type of the virtual item is the second type, the display mode switching function and the shooting function are set as the target function of the trigger target. , the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, the second shooting mode is determined as the target mode corresponding to the shooting function, or the type of the virtual item is the third If so, the shooting function is determined as the target function for the trigger target, and the third shooting mode is determined as the target mode corresponding to the shooting function.

一可能な実現形態において、当該第2実行モジュール1303は、
当該仮想アイテムの種別が第1種別である場合、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第2種別である場合、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第3種別である場合、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。
In one possible implementation, the second execution module 1303:
When the type of the virtual item is the first type, when the start of the touch operation is detected based on the target display mode switching mode and the first shooting mode, the display mode of the virtual scene is changed from the first display mode. Switch to the second display mode, continue to execute the shooting function during the duration of the touch action, and when the end of the touch action is detected, change the display mode of the virtual scene from the second display mode to the first display mode. switching, or when the type of the virtual item is the second type, when the start of the touch operation is detected based on the target display mode switching mode and the second shooting mode, the display mode of the virtual scene is changed to the first type. If the display mode is switched to the second display mode, and the end of the touch action is detected, the shooting function is executed, the display mode of the virtual scene is switched from the second display mode to the first display mode, or the virtual item is the third type, when the start of the touch action is detected based on the third shooting mode, the shooting function is executed.

一可能な実現形態において、当該第2決定モジュール1302は、
当該仮想アイテムの種別が第1種別である場合、当該仮想アイテムの現在の射撃種別を取得し、または
当該射撃種別が第1射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当当該射撃種別が第2射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
In one possible implementation, the second decision module 1302 includes:
If the type of the virtual item is the first type, get the current shooting type of the virtual item, or if the shooting type is the first shooting type, activate the display mode switching function and the shooting function with the trigger The target function is determined, the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, the first shooting mode is determined as the target mode corresponding to the shooting function, or the shooting type is the second shooting type, the display mode switching function and the shooting function are determined as target functions for the trigger target, the target display mode switching mode is determined as the target mode corresponding to the display mode switching function, and 2 shooting mode is determined as the target mode corresponding to the shooting function.

一可能な実現形態において、当該第2表示モジュール1301は、
グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。
In one possible implementation, the second display module 1301 includes:
Displaying the target button in the graphical user interface at the target position, or Displaying the target button in the graphical user interface according to the target size, or Displaying the target button in the graphical user interface according to the target transparency. do.

一可能な実現形態において、当該装置はさらに、取得モジュールをさらに備え、当該取得モジュールは、
構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得し、または
構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得し、または
構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。
In one possible implementation, the apparatus further comprises an acquisition module, the acquisition module comprising:
obtaining alignment information for the target button based on a configuration interface; obtaining a target position for the target button based on the alignment information; or obtaining sizing information for the target button based on a configuration interface; Obtaining the target size of the target button based on the size adjustment information, or obtaining transparency adjustment information of the target button based on the configuration interface, and obtaining target transparency of the target button based on the transparency adjustment information. .

一可能な実現形態において、当該第2決定モジュール1302はさらに、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが視角調整機能に対応する時、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定し、または
当該第2実行モジュール1303は、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、当該タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角に対して調整する。
In one possible implementation, the second determination module 1302 further determines the viewing angle adjustment function as the triggered target function when the target button is touched and the target button corresponds to the viewing angle adjustment function; determining a target viewing angle adjustment mode as the target mode corresponding to the viewing angle adjustment function; or, according to the target viewing angle adjustment mode, the second execution module 1303 determines the operating direction and direction of the touch action during the duration of the touch action according to the target viewing angle adjustment mode. The viewing angle of the virtual scene is adjusted according to the motion speed.

一可能な実現形態において、当該決定モジュール1302は、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが動き制御機能に対応することを検出した時、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定し、
当該第2実行モジュール1303は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
In one possible implementation, the determination module 1302 determines the motion control function as the target function of the trigger target when detecting a touch action of the target button and the target button corresponds to a motion control function. , determining a target motion control mode as the target mode corresponding to the motion control function;
The second execution module 1303 is
controlling the current virtual object to perform a target motion when the start of the touch motion is detected based on the target motion control mode;
Based on the target motion control mode, controlling the current virtual object to perform the target motion when the start of the touch motion is detected, and performing the target motion when the end of the touch motion is detected. Control the motion of the current virtual object so that the motion before execution is restored.

一可能な実現形態において、当該第2決定モジュール1302は、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが動き制御機能に対応することが検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。 In one possible implementation, the second determining module 1302 determines the motion control function to the triggered target function when detecting a touch action of the target button and the target button corresponds to the motion control function. and determining a target motion control mode among a plurality of motion control modes according to at least one of a moving state of the current virtual object and an environment within a virtual scene of the current virtual object to the motion control function is determined as the target mode corresponding to

当該実行モジュール1303は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御する、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
The execution module 1303 is
control the current virtual object to perform a target motion corresponding to the target motion control mode when the start of the touch motion is detected based on the target motion control mode; or controlling the current virtual object to perform a target motion corresponding to the target motion control mode when the start of the touch motion is detected based on; when the end of the touch motion is detected; Control the motion of the current virtual object so that it is restored to the motion before performing the target motion.

一可能な実現形態において、当該第2表示モジュール1301は、構成情報によって動作制御機能がオン状態にあると決定されると、当該グラフィカルユーザインターフェース中でターゲットボタンのステップを実行する。 In one possible implementation, the second display module 1301 executes a target button step in the graphical user interface when the configuration information determines that the motion control function is on.

本願実施例による装置は、グラフィカルユーザインターフェースに複数の制御機能に対応するターゲットボタンが表示され、ターゲットボタンのタッチ動作が検出された場合、複数の種類の影響要素によって今回の動作トリガー対象のターゲット機能がどっちか、同のようなモードに応じてこれらのターゲット機能を実行するかを決定し、複数の制御機能はいずれも同じボタンに関連付け、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現でき、且つ影響要素はターゲットボタンに対して一回の動作で異なる動作制御機能を実現できるため、動作プロセスが簡単便利で、動作制御効率が高い。 In the device according to the embodiment of the present application, target buttons corresponding to a plurality of control functions are displayed on the graphical user interface, and when a touch operation of the target button is detected, the target function to be triggered by the current operation is determined by a plurality of types of influencing factors. determines which of these target functions will be executed according to similar modes, multiple control functions are all associated with the same button, and one button is touched. At the same time, it can realize multiple types of operation control functions, and the influencing element can realize different operation control functions in one operation for the target button, so that the operation process is simple and convenient, and the operation control efficiency is high.

説明する必要があることとして、上記の実施例が提供した動作制御装置が動作制御を実現する場合、上記の各機能モジュールの分割のみを例にして説明する。実際の適用では、必要に応じて上記の機能分配を異なる機能モジュールによって完了し、即ち、電子機器の内部構造を異なる機能モジュールに分割して、以上の記述したものの全部または一部を完了する。なお、上記の実施例が提供した動作制御装置と動作制御方法の実施例は同じ構想に属し、その具体的な実現プロセスは、方法実施例の詳細を参照すればよく、ここでは詳細に説明しない。 What needs to be explained is that when the motion control device provided by the above embodiment implements motion control, only the above division of each functional module will be described as an example. In practical application, the above functional distribution is completed by different functional modules according to need, that is, the internal structure of the electronic equipment is divided into different functional modules to complete all or part of the above description. It should be noted that the embodiments of the motion control device and the motion control method provided in the above embodiments belong to the same idea, and the specific implementation process thereof can be referred to the details of the method embodiments, which will not be described in detail herein. .

上記の電子機器は、以下の図14に記載の端末として提供し、以下の図15に示すようなサーバとして提供されてもよく、本願実施例はこれを限定しない。 The electronic device described above may be provided as a terminal shown in FIG. 14 below and may be provided as a server shown in FIG. 15 below, and the embodiments of the present application are not limited to this.

図14は、本願実施例による端末の構造概略図である。当該端末1400は、スマトフォン、タブレットコンピュータ、MP3(Moving Picture Experts Group Audio Layer III、動画エキスパートグループオーディオレイヤー3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV、動画エキスパートグループオーディオレイヤー4)プレーヤー、ラップトップコンピュータまたはデスクトップコンピュータなどであってもよい。端末1400は、ユーザ機器、携帯式端末、ラップトップ端末、デスクトップ端末などの他の名称で称されることもできる。 FIG. 14 is a structural schematic diagram of a terminal according to an embodiment of the present application. The terminal 1400 is a smartphone, a tablet computer, an MP3 (Moving Picture Experts Group Audio Layer III, video expert group audio layer 3) player, an MP4 (Moving Picture Experts Group Audio Layer IV, video expert group audio layer 4) player, a laptop. It may be a computer or a desktop computer or the like. Terminal 1400 may also be referred to by other names, such as user equipment, a handheld terminal, a laptop terminal, a desktop terminal, and so on.

通常、端末1400は、1つまたは複数のプロセッサ1401および1つまたは複数のメモリ1402を備える。 Terminal 1400 typically comprises one or more processors 1401 and one or more memories 1402 .

プロセッサ1401は、4コアプロセッサ、8コアプロセッサなどの1つまたは複数の処理コアを備えることができる。プロセッサ1401は、デジタル信号プロセッサ(Digital Signal Processing、DSPと略称)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array、FPGAと略称)、プログラマブルロジックアレイ(Programmable Logic Array、PLAと略称)のうちの少なくとも1つのハードウェア形式を採用して実現することができる。プロセッサ1401は、メインプロセッサおよびセカンダリプロセッサを備えることもでき、メインプロセッサは、アウェイク状態でデータを処理するために使用されるプロセッサであり、中央処理装置(Central Processing Unit、CPUと略称)とも称し、セカンダリプロセッサは、スタンバイ状態でデータを処理するために使用される低電力プロセッサである。いくつかの実施例において、プロセッサ1401グラフィックスプロセッサ(Graphics Processing Unit、GPUと略称)と統合されてもよく、GPUは、ディスプレイ画面に表示される必要があるコンテンツをレンダリングおよび描画するために使用される。いくつかの実施例において、プロセッサ1401は、人工知能(Artificial Intelligence、AIと略称)プロセッサをさらに備えることができ、当該AIプロセッサは、機械学習に関する計算操作を処理するために使用される。 Processor 1401 may comprise one or more processing cores, such as a 4-core processor, an 8-core processor, and the like. The processor 1401 is at least one of a Digital Signal Processing (DSP), a Field-Programmable Gate Array (FPGA), and a Programmable Logic Array (PLA). It can be realized by adopting two hardware formats. The processor 1401 can also include a main processor and a secondary processor, the main processor is a processor used to process data in an awake state, also called a central processing unit (CPU), A secondary processor is a low power processor used to process data in a standby state. In some embodiments, the processor 1401 may be integrated with a graphics processor (Graphics Processing Unit, GPU for short), which is used to render and draw content that needs to be displayed on the display screen. be. In some embodiments, the processor 1401 can further comprise an Artificial Intelligence (AI) processor, which is used to process computational operations related to machine learning.

メモリ1402は、1つまたは複数のコンピュータ読み取り可能な記憶媒体を含むことができ、当該コンピュータ読み取り可能な記憶媒体は非一時的である。メモリ1402は、1つまたは複数の磁気ディスクメモリ、フラッシュメモリなどの、高速ランダムアクセスメモリ、および不揮発性メモリを備えることもできる。いくつかの実施例において、本願の方法の実施例で開示されるカメラの位置決め方法を実現するために、メモリ1402の非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令を記憶するために使用され、当該少なくとも1つの命令は、プロセッサ1401に含まれる。 Memory 1402 can include one or more computer-readable storage media, which are non-transitory. Memory 1402 may also comprise one or more of magnetic disk memory, high speed random access memory such as flash memory, and non-volatile memory. In some embodiments, the non-transitory computer readable storage medium of memory 1402 stores at least one instruction for implementing the camera positioning method disclosed in the method embodiments of the present application. and the at least one instruction is contained in processor 1401 .

いくつかの実施例において、端末1400は、周辺機器インターフェース1403および少なくとも1つの周辺機器を例示的に備えることもできる。プロセッサ1401、メモリ1402および周辺機器インターフェース1403間は、バスまたは信号線を介して接続することができる。各周辺機器は、バス、信号線または回路基板および周辺機器インターフェース1403を介して接続することができる。具体的に、周辺機器は、無線周波数回路1404、表示スクリーン1405、カメラコンポーネント1406、オーディオ回路1407、位置決めコンポ―ネット1408および電源1409のうちの少なくとも1つを含む。 In some embodiments, terminal 1400 can also illustratively include a peripheral interface 1403 and at least one peripheral. The processor 1401, memory 1402 and peripheral interface 1403 can be connected via buses or signal lines. Each peripheral can be connected via a bus, signal line or circuit board and peripheral interface 1403 . Specifically, the peripherals include at least one of radio frequency circuitry 1404 , display screen 1405 , camera component 1406 , audio circuitry 1407 , positioning component 1408 and power supply 1409 .

周辺機器インターフェース1403は、入力/出力(Input /Output、I/Oと略称)に関する少なくとも1つの周辺機器をプロセッサ1401およびメモリ1402に接続することができる。いくつかの実施例において、プロセッサ1401、メモリ1402および周辺機器インターフェース1403は、同じチップまたは回路基板にとうごうされ、いくつかの他の実施例において、プロセッサ1401、メモリ1402および周辺機器インターフェース1403における任意の1つまたは2つは、独立したチップまたは回路基板で実現し、本実施例は、これらに対して限定しない。 Peripheral interface 1403 can connect at least one peripheral for input/output (I/O for short) to processor 1401 and memory 1402 . In some embodiments, processor 1401, memory 1402 and peripheral interface 1403 are implemented on the same chip or circuit board; can be implemented on separate chips or circuit boards, and the embodiments are not limited to these.

無線周波数回路1404は、電磁信号とも称される無線周波数(Radio Frequency、RFと略称)信号を送信および受信するために使用される。無線周波数回路1404は、電磁信号を介して通信ネットワークおよび他の通信機器と通信する。無線周波数回路1404は、電子信号を電磁信号に変換して送信し、または、受信した電磁信号を電子信号に変換する。例示的に、無線周波数回路1404は、アンテナシステム、RFトランシーバ、1つまたは複数の増幅器、チューナー、発振器、数字信号プロセッサ、コーデックチップセット、ユーザ識別モジュールカードなどを備える無線周波数回路1404は、少なくとも1つの無線通信プロトコルを介して他の端末と通信することができる。当該無線通信プロトコルは、メトロポリタンエリアネットワーク、各世代の移動通信ネットワーク(2G、3G、4Gおよび11G)、ワイヤレスメトロポリタンエリアネットワークおよび/またはワイファイ(Wireless Fidelity、WiFiと略称)ネットワークを含むが、これらに限定されない。いくつかの実施例において、無線周波数回路1404は、近距離無線通信(Near Field Communication、NFCと略称)に関する回路をさらに備えるが、本願は、これらに対して限定しない。 Radio frequency circuitry 1404 is used to transmit and receive radio frequency (RF) signals, also referred to as electromagnetic signals. Radio frequency circuitry 1404 communicates with communication networks and other communication devices via electromagnetic signals. Radio frequency circuitry 1404 converts electronic signals to electromagnetic signals for transmission or converts received electromagnetic signals to electronic signals. Illustratively, the radio frequency circuit 1404 comprises an antenna system, an RF transceiver, one or more amplifiers, a tuner, an oscillator, a numeric signal processor, a codec chipset, a user identification module card, etc. The radio frequency circuit 1404 includes at least one It can communicate with other terminals via one wireless communication protocol. Such wireless communication protocols include, but are not limited to, metropolitan area networks, mobile communication networks of each generation (2G, 3G, 4G and 11G), wireless metropolitan area networks and/or Wireless Fidelity (WiFi) networks. not. In some embodiments, the radio frequency circuitry 1404 further comprises circuitry for Near Field Communication (NFC), but this application is not limited thereto.

スクリーン1405は、ユーザインターフェース(User Interface、UIと略称)を表示する。当該UIは、グラフィック、テキスト、アイコン、ビデオ、およびそれらの任意の組み合わせを含めることができる。スクリーン1405がスクリーンをタッチすると、スクリーン1405は、スクリーン1405の表面または表面の上側のタッチ信号を撮影する機能を備える。当該タッチ信号は、制御信号としてプロセッサ1401に入力されて処理される。この場合、スクリーン1405は、ソフトボタンおよび/またはソフトキーボードとも称する、仮想ボタンおよび/または仮想キーボードを提供する。いくつかの実施例において、スクリーン1405は1つであってもよく、端末1400のフロントパネルを配置し、別のいくつかの実施例において、スクリーン1405は、少なくとも2つであってもよく、端末1400の異なる表面または折りたたみデザインにそれぞれ配置され、さらにいくつかの実施例において、スクリーン1405は、端末1400の曲面または折りたたみ面に配置される可撓性ディスプレイであってもよい。さらに、スクリーン1405は、長方形以外の不規則な形、即ち、特徴な形状のスクリーンに設定されてもよい。スクリーン1405は、液晶ディスプレイ(Liquid Crystal Display、LCDと略称)、有機発光ダイオード(Organic Light-Emitting Diode、OLEDと略称)などの素材で作られることができる。 A screen 1405 displays a user interface (abbreviated as User Interface, UI). The UI can include graphics, text, icons, video, and any combination thereof. When the screen 1405 touches the screen, the screen 1405 has a function of capturing a touch signal on or above the surface of the screen 1405 . The touch signal is input to the processor 1401 as a control signal and processed. In this case, screen 1405 provides virtual buttons and/or virtual keyboards, also referred to as soft buttons and/or soft keyboards. In some embodiments, there may be one screen 1405 located on the front panel of the terminal 1400; Screen 1405 may be a flexible display that is placed on each of the different surfaces or folding designs of 1400 , and also in some embodiments, is placed on the curved or folding surface of terminal 1400 . Furthermore, the screen 1405 may be set to an irregular shape other than a rectangle, that is, a screen of a characteristic shape. The screen 1405 may be made of a material such as a liquid crystal display (LCD), an organic light-emitting diode (OLED), or the like.

カメラコンポーネント1406は、画像またはビデオを撮影する。例示的に、カメラコンポーネント1406は、フロントカメラおよびリアカメラを備える。通常、フロントカメラは、端末のフロントパネルに配置され、リアカメラは、端末の背面に配置される。いくつかの実施例において、リアカメラは少なくとも2つであり、それぞれ、メインカメラ、被写界深度カメラ、広角カメラ、望遠カメラのうちのいずれか1つであり、メインカメラと被写界深度カメラの融合で背景ぼかし機能を実現し、メインカメラおよび望遠カメラの融合でパノラマ撮影およびバーチャルリアリティ(Virtual Reality、VRと略称)撮影機能または他の融合撮影機能を実現する。いくつかの実施例において、カメラコンポーネント1406は、フラッシュをさらに備える。フラッシュは、単色温度フラッシュであってもよく、二色温度フラッシュであってもよい。二色フラッシュは、暖かい色フラッシュと冷たい色フラッシュの組み合わせであり、異なる色温度での光の補正に使用されることができる。 Camera component 1406 captures images or videos. Illustratively, camera component 1406 comprises a front camera and a rear camera. Usually, the front camera is placed on the front panel of the terminal, and the rear camera is placed on the back of the terminal. In some embodiments, there are at least two rear cameras, each one of a main camera, a depth-of-field camera, a wide-angle camera, and a telephoto camera, the main camera and the depth-of-field camera The fusion of the main camera and the telephoto camera realizes the background blurring function, and the fusion of the main camera and the telephoto camera realizes the panoramic photography and virtual reality (abbreviated as VR) photography function or other fusion photography functions. In some examples, camera component 1406 further comprises a flash. The flash may be a single color temperature flash or a dual color temperature flash. A dual color flash is a combination of a warm color flash and a cold color flash and can be used to compensate for light at different color temperatures.

オーディオ回路1407は、マイクおよびスピーカを含むことができる。マイクは、ユーザと環境の音波を撮影し、音声通信を実現するために、音波を電子信号に変換してプロセッサ1401に入力して処理し、または無線周波数回路1404に入力する。ステレオ撮影またはノイズ低減を目的とし、マイクは複数であってもよく、それぞれ、端末1400の異なる部位を配置することができる。マイクは、アレイマイクまたは全方位撮像型マイクであってもよい。スピーカは、プロセッサ1401または無線周波数回路1404からの電子信号を音波に変換する。スピーカは、従来のフィルムスピーカであってもよく、電圧セラミックスピーカであってもよい。スピーカが電圧セラミックスピーカである場合、電子信号を人間の可聴音波に変換してもよく、距離測定などの目的で電子信号を人間の不可聴音波に変換してもよい。いくつかの実施例において、オーディオ回路1407は、ヘッドフォンジャックをさらに含む。 Audio circuitry 1407 may include a microphone and speaker. The microphone captures sound waves of the user and the environment, converts the sound waves into electronic signals, and inputs them to the processor 1401 for processing or to the radio frequency circuit 1404 to achieve voice communication. For the purpose of stereo imaging or noise reduction, there may be a plurality of microphones, each of which may be placed on a different part of the terminal 1400 . The microphone may be an array microphone or an omnidirectional imaging microphone. The speaker converts electronic signals from processor 1401 or radio frequency circuitry 1404 into sound waves. The loudspeakers may be conventional film loudspeakers or voltage ceramic loudspeakers. If the speaker is a voltage ceramic speaker, the electronic signal may be converted to human audible sound waves, or the electronic signal may be converted to human inaudible sound waves for purposes such as distance measurement. In some embodiments, audio circuitry 1407 further includes a headphone jack.

位置決めコンポーネント1408は、ナビゲーションまたは位置に基づくサービス(Location Based Service、LBSと略称)を実現するために、端末1400の現在の地理位置を位置決めする。位置決めコンポーネント1408は、アメリカの全地球測位システム(Global Positioning System、GPSと略称)であってもよく、中国の北斗衛星測位システム、ロシアのグロナスシステムまたはユロッパのガリレオシステムに基づく位置決めコンポーネントであってもよい。 A positioning component 1408 locates the current geographic location of the terminal 1400 in order to implement navigation or Location Based Service (LBS). The positioning component 1408 may be the American Global Positioning System (GPS for short), or may be a positioning component based on the Chinese Beidou Satellite Positioning System, the Russian Glonass System or the European Galileo System. good.

電源1409は、端末1400における各コンポーネントに電力を供給する。電源1409は、交流、直流、使い捨て電池、または充電式電池であることができる。電源1409が充電式電池を備える場合、当該充電式電池は、有線充電または無線充電をサポートすることができる。当該充電式電池は、高速充電技術をサポートすることできある。 Power supply 1409 provides power to each component in terminal 1400 . Power source 1409 can be AC, DC, disposable batteries, or rechargeable batteries. If the power source 1409 comprises a rechargeable battery, the rechargeable battery can support wired charging or wireless charging. The rechargeable battery may support fast charging technology.

いくつかの実施例において、端末1400は、1つまたは複数のセンサ1410をさらに備える。当該1つまたは複数のセンサ1410は、加速度センサ1411、ジャイロセンサ1412、圧力センサ1413、指紋センサ1414、光学センサ1415および近接センサ1416を含むが、これらに限定されない。 In some examples, terminal 1400 further comprises one or more sensors 1410 . The one or more sensors 1410 include, but are not limited to, an acceleration sensor 1411, a gyro sensor 1412, a pressure sensor 1413, a fingerprint sensor 1414, an optical sensor 1415 and a proximity sensor 1416.

加速度センサ1411は、端末1400によって確立された座標系の3つの座標軸上の加速度の大きさを検出することができる。例えば、加速度センサ1411は、3つの座標軸上の重力加速度の成分を検出するために使用されることができる。プロセッサ1401は、加速度センサ1411で撮影された重力加速度信号に従って、ランドスケープビューまたはポートレートビューをユーザインターフェースで表示するために、表示スクリーン1405を制御することができる。加速度センサ1411は、ゲームまたはユーザの運動データの撮影に使用されることもできる。 Acceleration sensor 1411 can detect the magnitude of acceleration on the three coordinate axes of the coordinate system established by terminal 1400 . For example, acceleration sensor 1411 can be used to detect the components of gravitational acceleration on three coordinate axes. The processor 1401 can control the display screen 1405 according to the gravitational acceleration signal captured by the acceleration sensor 1411 to display a landscape view or a portrait view on the user interface. The acceleration sensor 1411 can also be used to capture game or user motion data.

ジャイロセンサ1412は、端末1400の本体方向および回動角度を検出することができ、ジャイロセンサ1412は、加速度センサ1411と協働して、端末1400に対するユーザの3D動作を撮影することができる。プロセッサ1401は、ジャイロセンサ1412で撮影されたデータに従って、モーションセンシング(ユーザの傾斜操作に応じてUIを変更するなど)、撮影中の画像安定化、ゲーム制御および慣性ナビゲーションなどの機能を実現することができる。 The gyro sensor 1412 can detect the main body direction and rotation angle of the terminal 1400 , and the gyro sensor 1412 can photograph the 3D motion of the user with respect to the terminal 1400 in cooperation with the acceleration sensor 1411 . The processor 1401 implements functions such as motion sensing (such as changing the UI according to the user's tilting operation), image stabilization during shooting, game control, and inertial navigation, according to the data captured by the gyro sensor 1412. can be done.

圧力センサ1413は、端末1400のサイドフレームおよび/または表示スクリーン1405の下に配置されることができる。圧力センサ1413が端末1400のサイドフレームに配置される場合、端末1400に対するユーザのホールディング信号を検出し、プロセッサ1401によって、圧力センサ1413によって撮影されたホールディング信号に従って、右手と左手の識別またはクイック操作を実行することができる。圧力センサ1413が表示スクリーン1405の下に配置される場合、プロセッサ1401によって、ユーザが表示スクリーン1405に対する圧力操作に従って、UIインターフェース上の可操作性制御部に対する制御を実現する。可操作性制御部は、ボタン制御部、スクロール・バー制御部、アイコン制御部、メニュー制御部のうちの1つを備える。 Pressure sensors 1413 may be located on the side frames of terminal 1400 and/or under display screen 1405 . When the pressure sensor 1413 is placed on the side frame of the terminal 1400 , it detects the user's holding signal on the terminal 1400 and causes the processor 1401 to perform right and left hand identification or quick operation according to the holding signal captured by the pressure sensor 1413 . can be executed. If the pressure sensor 1413 is placed under the display screen 1405 , the processor 1401 implements control over the operability controls on the UI interface according to the user's pressure manipulation on the display screen 1405 . The usability controls comprise one of a button control, a scroll bar control, an icon control, and a menu control.

指紋センサ1414は、ユーザの指紋を撮影し、プロセッサ1401によって、指紋センサ1414で撮影された指紋に従ってユーザの身元を識別し、または、指紋センサ1414によって、指紋に従ってユーザの身元を識別する。ユーザの身元が可信身元であると識別された場合、プロセッサ1401によって、当該ユーザが関する敏感な操作を有することを認可し、当該敏感な操作は、画面のロックの解除、暗号化された情報の閲覧、ソフトウェアのダウンロード、支払いおよび設定の変更などを含む。指紋センサ1414は、端末1400の正面、背面または測面に配置されることができる。端末1400が、物理的ボタンまたはメーカーのLogoに配置される場合、指紋センサ1414は、物理的ボタンまたはメーカーのロゴと統合されてもよい。 The fingerprint sensor 1414 captures the fingerprint of the user and identifies the user according to the fingerprint captured by the fingerprint sensor 1414 by the processor 1401 or identifies the user according to the fingerprint by the fingerprint sensor 1414 . If the identity of the user is identified as a trusted identity, the processor 1401 authorizes the user to have sensitive operations on the sensitive operations, such as unlocking the screen, encrypting the encrypted information including browsing, downloading software, making payments and changing settings. Fingerprint sensor 1414 can be placed on the front, back, or side of terminal 1400 . If terminal 1400 is placed on a physical button or manufacturer's logo, fingerprint sensor 1414 may be integrated with the physical button or manufacturer's logo.

光学センサ1415は、環境光の強度を撮影する。一実施例において、プロセッサ1401は、光学センサ1415によって撮影された環境光の強度に従って、表示スクリーン1405のディスプレイ輝度を制御することができる。具体的に、環境光の強度が高い場合、表示スクリーン1405のディスプレイ輝度を挙げ、環境光の強度が低い場合、表示スクリーン1405のディスプレイ輝度を下げる。別の実施例において、プロセッサ1401は、光学センサ1415によって撮影された環境光の強度に従って、カメラコンポーネント1406の撮影パラメータを動的に調整することもできる。 Optical sensor 1415 captures the intensity of ambient light. In one embodiment, processor 1401 can control the display brightness of display screen 1405 according to the intensity of ambient light captured by optical sensor 1415 . Specifically, when the ambient light intensity is high, the display brightness of the display screen 1405 is increased, and when the ambient light intensity is low, the display brightness of the display screen 1405 is decreased. In another example, processor 1401 can also dynamically adjust the imaging parameters of camera component 1406 according to the intensity of ambient light imaged by optical sensor 1415 .

近接センサ1416は、距離センサとも称され、通常、端末1400のフロントパネルに配置される。近接センサ1416は、ユーザと端末1400の正面との間の距離を撮影する。一実施例において、近接センサ1416がユーザと端末1400の正面との間の距離がますます小さくなることが検出された場合、プロセッサ1401が、表示スクリーン1405がオンスクリーン状態からオフスクリーン状態に切り替えるように制御し、近接センサ1416がユーザと端末1400の正面との間の距離がますます大きくなることが検出された場合、プロセッサ1401が、表示スクリーン1405がオフスクリーン状態からオンスクリーン状態に切り替えるように制御する。 Proximity sensor 1416 , also referred to as a distance sensor, is typically located on the front panel of terminal 1400 . Proximity sensor 1416 captures the distance between the user and the front of terminal 1400 . In one embodiment, when the proximity sensor 1416 detects that the distance between the user and the front of the terminal 1400 is getting smaller and smaller, the processor 1401 causes the display screen 1405 to switch from the on-screen state to the off-screen state. , and when the proximity sensor 1416 detects that the distance between the user and the front of the terminal 1400 is increasing, the processor 1401 causes the display screen 1405 to switch from the off-screen state to the on-screen state. Control.

図14で示された構造は、端末1400に対して限定するものではなく、図に示されたものより多いまたはより少ないコンポーネントを備え、またはいくつかのコンポーネントを組み合わせ、または異なるコンポーネント配置を採用することができる。 The structure shown in FIG. 14 is non-limiting for terminal 1400 and includes more or fewer components than those shown in the figure, or combines several components or employs different component arrangements. be able to.

図15は本願実施例によるサーバの構造概略図であり、当該サーバ1500は、異なる構成または性能のため、比較的大きな違いを有することができ、1つまたは複数のプロセッサ(central processing units、CPU)1501および1つまたは複数のメモリ1502を備えることができる。ここで、当該1つまたは複数のメモリ1502に少なくとも1つの命令が記憶され、少なくとも1つの命令は、当該1つまたは複数のプロセッサ1501によってロードされ実行されて、上記の各方法の実施例が提供した動作制御方法を実現する。もちろん、当該サーバ1500はさらに、有線または無線のネットワークインターフェース、キーボードおよび入出力のための入力および出力インターフェース等の部材を有することができ、当該サーバ1500はさらに、他の機器機能を実現するための他の部材を含むことができ、ここでは詳細に説明しない。 FIG. 15 is a structural schematic diagram of a server according to an embodiment of the present application, the server 1500 may have a relatively large difference due to different configuration or performance, and includes one or more central processing units (CPU). 1501 and one or more memories 1502 . Here, at least one instruction is stored in said one or more memories 1502 and at least one instruction is loaded and executed by said one or more processors 1501 to provide an embodiment of each of the above methods. A motion control method is realized. Of course, the server 1500 may further have components such as wired or wireless network interfaces, keyboards and input and output interfaces for input and output, and the server 1500 may also have components for realizing other device functions. Other members may be included and will not be described in detail here.

例示的な実施例では、コンピュータ読み取り可能な記憶媒体をさらに提供し、例えば、命令を含むメモリを提供し、上記の命令は、上記の実施例における動作制御方法を完了するために、プロセッサによって実行される。例えば、当該コンピュータ読み取り可能な記憶媒体は、読み取り専用メモリ(Read-Only Memory,ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、コンパクトディスク読み取り専用メモリ(Compact Disc Read-Only Memory、CD-ROM)、磁気テープ、フロッピーディスクおよび光学データ記憶装置等などであることができる。 Example embodiments further provide a computer-readable storage medium, e.g., provide a memory containing instructions, the instructions being executed by a processor to complete the motion control methods in the above embodiments. be done. For example, the computer readable storage medium may be Read-Only Memory (ROM), Random Access Memory (RAM), Compact Disc Read-Only Memory (CD-ROM). ), magnetic tapes, floppy disks, optical data storage devices, and the like.

当業者は、上記の実施例のステップの全部または一部を、ハードウェアによって実現するか、または関連するハードウェアに完了するように指示するプログラムによって実現できることを理解できる。当該プログラムは、コンピュータ読み取り可能な記憶媒体に記憶することができ、上記に記載した記憶媒体は、読み取り専用メモリ、磁気ディスクまたは光ディスクなどであることができる。上記は、本発明の好ましい実施例にすぎず、本発明を限定することを意図するものではない。本発明の思想と原則の範囲内で行われた変更、同等の交換、改善などは、本発明の保護範囲に含まれるものである。 Those skilled in the art can understand that all or part of the steps of the above embodiments can be implemented by hardware or by a program instructing relevant hardware to complete. The program can be stored in a computer-readable storage medium, and the storage medium described above can be a read-only memory, a magnetic disk, an optical disk, or the like. The above are only preferred embodiments of the present invention and are not intended to limit the present invention. Any modification, equivalent replacement, improvement, etc. made within the spirit and principle of the present invention shall fall within the protection scope of the present invention.

1201 第1表示モジュール
1202 第1決定モジュール
1203 第1実行モジュール
1301 第2表示モジュール
1302 第2決定モジュール
1303 第2実行モジュール
1401 プロセッサ
1402 メモリ
1403 周辺機器インターフェース
1404 無線周波数回路
1405 表示スクリーン
1406 カメラコンポーネント
1407 オーディオ回路
1408 位置決めコンポーネント
1409 電源
1410 センサ
1411 加速度センサ
1412 ジャイロセンサ
1413 圧力センサ
1414 指紋センサ
1415 光学センサ
1416 近接センサ
1500 サーバ
1501 プロセッサ
1502 メモリ
1201 first display module
1202 first decision module
1203 First execution module
1301 second display module
1302 second decision module
1303 second execution module
1401 processor
1402 memory
1403 peripheral interface
1404 Radio Frequency Circuit
1405 display screen
1406 camera component
1407 audio circuit
1408 positioning component
1409 power supply
1410 sensor
1411 Accelerometer
1412 gyro sensor
1413 pressure sensor
1414 fingerprint sensor
1415 optical sensor
1416 proximity sensor
1500 servers
1501 processor
1502 memory

Claims (15)

電子機器が実行する動作制御方法であって、
グラフィカルユーザインターフェースに複数の制御機能に対応するターゲットボタンを表示するステップであって、前記複数の制御機能は、表示モード切り替え機能射撃機能および複数の動き制御機能に対応するものであるステップと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別と、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つとにしたがって、前記表示モード切り替え機能射撃機能および前記複数の動き制御機能のうち、それぞれ前記機能に対応するトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定するステップと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む、動作制御方法。
An operation control method executed by an electronic device,
displaying target buttons corresponding to a plurality of control functions on a graphical user interface, the plurality of control functions corresponding to a display mode switching function , a shooting function and a plurality of motion control functions ;
when a touch operation on the target button is detected, the type of virtual item controlled by the current virtual object, the movement state of the current virtual object, and the environment in the virtual scene of the current virtual object. determining a target function to be triggered corresponding to each of the display mode switching function , the shooting function and the plurality of motion control functions , and a target mode corresponding to the target function, according to at least one of the functions. a step;
and performing the target function on the graphical user interface based on the target mode.
前記現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する前記ステップは、
前記仮想アイテムの種別が第1種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
ことを特徴とする、請求項1に記載の方法。
determining a target function to be triggered among the display mode switching function and the shooting function and a target mode corresponding to the target function according to the type of virtual item controlled by the current virtual object;
When the type of the virtual item is the first type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is set as a target mode corresponding to the display mode switching function. and determining a first shooting mode as the target mode corresponding to the shooting function.
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
前記仮想アイテムの種別が第1種別である場合、前記ターゲット表示モード切り替えモードおよび前記第1射撃モードに基づき、前記タッチ動作の開始が検出されると、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えるとともに、前記タッチ動作の持続期間に射撃機能を継続して実行し、前記タッチ動作の終了が検出されると、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えるステップを含む
ことを特徴とする、請求項2に記載の方法。
The step of executing the target function in the graphical user interface based on the target mode comprises:
When the type of the virtual item is the first type, when the start of the touch operation is detected, the display mode of the virtual scene is changed from the first display mode based on the target display mode switching mode and the first shooting mode. While switching to the second display mode, the shooting function is continuously executed during the duration of the touch operation, and when the end of the touch operation is detected, the display mode of the virtual scene is changed from the second display mode to the first display mode. 3. The method of claim 2, comprising switching to .
前記現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する前記ステップは、
前記仮想アイテムの種別が第1種別である場合、前記仮想アイテムの現在の射撃種別を取得するステップと、
前記射撃種別が第1射撃種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを実行する、ステップと、
前記射撃種別が第2射撃種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップと、を含む
ことを特徴とする、請求項2に記載の方法。
determining a target function to be triggered among the display mode switching function and the shooting function and a target mode corresponding to the target function according to the type of virtual item controlled by the current virtual object;
obtaining a current shooting type of the virtual item if the type of the virtual item is a first type;
When the shooting type is the first shooting type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is determined as the target mode corresponding to the display mode switching function. and determining a first shooting mode as the target mode corresponding to the shooting function;
When the shooting type is the second shooting type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is determined as the target mode corresponding to the display mode switching function. and determining a second fire mode as the target mode corresponding to the fire function.
前記現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する前記ステップは、
前記仮想アイテムの種別が第2種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
ことを特徴とする、請求項1に記載の方法。
determining a target function to be triggered among the display mode switching function and the shooting function and a target mode corresponding to the target function according to the type of virtual item controlled by the current virtual object;
When the type of the virtual item is the second type, the display mode switching function and the shooting function are determined as target functions to be triggered, and the target display mode switching mode is set as a target mode corresponding to the display mode switching function. and determining a second fire mode as the target mode corresponding to the fire function.
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
前記仮想アイテムの種別が第2種別である場合、前記ターゲット表示モード切り替えモードおよび前記第2射撃モードに基づき、前記タッチ動作の開始が検出されると、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、前記タッチ動作の終了が検出されると、前記射撃機能を実行するとともに、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えるステップを含む
ことを特徴とする、請求項5に記載の方法。
The step of executing the target function in the graphical user interface based on the target mode comprises:
When the type of the virtual item is the second type, the display mode of the virtual scene is changed from the first display mode when the start of the touch operation is detected based on the target display mode switching mode and the second shooting mode. switching to a second display mode, and when the end of the touch action is detected, executing the shooting function and switching the display mode of the virtual scene from the second display mode to the first display mode. 6. The method of claim 5, wherein
前記現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する前記ステップは、
前記仮想アイテムの種別が第3種別である場合、前記射撃機能を前記トリガー対象のターゲット機能として決定し、第3射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
ことを特徴とする、請求項1に記載の方法。
determining a target function to be triggered among the display mode switching function and the shooting function and a target mode corresponding to the target function according to the type of virtual item controlled by the current virtual object;
determining the shooting function as the target function to be triggered, and determining a third shooting mode as the target mode corresponding to the shooting function, if the virtual item is of a third type. The method of claim 1, wherein
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
前記仮想アイテムの種別が第3種別である場合、前記第3射撃モードに基づき、前記タッチ動作の開始が検出されると、前記射撃機能を実行するステップを含む
ことを特徴とする、請求項7に記載の方法。
The step of executing the target function in the graphical user interface based on the target mode comprises:
and executing the shooting function when the start of the touch action is detected based on the third shooting mode when the type of the virtual item is the third type. The method described in .
前記グラフィカルユーザインターフェースにターゲットボタンを表示する前記ステップは、
グラフィカルユーザインターフェースのターゲット位置に、前記ターゲットボタンを表示するステップ、
グラフィカルユーザインターフェースに、ターゲットサイズに応じて前記ターゲットボタンを表示するステップ、および
グラフィカルユーザインターフェースに、ターゲット透明度に応じて前記ターゲットボタンを表示するステップのうちの少なくとも1つを含む
ことを特徴とする、請求項1に記載の方法。
The step of displaying a target button on the graphical user interface comprises:
displaying said target button at a target location of a graphical user interface;
displaying the target button in a graphical user interface according to a target size; and displaying the target button in a graphical user interface according to a target transparency. The method of claim 1.
構成インターフェースに基づき、前記ターゲットボタンの位置調整情報を取得し、前記位置調整情報に基づき、前記ターゲットボタンのターゲット位置を取得するステップ、
構成インターフェースに基づき、前記ターゲットボタンのサイズ調整情報を取得し、前記サイズ調整情報に基づき、前記ターゲットボタンのターゲットサイズを取得するステップ、および
構成インターフェースに基づき、前記ターゲットボタンの透明度調整情報を取得し、前記透明度調整情報に基づき、前記ターゲットボタンのターゲット透明度を取得するステップのうちの少なくとも1つをさらに含む
ことを特徴とする、請求項9に記載の方法。
obtaining alignment information of the target button based on a configuration interface, and obtaining a target position of the target button based on the alignment information;
obtaining size adjustment information of the target button based on a configuration interface; obtaining target size of the target button based on the size adjustment information; and obtaining transparency adjustment information of the target button based on a configuration interface. , obtaining a target transparency of the target button based on the transparency adjustment information.
前記ターゲットボタンは、視角調整機能にも対応するものであり、
前記方法は、
前記ターゲットボタンへのタッチ動作が検出されると、前記視角調整機能を前記トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを前記視角調整機能に対応するターゲットモードとして決定するステップをさらに含み、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
前記ターゲット視角調整モードに基づき、前記タッチ動作の持続期間に、前記タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角を調整するステップをさらに含む
ことを特徴とする、請求項1に記載の方法。
The target button also corresponds to a viewing angle adjustment function,
The method includes:
determining the viewing angle adjustment function as the target function to be triggered and determining a target viewing angle adjustment mode as a target mode corresponding to the viewing angle adjustment function when a touch operation on the target button is detected;
The step of executing the target function in the graphical user interface based on the target mode comprises:
2. The method according to claim 1, further comprising adjusting a viewing angle of the virtual scene according to the target viewing angle adjustment mode and according to the motion direction and motion speed of the touch motion during the duration of the touch motion. described method.
前記グラフィカルユーザインターフェースにターゲットボタンを表示する前記ステップは、
構成情報によって動作制御機能がオン状態にあると決定されると、前記グラフィカルユーザインターフェースにターゲットボタンを表示する前記ステップを実行する、ステップを含む
ことを特徴とする、請求項1に記載の方法。
The step of displaying a target button on the graphical user interface comprises:
2. The method of claim 1, comprising performing the step of displaying a target button on the graphical user interface when configuration information determines that a motion control function is in an on state.
動作制御装置であって、
表示モード切り替え機能射撃機能および複数の動き制御機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別と、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つとにしたがって、前記表示モード切り替え機能射撃機能および前記複数の動き制御機能のうち、それぞれ前記機能に対応するトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する決定モジュールと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える、動作制御装置。
A motion control device,
a display module for displaying a target button corresponding to a display mode switching function , a shooting function and a plurality of motion control functions on a graphical user interface;
when a touch operation on the target button is detected, the type of virtual item controlled by the current virtual object, the movement state of the current virtual object, and the environment in the virtual scene of the current virtual object. determining a target function to be triggered corresponding to each of the display mode switching function , the shooting function and the plurality of motion control functions , and a target mode corresponding to the target function, according to at least one of the functions. a decision module;
an execution module for executing the target function on the graphical user interface based on the target mode.
メモリとプロセッサとを備える電子機器であって、
前記メモリにコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令が前記プロセッサによって実行されると、前記プロセッサに請求項1ないし12のいずれか1項に記載の動作制御方法のステップを実行させる、電子機器。
An electronic device comprising a memory and a processor,
Computer readable instructions are stored in the memory, and when the computer readable instructions are executed by the processor, cause the processor to perform the steps of the motion control method of any one of claims 1 to 12 . electronic equipment.
プログラムであって、
1つまたは複数のプロセッサに請求項1ないし12のいずれか1項に記載の動作制御方法のステップを実行させる、プログラム。
a program,
A program that causes one or more processors to execute the steps of the motion control method according to any one of claims 1 to 12 .
JP2021531040A 2019-04-11 2020-03-17 Motion control method, device, electronic device and program Active JP7231737B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910290727.0A CN110141869A (en) 2019-04-11 2019-04-11 Method of controlling operation thereof, device, electronic equipment and storage medium
CN201910290727.0 2019-04-11
PCT/CN2020/079706 WO2020207206A1 (en) 2019-04-11 2020-03-17 Operation control method and apparatus, and electronic device and storage medium

Publications (2)

Publication Number Publication Date
JP2022509295A JP2022509295A (en) 2022-01-20
JP7231737B2 true JP7231737B2 (en) 2023-03-01

Family

ID=67588909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021531040A Active JP7231737B2 (en) 2019-04-11 2020-03-17 Motion control method, device, electronic device and program

Country Status (8)

Country Link
US (1) US20210260479A1 (en)
JP (1) JP7231737B2 (en)
KR (1) KR102578242B1 (en)
CN (1) CN110141869A (en)
AU (1) AU2020256524A1 (en)
CA (1) CA3132897A1 (en)
SG (1) SG11202104911TA (en)
WO (1) WO2020207206A1 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110141869A (en) * 2019-04-11 2019-08-20 腾讯科技(深圳)有限公司 Method of controlling operation thereof, device, electronic equipment and storage medium
CN110339562B (en) * 2019-08-01 2023-09-15 腾讯科技(深圳)有限公司 Virtual object control method, device, terminal and storage medium
CN110448908B (en) * 2019-08-22 2020-12-01 腾讯科技(深圳)有限公司 Method, device and equipment for applying sighting telescope in virtual environment and storage medium
CN110665229B (en) * 2019-10-11 2021-08-20 腾讯科技(深圳)有限公司 Method and related device for element interaction in shooting game
CN110975289B (en) * 2019-11-14 2021-10-15 腾讯科技(深圳)有限公司 Shooting mode switching control method and device, storage medium and electronic device
CN111068330B (en) * 2019-11-21 2021-07-27 腾讯科技(深圳)有限公司 Processing method and device of virtual attack prop, storage medium and electronic device
CN111359214B (en) * 2020-03-05 2021-05-11 腾讯科技(深圳)有限公司 Virtual item control method and device, storage medium and electronic device
CN111632380A (en) * 2020-05-28 2020-09-08 腾讯科技(深圳)有限公司 Virtual attitude switching method and device, storage medium and electronic device
JP7408685B2 (en) * 2020-09-11 2024-01-05 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Methods, devices, equipment and storage media for adjusting the position of controls in application programs
CN112316428A (en) * 2020-10-27 2021-02-05 腾讯科技(深圳)有限公司 Method and device for processing virtual prop and computer readable storage medium
CN112402960B (en) * 2020-11-19 2022-11-04 腾讯科技(深圳)有限公司 State switching method, device, equipment and storage medium in virtual scene
CN112354181B (en) * 2020-11-30 2022-12-30 腾讯科技(深圳)有限公司 Open mirror picture display method and device, computer equipment and storage medium
CN112791398A (en) * 2021-02-03 2021-05-14 网易(杭州)网络有限公司 Method and device for controlling virtual time-of-use mirror in game, electronic equipment and storage medium
CN113318430A (en) * 2021-05-28 2021-08-31 网易(杭州)网络有限公司 Virtual character posture adjusting method and device, processor and electronic device
CN113546425B (en) * 2021-07-27 2024-03-01 网易(杭州)网络有限公司 Method, device, terminal and storage medium for processing virtual article in game
KR102354559B1 (en) * 2021-08-24 2022-01-21 한국기술교육대학교 산학협력단 Multi-kinds interface devices for content control
CN113687761B (en) * 2021-08-24 2023-08-08 网易(杭州)网络有限公司 Game control method and device, electronic equipment and storage medium
KR102646689B1 (en) * 2021-10-20 2024-03-12 (주)크래프톤 Method to provide User interface for mobile game and device using the same
CN113926181A (en) * 2021-10-21 2022-01-14 腾讯科技(深圳)有限公司 Object control method and device of virtual scene and electronic equipment
CN113986079B (en) * 2021-10-28 2023-07-14 腾讯科技(深圳)有限公司 Virtual button setting method and device, storage medium and electronic equipment
CN114371898B (en) * 2021-12-10 2022-11-22 北京城市网邻信息技术有限公司 Information display method, equipment, device and storage medium
CN114217708B (en) * 2021-12-15 2023-05-26 腾讯科技(深圳)有限公司 Control method, device, equipment and storage medium for opening operation in virtual scene

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140243058A1 (en) 2013-02-26 2014-08-28 Gree, Inc. Shooting game control method and game system
JP5727655B1 (en) 2014-09-17 2015-06-03 株式会社Pgユニバース Information processing apparatus, information processing method, and program
CN105688409A (en) 2016-01-27 2016-06-22 网易(杭州)网络有限公司 Game control method and device
JP2017201513A (en) 2016-05-03 2017-11-09 ホットヘッド ホールディングス インコーポレイテッド Zoom control for virtual environment user interface

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101298030B1 (en) * 2013-03-12 2013-08-26 주식회사 네시삼십삼분 Computer readable medium recording a shooting game
CN106293070B (en) * 2016-07-27 2019-11-15 网易(杭州)网络有限公司 Virtual role view directions control method and device
KR20180116870A (en) * 2017-04-18 2018-10-26 주식회사 드래곤플라이 Game device and computer program
CN108525294B (en) * 2018-04-04 2021-07-27 网易(杭州)网络有限公司 Control method and device for shooting game
CN108553891A (en) * 2018-04-27 2018-09-21 腾讯科技(深圳)有限公司 Object method of sight and device, storage medium and electronic device
CN108771863B (en) * 2018-06-11 2022-04-15 网易(杭州)网络有限公司 Control method and device for shooting game
CN109091869B (en) * 2018-08-10 2022-07-26 腾讯科技(深圳)有限公司 Method and device for controlling action of virtual object, computer equipment and storage medium
CN109589601B (en) * 2018-12-10 2022-04-08 网易(杭州)网络有限公司 Virtual sighting telescope control method and device, electronic equipment and storage medium
CN110141869A (en) * 2019-04-11 2019-08-20 腾讯科技(深圳)有限公司 Method of controlling operation thereof, device, electronic equipment and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140243058A1 (en) 2013-02-26 2014-08-28 Gree, Inc. Shooting game control method and game system
JP5727655B1 (en) 2014-09-17 2015-06-03 株式会社Pgユニバース Information processing apparatus, information processing method, and program
CN105688409A (en) 2016-01-27 2016-06-22 网易(杭州)网络有限公司 Game control method and device
JP2017201513A (en) 2016-05-03 2017-11-09 ホットヘッド ホールディングス インコーポレイテッド Zoom control for virtual environment user interface

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
[PUBGモバイル]iPadのおすすめボタン配置を紹介(4本指),コンプリ[online],2019年02月09日,https://compri.jp/pubg-button-setup/,特に本文、図を参照。[検索日2022年6月8日]
[荒野行動]『瞬殺モード』を解説!狙撃の重要テクニックを活用しよう!,GameWith[online],2019年04月07日,https://web.archive.org/web/20190407044505/https://gamewith.jp/knives-out/article/show/109698,特に本文、図を参照。[検索日2022年6月8日]
[荒野行動]知らなきゃ損!!『瞬殺モード』の使い方利点解説!使いこなせればSR無双当たり前!?[Knives out実況],YouTube[online][video],2018年04月20日,https://www.youtube.com/watch?v=AmDJSeQuvOg,特に動画時間[00:40]-[01:10]等参照。[検索日2022年6月8日]

Also Published As

Publication number Publication date
CA3132897A1 (en) 2020-10-15
KR102578242B1 (en) 2023-09-12
KR20210086705A (en) 2021-07-08
SG11202104911TA (en) 2021-06-29
WO2020207206A1 (en) 2020-10-15
US20210260479A1 (en) 2021-08-26
AU2020256524A1 (en) 2021-10-07
JP2022509295A (en) 2022-01-20
CN110141869A (en) 2019-08-20

Similar Documents

Publication Publication Date Title
JP7231737B2 (en) Motion control method, device, electronic device and program
CN109350964B (en) Method, device, equipment and storage medium for controlling virtual role
JP7155405B2 (en) ACCESSORY SELECTION METHOD IN VIRTUAL ENVIRONMENT AND DEVICE, DEVICE AND COMPUTER PROGRAM THEREOF
CN108619721B (en) Distance information display method and device in virtual scene and computer equipment
JP7419382B2 (en) Method and apparatus and computer program for controlling a virtual object to mark a virtual item
CN109614171B (en) Virtual item transfer method and device, electronic equipment and computer storage medium
WO2019214402A1 (en) Accessory switch method and apparatus in virtual environment, device, and storage medium
CN108671545B (en) Method, device and storage medium for controlling interaction between virtual object and virtual scene
TWI796777B (en) Virtual object control method, device, terminal and storage medium
JP7309913B2 (en) Viewpoint rotation method, device, terminal and computer program
CN111589132A (en) Virtual item display method, computer equipment and storage medium
CN109324739B (en) Virtual object control method, device, terminal and storage medium
WO2021031765A1 (en) Application method and related apparatus of sighting telescope in virtual environment
WO2020151594A1 (en) Viewing angle rotation method, device, apparatus and storage medium
CN112221134A (en) Virtual environment-based picture display method, device, equipment and medium
CN110738738B (en) Virtual object marking method, equipment and storage medium in three-dimensional virtual scene
CN110152309B (en) Voice communication method, device, electronic equipment and storage medium
CN112121438B (en) Operation prompting method, device, terminal and storage medium
RU2787649C1 (en) Method and device for control of operations, electronic device, and data carrier
JP7413563B2 (en) Virtual object control method, device, equipment and computer program
JP7471369B2 (en) Method for selecting accessories in a virtual environment, and device, equipment, and computer program therefor
US20240123342A1 (en) Method, apparatus, device, and storage medium for perspective rotation
CN113633976A (en) Operation control method, device, equipment and computer readable storage medium
CN114011073A (en) Method, device and equipment for controlling vehicle and computer readable storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150