JP2022509295A - 動作制御方法、装置、電子機器およびプログラム - Google Patents

動作制御方法、装置、電子機器およびプログラム Download PDF

Info

Publication number
JP2022509295A
JP2022509295A JP2021531040A JP2021531040A JP2022509295A JP 2022509295 A JP2022509295 A JP 2022509295A JP 2021531040 A JP2021531040 A JP 2021531040A JP 2021531040 A JP2021531040 A JP 2021531040A JP 2022509295 A JP2022509295 A JP 2022509295A
Authority
JP
Japan
Prior art keywords
target
function
mode
shooting
display mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021531040A
Other languages
English (en)
Other versions
JP7231737B2 (ja
Inventor
槿 ▲楊▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022509295A publication Critical patent/JP2022509295A/ja
Application granted granted Critical
Publication of JP7231737B2 publication Critical patent/JP7231737B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2022509295000001
動作制御方法、装置、電子機器および記憶媒体が開示されている。方法は、グラフィカルユーザインターフェースにターゲットボタンを表示するステップ(301)と、前記ターゲットボタンへのタッチ動作が検出されると、端末が当該現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得するステップ(302)と、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定するステップと、前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップとを含む。

Description

本願は、2019年04月11日に中国特許庁へ提出された、出願番号が201910290727.0であり、出願名称が「動作制御方法、装置、電子機器および記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は本願に引用にて結合される。
本願は、コンピュータ技術分野に関し、特に、動作制御方法、装置、電子機器および記憶媒体に関する。
コンピュータ技術の発達および端末機能の多様化に伴い、端末で射撃ゲームをプレイできることなど、端末でプレイできるゲームの種類はますます増えている。
現在、ゲームに対応する動作制御方法では、通常、ユーザによる動作に応じて対応する機能が実現される。例えば、攻撃動作を受信すると、攻撃するように仮想オブジェクトを制御する。しかしながら、動作プロセスが煩雑で複雑であり、動作制御効率が低い場合が多いため、上記の煩雑で複雑な動作や低効率の問題を解決するための動作制御方法が急務となっている。
本願による各実施例は、動作制御方法、装置、電子機器および記憶媒体を提供する。
1側面において、電子機器が実行する動作制御方法であって、
グラフィカルユーザインターフェースにターゲットボタンを表示するステップであって、前記ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する、ステップと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定するステップと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む
動作制御方法を提供する。
1側面において、電子機器が実行する動作制御方法であって、
グラフィカルユーザインターフェースにターゲットボタンを表示するステップであって、前記ターゲットボタンは複数の制御機能に対応し、前記複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む、ステップと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別、前記現在の仮想オブジェクトの移動状態または前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、前記複数の制御機能のうちのトリガー対象のターゲット機能および前記ターゲット機能に対応するターゲットモードを決定するステップと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む
動作制御方法を提供する。
1側面において、
表示モード切り替え機能および射撃機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する決定モジュールと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える
動作制御装置を提供する。
1側面において、
複数の制御機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールであって、前記複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含むものである表示モジュールと、
前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、前記複数の制御機能のうちのトリガー対象のターゲット機能および前記ターゲット機能に対応するターゲットモードを決定する決定モジュールと、
前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える
動作制御装置を提供する。
1側面において、メモリとプロセッサを備える電子機器であって、
前記メモリにはコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令が前記プロセッサによって実行されると、前記プロセッサに上記の動作制御方法のステップを実行させる
電子機器を提供する。
1側面において、コンピュータ読み取り可能な命令が記憶されている1つまたは複数の不揮発性記憶媒体であって、
前記コンピュータ読み取り可能な命令が1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、上記の動作制御方法のステップを実行させる
不揮発性記憶媒体を提供する。
本願の1つまたは複数の実施例の詳細は、以下の図面および説明に記載されている。本願の他の特徴、目的および利点は、明細書、図面および特許請求の範囲から明らかになるであろう。
以下、本願の実施例における技術態様をより明確に説明するために、実施例の説明に必要な図面を簡単に記述する。明らかに、以下の説明の図面は、本願のいくつかの実施例にすぎず、当業者のとっては、これらの図面に基づいて、創造的な作業なしに他の図面を取得することができる。
本願実施例による仮想シーンの表示モードの概略図である。 本願実施例による仮想シーンの表示モードの概略図である。 本願実施例による動作制御方法のフローチャートである。 本願実施例によるターゲットボタンの表示インターフェースの概略図である。 本願実施例による構成インターフェースの概略図である。 本願実施例による機能構成インターフェースの概略図である。 本願実施例による仮想アイテムの種別が第1種別である場合にターゲット機能の実行中におけるインターフェースの概略図である。 本願実施例による仮想アイテムの種別が第2種別である場合にターゲット機能の実行後のインターフェースの概略図である。 本願実施例による仮想アイテムの種別が第3種別である場合にターゲット機能の実行中おけるインターフェースの概略図である。 本願実施例による動作制御方法のフローチャートである。 本願実施例による動作制御方法のフローチャートである。 本願実施例による動作制御装置の構造概略図である。 本願実施例による動作制御装置の構造概略図である。 本願実施例による端末の構造概略図である。 本願実施例によるサーバの構造概略図である。
以下、本願の目的、技術態様および利点をより明確にするために、本願の実施形態を、添付の図面を参照しながらさらに詳細に説明する。
本願実施例は、主に電子ゲームまたはシミュレーショントレーニングシーンに関する。電子ゲームシーンを例にすると、ユーザは、事前に当該端末で動作を行うことができ、当該端末は、ユーザによる動作を検出すると、電子ゲームのゲーム構成ファイルをダウンロードすることができる。当該ゲーム構成ファイルは、当該電子ゲームのアプリケーションプログラム、インターフェース表示データまたは仮想シーンデータ等を含むことができ、これにより、当該ユーザが当該端末で電子ゲームにログインするときに、当該ゲーム構成ファイルを呼び出して、電子ゲームインターフェースをレンダリングして表示することができる。ユーザは、端末でタッチ動作を実行することができ、当該端末はタッチ動作を検出すると、当該タッチ動作に対応するゲームデータを決定し、当該ゲームデータをレンダリングして表示することができ、当該ゲームデータは、仮想シーンデータ、当該仮想シーン内の仮想オブジェクトの挙動データ等を含むことができる。
本願に係わる仮想シーンは、1つの3次元仮想空間をシミュレートするために用いられてもよく、1つの2次元仮想空間をシミュレートするために用いられてもよい。当該3次元仮想空間または2次元仮想空間は、オープン空間であることができる。当該仮想シーンは、現実における真の環境をシミュレートするために用いられることができ、例えば、当該仮想シーンは、空、陸地、海等を含み、当該陸地は、砂漠、都市等の環境要素を含み、ユーザは、当該仮想シーンで移動するように仮想オブジェクトを制御することができる。ここで、仮想オブジェクトは、ユーザを表すための1つの仮想の仮想キャラクター、またはペット等のユーザに関連付けられた生き物を表すために使用される1つ仮想の仮想キャラクターであることができる。当該仮想キャラクターは、人間または動物などの任意の形態であることができ、本願はこれに限定されない。
当該仮想シーンには、さらに他の仮想オブジェクトを含むことができる。即ち、当該仮想シーンは、複数の仮想オブジェクトを含むことができ、各仮想オブジェクトは、仮想シーンにおいて独自の形状および体積を有し、仮想シーンにおける空間の一部を占める。シューティングゲームを例にすると、ユーザは仮想オブジェクトを制御して、自由落下、滑空、またはパラシュートを開くことで当該仮想シーンの空中で降下したり、陸地で走ったり、ジャンプしたり、這ったり、前に腰を曲げて進んだりすることができる。仮想オブジェクトを制御して海で泳いだり、浮いたり、ダイビングしたりすることもできる。もちろん、ユーザは仮想オブジェクトを制御して、乗り物に乗って当該仮想シーン内で移動させることもでき、ここでは、上記のシーンのみを例にして説明し、本願実施例はこれに限定されない。ユーザはさらに、仮想アイテムを使用して他の仮想オブジェクトと戦うように仮想オブジェクトを制御することができる。当該仮想アイテムは、冷兵器またはホットウェポンであることができ、本願実施例では特に限定されない。
通常、端末スクリーンには、現在の端末で制御される仮想オブジェクトの視角画面が表示され、当該端末スクリーンには、当該現在の端末によって制御される仮想オブジェクトの照準点を表示することもできる。当該照準点は、現在の端末で制御される仮想オブジェクトの視角画面における照準ターゲットを表記するために用いられることができ、当該仮想シーンにおける当該照準点の位置は、現在の端末によって制御される仮想オブジェクトの攻撃ポイントとして使用できる。
具体的には、当該照準点は、当該端末スクリーンの中心位置に表示することができる。もちろん、当該照準点は、他の位置に表示することもでき、本願実施例では特に限定されない。当該照準点の表示パターンは、複数の種類があるため、照準点の表示パターンはシステムデフォルトで表示されてもよく、ユーザの設定に応じて調整されてもよい。ユーザは、端末に表示された照準点を見ると、現在の照準点に対応する仮想シーンでの位置が照準しようとする領域であるかを判断でき、その領域でなければ、ユーザは視角調整動作により仮想シーンの視角を調整して、当該照準点の照準する領域を調整できる。もちろん、ユーザは、通常照準点を仮想シーン内の他の仮想オブジェクトの本体にすばやく且つ正確に調整して、それにより、他の当該仮想オブジェクトを射撃、平手打ちまたはボクシング等を行うことができる。
当該視角調整動作は、複数の種類の動作モードを含むことができる。一可能な実現形態において、当該視角調整動作は、スライド動作であることができ、端末が、当該スライド動作が検出された場合、当該スライド動作のスライド方向、スライド距離およびスライド速度に基づいて、当該スライド動作に対応する視角の回動方向、回動角度および回動速度を決定することができる。例えば、当該スライド動作のスライド方向は、視角の回動方向に対応し、当該スライド動作のスライド距離の大きさは視角の回動角度と正の相関があることができる。もちろん、当該スライド動作のスライド速度も当該視角の回動速度と正の相関があることができる。
別の可能な実現形態において、当該視角調整動作はさらに、端末に対する回動動作であることができる。当該端末内の角速度センサ(ジャイロスコープなど)によって当該回動動作が検出された場合、当該回動動作の回動方向、回動角度および回動速度にしたがって、視角の回動方向、回動角度および回動速度を決定することができる。例えば、当該回動動作の回動方向は、視角の回動方向であることができ、当該回動動作の回動角度は、当該視角の回動角度と正の相関があることができ、当該回動動作の回動速度は、当該視角の回動速度と正の相関があることができる。もちろん、当該視角調整動作は、キー動作、仮想ジョイスティック領域のドラッグ動作、または真のジョイスティック機器のトグル動作等であることができ、本発明は特に限定しない。
もちろん、当該視角調整動作は、さらにジェスチャ動作などの他の方式を含むことができ、本願実施例はこれを限定しない。ユーザが仮想オブジェクトを制御する場合、上記のいくつかの視角調整動作の組み合わせによって異なる制御効果を実現することもでき、例えば、当該ユーザの視角に対する視角調整動作がスライド動作であるが、当該スライド動作時、端末が当該スライド動作中の動作の押し付け力を検出し、当該押し付け力が特定の押し付け力より大きいか否かに基づいて、射撃等を実行するか否かを決定する。上記は、例示的な説明に過ぎず、具体的な実施において、上記のいくつかの視角調整動作の組み合わせ方法や、どのような制御効果をもたらすかなどは、本発明では特に限定しない。
上記の電子ゲームシーンでは、仮想オブジェクトが通常に、仮想アイテムを制御して他の仮想オブジェクトと戦うようにする。一部の銃器アイテムには、照準器が装備されることもできるため、照準器に基づいて仮想シーンを観察してもよい。当該照準器は、機械的な照準器であることができ、機械的な照準器は、銃器アイテムに本来装備されていた観測機器を意味する。当該照準器は、後で当該銃器アイテムに装備したスコープなどの照準器であることができる。ここで、当該スコープは、倍率を有することができ、当該倍率は、1または1より大きい値であることができる。例えば、当該スコープは、レッドドットスコープ、ホログラフィックスコープ、2倍スコープ、4倍スコープ、8倍スコープ等などであることができる。ここで、レッドドットスコープおよびホログラフィックスコープの倍率が1であるが、2倍スコープ、4倍スコープおよび8倍スコープの倍率は1より大きい。もちろん、当該スコープの倍率は、他の数値であってもよく、例えば、当該スコープは、3倍レンズ、6倍レンズ、15倍レンズ等であることができる。本願実施例は、当該スコープの倍率を限定しない。
一般的に、当該照準器は、仮想オブジェクトの照準と射撃を支援するためのものであるため、仮想オブジェクトが仮想アイテムを制御して照準または射撃を行う場合、仮想シーンの表示モードを照準器に基づく表示モードに切り替え、このようにして敵の仮想オブジェクトをより正確に照準して射撃することができる。例えば、図1に示すように、仮想シーンは、照準器に基づく表示モードではなく、第1表示モードになっている。図2に示すように、ユーザが仮想シーンに現れた他の仮想オブジェクトを正確に射撃するように仮想オブジェクトを制御するためには、仮想シーンの表示モードを照準器に基づく表示モードに切り替え、仮想オブジェクトによって制御される仮想アイテムでの照準器を介して仮想シーンを観察することができる。
図3は、本願実施例による動作制御方法のフローチャートである。当該方法は、電子機器に適用することができ、当該電子機器は、端末またはサーバとして提供することができ、本願実施例はこれに限定されない。以下の実施例では、当該動作制御方法が端末によって実行されることを例にして説明する。図3を参照すると、当該方法は、次のステップ301~308を含むことができる。
ステップ301において、端末が、グラフィカルユーザインターフェースにターゲットボタンを表示し、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する。
本願実施例において、端末は、動作制御機能を提供することができ、ターゲットボタンを提供することができる。当該ターゲットボタンは、複数の種類の制御機能に対応し、ユーザは、ターゲットボタンに対して一回のタッチ動作を実行することで、複数の種類の制御機能を実現することができる。具体的には、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応することができる。
ここで、端末による当該ターゲットボタンの方法は、端末がグラフィカルユーザインターフェースにターゲットボタンを表示することで、ユーザが当該ターゲットボタンに対してタッチ動作を行うものであることができる。具体的には、当該端末は、ターゲットボタンを表示する際、次のステップ1ないし3のうちの少なくとも1つのステップによって実現することができる。
ステップ1において、端末がグラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示する。
ステップ2において、端末がグラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示する。
ステップ3において、端末がグラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。
即ち、当該ターゲットボタンの表示状況は、少なくとも1つの表示パラメータを含むことができ、当該少なくとも1つの表示パラメータは、表示位置、サイズおよび透明度のうちの少なくとも1つを含むことができる。ここで、当該ターゲットボタンの表示位置はターゲット位置であり、サイズはターゲットサイズであり、透明度はターゲット透明度である。上記の少なくとも1つの表示パラメータの設定により、当該ターゲットボタンの表示状況を実際のニーズに合わせて柔軟に変更することができる。
一可能な実現形態において、当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、当業者によって必要に応じて設定され、本願実施例はこれを限定しない。例えば、目標位置は、ユーザが端末を持っているときの端末スクリーンとのユーザの手の接触位置に応じて決定することができ、接触位置のプリセットの範囲内にあることができる。たとえば、ターゲット位置をユーザが容易にクリックする位置に設定して、ユーザ動作の複雑さを軽減する。たとえば、図4に示すように、ターゲットボタン401が配置されているターゲット位置は、グラフィカルユーザインターフェースの右下隅の領域の位置にすることができ、ユーザが端末を持っているとき、指はちょうど当該位置に配置される。当該ターゲットサイズを小さく設定したり、ターゲット透明度を大きく設定したりすることができるため、当該ターゲットボタンによってグラフィカルユーザインターフェースが過度にオクルージョンされることはない。つまり、目標サイズはボタンの通常のサイズよりも小さくすることができ、当該ターゲット透明度は通常の透明度よりも大きくすることができる。ここで、当該ボタンの通常のサイズはボタンの平均サイズであり、当該通常の透明度は、ボタンの一般的なものであり、または当該通常の透明度は0にすることができる。これらは、当業者によって必要に応じて設定されることができ、本願実施例はこれを限定しない。
当該ターゲットボタンはターゲット提示情報を表示することもでき、当該ターゲット提示情報は、当該ターゲットボタンが表示モード切り替え機能および射撃制御機能を同時に有することを提示するために使用され、例えば、当該ターゲットボタンは照準点と弾丸のパターンを表示できる。このようにして、当該ターゲットボタンが表示モード切り替え機能と射撃制御機能を同時に提供できることを提示することができる。
別の可能な実現形態において、当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、さらに、ユーザが自体の使用習慣にしたがってカスタマイズすることができる。具体的には、端末は、構成インターフェースを提供でき、ユーザは、当該ターゲットボタンの表示状況を変更するために、当該構成インターフェースでカスタマイズすることができる。当該表示状況の設定プロセスは、次のステップ1ないし3のうちの少なくとも1つのステップによって実現される。
ステップ1において、端末は、構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得する。
ステップ2において、端末は、構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得する。
ステップ3において、端末は、構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。
例えば、図5に示すように、当該構成インターフェースには、当該ターゲットボタンの表示パラメータ調整オプションが提供され、当該表示パラメータ調整オプションは、ボタンサイズ(サイズ)、透明度および当該ターゲットボタンである。ユーザは、当該表示パラメータ調整オプションに対して動作し、端末は、動作にしたがって、対応する調整情報を取得し、それにより、調整情報に基づき、ターゲットボタンの表示パラメータを調整することができる。具体的には、ユーザは、当該ボタンサイズの調整バーを調整することができ、端末は、当該調整バーに対するユーザの調整動作に基づき、表示された当該ターゲットボタンのサイズを調整して、調整プレビュー効果を提供することができる。例えば、図5に示す「179%」は、ターゲットボタンのサイズがデフォルトサイズの179%であることを示す。同様に、ユーザは透明度調整バーに対して調整動作を実行することもできる。例えば、図5に示す「100%」は、ターゲットボタンの透明度が100%であることを示す。ユーザが当該ターゲットボタンのターゲット位置を調整する場合、当該ターゲットボタンをドラッグする動作により実現でき、端末は当該ターゲットボタンに対するドラッグ動作により、当該ターゲットボタンの位置を調整することができる。例えば、ドラッグボタンの位置は、ドラッグ動作の位置変化につれて変化される。図5では、点線の位置がターゲットボタンの元の位置であり、ターゲットボタンのドラッグ動作を受信すると、ドラッグ位置の変化につれて、ターゲットボタンは元の位置から始まって、ドラッグ位置とともに移動する。
具体的な一可能な実施例において、端末は、当該構成インターフェースに当該ターゲットボタンを表示でき、ユーザは、当該ターゲットボタンに対して選択動作を実行できる。端末が当該ターゲットボタンの選択動作を検出すると、当該ターゲットボタンの表示パラメータ調整オプションを表示することができる。一可能な実現形態において、当該構成インターフェースにはさらに、他のボタンが提供され、それによりユーザが他のボタンの表示パラメータにも設定することができ、本願実施例はこれを限定しない。
一可能な実現形態において、当該動作制御機能の状態は、オン状態およびオフ状態を含むことができ、ユーザは、当該動作制御機能の状態を設定することにより、端末がその動作制御機能を提供する必要があるか否かを決定することができる。具体的には、構成情報によって動作制御機能がオン状態にあると決定されると、端末は、グラフィカルユーザインターフェースにターゲットボタンを表示する当該ステップを実行することができる。即ち、動作制御機能がオンになっていると決定された場合、端末は動作制御機能を提供して、構成情報にしたがって動作制御機能がオフ状態になっていると決定された場合、端末は、当該ステップ301を実行しなくてもよい。
ここで、端末が当該動作制御機能の状態を設定する場合、機能構成インターフェースを介して実現することができる。具体的には、端末は、機能構成インターフェースおよび当該動作制御機能の状態設定動作に基づき、当該動作制御機能の状態を設定し、即ち、機能構成インターフェースに基づき、当該動作制御機能の構成情報を決定して、当該動作制御機能の状態を決定する。当該機能構成インターフェースには、オンオプション、オフオプションなど、当該動作制御機能の状態設定オプションが提供されることができる。ユーザは、当該動作制御機能の状態設定オプションに対してタッチ動作を実行して、当該動作制御機能の状態を変更することができる。例えば、図6に示すように、一具体的な例において、当該ターゲットボタンを「ミラーと発砲ボタンを開くための1つのキー」と呼んでもよく、当該ターゲットボタンの周辺には、オン(「オン」)とオフオプション(「オフ」)が設定されてもよく、ユーザは、当該ターゲットボタンの使用状態を変更し、即ち、当該動作制御機能の状態を変更するために、当該オンまたはオフのオプションに対して選択動作を実行することができる。ユーザがオンオプションを選択すれば、当該動作制御機能はオン状態になり、ユーザがオフオプションを選択すれば、当該動作制御機能がオフ状態になる。
ステップ302において、当該ターゲットボタンのタッチ動作が検出された場合、端末は当該現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得し、当該種別が第1種別であれば、ステップ303およびステップ304を実行し、当該種別が第2種別であれば、ステップ305およびステップ306を実行し、当該種別が第3種別であれば、ステップ307およびステップ308を実行する。
当該グラフィカルユーザインターフェースにターゲットボタンが表示された場合、ユーザは、当該ターゲットボタンに対してタッチ動作を実行することができ、それにより、端末がユーザのタッチ動作に基づき、対応する動作制御機能を提供することができる。本願実施例において、現在の仮想オブジェクトによって制御される仮想アイテムの種別が異なる場合、端末によって提供された動作制御機能も異なることができる。したがって、ステップ302において、端末は、現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得することができ、それにより、当該種別に基づき、提供する必要のある動作制御機能をさらに決定することができる。ここで、当該仮想アイテムの種別は、必要に応じて当業者によって設定されるものであり、当該仮想アイテムの名称によって決定されるものでもある。もちろん、ユーザ自身の使用習慣に応じてユーザによって設定されることもでき、本願実施例はこれを限定しない。
本願実施例において、仮想アイテムの種別が第1種別、第2種別および第3種別を含むことができ、当該仮想アイテムの種別が異なる場合、端末は、以下のステップ303ないしステップ308のうちの2つのステップをそれぞれ実行することができる。即ち、当該仮想アイテムの種別が異なる場合、端末は、異なる制御機能を提供でき、提供された制御機能のモードが異なってもよく、当該モードは、タッチ動作に基づいて対応する機能を実行する方法を示すために使用される。ここでは、当該仮想アイテムの種別に3つの種別を含むことを例にして説明する。もちろん、当該仮想アイテムは、第4種別を含むこともでき、当該仮想アイテムの種別が第4種別である場合、端末はさらに、他の動作制御機能を実行することができ、本願実施例は、当該仮想アイテムの種別を限定しない。
ステップ303において、端末は、当該表示モード切り替え機能と当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
端末が仮想アイテムの種別を取得した後、当該種別が第1種別である場合、端末は、当該ステップ303を実行でき、当該ステップ303で決定されたターゲット機能および対応するターゲットモードに基づいて、以下のステップ304を実行する。当該仮想アイテムの種別が第1種別である場合、端末は、表示モード切り替え機能もトリガーし、射撃機能もトリガーすることを決定できる。仮想シーンの表示モードは、第1表示モードおよび第2表示モードを含むことができる。ここで、第2表示モードは、照準器に基づく表示モードであることができ、第1表示モードは、当該第2表示モード以外の表示モードであることができる。当該表示モード切り替え機能は、当該仮想シーンの表示モードを切り替えることを意味する。
端末は、当該表示モード切り替え機能および射撃機能に対して両方のターゲットモードをそれぞれ決定することができる。端末は、表示モード切り替え機能に対応するターゲットモードがターゲット表示モード切り替えモードであり、射撃機能に対応するターゲットモードが第1射撃モードであると決定する。2つのターゲットモードは、当該タッチ動作の異なる段階で対応するターゲット機能を実行する方法を示すために使用される。ここで、当該タッチ動作は、当該タッチ動作の開始時、タッチ動作の持続期間および当該タッチ動作の終了時の複数の段階を含むことができる。
一可能な実現形態において、当該第1種別の仮想アイテムは、複数の種類の射撃種別を含むことができ、具体的には、当該第1種別の仮想アイテムは、第1射撃種別および第2射撃種別を含むことができる。例えば、一具体的な例において、当該第1射撃種別は、自動射撃種別であることができ、当該第2射撃種別は、シングルショット射撃種別であり得る。もちろん、当該第1種別の仮想アイテムはさらに、射撃モードを含むことができ、例えば、当該第1種別の仮想アイテムが第1射撃種別、即ち、自動射撃種別を含んでもよい。詳細については、以下のステップ304を参照でき、本願実施例について、本文では詳細に説明しない。
ステップ304において、端末は、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替える。
端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。具体的には、当該ターゲット表示モード切り替えモードは、タッチ動作の開始時に仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、タッチ動作の終了時に仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることを示すために使用される。当該第1射撃モードは、タッチ動作の持続期間に射撃機能を継続して実行することを示すために使用される。したがって、端末は、当該ステップ304を実行して、当該表示モード切り替え機能および射撃機能を実現することができる。
例えば、ここでは、接触制御動を長押し動作として使用する例をとって説明し、当該仮想アイテムが自動射撃種別付きのシューターライフルを例にすると、ユーザは、ターゲットボタンに対して長押し動作を実行でき、当該長押し動作の開始時、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えることができ(照準器に基づく表示モード)、図7に示すように、図7の当該仮想シーンの表示モードが第2表示モードであり、即ち、照準器に基づく表示モードであり、当該長押し動作を持続するプロセスで、端末は、継続して射撃機能を実行でき、ユーザが長押し動作を終了した時、端末は、射撃機能を停止して、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることができる。ここで、表示モードを第1表示モードから第2表示モードに切り替えるプロセスは「ミラーオン」と呼ばれ、表示モードを第2表示モードから第1表示モードに切り替えるプロセスは、「ミラーオフ」と呼ばれる。したがって、当該ステップ304において、端末は、タッチ動作の開始を検出した時にミラーオンして、射撃を継続し、タッチ動作の終了時に射撃を停止しミラーオフする。ユーザは、1つのターゲットボタンを押すだけで「ミラーオン-射撃-ミラーオフ」の動作プロセスを完了することができ、緊急時にユーザの照準射撃の体験を大幅にスピードアップする。
電子ゲームの場合、緊急な接戦事態で、プレーヤーは、表示モードの切り替えと射撃の両方を完了するための、複数の動作を実行するのに十分な時間がないことがよくある。本願実施例において、ターゲットボタンを一回動作するだけで、表示モードの切り替え(照準)および射撃プロセスを迅速に完了でき、さらに、ボタン動作が簡単で便利なため、プレーヤーのゲーム体験を効果的に向上させることができる。
一可能な実現形態において、当該第1種別の仮想アイテムは、複数の種類の射撃種別を含むことができ、異なる射撃種別である場合、端末が実行する必要のある動作制御機能モードも異なることができる。したがって、当該仮想アイテムの種別が第1種別である場合、端末は、当該仮想アイテムの現在の射撃種別を取得することができ、それにより、当該射撃種別に基づいて、動作制御機能を更に実行する方法を決定する。以下、2つの射撃種別を例として説明する。
当当該射撃種別が第1射撃種別である場合、端末は、上記のステップ303を実行でき、即ち、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定する、ステップを実行する。もちろん、端末は、ステップ304をさらに実行することもできる。ここで、当該第1射撃種別は、当該仮想アイテムが一回動作に基づいて継続して射撃することができることを表示するために使用され、例えば、当該第1射撃種別は、自動射撃種別と呼ばれてもよい。当該仮想アイテムの射撃種別が当該第1射撃種別である場合、端末は、当該ステップ303およびステップ304を実行することができる。
当当該射撃種別が第2射撃種別である場合、端末は、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定することができる。ここで、第2射撃種別は、当該仮想アイテムが一回動作に基づいて射撃を一回行うことを示すために使用される。例えば、第2射撃種別は、シングルショット射撃種別と呼ばれてもよい。当該仮想アイテムの射撃種別が第2射撃種別である場合、当該仮想アイテムは、タッチ動作の持続期間に継続して射撃することができなく、上記のステップ303とは、射撃機能に対応するターゲットモードが第2射撃モードであることを端末によって決定されることができる方面で異なっている。それにより、ステップ304において、端末は、射撃機能を実行する状況も異なり、タッチ動作の開始時にミラーオンして、タッチ動作の終了時に射撃し、ミラーオフすることができる。
もちろん、別の可能な実現形態も考えられる。当該端末は、当該仮想アイテムの射撃種別を取得しなくて、当該射撃種別が第1射撃種別または第2射撃種別である場合にいずれも当該ステップ303およびステップ304を実行する。即ち、仮想アイテムの射撃種別を射撃モードの基準要素として使用しなく、本願実施例は、どの方式を具体的に採用するかを限定しない。
上記のステップ303およびステップ304は、仮想アイテムの種別が第1種別である場合に、端末が実行する必要がある動作制御のステップである。当該種別が第2種別である場合、端末は、以下のステップ305およびステップ306を実行でき、当該種別が第3種別である場合、端末は、以下のステップ307およびステップ308を実行することができる。
ステップ305において、端末は、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
上記のステップ302の後に、端末は、仮想アイテムの種別を取得した後、当該種別が第2種別である場合、端末は、当該ステップ305を実行し、当該ステップ305で決定されたターゲット機能および対応するターゲットモードに基づいて、以下のステップ306を実行することができる。
当該仮想アイテムの種別が第2種別である場合、端末は、表示モード切り替え機能もトリガーし、射撃機能もトリガーすることを決定する。当該表示モード切り替え機能および射撃機能について、端末はさらに、両方のターゲットモードをそれぞれ決定することもできる。端末は、表示モード切り替え機能に対応するターゲットモードがターゲット表示モード切り替えモードであることを決定し、射撃機能に対応するターゲットモードが第2射撃モードであることを決定する。両方のターゲットモードは、当該タッチ動作の異なる段階で対応するターゲット機能を実行する方法を示すために使用される。
一可能な実現形態において、当該第2種別の仮想アイテムは、第2射撃モードを含むことができ、当該第2射撃モードは、当該仮想アイテムが一回動作に基づいて射撃を一回実行することを示すために使用される。このように、当該第2種別の仮想アイテムの第2射撃モードは、上記のステップ304における第1種別の仮想アイテムが第2射撃種別である場合の第2射撃モードと同様である。本文ではシングルショット射撃種別と呼ばれる。
ステップ306において、端末は、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替える。
端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。具体的には、当該ターゲット表示モード切り替えモードは、上記のステップ304と同様に、当該第2射撃モードは、当該タッチ動作の終了時に射撃機能を実行することを示すために使用される。したがって、端末が当該ステップ306を実行して、当該表示モード切り替え機能および射撃機能を実現する。
例えば、本文で接触制御動を長押し動作として使用する例をとって説明する。仮想オブジェクトによって制御される仮想アイテムがスナイパーライフルであることを例として、ユーザは、ターゲットボタンに対して長押し動作を実行し、当該長押し動作の開始時に、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えることができ(照準器に基づく表示モード)、ユーザが長押し動作を終了した場合、端末は、射撃機能を停止し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えることができる。ここで、表示モードを照準器に基づく表示モードに切り替えるプロセスを「ミラーオン」と呼び、表示モードを照準器に基づく表示モードから第1表示モードに切り替えるプロセスを「ミラーオフ」と呼ぶ。図8に示すように、当該ステップ306において、端末は、タッチ動作の開始を検出した時にミラーオンし、タッチ動作の終了時に射撃し、ミラーオフする。図8には、タッチ動作の終了時のミラーオフ後の仮想シーンのみを示し、他のプロセスは示していない。ここで、当該仮想シーンの表示モードは照準器に基づく表示モードであることは、図7を参照すればよい。
上記のステップ305およびステップ306は、仮想アイテムの種別が第2種別である場合に端末が実行する必要のある動作制御のステップであり、当該種別が第3種別である場合、端末は、以下のステップ307およびステップ308を実行することができる。
ステップ307において、端末は、当該射撃機能を当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
上記のステップ302の後、端末が仮想アイテムの種別を取得した後、当該種別が第3種別である場合、端末は、当該ステップ307を実行し、当該ステップ307によって決定されたターゲット機能および対応するターゲットモードに基づき、以下のステップ308を実行することができる。
当該仮想アイテムの種別が第3種別である場合、端末は、射撃機能をトリガーするが、表示モード切り替え機能をトリガーしなくてもよい。したがって、端末はさらに、当該射撃機能のターゲットモード、即ち、第3射撃モードを決定することができる。当該第3射撃モードは、当該タッチ動作のどの段階で当該射撃機能を実行するかを示すために使用される。
ステップ308において、端末は、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。
端末がターゲット機能および対応するターゲットモードを決定した後、ターゲットモードおよびタッチ動作に基づいて対応するターゲット機能を実行することができる。当該ステップ308において、端末は、第3射撃モードに基づき、射撃機能を実行することができる。一可能な実現形態において、当該第3ターゲットモードは、当該タッチ動作の開始時に射撃機能を実行することを示すために使用される。したがって、端末が当該ステップ308を実行して、当該射撃モードを実現する。
例えば、接触制御動をクリック動作として使用する例をとって説明する。仮想オブジェクトによって制御される仮想アイテムが自動射撃種別を持たない精密シューターライフルを例にすると、ユーザは、ターゲットボタンに対してクリック動作を実行でき、当該クリック動作の開始時、端末が射撃機能を実行することができる。当該接触制御動を長押し動作として使用すると、当該タッチ動作の開始時、端末が射撃機能を実行することができ、当該タッチ動作が終了するまで、当該端末は、当該射撃機能を再び実行しなくてもよい。図9に示すように、当該ステップ308において、端末がタッチ動作の開始を検出した時に射撃することができる。当該タッチ動作の動作プロセスで、端末は上記のミラーオンおよびミラーオフのプロセスを実行しなくてもよい。
なお、上記のステップ302、ステップ303、ステップ305およびステップ307は、当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する、プロセスである。ステップ304、ステップ306およびステップ308は、当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する、プロセスであり、当該仮想アイテムの種別が異なる場合、当該端末は、トリガー対象のターゲット機能および対応するターゲットモードが異なってもよく、端末が実行する必要のある動作制御ステップも異なってもよい。
上記のプロセスは、仮想アイテムの種別を分割して、異なる種別の仮想アイテムに対して異なる動作制御プロセスを提供したが、同じ動作制御プロセスを採用していない。このように、ほとんどの銃器は射撃時に不快感がなく、さらに戦闘の状況に影響を与えることもない。小さいことで大きく失うことなく、動作制御プロセスが柔軟で便利なので、様々な撃シーンのニーズを満たすことができる。さらに、1つのターゲットボタンを介して、複数の種類の動作制御プロセスを実現し、スムーズな動作体験を提供し、ユーザに動作圧力をかけずに、ユーザ動作を簡素化し、且つユーザは、自分の使用習慣に応じてカスタマイズして、ユーザ体験を向上するために、当該ボタンの機能を自分の手に最も適した状況に調整することができる。
上記は仮想アイテムの種別が第1種別、第2種別および第3種別を含む場合のみを提供する。一可能な実現形態において、当該仮想アイテムはさらに、他の種別を含むことができ、上記はいずれも当業者が必要に応じて設定することができる。もちろん、ユーザによって、自分の使用習慣に応じてこともできる。
一可能な実現形態において、当該端末は、動作制御機能構成インターフェースを提供することができる。当該動作制御機能構成インターフェースには、制御機能オプションおよびモードオプションを含むことができる。ユーザは、制御機能オプションで選択動作を実行し、実行ロジックオプションで設定動作を行うことができ、それにより、端末は、当該選択動作または設定動作に基づき、当該ターゲットボタンに対応する制御機能、および制御機能に対応するターゲットモードを更新することができる。もちろん、当該動作制御機能構成インターフェースには、仮想アイテムの種別設定オプションを提供することもできる。当該種別設定オプションで、ユーザは、仮想アイテムの種別を設定してもよく、各種別の仮想アイテムに何があるのかを設定することもでき、上記はいずれも当業者が当業者自身の使用習慣にしたがってカスタマイズすることができ、本願実施例はこれを限定しない。
一可能な実現形態において、上記の動作制御方法のプロセスで、当該ターゲットボタンを介して視角調整機能を提供することができる。ユーザが当該ターゲットボタンに対してタッチ動作を実行する時、端末はさらに、当該タッチ動作に基づき、仮想シーンの視角を調整することができる。具体的には、当該ターゲットボタンは、視角調整機能にも対応できる。上記のステップ302、303、305および307において、当該ターゲットボタンのタッチ動作が検出された場合、端末はさらに、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定することができる。上記のステップ304、306および308において、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、端末はさらに、当該タッチ動作の動作方向および動作速度にしたがって、仮想シーンの視角を調整することができる。
一具体的な実施例において、上記の視角調整プロセスで、当該タッチ動作の動作方向および動作速度、仮想シーンの視角のターゲット回動速度を取得することができ、当該ターゲット回動速度は、方向およびサイズを含み、端末は、当該ターゲット回動速度に基づき、仮想シーンの視角を調整することができる。
例えば、当該接触制御動を長押し動作とスライド動作との組み合わせとして使用する例をとって説明する。仮想アイテムの種別が第1種別である場合、タッチ動作の開始時、端末は、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、タッチ動作の持続期間に射撃機能を継続して実行することができる。ユーザが視角を調整しようとする時、ターゲットボタンを押してスライドするか、当該ターゲットボタンをドラッグし、それにより、端末が動作方向と動作速度に基づいて視角調整を行うことができる。当該仮想シーンの視角を調整すると、照準点が狙う仮想シーン内の位置も変化するため、それにより、当該視角調整プロセスで、ユーザは照準の位置を調整して、継続して射撃して、タッチ動作が終了するまで、端末が射撃を停止し、第1表示モードに切り替えて戻る。
さらに例えば、仮想アイテムの種別が第2種別である場合、タッチ動作の開始時に、端末が仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続のプロセスで、ユーザは、照準の位置を変更するために視角を調整することができる。調整後に、ユーザは、タッチ動作を停止する。このとき、端末は現在の照準点が狙っている位置に対して射撃し、第1表示モードに切り替えて戻ることができる。
さらに例えば、仮想アイテムの種別が第3種別である場合、タッチ動作の開始時、端末は射撃することができ、タッチ動作を継続する場合、射撃しなく、タッチ動作に基づいて視角を調整することができる。
一可能な実現形態において、上記の動作制御方法のプロセスで、当該ターゲットボタンを介して動き制御機能を提供することもできる。ユーザが当該ターゲットボタンに対してタッチ動作を行う時、端末は、当該タッチ動作に基づき、仮想オブジェクトが対応する動きを実行するために、仮想オブジェクトを制御することもできる。
具体的には、当該ターゲットボタンはさらに、動き制御機能に対応することができる。上記のステップ302、303、305および307では、当該ターゲットボタンのタッチ動作が検出された場合、端末は、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定することもできる。上記のステップ304、306および308において、端末は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御すること、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、端末が当該現在の仮想オブジェクトの動きを制御することのうちのいずれか1つをさらに実行することができる。
例えば、当該ターゲット動きが、横向き動きまたは横臥動き、スクワット動きまたはジャンプ動き等であることができる。当該ターゲット動きが横向き動きであることを例にすると、当該タッチ動作の開始時、端末は、仮想オブジェクトの横向きを制御し、上記のステップ304、306または308の他の動きを実行することができ、上記の視角調整のステップも実行することができる。タッチ動作の終了時、端末は、再び仮想オブジェクトを制御して横向きの状態からその前の状態に回復できる。
別の可能な実現形態において、上記の動作制御方法のプロセスは、複数の種類の動きの動き制御機能を提供することができる。ユーザが当該ターゲットボタンに対してタッチ動作を実行する時、端末は、当該タッチ動作に基づき、仮想オブジェクトを制御して対応する動きを行うようにする。
具体的には、当該ターゲットボタンは、動き制御機能にも対応する。当該動き制御機能には、複数の動きの動き制御モードを含むことができ、各動き制御モードは、仮想オブジェクトの1つの動きに対応し、仮想オブジェクトの1つの動きの制御状況に対応できる。上記のステップ302で、当該ターゲットボタンのタッチ動作が検出された場合、端末は、当該現在の仮想オブジェクトの移動状態と当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つを取得することができる。これを判断根拠として、上記のステップ303、305および307において、端末は当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態と当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定することができる。上記のステップ304、306および308において、端末は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、当該現在の仮想オブジェクトを制御して当該ターゲット動き制御モードに対応するターゲット動きを実行するようにすること、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、端末は、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、端末が当該現在の仮想オブジェクトの動きを制御することのうちのいずれか1項を実行することもできる。
当該実現形態において、当該動き制御機能は、複数の動きの動き制御モードに対応することができる。端末は、現在の仮想オブジェクトの移動状態にしたがって、または現在の仮想オブジェクトの仮想シーンにおける環境にしたがって、または両方にしたがって、今回仮想オブジェクトを制御して実行するターゲット動きがどの動きであるか、どの動きモードに応じて、当該仮想オブジェクトが当該ターゲット動きを実行するように制御するかを取得し、それにより、後続的に仮想オブジェクトを制御して対応する動きを実行するようにする。例えば、当該複数の動きは、横向き、スクワットおよび横臥の3つ動きを含むことができ、当該仮想オブジェクトが仮想シーン内の石の周辺にある時、端末は、ターゲット動き制御モードが横向き動きの動き制御モードであることを決定でき、その後に仮想オブジェクトを制御して横向き動きをするようにする。当該仮想オブジェクトがクロール状態にある場合、端末はターゲット動き制御モードがスクワット動きの動き制御モードであると決定でき、その後に当該仮想オブジェクトを制御してスクワット動きをするようにする。
ここでは2つの具体的な例のみで説明する。なお、当該複数の動き制御モードおよび動き制御モードと、仮想オブジェクトの移動状態および仮想シーンにおける環境のうちのいずれか1項との対応関係は、いずれも当業者が必要に応じて設定することができ、ユーザによって自身の使用習慣にしたがってカスタマイズすることもでき、本願実施例はこれを限定しない。
上記の動作制御方法の具体的なプロセスを、図10の一具体的な例の方式で以下に説明する。図10を参照すると、当該動作制御機能を「ワンクリックミラーオン発砲機能」と呼び、端末は、当該ワンクリックミラーオン発砲機能の開閉を検出できる。オンになった場合、端末はカスタムパネル(構成インターフェース)内のミラーと発砲ボタンを開くための1つのキーの位置、サイズおよび透明度データを読み取って適用することができ、即ち、端末は、動作制御機能の状態を判断することができる。当該動作制御機能がオン状態にある場合、端末は、グラフィカルユーザインターフェースにターゲットボタンを表示し、且つ当該ターゲットボタンは3つの表示パラメータを有し、当該3つの表示パラメータは、構成インターフェースに構成できる。端末が、プレーヤーが銃器を手持ちする種別を検出でき、即ち、端末が、現在の仮想オブジェクトによって制御される仮想アイテムの種別を取得できることを指し、仮想アイテムが全自動射撃種別付きのシューターライフルであるなど、当該種別が第1種別である場合、端末は、ユーザが当該ターゲットボタンを押すときにミラーオンし、押す期間に射撃し、ユーザが手を放すときにミラーオフすることができる。仮想アイテムが自動射撃の種別のないスナイパーライフルであることなど、当該種別が第2種別である場合、端末は、仮想アイテムが自動射撃種別のない精密シューターライフルであるなど、ユーザが当該ターゲットボタンを押す時ミラーオンし、ユーザが手を放すときにミラーオフし、射撃する。当該種別が第3種別である場合、端末は、ユーザが押すときに射撃することができる。これにより、端末は、今回のワンクリックミラーオン発砲機能を完了し、プレーヤーの次のステップの動作を検出し、当該ワンクリックミラーオン発砲機能がオフした場合、端末は、その後の各フレーム数でプレーヤーが当該機能をオンにしたかを徐々に検出できる。
本願実施例は、グラフィカルユーザインターフェースに表示モード切り替え機能および射撃機能に対応するターゲットボタンを表示して、ターゲットボタンへのタッチ動作が検出された場合、仮想オブジェクトによって制御される仮想アイテムの種別にしたがって当該タッチ動作トリガー対象の機能を決定し、今回対応する機能を実行するのに必要とするモードを決定し、表示モード切り替え機能および射撃機能はいずれも同じボタンに対応し、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現することができ、且つ仮想アイテムの種別にしたがって、一回の動作で異なる動作制御機能を実現するため、動作プロセスが簡単便利で、動作制御効率が高い。
図11は、本願実施例による動作制御方法のフローチャートであり、図11を参照すると、当該方法は、次のステップ1101~1103を含むことができる。
ステップ1101において、端末がグラフィカルユーザインターフェースにターゲットボタンを表示し、当該ターゲットボタンは、複数の制御機能に対応し、当該複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む。
当該ステップ1101は、上記のステップ301と同じであり、当該ターゲットボタンの表示プロセスも以下のステップ1ないしステップ3のうちの少なくとも1つのステップを含むことができる。
ステップ1において、端末が、グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示する。
ステップ2において、端末が、グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示する。
ステップ3において、端末が、グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタン表示する。
当該ターゲット位置、ターゲットサイズおよびターゲット透明度のうちの少なくとも1つは、当業者によって必要に応じて設定されることができ、自身習慣にしたがってユーザによって設定されることもできる。具体的には、当該ユーザが構成した設定も以下のステップ1ないしステップ3のうちの少なくとも1つのステップを含むことができる。
ステップ1において、端末は、構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得する。
ステップ2において、端末は、構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得する。
ステップ3において、端末は、構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。
上記の内容は、いずれも上記のステップ301を参照でき、本願実施例は詳細に説明しない。
ステップ1102において、当該ターゲットボタンのタッチ動作が検出された場合、端末は、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、当該複数の制御機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する。
当該ステップ1102は、上記のステップ302およびステップ303に記載の内容と同じであり、またはステップ302およびステップ305に記載の内容と同じであり、またはステップ302およびステップ307に記載の内容と同じである。異なることとして、上記のステップ302およびステップ303に記載の内容、またはステップ302およびステップ305に記載の内容、またはステップ302およびステップ307に記載の内容には、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該ターゲットボタンに対応する複数の制御機能からトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する例のみを提供するが、当該端末は、さらに当該現在の仮想オブジェクトの移動状態、または現在の仮想オブジェクトの仮想シーンにおける環境、または上記の3つの影響要素の任意の組み合わせにしたがって、当該ターゲット機能とターゲット機能に対応するターゲットモードとを決定することもできる。例えば、上記のステップ308に示す移動状態または当該環境にしたがって、ターゲット機能およびターゲットモードを決定するプロセスである。本願実施例はここで詳しく列挙しない。
なお、具体的に、当該3つの影響要素をどの影響要素またはいくつの影響要素を採用するかは、影響要素と制御機能との対応関係およびターゲット機能に対応するターゲットモードは、いずれも当業者が必要に応じて設定することができ、自身使用習慣にしたがってユーザがカスタマイズし、本願実施例はこれを限定しない。
ステップ1103において、端末は、当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する。
当該ステップ1103は、上記のステップ304、306およびステップ308と同じであり、本願実施例はここで詳細に説明しない。上記の図3に示す実施例における3つの種別の例、および任意の実現形態は本実施例ではいずれも同じであり、本願実施例はここで詳細に説明しない。
本願実施例は、グラフィカルユーザインターフェースに複数の制御機能に対応するターゲットボタンが表示されることにより、ターゲットボタンのタッチ動作を検出したとき、複数の種類の影響要素によって、今回の動作トリガー対象のターゲット機能がどっちか、どのようなモードに応じてこれらのターゲット機能を実行するかを決定することができる。複数の制御機能をすべて同一なボタンに関連付け、1つのボタンに対して一回のタッチ動作を行うことにより、複数の種類の動作制御機能を実現することができ、且つ影響要素によって、ターゲットボタンに対して一回の動作を行って異なる動作制御機能を実現する。動作プロセスが簡単便利で、動作制御効率が高い。
上記のすべての選択的な技術的解決策で、任意の組み合わせで本発明の選択的な実施例を採用することができ、ここでは詳細に説明しない。
本願実施例の各ステップは、必ずしも番号によって示される順序で順次に実行されるとは限らないことを理解されたい。本文に明確な説明がない限り、これらのステップの実行には厳密な順序がなく、これらのステップは他の順序で実行できる。さらに、各実施例のステップの少なくとも一部は、複数のサブステップまたは複数の段階を含むことができ、これらのサブステップまたは段階は必ずしも同時に実行されるとは限らなく、異なる時刻に実行してもよい。これらのサブステップまたは段階の実行順番も順次に実行されるとは限らず、他のステップまたは他のステップのサブステップまたは段階の少なくとも一部と交互または交替的に実行することができる。
図12は、本願実施例による動作制御装置の構造概略図である。図12を参照すると、当該装置は、
グラフィカルユーザインターフェースにターゲットボタンを表示する第1表示モジュール1201であって、当該ターゲットボタンは、表示モード切り替え機能および射撃機能に対応する、第1表示モジュール1201と、
当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する第1決定モジュール1202と、
当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する第1実行モジュール1203と、を備えることができる。
一可能な実現形態において、当該第1決定モジュール1202は、
当該仮想アイテムの種別が第1種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第2種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第3種別であるである場合、当該射撃機能を当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
一可能な実現形態において、当該第1実行モジュール1203は、
当該仮想アイテムの種別が第1種別である場合、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第2種別である場合、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第3種別である場合、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。
一可能な実現形態において、当該第1決定モジュール1202は、
当該仮想アイテムの種別が第1種別である場合、当該仮想アイテムの現在の射撃種別を取得し、または
当該射撃種別が第1射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該射撃種別が第2射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
一可能な実現形態において、当該第1表示モジュール1201は、
グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。
一可能な実現形態において、当該装置はさらに、取得モジュールを備え、当該取得モジュールは、
構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得し、または
構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得し、または
構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。
一可能な実現形態において、当該ターゲットボタンは、視角調整機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定する。
当該第1実行モジュール1203はさらに、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、当該タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角を調整する。
一可能な実現形態において、当該ターゲットボタンは、動き制御機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。
当該第1実行モジュール1203はさらに、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
一可能な実現形態において、当該ターゲットボタンは、動き制御機能にも対応するものであり、当該第1決定モジュール1202はさらに、当該ターゲットボタンのタッチ動作が検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。
当該第1実行モジュール1203はさらに、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
一可能な実現形態において、当該第1表示モジュール1201は、構成情報によって動作制御機能がオン状態にあると決定されると、グラフィカルユーザインターフェースにターゲットボタンを表示する当該ステップを実行する。
本願実施例による装置は、グラフィカルユーザインターフェースに表示モード切り替え機能および射撃機能に対応するターゲットボタンが表示されることにより、ターゲットボタンへのタッチ動作が検出された場合、仮想オブジェクトによって制御される仮想アイテムの種別にしたがって当該タッチ動作トリガー対象の1つまたは複数の機能を決定し、今回対応する機能を実行するためにどのモードに従う必要があるかによって決定され、表示モード切り替え機能および射撃機能は、いずれも同じボタンに態様し、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現でき、且つ仮想アイテムの種別にしたがって、一回の動作で異なる動作制御機能を実現するため、動作プロセスが簡単便利で、動作制御効率が高い。
上記の実施例が提供した動作制御装置が動作制御を実現するとき、上記の各機能モジュールの分割のみで例にして説明し、実際の適用では、必要に応じて異なる機能モジュールによって上記の機能分配を完了し、即ち、電子機器の内部構造を異なる機能モジュールに分割して、上記に記述した機能の全部または一部を完了する。なお、上記の実施例が提供した動作制御装置と動作制御方法の実施例は同じ構想に属し、その具体的な実現プロセスは、方法実施例の詳細を参照すればよく、ここでは詳細に説明しない。
図13は、本願実施例による動作制御装置の構造概略図であり、図13を参照すると、当該装置は、
グラフィカルユーザインターフェースにターゲットボタンを表示する第2表示モジュール1301であって、当該ターゲットボタンは複数の制御機能に対応し、当該複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含む、第2表示モジュール1301と、
当該ターゲットボタンのタッチ動作が検出された場合、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、当該複数の制御機能のうちのトリガー対象のターゲット機能および当該ターゲット機能に対応するターゲットモードを決定する第2決定モジュール1302と、
当該ターゲットモードに基づき、当該グラフィカルユーザインターフェースで当該ターゲット機能を実行する第2実行モジュール1303と、を備えることができる。
一可能な実現形態において、当該ターゲットボタンが表示モード切り替え機能および射撃機能に対応する場合、当該第2決定モジュール1302は、
当該仮想アイテムの種別が第1種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第2種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当該仮想アイテムの種別が第3種別である場合、当該射撃機能当該トリガー対象のターゲット機能として決定し、第3射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
一可能な実現形態において、当該第2実行モジュール1303は、
当該仮想アイテムの種別が第1種別である場合、当該ターゲット表示モード切り替えモードおよび当該第1射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の持続期間に射撃機能を継続して実行し、当該タッチ動作の終了が検出された場合、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第2種別である場合、当該ターゲット表示モード切り替えモードおよび当該第2射撃モードに基づき、当該タッチ動作の開始が検出された場合、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、当該タッチ動作の終了が検出された場合、当該射撃機能を実行し、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替え、または
当該仮想アイテムの種別が第3種別である場合、当該第3射撃モードに基づき、当該タッチ動作の開始が検出された場合、当該射撃機能を実行する。
一可能な実現形態において、当該第2決定モジュール1302は、
当該仮想アイテムの種別が第1種別である場合、当該仮想アイテムの現在の射撃種別を取得し、または
当該射撃種別が第1射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを当該射撃機能に対応するターゲットモードとして決定し、または
当当該射撃種別が第2射撃種別である場合、当該表示モード切り替え機能および当該射撃機能を当該トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを当該表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを当該射撃機能に対応するターゲットモードとして決定する。
一可能な実現形態において、当該第2表示モジュール1301は、
グラフィカルユーザインターフェース内のターゲット位置に、当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲットサイズに応じて当該ターゲットボタンを表示し、または
グラフィカルユーザインターフェースに、ターゲット透明度に応じて当該ターゲットボタンを表示する。
一可能な実現形態において、当該装置はさらに、取得モジュールをさらに備え、当該取得モジュールは、
構成インターフェースに基づき、当該ターゲットボタンの位置調整情報を取得し、当該位置調整情報に基づき、当該ターゲットボタンのターゲット位置を取得し、または
構成インターフェースに基づき、当該ターゲットボタンのサイズ調整情報を取得し、当該サイズ調整情報に基づき、当該ターゲットボタンのターゲットサイズを取得し、または
構成インターフェースに基づき、当該ターゲットボタンの透明度調整情報を取得し、当該透明度調整情報に基づき、当該ターゲットボタンのターゲット透明度を取得する。
一可能な実現形態において、当該第2決定モジュール1302はさらに、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが視角調整機能に対応する時、当該視角調整機能を当該トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを当該視角調整機能に対応するターゲットモードとして決定し、または
当該第2実行モジュール1303は、当該ターゲット視角調整モードに基づき、当該タッチ動作の持続期間に、当該タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角に対して調整する。
一可能な実現形態において、当該決定モジュール1302は、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが動き制御機能に対応することを検出した時、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定し、
当該第2実行モジュール1303は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、ターゲット動きを実行するように当該現在の仮想オブジェクトを制御し、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
一可能な実現形態において、当該第2決定モジュール1302は、当該ターゲットボタンのタッチ動作且つ当該ターゲットボタンが動き制御機能に対応することが検出された場合、当該動き制御機能を当該トリガー対象のターゲット機能として決定し、当該現在の仮想オブジェクトの移動状態および当該現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを当該動き制御機能に対応するターゲットモードとして決定する。
当該実行モジュール1303は、
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御し、または
当該ターゲット動き制御モードに基づき、当該タッチ動作の開始が検出された場合、当該ターゲット動き制御モードに対応するターゲット動きを実行するように、当該現在の仮想オブジェクトを制御する、当該タッチ動作の終了が検出された場合、当該ターゲット動きを実行する前の動きに回復されるように、当該現在の仮想オブジェクトの動きを制御する。
一可能な実現形態において、当該第2表示モジュール1301は、構成情報によって動作制御機能がオン状態にあると決定されると、当該グラフィカルユーザインターフェース中でターゲットボタンのステップを実行する。
本願実施例による装置は、グラフィカルユーザインターフェースに複数の制御機能に対応するターゲットボタンが表示され、ターゲットボタンのタッチ動作が検出された場合、複数の種類の影響要素によって今回の動作トリガー対象のターゲット機能がどっちか、同のようなモードに応じてこれらのターゲット機能を実行するかを決定し、複数の制御機能はいずれも同じボタンに関連付け、1つのボタンに対して一回のタッチ動作を行うことで、複数の種類の動作制御機能を実現でき、且つ影響要素はターゲットボタンに対して一回の動作で異なる動作制御機能を実現できるため、動作プロセスが簡単便利で、動作制御効率が高い。
説明する必要があることとして、上記の実施例が提供した動作制御装置が動作制御を実現する場合、上記の各機能モジュールの分割のみを例にして説明する。実際の適用では、必要に応じて上記の機能分配を異なる機能モジュールによって完了し、即ち、電子機器の内部構造を異なる機能モジュールに分割して、以上の記述したものの全部または一部を完了する。なお、上記の実施例が提供した動作制御装置と動作制御方法の実施例は同じ構想に属し、その具体的な実現プロセスは、方法実施例の詳細を参照すればよく、ここでは詳細に説明しない。
上記の電子機器は、以下の図14に記載の端末として提供し、以下の図15に示すようなサーバとして提供されてもよく、本願実施例はこれを限定しない。
図14は、本願実施例による端末の構造概略図である。当該端末1400は、スマトフォン、タブレットコンピュータ、MP3(Moving Picture Experts Group Audio Layer III、動画エキスパートグループオーディオレイヤー3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV、動画エキスパートグループオーディオレイヤー4)プレーヤー、ラップトップコンピュータまたはデスクトップコンピュータなどであってもよい。端末1400は、ユーザ機器、携帯式端末、ラップトップ端末、デスクトップ端末などの他の名称で称されることもできる。
通常、端末1400は、1つまたは複数のプロセッサ1401および1つまたは複数のメモリ1402を備える。
プロセッサ1401は、4コアプロセッサ、8コアプロセッサなどの1つまたは複数の処理コアを備えることができる。プロセッサ1401は、デジタル信号プロセッサ(Digital Signal Processing、DSPと略称)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array、FPGAと略称)、プログラマブルロジックアレイ(Programmable Logic Array、PLAと略称)のうちの少なくとも1つのハードウェア形式を採用して実現することができる。プロセッサ1401は、メインプロセッサおよびセカンダリプロセッサを備えることもでき、メインプロセッサは、アウェイク状態でデータを処理するために使用されるプロセッサであり、中央処理装置(Central Processing Unit、CPUと略称)とも称し、セカンダリプロセッサは、スタンバイ状態でデータを処理するために使用される低電力プロセッサである。いくつかの実施例において、プロセッサ1401グラフィックスプロセッサ(Graphics Processing Unit、GPUと略称)と統合されてもよく、GPUは、ディスプレイ画面に表示される必要があるコンテンツをレンダリングおよび描画するために使用される。いくつかの実施例において、プロセッサ1401は、人工知能(Artificial Intelligence、AIと略称)プロセッサをさらに備えることができ、当該AIプロセッサは、機械学習に関する計算操作を処理するために使用される。
メモリ1402は、1つまたは複数のコンピュータ読み取り可能な記憶媒体を含むことができ、当該コンピュータ読み取り可能な記憶媒体は非一時的である。メモリ1402は、1つまたは複数の磁気ディスクメモリ、フラッシュメモリなどの、高速ランダムアクセスメモリ、および不揮発性メモリを備えることもできる。いくつかの実施例において、本願の方法の実施例で開示されるカメラの位置決め方法を実現するために、メモリ1402の非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令を記憶するために使用され、当該少なくとも1つの命令は、プロセッサ1401に含まれる。
いくつかの実施例において、端末1400は、周辺機器インターフェース1403および少なくとも1つの周辺機器を例示的に備えることもできる。プロセッサ1401、メモリ1402および周辺機器インターフェース1403間は、バスまたは信号線を介して接続することができる。各周辺機器は、バス、信号線または回路基板および周辺機器インターフェース1403を介して接続することができる。具体的に、周辺機器は、無線周波数回路1404、表示スクリーン1405、カメラコンポーネント1406、オーディオ回路1407、位置決めコンポ―ネット1408および電源1409のうちの少なくとも1つを含む。
周辺機器インターフェース1403は、入力/出力(Input /Output、I/Oと略称)に関する少なくとも1つの周辺機器をプロセッサ1401およびメモリ1402に接続することができる。いくつかの実施例において、プロセッサ1401、メモリ1402および周辺機器インターフェース1403は、同じチップまたは回路基板にとうごうされ、いくつかの他の実施例において、プロセッサ1401、メモリ1402および周辺機器インターフェース1403における任意の1つまたは2つは、独立したチップまたは回路基板で実現し、本実施例は、これらに対して限定しない。
無線周波数回路1404は、電磁信号とも称される無線周波数(Radio Frequency、RFと略称)信号を送信および受信するために使用される。無線周波数回路1404は、電磁信号を介して通信ネットワークおよび他の通信機器と通信する。無線周波数回路1404は、電子信号を電磁信号に変換して送信し、または、受信した電磁信号を電子信号に変換する。例示的に、無線周波数回路1404は、アンテナシステム、RFトランシーバ、1つまたは複数の増幅器、チューナー、発振器、数字信号プロセッサ、コーデックチップセット、ユーザ識別モジュールカードなどを備える無線周波数回路1404は、少なくとも1つの無線通信プロトコルを介して他の端末と通信することができる。当該無線通信プロトコルは、メトロポリタンエリアネットワーク、各世代の移動通信ネットワーク(2G、3G、4Gおよび11G)、ワイヤレスメトロポリタンエリアネットワークおよび/またはワイファイ(Wireless Fidelity、WiFiと略称)ネットワークを含むが、これらに限定されない。いくつかの実施例において、無線周波数回路1404は、近距離無線通信(Near Field Communication、NFCと略称)に関する回路をさらに備えるが、本願は、これらに対して限定しない。
スクリーン1405は、ユーザインターフェース(User Interface、UIと略称)を表示する。当該UIは、グラフィック、テキスト、アイコン、ビデオ、およびそれらの任意の組み合わせを含めることができる。スクリーン1405がスクリーンをタッチすると、スクリーン1405は、スクリーン1405の表面または表面の上側のタッチ信号を撮影する機能を備える。当該タッチ信号は、制御信号としてプロセッサ1401に入力されて処理される。この場合、スクリーン1405は、ソフトボタンおよび/またはソフトキーボードとも称する、仮想ボタンおよび/または仮想キーボードを提供する。いくつかの実施例において、スクリーン1405は1つであってもよく、端末1400のフロントパネルを配置し、別のいくつかの実施例において、スクリーン1405は、少なくとも2つであってもよく、端末1400の異なる表面または折りたたみデザインにそれぞれ配置され、さらにいくつかの実施例において、スクリーン1405は、端末1400の曲面または折りたたみ面に配置される可撓性ディスプレイであってもよい。さらに、スクリーン1405は、長方形以外の不規則な形、即ち、特徴な形状のスクリーンに設定されてもよい。スクリーン1405は、液晶ディスプレイ(Liquid Crystal Display、LCDと略称)、有機発光ダイオード(Organic Light-Emitting Diode、OLEDと略称)などの素材で作られることができる。
カメラコンポーネント1406は、画像またはビデオを撮影する。例示的に、カメラコンポーネント1406は、フロントカメラおよびリアカメラを備える。通常、フロントカメラは、端末のフロントパネルに配置され、リアカメラは、端末の背面に配置される。いくつかの実施例において、リアカメラは少なくとも2つであり、それぞれ、メインカメラ、被写界深度カメラ、広角カメラ、望遠カメラのうちのいずれか1つであり、メインカメラと被写界深度カメラの融合で背景ぼかし機能を実現し、メインカメラおよび望遠カメラの融合でパノラマ撮影およびバーチャルリアリティ(Virtual Reality、VRと略称)撮影機能または他の融合撮影機能を実現する。いくつかの実施例において、カメラコンポーネント1406は、フラッシュをさらに備える。フラッシュは、単色温度フラッシュであってもよく、二色温度フラッシュであってもよい。二色フラッシュは、暖かい色フラッシュと冷たい色フラッシュの組み合わせであり、異なる色温度での光の補正に使用されることができる。
オーディオ回路1407は、マイクおよびスピーカを含むことができる。マイクは、ユーザと環境の音波を撮影し、音声通信を実現するために、音波を電子信号に変換してプロセッサ1401に入力して処理し、または無線周波数回路1404に入力する。ステレオ撮影またはノイズ低減を目的とし、マイクは複数であってもよく、それぞれ、端末1400の異なる部位を配置することができる。マイクは、アレイマイクまたは全方位撮像型マイクであってもよい。スピーカは、プロセッサ1401または無線周波数回路1404からの電子信号を音波に変換する。スピーカは、従来のフィルムスピーカであってもよく、電圧セラミックスピーカであってもよい。スピーカが電圧セラミックスピーカである場合、電子信号を人間の可聴音波に変換してもよく、距離測定などの目的で電子信号を人間の不可聴音波に変換してもよい。いくつかの実施例において、オーディオ回路1407は、ヘッドフォンジャックをさらに含む。
位置決めコンポーネント1408は、ナビゲーションまたは位置に基づくサービス(Location Based Service、LBSと略称)を実現するために、端末1400の現在の地理位置を位置決めする。位置決めコンポーネント1408は、アメリカの全地球測位システム(Global Positioning System、GPSと略称)であってもよく、中国の北斗衛星測位システム、ロシアのグロナスシステムまたはユロッパのガリレオシステムに基づく位置決めコンポーネントであってもよい。
電源1409は、端末1400における各コンポーネントに電力を供給する。電源1409は、交流、直流、使い捨て電池、または充電式電池であることができる。電源1409が充電式電池を備える場合、当該充電式電池は、有線充電または無線充電をサポートすることができる。当該充電式電池は、高速充電技術をサポートすることできある。
いくつかの実施例において、端末1400は、1つまたは複数のセンサ1410をさらに備える。当該1つまたは複数のセンサ1410は、加速度センサ1411、ジャイロセンサ1412、圧力センサ1413、指紋センサ1414、光学センサ1415および近接センサ1416を含むが、これらに限定されない。
加速度センサ1411は、端末1400によって確立された座標系の3つの座標軸上の加速度の大きさを検出することができる。例えば、加速度センサ1411は、3つの座標軸上の重力加速度の成分を検出するために使用されることができる。プロセッサ1401は、加速度センサ1411で撮影された重力加速度信号に従って、ランドスケープビューまたはポートレートビューをユーザインターフェースで表示するために、表示スクリーン1405を制御することができる。加速度センサ1411は、ゲームまたはユーザの運動データの撮影に使用されることもできる。
ジャイロセンサ1412は、端末1400の本体方向および回動角度を検出することができ、ジャイロセンサ1412は、加速度センサ1411と協働して、端末1400に対するユーザの3D動作を撮影することができる。プロセッサ1401は、ジャイロセンサ1412で撮影されたデータに従って、モーションセンシング(ユーザの傾斜操作に応じてUIを変更するなど)、撮影中の画像安定化、ゲーム制御および慣性ナビゲーションなどの機能を実現することができる。
圧力センサ1413は、端末1400のサイドフレームおよび/または表示スクリーン1405の下に配置されることができる。圧力センサ1413が端末1400のサイドフレームに配置される場合、端末1400に対するユーザのホールディング信号を検出し、プロセッサ1401によって、圧力センサ1413によって撮影されたホールディング信号に従って、右手と左手の識別またはクイック操作を実行することができる。圧力センサ1413が表示スクリーン1405の下に配置される場合、プロセッサ1401によって、ユーザが表示スクリーン1405に対する圧力操作に従って、UIインターフェース上の可操作性制御部に対する制御を実現する。可操作性制御部は、ボタン制御部、スクロール・バー制御部、アイコン制御部、メニュー制御部のうちの1つを備える。
指紋センサ1414は、ユーザの指紋を撮影し、プロセッサ1401によって、指紋センサ1414で撮影された指紋に従ってユーザの身元を識別し、または、指紋センサ1414によって、指紋に従ってユーザの身元を識別する。ユーザの身元が可信身元であると識別された場合、プロセッサ1401によって、当該ユーザが関する敏感な操作を有することを認可し、当該敏感な操作は、画面のロックの解除、暗号化された情報の閲覧、ソフトウェアのダウンロード、支払いおよび設定の変更などを含む。指紋センサ1414は、端末1400の正面、背面または測面に配置されることができる。端末1400が、物理的ボタンまたはメーカーのLogoに配置される場合、指紋センサ1414は、物理的ボタンまたはメーカーのロゴと統合されてもよい。
光学センサ1415は、環境光の強度を撮影する。一実施例において、プロセッサ1401は、光学センサ1415によって撮影された環境光の強度に従って、表示スクリーン1405のディスプレイ輝度を制御することができる。具体的に、環境光の強度が高い場合、表示スクリーン1405のディスプレイ輝度を挙げ、環境光の強度が低い場合、表示スクリーン1405のディスプレイ輝度を下げる。別の実施例において、プロセッサ1401は、光学センサ1415によって撮影された環境光の強度に従って、カメラコンポーネント1406の撮影パラメータを動的に調整することもできる。
近接センサ1416は、距離センサとも称され、通常、端末1400のフロントパネルに配置される。近接センサ1416は、ユーザと端末1400の正面との間の距離を撮影する。一実施例において、近接センサ1416がユーザと端末1400の正面との間の距離がますます小さくなることが検出された場合、プロセッサ1401が、表示スクリーン1405がオンスクリーン状態からオフスクリーン状態に切り替えるように制御し、近接センサ1416がユーザと端末1400の正面との間の距離がますます大きくなることが検出された場合、プロセッサ1401が、表示スクリーン1405がオフスクリーン状態からオンスクリーン状態に切り替えるように制御する。
図14で示された構造は、端末1400に対して限定するものではなく、図に示されたものより多いまたはより少ないコンポーネントを備え、またはいくつかのコンポーネントを組み合わせ、または異なるコンポーネント配置を採用することができる。
図15は本願実施例によるサーバの構造概略図であり、当該サーバ1500は、異なる構成または性能のため、比較的大きな違いを有することができ、1つまたは複数のプロセッサ(central processing units、CPU)1501および1つまたは複数のメモリ1502を備えることができる。ここで、当該1つまたは複数のメモリ1502に少なくとも1つの命令が記憶され、少なくとも1つの命令は、当該1つまたは複数のプロセッサ1501によってロードされ実行されて、上記の各方法の実施例が提供した動作制御方法を実現する。もちろん、当該サーバ1500はさらに、有線または無線のネットワークインターフェース、キーボードおよび入出力のための入力および出力インターフェース等の部材を有することができ、当該サーバ1500はさらに、他の機器機能を実現するための他の部材を含むことができ、ここでは詳細に説明しない。
例示的な実施例では、コンピュータ読み取り可能な記憶媒体をさらに提供し、例えば、命令を含むメモリを提供し、上記の命令は、上記の実施例における動作制御方法を完了するために、プロセッサによって実行される。例えば、当該コンピュータ読み取り可能な記憶媒体は、読み取り専用メモリ(Read-Only Memory,ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、コンパクトディスク読み取り専用メモリ(Compact Disc Read-Only Memory、CD-ROM)、磁気テープ、フロッピーディスクおよび光学データ記憶装置等などであることができる。
当業者は、上記の実施例のステップの全部または一部を、ハードウェアによって実現するか、または関連するハードウェアに完了するように指示するプログラムによって実現できることを理解できる。当該プログラムは、コンピュータ読み取り可能な記憶媒体に記憶することができ、上記に記載した記憶媒体は、読み取り専用メモリ、磁気ディスクまたは光ディスクなどであることができる。上記は、本発明の好ましい実施例にすぎず、本発明を限定することを意図するものではない。本発明の思想と原則の範囲内で行われた変更、同等の交換、改善などは、本発明の保護範囲に含まれるものである。
1201 第1表示モジュール
1202 第1決定モジュール
1203 第1実行モジュール
1301 第2表示モジュール
1302 第2決定モジュール
1303 第2実行モジュール
1401 プロセッサ
1402 メモリ
1403 周辺機器インターフェース
1404 無線周波数回路
1405 表示スクリーン
1406 カメラコンポーネント
1407 オーディオ回路
1408 位置決めコンポーネント
1409 電源
1410 センサ
1411 加速度センサ
1412 ジャイロセンサ
1413 圧力センサ
1414 指紋センサ
1415 光学センサ
1416 近接センサ
1500 サーバ
1501 プロセッサ
1502 メモリ

Claims (19)

  1. 電子機器が実行する動作制御方法であって、
    グラフィカルユーザインターフェースにターゲットボタンを表示するステップであって、前記ターゲットボタンは、表示モード切り替え機能および射撃機能に対応するものであるステップと、
    前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定するステップと、
    前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップと、を含む、動作制御方法。
  2. 前記現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する前記ステップは、
    前記仮想アイテムの種別が第1種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
    ことを特徴とする、請求項1に記載の方法。
  3. 前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
    前記仮想アイテムの種別が第1種別である場合、前記ターゲット表示モード切り替えモードおよび前記第1射撃モードに基づき、前記タッチ動作の開始が検出されると、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替えるとともに、前記タッチ動作の持続期間に射撃機能を継続して実行し、前記タッチ動作の終了が検出されると、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えるステップを含む
    ことを特徴とする、請求項2に記載の方法。
  4. 前記現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する前記ステップは、
    前記仮想アイテムの種別が第1種別である場合、前記仮想アイテムの現在の射撃種別を取得するステップと、
    前記射撃種別が第1射撃種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第1射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを実行する、ステップと、
    前記射撃種別が第2射撃種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップと、を含む
    ことを特徴とする、請求項2に記載の方法。
  5. 前記現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する前記ステップは、
    前記仮想アイテムの種別が第2種別である場合、前記表示モード切り替え機能および前記射撃機能を前記トリガー対象のターゲット機能として決定し、ターゲット表示モード切り替えモードを前記表示モード切り替え機能に対応するターゲットモードとして決定し、第2射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
    ことを特徴とする、請求項1に記載の方法。
  6. 前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
    前記仮想アイテムの種別が第2種別である場合、前記ターゲット表示モード切り替えモードおよび前記第2射撃モードに基づき、前記タッチ動作の開始が検出されると、仮想シーンの表示モードを第1表示モードから第2表示モードに切り替え、前記タッチ動作の終了が検出されると、前記射撃機能を実行するとともに、仮想シーンの表示モードを第2表示モードから第1表示モードに切り替えるステップを含む
    ことを特徴とする、請求項5に記載の方法。
  7. 前記現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する前記ステップは、
    前記仮想アイテムの種別が第3種別である場合、前記射撃機能を前記トリガー対象のターゲット機能として決定し、第3射撃モードを前記射撃機能に対応するターゲットモードとして決定するステップを含む
    ことを特徴とする、請求項1に記載の方法。
  8. 前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
    前記仮想アイテムの種別が第3種別である場合、前記第3射撃モードに基づき、前記タッチ動作の開始が検出されると、前記射撃機能を実行するステップを含む
    ことを特徴とする、請求項7に記載の方法。
  9. 前記グラフィカルユーザインターフェースにターゲットボタンを表示する前記ステップは、
    グラフィカルユーザインターフェースのターゲット位置に、前記ターゲットボタンを表示するステップ、
    グラフィカルユーザインターフェースに、ターゲットサイズに応じて前記ターゲットボタンを表示するステップ、および
    グラフィカルユーザインターフェースに、ターゲット透明度に応じて前記ターゲットボタンを表示するステップのうちの少なくとも1つを含む
    ことを特徴とする、請求項1に記載の方法。
  10. 構成インターフェースに基づき、前記ターゲットボタンの位置調整情報を取得し、前記位置調整情報に基づき、前記ターゲットボタンのターゲット位置を取得するステップ、
    構成インターフェースに基づき、前記ターゲットボタンのサイズ調整情報を取得し、前記サイズ調整情報に基づき、前記ターゲットボタンのターゲットサイズを取得するステップ、および
    構成インターフェースに基づき、前記ターゲットボタンの透明度調整情報を取得し、前記透明度調整情報に基づき、前記ターゲットボタンのターゲット透明度を取得するステップのうちの少なくとも1つをさらに含む
    ことを特徴とする、請求項9に記載の方法。
  11. 前記ターゲットボタンは、視角調整機能にも対応するものであり、
    前記方法は、
    前記ターゲットボタンへのタッチ動作が検出されると、前記視角調整機能を前記トリガー対象のターゲット機能として決定し、ターゲット視角調整モードを前記視角調整機能に対応するターゲットモードとして決定するステップをさらに含み、
    前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
    前記ターゲット視角調整モードに基づき、前記タッチ動作の持続期間に、前記タッチ動作の動作方向および動作速度に応じて、仮想シーンの視角を調整するステップをさらに含む
    ことを特徴とする、請求項1に記載の方法。
  12. 前記ターゲットボタンは、動き制御機能にも対応するものであり、
    前記方法は、
    前記ターゲットボタンへのタッチ動作が検出されると、前記動き制御機能を前記トリガー対象のターゲット機能として決定し、ターゲット動き制御モードを前記動き制御機能に対応するターゲットモードとして決定するステップをさらに含み、
    前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
    前記ターゲット動き制御モードに基づき、前記タッチ動作の開始が検出されると、ターゲット動きを実行するように前記現在の仮想オブジェクトを制御するステップ、および
    前記タッチ動作の終了が検出されると、前記ターゲット動きを実行する前の動きに回復されるように前記現在の仮想オブジェクトの動きを制御するステップのうちの少なくとも1つをさらに含む
    ことを特徴とする、請求項1に記載の方法。
  13. 前記ターゲットボタンは、動き制御機能にも対応するものであり、
    前記方法は、
    前記ターゲットボタンへのタッチ動作が検出されると、前記動き制御機能を前記トリガー対象のターゲット機能として決定し、前記現在の仮想オブジェクトの移動状態、および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、複数の動き制御モードのうちのターゲット動き制御モードを前記動き制御機能に対応するターゲットモードとして決定するステップをさらに含み、
    前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する前記ステップは、
    前記ターゲット動き制御モードに基づき、前記タッチ動作の開始が検出されると、前記ターゲット動き制御モードに対応するターゲット動きを実行するように前記現在の仮想オブジェクトを制御するステップ、および
    前記タッチ動作の終了が検出されると、前記ターゲット動きを実行する前の動きに回復されるように前記現在の仮想オブジェクトの動きを制御するステップのうちの少なくとも1つをさらに含む
    ことを特徴とする、請求項1に記載の方法。
  14. 前記グラフィカルユーザインターフェースにターゲットボタンを表示する前記ステップは、
    構成情報によって動作制御機能がオン状態にあると決定されると、前記グラフィカルユーザインターフェースにターゲットボタンを表示する前記ステップを実行する、ステップを含む
    ことを特徴とする、請求項1に記載の方法。
  15. 電子機器が実行する動作制御方法であって、
    複数の制御機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示するステップであって、前記複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含むものであるステップと、
    前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、前記複数の制御機能のうちのトリガー対象のターゲット機能および前記ターゲット機能に対応するターゲットモードを決定するステップと、
    前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行するステップとを含む、動作制御方法。
  16. 動作制御装置であって、
    表示モード切り替え機能および射撃機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールと、
    前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別にしたがって、前記表示モード切り替え機能および射撃機能のうちのトリガー対象のターゲット機能と、前記ターゲット機能に対応するターゲットモードとを決定する決定モジュールと、
    前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える、動作制御装置。
  17. 動作制御装置であって、
    複数の制御機能に対応するターゲットボタンを、グラフィカルユーザインターフェースに表示する表示モジュールであって、前記複数の制御機能は、表示モード切り替え機能、射撃機能、動き制御機能および視角調整機能のうちの少なくとも2つを含むものである表示モジュールと、
    前記ターゲットボタンへのタッチ動作が検出されると、現在の仮想オブジェクトによって制御される仮想アイテムの種別、前記現在の仮想オブジェクトの移動状態および前記現在の仮想オブジェクトの仮想シーン内の環境のうちの少なくとも1つにしたがって、前記複数の制御機能のうちのトリガー対象のターゲット機能および前記ターゲット機能に対応するターゲットモードを決定する決定モジュールと、
    前記ターゲットモードに基づき、前記グラフィカルユーザインターフェースで前記ターゲット機能を実行する実行モジュールと、を備える、動作制御装置。
  18. メモリとプロセッサとを備える電子機器であって、
    前記メモリにコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令が前記プロセッサによって実行されると、前記プロセッサに請求項1ないし15のいずれか1項に記載の動作制御方法のステップを実行させる、電子機器。
  19. コンピュータ読み取り可能な命令が記憶されている1つまたは複数の不揮発性記憶媒体であって、
    前記コンピュータ読み取り可能な命令が1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに請求項1ないし15のいずれか1項に記載の動作制御方法のステップを実行させる、不揮発性記憶媒体。
JP2021531040A 2019-04-11 2020-03-17 動作制御方法、装置、電子機器およびプログラム Active JP7231737B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910290727.0A CN110141869A (zh) 2019-04-11 2019-04-11 操作控制方法、装置、电子设备及存储介质
CN201910290727.0 2019-04-11
PCT/CN2020/079706 WO2020207206A1 (zh) 2019-04-11 2020-03-17 操作控制方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022509295A true JP2022509295A (ja) 2022-01-20
JP7231737B2 JP7231737B2 (ja) 2023-03-01

Family

ID=67588909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021531040A Active JP7231737B2 (ja) 2019-04-11 2020-03-17 動作制御方法、装置、電子機器およびプログラム

Country Status (9)

Country Link
US (1) US20210260479A1 (ja)
JP (1) JP7231737B2 (ja)
KR (1) KR102578242B1 (ja)
CN (1) CN110141869A (ja)
AU (1) AU2020256524A1 (ja)
BR (1) BR112021019455A2 (ja)
CA (1) CA3132897A1 (ja)
SG (1) SG11202104911TA (ja)
WO (1) WO2020207206A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110141869A (zh) * 2019-04-11 2019-08-20 腾讯科技(深圳)有限公司 操作控制方法、装置、电子设备及存储介质
CN110339562B (zh) * 2019-08-01 2023-09-15 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN110448908B (zh) * 2019-08-22 2020-12-01 腾讯科技(深圳)有限公司 虚拟环境中瞄准镜的应用方法、装置、设备及存储介质
CN110665229B (zh) * 2019-10-11 2021-08-20 腾讯科技(深圳)有限公司 一种射击游戏中元素交互的方法以及相关装置
CN110975289B (zh) * 2019-11-14 2021-10-15 腾讯科技(深圳)有限公司 射击模式切换控制方法和装置、存储介质及电子装置
CN111068330B (zh) * 2019-11-21 2021-07-27 腾讯科技(深圳)有限公司 虚拟攻击道具的处理方法和装置、存储介质及电子装置
CN111359214B (zh) * 2020-03-05 2021-05-11 腾讯科技(深圳)有限公司 虚拟道具控制方法和装置、存储介质及电子装置
CN111632380A (zh) * 2020-05-28 2020-09-08 腾讯科技(深圳)有限公司 虚拟姿态切换方法、装置、存储介质及电子装置
JP7408685B2 (ja) * 2020-09-11 2024-01-05 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 アプリケーションプログラム内のコントロールの位置調整方法、装置、機器及び記憶媒体
CN112316428A (zh) * 2020-10-27 2021-02-05 腾讯科技(深圳)有限公司 一种虚拟道具的处理方法、装置及计算机可读存储介质
CN112402960B (zh) * 2020-11-19 2022-11-04 腾讯科技(深圳)有限公司 虚拟场景中状态切换方法、装置、设备及存储介质
CN112354181B (zh) * 2020-11-30 2022-12-30 腾讯科技(深圳)有限公司 开镜画面展示方法、装置、计算机设备及存储介质
CN112791398A (zh) * 2021-02-03 2021-05-14 网易(杭州)网络有限公司 游戏中虚拟倍镜的控制方法、装置、电子设备及存储介质
CN113318430A (zh) * 2021-05-28 2021-08-31 网易(杭州)网络有限公司 虚拟角色的姿态调整方法、装置、处理器及电子装置
CN113546425B (zh) * 2021-07-27 2024-03-01 网易(杭州)网络有限公司 游戏中虚拟物品处理方法、装置、终端和存储介质
KR102354559B1 (ko) * 2021-08-24 2022-01-21 한국기술교육대학교 산학협력단 콘텐츠 제어용 다종 인터페이스 장치
CN113687761B (zh) * 2021-08-24 2023-08-08 网易(杭州)网络有限公司 游戏控制方法及装置、电子设备、存储介质
KR102646689B1 (ko) * 2021-10-20 2024-03-12 (주)크래프톤 모바일 게임을 위한 사용자 인터페이스 제공 방법 및 이를 적용한 디바이스
CN113926181A (zh) * 2021-10-21 2022-01-14 腾讯科技(深圳)有限公司 虚拟场景的对象控制方法、装置及电子设备
CN113986079B (zh) * 2021-10-28 2023-07-14 腾讯科技(深圳)有限公司 虚拟按钮的设置方法和装置、存储介质及电子设备
CN114371898B (zh) * 2021-12-10 2022-11-22 北京城市网邻信息技术有限公司 信息展示方法、设备、装置及存储介质
CN114217708B (zh) * 2021-12-15 2023-05-26 腾讯科技(深圳)有限公司 虚拟场景中开局操作的控制方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140243058A1 (en) * 2013-02-26 2014-08-28 Gree, Inc. Shooting game control method and game system
JP5727655B1 (ja) * 2014-09-17 2015-06-03 株式会社Pgユニバース 情報処理装置、情報処理方法及びプログラム
CN105688409A (zh) * 2016-01-27 2016-06-22 网易(杭州)网络有限公司 游戏控制方法及装置
JP2017201513A (ja) * 2016-05-03 2017-11-09 ホットヘッド ホールディングス インコーポレイテッド 仮想環境ユーザインターフェースのズーム制御
KR20180116870A (ko) * 2017-04-18 2018-10-26 주식회사 드래곤플라이 게임 장치 및 컴퓨터 프로그램

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101298030B1 (ko) * 2013-03-12 2013-08-26 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
CN106293070B (zh) * 2016-07-27 2019-11-15 网易(杭州)网络有限公司 虚拟角色视角方向控制方法及装置
CN108525294B (zh) * 2018-04-04 2021-07-27 网易(杭州)网络有限公司 射击游戏的控制方法和装置
CN108553891A (zh) * 2018-04-27 2018-09-21 腾讯科技(深圳)有限公司 对象瞄准方法和装置、存储介质及电子装置
CN108771863B (zh) * 2018-06-11 2022-04-15 网易(杭州)网络有限公司 射击游戏的控制方法和装置
CN109091869B (zh) * 2018-08-10 2022-07-26 腾讯科技(深圳)有限公司 虚拟对象的动作控制方法、装置、计算机设备及存储介质
CN109589601B (zh) * 2018-12-10 2022-04-08 网易(杭州)网络有限公司 虚拟瞄准镜控制方法及装置、电子设备和存储介质
CN110141869A (zh) * 2019-04-11 2019-08-20 腾讯科技(深圳)有限公司 操作控制方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140243058A1 (en) * 2013-02-26 2014-08-28 Gree, Inc. Shooting game control method and game system
JP5727655B1 (ja) * 2014-09-17 2015-06-03 株式会社Pgユニバース 情報処理装置、情報処理方法及びプログラム
CN105688409A (zh) * 2016-01-27 2016-06-22 网易(杭州)网络有限公司 游戏控制方法及装置
JP2017201513A (ja) * 2016-05-03 2017-11-09 ホットヘッド ホールディングス インコーポレイテッド 仮想環境ユーザインターフェースのズーム制御
KR20180116870A (ko) * 2017-04-18 2018-10-26 주식회사 드래곤플라이 게임 장치 및 컴퓨터 프로그램

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
" [PUBGモバイル]iPadのおすすめボタン配置を紹介(4本指)", コンプリ[ONLINE], JPN6022024653, 9 February 2019 (2019-02-09), ISSN: 0004802437 *
" [荒野行動]知らなきゃ損!!『瞬殺モード』の使い方利点解説!使いこなせればSR無双当たり前!?[Knives out実", YOUTUBE[ONLINE][VIDEO], JPN6022024654, 20 April 2018 (2018-04-20), ISSN: 0004802438 *
"[荒野行動]『瞬殺モード』を解説!狙撃の重要テクニックを活用しよう!", GAMEWITH[ONLINE], JPN6022024652, 7 April 2019 (2019-04-07), ISSN: 0004802436 *

Also Published As

Publication number Publication date
KR102578242B1 (ko) 2023-09-12
AU2020256524A1 (en) 2021-10-07
US20210260479A1 (en) 2021-08-26
CA3132897A1 (en) 2020-10-15
WO2020207206A1 (zh) 2020-10-15
SG11202104911TA (en) 2021-06-29
BR112021019455A2 (pt) 2021-11-30
KR20210086705A (ko) 2021-07-08
CN110141869A (zh) 2019-08-20
JP7231737B2 (ja) 2023-03-01

Similar Documents

Publication Publication Date Title
JP7231737B2 (ja) 動作制御方法、装置、電子機器およびプログラム
JP7264993B2 (ja) 仮想対象と投擲物とのインタラクションを制御する方法及びその装置、並びにコンピュータプログラム
CN108619721B (zh) 虚拟场景中的距离信息显示方法、装置及计算机设备
CN109350964B (zh) 控制虚拟角色的方法、装置、设备及存储介质
CN108710525B (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
JP7419382B2 (ja) 仮想アイテムをマークするように仮想対象を制御する方法及びその装置並びにコンピュータプログラム
CN109614171B (zh) 虚拟道具转移方法、装置、电子设备及计算机存储介质
JP7476109B2 (ja) 仮想オブジェクトと仮想シーンとのインタラクションの制御方法、装置、端末及びコンピュータプログラム
TWI796777B (zh) 虛擬物品的控制方法、裝置、終端及儲存媒體
CN111921197B (zh) 对局回放画面的显示方法、装置、终端及存储介质
CN111589132A (zh) 虚拟道具展示方法、计算机设备及存储介质
JP7309913B2 (ja) 視点回転の方法、装置、端末およびコンピュータプラグラム
WO2021031765A1 (zh) 虚拟环境中瞄准镜的应用方法和相关装置
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
TWI802978B (zh) 應用程式內的控制項位置調整方法及裝置、設備及存儲介質
JP2021535824A (ja) 視角回転の方法、装置及びコンピュータプログラム
CN110743168A (zh) 虚拟场景中的虚拟对象控制方法、计算机设备及存储介质
CN110738738B (zh) 三维虚拟场景中的虚拟对象标记方法、设备及存储介质
CN113398572A (zh) 虚拟道具切换方法、技能切换方法、虚拟对象切换方法
CN111672115B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN110152309B (zh) 语音通信方法、装置、电子设备及存储介质
CN112121438A (zh) 操作提示方法、装置、终端及存储介质
RU2787649C1 (ru) Способ и устройство для управления операциями, электронное устройство и носитель данных
JP7413563B2 (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム
CN113509729B (zh) 虚拟道具的控制方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150