JP2022522699A - 仮想オブジェクトの制御方法、装置、端末及びプログラム - Google Patents

仮想オブジェクトの制御方法、装置、端末及びプログラム Download PDF

Info

Publication number
JP2022522699A
JP2022522699A JP2021550057A JP2021550057A JP2022522699A JP 2022522699 A JP2022522699 A JP 2022522699A JP 2021550057 A JP2021550057 A JP 2021550057A JP 2021550057 A JP2021550057 A JP 2021550057A JP 2022522699 A JP2022522699 A JP 2022522699A
Authority
JP
Japan
Prior art keywords
shooting
virtual
scope
gun
button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021550057A
Other languages
English (en)
Inventor
リィウ,ジホォン
ヤン,ジンハオ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022522699A publication Critical patent/JP2022522699A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

仮想オブジェクトの制御方法、装置、端末及び記憶媒体を提供する。該方法は、第1の撃ちボタンを含むユーザインターフェースを表示するステップであって、該第1の撃ちボタンは、スコープ覗き及び撃ちをトリガするための操作ウィジェットである、ステップ(301)と、第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御するステップ(302)と、撃ち条件を満たすか否かを検出するステップ(303)と、撃ち条件を満たす場合、仮想銃がスコープ覗き状態にあるとき、仮想銃で射撃するように制御するステップ(304)と、を含む。該方法は、1つのキーでスコープ覗き及び撃ちを完成する機能を実現し、2つの操作を必要とせずに、1つの操作だけでスコープ覗き及び撃ちを完成することができ、操作効率を十分に向上させることができる。【選択図】図3

Description

本発明は、2019年8月1日に出願した出願番号が201910707805.2であり、発明の名称が「仮想オブジェクトの制御方法、装置、端末及び記憶媒体」である中国特許出願に基づく優先権を主張し、その全ての内容を参照により本発明に援用する。
本発明は、コンピュータ及びインターネットの技術分野に関し、特に仮想オブジェクトの制御方法、装置、端末及び記憶媒体に関する。
現在、幾つかの移動端末のシューティングゲームでは、プレイヤは、ゲーム対戦により提供されるゲームシーンにおいて、仮想オブジェクトにより所持される仮想銃を制御して射撃し、敵の仮想オブジェクトを倒して、ゲーム対戦の勝利を達成することができる。
関連技術により提供された仮想オブジェクトを制御して射撃する操作方法は、比較的に複雑であり、且つ非効率的である。
本発明の実施例は、仮想オブジェクトの制御方法、装置、端末及び記憶媒体を提供する。その技術的手段は、以下の通りである。
1つの態様では、移動端末に適用される、仮想オブジェクトの制御方法であって、第1の撃ちボタンを含むユーザインターフェースを表示するステップであって、前記第1の撃ちボタンは、スコープ覗き及び撃ちをトリガするための操作ウィジェットである、ステップと、前記第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御するステップであって、前記スコープ覗き状態は、前記仮想銃に装備している仮想スコープにより仮想環境を覗く状態である、ステップと、撃ち条件を満たすか否かを検出するステップと、前記撃ち条件を満たす場合、前記仮想銃が前記スコープ覗き状態にあるとき、前記仮想銃で射撃するように制御するステップと、を含む、方法を提供する。
もう1つの態様では、仮想オブジェクトの制御装置であって、第1の撃ちボタンを含むユーザインターフェースを表示するインターフェース表示モジュールであって、前記第1の撃ちボタンは、スコープ覗き及び撃ちをトリガするための操作ウィジェットである、インターフェース表示モジュールと、前記第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御するスコープ覗き制御モジュールであって、前記スコープ覗き状態は、前記仮想銃に装備している仮想スコープにより仮想環境を覗く状態である、スコープ覗き制御モジュールと、撃ち条件を満たすか否かを検出する条件検出モジュールと、前記撃ち条件を満たす場合、前記仮想銃が前記スコープ覗き状態にあるとき、前記仮想銃で射撃するように制御する射撃制御モジュールと、を含む、装置を提供する。
もう1つの態様では、プロセッサと、メモリと、を含む移動端末であって、前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は前記命令セットは、上記の仮想オブジェクトの制御方法を実現するように、前記プロセッサによりロードされて実行される、移動端末を提供する。
もう1つの態様では、コンピュータ読み取り可能な記憶媒体であって、前記記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は前記命令セットは、上記の仮想オブジェクトの制御方法を実現するように、プロセッサによりロードされて実行される、記憶媒体を提供する。
もう1つの態様では、コンピュータプログラムプロダクトであって、前記コンピュータプログラムプロダクトは、移動端末において実行される際に、移動端末に上記の仮想オブジェクトの制御方法を実行させる、コンピュータプログラムプロダクトを提供する。
本発明の実施例に係る技術では、ユーザインターフェースにスコープ覗き及び撃ちをトリガするための第1の撃ちボタンを設計し、該第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御すると共に、仮想銃がスコープ覗き状態にある場合、仮想銃で射撃するように制御することで、1つのキーでスコープ覗き及び撃ちを完成する機能を実現し、2つの操作を必要とせずに、1つの操作だけでスコープ覗き及び撃ちを完成することができ、操作効率を十分に向上させることができる。
本発明の実施例に係る技術をより明確に説明するために、以下は、実施例の説明に必要な図面を簡単に紹介する。なお、以下の説明における図面は、単なる本発明の幾つかの実施例であり、当業者にとって、創造的な作業を行うことなく、これらの図面に基づいて他の図面を得ることができる。
本発明の1つの実施例に係る実装環境の概略図である。 本発明の1つの実施例に係る移動端末の構成の概略図である。 本発明の1つの実施例に係る仮想オブジェクトの制御方法のフローチャートである。 第1の撃ちボタンを例示的に示す概略図である。 設定インターフェースを例示的に示す概略図である。 本発明のもう1つの実施例に係る仮想オブジェクトの制御方法のフローチャートである。 第2の撃ちボタンを例示的に示す概略図である。 本発明のもう1つの実施例に係る仮想オブジェクトの制御方法のフローチャートである。 本発明の1つの実施例に係る仮想オブジェクトの制御装置のブロック図である。 本発明のもう1つの実施例に係る仮想オブジェクト制御装置のブロック図である。 本発明の1つの実施例に係る移動端末の構成のブロック図である。
本発明の目的、技術的手段、及び利点をより明確にするために、以下は、図面を参照しながら本発明の実施形態をさらに詳細に説明する。
本発明の実施例を紹介して説明する前に、まず、本発明に関する関連用語を解釈して説明する。
1.仮想オブジェクト
仮想オブジェクトとは、アプリケーションプログラムにおいてユーザアカウントにより制御される仮想キャラクタを意味する。アプリケーションプログラムがゲームアプリケーションプログラムである例では、仮想オブジェクトとは、ゲームアプリケーションプログラムにおいてユーザアカウントにより制御されるゲームキャラクタを意味する。仮想オブジェクトは、人間型キャラクタであってもよいし、動物、アニメ又は他の形態であってもよいが、本発明の実施例はこれらに限定されない。仮想オブジェクトは、3次元の形態で表示されてもよいし、2次元の形態で表示されてもよいが、本発明の実施例はこれらに限定されない。
異なるゲームアプリケーションプログラムでは、ユーザアカウントにより制御される仮想オブジェクトにより実行可能な操作も異なる場合がある。例えば、シューティングゲームのアプリケーションプログラムでは、ユーザアカウントが仮想オブジェクトを制御して、射撃、走り、ジャンプ、銃の拾い上げ、銃の交換、銃への弾丸の装填などの操作を実行できる。
なお、ゲームアプリケーションプログラムに加えて、他のタイプのアプリケーションプログラムでもユーザに仮想オブジェクトを表示し、仮想オブジェクトに対応する機能を提供してもよい。例えば、AR(Augmented Reality:拡張現実)のアプリケーションプログラム、ソーシャルアプリケーションプログラム、インタラクティブエンターテインメントアプリケーションプログラムなどであってもよいが、本発明の実施例はこれらに限定されない。また、異なるアプリケーションプログラムについて、提供される仮想オブジェクトの形態が異なり、対応する機能も異なるため、実際のニーズに応じて事前に構成を行ってもよいが、本発明の実施例はこれらに限定されない。
2.仮想銃
仮想銃とは、実際の銃の射撃をシミュレートできる仮想アイテムを意味する。仮想銃は、実際の銃の3次元モデルであってもよく、仮想オブジェクトは、仮想銃を装備し、特定のターゲットを撃つように仮想銃を制御することができる。
仮想銃は、ライフル、マシンガン、機関銃、ショットガン、拳銃などの様々な銃の種別を含んでもよい。銃の種別は、実際のニーズに応じて分類されてもよい。例えば、ライフルは、アサルトライフルやスナイパーライフルなどの様々な種別に細かく分類されてもよく、機関銃は、軽機関銃や重機関銃などの様々な種別に細かく分類されてもよい。
3.仮想スコープ
仮想スコープ(仮想照準器)とは、仮想銃に装備され、仮想環境を補助的に観察するための仮想アイテムを意味する。仮想スコープは、実際のスコープの3次元モデルであってもよい。仮想銃は、仮想スコープが装備された後、スコープ覗き状態になることができる。このスコープ覗き状態とは、仮想スコープにより仮想環境を覗く状態を意味する。
仮想スコープは、様々な拡大倍率のスコープ(例えば2倍率スコープ、3倍率スコープ、4倍率スコープ、6倍率スコープ、8倍率スコープなど)、レーザスコープ、ドットサイトスコープ、ホログラフィックスコープなどを含んでもよい。
図1は、本発明の1つの実施例に係る実装環境の概略図である。図1に示すように、該実装環境は、移動端末10及びサーバ20を含んでもよい。
移動端末10は、携帯電話、タブレットコンピュータ、ゲーム機、電子書籍リーダ、マルチメディア再生装置、ウェアラブルデバイスなどの携帯型電子機器であってもよい。移動端末10には、例えばシューティングゲームアプリケーションプログラムのクライアントプログラムなどのゲームアプリケーションプログラムのクライアントプログラムがインストールされてもよい。
サーバ20は、移動端末10におけるアプリケーションプログラム(ゲームアプリケーションプログラムなど)のクライアントプログラムにバックグラウンドサービスを提供するために使用される。例えば、サーバ20は、上記のアプリケーションプログラム(ゲームアプリケーションプログラムなど)のバックエンドサーバであってもよい。サーバ20は、1つのサーバであってもよいし、複数のサーバにより構成されたサーバクラスタであってもよいし、クラウドコンピューティングサービスセンターであってもよい。
移動端末10とサーバ20とは、ネットワーク30を介して相互に通信することができる。ネットワーク30は、有線ネットワークであってもよいし、無線ネットワークであってもよい。
本発明の方法の実施例では、各ステップの実行主体は、移動端末であってもよい。図2は、本発明の1つの実施例に係る移動端末の構成の概略図である。図2に示すように、移動端末10は、メインボード110、外部出力/入力装置120、メモリ130、外部インターフェース140、タッチシステム150、及び電源160を含んでもよい。
ここで、メインボード110には、プロセッサ及びコントローラなどの処理素子が統合されている。
外部出力/入力装置120は、表示コンポーネント(例えば表示スクリーン)、音声コンポーネント(例えばスピーカ)、音声取込コンポーネント(例えばマイクロフォン)、及び様々なキーなどを含んでもよい。
メモリ130は、プログラムコード及びデータが記憶されている。
外部インターフェース140は、イヤホンインターフェース、充電インターフェース、データインターフェースなどを含んでもよい。
タッチシステム150は、外部出力/入力装置120の表示コンポーネント又はキーに統合されてもよい。タッチシステム150は、表示コンポーネント又はキーに対してユーザにより実行されるタッチ操作を検出するために使用される。
電源160は、移動端末10における他の部材に電力を供給するために使用される。
本発明の実施例では、メインボード110におけるプロセッサは、メモリに記憶されたプログラムコード及びデータを実行又は呼び出すことによってユーザインターフェース(例えばゲームインターフェースなど)を生成し、生成されたユーザインターフェース(例えばゲームインターフェース)を外部出力/入力装置120により表示してもよい。ユーザインターフェース(例えばゲームインターフェース)を表示する際に、ユーザとユーザインターフェース(例えばゲームインターフェース)とインタラクションを行う際に実行されたタッチ操作を、タッチシステム150により検出し、該タッチ操作に応答してもよい。
関連技術では、シューティングゲームのユーザインターフェースには、スコープ覗きボタン及び撃ちボタンが提供されている。ユーザがスコープ覗きボタンをクリックすると、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御してもよい。スコープ覗き状態では、プレイヤは、仮想銃に装備されている仮想スコープにより仮想環境を覗くことができる。ユーザは、撃ちボタンをクリックすると、仮想オブジェクトにより所持される仮想銃で射撃するように制御してもよい。
実際の応用では、プレイヤは、ターゲットをより正確に狙って射撃できるように、スコープ覗き状態で射撃する必要がある。しかし、関連技術では、スコープ覗き状態で射撃するために、まずスコープ覗きボタンをクリックし、そして撃ちボタンをクリックする必要があるため、操作が複雑であり、非効率的である。
本発明の実施例に係る技術では、ユーザインターフェースにスコープ覗き及び撃ちをトリガするための第1の撃ちボタンを設計し、該第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御すると共に、仮想銃がスコープ覗き状態にある場合、仮想銃で射撃するように制御することで、1つのキーでスコープ覗き及び撃ちを完成する機能を実現し、2つの操作を必要とせずに、1つの操作だけでスコープ覗き及び撃ちを完成することができ、操作効率を十分に向上させることができる。
図3は、本発明の1つの実施例に係る仮想オブジェクトの制御方法のフローチャートである。図3に示すように、該方法は、上述した移動端末に適用されてもよく、例えば上述した移動端末のアプリケーションプログラム(例えばシューティングゲームアプリケーション)のクライアントプログラムに適用されてもよい。該方法は、以下のステップを含んでもよい。
ステップ301において、第1の撃ちボタンを含むユーザインターフェースを表示する。該第1の撃ちボタンは、スコープ覗き及び撃ちをトリガするための操作ウィジェットである。
シューティングゲームアプリケーションの例では、ユーザインターフェースは、ゲーム対戦の表示インターフェース(表示画面)であってもよい。該ユーザインターフェースは、ユーザにゲーム対戦の仮想環境を表示する。例えば、ユーザインターフェースは、仮想建物、仮想アイテム、仮想オブジェクトなどの仮想環境における要素を含んでもよい。好ましくは、該ユーザインターフェースは、ユーザが操作するためのボタン、スライダ、アイコンなどの操作ウィジェットをさらに含む。
本発明の実施例では、図4に示すように、ユーザインターフェース40は、第1の撃ちボタン41を含み、第1の撃ちボタン41は、スコープ覗き及び撃ちをトリガするための操作ウィジェットである。即ち、スコープ覗きの機能及び撃ちの機能は、2つの異なるボタンによりそれぞれ実現されることではなく、同一のボタンに統合することで、1つのキーでスコープ覗き及び撃ちの機能を実現することができる。
ステップ302において、第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御する。
ここで、スコープ覗き状態とは、仮想銃に装備している仮想スコープにより仮想環境を覗く状態を意味する。例えば、スコープ覗き状態では、ユーザインターフェースは、仮想銃に装備している仮想スコープを表示し、該仮想スコープにより見た仮想環境を表示してもよい。
例示的な実施例では、移動端末は、以下のように、第1の撃ちボタンに対応するトリガ信号が受信されたか否かを判断する。タッチ操作信号が受信された場合、該タッチ操作信号のタッチ位置を取得し、該タッチ操作信号のタッチ位置と第1の撃ちボタンの中心位置との間の距離を取得し、該距離が第1の閾値よりも小さい場合、第1の撃ちボタンに対応するトリガ信号が受信されたと決定する。
第1の撃ちボタンが円形である場合、上記の第1の閾値は、該第1の撃ちボタンの半径と同一であってもよいし、該第1の撃ちボタンの半径と異なってもよく、例えば、該第1の撃ちボタンの半径より僅かに大きく、或いは僅かに小さくてもよい。
検出されたタッチ操作信号のタッチ位置と第1の撃ちボタンの中心位置との間の距離が第1の閾値よりも小さい場合、ユーザの指が第1の撃ちボタンをクリックしたと判断し、即ち、該第1の撃ちボタンに対応するトリガ信号が受信されたと決定する。
例えば、構成ファイルにおいて第1撃ちボタンの中心位置の座標及び上記第1の閾値を構成し、タッチ操作信号が受信された場合、該タッチ操作信号のタッチ位置を取得し、該タッチ位置と、構成ファイルに構成されたで第1の撃ちボタンの中心位置との比較し、両者の間の距離を計算し、該距離と第1の閾値とを比較することにより、第1の撃ちボタンに対応するトリガ信号が受信されたか否かを判断する。上記の構成ファイルは、JSON(JavaScript Object Notation:JavaScriptオブジェクトノーテーション)のフォーマットの構成ファイルであってもよい。構成ファイルに第1撃ちボタンの中心位置の座標及び上記第1の閾値を構成することで、技術者は、アプリケーションプログラム全体のコードを変更する必要がなく、上記の構成ファイルだけを変更することで第1の撃ちボタンを変更することができるため、プロジェクトバージョンを容易にアップグレードすることができる。
また、移動端末は、仮想オブジェクトにより所持される仮想銃がスコープ撃ちをサポートしているか否かを検出し、該仮想銃がスコープ撃ちをサポートしている場合、第1の撃ちボタンに対応するトリガ信号が受信された場合、該仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御するステップを実行してもよい。そうでない場合、即ち、該仮想銃がスコープ撃ちをサポートしていない場合、第1の撃ちボタンに対応するトリガ信号が受信された場合、該仮想銃で腰だめ撃ちを行うように制御してもよい。腰だめ撃ちとは、スコープ覗きの操作を実行せずに、射撃操作を直接実行する撃ちモードを意味する。
好ましくは、移動端末が仮想オブジェクトにより所持される前記仮想銃がスコープ撃ちをサポートしているか否かを検出するステップは、以下のステップを含む。
ステップ1において、仮想銃が属する銃種別を取得する。
ステップ2において、該銃種別に対応する設定項目を取得する。該設定項目は、撃ちモードを設定するために使用され、該撃ちモードは、スコープ撃ち及び腰だめ撃ちを含む。
ステップ3において、銃種別に対応する設定項目がスコープ撃ちである場合、仮想銃がスコープ撃ちをサポートしていると決定する。
本発明の実施例では、仮想銃は、ライフル、マシンガン、機関銃、ショットガン、拳銃などの様々な銃の種別を含んでもよい。ユーザは、銃の種別ごとに、実際のニーズに応じて対応する撃ちモードを設定してもよい。例えば、ライフルの場合、ユーザにより設定された対応する撃ちモードは、スコープ撃ちであり、サブマシンガンの場合、ユーザにより設定された対応する撃ちモードは、腰だめ撃ちである。
例えば、図5に示すように、設定インターフェース50の撃ちモード設定領域51には、アサルトライフル、マシンガン、ショットガン、スナイパーライフルなどの様々な銃種別が提供される。銃種別ごとに、2つの設定項目、即ちスコープ撃ち及び腰だめ撃ちが提供される。ユーザは、実際のニーズに応じて、各銃種別に対応する撃ちモードを柔軟に設定してもよい。例えば、図5に示すように、アサルトライフルに対応する撃ちモードがスコープ撃ちであり、マシンガンに対応する撃ちモードがスコープ撃ちであり、ショットガンに対応する撃ちモードが腰だめ撃ちであるように設定する。
なお、ユーザは、全ての銃種別の撃ちモードを1つのキーで一括的に設定してもよく、例えば全ての銃種別の撃ちモードをスコープ撃ちに1つのキーで一括的に設定してもよいし、全ての銃種別の撃ちモードを腰だめ撃ちに1つのキーで一括的に設定してもよい。
ステップ303において、撃ち条件を満たすか否かを検出する。
移動端末は、第1の撃ちボタンに対応するトリガ信号が受信された後、現在の状態が撃ち条件を満たすか否かをさらに検出する必要がある。ここで、撃ち条件とは、事前に設定された、仮想オブジェクトにより所持される仮想銃で射撃することを許可するための条件を意味する。
好ましくは、上記の撃ち条件は、仮想オブジェクトについて設定された第1の撃ち条件、及び仮想銃について設定された第2の撃ち条件を含んでもよい。移動端末は、仮想オブジェクトが第1の撃ち条件を満たすか否かを検出し、仮想オブジェクトが第1の撃ち条件を満たす場合、仮想銃が第2の撃ち条件を満たすか否かを検出し、仮想銃が第2の撃ち条件を満たす場合、撃ち条件を満たすと決定してもよい。また、仮想オブジェクトが第1の撃ち条件を満たさなく、或いは仮想銃が第2の撃ち条件を満たさない場合、移動端末は、撃ち条件を満たさないと決定してもよい。なお、上記の仮想オブジェクトが第1の撃ち条件を満たすか否かを検出するステップと、仮想銃が第2の撃ち条件を満たすか否かを検出するステップとは、順次に実行されてもよいし、同時に実行されてもよいが、本発明の実施例はこれらに限定されない。
好ましくは、仮想オブジェクトが第1の撃ち条件を満たすか否かを検出するステップは、仮想オブジェクトの状態情報を取得するステップと、仮想オブジェクトの状態情報に基づいて、仮想オブジェクトが前記第1の撃ち条件を満たすか否かを検出するステップと、を含む。ここで、第1の撃ち条件は、仮想オブジェクトが生きている状態であること、仮想オブジェクトが車両を運転していないこと、及び仮想オブジェクトが水中にいないことの少なくとも1つを含むが、これらに限定されない。仮想オブジェクトが第1の撃ち条件を満たさない場合、例えば、仮想オブジェクトが既に死亡し、或いは仮想オブジェクトが車両を運転している場合、仮想オブジェクトは、仮想銃を制御して撃つことができない。上記の第1の撃ち条件は、事前に設定されてもよいが、本発明の実施例はこれらに限定されない。
好ましくは、仮想オブジェクトが第2の撃ち条件を満たすか否かを検出するステップは、仮想銃の状態情報を取得するステップと、仮想銃の状態情報に基づいて、仮想銃が第2の撃ち条件を満たすか否かを検出するステップと、を含む。ここで、第2の撃ち条件は、仮想銃に残弾があること、及び仮想銃が弾のリロード中ではないことの少なくとも1つを含むが、これらに限定されない。仮想銃が第2の撃ち条件を満たさない場合、例えば、仮想銃に残弾がなく、或いは仮想銃が弾のリロード中である場合、仮想オブジェクトは、仮想銃を制御して撃つことができない。上記の第2の撃ち条件は、事前に設定されてもよいが、本発明の実施例はこれらに限定されない。
ステップ304において、撃ち条件を満たす場合、仮想銃がスコープ覗き状態にあるとき、仮想銃で射撃するように制御する。
現在の状態が撃ち条件を満たす場合、仮想銃がスコープ覗き状態に維持すると共に、該仮想銃で射撃するように制御する。これによって、ユーザは、1本の指で1つのボタン(即ち、上記の第1の撃ちボタン)をクリックすることで、スコープ覗き及び撃ちの2つの操作をトリガすることができるため、「ワンクリックでスコープ撃ち」の機能を実現することができる。また、現在の状態が撃ち条件を満たさない場合、プロセスを終了してもよく、移動端末は、仮想銃で射撃操作を実行するように制御することはない。
なお、関連技術では、スコープ覗きボタン及び撃ちボタンを設けており、一部のユーザは複数の指で、例えば1つの指でスコープ覗きボタンをクリックし、もう1つの指で撃ちボタンをクリックすることで、スコープ覗き及び撃ちを迅速に実現することができる。しかし、スコープ覗きボタン及び撃ちボタンが通常ユーザインターフェースの同一側の部分に設けられ、例えば何れもユーザインターフェースの右部分に設けられており、ユーザインターフェースの左部分には仮想オブジェクトの移動を制御するためのジョイスティック操作ウィジェットが設けられるため、ユーザは、同一の手の2本の指でスコープ覗きボタン及び撃ちボタンをそれぞれクリックする必要があり、このようなユーザの操作が比較的に難しい。インターフェースの両側の部分にスコープ覗きボタン及び撃ちボタンが設けられても、例えば左手の1本の指で移動を制御し、右手の1本の指でスコープ覗きボタンをクリックし、左手のもう1本の指で撃ちボタンをクリックすることなどの複数の指で操作する必要があるという問題がある。本発明の実施例に係る技術は、ユーザは、1本の指で1つのボタンをクリックすることで、スコープ覗き及び撃ちの2つの操作をトリガすることができるため、ユーザの操作の難易度を低減させ、操作効率を向上させることができる。また、複数の指で操作するプレイヤ(例えば3本の指で操作するプレイヤ及び4本の指で操作するプレイヤ)の2本の指で操作するプレイヤに対する優位をある程度排除されるため、2本の指で操作するプレイヤであってもより良いゲーム体験を得ることができる。
また、仮想銃が連続射撃をサポートしている場合、トリガ信号の持続時間内に、仮想銃で所定の時間間隔ごとに1回の射撃操作を実行するように制御する。ここで、所定の時間間隔は、事前に設定されてもよく、例えば、異なる仮想銃に対応する所定の時間間隔(即ち、撃ち間隔)は、同一であってもよいし、異なってもよい。仮想銃が連続射撃をサポートしていない場合、トリガ信号の持続時間内に、仮想銃で1回の射撃操作を実行するように制御する。
例示的な実施例では、仮想銃がスコープ覗き状態にある場合、ユーザは、指を移動させることで、トリガ信号に対応するタッチ位置を調整してもよい。それに応じて、移動端末は、トリガ信号の持続時間内に、該トリガ信号に対応するタッチ位置を取得し、該トリガ信号に対応するタッチ位置に基づいて仮想銃の射撃方向を調整する。好ましくは、移動端末は、トリガ信号に対応するタッチ位置と第1の撃ちボタンの中心点との間の相対位置関係を決定し、該相対位置関係に基づいて仮想銃の射撃方向を決定する。例えば、上記の相対位置関係における上、下、左、右の4つの方向は、仮想オブジェクトが所在する仮想環境における北、南、西、東の4つの方向にそれぞれ対応する。このように、トリガ信号に対応するタッチ位置が第1の撃ちボタンの中心点の右上45°の位置にあると仮定すると、仮想銃の射撃方向が北東45°であると決定し、トリガ信号に対応するタッチ位置が第1の撃ちボタンの中心点の左下30°の位置にあると仮定すると、仮想銃の射撃方向が南西30°であると決定する。移動端末は、仮想銃の射撃方向を決定した後、まず、仮想オブジェクトが該射撃方向に向かうように制御し、ユーザインターフェースに仮想オブジェクトの正面視野における仮想環境を表示し、そして、該射撃方向に射撃するように仮想銃を制御してもよい。即ち、以上のように、1つのキーでスコープ覗き、照準及び撃ちの3つの操作を実現し、操作効率を大幅に向上させることができる。
関連技術では、ユーザは、複数の指でスコープ覗き、照準及び撃ちの3つの操作を迅速に完了する場合、左手の1本の指で仮想オブジェクトの移動を制御し、右手の1本の指でスコープ覗きボタンをクリックし、右手のもう1本の指で敵の仮想オブジェクトを狙うように視角を回転させ、左手のもう1本の指で撃ちボタンをクリックする必要があり、このような操作への要求が高い。
本発明の実施例に係る技術では、第1の撃ちボタンでジョイスティック機能を実現するように構成することで、ユーザは、第1の撃ちボタンをクリックした後、画面から指が離れることなく、指を移動して仮想銃の射撃方向を調整することができるため、1本の指でスコープ覗き、照準及び撃ちの3つの操作を実現し、ユーザの操作難易度を十分に低減させることができる。
以上のことから、本発明の実施例に係る技術では、ユーザインターフェースにスコープ覗き及び撃ちをトリガするための第1の撃ちボタンを設計し、該第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御すると共に、仮想銃がスコープ覗き状態にある場合、仮想銃で射撃するように制御することで、1つのキーでスコープ覗き及び撃ちを完成する機能を実現し、2つの操作を必要とせずに、1つの操作だけでスコープ覗き及び撃ちを完成することができ、操作効率を十分に向上させることができる。
また、該第1の撃ちボタンに対応するトリガ信号の持続時間内に、該トリガ信号に対応するタッチ位置の変化に基づいて、仮想銃の射撃方向を適応的に調整することができるため、1つのキーでスコープ覗き、照準及び撃ちの3つの操作を実現し、操作効率をさらに向上させることができる。
例えば、図6に示すように、本発明の実施例に係る仮想オブジェクトの制御方法は、以下のステップを含んでもよい。
ステップ601において、仮想オブジェクトにより所持される仮想兵器がスコープ撃ちをサポートしているか否かを判断する。YESの場合、下記のステップ602を実行し、NOの場合、下記のステップ604を実行する。
ステップ602において、仮想兵器の設定項目がスコープ撃ちであるか否かを判断する。YESの場合、下記のステップ603を実行し、NOの場合、下記のステップ604を実行する。
ステップ603において、撃ちモードがスコープ撃ちであると決定する。
ステップ604において、撃ちモードが腰だめ撃ちであると決定する。
ステップ605において、第1の撃ちボタンに対応するトリガ信号が受信されたか否かを判断する。YESの場合、下記のステップ606を実行し、NOの場合、ステップ605を実行する。
ステップ606において、仮想兵器がスコープ覗き状態になるように制御する。
ステップ607において、仮想オブジェクトが第1の撃ち条件を満たすか否かを判断する。YESの場合、下記のステップ608を実行し、NOの場合、プロセスを終了する。
ステップ608において、仮想兵器が第2の撃ち条件を満たすか否かを判断する。YESの場合、下記のステップ609を実行し、NOの場合、ステップ607を実行する。
ステップ609において、仮想兵器で1回目の射撃操作を実行するように制御する。
ステップ610において、前回の射撃操作からの間隔時間が所定の時間長に達したか否かを判断する。YESの場合、下記のステップ611を実行し、NOの場合、ステップ610を実行し続ける。
ステップ611において、トリガ信号が消えたか否かを判断する。NOの場合、下記のステップ612を実行し、下記のステップ612の後にステップ610を再度実行し、YESの場合、下記のステップ613を実行する。
ステップ612において、仮想兵器で1回の射撃操作を実行するように制御する。
ステップ613において、仮想兵器による射撃操作を停止するように制御する。
例示的な実施例では、ユーザインターフェースは、第1の撃ちボタンに加えて、第2の撃ちボタンをさらに含む。第2の撃ちボタンは、腰だめ撃ちをトリガするための操作ウィジェットである。第2の撃ちボタンに対応するトリガ信号が受信された場合、移動端末は、仮想オブジェクトにより所持される仮想銃で腰だめ撃ちを行うように制御する。
例えば、図7に示すように、ユーザインターフェース40は、第1の撃ちボタン41及び第2の撃ちボタン42を含む。ここで、第2の撃ちボタン42は、第1の撃ちボタン41の傍に設けられてもよく、例えば、第1の撃ちボタン41の左側に設けられてもよい。また、第2の撃ちボタン42のサイズは、第1の撃ちボタン41のサイズよりも適切に小さくてもよい。
携帯端末は、タッチ操作信号を受信した場合、該タッチ操作信号のタッチ位置を取得し、該タッチ操作信号のタッチ位置と第2の撃ちボタンの中心位置との間の距離を取得し、該距離が第2の閾値よりも小さい場合、第2の撃ちボタンに対応するトリガ信号が受信されたと決定する。第2の撃ちボタンが円形である場合、上記の第2の閾値は、該第2の撃ちボタンの半径と同一であってもよいし、該第2の撃ちボタンの半径と異なってもよく、例えば、該第2の撃ちボタンの半径より僅かに大きく、或いは僅かに小さくてもよい。検出されたタッチ操作信号のタッチ位置と第2の撃ちボタンの中心位置との間の距離が第2の閾値よりも小さい場合、ユーザの指が第2の撃ちボタンをクリックしたと判断し、即ち、該第2の撃ちボタンに対応するトリガ信号が受信されたと決定する。同様に、構成ファイルにおいて第2撃ちボタンの中心位置の座標及び上記第2の閾値を構成してもよいが、本発明の実施例はこれに限定されない。
本発明の実施例では、ユーザインターフェースに第1の撃ちボタン及び第2の撃ちボタンを同時に提供することで、ユーザにより多様な撃ちモードを選択させることができる。ユーザは、第1の撃ちボタンをクリックしてスコープ撃ちを実現することができ、第2の撃ちボタンをクリックして腰だめ撃ちを実現することができるため、ユーザの操作ニーズをより適切に満たすことができる。
ワンクリックでのスコープ撃ちにより迅速スコープ作戦に利便性を提供しているが、近距離の作戦では、ユーザインターフェースに仮想スコープが表示されるため、ユーザの視界が遮られ、照準と撃ちが困難になる。第1の撃ちボタンの傍に第2の撃ちボタンを配置することで、上記の欠点を十分に補うことができる。例えば、ユーザが近距離で戦う場合、第2の撃ちボタンをクリックして直接腰だめ撃ちを行うことで、スコープ覗きによる問題を回避することができる。一方、中距離及び遠距離で戦う場合、第1の撃ちボタンをクリックしてスコープ撃ちを行うことで、ユーザにより便利、且つ自由な射撃の選択肢を提供することができる。
また、ユーザインターフェースに第1の撃ちボタンのみが表示されか、それとも第1の撃ちボタン及び第2の撃ちボタンが同時に表示されるかは、ユーザが実際のニーズに応じて設定してもよく、本発明の実施例はこれらに限定されない。
例えば、図8に示すように、本発明の実施例に係る仮想オブジェクトの制御方法は、以下のステップを含んでもよい。
ステップ801において、現在のモードが2つの撃ちボタンを表示するように構成されているか否かを判断する。YESの場合、下記のステップ802を実行し、NOの場合、プロセスを終了する。
ステップ802において、ユーザインターフェースに第1の撃ちボタン及び第2の撃ちボタンを表示する。
ステップ803において、そのうちの1つの撃ちボタンに対応するトリガ信号が受信されたか否かを判断する。YESの場合、下記のステップ804を実行し、NOの場合、ステップ803を実行する。
ステップ804において、第1の撃ちボタンがクリックされたか否かを判断する。YESの場合、下記のステップ805を実行し、ステップ805の後にステップ807を実行し、NOの場合、下記のステップ806を実行する。
ステップ805において、第1の撃ちボタンをトリガする。
ステップ806において、第2の撃ちボタンをトリガする。
ステップ807において、仮想オブジェクトにより所持される仮想兵器がスコープ覗き状態になるように制御する。
ステップ808において、撃ち条件を満たすか否かを判断する。YESの場合、下記のステップ809を実行し、NOの場合、プロセスを終了する。
ステップ809において、選択された撃ちモードに従って仮想兵器で射撃操作を実行するように制御する。
ステップ810において、トリガ信号が消えたと検出された場合、仮想兵器による射撃操作を停止するように制御する。
以下は、本発明の実施例に係る方法を実行可能な本発明の実施例に係る装置を説明する。本発明の装置の実施例の詳細について、本発明の方法の実施例を参照してもよい。
図9は、本発明の1つの実施例に係る仮想オブジェクトの制御装置のブロック図である。該装置は、上記の方法の実施例を実現する機能を有し、該機能は、ハードウェアにより実現されてもよいし、ハードウェアが対応するソフトウェアを実行することで実現されてもよい。該装置は、移動端末であってもよいし、移動端末に設けられてもよい。該装置は、インターフェース表示モジュール901、スコープ覗き制御モジュール902、条件検出モジュール903及び射撃制御モジュール904を含んでもよい。
インターフェース表示モジュール901は、第1の撃ちボタンを含むユーザインターフェースを表示する。該第1の撃ちボタンは、スコープ覗き及び撃ちをトリガするための操作ウィジェットである。
スコープ覗き制御モジュール902は、該第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御する。ここで、該スコープ覗き状態は、該仮想銃に装備している仮想スコープにより仮想環境を覗く状態である。
条件検出モジュール903は、撃ち条件を満たすか否かを検出する。
射撃制御モジュール904は、該撃ち条件を満たす場合、該仮想銃が該スコープ覗き状態にあるとき、該仮想銃で射撃するように制御する。
例示的な実施例では、条件検出モジュール903は、仮想オブジェクトが第1の撃ち条件を満たすか否かを検出し、該仮想オブジェクトが該第1の撃ち条件を満たす場合、該仮想銃が第2の撃ち条件を満たすか否かを検出し、該仮想銃が該第2の撃ち条件を満たす場合、該撃ち条件を満たすと決定する。
例示的な実施例では、射撃制御モジュール904は、該トリガ信号の持続時間内に、該仮想銃で所定の時間間隔ごとに1回の射撃操作を実行するように制御する。
例示的な実施例では、図10に示すように、該装置900は、第1の位置取得モジュール905、距離取得モジュール906及びボタントリガモジュール907をさらに含む。
第1の位置取得モジュール905は、タッチ操作信号が受信された場合、該タッチ操作信号のタッチ位置を取得する。
距離取得モジュール906は、該タッチ操作信号のタッチ位置と該第1の撃ちボタンの中心位置との間の距離を取得する。
ボタントリガモジュール907は、該距離が第1の閾値よりも小さい場合、該第1の撃ちボタンに対応するトリガ信号が受信されたと決定する。
例示的な実施例では、図10に示すように、該装置900は、第2の位置取得モジュール908及び方向調整モジュール909をさらに含む。
第2の位置取得モジュール908は、該トリガ信号の持続時間内に、該トリガ信号に対応するタッチ位置を取得する。
方向調整モジュール909は、該トリガ信号に対応するタッチ位置に基づいて、該仮想銃の射撃方向を調整する。
例示的な実施例では、ユーザインターフェースは、第2の撃ちボタンをさらに含み、該第2の撃ちボタンは、腰だめ撃ちをトリガするための操作ウィジェットである。
それに応じて、射撃制御モジュール904は、該第2の撃ちボタンに対応するトリガ信号が受信された場合、該仮想オブジェクトにより所持される該仮想銃で腰だめ撃ちを行うように制御する。
例示的な実施例では、図10に示すように、該装置は、撃ち検出モジュール910をさらに含む。
撃ち検出モジュール910は、該仮想オブジェクトにより所持される該仮想銃がスコープ撃ちをサポートしているか否かを検出する。
スコープ覗き制御モジュール902は、該仮想銃が該スコープ撃ちをサポートしている場合、該第1の撃ちボタンに対応するトリガ信号が受信されたとき、該仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御するステップを実行する。
例示的な実施例では、撃ち検出モジュール910は、下記のステップを実行する。
該仮想銃が属する銃種別を取得する。
該銃種別に対応する設定項目を取得する。該設定項目は、撃ちモードを設定するために使用され、該撃ちモードは、該スコープ撃ち及び腰だめ撃ちを含む。
該銃種別に対応する設定項目が該スコープ撃ちである場合、該仮想銃が該スコープ撃ちをサポートしていると決定する。
以上のことから、本発明の実施例に係る技術では、ユーザインターフェースにスコープ覗き及び撃ちをトリガするための第1の撃ちボタンを設計し、該第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御すると共に、仮想銃がスコープ覗き状態にある場合、仮想銃で射撃するように制御することで、1つのキーでスコープ覗き及び撃ちを完成する機能を実現し、2つの操作を必要とせずに、1つの操作だけでスコープ覗き及び撃ちを完成することができ、操作効率を十分に向上させることができる。
なお、上記の実施例に係る装置の機能を実施する場合は、上記機能モジュールの分割のみを一例として説明するが、実際の応用では、必要に応じて、上記の機能が異なる機能モジュールにより実行されてもよく、即ち、装置の内部構造を異なる機能モジュールに分割して、上記の機能の全て又は一部を実行してもよい。また、上記の実施例に係る装置及び方法の実施例は、同一の思想に属し、具体的な実施プロセスは、方法の実施例を参照してもよく、ここでその説明を省略する。
図11は、本発明の1つの実施例に係る移動端末1100の構成のブロック図である。図11に示すように、移動端末1100は、携帯電話、タブレットコンピュータ、ゲーム機、電子書籍リーダ、マルチメディア再生装置、及びウェアラブルデバイスなどの携帯型電子装置であってもよい。移動端末は、上記の実施例に係る仮想オブジェクトの制御方法を実現するために使用される。移動端末は、図1に示す実装環境における移動端末10であってもよい。具体的には、以下の通りである。
一般に、移動端末1100は、プロセッサ1101及びメモリ1102を含む。
プロセッサ1101は、4コアプロセッサ、8コアプロセッサなどのような1つ又は複数の処理コアを含んでもよい。プロセッサ1101は、DSP(Digital Signal Processing:デジタル信号処理)、FPGA(Field Programmable Gate Array:フィールドプログラマブルゲートアレイ)、及びPLA(Programmable Logic Array:プログラマブルロジックアレイ)の少なくとも1つのハードウェア形式で実現されてもよい。プロセッサ1101は、メインプロセッサ及びコプロセッサを含んでもよい。メインプロセッサは、アウェイク状態でデータを処理するために使用されるプロセッサであり、CPU(Central Processing Unit:中央処理装置)とも称される。コプロセッサは、スタンバイ状態でデータを処理するために使用される低電力プロセッサである。幾つかの実施例では、プロセッサ1101は、GPU(Graphics Processing Unit:グラフィックスプロセッシングユニット)と統合されてもよく、GPUは、表示画面に表示される必要がある内容をレンダリング及び描画するために使用される。幾つかの実施例では、プロセッサ1101は、AI(Artificial Intelligence:人工知能)プロセッサをさらに含んでもよく、該AIプロセッサは、機械学習に関連する計算操作を処理するために使用される。
メモリ1102は、1つ又は複数のコンピュータ読み取り可能な記憶媒体を含んでもよく、該コンピュータ読み取り可能な記憶媒体は、非一時的であってもよい。メモリ1102は、高速ランダムアクセスメモリ及び不揮発性メモリ、例えば、1つ又は複数の磁気ディスク記憶装置及びフラッシュメモリ記憶装置をさらに含んでもよい。幾つかの実施例では、メモリ1102における非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、該少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットは、上記の仮想オブジェクトの制御方法を実現するように、1つ又は複数のプロセッサにより実行されるように構成されている。
幾つかの実施例では、移動端末1100は、好ましくは、周辺機器インターフェース1103及び少なくとも1つの周辺機器をさらに含んでもよい。プロセッサ1101、メモリ1102、及び周辺機器インターフェース1103は、バス又は信号線を介して接続されてもよい。各周辺機器は、バス、信号線又は回路基板を介して周辺機器インターフェース1103に接続されてもよい。具体的には、周辺機器は、無線周波数回路1104、タッチ表示スクリーン1105、カメラ1106、オーディオ回路1107、位置特定コンポーネント1108、及び電源1109のうちの少なくとも1つを含む。
なお、当業者が理解できるように、移動端末1100は、図11に示す構成に限定されず、図示されているものより多く、又は少ない構成要素を含んでもよいし、特定の構成要素を組み合わせてもよいし、異なる構成要素の配置を採用してもよい。
例示的な実施例では、コンピュータ読み取り可能な記憶媒体をさらに提供する。該記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶されている。該少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットは、上記の仮想オブジェクトの制御方法を実現するように、プロセッサにより実行される。
好ましくは、コンピュータ読み取り可能な記憶媒体は、読み取り専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、ソリッドステートドライブ(SSD:Solid State Drives)、又は光ディスクなどを含んでもよい。ここで、ランダムアクセスメモリは、抵抗式ランダムアクセスメモリ(ReRAM:Resistance Random Access Memory)及び動的ランダムアクセスメモリ(DRAM:Dynamic Random Access Memory)を含んでもよい。
例示的な実施例では、コンピュータプログラムプロダクトをさらに提供する。該コンピュータプログラムプロダクトは、移動端末において実行される際に、上記の仮想オブジェクトの制御方法を実現する。
なお、本明細書で言及される「複数」は、2つ以上を意味する。「及び/又は」は、関連付けられたオブジェクトの関連付け関係を説明し、3つのタイプの関係があり得ることを表す。例えば、「A及び/又はB」は、Aのみが存在すること、A及びBが同時に存在すること、及びBのみが存在することを意味してもよい。記号「/」は、通常、前後の関連オブジェクトが「又は」関係にあることを表す。また、本明細書で説明するステップの番号は、単にステップ間の実行の可能な順序を例示的に示している。他の幾つかの実施例では、上記のステップは、番号の順序で実行されるものでなくてもよく、例えば2つの異なる番号を有するステップは、同時に実行されてもよいし、図示される順序とは逆の順序で実行されてもよいが、本発明の実施例はこれらに限定されない。
以上は、単に本発明の例示的な実施例を説明し、本発明を制限するものではない。本発明の主旨及び原則の範囲内で行われる変更、均等的な置換、改良などは、本発明の保護範囲内に含まれる。

Claims (13)

  1. 移動端末が実行する仮想オブジェクトの制御方法であって、
    第1の撃ちボタンを含むユーザインターフェースを表示するステップであって、前記第1の撃ちボタンは、スコープ覗き及び撃ちをトリガするための操作ウィジェットである、ステップと、
    前記第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御するステップであって、前記スコープ覗き状態は、前記仮想銃に装備している仮想スコープにより仮想環境を覗く状態である、ステップと、
    撃ち条件を満たすか否かを検出するステップと、
    前記撃ち条件を満たす場合、前記仮想銃が前記スコープ覗き状態にあるとき、前記仮想銃で射撃するように制御するステップと、を含む、方法。
  2. 前記撃ち条件を満たすか否かを検出するステップは、
    前記仮想オブジェクトが第1の撃ち条件を満たすか否かを検出するステップと、
    前記仮想オブジェクトが前記第1の撃ち条件を満たす場合、前記仮想銃が第2の撃ち条件を満たすか否かを検出するステップと、
    前記仮想銃が前記第2の撃ち条件を満たす場合、前記撃ち条件を満たすと決定するステップと、を含む、請求項1に記載の方法。
  3. 前記仮想オブジェクトが第1の撃ち条件を満たすか否かを検出するステップは、
    前記仮想オブジェクトの状態情報を取得するステップと、
    前記仮想オブジェクトの状態情報に基づいて、前記仮想オブジェクトが前記第1の撃ち条件を満たすか否かを検出するステップと、を含み、
    前記第1の撃ち条件は、前記仮想オブジェクトが生きている状態であること、前記仮想オブジェクトが車両を運転していないこと、及び前記仮想オブジェクトが水中にいないことの少なくとも1つを含む、請求項2に記載の方法。
  4. 前記仮想オブジェクトが第2の撃ち条件を満たすか否かを検出するステップは、
    前記仮想銃の状態情報を取得するステップと、
    前記仮想銃の状態情報に基づいて、前記仮想銃が前記第2の撃ち条件を満たすか否かを検出するステップと、を含み、
    前記第2の撃ち条件は、前記仮想銃に残弾があること、及び前記仮想銃が弾のリロード中ではないことの少なくとも1つを含む、請求項2に記載の方法。
  5. 前記仮想銃で射撃するように制御するステップは、
    前記トリガ信号の持続時間内に、前記仮想銃で所定の時間間隔ごとに1回の射撃操作を実行するように制御するステップ、を含む、請求項1に記載の方法。
  6. タッチ操作信号が受信された場合、前記タッチ操作信号のタッチ位置を取得するステップと、
    前記タッチ操作信号のタッチ位置と前記第1の撃ちボタンの中心位置との間の距離を取得するステップと、
    前記距離が第1の閾値よりも小さい場合、前記第1の撃ちボタンに対応するトリガ信号が受信されたと決定するステップと、をさらに含む、請求項1に記載の方法。
  7. 前記仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御した後に、
    前記トリガ信号の持続時間内に、前記トリガ信号に対応するタッチ位置を取得するステップと、
    前記トリガ信号に対応するタッチ位置に基づいて、前記仮想銃の射撃方向を調整するステップと、をさらに含む、請求項1に記載の方法。
  8. 前記ユーザインターフェースは、第2の撃ちボタンをさらに含み、
    前記第2の撃ちボタンは、腰だめ撃ちをトリガするための操作ウィジェットであり、
    前記方法は、
    前記第2の撃ちボタンに対応するトリガ信号が受信された場合、前記仮想オブジェクトにより所持される前記仮想銃で腰だめ撃ちを行うように制御するステップ、をさらに含む、請求項1乃至7の何れかに記載の方法。
  9. 前記仮想オブジェクトにより所持される前記仮想銃がスコープ撃ちをサポートしているか否かを検出するステップと、
    前記仮想銃が前記スコープ撃ちをサポートしている場合、前記第1の撃ちボタンに対応するトリガ信号が受信されたとき、前記仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御するステップを実行するステップと、をさらに含む、請求項1乃至7の何れかに記載の方法。
  10. 前記仮想オブジェクトにより所持される前記仮想銃がスコープ撃ちをサポートしているか否かを検出するステップは、
    前記仮想銃が属する銃種別を取得するステップと、
    前記銃種別に対応する設定項目を取得するステップであって、前記設定項目は、撃ちモードを設定するために使用され、前記撃ちモードは、前記スコープ撃ち及び腰だめ撃ちを含む、ステップと、
    前記銃種別に対応する設定項目が前記スコープ撃ちである場合、前記仮想銃が前記スコープ撃ちをサポートしていると決定するステップと、を含む、請求項9に記載の方法。
  11. 仮想オブジェクトの制御装置であって、
    第1の撃ちボタンを含むユーザインターフェースを表示するインターフェース表示モジュールであって、前記第1の撃ちボタンは、スコープ覗き及び撃ちをトリガするための操作ウィジェットである、インターフェース表示モジュールと、
    前記第1の撃ちボタンに対応するトリガ信号が受信された場合、仮想オブジェクトにより所持される仮想銃がスコープ覗き状態になるように制御するスコープ覗き制御モジュールであって、前記スコープ覗き状態は、前記仮想銃に装備している仮想スコープにより仮想環境を覗く状態である、スコープ覗き制御モジュールと、
    撃ち条件を満たすか否かを検出する条件検出モジュールと、
    前記撃ち条件を満たす場合、前記仮想銃が前記スコープ覗き状態にあるとき、前記仮想銃で射撃するように制御する射撃制御モジュールと、を含む、装置。
  12. プロセッサと、メモリと、を含む移動端末であって、
    前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、
    前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は前記命令セットは、請求項1乃至10の何れかに記載の仮想オブジェクトの制御方法を実現するように、前記プロセッサによりロードされて実行される、移動端末。
  13. 請求項1乃至10の何れかに記載の仮想オブジェクトの制御方法をコンピュータに実行させるためのプログラム。
JP2021550057A 2019-08-01 2020-07-08 仮想オブジェクトの制御方法、装置、端末及びプログラム Pending JP2022522699A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910707805.2 2019-08-01
CN201910707805.2A CN110339562B (zh) 2019-08-01 2019-08-01 虚拟对象的控制方法、装置、终端及存储介质
PCT/CN2020/100906 WO2021017784A1 (zh) 2019-08-01 2020-07-08 虚拟对象的控制方法、装置、终端及存储介质

Publications (1)

Publication Number Publication Date
JP2022522699A true JP2022522699A (ja) 2022-04-20

Family

ID=68183620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550057A Pending JP2022522699A (ja) 2019-08-01 2020-07-08 仮想オブジェクトの制御方法、装置、端末及びプログラム

Country Status (6)

Country Link
US (1) US20210402287A1 (ja)
JP (1) JP2022522699A (ja)
KR (1) KR102635988B1 (ja)
CN (1) CN110339562B (ja)
SG (1) SG11202110875SA (ja)
WO (1) WO2021017784A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598777B (zh) * 2018-12-07 2022-12-23 腾讯科技(深圳)有限公司 图像渲染方法、装置、设备及存储介质
CN110339562B (zh) * 2019-08-01 2023-09-15 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN110841277B (zh) * 2019-11-07 2021-08-06 腾讯科技(深圳)有限公司 基于触控屏的虚拟操作对象的控制方法和装置、存储介质
CN110772793A (zh) * 2019-11-07 2020-02-11 腾讯科技(深圳)有限公司 虚拟资源的配置方法、装置、电子设备及存储介质
CN110882538B (zh) * 2019-11-28 2021-09-07 腾讯科技(深圳)有限公司 虚拟活体角色的显示方法、装置、存储介质和计算机设备
CN111013136B (zh) * 2019-12-12 2021-09-03 腾讯科技(深圳)有限公司 虚拟场景中的移动控制方法、装置、设备及存储介质
CN111135567B (zh) * 2019-12-17 2022-01-04 腾讯科技(深圳)有限公司 虚拟道具的操作方法和装置、存储介质及电子装置
CN111228798A (zh) * 2020-01-06 2020-06-05 腾讯科技(深圳)有限公司 虚拟道具控制方法、装置、电子设备及存储介质
CN111265856A (zh) * 2020-01-17 2020-06-12 腾讯科技(深圳)有限公司 虚拟操作对象的控制方法、装置、存储介质及电子装置
CN111318015B (zh) * 2020-02-26 2021-10-12 腾讯科技(深圳)有限公司 虚拟物品的控制方法、装置、终端和存储介质
CN111359214B (zh) * 2020-03-05 2021-05-11 腾讯科技(深圳)有限公司 虚拟道具控制方法和装置、存储介质及电子装置
CN111613108A (zh) * 2020-04-10 2020-09-01 北京晶品特装科技有限责任公司 一种手雷模拟器、装置、方法及存储介质
CN111643895B (zh) * 2020-06-22 2023-08-25 腾讯科技(深圳)有限公司 操作响应方法、装置、终端及存储介质
CN112138391A (zh) * 2020-09-24 2020-12-29 网易(杭州)网络有限公司 游戏中的虚拟武器控制方法、装置、电子设备及存储介质
CN112791398A (zh) * 2021-02-03 2021-05-14 网易(杭州)网络有限公司 游戏中虚拟倍镜的控制方法、装置、电子设备及存储介质
CN113499590A (zh) * 2021-08-04 2021-10-15 网易(杭州)网络有限公司 游戏中射击的控制方法、装置、电子设备及可读介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5727655B1 (ja) * 2014-09-17 2015-06-03 株式会社Pgユニバース 情報処理装置、情報処理方法及びプログラム
JP2019058659A (ja) * 2017-09-26 2019-04-18 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 仮想射撃本体の制御方法、装置、プログラム、記憶媒体、電子機器
CN110038297A (zh) * 2019-04-12 2019-07-23 网易(杭州)网络有限公司 移动终端的游戏操作方法及装置、存储介质及电子设备

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040266528A1 (en) * 2003-06-27 2004-12-30 Xiaoling Wang Apparatus and a method for more realistic video games on computers or similar devices using visible or invisible light and a light sensing device
US11255638B2 (en) * 2010-08-19 2022-02-22 Evrio, Inc. Display indicating aiming point relative to target size indicator
TW201343227A (zh) * 2012-04-25 2013-11-01 Fu Li Ye Internat Corp 具有觸控面板裝置媒體的互動遊戲控制方法
US9248370B2 (en) * 2012-05-25 2016-02-02 Phillip B. Summons Targeting system and method for video games
KR101298030B1 (ko) * 2013-03-12 2013-08-26 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
US11465040B2 (en) * 2013-12-11 2022-10-11 Activision Publishing, Inc. System and method for playing video games on touchscreen-based devices
US9901824B2 (en) * 2014-03-12 2018-02-27 Wargaming.Net Limited User control of objects and status conditions
WO2015199780A2 (en) * 2014-04-01 2015-12-30 Baker Joe D Mobile ballistics processing and targeting display system
US20160381297A1 (en) * 2015-06-26 2016-12-29 Jsc Yukon Advanced Optics Worldwide Providing enhanced situational-awareness using magnified picture-in-picture within a wide field-of-view optical image
CN105760076B (zh) * 2016-02-03 2018-09-04 网易(杭州)网络有限公司 游戏控制方法及装置
US10183222B2 (en) * 2016-04-01 2019-01-22 Glu Mobile Inc. Systems and methods for triggering action character cover in a video game
US9919213B2 (en) * 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
CN107661630A (zh) * 2017-08-28 2018-02-06 网易(杭州)网络有限公司 一种射击游戏的控制方法及装置、存储介质、处理器、终端
US10807001B2 (en) * 2017-09-12 2020-10-20 Netease (Hangzhou) Network Co., Ltd. Information processing method, apparatus and computer readable storage medium
CN107773983B (zh) * 2017-10-18 2021-12-28 网易(杭州)网络有限公司 一种游戏中的射击控制方法及装置
CN107773987B (zh) * 2017-10-24 2020-05-22 网易(杭州)网络有限公司 虚拟射击主体控制方法、装置、电子设备及存储介质
CN107913515B (zh) * 2017-10-25 2019-01-08 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN108339272A (zh) * 2018-02-12 2018-07-31 网易(杭州)网络有限公司 虚拟射击主体控制方法及装置、电子设备、存储介质
CN108671540A (zh) * 2018-05-09 2018-10-19 腾讯科技(深圳)有限公司 虚拟环境中的配件切换方法、设备及存储介质
CN109126128A (zh) * 2018-08-21 2019-01-04 苏州蜗牛数字科技股份有限公司 一种vr游戏中武器的管理系统及方法
CN109589601B (zh) * 2018-12-10 2022-04-08 网易(杭州)网络有限公司 虚拟瞄准镜控制方法及装置、电子设备和存储介质
US10946281B2 (en) * 2019-03-29 2021-03-16 Nvidia Corporation Using playstyle patterns to generate virtual representations of game players
CN110141869A (zh) * 2019-04-11 2019-08-20 腾讯科技(深圳)有限公司 操作控制方法、装置、电子设备及存储介质
CN110339562B (zh) * 2019-08-01 2023-09-15 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
US11534681B2 (en) * 2020-10-29 2022-12-27 Google Llc Virtual console gaming controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5727655B1 (ja) * 2014-09-17 2015-06-03 株式会社Pgユニバース 情報処理装置、情報処理方法及びプログラム
JP2019058659A (ja) * 2017-09-26 2019-04-18 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 仮想射撃本体の制御方法、装置、プログラム、記憶媒体、電子機器
CN110038297A (zh) * 2019-04-12 2019-07-23 网易(杭州)网络有限公司 移动终端的游戏操作方法及装置、存储介质及电子设备

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"[CoD:BO2]サイトやスコープのズーム倍率を実際に比較してみた(画像あり)", シバ山ブログ[ONLINE], JPN7023000716, 16 January 2013 (2013-01-16), ISSN: 0004996381 *
"[モダンコンバット5攻略]設定を見直して、ベストな状態で戦いに臨もう! [PR]", APPBANK[ONLINE], JPN6022039083, 28 January 2018 (2018-01-28), ISSN: 0004996382 *
"[モバイル版]フォートナイト自動発射をオフにする方法", SMATU.NET[ONLINE], JPN6022039080, 7 April 2019 (2019-04-07), ISSN: 0004996383 *
"[荒野行動]『瞬殺モード』を解説!狙撃の重要テクニックを活用しよう!", GAMEWITH[ONLINE], JPN6022024652, 7 April 2019 (2019-04-07), ISSN: 0004996384 *
"COD Mobile - Tutorial Playthrough - AUTO FIRE / AUTO ADS - 1st Gameplay", YOUTUBE[ONLINE][VIDEO], JPN6022039081, 15 June 2019 (2019-06-15), ISSN: 0004996380 *

Also Published As

Publication number Publication date
CN110339562A (zh) 2019-10-18
KR102635988B1 (ko) 2024-02-08
WO2021017784A1 (zh) 2021-02-04
KR20210138082A (ko) 2021-11-18
CN110339562B (zh) 2023-09-15
SG11202110875SA (en) 2021-10-28
US20210402287A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
JP2022522699A (ja) 仮想オブジェクトの制御方法、装置、端末及びプログラム
KR102625233B1 (ko) 가상 객체를 제어하기 위한 방법, 및 관련 장치
JP7471369B2 (ja) 仮想環境におけるアクセサリー選択方法及びその装置、機器並びにコンピュータプログラム
US11577171B2 (en) Method and apparatus for prompting that virtual object is attacked, terminal, and storage medium
JP7350088B2 (ja) 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム
JP2022517194A (ja) 仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム
WO2023020125A1 (zh) 虚拟环境画面的显示方法、装置、终端、介质及程序产品
JP7137719B2 (ja) 仮想オブジェクトの選択方法、装置、端末及びプログラム
WO2021031765A1 (zh) 虚拟环境中瞄准镜的应用方法和相关装置
CN110597449A (zh) 基于虚拟环境的道具使用方法、装置、终端及存储介质
CN111318015B (zh) 虚拟物品的控制方法、装置、终端和存储介质
CN111298438B (zh) 虚拟对象的控制方法、装置、设备和存储介质
CN113398574A (zh) 辅助瞄准调整方法、装置、存储介质及计算机设备
CN113617030B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN115970282A (zh) 虚拟镜头的控制方法、装置、存储介质及计算机设备
CN112426725A (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN111643895A (zh) 操作响应方法、装置、终端及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231215

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240222