JP2021515331A - インタフェース表示方法、装置、電子機器及びコンピュータプログラム - Google Patents

インタフェース表示方法、装置、電子機器及びコンピュータプログラム Download PDF

Info

Publication number
JP2021515331A
JP2021515331A JP2020545725A JP2020545725A JP2021515331A JP 2021515331 A JP2021515331 A JP 2021515331A JP 2020545725 A JP2020545725 A JP 2020545725A JP 2020545725 A JP2020545725 A JP 2020545725A JP 2021515331 A JP2021515331 A JP 2021515331A
Authority
JP
Japan
Prior art keywords
virtual
rotation
viewing angle
tool
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020545725A
Other languages
English (en)
Other versions
JP7118162B2 (ja
Inventor
又睿 范
又睿 范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2021515331A publication Critical patent/JP2021515331A/ja
Application granted granted Critical
Publication of JP7118162B2 publication Critical patent/JP7118162B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

インタフェース表示方法であって、仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示するステップと、視角回転操作を検知した場合、視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度及び第1回転速度より小さい仮想道具の第2回転速度を取得するステップと、ターゲット回転角度、視角の第1回転速度及び仮想道具の第2回転速度に基づいて、視角回転操作に伴って仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するステップであって、ターゲット動画が、仮想道具の回転が視角の回転より遅延する効果を表現するものである、ステップとを含む。インタフェース表示装置、電子機器及びコンピュータ可読記憶媒体を更に提供する。該方法は、現実シーンを正確にシミュレートすることができ、表示効果が高い。

Description

本出願は、2018年5月18日に中国特許庁に提出された出願番号が第201810480564.8号であり、発明の名称が「インタフェース表示方法、装置、電子機器及びコンピュータ可読記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は参照によって本出願に援用される。
本出願は、コンピュータ技術分野に関し、特にインタフェース表示方法、装置、電子機器及びコンピュータ可読記憶媒体に関する。
コンピュータ技術の進歩に伴い、人々は、シミュレーション技術により、現実生活中のシーンをシミュレートし、現実シーンをシミュレートするための仮想シーンを端末のインタフェースに表示することができる。ここで、シミュレーション技術とは、相似則を利用して、研究対象のモデルを確立し、モデルにより、原型の規律性を間接的に研究するための実験方法である。例えば、ゲームアプリケーションにおいて、人々は、仮想シーンにおいて仮想オブジェクトを制御することで、該仮想オブジェクトを、走り、ジャンプ、射撃、落下傘降下などの動作を行うようにして、現実中の人々の動作をシミュレートすることができる。人々は、視角を調整することで、インタフェースに、仮想シーンにおける異なる領域を表示させることもできる。
現在、従来のインタフェース表示方法において、通常、視角回転操作を検知した場合、仮想シーンを視角回転操作に伴って変化させるように制御し、仮想シーンにおける仮想オブジェクトにより制御されている仮想道具の回転を、視角の回転と同期させているため、インタフェースにおける該仮想道具の位置に変化を生じておらず、現実シーンの変化を正確にシミュレートすることができないため、表示効果が芳しくない。
本出願の実施例は、インタフェース表示方法、装置、電子機器及びコンピュータ可読記憶媒体を提供する。
インタフェース表示方法であって、電子機器により実行され、前記方法は、
仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示するステップと、
視角回転操作を検知した場合、前記視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度、及び前記仮想道具の第2回転速度を取得するステップであって、前記第2回転速度が前記第1回転速度より小さい、ステップと、
前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するステップであって、前記ターゲット動画が、前記仮想道具の回転が前記視角の回転より遅延する効果を表現するものである、ステップとを含む。
インタフェース表示装置であって、前記装置は、
仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示するように構成される表示モジュールと、
視角回転操作を検知した場合、前記視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度、及び前記仮想道具の第2回転速度を取得するように構成される取得モジュールであって、前記第2回転速度が前記第1回転速度より小さい、取得モジュールとを備え、
前記表示モジュールは更に、前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するように構成され、前記ターゲット動画が、前記仮想道具の回転が前記視角の回転より遅延する効果を表現するものである。
電子機器であって、プロセッサとメモリとを備え、前記メモリには、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が前記プロセッサにより実行される時に、前記プロセッサに、
仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示するステップと、
視角回転操作を検知した場合、前記視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度、及び前記仮想道具の第2回転速度を取得するステップであって、前記第2回転速度が前記第1回転速度より小さい、ステップと、
前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するステップであって、前記ターゲット動画が、前記仮想道具の回転が前記視角の回転より遅延する効果を表現するものである、ステップとを実行させる。
不揮発性コンピュータ可読記憶媒体であって、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が1つ又は複数のプロセッサにより実行される時に、前記1つ又は複数のプロセッサに、
仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示するステップと、
視角回転操作を検知した場合、前記視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度、及び前記仮想道具の第2回転速度を取得するステップであって、前記第2回転速度が前記第1回転速度より小さい、ステップと、
前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するステップであって、前記ターゲット動画が、前記仮想道具の回転が前記視角の回転より遅延する効果を表現するものである、ステップとを実行させる。
インタフェース表示方法であって、前記方法は、
仮想シーンにおける仮想オブジェクトの状態情報を取得することであって、前記状態情報が、前記仮想オブジェクトの移動状態、前記仮想オブジェクトの周辺環境、及び前記仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含む、ことと、
現在のレンズモード及び前記状態情報に基づいて、レンズのブレ情報を取得することと、
前記ブレ情報に基づいて、前記仮想シーンが前記レンズのブレに伴ってブレることをインタフェースに表示することとを含む。
インタフェース表示装置であって、前記装置は、取得モジュールと表示モジュールとを備え、
前記取得モジュールが、仮想シーンにおける仮想オブジェクトの状態情報を取得するように構成され、前記状態情報が、前記仮想オブジェクトの移動状態、前記仮想オブジェクトの周辺環境、及び前記仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含み、
前記取得モジュールが、更に、現在のレンズモード及び前記状態情報に基づいて、レンズのブレ情報を取得するように構成され、
前記表示モジュールが、前記ブレ情報に基づいて、前記仮想シーンが前記レンズのブレに伴ってブレることをインタフェースに表示するように構成される。
電子機器であって、プロセッサとメモリとを備え、前記メモリには、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が前記プロセッサにより実行される時に、前記プロセッサに、
仮想シーンにおける仮想オブジェクトの状態情報を取得するステップであって、前記状態情報が、前記仮想オブジェクトの移動状態、前記仮想オブジェクトの周辺環境、及び前記仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含む、ステップと、
現在のレンズモード及び前記状態情報に基づいて、レンズのブレ情報を取得するステップと、
前記ブレ情報に基づいて、前記仮想シーンが前記レンズのブレに伴ってブレることをインタフェースに表示するステップとを実行させる。
不揮発性コンピュータ可読記憶媒体であって、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が1つ又は複数のプロセッサにより実行される時に、前記1つ又は複数のプロセッサに、
仮想シーンにおける仮想オブジェクトの状態情報を取得するステップであって、前記状態情報が、前記仮想オブジェクトの移動状態、前記仮想オブジェクトの周辺環境、及び前記仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含む、ステップと、
現在のレンズモード及び前記状態情報に基づいて、レンズのブレ情報を取得するステップと、
前記ブレ情報に基づいて、前記仮想シーンが前記レンズのブレに伴ってブレることをインタフェースに表示するステップとを実行させる。
本出願の1つ又は複数の実施例に関する詳細は、下記図面及び記載に示される。本出願の他の特徴、目的、及び利点は、明細書、図面及び特許請求の範囲によって明らかになる。
本出願の実施例による端末インタフェースを示す概略図である。 本出願の実施例による端末の実際のインタフェースを示す図である。 本出願の実施例による端末インタフェースを示す概略図である。 本出願の実施例による端末の実際のインタフェースを示す図である。 本出願の実施例によるインタフェース表示方法を示すフローチャートである。 本出願の実施例によるインタフェース表示方法を示すフローチャートである。 本出願の実施例によるインタフェース表示方法を示すフローチャートである。 本出願の実施例による、射撃パラメータの調整操作及び状態情報に基づいて仮想道具の発射物のターゲット移動軌跡を取得するステップを示すフローチャートである。 本出願の実施例による、照準点に対応する仮想シーンにおける照準位置と仮想オブジェクトとの距離を示す概略図である。 本出願の実施例による仮想道具の射撃角度を示す概略図である。 本出願の実施例による端末インタフェースを示す概略図である。 本出願の実施例による端末の実際のインタフェースを示す図である。 本出願の実施例によるインタフェース表示方法を示すフローチャートである。 本出願の実施例によるインタフェース表示装置の構造を示す概略図である。 本出願の実施例によるインタフェース表示装置の構造を示す概略図である。 本出願の実施例による電子機器の構造を示す概略図である。
本出願の実施例における技術的解決手段をより明確にするために、以下、実施例の説明に必要な図面を簡単に説明する。勿論、以下の図面は本出願の一部の実施例に過ぎず、当業者は創造的な労力を要することなく、これらの図面に基づいて他の図面を得ることもできる。
本出願の目的、技術的解決手段及びメリットをより明確にするために、以下、図面及び実施例を参照して、本出願をさらに詳しく説明する。
本出願の実施例は、主に、電子ゲーム又はシミュレーショントレーニングシーンに関する。電子ゲームシーンを例として、ユーザは、予め該端末において操作を行うことができる。該端末は、ユーザの操作を検知してから、電子ゲームのゲーム設定ファイルをダウンロードすることができ、該ゲーム設定ファイルには、該電子ゲームのアプリケーションプログラム、インタフェース表示データ又は仮想シーンデータなどが含まれることが可能であり、それによって、該ユーザが該端末において電子ゲームにログインする時に、該ゲーム設定ファイルを呼び出して、電子ゲームインタフェースをレンダリングして表示することができる。ユーザが端末においてタッチ操作を行い、該端末がタッチ操作を検知してから、該タッチ操作に対応するゲームデータを決定し、該ゲームデータをレンダリングして表示することができる。該ゲームデータには、仮想シーンデータ、該仮想シーンにおける仮想オブジェクトの挙動データ等が含まれることが可能である。
本出願に係る仮想シーンは、三次元仮想空間をシミュレートするためのものであってもよいし、二次元仮想空間をシミュレートするためのものであってもよい。該三次元仮想空間又は二次元仮想空間は、開放空間であってもよい。該仮想シーンは、現実中の実環境をシミュレートするためのものであってもよい。例えば、該仮想シーンには、空、陸地、海洋などが含まれてもよい。該陸地は、砂漠、都市などの環境要素を含んでもよい。ユーザは、該仮想シーンにおいて移動するように仮想オブジェクトを制御することができる。該仮想オブジェクトは、該仮想シーンにおける、ユーザを表すための仮想アバターであってもよい。該仮想アバターは、人間、動物などのようないずれか1つの形態であってもよく、本出願は、これに対して限定しない。該仮想シーンには、複数の仮想オブジェクトが含まれてもよい。仮想シーンにおいて、各仮想オブジェクトは、それぞれの形状及び体積を有し、仮想シーンにおける一部の空間を占める。
射撃ゲームを例として、ユーザは、該仮想シーンの空から自由落下、滑空するか又は落下傘を開いて落下するように仮想オブジェクトを制御することができ、陸地での歩行、ジャンプ、腹這い、腰を曲げて歩くように仮想オブジェクトを制御することもでき、海洋において水泳、浮遊又は潜水するように仮想オブジェクトを制御することもできる。勿論、ユーザは、該仮想シーンの中において乗り物を乗って移動するように仮想オブジェクトを制御することもできる。ここで、上記シーンを例として説明するが、本出願の実施例は、これを具体的に限定しない。ユーザは、兵器を使用して他の仮想オブジェクトと戦うように仮想オブジェクトを制御することもできる。該兵器は、冷兵器であってもよいし、火器であってもよく、本出願は、これを具体的に限定しない。
上記電子ゲームシーン又はシミュレーションシーンにおいて、通常、カメラモデルが設けられている。該カメラモデルは、三次元仮想環境において仮想オブジェクトの周辺に位置する三次元モデルであってもよいし、二次元仮想シーンにおける二次元モデルであってもよく、本出願の実施例は、これを限定するものではない。端末インタフェースに表示される仮想シーンが、該カメラのレンズに撮像される仮想シーンであり、該カメラのレンズが、仮想シーンに対する1つの観察点であると理解されてもよい。該レンズの方向は、視角の方向である。
ユーザは、端末において、視角回転操作を行うことができる。端末は、該視角回転操作を検知した場合、視角回転操作に基づいて、視角を移動するように制御することができる。具体的には、端末は、レンズを回転するように制御することができる。それに対応して、レンズが回転すると、該レンズが撮影できる仮想シーンも変化する。つまり、仮想シーンの表示領域も異なるようになる。ここで、該視角回転操作は、マウスによる移動操作であってもよいし、ボタン押し操作であってもよいし、端末スクリーンに対するスライド操作であってもよいし、他の操作であってもよい。例えば、ジャイロスコープ、3D Touchなどの操作方式であってもよく、本出願の実施例はこれを限定するものではない。
具体的には、視角の回転方向は、視角回転操作により指示される方向と一致してもよい。視角の回転速度と視角回転操作の操作速度とは正の相関であってもよい。操作速度が大きいほど、回転速度は大きくなる。視角の回転角度について、操作方式が異なると、決定方式も異なる。例えば、視角回転操作がマウスによる移動操作、スライド操作又はジャイロスコープ操作方式である場合、視角の回転角度は、視角回転操作の操作距離又は操作幅と正相関であり得る。つまり、操作距離又は操作幅が大きいほど、回転角度が大きくなる。視角回転操作がボタン押し操作又は3D Touch操作方式である場合、視角の回転角度と視角回転操作の操作時間又は操作強度とは正の相関であってもよい。つまり、操作時間又は操作強度が大きいほど、回転角度が大きくなる。勿論、該視角の回転角度は、操作強度と負の相関を示してもよい。つまり、操作強度が大きいほど、回転角度が小さくなる。本出願の実施例はこれを限定するものではない。
なお、視角回転操作に基づいて視角回転パラメータを決定するための決定方式が端末において事前設定されてもよい。該視角回転パラメータとは、視角の回転方向、回転角度及び回転速度などを指す。端末は、視角回転操作を検知した場合、具体的な操作方式に対応する決定方式に基づいて、視角の回転方向、回転角度及び回転速度などを決定することができる。なお、上記視角回転操作方式は、当業者により事前設定されてもよいし、ユーザにより自己の使用習慣に基づいて調整されてもよく、本出願の実施例は、これを具体的に限定しないことに留意されたい。
通常、射撃ゲームにおいて仮想シーンを表示する場合、2つの表示方式、即ち2つのレンズモードが含まれてもよい。該2つの表示方式は、一人称視角及び三人称視角である。ここで、一人称視角は、仮想オブジェクトの視角により仮想シーンを観察することをシミュレートするためのものである。一人称視角レンズモードにおいて、カメラは、通常、仮想オブジェクトの眼、又は仮想オブジェクトの、頭部や胸部などのような眼の近傍領域に位置してもよい。三人称視角は、仮想オブジェクトの周辺のいずれか箇所で仮想シーンを観察することをシミュレートするためのものである。三人称視角レンズモードにおいて、カメラは、通常、仮想オブジェクトの背後に位置してもよく、それにより、仮想シーンにおいて該仮想オブジェクトを表示することができ、それによって、ユーザは、仮想シーンにおいて、該仮想オブジェクトの動作及び所在環境などを確認することができる。
例えば、図1は、一人称視角によるものである。一人称視角において、カメラは、仮想オブジェクトの、胸部のような眼の近傍領域に位置するため、該カメラのレンズにより観察された仮想シーンをインタフェースに表示する時に、仮想オブジェクトの腕、手及び該仮想オブジェクトが使用している道具を表示することができる。端末の実際のインタフェースにおいて、一人称視角は図2に示すとおりである。図3は、三人称視角によるものである。カメラが仮想オブジェクトの背後に位置するため、インタフェースに表示された仮想シーンには、仮想オブジェクトが含まれることが可能である。このように、インタフェースにおいて、仮想オブジェクト、該仮想オブジェクトが使用している道具等を観察することができる。端末の実際のインタフェースにおいて、三人称視角により表示され得る仮想オブジェクトは、図4に示すとおりである。
勿論、通常、該カメラのレンズ方向、即ち視角方向は、該仮想オブジェクトの視角方向と平行している。1つの可能な実現形態において、ユーザが仮想オブジェクトの姿勢を変更させず、視角方向のみを調整して、現在表示されている仮想シーンを調整したい時に、端末は、ユーザのタッチ操作に基づいて、カメラを、該仮想オブジェクトの三次元座標系における垂直方向を中心軸として該仮想オブジェクトの周りに回転させるように制御することができる。勿論、別の可能な実現形態において、端末は、該カメラの位置を変更させず、該カメラのレンズ方向のみを変更してもよく、本出願の実施例は、これを限定するものではない。
図5は、本出願の実施例によるインタフェース表示方法を示すフローチャートである。図5に示すように、該方法は、下記ステップを含んでもよい。
S501、仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示する。
電子ゲームシーン又はシミュレーションシーンにおいて、端末は、仮想シーンをインタフェースに表示し、仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示することができる。端末は、該仮想オブジェクト又は該仮想オブジェクトの一部の領域をインタフェースに表示することもできる。
勿論、端末は、仮想オブジェクトの健康スコア又は仮想オブジェクトの名称などのような該仮想オブジェクトの他の情報をインタフェースに表示してもよく、又は、該仮想オブジェクトの仮想道具の情報をインタフェースに表示してもよく、例えば、該仮想オブジェクトにより制御されている仮想道具、及び該仮想オブジェクトに属している、現在制御されていない仮想道具、該仮想オブジェクトにより制御されている仮想道具の情報又は現在制御されていない仮想道具の情報などをインタフェースに表示することができる。本出願の実施例は、端末インタフェースにおける表示コンテンツを具体的限定しない。
具体的には、該端末において、異なる道具モデルが事前設定されてもよい。端末は、該仮想オブジェクトにより制御されている仮想道具を表示する時に、該仮想道具に対応する道具モデルを表示することができる。例えば、電子ゲームシーンを例として、仮想オブジェクトにより制御されている仮想道具が銃器道具であるとすれば、該仮想オブジェクトが現在該銃器道具を制御していることを表現するために、端末は、ゲームインタフェースに、該銃器に対応する銃器モデルを表示し、手又は腕のような該仮想オブジェクトの一部の領域も表示する。
S502、視角回転操作を検知した場合、視角回転操作に基づいて、ターゲット回転角度及び視角の第1回転速度を取得する。
本出願の実施例において、ユーザは、端末において、視角回転操作を行うことで視角を調整することができる。端末は、視角回転操作を検知した場合、該視角回転操作に基づいて、視角のターゲット回転角度及び第1回転速度を決定することができる。
具体的には、端末は、視角回転操作の操作距離、操作幅、操作時間又は操作程度のうちの少なくとも1つに基づいて、ターゲット回転角度を決定することができ、端末は、具体的にはどれを利用するかは、当業者により異なる操作方式に基づいて事前設定されてもよいし、又はユーザにより自己の使用習慣に基づいて設定されてもよく、本出願の実施例は、これを限定するものではない。端末は、視角回転操作の操作速度に基づいて、視角の第1回転速度を決定することもできる。該第1回転速度と操作速度とが正の相関である。勿論、端末は、該視角回転操作の操作により示される方向に基づいて、視角の回転方向を決定することもできる。
例えば、該視角回転操作がマウスによる移動操作であることを例として、端末は、マウスによる移動操作を検知した時に、マウスの移動方向に基づいて、視角の回転方向を決定し、マウスの移動距離に基づいて、視角のターゲット回転角度を決定し、マウスの移動速度に基づいて、視角の第1回転速度を決定することができる。
該端末において異なる感度が事前設定されてもよい。端末は、現在のレンズモードにおける感度に基づいて、視角のターゲット回転角度及び第1回転速度を決定することができる。勿論、仮想シーンが照準器に基づいた拡大縮小表示モードにある場合、端末は、現在表示モードにおける感度を取得し、該感度に基づいて、上記ターゲット回転角度及び第1回転速度を決定することができ、本出願の実施例は、これを限定するものではない。
S503、第1回転速度と所定係数との積を仮想道具の第2回転速度とし、第2回転速度が、第1回転速度より小さい。
現実のシーンにおいて、人間が異なる環境において移動する時に、異なる抵抗力を受ける。例えば、陸地で空気抵抗力を受け、水中に水中抵抗力を受ける。人間が兵器を持って移動する時に、抵抗力による影響で、兵器が回転する時に人間の体の回転に追いつくことができないことがある。つまり、兵器の回転は、人間の振り向きより遅延する。現実シーンを正確にシミュレートするために、端末は、ステップS502で、視角的ターゲット回転角度及び第1回転速度を決定してから、該第1回転速度より小さい速度を仮想道具の第2回転速度として取得することもできる。ここで、該第2回転速度が第1回転速度より小さいため、上記遅延効果をシミュレートすることができる。勿論、該仮想道具の回転角度と視角の回転角度が同じで、いずれもターゲット回転角度である。
具体的には、端末は、第1回転速度と所定係数との積を第2回転速度として取得することができる。ここで、該所定係数は1未満である。例えば、該所定係数が0.8であり、端末により取得された第1回転速度が30度/秒である倍、端末は、30度/秒と0.8との積である24度/秒を第2回転速度とすることができる。上記において、1つの例のみにより、該端末による第2回転速度の取得を説明しているが、ここで、該所定係数は、当業者により事前設定されてもよく、本出願の実施例は、該所定係数の具体的な値を限定するものではない。
上記ステップS502及びステップS503は、視角回転操作を検知した場合、端末が該視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度及び仮想道具の第2回転速度を取得する過程である。ここで、第2回転速度は第1回転速度より小さい。従って、仮想道具の回転が視角の回転より遅いため、仮想道具の回転が抵抗力による影響を受けていることを表し、それによって現実シーンを正確にシミュレートすることができる。上記において、第1回転速度により第2回転速度を取得するという形態を例として説明した。1つの可能な実現形態において、上記過程において、該端末で視角回転と仮想道具とに対してそれぞれ異なる回転速度の決定方式を設定することもできる。該決定方式は、如何に、視角回転操作の操作速度によって回転速度を得る方式である。しかも、同様な視角回転に対して、該2つの決定方式により決定される視角の回転速度は、仮想道具の回転速度より大きい。別の可能な実現形態において、端末は、仮想道具の第2回転速度を取得する時に、スプリングアルゴリズムと同様なアルゴリズムを利用して、第2回転速度を算出することもできる。従って、該仮想道具の回転を視角の回転より遅らせる。本出願の実施例は、具体的にどのような実現形態を用いるかについて限定しない。
S504、ターゲット回転角度、視角の第1回転速度及び仮想道具の第2回転速度に基づいて、仮想シーンにおける仮想道具のターゲット移動軌跡を決定する。
視角、即ちレンズが回転するため、該視角又は該レンズにより観察された仮想シーンも変わる。また、該仮想道具も回転するため、端末は、上記端末により決定された視角及び仮想シーンの回転の関連パラメータに基づいて、仮想シーンにおける仮想道具のターゲット移動軌跡を決定することができ、それによって、該ターゲット移動軌跡に基づいて、如何にインタフェースにおいて仮想道具の移動状況を表示するかを決定することができる。
具体的には、端末は、視角が第1回転速度に従ってターゲット回転角度で回転し、仮想道具が第2回転速度に従ってターゲット回転角度で回転している時の、仮想シーンにおける仮想道具の位置変化状況を取得する。勿論、端末は、所定の時間間隔おきに、仮想シーンにおける該仮想道具の位置を取得し、取得された複数の位置に基づいて、仮想シーンにおける該仮想道具の位置変化状況、即ち、ターゲット移動軌跡を決定することもできる。
ここで、所定の時間間隔は、当業者により事前設定されてもよいし、ユーザにより端末の設定に基づいて調整されてもよく、本出願の実施例はこれを限定するものではない。
S505、仮想シーンにおける仮想道具のターゲット移動軌跡に基づいて、ターゲット動画を生成する。
ここで、該ターゲット動画は、該仮想道具の回転が該視角の回転より遅延する効果を表現するためのものである。仮想道具の回転速度が視角の回転速度と異なるため、インタフェースにおける該仮想道具の表示位置が変化することになる。従って、端末は、仮想シーンにおける仮想道具のターゲット移動軌跡を決定してから、視角の回転に基づいて、仮想シーンの変化状況を決定し、ターゲット移動軌跡に基づいて、インタフェースにおける仮想シーンが変化している中で仮想道具の具体的な表示状況を決定することができる。
具体的には、端末は、視角の回転状況に基づいて仮想シーンの表示領域の変化状況を決定することができる。ここで、仮想シーンの表示領域の変化状況を決定する間に、仮想道具は、上記ターゲット移動軌跡に従って移動している。そのため、端末は、上記変化を発生した期間内で、端末のインタフェースに表示しようとするコンテンツをターゲット動画として生成することができる。それによって、インタフェースに該ターゲット動画を表示し、インタフェースにおける仮想シーン及び仮想道具の実際の変化状況を表現することができる。
S506、該視角回転操作に伴って仮想シーンが変化するシーンインタフェースに、該ターゲット動画を表示する。
端末は、仮想シーンが視角回転操作に伴って変化することをインタフェースに表示し、上記ステップS505で決定されたターゲット動画をシーンインタフェースに表示することができ、それによって、該仮想道具の回転が該視角の回転より遅延する効果をインタフェースに表現することができる。
例えば、端末が該ステップS506を実行する時に、ユーザは、該インタフェースにおいて、視角回転操作が開始される時に、仮想シーンが該視角回転操作の開始に伴って変化し、仮想オブジェクトにより制御されている仮想道具の位置も変化し始めることを観察することができる。しかし、該仮想道具の回転速度が小さいため、該仮想道具が該視角回転操作の逆方向へ移動するように見え、該視角回転操作が停止する時に、仮想シーンの変化も停止になるが、仮想道具の位置が継続的に変化し、仮想道具の位置変化が停止になる時に、仮想道具の移動方向が視角回転操作の方向に変化し、該仮想道具が視角回転操作前にインタフェースにおける該仮想道具の位置に再び戻ることが観察することができる。
上記ステップS504及びステップS506は、該ターゲット回転角度、該視角の第1回転速度及び該仮想道具の第2回転速度に基づいて、該該視角回転操作に伴って仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示する過程である。
一実施例において、端末は、インタフェースに表示される仮想シーンにおける仮想道具の位置を所定の時間間隔おきに取得することで、複数の表示しようとする画面に基づいて、ターゲット動画を生成し、ターゲット動画をインタフェースに表示することができる。
一実施例において、端末は、インタフェースにおいて表示しようとするコンテンツを所定の時間間隔おきに取得することができる。つまり、仮想シーンの表示領域及び仮想道具の位置を取得することができる。従って、端末は、上記表示しようとするコンテンツをインタフェースに順次表示することができる。ここで、該所定の時間間隔は、当業者により事前設定されてもよいし、ユーザにより端末の設定に基づいて調整されてもよく、本出願の実施例はこれを限定するものではない。
一実施例において、異なるレンズモードにおける仮想道具の回転は、該視角の回転に対する遅延程度が、異なってもよい。本出願の実施例において、該レンズモードは、一人称視角及び三人称視角を含んでもよく、勿論、該レンズモードは、二人称視角を更に含んでもよく、本出願の実施例は、これを限定するものではない。一人称視角で、仮想オブジェクトの視角によってシーンの変化を観察することをより正確にシミュレートするために、該端末において、レンズモードが異なる時に、視角の回転に対する仮想道具の回転の遅延程度が異なるように設定してもよい。ここで、該遅延程度は、上記第1回転速度と第2回転速度との差として表される。1つの可能な実現形態において、該遅延程度と上記ステップ503における所定係数とが負の相関であり得、所定係数が大きいほど、遅延程度が小さくなる。
対応的に、上記ステップS503の前に、端末は、現在のレンズモードを検出することで、現在のレンズモードに基づいて、現在のレンズモードに対応する所定係数を取得することができる。勿論、該遅延程度が他のパラメータにより実現する場合、該端末は、現在のレンズモードに基づいて、現在のレンズモードに対応するパラメータを決定することもでき、本出願の実施例は、該遅延程度の実現形態を限定するものではない。
例えば、一人称視角レンズモードである時の所定係数は、第1所定係数であってもよく、三人称視角レンズモードである時の所定係数は、第2所定係数であってもよく、第1所定係数は、第2所定係数より小さい。端末は、上記ステップS503の前に、現在のレンズモードに対応する所定係数を取得することもできる。該レンズモードが一人称視角である場合、端末は、第1所定係数を取得することができ、現在のレンズモードが三人称視角である場合、端末は、第2所定係数を取得することができる。これにより、端末は、ステップS503を実行して、仮想道具の第2回転速度を取得することができる。
一実施例において、該仮想オブジェクトの異なる移動状態における該仮想道具の回転は、該視角の回転に対する遅延程度が異なってもよい。ここで、仮想オブジェクトの移動状態とは、仮想シーンにおける仮想オブジェクトの移動方式を指す。例えば、該移動状態は、静止、歩行、走り、水泳、ジャンプ、スクワット、腹這い、飛行、乗り物搭乗等を含んでもよい。勿論、該移動状態は、他の移動方式を含んでもよく、本出願の実施例は、ここで枚挙しない。該仮想オブジェクトの移動状態が異なる時に、該仮想オブジェクトが受ける抵抗力が異なる。従って、該視角の回転に対する上記仮想道具の回転の遅延程度を異なるように設定してもよい。例えば、視角の回転に対する仮想道具の回転の遅延程度に関して、該仮想オブジェクトが乗り物を搭乗する場合の遅延程度は、仮想オブジェクトが静止したままの場合の遅延程度より大きい。従って、現実シーンにおける人間が乗り物を搭乗する場合に受ける抵抗力が人間の静止状態の場合に受ける抵抗力より大きいという状況をシミュレートすることができる。
同様に、該遅延程度は、異なる移動状態が異なる所定係数に対応するように端末に設定することで実現することができる。本出願の実施例は、これについて詳細な説明を省略する。なお、上記ステップS503の前に、端末は、仮想オブジェクトの現在の移動状態を検出することで、現在の移動状態に基づいて、現在の移動状態に対応する所定係数を取得することができる。勿論、該遅延程度が他のパラメータにより実現する場合、該端末は、現在の移動状態に基づいて、現在の移動状態に対応するパラメータを決定することもできる。本出願は、遅延程度の実現形態を限定するものではない。1つの可能な実現形態において、端末は、仮想シーンにおける仮想オブジェクトの移動状態及び移動速度を検出し、該移動状態での該移動速度に対応する所定係数又は他のパラメータを取得することもでき、本出願の実施例は、これを限定するものではない。
一実施例において、異なる環境における該仮想オブジェクトの該仮想道具の回転は、該視角の回転に対する遅延程度が異なってもよい。ここで、該仮想オブジェクトの周辺環境は、陸地、水中などを含んでもよい。勿論、該仮想オブジェクトの周辺環境は、砂地、芝生又は部屋中などを含んでもよく、本出願の実施例は、これを限定するものではない。該仮想オブジェクトの周辺環境が異なると、該仮想オブジェクトが受ける抵抗力も異なることがある。従って、該視角の回転に対する上記仮想道具の回転の遅延程度が異なるように設定してもよい。例えば、視角の回転に対する仮想道具の回転の遅延程度について、該仮想オブジェクトが水中に位置する場合の遅延程度は、該仮想オブジェクトが陸地上に位置する場合の遅延程度より大きくてよい。従って、現実シーンにおける水中抵抗力が空気抵抗力より大きいという状況をシミュレートすることができる。
同様に、該遅延程度は、異なる環境が異なる所定係数に対応するように端末に設定することで実現することができる。本出願の実施例は、これについて詳細な説明を省略する。なお、上記ステップS503の前に、端末は、仮想シーンにおける仮想オブジェクトの周辺環境を検出し、該周辺環境に基づいて、該周辺環境に対応する所定係数を取得することができる。勿論、該遅延程度が他のパラメータにより実現すると、該端末は、該周辺環境に基づいて、該周辺環境に対応するパラメータを決定することもできる。本出願の実施例は、該遅延程度の実現形態を限定するものではない。
一実施例において、該仮想オブジェクトにより制御されている仮想道具の道具タイプが異なる場合、該視角の回転に対する該仮想道具の回転の遅延程度が異なる。ここで、道具タイプは、射撃タイプ、投擲タイプ又は格闘タイプを含んでもよい。勿論、該道具タイプは、他のタイプを含んでもよく、ここで枚挙しない。仮想道具の道具タイプが異なる場合、該仮想オブジェクトが受ける抵抗力も異なることがある。従って、該視角の回転に対する上記仮想道具の回転の遅延程度が異なるように設定してもよい。例えば、視角の回転に対する仮想道具の回転の遅延程度について、道具タイプが射撃タイプである場合の遅延程度は、道具タイプが投擲タイプである場合の遅延程度より大きくしてもよい。従って、現実シーンにおける人間が射撃タイプの兵器を用いる場合に受ける抵抗力が、人間が投擲タイプの兵器を用いる場合に受ける抵抗力より大きいという状況をシミュレートすることができる。
同様に、該遅延程度は、異なる道具タイプが異なる所定係数に対応するように端末において設定することで実現することができる。本出願の実施例は、これについて詳細な説明を省略する。なお、上記ステップS503の前に、端末は、仮想オブジェクトにより制御されている仮想道具の道具タイプを検出し、該道具タイプに基づいて、該道具タイプに対応する所定係数を取得することができる。勿論、該遅延程度が他のパラメータにより実現すると、該端末は、該道具タイプに基づいて、該道具タイプに対応するパラメータを決定することもできる。本出願の実施例は、該遅延程度の実現形態を限定するものではない。
一実施例において、該仮想道具が異なる場合、該視角の回転に対する該仮想道具の回転の遅延程度も異なってもよい。異なる仮想道具の重量、形状又は体積が異なってもよいため、該仮想道具が回転する場合に受ける抵抗力も異なってもよい。従って、異なる仮想道具が異なる所定係数に対応するように設定してもよい。本出願の実施例は、これについて詳細な説明を省略する。例えば、視角の回転に対する仮想道具の回転の遅延程度について、自動小銃の受ける抵抗力が歩兵銃の受ける抵抗力より小さいとすれば、仮想オブジェクトにより制御されている仮想道具が自動小銃である場合の遅延程度は、仮想オブジェクトにより制御されている仮想道具が歩兵銃である場合の遅延程度より小さくてもよい。
同様に、該遅延程度は、異なる仮想道具が異なる所定係数に対応するように端末に設定することで実現することができる。本出願の実施例は、これについて詳細な説明を省略する。なお、上記ステップS503の前に、端末は、仮想オブジェクトにより制御されている仮想道具を検出し、該仮想道具に基づいて、該仮想道具に対応する所定係数を取得することができる。勿論、該遅延程度が他のパラメータにより実現すると、該端末は、該仮想道具に基づいて、該仮想道具に対応するパラメータを決定することもできる。本出願の実施例は、該遅延程度の実現形態を限定するものではない。
具体的には、該端末において、異なる仮想道具の識別情報と所定係数又は他のパラメータとの対応関係が事前設定されてもよい。これにより、端末は、仮想オブジェクトにより制御されている仮想道具を検出する時に、該識別情報を取得し、該識別情報に基づいて、該識別情報に対応する所定係数又は他のパラメータを取得することができる。該識別情報は、仮想オブジェクトの名称、番号などであってもよく、本出願の実施例はこれを具体的に限定しない。
なお、端末は、視角の回転に対する該仮想道具の回転の遅延程度を決定する時に、上記複数の可能な実現形態のうちのいずれか1つにより決定してもよいし、上記複数の可能な実現形態の任意の組み合わせにより決定してもよく、本出願の実施例は、これを限定するものではない。例えば、視角の回転に対する上記仮想道具の回転の遅延程度について、仮想オブジェクトの現在制御されている道具タイプが射撃タイプであり且つ該仮想オブジェクトが走行中である場合の遅延程度は、仮想オブジェクトの現在制御されている道具タイプが投擲タイプであり且つ該仮想オブジェクトが陸地上に位置する場合の遅延程度より大きくしてもよい。
一実施例において、該端末において下記のように設定されてもよい。上記仮想道具の回転が視角の回転より遅延する効果について、端末がレンズモードが一人称視角であると判定した場合、上記ステップS502及びS503を実行し、そうでなければ、上記ステップS502を実行する時に、該視角及び仮想道具の回転角度がいずれもターゲット回転角度であると判定し、視角と仮想道具の回転速度を決定することができる。つまり、視角と仮想道具の回転速度が一致しているため、該仮想道具と視角の回転には遅延が生じることがない。本出願の実施例は、どのような実現形態を具体的に用いるかについて、限定しない。
本出願の実施例は、視角回転操作を検知した場合、視角及び仮想オブジェクトにより制御されている仮想道具との同じ回転角度を取得し、視角の第1回転速度及び仮想道具の第2回転速度をそれぞれ取得する。第2回転速度は、第1回転速度より小さくにし、それによって、視角及び仮想道具は、同じ角度で回転するが、仮想道具の回転が視角の回転より遅延するため、端末は、該視角回転操作に基づいて、対応するコンテンツをインタフェースに表示する時に、仮想道具の回転が視角の回転より遅延する効果を表示することができる。従って、人間が兵器を持って振り向く時に抵抗力を受けるシーンを正確にシミュレートすることができ、表示効果が高い。
上記全ての任意選択的な技術的解決手段は、任意の組み合わせにより本出願の任意選択的な実施例を構成することができ、ここで、詳細な説明を省略する。
上記実施例において、視角回転操作を検知した場合、視角及び仮想道具の回転角度を決定し、視角及び仮想道具の回転速度をそれぞれ決定することで、仮想道具の回転が視角の回転より遅延する効果をインタフェースに表示することができるという技術案を説明している。ここで、該視角回転操作に基づいて視角を回転することは、レンズを回転することで実現する。
一実施例において、現実シーンで人間の呼吸、筋肉の伸縮、又は体のバランス等の関係で、人間の観察したシーンがブレるという状況を正確にシミュレートするために、該端末は、レンズをブレるように制御することもできる。従って、インタフェースに表示される仮想シーンがレンズのブレに伴ってブレるようになる。これにより、人間が異なる状態、異なる環境に位置する場合のシーンの変化を正確にシミュレートすることができる。以下、図6に示した実施例を参照しながら、このような実現形態を詳しく説明する。
図6は、本出願の実施例によるインタフェース表示方法を示すフローチャートである。図6に示すように、該方法は、下記ステップを含んでもよい。
S601、仮想シーンにおける仮想オブジェクトの状態情報を取得する。
本出願の実施例において、現実シーンにおける人間が異なる状態で観察した仮想シーンの変化状況をシミュレートするために、端末は、仮想シーンにおける仮想オブジェクトの状態情報を取得する必要がある。該状態情報は、該仮想オブジェクトの移動状態、該仮想オブジェクトの周辺環境及び該仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含んでもよい。勿論、該状態情報は、他の情報を含んでもよい。本出願の実施例はこれを限定するものではない。
ここで、仮想オブジェクトの移動状態とは、仮想シーンにおける仮想オブジェクトの移動方式を指す。例えば、該移動状態は、静止、歩行、走り、水泳、ジャンプ、スクワット、腹這い、飛行、乗り物搭乗等を含んでもよい。勿論、該移動状態は、他の移動方式を含んでもよく、本出願の実施例は、ここで枚挙しない。該仮想オブジェクトの周辺環境は、陸地、水中などを含んでもよい。勿論、該仮想オブジェクトの周辺環境は、砂地、芝生又は部屋中などを含んでもよく、本出願の実施例は、これを限定するものではない。該仮想オブジェクトにより制御されている仮想道具の道具タイプは、射撃タイプ、投擲タイプ又は格闘タイプを含んでもよい。勿論、該道具タイプは、他のタイプを含んでもよく、ここで枚挙しない。
S6O2、現在のレンズモードが仮想オブジェクトの一人称視角である場合、状態情報に基づいて、レンズの第1ブレ情報を決定する。
レンズモードが異なる場合、該レンズのブレ情報は異なってもよい。一人称視角に対応するレンズが仮想オブジェクトの主観的レンズであるため、仮想オブジェクトの状態から該レンズのブレ状況に与える影響は大きい。三人称視角に対応するレンズが仮想オブジェクトの客観的レンズであり、客観的視角から仮想オブジェクト及び仮想オブジェクトの周辺環境を観察するため、仮想オブジェクトの状態が該レンズのブレ状況に与える影響は小さい。
具体的には、端末は、まずレンズモードを決定することができる。それにより、現在のレンズモードにおける仮想オブジェクトの状態情報とレンズのブレ情報との対応関係に基づいて、仮想オブジェクトの現在の状態情報に対応するブレ情報を決定することができる。ここで、該ブレ情報は、ブレ方向、ブレ幅及びブレ速度からなるグループから選択される少なくとも1つを含んでもよい。つまり、端末は、レンズモード及び状態情報に基づいて、レンズのブレ方向、ブレ幅及びブレ速度を決定することができる。例えば、ブレ方向は、上下方向、水平方向であってもよい。又は、上下方向及び水平方向にはいずれもブレが発生した場合、複数のブレ方向を1つの総合方向としてまとめてもよい。該ブレ幅及びブレ速度は、レンズのブレ程度を評価するために用いられてもよい。ここで、ブレ幅とブレ程度とが正の相関であってもよく、ブレ速度とブレ程度とが正の相関であってもよい。つまり、ブレ幅が大きいほど、ブレ程度は大きくなる。ブレ速度が大きいほど、ブレ程度は大きくなる。
仮想オブジェクトの状態情報が異なる場合、レンズのブレ情報は異なってもよい。具体的には、仮想オブジェクトの移動状態が異なる場合、レンズのブレ情報は異なってもよい。例えば、仮想オブジェクトが走る時のレンズのブレ程度は、仮想オブジェクトが歩行する時のレンズのブレ程度より大きくてもよい。仮想オブジェクトの周辺環境が異なる場合、レンズのブレ情報は異なってもよい。例えば、仮想オブジェクトが水中に位置する時のレンズのブレ程度は、仮想オブジェクトの陸地上に位置する時のレンズのブレ程度より小さくてもよい。仮想オブジェクトにより制御されている仮想道具の道具タイプが異なる場合、レンズのブレ情報は異なってもよい。例えば、仮想オブジェクトが銃器兵器を用いて敵と戦い、つまり、仮想オブジェクトにより制御されている仮想道具の道具タイプが射撃タイプである場合、銃器兵器には一般的に反動が発生するため、銃器が弾丸を発射する時に、該反動により、薬莢も火薬ガスの力を受け、銃器に反動を発生させ、反動を発生した引き金は、銃床に接続される枠にぶつかり、本体を後へ移動させ、本体が移動する時に、仮想オブジェクトに作用し、それによって、仮想オブジェクトと銃器をいずれも移動させる。従って、レンズをそれに従ってブレるように設定することができる。それに対して仮想オブジェクトにより制御されている仮想道具の道具タイプが投擲タイプである場合、投擲タイプの道具が、使用時に、通常反動が発生しないため、レンズのブレ程度を僅かで小さくなるように設定することができる。1つの可能な実現形態において、仮想オブジェクトにより制御されている仮想道具が異なる場合、レンズのブレ情報は異なってもよい。このような実現形態において、異なる銃器兵器の反動の大きさも異なるため、レンズのブレ程度を異なるように設定することができる。
一実施例において、該端末において2つのカメラモデルにより2つのレンズモードを実現させることができる。対応的に、該ステップS602において、端末は、現在どのカメラモデルを使用しているかを判定することで、現在のレンズモードを決定することができる。例えば、端末は、現在使用されているカメラモードの識別情報を取得し、該識別情報に基づいて現在のカメラモードを決定することができる。勿論、端末において、1つのカメラモデルの位置を変えることで、2つのレンズモードを実現させることもできる。なお、端末は、仮想オブジェクトに対する現在のカメラモデルの位置を取得し、該位置に基づいて、現在のレンズモードを決定することができる。本出願の実施例は、これを限定するものではない。
一実施例において、端末において、レンズモード、仮想オブジェクトの状態情報とブレ情報との対応関係を事前設定してもよい。端末は、現在のレンズモード及び取得した状態情報に基づいて、対応関係から対応するブレ情報を取得することができる。
一実施例において、端末において、レンズモード、仮想オブジェクトの状態情報とブレ情報との変換関係を事前設定してもよい。端末は、変換関係を利用して、現在のレンズモード及び仮想オブジェクトの情報をレンズのブレ情報に変換することができる。例えば、該変換関係は、現在のレンズモード及び状態情報に基づいてブレ情報を得るためのアルゴリズムであってもよい。端末は、該アルゴリズムを利用して、決定した現在のレンズモード及び取得した仮想オブジェクトの状態情報に基づいて演算を行うことで、ブレ情報を得ることができる。上記対応関係、変換関係は、いずれも当業者により事前設定されてもよく、本出願の実施例は、実際に適用する時に具体的にはどの実現形態を用いるか、及び上記実現形態における対応関係又は変換関係について具体的に限定しないことに留意されたい。
端末は、現在のレンズモードが仮想オブジェクトの一人称視角であると決定した場合、該ステップS602を実行することができる。具体的には、上記いずれか1つの実現形態を利用して、状態情報に基づいて、レンズの第1ブレ情報を決定することができる。同様に、端末は、現在のレンズモードが仮想オブジェクトの三人称視角であると決定した場合、下記ステップS603を実行することができる。
S603、現在のレンズモードが仮想オブジェクトの三人称視角である場合、状態情報に基づいて、レンズの第2ブレ情報を決定する。
該ステップS603において、ステップS602と同様に、端末は、三人称視角レンズモード及び状態情報に基づいて、レンズの第2ブレ情報を取得することができる。
異なるレンズモードにおけるレンズのブレ情報は、異なってもよく、具体的には下記2つのケースを含んでもよい。
第1ケース:該第2ブレ情報に対応するブレ程度は、該第1ブレ情報に対応するブレ程度より小さい。
該第1ケースにおいて、人間の呼吸、筋肉の伸縮、又は体のバランス等の関係でシーンがブレるという状況を正確にシミュレートするように、2つのレンズモードで端末がレンズをブレるように制御できることが端末において設定されてもよい。
具体的には、仮想オブジェクトの状態情報が同じである場合、端末は、第2ブレ情報におけるブレ幅が第1ブレ情報におけるブレ幅よりも大きいか、又は、第2ブレ情報におけるブレ速度が第1ブレ情報におけるブレ速度よりも大きいか、又は、第2ブレ情報におけるブレ幅及びブレ速度が、いずれも第1ブレ情報におけるブレ幅及びブレ速度より大きいことを確定することができ、本出願の実施例は、これを限定するものではない。従って、現実シーンの主観的視角における人間の状態によるシーンのブレへの影響が客観的視角における人間の状態によるシーンのブレへの影響より大きいことを正確にシミュレートすることができる。
第2ケース:該第2ブレ情報は、該レンズがブレることがないことを示すためのものである。
該第2ケースにおいて、レンズモードが一人称視角である場合、端末は、レンズをブレるように制御し、レンズモードが三人称視角である場合、端末は、レンズのブレを制御しないように設定することができる。
具体的には、これにより、仮想オブジェクトの状態が異なることによって、レンズをブレさせて仮想シーンを変化させ、それに対して、三人称視角に対応するレンズが客観的レンズであるため、仮想オブジェクトの状態によるブレを発生することはないことをシミュレートすることができる。
上記ステップS602及びステップS603は、現在のレンズモード及び該状態情報に基づいて、レンズのブレ情報を取得する過程である。レンズモードが異なるか、又は仮想オブジェクトの状態情報が異なる場合、端末により取得されたレンズのブレ情報は異なる可能性がある。上記2つのケース以外、下記第3ケースが更に存在し、即ち、上記第1ブレ情報が第2ブレ情報と同じであり、つまり、仮想オブジェクトの状態情報が同じであるが、レンズモードが異なる場合、端末は、同じレンズのブレ情報を取得することができる。具体的に上記のどのケースを用いるかについて、本出願は、具体的に限定しない。
S604、ブレ情報に基づいて、仮想シーンがレンズのブレに伴ってブレることをインタフェースに表示する。
端末は、レンズのブレ情報を決定してから、レンズをブレるように制御することができる。該レンズがブレると、該レンズにより観察される仮想シーンもブレる。
一実施例において、該ステップS604は、端末が該レンズを該ブレ情報に従ってブレるように制御し、端末がレンズのブレ状況に基づいて、仮想シーンの表示領域の変化状況を決定し、端末が、決定した表示領域における仮想シーンをインタフェースに表示し、該仮想シーンが表示領域の変化に伴って変化することであってもよい。
一実施例において、端末は、該レンズを該ブレ情報に従ってブレるように制御し、所定の時間間隔おきに、レンズの現在の位置に対応する仮想シーンの表示領域を取得することができる。端末は、取得した複数の表示領域における仮想シーンをインタフェースに順次表示することができる。該所定の時間間隔は、当業者により事前設定されてもよいし、ユーザにより端末の設定に基づいて調整されてもよい。本出願の実施例はこれを限定するものではない。
本出願の実施例において、レンズモード及び仮想シーンにおける仮想オブジェクトの状態情報に基づいて、レンズが如何にブレるかを決定し、レンズをブレるように制御することで、仮想シーンがレンズのブレに伴ってブレることをインタフェースに表示することにより、現実シーンにおける人間が異なる状態である場合に見られるシーンのブレ状況を正確にシミュレートすることができ、表示効果がより高い。
上記全ての任意選択的な技術的解決手段は、任意の組み合わせにより本出願の任意選択的な実施例を構成することができ、ここで、詳細な説明を省略する。
1つの可能な実現形態において、上記図5又は図6に示した実施例で、端末は、視角回転操作に伴った仮想道具の回転が視角回転操作に伴った仮想シーンの回転より遅延する効果をインタフェースに表示し、レンズモードが異なるか又は仮想オブジェクトの状態情報が異なる時に仮想シーンのブレが異なることを表示することができるだけでなく、仮想オブジェクトにより制御されている仮想道具の関連情報をインタフェースに表示することもできる。具体的には、下記図7に示す実施例を参照しながら詳しく説明する。
図7(a)は、本出願の実施例によるインタフェース表示方法を示すフローチャートである。図7(a)を参照すると、該方法は下記ステップを含んでもよい。
S701、端末は、仮想シーンにおいて、仮想オブジェクトにより制御されている仮想道具及び該仮想道具の照準点を表示し、該照準点が該仮想道具の照準方向を示すためのものである。
電子ゲームシーン又はシミュレーションシーンにおいて、端末は、仮想シーンをインタフェースに表示し、仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示することができる。端末は、照準点をインタフェースに表示することで、該仮想道具の照準方向を示すこともできる。端末は、該仮想オブジェクト又は該仮想オブジェクトの一部の領域をインタフェースに表示することもできる。
通常、該照準点は、該端末インタフェースの中央位置に表示されてもよい。勿論、該照準点は、他の位置に表示されてもよい。本出願の実施例はこれを具体的に限定しない。該照準点の表示方式は、様々な形態を含んでもよい。該照準点を表示する時に、システムのデフォルト表示方式を用いてもよいし、ユーザの設定に応じて調整してもよい。勿論、照準鏡起動操作が検知された場合、該照準点の表示方式は、該仮想道具又は該仮想道具に装備された照準鏡に基づいて決定されてもよい。本出願の実施例は、これを限定するものではない。
一実施例において、ユーザは、端末において視角回転操作を行うことができる。仮想シーンは、該視角回転操作に伴って変化される。それにより、該仮想道具の照準方向が変化される。
S702、射撃パラメータの調整操作を検知した場合、該仮想オブジェクトの状態情報を取得する。
本出願の実施例において、異なる照準鏡は、異なる射撃パラメータに対応してもよい。該射撃パラメータは、現在の仮想道具の射撃角度を含んでもよいし、該照準鏡の倍率を含んでもよい。勿論、他の情報を含んでもよい。本出願の実施例は、これを限定するものではない。
ユーザは、端末において、射撃パラメータの調整操作を行い、上記射撃パラメータを調整する。これにより、該照準鏡でターゲット領域をより正確に狙わせることができる。該ターゲット領域は、ユーザが狙う領域である。ここで、該射撃パラメータの調整操作は、クリック操作であってもよいし、マウスのスクロールホイールに対するスクローリング操作であってもよいし、長押し操作であってもよい。勿論、所定の領域に対するスライド操作であってもよい。該射撃パラメータの調整操作の操作方式は、当業者により事前設定されてもよいし、ユーザにより自己の使用習慣に基づいてカスタマイズされてもよい。本出願の実施例は、これを具体的に限定しない。
本出願の実施例において、端末は、インタフェースにおいて、該射撃パラメータの調整操作に基づいて、射撃パラメータを調整し、調整されたパラメータに基づいて、現在の照準点の関連情報を改めて取得し、該関連情報を表示し、ユーザがより正確にターゲット領域に照準を合わせるのを支援する。
一実施例において、仮想シーンにおける仮想オブジェクトの状態情報が異なる場合、該仮想道具が照準鏡に基づいて照準を合わせる時に、該仮想道具の発射物が受ける抵抗力は異なる可能性がある。該仮想道具の発射物の移動軌跡も異なる可能性がある。従って、現在の照準点の関連情報は異なる可能性もある。端末は、該ステップS702を実行し、仮想オブジェクトの状態情報を取得し、該情報に基づいて、仮想道具の発射物のターゲット移動軌跡を更に取得する。ここで、該状態情報は、該仮想オブジェクトの移動状態、該仮想オブジェクトの周辺環境及び該仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含む。
ここで、仮想オブジェクトの移動状態とは、仮想シーンにおける仮想オブジェクトの移動方式を指す。例えば、該移動状態は、静止、歩行、走り、水泳、ジャンプ、スクワット、腹這い、飛行、乗り物搭乗等を含んでもよい。勿論、該移動状態は、他の移動方式を含んでもよく、本出願の実施例は、ここで枚挙しない。該仮想オブジェクトの周辺環境は、陸地、水中などを含んでもよい。勿論、該仮想オブジェクトの周辺環境は、砂地、芝生又は部屋中などを含んでもよく、本出願の実施例は、これを限定するものではない。該仮想オブジェクトにより制御されている仮想道具の道具タイプは、射撃タイプ、投擲タイプ又は格闘タイプを含んでもよい。勿論、該道具タイプは、他のタイプを含んでもよく、ここで枚挙しない。1つの可能な実現形態において、該道具タイプは、2倍照準鏡、4倍照準鏡又は8倍照準鏡などのような、該仮想道具に装備される照準鏡のタイプを含んでもよい。
S703、該射撃パラメータの調整操作及び該状態情報に基づいて、該仮想道具の発射物のターゲット移動軌跡を取得する。
端末は、仮想オブジェクトの状態情報を取得してから、該状態情報に基づいて、仮想道具の発射物が発射された後に受ける抵抗力を知ることができる。従って、該仮想道具の発射物のターゲット移動軌跡を取得することができ、これにより、該ターゲット移動軌跡に基づいて、現在の照準点の関連情報を更に取得する。該関連情報は、該照準点に対応する仮想シーンにおける照準位置と仮想オブジェクトとの距離であってもよい。
ここで、該ターゲット移動軌跡とは、該射撃パラメータの調整操作に基づいて射撃パラメータを調整した後に、仮想オブジェクトを制御して該仮想道具で射撃するように制御する時の該仮想道具の発射物の移動軌跡を指す。該照準点に対応する仮想シーンにおける照準位置とは、現在仮想道具が該照準点で狙う照準方向と該ターゲット移動軌跡との交点位置を指す。例えば、図8に示すように、該曲線rは、仮想道具の発射物のターゲット移動軌跡を表す。照準点で狙う照準方向は、直線sである。従って、照準点に対応する仮想シーンにおける照準位置は、曲線rと直線sとの交点位置Nである。該交点位置と、発射の初期位置である仮想オブジェクトの位置Mとの距離lは、端末のインタフェースに表示しようとする現在の照準点の関連情報である。
具体的には、一実施例において該射撃パラメータの調整操作及び該状態情報に基づいて、該仮想道具の発射物のターゲット移動軌跡を取得するステップを示すフローチャートである図7(b)を参照すると、該ステップS703は、下記ステップを含んでもよい。
S7031、該射撃パラメータの調整操作に基づいて、該仮想道具の射撃角度を調整する。
ここで、該仮想道具の射撃角度は、該仮想道具の発射物の初期移動方向と水平方向との夾角である。勿論、該射撃角度は、該仮想道具の発射物の初期移動方向と照準点で狙う方向との夾角であってもよい。本出願の実施例は、これを限定するものではない。例えば、図9に示すように、該射撃角度が該仮想道具の発射物の初期移動方向と照準点で狙う方向との夾角であることを例として、該曲線rは、仮想道具の発射物のターゲット移動軌跡であり、照準点で狙う照準方向は、直線sであり、発射の初期位置Mを経由する該曲線rの接線pの方向は、発射物の初期移動方向である。従って、接線pと直線sとの夾角θは、仮想道具の射撃角度である。
S7032、該状態情報に基づいて、該状態情報に対応する重力及び抵抗力パラメータを取得する。
端末は、仮想オブジェクトの状態情報に基づいて、仮想道具の発射物を発射する時に受ける力を決定することができる。ここで、該発射物が重力及び抵抗力を受けるため、端末は、重力及び抵抗力パラメータを取得することができる。
該仮想オブジェクトの移動状態が異なる場合、該状態情報に対応する抵抗力パラメータは異なってもよい。例えば、仮想オブジェクトが走っている時に発射物が受ける抵抗力は、仮想オブジェクトが静止のままである時に発射物が受ける抵抗力より大きくてもよい。仮想オブジェクトの周辺環境が異なる場合、該状態情報に対応する抵抗力パラメータは異なってもよい。例えば、該仮想オブジェクトが水中に位置する場合に発射物が受ける水中抵抗力は、仮想オブジェクトが陸地上に位置する場合に発射物が受ける空気抵抗力より大きくてもよい。発射物が水中に位置する場合、端末は、浮力を取得することもできる。仮想オブジェクトにより制御されている道具のタイプが異なる場合、該状態情報に対応する重力及び抵抗力パラメータは異なってもよい。例えば、射撃タイプの仮想道具の発射物が受ける重力は、投擲タイプの仮想道具が受ける重力より小さくしてもよい。射撃タイプの仮想道具の発射物の体積が通常、投擲タイプの仮想道具の体積より小さいため、射撃タイプの仮想道具の発射物が受ける抵抗力は、投擲タイプの仮想道具が受ける抵抗力より小さくしてもよい。又は、射撃タイプの仮想道具の発射物の発射速度が投擲タイプの仮想道具の移動速度より大きいため、該射撃タイプの仮想道具の発射物が受ける抵抗力は、投擲タイプの仮想道具が受ける抵抗力より大きくしてもよい。本出願の実施例は、これを限定するものではない。1つの可能な実現形態において、仮想オブジェクトにより制御されている仮想道具が異なる場合、該状態情報に対応する重力及び抵抗力パラメータは異なってもよい。該仮想道具が異なる場合、該仮想道具の発射物も異なることがある。従って、該発射物が受ける重力及び抵抗力も異なることがある。ここで、詳細な説明を省略する。
端末において、上記状態情報、重力又は抵抗力パラメータの対応関係が事前設定されてもよい。端末は状態情報を取得てから、該対応関係から、状態情報に対応する重力又は抵抗力パラメータを取得することができる。
以上、端末がまずステップS7031を実行してから、ステップS7032を実行することを例として説明したが、端末は、上記ステップS7031及びステップS7032を同時に実行してもよいし、又は、まず、ステップS7032を実行してから、ステップS7031を実行してもよく、本出願の実施例は、上記ステップS7031及びステップS7032の実行順番を限定するものではないことに留意されたい。
S7033、調整された射撃角度、該重力及び該抵抗力パラメータに基づいて、該仮想道具の発射物のターゲット移動軌跡を取得する。
端末は、該仮想道具の射撃角度を決定し、つまり、仮想道具の発射物の初期移動方向を決定し、該発射物が受ける力も決定する。従って、端末は、該発射物のターゲット移動軌跡を取得することができる。ユーザが射撃操作を行った場合、該仮想道具の発射物は、該ターゲット移動軌跡に従って移動する。
なお、端末において、射撃角度、状態情報及び移動軌跡の対応関係が事前記憶されてもよい。従って、端末は、射撃パラメータの調整操作に基づいて、射撃角度を決定し、該射撃角度及び状態情報に基づいて、対応関係から、対応する移動軌跡を取得することができ、本出願の実施例は、これを限定するものではないことに留意されたい。
S704、該ターゲット移動軌跡に基づいて、現在の照準点に対応する仮想シーンにおける照準位置と該仮想オブジェクトとの距離を取得する。
現在照準点で狙う方向が直線方向であるが、発射物が重力又は抵抗力などを受けるため、該発射物のターゲット移動軌跡は曲線である。例えば、銃器道具から発射される銃弾の弾道は、垂れる。ユーザは、該照準点のみによれば、照準点に対応する仮想シーンにおける照準位置を正確に知ることができない。つまり、ユーザは、発射物が仮想シーンのどの位置に命中するかを正確に知ることができない。本出願の実施例において、ユーザがより正確に照準を合わせるのを支援するために、上記ターゲット移動軌跡に基づいて、上記照準位置と仮想オブジェクトとの距離を取得し、更に照準位置に対して提示することができる。
具体的には、端末は、該ターゲット移動軌跡と照準点で狙う方向との交点位置を取得することで、該交点位置と仮想オブジェクトとの距離を取得することができる。該距離と射撃角度とが正の相関である。つまり、射撃角度が大きいほど、該距離は大きくなる。
S705、該距離をインタフェースに表示する。
1つの可能な実現形態において、端末は、インタフェースにおける指定位置で該距離を表示することができる。該指定位置は、関係者により事前設定されてもよいし、ユーザにより自己の使用習慣に基づいて調整されてもよく、本出願の実施例はこれを限定するものではない。例えば、図10に示すように、端末は、ステップS704で、照準点に対応する仮想シーンにおける照準位置と仮想オブジェクトとの距離が100メートルであることを決定する場合、インタフェースにおける照準鏡の関連パラメータを表示するための位置に100を表示することができる。その実際のインタフェースは、図11に示すとおりである。
上記ステップS703からステップS705は、該射撃パラメータの調整操作及び該状態情報に基づいて、現在の照準点に対応する仮想シーンにおける照準位置と該仮想オブジェクトとの距離をインタフェースに表示する過程である。従って、ユーザは、照準点で狙う方向及び該距離により、現在の照準位置が自分のどの方向にあるか、該照準位置と自己との距離がいくらであるかを知ることができる。
例えば、ユーザは、照準鏡又は他の部材に基づいて、仮想シーンにおける仮想物品又は他の仮想オブジェクトと自己との距離を判定することができ、それによって、端末において上記射撃パラメータの調整操作を行うことができ、該距離を自己により判定された距離になるように調整し、照準点を該仮想物品又は他の仮想オブジェクトに移動して、命中率を向上させることができる。
一実施例において、該端末において、射撃角度と距離との対応関係が事前設定されてもよい。従って、端末は、調整された射撃角度を取得した後に、対応関係から該射撃角度に対応する距離を取得し、該距離をインタフェースに表示することができる。本出願の実施例は、具体的にはどの実現形態を用いるかを限定するものではない。
一実施例において、該仮想オブジェクトにより制御されている仮想道具に装備された照準鏡が異なる場合、射撃角度の調整可能な範囲は異なってもよく、調整された上記照準位置と仮想オブジェクトとの距離の調整可能な範囲は異なってもよい。本出願の実施例は、これを限定するものではない。例えば、4倍鏡に対応する距離の調整可能な範囲は、[100,400]であってもよく、8倍鏡に対応する距離の調整可能な範囲は、[100,800]であってもよい。1つの可能な実現形態において、ユーザは、射撃パラメータの調整操作を行い、距離を所定の幾つかの固定値に調整することができる。異なる照準鏡に対応する固定値の数及び具体的な値は異なってもよい。本出願の実施例はこれを具体的に限定しない。例えば、4倍鏡に対応する距離は、100、200、300及び400を含んでもよく、8倍鏡に対応する距離は、100、200、300、400、500、600、700及び800を含んでもよい。上記数値は、いずれも例示的な説明であり、本出願の実施例は、上記距離の調整可能な範囲及び距離の具体的な値を具体的に限定しない。
1つの可能な実現形態において、端末は、射撃パラメータ復元機能を更に提供する。対応的に、射撃パラメータの復元操作を検知した場合、端末は、該射撃パラメータの復元操作に基づいて、該射撃角度復元を該仮想道具の初期射撃角度に復元させることができる。端末は、該初期射撃角度及び該状態情報に基づいて、現在の照準点に対応する仮想シーンにおける照準位置と該仮想オブジェクトとの距離を取得することができる。端末は、該距離をインタフェースに表示することができる。例えば、該仮想道具には、初期射撃角度が事前設定されてもよい。ユーザは、射撃パラメータの調整操作を行い、射撃角度を調整してもよく、射撃パラメータの復元操作をおこなって射撃角度を初期射撃角度に復元させてもよい。従って、より便利な操作方式を提供し、操作の複雑さを低下させる。ここで、該射撃パラメータの復元操作の操作方式は、当業者により事前設定されてもよいし、ユーザにより自己の使用習慣に基づいてカスタマイズされてもよい。本出願の実施例はこれを限定するものではない。
例えば、該初期射撃角度が0であり、該初期射撃角度に対応する距離が100であることを例として、ユーザは、射撃角度の調整により、距離を200に調整してから、射撃パラメータの復元操作を行う。そして、端末は、射撃角度が0になり、距離が100であると決定し、100をインタフェースに表示することができる。
上記において、該仮想道具の道具タイプが射撃タイプであることを例として説明している。該仮想道具の道具タイプが投擲タイプである時に、投擲タイプの仮想道具には一般的に照準鏡が装備されず、しかも投擲タイプの仮想道具の攻撃範囲は、通常、仮想オブジェクトに近い。従って、投擲タイプの仮想道具について、ユーザが仮想オブジェクトを、より正確に他の仮想オブジェクトを攻撃するように制御するのを支援するために、該仮想道具の移動軌跡をインタフェースに表示することができる。従って、ユーザは該移動軌跡に基づいて、仮想道具の着地点を判定することができる。
具体的には、該状態情報に基づいて、該仮想オブジェクトにより制御されている仮想道具の道具タイプが投擲タイプであると判定した場合、端末は、現在の仮想シーンの視角方向に基づいて、該仮想道具の投擲角度を取得することができる。端末は、該投擲角度及び該状態情報に基づいて、該仮想道具のターゲット移動軌跡を取得することができる。端末は、該ターゲット移動軌跡をインタフェースに表示することができる。ここで、該仮想シーンの視角方向は、該投擲タイプの仮想道具の初期移動方向である。該投擲角度は、該視角方向と水平方向との夾角である。このように、投擲タイプの仮想道具のターゲット移動軌跡をインタフェースに表示し、ユーザは、該ターゲット移動軌跡に基づいて、該仮想道具の着地点を判定することができ、ユーザが他の仮想オブジェクトをより正確に攻撃するのを支援する。
ここで、ステップS7032と同様に、端末は、該投擲タイプの仮想道具のターゲット移動軌跡を取得する時に、まず、該状態情報に基づいて、該状態情報に対応する重力及び抵抗力パラメータを取得し、該投擲角度、該重力及び抵抗力パラメータに基づいて、該仮想道具のターゲット移動軌跡を取得することもできる。
本出願の実施例において、検知された射撃パラメータの調整操作に基づいて、射撃パラメータを調整し、仮想シーンにおける仮想オブジェクトの状態に基づいて、現在のインタフェースに表示されている照準点に対応する仮想シーンにおける照準位置と仮想オブジェクトとの距離を決定してインタフェースに表示する。それによって、ユーザは、該距離及び照準点で狙う方向に基づいて、現在照準を合わせている仮想シーンにおける位置を更に判定し、より正確に照準を合わせて射撃するのに寄与し、表示効果が高い。
上記全ての任意選択的な技術的解決手段は、任意の組み合わせにより本出願の任意選択的な実施例を構成することができ、ここで、詳細な説明を省略する。
本出願の実施例が提供するインタフェース表示方法は、上記図5、図6及び図7に示した3つの実施例のうちのいずれか1つ、又は該3つの実施例の任意の組み合わせを用いてもよい。図12に示すように、上記インタフェース表示方法が電子ゲームシーンに適用される場合、端末は、インタフェースにおける表示しようとするコンテンツを決定する時に、ユーザの射撃操作を検知した場合、現在の射撃モードを判定し、つまり、現在のレンズモードを判定し、仮想オブジェクトの現在制御されている銃器タイプを判定し、つまり、仮想オブジェクトにより制御されている仮想道具の道具タイプを判定し、さらにヘッドアップディスプレイ(Head Up Display,HUD)を判定することもできる。該HUDとは、インタフェースに表示される仮想道具及び仮想道具の関連部材のパラメータを指す。端末が上記の判定を行ってから、判定結果に基づいて、関連射撃パラメータを決定することができる。該関連射撃パラメータとは、上記ターゲット回転角度、視角の第1回転速度及び仮想道具の第2回転速度、レンズのブレ情報及び照準点に対応する仮想シーンにおける照準位置と仮想オブジェクトとの距離などを指す。端末は、該関連射撃パラメータを識別し、射撃動画をフィードバックすることができる。つまり、ターゲット動画、仮想シーンのブレ又は上記距離をインタフェースに表示することができる。
勿論、上記インタフェース表示方法は、現実動作導入方式により実現してもよい。つまり、端末は、大量の現実シーンにおける人間の動作及び関連パラメータを収集し、レンズモード又は仮想シーンにおける仮想オブジェクトの状態情報を取得してから、取得された情報と収集されたパラメータをマッチングさせることで、射撃パラメータなどのような、対応する関連パラメータを取得することができる。そして、取得されたパラメータに基づいてインタフェースに表示する。例えば、図6に示した実施例において、現在の仮想オブジェクトの状態情報と現実シーンにおける人間の状態情報をマッチングさせ、収集された関連パラメータから、マッチングしたレンズのブレ情報を取得してから、仮想シーンが該ブレ情報に基づいてブレることをインタフェースに表示する。上記現実動作導入方式は、図5及び図7に示した実施例に適用される時に、同様であり、ここで詳細な説明を省略する。勿論、仮想オブジェクトの動作に歪みが発生しないことを確保している該現実動作導入方式におけるパラメータが修正しにくいが、取得された仮想オブジェクトの状態情報又はレンズモードなどに基づいてインタフェース表示情報を決定する方式はより正確であり、動作に歪みが発生しない。
図13は、本出願の実施例によるインタフェース表示装置の構造を示す概略図である。図13を参照すると、該装置は、
仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示するように構成される表示モジュール1301と、
視角回転操作を検知した場合、該視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度及び該第1回転速度より小さい該仮想道具の第2回転速度を取得するように構成される取得モジュール1302とを備え、
該表示モジュール1301は更に、該ターゲット回転角度、該視角の第1回転速度及び該仮想道具の第2回転速度に基づいて、該該視角回転操作に伴って仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するように構成され、該ターゲット動画が、該仮想道具の回転が該視角の回転より遅延する効果を表現するものである。
一実施例において、該取得モジュール1302は更に、該視角回転操作に基づいて、ターゲット回転角度及び視角の第1回転速度を取得し、該第1回転速度と、1未満である所定係数との積を該仮想道具の第2回転速度とするように構成される。
一実施例において、該表示モジュール1301は更に、該ターゲット回転角度、該視角の第1回転速度及び該仮想道具の第2回転速度に基づいて、該仮想シーンにおける該仮想道具のターゲット移動軌跡を決定し、仮想シーンにおける該仮想道具のターゲット移動軌跡に基づいて、ターゲット動画を生成し、該該視角回転操作に伴って仮想シーンが変化するシーンインタフェースに、該ターゲット動画を表示するように構成される。
一実施例において、異なるレンズモードにおける仮想道具の回転は、該視角の回転に対する遅延程度が異なる。
一実施例において、該仮想オブジェクトの異なる移動状態における該仮想道具の回転は、該視角の回転に対する遅延程度が異なる。
一実施例において、該仮想オブジェクトの異なる周辺環境における該仮想道具の回転は、該視角の回転に対する遅延程度が異なる。
一実施例において、該仮想オブジェクトにより制御されている仮想道具の道具タイプが異なる場合、該視角の回転に対する該仮想道具の回転の遅延程度は異なる。
本出願の実施例が提供する装置は、視角回転操作を検知した場合、視角及び仮想オブジェクトにより制御されている仮想道具の回転角度を取得し、視角の第1回転速度及び仮想道具の第2回転速度をそれぞれ取得する。第2回転速度は、第1回転速度より小さい。従って、視角及び仮想道具は、同じ角度回転するが、仮想道具の回転が視角の回転より遅延するため、端末は、該視角回転操作に基づいて、対応するコンテンツをインタフェースに表示する時に、仮想道具の回転が視角の回転より遅延する効果を表示することができる。従って、人間が兵器を持って振り向く時に抵抗力を受ける場合のシーンの変化状況を正確にシミュレートすることができ、表示効果が高い。
図14は、本出願の実施例によるインタフェース表示装置の構造を示す概略図である。図14を参照すると、該装置は、
仮想シーンにおける仮想オブジェクトの状態情報を取得し、該状態情報が、該仮想オブジェクトの移動状態、該仮想オブジェクトの周辺環境及び該仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含み、更に、現在のレンズモード及び該状態情報に基づいて、レンズのブレ情報を取得するように構成される取得モジュール1401と、
該ブレ情報に基づいて、該仮想シーンが該レンズのブレに伴ってブレることをインタフェースに表示するように構成される表示モジュール1402とを備える。
一実施例において、該取得モジュール1401は更に、該現在のレンズモードが該仮想オブジェクトの一人称視角である場合、該状態情報に基づいて、該レンズの第1ブレ情報を決定し、該現在のレンズモードが該仮想オブジェクトの三人称視角である場合、該情報に基づいて、該レンズの第2ブレ情報を決定するように構成され、該第2ブレ情報に対応するブレ程度が該第1ブレ情報に対応するブレ程度より小さい。
一実施例において、該第2ブレ情報は、該レンズがブレることがないことを示すためのものである。
一実施例において、該ブレ情報は、ブレ方向、ブレ幅及びブレ速度からなるグループから選択される少なくとも1つを含む。
本出願の実施例が提供する装置は、レンズモード及び仮想シーンにおける仮想オブジェクトの状態情報に基づいて、レンズが如何にブレるかを決定し、レンズをブレるように制御することで、仮想シーンがレンズのブレに伴ってブレることをインタフェースに表示することにより、現実シーンにおける人間が異なる状態である場合に見られるシーンのブレ状況を正確にシミュレートすることができる。
図15は本出願の実施例による電子機器の構造を示す概略図である。該電子機器は、上記端末であってもよい。該電子機器1500は、設定又は性能により、比較的大きな差異が生じてもよい。1つ又は1つ以上のプロセッサ(central processing units:CPU)1501及び1つ又は1つ以上のメモリ1502を備えてもよい。ここで、該メモリ1502には、コンピュータ可読命令が記憶されており、該コンピュータ可読命令は、該プロセッサ1501によりロードされて上記各方法の実施例で提供されるインタフェース表示方法を実現させる。勿論、該電子機器は、入力出力を行うために、有線又は無線ネットワークインタフェース、キーボード及び入力出力インタフェース等の部材を備えてもよい。該電子機器は、機器の機能を実現させるための他の部材を備えてもよい。ここで、詳細な説明を省略する。
一実施例において、本出願が提供するインタフェース表示装置は、コンピュータ可読命令の形態として実現してもよい。コンピュータ可読命令は、図15に示した電子機器上で実行されてもよい。電子機器のメモリには、該インタフェース表示装置を構成する各プログラムモジュールが記憶されてもよい。例えば、図13又は図14に示した表示モジュール及び取得モジュールが記憶されている。各プログラムモジュールからなるコンピュータプログラムは、プロセッサに、本明細書で記述される本出根以外の各実施例のインタフェース表示方法におけるステップを実行させる。
例えば、図15に示した電子機器は、図13に示すようなインタフェース表示装置における表示モジュールにより、ステップS501、ステップS504、ステップS505、及びステップS506を実行することができる。コンピュータ装置は、取得モジュールにより、ステップS502及びステップS503を実行することができる。
例えば、図15に示した電子機器は、図14に示すようなインタフェース表示装置における取得モジュールにより、ステップS601、ステップS602及びステップS603を実行することができる。コンピュータ装置は、表示モジュールにより、ステップS604及びステップS503を実行することができる。
一実施例において、電子機器を提供する。該電子機器は、メモリとプロセッサとを備え、メモリにはコンピュータ可読命令が記憶されており、コンピュータ可読命令が実行される時に、プロセッサに、上記インタフェース表示方法のステップを実行させる。ここで、インタフェース表示方法のステップは、上記各実施例のインタフェース表示方法のステップであってもよい。
一実施例において、不揮発性コンピュータ可読記憶媒体であって、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が1つ又は複数のプロセッサにより実行される時に、プロセッサに、上記インタフェース表示方法のステップを実行させる。ここで、インタフェース表示方法のステップは、上記各実施例のインタフェース表示方法のステップであってもよい。
例示的な実施例において、命令を含むメモリのようなコンピュータ可読記憶媒体を更に提供する。上記命令は、プロセッサにより実行され、上記実施例におけるインタフェース表示方法を実現させる。例えば、該コンピュータ可読記憶媒体はROM、ランダムアクセスメモリ(RAM)、CD−ROM、磁気テープ、フレキシブルディスク及び光学データ記憶装置などであってもよい。
上記実施例の全て又は一部のステップはハードウェアにより実行されてもよいし、プログラム命令に係るハードウェアにより実行されてもよく、該プログラムは、コンピュータ可読記憶媒体に記憶されてもよく、上記言及した記憶媒体は、読み取り専用メモリ、磁気ディスク又は光ディスクなどであってもよいことは当業者であれば理解されるべきである。
以上は、本出願の好適な実施例に過ぎず、本出願を限定するものではない。本出願の精神や原則を逸脱しないあらゆる修正、同等置換、改良などはすべて本発明の保護範囲内に含まれるものとする。
1301 表示モジュール
1302 取得モジュール
1401 取得モジュール
1402 表示モジュール
1500 電子機器
1501 プロセッサ
1502 メモリ

Claims (20)

  1. 電子機器が実行する、インタフェース表示方法であって、前記方法は、
    仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示するステップと、
    視角回転操作を検知した場合、前記視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度、及び前記仮想道具の第2回転速度を取得するステップであって、前記第2回転速度が前記第1回転速度より小さい、ステップと、
    前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するステップであって、前記ターゲット動画が、前記仮想道具の回転が前記視角の回転より遅延する効果を表現するものである、ステップとを含む、インタフェース表示方法。
  2. 前記視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度及び前記仮想道具の第2回転速度を取得する前記ステップは、
    前記視角回転操作に基づいて、ターゲット回転角度及び視角の第1回転速度を取得するステップと、
    前記第1回転速度と、1未満である所定係数との積を前記仮想道具の第2回転速度とするステップとを含むことを特徴とする
    請求項1に記載の方法。
  3. 前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示する前記ステップは、
    前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記仮想シーンにおける前記仮想道具のターゲット移動軌跡を決定するステップと、
    前記仮想シーンにおける前記仮想道具のターゲット移動軌跡に基づいて、ターゲット動画を生成するステップと、
    前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するステップとを含むことを特徴とする
    請求項1に記載の方法。
  4. 異なるレンズモードにおける前記仮想道具の回転は、前記視角の回転に対する遅延程度が異なることを特徴とする
    請求項1に記載の方法。
  5. 前記仮想オブジェクトの異なる移動状態における前記仮想道具の回転は、前記視角の回転に対する遅延程度が異なることを特徴とする
    請求項1に記載の方法。
  6. 前記仮想オブジェクトの異なる周辺環境における前記仮想道具の回転は、前記視角の回転に対する遅延程度が異なることを特徴とする
    請求項1に記載の方法。
  7. 前記仮想オブジェクトにより制御されている仮想道具の道具タイプが異なる場合、前記仮想道具の回転は、前記視角の回転に対する遅延程度が異なることを特徴とする
    請求項1に記載の方法。
  8. 電子機器が実行する、インタフェース表示方法であって、
    仮想シーンにおける仮想オブジェクトの状態情報を取得するステップであって、前記状態情報が、前記仮想オブジェクトの移動状態、前記仮想オブジェクトの周辺環境、及び前記仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含む、ステップと、
    現在のレンズモード及び前記状態情報に基づいて、レンズのブレ情報を取得するステップと、
    前記ブレ情報に基づいて、前記仮想シーンが前記レンズのブレに伴ってブレることをインタフェースに表示するステップとを含む、インタフェース表示方法。
  9. 現在のレンズモード及び前記状態情報に基づいて、レンズのブレ情報を取得する前記ステップは、
    前記現在のレンズモードが前記仮想オブジェクトの一人称視角である場合、前記状態情報に基づいて、前記レンズの第1ブレ情報を決定するステップと、
    前記現在のレンズモードが前記仮想オブジェクトの三人称視角である場合、前記状態情報に基づいて、前記レンズの第2ブレ情報を決定するステップであって、前記第2ブレ情報に対応するブレ程度が、前記第1ブレ情報に対応するブレ程度より小さい、ステップとを含むことを特徴とする
    請求項8に記載の方法。
  10. 前記第2ブレ情報は、前記レンズがブレることがないことを示すためのものであることを特徴とする
    請求項9に記載の方法。
  11. 前記ブレ情報は、ブレ方向、ブレ幅及びブレ速度からなるグループから選択される少なくとも1つを含むことを特徴とする
    請求項8から10のいずれか一項に記載の方法。
  12. インタフェース表示装置であって、前記装置は、
    仮想オブジェクトにより制御されている仮想道具を仮想シーンに表示するように構成される表示モジュールと、
    視角回転操作を検知した場合、前記視角回転操作に基づいて、ターゲット回転角度、視角の第1回転速度、及び前記仮想道具の第2回転速度を取得するように構成される取得モジュールであって、前記第2回転速度が前記第1回転速度より小さい、取得モジュールとを備え、
    前記表示モジュールは更に、前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するように構成され、前記ターゲット動画が、前記仮想道具の回転が前記視角の回転より遅延する効果を表現するものである、インタフェース表示装置。
  13. 前記取得モジュールは更に、前記視角回転操作に基づいて、ターゲット回転角度及び視角の第1回転速度を取得し、前記第1回転速度と、1未満である所定係数との積を前記仮想道具の第2回転速度とするように構成されることを特徴とする
    請求項12に記載の装置。
  14. 前記表示モジュールは更に、前記ターゲット回転角度、前記視角の第1回転速度及び前記仮想道具の第2回転速度に基づいて、前記仮想シーンにおける前記仮想道具のターゲット移動軌跡を決定し、前記仮想シーンにおける前記仮想道具のターゲット移動軌跡に基づいて、ターゲット動画を生成し、前記視角回転操作に伴って前記仮想シーンが変化するシーンインタフェースにおいて、ターゲット動画を表示するように構成されることを特徴とする
    請求項12に記載の装置。
  15. インタフェース表示装置であって、前記装置は、取得モジュールと表示モジュールとを含み、
    前記取得モジュールが、仮想シーンにおける仮想オブジェクトの状態情報を取得するように構成され、前記状態情報が、前記仮想オブジェクトの移動状態、前記仮想オブジェクトの周辺環境、及び前記仮想オブジェクトにより制御されている仮想道具の道具タイプのうちの少なくとも1つを含み、
    前記取得モジュールが、更に、現在のレンズモード及び前記状態情報に基づいて、レンズのブレ情報を取得するように構成され、
    前記表示モジュールが、前記ブレ情報に基づいて、前記仮想シーンが前記レンズのブレに伴ってブレることをインタフェースに表示するように構成される、インタフェース表示装置。
  16. 前記取得モジュールは更に、前記現在のレンズモードが前記仮想オブジェクトの一人称視角である場合、前記状態情報に基づいて、前記レンズの第1ブレ情報を決定し、前記現在のレンズモードが前記仮想オブジェクトの三人称視角である場合、前記状態情報に基づいて、前記レンズの第2ブレ情報を決定するように構成され、前記第2ブレ情報に対応するブレ程度が、前記第1ブレ情報に対応するブレ程度より小さいことを特徴とする
    請求項15に記載の装置。
  17. 前記第2ブレ情報は、前記レンズがブレることがないことを示すためのものであることを特徴とする
    請求項16に記載の装置。
  18. 前記ブレ情報は、ブレ方向、ブレ幅及びブレ速度からなるグループから選択される少なくとも1つを含むことを特徴とする
    請求項15から17のいずれか一項に記載の装置。
  19. 電子機器であって、プロセッサとメモリとを備え、前記メモリには、コンピュータ可読命令が記憶されており、前記コンピュータ可読命令が前記プロセッサにより実行される時に、前記プロセッサに、請求項1から11のいずれか一項に記載の方法のステップを実行させる、電子機器。
  20. コンピュータに請求項1から11のいずれか一項に記載の方法を実行させるコンピュータプログラム。
JP2020545725A 2018-05-18 2019-04-02 インタフェース表示方法、装置、電子機器及びコンピュータプログラム Active JP7118162B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810480564.8A CN108635857B (zh) 2018-05-18 2018-05-18 界面显示方法、装置、电子装置及计算机可读存储介质
CN201810480564.8 2018-05-18
PCT/CN2019/080971 WO2019218790A1 (zh) 2018-05-18 2019-04-02 界面显示方法、装置、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2021515331A true JP2021515331A (ja) 2021-06-17
JP7118162B2 JP7118162B2 (ja) 2022-08-15

Family

ID=63756965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020545725A Active JP7118162B2 (ja) 2018-05-18 2019-04-02 インタフェース表示方法、装置、電子機器及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US11325036B2 (ja)
JP (1) JP7118162B2 (ja)
CN (1) CN108635857B (ja)
WO (1) WO2019218790A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7850989B2 (en) 2003-06-12 2010-12-14 Provimi North America, Inc. Critical care for neonatal calves
CN108635857B (zh) 2018-05-18 2022-04-22 腾讯科技(深圳)有限公司 界面显示方法、装置、电子装置及计算机可读存储介质
CN110163938B (zh) * 2018-12-05 2023-04-25 腾讯科技(深圳)有限公司 动画的控制方法、装置、存储介质和电子装置
CN110045827B (zh) 2019-04-11 2021-08-17 腾讯科技(深圳)有限公司 虚拟环境中虚拟物品的观察方法、装置及可读存储介质
US20210232210A1 (en) * 2020-01-28 2021-07-29 Facebook Technologies, Llc Virtual path generation in a virtual environment that is based on a physical environment
CN111408132B (zh) * 2020-02-17 2023-04-07 网易(杭州)网络有限公司 一种游戏画面显示方法、装置、设备和存储介质
CN112121424B (zh) * 2020-09-18 2024-02-09 网易(杭州)网络有限公司 射击控制方法、装置、设备及存储介质
CN112274931B (zh) * 2020-11-20 2024-03-22 网易(杭州)网络有限公司 射击轨迹处理方法、装置和电子设备
CN113052979A (zh) * 2020-12-31 2021-06-29 视伴科技(北京)有限公司 一种对虚拟场馆中的虚拟元素转换的方法及装置
CN112755526B (zh) * 2021-02-02 2022-11-25 腾讯科技(深圳)有限公司 虚拟道具控制方法、装置、终端及存储介质
CN113398574B (zh) * 2021-07-13 2024-04-30 网易(杭州)网络有限公司 辅助瞄准调整方法、装置、存储介质及计算机设备
CN113426097A (zh) * 2021-07-22 2021-09-24 网易(杭州)网络有限公司 游戏中虚拟对象的控制方法及装置、电子设备、存储介质
CN113633976B (zh) * 2021-08-16 2023-06-20 腾讯科技(深圳)有限公司 操作控制方法、装置、设备及计算机可读存储介质
CN113827975B (zh) * 2021-09-23 2023-08-08 网易(杭州)网络有限公司 射击动画处理方法、装置、终端和存储介质
CN113856196A (zh) * 2021-09-24 2021-12-31 网易(杭州)网络有限公司 虚拟摄像机运动轨迹的确定方法、装置以及计算机设备
CN117032618B (zh) * 2023-10-07 2024-02-02 启迪数字科技(深圳)有限公司 基于多屏幕的动画旋转方法、设备及介质
CN117911629A (zh) * 2024-03-15 2024-04-19 深圳市七彩虹禹贡科技发展有限公司 一种虚拟屏幕的显示方法和显示系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018476A (ja) * 2004-06-30 2006-01-19 Sega Corp 画像の表示制御方法
JP2011039895A (ja) * 2009-08-14 2011-02-24 Konami Digital Entertainment Co Ltd 仮想空間表示装置、視点設定方法、および、プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8070571B2 (en) * 2003-12-11 2011-12-06 Eric Argentar Video game controller
JP2008250813A (ja) * 2007-03-30 2008-10-16 Konami Digital Entertainment:Kk 画像生成装置、画像処理方法、および、プログラム
US20150080071A1 (en) * 2013-08-09 2015-03-19 Nathan Eyal Augmented reality firearm combat simulator
JP2015223258A (ja) * 2014-05-27 2015-12-14 株式会社オリンピア 遊技機
CN105597315B (zh) 2015-12-17 2019-05-10 网易(杭州)网络有限公司 虚拟对象投掷控制方法及装置
CN105912232B (zh) 2016-03-31 2020-09-25 联想(北京)有限公司 一种信息处理方法及电子设备
CN105824426A (zh) 2016-03-31 2016-08-03 联想(北京)有限公司 一种信息处理方法、电子设备及电子装置
CN107305426A (zh) * 2016-04-19 2017-10-31 中国矿业大学(北京) 一种矿井井下场景全景捕捉与重现的设备与方法
CN106293070B (zh) * 2016-07-27 2019-11-15 网易(杭州)网络有限公司 虚拟角色视角方向控制方法及装置
CN206103297U (zh) * 2016-10-28 2017-04-19 张蕾 一种手游游戏枪
CN108525303B (zh) 2017-01-24 2020-06-30 腾讯科技(深圳)有限公司 交互应用中的对象控制方法和装置
CN107519644B (zh) * 2017-08-15 2020-10-23 网易(杭州)网络有限公司 一种3d游戏中的视角调整方法及装置
CN107506122B (zh) * 2017-08-18 2019-12-17 网易(杭州)网络有限公司 虚拟对象调控的方法、装置及电子设备
CN107765986B (zh) * 2017-11-01 2020-05-19 网易(杭州)网络有限公司 游戏系统的信息处理方法和装置
CN108635857B (zh) * 2018-05-18 2022-04-22 腾讯科技(深圳)有限公司 界面显示方法、装置、电子装置及计算机可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018476A (ja) * 2004-06-30 2006-01-19 Sega Corp 画像の表示制御方法
JP2011039895A (ja) * 2009-08-14 2011-02-24 Konami Digital Entertainment Co Ltd 仮想空間表示装置、視点設定方法、および、プログラム

Also Published As

Publication number Publication date
WO2019218790A1 (zh) 2019-11-21
CN108635857A (zh) 2018-10-12
US20200330868A1 (en) 2020-10-22
CN108635857B (zh) 2022-04-22
US11325036B2 (en) 2022-05-10
JP7118162B2 (ja) 2022-08-15

Similar Documents

Publication Publication Date Title
JP7118162B2 (ja) インタフェース表示方法、装置、電子機器及びコンピュータプログラム
CN108635858B (zh) 界面显示方法、装置、电子装置及计算机可读存储介质
JP7299312B2 (ja) 仮想シーン表示方法、電子デバイス及びコンピュータプログラム
JP7419382B2 (ja) 仮想アイテムをマークするように仮想対象を制御する方法及びその装置並びにコンピュータプログラム
US10341162B2 (en) Augmented reality gaming system
CN110507993B (zh) 控制虚拟对象的方法、装置、设备及介质
CN111399639B (zh) 虚拟环境中运动状态的控制方法、装置、设备及可读介质
CN111179679B (zh) 射击训练方法、装置、终端设备及存储介质
JP2021512445A (ja) 視野角調整方法、電子機器、及び記憶媒体
CN110465098B (zh) 控制虚拟对象使用虚拟道具的方法、装置、设备及介质
CN110538459A (zh) 在虚拟环境中投掷虚拟爆炸物的方法、装置、设备及介质
CN110917618B (zh) 在虚拟环境中控制虚拟对象的方法、装置、设备及介质
CN112138383B (zh) 虚拟道具显示方法、装置、设备及存储介质
CN110507990B (zh) 基于虚拟飞行器的互动方法、装置、终端及存储介质
Harvey et al. A comparison between expert and beginner learning for motor skill development in a virtual reality serious game
CN112717410B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
US11786817B2 (en) Method and apparatus for operating virtual prop in virtual environment, device and readable medium
WO2023130807A1 (zh) 虚拟场景中的准星控制方法、装置、电子设备及存储介质
CN111330278A (zh) 基于虚拟环境的动画播放方法、装置、设备及介质
CN114432701A (zh) 基于虚拟场景的射线显示方法、装置、设备以及存储介质
CN111589137B (zh) 虚拟角色的控制方法、装置、设备及介质
Harvey et al. Validity of virtual reality training for motor skill development in a serious game
CN110960849B (zh) 互动道具控制方法、装置、终端及存储介质
TWI517882B (zh) 穿戴式模擬手榴彈投擲系統
KR101117404B1 (ko) 실 방향 동적 사격 훈련 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R150 Certificate of patent or registration of utility model

Ref document number: 7118162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150