JP2024054207A - 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム - Google Patents

3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム Download PDF

Info

Publication number
JP2024054207A
JP2024054207A JP2024015950A JP2024015950A JP2024054207A JP 2024054207 A JP2024054207 A JP 2024054207A JP 2024015950 A JP2024015950 A JP 2024015950A JP 2024015950 A JP2024015950 A JP 2024015950A JP 2024054207 A JP2024054207 A JP 2024054207A
Authority
JP
Japan
Prior art keywords
aiming
skill
virtual environment
dimensional
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024015950A
Other languages
English (en)
Inventor
フゥ,シュン
ワン,ユィリン
スゥ,シャンドォン
チェン,ユィ
ワン,レェ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2024054207A publication Critical patent/JP2024054207A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】3次元仮想環境におけるスキル照準方法を提供する。【解決手段】仮想環境画面とスキル照準ウィジェットとを含むユーザーインタフェースを表示するステップであって、仮想環境画面は、3次元仮想環境を観察する画面であり、スキル照準ウィジェットは、仮想環境画面の上層に位置し、スキルをリリースするための2次元ウィジェットであるステップと、スキル照準ウィジェットでのドラッグ操作を受信するステップであって、ドラッグ操作が、スキル照準ウィジェットにある第1操作点及び第2操作点を含み、第1操作点がドラッグ操作の操作開始点であり、第2操作点がドラッグ操作の現在操作点であるステップと、ドラッグ操作に応答して、仮想環境画面に3次元スキル照準インジケータを表示するステップであって、3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とがユーザーインタフェースにおいて平行であるステップと、を含む。【選択図】図3

Description

[関連出願の相互参照]
本願は2020年02月14日に提出された出願番号が202010093196.9で、発明の名称が「3次元仮想環境におけるスキル照準方法、装置、端末及び記憶媒体」である中国特許出願の優先権を要求し、その全ての内容は、引用により本願に組み込まれる。
[技術分野]
本願は、マンマシンインタラクションの分野に関し、特に3次元仮想環境におけるスキル照準方法、装置、デバイス及び記憶媒体に関する。
マルチプレイヤーオンラインバトルアリーナゲーム(Multiplayer Online Battle Arena、MOBA)は、非常に人気のあるゲーム形式である。該ゲーム形式では、各ユーザーは、ユーザーインタフェースを介して選択された仮想キャラクターを制御する。
関連技術では、図1に示すように、端末には、ユーザーインタフェース10が表示されている。ユーザーインタフェース10は、仮想環境画面12及びホイールウィジェット14を含む。ユーザーは、ホイールウィジェット14に対してドラッグ操作を行うことによって、3次元仮想環境におけるスキルリリース(スキルキャスト、スキル発動、スキル解放とも呼ぶ)方向を制御する。
上記のスキル照準方法は、スキル照準時の精度が低く、マンマシンインタラクションの効率が低い。
本願の実施形態は、スキル照準時の精度及びマンマシンインタラクションの効率を高めることが可能な3次元仮想環境におけるスキル照準方法、装置、デバイス及び記憶媒体を提供する。前記技術方案は、以下のとおりである。
本願の一態様によれば、コンピュータデバイスに適用される3次元仮想環境におけるスキル照準方法であって、
アプリケーションのユーザーインタフェースを表示するステップであって、前記ユーザーインタフェースは、仮想環境画面と、スキル照準ウィジェットとを含み、前記仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面であり、前記スキル照準ウィジェットは、スキルをリリースするための2次元ウィジェットであり、前記仮想環境画面の上層に位置するものであるステップと、
前記スキル照準ウィジェットでのドラッグ操作を受信するステップであって、前記ドラッグ操作が、前記スキル照準ウィジェットにある第1操作点及び第2操作点を含み、前記第1操作点が前記ドラッグ操作の操作開始点であり、前記第2操作点が前記ドラッグ操作の現在操作点であるステップと、
前記ドラッグ操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するステップであって、前記3次元スキル照準インジケータのスキル照準方向と前記ドラッグ操作のドラッグ方向とが前記ユーザーインタフェースにおいて平行であり、前記ドラッグ方向が前記第1操作点から前記第2操作点に指向する方向であるステップと、を含む3次元仮想環境におけるスキル照準方法を提供する。
本願の別の態様によれば、物理照準部材が配置又は接続されたコンピュータデバイスに適用される3次元仮想環境におけるスキル照準方法であって、
アプリケーションのユーザーインタフェースを表示するステップであって、前記ユーザーインタフェースは、仮想環境画面を含み、前記仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面であるステップと、
前記物理照準部材による照準操作を受信するステップであって、前記照準操作が、前記物理照準部材でトリガーされた第1操作位置及び第2操作位置を含み、前記第1操作位置が前記照準操作の操作開始位置であり、前記第2操作位置が前記照準操作の現在操作位置であるステップと、
前記照準操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するステップであって、前記3次元スキル照準インジケータのスキル照準方向と前記照準操作の照準方向とが前記ユーザーインタフェースにおいて平行であり、前記照準方向が前記第1操作位置から前記第2操作位置に指向する方向であるステップと、を含む3次元仮想環境におけるスキル照準方法を提供する。
本願の別の態様によれば、コンピュータデバイスに適用される3次元仮想環境におけるスキル照準装置であって、
アプリケーションのユーザーインタフェースを表示するための表示モジュールであって、前記ユーザーインタフェースは、仮想環境画面と、スキル照準ウィジェットとを含み、前記仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面であり、前記スキル照準ウィジェットは、スキルをリリースするための2次元ウィジェットであり、前記仮想環境画面の上層に位置するものである表示モジュールと、
前記スキル照準ウィジェットでのドラッグ操作を受信するための受信モジュールであって、前記ドラッグ操作が、前記スキル照準ウィジェットにある第1操作点及び第2操作点を含み、前記第1操作点が前記ドラッグ操作の操作開始点であり、前記第2操作点が前記ドラッグ操作の現在操作点である受信モジュールと、を含み、
前記表示モジュールは、前記ドラッグ操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するためのものでもあり、前記3次元スキル照準インジケータのスキル照準方向と前記ドラッグ操作のドラッグ方向とが前記ユーザーインタフェースにおいて平行であり、前記ドラッグ方向が前記第1操作点から前記第2操作点に指向する方向である、3次元仮想環境におけるスキル照準装置を提供する。
本願の別の態様によれば、物理照準部材が配置又は接続されたコンピュータデバイスに適用される3次元仮想環境におけるスキル照準装置であって、
アプリケーションのユーザーインタフェースを表示するための表示モジュールであって、前記ユーザーインタフェースは、仮想環境画面を含み、前記仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面である表示モジュールと、
前記物理照準部材による照準操作を受信するための受信モジュールであって、前記照準操作が、前記物理照準部材でトリガーされた第1操作位置及び第2操作位置を含み、前記第1操作位置が前記ドラッグ操作の操作開始位置であり、前記第2操作位置が前記ドラッグ操作の現在操作位置である受信モジュールと、を含み、
前記表示モジュールは、前記ドラッグ操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するためのものでもあり、前記3次元スキル照準インジケータのスキル照準方向と前記照準操作の照準方向とが前記ユーザーインタフェースにおいて平行であり、前記照準方向が前記第1操作位置から前記第2操作位置に指向する方向である、3次元仮想環境におけるスキル照準装置を提供する。
本願の別の態様によれば、プロセッサと、少なくとも1つのコマンド、少なくとも一部のプログラム、コードセット又はコマンドセットが記憶されたメモリとを含むコンピュータデバイスであって、前記少なくとも1つのコマンド、前記少なくとも一部のプログラム、前記コードセット又はコマンドセットが前記プロセッサによってロードされ、上記の3次元仮想環境におけるスキル照準方法を実行するコンピュータデバイスを提供する。
本願の別の態様によれば、プロセッサと、少なくとも1つのコマンド、少なくとも一部のプログラム、コードセット又はコマンドセットが記憶されたメモリと、物理照準部材とを含むコンピュータデバイスであって、前記少なくとも1つのコマンド、前記少なくとも一部のプログラム、前記コードセット又はコマンドセットが前記プロセッサによってロードされ、上記の3次元仮想環境におけるスキル照準方法を実行する別のコンピュータデバイスを提供する。
本願の別の態様によれば、少なくとも1つのコマンド、少なくとも一部のプログラム、コードセット又はコマンドセットが記憶されたコンピュータ読み取り可能な記憶媒体であって、前記少なくとも1つのコマンド、前記少なくとも一部のプログラム、前記コードセット又はコマンドセットがプロセッサによってロードされ実行されることにより、上記の3次元仮想環境におけるスキル照準方法を実現するコンピュータ読み取り可能な記憶媒体を提供する。
本願の別の態様によれば、コンピュータ読み取り可能な記憶媒体に記憶されたコンピュータコマンドを含むコンピュータプログラム製品又はコンピュータプログラムを提供する。コンピュータデバイスのプロセッサは、コンピュータ読み取り可能な記憶媒体から当該コンピュータコマンドを読み取り、実行することにより、当該コンピュータデバイスに上記の本願の実施形態のいずれか1つに記載の3次元仮想環境におけるスキル照準方法を実行させる。
本願の実施形態で提供される技術方案は、少なくとも次の有益な効果をもたらす。
ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とを平行にすることにより、ユーザーが観察したスキル照準方向が自分の手の動作と一致するようになり、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
本願の実施形態における技術方案をより明確に説明するために、以下では、実施形態の説明に必要な図面を簡単に紹介する。以下の説明における図面は、本願のいくつかの実施形態に過ぎず、当業者にとって、創造的な労力を払うことなく、これらの図面に基づいて他の図面を得ることもできることが明らかである。
関連技術の3次元仮想環境におけるスキル照準方法の一例のインタフェース模式図を示す。 本願の1つの例示的な実施形態で提供されるコンピュータシステムの構造ブロック図を示す。 本願の1つの例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートを示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートを示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のインタフェース模式図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートを示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートを示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のブロック図を示す。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートを示す。 本願の1つの例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図である。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図である。 本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図である。 本願の1つの例示的な実施形態で提供されるコンピュータデバイスの構造模式図である。
本願の目的、技術方案及び利点をより明確にするために、以下では、図面を参照して本願の実施形態をさらに詳細に説明する。
まず、本願に関わる用語を説明する。
3次元仮想環境とは、アプリケーションが端末上で実行される際に表示(又は提供)される仮想世界である。当該仮想世界は、現実世界のシミュレーション環境であってもよく、セミシミュレーションとセミフィクションとを組み合わせた3次元環境であってもよく、完全なフィクションの3次元環境であってもよい。任意的に、当該仮想世界は、仮想世界での少なくとも2つの仮想キャラクター間の対戦にも使用され、該仮想世界には、少なくとも2つの仮想キャラクターが使用可能な仮想リソースが含まれる。任意的に、当該仮想世界は、対称的な左下のエリア及び右上のエリアからなる正方形マップを含む。2つのライバル陣営に属する仮想キャラクターは、それぞれ1つのエリアを占め、相手エリアの奥にある目標建物を破壊することを勝利目標とする。
仮想キャラクターとは、仮想世界の中で移動可能なオブジェクトである。該移動可能なオブジェクトは、仮想人物、仮想動物、アニメキャラクターのうちの少なくとも1つであってもよい。任意的に、仮想世界が3次元仮想世界である場合、仮想キャラクターは、3次元立体モデルであってもよく、各仮想キャラクターは、3次元仮想世界において独自の形状及び体積を持ち、3次元仮想世界の一部の空間を占める。任意的に、仮想キャラクターは、3次元人体姿勢技術に基づいて作られた3次元キャラクターであり、該仮想キャラクターは、様々なスキンを着用することで様々な外見を実現する。幾つかの実施形態では、仮想キャラクターは、2.5次元又は2次元のモデルで実現されてもよいが、本願の実施形態では、これを限定しない。
マルチプレイヤーオンラインバトルアリーナとは、仮想環境により提供されるマップ上で、少なくとも2つのライバル陣営に属する異なる仮想チームがそれぞれ自分のマップエリアを占め、一定の勝利条件を目標として競技を行うことである。該勝利条件は、拠点の占領又はライバル陣営の拠点の破壊、ライバル陣営の仮想キャラクターのキル、指定されたシーン及び時間内の自分の生存の確保、あるリソースの奪い取り、指定された時間内の相手のスコアの超過のうちの少なくとも1つを含むが、それらに限定されない。バトルアリーナは、ラウンド単位で行ってもよく、各ラウンドのバトルアリーナのマップは、同じであってもよく、異なってもよい。各仮想チームは、1人又は複数人の仮想キャラクターを含み、例えば1人、3人又は5人などであってもよい。
MOBAゲームとは、仮想世界で複数の拠点を提供し、異なる陣営に属するユーザーが仮想キャラクターを制御して仮想世界で対戦し、拠点を占領するか、又はライバル陣営の拠点を破壊するゲームである。例えば、MOBAゲームは、ユーザーを2つのライバル陣営に分け、ユーザーによって制御される仮想キャラクターが仮想世界に分散して競い合い、敵の全ての拠点を破壊又は占領することを勝利条件とするものであってもよい。MOBAゲームは、ラウンド単位で行われ、1ラウンドのMOBAゲームの継続時間は、ゲームの開始時点から勝利条件が満たされる時点までの時間である。
仮想環境画面とは、3人称の俯角で3次元仮想環境を観察する画面である。任意的に、俯角は、45度である。なお、ゲームシーンには、一般的に仮想カメラが設けられ、仮想カメラで撮影したゲームシーンの内容がユーザーインタフェースに表示される仮想環境画面である。3人称視点の3Dゲームでは、仮想カメラは、仮想キャラクターを含むゲームシーンの内容を撮影し、仮想キャラクターを仮想環境画面に表示することができる。また、例えば仮想キャラクターが存在しない一部のゲームでは、仮想カメラの移動や回転を直接制御することによって、ユーザーインタフェースに表示されるゲーム画面を更新してもよい。
スキルとは、仮想キャラクターが3次元仮想環境内で持っているキャラクター能力であり、他の陣営の仮想キャラクターに作用し、効果を与えることが可能である。該スキルは、攻撃スキルであってもよく、防御スキルであってもよく、特定の対象を持つスキルであってもよく、集団攻撃スキルであってもよく、他の陣営の仮想キャラクターにノックアップ効果を与えるスキルであってもよく、他の陣営の仮想キャラクターに減速効果を与えるスキルであってもよいが、本願では、これを限定しない。
照準スキル(照準型スキルとも呼ぶ)とは、仮想キャラクターが3次元仮想環境内で持っている照準性のあるキャラクター能力である。該スキルは、単一の他の陣営の仮想キャラクターに効果を与えるスキルであってもよいし、複数の他の陣営の仮想キャラクターに効果を与えるスキルであってもよい。照準方式によっては、扇形照準スキル、直線照準スキル、円形照準スキル、ドット状照準スキルのうちの何れか1つに分類してもよい。
表現の形では、照準スキルは、仮想キャラクターがアイテムを持って他の陣営の仮想キャラクターを直接攻撃するスキルであってもよく、例えば放火燃焼が挙げられる。アイテムが向けられた位置によっては、仮想キャラクターの攻撃位置が異なる。また、照準スキルは、仮想キャラクターが手にあるアイテムを投げ出し、アイテムが当たった他の陣営の仮想オブジェクトに減速又は攻撃効果を与えるスキルであってもよい。仮想人物がアイテムを投げ出す方向によっては、該照準スキルは、相手陣営の異なる仮想オブジェクトに作用し、効果を与えることが可能である。照準スキルは、仮想キャラクターがアイテムを持って指定された位置にスペルをキャストすることであってもよく、スペルをキャストすること(「スキルをキャストすること」や「スキルをリリースすること」や「スキルを解放すること」とも呼ぶ。下記では、「キャスト」と略称することもある)は、凍結、燃焼、減速、攻撃等であってもよい。照準位置によっては、仮想キャラクターがスペルをキャストする位置も異なる。
スキル照準ウィジェット(「コントロール」とも呼ぶ。)とは、仮想環境画面の上層に位置し、スキルをリリースするための2次元ウィジェットである。一例では、スキル照準ウィジェットは、ホイール照準ウィジェットである。該ホイール照準ウィジェットは、内輪及び外輪をそれぞれ1つ含む。内輪はユーザーがドラッグできるようになっており、外輪は固定されたものである。ユーザーがドラッグ操作を実行すると、内輪が変位する。内輪の変位が不感帯の範囲内にある場合、スキル照準がトリガーされない。内輪の変位が不感帯の範囲を超えた場合、スキル照準がトリガーされ始める。内輪の変位が外輪を超えた場合、スキルリリースがキャンセルされる。例えば、ユーザーは、アプリケーションをインストールした端末の画面上のホイール照準ウィジェットをタッチすることでスキルをリリースしてもよい。端末は、携帯電話、タブレットコンピュータなどのタッチ可能な端末であってもよい。
物理照準部材とは、端末に接続され、ユーザーの手又は他の体の動きの軌跡をとらえることが可能なデバイスである。一例としては、物理照準部材は、物理的ボタン又はジョイスティックを含む。一例としては、物理照準部材は、加速センサを備えるゲームパッドを含む。一例としては、物理照準部材は、空間感知機能を備える1つ又は複数のカメラを含む。
3次元スキル照準インジケータとは、3次元仮想環境内で照準スキルのリリース前にスキル照準方向及び距離を示すためのインジケータである。3次元スキル照準インジケータのスキル方向は可変であり、ユーザーがスキル照準ウィジェットを操作する時の照準方向によって決定される。3次元スキル照準インジケータのスキル距離は、スキル照準ウィジェットに対するユーザーのドラッグ操作の距離により動的に決定されてもよく、アプリケーションが自ら設定した固定値であってもよい。表示方法としては、3次元スキル照準インジケータは、3次元仮想環境の地面に表示されてもよく、3次元仮想環境内の仮想キャラクターの胸の高さ又は地面に平行な他の高さ位置に表示されてもよく、3次元仮想環境内の仮想キャラクターから地面に指向する位置に表示されるものであってもよく、3次元仮想環境内の仮想キャラクターから他の高さに指向する位置に表示されるものなど、スキル方向及び距離を示す他のあらゆるインジケータであってもよい。
ドラッグ方向とは、スキル照準ウィジェットに対するユーザーのドラッグ操作の方向である。スキル照準ウィジェットに対するユーザーのドラッグ操作は、ドラッグであってもよく、スキル照準ウィジェットを移動させることが可能な他のタッチ操作であってもよい。ドラッグ操作の操作開始点は、第1操作点と呼ばれ、ドラッグ操作の現在操作点は、第2操作点と呼ばれる。ユーザーによって実行されるドラッグ操作の方向は、第1操作点から第2操作点に指向する方向である。
照準方向とは、物理照準部材に対するユーザーの照準操作の方向である。物理照準部材に対するユーザーの照準操作は、長押しであってもよく、物理照準部材を移動させることが可能な他のプレス操作であってもよい。照準操作の操作開始位置は、第1操作位置と呼ばれ、照準操作の現在操作位置は、第2操作位置と呼ばれる。ユーザーによって実行される照準操作の照準方向は、第1操作位置から第2操作位置に指向する方向である。
スキル方向とは、3次元仮想環境内の仮想キャラクターのスキルの照準方向である。スキル方向は、スキル照準方向と異なり、スキル方向は、アプリケーションによって算出された3次元仮想環境内の仮想キャラクターのスキルの照準方向であり、スキル照準方向は、仮想環境画面上で3次元スキル照準インジケータに表示されたスキル照準方向であり、仮想環境画面は3人称の俯角(45度)で3次元仮想環境を観察する画面である。一例としては、3人称の俯角(90度)で仮想環境を観察する画面内のスキル方向と3人称の俯角(45度)で3次元仮想環境を観察する画面内のスキル照準方向とが異なり、多少のずれがある。
スキル照準方向とは、仮想環境画面上で3次元スキル照準インジケータに表示されたスキル照準方向である。一例としては、スキル照準方向は、ユーザーインタフェースに表示された仮想キャラクターのスキル照準方向であり、3次元仮想環境内の仮想キャラクターのスキル方向とは異なる。一例では、スキル照準方向とドラッグ操作のドラッグ方向とが平行である。一例では、スキル照準方向と照準操作の照準方向とが平行である。
不感帯とは、第1操作点と第2操作点の間の距離が固定値よりも大きくなければ、スキル照準がトリガーされない領域である。一例としては、第1操作点と第2操作点の間の距離が固定値よりも小さい場合に、スキル照準がトリガーされない。第1操作点を円心とし、半径が固定値である円の位置する領域を不感帯と呼ぶ。
典型的なMOBAゲームでは、ユーザーのドラッグ方向と3次元仮想環境内の仮想キャラクターのスキルリリース方向とが一致する。しかし、ユーザーインタフェースでは、3人称の俯角で変換された仮想環境画面に表示された3次元スキル照準インジケータのスキル照準方向は、スキル照準ウィジェットでのドラッグ方向と多少ずれてしまう。このずれは、ある程度ユーザーにとってゲームの難易度が上がる。たとえユーザーがこのずれに気づき、最終的にユーザーインタフェースに表示される3次元スキル照準インジケータのスキル照準方向をユーザーの所望の方向にするように、指の位置を調整してドラッグ方向を変更しようとしても、画面の小さい携帯電話を使用するユーザーにとっては、操作が難しく、ユーザーは、自分が調整したいドラッグ方向の角度を正確に把握することができない。よって、スキル照準方向とドラッグ方向とのずれによって、スキル照準の精度を低下させ、マンマシンインタラクションの効率も低下させた。
本願の実施形態は、3次元仮想環境におけるスキル照準方法を提供することにより、仮想環境画面に表示されたスキル照準方向とユーザーのドラッグ方向とを一致させ、スキル照準の精度を向上させるとともに、マンマシンインタラクションの効率を向上させた。
また、本願の実施形態により提供される3次元仮想環境におけるスキル照準方法では、仮想キャラクターのキャスト距離、即ち3次元スキル照準インジケータの距離は、固定値であってもよく、ユーザーがスキル照準ウィジェットをドラッグする距離により動的に決定されてもよい。これによっても、マンマシンインタラクションの効率が向上した。
図2には、本願の1つの例示的な実施形態で提供されるコンピュータシステムの構造ブロック図が示されている。該コンピュータシステム200は、端末220、サーバ240、及び他の端末260を含む。
端末220には、仮想環境をサポートするアプリケーションがインストールされ実行されている。該アプリケーションは、仮想現実アプリケーション、3次元マッププログラム、軍事シミュレーションプログラム、FPSゲーム、MOBAゲーム、マルチプレイヤーガンシューティングサバイバルゲームのうちの何れか1つであってもよい。本実施形態では、該アプリケーションがMOBAゲームである例を挙げて説明する。端末220は、ユーザーが使用している端末であり、ユーザーは、端末220により仮想環境にある仮想キャラクターの活動を制御する。該活動は、体の姿勢の調整、這う、歩く、走る、乗る、ジャンプ、運転、シューティング、投げる、仮想武器による他の仮想キャラクターへの攻撃、仮想武器により力を蓄えて他の仮想キャラクターを攻撃すること、のうちの少なくとも1つを含むが、それらに限定されない。一例としては、仮想キャラクターは、仮想人物、例えばシミュレーション人物オブジェクト又はアニメ人物オブジェクトである。一例では、仮想キャラクターは、仮想動物、例えばシミュレーション動物キャラクター又はアニメ動物キャラクターである。一例では、仮想キャラクターは、仮想の植物、例えばシミュレーション植物キャラクター又はアニメ植物キャラクターである。
端末220は、無線ネットワーク又は有線ネットワークを介してサーバ240に接続されている。
サーバ240は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム及び仮想化センターのうちの少なくとも1つを含む。一例としては、サーバ240は、プロセッサ244及びメモリ242を含み、メモリ242は、アクセスモジュール2421及び対戦モジュール2423を含む。サーバ240は、3次元仮想環境をサポートするアプリケーションにバックグラウンドサービスを提供するためのものである。任意的に、サーバ240は、一次コンピューティング作業を担当し、端末220は、二次コンピューティング作業を担当するか、又は、サーバ240は、二次コンピューティング作業を担当し、端末220は、一次コンピューティング作業を担当するか、又は、サーバ240と端末220とは分散コンピューティングアーキテクチャにより協調的なコンピューティングを行う。
任意的に、開発者に対応する1つ又は複数の他の端末260もある。他の端末260には、仮想環境のアプリケーションの開発・編集プラットフォームがインストールされており、開発者は、他の端末260上でアプリケーションを編集及び更新し、更新後のアプリケーションインストールパッケージを有線又は無線ネットワークを介してサーバ240に送信してもよい。端末220は、サーバ240からアプリケーションインストールパッケージをダウンロードしてアプリケーションを更新してもよい。
他の端末260は、無線ネットワーク又は有線ネットワークを介してサーバ240に接続されている。
任意的に、端末220にインストールされたアプリケーションは、アンドロイド(登録商標)/IOS制御システムプラットフォームのアプリケーションである。端末220は、広義的に複数の端末のうちの一方を意味してもよい。本実施形態では、端末220及び他の端末260のみを例として説明する。端末220及び他の端末260のデバイスタイプは、同じであってもよく、異なってもよい。該デバイスタイプは、AR(Augmented Reality、拡張現実)デバイス、VR(Virtual Reality、仮想現実)デバイス、スマートウェアラブルデバイス、スマートフォン、タブレットコンピュータ、電子書籍リーダー、MP3プレイヤー、MP4プレイヤー、ラップトップコンピュータ及びデスクトップコンピュータのうちの少なくとも1つを含む。以下の実施形態では、端末がスマートフォンを含む例を挙げて説明する。
当業者であれば、上記の端末の数は、本明細書に記載された数以上又は以下であってもよいことが分かるであろう。例えば上記の端末は、1つのみであってもよいし、数十や数百であってもよいし、それ以上であってもよい。本願の実施形態では、端末の数及びデバイスタイプを限定しない。
図3には、本願の1つの例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートが示されている。該方法は、コンピュータデバイスによって実行されてもよく、該コンピュータデバイスは、端末であってもよく、サーバであってもよく、端末及びサーバからなってもよい。該端末は、上記の図2における端末220であってもよく、該サーバは、上記の図2におけるサーバ240であってもよい。該方法が端末によって実行される場合を例として、該方法は、以下のステップを含む。
ステップ302:アプリケーションのユーザーインタフェースを表示する。ユーザーインタフェースは、仮想環境画面と、スキル照準ウィジェットとを含み、仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面であり、スキル照準ウィジェットは、スキルをリリースするための2次元ウィジェットであり、仮想環境画面の上層に位置するものである。
ユーザーが1ラウンドの対戦を開始した後、端末は、ユーザーインタフェースを表示する。一例では、アプリケーションがMOBAタイプのゲームプログラムである場合に、対戦は、1V1、5V5、ランクマッチ、マッチングマッチ、マンマシンバトルなどである。
一例では、ユーザーインタフェースは、仮想環境画面及びヘッドアップディスプレイ(Head Up Display、HUD)領域の2つの部分で構成される。仮想環境画面は、仮想カメラにより3次元仮想環境内の要素を収集して得られた画面であり、HUD領域は、仮想環境画面に重ねて表示される1つ又は複数のUI要素を含む。
任意的に、仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面である。なお、ゲームシーンには、一般的に仮想カメラが設けられ、仮想カメラで撮影したゲームシーンの内容がユーザーインタフェースに表示されるゲーム画面である。3人称の3Dゲームでは、該仮想カメラによって、様々な角度から3次元仮想環境にある仮想オブジェクトを観察することができる。任意的に、仮想カメラは、アプリケーションによって表示される仮想環境画面に実際に表示されていない。仮想カメラは、仮想キャラクターを含むゲームシーンの内容を撮影し、仮想キャラクターをユーザーインタフェースに表示することができる。また、例えば仮想キャラクターが存在しない一部のゲームでは、仮想カメラの移動や回転を直接制御することによって、ユーザーインタフェースに表示されるゲーム画面を更新してもよい。
任意的に、仮想環境画面に表示される仮想環境は、山河、平地、川、湖、海、砂漠、沼地、流砂、空、植物、建物、車両、人物のうちの少なくとも1つの要素を含む。
一例では、仮想キャラクターが移動したり回転したりすると、仮想環境画面は、それに従って常に変化する。仮想キャラクターは、仮想環境画面に現れてもよく、現れなくてもよい。
任意的に、HUD領域は、情報を表示するための情報表示要素と、マンマシンインタラクションのための制御機能要素とを含む。一例では、情報表示要素は、友軍情報エリア、スコアボード、デバイス情報エリア及び仮想キャラクタースコアエリアなどの情報を表示するための要素を含む。一例では、制御機能要素は、信号ウィジェット、チャットウィジェット、ゴールドエリア、購入推奨装備、仮想キャラクターのスキルウィジェット、仮想キャラクターの攻撃機能ウィジェット、召喚者スキルウィジェット、回復スキルウィジェット、リコールスキルウィジェット、スキル照準ウィジェットなどのマンマシンインタラクションのための要素を含む。
本願の実施形態では、HUD領域には、照準スキルをリリースするための2次元ウィジェットであるスキル照準ウィジェットが含まれる。即ち、照準スキルをリリースする過程で、ユーザーは、スキル照準を行うためにスキル照準ウィジェットを使用する必要がある。ユーザーは、タッチ操作により、端末画面に表示されるスキル照準ウィジェットをドラッグしてもよい。
一例では、スキル照準ウィジェットは、ホイール照準ウィジェットである。図4に示すように、ホイール照準ウィジェットは、内輪42および外輪44を含む。内輪42は、ドラッグされることが可能であり、外輪は、固定または相対的に固定されている。内輪42が外輪44内でドラッグされる場合に、有効な操作とみなされ、内輪42が外輪44の外部までドラッグされる場合、無効な操作又はキャスト操作のキャンセルとみなされる。
端末は、スマートフォン、ゲーム機、タブレットコンピュータなどのようなタッチスクリーンを備えたデバイスである。
ステップ304:スキル照準ウィジェットでのドラッグ操作を受信する。ドラッグ操作は、スキル照準ウィジェットにある第1操作点及び第2操作点を含み、第1操作点は、ドラッグ操作の操作開始点であり、第2操作点は、ドラッグ操作の現在操作点である。
端末は、スキル照準ウィジェットでのドラッグ操作を受信する。
一例では、スキル照準ウィジェットに対するユーザーのドラッグ操作は、内輪42を短押ししてから所定の方向へドラッグする操作であってもよく、クリック、タップ、スライドなどのスキル照準ウィジェットに一定の変位を与えることが可能な他の操作であってもよい。
本願の実施形態では、上記の操作点とは、ドラッグ操作のタッチポイントがスキル照準ウィジェットにマッピングされたポイントである。
1つの可能な実施形態では、ドラッグ操作のタッチポイントがスキル照準ウィジェットのカバー範囲内にあることに応答して、上記の現在操作点とタッチ操作の現在タッチポイントとが重なる。
1つの可能な実施形態では、ドラッグ操作のタッチポイントがスキル照準ウィジェットのカバー範囲外にあることに応答して、上記の現在操作点は、スキル照準ウィジェットの中心点とタッチ操作の現在タッチポイントの間の連結線と、スキル照準ウィジェットの外輪との交点である。又は、ドラッグ操作のタッチポイントがスキル照準ウィジェットのカバー範囲外にあることに応答して、上記の現在操作点は、ドラッグ操作の開始タッチポイントとタッチ操作の現在タッチポイントの間の連結線と、スキル照準ウィジェットの外輪との交点である。
ステップ306:ドラッグ操作に応答して、仮想環境画面に3次元スキル照準インジケータを表示する。3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とがユーザーインタフェースにおいて平行であり、ドラッグ方向は、第1操作点から第2操作点に指向する方向である。
3次元スキル照準インジケータは、仮想環境画面内の仮想人物のスキルの方向及び距離を示すためのものである。照準スキルによっては、3次元スキル照準インジケータは、一方向の単一矢印照準インジケータであってもよく、一方向の複数矢印照準インジケータであってもよく、扇形照準インジケータであってもよく、円形照準インジケータであってもよく、仮想人物のスキルの方向(及び距離)を示すための他の形状のインジケータであってもよい。
図5に示すように、端末には、ユーザーインタフェース40が表示されている。ユーザーがスキル照準ウィジェットの内輪42をドラッグ操作すると、ユーザーインタフェース40の仮想キャラクターの足元に一方向の単一矢印照準インジケータが表示される。該一方向の単一矢印照準インジケータは、矢印照準線51及び最大キャスト距離52を含む。仮想環境画面では、該矢印照準線51は、スキル照準方向53を有する。HUD領域では、内輪42のドラッグ前の第1操作点とドラッグ後の第2操作点とでドラッグ方向43が形成される。ユーザーインタフェース全体では、スキル照準方向53とドラッグ方向43とが平行である。
図6に示すように、端末には、ユーザーインタフェース40が表示されている。ユーザーがスキル照準ウィジェットの内輪42をドラッグ操作すると、ユーザーインタフェース40の仮想キャラクターの足元に一方向の複数矢印照準インジケータが表示される。該一方向の複数矢印照準インジケータは、3本の矢印照準線54及び最大キャスト距離52を含む。仮想環境画面では、該3本の矢印照準線54は、スキル照準方向53を有する。HUD領域では、内輪42のドラッグ前の第1操作点とドラッグ後の第2操作点とでドラッグ方向43が形成される。ユーザーインタフェース全体では、スキル照準方向53とドラッグ方向43とが平行である。
図7に示すように、端末には、ユーザーインタフェース40が表示されている。ユーザーがスキル照準ウィジェットの内輪42をドラッグ操作すると、ユーザーインタフェース40の仮想キャラクターの足元に扇形照準インジケータが表示される。該扇形照準インジケータは、扇形照準領域55及び最大キャスト距離52を含む。仮想環境画面では、該扇形照準領域55は、スキル照準方向53を有する。HUD領域では、内輪42のドラッグ前の第1操作点とドラッグ後の第2操作点とでドラッグ方向43が形成される。ユーザーインタフェース全体では、スキル照準方向53とドラッグ方向43とが平行である。
図8に示すように、端末には、ユーザーインタフェース40が表示されている。ユーザーがスキル照準ウィジェットの内輪42をドラッグ操作すると、ユーザーインタフェース40の仮想キャラクターの足元に扇形照準インジケータが表示される。該扇形照準インジケータは、円形照準領域56及び最大キャスト距離52を含む。仮想環境画面では、該扇形照準領域56は、スキル照準方向53を有する。HUD領域では、内輪42のドラッグ前の第1操作点とドラッグ後の第2操作点とでドラッグ方向43が形成される。ユーザーインタフェース全体では、スキル照準方向53とドラッグ方向43とが平行である。
なお、上記のスキル照準方向53は、明示的に表示されなくてもよい。スキル照準方向53が表示されていない場合、仮想キャラクターの着地点とスキルリリース後の実際の作用領域の中間点により、スキル照準方向53を決定してもよい。
なお、上記のドラッグ方向43も、明示的に表示されなくてもよい。スキル照準方向53が表示されていない場合、内輪42のドラッグ前の第1操作点及びドラッグ後の第2操作点により、ドラッグ方向43を決定してもよい。
なお、上記では、スキル照準ウィジェットがホイール照準ウィジェットである場合のみを例示して説明したが、本実施形態では、スキル照準機能を実現できれば、スキル照準ウィジェットの形式を限定しない。
上記をまとめると、本実施形態で提供される方法は、ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とを平行にすることにより、ユーザーが観察したスキル照準方向が自分の手の動作と一致するようになり、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
図9には、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートが示されている。該方法は、コンピュータデバイスによって実行されてもよく、該コンピュータデバイスは、端末であってもよく、サーバであってもよく、端末及びサーバからなってもよい。該端末は、上記の図2における端末220であってもよく、該サーバは、上記の図2におけるサーバ240であってもよい。該方法が端末によって実行される場合を例として、該方法は、以下のステップを含む。
ステップ902:アプリケーションのユーザーインタフェースを表示する。ユーザーインタフェースは、仮想環境画面と、スキル照準ウィジェットとを含み、仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面であり、スキル照準ウィジェットは、スキルをリリースするための2次元ウィジェットであり、仮想環境画面の上層に位置するものである。
端末は、アプリケーションのユーザーインタフェースを表示する。ユーザーインタフェースは、仮想環境画面及びHUD領域を含み、スキル照準ウィジェットは、HUD領域における要素である。HUD領域は、仮想環境画面の上層に位置し、3次元仮想環境の変化に伴って変化しない。
スキル照準ウィジェットは、仮想環境画面の上層に位置し、スキルをリリースするための2次元ウィジェットであり、内輪と外輪とで構成される。ユーザーは、内輪をドラッグすることができるが、内輪の中心は、外輪の領域を超えてはならない。また、スキル照準をトリガーするには、ユーザーのドラッグ操作の距離が不感帯の半径よりも大きくならなければならない。ユーザーのドラッグ操作の距離が不感帯の半径よりも小さい場合、照準操作をトリガーできない。
図10に示すように、スキル照準ウィジェット40は、内輪42と外輪44とで構成される。内輪42と内輪との間に不感帯領域00が存在し、不感帯領域00が内輪42よりもやや大きい。1つの可能な実施形態では、ユーザーは、内輪42をドラッグすることができるが、内輪42の中心位置は、外輪44の存在する領域を超えてはならない。別の可能な実施形態では、内輪42の中心位置は、外輪44の存在する領域を超えてもよいが、無効な操作又は操作のキャンセルとみなされる。
ステップ904:スキル照準ウィジェットでのドラッグ操作を受信する。ドラッグ操作は、スキル照準ウィジェットにある第1操作点及び第2操作点を含み、第1操作点は、ドラッグ操作の操作開始点であり、第2操作点は、ドラッグ操作の現在操作点である。
一例では、図10に示すように、ドラッグ操作の操作開始点は、第1操作点01であり、ドラッグ操作の現在操作点は、第2操作点02である。ここで、第1操作点01は、外輪44の中心点である。第2操作点02は、内輪42の中心点である。
ステップ906:ドラッグ操作に応答して、第1操作点から第2操作点に指向する照準ベクトルを決定する。
端末は、ドラッグ操作に応答して、第1操作点から第2操作点に指向する照準ベクトルを決定する。一例では、図10に示すように、第1操作点01から第2操作点02に指向するベクトルは、照準ベクトル03である。
一例では、スキル照準ウィジェットに対するユーザーのドラッグ操作は、内輪42を押したままにしてから所定の方向へドラッグする操作であってもよく、クリック、タップ、スライドなどのユーザーインタフェースのスキル照準ウィジェットに一定の変位を与えることが可能な他の操作であってもよい。第1操作点01は、ドラッグ操作が最初にユーザーインタフェースに触れた位置であり、第2操作点02は、ドラッグ操作の現時点での位置である。端末は、第1操作点01から第2操作点02に指向する照準ベクトルを決定する。
ステップ908:ユーザーインタフェース上の中心を第1基準点とし、第1基準点の照準ベクトルとの加算後に指向する第2基準点を算出する。
端末は、ユーザーインタフェースの中心を第1基準点とし、第1基準点の照準ベクトルとの加算後に指向する第2基準点を算出する。図11に示すように、端末は、ユーザーインタフェースの中心点04を第1基準点とし、第1基準点04の照準ベクトル03との加算後に指向する第2基準点05を算出する。
一例では、スキル照準ウィジェットに対するユーザーのドラッグ操作は、内輪を長押ししてから所定の方向へドラッグする操作であってもよく、クリック、タップ、スライドなどのユーザーインタフェースのスキル照準ウィジェットに一定の変位を与えることが可能な他の操作であってもよい。第1操作点は、ドラッグ操作が最初にユーザーインタフェースに触れた位置である。端末は、第1基準点の照準ベクトルとの加算後に指向する第2基準点を算出する。
ステップ910:第1基準点を逆転行列により3次元仮想環境内の第3基準点に変換し、第2基準点を逆転行列により3次元仮想環境内の第4基準点に変換する。
端末は、第1基準点を逆転行列により3次元仮想環境内の第3基準点に変換し、第2基準点を逆転行列により3次元仮想環境内の第4基準点に変換する。
逆転行列は、座標系の変換を実現するための変換行列である。本実施形態では、逆転行列は、仮想環境画面の位置する2次元座標系(例えば仮想カメラのイメージング平面)上の点を、3次元仮想世界の位置する3次元座標系における仮想キャラクターのキャスト平面(例えば3次元仮想環境内の地面)上の点に変換するためのものである。式は次のとおりである。
Figure 2024054207000002

Figure 2024054207000003
は、仮想カメラのカメラ内部パラメータであり、
Figure 2024054207000004
は、仮想カメラのカメラ外部パラメータであり、(u,v)は、2次元座標系における点であり、(X,Y,Z)は、3次元座標系における点である。
一例では、図12に示すように、端末は、第1基準点04を逆転行列により3次元仮想環境内の第3基準点07に変換し、第2基準点05を逆転行列により3次元仮想環境内の第4基準点08に変換する。
任意的に、第1基準点と第2基準点は、仮想環境画面上の点であり、第3基準点と第4基準点は、3次元仮想環境内のキャスト平面(例えば地面)上の点である。
ステップ912:第3基準点から第4基準点に指向するベクトルを、3次元スキル照準インジケータの3次元仮想環境におけるスキル照準ベクトルとして決定する。
端末は、第3基準点から第4基準点に指向するベクトルを、3次元スキル照準インジケータの3次元仮想環境におけるスキル照準ベクトルとして決定する。スキル照準ベクトルは、スキルの照準方向を示すためのものである。任意的に、スキル照準ベクトルは、スキルのリリース距離ではなく、照準方向のみを示すためのものである。
一例では、図12に示すように、第3基準点07から第4基準点08に指向するベクトルは、3次元スキル照準インジケータの3次元仮想環境におけるスキル照準ベクトル09である。該ベクトルは、照準方向のみを示すためのものである。
ステップ914:スキル照準ベクトルにより3次元スキル照準インジケータを表示する。3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とがユーザーインタフェースにおいて平行であり、ドラッグ方向は、第1操作点から第2操作点に指向する方向である。
端末は、スキル照準ベクトルにより3次元スキル照準インジケータを表示する。スキル照準インジケータは、ホイール照準インジケータであってもよく、一方向の単一矢印照準インジケータであってもよく、扇形照準インジケータであってもよく、一方向の複数矢印照準インジケータであってもよい。
図13に示すように、3次元スキル照準インジケータ56は、照準ベクトル03により表示され、3次元スキル照準インジケータの方向53は、明示的に表示されない。スキル照準インジケータの方向53とドラッグ操作のドラッグ方向03とがユーザーインタフェース40において平行である。
ステップ916:受信したリリース操作に応答して、目標位置に対してスキルをリリースする。
一例では、リリース操作は、ユーザーの指が内輪42から離れる操作である。受信したリリース操作に応答して、端末は、照準ベクトルが指向する目標位置に対してスキルをリリースする。
一例では、仮想キャラクターは、攻撃型メイジであり、3次元スキル照準インジケータは、ホイール照準インジケータである。端末は、該ホイール照準インジケータに応答して、目標位置に対して火炎爆弾を投げ出す。一例では、仮想キャラクターは、攻撃型メイジであり、3次元スキル照準インジケータは、一方向の単一矢印照準インジケータである。端末は、該ホイール照準インジケータに応答して、目標位置に対して扇子を投げ出し、扇子が他の陣営の仮想キャラクターに当たると、他の陣営の仮想キャラクターに一定のダメージを与えることが可能である。ダメージは、マナポイントの低下、ヘルスポイントの低下、攻撃力の低下、防御力の降低であってもよい。
一例では、仮想キャラクターは、防御型サポーターであり、3次元スキル照準インジケータは、ホイール照準インジケータである。端末は、該一方向の単一矢印照準インジケータに応答して、目標位置に対してリングを投げ出す。このリングは、同じ陣営の仮想キャラクターを泉まで戻すことができ、同じ陣営の仮想キャラクターをこのリングの位置まで召喚することもできる。一例では、仮想キャラクターは、防御型サポーターであり、3次元スキル照準インジケータは、一方向の単一矢印照準インジケータである。端末は、該一方向の単一矢印照準インジケータに応答して、目標位置に対してボールを投げ出し、このボールは、他の陣営の仮想キャラクターを弾き出すことができる。
一例では、仮想キャラクターは、スピード型アサシンであり、3次元スキル照準インジケータは、一方向の単一矢印照準インジケータであってもよい。端末は、該一方向の単一矢印照準インジケータに応答して、仮想キャラクターを目標位置へ移動させるように制御する。一例では、仮想キャラクターは、移動中に他の仮想キャラクターに触れれば、ヘルスポイントを上げることができる。一例では、仮想キャラクターは、移動中に他の仮想キャラクターに触れれば、他の仮想キャラクターに減速効果を与えることができる。
1つの可能な実施形態では、ユーザーのドラッグ操作の終了時の第2操作点がユーザーインタフェースにおけるある固定領域にある場合、端末は、スキルリリースをキャンセルする。該固定領域は、スキルキャンセル領域と呼ばれる。同様に、ユーザーのドラッグ操作の第2操作点がスキルキャンセル領域にない場合、端末は、該スキルをリリースする。
上記をまとめると、本実施形態で提供される方法は、第1基準点、第2基準点、並びに逆転行列により得られる仮想環境内の第3基準点及び第4基準点を決定することによって、第3基準点から第4基準点に指向するベクトルを、3次元スキル照準インジケータの仮想環境におけるスキル方向として決定する。最終的に、マッピングにより仮想環境画面に表示された3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とを平行にする。したがって、本願によれば、スキル照準の精度が向上し、マンマシンインタラクションの効率もある程度向上した。
上記の実施形態では、仮想環境画面内の3次元スキル照準ウィジェットの照準方向とドラッグ操作のドラッグ方向とが平行であることが説明されたが、3次元スキル照準インジケータは、仮想キャラクターがスキルをリリースする方向だけでなく、仮想キャラクターのキャスト距離も示す。キャスト距離は、アプリケーションが仮想キャラクター又はスキルの違いによって決定する固定値であってもよい。また、キャスト距離は、ユーザーのドラッグ操作の第1操作点から第2操作点までの距離によりランダムに決定されるものであってもよい。
即ち、スキル照準ウィジェットは、最大照準距離を有し、第1操作点と第2操作点の間の第1距離と、最大照準距離との比は、第1比率である。スキルは、3次元仮想環境において最大スキル距離を有し、3次元スキル照準インジケータは、3次元仮想環境にある第1照準点及び第2照準点を含み、第1照準点は、スキル照準時の開始点であり、第2照準点は、スキル照準時の目標点であり、第1照準点と第2照準点の間の第2距離と、最大スキル距離との比は、第2比率である。ここで、第1比率と第2比率とが同じである。
図14には、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートが示されている。該方法は、コンピュータデバイスによって実行されてもよく、該コンピュータデバイスは、端末であってもよく、サーバであってもよく、端末及びサーバからなってもよい。該端末は、上記の図2における端末220であってもよく、該サーバは、上記の図2におけるサーバ240であってもよい。該方法では、仮想キャラクターのキャスト距離は、ユーザーのドラッグ操作の第1操作点から第2操作点までの距離により決定される。該方法が端末によって実行される場合を例として、該方法は、以下のステップを含む。
ステップ1402:アプリケーションのユーザーインタフェースを表示する。ユーザーインタフェースは、仮想環境画面と、スキル照準ウィジェットとを含み、仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面であり、スキル照準ウィジェットは、スキルをリリースするための2次元ウィジェットであり、仮想環境画面の上層に位置するものである。
ステップ1404:スキル照準ウィジェットでのドラッグ操作を受信する。ドラッグ操作は、スキル照準ウィジェットにある第1操作点及び第2操作点を含み、第1操作点は、ドラッグ操作の操作開始点であり、第2操作点は、ドラッグ操作の現在操作点である。
ステップ1406:仮想キャラクターの3次元仮想環境における位置点を第1照準点として決定する。
端末は、仮想キャラクターの3次元仮想環境における位置点を第1照準点として決定する。
一例では、仮想キャラクターが攻撃型メイジである場合、第1照準点は、該攻撃型メイジの位置である。一例では、仮想キャラクターが防御型サポーターである場合、第1照準点は、該防御型サポーターの位置である。
ステップ1408:スキル照準ウィジェットの最大照準距離を取得し、第1操作点と第2操作点の間の第1距離と、最大照準距離との第1比率を算出する。
端末は、スキル照準ウィジェットの最大照準距離を取得し、第1操作点と第2操作点の間の第1距離と、最大照準距離との第1比率を算出する。
一例では、図13に示すように、式は次のとおりである。
|B-A|/AimRadius=|F-H|/SillRange
|B-A|/AimRadiusは、第1操作点と第2操作点の間の第1距離79と、最大照準距離78との第1比率である。第3基準点07と第4基準点08の間の第2距離77と、最大スキル距離80との第2比率は、上記の第2比率と同じである。SillRangeは、最大スキル距離80である。H点は、仮想キャラクターの位置である。下記の式により、スキルの終着点を求めることができる。式は、以下の通りである。
AimPoint=H+Normalize(D-D)*(|B-A|/AimRadius)*SillRange
ここで、AimPointは、F点の位置98であり、Dは、第1基準点の逆転行列による変換後の3次元仮想環境内の第3基準点の位置07であり、Dは、第2基準点の逆転行列による変換後の3次元仮想環境内の第4基準点の位置08であり、Normalize(D-D)は、第3基準点07から第4基準点08に指向する単位ベクトルである。ここで、最大照準距離は、スキル照準ウィジェットの外輪の半径である。
ステップ1410:スキルの3次元仮想環境における最大スキル距離を取得し、第1比率と最大スキル距離との乗積をキャスト距離として算出する。
端末は、スキルの3次元仮想環境における最大スキル距離を取得し、第1比率と最大スキル距離との乗積をキャスト距離として算出する。
最大スキル距離は、仮想キャラクターが3次元仮想環境内でスキルをリリース可能な最大半径である。キャスト距離は、仮想キャラクターの位置から仮想キャラクターがスキルをリリースする位置までの距離である。
一例では、図13に示すように、仮想キャラクターの位置07から仮想キャラクターがスキルをリリースする位置98までの距離はキャスト距離99である。キャスト距離99は第1比率と最大スキル距離80との乗積である。
一例では、キャスト距離は、固定値であってもよい。例えば、固定長さの火炎を放つことをその召喚者スキルの1つとして持つ攻撃型メイジの場合、ユーザーは、火炎の方向を制御できるが、火炎の作用距離、即ちキャスト距離を制御できない。また、例えば、固定距離の位置に向かってシールドを置くことをその召喚者スキルの1つとして持つ防御型サポーターの場合、該シールドは、他の陣営の仮想キャラクターからの攻撃を防御するために用いることができる。この場合、ユーザーは、シールドの方向を制御できるが、シールドの位置から仮想人物の位置までの距離を制御できない。
一例では、キャスト距離は、第1比率と最大スキル距離との乗積である。例えば、特定の場所をフリーズさせることをその召喚者スキルの1つとして持つ攻撃型メイジの場合、ユーザーは、ドラッグ操作によりスキル照準ウィジェットをドラッグし、該攻撃型メイジを3次元スキル照準ウィジェットのスキル照準方向に向けて、第1比率と最大照準距離との乗積をキャスト距離とし、フリーズの位置を決定してもよい。
ステップ1412:照準ベクトルが指向する方向で、第1照準点とキャスト距離とを加算し、3次元スキル照準インジケータのスキル照準時の第2照準点を得る。
端末は、照準ベクトルが指向する方向で、第1照準点とキャスト距離とを加算し、3次元スキル照準インジケータのスキル照準時の第2照準点を得る。
一例では、キャスト距離が固定値である場合、仮想キャラクターは、照準ベクトルの方向における固定距離の位置に向かってキャストする。
一例では、キャスト距離が第1比率と最大照準ウィジェットとの乗積である場合、仮想キャラクターは、照準ベクトルの方向における一定のキャスト距離の位置に向かってキャストする。
ステップ1414:スキル照準ベクトルにより3次元スキル照準インジケータを表示する。3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とがユーザーインタフェースにおいて平行であり、ドラッグ方向は、第1操作点から第2操作点に指向する方向である。
ステップ1416:受信したリリース操作に応答して、目標位置に対してスキルをリリースする。
上記をまとめると、本実施形態で提供される方法は、ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とを平行にすることにより、ユーザーが観察したスキル照準方向が自分の手の動作と一致するようになり、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
本実施形態で提供される方法は、第1操作点と第2操作点の間の第1距離と、最大照準距離との第1比率を算出することにより、第1比率と最大照準距離との乗積をキャスト距離として算出する。これにより、仮想キャラクターのキャスト距離は、ユーザーのドラッグ操作の第1操作点から第2操作点までの距離により決定されるため、マンマシンインタラクションの効率を向上させた。
図15には、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートが示されている。該方法は、コンピュータデバイスによって実行されてもよく、該コンピュータデバイスは、端末であってもよく、サーバであってもよく、端末及びサーバからなってもよい。該端末は、上記の図2における端末220であってもよく、該サーバは、上記の図2におけるサーバ240であってもよい。該方法が端末によって実行される場合を例として、該方法は、以下のステップを含む。
ステップ1502:アプリケーションのユーザーインタフェースを表示する。ユーザーインタフェースは、仮想環境画面と、スキル照準ウィジェットとを含み、仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面であり、スキル照準ウィジェットは、スキルをリリースするための2次元ウィジェットであり、仮想環境画面の上層に位置するものである。
端末は、アプリケーションのユーザーインタフェースを表示する。
ステップ1504:スキル照準ウィジェットでのドラッグ操作を受信する。ドラッグ操作は、スキル照準ウィジェットにある第1操作点及び第2操作点を含み、第1操作点は、ドラッグ操作の操作開始点であり、第2操作点は、ドラッグ操作の現在操作点である。
端末は、スキル照準ウィジェットでのドラッグ操作を受信する。
ステップ1506:第1操作点と第2操作点の間の距離が不感帯の閾値よりも大きいことに応答して、仮想環境画面に3次元スキル照準インジケータを表示する。3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とがユーザーインタフェースにおいて平行であり、ドラッグ方向は、第1操作点から第2操作点に指向する方向である。
端末は、第1操作点と第2操作点の間の距離が不感帯の閾値よりも大きいことに応答して、仮想環境画面に3次元スキル照準インジケータを表示する。
一例としては、図10に示すように、ユーザーがドラッグ操作を実行する際に、ドラッグ操作に基づいて生成された第1操作点01と第2操作点02の間の距離が不感帯の閾値00よりも大きい場合にしか、仮想環境画面に3次元スキル照準インジケータが表示されない。
一例では、不感帯の閾値は、アプリケーションが設定した固定値であってもよく、異なる仮想キャラクターの異なるスキルにより生成される異なる値であってもよい。
一例では、ユーザーがドラッグ操作を実行する際に、第1操作点と第2操作点の間の距離が不感帯の閾値よりも小さい場合、3次元仮想環境に3次元スキル照準インジケータが表示されない。
ステップ1508:受信したリリース操作に応答して、目標位置に対してスキルをリリースする。
上記をまとめると、本実施形態で提供される方法は、ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とを平行にすることにより、ユーザーが観察したスキル照準方向が自分の手の動作と一致するようになり、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
本実施形態で提供される方法は、不感帯領域を設けることで、ユーザーのドラッグ操作の第1操作点から第2操作点までの距離が不感帯の閾値よりも大きくなければ、3次元スキル照準インジケータをトリガーできないようにした。これにより、ユーザーが誤ってスキル照準ウィジェットに触れるか、又は突然スキルのリリースをキャンセルしたくなるなどの場合に、第2操作点の位置を調整することにより、3次元スキル照準インジケータが現れることを回避し、仮想キャラクターのスキルリリースを回避する目的を達成する。無駄なスキルリリースを減らしたため、マンマシンインタラクションの効率をある程度向上させた。
図16には、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のブロック図が示されている。前記方法は、以下のステップをさらに含む。
ステップ802:ユーザーは、スキル照準ウィジェットをドラッグ操作する。
ステップ804:ドラッグ操作が不感帯の閾値を超えたか否かを判断する。
ドラッグ操作が不感帯の閾値を超えていない場合、ステップ806を実行する。
ドラッグ操作が不感帯の閾値を超えた場合、ステップ808を実行する。
ステップ806:3次元スキル照準インジケータのトリガーをキャンセルする。
ステップ808:ドラッグ操作のドラッグ方向を逆転行列により3次元仮想環境内にマッピングする。
ステップ810:ユーザーインタフェースに3次元スキル照準インジケータのスキル照準方向を表示する。
上記の実施形態では、端末がタッチスクリーン付きのデバイスであることを例として説明した。本明細書では、以下の実施形態において物理照準部材が接続された端末のスキル照準方法を説明する。一例では、物理照準部材は、物理的ボタン又はジョイスティックを含む。一例では、物理照準部材は、体感を利用するものであり、具体的には、加速センサを備えるゲームパッドであってもよく、ゲームパッドは、ユーザーがゲームパッドを握った後の移動軌跡を捉えることが可能である。物理照準部材は、空間感知機能を有し、ユーザーが肢体を振ることによる照準操作を認識可能な1つ又は複数のデプスカメラであってもよい。
図17には、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準方法のフローチャートが示されている。
ステップ1702:3人称の俯角で3次元仮想環境を観察する画面である仮想環境画面を含むアプリケーションのユーザーインタフェースを表示する。
ステップ1704:物理照準部材による照準操作を受信する。照準操作は、物理照準部材でトリガーされた第1操作位置及び第2操作位置を含み、第1操作位置は、照準操作の操作開始位置であり、第2操作位置は、照準操作の現在操作位置である。
一例では、端末には、物理照準部材が接続されており、物理照準部材は、物理的ボタン又はジョイスティックを含む。第1操作位置は、ユーザーがボタンを押す又はジョイスティックを操縦する操作開始位置である。第2操作位置は、ユーザーがボタンを押した後に留まった位置、又は、ジョイスティックを操縦した後にジョイスティックが留まった位置である。
一例では、端末には、物理照準部材が接続されており、物理照準部材は、加速センサを取り付けたゲームパッドであり、加速センサは、ユーザーがゲームパッドを握った後の手の軌跡を捉えることができる。第1操作位置は、ユーザーが最初に静止している時にゲームパッドを握った位置であり、第2操作位置は、ユーザーがゲームパッドを移動させた後に現時点で留まった位置である。
一例では、端末には、物理照準部材が接続されており、物理照準部材は、空間感知機能を有する1つ又は複数のカメラである。第1操作位置は、カメラで捉えたユーザーの手が最初に静止している時の操作位置であり、第2操作位置は、ユーザーの手の移動後にカメラで捉えたユーザーの手が現時点で留まった位置である。
一例では、物理照準部材は、ユニバーサルシリアルバス(Universal Serial Bus、USB)インタフェース、又はブルートゥース(登録商標)を介して端末に接続される。端末は、デスクトップコンピュータ等であってもよい。
ステップ1706:照準操作に応答して、仮想環境画面に3次元スキル照準インジケータを表示する。3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とがユーザーインタフェースにおいて平行であり、照準方向は、第1操作位置から第2操作位置に指向する方向である。
一例では、端末には、物理照準部材が接続されており、物理照準部材は、物理的ボタン又はジョイスティックを含む。第1操作位置は、ユーザーがボタンを押す又はジョイスティックを操縦する操作開始位置である。第2操作位置は、ユーザーがボタンを押した後に留まった位置、又は、ジョイスティックを操縦した後にジョイスティックが留まった位置である。一例では、照準方向は、ユーザーがボタンを押す操作開始位置からユーザーがボタンを押した後に留まった位置に指向する方向であり、3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とがユーザーインタフェースにおいて平行である。一例では、照準方向は、ユーザーがジョイスティックを操縦する操作開始位置からジョイスティックを操縦した後にジョイスティックが留まった位置に指向する方向であり、3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とがユーザーインタフェースにおいて平行である。
一例では、端末には、物理照準部材が接続されており、物理照準部材は、加速センサを取り付けたゲームパッドであり、加速センサは、ユーザーがゲームパッドを握った後の手の軌跡を捉えることができる。第1操作位置は、ユーザーが最初に静止している時にゲームパッドを握った位置であり、第2操作位置は、ユーザーがゲームパッドを移動させた後に現時点で留まった位置である。照準方向は、ユーザーが最初に静止している時にゲームパッドを握った位置からユーザーがゲームパッドを移動させた後に現時点で留まった位置に指向する方向であり、3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とがユーザーインタフェースにおいて平行である。
一例では、端末には、物理照準部材が接続されており、物理照準部材は、空間感知機能を有する1つ又は複数のカメラである。第1操作位置は、カメラで捉えたユーザーの手が最初に静止している時の操作位置であり、第2操作位置は、ユーザーの手の移動後にカメラで捉えたユーザーの手が現時点で留まった位置である。照準方向は、カメラで捉えたユーザーの手が最初に静止している時の操作位置からユーザーの手の移動後にカメラで捉えたユーザーの手が現時点で留まった位置に指向する方向であり、3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とがユーザーインタフェースにおいて平行である。
本実施形態では、ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とを平行にすることにより、ユーザーが観察したスキル照準方向が自分の手又は肢体の動作と一致し、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
なお、本実施形態に述べた第1操作位置は、上記の実施形態に記載された第1操作点に相当し、第2操作位置は、上記の実施形態に記載された第2操作点に相当し、照準操作は、上記の実施形態に記載されたドラッグ操作に相当する。本実施形態に関連するスキル照準原理は、上記の実施形態と同様であり、当業者は上記の実施形態を参照して本実施形態を理解できるため、本明細書では、繰り返して説明しない。
図18は、本願の1つの例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図である。該装置は、コンピュータデバイスに適用可能である。該装置は、表示モジュール1310と受信モジュール1320とを含む。
表示モジュール1310は、アプリケーションのユーザーインタフェースを表示するものである。前記ユーザーインタフェースは3人称の俯角で3次元仮想環境を観察する画面である仮想環境画面と、スキル照準ウィジェットとを含む。前記スキル照準ウィジェットはスキルをリリースするための2次元ウィジェットであり、前記仮想環境画面の上層に位置する。
受信モジュール1320は、前記スキル照準ウィジェットでのドラッグ操作を受信するものである。前記ドラッグ操作が、前記スキル照準ウィジェットにある第1操作点及び第2操作点を含み、前記第1操作点が前記ドラッグ操作の操作開始点であり、前記第2操作点が前記ドラッグ操作の現在操作点である。
前記表示モジュール1310は、前記ドラッグ操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するためのものでもあり、前記3次元スキル照準インジケータのスキル照準方向と前記ドラッグ操作のドラッグ方向とが前記ユーザーインタフェースにおいて平行であり、前記ドラッグ方向が前記第1操作点から前記第2操作点に指向する方向である。
上記をまとめると、本実施形態で提供される装置は、ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とを平行にすることにより、ユーザーが観察したスキル照準方向が自分の手の動作と一致するようになり、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
図19は、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図である。該装置は、コンピュータデバイスに適用可能である。該装置は、表示モジュール1310と受信モジュール1320とを含む。
表示モジュール1310はアプリケーションのユーザーインタフェースを表示するものである。前記ユーザーインタフェースは3人称の俯角で3次元仮想環境を観察する画面である仮想環境画面とスキル照準ウィジェットとを含み、スキル照準ウィジェットはスキルをリリースするための2次元ウィジェットであり、前記仮想環境画面の上層に位置する。
受信モジュール1320は、前記スキル照準ウィジェットでのドラッグ操作を受信するものである。前記ドラッグ操作が、前記スキル照準ウィジェットにある第1操作点及び第2操作点を含み、前記第1操作点が前記ドラッグ操作の操作開始点であり、前記第2操作点が前記ドラッグ操作の現在操作点である。
前記表示モジュール1310は、前記ドラッグ操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するためのものでもあり、前記3次元スキル照準インジケータのスキル照準方向と前記ドラッグ操作のドラッグ方向とが前記ユーザーインタフェースにおいて平行であり、前記ドラッグ方向が前記第1操作点から前記第2操作点に指向する方向である。
1つの任意の実施形態では、前記表示モジュールは、決定サブモジュール1312及び表示サブモジュール1314を含む。
前記決定サブモジュール1312は、前記ドラッグ操作に応答して、前記第1操作点から前記第2操作点に指向する照準ベクトルにより、前記3次元スキル照準インジケータの前記3次元仮想環境におけるスキル照準ベクトルを決定するためのものである。
前記表示サブモジュール1314は、前記スキル照準ベクトルにより前記3次元スキル照準インジケータを表示するためのものでもある。
上記をまとめると、本実施形態で提供される装置は、ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とを平行にし、ドラッグ操作のドラッグ方向を第1操作点から第2操作点に指向する方向にすることにより、ユーザーが観察したスキル照準方向が自分の手の動作と一致するようになり、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
図20は、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図である。該装置は、コンピュータデバイスに適用可能である。該装置は、表示モジュール1310と受信モジュール1320とを含む。
表示モジュール1310はアプリケーションのユーザーインタフェースを表示するものであり、前記ユーザーインタフェースは、3人称の俯角で3次元仮想環境を観察する画面である仮想環境画面とスキル照準ウィジェットとを含み、前記スキル照準ウィジェットはスキルをリリースするための2次元ウィジェットであり、前記仮想環境画面の上層に位置する。
受信モジュール1320は前記スキル照準ウィジェットでのドラッグ操作を受信するものである。前記ドラッグ操作が、前記スキル照準ウィジェットにある第1操作点及び第2操作点を含み、前記第1操作点が前記ドラッグ操作の操作開始点であり、前記第2操作点が前記ドラッグ操作の現在操作点である。
前記表示モジュール1310は、前記ドラッグ操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するためのものでもあり、前記3次元スキル照準インジケータのスキル照準方向と前記ドラッグ操作のドラッグ方向とが前記ユーザーインタフェースにおいて平行であり、前記ドラッグ方向が前記第1操作点から前記第2操作点に指向する方向である。
1つの任意の実施形態では、前記表示モジュール1310は、決定サブモジュール1312及び表示サブモジュール1314を含む。
前記決定サブモジュール1312は、前記ドラッグ操作に応答して、前記第1操作点から前記第2操作点に指向する照準ベクトルにより、前記3次元スキル照準インジケータの前記3次元仮想環境におけるスキル照準ベクトルを決定するためのものである。
前記表示サブモジュール1314は、前記スキル照準ベクトルにより前記3次元スキル照準インジケータを表示するためのものでもある。
1つの任意の実施形態では、前記決定サブモジュール1312は、
前記第1操作点から前記第2操作点に指向する照準ベクトルを決定するための決定サブユニット1312-aと、
前記ユーザーインタフェース上の中心点を第1基準点とし、前記第1基準点の前記照準ベクトルとの加算後に指向する第2基準点を算出するための計算サブユニット1312-bと、
前記第1基準点を逆転行列により前記3次元仮想環境内の第3基準点に変換し、前記第2基準点を前記逆転行列により前記3次元仮想環境内の第4基準点に変換するための変換サブユニット1312-cと、を含み、
前記決定サブユニット1312-aは、前記第3基準点から前記第4基準点に指向するベクトルを、前記3次元スキル照準インジケータの前記3次元仮想環境におけるスキル照準ベクトルとして決定するためのものでもある。
1つの任意の実施形態では、前記スキル照準ウィジェットは、最大照準距離を有し、前記第1操作点と前記第2操作点の間の第1距離と、前記最大照準距離との比は、第1比率である。
前記スキルは、前記3次元仮想環境において最大スキル距離を有し、前記3次元スキル照準インジケータは、前記3次元仮想環境にある第1照準点及び第2照準点を含み、前記第1照準点は、スキル照準時の開始点であり、前記第2照準点は、スキル照準時の目標点であり、前記第1照準点と第2照準点の間の第2距離と、前記最大スキル距離との比は、第2比率である。
前記第1比率と前記第2比率とが同じである。
1つの任意の実施形態では、前記表示サブモジュール1314は、前記仮想キャラクターの前記3次元仮想環境における位置点を、前記第1照準点として決定し、前記第1照準点及び前記スキル照準ベクトルにより前記3次元スキル照準インジケータのスキル照準時の前記第2照準点を決定し、前記第1照準点及び前記第2照準点により前記3次元スキル照準インジケータを表示するためのものでもある。
1つの任意の実施形態では、前記表示サブモジュール1314は、前記スキル照準ウィジェットの最大照準距離を取得し、前記第1操作点と前記第2操作点の間の第1距離と、前記最大照準距離との前記第1比率を算出するためのものでもある。
前記表示サブモジュール1314は、前記スキルの前記3次元仮想環境における最大スキル距離を取得し、前記第1比率と前記最大照準距離との乗積をキャスト距離として算出するためのものでもある。
前記表示サブモジュール1314は、前記照準ベクトルが指向する方向で、前記第1照準点と前記キャスト距離とを加算し、前記3次元スキル照準インジケータのスキル照準時の第2照準点を得るためのものでもある。
1つの任意の実施形態では、前記表示モジュール1310は、前記第1操作点と前記第2操作点の間の距離が不感帯の閾値よりも大きいことに応答して、前記仮想環境画面に前記3次元スキル照準インジケータを表示するためのものでもある。
上記をまとめると、本実施形態で提供される装置は、第1基準点、第2基準点、並びに逆転行列により得られた仮想環境内の第3基準点及び第4基準点を決定することによって、第3基準点から第4基準点に指向するベクトルを、3次元スキル照準インジケータの仮想環境におけるスキル方向として決定する。最終的に、マッピングにより仮想環境画面に表示された3次元スキル照準インジケータのスキル照準方向とドラッグ操作のドラッグ方向とを平行にする。第1操作点と第2操作点の間の第1距離と、最大照準距離との第1比率を算出し、第1比率と最大照準距離との乗積をキャスト距離として算出することにより、仮想キャラクターのキャスト距離はユーザーのドラッグ操作の第1操作点から第2操作点までの距離により決定されるため、マンマシンインタラクションの効率を向上させた。
図18を参照し、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図を示す。該装置には、物理照準部材が接続されており、該装置は、コンピュータデバイスに適用可能である。該装置は表示モジュール1310と受信モジュール1320と、を含む。
表示モジュール1310は、アプリケーションのユーザーインタフェースを表示するものである。前記ユーザーインタフェースは、3人称の俯角で3次元仮想環境を観察する画面である仮想環境画面を含む。
受信モジュール1320は、物理照準部材による照準操作を受信するものである。前記照準操作が、前記物理照準部材にある第1操作位置及び第2操作位置を含み、前記第1操作位置が前記照準操作の操作開始位置であり、前記第2操作位置が前記照準操作の現在操作位置である。
前記表示モジュール1310は、前記照準操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するためのものでもあり、前記3次元スキル照準インジケータのスキル照準方向と前記照準操作の照準方向とが前記ユーザーインタフェースにおいて平行であり、前記照準方向が前記第1操作位置から前記第2操作位置に指向する方向である。
上記をまとめると、本実施形態で提供される装置は、ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とを平行にすることにより、ユーザーが観察したスキル照準方向が自分の手又は肢体の動作と一致し、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
図19を参照し、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図を示す。該装置には、物理照準部材が接続されており、該装置は、コンピュータデバイスに適用可能である。該装置は表示モジュール1310と受信モジュール1320とを含む。
表示モジュール1310は、アプリケーションのユーザーインタフェースを表示するものである。前記ユーザーインタフェースは3人称の俯角で3次元仮想環境を観察する画面である仮想環境画面を含む。
受信モジュール1320は、物理照準部材による照準操作を受信するものである。前記照準操作が、前記物理照準部材にある第1操作位置及び第2操作位置を含み、前記第1操作位置が前記照準操作の操作開始位置であり、前記第2操作位置が前記照準操作の現在操作位置である。
前記表示モジュール1310は、前記照準操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するためのものでもあり、前記3次元スキル照準インジケータのスキル照準方向と前記照準操作の照準方向とが前記ユーザーインタフェースにおいて平行であり、前記照準方向が前記第1操作位置から前記第2操作位置に指向する方向である。
1つの任意の実施形態では、前記表示モジュールは、決定サブモジュール1312及び表示サブモジュール1314を含む。
前記決定サブモジュール1312は、前記照準操作に応答して、前記第1操作位置から前記第2操作位置に指向する照準ベクトルにより、前記3次元スキル照準インジケータの前記3次元仮想環境におけるスキル照準ベクトルを決定するためのものである。
前記表示サブモジュール1314は、前記スキル照準ベクトルにより前記3次元スキル照準インジケータを表示するためのものでもある。
上記をまとめると、本実施形態で提供される装置は、ユーザーインタフェースにおける3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とを平行にし、照準操作の照準方向を第1操作位置から第2操作位置に指向する方向にすることにより、ユーザーが観察したスキル照準方向が自分の手又は肢体の動作と一致し、スキル照準の精度を向上させることができる。無駄な補正操作を減らしたため、マンマシンインタラクションの効率もある程度向上した。
図20を参照し、本願の別の例示的な実施形態で提供される3次元仮想環境におけるスキル照準装置の模式図を示す。該装置には、物理照準部材が接続されており、該装置は、コンピュータデバイスに適用可能である。該装置は、表示モジュール1310と受信モジュール1320とを含む。
表示モジュール1310は、アプリケーションのユーザーインタフェースを表示するものである。前記ユーザーインタフェースは、3人称の俯角で3次元仮想環境を観察する画面である仮想環境画面を含む。
受信モジュール1320は、物理照準部材による照準操作を受信するものである。前記照準操作が、前記物理照準部材にある第1操作位置及び第2操作位置を含み、前記第1操作位置が前記照準操作の操作開始位置であり、前記第2操作位置が前記照準操作の現在操作位置である。
前記表示モジュール1310は、前記照準操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するためのものでもあり、前記3次元スキル照準インジケータのスキル照準方向と前記照準操作の照準方向とが前記ユーザーインタフェースにおいて平行であり、前記照準方向が前記第1操作位置から前記第2操作位置に指向する方向である。
1つの任意の実施形態では、前記表示モジュール1310は、決定サブモジュール1312及び表示サブモジュール1314を含む。
前記決定サブモジュール1312は、前記照準操作に応答して、前記第1操作位置から前記第2操作位置に指向する照準ベクトルにより、前記3次元スキル照準インジケータの前記3次元仮想環境におけるスキル照準ベクトルを決定するためのものである。
前記表示サブモジュール1314は、前記スキル照準ベクトルにより前記3次元スキル照準インジケータを表示するためのものでもある。
1つの任意の実施形態では、前記決定サブモジュール1312は、
前記第1操作位置から前記第2操作位置に指向する照準ベクトルを決定するための決定サブユニット1312-aと、
前記ユーザーインタフェース上の中心点を第1基準位置とし、前記第1基準位置の前記照準ベクトルとの加算後に指向する第2基準位置を算出するための計算サブユニット1312-bと、
前記第1基準位置を逆転行列により前記3次元仮想環境内の第3基準位置に変換し、前記第2基準位置を前記逆転行列により前記3次元仮想環境内の第4基準位置に変換するための変換サブユニット1312-cと、を含む。
前記決定サブユニット1312-aは、前記第3基準位置から前記第4基準位置に指向するベクトルを、前記3次元スキル照準インジケータの前記3次元仮想環境におけるスキル照準ベクトルとして決定するためのものでもある。
1つの任意の実施形態では、前記スキル照準ウィジェットは、最大照準距離を有し、前記第1操作位置と前記第2操作位置の間の第1距離と、前記最大照準距離との比は、第1比率である。
前記スキルは、前記3次元仮想環境において最大スキル距離を有し、前記3次元スキル照準インジケータは、前記3次元仮想環境にある第1照準位置及び第2照準位置を含み、前記第1照準位置は、スキル照準時の開始位置であり、前記第2照準位置は、スキル照準時の目標位置であり、前記第1照準位置と第2照準位置の間の第2距離と、前記最大スキル距離との比は、第2比率である。
前記第1比率と前記第2比率とが同じである。
1つの任意の実施形態では、前記表示サブモジュール1314は、前記仮想キャラクターの前記3次元仮想環境における位置点を、前記第1照準位置として決定し、前記第1照準位置及び前記スキル照準ベクトルにより、前記3次元スキル照準インジケータのスキル照準時の前記第2照準位置を決定し、前記第1照準位置及び前記第2照準位置により前記3次元スキル照準インジケータを表示するためのものでもある。
1つの任意の実施形態では、前記表示サブモジュール1314は、物理照準部材の最大照準距離を取得し、前記第1操作位置と前記第2操作位置の間の第1距離と、前記最大照準距離との前記第1比率を算出するためのものでもある。
前記表示サブモジュール1314は、前記スキルの前記3次元仮想環境における最大スキル距離を取得し、前記第1比率と前記最大照準距離との乗積をキャスト距離として算出するためのものでもある。
前記表示サブモジュール1314は、前記照準ベクトルが指向する方向で、前記第1照準位置と前記キャスト距離とを加算し、前記3次元スキル照準インジケータのスキル照準時の第2照準位置を得るためのものでもある。
1つの任意の実施形態では、前記表示モジュール1310は、前記第1操作位置と前記第2操作位置の間の距離が不感帯の閾値よりも大きいことに応答して、前記仮想環境画面に前記3次元スキル照準インジケータを表示するためのものでもある。
上記をまとめると、本実施形態で提供される装置は、第1基準位置、第2基準位置、並びに逆転行列により得られた仮想環境内の第3基準位置及び第4基準位置を決定することによって、第3基準位置から第4基準位置に指向するベクトルを、3次元スキル照準インジケータの仮想環境におけるスキル方向として決定する。最終的に、マッピングにより仮想環境画面に表示された3次元スキル照準インジケータのスキル照準方向と照準操作の照準方向とを平行にする。第1操作位置と第2操作位置の間の第1距離と、最大照準距離との第1比率を算出し、第1比率と最大照準距離との乗積をキャスト距離として算出することにより、仮想キャラクターのキャスト距離はユーザーの照準操作の第1操作位置から第2操作位置までの距離により決定されるため、マンマシンインタラクションの効率を向上させた。
図21は、本願の1つの例示的な実施形態で提供されるコンピュータデバイスの構造模式図である。該コンピュータデバイス1600は、端末であってもよく、例えば、スマートフォン、タブレットコンピュータ、MP3(Moving Picture Experts Group Audio Layer III、ムービングピクチャーエクスパーツグループオーディオレイヤー3)プレイヤー、MP4(Moving Picture Experts Group Audio Layer IV、ムービングピクチャーエクスパーツグループオーディオレイヤー4)プレイヤーが挙げられる。コンピュータデバイス1600は、ユーザーデバイス、携帯端末などの他の名称で呼ばれることもある。
一般的には、コンピュータデバイス1600は、プロセッサ1601及びメモリ1602を含む。
プロセッサ1601は、1つ又は複数の処理コアを含んでもよく、例えば4コアプロセッサ、8コアプロセッサ等であってもよい。プロセッサ1601は、DSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field-Programmable Gate Array、フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array、プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェアとして実現されてもよい。プロセッサ1601は、ホストプロセッサ及びコプロセッサを含んでもよく、ホストプロセッサは、ウェイクアップ状態でのデータを処理するためのプロセッサであり、CPU(Central Processing Unit、中央処理装置)とも呼ばれる。コプロセッサは、待機状態でのデータを処理するための低消費電力プロセッサである。幾つかの実施形態では、プロセッサ1601には、ディスプレイスクリーンに表示する必要がある内容のレンダリングと描画を担うためのGPU(Graphics Processing Unit、グラフィックスプロセッシングユニット)が組み込まれてもよい。幾つかの実施形態では、プロセッサ1601は、機械学習に関連するコンピューティング操作を処理するためのAI(Artificial Intelligence、人工知能)プロセッサを含んでもよい。
メモリ1602は、1つ又は複数のコンピュータ読み取り可能な記憶媒体を含んでもよく、該コンピュータ読み取り可能な記憶媒体は、有形且つ非一過性のものであってもよい。メモリ1602は、高速ランダムアクセスメモリ、及び不揮発性メモリ、例えば1つ又は複数の磁気ディスク記憶装置、フラッシュメモリ記憶装置を含んでもよい。幾つかの実施形態では、メモリ1602における非一過性のコンピュータ読み取り可能な記憶媒体は、少なくとも1つのコマンドを記憶するためのものであり、該少なくとも1つのコマンドは、本願で提供される方法を実現するようにプロセッサ1601により実行されるためのものである。
幾つかの実施形態では、電子デバイス1600は、任意的に、周辺機器インタフェース1603及び少なくとも1つの周辺機器をさらに含む。具体的には、周辺機器は、無線周波数回路1604、タッチスクリーン1605、カメラ1606、オーディオ回路1607、測位コンポーネント1608及び電源1609のうちの少なくとも1つを含む。
周辺機器インタフェース1603は、I/O(Input /Output、入力/出力)に関連する少なくとも1つの周辺機器をプロセッサ1601及びメモリ1602に接続するために使用されてもよい。幾つかの実施形態では、プロセッサ1601、メモリ1602及び周辺機器インタフェース1603は、同じチップ又は回路基板上に組み込まれる。幾つかの別の実施形態では、プロセッサ1601、メモリ1602及び周辺機器インタフェース1603のうちのいずれか1つ又は2つは、個別のチップ又は回路基板上に組み込まれてもよい。本実施形態では、これを限定しない。
無線周波数回路1604は、電磁信号とも呼ばれるRF(Radio Frequency、無線周波数)信号を送受信するためのものである。無線周波数回路1604は、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。無線周波数回路1604は、電気信号を電磁信号に変換して送信するか、又は、受信した電磁信号を電気信号に変換する。任意的に、無線周波数回路1604は、アンテナシステム、RFトランシーバ、1つ又は複数の増幅器、チューナ、発振器、デジタル信号プロセッサ、コーデックチップセット、ユーザーIDモジュールカード等を含む。無線周波数回路1604は、少なくとも1つの無線通信プロトコルを介して他の端末と通信することができる。該無線通信プロトコルは、ワールドワイドウェブ、メトロポリタンエリアネットワーク、イントラネット、各世代のモバイル通信ネットワーク(2G、3G、4G及び5G)、無線ローカルエリアネットワーク及び/又はWiFi(Wireless Fidelity、ワイヤレスフィデリティ)ネットワークを含むが、これらに限定されない。幾つかの実施形態では、無線周波数回路1604は、NFC(Near Field Communication、近距離無線通信)に関連する回路をさらに含んでもよいが、本願では、これを限定しない。
タッチスクリーン1605は、UI(User Interface、ユーザーインタフェース)を表示するためのものである。該UIは、グラフィック、テキスト、アイコン、ビデオ及びそれらの任意の組合せを含んでもよい。タッチスクリーン1605は、タッチスクリーン1605の表面又は表面におけるタッチ信号を収集する機能をさらに有する。該タッチ信号は、制御信号としてプロセッサ1601に入力して処理してもよい。タッチスクリーン1605は、ソフトボタン及び/又はソフトキーボードとも呼ばれる仮想ボタン及び/又は仮想キーボードを提供するためのものである。幾つかの実施形態では、電子デバイス1600のフロントパネルに設けられた1つのタッチスクリーン1605を有してもよい。幾つかの別の実施形態では、それぞれ電子デバイス1600の異なる表面に設けられ、又は折り畳まれるように設計される少なくとも2つのタッチスクリーン1605を有してもよい。また別の実施形態では、タッチスクリーン1605は、電子デバイス1600の曲面又は折り畳み面に設けられたフレキシブルスクリーンであってもよい。さらに、タッチスクリーン1605は、長方形ではない不規則な形状にしてもよく、即ち、異形のスクリーンであってもよい。タッチスクリーン1605は、LCD(Liquid Crystal Display、液晶ディスプレイ)、OLED(Organic Light-Emitting Diode、有機発光ダイオード)などの材料で製造してもよい。
カメラコンポーネント1606は、画像又はビデオを収集するためのものである。任意的に、カメラコンポーネント1606は、フロントカメラ及びリアカメラを含む。一般的には、フロントカメラは、ビデオ通話又は自撮りを実現するためのものであり、リアカメラは、写真又はビデオの撮影を実現するためのものである。幾つかの実施形態では、少なくとも2つのリアカメラを有する。これらのリアカメラは、それぞれメインカメラ、被写界深度カメラ、広角カメラのうちの何れか1つであり、メインカメラと被写界深度カメラとの組合せによる背景ぼかし機能、メインカメラと広角カメラとの組合せによるパノラマ撮影及びVR(Virtual Reality、仮想現実)撮影機能を実現する。幾つかの実施形態では、カメラコンポーネント1606は、フラッシュをさらに含んでもよい。フラッシュは、単色温度フラッシュでもよいし、デュアル色温度フラッシュでもよい。デュアル色温度フラッシュとは、ウォームライトフラッシュとコールドライトフラッシュとの組合せであり、異なる色温度での光補正に用いてもよい。
オーディオ回路1607は、ユーザーと電子デバイス1600の間のオーディオインタフェースを提供するためのものである。オーディオ回路1607は、マイクロホン及びスピーカーを含んでもよい。マイクロホンは、ユーザー及び環境の音波を収集し、音波を電気信号に変換してプロセッサ1601に入力して処理するか、又は無線周波数回路1604に入力して音声通信を行うためのものである。ステレオ収集又はノイズ低減の目的で、電子デバイス1600の異なる箇所にそれぞれ設けられた複数のマイクロホンを有してもよい。マイクロホンは、アレイマイクロホン又は全方向集音型マイクロホンであってもよい。スピーカーは、プロセッサ1601又は無線周波数回路1604からの電気信号を音波に変換するためのものである。スピーカーは、伝統的なフィルムスピーカーでもよいし、圧電セラミックスピーカーでもよい。スピーカーが圧電セラミックスピーカーである場合、電気信号を人間に聞こえる音波に変換できるだけでなく、距離測定などの目的で電気信号を人間に聞こえない音波に変換することもできる。幾つかの実施形態では、オーディオ回路1607は、ヘッドフォンジャックをさらに含んでもよい。
測位コンポーネント1608は、電子デバイス1600の現在の地理的位置を測定し、ナビゲーション又はLBS(Location Based Service、ロケーションベースサービス)を実現するためのものである。測位コンポーネント1608は、米国のGPS(Global Positioning System、グローバルポジショニングシステム)、中国の北斗システム又はロシアのガリレオシステムに基づく測位コンポーネントであってもよい。
電源1609は、電子デバイス1600における各コンポーネントに供電するためのものである。電源1609は、交流電源、直流電源、一次電池又は充電式電池であってもよい。電源1609が充電式電池を含む場合、該充電式電池は、有線充電電池又は無線充電電池であってもよい。有線充電電池は、有線回線により充電する電池であり、無線充電電池は、無線コイルにより充電する電池である。該充電式電池は、急速充電技術をサポートするために使用してもよい。
幾つかの実施形態では、電子デバイス1600は、1つ又は複数のセンサ1610をさらに含む。該1つ又は複数のセンサ1610は、加速度センサ1611、ジャイロセンサ1612、圧力センサ1613、指紋センサ1614、光学センサ1615及び近接センサ1616を含むが、これらに限定されない。
加速度センサ1611は、電子デバイス1600で作成された座標系の3つの座標軸上の加速度の大きさを検出することができる。例えば、加速度センサ1611は、3つの座標軸上の重力加速度の成分を検出するために使用できる。プロセッサ1601は、加速度センサ1611が収集した重力加速度信号に従って、水平ビューまたは垂直ビューでユーザーインタフェースを表示するようにタッチスクリーン1605を制御することができる。加速度センサ1611は、ゲーム又はユーザーの運動データの収集に使用してもよい。
ジャイロセンサ1612は、電子デバイス1600のボディー方向及び回転角度を検出することができ、ジャイロセンサ1612は、加速度センサ1611と協働して電子デバイス1600に対するユーザーの3D動作を収集してもよい。プロセッサ1601は、ジャイロセンサ1612が収集したデータにより、モーションセンシング(例えばユーザーの傾斜操作に応じるUIの変更)、撮影中の画像安定化、ゲーム制御及び慣性航法といった機能を実現できる。
圧力センサ1613は、電子デバイス1600のサイドフレーム及び/又はタッチスクリーン1605の下層に配置されてもよい。圧力センサ1613が電子デバイス1600のサイドフレームに配置される場合、電子デバイス1600に対するユーザーの把持信号を検出し、該把持信号に従って左/右手の認識又はクイック操作を実行してもよい。圧力センサ1613がタッチスクリーン1605の下層に配置される場合、タッチスクリーン1605に対するユーザーの圧力操作に従って、UIインタフェース上の操作性ウィジェットへの制御を実現する。操作性ウィジェットは、ボタンウィジェット、スクロールバーウィジェット、アイコンウィジェット、メニューウィジェットのうちの少なくとも1つを含む。
指紋センサ1614は、ユーザーの指紋を収集するためのものであり、収集された指紋によりユーザーのIDを識別する。ユーザーのIDが信頼できるものとして認識されると、プロセッサ1601は、当該ユーザーによる画面のロック解除、暗号化された情報の表示、ソフトウェアのダウンロード、支払い及び設定の変更等を含む関連する機密操作を実行することを許可する。指紋センサ1614は、電子デバイス1600の表面、裏面又は側面に設けられてもよい。電子デバイス1600に物理的ボタン又はメーカーのロゴが設けられる場合、指紋センサ1614は、物理的ボタン又はメーカーのロゴと統合されてもよい。
光学センサ1615は、環境光の強度を収集するためのものである。一実施形態では、プロセッサ1601は、光学センサ1615が収集した環境光の強度に応じて、タッチスクリーン1605の表示輝度を制御してもよい。具体的には、環境光の強度が高い場合に、タッチスクリーン1605の表示輝度を高くし、環境光の強度が低い場合に、タッチスクリーン1605の表示輝度を低くする。別の実施形態では、プロセッサ1601は、光学センサ1615が収集した環境光の強度に応じて、カメラコンポーネント1606の撮影パラメータを動的に調整することもできる。
距離センサとも呼ばれる近接センサ1616は、一般的に、電子デバイス1600の表面に配置されている。近接センサ1616は、ユーザーと電子デバイス1600の表面との間の距離を収集するためのものである。一実施形態では、近接センサ1616が、ユーザーと電子デバイス1600の表面との間の距離が徐々に小さくなることを検出すると、プロセッサ1601は、タッチスクリーン1605を、画面点灯状態から画面消灯状態に切り替えるように制御する。近接センサ1616が、ユーザーと電子デバイス1600の表面との間の距離が徐々に大きくなることを検出すると、プロセッサ1601は、タッチスクリーン1605を、画面消灯状態から画面点灯状態に切り替えるように制御する。
当業者は、電子デバイス1600は、図21に示される構造によって限定されず、図示されるよりも多いまたは少ない構成要素を含み得るか、特定の構成要素を組み合わせるか、異なる構成要素の配置を採用し得ることを理解できる。
本願は、少なくとも1つのコマンド、少なくとも一部のプログラム、コードセット又はコマンドセットが記憶されたコンピュータ読み取り可能な記憶媒体であって、該少なくとも1つのコマンド、少なくとも一部のプログラム、コードセット又はコマンドセットがプロセッサによってロードされ実行されることにより、上記の各方法の実施形態で提供される3次元仮想環境におけるスキル照準方法を実現するコンピュータ読み取り可能な記憶媒体をさらに提供する。
本願は、コンピュータ読み取り可能な記憶媒体に記憶されたコンピュータコマンドを含むコンピュータプログラム製品又はコンピュータプログラムをさらに提供する。コンピュータデバイスのプロセッサは、コンピュータ読み取り可能な記憶媒体から該コンピュータコマンドを読み取り、実行することにより、該コンピュータデバイスに上記の各方法で提供される3次元仮想環境におけるスキル照準方法を実行させる。
本明細書に記載された「複数」は、2つ以上を意味すると理解すべきである。「及び/又は」は、関連対象の相関関係を表しており、3種類の関係が存在しうることを示す。例えば、A及び/又はBは、Aのみが存在する場合、AとBが同時に存在する場合、Bのみが存在する場合という3つの場合を示してもよい。符号「/」は、一般的にその前後の関連対象が「又は」という関係にあることを示す。
当業者であれば、上記の実施形態のステップの全部又は一部を実現するには、ハードウェアにより完成してもよく、プログラムのコマンドにより関連するハードウェアに完成させてもよく、前記プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてもよく、上記の記憶媒体は、リードオンリーメモリ、磁気ディスク又は光学ディスク等であってもよいことを理解できる。
上記の説明は、本願の任意の実施形態に過ぎず、本願を制限するためのものではない。本願の精神及び原則の範囲内で行われる如何なる修正、同等の置換、及び改良も、本願の保護範囲内に含まれるべきである。

Claims (1)

  1. コンピュータデバイスが実行する、3次元仮想環境におけるスキル照準方法であって、
    アプリケーションのユーザーインタフェースを表示するステップであって、前記ユーザーインタフェースは、仮想環境画面と、スキル照準ウィジェットとを含み、前記仮想環境画面は、3人称の俯角で3次元仮想環境を観察する画面であり、前記スキル照準ウィジェットは、スキルをリリースするための2次元ウィジェットであり、前記仮想環境画面の上層に位置するものであるステップと、
    前記スキル照準ウィジェットでのドラッグ操作を受信するステップであって、前記ドラッグ操作が、前記スキル照準ウィジェットにある第1操作点及び第2操作点を含み、前記第1操作点が前記ドラッグ操作の操作開始点であり、前記第2操作点が前記ドラッグ操作の現在操作点であるステップと、
    前記ドラッグ操作に応答して、前記仮想環境画面に3次元スキル照準インジケータを表示するステップであって、前記3次元スキル照準インジケータのスキル照準方向と前記ドラッグ操作のドラッグ方向とが前記ユーザーインタフェースにおいて平行であり、前記ドラッグ方向が前記第1操作点から前記第2操作点に指向する方向であるステップと、を含むことを特徴とする3次元仮想環境におけるスキル照準方法。
JP2024015950A 2020-02-14 2024-02-05 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム Pending JP2024054207A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN202010093196.9A CN111282266B (zh) 2020-02-14 2020-02-14 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质
CN202010093196.9 2020-02-14
PCT/CN2020/128772 WO2021159795A1 (zh) 2020-02-14 2020-11-13 三维虚拟环境中的技能瞄准方法、装置、设备及存储介质
JP2021566187A JP7488284B2 (ja) 2020-02-14 2020-11-13 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021566187A Division JP7488284B2 (ja) 2020-02-14 2020-11-13 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2024054207A true JP2024054207A (ja) 2024-04-16

Family

ID=71022041

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021566187A Active JP7488284B2 (ja) 2020-02-14 2020-11-13 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム
JP2024015950A Pending JP2024054207A (ja) 2020-02-14 2024-02-05 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021566187A Active JP7488284B2 (ja) 2020-02-14 2020-11-13 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム

Country Status (9)

Country Link
US (1) US20220047946A1 (ja)
EP (1) EP3939680A4 (ja)
JP (2) JP7488284B2 (ja)
KR (1) KR20210150478A (ja)
CN (1) CN111282266B (ja)
AU (1) AU2020428058B2 (ja)
CA (1) CA3136380A1 (ja)
SG (1) SG11202111792SA (ja)
WO (1) WO2021159795A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111282266B (zh) * 2020-02-14 2021-08-03 腾讯科技(深圳)有限公司 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质
CN111821691A (zh) * 2020-07-24 2020-10-27 腾讯科技(深圳)有限公司 界面显示方法、装置、终端及存储介质
CN112169330B (zh) * 2020-09-25 2021-12-31 腾讯科技(深圳)有限公司 虚拟环境的画面显示方法、装置、设备及介质
CN112957737A (zh) * 2021-02-25 2021-06-15 网易(杭州)网络有限公司 一种游戏中信息处理方法、装置、电子设备及存储介质
CN117693386A (zh) * 2022-06-24 2024-03-12 上海莉莉丝科技股份有限公司 游戏控制方法、电子设备和计算机可读存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4583893B2 (ja) 2004-11-19 2010-11-17 任天堂株式会社 ゲームプログラムおよびゲーム装置
KR101398086B1 (ko) * 2012-07-06 2014-05-30 (주)위메이드엔터테인먼트 온라인 게임에서의 유저 제스처 입력 처리 방법
US20150121301A1 (en) * 2013-10-28 2015-04-30 Lenovo (Beijing) Co., Ltd. Information processing method and electronic device
US9937415B1 (en) * 2013-12-17 2018-04-10 Amazon Technologies, Inc. Virtual controller for touchscreen
KR101545739B1 (ko) 2014-03-03 2015-08-20 주식회사 화이트아웃 스마트디바이스의 유아이 환경에서 드래그와 드롭 방식을 이용한 알피지 캐릭터 조작 방법
KR101593209B1 (ko) * 2015-01-06 2016-02-11 라인플러스 주식회사 리듬 게임 서비스를 제공하는 게임 시스템 및 게임 방법
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
CN105148517B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN108355348B (zh) * 2015-10-10 2021-01-26 腾讯科技(成都)有限公司 信息处理方法、终端及计算机存储介质
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
JP6190017B1 (ja) * 2016-08-12 2017-08-30 株式会社コロプラ ゲームの実行方法、プログラム、および記録媒体
US10636156B2 (en) * 2016-09-12 2020-04-28 Deepixel Inc. Apparatus and method for analyzing three-dimensional information of image based on single camera and computer-readable medium storing program for analyzing three-dimensional information of image
US20180318705A1 (en) * 2017-05-04 2018-11-08 Roblox Corporation Touch-Screen Based Game Controller
CN107193479B (zh) 2017-05-26 2018-07-10 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
US10198843B1 (en) * 2017-07-21 2019-02-05 Accenture Global Solutions Limited Conversion of 2D diagrams to 3D rich immersive content
CN107967096A (zh) * 2017-11-24 2018-04-27 网易(杭州)网络有限公司 目标对象确定方法、装置、电子设备及存储介质
CN108376424A (zh) * 2018-02-09 2018-08-07 腾讯科技(深圳)有限公司 用于对三维虚拟环境进行视角切换的方法、装置、设备及存储介质
JP6561163B1 (ja) 2018-03-09 2019-08-14 株式会社 ディー・エヌ・エー ゲーム装置及びゲームプログラム
US10569176B2 (en) * 2018-06-22 2020-02-25 Yacht Club Games, LLC Video game gameplay having nuanced character movements and dynamic movement indicators
CN111282266B (zh) * 2020-02-14 2021-08-03 腾讯科技(深圳)有限公司 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质

Also Published As

Publication number Publication date
CN111282266A (zh) 2020-06-16
AU2020428058B2 (en) 2023-07-27
EP3939680A1 (en) 2022-01-19
KR20210150478A (ko) 2021-12-10
WO2021159795A1 (zh) 2021-08-19
EP3939680A4 (en) 2022-06-29
CN111282266B (zh) 2021-08-03
US20220047946A1 (en) 2022-02-17
AU2020428058A1 (en) 2021-11-04
SG11202111792SA (en) 2021-11-29
JP7488284B2 (ja) 2024-05-21
CA3136380A1 (en) 2021-08-19
JP2022534187A (ja) 2022-07-28

Similar Documents

Publication Publication Date Title
CN111589131B (zh) 虚拟角色的控制方法、装置、设备及介质
JP7488284B2 (ja) 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム
CN110755841B (zh) 虚拟环境中道具的切换方法、装置、设备及可读存储介质
CN111589124B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN110613938B (zh) 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN110585710B (zh) 互动道具控制方法、装置、终端及存储介质
CN111589140B (zh) 虚拟对象的控制方法、装置、终端及存储介质
JP2024045184A (ja) 仮想アイテムをマークするように仮想対象を制御する方法及びその装置並びに媒体
CN111589133A (zh) 虚拟对象控制方法、装置、设备及存储介质
CN111744186B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111589127B (zh) 虚拟角色的控制方法、装置、设备及存储介质
CN111589136B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN113289331B (zh) 虚拟道具的显示方法、装置、电子设备及存储介质
CN111389005B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111921194A (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN111249726B (zh) 虚拟环境中虚拟道具的操作方法、装置、设备及可读介质
CN112402971A (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN111672115B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
JPWO2021143259A5 (ja)
CN111530075B (zh) 虚拟环境的画面显示方法、装置、设备及介质
CN111589134A (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN112807680A (zh) 虚拟场景中虚拟对象的控制方法、装置、设备及存储介质
CN113633984B (zh) 游戏对象的控制方法、装置、设备及介质
CN113117333A (zh) 虚拟飞行载具的控制方法、装置、终端及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240305