JP7309917B2 - 情報表示方法、装置、機器及びプログラム - Google Patents

情報表示方法、装置、機器及びプログラム Download PDF

Info

Publication number
JP7309917B2
JP7309917B2 JP2021566346A JP2021566346A JP7309917B2 JP 7309917 B2 JP7309917 B2 JP 7309917B2 JP 2021566346 A JP2021566346 A JP 2021566346A JP 2021566346 A JP2021566346 A JP 2021566346A JP 7309917 B2 JP7309917 B2 JP 7309917B2
Authority
JP
Japan
Prior art keywords
virtual object
virtual
information
displaying
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021566346A
Other languages
English (en)
Other versions
JP2022538204A (ja
Inventor
嘉城 魏
▲勳▼ 胡
山▲東▼ 粟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022538204A publication Critical patent/JP2022538204A/ja
Priority to JP2023110007A priority Critical patent/JP2023126292A/ja
Application granted granted Critical
Publication of JP7309917B2 publication Critical patent/JP7309917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本願は、2021年5月29日に提出された、出願番号202010478147.7で、発明の名称「情報表示方法、装置、機器及び記憶媒体」の中国特許出願の優先権を主張し、そのすべての内容は、参照により本願に組み込まれる。
本願はコンピュータ技術分野に関し、特に情報表示方法、装置、機器及び記憶媒体に関する。
コンピュータ技術の発展及び端末機能の多様化に伴い、端末で行うことができるゲームの種類はますます多くなる。そのうち、MOBA(Multiplayer Online Battle Arena、マルチプレイヤーオンラインバトルアリーナ)ゲームは流行しているゲームであり、端末はインタフェースに仮想シーンを表示し、仮想シーンに仮想オブジェクトを表示することができ、当該仮想オブジェクトはスキルを発動することにより、他の仮想オブジェクトと対戦することができる。
本願の実施例は情報表示方法、装置、機器及び記憶媒体を提供する。当該技術的解決手段は以下のとおりである。
一態様において、情報表示方法を提供し、当該方法は、
グラフィカルユーザインタフェースにおいて、第1の仮想オブジェクトの位置に基づいて、前記第1の仮想オブジェクトの視野画面を表示するステップと、
第2の仮想オブジェクトの位置を取得するステップと、
前記第2の仮想オブジェクトの位置が目標領域内にあることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示するステップであって、前記目標領域は前記視野画面外の領域であるステップと、を含む。
一態様において、情報表示装置を提供し、当該装置は、
グラフィカルユーザインタフェースにおいて、第1の仮想オブジェクトの位置に基づいて、前記第1の仮想オブジェクトの視野画面を表示する表示モジュールと、
第2の仮想オブジェクトの位置を取得する取得モジュールと、を含み、
前記表示モジュールは、さらに、前記第2の仮想オブジェクトの位置が目標領域内にあることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示し、前記目標領域は前記視野画面外の領域である。
1つの可能な実施形態では、前記位置関係は前記第1の仮想オブジェクトの位置から前記第2の仮想オブジェクトの位置へのベクトル、又は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の線分を含む。
前記表示モジュールは、
前記ベクトル又は前記線分と前記視野画面のエッジ領域との間の重なり線分を取得し、前記エッジ領域とは、前記視野画面のエッジ線との間の距離が距離閾値よりも小さい点で構成される領域であり、前記距離閾値とは、前記第2の仮想オブジェクトの指示情報が完全に表示される場合の最小表示サイズであり、
前記重なり線分に基づいて、目標エッジ領域を特定し、
前記目標エッジ領域において前記第2の仮想オブジェクトの指示情報を表示する。
1つの可能な実施形態では、前記取得モジュールは、
前記第2の仮想オブジェクトの仮想シーンにおける3次元位置を取得し、
仮想カメラと垂直方向との間の角度に基づいて、前記第2の仮想オブジェクトの3次元位置を2次元位置に変換する。
1つの可能な実施形態では、前記取得モジュールは、さらに、前記第1の仮想オブジェクトの視野画面及び目標スケーリング比率に基づいて、前記視野画面を囲む目標領域を取得するために用いられ、
前記装置は、さらに、
第2の目標オフセット量に基づいて、前記目標領域を各方向においてオフセットして、前記目標領域の検出範囲を取得するオフセットモジュールと、
前記第2の仮想オブジェクトの位置が前記目標領域の検出範囲内にあることに応答して、前記第2の仮想オブジェクトの位置が前記目標領域内にあることを特定する特定モジュールと、を含む。
1つの可能な実施形態では、前記第2の仮想オブジェクトの指示情報は前記第2の仮想オブジェクトの指示アイコン、仮想ヘルスポイント、状態情報、位置指示又は名称のうち少なくとも1つを含み、前記位置指示は前記第1の仮想オブジェクトに対する前記第2の仮想オブジェクトの方向を示すためのものである。
1つの可能な実施形態では、前記第2の仮想オブジェクトは前記第1の仮想オブジェクトと異なるチームに属する仮想オブジェクトであり、
前記取得モジュールは、さらに、前記第2の仮想オブジェクトの状態を取得するために用いられ、
前記表示モジュールは、
前記第2の仮想オブジェクトの状態が可視状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現し、
或いは、
前記第2の仮想オブジェクトの状態が生存状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現し、
或いは、
前記第2の仮想オブジェクトの状態が可視状態且つ生存状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現する。
1つの可能な実施形態では、前記表示モジュールは、現在のシステム時間と前回前記第2の仮想オブジェクトの指示情報を表示した時間との間の時間の長さが目標時間の長さよりも長いことに応答して、第3の表示形式に従って、前記第2の仮想オブジェクトの指示情報を表示する。
1つの可能な実施形態では、前記表示モジュールは、さらに、少なくとも2つの第2の仮想オブジェクトの指示情報を表示し、且つ前記少なくとも2つの第2の仮想オブジェクトのうち2つ以上の第2の仮想オブジェクトの指示情報を含む表示領域に重なりが存在することに応答して、前記2つ以上の第2の仮想オブジェクトの指示情報をタイル表示する。
1つの可能な実施形態では、前記表示モジュールは、さらに、前記第1の仮想オブジェクトの発動したスキルに選択された目標が前記第2の仮想オブジェクトであることに応答して、第1の表示形式に基づいて、前記第2の仮想オブジェクトの指示情報を表示する。
1つの可能な実施形態では、前記表示モジュールは、さらに、前記第1の仮想オブジェクトの発動したスキルによる前記第2の仮想オブジェクトの影響に応答して、目標時間帯内に、第2の表示形式に基づいて、前記第2の仮想オブジェクトの指示情報を表示する。
一態様において、電子機器を提供し、当該電子機器は1つ以上のプロセッサと1つ以上のメモリとを含み、当該1つ以上のメモリに少なくとも1つのプログラムコードが記憶されており、当該少なくとも1つのプログラムコードは当該1つ以上のプロセッサによってロードされ実行されて、上記のいずれかの実現可能な形態における情報表示方法による動作を実現する。
一態様において、記憶媒体を提供し、当該記憶媒体に少なくとも1つのプログラムコードが記憶されており、当該少なくとも1つのプログラムコードはプロセッサによってロードされ実行されて、上記いずれかの実現可能な形態における情報表示方法による動作を実現する。
一態様において、コンピュータプログラム製品又はコンピュータプログラムを提供し、当該コンピュータプログラム製品又はコンピュータプログラムはコンピュータ命令を含み、当該コンピュータ命令はコンピュータ読み取り可能な記憶媒体に記憶される。電子機器のプロセッサはコンピュータ読み取り可能な記憶媒体から当該コンピュータ命令を読み取り、プロセッサは当該コンピュータ命令を実行することにより、当該電子機器に上記情報表示方法を実行させる。
本願の実施例に係る技術的解決手段による有益な効果は少なくとも以下を含む。
本願の実施例は、第2の仮想オブジェクトの位置を取得することにより、第2の仮想オブジェクトが視野画面外の目標領域内に位置する場合、現在の視野画面のエッジに第2の仮想オブジェクトの指示情報を表示することができ、これにより、第2の仮想オブジェクトの情報についての効果的な提示を達成し、視野画面における情報の表示量を増加させ、表示情報は視野画面における情報に限定されず、視野画面外の第2の仮想オブジェクトの情報を効果的に提示することができ、また、ユーザが第2の仮想オブジェクトとよりよくインタラクションするように補助することもでき、(例えば第2の仮想オブジェクトの位置により、あるスキルが当該第2の仮想オブジェクトに成功裏に命中できるか否かを特定し、)ユーザの第2の仮想オブジェクトに対する制御精度を向上させ、したがって、ゲームの対局における情報表示効果がより高い。
本願の実施例における技術的解決手段をより明確に説明するために、以下に実施例の説明に必要な図面を簡単に説明するが、明らかに、以下の説明における図面は本願のいくつかの実施例にすぎず、当業者であれば、創造的な労力をせず、これらの図面に基づいて他の図面を得ることができる。
本願の実施例に係る情報表示方法の実施環境概略図である。 本願の実施例に係る情報表示方法のフローチャートである。 本願の実施例に係る情報表示方法のフローチャートである。 本願の実施例に係る第1の仮想オブジェクトと仮想カメラとの位置関係の概略図である。 本願の実施例に係る仮想オブジェクトの位置の概略図である。 本願の実施例に係る仮想オブジェクトの位置の概略図である。 本願の実施例に係る仮想オブジェクトの位置の概略図である。 本願の実施例に係る仮想オブジェクトの位置及び指示情報の位置の概略図である。 本願の実施例に係る仮想オブジェクトの位置及び指示情報の位置の概略図である。 本願の実施例に係る端末インタフェースの概略図である。 本願の実施例に係る端末インタフェースの概略図である。 本願の実施例に係る端末インタフェースの概略図である。 本願の実施例に係る端末インタフェースの概略図である。 本願の実施例に係る端末インタフェースの概略図である。 本願の実施例に係る情報表示方法のフローチャートである。 本願の実施例に係る仮想オブジェクトの位置、指示情報の位置及び各領域範囲の概略図である。 本願の実施例に係る情報表示装置の構造概略図である。 本願の実施例に係る端末の構造概略図である。 本願の実施例に係るサーバの構造概略図である。
以下、本願の目的、技術的解決手段及び利点をより明確にするために、図面を参照しながら本願の実施形態についてさらに詳細に説明する。
本願における用語の「第1」、「第2」などの文字は、作用及び機能が基本的に同じである同じ項目又は類似項目を区別するために用いられ、「第1」と「第2」と「第n」との間は、論理又はタイミング上の依存関係を持たず、また、数及び実行順を限定するものではない。
本願における用語の「少なくとも1つ」とは、1つ以上であり、「少なくとも2つ」とは、2つ以上であり、例えば、少なくとも2つのノード装置は2つ以上のノード装置を意味する。
以下、本願に係る用語について解釈する。
仮想シーンとは、アプリケーションプログラムが端末で実行される時に表示(又は提供)する仮想シーンである。当該仮想シーンは実シーンに対するシミュレーションシーンであってもよく、半シミュレーション且つ半架空の3次元シーンであってもよく、全く架空の3次元シーンであってもよい。仮想シーンは、2次元仮想シーン、2.5次元仮想シーン、及び3次元仮想シーンのうちいずれ1つであってもよい。本願の実施例は仮想シーンの次元について限定しない。
任意選択的に、当該仮想シーンは、さらに、少なくとも2つの仮想オブジェクトの間の仮想シーンにおける対戦に用いられ、当該仮想シーンには、少なくとも2つの仮想オブジェクトが使用可能な仮想リソースがある。任意選択的に、当該仮想シーンは対称な左下隅領域と右上隅領域とを含み、敵対する両陣営に属する仮想オブジェクトはそれぞれそのうち1つの領域を占め、相手領域の奥の目標建物/拠点/基地/ネクサスを破壊することを勝利目標とする。
任意選択的に、当該仮想シーンにおける各領域の基地は、さらに、1つのリソース補充拠点を含んでもよく、仮想オブジェクトは当該リソース補充拠点に戻り、例えば、仮想オブジェクトが使用する装備のように必要なリソースを補充することができる。特定の可能な一実施例では、当該リソース補充拠点に仮想マーケットを設けてもよく、仮想オブジェクトは、現在のゲームで獲得した仮想マネーを使用して、当該仮想マーケットから仮想リソースを購入することができる。
当然のことながら、仮想オブジェクトがリソースを補充する場所を制限しなくてもよく、仮想オブジェクトは仮想シーンにおけるいずれかの位置でリソースを補充することができる。1つの可能な実施形態では、ユーザグラフィックスインタフェースにおいて仮想マーケットボタンを提供してもよく、端末は当該仮想マーケットボタンに対するトリガ動作を検出すると、仮想マーケットにおける仮想リソースを表示し、ユーザの選択動作及び確認動作に基づいて仮想オブジェクトに対応する仮想リソースを装備することができる。
特定の可能な一実施例では、ユーザ動作を簡略化するために、端末は仮想オブジェクトの属性に基づいて、当該仮想オブジェクトのレコメンダリソースを取得して表示し、いずれかのレコメンダリソースに対するトリガ動作を検出すると、仮想オブジェクトに対応する仮想リソースを装備するとしてもよい。任意選択的に、上記レコメンダリソースは、仮想オブジェクトの属性に合い、且つ、当該仮想オブジェクトが保有する仮想マネー内の価値を有するリソースであってもよい。
任意選択的に、仮想オブジェクトは当該リソース補充拠点で自己の状態を迅速に回復することができ、例えば、仮想ヘルスポイントやマジックポイントなどを迅速に回復する。任意選択的に、仮想オブジェクトが仮想シーンにおいて敗退した場合、しばらくして、当該リソース補充拠点においてリスポーンしてもよく、このような実施形態では、当該リソース補充拠点は「スポーンポイント」と呼ばれてもよい。
仮想オブジェクトとは、仮想シーンにおける可動オブジェクトである。前記可動オブジェクトは、仮想キャラクタ、仮想アニマル及びアニメーションキャラクタのうち少なくとも1つであってもよい。任意選択的に、仮想シーンが3次元仮想シーンである場合、仮想オブジェクトは3次元立体モデルであってもよく、各仮想オブジェクトは3次元仮想シーンにおいて自己の形状及び体積を有し、3次元仮想シーンにおける一部の空間を占める。任意選択的に、仮想オブジェクトは3次元人体骨格技術に基づいて構築された3次元キャラクタであり、当該仮想オブジェクトは異なるスキンをつけることによって異なる外見を実現する。いくつかの実施形態では、仮想オブジェクトは、2.5次元又は2次元モデルを用いて実現されてもよく、本願の実施例はこれについて限定しない。
任意選択的に、当該仮想オブジェクトはクライアントでの動作によって制御されるプレイヤキャラクタであってもよく、トレーニングによって仮想シーンの対戦に設定される人工知能(Artificial Intelligence、AI)であってもよく、仮想シーンのインタラクションに設定されるノンプレイヤキャラクタ(Non-Player Character、NPC)であってもよい。任意選択的に、当該仮想オブジェクトは、仮想シーンで競技を行う仮想キャラクタであってもよい。任意選択的に、当該仮想シーンにおけるインタクラクションに参加する仮想オブジェクトの数は予め設定されてもよく、インタラクションに参加するクライアントの数に基づいて動的に決定されてもよい。
任意選択的に、仮想シーンにおける仮想オブジェクトは異なるイメージの仮想オブジェクトであってもよく、同じイメージの仮想オブジェクトであってもよい。異なるイメージの仮想オブジェクトのスキルは異なってもよい。任意選択的に、仮想シーンにおいて異なる種類の仮想オブジェクトを有してもよく、且つ異なる種類の仮想オブジェクトはイメージが異なってもよく、スキルも異なってもよい。ここで、当該仮想オブジェクトのイメージ又は種類はユーザが仮想シーンに入る前に選択されてもよい。例えば、仮想オブジェクトは、マジシャン、ウオリアー、タンク/アシスタント、シューター、及びアサシンを含んでもよい。このうち、マジシャンのスキルは、一般的に、魔法スキルであり、マジシャンによって、魔法スキルは異なってもよい。ウオリアーのスキルは、一般的に、体又は仮想武器による物理攻撃であり、ウオリアーによって、仮想武器は異なってもよい。タンク/アシスタントの仮想ヘルスポイント/防御力は、他の種類の仮想オブジェクトの仮想ヘルスポイント/防御力よりも大きくてもよく、タンク/アシスタントのスキルは、コントロールスキル又は仮想ヘルスポイント回復スキルであってもよい。シューターは、一般的に、遠隔攻撃によって敵にダメージを与え、シューターのスキルは、一般的に、射出した仮想アイテムの付加的な効果又は属性の異なる仮想アイテムの発射であり、例えば、発射した矢印の付加的な減速効果、付加的な毒効果、3本の矢印の同時発射又は射程が通常攻撃射程よりも大きい矢印の発射などが挙げられる。アサシンのスキルは、一般的に、隠蔽性スキル又は突き刺しスキルなどであり、敵が意図しないうちにダメージを与えることができる。
マルチプレイヤーオンラインバトルアリーナとは、仮想シーンにおいて、敵対する少なくとも両陣営にそれぞれ属する異なる仮想チームはそれぞれの地図領域を占め、ある勝利条件を目標として競技を行うことである。当該勝利条件は、拠点を占領したり敵対する陣営の拠点を破壊したりすること、敵対する陣営の仮想オブジェクトを殺すこと、指定されたシーンと時間内に自身の生存を保証したり、ある種類のリソースを奪い取ったりすること、指定された時間内に得点が相手を超えることのうち少なくとも1つを含むが、これらに限定されるものではない。バトルアリーナはセットを単位として行われ、セットごとのバトルアリーナの地図は同じであってもよいし、異なってもよい。各仮想チームは、仮想オブジェクトを、例えば1つ、2つ、3つ又は5つのような1つ以上含む。
MOBAゲームとは、仮想シーンにおいていくつかの拠点を提供し、異なる陣営に属するユーザが仮想オブジェクトを制御して、仮想シーンにおいて対戦し、拠点を占領したり、敵対する陣営の拠点を破壊したりするゲームである。例えば、MOBAゲームは、ユーザを敵対する両陣営に分け、ユーザによって制御される仮想オブジェクトを仮想シーンに分散させて互いに競争させ、敵のすべての拠点を破壊や占領することを勝利条件とする。MOBAゲームは、セットを単位とし、1セットのMOBAゲームの持続する時間は、ゲームが開始する時点から勝利条件を達成する時点までとする。
MOBAゲームにおいて、ユーザは、仮想オブジェクトがスキルを発動するように制御することで、他の仮想オブジェクトと戦うことができ、例えば、このスキルのスキル種類は、攻撃スキル、防御スキル、治療スキル、支援スキル、斬殺スキルなどを含んでもよく、各仮想オブジェクトは、それぞれ固有の1つ以上のスキルを有してもよく、仮想オブジェクトによって、通常、スキルは異なり、異なるスキルによって、異なる効果をもたらすことができる。例えば、仮想オブジェクトが攻撃スキルを発動して敵対する仮想オブジェクトにヒットすると、敵対する仮想オブジェクトに一定のダメージを与え、通常は敵対する仮想オブジェクトの一部の仮想ヘルスポイントを減少させるように現れ、また例えば、仮想オブジェクトが治療スキルを発動して友軍の仮想オブジェクトにヒットすると、友軍の仮想オブジェクトに一定の治療を与えて、通常は友軍の仮想オブジェクトの一部の仮想ヘルスポイントを回復するように現れ、他の様々なスキルはいずれも対応する作用効果を果たすことができるが、ここでは一つ一つ挙げない。
図1は本願の実施例に係る情報表示方法の実施環境概略図であり、図1を参照すると、当該実施環境は第1の端末120と、サーバ140と、第2の端末160とを含む。
第1の端末120には、仮想シーンをサポートするアプリケーションプログラムがインストールされ実行されている。当該アプリケーションプログラムはマルチプレイヤーオンラインバトルアリーナ(Multiplayer Online Battle Arena games、MOBA)、仮想リアリティアプリケーションプログラム、2次元又は3次元地図プログラム、シミュレーションプログラムのうちいずれか1つであってもよい。当然のことながら、当該アプリケーションプログラムは、例えば、マルチプレイヤーによる銃撃戦の種類のサバイバルゲームのような、他のプログラムであってもよく、本願の実施例はこれについて限定しない。第1の端末120は、第1のユーザが使用する端末であってもよく、第1のユーザは第1の端末120を使用して、仮想シーンに位置する第1の仮想オブジェクトを動作して活動を行い、当該活動は、歩き、走り、身体姿勢の調整、通常の攻撃、スキル発動のうち少なくとも1つを含むが、これらに限定されるものではない。当然のことながら、当該活動は、さらに、例えば射撃、投げなど、他の項目を含んでもよく、本願の実施例はこれについて具体的に限定しない。一例として、第1の仮想オブジェクトは第1の仮想キャラクタであり、例えばシミュレーションキャラクタ又はアニメーションキャラクタである。一例として、第1の仮想オブジェクトは第1の仮想アニマルであってもよく、例えばシミュレーションサル又は他の動物などである。
第1の端末120及び第2の端末160は、無線ネットワーク又は有線ネットワークを介してサーバ140に接続される。
サーバ140は、1台のサーバ、複数台のサーバ、クラウドコンピューティングプラットフォーム又は仮想化センターのうち少なくとも1つを含んでもよい。サーバ140は、仮想シーンをサポートするアプリケーションプログラムにバックグラウンドサービスを提供するために用いられる。任意選択的に、サーバ140が主なコンピューティング動作を担当し、第1の端末120及び第2の端末160が副次的なコンピューティング動作を担当するとしてもよく、或いは、サーバが副次的なコンピューティング動作を担当し、第1の端末120及び第2の端末160が主なコンピューティング動作を担当するとしてもよく、或いは、サーバ140と第1の端末120と第2の端末160の三者間が分散コンピューティングアーキテクチャを用いて協調コンピューティングを行う。
ここで、サーバ140は独立した物理サーバであってもよく、複数の物理サーバで構成されたサーバクラスタ又は分散システムであってもよく、さらに、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウドストレージ、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメイン名サービス、セキュリティサービス、CDN(Content Delivery Network、コンテンツ配信ネットワーク)、及びビッグデータと人工知能プラットフォームなどの基礎クラウドコンピューティングサービスを提供するクラウドサーバであってもよい。第1の端末120及び第2の端末160は、スマートフォン、タブレットコンピュータ、ノートパソコン、デスクトップコンピュータ、スマートスピーカボックス、スマートウォッチなどであってもよいが、これらに限定されるものではない。第1の端末120、第2の端末160は有線又は無線通信方式によりサーバと直接又は間接的に接続することができ、本願の実施例はこれについて制限しない。
一例として、第1の端末120及び第2の端末160は、生成したデータをサーバ140に送信してもよく、サーバ140は、自身が生成したデータと端末が生成したデータを検証してもよく、いずれかの端末との検証結果がデータの不一致を指示すると、サーバが生成したデータをいずれかの端末に送信してもよく、当該いずれかの端末はサーバが生成したデータを基準とする。
1つの可能な実施形態では、第1の端末120及び第2の端末160は、ユーザのトリガ動作に基づいて、各フレームの仮想シーンを特定し、仮想シーンをサーバ140に送信するとしてもよく、ユーザのトリガ動作の情報をサーバ140に送信してもよく、サーバ140は当該トリガ動作の情報及び仮想シーンを受信し、当該トリガ動作に基づいて、仮想シーンを特定し、端末からアップロードされた仮想シーンと比較するとしてもよく、一致すれば、後続の計算を続けてもよく、一致しなければ、自身が特定した仮想シーンを各端末に送信して同期を行ってもよい。特定の可能な一実施例では、サーバ140は、さらに、当該トリガ動作の情報に基づいて、各端末の次のフレームの仮想シーンを特定し、次のフレームの仮想シーンを各端末に送信し、各端末に対応するステップを実現させ、サーバ140が特定した次のフレームの仮想シーンに一致する仮想シーンを取得するとしてもよい。
第2の端末160には、仮想シーンをサポートするアプリケーションプログラムがインストールされ実行されている。当該アプリケーションプログラムはマルチプレイヤーオンラインバトルアリーナ、仮想リアリティアプリケーションプログラム、2次元又は3次元地図プログラム、シミュレーションプログラムのうちいずれか1つであってもよい。当然のことながら、当該アプリケーションプログラムは、例えば、マルチプレイヤーによる銃撃戦の種類のサバイバルゲームのような、他のプログラムであってもよく、本願の実施例はこれについて限定しない。第2の端末160は第2のユーザが使用する端末であってもよく、第2のユーザは第2の端末160を用いて、仮想シーンに位置する第2の仮想オブジェクトを動作して活動を行い、当該活動は、歩き、走り、身体姿勢の調整、通常の攻撃、スキル発動のうち少なくとも1つを含むが、これらに限定されるものではない。当然のことながら、当該活動は、さらに、例えば射撃、投げなど、他の項目を含んでもよく、本願の実施例はこれについて具体的に限定しない。一例として、第2の仮想オブジェクトは第2の仮想キャラクタであり、例えばシミュレーションキャラクタ又はアニメーションキャラクタである。一例として、第2の仮想オブジェクトは第2の仮想アニマルであってもよく、例えばシミュレーションサル又は他の動物などである。
任意選択的に、第1の端末120が制御する第1の仮想オブジェクトと、第2の端末160が制御する第2の仮想オブジェクトは同一の仮想シーンにあり、この場合、第1の仮想オブジェクトは仮想シーンにおいて第2の仮想オブジェクトとインタラクションを行うことができる。いくつかの実施例では、第1の仮想オブジェクトと第2の仮想オブジェクトは敵対関係であってもよく、例えば、第1の仮想オブジェクトと第2の仮想オブジェクトは異なるチーム、組織又は陣営に属してもよく、敵対関係の仮想オブジェクトの間は、仮想シーンにおけるいずれかの位置でスキルを発動することによって対戦形態のインタラクションを行うことができる。
他の実施例では、当該第2の仮想オブジェクトは当該第1の仮想オブジェクトとチームメイト関係にあってもよく、例えば、第1の仮想キャラクタと第2の仮想キャラクタは同一のチーム、同一の組織、同一の陣営に属し、友達関係にあるか又は一時的な通信権限を有するとしてもよい。
任意選択的に、第1の端末120及び第2の端末160にインストールされたアプリケーションプログラムは同じであり、或いは、2つの端末にインストールされたアプリケーションプログラムは異なるオペレーティングシステムプラットフォームの同じ種類のアプリケーションプログラムである。第1の端末120は複数の端末のうちの1つを広く一般的に指してもよく、第2の端末160は複数の端末のうちの1つを広く一般的に指してもよく、本実施例は第1の端末120及び第2の端末160のみを例に挙げて説明する。第1の端末120と第2の端末160は機器の種類が同じであり、又は異なり、当該機器の種類はスマートフォン、タブレットコンピュータ、電子ブックリーダー、MP3(Moving Picture Experts Group Audio Layer III、動画専門家グループオーディオレイヤー3)プレーヤ、MP4(Moving Picture Experts Group Audio Layer IV、動画専門家グループオーディオレイヤー4)プレーヤ、携帯型ラップトップコンピュータ及びデスクトップコンピュータのうち少なくとも1つを含む。例えば、第1の端末120及び第2の端末160は、スマートフォン、又は他の携帯型ハンドヘルドゲームデバイスであってもよい。以下の実施例は、スマートフォンを含む端末を例に挙げて説明する。
当業者であれば分かるように、上記端末の数はより多くても、より少なくてもよい。例えば、上記端末は1つだけであってもよく、又は数十個、数百個、若しくはより多くの数である。本願の実施例は端末の数及び機器の種類について限定しない。
図2は本願の実施例に係る情報表示方法のフローチャートであり、当該方法は電子機器に適用され、当該電子機器は端末であってもよく、すなわち、各ステップの実行主体は端末であってもよく、当然のことながら、いくつかの実施例では、各ステップの実行主体は端末にインストールされて実行するアプリケーションプログラムのクライアントであってもよく、本実施例において、端末に適用されることを例に挙げて説明する。図2を参照すると、当該方法は以下のステップ201~203を含んでもよい。
201において、グラフィカルユーザインタフェースにおいて、端末は第1の仮想オブジェクトの位置に基づいて、当該第1の仮想オブジェクトの視野画面を表示する。
ここで、第1の仮想オブジェクトは現在端末に制御される仮想オブジェクトであり、当該視野画面は第1の仮想オブジェクトを制御する端末が観察できる仮想シーンである。具体的には、当該視野画面は当該第1の仮想オブジェクトに追従する仮想カメラにより撮影された仮想シーンであってもよい。
なお、上記第1の仮想オブジェクトはユーザによって制御される仮想オブジェクトである。任意選択的に、ユーザはユーザアカウントを用いてアプリケーションプログラムのクライアントにログインし、さらに、当該ユーザアカウントに対応する仮想オブジェクトを第1の仮想オブジェクトとし、ユーザは当該第1の仮想オブジェクトを制御して仮想シーンにおいて様々な動作を実行することができる。当然のことながら、いくつかの実施例では、上記ユーザアカウントは1つ以上の仮想オブジェクトに対応してもよく、ユーザアカウントが複数の仮想オブジェクトに対応する場合、ユーザは実際の状況に応じてある仮想オブジェクトを選択して上記第1の仮想オブジェクトとすることができる。
202において、端末は第2の仮想オブジェクトの位置を取得する。
本願の実施例では、端末は第2の仮想オブジェクトの位置を取得し、位置に基づいて、第2の仮想オブジェクトが当該第1の仮想オブジェクトの視野画面内にあるか否かを判断し、第2の仮想オブジェクト又は第2の仮想オブジェクトの指示情報を表示する必要があるか否かを判断することができる。
ここで、当該第2の仮想オブジェクトは第1の仮想オブジェクトと異なるチームに属する仮想オブジェクトであってもよく、第1の仮想オブジェクトと同じチームに属する仮想オブジェクトであってもよく、また、当該第1の仮想オブジェクト以外のいずれか1つの仮想オブジェクトであってもよい。任意選択的に、端末は少なくとも1つの第2の仮想オブジェクトの位置を取得する。例えば、端末はゲームの対局における全ての第2の仮想オブジェクトの位置を取得し、或いは、端末はゲームの対局における特殊な属性を有する第2の仮想オブジェクトの位置を取得し、或いは、端末は第1の仮想オブジェクトとの間の距離がある数値よりも小さい第2の仮想オブジェクトの位置を取得するなどが挙げられる。
203において、端末は第2の仮想オブジェクトの位置が目標領域内にあることに応答して、当該第2の仮想オブジェクトの当該第1の仮想オブジェクトに対する位置関係に基づいて、当該視野画面に当該第2の仮想オブジェクトの指示情報を表示し、当該目標領域は当該視野画面外の領域である。
位置関係は第2の仮想オブジェクトと第1の仮想オブジェクトとの間の相対位置関係であり、任意選択的に、本願の実施例では、第1の仮想オブジェクトと第2の仮想オブジェクトとの間の連結線(線分又はベクトルなど)により、上記位置関係を指示する。当然のことながら、いくつかの実施例では、第1の仮想オブジェクトと第2の仮想オブジェクトとの間の距離、偏向角度、相対座標などにより、上記位置関係を指示するとしてもよい。
本願の実施例では、端末は第2の仮想オブジェクトの位置が目標領域内にあると特定すると、第2の仮想オブジェクトが当該第1の仮想オブジェクトに対する位置関係に基づいて、当該視野画面に当該第2の仮想オブジェクトの指示情報を表示する。任意選択的に、本願の実施例では、視野画面外に位置する第2の仮想オブジェクトに対して、指示情報の表示を行うことができ、これにより、視野画面外の第2の仮想オブジェクトの位置を提示する。具体的には、端末は第2の仮想オブジェクトの位置を取得した後、第2の仮想オブジェクトの位置が視野画面外にあるか否かを判断することができ、第1の仮想オブジェクトの視野画面外に位置するいずれかの第2の仮想オブジェクトに対して、さらに、それが視野画面外の目標領域内に位置するか否か、すなわち、視野画面の周囲に位置するか否かを判断することにより、当該第2の仮想オブジェクトの指示情報を表示する必要があるか否かを特定する。
任意選択的に、上記目標領域は視野画面外の任意の領域である。一例として、視野画面の簡潔さを保証するために、視野画面に第1の仮想オブジェクトの周囲の第2の仮想オブジェクトのみを表示し、すなわち、目標領域は視野画面の周囲領域である。任意選択的に、目標領域を特定する際に、視野画面の各エッジ線を取得し、さらに、視野画面外の領域から、視野画面のエッジ線との距離がある数値よりも小さい点で構成される領域を、上記目標領域として特定する。
当然のことながら、第2の仮想オブジェクトの位置が当該視野画面内にあれば、当該第2の仮想オブジェクトの位置に基づいて、グラフィカルユーザインタフェースにおいて当該第2の仮想オブジェクトを直接表示することができる。例えば、第2の仮想オブジェクトの位置が視野画面内にある場合、第2の仮想オブジェクトの位置に当該第2の仮想オブジェクトを表示する。
また、関連技術において、情報表示方法は、通常、第1の仮想オブジェクトの位置に基づいて、その視野画面を取得し、当該視野画面内にある第2の仮想オブジェクトに対してこそ、その対応する位置に当該第2の仮想オブジェクトを表示することができる。明らかに、このような表示方法では、第1の仮想オブジェクトの視野画面内に入った第2の仮想オブジェクトしか表示できず、表示情報量が小さく、ユーザはより遠い第2の仮想オブジェクトの状況を知ることができず、いくつかの特殊な応用シーンでは、情報量が小さいため、ユーザに動作上の不便を与え、例えば、いくつかの発動距離が遠いスキルは、発動時、ユーザが視野画面外の第2の仮想オブジェクトの状況を知らず、当然ながらスキル発動の情報依拠もない。したがって、従来技術における情報表示方法は、表示効果が低い。
本願の実施例は、第2の仮想オブジェクトの位置を取得することにより、第2の仮想オブジェクトが視野画面外の目標領域内に位置する場合、現在の視野画面のエッジに第2の仮想オブジェクトの指示情報を表示することができ、これにより、第2の仮想オブジェクトの情報についての効果的な提示を達成し、視野画面における情報の表示量を増加させ、表示情報は視野画面における情報に限定されず、視野画面外の第2の仮想オブジェクトの情報を効果的に提示することができ、また、ユーザが第2の仮想オブジェクトとよりよくインタラクションするように補助することもでき、(例えば第2の仮想オブジェクトの位置により、あるスキルが当該第2の仮想オブジェクトに成功裏に命中できるか否かを特定し、)ユーザの第2の仮想オブジェクトに対する制御精度を向上させ、したがって、ゲームの対局における情報表示効果がより高い。
図3は本願の実施例に係る情報表示方法のフローチャートであり、図3を参照すると、当該方法は以下のステップ301~305を含む。
ステップ301において、グラフィカルユーザインタフェースにおいて、端末は第1の仮想オブジェクトの位置に基づいて、当該第1の仮想オブジェクトの視野画面を表示する。
端末は第1の仮想オブジェクトの視野画面を表示することができ、当該視野画面は当該第1の仮想オブジェクト、当該第1の仮想オブジェクトの周囲の仮想環境を含んでもよく、さらに、第1の仮想オブジェクトの周囲の他の仮想オブジェクトなどを含んでもよい。
任意選択的に、この表示した視野画面は、通常、仮想カメラによって観察され、あるカメラによってある実環境を観察する時の観察視野を模擬するものである。より良好な3D効果を達成するために、当該仮想カメラは仮想シーンの地面上方のある高さにあり、ある傾斜した視角で仮想シーンを観察するとしてもよい。したがって、上記ステップ301において、端末は第1の仮想オブジェクトの位置を取得し、当該第1の仮想オブジェクトの位置、仮想カメラの高さ及び垂直方向との間の角度に基づいて、仮想カメラの位置を特定し、当該仮想カメラの位置に基づいて、仮想シーン全体から、当該第1の仮想オブジェクトの視野画面を特定することができる。当該視野画面において、当該第1の仮想オブジェクトは視野画面の中心位置に位置し、視野画面に当該第1の仮想オブジェクトの周囲の環境が表示される。
例えば、図4に示すように、仮想カメラの高さはheight、垂直方向との間の角度はangle、第1の仮想オブジェクト(Actor)の位置はActorPosとしてもよい。上記したActorPosにより仮想カメラの位置を取得する場合は、下記式1から式3により実現することができる。
Figure 0007309917000001
Figure 0007309917000002
Figure 0007309917000003
ここで、cameraPos.x、cameraPos.y、cameraPos.zはそれぞれ仮想カメラのx、y、z軸の座標であり、ActorPos.x、ActorPos.y、ActorPos.zはそれぞれActorPosのx、y、z軸の座標である。cos()は余弦関数で、sin()は正弦関数である。
なお、上記した仮想カメラの位置についての説明は単に例示的且つ解釈的なものであり、いくつかの実施例では、実際の状況に応じて仮想カメラを異なる位置に設置することで異なる視野画面を取得することができる。例えば、第一人称ゲームでは、第1の仮想オブジェクトの位置を基準として、仮想カメラは第1の仮想オブジェクトの真正面の側に(真正面の側は第1の仮想オブジェクトの目の位置に基づいて決定されてもよい)に位置し、さらに、仮想カメラは第1の仮想オブジェクトの第一人称視点で、仮想シーン全体から、当該第1の仮想オブジェクトの視野範囲を特定し、この場合、第1の仮想オブジェクトは視野範囲外に位置し、すなわち、上記グラフィカルユーザインタフェースに第1の仮想オブジェクトが表示されない。また、例えば、第三人称ゲームでは、第1の仮想オブジェクトの位置を基準として、仮想カメラは第1の仮想オブジェクトの斜め後方に位置し、さらに、仮想カメラは第1の仮想オブジェクトの第三人称視点で、仮想シーン全体から、当該第1の仮想オブジェクトの視野範囲を特定し、この場合、第1の仮想オブジェクトは視野範囲におけるエッジ領域に位置し、すなわち、上記グラフィカルユーザインタフェースにおいてエッジ領域に第1の仮想オブジェクトが表示される。当然のことながら、ユーザは自身のニーズに応じて仮想カメラを調整することができる。一例として、ユーザは、グラフィカルユーザインタフェースに対するスライド動作又はピンチイン/アウト動作によって、仮想カメラの撮影位置及び撮影角度を調整する。
ステップ302において、端末は第2の仮想オブジェクトの位置を取得する。
端末は指示情報の形式による提示を必要とする第2の仮想オブジェクトがあるか否かを判断することができ、したがって、第2の仮想オブジェクトの位置を取得することができ、さらに、当該位置によって第2の仮想オブジェクトが目標領域内に位置するか否かを判断する。
1つの可能な実施形態では、端末は2次元位置を用いて当該第2の仮想オブジェクトの位置を識別してもよく、それに応じて、当該ステップ302は、ステップ1及びステップ2により実現されてもよい。ここで、2次元位置とはユーザグラフィックスインタフェースにおける仮想オブジェクトの位置であり、それに対して、3次元位置とは仮想シーンにおける仮想オブジェクトの位置である。任意選択的に、3次元位置と2次元位置との間に相互変換関係があり、3次元位置を2次元画像にマッピングすると2次元位置を取得することができ、2次元位置を3次元空間に変換すると3次元位置を取得することができる。
ステップ1において、端末は当該第2の仮想オブジェクトの仮想シーンにおける3次元位置を取得する。
当該仮想シーンは3次元の仮想空間であってもよく、端末は仮想シーンにおける第2の仮想オブジェクトの3次元位置を読み取ることができ、当該3次元位置は当該第2の仮想オブジェクトを制御する端末がサーバに同期することにより取得してもよいし、サーバがユーザ動作に基づいて取得してもよく、本願の実施例はこれについて限定しない。
特定の可能な一実施例では、当該第2の仮想オブジェクトの目標部位の位置により当該第2の仮想オブジェクトの位置を識別してもよく、すなわち、当該ステップ1において、端末は仮想シーンにおける当該第2の仮想オブジェクトの目標部位の3次元位置を取得するとしてもよい。ここで、当該目標部位は関連技術者がニーズに応じて設定されてもよい。
1つの可能な実施形態では、上記目標部位とは仮想オブジェクトのいずれかの身体部位であり、例えば、目標部位は足部であってもよいし、頭部又は腰部などであってもよく、本願の実施例はこれについて限定しない。
他の可能な実施形態では、異なる仮想オブジェクトの形態が異なる可能性があるため、上記目標部位とは仮想オブジェクトの複数の身体部位に対応する中心部位である。一例として、端末は、目標部位の位置を取得する場合、上記複数の身体部位に対応する位置をそれぞれ取得し、さらに、当該複数の身体部位に対応する位置に基づいて当該複数の身体部位に対応する中心部位を特定し(例えば、複数の身体部位の位置座標を平均化処理して中心部位の位置座標を得て)、さらに、当該中心部位の位置を目標部位の位置として特定する。例えば、目標部位は、両足に対応する中心部位、両手に対応する中心部位、四肢に対応する中心部位、又は四肢と頭部に対応する中心部位であってもよい。
ステップ2において、端末は仮想カメラと垂直方向との間の角度に基づいて、当該第2の仮想オブジェクトの3次元位置を2次元位置に変換する。
端末は3次元位置を取得した後、それを2次元位置に変換し、2次元位置によって第2の仮想オブジェクトが目標領域内に位置するか否かを分析することができる。1つのUI(User Interface、ユーザインタフェース)により2次元の第2の仮想オブジェクトを識別すれば、当該プロセスはUIの位置を計算することであることを理解できる。
例えば、3次元位置を2次元位置に変換するプロセスは行列計算によって実現することができ、以下、2次元位置を3次元位置に変換する式4を提供し、本願は逆変換過程によって、3次元位置を2次元位置に変換することができる。
Figure 0007309917000004
ここで、
Figure 0007309917000005
はカメラの内部パラメータ行列であり、
Figure 0007309917000006
はカメラの外部パラメータ行列である。
具体的な一例では、図5に示すように、「自分」は第1の仮想オブジェクトであり、ここでは、第2の仮想オブジェクトが敵の仮想オブジェクトであることを例とし、それを敵1、敵2、敵3、敵4、敵5と命名する。5つの第2の仮想オブジェクトの3次元位置をそれぞれUIに対応する位置に変換し、図5に示すような位置関係図を得ることができる。
ステップ303において、端末は第2の仮想オブジェクトの位置が目標領域内にあることに応答して、当該第2の仮想オブジェクトの位置及び当該第1の仮想オブジェクトの位置に基づいて、当該第2の仮想オブジェクトの当該第1の仮想オブジェクトに対する位置関係を取得する。
ここで、当該目標領域は視野画面外の領域である。任意選択的に、当該目標領域は当該視野画面外にある、当該視野画面を囲む領域であり、すなわち、視野画面の周囲の領域である。視野画面外にあるが、視野画面の周囲にある第2の仮想オブジェクトも第1の仮想オブジェクトに影響を与える可能性があることを理解でき、したがって、この部分の第2の仮想オブジェクトに対して位置提示を行ってもよい。
例えば、現在の視野画面を一定の比例で拡大した後、拡大した視野画面と視野画面が重なっていない領域を当該目標領域としてもよい。また、例えば、視野画面外及び各エッジ線との距離が当該距離閾値となる点で構成される目標領域枠内における視野画面外の領域を当該目標領域としてもよい。例えば、当該比例は1.4倍であってもよく、すなわち、当該目標領域は1.4倍のスクリーンにおけるスクリーン外の領域であってもよい。
端末は第2の仮想オブジェクトの位置を取得した後、それらが目標領域内に位置するか否かを判断してもよく、そうであれば、位置提示を行う必要があり、そうでなければ、2種類のケースに分けてもよい。1つのケースとして、視野画面内に位置し、視野画面にはこれらの第2の仮想オブジェクトが表示される。別のケースとして、視野画面及び目標領域外に位置し、このような第2の仮想オブジェクトは距離が遠く、第1の仮想オブジェクトに対する影響が小さいため、それに対して位置提示を行う必要がない。
判断する際、第2の仮想オブジェクトは、通常、1つの3次元モデルとして現れるため、脚部の位置で当該第2の仮想オブジェクトの位置を識別すると、視野画面の各辺の判断基準が統一されない現象が発生する可能性がある。具体的には、図6に示すように、スクリーンの左右にある敵は「半身」が露出する場合にスクリーンの外にあると判定され、上方の敵は「身体全体」が露出する場合にスクリーン外にあると判定され、下方のスクリーンに露出する「身体がない」場合にスクリーン外にあると判定される。このように異なる方向にある敵の表示感覚によって、検出基準は異なる。
特定の可能な一実施例では、各方向の検出基準を統一するために、端末は当該第1の仮想オブジェクトの視野画面に基づいて、第1の目標オフセット量に基づいて、当該視野画面を各方向にオフセットし、当該視野画面の検出範囲を得て、第2の仮想オブジェクトの位置が当該視野画面の検出範囲外にあることに応答して、当該第2の仮想オブジェクトの位置が当該視野画面外にあることを特定するとしてもよい。
任意選択的に、異なる方向は同じオフセット量に対応してもよく、異なるオフセット量に対応してもよい。
1つの可能な実施形態では、上記第1の目標オフセット量は1つのオフセット量を含み、端末は第1の目標オフセット量を取得した後、当該第1の目標オフセット量に含まれるオフセット量に基づいて、視野画面を各方向にオフセットし、当該視野画面の検出範囲を取得する。
他の可能な実施形態では、上記第1の目標オフセット量は複数のオフセット量を含み、異なるオフセット量は異なる方向に対応し、端末は第1の目標オフセット量を取得した後、当該第1の目標オフセット量に含まれる各オフセット量に基づいて、視野画面を各方向にオフセットし、当該視野画面の検出範囲を取得する。例えば、足部位置で第2の仮想オブジェクトの位置を識別すれば、スクリーンの上方を内向きに10%オフセットし、下方を外向きに15%オフセットし、左右を外向きにそれぞれ6%オフセットし、これをスクリーン内外の検出範囲とするとしてもよい。図7に示すように、図7にオフセットの状況を示し、オフセット前の視野画面は701とし、オフセット後の点線枠702は視野画面701の検出範囲となる。
同様に、第2の仮想オブジェクトの位置が目標領域にあるか否かを判断する時、同様の検出方式を用いてもよく、具体的には、端末は当該第1の仮想オブジェクトの視野画面及び目標スケーリング比率に基づいて、当該視野画面を囲む目標領域を取得し、第2の目標オフセット量に基づいて、当該目標領域を各方向にオフセットし、当該目標領域の検出範囲を得て、第2の仮想オブジェクトの位置が当該目標領域の検出範囲内にあることに応答して、当該第2の仮想オブジェクトの位置が当該目標領域内にあることを特定する。
当該第2の目標オフセット量は第1の目標オフセット量と同じであってもよく、異なってもよく、本願の実施例はこれについて限定しない。
当然のことながら、上記第1の目標オフセット量とは類似し、異なる方向は同じオフセット量に対応してもよく、異なるオフセット量に対応してもよく、すなわち、上記第2の目標オフセット量は1つのオフセット量を含んでもよく、異なる方向に対する複数のオフセット量を含んでもよく、本願の実施例はこれについて限定しない。
別のケースを満たす第2の仮想オブジェクトに対して、端末はそれらと第1の仮想オブジェクトとの位置関係を分析することにより、位置関係に基づいて指示情報の表示領域を特定することができる。
ここで、当該位置関係は当該第1の仮想オブジェクトの位置から当該第2の仮想オブジェクトの位置へのベクトルであり、又は、当該位置関係は当該第1の仮想オブジェクトと当該第2の仮想オブジェクトとの間の線分であり、本願の実施例はこれについて限定しない。それに応じて、当該ステップ303は、端末は当該第2の仮想オブジェクトの位置及び当該第1の仮想オブジェクトの位置に基づいて、当該第1の仮想オブジェクトから当該第2の仮想オブジェクトへのベクトルを取得することであってもよい。当該ステップ303は、さらに、端末は当該第2の仮想オブジェクトの位置及び当該第1の仮想オブジェクトの位置に基づいて、当該第1の仮想オブジェクトの位置と当該第2の仮想オブジェクトの位置との間の線分を取得することであってもよい。
ステップ304において、端末は当該位置関係及び当該視野画面のエッジ領域に基づいて、当該位置関係に対応する目標エッジ領域を特定する。
ここで、当該エッジ領域は当該視野画面のエッジ線との間の距離が距離閾値よりも小さい領域である。1つの可能な実施形態では、エッジ領域とは、視野画面のエッジ線との間の距離が距離閾値よりも小さい点で構成される領域であり、当該距離閾値とは、上記第2の仮想オブジェクトの指示情報が完全に表示される場合の最小表示サイズである。他の可能な実施形態では、上記エッジ領域とは、現在の視野画面を一定の比例で縮小した後、視野画面と縮小した視野画面が重なっていない領域である。
当該目標エッジ領域は指示情報の表示領域であり、当該目標エッジ領域はエッジ領域における1つの領域であり、指示情報を視野画面のエッジに表示することで、情報の表示量の増加を実現するとともに、視野画面に対する過度の遮蔽を回避することができる。
当該目標エッジ領域は当該第2の仮想オブジェクトの第1の仮想オブジェクトに対する位置関係に関連し、上記位置関係がベクトル又は線分の実施形態では、それに応じて、当該ステップ304は、端末は当該ベクトル又は当該線分と、当該エッジ領域との間の重なり線分を取得し、さらに当該重なり線分に基づいて、目標エッジ領域を特定することであってもよい。このように当該目標エッジ領域により、当該第2の仮想オブジェクトの方位を直感的且つ明瞭に知ることができる。一例として、端末は、上記重なり線分を取得した後、当該重なり線分上のいずれか一点を中心点として、中心点を中心とし、サイズを目標サイズとする領域を目標エッジ領域として特定する。
例えば、図8に示すように、目標領域801と、視野画面802とを含み、視野画面802はエッジ領域803を含む。表示した提示情報がヒーローアバターであれば、ヒーローアバター表示範囲と呼ぶことができる。上記提示情報表示条件に合致する敵3、敵5及び敵2については、第1の仮想オブジェクト(「自分」)と各敵の位置との間の線分のエッジ領域803の重なり線分により、各敵に対応する目標エッジ領域804を特定することができる。
ステップ305において、端末は当該目標エッジ領域において当該第2の仮想オブジェクトの指示情報を表示する。
端末は目標エッジ領域を特定すると、当該目標エッジ領域に提示情報を表示することができる。ここで、当該第2の仮想オブジェクトの指示情報は当該第2の仮想オブジェクトの指示アイコン、仮想ヘルスポイント、状態情報、位置指示又は名称のうち少なくとも1つを含み、当該位置指示は当該第1の仮想オブジェクトに対する当該第2の仮想オブジェクトの方向を示すためのものである。
ステップ303からステップ305は、当該第1の仮想オブジェクトに対する当該第2の仮想オブジェクトの位置関係に基づいて、当該視野画面における当該位置関係に対応する目標エッジ領域に、当該第2の仮想オブジェクトの指示情報を表示するプロセスであり、例えば、図9に示すように、スクリーン(視野画面)外の1つの敵91については、スクリーン内にないため、当該敵を表示することはできないが、スクリーンエッジの対応する位置に当該敵のアバター92を表示することがはできる。その端末画面の概略図は、図10に示すとおりであってもよく、敵の指示アイコン1001(アバター)、仮想ヘルスポイント1002(生命力)及び位置指示1003(「自分」に対する敵の方向)を表示することができる。
1つの可能な実施形態では、当該第2の仮想オブジェクトは当該第1の仮想オブジェクトと異なるチームに属する仮想オブジェクトであり、すなわち、第2の仮想オブジェクトは敵対する仮想オブジェクトであってもよく、指示情報を表示するか否かを特定する時に、さらに、第2の仮想オブジェクトの状態を参照してもよい。具体的には、端末は当該第2の仮想オブジェクトの状態を取得し、状態に基づいて後続の判断ステップを行うとしてもよい。具体的には、以下の3つのケースが含まれる。
ケース1において、端末は当該第2の仮想オブジェクトの状態が可視状態であることに応答して、当該第2の仮想オブジェクトの当該第1の仮想オブジェクトに対する位置関係に基づいて、当該視野画面における当該位置関係に対応する目標エッジ領域に、当該第2の仮想オブジェクトの指示情報を表示する当該ステップを実現する。
ケース2において、端末は当該第2の仮想オブジェクトの状態が生存状態であることに応答して、当該第2の仮想オブジェクトの当該第1の仮想オブジェクトに対する位置関係に基づいて、当該視野画面における当該位置関係に対応する目標エッジ領域に、当該第2の仮想オブジェクトの指示情報を表示する当該ステップを実現する。
ケース3において、端末は当該第2の仮想オブジェクトの状態が可視状態且つ生存状態であることに応答して、当該第2の仮想オブジェクトの当該第1の仮想オブジェクトに対する位置関係に基づいて、当該視野画面における当該位置関係に対応する目標エッジ領域に、当該第2の仮想オブジェクトの指示情報を表示する当該ステップを実現する。
上記の3つのケースにおいて、第2の仮想オブジェクトの状態を考慮すると、第2の仮想オブジェクトが生存している時に上記ステップを実現してもよく、第2の仮想オブジェクトが見える時に上記ステップを実現してもよく、第2の仮想オブジェクトが生存し且つ見える時に上記ステップを実現してもよい。
1つの可能な実施形態では、表示する必要がある指示情報が複数あるが、それらの表示領域が重なる場合、それをタイル表示してもよく、このようにすれば重なって表示することなく、ユーザが各第2の仮想オブジェクトの指示情報を明瞭に見ることを保証することができる。具体的には、端末は、少なくとも2つの第2の仮想オブジェクトの指示情報を表示し、且つ当該少なくとも2つの第2の仮想オブジェクトのうち2つ以上の第2の仮想オブジェクトの指示情報を含む表示領域に重なりが存在することに応答して、当該2つ以上の第2の仮想オブジェクトの指示情報をタイル表示するとしてもよい。例えば、図11に示すように、2つの指示情報が重なると、それらをタイル表示し、すなわち、第2の仮想オブジェクトAの指示情報111と、第2の仮想オブジェクトBの指示情報112が重なると、グラフィカルユーザインタフェースにおいて第2の仮想オブジェクトAの指示情報111及び第2の仮想オブジェクトBの指示情報112をタイル表示する。
1つの可能な実施形態では、第1の仮想オブジェクトのあるスキルが第2の仮想オブジェクトを選択すると、端末は指示情報を強調表示して、第2の仮想オブジェクトが選択された状態にあることを直観的に表示するとしてもよい。具体的には、端末は、当該第1の仮想オブジェクトの発動したスキルに選択された目標が当該第2の仮想オブジェクトであることに応答して、第1の表示形式に基づいて、当該第2の仮想オブジェクトの指示情報を表示するとしてもよい。例えば、図12に示すように、当該第1の表示形式は指示情報121の周囲に「照準レンズ122」が表示されているものであってもよい。
1つの可能な実施形態では、第1の仮想オブジェクトによるスキル発動が第2の仮想オブジェクトにダメージを与えるか又はその属性に影響を与えれば、さらに、指示情報を強調表示することによって顕著に示すとしてもよい。具体的には、端末は、当該第1の仮想オブジェクトの発動したスキルによる当該第2の仮想オブジェクトの影響に応答して、目標時間帯内に、第2の表示形式に基づいて、当該第2の仮想オブジェクトの指示情報を表示するとしてもよい。例えば、図13に示すように、当該目標時間帯は命中後の1.5秒以内であってもよい。第2の表示形式は指示情報131の周囲を目標色で表示するものであってもよい。例えば、目標色は赤色であってもよく、当該第2の仮想オブジェクトのアバターは赤色に表示されてもよい。
当該形態では、端末は、さらに、当該スキルによる当該第2の仮想オブジェクトの属性値に対する影響に基づいて、表示した当該第2の仮想オブジェクトの指示情報を更新してもよい。例えば、図13に示すように、第2の仮想オブジェクトにダメージが与えれば、第2の仮想オブジェクトの仮想ヘルスポイントの減少を表示してもよい。
1つの可能な実施形態では、ある第2の仮想オブジェクトの指示情報がしばらく表示されなければ、再び表示する時、注意喚起の特殊効果を増加してもよい。具体的には、端末は、現在のシステム時間と前回の当該第2の仮想オブジェクトの指示情報を表示した時間との間の時間の長さが目標時間の長さよりも長いことに応答して、第3の表示形式に従って、当該第2の仮想オブジェクトの指示情報を表示するとしてもよい。例えば、図14に示すように、目標時間の長さは6秒であってもよく、1つの敵の指示情報が6秒以内に表示されなければ、再び表示する時、第3の表示形式により注意喚起を強化してもよく、例えば当該第3の表示形式は指示情報141の周囲にフラッシュ特殊効果が表示されているものであってもよい。
本願の実施例は、第2の仮想オブジェクトの位置を取得することにより、第2の仮想オブジェクトが視野画面外の目標領域内に位置する場合、現在の視野画面のエッジに第2の仮想オブジェクトの指示情報を表示することができ、これにより、第2の仮想オブジェクトの情報についての効果的な提示を達成し、視野画面における情報の表示量を増加させ、表示情報は視野画面における情報に限定されず、視野画面外の第2の仮想オブジェクトの情報を効果的に提示することができ、また、ユーザが第2の仮想オブジェクトとよりよくインタラクションするように補助することもでき(例えば第2の仮想オブジェクトの位置により、あるスキルが当該第2の仮想オブジェクトに成功裏に命中できるか否かを特定する)、ユーザの第2の仮想オブジェクトに対する制御精度を向上させ、したがって、ゲームの対局における情報表示効果がより高い。
以下は具体的な例を提供し、図15に示すように、当該具体的な例では、第2の仮想オブジェクトが敵のヒーローであることを例として、端末は敵のヒーローのいずれに対してもトラバースを行ってもよく、各ヒーローには、アバター(すなわち指示情報)を表示する必要があるか否か、及び表示すべき位置(すなわち目標エッジ領域)を特定するための3つのステップがある。当該3つのステップは以下の第1のステップ~第3のステップであってもよい。
第1のステップにおいて、ヒーローの実の3dシーン位置からUI位置へ変換する。
第2のステップにおいて、変換後のUI位置が表示範囲(すなわち目標領域)内にあるか否か。
第3のステップにおいて、UI位置をスクリーン上の表示位置(すなわち目標エッジ領域)に変換し、矢印(すなわち位置指示)を処理する。
任意選択的に、トラバースが終了した後、トラバース結果に基づいて、グラフィカルユーザインタフェースに表示範囲内の敵のヒーローの指示情報を表示する。
上記の第2のステップについては、それをアバターへの位置フィルタリングプロセスと見なしてもよく、敵のヒーロー位置はカメラの可視範囲内にあるが、敵のヒーローはいずれも一定の身長を有するため、仮想カメラは敵のヒーローの脚部しか見ることができず、敵のヒーローの全身を見ることができず、このように視覚的注目度を失う可能性がある。したがって、この場合に対して、1つのスクリーンの最小可視範囲(InnerRect)を設定してもよく、例えば、図16における敵3のように、敵3の位置中心がスクリーン範囲内にあるが、依然としてそれが見えないと考える必要があるように、可視スクリーン範囲が設定される。具体的には、スクリーンにおける視野画面に対する領域分割及び目標領域分割は図16に示すとおりであってもよい。
例えば、図16に示すように、領域1はヒーローが完全に見える範囲(InnerRect)であり、当該領域1の取得プロセスは4つの値(pT、pB、pL、pR)に基づいて特定することができ、当該4つの値はそれぞれ上下左右の境界値を示し、スクリーンエッジからこの4つの値を差し引くと、1つの範囲、すなわち矩形1を取得することができる。さらに、最大範囲(ExternalRect)を設定してもよく、ヒーローが現在のキャラクタから最大範囲(ExternalRect)を超えて離れる場合、このヒーローは現在のヒーローに影響を一時的に与えず、したがって、このヒーローを考慮する必要がない。特定の一例では、さらに、ヒーローアバター可視範囲(領域2)を設定してもよく、ヒーロー可視範囲=ヒーローが完全に見える範囲(InnerRect)×Visible_Scale、ここで、Visible_Scaleは当業者がニーズに応じて設定することができる。上記設定により、全可視範囲内(敵1)及び表示範囲外(敵4)のアバターをフィルタリングすることができ、残った敵2、敵3及び敵5はエッジ領域にアバターを表示することができ、表示効果は図8に示すとおりであってもよい。
MOBAのモバイルゲームでは、レンズの範囲に制限されて、レンズのエッジにある敵は単位視野で見えにくい傾向がある。本願の実施例に係る方式により、スクリーンエッジによってゲーマーを成功裏に助けて敵の指定単位(ヒーロー)に対する早期警告、及びプレイヤキャラクタがスクリーン外の敵の指定単位(ヒーロー)にダメージを与える時における効果的な通知を実現することができる。当該技術的解決手段により、ゲーマーはゲーム中により多くの敵の単位情報を把握することができ、それにより、ゲームをより容易に行うことができる。
図17は本願の実施例に係る情報表示装置の構造概略図であり、図17に示すように、当該装置は、
グラフィカルユーザインタフェースにおいて、第1の仮想オブジェクトの位置に基づいて、前記第1の仮想オブジェクトの視野画面を表示する表示モジュール1701と、
第2の仮想オブジェクトの位置を取得する取得モジュール1702と、を含み、
表示モジュール1701は、さらに、前記第2の仮想オブジェクトの位置が目標領域内にあることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面における前記位置関係に対応する目標エッジ領域に、前記第2の仮想オブジェクトの指示情報を表示し、前記目標領域は前記視野画面外にある、前記視野画面を囲む領域である。
1つの可能な実施形態では、前記位置関係は前記第1の仮想オブジェクトの位置から前記第2の仮想オブジェクトの位置へのベクトル、又は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の線分を含み、
表示モジュール1701は、
前記ベクトル又は前記線分と前記視野画面のエッジ領域との間の重なり線分を取得し、前記エッジ領域とは、前記視野画面のエッジ線との間の距離が距離閾値よりも小さい点で構成される領域であり、前記距離閾値とは、前記第2の仮想オブジェクトの指示情報が完全に表示される場合の最小表示サイズであり、
前記重なり線分に基づいて、目標エッジ領域を特定し、
前記目標エッジ領域において前記第2の仮想オブジェクトの指示情報を表示する。
1つの可能な実施形態では、取得モジュール1702は、
前記第2の仮想オブジェクトの仮想シーンにおける3次元位置を取得し、
仮想カメラと垂直方向との間の角度に基づいて、前記第2の仮想オブジェクトの3次元位置を2次元位置に変換する。
1つの可能な実施形態では、取得モジュール1702は、さらに、前記第1の仮想オブジェクトの視野画面及び目標スケーリング比率に基づいて、前記視野画面を囲む目標領域を取得するために用いられ、
前記装置は、さらに、
第2の目標オフセット量に基づいて、前記目標領域を各方向においてオフセットして、前記目標領域の検出範囲を取得するオフセットモジュールと、
前記第2の仮想オブジェクトの位置が前記目標領域の検出範囲内にあることに応答して、前記第2の仮想オブジェクトの位置が前記目標領域内にあることを特定する特定モジュールと、を含む。
1つの可能な実施形態では、前記第2の仮想オブジェクトの指示情報は前記第2の仮想オブジェクトの指示アイコン、仮想ヘルスポイント、状態情報、位置指示又は名称のうち少なくとも1つを含み、前記位置指示は前記第1の仮想オブジェクトに対する前記第2の仮想オブジェクトの方向を示すためのものである。
1つの可能な実施形態では、前記第2の仮想オブジェクトは前記第1の仮想オブジェクトが属するチームと異なる仮想オブジェクトであり、
取得モジュール1702は、さらに、前記第2の仮想オブジェクトの状態を取得するために用いられ、
表示モジュール1701は、少なくとも、
前記第2の仮想オブジェクトの状態が可視状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現し、
或いは、
前記第2の仮想オブジェクトの状態が生存状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現し、
或いは、
前記第2の仮想オブジェクトの状態が可視状態且つ生存状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現する。
1つの可能な実施形態では、表示モジュール1701は、現在のシステム時間と前回の前記第2の仮想オブジェクトの指示情報を表示した時間との間の時間の長さが目標時間の長さよりも長いことに応答して、第3の表示形式に従って、前記第2の仮想オブジェクトの指示情報を表示する。
1つの可能な実施形態では、表示モジュール1701は、さらに、少なくとも2つの第2の仮想オブジェクトの指示情報を表示し、且つ前記少なくとも2つの第2の仮想オブジェクトのうち2つ以上の第2の仮想オブジェクトの指示情報を含む表示領域に重なりが存在することに応答して、前記2つ以上の第2の仮想オブジェクトの指示情報をタイル表示する。
1つの可能な実施形態では、表示モジュール1701は、さらに、前記第1の仮想オブジェクトの発動したスキルに選択された目標が前記第2の仮想オブジェクトであることに応答して、第1の表示形式に基づいて、前記第2の仮想オブジェクトの指示情報を表示する。
1つの可能な実施形態では、表示モジュール1701は、さらに、前記第1の仮想オブジェクトの発動したスキルによる前記第2の仮想オブジェクトの影響に応答して、目標時間帯内に、第2の表示形式に基づいて、前記第2の仮想オブジェクトの指示情報を表示する。
本願の実施例に係る装置は、第2の仮想オブジェクトの位置を取得することにより、第2の仮想オブジェクトが視野画面外の目標領域内に位置する場合、現在の視野画面のエッジに第2の仮想オブジェクトの指示情報を表示することができ、これにより、第2の仮想オブジェクトの情報についての効果的な提示を達成し、視野画面における情報の表示量を増加させ、表示情報は視野画面における情報に限定されず、視野画面外の第2の仮想オブジェクトの情報を効果的に提示することができ、また、ユーザが第2の仮想オブジェクトとよりよくインタラクションするように補助することもでき(例えば第2の仮想オブジェクトの位置により、あるスキルが当該第2の仮想オブジェクトに成功裏に命中できるか否かを特定する)、ユーザの第2の仮想オブジェクトに対する制御精度を向上させ、したがって、ゲームの対局における情報表示効果がより高い。
なお、上記実施例に係る情報表示装置は、情報表示時に、単に上記各機能モジュールの分割を例に挙げて説明したが、実際に利用する際に、ニーズに応じて上記機能を異なる機能モジュールに割り当てて実現することができ、すなわち、電子機器の内部構造を異なる機能モジュールに分割することで、以上に説明した全部又は一部の機能を実現する。また、上記実施例に係る情報表示装置及び情報表示方法の実施例は同一の思想に属し、その具体的な実現プロセスは情報表示方法の実施例を詳細に参照し、ここでは説明を省略する。
上記電子機器は、図18に示す下記端末として提供されてもよいし、図24に示す下記サーバとして提供されてもよく、本願の実施例はこれについて限定しない。
図18は本願の実施例に係る端末1800の構造概略図であり、当該端末1800は、スマートフォン、タブレットコンピュータ、MP3プレーヤ(Moving Picture Experts Group Audio Layer III、動画専門家グループオーディオレイヤー3)、MP4(Moving Picture Experts Group Audio Layer IV、動画専門家グループオーディオレイヤー4)プレーヤ、ノートパソコン又はデスクトップパソコンであってもよい。端末1800は、さらに、ユーザ機器、携帯端末、ラップトップ端末、デスクトップ端末など、他の名称と呼ばれることもある。
通常、端末1800はプロセッサ1801と、メモリ1802とを含む。
プロセッサ1801は、例えば4コアプロセッサ、8コアプロセッサなどのような1つ以上のプロセッシングコアを含んでもよい。プロセッサ1801は、DSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field-Programmable Gate Array、フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array、プログラマブルロジックアレイ)のうち少なくとも1つのハードウェア形式で実現することができる。プロセッサ1801は、ウェイクアップ状態でのデータを処理するプロセッサであって、CPU(Central Processing Unit、中央処理装置)とも呼ばれるメインプロセッサと、待機状態でのデータを処理する低消費電力プロセッサであるコプロセッサとを含んでもよい。いくつかの実施例では、プロセッサ1801にはGPU(Graphics Processing Unit、グラフィック処理ユニット)が集積されてもよく、GPUは表示スクリーンによって表示される必要があるコンテンツのレンダリング及びプロットを担当するために用いられる。いくつかの実施例では、プロセッサ1801はAI(Artificial Intelligence、人工知能)プロセッサをさらに含んでもよく、当該AIは機械学習に関連するコンピューティング動作を処理するために用いられる。
メモリ1802は、非一時的であってもよいコンピュータ読み取り可能な記憶媒体を1つ以上含んでもよい。メモリ1802は、さらに、高速ランダムメモリと、例えば少なくとも1つの磁気記憶装置、フラッシュメモリのような不揮発性メモリを含んでもよい。いくつかの実施例では、メモリ1802における非一時的なコンピュータ読み取り可能な記憶媒体は少なくとも1つの命令を記憶するために用いられ、当該少なくとも1つの命令はプロセッサ1801に実行されて本願における各実施例に係る情報表示方法における端末側の方法のステップを実現するために用いられる。
いくつかの実施例では、端末1800は、任意選択的に、周辺機器インタフェース1803と、少なくとも1つの周辺機器とを含んでもよい。プロセッサ1801とメモリ1802と周辺機器インタフェース1803との間は、バス又は信号線によって接続されてもよい。各周辺機器はバス、信号線又は回路基板を介して周辺機器インタフェース1803に接続されてもよい。具体的には、周辺装置は、無線周波数回路1804と、表示スクリーン1805と、カメラアセンブリ1806と、オーディオ回路1807と、位置決めアセンブリ1808と、電源1809とのうち少なくとも1つを含む。
当業者であれば、図18に示された構造は、端末1800を限定するものではなく、図示されたものよりも多い又は少ないアセンブリを含んでもよく、或いは、いくつかのアセンブリを組み合わせてもよく、或いは異なるアセンブリ配置を採用してもよいことを理解することができる。
図19は本願の実施例に係るサーバ1900の構造概略図であり、当該サーバ1900は配置又は性能によって大きく異なってもよく、1つ以上のプロセッサ(Central Processing Units、CPU)1901と、1つ以上のメモリ1902とを含んでもよく、ここで、当該メモリ1902に少なくとも1つのプログラムコードが記憶され、当該少なくとも1つのプログラムコードは当該プロセッサ1901によりロードされ実行されて、上記各実施例に係る情報表示方法におけるサーバ側の方法のステップを実現する。当然のことながら、当該サーバ1900は、さらに、入出力を行うように、有線又は無線ネットワークインタフェース、キーボード及び入出力インタフェースなどの部材を有してもよく、当該サーバ1900は、さらに、機器の機能を実現するための他の部材を含んでもよく、ここでは説明を省略する。
例示的な実施例では、さらに、コンピュータ読み取り可能な記憶媒体を提供し、例えば少なくとも1つのプログラムコードを含むメモリが挙げられ、上記少なくとも1つのプログラムコードは電子機器におけるプロセッサにより実行されて、上記実施例における情報表示方法を完了することができる。例えば、当該コンピュータ読み取り可能な記憶媒体はROM(Read-Only Memory、リードオンリーメモリ)、RAM(Random-Access Memory、ランダムアクセスメモリ)、CD-ROM(Compact Disc Read-Only Memory、リードオンリー光ディスク)、磁気テープ、フロッピーディスク、及び光データ記憶装置などであってもよい。
例示的な実施例では、コンピュータプログラム製品又はコンピュータプログラムをさらに提供し、当該コンピュータプログラム製品又はコンピュータプログラムはコンピュータ命令を含み、当該コンピュータ命令はコンピュータ読み取り可能な記憶媒体に記憶される。電子機器のプロセッサはコンピュータ読み取り可能な記憶媒体から当該コンピュータ命令を読み取り、プロセッサは当該コンピュータ命令を実行することにより、当該電子機器に上記情報表示方法を実行させる。
当業者であれば、上記実施例の全部又は一部のステップの実現はハードウェアによって完了されてもよく、プログラムによって関連するハードウェアによって完了されてもよく、当該プログラムはコンピュータ読み取り可能な記憶媒体に記憶されてもよく、以上言及した記憶媒体はリードオンリーメモリ、磁気ディスク又は光ディスクなどであってもよいことを理解することができる。
以上は本願の任意選択的な実施例にすぎず、本願を限定するものではなく、本願の精神及び原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本願の保護範囲内に含まれるべきである。
120 第1の端末
140 サーバ
160 第2の端末
701 オフセット前の視野画面
702 オフセット後の点線枠
801 目標領域
802 視野画面
803 エッジ領域
804 目標エッジ領域
91 敵
92 敵のアバター
1001 敵の指示アイコン
1002 敵の仮想ヘルスポイント
1003 敵の位置指示
111 第2の仮想オブジェクトAの指示情報
112 第2の仮想オブジェクトBの指示情報
121、131、141 指示情報
122 照準レンズ
1701 表示モジュール
1702 取得モジュール
1800 端末
1801 プロセッサ
1802 メモリ
1803 周辺機器インターフェース
1804 無線周波数回路
1805 表示スクリーン
1806 カメラアセンブリ
1807 オーディオ回路
1808 位置決めアセンブリ
1809 電源
1900 サーバ
1901 プロセッサ
1902 メモリ

Claims (12)

  1. 電子機器が実行する情報表示方法であって、
    グラフィカルユーザインタフェースにおいて、第1の仮想オブジェクトの位置に基づいて、前記第1の仮想オブジェクトの視野画面を表示するステップと、
    第2の仮想オブジェクトの位置を取得するステップと、
    前記第2の仮想オブジェクトの位置が目標領域内にあることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示するステップであって、前記目標領域は前記視野画面外の領域であるステップと、を含み、
    前記第2の仮想オブジェクトの指示情報を表示する前記ステップは、
    前回前記第2の仮想オブジェクトの指示情報の表示がされなくなった後、現在のシステム時間と、前記第2の仮想オブジェクトの指示情報を前回表示した時間との間の時間の長さが目標時間の長さよりも長いことに応答して、第3の表示形式に従って、前記第2の仮想オブジェクトの指示情報を表示するステップを含む、情報表示方法。
  2. 前記位置関係は、前記第1の仮想オブジェクトの位置から前記第2の仮想オブジェクトの位置へのベクトル、又は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の線分を含み、
    前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップは、
    前記ベクトル又は前記線分と前記視野画面のエッジ領域との間の重なり線分を取得するステップであって、前記エッジ領域とは、前記視野画面のエッジ線との間の距離が距離閾値よりも小さい点で構成される領域であり、前記距離閾値とは、前記第2の仮想オブジェクトの指示情報が完全に表示される場合の最小表示サイズであるステップと、
    前記重なり線分に基づいて、目標エッジ領域を特定するステップと、
    前記目標エッジ領域において前記第2の仮想オブジェクトの指示情報を表示するステップと、を含む請求項1に記載の方法。
  3. 第2の仮想オブジェクトの位置を取得する前記ステップは、
    前記第2の仮想オブジェクトの仮想シーンにおける3次元位置を取得するステップと、
    仮想カメラと垂直方向との間の角度に基づいて、前記第2の仮想オブジェクトの3次元位置を2次元位置に変換するステップと、を含む請求項1に記載の方法。
  4. 前記第2の仮想オブジェクトの位置が目標領域内にあることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップの前に、
    前記第1の仮想オブジェクトの視野画面及び目標スケーリング比率に基づいて、前記視野画面を囲む目標領域を取得するステップと、
    第2の目標オフセット量に基づいて、前記目標領域を各方向においてオフセットして、前記目標領域の検出範囲を取得するステップと、
    前記第2の仮想オブジェクトの位置が前記目標領域の検出範囲内にあることに応答して、前記第2の仮想オブジェクトの位置が前記目標領域内にあることを特定するステップと、をさらに含む請求項1に記載の方法。
  5. 前記第2の仮想オブジェクトの指示情報は、前記第2の仮想オブジェクトの指示アイコン、仮想ヘルスポイント、状態情報、位置指示又は名称のうち少なくとも1つを含み、
    前記位置指示は、前記第1の仮想オブジェクトに対する前記第2の仮想オブジェクトの方向を示すためのものである請求項1に記載の方法。
  6. 前記第2の仮想オブジェクトは、前記第1の仮想オブジェクトと異なるチームに属する仮想オブジェクトであり、
    前記第2の仮想オブジェクトの状態を取得するステップを、さらに含み、
    前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップは、
    前記第2の仮想オブジェクトの状態が可視状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現するステップ、或いは、
    前記第2の仮想オブジェクトの状態が生存状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現するステップ、或いは、
    前記第2の仮想オブジェクトの状態が可視状態且つ生存状態であることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する前記ステップを実現するステップと、を含む請求項1に記載の方法。
  7. 少なくとも2つの第2の仮想オブジェクトの指示情報を表示し、且つ前記少なくとも2つの第2の仮想オブジェクトのうち2つ以上の第2の仮想オブジェクトの指示情報を含む表示領域に重なりが存在することに応答して、前記2つ以上の第2の仮想オブジェクトの指示情報をタイル表示するステップを、さらに含む請求項1に記載の方法。
  8. 前記第1の仮想オブジェクトの発動したスキルに選択された目標が前記第2の仮想オブジェクトであることに応答して、第1の表示形式に基づいて、前記第2の仮想オブジェクトの指示情報を表示するステップを、さらに含む請求項1に記載の方法。
  9. 前記第1の仮想オブジェクトの発動したスキルによる前記第2の仮想オブジェクトの影響に応答して、目標時間帯内に、第2の表示形式に基づいて、前記第2の仮想オブジェクトの指示情報を表示するステップを、さらに含む請求項1に記載の方法。
  10. 情報表示装置であって、
    グラフィカルユーザインタフェースにおいて、第1の仮想オブジェクトの位置に基づいて、前記第1の仮想オブジェクトの視野画面を表示する表示モジュールと、
    第2の仮想オブジェクトの位置を取得する取得モジュールと、を含み、
    前記表示モジュールは、さらに、前記第2の仮想オブジェクトの位置が前記視野画面外の領域である目標領域内にあることに応答して、前記第2の仮想オブジェクトの前記第1の仮想オブジェクトに対する位置関係に基づいて、前記視野画面に前記第2の仮想オブジェクトの指示情報を表示する表示モジュールであり、
    前記第2の仮想オブジェクトの指示情報を表示することは、
    前回前記第2の仮想オブジェクトの指示情報の表示がされなくなった後、現在のシステム時間と、前記第2の仮想オブジェクトの指示情報を前回表示した時間との間の時間の長さが目標時間の長さよりも長いことに応答して、第3の表示形式に従って、前記第2の仮想オブジェクトの指示情報を表示することをさらに含む、情報表示装置。
  11. 1つ以上のプロセッサと1つ以上のメモリとを含み、前記1つ以上のメモリに少なくとも1つのプログラムコードが記憶されており、前記少なくとも1つのプログラムコードは前記1つ以上のプロセッサによってロードされ実行されると、請求項1から請求項のいずれか一項に記載の情報表示方法による動作を実現する電子機器。
  12. コンピュータに請求項1から請求項のいずれか一項に記載の情報表示方法による動作を実行させるコンピュータ用のプログラム。
JP2021566346A 2020-05-29 2021-05-24 情報表示方法、装置、機器及びプログラム Active JP7309917B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023110007A JP2023126292A (ja) 2020-05-29 2023-07-04 情報表示方法、装置、機器及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010478147.7 2020-05-29
CN202010478147.7A CN111672126B (zh) 2020-05-29 2020-05-29 信息显示方法、装置、设备及存储介质
PCT/CN2021/095531 WO2021238870A1 (zh) 2020-05-29 2021-05-24 信息显示方法、装置、设备及存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023110007A Division JP2023126292A (ja) 2020-05-29 2023-07-04 情報表示方法、装置、機器及びプログラム

Publications (2)

Publication Number Publication Date
JP2022538204A JP2022538204A (ja) 2022-09-01
JP7309917B2 true JP7309917B2 (ja) 2023-07-18

Family

ID=72453282

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021566346A Active JP7309917B2 (ja) 2020-05-29 2021-05-24 情報表示方法、装置、機器及びプログラム
JP2023110007A Pending JP2023126292A (ja) 2020-05-29 2023-07-04 情報表示方法、装置、機器及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023110007A Pending JP2023126292A (ja) 2020-05-29 2023-07-04 情報表示方法、装置、機器及びプログラム

Country Status (7)

Country Link
US (1) US20220032194A1 (ja)
EP (1) EP3943175A4 (ja)
JP (2) JP7309917B2 (ja)
KR (1) KR20210148196A (ja)
CN (1) CN111672126B (ja)
SG (1) SG11202112178SA (ja)
WO (1) WO2021238870A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111672126B (zh) * 2020-05-29 2023-02-10 腾讯科技(深圳)有限公司 信息显示方法、装置、设备及存储介质
CN112206516A (zh) * 2020-10-21 2021-01-12 网易(杭州)网络有限公司 游戏中的信息显示方法、装置、存储介质及计算机设备
CN113082700A (zh) * 2021-04-15 2021-07-09 网易(杭州)网络有限公司 信息交互方法、装置和电子设备
CN114138120B (zh) * 2021-12-09 2023-02-14 北京冰镇山竹科技有限公司 一种运用于虚拟现实中的虚拟视角追踪方法及系统
CN117547838A (zh) * 2022-08-05 2024-02-13 腾讯科技(成都)有限公司 社交互动的方法、装置、设备、可读存储介质及程序产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000140416A (ja) 1998-11-17 2000-05-23 Namco Ltd ゲーム装置及び情報記憶媒体
JP2018057462A (ja) 2016-09-30 2018-04-12 株式会社コロプラ ゲームプログラム、ゲームを提供する方法、および情報処理装置
CN108619721A (zh) 2018-04-27 2018-10-09 腾讯科技(深圳)有限公司 虚拟场景中的距离信息显示方法、装置及计算机设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2888724B2 (ja) * 1993-03-26 1999-05-10 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
JP4463227B2 (ja) * 2006-03-15 2010-05-19 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP5296599B2 (ja) * 2009-05-08 2013-09-25 任天堂株式会社 ネットワークシステム,情報処理装置および情報処理プログラム
JP6418299B1 (ja) * 2017-09-15 2018-11-07 株式会社セガゲームス 情報処理装置及びプログラム
CN108295465A (zh) * 2018-02-12 2018-07-20 腾讯科技(深圳)有限公司 在三维虚拟环境中分享视野的方法、装置、设备及存储介质
CN108525300B (zh) * 2018-04-27 2020-01-24 腾讯科技(深圳)有限公司 位置指示信息显示方法、装置、电子装置及存储介质
JP2018192326A (ja) * 2018-09-12 2018-12-06 株式会社コロプラ ゲームプログラム、ゲームを提供する方法、および情報処理装置
CN110833694B (zh) * 2019-11-15 2023-04-07 网易(杭州)网络有限公司 游戏中的显示控制方法及装置
CN111185004B (zh) * 2019-12-30 2023-08-18 网易(杭州)网络有限公司 游戏的控制显示方法、电子设备及存储介质
CN111672126B (zh) * 2020-05-29 2023-02-10 腾讯科技(深圳)有限公司 信息显示方法、装置、设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000140416A (ja) 1998-11-17 2000-05-23 Namco Ltd ゲーム装置及び情報記憶媒体
JP2018057462A (ja) 2016-09-30 2018-04-12 株式会社コロプラ ゲームプログラム、ゲームを提供する方法、および情報処理装置
CN108619721A (zh) 2018-04-27 2018-10-09 腾讯科技(深圳)有限公司 虚拟场景中的距离信息显示方法、装置及计算机设备

Also Published As

Publication number Publication date
JP2022538204A (ja) 2022-09-01
US20220032194A1 (en) 2022-02-03
WO2021238870A1 (zh) 2021-12-02
EP3943175A4 (en) 2022-08-31
CN111672126B (zh) 2023-02-10
KR20210148196A (ko) 2021-12-07
SG11202112178SA (en) 2021-12-30
CN111672126A (zh) 2020-09-18
JP2023126292A (ja) 2023-09-07
EP3943175A1 (en) 2022-01-26

Similar Documents

Publication Publication Date Title
JP7309917B2 (ja) 情報表示方法、装置、機器及びプログラム
WO2022151946A1 (zh) 虚拟角色的控制方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN111672127B (zh) 虚拟对象的控制方法、装置、设备以及存储介质
JP7427728B2 (ja) 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
JP7390400B2 (ja) 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム
US20230050933A1 (en) Two-dimensional figure display method and apparatus for virtual object, device, and storage medium
CN111672116B (zh) 控制虚拟对象释放技能的方法、装置、终端及存储介质
JP7250403B2 (ja) 仮想シーンの表示方法、装置、端末及びコンピュータプログラム
CN111672099A (zh) 虚拟场景中的信息展示方法、装置、设备及存储介质
KR102645535B1 (ko) 가상 장면에서의 가상 객체 제어 방법 및 장치, 디바이스 그리고 저장 매체
CN111399639A (zh) 虚拟环境中运动状态的控制方法、装置、设备及可读介质
TWI804032B (zh) 虛擬場景中的資料處理方法、裝置、設備、儲存媒體及程式產品
CN111672106B (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
US20230033530A1 (en) Method and apparatus for acquiring position in virtual scene, device, medium and program product
CN111589139A (zh) 虚拟对象展示方法、装置、计算机设备及存储介质
JP2023552212A (ja) 対局決済インタフェースの表示方法、装置、機器及びコンピュータプログラム
JP2022552752A (ja) 仮想環境の画面表示方法及び装置、並びにコンピュータ装置及びプログラム
CN111494937A (zh) 虚拟对象的控制、信息同步方法、装置、设备及介质
CN112316429A (zh) 虚拟对象的控制方法、装置、终端及存储介质
JP2023164787A (ja) 仮想環境の画面表示方法、装置、機器及びコンピュータプログラム
KR20230042517A (ko) 연락처 정보 디스플레이 방법, 장치 및 전자 디바이스, 컴퓨터-판독가능 저장 매체, 및 컴퓨터 프로그램 제품
CN112221135B (zh) 画面显示方法、装置、设备以及存储介质
WO2023024880A1 (zh) 虚拟场景中的表情显示方法、装置、设备以及介质
CN112156463B (zh) 角色展示方法、装置、设备及介质
CN112843682B (zh) 数据同步方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7309917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150