JP2024514751A - 仮想対象のマーキング方法と装置及びコンピュータプログラム - Google Patents

仮想対象のマーキング方法と装置及びコンピュータプログラム Download PDF

Info

Publication number
JP2024514751A
JP2024514751A JP2023553001A JP2023553001A JP2024514751A JP 2024514751 A JP2024514751 A JP 2024514751A JP 2023553001 A JP2023553001 A JP 2023553001A JP 2023553001 A JP2023553001 A JP 2023553001A JP 2024514751 A JP2024514751 A JP 2024514751A
Authority
JP
Japan
Prior art keywords
virtual object
scene
information
target virtual
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023553001A
Other languages
English (en)
Inventor
チャイ,ルォビン
ヘ,ロン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2024514751A publication Critical patent/JP2024514751A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本出願の実施例はインターネットの技術分野に関し、仮想対象のマーキング方法と装置及びコンピュータプログラムを提供する。該方法は第一端末により実行され、具体的には、仮想シーンのシーン画面を表示し、仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示し、そして、説明情報に対してのタッチ操作に応じて、仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示することを含む。

Description

本出願は、2021年6月10日に中国専利局に出願した、出願番号が202110648470.9、発明の名称が「仮想対象のマーキング方法及び装置」である中国特許出願に基づく優先権を主張するものであり、その全内容を参照によりここに援用する。
本出願の実施例は、インターネットの技術分野に関し、特に、仮想対象(仮想オブジェクトともいう)のマーキング方法と装置及びコンピュータプログラムに関する。
今のところ、チーム対戦(チームバトルともいう)ゲームがプレイヤーの間で大人気となっている。チームバトルゲームの1つのゲームシーンにおいて、1つのプレイヤーが1つのゲームアイテムを発見した後に、該ゲームアイテムをマーキングすることで該プレイヤーチームの他のプレイヤー(即ち、該プレイヤーのチームメイト)と該ゲームアイテムの位置をシェア(共有)する。
本出願の実施例は、仮想対象のマーキング方法と装置及びコンピュータプログラムの提供を課題とする。
本出願の実施例によれば、仮想対象のマーキング方法が提供され、該方法は第一端末により実行され、該方法は、
仮想シーンのシーン画面を表示し;
仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示し、照準操作は第一仮想対象が仮想照準器を用いて目標仮想対象に対して行う照準動作であり、第一仮想対象は第一端末が制御する仮想対象であり;及び
説明情報に対してのタッチ操作に応じて、仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示し、マーキング情報は目標仮想対象の仮想シーン内の位置をマーキングするために用いられることを含む。
本出願の実施例によれば、仮想対象のマーキング装置がさらに提供され、該装置は第一端末に適用され、該装置は、
仮想シーンのシーン画面を表示するためのシーン画面表示モジュール;
仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示するための第一画面表示モジュールであって、照準操作は第一仮想対象が仮想照準器を用いて目標仮想対象に対して行う照準動作であり、第一仮想対象は第一端末が制御する仮想対象である、第一画面表示モジュール;及び
説明情報に対してのタッチ操作に応じて、仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示するための第二画面表示モジュールであって、マーキング情報は目標仮想対象の仮想シーン内の位置をマーキングするために用いられる、第二画面表示モジュールを含む。
本出願の実施例によれば、電子機器が提供され、該電子機器は第一端末として用いられ、前記電子機器は処理器及び記憶器を含み、前記記憶器には少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは前記処理器によりロードされ実行されることで、前述の仮想対象のマーキング方法を実現する。
本出願の実施例によれば、コンピュータ可読記憶媒体が提供され、前記コンピュータ可読記憶媒体には少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは処理器によりロードされ実行されることで、前述の仮想対象のマーキング方法を実現する。
また、本出願の実施例によれば、コンピュータプログラムプロダクトが提供され、コンピュータプログラムプロダクトにはコンピュータプログラムコードが含まれており、コンピュータプログラムコードはコンピュータで実行されるときに、コンピュータに、前述の仮想対象のマーキング方法を実行させる。
本出願の実施例に係る技術案をより明確に説明するために、以下、本出願の実施例で使用する必要のある図面について簡単に紹介する。なお、理解できるように、当業者は創造性のある労働をせずにこれらの図面に基づいて他の図面を得ることもできる。
本出願の実施例で提供されるマーキングゲームアイテムの例示的なシーンを示す図である。 本出願の実施例で提供されるゲームアプリケーション実行システムの例示的なアーキテクチャを示す図である。 本出願の実施例で提供される仮想対象のマーキング方法の例示的なフローチャートである。 本出願の実施例で提供される仮想シーンの例示的な3次元モデルのシーンを示す図である。 本出願の実施例で提供される説明情報を表示するシーン画面の例示的なインターフェースを示す図である。 本出願の実施例で提供される説明情報を表示するシーン画面のもう1つの例示的なインターフェースを示す図である。 本出願の実施例で提供されるマーキング情報を表示するシーン画面の例示的なインターフェースを示す図である。 本出願の実施例で提供されるマーキング情報を表示するシーン画面のもう1つの例示的なインターフェースを示す図である。 本出願の実施例で提供されるマーキング情報を表示するシーン画面の3つ目の例示的なインターフェースを示す図である。 本出願の実施例で提供されるマーキング情報を表示するシーン画面の4つ目の例示的なインターフェースを示す図である。 本出願の実施例で提供される仮想対象のマーキング装置90の例示的な構成を示す図である。 本出願の実施例で提供される電子機器91の例示的な構成を示す図である。
以下、本出願の実施例における図面と併せて本出願の実施例の技術案について説明する。
本出願の以下の実施例に使用される用語は特定の実施例を説明するためのものであり、本出願の技術案を限定するものではない。本出願の明細書及び添付の特許請求の範囲に使用されるように、単数表現“1つ”、“1種”、“前記”、“前述”、“該”及び“この”は、文脈に明らかな相反教示又は相反示唆がない限りに、複数の表現も含むことを意図している。
以下、本出願の実施例に係る関連技術について簡単に紹介する。
1.仮想シーン
仮想シーンはゲームアプリケーションが端末で実行されるときに表示(又は提供)される仮想のシーンである。該仮想シーンはリアル世界をシミュレーションした環境シーンであっても良く、半分シミュレーション、半分架空の3次元環境シーンであっても良く、又は、完全な架空3次元環境シーンであっても良い。仮想シーンは2次元仮想シーン、2.5次元仮想シーン及び3次元仮想シーンのうちの任意の1つであっても良い。幾つかの実施例において、仮想シーンには仮想対象が含まれ得る。
2.仮想対象
仮想対象とは仮想シーンにおける移動可能な対象を指す。該移動可能な対象は仮想人物(キャラクター)、仮想動物、仮想乗り物及び仮想品物のうちの少なくとも1つであっても良い。幾つかの実施例において、仮想シーンが3次元仮想シーンであるときに、仮想対象はアニメーションスケルトン技術に基づいて構築された3次元立体モデルである。各仮想対象は3次元仮想シーンにおいて独自の形状、体積及び向きを持ち、かつ3次元仮想シーンにおける一部の空間を占める。
仮想シーンのシーン画面は該仮想シーンに対応する端末により制御される仮想対象の移動に伴って継続的に更新できる。仮想シーンのシーン画面は対応する仮想対象の視角(視点)下の画面であっても良い。仮想対象の移動は体勢の調整、クロール、歩き、走り、ライディング、フライング、ジャンプ、仮想照準器による照準、射撃、運転、ピックアップ、攻撃、投擲、スキル(解放)リリースなどを含んでも良い。
幾つかの実施例において、ゲームアプリケーション実行過程で、仮想シーンはサーバーがレンダリングすることで生成され、その後、端末に送信され、端末のハードウェア(例えば、スクリーン)により表示され得る。
図1を参照するに、図1は一般的に使用されているゲームアイテムのマーキング方法を示しており、該方法では仮想クロスヘアにより1つのゲームアイテム01を照準した後に、プレイヤーは標識アイコン02をクリックすることで該ゲームアイテムをマーキングする。しかし、ゲームシーンには複数のゲームアイテムが含まれており、プレイヤーは照準されたゲームアイテムを見間違えやすい。そのため、マーキングエラーが発生し、即ち、プレイヤーが実際にマーキングしたゲームアイテムはプレイヤーがマーキングしたいゲームアイテムではなく、これによって、プレイヤーのゲームエクスペリエンス(体験)の低下を来すことがある。
本出願の実施例では仮想対象のマーキング方法が提供され、これによって、マーキングエラーを回避できるだけでなく、目標仮想対象をマーキングする利便性を向上させることもできる。
図2を参照するに、図2は本出願の実施例で提供される、本出願の実施例に係る仮想対象のマーキング方法に適した仮想対象マーキングシステムの例示的なアーキテクチャを示す図である。該仮想対象マーキングシステムはゲームを実行するゲームアプリケーション実行システムであっても良い。該仮想対象マーキングシステムはサーバー10、第一端末20及び第二端末30を含む。
理解できるように、図2は例示的な説明に過ぎず、本出願の実施例に係る仮想対象マーキングシステムを限定しない。実際の実装にあたって、本出願の実施例に係る仮想対象マーキングシステムは図示よりも多くの又は少ないデバイスを含んでも良い。なお、本出願の実施例はこれについて限定しない。
サーバー10は1台のサーバー、複数台のサーバーからなるサーバー群、クラウドコンピューティングプラットフォーム及び仮想化センターのうちの少なくとも1つを含んでも良い。サーバー10はアプリケーションプログラム、例えば、ゲームアプリケーションを実行し、アプリケーションプログラムの実行のためにコンピューティングリソースを提供し、及びゲームのすべての設定やパラメータに関するロジックを処理するために用いられ、例えば、アプリケーションプログラムの実行のためにデータベース、関数、ストレージ、ネットワークサービス、通信、ミドルウェアサービス、ドメイン名サービス、セキュリティサービス、CDN(Content Delivery Network、コンテンツ配信ネットワーク)、ビッグデータ、人工知能プラットフォームなどのコンピューティングサービスを提供することを含む。例えば、サーバー10は端末からの操作要求(リクエスト)を受信し、対応する操作要求に基づいてアプリケーションプログラムに対して対応する操作イベントを実行し、そして、アプリケーションプログラムに対応する各3次元仮想環境をレンダリングし、レンダリングした各仮想環境を対応する端末に送信し、これによって、対応する端末が対応する仮想環境を表示するようにさせることができる。
第一端末20及び第二端末30は例えば、スマートフォン、タブレットコンピュータ、ゲーム機、電子書籍リーダー、マルチメディア再生装置、ウェアラブル装置、PC(Personal Computer、パーソナルコンピュータ)などの電子機器として実装されても良い。第一端末20及び第二端末30の機器類型は同じであっても良く、異なっても良い。なお、ここではそれらに限定されない。第一端末20及び第二端末30では上述のアプリケーションプログラムを実行するアプリケーションクライアントがインストールされ、かつ該アプリケーションプログラムに対応する仮想シーンのシーン画面が表示されても良く、例えば、ゲームアプリケーションがインストールされ実行され、かつ対応するゲームに対応する仮想シーンのシーン画面が表示される。実際の実装にあたって、アプリケーションクライアントはゲームクライアントであっても良い。該ゲームクライアントは3次元ゲームクライアント又は2次元ゲームクライアントであっても良い。該ゲームクライアントが2次元ゲームクライアントである場合に、端末で表示される仮想シーンのシーン画面における仮想対象は2次元モデルであっても良い。該ゲームクライアントが3次元ゲームクライアントである場合に、端末で表示される仮想シーンのシーン画面における仮想対象は3次元モデルであっても良い。本明細書の以下の実施例では仮想シーンが3次元仮想シーンであるケースを例にして説明を行う。
第一端末20及び第二端末30で表示される仮想シーンはサーバー10によりレンダリングされ、それぞれ、送信される。幾つかの実施例において、第一端末20及び第二端末30は異なるアプリケーションクライアントにより、同一アプリケーションプログラムの同じ又は異なる仮想シーンを表示しても良く、例えば、異なるゲームクライアントにより、同一ゲームの同じ又は異なる仮想シーンを表示する。これに基づいて、第一端末20で表示される仮想シーン及び第二端末30で表示される仮想シーンは同一種類に属しても良い。例えば、第一端末20で表示される仮想シーン及び第二端末30で表示される仮想シーンは同じ射撃ゲームに対応する異なる仮想シーンであっても良い。
例示的に、第一端末20は例えば、第一プレイヤー201が使用する端末であり、第一プレイヤー201は第一端末20を用いて仮想シーンに位置する第一仮想キャラクターの移動を制御できる。この間で、第一端末20は第一仮想キャラクターの視角下のシーン画面を第一プレイヤー201に表示する。第二端末30は第二プレイヤー301が使用する端末であり、第二プレイヤー301は第二端末30を用いて仮想シーンに位置する第二仮想キャラクターの移動を制御できる。この間で、第二端末30は第二仮想キャラクターの視角下のシーン画面を第二プレイヤー301に表示する。第一仮想キャラクター及び第二仮想キャラクターは第一仮想人物、例えば、模擬人物又はアニメ人物であっても良く、または、仮想物体、例えば、ブロック又はビー玉であっても良い。
幾つかの実施例において、第一端末20及び第二端末30のうちの何れか1つの端末は、対応するプレイヤーの操作を受信した後に、対応する操作に対応する要求情報をサーバー10に送信でき、これによって、サーバー10は対応する操作に対応するイベントを実行し、レンダリングすることで対応するシーン画面を取得する。
幾つかの実施例において、サーバー10と第一端末20との間、及び、サーバー10と第二端末30との間は有線ネットワーク又は無線ネットワークを介して直接又は間接的に接続され得るが、本出願の実施例ではこれについて限定しない。
なお、図2は論理機能レベルの例示であり、実際の実装において、サーバー10は少なくとも1つのサーバー装置実体を含んでも良く、また、第一端末20及び第二端末30はサーバー10に接続される複数の端末装置実体のうちの任意の2つの端末装置実体であっても良い。なお、本出願の実施例ではここではこれについての詳しい説明を省略する。
本出願の実施例では仮想対象のマーキング方法が開示されており、ここでいう“マーキング”とは、1つのアプリケーションプログラムに対応して、1つの端末で表示される仮想シーンにおける仮想対象のためにマーキング情報を設定し、該アプリケーションプログラムを実行する他の少なくとも1つの端末と該仮想対象の位置をシェアすることで、他の少なくとも1つの端末に対応するプレイヤーが該仮想対象を見ることができ、かつ該仮想対象の位置を決定することができるようにさせることを指す。該アプリケーションプログラムがゲームアプリケーションであるときに、“マーキング”とは、1つのゲームに対応して、1つの端末で表示される仮想シーンにおける仮想対象のためにマーキング情報を設定し、該ゲームを実行する他の少なくとも1つの端末と該仮想対象の位置をシェアすることで、他の少なくとも1つの端末に対応するプレイヤーが該仮想対象を見ることができ、かつ該仮想対象の位置を決定することができるようにさせることを指す。なお、該仮想対象をシェアする端末に対応するプレイヤーは1つのゲームチームを構成する。
以下、幾つかの例示的な実施方式についての説明により、本出願の実施例に係る技術案及び本出願の技術案による技術的効果について説明する。
図3に示すように、本出願の実施例では例示的な仮想対象のマーキング方法が提供される。本実施例では第一端末が該方法を実行することを例にとり、かつ第一端末で実行されるアプリケーションプログラムがゲームアプリケーションであることを例にして説明を行い、該第一端末ではゲームアプリケーションのクライアントが実行されており、かつ該ゲームアプリケーションの仮想シーンのシーン画面が表示されている。該第一端末は例えば、図2に示す第一端末20として実装されても良い。該方法は以下のステップで実現され得る。
ステップS101:仮想シーンのシーン画面を表示する。
本例では、仮想シーンのシーン画面は第一端末で表示されるシーン画面である。該仮想シーンは第一端末が実行するゲームクライアントの仮想環境であり、該仮想シーンのシーン画面は例えば、該第一端末を使用するプレイヤーの視角下のゲームシーン画面である。
例示的に、該第一端末は操作に応じて仮想対象に対してマーキングを行う電子機器であっても良い。これに基づいて、幾つかの実施例において、該仮想シーンのシーン画面には目標仮想対象が含まれても良く、該目標仮想対象は該仮想シーンにおけるマーキング待ちの仮想対象である。
ステップS102:仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示する。
本出願の実施例に係る仮想シーンには仮想照準器がさらに含まれても良く、ゲーム中では、第一端末は仮想対象が該仮想照準器を使用して仮想シーンにおける他の仮想対象に対して照準動作を行うように制御できる。区別を容易にするために、ここでは第一端末が制御する仮想対象を第一仮想対象と称する。さらに、本技術案では、仮想シーンのシーン画面における目標仮想対象に対しての照準操作は、第一仮想対象が仮想照準器を採用して目標仮想対象に対して照準を行う操作(動作)である。幾つかの実施例において、仮想照準器を採用して照準動作を行うとは、仮想照準器のクロスヘアが照準待ちの仮想対象に照準を当てるように制御することを指す。
例示的に、仮想照準器は仮想対象に対して照準を行う仮想器具であっても良く、例えば、射撃ゲームにおける仮想銃器である。仮想照準器のクロスヘアは仮想シーンのシーン画面において、例えば、赤い点(丸い点)として表示されても良く、又は、例えば、十字の中心点として表示されても良い(例えば、図5A又は図5Bに示すとおりである)。
前述の実施例の説明から分かるように、第一端末はプレイヤーが入力する操作を受信した後に、対応する操作要求をサーバーに送信し、これによって、サーバーはゲームに対して対応する操作イベントを実行し、そして、レンダリングすることで、対応する操作イベントを実行した後の仮想シーンのシーン画面を取得する。本例では、第一端末はサーバーに仮想照準器のクロスヘア位置を報告でき、これによって、サーバーは仮想照準器のクロスヘアが目標仮想対象を照準する照準条件を満足したかを検出(判断)できる。仮想照準器のクロスヘアが目標仮想対象を照準する照準条件を満足した場合に、サーバーはレンダリングすることで説明情報を表示するシーン画面を取得し、これによって、第一端末が仮想シーンのシーン画面に目標仮想対象の説明情報を表示するようにさせる。幾つかの実施例において、前述の照準条件は、仮想照準器のクロスヘア位置と目標仮想対象の表示位置との間の距離が所定距離以下であることを含む。
幾つかの実施方式において、仮想照準器のクロスヘア位置と目標仮想対象の表示位置との間の距離は、仮想照準器のクロスヘアの目標平面上の正投影と、目標仮想対象の中心点の該目標平面上の正投影との間の距離であっても良い。幾つかの実施例において、該目標平面は仮想シーンにおける地面であっても良い。他の幾つかの実施方式において、仮想照準器のクロスヘア位置と目標仮想対象の表示位置との間の距離は、仮想照準器のクロスヘアと目標仮想対象の中心点との3次元空間内の任意の方位(方向)における距離であっても良い。
仮想シーンが3次元環境シーンであることを例にとる場合、該仮想シーン内の目標仮想対象は3次元立体モデルであっても良い。さらに、図4に示す例示的な仮想シーン40のように、目標仮想対象41の中心点を球の中心とし、かつ上述の所定距離を半径として形成された球状包囲領域42は目標仮想対象41の照準領域であっても良く、仮想シーン40の他の領域は例えば、目標仮想対象41の非照準領域である。仮想照準器のクロスヘア43が領域42の範囲内にあるときに、仮想照準器のクロスヘア位置及び目標仮想対象41の表示位置が照準条件を満足したと決定し、即ち、目標仮想対象41は選択され、サーバーはレンダリングすることで図5A又は図5Bに示すシーン画面を取得する。仮想照準器のクロスヘア43が領域42の範囲外にあるときに、仮想照準器のクロスヘア位置及び目標仮想対象41の表示位置が照準条件を満足しないと決定し、即ち、目標仮想対象41は選択されない。
このような実現方式を用いて、目標仮想対象を中心とする球状領域を照準領域とすることで、目標仮想対象に対しての照準領域を拡大できる。このようにして、第一端末のスクリーンが比較的小さい(例えば、第一端末はスマートフォンである)シーンでは、プレイヤーは目標仮想対象をより便利かつ正確に狙う(照準する)ことができるため、誤った照準による繰り返し照準によるハードウェアリソース及びネットワークリソースの無駄(浪費)を回避できるだけでなく、プレイヤーのゲームエクスペリエンスをも最適化できる。
本出願の実施例では、目標仮想対象の説明情報は、目標仮想対象の文字(テキスト)説明情報及び目標仮想対象のアイコン説明情報のうちの少なくとも1つを含む。そのうち、目標仮想対象の説明情報は目標仮想対象が何であるかをプレイヤーに提示することを目的としている。これに基づいて、幾つかの実施例において、目標仮想対象の文字説明情報は目標仮想対象の名称(名前)を含んでも良い。目標仮想対象のアイコン説明情報は目標仮想対象の形態を表すアイコンを含む。
例示的に、目標仮想対象の文字説明情報は例えば、テキストボックスの方式で現われても良く、例えば、図5Aに示すシーン画面に示すとおりである。目標仮想対象のアイコン説明情報は例えば、フローティングアイコンの方式で現われても良く、例えば、図5Bに示すシーン画面に示すとおりである。“フローティングアイコン”はfloating
iconであり、フローティングアイコンの画像レイヤーはシーン画面の画像レイヤーの上にあっても良い。
例えば、図5Aを参照するに、図5Aは説明情報を表示するシーン画面の例示的なシーンインターフェースを示している。図5Aに示すように、シーン画面50内の仮想照準器のクロスヘアは目標仮想対象51を照準し、目標仮想対象51は例えば、小型電池である。目標仮想対象51の上にはテキストボックス52が含まれ、テキストボックス52における文字内容は“小型電池”である。該テキストボックス52及び文字内容“小型電池”は目標仮想対象51の文字説明情報を構成する。さらに、テキストボックス52と目標仮想対象51との関係を明確にするために、図5Aにおけるテキストボックス52は目標仮想対象51と線(ライン)53で接続されている。
また、例えば、図5Bを参照するに、図5Bは説明情報を表示するシーン画面のもう1つの例示的なシーンインターフェースを示している。本例では、目標仮想対象51の上に表示されるのはフローティングアイコン54であり、フローティングアイコン54には形態が小型電池であるアイコンが含まれている。フローティングアイコン54は目標仮想対象51のアイコン説明情報を構成する。
理解できるように、図5A及び図5Bは例示的な説明に過ぎず、本出願の実施例における仮想シーンを限定しない。実際の実装にあたって、目標仮想対象の説明情報はさらに他の形で現われても良い。また、説明情報と目標仮想対象との位置関係も他の形であっても良く、例えば、説明情報は目標仮想対象の位置の右上に表示されても良い。なお、本出願の実施例はこれについて限定しない。
分かるように、この実現方式を用いて、第一端末により制御される第一仮想対象が仮想照準器を採用して目標仮想対象を照準した場合に、第一端末は仮想シーンのシーン画面において目標仮想対象の説明情報をプレイヤーに表示し、プレイヤーが、照準された目標仮想対象が何であるかを正確に把握できるようにさせることで、マーキングされた仮想対象がマーキングしたい仮想対象でないことによるハードウェアリソース及びネットワークリソースの浪費を回避できる。
ステップS103:説明情報に対してのタッチ操作に応じて、仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示し、マーキング情報は目標仮想対象の仮想シーン内の位置をマーキングするために用いられる。
本出願の実施例では、目標仮想対象の説明情報はプレイヤーがマーキング機能をトリガーするコントロールであっても良い。これに基づいて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示した後に、第一端末はプレイヤーが説明情報によって入力するタッチ操作(信号)を受信でき、そして、該タッチ操作に応じて、仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示でき、マーキング情報は目標仮想対象の仮想シーン内の位置をマーキングするために用いられる。幾つかの実施例において、該タッチ操作はクリック操作、ダブルクリック操作又は長押し操作を含む。
例えば、第一端末が図5Aに示すシーン画面を表示するときに、第一端末はプレイヤーがテキストボックス52をクリックする操作(信号)を受信できる。そして、第一端末は該クリック操作に応じて、図5Aに示すシーン画面を更新し、マーキング情報を含むシーン画面を得ることができる。また、例えば、第一端末が図5Bに示すシーン画面を表示するときに、第一端末はプレイヤーがフローティングアイコン54をクリックする操作(信号)を受信できる。そして、第一端末は該クリック操作に応じて、例えば、図5Bに示すシーン画面を図6Aに示すシーン画面に更新できる。
幾つかの実施方式において、図5A及び図5Bのうちの何れか1つの図に示すように、仮想シーンのシーン画面では、目標仮想対象の説明情報と目標仮想対象との距離が第一距離以下である。このようにして、タッチ操作(信号)を受信する第一端末のコントロールと、目標仮想対象との距離が比較的近いため、プレイヤーは視線を移すことなくタッチ操作を入力でき、プレイヤーのゲームエクスペリエンスを最適化できる。
前述の“マーキング”についての説明から分かるように、目標仮想対象のためにマーキング情報を追加する目的は、複数の端末が実行するクライアントの間で目標仮想対象の位置をシェアすることにある。これに基づいて、第一端末が説明情報に対してのプレイヤーのタッチ操作(信号)を受信した後に、該第一端末及び他の少なくとも1つの端末、例えば、第二端末で表示される仮想シーンのシーン画面には、すべて、マーキング情報が表示され得る。該第一端末で表示される例示的なシーン画面は図6A乃至図7のうちの任意の1つのインターフェースを示す図に示すとおりであり、第二端末で表示される例示的なシーン画面は図8に示すとおりである。
実際の実装にあたって、前述の各端末に対応する、マーキング情報を含むシーン画面は、すべて、サーバーがレンダリングすることで得られる。例示的に、第一端末は説明情報に対してのプレイヤーのタッチ操作(信号)を受信した後に、サーバーにマーキング要求を送信でき、該マーキング要求には目標仮想対象の標識(ID)、及び第一端末が実行するゲームクライアントに対応するチームの標識が含まれても良い。そして、サーバーは該チームの標識に対応する他の少なくとも1つのクライアント、各クライアントのシーン画面、及び各クライアントに対応する端末を得ることができる。その後、サーバーは目標仮想対象の標識に基づいて、各クライアントに対応する仮想シーンのためにマーキング情報を追加し、それから、それぞれレンダリングすることで各クライアントに対応するマーキング情報追加後のシーン画面を取得し、そして、各シーン画面をそれぞれ対応する端末に送信する。
以下、第一端末を例にしてマーキング情報、及びマーキング情報を表示する実施方式について説明する。
幾つかの実施例において、マーキング情報は目標仮想対象の標識情報、属性提示情報及び距離提示情報のうちの少なくとも1つを含んでも良い。目標仮想対象の標識情報は目標仮想対象が何であるかをプレイヤーに提示するために用いられ、該標識情報は例えば、目標仮想対象の名前及び/又は目標仮想対象の形態を表すアイコンであっても良い。属性提示情報は目標仮想対象の属性情報を提示するために用いられ、属性提示情報は例えば、目標仮想対象の作用(機能)、使用方法などのうちの少なくとも1つを含んでも良い。距離提示情報は目標仮想対象と第一仮想対象との仮想シーンにおける距離を提示するために用いられる。
理解できるように、上述のマーキング情報の具体的な情報はすべて例示的な説明に過ぎず、本技術案におけるマーキング情報を限定しない。他の幾つかの実施方式において、本出願の実施例に係るマーキング情報はより多くの又はより少ない情報を含んでも良いが、本出願の実施例では網羅的な説明を省略する。
他の幾つかの実施方式において、第一端末は仮想シーンのシーン画面にマーキング情報を表示する過程で仮想シーンのシーン画面にテキスト提示情報をさらに表示しても良く、該テキスト提示情報の内容は例えば、“あなたはxxをマーキングしている”又は“You pinged loot:xx”であっても良い。ここでの“xx”は目標仮想対象のゲーム中の名称であっても良く、“xx”は例えば、“小型電池”である。
幾つかの実施方式において、第一端末は仮想シーンのシーン画面でマーキング情報を動的に表示できる。例示的に、仮想シーンのシーン画面でマーキング情報を動的に表示することは、目標仮想対象のアイコン説明情報の動的表示及び距離提示情報の動的表示のうちの少なくとも1つを含んでも良い。例えば、仮想シーンの任意の1つのシーン画面に対応して、第一仮想対象が対応するシーン画面において移動するにつれて、第一端末は第一仮想対象と目標仮想対象との対応するシーン画面における更新後の距離情報をリアルタイムで表示できる。
図6Aを参照するに、図6Aはマーキング情報を表示するシーン画面の1つの例示的なインターフェースを示す図である。図6Aに示すシーン画面は例えば、図5Bに示すシーン画面から更新されたものである。図6Aに示すシーン画面にはマーキング情報60、テキスト提示情報61及び第一仮想対象62が含まれる。マーキング情報60は図6Aにおける目標仮想対象51の位置をマーキングするために用いられ、標識情報601、属性提示情報602及び距離提示情報603を含む。標識情報601はフローティングアイコンの形で表示され、かつ該フローティングアイコンは常に、外側に向かって円が広がるようなダイナミックな効果を表現している。属性提示情報602の内容は例えば、“shield cell”であり、これによって、目標仮想対象51の属性がシールドセルであることを提示する。距離提示情報603の内容は例えば、“11m(メートル)”であり、これによって、図6Aに示すシーンにおける第一仮想対象62と目標仮想対象51との距離が11メートルであることを提示する。また、テキスト提示情報61は例えば、図6Aに示すシーン画面に含まれるチャットボックス内で表示され、テキスト提示情報61の内容は例えば、“You pinged loot:shield cell”であり、これによって、第一端末に対応するプレイヤーの操作情報を提示する。
さらに、図6Aに示す仮想シーンのシーン画面をもとに、第一端末はプレイヤーの操作に応じて、第一仮想対象62が仮想シーンにおいて移動するように制御できる。この過程では、仮想シーンのシーン画面は第一仮想対象62の移動に伴って継続的に更新され、かつマーキング情報60における距離提示情報603の内容も第一仮想対象62の移動に伴って継続的に更新される。
例えば、図6Aに示すシーン画面をもとに、第一端末は、第一仮想対象62が図6Aに示すシーン画面における位置から図6Bに示すシーン画面における位置に移動するように制御する。それ相応に、図6Aに示すシーン画面が継続的に更新されることで図6Bに示すシーン画面を取得する。図6Bに示すシーン画面にはマーキング情報63が含まれ、マーキング情報63は図6Bにおける目標仮想対象51の位置をマーキングするために用いられる。マーキング情報63は標識情報631、属性提示情報632及び距離提示情報633を含む。そのうち、標識情報631の実施方式は図6Aにおける標識情報601の実施方式と同じであり、属性提示情報632の実施方式は図6Aにおける属性提示情報602の実施方式と同じであり、ここではその詳しい説明を省略する。距離提示情報633の内容は例えば、“15m”であり、図6Bに示すシーンにおける第一仮想対象62と目標仮想対象51との距離が15メートルであることを指示する。
理解できるように、図6A及び図6Bは例示的な説明に過ぎず、本出願の実施例のマーキング情報の表示方式を限定しない。他の幾つかの実施方式において、マーキング情報はさらに、他の動的な形で表示されても良い。なお、本出願の実施例ではこれについて限定しない。
他の幾つかの実施方式において、プレイヤーのゲームエクスペリエンスをさらに最適化するために、仮想シーンの任意のシーン画面において、第一端末は常に、目標仮想対象の指定(所定)相対方位でマーキング情報を表示することを維持できる。即ち、第一仮想対象と目標仮想対象との位置関係にもかかわらず、第一仮想対象の視角(視点)から見て、マーキング情報と目標仮想対象との相対位置は常に変わらない。
例えば、再び図6Aを参照するに、プレイヤーの視点から見て、図6Aに示すシーン画面では、目標仮想対象51は第一仮想対象62の上にあり、標識情報601は目標仮想対象51の左上隅の位置に表示される。第一仮想対象62の視角で見て、標識情報601は例えば、目標仮想対象51の右上隅の位置に表示される。図6Aのシーン画面が図7のシーン画面に更新された後に、図7を参照するに、プレイヤーの視点から見て、図7に示すシーン画面では、第一仮想対象62は目標仮想対象51の左側にあり、図7における標識情報は目標仮想対象51の下側の位置に表示され得る。このようにして、第一仮想対象62の視角で見るときに、図7のシーン画面では、標識情報は依然として目標仮想対象51の右上隅の位置に表示される。
分かるように、本実現方式を用いて、第一端末は表示される仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示する。さらに、説明情報に対してのタッチ操作に応じて、第一端末は仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示する。つまり、仮想照準器が目標仮想対象を照準した場合に、第一端末は仮想シーンのシーン画面において目標仮想対象の説明情報をプレイヤーに表示することで、プレイヤーが照準された目標仮想対象の情報を把握できるようにさせ、さらに、目標仮想対象の説明情報を、プレイヤーがマーキングをトリガーする機能入口とすることで、プレイヤーは目標仮想対象を明確に知った上で該目標仮想対象をマーキングできる。このようにして、プレイヤーがゲームアイテムを見間違えて間違ってマークすることを回避でき、これによって、マーキングされたゲームアイテムがプレイヤーのマーキングしたいゲームアイテムになるようにさせることができる。そのため、マーキングエラーによりマーキングを繰り返して修正することによるハードウェアリソース及びネットワークリソースの浪費を避けることができる。また、説明情報に対しての操作に応じて目標仮想対象に対してマーキングを行うことで、目標仮想対象に対してマーキングを行う際の利便性を向上させることができ、目標仮想対象を表示する装置の実行効率をも向上させることができる。さらに、目標仮想対象のマーキング情報が目標仮想対象の仮想シーン内の位置を提示できるから、ユーザーエクスペリエンスをより一層向上させることができる。
図5A乃至図7はすべて第一端末で表示される仮想シーンのシーンインターフェースを示す図である。実際の実施過程において、第一端末が説明情報に対するプレイヤーのタッチ操作に応じた後に、対応するゲームは他の端末のシーンインターフェースで同様にマーキング情報を表示し、かつそのうち、任意の端末で表示されるマーキング情報は該端末のシーン画面における目標仮想対象の位置をマーキングするために用いられるため、目標仮想対象の位置のシェアを実現できる。
以下、第二端末を例にして対応するゲームの他のクライアントのシーン画面の実現方式について説明する。
幾つかの実施方式において、第二端末で表示される仮想シーンのシーン画面に目標仮想対象が含まれる場合、第二端末で表示される、マーキング情報を含むシーン画面は図6A乃至図7のうちの任意の1つの図面に表示されるシーン画面と同様であり、ここではその詳しい説明を省略する。他の幾つかの実施方式において、第二端末で表示される仮想シーンのシーン画面に目標仮想対象が含まれない場合に、第二端末は対応するシーン画面における目標方位でマーキング情報を表示し、該目標方位は目標仮想対象のシーン画面内の対応する方位を指示する。
例えば、図8を参照するに、図8は第二端末で表示されるシーン画面の例示的なインターフェースを示す図である。図8に示すシーン画面は例えば、前述の図6A乃至図7に示す実施シーンに対応する。図8に示すシーン画面にはマーキング情報70、テキスト提示情報71及び第二仮想対象72が含まれるが、目標仮想対象が含まれない。本例では、マーキング情報70は図8に示すシーン画面の左上の方位にあり、図8に示すシーン画面における目標仮想対象が現在のシーンの左上の方位にあることを指示する。マーキング情報70は例えば、標識情報、属性提示情報及び距離提示情報を含む。標識情報及び属性提示情報の表示方式は図6A乃至図7のうちの任意の1つに示すのと同様であり、ここではその詳しい説明を省略する。距離提示情報は図8に示すシーンにおける第二仮想対象72と目標仮想対象との距離を指示するために用いられる。また、図8ではテキスト提示情報71は例えば、図8に示すシーン画面に含まれるチャットボックス内で表示され、テキスト提示情報71の内容は例えば、“MC001 pinged loot:shield cell”である。そのうち、MC001は例えば、第一端末のプレイヤーのアカウント名であり、これによって、第二端末に対応するプレイヤーのチームメイトMC001の操作情報を提示する。
なお、第二端末は仮想シーンのシーン画面にマーキング情報を動的に表示しても良く、第二端末がマーキング情報を動的に表示する実現方式は第二端末がマーキング情報を動的に表示する実現方式と同様であり、本出願の実施例ではここではその詳しい説明を省略する。
理解できるように、前述の図5A乃至図8は何れも本技術案を説明するための例示に過ぎず、本出願の実施例に係る仮想シーンを限定しない。実際の実装にあたって、第一端末及び第二端末で表示される仮想シーンは異なるゲームによって柔軟に表示され、第一端末及び第二端末で表示される仮想シーンのシーン画面はすべて図5A乃至図8に表示されるシーン画面とは異なっても良い。また、第一端末及び第二端末の動的な表示効果は同様に図5A乃至図8に示す表示効果とは異なっても良い。なお、本出願の実施例ではこれらについて限定しない。
また、本出願の前述の実施例では射撃ゲームを例にとって本出願の実施例における仮想対象マーキング方法について説明したが、本出願の実施例における仮想対象マーキング方法は射撃ゲームに限られず、本技術案は、他のチームバトルゲームであって、様々な機能のゲームアイテムが設定されるゲームにも同様に適用でき、かつ同様の実現効果を達成できる。なお、本出願の実施例ではここでは網羅的列挙を省略する。
要約すると、第一端末で表示される仮想シーンのシーン画面において、該仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、第一端末は仮想シーンのシーン画面に目標仮想対象の説明情報を表示する。さらに、説明情報に対してのタッチ操作に応じて、第一端末は仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示し、該マーキング情報は目標仮想対象の仮想シーン内の位置をマーキングするために用いられる。そのうち、照準操作は第一端末が制御する第一仮想対象が仮想照準器を採用して目標仮想対象に対して行う照準動作である。つまり、仮想照準器が目標仮想対象を照準した場合に、第一端末は仮想シーンのシーン画面において目標仮想対象の説明情報をプレイヤーに表示することで、プレイヤーが照準された目標仮想対象の情報を把握できるようにさせることができ、さらに、目標仮想対象の説明情報を、プレイヤーがマーキングをトリガーする機能入口とすることで、プレイヤーが目標仮想対象を明確に知った上で該目標仮想対象をマーキングするようにさせることができる。分かるように、本出願の実施例による技術案により、プレイヤーがゲームアイテムを見間違えて誤ってマーキングすることを回避できるため、マーキングされるゲームアイテムがプレイヤーのマーキングしないゲームアイテムになるようにさせることができる。このようにして、マーキングエラーによりマーキングを繰り返して修正することによるハードウェアリソース及びネットワークリソースの浪費を避けることができる。また、説明情報に対しての操作に応じて目標仮想対象をマーキングすることで、目標仮想対象に対してマーキングを行う際の利便性を向上させることができ、目標仮想対象を表示する装置の実行効率をも向上させることができる。さらに、目標仮想対象のマーキング情報が目標仮想対象の仮想シーン内の位置を提示できるから、ユーザーエクスペリエンスをより一層向上させることができる。
上述の実施例では説明情報の表示、マーキング情報の表示などの端末が実行する動作の角度から、本出願の実施例で提供される仮想対象のマーキング方法の各実施方式について紹介した。理解できるように、対応する説明情報の表示、マーキング情報の表示などの処理ステップについて、本出願の実施例ではハードウェアあるいはハードウェアとコンピュータソフトウェアの組み合わせの形で実現しても良い。ある機能がハードウェアの方式か、それとも、コンピュータソフトウェアがハードウェアを駆動する方式で実行されるかは、技術案の特定の適用及び設計の制約条件に依存する。当業者は各特定の適用について異なる方法を使用して、説明されている機能を実現しても良いが、これらの実現はすべて本出願の範囲に属する。
例えば、上述の実現ステップでソフトウェアモジュールにより対応する機能を実現する場合に、図9Aに示すように、仮想対象のマーキング装置90が提供される。仮想対象のマーキング装置90はシーン画面表示モジュール901、第一画面表示モジュール902及び第二画面表示モジュール903を含んでも良い。該仮想対象のマーキング装置90は上述の図3乃至図8における第一端末の一部又は全部の操作を実行するために用いられても良い。
例えば、シーン画面表示モジュール901は仮想シーンのシーン画面を表示するために用いられ得る。第一画面表示モジュール902は仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示するために用いられても良く、照準操作は第一仮想対象が仮想照準器を用いて目標仮想対象に対して行う照準動作であり、第一仮想対象は第一端末が制御する仮想対象である。第二画面表示モジュール903は説明情報に対してのタッチ操作に応じて、仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示するために用いることができ、マーキング情報は目標仮想対象の仮想シーン内の位置をマーキングするために用いられる。
よって、分かるように、本出願の実施例で提供される仮想対象のマーキング装置90は、表示される仮想シーンのシーン画面において、該仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示する。さらに、説明情報に対してのタッチ操作に応じて、仮想シーンのシーン画面に目標仮想対象のマーキング情報を表示し、該マーキング情報は目標仮想対象の仮想シーン内の位置をマーキングするために用いられる。そのうち、照準操作は仮想対象のマーキング装置90が制御する第一仮想対象が仮想照準器を採用して目標仮想対象に対して行う照準動作である。つまり、仮想照準器が目標仮想対象を照準した場合に、仮想対象のマーキング装置90は仮想シーンのシーン画面において目標仮想対象の説明情報をプレイヤーに表示することで、プレイヤーが照準された目標仮想対象の情報を把握できるようにさせることができ、さらに、目標仮想対象の説明情報を、プレイヤーがマーキングをトリガーする機能入口とすることで、プレイヤーが目標仮想対象を明確に知った上で該目標仮想対象をマーキングするようにさせることができる。分かるように、本出願の実施例に係る技術案により、プレイヤーがゲームアイテムを見間違えて誤ってマーキングすることを回避できるため、マーキングされるゲームアイテムがプレイヤーのマーキングしないゲームアイテムになるようにさせることができる。このようにして、マーキングエラーによりマーキングを繰り返して修正することによるハードウェアリソース及びネットワークリソースの浪費を避けることができる。また、説明情報に対しての操作に応じて目標仮想対象をマーキングすることで、目標仮想対象に対してマーキングを行う際の利便性を向上させることができ、目標仮想対象を表示する装置の実行効率をも向上させることができる。さらに、目標仮想対象のマーキング情報が目標仮想対象の仮想シーン内の位置を提示できるから、ユーザーエクスペリエンスをより一層向上させることができる。
幾つかの実施例において、説明情報は、
目標仮想対象の文字説明情報;及び
目標仮想対象のアイコン説明情報
のうちの少なくとも1つを含み、そのうち、アイコン説明情報は目標仮想対象の形態を表すアイコンを含む。
幾つかの実施例において、第一画面表示モジュール902はさらに、仮想シーンのシーン画面において目標仮想対象までの第一距離範囲内で説明情報を表示するために用いられる。
幾つかの実施例において、マーキング情報は、
目標仮想対象の標識情報;
属性提示情報であって、目標仮想対象の属性情報を提示するためのもの;及び
距離提示情報であって、目標仮想対象と第一仮想対象との仮想シーンにおける距離を提示するためのもの
のうちの少なくとも1つを含む。
幾つかの実施例において、第二画面表示モジュール903はさらに、仮想シーンのシーン画面でマーキング情報を動的に表示するために用いられる。本例では、第二画面表示モジュール903はさらに、仮想シーンの任意のシーン画面において目標仮想対象の所定相対方位でマーキング情報を表示するために用いられる。
幾つかの実施例において、第二画面表示モジュール903はさらに、目標仮想対象のアイコン説明情報を動的に表示するために用いられる。本例では、第二画面表示モジュール903はさらに、対応する仮想シーンの任意の1つのシーン画面において、第一仮想対象がその対応するシーン画面を移動するにつれて、第一仮想対象と目標仮想対象との対応するシーン画面内の更新後の距離情報をリアルタイムで表示するために用いられる。
幾つかの実施例において、第一画面表示モジュール902はさらに、第一仮想対象が仮想照準器を採用して目標仮想対象に対して行う照準動作が照準条件を満足したことに応じて、仮想シーンのシーン画面に目標仮想対象の説明情報を表示するために用いられる。照準条件は、仮想照準器のクロスヘア位置と目標仮想対象の表示位置との間の距離が所定距離以下であることを含む。
幾つかの実施例において、タッチ操作はクリック操作、ダブルクリック操作又は長押し操作を含む。
理解できるように、上述の各モジュールの分割は論理機能の分割に過ぎず、実際の実装にあたって、上述の各モジュールの機能はハードウェア実体に統合して実現されても良く、例えば、シーン画面表示モジュール901の機能は表示器に統合して実現でき、第一画面表示モジュール902及び第二画面表示モジュール903は、一部の機能が処理器に統合して実現され、他の部分の機能が表示器に統合して実現されても良い。
図9Bを参照するに、図9Bは例示的な電子機器91を示している。該電子機器91は前述の第一端末とすることができ、例えば、スマートフォン、タブレットコンピュータ、MP3(Moving Picture Experts Group Audio Layer III)プレイヤー、MP4(Moving Picture Experts Group Audio Layer
IV)プレイヤー、ノートパソコン、デスクトップパソコンであっても良い。なお、電子機器91はさらに、ユーザー装置、携帯型端末、ラップトップ端末、デスクトップ端末などの他の名称で呼ばれる可能性がある。
電子機器91は通常、処理器911及び記憶器912を含む。
処理器911は1つ又は複数の処理コアを含んでも良く、例えば、4コア処理器、8コア処理器などである。処理器911はDSP(Digital
Signal Processing)、FPGA(Field-Programmable Gate Array)、及びPLA(Programmable Logic Array)のうちの少なくとも1つのハードウェアの形で実現され得る。処理器911はメインプロセッサ及びコプロセッサを含んでも良く、メインプロセッサは喚起状態にあるデータを処理するための処理器であり、CPU(Central Processing Unit)とも称され、コプロセッサは待機状態にあるデータを処理するための低消費電力処理器である。幾つかの実施方式において、処理器911にはGPU(Graphics
Processing Unit)が統合されても良く、GPUはディスプレーに表示される必要のある内容のレンダリング及びプロットを担当するためのものである。幾つかの実施方式において、処理器911はさらに、AI(Artificial
Intelligence)処理器を含んでも良く、該AI処理器は機器学習に関する演算操作を処理するために用いられる。
記憶器912は1つ又は複数のコンピュータ可読記憶媒体を含んでも良く、該コンピュータ可読記憶媒体は非一時的なものであっても良い。記憶器912はさらに、高速ランダムアクセスメモリ、及び不揮発性メモリ、例えば、1つ又は複数の磁気ディスク、フレッシュメモリを含んでも良い。幾つかの実施方式において、記憶器912における非一時的なコンピュータ可読記憶媒体が少なくとも1つの命令を記憶するために用いられ、該少なくとも1つの命令は処理器911により実行されることで、本出願の実施例に示す仮想対象のマーキング方法における全部又は一部のステップを実現するように構成される。
幾つかの実施方式において、電子機器91はさらに、周辺機器インターフェース913及び少なくとも1つの周辺機器を含み得る。処理器911、記憶器912及び周辺機器インターフェース913の間はバス又は信号線を介して接続され得る。各周辺機器はバス、信号線又は回路板により周辺機器インターフェース913に接続されても良い。具体的には、周辺機器はRF回路914、ディスプレー915、カメラヘッドアセンブリ916、音声回路917、ポジショニングアセンブリ918及び電源919のうちの少なくとも1つを含む。
周辺機器インターフェース913は、I/O(Input/Output)に関する少なくとも1つの周辺機器を処理器911及び記憶器912に接続するために用いられ得る。幾つかの実施方式において、処理器911、記憶器912及び周辺機器インターフェース913は同一のチップ又は回路板に統合でき、幾つかの他の実施例において、処理器911、記憶器912及び周辺機器インターフェース913のうちの任意の1つ又は2つが単一のチップ又は回路板で実現されても良いが、本出願の実施例はこれらについて限定しない。
RF回路914はRF(Radio
Frequency、RF)信号(電磁信号ともいう)を受信及び送信するために用いられる。ディスプレー915はUI(User
Interface、ユーザーインターフェース)を表示するために用いられる。該UIはグラフィック、テキスト、アイコン、ビデオ及びそれらの任意の組み合わせを含んでも良い。該UIは前述の仮想シーンのシーン画面を含み、図5A乃至図8のうちの任意の1つに示すとおりである。ディスプレー915がタッチパネルであるときに、ディスプレー915はさらに、ディスプレー915の表面又は表面の上のタッチ信号を取る能力を持つ。該タッチ信号は制御信号として処理器911に入力され処理されても良く、例えば、前述の実施例に係るタッチ操作に対応する入力信号である。このときに、ディスプレー915はさらに、仮想ボタン及び/又は仮想キーボード(ソフトボタン及び/又はソフトキーボードともいう)を提供するために用いられ得る。幾つかの実施方式において、ディスプレー915は1つがあり、電子機器91のフロント板に設けられても良く、他の幾つかの実施方式において、ディスプレー915は少なくとも2つがあり、それぞれ、電子機器91の異なる表面に設けられ又は折り畳むように設計されても良く、幾つかの実施方式において、ディスプレー915はフレキシブルディスプレーであり、電子機器91の湾曲面又は折り畳み面に設置され得る。さらには、ディスプレー915は非矩形の不規則な図形、即ち、異形スクリーンとして配置されても良い。ディスプレー915はLCD(Liquid Crystal Display、液晶ディスプレー)、OLED(Organic Light-Emitting Diode、有機発光ダイオード)などの材料を採用して形成されても良い。
カメラヘッドアセンブリ916は画像又はビデオを収集するために用いられる。音声回路917はマイクフォン及びスピーカーを含んでも良い。ポジショニングアセンブリ918は電子機器91の現在の地理的な位置を特定することで、ナビゲーション又はLBS(Location Based Service)を実現するために用いられる。電源919は電子機器91における各部品に給電するために用いられる。
幾つかの実施方式において、電子機器91はさらに、1つ又は複数のセンサー920を含む。該1つ又は複数のセンサー920は加速度センサー921、ジャイロセンサー922、圧力センサー923、指紋センサー924、光学センサー925及び近接センサー926を含むが、これらに限定されない。
理解できるように、図9Bは例示に過ぎず、電子機器91を限定しない。他の幾つかの実施方式において、電子機器91は図9Bよりも多くの又は少ない部品を含んでも良く、又は、幾つかの部品を組み合わせても良く、又は、異なる部品配置を採用しても良い。
本出願の実施例ではコンピュータ可読記憶媒体がさらに提供され、該コンピュータ可読記憶媒体には仮想対象のマーキングに関する命令が記憶されており、コンピュータで実行されるときに、コンピュータに、前述の図3乃至図8に示す実施例で説明されている方法における一部又は全部のステップを実行させる。
本出願の実施例では仮想対象のマーキングに関する命令を含むコンピュータプログラムプロダクトがさらに提供され、それはコンピュータで実行されるときに、コンピュータに、前述の図3乃至図8に示す実施例で説明されている方法における一部又は全部のステップを実行させる。
当業者が理解できるように、説明の便宜のため、上述のシステム、装置、モジュールなどの具体的なワーキングプロセスは前述の方法の実施例における対応プロセスを参照でき、ここではその詳しい説明を省略する。
本出願で提供される幾つかの実施例では、理解できるように、開示されているシステム、装置及び方法は他の方式で実現されても良い。例えば、上述の装置の実施例は例示に過ぎず、例えば、前述のモジュールの分割は論理機能の分割に過ぎず、実際の実装にあたって、他の分割方式があっても良く、例えば、複数のモジュール又は部品は組み合わせられても良く、又は、もう1つのシステムに統合されても良く、又は、幾つかの特徴が無視され又は実行されなくても良い。また、表示又は説明されている相互間の接続又は直接接続又は通信接続は幾つかのインターフェース、装置又はユニットによる間接接続又は通信接続であっても良く、電気的、機械的又は他の形のものであっても良い。
前述の分離部品として説明されているモジュールは物理的に分離されている場合もあれば、分離されていない場合もあり、ユニットとして表示されている部品は物理ユニットである場合もそうでない場合もあり、即ち、1つの箇所に位置しても良く、又は、複数のネットワークユニットに分散しても良い。実際のニーズに応じてそのうちの一部又は全部のユニットを選択して本実施例の技術案の目的を達成しても良い。
また、本出願の各実施例における各機能ユニット(モジュール)が1つの処理ユニットに統合されても良く、各ユニットが単独で物理的に存在しても良く、又は、2つ又は2つ以上のユニットが1つのユニットに統合されても良い。このように統合されるユニットはハードウェアの形で実現されても良く、ソフトウェア機能モジュールの形で実現されても良い。
前述の統合されるユニットは、ソフトウェア機能モジュールの形で実現され、かつ独立したプロダクトとして販売又は使用されるときに、1つのコンピュータ可読取記憶媒体に記憶できる。このような理解をもとに、本出願の技術案は本質上、又は、関連技術に対して貢献をもたらした部分又は該技術案の全部又は部分はソフトウェアプロダクトの形で体現されても良く、該コンピュータソフトウェアプロダクトは1つの記憶媒体に記憶され、複数の命令を、1台のコンピュータ装置(パーソナルコンピュータ、ゲームの制御装置、ネットワーク装置などであっても良い)が本出願の各実施例に記載の方法の全部又は一部のステップを実行するようにさせるために含む。また、前述の記憶媒体はUディスク、移動ハードディスク、ROM(read-only memory)、RAM(random access memory)、磁気ディスク、光ディスクなどの様々なプログラムコード記憶可能な媒体を含む。
以上、本出願の好ましい実施例を説明したが、本出願はこの実施例に限定されず、本出願の趣旨を離脱しない限り、本出願に対するあらゆる変更は本出願の技術的範囲に属する。

Claims (14)

  1. 第一端末が実行する、仮想対象をマーキングする方法であって、
    仮想シーンのシーン画面を表示するステップ;
    前記仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、前記仮想シーンのシーン画面において前記目標仮想対象の説明情報を表示するステップであって、前記照準操作は第一仮想対象が仮想照準器を採用して前記目標仮想対象に対して行う照準動作であり、前記第一仮想対象は前記第一端末が制御する仮想対象である、ステップ;及び
    前記説明情報に対してのタッチ操作に応じて、前記仮想シーンのシーン画面において前記目標仮想対象のマーキング情報を表示するステップであって、前記マーキング情報は前記目標仮想対象の前記仮想シーン内の位置をマーキングするために用いられる、ステップを含む、方法。
  2. 請求項1に記載の方法であって、
    前記説明情報は、
    前記目標仮想対象の文字説明情報;及び
    前記目標仮想対象のアイコン説明情報
    のうちの少なくとも1つを含み、
    前記アイコン説明情報は前記目標仮想対象の形態を表すアイコンを含む、方法。
  3. 請求項1又は2に記載の方法であって、
    前記シーン画面において前記目標仮想対象の説明情報を表示するステップは、
    前記仮想シーンのシーン画面において前記目標仮想対象までの第一距離範囲内で前記説明情報を表示するステップを含む、方法。
  4. 請求項1に記載の方法であって、
    前記マーキング情報は、前記目標仮想対象の標識情報、属性提示情報、及び距離提示情報のうちの少なくとも1つを含み、
    前記標識情報は前記目標仮想対象の名前及び/又は目標仮想対象の形態を表すアイコンを含み、
    前記属性提示情報は前記目標仮想対象の属性情報を提示するために用いられ、
    前記距離提示情報は前記目標仮想対象と前記第一仮想対象との、前記仮想シーンにおける距離を提示するために用いられる、方法。
  5. 請求項1又は4に記載の方法であって、
    前記仮想シーンのシーン画面において前記目標仮想対象のマーキング情報を表示するステップは、
    前記仮想シーンのシーン画面において前記マーキング情報を動的に表示するステップ;及び
    前記仮想シーンの任意のシーン画面において前記目標仮想対象の所定相対方位で前記マーキング情報を表示するステップ
    のうちの少なくとも1つを含む、方法。
  6. 請求項5に記載の方法であって、
    前記仮想シーンのシーン画面において前記マーキング情報を動的に表示するステップは、
    前記目標仮想対象のアイコン説明情報を動的に表示するステップ;及び
    前記仮想シーンの任意の1つのシーン画面に対応して、前記第一仮想対象が対応するシーン画面において移動するにつれて、前記第一仮想対象と前記目標仮想対象との、対応するシーン画面における更新後の距離情報をリアルタイムで表示するステップ
    のうちの少なくとも1つを含む、方法。
  7. 請求項1に記載の方法であって、
    前記仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、前記仮想シーンのシーン画面において前記目標仮想対象の説明情報を表示するステップは、
    前記第一仮想対象が前記仮想照準器を採用して前記目標仮想対象に対して行う照準動作が照準条件を満足したことに応じて、前記仮想シーンのシーン画面において前記目標仮想対象の説明情報を表示するステップを含み、
    前記照準条件は、
    前記仮想照準器のクロスヘア位置と前記目標仮想対象の表示位置との間の距離が所定距離以下であることを含む、方法。
  8. 請求項1に記載の方法であって、
    前記タッチ操作はクリック操作、ダブルクリック操作又は長押し操作を含む、方法。
  9. 第一端末に適用される、仮想対象をマーキングする装置であって、
    仮想シーンのシーン画面を表示するためのシーン画面表示モジュール;
    前記仮想シーンのシーン画面における目標仮想対象に対しての照準操作に応じて、前記仮想シーンのシーン画面において前記目標仮想対象の説明情報を表示するための第一画面表示モジュールであって、前記照準操作は第一仮想対象が仮想照準器を採用して前記目標仮想対象に対して行う照準動作であり、前記第一仮想対象は前記第一端末が制御する仮想対象である、第一画面表示モジュール;及び
    前記説明情報に対してのタッチ操作に応じて、前記仮想シーンのシーン画面において前記目標仮想対象のマーキング情報を表示するための第二画面表示モジュールであって、前記マーキング情報は前記目標仮想対象の前記仮想シーン内の位置をマーキングするために用いられる、第二画面表示モジュールを含む、装置。
  10. 請求項9に記載の装置であって、
    前記説明情報は、
    前記目標仮想対象の文字説明情報;及び
    前記目標仮想対象のアイコン説明情報
    のうちの少なくとも1つを含み、
    前記アイコン説明情報は前記目標仮想対象の形態を表すアイコンを含む、装置。
  11. 請求項9又は10に記載の装置であって、
    前記第一画面表示モジュールは、前記仮想シーンのシーン画面において前記目標仮想対象までの第一距離範囲内で前記説明情報を表示するために用いられる、装置。
  12. 請求項9に記載の装置であって、
    前記マーキング情報は、前記目標仮想対象の標識情報、属性提示情報、及び距離提示情報のうちの少なくとも1つを含み、
    前記標識情報は前記目標仮想対象の名前及び/又は目標仮想対象の形態を表すアイコンを含み、
    前記属性提示情報は前記目標仮想対象の属性情報を提示するために用いられ、
    前記距離提示情報は前記目標仮想対象と前記第一仮想対象との、前記仮想シーンにおける距離を提示するために用いられる、装置。
  13. 第一端末として用いられる電子機器であって、
    処理器、及び前記処理器に接続される記憶器を含み、
    前記記憶器にはコンピュータプログラムが記憶されてり、
    前記処理器は前記コンピュータプログラムを実行することで請求項1乃至8のうちの任意の1項に記載の方法を実現するように構成される、電子機器。
  14. コンピュータに、請求項1乃至8のうちの任意の1項に記載の方法を実行させるためのプログラム。
JP2023553001A 2021-06-10 2022-05-23 仮想対象のマーキング方法と装置及びコンピュータプログラム Pending JP2024514751A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110648470.9 2021-06-10
CN202110648470.9A CN113209617A (zh) 2021-06-10 2021-06-10 虚拟对象的标记方法及装置
PCT/CN2022/094378 WO2022257742A1 (zh) 2021-06-10 2022-05-23 虚拟对象的标记方法、装置及存储介质

Publications (1)

Publication Number Publication Date
JP2024514751A true JP2024514751A (ja) 2024-04-03

Family

ID=77081722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023553001A Pending JP2024514751A (ja) 2021-06-10 2022-05-23 仮想対象のマーキング方法と装置及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20230230315A1 (ja)
JP (1) JP2024514751A (ja)
CN (1) CN113209617A (ja)
WO (1) WO2022257742A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113209617A (zh) * 2021-06-10 2021-08-06 腾讯科技(深圳)有限公司 虚拟对象的标记方法及装置
CN113499585A (zh) * 2021-08-09 2021-10-15 网易(杭州)网络有限公司 游戏中交互方法、装置、电子设备和存储介质
CN113730906B (zh) * 2021-09-14 2023-06-20 腾讯科技(深圳)有限公司 虚拟对局的控制方法、装置、设备、介质及计算机产品
CN117122919A (zh) * 2022-05-20 2023-11-28 腾讯科技(深圳)有限公司 虚拟场景中的标记处理方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106924970B (zh) * 2017-03-08 2020-07-07 网易(杭州)网络有限公司 虚拟现实系统、基于虚拟现实的信息显示方法及装置
CN108671543A (zh) * 2018-05-18 2018-10-19 腾讯科技(深圳)有限公司 虚拟场景中的标记元素显示方法、计算机设备及存储介质
CN109847353A (zh) * 2019-03-20 2019-06-07 网易(杭州)网络有限公司 游戏应用的显示控制方法、装置、设备及存储介质
CN110270098B (zh) * 2019-06-21 2023-06-23 腾讯科技(深圳)有限公司 控制虚拟对象对虚拟物品进行标记的方法、装置及介质
CN111097171B (zh) * 2019-12-17 2022-03-11 腾讯科技(深圳)有限公司 虚拟标记的处理方法和装置、存储介质及电子装置
CN113209617A (zh) * 2021-06-10 2021-08-06 腾讯科技(深圳)有限公司 虚拟对象的标记方法及装置

Also Published As

Publication number Publication date
CN113209617A (zh) 2021-08-06
WO2022257742A1 (zh) 2022-12-15
US20230230315A1 (en) 2023-07-20

Similar Documents

Publication Publication Date Title
WO2020238592A1 (zh) 虚拟环境中生成标记信息的方法、装置、电子设备及存储介质
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
JP2024514751A (ja) 仮想対象のマーキング方法と装置及びコンピュータプログラム
KR101662500B1 (ko) 디스플레이-인에이블드 키보드, 키패드, 및/또는 다른 사용자 입력 장치를 사용하여 시각 인터페이스 콘텐츠를 관리, 선택, 및 갱신하는 시스템 및 방법
TWI536253B (zh) 附加通訊裝置
US8246467B2 (en) Interactive gaming with co-located, networked direction and location aware devices
WO2019153836A1 (zh) 虚拟环境中虚拟对象的姿态确定方法、装置及介质
CN111414080B (zh) 虚拟对象的位置显示方法、装置、设备及存储介质
WO2022134980A1 (zh) 虚拟对象的控制方法、装置、终端及存储介质
WO2013095393A1 (en) Augmented reality representations across multiple devices
JP2022551112A (ja) 仮想環境における乗り物の運転方法、装置、端末及びプログラム
US20220126205A1 (en) Virtual character control method and apparatus, device, and storage medium
WO2022156504A1 (zh) 标记处理方法、装置、计算机设备、存储介质及程序产品
US20230249073A1 (en) User interface display method and apparatus, device, and storage medium
JP2022526512A (ja) インタラクティブオブジェクト駆動方法、装置、機器、及び記憶媒体
WO2023240925A1 (zh) 虚拟道具的拾取方法、装置、计算机设备和存储介质
US9047244B1 (en) Multi-screen computing device applications
JP2019526103A (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
JP2024509064A (ja) 位置マークの表示方法及び装置、機器並びにコンピュータプログラム
CN113134232B (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
WO2022056063A1 (en) Improved targeting of a long-range object in a multiplayer game
US20230351717A1 (en) Graphic display method and apparatus based on virtual scene, device and medium
US20170186218A1 (en) Method for loading 360 degree images, a loading module and mobile terminal
WO2023246307A1 (zh) 虚拟环境中的信息处理方法、装置、设备及程序产品
US20240185307A1 (en) Methods, systems, and media for determining curved advertisement viewability in virtual environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230831