JP2023159212A - 仮想シーンに基づく操作コントロールの表示方法及び装置 - Google Patents
仮想シーンに基づく操作コントロールの表示方法及び装置 Download PDFInfo
- Publication number
- JP2023159212A JP2023159212A JP2023130356A JP2023130356A JP2023159212A JP 2023159212 A JP2023159212 A JP 2023159212A JP 2023130356 A JP2023130356 A JP 2023130356A JP 2023130356 A JP2023130356 A JP 2023130356A JP 2023159212 A JP2023159212 A JP 2023159212A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- target
- target virtual
- virtual object
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 235000013399 edible fruits Nutrition 0.000 description 30
- 230000003993 interaction Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 18
- 230000015654 memory Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 230000007123 defense Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009183 running Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000004083 survival effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000009193 crawling Effects 0.000 description 2
- 230000001351 cycling effect Effects 0.000 description 2
- 230000035876 healing Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000009184 walking Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/533—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】仮想シーンに基づく操作コントロールの表示方法を提供する。【解決手段】目標仮想オブジェクトの仮想シーンにおける位置情報を取得することにより、仮想シーン内の異なる領域に異なるタイプの仮想要素が現れるため、位置情報、仮想シーン内の仮想要素に基づいて、目標仮想オブジェクトが現在の位置にあるときに対応する目標仮想要素を決定することができる。目標仮想オブジェクトが異なるタイプの仮想要素とインタラクションする場合に、異なる操作コントロールを利用する必要があるため、端末が仮想シーン内のコントロール表示領域に表示されている操作コントロールを目標仮想要素の要素タイプに対応する目標操作コントロールに切り替えることにより、ユーザーは、目標仮想オブジェクトを目標仮想要素とインタラクションするように操作するときに、操作コントロールを手動で切り替える必要がなく、操作の複雑さを効果的に低減することができる。【選択図】図2
Description
[関連出願の相互参照]
本願は、2020年4月23日に提出された出願番号が202010329239.9で、発明の名称が「仮想シーンに基づく操作コントロールの表示方法及び装置」である中国特許出願の優先権を求めており、その全ての内容は、引用により本明細書に組み込まれる。
本願は、2020年4月23日に提出された出願番号が202010329239.9で、発明の名称が「仮想シーンに基づく操作コントロールの表示方法及び装置」である中国特許出願の優先権を求めており、その全ての内容は、引用により本明細書に組み込まれる。
本願は、コンピュータの技術分野に関し、特に、仮想シーンに基づく操作コントロールの表示方法、装置、機器及び記憶媒体に関する。
コンピュータ技術の発展及び端末機能の多様化に伴い、ますます多くのモバイルゲームが登場しており、そのうちのロールプレイングゲームは、非常に重要なタイプのモバイルゲームとなっている。現在のロールプレイングゲームでは、プレイヤーは、自分の仮想オブジェクトを、仮想シーン内を移動し、仮想シーン内の他の仮想要素とインタラクションするように制御することができる。通常、仮想シーンには複数のタイプの仮想要素が含まれてもよく、プレイヤーは、異なるタイプの仮想要素とインタラクションする場合に、異なる操作コントロールを利用する必要がある。
本願の実施例は、仮想シーンに基づく操作コントロールの表示方法、装置、機器及び記憶媒体を提供し、当該技術手段は、以下のとおりである。
一つの側面によれば、コンピュータ機器に適用される仮想シーンに基づく操作コントロールの表示方法であって、
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得するステップと、
当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップと、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する目標操作コントロールを表示するステップであって、当該目標操作コントロールは、当該目標仮想オブジェクトを当該目標仮想要素とインタラクションするように制御するためのものであるステップと、を含む仮想シーンに基づく操作コントロールの表示方法を提供する。
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得するステップと、
当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップと、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する目標操作コントロールを表示するステップであって、当該目標操作コントロールは、当該目標仮想オブジェクトを当該目標仮想要素とインタラクションするように制御するためのものであるステップと、を含む仮想シーンに基づく操作コントロールの表示方法を提供する。
一つの側面によれば、端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得するための取得モジュールと、
当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するための決定モジュールと、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する目標操作コントロールを表示するための表示モジュールであって、当該目標操作コントロールは、当該目標仮想オブジェクトを当該目標仮想要素とインタラクションするように制御するためのものである表示モジュールと、
を備える仮想シーンに基づく操作コントロールの表示装置を提供する。
当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するための決定モジュールと、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する目標操作コントロールを表示するための表示モジュールであって、当該目標操作コントロールは、当該目標仮想オブジェクトを当該目標仮想要素とインタラクションするように制御するためのものである表示モジュールと、
を備える仮想シーンに基づく操作コントロールの表示装置を提供する。
1つの可能な実施形態において、当該表示モジュールは、
前記コントロール表示領域内のいずれか一つのコントロール表示位置に対して、前記いずれか一つのコントロール表示位置に対応する候補操作コントロールを取得し、
前記目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせ、
表示条件が前記インタラクション可能な要素の要素タイプとマッチされた候補操作コントロールを、前記目標操作コントロールとして決定し、
前記いずれか一つのコントロール表示位置に前記目標操作コントロールを表示するためのものである。
前記コントロール表示領域内のいずれか一つのコントロール表示位置に対して、前記いずれか一つのコントロール表示位置に対応する候補操作コントロールを取得し、
前記目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせ、
表示条件が前記インタラクション可能な要素の要素タイプとマッチされた候補操作コントロールを、前記目標操作コントロールとして決定し、
前記いずれか一つのコントロール表示位置に前記目標操作コントロールを表示するためのものである。
1つの可能な実施形態において、当該表示モジュールは、
当該コントロール表示位置に現在表示されている操作コントロールと当該目標操作コントロールとが同じであるか否かを判断し、
同じである場合に、当該現在表示されている操作コントロールの表示を継続し、異なっている場合に、当該現在表示されている操作コントロールを当該目標操作コントロールに切り替えるためのものである。
当該コントロール表示位置に現在表示されている操作コントロールと当該目標操作コントロールとが同じであるか否かを判断し、
同じである場合に、当該現在表示されている操作コントロールの表示を継続し、異なっている場合に、当該現在表示されている操作コントロールを当該目標操作コントロールに切り替えるためのものである。
1つの可能な実施形態において、当該取得モジュールは、
当該目標仮想オブジェクトに対する移動操作に応答して、当該目標仮想オブジェクトの位置情報をリアルタイムに取得するためのものである。
当該目標仮想オブジェクトに対する移動操作に応答して、当該目標仮想オブジェクトの位置情報をリアルタイムに取得するためのものである。
1つの可能な実施形態において、当該取得モジュールは、
当該位置情報で示される領域の領域タイプを決定し、
当該領域タイプの変更に応答して、当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップを実行するためのものである。
当該位置情報で示される領域の領域タイプを決定し、
当該領域タイプの変更に応答して、当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップを実行するためのものである。
一つの側面によれば、1つまたは複数のプロセッサと、少なくとも1つのプログラムコードが記憶された1つまたは複数のメモリとを含むコンピュータ機器であって、当該少なくとも1つのプログラムコードが当該1つまたは複数のプロセッサによってロードされ実行されることにより、当該仮想シーンに基づく操作コントロールの表示方法を実現するコンピュータ機器を提供する。
一つの側面によれば、プロセッサによってロードされ実行されることにより、当該仮想シーンに基づく操作コントロールの表示方法を実現する少なくとも1つのプログラムコードが記憶されたコンピュータ読み取り可能な記憶媒体を提供する。
本願の実施例における技術手段をより明確に説明するために、以下では、実施例の説明に必要な図面を簡単に説明する。以下の説明における図面は、本願のいくつかの実施例に過ぎず、当業者にとって、創造的な労働を費やすことなく、これらの図面に基づいて他の図面を得ることもできることが明らかである。
本願の目的、技術手段及び利点をより明確にするために、以下では、図面を参照して本願の実施形態をさらに詳細に説明する。
本願の実施例の技術プロセスを理解しやすくするために、以下では、本願の実施例に関わるいくつかの用語を解釈する。
仮想シーンは、アプリケーションが端末上で実行されるときに表示(又は提供)される仮想シーンである。当該仮想シーンは、現実世界に対するシミュレーション環境であってもよく、半シミュレーション半架空の仮想環境であってもよく、純粋に架空の仮想環境であってもよい。仮想シーンは、2次元の仮想シーン、2.5次元の仮想シーン及び3次元の仮想シーンのいずれか1つであってもよいが、本願では、これを限定しない。例えば、仮想シーンには、空、陸地、海洋などが含まれてもよく、当該陸地には、砂漠、都市などの環境要素が含まれてもよい。ユーザーは、仮想オブジェクトを当該仮想シーン内を移動するように制御することができる。
仮想オブジェクトは、仮想シーン内の可動オブジェクトを指す。この可動オブジェクトは、仮想人物、仮想動物、アニメキャラクターなどであってもよい。当該仮想オブジェクトは、当該仮想シーン内のユーザーを表すための仮想姿であってもよい。仮想シーンには、それぞれ仮想シーン内で独自の形状及び体積を持ち、仮想シーン内の空間の一部を占める複数の仮想姿が含まれてもよい。任意に、当該仮想オブジェクトは、クライアントで操作することで制御されるキャラクターであってもよく、トレーニングを通じて仮想環境での対戦に設定される人工知能(Artificial Intelligence,AI)であってもよく、仮想シーンでの対戦に設定されるノンプレイヤーキャラクター(Non-Player Character,NPC)であってもよい。任意に、当該仮想オブジェクトは、仮想シーンで競技する仮想人物である。任意に、当該仮想シーンでの対戦における仮想オブジェクトの数は、予め設定されてもよく、対戦に参加するクライアントの数に応じて動的に決定されてもよいが、本願の実施例では、これを限定しない。
MOBA(Multiplayer Online Battle Arena、マルチプレイヤーオンラインバトルアリーナ)ゲームは、仮想シーンに複数の拠点を提供し、異なる陣営に属するユーザーが仮想オブジェクトを仮想シーンで対戦させ、拠点を占領するか、又は敵対陣営の拠点を破壊するように制御するゲームである。例えば、MOBAゲームでは、ユーザーを少なくとも2つの敵対陣営に分け、少なくとも2つの敵対陣営に属する異なる仮想チームがそれぞれ独自のマップエリアを占拠し、ある勝利条件を目標として競技してもよい。各仮想チームは、1つまたは複数の仮想オブジェクトを含む。当該勝利条件は、拠点を占領するか又は敵対陣営の拠点を破壊すること、敵対陣営の仮想オブジェクトを撃殺すること、所定のシーン及び時間内で自分の生存を確保すること、あるリソースを奪うこと、所定の時間内で相手を上回るスコアを出すことのうちの少なくとも1つを含むが、これらに限られない。MOBAゲームは、ラウンドを単位として行われてもよく、各ラウンドの戦術競技のマップは、同じであってもよく、異なってもよい。MOBAゲームのラウンドごとの持続時間は、ゲーム開始の時刻から勝利条件を満たす時刻までの時間である。
関連技術では、携帯電話の画面サイズの制限により、多数の異なる種類の操作コントロールが操作領域に直接表示できないため、プレイヤーは、異なる仮想要素とインタラクションするときに、現在表示されている操作コントロールを手動で切り替える必要がある。そして、操作コントロールの切り替え手順は繁雑であることが多く、操作コントロールを頻繁に手動で切り替えると、ゲームの操作の複雑さを大幅に増加させ、ユーザー体験に影響を与えてしまう。
図1は、本願の実施例により提供される仮想シーンに基づく操作コントロールの表示方法の実施環境の模式図であり、図1を参照し、当該実施環境は、第1端末110、サーバ140及び第2端末160を含んでもよい。
第1端末110には、仮想シーン及び仮想オブジェクトを表示するようにサポートするアプリケーションがインストールされ、実行されている。当該アプリケーションは、仮想現実アプリケーション、3次元マッププログラム、軍事シミュレーションプログラム、ロールプレイングゲーム(Role-Playing Game,RPG)、マルチプレイヤーオンラインバトルアリーナゲーム(Multiplayer Online Battle Arena Games,MOBA)、マルチプレイヤーガンファイトサバイバルゲームのいずれか1つであってもよい。第1端末110は、第1ユーザーが使用する端末であり、第1ユーザーは、第1端末110を使用して、仮想シーンにある第1仮想オブジェクトを活動するように操作し、当該活動は、身の姿勢の調整、這い、歩き、走り、サイクリング、ジャンプ、運転、ピックアップ、シューティング、攻撃、投擲のうちの少なくとも1つを含むが、これらに限られない。例示的に、第1仮想オブジェクトは、シミュレーションキャラクター又はアニメキャラクターのような第1仮想人物である。
第1端末110は、無線ネットワーク又は有線ネットワークを介してサーバ140に接続されている。
サーバ140は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム及び仮想化センターのうちの少なくとも1つを含む。サーバ140は、仮想シーンをサポートするアプリケーションにバックグラウンドサービスを提供するためのものである。任意に、サーバ140は、主要なコンピューティングの作業を担当し、第1端末110及び第2端末160は、副次的なコンピューティングの作業を担当する。或いは、サーバ140は、主要なコンピューティングの作業を担当し、第1端末110及び第2端末160は、副次的なコンピューティングの作業を担当する。或いは、サーバ140、第1端末110及び第2端末160の三者の間は、分散コンピューティングアーキテクチャにより協同コンピューティングを行う。
第2端末160には、仮想シーン及び仮想オブジェクトを表示するようにサポートするアプリケーションがインストールされ、実行されている。当該アプリケーションは、仮想現実アプリケーション、3次元マッププログラム、軍事シミュレーションプログラム、ロールプレイングゲーム(Role-Playing Game,RPG)、マルチプレイヤーオンラインバトルアリーナゲーム(Multiplayer Online Battle Arena Games,MOBA)、マルチプレイヤーガンファイトサバイバルゲームのいずれか1つであってもよい。第2端末160は、第2ユーザーが使用する端末であり、第2ユーザーは、第2端末160を使用して、仮想シーンにある第2仮想オブジェクトを活動するように操作し、当該活動は、身の姿勢の調整、這い、歩き、走り、サイクリング、ジャンプ、運転、ピックアップ、シューティング、攻撃、投擲のうちの少なくとも1つを含むが、これらに限られない。例示的に、第2仮想オブジェクトは、シミュレーションキャラクター又はアニメキャラクターのような第2仮想人物である。
第2端末160は、無線ネットワーク又は有線ネットワークを介してサーバ140に接続されている。
任意に、第1端末110によって制御される第1仮想オブジェクト及び第2端末160によって制御される第2仮想オブジェクトが同一の仮想シーンにあり、この時、第1仮想オブジェクトは、仮想シーンに第2仮想オブジェクトとインタラクションすることができる。いくつかの実施例において、第1仮想オブジェクトと第2仮想オブジェクトは、敵対関係にあってもよく、例えば、異なるグループに属してもよい。敵対関係にある仮想オブジェクトの間は、異なるスキルにより互いに攻撃し、対戦型インタラクションを行ってもよい。第1端末110及び第2端末160には、スキルによるパフォーマンス効果が表示されている。
他の実施例において、第1仮想オブジェクトと第2仮想オブジェクトは、チームメイトの関係にあってもよく、例えば、同一のグループに属したり、友達関係にあったり、一時的な通信権限を持ったりしてもよい。
任意に、第1端末110及び第2端末160にインストールされているアプリケーションは、同じであるか、又は異なるオペレーティングシステムプラットフォームにおける同種のアプリケーションである。第1端末110は、複数の端末のうちの1つを包括的に指してもよく、第2端末160は、複数の端末のうちの1つを包括的に指してもよく、本実施例では、第1端末110及び第2端末160のみを例として説明する。第1端末110及び第2端末160のデバイスタイプは同じまたは異なり、当該デバイスタイプは、スマートフォン、タブレットコンピュータ、電子書籍リーダー、MP3(Moving Picture Experts Group Audio Layer III,ムービングピクチャーエキスパートグループオーディオレイヤー3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV,ムービングピクチャーエキスパートグループオーディオレイヤー4)プレーヤー、ラップトップポータブルコンピュータ及びデスクトップコンピュータのうちの少なくとも1つを含む。例えば、第1端末110及び第2端末160は、スマートフォン、又は他の携帯型ゲーム機であってもよい。以下の実施例では、端末がスマートフォンを含む場合を例として説明する。
当業者は、上記の端末の数がさらに多くても少なくても構わないことが分かる。例えば、上記の端末は、1つだけであってもよく、数十や数百、又はそれ以上の数であってもよい。本願の実施例では、端末の数及びデバイスタイプを限定しない。
本願の実施例により提供される仮想シーンに基づく操作コントロールの表示方法は、複数種類のアプリケーションに適用可能であり、操作インタフェースに表示されている操作コントロールを自動に調整することにより、ユーザーの操作を簡略化する。本願の実施例において、当該方法をMOBAゲームに適用する場合を例示し、ユーザーは、端末を介して目標仮想オブジェクトを仮想シーン内を移動したり、仮想シーン内の仮想要素とインタラクションしたりするように操作することができる。いくつかの実施例において、端末は、当該目標仮想オブジェクトとインタラクションする仮想要素の変更に基づいて、現在表示されている仮想コントロールを自動に調整し、ユーザーが手動で切り替えることを必要としないので、操作の難易度が低くなる。
図2は、本願の実施例により提供される仮想シーンに基づく操作コントロールの表示方法のフローチャートである。当該方法は、コンピュータ機器に適用されてもよく、いくつかの実施例において、当該コンピュータ機器は、上記の実施環境内のいずれか1つの端末である。本願の実施例において、主に端末によって実行される場合を例として、図2を参照し、当該仮想シーンに基づく操作コントロールの表示方法を説明する。
ステップ201において、端末は、当該端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得する。
任意に、当該目標仮想オブジェクトは、当該端末を使用するユーザーによって制御される仮想オブジェクトである。
1つの可能な実施形態において、当該端末は、ユーザーがゲームに参加したと検出したら、このラウンドのゲームに対応する、複数のタイプの仮想要素が含まれてもよい仮想シーンを表示することができる。当該仮想要素は、仮想オブジェクト、仮想建物、仮想アイテムなどを含んでもよく、各仮想要素は、仮想シーン内で独自の形状及び体積を持ち、仮想シーン内の空間の一部を占める。例えば、当該仮想要素は、仮想シーン内の防御タワー、ミニオン、モンスター、果実などであってもよい。本願の実施例では、当該仮想要素の具体的なタイプ及び数を限定しない。もちろん、当該端末は、仮想シーン内のコントロール表示領域に、当該目標仮想オブジェクトを各タイプの仮想要素とインタラクションするように制御するために使用可能な少なくとも1つの操作コントロールが表示されてもよい。例えば、当該操作コントロールは、ミニオンに攻撃を仕掛けるためのミニオンキーを含み、防御タワーに攻撃を仕掛けるためのタワーキー、ジャングル内のモンスターに攻撃を仕掛けるためのモンスターキー、仮想シーン内の果実に攻撃を仕掛けるための果実キーをさらに含む。いくつかの実施例において、果実は、爆発果実と、回復果実とを含み、爆発果実は、作用範囲を有し、目標仮想オブジェクトが当該作用範囲にあるとともに爆発果実に攻撃を仕掛ける場合に、爆発果実は、爆発し、目標仮想オブジェクトを、爆発果実と反対の位置まで「吹き飛ばす」ことができる。プレイヤーが回復果実を攻撃するように目標仮想オブジェクトを制御するときに、回復果実が複数のサブ回復果実になるように分散でき、目標仮想オブジェクトがサブ回復果実に接触すると、健康値を回復することができ、いくつかの実施例において、健康値は、生命値とも呼ばれる。図3を参照し、図3は、本願の実施例により提供される操作インタフェースの模式図であり、当該操作インタフェースは、仮想シーン表示領域301と、複数の操作コントロール303を表示している操作コントロール表示領域302とを含む。
1つの可能な実施形態において、ユーザーは、目標仮想オブジェクトに対するドラッグなどの操作により、当該目標仮想オブジェクトを当該仮想シーン内を移動するように制御でき、端末は、当該目標仮想オブジェクトの当該仮想シーンにおける位置情報をリアルタイムに取得できる。いくつかの実施例において、端末は、当該位置情報を座標として示してもよい。説明すべきこととして、本願の実施例では、当該端末が当該位置情報を取得する具体的な方法を限定しない。
ステップ202において、端末は、当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定する。
1つの可能な実施形態において、当該端末は、当該目標仮想オブジェクトの位置情報、又は現在の仮想シーンに含まれる仮想要素、又は当該位置情報及び現在の仮想シーンに含まれる仮想要素に基づいて、当該目標仮想オブジェクトとインタラクション可能な仮想要素を決定してもよく、つまり、端末は、当該目標仮想オブジェクトに対応する、目標仮想オブジェクトとインタラクション可能なインタラクション要素である目標仮想要素を決定する。いくつかの実施例において、目標仮想要素は、インタラクション可能な要素とも呼ばれる。いくつかの実施例において、端末は、当該目標仮想要素の要素タイプを決定してもよい。例えば、当該目標仮想オブジェクトが、モンスターである仮想要素を含むジャングルにある場合に、当該目標仮想オブジェクトに対応する目標仮想要素は、モンスターであり、いくつかの実施例において、モンスターは、中立クリープ(野生モンスター)とも呼ばれる。当該目標仮想オブジェクトが、ミニオンを含むがモンスターを含まない仮想要素が現れているジャングル以外の領域にある場合に、当該目標仮想オブジェクトに対応する目標仮想要素は、ミニオンである。説明すべきこととして、上記の目標仮想要素の決定方法についての説明は、例示的なものに過ぎず、本願の実施例では、目標仮想要素を決定する具体的な方法を限定しない。
ステップ203において、端末は、当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する目標操作コントロールを表示し、当該目標操作コントロールは、当該目標仮想オブジェクトを当該目標仮想要素とインタラクションするように制御するためのものである。
任意に、コントロール表示領域は、操作コントロールを表示するための領域であり、いくつかの実施例において、コントロール表示領域には、1つまたは複数の操作コントロールが表示されている。
本願の実施例において、目標仮想オブジェクトが異なるタイプの仮想要素とインタラクションする場合に、異なる操作コントロールにより実現してもよい。例えば、モンスターを攻撃するように目標仮想オブジェクトを制御する場合に、使用する操作コントロールはモンスターキーである。ミニオンを攻撃するように目標仮想オブジェクトを制御する場合に、使用する操作コントロールはミニオンキーである。防御タワーを攻撃するように目標仮想オブジェクトを制御する場合に、使用する操作コントロールはタワーキーである。
1つの可能な実施形態において、端末は、目標仮想オブジェクトが現在直面している目標仮想要素の要素タイプに基づいて、操作インタフェースに表示されている操作コントロールを自動に調整してもよい。例えば、当該目標仮想オブジェクトがジャングルにあり、端末が、当該目標仮想オブジェクトに対応する目標仮想要素がモンスターであることを決定する場合に、当該操作インタフェースの操作コントロール表示領域には、モンスターキーが表示される。当該目標仮想オブジェクトがジャングルから離れ、端末が、当該目標仮想オブジェクトに対応する目標仮想要素がミニオンであることを決定する場合に、当該操作コントロール表示領域に表示されているモンスターキーをミニオンキーに切り替える。
本願の実施例により提供される技術手段では、目標仮想オブジェクトの仮想シーンにおける位置情報を取得することにより、仮想シーン内の異なる領域に異なるタイプの仮想要素が現れるため、当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトが現在の位置にあるときに対応する目標仮想要素を決定することができる。目標仮想オブジェクトが異なるタイプの仮想要素とインタラクションする場合に、異なる操作コントロールを利用する必要があるため、当該端末が当該仮想シーン内のコントロール表示領域に表示されている操作コントロールを当該目標仮想要素の要素タイプに対応する目標操作コントロールに切り替えることができることにより、ユーザーは、目標仮想オブジェクトを当該目標仮想要素とインタラクションするように操作するときに、操作コントロールを手動で切り替える必要がなく、操作の複雑さを効果的に低減し、ユーザー体験を向上させることができる。
上記の実施例では、仮想シーンに基づく操作コントロールの表示方法を簡単に説明したが、以下では、図4を参照し、当該方法を具体的に説明する。図4は、本願の実施例により提供される仮想シーンに基づく操作コントロールの表示方法のフローチャートである。1つの可能な実施形態において、仮想シーン内の異なる領域に異なる仮想要素が現れ、つまり、目標仮想オブジェクトが異なる領域にある場合に、その対応する目標仮想要素も異なるため、端末は、当該目標仮想オブジェクトの位置に基づいて、コントロール表示領域に表示されている操作コントロールを切り替えることができる。図4を参照し、当該実施例では、具体的に以下のステップを含む。
ステップ401において、端末は、当該端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得する。
端末は、ユーザーがゲームに参加したと検出したら、このラウンドのゲームに対応する、少なくとも1つの仮想オブジェクト及び他の仮想要素を表示する仮想シーンを表示することができる。1つの可能な実施形態において、ゲームの開始後に、当該端末は、ユーザーが現在制御している目標仮想オブジェクトの位置情報をリアルタイムに取得することができる。任意に、当該端末は、ユーザーが目標仮想オブジェクトに対してドラッグなどの操作を行う、即ち、ユーザーが目標仮想オブジェクトを移動状態にあるように制御すると検出した場合に、再び当該目標仮想オブジェクトの位置情報を取得してもよい。いくつかの実施例において、目標仮想オブジェクトに対するユーザーのドラッグ操作は、ユーザーが操作インタフェースにおける仮想ロッカーにより実現するものである。本願の実施例では、当該位置情報の具体的な取得方法を限定しない。
1つの可能な実施形態において、当該仮想シーンが3次元のシーンである場合に、当該位置情報は、位置座標(x,y,z)として示されてもよく、(x,z)は、目標仮想オブジェクトの平面方向における位置を決定するために使用可能であり、yは、目標仮想オブジェクトの垂直方向における位置を決定するために使用可能である。もちろん、当該位置情報は、他の形式で示されてもよいが、本願の実施例では、これを限定しない。
ステップ402において、端末は、当該位置情報に基づいて当該位置情報で示される領域の領域タイプを決定する。
1つの可能な実施形態において、開発者は、仮想シーンのマップをM*N個の格子、即ち、M*N個の領域に分割してもよく、ここで、M及びNは、いずれも正の整数である。いくつかの実施例において、M及びNの値は、それぞれマップの長さ及び幅に対応し、マップの解像度がM*Nであれば、マップ内のピクセルの各々を1つの領域とし、もちろん、M及びNは、他の値としてもよいが、本願の実施例では、これを限定しない。異なる位置情報は、異なる領域を示すことができ、1つの領域は、それぞれ1つの領域タイプに対応し、例えば、当該領域タイプは、ジャングル、非ジャングルなどであってもよく、領域と領域タイプとの対応関係は、開発者によって設定される。
1つの可能な実施形態において、アプリケーションの設定ファイルには、マップ内の各領域に対応する位置インデックス及び領域タイプを記憶するためのマップインデックステーブルが含まれる。当該アプリケーションは、仮想シーンのアプリケーションである。いくつかの実施例において、当該領域の平面における位置情報を当該位置インデックスとしてもよく、例えば、格子領域のある頂点について、当該頂点の平面方向における位置座標(x,z)を当該格子領域の位置インデックスとしてもよい。マップに対して格子領域の分割を行うときに、ピクセルの各々を1つの領域とするので、各格子領域に対応する位置インデックスにおける2つの値は、いずれも整数である。説明すべきこととして、上記の位置インデックスの決定方法についての説明は、例示的なものに過ぎず、本願の実施例では、位置インデックスを決定する具体的な方法を限定しない。
1つの可能な実施形態において、当該端末は、当該位置情報に基づいて当該位置情報で示される領域の位置インデックスを決定してもよく、例えば、当該端末は、当該位置情報のうちの平面方向における位置座標、即ち、x軸の値及びz軸の値を取得し、2つの値を整数に丸めて(x’,z’)を位置インデックスとして得てもよい。次に、端末は、当該位置インデックスに基づいて、当該仮想シーンに対応するマップインデックステーブルから当該領域の領域タイプを取得し、つまり、当該位置インデックスに対応する領域タイプを当該領域の領域タイプとする。説明すべきこととして、上記の領域タイプの決定方法についての説明は、例示的なものに過ぎず、本願の実施例では、領域タイプを決定する具体的な方法を限定しない。
ステップ403において、端末は、当該領域タイプに基づいて、コントロール表示領域に表示されている操作コントロールを切り替える。
本願の実施例において、異なるタイプの領域に異なるタイプの仮想要素が含まれるので、当該目標仮想オブジェクトが異なる領域にある場合に、対応する目標仮想要素も異なる。例えば、領域タイプがジャングルである場合に、ジャングルに含まれる仮想要素は、ミニオンを含まず、モンスターであるので、当該目標仮想オブジェクトがジャングルに入ると、その対応する目標仮想要素はモンスターであり、当該目標仮想オブジェクトがジャングルから離れると、その対応する目標仮想要素はミニオンである。本願の実施例において、領域タイプによって、目標仮想オブジェクトに対応する目標仮想要素を決めることができるため、端末は、領域タイプに基づいて操作コントロールを切り替え、つまり、当該領域タイプに対応する仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定することができる。端末は、コントロール表示領域に表示されている操作コントロールを、当該目標仮想要素の要素タイプに対応する操作コントロールに切り替える。1つの可能な実施形態において、当該端末は、目標仮想オブジェクトの位置情報を取得するたびに、当該コントロール表示領域に表示されている操作コントロールを更新してもよい。1つの可能な実施形態において、当該端末は、目標仮想オブジェクトの位置情報を取得するたびに、当該位置情報に対応する領域タイプを前回取得した位置情報に対応する領域タイプと比較し、領域タイプが変更されたか否かを判断し、当該領域タイプの変更に応答して、操作コントロールを更新するステップを実行してもよい。本願の実施例では、操作コントロールを更新する具体的な方法を限定しない。
以下では、図5及び図6を参照し、ミニオンキーとモンスターキーの切り替えプロセスを例として、上記の操作コントロールの切り替えプロセスを説明する。図5は、本願の実施例により提供される操作コントロールの切り替えプロセスの模式図であり、図5を参照し、ゲームの開始に応答して、当該端末は、目標仮想オブジェクトの位置情報を取得するステップ501を実行し、位置情報に基づいて、当該目標仮想オブジェクトがジャングルにあるか否かを判断する判断ステップ502を実行し、ジャングルにある場合に、モンスターキーを設定するステップ503を実行し、ジャングルにない場合に、ミニオンキーを設定するステップ504を実行してもよい。
図6は、本願の実施例により提供されるコントロール表示領域の模式図であり、図6を参照し、コントロール表示領域601内の領域602は、ミニオンキー及びモンスターキーの表示領域である。いくつかの実施例において、当該目標仮想オブジェクトがジャングルに入ると、図6(a)に示すように、当該領域602には、モンスターキーのアイコンが表示されており、いくつかの実施例において、当該目標仮想オブジェクトがジャングルから離れると、図6(b)に示すように、当該領域602には、ミニオンキーのアイコンが表示されている。
1つの可能な実施形態において、異なる領域に含まれる仮想要素は、複数のタイプであり、例えば、ある領域には、タイプAの仮想要素、タイプBの仮想要素、タイプCの仮想要素が含まれ、ユーザーは、3つの異なる操作コントロールにより、目標仮想オブジェクトを、それぞれこの3つのタイプの仮想要素とインタラクションするように制御することができる。いくつかの実施例において、この3つの操作コントロールのコントロール表示領域における表示位置は同じであり、つまり、この位置は、3つの候補操作コントロールに対応する。端末は目標仮想オブジェクトが当該領域にあると決定すると、この3つの操作コントロールを予めロードしてもよく、この場合に、この3つの操作コントロールは、候補操作コントロール、即ち、端末ロード候補操作コントロールとも呼ばれる。当該目標仮想オブジェクトの移動中に、当該目標仮想オブジェクトの位置がいずれか1つの操作コントロールの表示条件を満たしている場合に、当該いずれか1つの操作コントロールのアイコンを表示する。任意に、当該表示条件は、開発者によって設定され、例えば、当該表示条件を、目標仮想オブジェクトと仮想要素との距離が距離閾値よりも小さいなどと設定するが、本願の実施例では、これを限定しない。上記の手段により、端末は、目標仮想オブジェクトの位置情報に基づいて操作コントロールを予めロードすることによって操作コントロールの切り替え効率を向上させることができる。
本願の実施例により提供される技術手段では、目標仮想オブジェクトの仮想シーンにおける位置情報を取得することにより、仮想シーン内の異なる領域に異なるタイプの仮想要素が現れるため、当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトが現在の位置にあるときに対応する目標仮想要素を決定することができる。目標仮想オブジェクトが異なるタイプの仮想要素とインタラクションする場合に、異なる操作コントロールを利用する必要があるため、当該端末が当該仮想シーン内のコントロール表示領域に表示されている操作コントロールを当該目標仮想要素の要素タイプに対応する目標操作コントロールに切り替えることができることにより、ユーザーは、目標仮想オブジェクトを当該目標仮想要素とインタラクションするように操作するときに、操作コントロールを手動で切り替える必要がなく、操作の複雑さを効果的に低減し、ユーザー体験を向上させることができる。
1つの可能な実施形態において、端末は、目標仮想オブジェクトの位置情報及び仮想シーン内の仮想要素に基づいて、現在目標仮想オブジェクトに対応している目標仮想要素を総合的に決定し、さらに、現在の目標仮想要素の要素タイプに基づいて操作コントロールを切り替えてもよい。図7は、本願の実施例により提供される仮想シーンに基づく操作コントロールの表示方法のフローチャートであり、図7を参照し、当該実施例では、具体的に以下のステップを含んでもよい。
ステップ701において、端末は、当該端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得する。
端末による位置情報の取得プロセスは、前記ステップ401と同様であり、ここでは、重複して述べない。
ステップ702において、端末は、当該目標仮想オブジェクトの位置情報及び当該仮想シーン内の仮想要素に基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定する。
1つの可能な実施形態において、当該プロセスは、以下の複数の実施形態のいずれか1つを含む。
実施形態1では、端末は、当該位置情報に基づいて、当該仮想シーンに含まれる仮想要素のうちの、当該目標仮想オブジェクトから最も近い仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定する。つまり、端末は、仮想シーン内の、当該目標仮想オブジェクトとインタラクション可能な仮想要素の位置情報を取得し、当該目標仮想オブジェクトとインタラクション可能な仮想要素の各々と当該目標仮想オブジェクトとの距離を決定し、当該目標仮想オブジェクトから最も近い仮想要素を当該目標仮想要素とする。例えば、当該目標仮想オブジェクトから最も近い仮想要素が防御タワーである場合に、端末は、当該防御タワーを当該目標仮想要素とする。
実施形態2では、端末は、当該位置情報で示される位置を中心として、当該仮想シーン内に目標領域を決定する。端末は、当該目標領域内の各要素タイプに含まれる仮想要素の数を決定する。端末は、最大数の仮想要素を含む要素タイプを当該目標仮想要素の要素タイプとして決定する。いくつかの実施例において、当該目標領域が有効なインタラクション領域であり、つまり、当該目標仮想オブジェクトが当該目標領域内に位置する仮想要素とインタラクションすることができ、当該目標領域外に位置する仮想要素とはインタラクションすることができない。任意に、当該目標領域の半径は、開発者によって設定されるが、本願の実施例では、これを限定しない。例えば、当該目標領域内に最も多く含まれる仮想要素が果実である場合に、端末は、果実を当該目標仮想要素として決定してもよい。
実施形態3では、端末は、当該位置情報で示される位置を中心として、当該仮想シーン内に目標領域を決定する。端末は、当該目標領域内の各仮想要素のインタラクションの優先度を決定する。端末は、インタラクションの優先度が最も高い仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定する。いくつかの実施例において、当該インタラクションの優先度は、当該目標仮想オブジェクトが各タイプの仮想要素とインタラクションする順番を示すためのものである。任意に、当該インタラクションの優先度は、開発者によって設定され、即ち、デフォルト値と設定されるか、又はユーザー自分で設定されるが、本願の実施例では、これを限定しない。例えば、当該目標領域に防御タワーと果実の両方が含まれ、防御タワーよりも果実のインタラクションの優先度が高い場合に、端末は、果実を当該目標仮想要素として決定してもよい。
MOBAゲームでは、仮想要素のタイプは、豊富で多様であり、上記の手段により、ユーザーによって制御される目標仮想オブジェクトの位置、当該位置付近の仮想要素の要素タイプに基づいて、ユーザーのために目標仮想要素を自動に決定し、さらに、後のインタラクション可能な仮想要素のタイプに基づいて操作コントロールを切り替えるステップを実行する。これによって、ユーザーの操作ステップを簡略化し、ゲームの操作の難易度を低減することができる。
本願の実施例において、上記の複数の方法は、任意に組み合わせられてもよく、例えば、仮想要素と当該目標仮想オブジェクトとの距離、仮想要素に対応するインタラクションの優先度に異なる重みを割り当て、仮想要素の目標仮想オブジェクトとの距離、インタラクションの優先度を統合して考えて、仮想要素に対応する重みの合計を決定し、重みの合計が最も大きい仮想要素を目標仮想要素として決定してもよい。説明すべきこととして、上記の条件の組合せに基づく目標仮想要素の決定についての説明は、条件の組合せ方式の例示的な説明に過ぎず、他の組合せ方式に基づいて目標仮想要素を決定するプロセスは、上記のプロセスと同様であり、ここでは、重複して述べない。
説明すべきこととして、上記の目標仮想要素の要素タイプの決定方法についての説明は、例示的なものに過ぎず、本願の実施例では、目標仮想要素の要素タイプの決定方法を限定しない。
ステップ703において、端末は、当該目標仮想要素の要素タイプに基づいて、コントロール表示領域に表示されている操作コントロールを切り替える。
本願の実施例において、端末は、当該仮想シーン内のコントロール表示領域に表示されている操作コントロールを、当該目標仮想要素の要素タイプに対応する目標操作コントロールに切り替えてもよく、当該目標操作コントロールは、当該目標仮想オブジェクトを当該目標仮想要素とインタラクションするように制御するためのものである。いくつかの実施例において、当該コントロール表示領域内のいずれか1つのコントロール表示位置に対して、当該いずれか1つのコントロール表示位置に対応する候補操作コントロールを取得し、例えば、ミニオンキーとモンスターキーは、仮想シーンにおける表示位置が同じであり、即ち、いずれも当該コントロール表示領域内のいずれか1つのコントロール表示位置に表示されている場合に、当該いずれか1つのコントロール表示位置に対応する候補操作コントロールは、ミニオンキー及びモンスターキーである。端末は、当該目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせてもよい。端末は、表示条件が当該目標仮想要素の要素タイプとマッチされた候補操作コントロールを、目標操作コントロールとして決定する。端末は、当該いずれか1つのコントロール表示位置に当該目標操作コントロールを表示する。いくつかの実施例において、端末は、当該いずれか1つのコントロール表示位置に現在表示されている操作コントロールと当該目標操作コントロールとが同じであるか否かを判断することができる。同じである場合に、当該現在表示されている操作コントロールの表示を継続し、異なっている場合に、当該現在表示されている操作コントロールを当該目標操作コントロールに切り替える。任意に、当該表示条件は、開発者によって設定され、例えば、タワーキーの表示条件を現在の目標仮想要素が防御タワーであると設定し、果実キーの表示条件を現在の目標仮想要素が果実であると設定する。
具体的には、図8及び図9を参照し、タワーキーと果実キーの切り替えプロセスを例として説明する。図8は、本願の実施例により提供される操作コントロールの切り替えプロセスの模式図である。図8を参照し、ゲームの開始に応答して、当該端末は、目標仮想オブジェクトの位置情報を取得するステップ801を実行し、位置情報に基づいて、当該目標仮想オブジェクトがジャングルにあるか否かを判断する判断ステップ802を実行し、ジャングルにある場合に、目標仮想要素の要素タイプを決定するステップ803を実行し、当該目標仮想要素に基づいて、当該目標仮想要素が防御タワーであるか否かを判断する判断ステップ804を実行し、防御タワーである場合に、タワーキーを設定するステップ805を実行し、防御タワーではない場合に、果実キーを設定するステップ806を実行してもよい。当該目標仮想オブジェクトがジャングルにない場合に、インタラクション要素の要素タイプを決定するステップ807を実行し、当該目標仮想要素に基づいて、当該目標仮想要素が果実であるか否かを判断する判断ステップ808を実行し、果実である場合に、果実キーを設定するステップ806を実行し、果実ではない場合に、タワーキーを設定するステップ805を実行する。つまり、当該目標仮想オブジェクトがジャングルにあるか否かにかかわらず、端末は、目標仮想オブジェクトに対応する目標仮想要素を決定し、当該目標仮想要素の要素タイプに基づいて、どのような操作コントロールを表示するかを決定する必要がある。図9は、本願の実施例により提供されるコントロール表示領域の模式図であり、図9を参照し、コントロール表示領域901内の領域902は、タワーキー及び果実キーの表示領域である。当該目標仮想オブジェクトに対応する目標仮想要素が防御タワーである場合に、図9(a)に示すように、当該領域902には、タワーキーのアイコンが表示されてもよく、当該目標仮想オブジェクトに対応する目標仮想要素が果実である場合に、図9(b)に示すように、当該領域902には、果実キーのアイコンが表示されている。
本願の実施例により提供される技術手段では、目標仮想オブジェクトの位置情報を取得することにより、仮想シーン内の異なる領域が異なる仮想要素に対応するため、目標仮想オブジェクトの位置に基づいて、その対応する目標仮想要素の要素タイプを決定することができ、さらに、当該目標仮想オブジェクトの位置情報に基づいて、操作インタフェースに表示されている操作コントロールを自動に切り替え、操作インタフェースに当該目標仮想オブジェクトが位置する領域とマッチされた操作コントロール、即ち、当該目標仮想オブジェクトに対応する目標仮想要素とマッチされた操作コントロールを表示することができる。上記の手段より、ユーザーが操作中に操作コントロールを手動で切り替えることを必要としないので、操作の複雑さを効果的に低減し、ユーザー体験を向上させることができる。一方、操作インタフェースに全ての操作コントロールを表示する必要がなく、現在の目標仮想要素に関する操作コントロールを表示すればよく、よって、端末の画面サイズの制限により多数の操作コントロールを配置できないという問題を解決する。
上記の全ての選択可能な技術手段は、任意に組み合わせられることにより本願の選択可能な実施例を構成してもよいが、ここでは、一々述べない。
図10は、本願の実施例により提供される仮想シーンに基づく操作コントロールの表示装置の構造模式図であり、図10を参照し、当該装置は、
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得するための取得モジュール1001と、
当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するための決定モジュール1002と、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する目標操作コントロールを表示するための表示モジュールであって、当該目標操作コントロールは、当該目標仮想オブジェクトを当該目標仮想要素とインタラクションするように制御するためのものである表示モジュール1003とを備える。
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得するための取得モジュール1001と、
当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するための決定モジュール1002と、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する目標操作コントロールを表示するための表示モジュールであって、当該目標操作コントロールは、当該目標仮想オブジェクトを当該目標仮想要素とインタラクションするように制御するためのものである表示モジュール1003とを備える。
1つの可能な実施形態において、当該決定モジュール1002は、
当該位置情報に基づいて当該位置情報で示される領域の位置インデックスを決定し、
当該位置インデックスに基づいて、当該仮想シーンに対応するマップインデックステーブルから当該領域の領域タイプを取得し、当該マップインデックステーブルは、当該仮想シーン内の各領域の位置インデックス及び当該各領域の領域タイプを含むものであり、
当該領域タイプに対応する仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定するためのものである。
当該位置情報に基づいて当該位置情報で示される領域の位置インデックスを決定し、
当該位置インデックスに基づいて、当該仮想シーンに対応するマップインデックステーブルから当該領域の領域タイプを取得し、当該マップインデックステーブルは、当該仮想シーン内の各領域の位置インデックス及び当該各領域の領域タイプを含むものであり、
当該領域タイプに対応する仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定するためのものである。
1つの可能な実施形態において、当該決定モジュール1002は、
当該位置情報に基づいて、当該仮想シーンに含まれる仮想要素のうちの、当該目標仮想オブジェクトから最も近い仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定するためのものである。
当該位置情報に基づいて、当該仮想シーンに含まれる仮想要素のうちの、当該目標仮想オブジェクトから最も近い仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定するためのものである。
1つの可能な実施形態において、当該決定モジュール1002は、
当該位置情報で示される位置を中心として、当該仮想シーン内に目標領域を決定し、
当該目標領域内の各要素タイプに含まれる仮想要素の数を決定し、
最大数の仮想要素を含む要素タイプを当該目標仮想要素の要素タイプとして決定するためのものである。
当該位置情報で示される位置を中心として、当該仮想シーン内に目標領域を決定し、
当該目標領域内の各要素タイプに含まれる仮想要素の数を決定し、
最大数の仮想要素を含む要素タイプを当該目標仮想要素の要素タイプとして決定するためのものである。
1つの可能な実施形態において、当該決定モジュール1002は、
当該位置情報で示される位置を中心として、当該仮想シーン内に目標領域を決定し、
当該目標領域内の各仮想要素のインタラクションの優先度を決定し、
インタラクションの優先度が最も高い仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定するためのものである。
当該位置情報で示される位置を中心として、当該仮想シーン内に目標領域を決定し、
当該目標領域内の各仮想要素のインタラクションの優先度を決定し、
インタラクションの優先度が最も高い仮想要素の要素タイプを当該目標仮想要素の要素タイプとして決定するためのものである。
1つの可能な実施形態において、当該表示モジュール1003は、
当該コントロール表示領域内のいずれか1つのコントロール表示位置に対して、当該いずれか1つのコントロール表示位置に対応する候補操作コントロールを取得し、
当該目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせ、
表示条件が当該インタラクション可能な要素の要素タイプとマッチされた候補操作コントロールを、当該目標操作コントロールとして決定し、
当該いずれか1つのコントロール表示位置に当該目標操作コントロールを表示するためのものである。
当該コントロール表示領域内のいずれか1つのコントロール表示位置に対して、当該いずれか1つのコントロール表示位置に対応する候補操作コントロールを取得し、
当該目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせ、
表示条件が当該インタラクション可能な要素の要素タイプとマッチされた候補操作コントロールを、当該目標操作コントロールとして決定し、
当該いずれか1つのコントロール表示位置に当該目標操作コントロールを表示するためのものである。
1つの可能な実施形態において、当該表示モジュール1003は、
当該コントロール表示位置に現在表示されている操作コントロールと当該目標操作コントロールとが同じであるか否かを判断し、
同じである場合に、当該現在表示されている操作コントロールの表示を継続し、異なっている場合に、当該現在表示されている操作コントロールを当該目標操作コントロールに切り替えるためのものである。
当該コントロール表示位置に現在表示されている操作コントロールと当該目標操作コントロールとが同じであるか否かを判断し、
同じである場合に、当該現在表示されている操作コントロールの表示を継続し、異なっている場合に、当該現在表示されている操作コントロールを当該目標操作コントロールに切り替えるためのものである。
1つの可能な実施形態において、当該取得モジュール1001は、
当該目標仮想オブジェクトに対する移動操作に応答して、当該目標仮想オブジェクトの位置情報をリアルタイムに取得するためのものである。
当該目標仮想オブジェクトに対する移動操作に応答して、当該目標仮想オブジェクトの位置情報をリアルタイムに取得するためのものである。
1つの可能な実施形態において、当該取得モジュール1001は、
当該位置情報で示される領域の領域タイプを決定し、
当該領域タイプの変更に応答して、当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップを実行するためのものである。
当該位置情報で示される領域の領域タイプを決定し、
当該領域タイプの変更に応答して、当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップを実行するためのものである。
本願の実施例により提供される装置では、目標仮想オブジェクトの仮想シーンにおける位置情報を取得することにより、仮想シーン内の異なる領域に異なるタイプの仮想要素が現れるため、当該位置情報、当該仮想シーン内の仮想要素の少なくとも1つに基づいて、当該目標仮想オブジェクトが現在の位置にあるときに対応する目標仮想要素を決定することができる。目標仮想オブジェクトが異なるタイプの仮想要素とインタラクションする場合に、異なる操作コントロールを利用する必要があるため、当該端末が当該仮想シーン内のコントロール表示領域に表示されている操作コントロールを当該目標仮想要素の要素タイプに対応する目標操作コントロールに切り替えることができることにより、ユーザーは、目標仮想オブジェクトを当該目標仮想要素とインタラクションするように操作するときに、操作コントロールを手動で切り替える必要がなく、操作の複雑さを効果的に低減し、ユーザー体験を向上させることができる。
説明すべきこととして、上記の実施例により提供される仮想シーンに基づく操作コントロールの表示装置に操作コントロールが表示される際に、上記の各機能モジュールの分割のみを例示して説明したが、実際の応用では、必要に応じて上記の機能を異なる機能モジュールに割り当てて完成し、即ち、装置の内部構造を異なる機能モジュールに分割して上記した機能の全部又は一部を完成してもよい。なお、上記の実施例により提供される仮想シーンに基づく操作コントロールの表示装置は、仮想シーンに基づく操作コントロールの表示方法と同じ構想に基づくため、その具体的な実現プロセスについては、方法実施例を詳しく参照し、ここでは、重複して述べない。
上記の技術手段に提供されるコンピュータ機器は、端末又はサーバとして実現されてもよく、例えば、当該コンピュータ機器は、1つまたは複数のプロセッサと、少なくとも1つのプログラムコードが記憶された1つまたは複数のメモリとを含み、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得し、
位置情報、仮想シーン内の仮想要素の少なくとも1つに基づいて、目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定し、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する、目標仮想オブジェクトを目標仮想要素とインタラクションするように制御するための目標操作コントロールを表示するように実行される。
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得し、
位置情報、仮想シーン内の仮想要素の少なくとも1つに基づいて、目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定し、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する、目標仮想オブジェクトを目標仮想要素とインタラクションするように制御するための目標操作コントロールを表示するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報に基づいて位置情報で示される領域の位置インデックスを決定し、
位置インデックスに基づいて、仮想シーンに対応する、仮想シーン内の各領域の位置インデックス及び各領域の領域タイプを含むマップインデックステーブルから領域の領域タイプを取得し、
領域タイプに対応する仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
位置インデックスに基づいて、仮想シーンに対応する、仮想シーン内の各領域の位置インデックス及び各領域の領域タイプを含むマップインデックステーブルから領域の領域タイプを取得し、
領域タイプに対応する仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報に基づいて、仮想シーンに含まれる仮想要素のうちの、目標仮想オブジェクトから最も近い仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報で示される位置を中心として、仮想シーン内に目標領域を決定し、
目標領域内の各要素タイプに含まれる仮想要素の数を決定し、
最大数の仮想要素を含む要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
目標領域内の各要素タイプに含まれる仮想要素の数を決定し、
最大数の仮想要素を含む要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報で示される位置を中心として、仮想シーン内に目標領域を決定し、
目標領域内の各仮想要素のインタラクションの優先度を決定し、
インタラクションの優先度が最も高い仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
目標領域内の各仮想要素のインタラクションの優先度を決定し、
インタラクションの優先度が最も高い仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、
コントロール表示領域内のいずれか1つのコントロール表示位置に対して、いずれか1つのコントロール表示位置に対応する候補操作コントロールを取得し、
目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせ、
表示条件がインタラクション可能な要素の要素タイプとマッチされた候補操作コントロールを、目標操作コントロールとして決定し、
いずれか1つのコントロール表示位置に目標操作コントロールを表示するように実行される。
コントロール表示領域内のいずれか1つのコントロール表示位置に対して、いずれか1つのコントロール表示位置に対応する候補操作コントロールを取得し、
目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせ、
表示条件がインタラクション可能な要素の要素タイプとマッチされた候補操作コントロールを、目標操作コントロールとして決定し、
いずれか1つのコントロール表示位置に目標操作コントロールを表示するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、コントロール表示位置に現在表示されている操作コントロールと目標操作コントロールとが同じであるか否かを判断し、
同じである場合に、現在表示されている操作コントロールの表示を継続し、異なっている場合に、現在表示されている操作コントロールを目標操作コントロールに切り替えるように実行される。
同じである場合に、現在表示されている操作コントロールの表示を継続し、異なっている場合に、現在表示されている操作コントロールを目標操作コントロールに切り替えるように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、目標仮想オブジェクトに対する移動操作に応答して、目標仮想オブジェクトの位置情報をリアルタイムに取得するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報で示される領域の領域タイプを決定し、
領域タイプの変更に応答して、位置情報、仮想シーン内の仮想要素の少なくとも1つに基づいて、目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップを実行するように実行される。
領域タイプの変更に応答して、位置情報、仮想シーン内の仮想要素の少なくとも1つに基づいて、目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップを実行するように実行される。
以下では、コンピュータ機器が端末である場合を例として説明し、図11は、本願の実施例により提供される端末の構造模式図である。通常、端末1100は、1つまたは複数のプロセッサ1101と、1つまたは複数のメモリ1102とを含む。
プロセッサ1101は、4コアプロセッサ、8コアプロセッサなどのような1つまたは複数の処理コアを含んでもよい。プロセッサ1101は、DSP(Digital Signal Processing,デジタル信号処理)、FPGA(Field-Programmable Gate Array,フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array,プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェアの形態によって実現されてもよい。
メモリ1102は、1つまたは複数のコンピュータ読み取り可能な記憶媒体を含んでもよい。当該コンピュータ読み取り可能な記憶媒体は、非一過性のものであってもよい。メモリ1102は、高速ランダムアクセスメモリ、及び、不揮発性メモリ、例えば、1つまたは複数の磁気ディスク記憶装置、フラッシュメモリ記憶装置を含んでもよい。いくつかの実施例において、メモリ1102における非一過性のコンピュータ読み取り可能な記憶媒体は、少なくとも1つのプログラムコードを記憶するためのものであり、当該少なくとも1つのプログラムコードは、プロセッサ1101によって実行されることにより、本願における方法実施例により提供される仮想シーンに基づく操作コントロールの表示方法を実現するためのものである。
いくつかの実施例において、端末1100は、任意に、周辺機器インタフェース1103及び少なくとも1つの周辺機器をさらに含んでもよい。プロセッサ1101と、メモリ1102と、周辺機器インタフェース1103とは、バス又は信号線を介して接続されてもよい。各周辺機器は、バス、信号線又は回路基板を介して周辺機器インタフェース1103と接続されてもよい。具体的には、周辺機器は、無線周波数回路1104、ディスプレイ1105、及び電源1106のうちの少なくとも1つを含む。
周辺機器インタフェース1103は、I/O(Input/Output,入力/出力)に関連する少なくとも1つの周辺機器をプロセッサ1101及びメモリ1102に接続するために用いられてもよい。
無線周波数回路1104は、電磁信号とも呼ばれるRF(Radio Frequency,無線周波数)信号を送受信するためのものである。無線周波数回路1104は、電磁信号を介して通信ネットワーク及び他の通信機器と通信する。無線周波数回路1104は、電気信号を電磁信号に変換して送信するか、又は、受信した電磁信号を電気信号に変換する。
ディスプレイ1105は、UI(User Interface,ユーザーインタフェース)を表示するためのものである。当該UIは、グラフィック、テキスト、アイコン、ビデオ及びそれらの任意の組合せを含んでもよい。ディスプレイ1105がタッチディスプレイである場合に、ディスプレイ1105は、その表面又は表面の上方のタッチ信号を収集する機能も有する。当該タッチ信号は、制御信号としてプロセッサ1101に入力されて処理されてもよい。このとき、ディスプレイ1105は、ソフトボタン及び/又はソフトキーボードとも呼ばれる仮想ボタン及び/又は仮想キーボードを提供するために使用されてもよい。ディスプレイ1105は、LCD(Liquid Crystal Display,液晶ディスプレイ)、OLED(Organic Light-Emitting Diode,有機発光ダイオード)などの材料により製造されてもよい。
電源1106は、端末1100における各構成要素に給電するためのものである。電源1106は、交流電源、直流電源、一次電池又は充電式電池であってもよい。電源1106が充電式電池を含む場合に、当該充電式電池は、有線充電又は無線充電をサポートしてもよい。当該充電式電池は、急速充電技術をサポートするために使用されてもよい。
当業者は、図11に示す構造が端末1100を限定するものではなく、図示される構成要素よりも多い又は少ない構成要素を含んでもよいし、ある構成要素を組み合わせてもよいし、異なる構成要素の配置を採用してもよいことを理解できる。
以下では、コンピュータ機器がサーバである場合を例として説明し、図12は、本願の実施例により提供されるサーバの構造模式図である。当該サーバ1200は、配置や性能により比較的に大きく異なり、1つまたは複数のプロセッサ(Central Processing Units,CPU)1201、及び、少なくとも1つのプログラムコードが記憶された1つまたは複数のメモリ1202を含んでもよい。当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサ1201によってロードされ実行されることにより、上記の各方法実施例により提供される方法を実現する。もちろん、当該サーバ1200は、入出力のための有線又は無線ネットワークインタフェース、キーボード、及び入出力インタフェースなどの部材を有してもよく、他の機器の機能を実現するための部材をさらに含んでもよいが、ここでは、重複して述べない。
例示的な実施例において、少なくとも1つのプログラムコードを含むメモリのようなコンピュータ読み取り可能な記憶媒体をさらに提供し、前記少なくとも1つのプログラムコードは、プロセッサによって実行されることにより、上記の実施例における仮想シーンに基づく操作コントロールの表示方法を完成してもよい。例えば、当該コンピュータ読み取り可能な記憶媒体は、リードオンリメモリ(Read-Only Memory,ROM)、ランダムアクセスメモリ(Random Access Memory,RAM)、コンパクトディスクリードオンリーメモリ(Compact Disc Read-Only Memory,CD-ROM)、磁気テープ、フロッピーディスク及び光データ記憶装置などであってもよい。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得し、
位置情報、仮想シーン内の仮想要素の少なくとも1つに基づいて、目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定し、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する、目標仮想オブジェクトを目標仮想要素とインタラクションするように制御するための目標操作コントロールを表示するように実行される。
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得し、
位置情報、仮想シーン内の仮想要素の少なくとも1つに基づいて、目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定し、
当該仮想シーン内のコントロール表示領域に、当該目標仮想要素の要素タイプに対応する、目標仮想オブジェクトを目標仮想要素とインタラクションするように制御するための目標操作コントロールを表示するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報に基づいて位置情報で示される領域の位置インデックスを決定し、
位置インデックスに基づいて、仮想シーンに対応する、仮想シーン内の各領域の位置インデックス及び各領域の領域タイプを含むマップインデックステーブルから領域の領域タイプを取得し、
領域タイプに対応する仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
位置インデックスに基づいて、仮想シーンに対応する、仮想シーン内の各領域の位置インデックス及び各領域の領域タイプを含むマップインデックステーブルから領域の領域タイプを取得し、
領域タイプに対応する仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報に基づいて、仮想シーンに含まれる仮想要素のうちの、目標仮想オブジェクトから最も近い仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報で示される位置を中心として、仮想シーン内に目標領域を決定し、
目標領域内の各要素タイプに含まれる仮想要素の数を決定し、
最大数の仮想要素を含む要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
目標領域内の各要素タイプに含まれる仮想要素の数を決定し、
最大数の仮想要素を含む要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報で示される位置を中心として、仮想シーン内に目標領域を決定し、
目標領域内の各仮想要素のインタラクションの優先度を決定し、
インタラクションの優先度が最も高い仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
目標領域内の各仮想要素のインタラクションの優先度を決定し、
インタラクションの優先度が最も高い仮想要素の要素タイプを目標仮想要素の要素タイプとして決定するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、コントロール表示領域内のいずれか1つのコントロール表示位置に対して、いずれか1つのコントロール表示位置に対応する候補操作コントロールを取得し、
目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせ、
表示条件がインタラクション可能な要素の要素タイプとマッチされた候補操作コントロールを、目標操作コントロールとして決定し、
いずれか1つのコントロール表示位置に目標操作コントロールを表示するように実行される。
目標仮想要素の要素タイプと各候補操作コントロールの表示条件とをマッチさせ、
表示条件がインタラクション可能な要素の要素タイプとマッチされた候補操作コントロールを、目標操作コントロールとして決定し、
いずれか1つのコントロール表示位置に目標操作コントロールを表示するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、コントロール表示位置に現在表示されている操作コントロールと目標操作コントロールとが同じであるか否かを判断し、
同じである場合に、現在表示されている操作コントロールの表示を継続し、異なっている場合に、現在表示されている操作コントロールを目標操作コントロールに切り替えるように実行される。
同じである場合に、現在表示されている操作コントロールの表示を継続し、異なっている場合に、現在表示されている操作コントロールを目標操作コントロールに切り替えるように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、目標仮想オブジェクトに対する移動操作に応答して、目標仮想オブジェクトの位置情報をリアルタイムに取得するように実行される。
1つの可能な実施形態において、当該少なくとも1つのプログラムコードは、当該1つまたは複数のプロセッサによってロードされ、位置情報で示される領域の領域タイプを決定し、
領域タイプの変更に応答して、位置情報、仮想シーン内の仮想要素の少なくとも1つに基づいて、目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップを実行するように実行される。
領域タイプの変更に応答して、位置情報、仮想シーン内の仮想要素の少なくとも1つに基づいて、目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップを実行するように実行される。
いくつかの実施例において、コンピュータ機器上で実行されるときに、コンピュータ機器に上記の各実施例により提供される仮想シーンに基づく操作コントロールの表示方法を実行させる、少なくとも1つのプログラムコードを含むコンピュータプログラム又はコンピュータプログラム製品をさらに提供し、ここでは、重複して述べない。
当業者は、上記の実施例を実現するステップの全部又は一部は、ハードウェアによって実現されてもよく、少なくとも1つのプログラムコードに関連するハードウェアによって実現されてもよく、当該プログラムがコンピュータ読み取り可能な記憶媒体に記憶されてもよく、上記した記憶媒体がリードオンリメモリ、磁気ディスク又は光学ディスクなどであってもよいことを理解できる。
上記は、本願の選択可能な実施例に過ぎず、本願を制限するためのものではない。本願の精神及び原則の範囲内で行われる修正、等価置換、改良は、全て本願の保護範囲内に含まれるべきである。
110 第1端末
140 サーバ
160 第2端末
140 サーバ
160 第2端末
Claims (1)
- コンピュータ機器により実行される、仮想シーンに基づく操作コントロールの表示方法であって、
端末によって制御される仮想オブジェクトである目標仮想オブジェクトの仮想シーンにおける位置情報を取得するステップと、
前記位置情報、前記仮想シーン内の仮想要素の少なくとも1つに基づいて、前記目標仮想オブジェクトに対応する目標仮想要素の要素タイプを決定するステップと、
前記仮想シーン内のコントロール表示領域に、前記目標仮想要素の要素タイプに対応する目標操作コントロールを表示するステップであって、前記目標操作コントロールは、前記目標仮想オブジェクトを前記目標仮想要素とインタラクションするように制御するためのものであるステップと、を含む方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010329239.9A CN111589128B (zh) | 2020-04-23 | 2020-04-23 | 基于虚拟场景的操作控件显示方法及装置 |
CN202010329239.9 | 2020-04-23 | ||
JP2021565788A JP7331137B2 (ja) | 2020-04-23 | 2021-03-08 | 仮想シーンに基づく操作コントロールの表示方法、装置、コンピュータ機器及びコンピュータプログラム |
PCT/CN2021/079516 WO2021213021A1 (zh) | 2020-04-23 | 2021-03-08 | 基于虚拟场景的操作控件显示方法及装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021565788A Division JP7331137B2 (ja) | 2020-04-23 | 2021-03-08 | 仮想シーンに基づく操作コントロールの表示方法、装置、コンピュータ機器及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023159212A true JP2023159212A (ja) | 2023-10-31 |
JP2023159212A5 JP2023159212A5 (ja) | 2023-12-25 |
Family
ID=72187689
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021565788A Active JP7331137B2 (ja) | 2020-04-23 | 2021-03-08 | 仮想シーンに基づく操作コントロールの表示方法、装置、コンピュータ機器及びコンピュータプログラム |
JP2023130356A Pending JP2023159212A (ja) | 2020-04-23 | 2023-08-09 | 仮想シーンに基づく操作コントロールの表示方法及び装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021565788A Active JP7331137B2 (ja) | 2020-04-23 | 2021-03-08 | 仮想シーンに基づく操作コントロールの表示方法、装置、コンピュータ機器及びコンピュータプログラム |
Country Status (9)
Country | Link |
---|---|
US (1) | US20220032186A1 (ja) |
EP (1) | EP3943174A4 (ja) |
JP (2) | JP7331137B2 (ja) |
KR (1) | KR20210143309A (ja) |
CN (1) | CN111589128B (ja) |
AU (1) | AU2021240131B2 (ja) |
CA (1) | CA3132506A1 (ja) |
SG (1) | SG11202111645SA (ja) |
WO (1) | WO2021213021A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109513208B (zh) * | 2018-11-15 | 2021-04-09 | 深圳市腾讯信息技术有限公司 | 对象的显示方法、装置、存储介质及电子装置 |
CN111589128B (zh) * | 2020-04-23 | 2022-02-18 | 腾讯科技(深圳)有限公司 | 基于虚拟场景的操作控件显示方法及装置 |
CN112076468B (zh) * | 2020-09-17 | 2022-07-22 | 腾讯科技(深圳)有限公司 | 虚拟环境画面的显示方法、装置、设备及存储介质 |
CN112306351B (zh) * | 2020-10-30 | 2022-05-13 | 腾讯科技(深圳)有限公司 | 虚拟按键的位置调整方法、装置、设备及存储介质 |
CN112402960B (zh) * | 2020-11-19 | 2022-11-04 | 腾讯科技(深圳)有限公司 | 虚拟场景中状态切换方法、装置、设备及存储介质 |
CN113332724B (zh) * | 2021-05-24 | 2024-04-30 | 网易(杭州)网络有限公司 | 虚拟角色的控制方法、装置、终端和存储介质 |
CN113144601B (zh) * | 2021-05-26 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 虚拟场景中的表情显示方法、装置、设备以及介质 |
CN113641443B (zh) * | 2021-08-31 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 界面元素的显示方法、装置、设备及可读存储介质 |
CN114415907B (zh) * | 2022-01-21 | 2023-08-18 | 腾讯科技(深圳)有限公司 | 媒体资源显示方法、装置、设备及存储介质 |
CN116726495A (zh) * | 2022-03-01 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 基于虚拟环境的交互方法、装置、设备、介质及程序产品 |
CN117482505A (zh) * | 2022-07-25 | 2024-02-02 | 腾讯科技(深圳)有限公司 | 虚拟场景中的交互方法、装置、设备、存储介质及产品 |
CN115473755A (zh) * | 2022-07-29 | 2022-12-13 | 青岛海尔科技有限公司 | 基于数字孪生的智能设备的控制方法、装置 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5044956A (en) * | 1989-01-12 | 1991-09-03 | Atari Games Corporation | Control device such as a steering wheel for video vehicle simulator with realistic feedback forces |
WO1995020787A1 (en) * | 1994-01-27 | 1995-08-03 | Exos, Inc. | Multimode feedback display technology |
US5999168A (en) * | 1995-09-27 | 1999-12-07 | Immersion Corporation | Haptic accelerator for force feedback computer peripherals |
US7027032B2 (en) * | 1995-12-01 | 2006-04-11 | Immersion Corporation | Designing force sensations for force feedback computer applications |
JP2004057634A (ja) * | 2002-07-31 | 2004-02-26 | Shuji Sonoda | ゲーム装置及びそれを実現するプログラム |
JP2004325828A (ja) * | 2003-04-25 | 2004-11-18 | Namco Ltd | シミュレータ、プログラム及び情報記憶媒体 |
US8210943B1 (en) * | 2006-05-06 | 2012-07-03 | Sony Computer Entertainment America Llc | Target interface |
US8834245B2 (en) * | 2007-08-17 | 2014-09-16 | Nintendo Co., Ltd. | System and method for lock on target tracking with free targeting capability |
US8803797B2 (en) * | 2008-01-18 | 2014-08-12 | Microsoft Corporation | Input through sensing of user-applied forces |
JP4545809B2 (ja) * | 2008-06-05 | 2010-09-15 | 株式会社スクウェア・エニックス | ゲーム装置及びプログラム |
US8920240B2 (en) * | 2010-04-19 | 2014-12-30 | Guillemot Corporation S.A. | Directional game controller |
CA2720892A1 (en) * | 2010-11-12 | 2012-05-12 | The Regents Of The University Of California | Enhancing cognition in the presence of distraction and/or interruption |
US8814674B2 (en) * | 2012-05-24 | 2014-08-26 | Supercell Oy | Graphical user interface for a gaming system |
US9274608B2 (en) * | 2012-12-13 | 2016-03-01 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
US20140237408A1 (en) * | 2013-02-15 | 2014-08-21 | Flatfrog Laboratories Ab | Interpretation of pressure based gesture |
JP2017513165A (ja) * | 2014-03-21 | 2017-05-25 | イマージョン コーポレーションImmersion Corporation | 力ベースのオブジェクト操作及び触覚的感覚のためのシステム及び方法 |
JP6796457B2 (ja) | 2016-11-09 | 2020-12-09 | 株式会社日本マイクロニクス | 電気的接続装置、プローブ及び製造方法 |
US20180253760A1 (en) * | 2017-03-02 | 2018-09-06 | Seth TENKORANG | Interactive electronic map |
JP2018171261A (ja) * | 2017-03-31 | 2018-11-08 | 株式会社スクウェア・エニックス | ゲームプログラム及びシステム |
CN107837531B (zh) * | 2017-09-28 | 2018-11-23 | 网易(杭州)网络有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN108744510A (zh) * | 2018-05-25 | 2018-11-06 | 腾讯科技(深圳)有限公司 | 虚拟物品显示方法、装置及存储介质 |
CN109589605B (zh) * | 2018-12-14 | 2022-08-05 | 网易(杭州)网络有限公司 | 游戏的显示控制方法和装置 |
US11027194B2 (en) * | 2019-03-01 | 2021-06-08 | Sony Interactive Entertainment Inc. | Force feedback to improve gameplay |
CN110427111B (zh) * | 2019-08-01 | 2022-09-06 | 腾讯科技(深圳)有限公司 | 虚拟环境中虚拟道具的操作方法、装置、设备及存储介质 |
CN110413171B (zh) * | 2019-08-08 | 2021-02-09 | 腾讯科技(深圳)有限公司 | 控制虚拟对象进行快捷操作的方法、装置、设备及介质 |
CN110743168B (zh) * | 2019-10-21 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 虚拟场景中的虚拟对象控制方法、计算机设备及存储介质 |
CN111013142B (zh) * | 2019-11-19 | 2021-10-12 | 腾讯科技(深圳)有限公司 | 互动效果显示方法、装置、计算机设备及存储介质 |
CN110955370B (zh) * | 2019-12-02 | 2021-04-20 | 网易(杭州)网络有限公司 | 游戏中技能控件的切换方法、装置以及触控终端 |
US11541317B2 (en) * | 2020-02-06 | 2023-01-03 | Sony Interactive Entertainment Inc. | Automated weapon selection for new players using AI |
CN111589128B (zh) * | 2020-04-23 | 2022-02-18 | 腾讯科技(深圳)有限公司 | 基于虚拟场景的操作控件显示方法及装置 |
US20230341574A1 (en) * | 2022-01-18 | 2023-10-26 | Terahertz Ventures Llc | System and method for utilizing gravitational waves for geological exploration |
US20230245175A1 (en) * | 2022-02-03 | 2023-08-03 | Solsten, Inc. | Systems and methods to identify a target audience for prospective content based on a taxonomy |
US20230343226A1 (en) * | 2022-04-22 | 2023-10-26 | Aeris, LLC | System for traffic management of unmanned aircraft |
-
2020
- 2020-04-23 CN CN202010329239.9A patent/CN111589128B/zh active Active
-
2021
- 2021-03-08 WO PCT/CN2021/079516 patent/WO2021213021A1/zh active Application Filing
- 2021-03-08 JP JP2021565788A patent/JP7331137B2/ja active Active
- 2021-03-08 EP EP21786075.8A patent/EP3943174A4/en active Pending
- 2021-03-08 SG SG11202111645SA patent/SG11202111645SA/en unknown
- 2021-03-08 AU AU2021240131A patent/AU2021240131B2/en active Active
- 2021-03-08 CA CA3132506A patent/CA3132506A1/en active Pending
- 2021-03-08 KR KR1020217035221A patent/KR20210143309A/ko not_active Application Discontinuation
- 2021-10-14 US US17/501,989 patent/US20220032186A1/en active Pending
-
2023
- 2023-08-09 JP JP2023130356A patent/JP2023159212A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3943174A4 (en) | 2022-07-06 |
JP7331137B2 (ja) | 2023-08-22 |
JP2022532870A (ja) | 2022-07-20 |
CA3132506A1 (en) | 2021-10-23 |
AU2021240131B2 (en) | 2023-03-23 |
SG11202111645SA (en) | 2021-11-29 |
CN111589128A (zh) | 2020-08-28 |
US20220032186A1 (en) | 2022-02-03 |
WO2021213021A1 (zh) | 2021-10-28 |
AU2021240131A1 (en) | 2021-11-11 |
CN111589128B (zh) | 2022-02-18 |
KR20210143309A (ko) | 2021-11-26 |
EP3943174A1 (en) | 2022-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7331137B2 (ja) | 仮想シーンに基づく操作コントロールの表示方法、装置、コンピュータ機器及びコンピュータプログラム | |
US20220032183A1 (en) | Virtual object control method and apparatus, terminal, and storage medium | |
WO2021218406A1 (zh) | 虚拟对象控制方法、装置、计算机设备及存储介质 | |
WO2021213070A1 (zh) | 虚拟角色的控制方法、装置、设备及存储介质 | |
US11969654B2 (en) | Method and apparatus for determining target virtual object, terminal, and storage medium | |
US20230054065A1 (en) | Delivery of virtual effect | |
US12005353B2 (en) | Virtual object selection method and apparatus, device, and storage medium | |
WO2021213073A1 (zh) | 虚拟形象使用数据的处理方法、装置、设备及存储介质 | |
CN111672117B (zh) | 虚拟对象的选择方法、装置、设备及存储介质 | |
CN114225372B (zh) | 虚拟对象的控制方法、装置、终端、存储介质及程序产品 | |
CN112691366B (zh) | 虚拟道具的显示方法、装置、设备及介质 | |
US20230285855A1 (en) | Virtual scene display method and apparatus, terminal, and storage medium | |
TW202306617A (zh) | 虛擬對象釋放技能的方法、裝置、設備、媒體及程式產品 | |
JP2023164787A (ja) | 仮想環境の画面表示方法、装置、機器及びコンピュータプログラム | |
WO2022083451A1 (zh) | 虚拟对象的技能选择方法、装置、设备、介质及程序产品 | |
KR102648249B1 (ko) | 가상 객체 제어 방법 및 장치, 컴퓨터 디바이스, 및 저장 매체 | |
CN114307150B (zh) | 虚拟对象之间的互动方法、装置、设备、介质及程序产品 | |
CN116531758A (zh) | 虚拟角色的控制方法、装置、存储介质以及电子装置 | |
JP7504228B2 (ja) | 仮想シーンの表示方法、仮想シーンの表示装置、端末及びコンピュータプログラム | |
CN113304479A (zh) | 指示信息的显示方法、装置、游戏终端设备及存储介质 | |
CN112843682B (zh) | 数据同步方法、装置、设备及存储介质 | |
US20240226748A1 (en) | Target virtual object determination | |
CN116983638A (zh) | 虚拟对象的互动方法、装置、设备、存储介质及程序产品 | |
CN118179034A (zh) | 基于可飞行道具的互动方法、装置、电子设备及存储介质 | |
CN117547818A (zh) | 虚拟对象的控制方法、装置、设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240226 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240524 |