JP2019536554A - オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体 - Google Patents

オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP2019536554A
JP2019536554A JP2019528143A JP2019528143A JP2019536554A JP 2019536554 A JP2019536554 A JP 2019536554A JP 2019528143 A JP2019528143 A JP 2019528143A JP 2019528143 A JP2019528143 A JP 2019528143A JP 2019536554 A JP2019536554 A JP 2019536554A
Authority
JP
Japan
Prior art keywords
target object
display
target
terminal device
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019528143A
Other languages
English (en)
Other versions
JP6976329B2 (ja
Inventor
ワン,イーラン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2019536554A publication Critical patent/JP2019536554A/ja
Application granted granted Critical
Publication of JP6976329B2 publication Critical patent/JP6976329B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/31Communication aspects specific to video games, e.g. between several handheld game devices at close range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/3004Arrangements for executing specific machine instructions to perform operations on memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

オブジェクト表示方法及び端末デバイス。方法は、対象オブジェクトを取得し、第1表示領域に位置する第2表示領域を決定し、対象オブジェクトに対応する対象表示モードを取得し、対象オブジェクトを第2表示領域にマッピングし、対象表示モードで第2表示領域に対象オブジェクトを表示することを有する。異なる対象オブジェクトは、異なる対象表示モードに対応し、それにより、異なる対象オブジェクトは、端末デバイスが対象オブジェクトを第2表示領域にマッピングするプロセスにおいて、異なる対象表示モードによって第2表示領域に表示され得る。このようにして、ユーザは、異なる対象オブジェクトを区別することができ、それによって、異なる対象オブジェクトをユーザが操作する効率を改善する。

Description

本開示は、通信分野に関係があり、特に、オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体に関係がある。
端末デバイスの機能性の進歩とともに、端末デバイスで実行されるアプリケーション(APP)は、特定の機能を実施するよう端末デバイスの表示画面上にレイヤを表示することができる。例えば、ナビゲーションAPPは、ポジショニング及びナビゲーションサービスを提供するよう端末デバイスの表示画面上にマップを表示することができる。APPのサービス効率を改善するよう、且つ、レイヤ上に表示されるコンテンツをユーザが見やすくするよう、“スモールマップ”が表示画面上に更に表示されることがある。このようにして、レイヤ内のコンテンツは、表示画面及び“スモールマップ”に同時に表示されることになる。
一例として図1を用いると、アプリケーションインターフェイス100が端末デバイスの表示画面上に表示されている。スモールマップ101は、アプリケーションインターフェイス100の左上隅に表示されている。スモールマップ101は、シミュレーションされているオブジェクトの位置、チャンネル情報などを表示することができる。資源紛争APPでは、争われ得る複数のタスク指向的資源点103が、スモールマップ101に表示される。
既存の技術では、端末デバイスの表示画面の限られたサイズにより、スモールマップ101上の異なるタスク指向的資源点103の表示モードは同じであり、それにより、ユーザは、スモールマップ101に表示されている異なるタスク指向的資源点103を区別することができない。これは、タスク指向的資源点競争操作プロセスにおけるユーザの操作効率を低下させる。
本開示の実施形態は、ユーザが異なる対象オブジェクトを区別することを可能にし、それによって、異なる対象オブジェクトに対する操作をユーザが行う効率を改善するよう、オブジェクト表示方法及び端末デバイスを提供する。
第1の態様に従って、本開示の実施形態は、
レイヤ上に位置する対象オブジェクトを取得することであり、前記レイヤの少なくとも一部は第1表示領域に表示される、前記取得することと、
前記第1表示領域に位置する第2表示領域を決定することであり、前記第2表示領域の面積は、前記第1表示領域の面積よりも小さく、前記第2表示領域は、表示のために前記レイヤの前記少なくとも一部を前もってセットされた倍数だけズームアウトするために使用される、前記決定することと、
前記対象オブジェクトに対応する対象表示モードを取得することと、
前記対象オブジェクトを前記第2表示領域にマッピングし、前記対象表示モードで前記第2表示領域に前記対象オブジェクトを表示することと
を有するオブジェクト表示方法を提供する。
第2の態様に従って、本開示の実施形態は、
レイヤ上に位置する対象オブジェクトを取得するよう構成される第1取得ユニットであり、前記レイヤの少なくとも一部は第1表示領域に表示される、前記第1取得ユニットと、
前記第1表示領域に位置する第2表示領域を決定するよう構成される第1決定ユニットであり、前記第2表示領域の面積は、前記第1表示領域の面積よりも小さく、前記第2表示領域は、表示のために前記レイヤの前記少なくとも一部を前もってセットされた倍数だけズームアウトするために使用される、前記第1決定ユニットと、
前記対象オブジェクトに対応する対象表示モードを取得するよう構成される第2取得ユニットと、
前記対象オブジェクトを前記第2表示領域にマッピングし、前記対象表示モードで前記第2表示領域に前記対象オブジェクトを表示するよう構成されるマッピングユニットと
を有する端末デバイスを提供する。
第3の態様に従って、本開示の実施形態は、
コンピュータ実行可能なプログラムコードを記憶するよう構成されるメモリと、
トランシーバと、
前記メモリ及び前記トランシーバへ結合されるプロセッサと
を有する端末デバイスであって、
前記プログラムコードは、前記プロセッサによって実行される場合に、当該端末デバイスに、第1の態様に従う方法を実行させる命令を含む、
端末デバイスを提供する。
第4の態様に従って、本開示の実施形態は、端末デバイスによって使用されるコンピュータソフトウェア命令を記憶するよう構成され、前記コンピュータソフトウェア命令は、第1の態様に従う方法を実行するよう設計されたプログラムを含む、コンピュータ記憶媒体を提供する。
端末デバイスは、レイヤ上に表示される対象オブジェクトに対応する対象表示モードを取得し、第1表示領域に位置する第2表示領域に対象オブジェクトをマッピングし、対象表示モードで第2表示領域に対象オブジェクトを表示することができる。実施形態において、異なる対象オブジェクトは、異なる対象表示モードに対応し、それにより、端末デバイスが対象オブジェクトを第2表示領域にマッピングするプロセスにおいて、異なる対象オブジェクトは、異なる対象表示モードで第2表示領域に表示され得、このようにして、ユーザは、異なる対象オブジェクトを区別することができ、それによって、異なる対象オブジェクトに対する操作をユーザが行う効率を改善する。
既存の技術に従って端末デバイスの表示画面上に表示されるアプリケーションインターフェイスの略構造図である。 本開示の実施形態に従う通信システムの略アーキテクチャ図である。 本開示に従う端末デバイスの実施形態の略構造図である。 本開示に従うオブジェクト表示方法の実施形態のフローチャートである。 本開示に従う端末デバイスの表示画面の実施形態の略構造図である。 本開示に従う適用場面の表示の例となる図である。 本開示に従う適用場面のステップの例となる図である。 本開示に従う他の適用場面の例となる図である。 本開示に従う他の適用場面の例となる図である。 本開示に従う他の適用場面の例となる図である。 本開示に従う他の適用場面の例となる図である。 本開示に従う端末デバイスの他の実施形態の略構造図である。
本開示の実施形態は、端末デバイスの表示画面上に表示される異なるオブジェクトをユーザが区別する効率を改善するよう、オブジェクト表示方法及び端末デバイスを提供する。
本開示における解決法を当業者により良く理解させるよう、以下は、本開示の実施形態における添付の図面を参照して、本開示の実施形態における技術的解決法を明りょうに且つ十分に記載する。明らかに、記載される実施形態は一部にすぎず、本開示の実施形態の全てではない。創造的な努力なしで本開示の実施形態に基づき当業者によって獲得される他の全ての実施形態は、本開示の保護範囲の中にあるべきである。
本開示の明細書、特許請求の範囲、及び添付の図面において、語「第1」、「第2」、「第3」、「第4」、など(使用される場合)は、特定の順序を記載しているのではなく、同様のオブジェクトを区別することを目的としている。そのように称されているエンティティ又はエレメントは、本明細書で記載される実施形態が本明細書で図示又は記載されている以外の順序で実施可能であるように、適切な状況で交換可能であると理解されるべきである。更に、語「含む」(include)、「包含する」(contain)、及びあらゆる他の変形は、非排他的包含をカバーするよう意図される。例えば、ステップ又はユニットのリストを含むプロセス、方法、システム、製品、又はデバイスは、必ずしも、明示的にリストアップされているそれらのステップ又はステップに制限されず、明示的にリストアップされていない又はそのようなプロセス、方法、製品若しくはデバイスに内在する他のステップ若しくはユニットを含んでよい。
本開示の実施形態は、オブジェクト表示方法を提供する。方法は、通信システムに適用される。図2を参照すると、図2は、本開示の実施形態に従う通信システムの略アーキテクチャ図である。通信システムは、サーバ210及び少なくとも1つの端末デバイス220を含む。
サーバ210は、端末デバイス220とデータを交換し、それによって、この実施形態におけるオブジェクト表示方法を実施することができる。
以下は、図3を参照して、この実施形態における端末デバイスの具体的な構造について記載する。図3は、本開示に従う端末デバイスの実施形態の略構造図である。
端末デバイスは、入力ユニット305、プロセッサユニット303、出力ユニット301、通信ユニット307、記憶ユニット304、無線周波数(Radio Frequency;RF)回路308、及び他の構成要素を含む。
それらの構成要素は、1つ以上のバスを使用することによって互いと通信する。当業者に理解され得るように、図3に示される端末デバイスの構造は、本開示を制限せず、バス構造又はスター構造を有してよく、図示されているよりも多い又は少ない構成要素を含んでよく、あるいは、いくつかの構成要素は結合されてよく、あるいは、異なる構成要素配置が使用されてよい。
本開示の実施において、端末デバイスは、如何なるモバイル又はポータブル電子機器であってもよく、制限なしに、スマートフォン、モバイルコンピュータ、タブレットコンピュータ、パーソナル・デジタル・アシスタント(Personal Digital Assistant;PDA)、メディアプレイヤー、スマートテレビ、などを含む。
端末デバイスは、表示されるべき画像を出力するよう構成された出力ユニット301を含む。
具体的に、出力ユニット301は、制限なしに、表示画面3011及び音響出力ユニット3012を含む。
表示画面3011は、テキスト、画像、及び/又は映像を出力するために使用される。表示画面3011は、表示パネル、例えば、液晶ディスプレイ(Liquid Crystal Display;LCD)、有機発光ダイオード(Organic Light Emitting Diode;OLED)、電界放出ディスプレイ(Field Emission Display;FED)、などの形で構成された表示パネルを含んでよい。代替的に、表示画面3011は、電気泳動ディスプレイのような反射ディスプレイ、又は光干渉変調技術を使用するディスプレイを含んでよい。
例えば、タッチスクリーンがタッチスクリーンに対するタッチ動作又はタッチスクリーンの近くでのジェスチャ動作を検出するとき、タッチスクリーンは、タッチイベントのタイプを決定するために動作信号をプロセッサユニット303へ送る。次いで、プロセッサユニット303は、タッチイベントのタイプに従って表示パネル上で対応する視覚出力を供給する。図1では、入力ユニット305及び出力ユニット301が2つの独立した構成要素として端末デバイスの入力機能及び出力機能を実装するが、いくつかの実施形態では、タッチスクリーン及び表示パネルは、端末デバイスの入力機能及び出力機能を実装するよう一体化され得る。例えば、表示画面3011は、制限なしに、ウィンドウ、スクロールバー、アイコン、及びクリップボードを含む仮想制御コンポーネントとして機能する様々なグラフィカル・ユーザ・インターフェイス(Graphical User Interface;GUI)を表示してよく、それにより、ユーザは、タッチすることによって操作を実行することができる。
本開示の具体的な実施において、表示画面3011は、プロセッサユニット303によって出力された映像にフィルタをかけ且つ増幅するよう構成されたフィルタ及び増幅器を含む。音響出力ユニット3012は、プロセッサユニット303によって出力されたオーディオ信号をデジタル形式からアナログ形式へ変換するよう構成されたデジタル−アナログ変換器を含む。
プロセッサユニット303は、対応するコードを実行し、そして、受け取られた情報を処理して、対応するインターフェイスを生成及び出力するよう構成される。
具体的に、プロセッサユニット303は、端末デバイスの制御センターである。それは、様々なインターフェイス及び回路を使用することによって端末デバイス全体の構成要素を接続するとともに、記憶ユニットに記憶されているソフトウェアプログラム及び/又はモジュールを起動又は実行し且つ記憶ユニットに記憶されているデータを呼び出すことによって、端末デバイスの様々な機能を実行し、及び/又はデータを処理する。プロセッサユニット303は、集積回路(Integrated Circuit;IC)によって形成されてよい。例えば、プロセッサユニット303は、シングルパッケージICによって形成されてよく、あるいは、同じ機能又は異なる機能を有しているマルチパッケージICによって形成されてよい。
例えば、プロセッサユニット303は、中央演算処理装置(Central Processing Unit;CPU)しか含まなくてもよく、あるいは、通信ユニット内のグラフィック・プロセッサ・ユニット(Graphic Processor Unit;GPU)、デジタル・シグナル・プロセッサ(Digital Signal Processor;DSP)、及び制御チップ(例えば、ベースバンドチップ)の組み合わせであってよい。本開示のこの実施において、CPUは単一のオペレーションコアを含んでよく、また、複数のオペレーションコアを含んでもよい。
記憶ユニット304は、コード及びデータを記憶するよう構成される。コードは、プロセッサユニット303によって実行される。
具体的に、記憶ユニット304は、ソフトウェアプログラム及びモジュールを記憶するよう構成され得る。プロセッサユニット303は、端末デバイスの様々な機能アプリケーション及びデータ処理を実装するよう、記憶ユニット304に記憶されているソフトウェアプログラム及びモジュールを実行する。記憶ユニット304は、主として、プログラム記憶エリア及びデータ記憶エリアを含み、プログラム記憶エリアは、オペレーティング・システムや、音声再生機能又は画像再生機能のような少なくとも1つの機能によって必要とされるAPPを記憶してよく、データ記憶エリアは、端末デバイスの使用に従って構築されたデータ(例えば、オーディオデータ又は電話帳)を記憶してよい。
本開示の具体的な実施において、記憶ユニット304は、不揮発性ランダム・アクセス・メモリ(Non-Volatile Random Access Memory;NVRAM)、相変化(Phase change)RAM(PRAM)、及び磁気抵抗(Magnetoresistive)RAM(MRAM)のような揮発性メモリを含んでよく、そして、不揮発性メモリ、例えば、少なくとも1つの磁気ディスクストレージ、電気的消去可能なプログラム可能リード・オンリー・メモリ(Electrically Erasable Programmable Read Only Memory;EEPROM)、NORフラッシュメモリ又はNANDフラッシュメモリのようなフラッシュメモリを更に含んでよい。
不揮発性メモリは、プロセッサユニット303によって実行されるAPP及びオペレーティング・システムを記憶する。プロセッサユニット303は、不揮発性メモリから実行プログラム及びデータをメモリにロードし、データコンテンツを大容量記憶装置に格納する。オペレーティング・システムは、メモリ管理、記憶デバイス制御、及び電源管理のような通常のシステムタスク制御及び管理のために使用され、様々なソフトウェア及びハードウェアの間の通信を助ける様々なコンポーネント及び/又はドライブを含む。
本開示の実施において、オペレーティング・システムは、Google(登録商標)のAndroid(登録商標)システム、Appleによって開発されたiOS(登録商標)、Microsoftによって開発されたWindows(登録商標)オペレーティング・システム、などであってよく、あるいは、Vxworks(登録商標)のような埋め込みオペレーティング・システムであってもよい。
APPは、端末デバイスにインストールされた如何なるAPPも含み、制限なしに、ブラウザ、電子メール、インスタント・メッセージ・サービス、ワードプロセッシング、仮想キーボード、ウィジェット(Widget)、暗号化、デジタル著作権管理、音声認識、音声再生、ポジショニング(例えば、グローバル・ポジショニング・システムによって提供される機能)、音楽再生、などのためのアプリケーションを含む。
入力ユニット305は、ユーザと端末デバイスとの間のインタラクションを実装するよう及び/又は情報を端末デバイスに入力するよう構成される。
例えば、入力ユニット305は、ユーザ設定又は機能制御に関する信号入力を生成するよう、ユーザによって入力された数字又は文字情報を受けてよい。本開示の具体的な実施において、入力ユニット305は、タッチスクリーンであってよく、あるいは、物理入力キー又はマイクロホンのような他のヒューマン−コンピュータ・インタラクション・インターフェイスであってよく、あるいは、カメラのような他の外部情報捕捉装置であってよい。
本開示のこの実施形態におけるタッチスクリーンは、ユーザによって実行されたタッチスクリーンに対するタッチ動作又はタッチスクリーンの近くでの動作、例えば、指又はスタイラスのような何らかの適切な物又はアクセサリを使用することによってタッチスクリーン上又はその近くでユーザによって行われた動作を収集し、対応する接続された装置を、前もってセットされたプログラムに従って駆動し得る。任意に、タッチスクリーンは、タッチ検出装置及びタッチコントローラの2つの部分を含んでよい。タッチ検出装置は、ユーザのタッチ動作を検出し、検出されたタッチ動作を電気信号に変換し、電気信号をタッチコントローラへ送る。タッチコントローラは、タッチ検出装置から電気信号を受信し、電気信号を接触座標に変換し、更には接触座標をプロセッサユニット303へ送る。
タッチコントローラは、プロセッサユニット303によって送られたコマンドを更に受信し実行し得る。その上、タッチスクリーンは、抵抗型、容量型、赤外線型、及び弾性表面波型といった複数のタイプで実施され得る。
本開示の他の実施において、入力ユニット305によって使用される物理入力キーは、制限なしに、物理キーボード、ファンクションキー(例えば、音量制御キー又はスイッチキーなど)、トラックボール、マウス、及びジョイスティックのうちの1つ以上を含んでよい。入力ユニット305は、マイクロホンの形をとる場合に、ユーザ又は環境によって入力された音声を収集し、音声を、電気信号の形をとり、プロセッサユニット303によって実行され得るコマンドに変換する。
本開示のいくつかの他の実施において、入力ユニット305は、端末デバイスの、力、トルク、圧力、応力、位置、オフセット、速さ、加速度、角度、角速度、回転数、回転速度、又は動作状態が変化する時、のような物理的刺激を検出し、物理的刺激を検出及び制御のための信号に変換するよう構成された、ホール効果部品のような様々なセンサを更に含んでよい。他のセンサは、重力センサ、3軸加速度計、ジャイロスコープ、電子コンパス、周囲光センサ、近接センサ、温度センサ、湿度センサ、圧力センサ、心拍センサ、指紋センサ、などを更に含んでよい。
通信ユニット307は、通信チャネルを構築するよう構成され、それにより、端末デバイスは、遠隔のサーバへ接続され、遠隔のサーバから通信チャネルを介してメディアデータをダウンロードする。通信ユニット307は、ワイヤレス・ローカル・エリア・ネットワーク(Wireless Local Area Network;WLAN)、Bluetooth(登録商標)モジュール、及びベースバンドモジュールのような通信モジュールと、通信モジュールに対応するRF回路とを含んでよく、WLAN通信、Bluetooth通信、赤外線通信及び/又はセルラー通信システム通信、例えば、広帯域符号分割多重アクセス(Wideband Code Division Multiple Access;W−CDMA)及び/又は高速ダウンリンク・パケット・アクセス(High Speed Downlink Packet Access;HSDPA)を実行するよう構成される。通信モジュールは、端末デバイスの構成要素間の通信を制御するよう構成され、直接メモリアクセスをサポートし得る。
本開示の種々の実施において、通信ユニット307の様々な通信モジュールは、一般に、ICチップの形で実装され、選択的に組み合わされ得、全ての通信モジュール及び対応するアンテナ群を含む必要がない。例えば、通信ユニット307は、セルラー通信システムにおいて通信機能を提供するために、ベースバンドチップ、RFチップ及び対応するアンテナしか含まなくてよい。通信ユニット307によって確立された無線通信接続、例えば、WLANアクセス又はWCDMA(登録商標)アクセスを使用することによって、端末デバイスは、セルラーネットワーク又はインターネットへ接続され得る。本開示のいくつかの任意の実施において、通信ユニット307の通信モジュール、例えば、ベースバンドモジュールは、プロセッサユニット303に組み込まれてよく、クアルコムによって供給されているAPQ+MDMシリーズプラットフォームが典型的な例である。
RF回路308は、情報送信/受信又は呼び出しの間に信号を受信及び送信するよう構成される。例えば、RF回路308は、基地局からダウンリンク情報を受信した後に、ダウンリンク情報を処理のためにプロセッサユニット303へ送り、更には、アップリンクデータを基地局へ送る。RF回路308は、一般に、それらの機能を実行するための既知の回路を含み、制限なしに、アンテナシステム、RFトランシーバ、1つ以上の増幅器、チューナー、1つ以上の発振器、DSP、コーデックチップセット、加入者識別モジュール(Subscriber Identity Module;SIM)カード、メモリ、などを含む。その上、RF回路308はまた、無線通信によってネットワーク及び他のデバイスとも通信し得る。
無線通信は、制限なしに、グローバル・システム・フォー・モバイル・コミュニケーションズ(Global System for Mobile Communications;GSM(登録商標)、ジェネラル・パケット・ラジオ・サービス(General Packet Radio Service;GPRS)、符号分割多重アクセス(Code Division Multiple Access;CDMA)、広帯域符号分割多重アクセス(Wideband Code Division Multiple Access;WCDMA)、高速アップリンク・パケット・アクセス(High Speed Uplink Packet Access;HSUPA)テクノロジ、ロング・ターム・エボリューション(Long Term Evolution;LTE)、電子メール、ショート・メッセージング・サービス(Short Messaging Service;SMS)などを含む如何なる通信標準又はプロトコルも使用してよい。
電源309は、端末の種々の構成要素のために電力を供給するよう構成され、それにより、それらの構成要素は機能する。一般に、電源309は、一般的に使用されているリチウムイオン電池又はNiMH電池のような内蔵バッテリであってよく、あるいは、ACアダプタのような、端末デバイスへ電力を直接供給する外部電源であってよい。本開示のいくつかの実施において、電源309は、より広い定義を更に有してよく、例えば、電源管理システム、充電システム、電源故障検出回路、電源コンバータ又はインバータ、電源状態指示器(例えば、発光ダイオード)、並びに端末デバイスの電気エネルギの生成、管理及び分配に関連したあらゆる他の構成要素を更に含んでよい。
本開示の実施形態では、オブジェクト表示方法が提供される。例えば、ゲームシーンにおいて、夫々のゲームは複数のキャラクタ、すなわち、複数のオブジェクトを含む。複数のキャラクタは、ゲームの進行プロセスを前進するメインキャラクタを含む。メインキャラクタは対象オブジェクトである。本開示のこの実施形態で、対象オブジェクトのアイコンは、対象オブジェクトの状態に従って表示される。アイコンの異なる状態は、対象オブジェクトの状態(例えば、生死)をプレイヤーに示すために、対象オブジェクトの異なる状態を提示する。
前述の通信システムに基づき、以下は、図4を参照して、この実施形態で提供されるオブジェクト表示方法の具体的なプロシージャについて記載する。
ステップ401:サーバがアプリケーションデータを端末デバイスへ送る。
この実施形態におけるサーバは、対象APPに対応するアプリケーションデータを予め記憶している。サーバがアプリケーションデータを端末デバイスへ送った後、端末デバイスは、アプリケーションデータに従って、対象APPをインストールすること及び/又は対象APPを更新することといった動作を実行することができ、それにより、対象APPがインストールされている端末デバイスは、サーバとのデータ交換を行うことができる。
ステップ402:端末デバイスがアプリケーションデータを受ける。
この実施形態では、端末デバイスは、サーバによって送られたアプリケーションデータを受け、アプリケーションデータに従って対応する動作を実行することができる。例えば、アプリケーションデータに対応する対象APPが端末デバイスにインストールされていないと端末デバイスが検出する場合に、端末デバイスは、アプリケーションデータに従って対象APPをインストールし得る。他の例として、端末デバイスに現在インストールされている対象APPのバージョンが更新される必要があると端末デバイスが検出する場合に、端末デバイスは、アプリケーションデータに従って対象APPのバージョンを更新し得る。
この実施形態におけるステップ401及びステップ402は任意のステップであり、すなわち、この実施形態におけるオブジェクト表示方法を端末デバイスによって実行するプロセスにおいて、端末デバイスがアプリケーションデータを既に記憶している場合、例えば、端末デバイスが対象APPを既にインストールしている及び/又は端末デバイスによって実行される対象APPが最新バージョンである場合に、端末デバイスは、サーバからアプリケーションデータを繰り返し取得する必要がない点が留意されるべきである。これは、この実施形態において特に制限されない。
この実施形態では、端末デバイスは、記憶されているアプリケーションデータを読み出し、それによって、アプリケーションデータに含まれているレイヤ描画データを取得することができる。端末デバイスは、レイヤ描画データに従ってレイヤを描画し、端末デバイスの表示画面上で、描画されたレイヤの一部又は全体を表示することができる。
ステップ403:端末デバイスが第1表示領域及び第2表示領域を決定する。
この実施形態における第1表示領域及び第2表示領域は、異なる表示スケールに従ってレイヤを表示するために使用される。本開示のこの実施形態では、レイヤは、適用場面におけるマップに対応し、レイヤはマップレイヤである。その適用場面において、マップレイヤは、ゲームシーンにおける全世界地図に対応する。
以下は、端末デバイスがレイヤを表示する方法の詳細について記載する。
端末デバイスの表示画面は、レイヤを表示する第1表示領域を含み、それにより、レイヤ上の一部又は全ての領域が第1表示領域に表示される。
より具体的には、図5に示されるように、図5は、本開示に従う端末デバイスの表示画面の実施形態の略構造図である。
図5に示されるように、端末デバイスの表示画面501は第1表示領域502を含み、表示画面501と第1表示領域502との間には黒色領域が存在する。この実施形態において、図5は、制限よりむしろ、単に一例として使用される点が留意されるべきである。例えば、他の実施形態では、表示画面501及び第1表示領域502は、互いに完全に重なり合うことができる。他の例として、他の実施形態では、表示画面の両側のエッジ領域は円弧状であり、それにより、表示効果に関して、第1表示領域502の幅は、端末デバイスの横断方向において表示画面501の幅よりも大きい。
第2表示領域503は、端末デバイスの第1表示領域502の左上隅に設定される。この実施形態において、第2表示領域503が第1表示領域502に位置する具体的な位置は任意の例であり、具体的な位置は制限されないことが留意されるべきである。
この実施形態において、第2表示領域503は第1表示領域502に位置することが分かる。考えられる実施において、第2表示領域503の面積は、第1表示領域502の面積よりも小さい。例えば、第1表示領域502はアプリケーション(APP)の表示インターフェイスであり、第2表示領域503は“スモールマップ”である。他の考えられる実施では、第2表示領域503及び第1表示領域502の内容は入れ換えられ得る。例えば、第1表示領域502が端末デバイスに表示されるときに、ユーザによって入力された切り替え動作命令を受けると、内容は直ちに第2表示領域503へ切り替えられる。例えば、ユーザがファンクションキー“S”を押すときに、第1表示領域502における内容は、直ちに第2表示領域503へ切り替えられる。ユーザがファンクションキー“S”を解放するときに、第2表示領域503における内容は第1表示領域502へ切り替えられる。このようにして、第2表示領域の内容は、APPの表示インターフェイスに表示され、すなわち、第2表示領域は、第2表示領域に表示されている内容がより良い明りょうさで表示され得るように拡大される。更に、第1表示領域と第2表示領域との間の即座の切り替えは、プレイヤーによって実行されている他の制御操作に影響を及ぼさない。
レイヤ上の対象オブジェクトに対する操作をユーザが行う効率を改善するよう、この実施形態において、第1表示領域及び第2表示領域は、異なるスケールに従ってレイヤを表示し得る。
例えば、第1表示領域は、レイヤの一部を、前もってセットされた倍数だけズームインすることができる。第1表示領域は表示のためにレイヤをズームインすることができるので、ユーザは、レイヤ上に表示されているインターフェイス要素を明りょうに見ることができる。このようにして、ユーザは、ズームインされた後に第1表示領域に表示されるレイヤにおいてインターフェイス要素に対する操作を容易に実行することができる。実際上、対象オブジェクトは、第1表示領域に表示されてもされなくてもよい。ユーザが対象オブジェクトに対して操作を行う必要が現在ある場合に、対象オブジェクトが第1表示領域に表示され得る。ユーザが対象オブジェクトに対して操作を行う必要が現在ない場合には、対象オブジェクトは第1表示領域に表示されなくてよい。
ユーザがいつでもシーンの全体的なビュー及び対象オブジェクトの相対位置を有しやすくするよう、第1表示領域に位置する第2表示領域は、第1表示領域に表示されているシーンから予めセットされた倍数だけズームアウトされたより広い範囲を表示し得る。このようにして、ユーザは、第2表示領域を使用することによって、レイヤ上の対象オブジェクトの具体的な位置を正確に知ることができ、それによって、対象オブジェクトに対する操作をユーザが行う効率を改善する。
この実施形態において、第2表示領域に表示される具体的な内容は制限されず、すなわち、第2表示領域に表示され得る内容は、制限なしに、ズームアウトされたレイヤ及びレイヤ上に位置する対象オブジェクトを含む。第2表示領域は、様々な情報ツールを更に表示し得る。例えば、第2表示領域は、機能を実行するショートカットメニューなどを表示するために使用されてよい。
ステップ404:端末デバイスが表示モード対応リストを取得する。
具体的に、この実施形態におけるアプリケーションデータは、表示モード対応リストを含む。端末デバイスは、アプリケーションデータを読み出すことによって表示モード対応リストを取得し得る。
この実施形態における表示モード対応リストは、対象オブジェクトと対象表示モードとの間の対応を含む。
具体的に、この実施形態における対象表示モードは、対象オブジェクトのアイコン、対象オブジェクトのアイコンの色、及び対象オブジェクトのアイコンのサイズ、のうちの少なくとも1つを含む。
この実施形態における対象表示モードの記載は、制限よりむしろ、任意の例である点が留意されるべきである。
以下は、特定の適用場面に関して詳細に表示モード対応リストについて記載する。この適用場面において、端末デバイスで実行され得るマルチプレイヤー・オンライン・バトル・アリーナ(Multiplayer Online Battle Arena;MOBA)ゲームが一例として使用される。
MOBAゲームにおいて、対象オブジェクトは、ゲームシーン内の前もってセットされたキャラクタ、目標とする建物、などのような、大きい資源点である。例えば、対象オブジェクトは、敵のチームからの敵、又は自身のチーム内の主役若しくはフォワードであってよい。代替的に、対象オブジェクトは、2つのチームのうちの一方によって占有される建物(その量は制限されない。)であってよい。要約すれば、対象オブジェクトは、ゲーム進行を推進するメインキャラクタであってよい。ゲームシーンを一例として用いると、対象オブジェクトは、MOBAゲームのゲーム行程を前進する重要なモンスターであってよく、例えば、“主宰”及び“暴君”がレイヤに表示され得る。
この実施形態で示される方法において、ユーザが夫々の対象オブジェクトの異なる状態を正確に知りやすくするよう、この実施形態における表示モード対応リストは、対象オブジェクトの少なくとも1つの状態と、対象オブジェクトの少なくとも1つの状態のうちの1つに対応する表示モードとを更に含む。表示モードは、対象オブジェクトの状態を特定するために使用され、表示モードと対象オブジェクトの状態との間には対応が存在する。表示モードは、対象オブジェクトの異なる状態を明らかに区別することができれば十分である。具体的に、表示モードの具体的な様式は制限されない。例えば、表示モードは、アイコンの色、アイコンのサイズ、アイコンの形、アイコンの明滅状態、アイコンのアニメーション状態、などであってよい。本開示のこの実施形態において、対象オブジェクトの異なる状態は、表示モードを使用することによって区別される。例えば、異なる状態は、制限なしに、生まれること、レベル1になること、レベル2になること、レベル3になること、死んでいること、などを含んでよい。
例えば、ゲームシーンにおいて、対象オブジェクトが目標とする建物である場合に、考えられる実施において、目標とする建物の状態は、占有されていないこと、占有されていること、などを含む。他の考えられる実施では、目標とする建物の状態は、基礎構造、領域フレームワーク構造、メイン構造、向上レベル1、向上レベル2、崩壊、などを含む。対象オブジェクトの状態は、異なる適用場面において様々であり得る。具体的に、例は、本明細書で1つ1つ挙げられない。
この実施形態において、適用場面は一例として記載される。MOBAゲームにおいて、対象オブジェクトが暴君である場合に、暴君は2つの異なる状態、すなわち、生まれていること及び死んでいること、を有する。対象オブジェクトが主宰である場合に、主宰は2つの異なる状態、すなわち、生まれていること及び死んでいること、を有する。
考えられる実施において、“暴君”は第1アイコンに対応する。第1の色(例えば、灰色)の第1アイコンは、“暴君”が生まれていることを表し、第2の色(例えば、黄色)の第1アイコンは、“暴君”が死んでいることを表す。
“主宰”は第3アイコンに対応する。第3の色の第3アイコンは、“主宰”が生まれていることを表し、第2の色の第3アイコンは、“主宰”が死んでいることを表す。
第1アイコンは第3アイコンとは異なる点が留意されるべきである。第1アイコンは第3アイコンとは異なるので、色が対象オブジェクトの異なる状態を区別することができる限りは、第1の色は第3の色と同じであっても又は異なってもよく、第2の色は第4の色と同じであっても又は異なってもよい。
確かに、対象オブジェクトの異なる状態を区別するよう、異なる状態にある対象オブジェクトは、同じアイコン又は異なるアイコンに対応し得る。この実施形態では、1つの対象オブジェクトが1つのアイコンに対応する例が使用される。
他の考えられる例では、第1の形状(例えば、正方形)の第1アイコンは、“暴君”が生まれていることを表し、第2の形状(例えば、丸形)の第1アイコンは、“暴君”が死んでいることを表す。
他の考えられる例では、点滅する第1アイコンは、“暴君”が生まれていることを表し、点滅しない第1アイコンは、“暴君”が死んでいることを表す。
他の考えられる例では、アニメーションを含む第1アイコンは、“暴君”が生まれていることを表し、アニメーションを含まない第1アイコンは、“暴君”が死んでいることを表す。この実施形態において、表示モードは、この実施形態における表示モード対応リストとして表1を参照しながら、色の例を使用することによって記載される。この実施形態における表1は任意の例であり、表示モード対応リストは特に制限されない点が留意されるべきである。
表1から分かるように、対象オブジェクト(暴君及び主宰)の夫々の生死の各状態がアイコンを有している。この実施形態において、第1アイコン、第2アイコン、第3アイコン、及び第4アイコンは、第1アイコン、第2アイコン、第3アイコン、及び第4アイコンが異なるアイコンである限りは、制限されない。
任意に、対象オブジェクトに対応する対象表示モードは、アイコンのサイズを更に含んでよい。例えば、第1アイコンのサイズは、第3アイコンのサイズと異なってよい。例えば、第1アイコンは第3アイコンよりも大きい。異なる対象オブジェクトは、アイコンのサイズに従って区別される。“スモールマップ”の表示インターフェイスは比較的に小さいので、異なる対象オブジェクトが異なるサイズを有する場合に、プレイヤーは、異なる対象オブジェクトを直ちに区別することができる。このようにして、異なる対象オブジェクトは、より明らかに示され得る。例えば、第1対象オブジェクト(例えば、暴君)に対応するアイコンのサイズは3であり、第2対象オブジェクト(例えば、主宰)に対応するアイコンのサイズは2である。
上述された、対象オブジェクトに対応する対象表示モードの様々な実施は、例にすぎない。表示モード対応リストが同じ対象オブジェクトの異なる状態並びに異なる対象オブジェクト及び/又は異なる表示モードを区別することができる限りは、他の実施が企図される。
ステップ405:端末デバイスが対象オブジェクトの属性情報を取得する。
この実施形態において、端末デバイスによって読み出されたアプリケーションデータは、対象オブジェクトの属性情報を更に含む。属性情報は、対象オブジェクトを特定するために使用される。この実施形態において、対象オブジェクトの属性情報は、端末デバイスが対象オブジェクトの属性情報を使用することによって対象オブジェクトを決定することができる限りは、制限されない。
MOBAゲームを一例として用いると、端末デバイスは、対象オブジェクトの属性情報に従って、対象オブジェクトが暴君又は主宰であるかどうかを決定することができる。
具体的に、この実施形態において、端末デバイスは更に、対象オブジェクトの属性情報に従って、対象オブジェクトの少なくとも1つの状態を決定することができる。
対象オブジェクトの属性情報は、対象オブジェクトの少なくとも1つの状態の夫々に対応し、すなわち、対象オブジェクトの属性情報と対象オブジェクトの異なる状態との間には対応が確立される。
更に、MOBAゲームを一例として用いると、端末デバイスは、対象オブジェクトの属性情報に従って、対象オブジェクトである暴君及び主宰の夫々の生死状態、などを決定することができる。
ステップ406:端末デバイスが対象オブジェクトの現在の状態を決定する。
この実施形態において、対象オブジェクトの現在の状態は、対象オブジェクトの属性情報に対応する対象オブジェクトの状態である。
この実施形態における端末デバイスは、対象オブジェクトの取得された属性情報に従って対象オブジェクトの現在の状態を決定することができることが分かる。
この実施形態において、対象オブジェクトの属性情報は、レイヤ上に表示される対象オブジェクトの第1座標、レイヤ上に表示される対象オブジェクトのアイコン、並びに対象オブジェクトが最初に生成された開始時点並びに対象オブジェクトを生成する時間長さ、のうちの少なくとも1つを含む。例えば、“暴君”が最初に発生する開始時点はt0であり、“暴君”を発生させる期間はTであり、それにより、“暴君”は、Tのインターバルでt0から発生する。
更に、MOBAゲームを一例として用いると、対象オブジェクトを決定するプロセスにおいて、レイヤ上に表示される各対象オブジェクトの第1座標がアプリケーションデータに予め格納されている場合に、端末デバイスは、第1座標に従って、第1座標でレイヤ上に表示された対象オブジェクトを決定することができる。レイヤ上に表示される各対象オブジェクトのアイコンがアプリケーションデータに予め格納されている場合に、端末デバイスは、アイコンに従って、アイコンとしてレイヤ上に表示された対象オブジェクト及び/又は対象オブジェクトの状態を決定することができる。各対象オブジェクトが最初に生成された開始時点及び対象オブジェクトを生成する時間長さがアプリケーションデータに予め格納されている場合に、端末デバイスは、現在の時点に従って、対象オブジェクトの現在の状態(例えば、生死)を決定することができる。
ステップ407:端末デバイスが、対象オブジェクトに対応する対象表示モードを取得する。
具体的に、この実施形態における端末デバイスは、表示モード対応リストに従って、対象オブジェクトの現在の状態に対応する対象表示モードを決定することができる。
より具体的には、端末デバイスがステップ406で対象オブジェクトの現在の状態を決定した後に、端末デバイスは、ステップ404で取得された表示モード対応リストを参照することができる。端末デバイスは、表示モード対応リストに従って、対象オブジェクトの現在の状態に対応する対象表示モードを決定することができる。
表1を一例として用いると、対象オブジェクトの現在の状態が暴君の生まれている状態であると端末デバイスが決定する場合に、端末デバイスは、表1に示される表示モード対応リストに従って、対応する対象表示モードが“第1アイコン,黄色”であると決定することができる。第1アイコンは、暴君に対応するアイコンである。
ステップ408:端末デバイスが対象オブジェクトを表示のために第2表示領域にマッピングする。
この実施形態において、端末デバイスは、レイヤ上に表示されている対象オブジェクトの座標を表示のために第2表示領域にマッピングし、対象表示モードで第2表示領域に対象オブジェクトを表示することができる。ゲームシーンにおいて、“主宰”に対応するアイコン及び“暴君”に対応するアイコンが第2表示領域に表示されると理解され得る。
この実施形態において、対象オブジェクトを第2表示領域にマッピングする方法は、端末デバイスが、レイヤ上に表示されている対象オブジェクトの第1座標に従って、第2表示領域に表示される対象オブジェクトの第2座標を決定することができる限りは、制限されない。具体的に、対象オブジェクトに加えて、インターフェイス要素がレイヤ上に表示される。この実施形態において、インターフェイス要素は制限されない。MOBAゲームが一例として使用される場合に、レイヤ上に表示されるインターフェイス要素は、識別機能を有する、マップ上に表示された地理的アイコン、などであってよい。この実施形態において、対象オブジェクトが第2表示領域にマッピングされるときに、レイヤ上に表示される対象オブジェクト及びインターフェイス要素の間の相対位置関係しか第2表示領域にマッピングされる必要がなく、すなわち、第2表示領域に位置する対象オブジェクト及びインターフェイス要素の間の相対位置関係が変更されなければ十分である。
この実施形態におけるマッピング様式の以下の記載は任意の例であり、マッピング様式は制限されない。この例において、レイヤは、前もってセットされた倍数だけズームアウトされ、第2表示領域に表示され、すなわち、レイヤ上の全ての範囲が、第2表示領域に表示され得る。
端末デバイスは、レイヤ上に表示されている対象オブジェクトの座標である第1座標を取得することができ、端末デバイスは、前もってセットされた倍数だけ第1座標がズームアウトされた後に取得される座標である第2座標を決定する。このようにして、端末デバイスは、第2座標に従って第2表示領域に対象オブジェクトのアイコンを表示することができる。
この実施形態におけるステップ407及びステップ408の実行順序は制限されない点が留意されるべきである。
ステップ407は、ステップ408の前に実行されてよく、すなわち、対象オブジェクトの対象表示モードは、対象オブジェクトが対象表示モードで第2表示領域にマッピングされる前に決定される。
代替的に、ステップ408は、ステップ407の前に実行されてよく、すなわち、対象オブジェクトは、対象オブジェクトが対象表示モードで第2表示領域に表示される前に第2表示領域にマッピングされる。
この実施形態における方法の有利な効果は、次の通りである。
異なる対象オブジェクトの異なる状態は異なる対象表示モードに対応するので、プレイヤーは、第2表示領域に表示されている異なる対象表示モードに従って、異なる対象オブジェクト及びそれらの異なる対象オブジェクトの現在の状態を決定することができるとともに、プレイヤーは、第2表示領域を使用することによって、レイヤ上の各対象オブジェクトの実際の位置を直ちに知ることができる。第2表示領域に表示されている対象オブジェクトの対象表示モードは、正確な指示をプレイヤーに提供することができ、それにより、プレイヤーは、異なる対象表示モードに従って、異なる対象オブジェクトの現在状態及び位置を決定することができ、それによって、対象オブジェクトに対する操作をプレイヤーが行う正確さ及び効率が改善されることが分かる。
本開示のこの実施形態における方法をより良く理解するために、以下は、具体的な適用場面を参照して詳細にこの実施形態における方法について記載する。
説明のために図6を参照すると、この適用場面は、MOBAゲームを例として記載される。この実施形態における方法が適用され得るシナリオは、MOBAゲームに制限されない点が留意されるべきである。MOBAゲームシーンとしてのこの適用場面は、単に一例として記載される。
サーバによって送られた全てのオリジナルデータは、この実施形態では端末デバイスのクライアントにロードされる。オリジナルデータは、端末デバイスのクライアントがオリジナルデータを使用することによってインストールプロシージャ及び/又は更新プロシージャを実行することを可能にするよう、MOBAゲームをインストール及び/又は更新するためのアプリケーションデータである。
MOBAゲームにおいて、オリジナルデータはレイヤ描画データを含む。端末デバイスのクライアントは、レイヤ描画データを使用することによって操作レイヤを描画することができる。図6に示されるように、操作レイヤ700は、MOBAゲーム内でポジショニングを実行するために使用されるマップであってよい。
具体的に、オリジナルデータは、操作レイヤ上での暴君の第1座標及び主宰の第1座標、操作レイヤ上に表示される暴君及び主宰のアイコン、暴君が最初に発生する遅延時間及び暴君が発生する間隔、並びに主宰が最初に発生する遅延時間及び主宰が発生する間隔を更に含む。
より具体的には、オリジナルデータでは、暴君の誕生地点及び主宰の誕生地点が操作レイヤ上で予め設定されている。誕生地点は夫々、暴君に対応する第1座標及び主宰に対応する第1座標である。暴君を一例として用いると、暴君は、予め設定された誕生地点、すなわち、操作レイヤ上の第1座標の位置で誕生し、暴君は、最初に暴君を発生させるための、オリジナルデータ内で既に設定されている遅延時間に従って誕生する。
端末デバイスのクライアントは、オリジナルデータを読み出すことができる。プレイヤーによって使用される主人公が位置するゲームシーンレイヤは、操作レイヤ上の大きい資源点の第1座標X(暴君の座標)及びY(主宰の座標)を読み出し、それによって、第1座標X及びYに従って大きい資源点をスモールマップ701に同期してマッピングし、すなわち、スモールマップ701に表示される大きい資源点の第2座標X′(暴君の座標)及びY′(主宰の座標)を決定する。この適用場面におけるスモールマップ701は、第2表示領域、すなわち、前述の実施形態における“スモールマップ”である。
この実施形態において、スモールマップ701及び操作レイヤ700は同期して、主宰及び暴君の位置座標を記録し、そして、スモールマップ701上の夫々の大きい資源点の位置は、操作レイヤ700上の夫々の大きい資源点の位置と一対一で対応している。
この実施形態におけるスモールマップ701に従って、プレイヤーは、夫々の大きい資源点の位置、及び大きい資源点が位置する領域、並びに操作レイヤ上でのプレイヤーキャラクタの位置を直接に見ることができる。スモールマップ701は更に、プロンプト情報を表示することができる。プロンプト情報は、プレイヤーが位置するチャンネルに関する情報、などであってよい。
以下は、端末デバイスのクライアントが、操作レイヤ上に位置する大きい資源点の第1座標X及びY、操作レイヤ上で表示される大きい資源点のアイコン、大きい資源点が最初に生成される遅延時間、及び大きい資源点が生成される期間に従って、目下の大きい資源点が暴君又は主宰であるかどうか、暴君が死んでいる状態又は生まれている状態にあるかどうか、及び主宰が死んでいる状態又は生まれている状態にあるかどうかを決定する方法について記載する。
端末デバイスのクライアントは、第2座標を使用することによって、スモールマップ701上で、大きい資源点の異なる状態を表示することができる。それにより、スモールマップ701上で異なる第2座標に表示されるアイコンは、異なる大きい資源点を指し示し且つ識別するために使用される。クライアントは最終コマンドを実行し、スモールマップ701上で主宰及び暴君の誕生地点において異なる大きい資源点のアイコンを示す。
この適用場面について、依然として図6を参照すると、MOBAゲーム内の2つの敵対するチーム、すなわち、赤チーム及び青チームが存在する。プレイヤーが青チームに所属しているときに、スモールマップ701の具体的な表示モードは図8に示される通りである。スモールマップ701は、2つのチームの表示位置を変化させるよう自動的に回転する。このようにして、主宰は左上隅に位置し、暴君は右下隅に位置する。具体的に、主宰及び暴君は、第2座標に従ってスモールマップ701に表示される。
操作レイヤ上に位置する大きい資源点の第1座標X及びY、操作レイヤ上に表示される大きい資源点のアイコン、大きい資源点が最初に生成される遅延時間、及び大きい資源点が生成される期間に従って、暴君の大きい資源点が死んでいる状態にあり、主宰の大きい資源点も死んでいる状態にあると端末デバイスのクライアントが決定する場合に、端末デバイスのクライアントは、暴君の死んでいる状態に対応する第2アイコンを読み出す。このとき、死んでいる状態にある暴君はバトルフィールドには現れず、第2アイコンは中サイズ及び灰色であり、第2アイコンはスモールマップ701に表示される。また、デバイスのクライアントは、主宰に対応する第4アイコンを読み出す。このとき、死んでいる状態にある主宰はバトルフィールドには現れず、第4アイコンは大サイズ及び灰色であり、第4アイコンはスモールマップ701に表示される。この適用場面において、中サイズ及び大サイズは、第4アイコンが第2アイコンよりも大きい限りは、特に制限されない。具体的に、主宰は暴君よりも重要であるから、主宰のアイコンは暴君のアイコンよりも大きい。
図9に示されるように、暴君の大きい資源点が生まれている状態にあり、主宰の大きい資源点が死んでいる状態にあると決定する場合には、端末デバイスのクライアントは、暴君の生まれている状態に対応する第1アイコンを読み出す。このとき、生まれている状態にある暴君はバトルフィールドに出現し、第1アイコンは中サイズ及び黄色であり、第1アイコンはスモールマップ701に表示される。また、端末デバイスのクライアントは、主宰に対応する第4アイコンを読み出す。このとき、死んでいる状態にある主宰はバトルフィールドには現れず、第4アイコンは大サイズ及び灰色であり、第4アイコンはスモールマップ701に表示される。
図10に示されるように、暴君の大きい資源点が生まれている状態にあり、主宰の大きい資源点が生まれている状態にあると決定する場合には、端末デバイスのクライアントは、暴君の生まれている状態に対応する第1アイコンを読み出す。このとき、生まれている状態にある暴君はバトルフィールドに出現し、第1アイコンは中サイズ及び黄色であり、第1アイコンはスモールマップ701に表示される。また、端末デバイスのクライアントは、主宰に対応する第3アイコンを読み出す。このとき、生まれている状態にある主宰はバトルフィールドに出現し、第3アイコンは大サイズ及び紫色であり、第3アイコンはスモールマップ701に表示される。
図10に示されるように、暴君の大きい資源点が死んでいる状態にあり、主宰の大きい資源点が生まれている状態にあると決定する場合には、端末デバイスのクライアントは、暴君の死んでいる状態に対応する第2アイコンを読み出す。このとき、死んでいる状態にある暴君はバトルフィールドには現れず、第2アイコンは中サイズ及び灰色であり、第2アイコンはスモールマップ701に表示される。また、端末デバイスのクライアントは、主宰に対応する第3アイコンを読み出す。このとき、生まれている状態にある主宰はバトルフィールドに出現し、第3アイコンは大サイズ及び紫色であり、第3アイコンはスモールマップ701に表示される。
プレイヤーが赤チームに所属するときに、スモールマップ701の具体的な表示モードは、図11に示される通りである。スモールマップ701は、主宰が右下隅にあり、暴君が左上隅にあるように、自動的に回転する。
暴君の大きい資源点が死んでいる状態にあり、主宰の大きい資源点も死んでいる状態にあると端末デバイスのクライアントが検出する例を用いると、端末デバイスのクライアントは、暴君の死んでいる状態に対応する第2アイコンを読み出す。このとき、死んでいる状態にある暴君はバトルフィールドには現れず、第2アイコンは中サイズ及び灰色であり、第2アイコンはスモールマップ701に表示される。また、デバイスのクライアントは、主宰に対応する第4アイコンを読み出す。このとき、死んでいる状態にある主宰はバトルフィールドには現れず、第4アイコンは大サイズ及び灰色であり、第4アイコンはスモールマップ701に表示される。
この適用場面から分かるように、特定のアイコンは、主宰及び暴君の大きい資源点のために設計される。生まれている主宰のアイコンの色は、死んでいる主宰のアイコンの色とは異なり、生まれている暴君のアイコンの色は、死んでいる暴君のアイコンの色とは異なる。すなわち、異なる大きい資源点は、誕生に関して異なる色を有し、異なる表示スタイルのアイコンを有する。同じ大きい資源点の生まれている状態及び死んでいる状態のアイコンは、異なる色を有する。従って、主宰及び暴君のアイコンは、生まれる前には常に灰色であり、生まれた後には夫々紫色及び黄色で表示され、死ぬと再び灰色になり、生き返ると再び色が変わる。このようにして、プレイヤーは、スモールマップに表示されているアイコンのスタイル、アイコンのサイズ、及びアイコンの色に従って、暴君及び主宰の大きい資源点を明らかに且つ直ちに区別することができる。
本開示の実施形態は更に、前述の実施形態における方法を実装することができる端末デバイスを提供する。端末デバイスの詳細なハードウェア構造は、図3に示される通りである。以下は、図12を参照して、前述の実施形態における方法を実装することができる端末デバイスの機能モジュールの構造について記載する。
端末デバイスは、次のユニット1201乃至1205を含む。
第1取得ユニット1201は、対象オブジェクトを取得するよう構成される。対象オブジェクトは、レイヤ上に位置し、レイヤの少なくとも一部は、第1表示領域に表示される。
第1決定ユニット1202は、第2表示領域を決定するよう構成される。第2表示領域は、第1表示領域に位置し、第2表示領域の面積は、第1表示領域の面積よりも小さく、第2表示領域は、表示のためにレイヤの少なくとも一部を前もってセットされた倍数だけズームアウトするために使用される。
第3取得ユニット1203は、表示モード対応リストを生成するよう構成される。表示モード対応リストは、対象オブジェクトと対象表示モードとの間の対応を含む。
具体的に、表示モード対応リストは、対象オブジェクトの少なくとも1つの状態と、対象オブジェクトの少なくとも1つの状態のうちの1つに対応する表示モードとを含む。
第2取得ユニット1204は、対象オブジェクトに対応する対象表示モードを取得するよう構成される。
具体的に、第2取得ユニット1204は、次のモジュール12041乃至12043を含む。
第2取得モジュール12041は、対象オブジェクトの属性情報を取得するよう構成される。対象オブジェクトの属性情報は、対象オブジェクトの少なくとも1つの状態のうちの1つに対応する。
第2決定モジュール12042は、対象オブジェクトの現在の状態を決定するよう構成される。対象オブジェクトの現在の状態は、対象オブジェクトの属性情報に対応する対象オブジェクトの状態である。
第3決定モジュール12043は、表示モード対応リストに従って、対象オブジェクトの現在の状態に対応する対象表示モードを決定するよう構成される。
マッピングユニット1205は、対象オブジェクトを第2表示領域にマッピングして、対象表示モードで第2表示領域に対象オブジェクトを表示するよう構成される。
具体的に、マッピングユニット1205は、次のモジュール12051乃至12053を含む。
第1取得モジュール12051は、第1座標を取得するよう構成される。第1座標は、レイヤ上に表示される対象オブジェクトの座標である。
第1決定モジュール12052は、第1座標に従って第2座標を取得するよう構成される。第2座標は、第2表示領域に表示される対象オブジェクトの座標である。
表示モジュール12053は、第2座標で第2表示領域に対象オブジェクト表示するよう構成される。
本開示は、コンピュータ可読記憶媒体を更に提供する。コンピュータ可読記憶媒体は命令を記憶しており、命令は、コンピュータで実行される場合に、該コンピュータに、前述の方法実施形態に従うオブジェクト表示方法を実行させる。
本開示は、命令を含むコンピュータプログラム製品を更に提供し、コンピュータプログラム製品は、コンピュータで実行される場合に、該コンピュータに、前述の方法実施形態に従うオブジェクト表示方法を実行させる。
端末デバイスによってこの実施形態におけるオブジェクト表示方法を実行する具体的なプロシージャ及びその得られる有利な効果の詳細については、前述の実施形態を参照されたい。詳細はこの実施形態においては記載されない。
当業者に当然ながら、記載の便宜上及び簡単のために、前述のシステム、装置、及びユニットの詳細な動作プロセスについては、前述の方法実施形態における対応するプロセスを参照されたく、詳細はここで再度記載されない。
本開示で提供されるいくつかの実施形態において、開示されるシステム、装置、及び方法は、他の様態で実施されてもよいことが理解されるべきである。例えば、記載される装置実施形態は、一例にすぎない。例えば、ユニット分割は単に論理的な機能分割であって、実際の実施では他の分割様態が存在し得る。例えば、複数のユニット又はコンポーネントは、他のシステムに結合又は一体化されてよく、あるいは、いくつかの特徴は無視されるか又は実行されなくてもよい。その上、表示又は議論される相互結合又は直接的な結合若しくは通信接続は、何らかのインターフェイス、装置、又はユニットを通じて実装される間接的な結合又は通信接続であってよく、電子的な、機械的な、又は他の形で実装されてよい。
別個の部分として記載されるユニットは、物理的に別々であってもなくてもよく、ユニットとして表示される部分は、物理的なユニットであってもなくてもよく、一箇所に位置してよく、あるいは、複数のネットワークユニットに分配されてよい。ユニットの一部又は全ては、実施形態の解決法の目的を達成するために、実際のニーズに従って選択され得る。
その上、本開示の実施形態における機能ユニットは、1つのプロセッサユニットに組み込まれてよく、あるいは、ユニットの夫々は、物理的に単独で存在してよく、あるいは、2つ以上のユニットは、1つのユニットに組み込まれる。一体化されたユニットは、ハードウェアの形で実装されてよく、あるいは、ソフトウェア機能ユニットの形で実装されてよい。
一体化されたユニットがソフトウェア機能ユニットの形で実装され、独立した製品として販売又は使用される場合に、その一体化されたユニットは、コンピュータ可読記憶媒体に記憶されてよい。そのような理解に基づき、本開示の技術的解決法の本質、又は既存の技術に寄与する部分、又は技術的解決法の全て若しくは一部は、ソフトウェア製品の形で実装されてよい。コンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータデバイス(パーソナルコンピュータ、サーバ、ネットワークデバイス、などであってよい。)に、本開示の実施形態で記載される方法のステップの全て又は一部を実行するように指示するいくつかの命令を含む。前述の記憶媒体は、USBフラッシュドライブ、リムーバブルハードディスク、リード・オンリー・メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、磁気ディスク、又は光ディスクのような、プログラムコードを記憶することができる如何なる媒体も含む。
前述の実施形態は、本開示の技術的解決法を記載することを目的としているにすぎず、本開示を制限する意図はない。本開示は、前述の実施形態を参照して詳細に記載されるが、当業者に当然ながら、当業者は、本開示の実施形態の技術的解決法の精神及び適用範囲から外れることなしに、前述の実施形態で記載される技術的解決法を依然として変更し、あるいは、そのいくつかの技術的特徴を等価置換することができる。
本願は、2016年12月6日付けで中国特許庁に出願された、“OBJECT DISPLAY METHOD AND TERMINAL DEVICE”と題された中国特許出願第201611109894.3号に基づく優先権を主張する。この中国特許出願は、その全文を参照により援用される。

Claims (12)

  1. レイヤ上に位置する対象オブジェクトを取得することであり、前記レイヤの少なくとも一部は第1表示領域に表示され、前記レイヤはマップレイヤである、前記取得することと、
    前記第1表示領域に位置する第2表示領域を決定し、前記対象オブジェクトに対応する、該対象オブジェクトの状態を特定するために使用される対象表示モードを取得することと、
    前記対象オブジェクト及び該対象オブジェクトの位置を前記第2表示領域にマッピングし、前記対象表示モードで前記第2表示領域に前記対象オブジェクトを表示することと
    を有するオブジェクト表示方法。
  2. 前記対象オブジェクト及び該対象オブジェクトの位置を前記第2表示領域にマッピングすることは、
    前記レイヤ上に表示される前記対象オブジェクトの座標である第1座標を取得することと、
    前記第1座標に従って、前記第2表示領域に表示される前記対象オブジェクトの座標である第2座標を取得することと、
    前記第2座標で前記第2表示領域に前記対象オブジェクトを表示することと
    を有する、
    請求項1に記載のオブジェクト表示方法。
  3. 前記対象オブジェクトに対応する対象表示モードを取得することより前に、当該オブジェクト表示方法は、
    前記対象オブジェクトと前記対象表示モードとの間の対応を含む表示モード対応リストを取得すること
    を更に有する、
    請求項1に記載のオブジェクト表示方法。
  4. 前記表示モード対応リストは、前記対象オブジェクトの少なくとも1つの状態と、前記対象オブジェクトの前記少なくとも1つの状態のうちの1つに対応する表示モードとを含み、
    前記対象オブジェクトに対応する対象表示モードを取得することは、
    前記対象オブジェクトの前記少なくとも1つの状態のうちの1つに対応する前記対象オブジェクトの属性情報を取得することと、
    前記属性情報に従って前記対象オブジェクトの現在の状態を決定することと、
    前記表示モード対応リストに従って、前記対象オブジェクトの前記現在の状態に対応する前記対象表示モードを決定することと
    を有する、
    請求項3に記載のオブジェクト表示方法。
  5. 前記対象オブジェクトの前記属性情報は、
    前記レイヤ上に表示される前記対象オブジェクトの第1座標、
    前記対象オブジェクトのアイコン、並びに
    前記対象オブジェクトが初めて生成された開始時点、及び前記対象オブジェクトを生成する時間長さ
    のうちの少なくとも1つを含む、
    請求項4に記載のオブジェクト表示方法。
  6. 前記対象表示モードは、前記対象オブジェクトのアイコンと、
    前記対象オブジェクトの前記アイコンの色、及び前記対象オブジェクトの前記アイコンのサイズ、
    前記対象オブジェクトの前記アイコンの明滅状態、
    前記対象オブジェクトの前記アイコンのアニメーション状態、並びに
    前記対象オブジェクトの前記アイコンの形
    のうちの少なくとも1つとを含む、
    請求項1乃至5のうちいずれか一項に記載のオブジェクト表示方法。
  7. レイヤ上に位置する対象オブジェクトを取得するよう構成される第1取得ユニットであり、前記レイヤの少なくとも一部は第1表示領域に表示される、前記第1取得ユニットと、
    前記第1表示領域に位置する第2表示領域を決定するよう構成される第1決定ユニットと、
    前記対象オブジェクトに対応する、該対象オブジェクトの状態を特定するために使用される対象表示モードを取得するよう構成される第2取得ユニットと、
    前記対象オブジェクト及び該対象オブジェクトの位置を前記第2表示領域にマッピングし、前記対象表示モードで前記第2表示領域に前記対象オブジェクトを表示するよう構成されるマッピングユニットと
    を有する端末デバイス。
  8. 前記マッピングユニットは、
    前記レイヤ上に表示される前記対象オブジェクトの座標である第1座標を取得するよう構成される第1取得モジュールと、
    前記第1座標に従って、前記第2表示領域に表示される前記対象オブジェクトの座標である第2座標を取得するよう構成される第1決定モジュールと、
    前記第2座標で前記第2表示領域に前記対象オブジェクトを表示するよう構成される表示モジュールと
    を有する、
    請求項7に記載の端末デバイス。
  9. 当該端末デバイスは、
    前記対象オブジェクトと前記対象表示モードとの間の対応を含む表示モード対応リストを取得するよう構成される第3取得ユニット
    を更に有する、
    請求項7に記載の端末デバイス。
  10. 前記表示モード対応リストは、前記対象オブジェクトの少なくとも1つの状態と、前記対象オブジェクトの前記少なくとも1つの状態のうちの1つに対応する表示モードとを含み、
    前記第2取得ユニットは、
    前記対象オブジェクトの前記少なくとも1つの状態のうちの1つに対応する前記対象オブジェクトの属性情報を取得するよう構成される第2取得モジュールと、
    前記属性情報に従って前記対象オブジェクトの現在の状態を決定するよう構成される第2決定モジュールであり、前記対象オブジェクトの前記現在の状態は、前記対象オブジェクトの前記属性情報に対応する前記対象オブジェクトの状態である、前記第2決定モジュールと、
    前記表示モード対応リストに従って、前記対象オブジェクトの前記現在の状態に対応する前記対象表示モードを決定するよう構成される第3決定モジュールと
    を有する、
    請求項9に記載の端末デバイス。
  11. 端末デバイスであって、
    コンピュータ実行可能なプログラムコードを記憶するよう構成されるメモリと、
    トランシーバと、
    前記メモリ及び前記トランシーバへ結合されるプロセッサと
    を有し、
    前記プログラムコードは、前記プロセッサによって実行される場合に、当該端末デバイスに、請求項1乃至6のうちいずれか一項に記載のオブジェクト表示方法を実行させる命令を有する、
    端末デバイス。
  12. 端末デバイスによって使用されるコンピュータソフトウェア命令を記憶するよう構成され、
    前記コンピュータソフトウェア命令は、請求項1乃至6のうちいずれか一項に記載のオブジェクト表示方法を実行するよう設計されたプログラムを含む、
    コンピュータ記憶媒体。
JP2019528143A 2016-12-06 2017-11-15 オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体 Active JP6976329B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201611109894.3A CN106730827B (zh) 2016-12-06 2016-12-06 一种对象显示的方法以及终端设备
CN201611109894.3 2016-12-06
PCT/CN2017/111146 WO2018103514A1 (zh) 2016-12-06 2017-11-15 一种对象显示的方法、终端设备及计算机存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021127922A Division JP7024132B2 (ja) 2016-12-06 2021-08-04 オブジェクト表示方法、端末デバイス、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2019536554A true JP2019536554A (ja) 2019-12-19
JP6976329B2 JP6976329B2 (ja) 2021-12-08

Family

ID=58874544

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019528143A Active JP6976329B2 (ja) 2016-12-06 2017-11-15 オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体
JP2021127922A Active JP7024132B2 (ja) 2016-12-06 2021-08-04 オブジェクト表示方法、端末デバイス、及びコンピュータプログラム
JP2022018647A Active JP7443406B2 (ja) 2016-12-06 2022-02-09 オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体
JP2024024255A Pending JP2024061726A (ja) 2016-12-06 2024-02-21 オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021127922A Active JP7024132B2 (ja) 2016-12-06 2021-08-04 オブジェクト表示方法、端末デバイス、及びコンピュータプログラム
JP2022018647A Active JP7443406B2 (ja) 2016-12-06 2022-02-09 オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体
JP2024024255A Pending JP2024061726A (ja) 2016-12-06 2024-02-21 オブジェクト表示方法、端末デバイス、及びコンピュータ記憶媒体

Country Status (9)

Country Link
US (1) US10990257B2 (ja)
EP (1) EP3552678A4 (ja)
JP (4) JP6976329B2 (ja)
KR (1) KR102289887B1 (ja)
CN (1) CN106730827B (ja)
CA (1) CA3042322C (ja)
MY (1) MY193559A (ja)
TW (1) TWI643121B (ja)
WO (1) WO2018103514A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106730827B (zh) 2016-12-06 2018-10-19 腾讯科技(深圳)有限公司 一种对象显示的方法以及终端设备
CN107441705B (zh) * 2017-07-27 2018-07-20 腾讯科技(深圳)有限公司 对象显示方法和装置及存储介质
US11081086B2 (en) 2017-10-26 2021-08-03 Huawei Technologies Co., Ltd. Display method and apparatus
CN107930119B (zh) * 2017-11-21 2021-04-06 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN108126342A (zh) * 2017-12-28 2018-06-08 珠海市君天电子科技有限公司 一种信息处理方法、装置以及终端
CN108211357A (zh) * 2018-01-15 2018-06-29 腾讯科技(上海)有限公司 虚拟控制对象的控制方法、装置、存储介质和电子装置
CN108404408B (zh) * 2018-02-01 2021-02-09 网易(杭州)网络有限公司 信息处理方法、装置、存储介质及电子设备
CN108525297B (zh) * 2018-03-07 2019-05-24 腾讯科技(深圳)有限公司 动画显示方法、装置、存储介质和电子装置
CN109758766B (zh) * 2019-01-14 2021-10-22 腾讯科技(深圳)有限公司 一种角色状态同步的方法以及相关装置
CN109976650B (zh) * 2019-01-25 2021-03-02 网易(杭州)网络有限公司 人机交互方法、装置和电子设备
CN111957032B (zh) * 2019-02-22 2024-03-08 网易(杭州)网络有限公司 游戏角色控制方法、装置、设备和存储介质
CN109806596B (zh) * 2019-03-20 2023-04-07 网易(杭州)网络有限公司 游戏画面显示方法与装置、存储介质、电子设备
CN113134235A (zh) * 2020-01-17 2021-07-20 腾讯科技(深圳)有限公司 地图元素添加方法、装置、终端及存储介质
US11351457B2 (en) * 2020-09-11 2022-06-07 Riot Games, Inc. Selecting an anchored offset targeting position
CN112402962B (zh) * 2020-11-20 2022-09-30 腾讯科技(深圳)有限公司 基于虚拟环境的信号显示方法、装置、设备及介质
CN112911371B (zh) * 2021-01-29 2023-05-05 Vidaa美国公司 双路视频资源播放方法及显示设备
KR102589889B1 (ko) * 2021-02-23 2023-10-17 (주)팀스노우볼 게임 ui 분석 방법
CN114816629B (zh) * 2022-04-15 2024-03-22 网易(杭州)网络有限公司 绘制显示对象的方法、装置、存储介质及电子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008228943A (ja) * 2007-03-20 2008-10-02 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US20100123737A1 (en) * 2008-11-19 2010-05-20 Apple Inc. Techniques for manipulating panoramas
CN105597310A (zh) * 2015-12-24 2016-05-25 网易(杭州)网络有限公司 一种游戏控制方法及装置
JP5938131B1 (ja) * 2015-10-13 2016-06-22 株式会社Cygames ユーザ入力の操作性を向上させるプログラム、ゲームシステム、電子装置、サーバ及びゲーム制御方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4412692B2 (ja) * 2000-09-20 2010-02-10 株式会社バンダイナムコゲームス ゲームシステム及び情報記憶媒体
JP2002210235A (ja) 2001-01-24 2002-07-30 Square Co Ltd ビデオゲームシステムおよびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
CA2352844C (en) * 2001-07-10 2009-11-17 Geojet Information Solutions Inc. 3-d map data visualization
US8626440B2 (en) * 2005-04-18 2014-01-07 Navteq B.V. Data-driven 3D traffic views with the view based on user-selected start and end geographical locations
US20070218965A1 (en) * 2006-03-15 2007-09-20 Tilston Christopher I Player deception in a video game
KR100790065B1 (ko) * 2006-10-10 2008-01-02 삼성전자주식회사 미니 맵을 이용한 위치 정보 제공 시스템 및 방법
JP4671196B2 (ja) 2006-10-31 2011-04-13 株式会社スクウェア・エニックス ネットワークゲームシステム、ネットワークゲーム用端末装置、ゲーム画面の表示方法、並びにプログラム及び記録媒体
TW201004679A (en) * 2008-07-31 2010-02-01 Shih-Chieh Su Navi-ciser: an exercise and gaming system utilizing GNSS information
US8661073B2 (en) * 2009-03-06 2014-02-25 Trion Worlds, Inc. Synthetic environment character data sharing
US10786736B2 (en) * 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
JP5718037B2 (ja) * 2010-12-13 2015-05-13 株式会社カプコン ゲームプログラム
JP5103538B2 (ja) * 2011-02-25 2012-12-19 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
JP5519610B2 (ja) * 2011-10-12 2014-06-11 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
JP5989373B2 (ja) 2012-03-26 2016-09-07 株式会社バンダイナムコエンターテインメント プログラム、情報記憶媒体、ゲーム装置、およびサーバシステム
US20130339868A1 (en) * 2012-05-30 2013-12-19 Hearts On Fire Company, Llc Social network
JP6334125B2 (ja) * 2013-10-11 2018-05-30 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
WO2015098188A1 (ja) 2013-12-27 2015-07-02 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
WO2015104847A1 (en) 2014-01-09 2015-07-16 Square Enix Holdings Co., Ltd. Online game server architecture using shared rendering
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10449445B2 (en) * 2014-12-11 2019-10-22 Elwha Llc Feedback for enhanced situational awareness
JP5845547B1 (ja) 2015-05-29 2016-01-20 株式会社Cygames ユーザ入力の操作性を向上させるプログラム、ゲームシステム、電子装置、サーバ及びゲーム制御方法
CN105148517B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
US10353564B2 (en) * 2015-12-21 2019-07-16 Sap Se Graphical user interface with virtual extension areas
WO2018000382A1 (zh) * 2016-06-30 2018-01-04 华为技术有限公司 一种查看应用程序的图形用户界面、方法及终端
CN106730827B (zh) * 2016-12-06 2018-10-19 腾讯科技(深圳)有限公司 一种对象显示的方法以及终端设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008228943A (ja) * 2007-03-20 2008-10-02 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US20100123737A1 (en) * 2008-11-19 2010-05-20 Apple Inc. Techniques for manipulating panoramas
JP5938131B1 (ja) * 2015-10-13 2016-06-22 株式会社Cygames ユーザ入力の操作性を向上させるプログラム、ゲームシステム、電子装置、サーバ及びゲーム制御方法
CN105597310A (zh) * 2015-12-24 2016-05-25 网易(杭州)网络有限公司 一种游戏控制方法及装置

Also Published As

Publication number Publication date
CA3042322A1 (en) 2018-06-14
CA3042322C (en) 2023-08-22
JP2021170414A (ja) 2021-10-28
EP3552678A1 (en) 2019-10-16
JP7024132B2 (ja) 2022-02-22
JP6976329B2 (ja) 2021-12-08
KR102289887B1 (ko) 2021-08-12
EP3552678A4 (en) 2020-07-29
TWI643121B (zh) 2018-12-01
CN106730827A (zh) 2017-05-31
CN106730827B (zh) 2018-10-19
JP2024061726A (ja) 2024-05-08
KR20190067911A (ko) 2019-06-17
JP2022051900A (ja) 2022-04-01
US10990257B2 (en) 2021-04-27
MY193559A (en) 2022-10-19
WO2018103514A1 (zh) 2018-06-14
JP7443406B2 (ja) 2024-03-05
US20190212900A1 (en) 2019-07-11
TW201821975A (zh) 2018-06-16

Similar Documents

Publication Publication Date Title
JP7024132B2 (ja) オブジェクト表示方法、端末デバイス、及びコンピュータプログラム
US11163969B2 (en) Fingerprint recognition method and apparatus, and mobile terminal
CN110168487B (zh) 一种触摸控制方法及装置
EP3190763B1 (en) Screen sharing method and sharing device
US20190018555A1 (en) Method for displaying menu on user interface and handheld terminal
CN107870666B (zh) 一种终端控制方法及终端
WO2018177207A1 (zh) 操作控制方法、装置及存储介质
CN112596648A (zh) 页面处理方法、装置、电子设备及可读存储介质
EP3249899A1 (en) Call forwarding method, terminal and portable electronic device
US10872455B2 (en) Method and portable electronic device for changing graphics processing resolution according to scenario
CN108541311B (zh) 显示字符串的方法以及终端设备
US10706255B2 (en) Processing method and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210804

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210804

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210817

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211109

R150 Certificate of patent or registration of utility model

Ref document number: 6976329

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150