JP7434601B2 - ウィジェットの表示方法、装置、機器及びコンピュータプログラム - Google Patents

ウィジェットの表示方法、装置、機器及びコンピュータプログラム Download PDF

Info

Publication number
JP7434601B2
JP7434601B2 JP2022562117A JP2022562117A JP7434601B2 JP 7434601 B2 JP7434601 B2 JP 7434601B2 JP 2022562117 A JP2022562117 A JP 2022562117A JP 2022562117 A JP2022562117 A JP 2022562117A JP 7434601 B2 JP7434601 B2 JP 7434601B2
Authority
JP
Japan
Prior art keywords
transparency
widget
display position
virtual character
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022562117A
Other languages
English (en)
Other versions
JP2023528574A (ja
Inventor
ルゥ,チンチュン
ホアン,ホォンチャン
ホアン,ビン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202110526827.6A external-priority patent/CN113134233B/zh
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2023528574A publication Critical patent/JP2023528574A/ja
Application granted granted Critical
Publication of JP7434601B2 publication Critical patent/JP7434601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Description

本出願は、2021年5月14日に出願した出願番号が202110526827.6であり、発明の名称が「ウィジェットの表示方法、装置、コンピュータ機器及び記憶媒体」である中国特許出願に基づく優先権を主張し、その全ての内容を参照により本発明に援用する。
本発明は、グラフィカルユーザインターフェースの分野に関し、特にウィジェットの表示方法、装置、機器、記憶媒体及びプログラムプロダクトに関する。
グラフィカルユーザインターフェース(Graphical User Interface:GUI)は、タッチスクリーンを採用した端末での人間とマシンとのインタラクションの最も一般的に使用される手段である。
3次元の仮想環境をサポートするアプリケーションプログラムでは、グラフィカルユーザインターフェースには、仮想世界の画面と、仮想世界の画面の上層に重ねられたユーザインターフェース(User Interface:UI)ウィジェットが表示される。仮想世界の画面は、仮想世界にある仮想キャラクタにより観察されたものである。例えば、仮想キャラクタaは仮想世界内を移動し、仮想世界の画面は、該仮想キャラクタaの視点で仮想世界を観察して得られたものである。従って、仮想世界の画面における表示内容は常に変化するが、UIウィジェットのグラフィカルユーザインターフェースにおける表示位置は比較的に固定されている。
本発明の実施例は、ウィジェットの表示方法、装置、機器、記憶媒体及びプログラムプロダクトを提供する。その技術的手段は以下の通りである。
本発明の1つの態様では、コンピュータ機器が実行する、ウィジェットの表示方法であって、仮想環境に位置する仮想キャラクタ及びウィジェットを含むグラフィカルユーザインターフェースを表示するステップと、前記仮想キャラクタの前記仮想環境における動作に伴い、前記仮想キャラクタの前記グラフィカルユーザインターフェースにおける表示位置を更新するステップと、前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を上げるステップと、を含む、方法を提供する。
本発明のもう1つの態様では、ウィジェットの表示装置であって、仮想環境に位置する仮想キャラクタ及びウィジェットを含むグラフィカルユーザインターフェースを表示する表示モジュールと、前記仮想キャラクタの前記仮想環境における動作に伴い、前記仮想キャラクタの前記グラフィカルユーザインターフェースにおける表示位置を更新する更新モジュールと、前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を上げる透明度変更モジュールと、を含む、装置を提供する。
本発明のもう1つの態様では、プロセッサと、プロセッサに接続されたメモリと、前記メモリに記憶されたプログラム命令と、を含むコンピュータ機器であって、前記プロセッサは、前記プログラム命令を実行する際に、本発明の各態様に係るウィジェットの表示方法を実現する、コンピュータ機器を提供する。
本発明のもう1つの態様では、プログラム命令が記憶されたコンピュータ読み取り可能な記憶媒体であって、前記プログラム命令は、プロセッサにより実行される際に、本発明の各態様に係るウィジェットの表示方法を実現する、記憶媒体を提供する。
本発明のもう1つの態様では、コンピュータ読み取り可能な記憶媒体に記憶されたコンピュータ命令を含むコンピュータプログラムプロダクトであって、コンピュータ機器のプロセッサは、前記コンピュータ読み取り可能な記憶媒体から前記コンピュータ命令を読み取り、前記プロセッサは、上記のウィジェットの表示方法を前記コンピュータ機器に実行させるように、前記コンピュータ命令を実行する、コンピュータプログラムプロダクトを提供する。
本発明の実施例は、少なくとも以下の有利な効果を含む。
仮想キャラクタが前記仮想環境において移動する際に、仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置とウィジェットの所在位置との遮蔽関係を判断し、仮想キャラクタがウィジェットにより遮蔽されている場合、ウィジェットを透明にするようにウィジェットの透明度を上げることで、ユーザがウィジェットにより遮蔽されている仮想キャラクタを観察することができると共に、ウィジェットの透明度の動的な変更によりユーザの注意をより引き付けることができるため、ユーザがグラフィカルユーザインターフェースにおけるリアルタイムの状況をよりよく把握することができる。例えば、仮想キャラクタが表示面積の大きいウィジェットの位置に移動して該ウィジェットにより遮蔽されている場合、該ウィジェットの透明度を上げることで、ユーザが該ウィジェットを通して該仮想キャラクタを見ることができ、該仮想キャラクタのグラフィカルユーザインターフェースにおけるリアルタイムの移動状況をより迅速に把握することができるため、情報を見逃すことを回避することができる。
本発明の1つの例示的な実施例に係るウィジェットの表示方法のインターフェース図である。 本発明の1つの例示的な実施例に係るコンピュータシステムの構成のブロック図である。 本発明の1つの例示的な実施例に係るウィジェットの表示方法のフローチャートである。 本発明のもう1つの例示的な実施例に係るウィジェットの表示方法のフローチャートである。 本発明の1つの例示的な実施例に係るウィジェットの表示方法のインターフェース図である。 本発明のもう1つの例示的な実施例に係るウィジェットの表示方法のインターフェース図である。 本発明のもう1つの例示的な実施例に係るウィジェットの表示方法のフローチャートである。 本発明の1つの例示的な実施例に係るウィジェットの表示装置の構成のブロック図である。 本発明の1つの例示的な実施例に係るコンピュータ機器のブロック図である。
以下は、本発明の実施例に関する用語を紹介する。
MOBA(Multiplayer Online Battle Arena:マルチプレイヤオンラインバトルアリーナ)ゲーム:仮想シーンで幾つかの拠点を提供し、異なる陣営に属するユーザが仮想キャラクタを操作して仮想シーン内で対戦し、拠点を占領し、或いは敵の陣営拠点を破壊するゲームである。例えば、MOBAゲームでは、ユーザを少なくとも2つの敵対的な陣営に分け、少なくとも2つの敵対的な陣営に属する異なる仮想チームがそれぞれの地図エリアを占有し、特定の勝利条件を目標として競技を行うことができる。該勝利条件は、拠点を占領し、或いは敵陣営の拠点を破壊すること、敵陣営の仮想キャラクタを倒すこと、指定されたシーンと時間内に自分自身の生存を確保すると共に特定の資源を奪うこと、及び指定された時間内にインタラクティブな点数が対戦相手を上回ることの少なくとも1つを含むが、これらに限定されない。例えば、MOBAゲームでは、ユーザを2つの敵対的な陣営に分け、ユーザにより制御される仮想キャラクタを仮想シーンに分散させて互いに競争させ、勝利条件として敵の全ての拠点を破壊又は占領することができる。
好ましくは、各仮想チームには、1、2、3、5などの1つ又は複数の仮想キャラクタが含まれる。バトルアリーナに参加する各チームの仮想キャラクタの数に応じて、バトルアリーナは、1V1の競技、2V2の競技、3V3の競技、5V5の競技などに分類されてもよい。ここで、1V1は「1対1」を意味し、ここでその説明を省略する。「複数」は、2つ以上を意味する。
好ましくは、MOBAゲームは、試合(又はラウンド)を単位として行われてもよい。各ラウンドの競技の地図は、同一であってもよいし、異なってもよい。MOBAゲームの各ラウンドの継続時間は、ゲームが開始する時点から勝利条件が満たされた時点までの期間である。
MOBAゲームでは、ユーザは、仮想キャラクタを制御して仮想シーンの空中で自由に落下したり、パラグライダーで飛んだり、パラシュートで落下したりしてもよいし、陸地で走ったり、ジャンプしたり、這ったり、前に曲がったりしてもよいし、水中で泳いだり、浮かんだり、ダイビングしたりしてもよいが、ここで、単に上記のシナリオを一例にして説明し、本発明の実施例は具体的に限定されない。
MOBAゲームでは、ユーザは、仮想キャラクタを制御して、他の仮想キャラクタと戦うようにスキルを発動してもよい。例えば、該スキルのスキルタイプは、攻撃スキル、防御スキル、回復スキル、補助スキル、必殺技スキルなどを含んでもよい。各仮想キャラクタは、1つ以上の固有のスキルを有してもよく、異なる仮想キャラクタは通常異なるスキルを有し、異なるスキルは異なる効果を果たしてもよい。例えば、仮想キャラクタが攻撃スキルを発動して敵対的な仮想キャラクタに当たると、敵対的な仮想キャラクタに一定のダメージを与え、例えば、通常、敵対的な仮想キャラクタの仮想的な生命値(HP)の一部を差し引く。別の例では、仮想キャラクタが回復スキルを発動して味方の仮想キャラクタに当たると、味方の仮想キャラクタに一定の回復効果を発生させ、例えば、通常、味方の仮想キャラクタの仮想的な生命値の一部を復元する。他の様々なスキルは、対応する効果を果たすことができるが、ここでその説明を省略する。
仮想環境:クライアントでアプリケーションプログラムが実行されている際に表示(又は提供)される仮想世界である。
例えば、該仮想世界は、現実世界に対するシミュレーション世界であってもよいし、半シミュレーション及び半架空の世界であってもよいし、純粋な架空の3次元の世界であってもよい。
例えば、該仮想世界は、2次元の仮想世界、2.5次元の仮想世界及び3次元の仮想世界のうちの何れかであってもよい。
好ましくは、仮想世界は、少なくとも2人の仮想キャラクタ間の対戦のシーンを提供するためにも使用され、該仮想世界は、少なくとも2人の仮想キャラクタが使用できる仮想リソースを有する。
仮想キャラクタ:仮想世界における移動可能なオブジェクトを意味する。該移動可能なオブジェクトは、仮想人物、仮想動物、漫画又はアニメーションのキャラクタの何れかであってもよい。好ましくは、仮想世界が3次元の仮想世界である場合、仮想キャラクタは、3次元モデルであってもよく、各仮想キャラクタは、3次元の仮想世界において独自の形状及び体積を持ち、3次元の仮想世界において空間の一部を占める。好ましくは、仮想キャラクタは、3次元の人体スケルタルアニメーション技術に基づいて構築された3次元のキャラクタであり、該仮想キャラクタは、様々なスキンを着用することによって様々な外部形象を実現する。幾つかの態様では、仮想キャラクタは、2.5次元又は2次元のモデルを使用して実現されてもよいが、本発明の実施例はこれらに限定されない。
UIウィジェットは、仮想世界の画面の上層に重ねられて表示される。仮想世界の画面における表示内容は常に変化するが、UIウィジェットのグラフィカルユーザインターフェースにおける表示位置が比較的に固定されているため、仮想キャラクタが移動する際の表示位置がUIウィジェットにより遮蔽される場合がある。このため、仮想キャラクタが該表示位置にある場合にUIウィジェットにより遮蔽されるため、ユーザは該遮蔽されている仮想キャラクタを観察することができない。そのため、本発明は、仮想キャラクタの表示位置とウィジェットが所在する領域との遮蔽関係に基づいてウィジェットの透明度の変化を制御することで、ユーザがウィジェットにより遮蔽されている仮想キャラクタを観察することができる、ウィジェットの表示方法を提供する。
図1は、本発明の1つの例示的な実施例に係るウィジェットの表示方法のインターフェース図である。本実施例では、MOBAゲームの対戦インターフェースを一例とする。グラフィカルユーザインターフェース210に示すように、インターフェースの中央の黒いキャラクタは自分の仮想キャラクタ22であり、インターフェースにおける白いキャラクタは敵の仮想キャラクタ24であり、インターフェースの左上隅のドットで塗りつぶされた枠はユーザインターフェースに表示されるミニマップ23であり、この際に、ミニマップ23の透明度は0%である。グラフィカルユーザインターフェース220に示すように、敵の仮想キャラクタ24が左上隅の枠領域に移動し、ミニマップ23により遮蔽されている場合、ミニマップ23の透明度を50%に調整する。ミニマップ23の透明度が増加した後、ユーザがミニマップ23により遮蔽された敵の仮想キャラクタ24を観察することができるため、ユーザが対戦状況をよりよく把握することができる。ここで、ミニマップの透明度の変化はドットの密度により反映され、ドットの密度は透明度と負の相関関係にある。
図2は、本発明の1つの例示的な実施例に係るコンピュータシステムの構成のブロック図である。コンピュータシステム100は、端末110及びサーバ120を含む。
端末110は、仮想環境をサポートするクライアント111をインストールして実行し、クライアント111は、マルチプレイヤオンラインバトルプログラムであってもよい。端末がクライアント111を実行すると、端末110のスクリーンにクライアント111のユーザインターフェースが表示される。該クライアントは、軍事シミュレーションプログラム、バトルロワイヤルシューティングゲーム、仮想現実(Virtual Reality:VR)アプリケーション、拡張現実(Augmented Reality:AR)プログラム、3Dマッププログラム、仮想現実ゲーム、拡張現実ゲーム、一人称シューティングゲーム(First-Person Shooting game:FPS)、三人称シューティングゲーム(Third-Person Shooting game:TPS)、マルチプレイヤオンラインバトルアリーナゲーム(Multiplayer Online Battle Arena games:MOBA)、ストラテジーゲーム(SimuLation Game:SLG)の何れかであってもよい。本実施例では、該クライアントがロールプレイングゲームであることを一例とする。端末110は、ユーザ112により使用される端末であり、ユーザ112は、端末110を使用して仮想環境に位置する仮想キャラクタを制御して活動を行い、仮想キャラクタは、ユーザ112のマスター仮想キャラクタと称されてもよい。仮想キャラクタの動作は、体の姿勢の調整、這うこと、歩くこと、走ること、乗ること、飛ぶこと、ジャンプ、運転、拾うこと、射撃、攻撃、投げることの少なくとも1つを含むが、これらに限定されない。例えば、仮想キャラクタは、例えばヒューマノイドキャラクタ又はアニメキャラクタなどの仮想人間である。
図2には1つの端末のみが示されているが、異なる実施例ではサーバ120にアクセスすることができる他の複数の端末140がある。好ましくは、開発者に対応する端末である1つ又は複数の端末140もあり、端末140には仮想環境をサポートするクライアントの開発及び編集プラットフォームがインストールされ、開発者は、端末140でクライアントを編集、更新して、更新されたクライアントのインストールパッケージを有線又は無線ネットワークを介してサーバ120に送信してもよい。端末110は、サーバ120からクライアントのインストールパッケージをダウンロードしてクライアントを更新してもよい。
端末110及び他の端末140は、無線ネットワーク又は有線ネットワークを介してサーバ120に接続されている。
サーバ120は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム、及び仮想化センターのうちの少なくとも1つを含む。例えば、サーバ120は、3次元の仮想環境をサポートするクライアントのためにバックグラウンドのサービスを提供するために使用される。好ましくは、サーバ120は、一次的なコンピューティング作業を行い、端末は、二次的なコンピューティング作業を行い、或いは、サーバ120は、二次的なコンピューティング作業を行い、端末は、一次的なコンピューティング作業を行い、或いは、サーバ120及び端末は、協調コンピューティングを行うために分散型のコンピューティングアーキテクチャを採用する。
例えば、サーバ120は、プロセッサ122、ユーザアカウントデータベース123、対戦サービスモジュール124、及びユーザ指向の入力/出力インターフェース(Input/Output Interface:I/Oインターフェース)125を含む。ここで、プロセッサ122は、サーバ120に記憶された命令をロードし、ユーザアカウントデータベース123及び対戦サービスモジュール124におけるデータを処理する。ユーザアカウントデータベース123は、端末110及び他の端末140により使用されるユーザアカウントのデータ、例えば、ユーザアカウントの顔画像、ユーザアカウントのニックネーム、ユーザアカウントの戦闘力指数、及びユーザアカウントが所在するサービスエリアを記憶する。対戦サービスモジュール124は、ユーザが1V1対戦、3V3対戦、5V5対戦などを行うための複数の対戦ルームを提供する。ユーザ指向のI/Oインターフェース125は、無線ネットワーク又は有線ネットワークを介して端末110及び/又は他の端末140との通信を確立してデータを交換する。
図3は、本発明の1つの例示的な実施例に係るウィジェットの表示方法のフローチャートである。例えば、該方法が図2に示す端末110(端末110内のクライアント)により実行されることを一例にして説明する。該方法は、以下のステップを含む。
ステップ320:仮想環境に位置する仮想キャラクタ及びウィジェットを含むグラフィカルユーザインターフェースを表示する。
端末は、現在実行中のクライアントのグラフィカルユーザインターフェースを表示する。グラフィカルユーザインターフェースには、仮想環境に位置する仮想キャラクタ及びウィジェットが表示される。
例えば、現在実行中のクライアントがMOBAゲームであることを一例にする。端末は、ゲーム内の対戦インターフェースを表示する。対戦インターフェースにおける仮想キャラクタは、味方の仮想キャラクタ、敵の仮想キャラクタ、非プレイヤの仮想キャラクタなどを含む。対戦インターフェースにおけるウィジェットは、ミニマップウィジェット、攻撃ウィジェット、移動ウィジェット、メニューウィジェットなどを含む。
例えば、現在実行中のクライアントが一人称シューティングゲームであることを一例にする。端末は、プレイヤが現在制御している仮想キャラクタの視点の画面を表示する。グラフィカルユーザインターフェースにおける仮想キャラクタは、味方の仮想キャラクタ、敵の仮想キャラクタ、非プレイヤの仮想キャラクタなどを含む。グラフィカルユーザインターフェースにおけるウィジェットは、ミニマップウィジェット、照準ウィジェット、射撃ウィジェット、移動ウィジェットなどを含む。
例えば、現在実行中のクライアントがレーシングゲームであることを一例にする。端末は、プレイヤが現在の制御している仮想キャラクタの視点の画面を表示する。グラフィカルユーザインターフェースにおける仮想キャラクタは、競技に参加する仮想キャラクタ及び仮想キャラクタの仮想車両などを含む。グラフィカルユーザインターフェースにおけるウィジェットは、加速ウィジェット、操舵ウィジェット、制動ウィジェットなどを含む。
ステップ340:仮想キャラクタの前記仮想環境における動作に伴い、仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を更新する。
仮想キャラクタが仮想環境内を移動するため、端末は、仮想環境内の仮想キャラクタの空間位置を常に取得し、3次元の仮想環境内の空間位置を2次元のグラフィカルユーザインターフェースにおける表示位置に変換し、仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を更新する必要がある。
端末がグラフィカルユーザインターフェースにおける仮想キャラクタの表示位置を更新する頻度は、事前に設定されてもよく、例えば、フレームごとに1回更新し、或いは2フレームごとに1回更新してもよい。更新頻度が高いほど、グラフィカルユーザインターフェースに表示される仮想キャラクタの動きがスムーズで自然になる。
例えば、端末は、仮想キャラクタに対するユーザの移動操作に応じて、或いは関連するストーリーの進行に応じて、仮想環境内を移動するように仮想キャラクタを制御する。端末は、各フレームで取得された仮想環境における仮想キャラクタの空間位置を取得し、投影により仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を取得し、仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を更新する。
例えば、端末は、仮想キャラクタの空間位置を表示位置に変換する過程において、仮想キャラクタの少なくとも1つの対象点を選択し、変換行列に基づいて少なくとも1つの対象点の3次元座標をグラフィカルユーザインターフェースにおける2次元座標に変換し、少なくとも1つの対象点の2次元座標により仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を表す。
ステップ360:表示位置が前記ウィジェットにより遮蔽されている場合、ウィジェットの透明度を上げる。
端末は、仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を更新し、該表示位置とグラフィカルユーザインターフェースにおけるウィジェットの位置との遮蔽関係を判断する。仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置がウィジェットにより遮蔽されている場合、ウィジェットの第1の透明度を第2の透明度に上げ、即ち、ウィジェットの透明度を第1の透明度から第2の透明度に上げる。
例えば、第2の透明度の大きさ(即ち、ウィジェットの向上後の透明度)は様々な方法で選択されてもよい。第2の透明度の大きさは、例えば50%、60%、75%などの固定値に事前設定される。或いは、第2の透明度は、表示位置がウィジェットにより遮蔽される遮蔽レベルと正の相関関係にあり、表示位置がウィジェットにより遮蔽される遮蔽レベルが高いほど、第2の透明度が大きくなる。例えば、該遮蔽レベルは、グラフィカルユーザインターフェースにおける仮想キャラクタがウィジェットにより遮蔽される表示面積のサイズレベルを意味する。即ち、該遮蔽レベルは、グラフィカルユーザインターフェースにおける仮想キャラクタが遮蔽される遮蔽面積のサイズレベルを示す。仮想キャラクタが遮蔽される遮蔽面積は遮蔽レベルと正の相関関係にあり、仮想キャラクタがウィジェットにより遮蔽される表示面積が広いほど、遮蔽レベルが高くなる。例えば、仮想キャラクタが遮蔽される遮蔽面積のサイズレベルは、遮蔽面積の絶対値に基づいて表されてもよい。或いは、遮蔽面積のサイズレベルは、総面積に対する遮蔽面積の比率に基づいて表されてもよく、総面積は仮想キャラクタがグラフィカルユーザインターフェースに占める合計表示面積を意味する。或いは、遮蔽面積のサイズレベルは、遮蔽されている対象点の数に基づいて表されてもよく、対象点は選択された仮想キャラクタの点であり、対象点は仮想キャラクタの位置を示す。
好ましくは、ユーザがウィジェットにより遮蔽されている仮想キャラクタをより便利に観察できるように、ウィジェットの透明度を上げることに加えて、ウィジェットにより遮蔽されている仮想キャラクタにハイライト効果を追加してもよく、例えば、仮想キャラクタの輪郭を太くしてもよいし、仮想キャラクタの塗りつぶし色を暗くしてもよいし、仮想キャラクタをハイライト表示してもよい。
例えば、クライアントは、ウィジェットの透明度の変更方法を事前に設定し、或いは、ウィジェットの透明度の変更方法をカスタマイズする。ウィジェットの透明度の変更は、急激に変更されてもよく、或いは、ウィジェットの透明度の変更は、徐々に変更されてもよい。
例えば、ウィジェットの透明度の変更が急激な変更であるようにクライアントにより事前設定された場合、表示位置がウィジェットにより遮蔽されているとき、端末は、ウィジェットの透明度を第1の透明度から第2の透明度に急激に変更する。また、例えば、ユーザが個人の好みに応じてウィジェットの透明度の徐々に変更するプロセスの時間をs秒(例えば0.5秒)に設定した場合、表示位置がウィジェットにより遮蔽されているとき、端末は、s秒以内にウィジェットの透明度を第1の透明度から第2の透明度に徐々に上げる。sは正の数である。ここで、第1の透明度は、第2の透明度よりも低い。
なお、上記の「急激な変更」とは、指定期間内に透明度から他の透明度への切り替えの変更を意味する。これに対応して、端末は、ウィジェットの第1の透明度を第2の透明度に変更し、即ち、指定期間内にウィジェットの第1の透明度を第2の透明度に直接切り替え、第1の透明度と第2の透明度との間には透明度が徐々に変化する過程がない。例えば、端末は、表示位置がウィジェットにより遮蔽されていると決定し、決定の時点から0.05秒以内にウィジェットの第1の透明度を第2の透明度に切り替える。
本発明は、第2の透明度の大きさの選択及びウィジェットの透明度の変更方法に限定されない。
上述したように、本実施例に係るウィジェットの表示方法によれば、グラフィカルユーザインターフェースを表示し、仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を更新し、ウィジェットの所在領域と仮想キャラクタの表示位置との遮蔽関係を取得し、表示位置がウィジェットにより遮蔽されている場合、ウィジェットを透明にするようにウィジェットの透明度を上げることで、ユーザがウィジェットにより遮蔽されている仮想キャラクタを観察することができると共に、ウィジェットと仮想キャラクタとの上記の遮蔽関係の変化に伴ってウィジェットの透明度をリアルタイムで変更することで、ユーザの注意をよりよく引き付けることができる。
図4は、本発明のもう1つの例示的な実施例に係るウィジェットの表示方法のフローチャートである。例えば、該方法が図2に示す端末110(端末110内のクライアント)により実行されることを一例にして説明する。該方法は、以下のステップを含む。
ステップ420:仮想環境に位置する仮想キャラクタ及びウィジェットを含むグラフィカルユーザインターフェースを表示する。
ステップ420の詳細な態様は、ステップ320を参照してもよく、ここでその説明を省略する。
ステップ442:仮想キャラクタの対象点の仮想環境における3次元座標を取得する。
端末は仮想キャラクタ上の対象点を選択し、該対象点は仮想キャラクタの位置を示すために使用される。該対象点は、ウィジェットが所在する領域とともに、仮想キャラクタとウィジェットとの遮蔽関係を決定するためにも使用される。
端末は、仮想キャラクタの対象点の仮想環境における3次元座標を取得する。選択された対象点の数は、様々な態様があり、例えば1つであってもよし、3つであってもよいし、4つであってもよい。選択される対象点が多いほど、仮想キャラクタの位置表現がより正確になり、より多くのコンピューティングリソースが消費される。
選択される対象点の位置は、様々な態様があり、例えば、仮想キャラクタの頭を対象点として選択する。或いは、仮想キャラクタの頭と足の間の第1の連結線を決定し、仮想キャラクタの左手と右手との間の第2の連結線を決定し、第1の連結線と第2の連結線との交点を対象点として選択する。或いは、仮想キャラクタの輪郭上の幾つかの点を対象点として選択する。
本発明は、選択される仮想キャラクタの対象点の数及び位置に限定されない。
例えば、端末は、仮想キャラクタの3つの対象点、即ち仮想キャラクタの頭の頂点、両足の下部の連結線の中央点である足下部点、及び頭の頂点と足下部点との連結線の中央点である体中央点をそれぞれ選択する。該3つの対象点の仮想環境内の3次元座標を取得する。
例えば、端末は、仮想キャラクタ上の2つの対象点、即ち、仮想キャラクタの左手の点及び右手の点をそれぞれ選択し、該2つの対象点の仮想環境内の3次元座標を取得する。
ステップ444:変換行列に基づいて対象点の3次元座標をグラフィカルユーザインターフェースにおける表示位置にマッピングする。
端末は、対象点の仮想環境における3次元座標を取得した後、変換行列に基づいて、対象点の3次元座標を該仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置にマッピングする。
例えば、端末は、仮想環境における3次元座標をグラフィカルユーザインターフェースにおける2次元座標にマッピングする際、次の式で示される変換行列を使用してもよい。
ここで、
(外1)
はカメラの内部パラメータ行列であり、fはカメラのx軸方向の焦点距離を表し、fはカメラのy軸方向の焦点距離を表し、u及びvは何れもカメラの絞りの中心である。
ここで、
(外2)
はカメラの外部パラメータ行列であり、Rは回転行列であり、Tはオフセットベクトルである。
ここで、X、Y、Zはそれぞれ仮想キャラクタ上の対象点の仮想環境におけるx軸、y軸、z軸上の座標を表し、u及びvはそれぞれ該対象点の2次元グラフィカルユーザインターフェースにおけるu軸及びv軸を表し、Zは該対象点の仮想環境におけるカメラ座標系でのz軸座標値を表し、fはカメラの焦点距離である。
ステップ462:表示位置とウィジェットが所在する2次元領域との位置関係に基づいて、ウィジェットと表示位置との遮蔽関係を決定する。
上記のステップにおいて仮想キャラクタの2次元グラフィカルユーザインターフェースにおける表示位置が取得され、端末は、該表示位置とウィジェットが所在する2次元領域との位置関係に従って、ウィジェットと表示位置との遮蔽関係を決定する。
例えば、仮想キャラクタ上の各対象点について、端末は、対象点のグラフィカルユーザインターフェースにおける位置がウィジェットの所在する2次元領域内にあるか否かを判断する。仮想キャラクタ上の対象点の何れかがウィジェットの所在する2次元領域にある場合、端末は、表示位置がウィジェットにより遮蔽されていると判断し、仮想キャラクタ上の対象点が何れもウィジェットの所在する2次元領域にない場合、表示位置がウィジェットにより遮蔽されていないと判断する。
好ましくは、端末は、仮想キャラクタ上のn個の対象点を選択する。ここで、nは1より大きい整数である。仮想キャラクタ上のn個の対象点のうちのi個の対象点がウィジェットの所在する2次元領域内にある場合、端末は、表示位置がウィジェットにより遮蔽されていると判断する。ここで、iはn以下の正の整数である。
例えば、端末は、仮想キャラクタの3つの対象点、即ち、仮想キャラクタの頭の頂点、両足の下部の連結線の中央点である足下部点、及び頭の頂点と足下部点との連結線の中央点である体中央点をそれぞれ選択する。端末は、該3つの対象点がウィジェットの所在する2次元領域にあるか否かを判断し、3つの対象点がいずれもウィジェットの所在する2次元領域にない場合、表示位置がウィジェットにより遮蔽されていないと判断し、3つの対象点の少なくとも1つがウィジェットの所在する2次元領域にある場合、表示位置がウィジェットにより遮蔽されていると判断する。
好ましくは、端末は、仮想キャラクタ上のn個の対象点のうちのi個の対象点がウィジェットの所在する2次元領域内に位置する場合、ウィジェットと表示位置とのi番目のレベルの遮蔽関係があると決定する。例えば、上記の3つの対象点のうちの1つの対象点がウィジェットの所在する2次元領域にある場合、例えば、頭の点がウィジェットの所在する2次元領域にある場合、ウィジェットと表示位置との1番目のレベルの遮蔽関係があると判断し、3つの対象点のうちの2つの対象点がウィジェットの所在する2次元領域にある場合、例えば、頭の点及び体中央点がウィジェットの所在する2次元領域にある場合、ウィジェットと表示位置との2番目のレベルの遮蔽関係があると判断し、3つの対象点が何れもウィジェットの所在する2次元領域にある場合、ウィジェットと表示位置との3番目のレベルの遮蔽関係がある判断する。
ステップ464a:表示位置が前記ウィジェットにより遮蔽されている場合、ウィジェットの透明度を上げる。
表示位置がウィジェットにより遮蔽されている場合、端末は、ウィジェットの透明度を第1の透明度から第2の透明度に上げる。第1の透明度は第2の透明度より低く、透明度が高いほど、ウィジェットがより透明になることを意味する。
第2の透明度の高さは、様々な方法で選択されてもよい。第2の透明度を50%、60%、75%などの固定値に設定し、仮想キャラクタの表示位置が遮蔽されている場合、端末は、透明度を固定値に上げる。
或いは、第2の透明度は、表示位置がウィジェットにより遮蔽される遮蔽レベルと正の相関関係にあり、表示位置がウィジェットにより遮蔽される遮蔽レベルが高いほど、第2の透明度が高くなる。例えば、表示位置がウィジェットにより遮蔽される遮蔽レベルが仮想キャラクタの表示位置の3分の1以下である場合、第2の透明度を20%に設定し。表示位置がウィジェットにより遮蔽される遮蔽レベルが仮想キャラクタ1の表示位置の3分の1よりも大きく、且つ仮想キャラクタの表示位置の3分の2よりも小さい場合、第2の透明度を40%に設定し、表示位置がウィジェットにより遮蔽される遮蔽レベルが仮想キャラクタの表示位置の3分の2以上である場合、第2の透明度を60%に設定する。
好ましくは、i番目のレベルの遮蔽関係とi番目のレベルの透明度との対応関係を事前設定する。端末は、対応関係からi番目のレベルの遮蔽関係に対応するi番目のレベルの透明度を照会し、該i番目のレベルの透明度を第2の透明度として決定する。該対応関係は、異なる遮蔽関係と異なる透明度との対応関係を含む。その後、端末は、第1の透明度を第2の透明度に上げる。
例えば、端末は、仮想キャラクタの3つの対象点、即ち、仮想キャラクタの頭の頂点、両足の下部の連結線の中央点である足中央点、及び頭の頂点と足の下部の点との連結線の中央点である体中央点をそれぞれ選択する。遮蔽関係と透明度との対応関係は、次の表のように設定される。
3つの対象点のうちの1つの対象点がウィジェットの所在する2次元領域にある場合、端末は、ウィジェットと表示位置との1番目のレベルの遮蔽関係があると判断し、遮蔽関係と透明度との対応関係を照会した後、第2の透明度が25%であると決定する。3つの対象点のうち2つの対象点がウィジェットの所在する2次元領域にある場合、ウィジェットと表示位置との2番目のレベルの遮蔽関係があると判断し、遮蔽関係と透明度との対応関係を照会した後、第2の透明度が50%であると決定する。3つの対象点が何れもウィジェットの所在する2次元領域にある場合、ウィジェットと表示位置との3番目のレベルの遮蔽関係があると判断し、遮蔽関係と透明度との対応関係を照会した後、第2の透明度が75%であると決定する。
端末がウィジェットの透明度を第1の透明度から第2の透明度に上げるプロセスは、急激に上げてもよいし、徐々に上げてもよい。クライアントの開発者及びユーザは、急激な変化効果を設定してもよいし、急激な変化効果を設定せずに、透明度を徐々に変化させるためのプロセス時間を例えば0.5秒、1秒などに設定してもよい。
本発明は、ウィジェットの透明度の高さ及び透明度を変更するプロセスに限定されない。
好ましくは、ユーザがウィジェットにより遮蔽されている仮想キャラクタをより便利に観察できるように、ウィジェットの透明度を上げることに加えて、ウィジェットにより遮蔽されている仮想キャラクタにハイライト効果を追加してもよく、例えば、仮想キャラクタの輪郭を太くしてもよいし、仮想キャラクタの塗りつぶし色を暗くしてもよいし、仮想キャラクタをハイライト表示してもよい。
ステップ464b:表示位置がウィジェットにより遮蔽されていない場合、ウィジェットの透明度を下げる。
端末は、ウィジェットの透明度を第1の透明度から第2の透明度に上げた後、ウィジェットによる仮想キャラクタの遮蔽状況をリアルタイムで監視する。仮想キャラクタの表示位置がウィジェットにより遮蔽されていない場合、仮想キャラクタを見えるように透明度を上げる必要がないため、ウィジェットの透明度を元の第1の透明度に戻す。
例えば、仮想キャラクタの対象点が何れもウィジェットの所在する領域に位置しない場合、端末は、表示位置がウィジェットにより遮蔽されていないと判断し、ウィジェットの透明度を第1の透明度に下げる。
第1の透明度の高さは、事前設定された透明度の初期値、例えば0%、5%、10%などである。本発明は、第1の透明度の高さに限定されない。
端末がウィジェットの透明度を第2の透明度から第1の透明度に下げるプロセスは、急激に下げてもよいし、徐々に下げてもよい。クライアントの開発者及びユーザは、急激な変化効果を設定してもよい。例えば、表示位置がウィジェットにより遮蔽されていない場合、端末は、ウィジェットの透明度を第2の透明度から第1の透明度に急激に下げる。或いは、急激な変化効果を設定せずに、透明度を徐々に変化させるためのプロセス時間を例えば0.5秒、1秒などに設定してもよい。例えば、表示位置がウィジェットにより遮蔽されていない場合、端末は、ウィジェットの透明度を第2の透明度から第1の透明度に徐々に下げる。
例えば、端末は、仮想キャラクタ上のn個の対象点を選択する。仮想キャラクタ上のn個の対象点のうちのi個の対象点がウィジェットの所在する2次元領域にある場合、ウィジェットと表示位置とのi番目のレベルの遮蔽関係があると判断する。対応関係からi番目のレベルの遮蔽関係に対応するi番目の透明度を照会し、i番目の透明度を中間透明度として決定し、ウィジェットの透明度を第2の透明度から中間透明度に下げ、ウィジェットの所在する2次元領域内に対象点が存在しなくなるまで、ウィジェットの透明度を最初の第1の透明度に下げる。
もう1つの態様では、端末でのウィジェットの透明度は最初の第1の透明度であり、ウィジェットによる仮想キャラクタの遮蔽状況をリアルタイムで監視し、仮想キャラクタの表示位置がウィジェットにより遮蔽されていない場合、仮想キャラクタを見えるように透明度を上げる必要がないため、ウィジェットの透明度を変更しない。
例えば、図5に示すように、端末は、仮想キャラクタ上の2つの対象点、即ち、仮想キャラクタの左手の点及び右手の点をそれぞれ選択する。第1の透明度は0%に事前設定されており、1番目のレベルの遮蔽に対応する1番目のレベルの透明度は50%であり、2番目のレベルの遮蔽に対応する2番目のレベルの透明度は80%である。グラフィカルユーザインターフェース710乃至グラフィカルユーザインターフェース740は、それぞれ、短い時間間隔で4つの時点で取り込まれたグラフィカルユーザインターフェースである。左上隅のグラフィカルユーザインターフェース710に示される位置関係では、仮想キャラクタ34がウィジェット33により遮蔽されておらず、ウィジェット33の透明度は0%である。右上隅のグラフィカルユーザインターフェース720に示される位置関係では、ウィジェット33と仮想キャラクタ34との遮蔽関係は1番目のレベルの遮蔽であり、ウィジェット33の透明度を第2の透明度50%に上げる。右下隅のグラフィカルユーザインターフェース730に示される位置関係では、ウィジェット33と仮想キャラクタ34との遮蔽関係は2番目のレベルの遮蔽であり、ウィジェット33の透明度を第2の透明度80%に上げる。左下隅のグラフィカルユーザインターフェース740に示される位置関係では、仮想キャラクタ34がウィジェット33により遮蔽されておらず、ウィジェット33の透明度を第1の透明度0%に下げる。
例えば、図6に示すように、端末は、仮想キャラクタ上の2つの対象点、即ち、仮想キャラクタの左手の点及び右手の点をそれぞれ選択する。第1の透明度は0%に事前設定されており、1番目のレベルの遮蔽に対応する1番目のレベルの透明度は50%であり、2番目のレベルの遮蔽に対応する2番目のレベルの透明度は80%である。グラフィカルユーザインターフェース830乃至グラフィカルユーザインターフェース810は、それぞれ、短い時間間隔で3つの時点で取り込まれたグラフィカルユーザインターフェースである。右下隅のグラフィカルユーザインターフェース830に示される位置関係では、ウィジェット44と仮想キャラクタ43との遮蔽関係は2番目のレベルの遮蔽であり、ウィジェット44の第2の透明度は80%である。右上隅のグラフィカルユーザインターフェース820に示される位置関係では、ウィジェット44と仮想キャラクタ43との遮蔽関係は1番目のレベルの遮蔽であり、ウィジェット44の透明度を50%の中間透明度に下げる。左上隅のグラフィカルユーザインターフェース810に示される位置関係では、仮想キャラクタ43がウィジェット44により遮蔽されておらず、ウィジェット44の透明度を第1の透明度0%に下げる。
幾つかの実施例では、端末は、ウィジェットの透明度を増加させた後、ウィジェットの上方のフローティング位置においてトリガされた接近操作に応じて、ウィジェットの透明度を下げる。即ち、端末装置は、ウィジェットの透明度を上げた後、指がウィジェットの上方に接近することを検出した場合、ユーザが該ウィジェットを使用しようとしていることを意味し、ユーザが該ウィジェットをより明確に見ることができるように、ウィジェットの透明度を第2の透明度から第3の透明度に下げる。
端末がウィジェットの透明度を第2の透明度から第3の透明度に下げるプロセスは、急激に変更してもよいし、徐々に変更してもよい。例えば、第3の透明度は、指とスクリーンとの間の垂直距離に伴って変化し、第3の透明度と垂直距離とは正の相関関係にある。端末は、指とスクリーンとの間の垂直距離を決定し、該垂直距離と透明度とのマッピング関係に基づいて第3の透明度を決定する。例えば、第3の透明度は、第1の透明度を含んでもよい。
上述したように、本実施例に係るウィジェットの表示方法は、グラフィカルユーザインターフェースを表示し、取得された仮想キャラクタ上の対象点の3次元座標をグラフィカルユーザインターフェースにおける表示位置にマッピングし、表示位置とウィジェットの所在する2次元領域との位置関係に基づいてウィジェットの透明度を変更する。該方法は、ユーザがウィジェットにより遮蔽されている仮想キャラクタを観察することができるウィジェットの表示方法を提供する。また、該方法では、仮想キャラクタ上の少なくとも1つの対象点を選択し、対象点の3次元座標を2次元座標に変換し、仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を示すことで、仮想キャラクタの輪郭全体に対する投影計算を回避し、コンピューティングリソースを節約することができる。この方法では、第2の透明度の選択はウィジェットによる表示位置の遮蔽レベルと正の相関関係にあり、表示位置を大きく遮蔽するウィジェットについて、高い透明度を選択することで、ユーザが遮蔽レベルの高いキャラクタをよりよく観察することができると共に、ウィジェットの透明度を動的に変更することで、ユーザの遮られた仮想キャラクタの動き状況に対する注意を引き付けることができる。
図7は、本発明のもう1つの例示的な実施例に係るウィジェットの表示方法のフローチャートである。該実施例では、MOBAゲームの対戦インターフェースをグラフィカルユーザインターフェースの一例とし、ミニマップをウィジェットの一例とし、敵ヒーローを仮想キャラクタの一例とし、第2の透明度を50%に設定することを一例として、ウィジェットの表示方法の実行プロセスを示している。該方法が図2に示す端末110(端末110内のクライアント)により実行されることを一例にして説明する。該方法は、以下のステップを含む。
ステップ510:ミニマップをロードする。
端末、はゲームの対戦インターフェースを表示し、対戦においてミニマップをロードする。図1のグラフィカルユーザインターフェースに示されるように、対戦インターフェースの左上隅にミニマップが表示される。
ステップ512:ミニマップの画面における矩形領域のデータをバッファリングする。
端末は、ミニマップが所在する2次元の矩形領域の位置データをバッファリングする。例えば、端末は、ミニマップの左下隅と右上隅の2点の位置座標をバッファリングし、該2点の位置座標に基づいて、ミニマップが所在する2次元の矩形領域の位置を取得できます。
ステップ514:フレームごとに敵のヒーローの仮想環境における位置を更新する。
敵のヒーローが仮想環境内で常に移動するため、端末は、各フレームの更新頻度に応じて敵のヒーローの仮想環境における位置を取得する。
例えば、端末は、敵のヒーローの3つの対象点、即ち、敵のヒーローの頭の頂点、足の下部の連結線の中央点である足下部点、及び頭の頂点と足下部点との連結線の中央点である体中央点をそれぞれ選択する。端末は、各フレームの更新頻度に応じて、該3つの対象点の仮想環境内の3次元座標を取得する。
ステップ516:敵のヒーローのグラフィカルユーザインターフェースにおける表示位置を計算する。
端末は、取得された敵ヒーローの仮想環境における位置を、敵ヒーローのグラフィカルユーザインターフェースにおける表示位置に変換する。
例えば、端末は、敵のヒーロー上の3つの対象点の3次元座標をグラフィカルユーザインターフェースにおける2次元座標にマッピングし、該3つの対象点の2次元座標を使用して敵のヒーローのグラフィカルユーザインターフェースにおける表示位置を示す。
ステップ518:敵のヒーローとミニマップとの遮蔽関係を判断する。
端末は、敵ヒーローの対象点の2次元座標とミニマップの所在する2次元領域について1つずつ判断する。敵ヒーローの対象点の何れかがミニマップの所在する2次元領域内にある場合、敵のヒーローがミニマップにより遮蔽されていると判断し、敵のヒーローの対象点が何れもミニマップの所在する2次元領域にない場合、敵のヒーローがミニマップにより遮蔽されていないと判断する。
敵のヒーローがミニマップにより遮蔽されている場合、ステップ520aを実行する。敵のヒーローがミニマップにより遮蔽されていない場合、ステップ520bを実行する。
ステップ520a:透明度の急激変更効果が設定されているか否かを判断する。
敵のヒーローがミニマップにより遮蔽されている場合、端末は、ミニマップの透明度を第2の透明度の50%に増加させる。例えば、端末は、透明度の急激変更効果が設定されているか否かを判断し、透明度の急激変更効果が設定されている場合、ステップ522aを実行し、透明度の急激変更効果が設定されていない場合、ステップ522bを実行する。
好ましくは、ミニマップの透明度を増加させることに加えて、ユーザがウィジェットにより遮蔽されている仮想キャラクタをより便利に観察できるように、端末は、ウィジェットにより遮蔽されている敵のヒーローにハイライト効果を追加してもよく、例えば、敵のヒーローの輪郭を太くしてもよいし、敵のヒーローの塗りつぶし色を暗くしてもよい。
ステップ520b:ミニマップの透明度をリセットする。
敵のヒーローがミニマップにより遮蔽されていない場合、端末は、ミニマップの透明度を初期値にリセットする。初期値は、事前設定された透明度であり、例えば0%、5%、10%などであってもよい。
ステップ522a:ミニマップの透明度を50%に急激に変更する。
敵のヒーローがミニマップにより遮蔽されており、且つ透明度の急激変更効果が設定されている場合、端末は、ミニマップの透明度を50%に急激に変更する。
ステップ522b:ミニマップの透明度を50%に徐々に変更する。
敵のヒーローがミニマップにより遮蔽されており、且つ透明度の急激変更効果が設定されていない場合、端末は、ミニマップの透明度を50%に徐々に変更する。事前設定された透明度の徐々に変化する時間に基づいて、透明度を徐々に変更するプロセスは、0.5秒、0.8秒、1秒などであってもよい。
上述したように、本実施例に係るウィジェットの表示方法は、ミニマップの位置データをバックアップし、それとフレームごとに更新された敵のヒーロー上の対象点の位置との遮蔽関係を判断する。敵ヒーローの対象点が何れもミニマップの所在領域内にないと判断された場合、ミニマップの透明度を初期値にリセットし、敵ヒーローの対象点の何れかがミニマップの所在領域内にあると判断された場合、ミニマップの透明度を第2の透明度に増加させる。本実施例に係るウィジェットの表示方法によれば、遮蔽されている仮想キャラクタを見ることができると共に、仮想キャラクタ上の対象点を用いて仮想キャラクタの位置を示すことで、コンピューティングリソースを節約することができる。
以下は、本発明の実施例に係る方法を実行できる本発明の実施例に係る装置を説明する。本発明の装置の実施例に開示されていない詳細は、本発明の方法の実施例を参照してもよい。
図8は、本発明の1つの例示的な実施例に係るウィジェットの表示装置の構成のブロック図である。該装置は、以下のモジュールを含む。
表示モジュール620は、仮想環境に位置する仮想キャラクタ及びウィジェットを含むグラフィカルユーザインターフェースを表示する。
更新モジュール640は、仮想キャラクタの仮想環境における動作に伴い、仮想キャラクタのグラフィカルユーザインターフェースにおける表示位置を更新する。
透明度変更モジュール660は、表示位置がウィジェットにより遮蔽されている場合、ウィジェットの透明度を上げる。
1つの好ましい態様では、透明度変更モジュール660は、表示位置がウィジェットにより遮蔽されている場合、ウィジェットの透明度を第1の透明度から第2の透明度に急激に上げ、第1の透明度は前記第2の透明度よりも低い。或いは、透明度変更モジュール660は、表示位置がウィジェットにより遮蔽されている場合、ウィジェットの透明度を第1の透明度から第2の透明度に徐々に上げ、第1の透明度は第2の透明度よりも低い。
1つの好ましい態様では、ウィジェットの向上後の透明度は、表示位置がウィジェットにより遮蔽される遮蔽レベルと正の相関関係にあり、遮蔽レベルは、グラフィカルユーザインターフェースにおける仮想キャラクタが遮蔽される遮蔽面積のサイズレベルを示す。
1つの好ましい態様では、更新モジュール640は、仮想キャラクタの対象点の仮想環境における3次元座標を取得する。更新モジュール640は、変換行列に基づいて3次元座標を表示位置にマッピングする。透明度変更モジュール660は、表示位置とウィジェットが所在する2次元領域との位置関係に基づいて、ウィジェットと表示位置との遮蔽関係を決定する。
1つの好ましい態様では、対象点がn個あり、nは1より大きい整数である。透明度変更モジュール660は、仮想キャラクタのn個の対象点のうちのi個の対象点がウィジェットの所在する2次元領域内に位置する場合、表示位置がウィジェットにより遮蔽されていると決定し、iはn以下の正の整数である。
1つの好ましい態様では、透明度変更モジュール660は、i個の対象点がウィジェットの所在する2次元領域内に位置する場合、ウィジェットと表示位置とのi番目のレベルの遮蔽関係があると決定し、対応関係からi番目のレベルの遮蔽関係に対応するi番目のレベルの透明度を照会し、対応関係は、異なる遮蔽関係と異なる透明度との対応関係を含み、i番目のレベルの透明度を第2の透明度として決定する。
1つの好ましい態様では、透明度変更モジュール660は、表示位置がウィジェットにより遮蔽されていない場合、ウィジェットの透明度を下げる。
1つの好ましい態様では、透明度変更モジュール660は、表示位置がウィジェットにより遮蔽されていない場合、ウィジェットの透明度を第2の透明度から第1の透明度に急激に下げ、前記第1の透明度は前記第2の透明度よりも低く、或いは、表示位置がウィジェットにより遮蔽されていない場合、ウィジェットの透明度を第2の透明度から第1の透明度に徐々に下げ、第1の透明度は第2の透明度よりも低い。
1つの好ましい態様では、透明度変更モジュール660は、ウィジェットの上方のフローティング位置においてトリガされた接近操作に応じて、ウィジェットの透明度を下げる。
図9は、本発明の1つの例示的な実施例に係るコンピュータ機器のブロック図である。該コンピュータ機器は、端末を含んでもよい。端末1300は、中央処理ユニット(Central Processing Unit:CPU)1301、ランダムアクセスメモリ(Random Access Memory:RAM)1302及び読み取り専用メモリ(Read-Only Memory:ROM)1303を含むシステムメモリ1304、並びにシステムメモリ1304及び中央処理ユニット1301に接続されるシステムバス1305を含む。コンピュータ機器1300は、コンピュータ内の各デバイス間で情報を伝送するための基本的な入力/出力(Input/Output:I/O)システム1306、並びにオペレーティングシステム1313、アプリケーションプログラム1314及び他のプログラムモジュール1315を記憶するための大容量記憶装置1307をさらに含む。
基本的な入力/出力システム1306は、情報を表示するためのディスプレイ1308、ユーザが情報を入力するためのマウス、キーボードなどの入力装置1309を含む。ディスプレイ1308及び入力装置1309は、何れもシステムバス1305に接続された入力/出力コントローラ1310を介して中央処理ユニット1301に接続されている。基本的な入力/出力システム1306は、キーボード、マウス、又は電子スタイラスなどの他の複数のデバイスからの入力を受信及び処理するための入力/出力コントローラ1310をさらに含んでもよい。同様に、入力/出力コントローラ1310は、表示画面、プリンタ、又は他のタイプの出力装置への出力をさらに提供する。
大容量記憶装置1307は、システムバス1305に接続された大容量記憶コントローラ(図示せず)を介して中央処理ユニット1301に接続されている。大容量記憶装置1307及びそれに関連するコンピュータ読み取り可能な媒体は、コンピュータ機器1300に不揮発性ストレージを提供する。即ち、大容量記憶装置1307は、ハードディスク又はコンパクトディスク読み取り専用メモリ(Compact Disc Read-Only Memory:CD-ROM)ドライブなどのコンピュータ読み取り可能な媒体(図示せず)を含んでもよい。
なお、コンピュータ読み取り可能な媒体は、コンピュータ記憶媒体及び通信媒体を含んでもよい。コンピュータ記憶媒体は、例えばコンピュータ読み取り可能な命令、データ構造、プログラムモジュール、又はその他のデータなどの情報を記憶するための任意の方法又は技術で実現される揮発性及び不揮発性、取り外し可能及び取り外し不可能な媒体を含む。コンピュータ記憶媒体は、RAM、ROM、消去可能プログラム可能読み取り専用メモリ(Erasable Programmable Read-Only Memory:EPROM)、電気的消去可能プログラム可能読み取り専用メモリ(英語:電気的消去可能プログラム可能読み取り専用メモリ(Electrically Erasable Programmable Read-Only Memory:EEPROM)、フラッシュメモリ又はその他のソリッドステートストレージテクノロジ、CD-ROM、デジタル多用途ディスク(Digital Versatile Disc:DVD)又はその他の光ストレージ、テープカートリッジ、磁気テープ、ディスクストレージ、又はその他の磁気ストレージデバイスを含む。なお、当業者が分かるように、コンピュータ記憶媒体は上記のものに限定されない。上記のシステムメモリ1304及び大容量記憶装置1307は、メモリと総称されてもよい。
本発明の各実施例では、コンピュータ機器1300は、さらに、動作するために、インターネットなどのネットワークを介してネットワーク上の遠隔コンピュータに接続されてもよい。即ち、コンピュータ機器1300は、システムバス1305に接続されたネットワークインターフェースユニット1311を介してネットワーク1312に接続されてもよく、言い換えれば、ネットワークインターフェースユニット1311を用いて他のタイプのネットワーク又はリモートコンピュータシステム(図示せず)に接続されてもよい。
また、メモリは1つ以上のプログラムをさらに含み、1つ以上のプログラムはメモリに記憶され、中央処理ユニット1301は、1つ以上のプログラムを実行することにより、上記ウィジェットの表示方法のステップの全部又は一部を実行する。
例示的な実施例では、コンピュータ読み取り可能な記憶媒体をさらに提供し、コンピュータ読み取り可能な記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セット、少なくとも1つの命令、少なくとも1つのプログラム、コードセットの又は命令セットが記憶されている。上記の各実施例に係るウィジェットの表示方法を実施するために、プロセッサにより該命令などがロードされて実行される。
例示的な実施例では、コンピュータプログラムプロダクト又はコンピュータプログラムをさらに提供する。該コンピュータプログラムプロダクト又はコンピュータプログラムは、コンピュータ命令を含み、該コンピュータ命令はコンピュータ読み取り可能な記憶媒体に記憶されている。コンピュータ機器のプロセッサは、コンピュータ読み取り可能な記憶媒体からコンピュータ命令を読み取って実行することで、該コンピュータ機器が上記の各実施例に係るウィジェットの表示方法を実行する。
当業者が理解できるように、上記の実施例のステップの全部又は一部は、ハードウェアにより実現されてもよいし、関連するハードウェアが実行するようにプログラムを介して指示することで実現されてもよい。該プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてもよい。上述した記憶媒体は、読み取り専用メモリ、磁気ディスク又は光ディスクなどであってもよい。
以上は、単に本発明の例示的な実施例を説明し、本発明を制限するものではない。本発明の主旨及び原則の範囲内で行われる変更、均等的な置換、改良などは、本発明の保護範囲内に含まれる。

Claims (13)

  1. コンピュータ機器が実行する、ウィジェットの表示方法であって、
    仮想環境に位置する仮想キャラクタ及びウィジェットを含むグラフィカルユーザインターフェースを表示するステップと、
    前記仮想キャラクタの前記仮想環境における動作に伴い、前記仮想キャラクタの前記グラフィカルユーザインターフェースにおける表示位置を更新するステップと、
    前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を上げるステップと、を含
    前記仮想キャラクタの対象点の前記仮想環境における3次元座標を取得するステップと、
    変換行列に基づいて前記3次元座標を前記表示位置にマッピングするステップと、
    前記表示位置と前記ウィジェットが所在する2次元領域との位置関係に基づいて、前記ウィジェットと前記表示位置との遮蔽関係を決定するステップと、をさらに含み、
    前記対象点がn個あり、nは1より大きい整数であり、
    前記表示位置と前記ウィジェットが所在する2次元領域との位置関係に基づいて、前記ウィジェットと前記表示位置との遮蔽関係を決定するステップは、
    前記仮想キャラクタのn個の対象点のうちのi個の対象点が前記ウィジェットの所在する2次元領域内に位置する場合、前記表示位置が前記ウィジェットにより遮蔽されていると決定するステップであって、iはn以下の正の整数である、ステップ、を含み、
    前記仮想キャラクタのn個の対象点のうちのi個の対象点が前記ウィジェットの所在する2次元領域内に位置する場合、前記表示位置が前記ウィジェットにより遮蔽されていると決定するステップは、
    前記i個の対象点が前記ウィジェットの所在する2次元領域内に位置する場合、前記ウィジェットと前記表示位置とのi番目のレベルの遮蔽関係があると決定するステップ、を含み、
    前記ウィジェットの表示方法は、
    対応関係から前記i番目のレベルの遮蔽関係に対応するi番目のレベルの透明度を照会するステップであって、前記対応関係は、異なる遮蔽関係と異なる透明度との対応関係を含む、ステップと、
    前記i番目のレベルの透明度を、透明度を上げた後の前記ウィジェットの透明度として決定するステップと、をさらに含む、方法。
  2. 前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を上げるステップは、
    前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を第1の透明度から第2の透明度に急激に上げるステップであって、前記第1の透明度は前記第2の透明度よりも低い、ステップ、又は、
    前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を前記第1の透明度から前記第2の透明度に徐々に上げるステップであって、前記第1の透明度は前記第2の透明度よりも低い、ステップ、を含む、請求項1に記載の方法。
  3. 前記ウィジェットの向上後の透明度は、前記表示位置が前記ウィジェットにより遮蔽される遮蔽レベルと正の相関関係にあり、
    前記遮蔽レベルは、前記グラフィカルユーザインターフェースにおける前記仮想キャラクタが遮蔽される遮蔽面積のサイズレベルを示す、請求項1又は2に記載の方法。
  4. 前記表示位置が前記ウィジェットにより遮蔽されていない場合、前記ウィジェットの透明度を下げるステップ、をさらに含む、請求項1乃至の何れかに記載の方法。
  5. 前記表示位置が前記ウィジェットにより遮蔽されていない場合、前記ウィジェットの透明度を下げるステップは、
    前記表示位置が前記ウィジェットにより遮蔽されていない場合、前記ウィジェットの透明度を第2の透明度から第1の透明度に急激に下げるステップであって、前記第1の透明度は前記第2の透明度よりも低い、ステップ、又は、
    前記表示位置が前記ウィジェットにより遮蔽されていない場合、前記ウィジェットの透明度を前記第2の透明度から前記第1の透明度に徐々に下げるステップであって、前記第1の透明度は前記第2の透明度よりも低い、ステップ、を含む、請求項に記載の方法。
  6. 前記ウィジェットの透明度を上げた後、
    前記ウィジェットの上方のフローティング位置においてトリガされた接近操作に応じて、前記ウィジェットの透明度を下げるステップ、を含む、請求項1乃至の何れかに記載の方法。
  7. ウィジェットの表示装置であって、
    仮想環境に位置する仮想キャラクタ及びウィジェットを含むグラフィカルユーザインターフェースを表示する表示モジュールと、
    前記仮想キャラクタの前記仮想環境における動作に伴い、前記仮想キャラクタの前記グラフィカルユーザインターフェースにおける表示位置を更新する更新モジュールと、
    前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を上げる透明度変更モジュールと、を含
    前記更新モジュールは、前記仮想キャラクタの対象点の前記仮想環境における3次元座標を取得し、
    前記更新モジュールは、変換行列に基づいて前記3次元座標を前記表示位置にマッピングし、
    前記透明度変更モジュールは、前記表示位置と前記ウィジェットが所在する2次元領域との位置関係に基づいて、前記ウィジェットと前記表示位置との遮蔽関係を決定し、
    前記対象点がn個あり、nは1より大きい整数であり、
    前記透明度変更モジュールは、前記仮想キャラクタのn個の対象点のうちのi個の対象点が前記ウィジェットの所在する2次元領域内に位置する場合、前記表示位置が前記ウィジェットにより遮蔽されていると決定し、iはn以下の正の整数であり、
    前記透明度変更モジュールは、
    前記i個の対象点が前記ウィジェットの所在する2次元領域内に位置する場合、前記ウィジェットと前記表示位置とのi番目のレベルの遮蔽関係があると決定し、
    対応関係から前記i番目のレベルの遮蔽関係に対応するi番目のレベルの透明度を照会し、前記対応関係は、異なる遮蔽関係と異なる透明度との対応関係を含み、
    前記i番目のレベルの透明度を、透明度を上げた後の前記ウィジェットの透明度として決定する、装置。
  8. 前記透明度変更モジュールは、前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を第1の透明度から第2の透明度に急激に上げ、前記第1の透明度は前記第2の透明度よりも低く、或いは、
    前記透明度変更モジュールは、前記表示位置が前記ウィジェットにより遮蔽されている場合、前記ウィジェットの透明度を前記第1の透明度から前記第2の透明度に徐々に上げ、前記第1の透明度は前記第2の透明度よりも低い、請求項に記載の装置。
  9. 前記ウィジェットの向上後の透明度は、前記表示位置が前記ウィジェットにより遮蔽される遮蔽レベルと正の相関関係にあり、
    前記遮蔽レベルは、前記グラフィカルユーザインターフェースにおける前記仮想キャラクタが遮蔽される遮蔽面積のサイズレベルを示す、請求項又はに記載の装置。
  10. 前記透明度変更モジュールは、前記表示位置が前記ウィジェットにより遮蔽されていない場合、前記ウィジェットの透明度を下げる、請求項乃至の何れかに記載の装置。
  11. 前記透明度変更モジュールは、
    前記表示位置が前記ウィジェットにより遮蔽されていない場合、前記ウィジェットの透明度を第2の透明度から第1の透明度に急激に下げ、前記第1の透明度は前記第2の透明度よりも低く、或いは、
    前記表示位置が前記ウィジェットにより遮蔽されていない場合、前記ウィジェットの透明度を前記第2の透明度から前記第1の透明度に徐々に下げ、前記第1の透明度は前記第2の透明度よりも低い、請求項10に記載の装置。
  12. プロセッサと、プロセッサに接続されたメモリと、前記メモリに記憶されたプログラム命令と、を含むコンピュータ機器であって、前記プロセッサは、前記プログラム命令を実行する際に、請求項1乃至の何れかに記載のウィジェットの表示方法を実現する、コンピュータ機器。
  13. コンピュータ読み取り可能な記憶媒体に記憶されたコンピュータ命令を含むコンピュータプログラムであって、
    コンピュータ機器のプロセッサは、前記コンピュータ読み取り可能な記憶媒体から前記コンピュータ命令を読み取り、前記プロセッサは、請求項1乃至の何れかに記載のウィジェットの表示方法を前記コンピュータ機器に実行させるように、前記コンピュータ命令を実行する、コンピュータプログラム。
JP2022562117A 2021-05-14 2021-10-20 ウィジェットの表示方法、装置、機器及びコンピュータプログラム Active JP7434601B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110526827.6A CN113134233B (zh) 2021-05-14 2021-05-14 控件的显示方法、装置、计算机设备及存储介质
CN202110526827.6 2021-05-14
PCT/CN2021/125076 WO2022237072A1 (zh) 2021-05-14 2021-10-20 控件的显示方法、装置、设备、介质及程序产品

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024016818A Division JP2024054232A (ja) 2021-05-14 2024-02-07 ウィジェットの表示方法、装置、機器及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2023528574A JP2023528574A (ja) 2023-07-05
JP7434601B2 true JP7434601B2 (ja) 2024-02-20

Family

ID=83998584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022562117A Active JP7434601B2 (ja) 2021-05-14 2021-10-20 ウィジェットの表示方法、装置、機器及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20220365634A1 (ja)
EP (1) EP4112143A4 (ja)
JP (1) JP7434601B2 (ja)
KR (1) KR20220155423A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006068138A (ja) 2004-08-31 2006-03-16 Nintendo Co Ltd ゲーム装置および画像処理プログラム
JP2009201667A (ja) 2008-02-27 2009-09-10 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム制御方法、及び、プログラム
US20170043251A1 (en) 2014-04-23 2017-02-16 King.Com Limited Opacity method and device therefor
WO2020066682A1 (ja) 2018-09-28 2020-04-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046254B2 (en) * 2002-01-28 2006-05-16 International Business Machines Corporation Displaying transparent resource aids
US7480873B2 (en) * 2003-09-15 2009-01-20 Sun Microsystems, Inc. Method and apparatus for manipulating two-dimensional windows within a three-dimensional display model
JP4534922B2 (ja) * 2005-09-16 2010-09-01 株式会社デンソー 仮想先行車画像表示システム
JP5154775B2 (ja) * 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
KR101333065B1 (ko) * 2007-07-04 2013-11-27 삼성전자주식회사 화면 속 화면을 이용한 방송데이터 표시방법 및 장치
JP4933406B2 (ja) * 2007-11-15 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法
CN102844733A (zh) * 2010-02-26 2012-12-26 喀普康有限公司 计算机装置、存储介质以及控制方法
US8411092B2 (en) * 2010-06-14 2013-04-02 Nintendo Co., Ltd. 2D imposters for simplifying processing of plural animation objects in computer graphics generation
US9411509B2 (en) * 2010-12-29 2016-08-09 Microsoft Technology Licensing, Llc Virtual controller for touch display
JP5978530B2 (ja) * 2012-06-01 2016-08-24 任天堂株式会社 ゲームシステム、ゲーム制御方法、ゲーム装置およびゲームプログラム
KR20140043948A (ko) * 2012-08-30 2014-04-14 현대엠엔소프트 주식회사 내비게이션 장치 및 화면 표시 방법
US20170039867A1 (en) * 2013-03-15 2017-02-09 Study Social, Inc. Mobile video presentation, digital compositing, and streaming techniques implemented via a computer network
KR102110193B1 (ko) * 2013-03-25 2020-05-13 삼성전자주식회사 기기의 화면제어장치 및 방법
JP5733342B2 (ja) * 2013-06-19 2015-06-10 富士ゼロックス株式会社 表示制御装置およびプログラム
KR102187255B1 (ko) * 2013-09-30 2020-12-04 삼성전자주식회사 전자 장치의 디스플레이 방법 및 그 전자 장치
US9392217B2 (en) * 2014-03-20 2016-07-12 Blackberry Limited Automatically relocating picture-in-picture window in video calls
US9503686B2 (en) * 2014-10-31 2016-11-22 Bank Of America Corporation Review bucket for video conferences
US10108991B2 (en) * 2014-10-31 2018-10-23 Bank Of America Corporation Instant customer service feedback system
CN105787402B (zh) * 2014-12-16 2019-07-05 阿里巴巴集团控股有限公司 一种信息展示方法及装置
US10671277B2 (en) * 2014-12-17 2020-06-02 Datalogic Usa, Inc. Floating soft trigger for touch displays on an electronic device with a scanning module
CN104915564B (zh) * 2015-06-16 2017-03-22 深圳市腾讯计算机系统有限公司 实现虚拟角色转弯的方法和装置
US10168798B2 (en) * 2016-09-29 2019-01-01 Tower Spring Global Limited Head mounted display
US11416975B2 (en) * 2016-10-21 2022-08-16 Sony Interactive Entertainment Inc. Information processing apparatus
KR20180074070A (ko) * 2016-12-23 2018-07-03 현대자동차주식회사 차량, 및 그 제어방법
CN107741819B (zh) * 2017-09-01 2018-11-23 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107890664A (zh) * 2017-10-23 2018-04-10 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
US11145096B2 (en) * 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
US11803628B2 (en) * 2019-06-21 2023-10-31 Magic Leap, Inc. Secure authorization via modal window
US20210360372A1 (en) * 2020-05-18 2021-11-18 Apple Inc. User interfaces for viewing and refining the current location of an electronic device
US11351457B2 (en) * 2020-09-11 2022-06-07 Riot Games, Inc. Selecting an anchored offset targeting position

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006068138A (ja) 2004-08-31 2006-03-16 Nintendo Co Ltd ゲーム装置および画像処理プログラム
JP2009201667A (ja) 2008-02-27 2009-09-10 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム制御方法、及び、プログラム
US20170043251A1 (en) 2014-04-23 2017-02-16 King.Com Limited Opacity method and device therefor
WO2020066682A1 (ja) 2018-09-28 2020-04-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
EP4112143A1 (en) 2023-01-04
US20220365634A1 (en) 2022-11-17
JP2023528574A (ja) 2023-07-05
EP4112143A4 (en) 2023-01-11
KR20220155423A (ko) 2022-11-22

Similar Documents

Publication Publication Date Title
TWI792674B (zh) 控制項的顯示方法與裝置、電腦設備、電腦可讀存儲介質及電腦程式產品
JP7447296B2 (ja) 仮想道具のインタラクティブ処理方法、装置、電子機器及びコンピュータプログラム
KR102645535B1 (ko) 가상 장면에서의 가상 객체 제어 방법 및 장치, 디바이스 그리고 저장 매체
KR20220083803A (ko) 가상 장면의 상태 스위칭을 위한 방법, 장치, 매체 및 프로그램 제품
WO2021238870A1 (zh) 信息显示方法、装置、设备及存储介质
US20230072503A1 (en) Display method and apparatus for virtual vehicle, device, and storage medium
TWI804032B (zh) 虛擬場景中的資料處理方法、裝置、設備、儲存媒體及程式產品
CN112121414B (zh) 虚拟场景中的追踪方法、装置、电子设备及存储介质
CN112057860B (zh) 虚拟场景中激活操作控件的方法、装置、设备及存储介质
CN112295228B (zh) 虚拟对象的控制方法、装置、电子设备及存储介质
KR20230147160A (ko) 가상 시나리오 중의 대상의 제어 방법, 장치, 전자 기기, 저장 매체 및 프로그램 제품
JP2024512345A (ja) 仮想シーンにおける召喚オブジェクトの制御方法、装置、機器、及びコンピュータプログラム
US20230033530A1 (en) Method and apparatus for acquiring position in virtual scene, device, medium and program product
JP2022552752A (ja) 仮想環境の画面表示方法及び装置、並びにコンピュータ装置及びプログラム
CN112316429A (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN112691366A (zh) 虚拟道具的显示方法、装置、设备及介质
JP2023164787A (ja) 仮想環境の画面表示方法、装置、機器及びコンピュータプログラム
TWI821779B (zh) 虛擬對象的控制方法、裝置、計算機設備及儲存媒體
JP7434601B2 (ja) ウィジェットの表示方法、装置、機器及びコンピュータプログラム
CN113144617B (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
JP2023548922A (ja) 仮想対象の制御方法、装置、電子機器、及びコンピュータプログラム
JP2024054232A (ja) ウィジェットの表示方法、装置、機器及びコンピュータプログラム
CN112121433A (zh) 虚拟道具的处理方法、装置、设备及计算机可读存储介质
TWI831066B (zh) 虛擬場景中狀態切換方法、裝置、設備、媒體及程式產品
CN114146413A (zh) 虚拟对象的控制方法、装置、设备、存储介质及程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7434601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150