JP2018525050A - 情報処理方法、端末、およびコンピュータ記憶媒体 - Google Patents

情報処理方法、端末、およびコンピュータ記憶媒体 Download PDF

Info

Publication number
JP2018525050A
JP2018525050A JP2017564016A JP2017564016A JP2018525050A JP 2018525050 A JP2018525050 A JP 2018525050A JP 2017564016 A JP2017564016 A JP 2017564016A JP 2017564016 A JP2017564016 A JP 2017564016A JP 2018525050 A JP2018525050 A JP 2018525050A
Authority
JP
Japan
Prior art keywords
character
terminal
gui
user
attribute information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017564016A
Other languages
English (en)
Other versions
JP6830447B2 (ja
Inventor
宇 ▲陳▼
宇 ▲陳▼
永 ▲唐▼
永 ▲唐▼
▲偉▼ ▲ゴン▼
▲偉▼ ▲ゴン▼
建苗 翁
建苗 翁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2018525050A publication Critical patent/JP2018525050A/ja
Application granted granted Critical
Publication of JP6830447B2 publication Critical patent/JP6830447B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5526Game data structure
    • A63F2300/5533Game data structure using program state or machine event data, e.g. server keeps track of the state of multiple players on in a multiple player game

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本発明の実施形態は、情報処理方法、端末、およびコンピュータ記憶媒体を開示する。ソフトウェアアプリケーションがグラフィカルユーザインターフェース(GUI)を取得するために端末のプロセッサ上で実行され、レンダリングが端末のディスプレイ上で実行され、プロセッサ、GUI、およびソフトウェアアプリケーションは、ゲームシステム内に実装され、この方法は、GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得することと、GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイすることと、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、GUIにおいてレンダリングを実行し、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得することとを含む。

Description

本開示は、情報処理技術に関し、特に、情報処理方法、端末、およびコンピュータ記憶媒体に関する。
インターネット技術が急速に発展し、大型スクリーンおよびスーパースクリーンインテリジェント端末が次第に人気を得るとともに、インテリジェント端末のプロセッサは、ますます高い処理能力を有するようになり、それにより、マンマシンインタラクション(man-machine interaction)に基づき制御を実装する多くのアプリケーションが大型画面またはスーパースクリーン上に表示されるようになってきている。マンマシンインタラクションに基づき制御を実装するプロセスでは、複数のユーザが、一対一、一対多、および多対多の形態でグループを作成して異なるインタラクション結果を得ることによって異なるインタラクションモードを実行し得る。たとえば、大型画面またはスーパースクリーン上にレンダリングすることを通じて得られるグラフィカルユーザインターフェース(GUI)において、複数のユーザが2つの異なるグループにグループ化された後、マンマシンインタラクションにおける制御処理を用いて、異なるグループ間で情報交換が実行されてよく、異なるインタラクション結果が情報交換への応答に従って得られ、マンマシンインタラクションにおける制御処理を用いて、同じグループ内のグループメンバ間で情報交換がさらに実行されてよく、異なるインタラクション結果が情報交換への応答に従って得られる。
既存の技術では、大型画面またはスーパースクリーン上にレンダリングすることを通じて得られるGUIにおいて、通常は、ユーザによって制御される仮想キャラクタが表示される仮想領域の一部のみが表示される。その結果、ユーザによる制御が行われている間、GUIでは、そのユーザと同じグループに属するグループメンバによって制御されるターゲットオブジェクトは、含まれ得ない。この場合、ユーザがグループメンバのビジョン(vision)を取得したい場合、ユーザは、グループメンバによって制御されるGUI内に提示されるイメージを、現在のGUI内で取得する、すなわち、グループメンバのビジョンを取得するために、オペレーション(スライドオペレーションなど)を複数回実行して、キャラクタがターゲットオブジェクトの近くに移動するまでキャラクタ移動を行う必要がある。プロセスの制御時間は、比較的長く、情報交換を素早く実行する要求条件が満たされ得ない。関係する技術では、今のところこの問題に対する有効な解決方法はまだない。
本発明の実施形態では、情報処理方法、端末、およびコンピュータ記憶媒体を提供することを期待しており、それにより、情報交換プロセスにおいてグループメンバのビジョンイメージ(vision image)を素早く取得し、それによってユーザエクスペリエンスを改善する。
前述の目的を達成するために、本発明の実施形態における技術的解決方法は次のように実装される。
本発明の一実施形態は、情報処理方法を提供し、ソフトウェアアプリケーションがGUIを取得するために端末のプロセッサ上で実行され、レンダリングが端末のディスプレイ上で実行され、プロセッサ、GUI、およびソフトウェアアプリケーションはゲームシステム内に実装され、この方法は、
GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得するステップと、
GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイする(deploy)ステップと、
キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、GUIにおいてレンダリングを実行し、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得するステップとを含む。
本発明の一実施形態は、端末をさらに提供し、端末はレンダリング処理ユニットと、デプロイメント(deployment)ユニットと、検出ユニットと、オペレーション実行ユニットとを備え、
レンダリング処理ユニットはソフトウェアアプリケーションを実行し、レンダリングを実行して、GUIを取得し、GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得するように構成され、GUIにおいてレンダリングを実行して、オペレーション実行ユニットによって取得される少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされるビジョンイメージを取得するようにさらに構成され、
デプロイメントユニットはGUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイするように構成され、
検出ユニットはキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出するように構成され、
オペレーション実行ユニットは検出ユニットがキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得するように構成される。
本発明の一実施形態は、端末をさらに提供し、端末はプロセッサとディスプレイとを備え、このプロセッサは、ソフトウェアアプリケーションを実行し、ディスプレイ上でレンダリングを実行して、GUIを取得するように構成され、プロセッサ、GUI、およびソフトウェアアプリケーションはゲームシステム上に実装され、
プロセッサはGUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得し、GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイし、
キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、GUIにおいてレンダリングを実行し、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得するように構成される。
本発明の一実施形態は、コンピュータ記憶媒体をさらに提供し、コンピュータ記憶媒体にコンピュータ実行可能命令が記憶され、コンピュータ実行可能命令は本発明の実施形態における情報処理方法を実行するように構成される。
本発明の実施形態における情報処理方法、端末、およびコンピュータ記憶媒体により、GUI内のキャラクタ選択領域内にデプロイされているキャラクタコンテナオブジェクト内のウィンドウロケーションを用いて、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内でレンダリングが実行され、それにより、ユーザはキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを用いて対応する第2のキャラクタオブジェクトのビジョンイメージを素早く取得し、それによって、インタラクションプロセスにおけるユーザのオペレーションエクスペリエンスを大幅に改善することができる。
本発明の一実施形態による情報処理方法における情報交換のアプリケーションアーキテクチャの概略図である。 本発明の実施形態1による情報処理方法の概略フローチャートである。 本発明の一実施形態による情報処理方法におけるGUIの第1の概略図である。 本発明の実施形態2による情報処理方法の概略フローチャートである。 本発明の実施形態3による情報処理方法の概略フローチャートである。 本発明の一実施形態による情報処理方法におけるGUIの第2の概略図である。 本発明の実施形態4による情報処理方法の概略フローチャートである。 本発明の一実施形態による情報処理方法におけるGUIの第3の概略図である。 本発明の一実施形態による情報処理方法におけるインタラクションの概略アプリケーション図である。 本発明の一実施形態による情報処理方法におけるGUIの第4の概略図である。 本発明の実施形態5による端末の概略構造図である。 本発明の実施形態6による端末の概略構造図である。 本発明の実施形態7による端末の概略構造図である。
本開示は、添付図面および特定の実施形態を参照しつつ以下で詳細にさらに説明される。
図1は、本発明の一実施形態による情報処理方法における情報交換のアプリケーションアーキテクチャの概略図である。図1に示されているように、アプリケーションアーキテクチャは、サーバ101と少なくとも1つの端末とを備える。アプリケーションアーキテクチャに示されているように、端末は、端末102、端末103、端末104、端末105、および端末106を含む。少なくとも1つの端末は、ネットワーク100(有線ネットワークまたはワイヤレスネットワークなど)を使用することによってサーバ101への接続を確立し得る。特に、端末は、携帯電話、デスクトップコンピュータ、PC、オールインワンPC、および他のタイプを含む。
この実施形態において、端末のプロセッサはソフトウェアアプリケーションを実行し、端末のディスプレイ上にレンダリングを実行して、GUIを取得することができる。プロセッサ、GUI、およびソフトウェアアプリケーションは、ゲームシステム上に実装される。この実施形態では、ゲームシステムにプロセッサ、GUI、およびソフトウェアアプリケーションを実装するプロセスにおいて、少なくとも1つの端末は、有線ネットワークまたはワイヤレスネットワークを使用することによってサーバ101との情報交換を実行して、ゲームシステムに一対一または多対多(3対3または5対5など)アプリケーションモードシナリオを実装し得る。一対一アプリケーションシナリオでは、端末によるレンダリングを通じて取得されるグラフィカルユーザオブジェクトにおける仮想リソースオブジェクトは、ゲームシステム(人対機械として理解され得る)においてプリセットされている仮想リソースオブジェクトと情報交換を実行し得る、すなわち、端末はサーバと情報交換を実行する。代替的に、一対一アプリケーションシナリオでは、端末によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトは、別の端末によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトと情報交換を実行し得る、たとえば、端末102によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトは、端末103によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトと情報交換を実行する。多対多アプリケーションモードシナリオにおいて、3対3アプリケーションモードシナリオを一例として使用すると、端末1、端末2、および端末3によってそれぞれ実行されるレンダリングを通じて取得されるグラフィカルユーザオブジェクト内の仮想リソースオブジェクトは、第1のグループにグループ化され、端末4、端末5、および端末6によってそれぞれ実行されるレンダリングを通じて取得されるグラフィカルユーザオブジェクト内の仮想リソースオブジェクトは、第2のグループにグループ化され、第1のグループ内のグループメンバは、第2のグループ内のグループメンバと情報交換を実行する。
図1の例は、本発明の実施形態を実装するためのアプリケーションアーキテクチャの一例にすぎず、本発明の実施形態は、図1のアプリケーションアーキテクチャに限定されない。アプリケーションアーキテクチャに基づき、本発明の様々な実施形態が提供される。
実施形態1
本発明のこの実施形態は、情報処理方法を提供する。図2は、本発明の実施形態1による情報処理方法の概略フローチャートである。情報処理方法は、端末に適用される。GUIを取得するために、端末のプロセッサ上でソフトウェアアプリケーションが実行され、端末のディスプレイ上でレンダリングが実行される。プロセッサ、GUI、およびソフトウェアアプリケーションは、ゲームシステム内に実装される。図2に示されているように、この方法は以下のステップを含む。
ステップ201:GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得する。仮想リソースオブジェクトのうちの少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想オペレーションを実行するユーザキャラクタオブジェクトとして構成される。
ステップ202:GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイする。
ステップ203:キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、GUIにおいてレンダリングを実行し、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得する。
この実施形態において、GUIは少なくとも1つのキャラクタ選択領域を含み、キャラクタ選択領域は少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは少なくとも1つのウィンドウロケーションを含む。対応するキャラクタオペレーションオブジェクトは、少なくともいくつかのウィンドウロケーションで運ばれる。キャラクタオペレーションオブジェクトは、GUI内のキャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトの識別子(識別子はアバターであってよい)を使用することによって表され得る。ここにおいて、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する。キャラクタ選択領域内のキャラクタコンテナオブジェクト上のレンダリングの様式は、限定はしないが、バー形状または円環形状を含む、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトまたはキャラクタ選択ホイールオブジェクトを使用することによって表され得る。
図3は、本発明のこの実施形態による情報処理方法におけるGUIの第1の概略図である。図3に示されているように、端末のディスプレイ上のレンダリングを通じて取得されたGUI800は、少なくとも1つの仮想リソースオブジェクトを含む。仮想リソースオブジェクトは、少なくとも1つのユーザキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することによって情報交換を実行する、すなわち、ユーザコマンドを入力し得る。ユーザキャラクタオブジェクトa10は、端末によって検出された第1のユーザコマンドに基づき第1の仮想オペレーションを実行することができ、第1の仮想オペレーションは、限定はしないが、移動オペレーション、物理的攻撃オペレーション(physical attack operation)、スキル攻撃オペレーション(skill attack operation)などを含む。ユーザキャラクタオブジェクトa10は、端末のユーザによって制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムにおいて、ユーザキャラクタオブジェクトa10は、ユーザのオペレーションに基づきGUIにおいて対応するアクションを実行することができる。一実装において、GUI800は、少なくとも1つのスキルオブジェクト(skill object)803を含み、ユーザは、スキルリリースオペレーション(skill release operation)を用いて、対応するスキルリリースオペレーションを実行するようにユーザキャラクタオブジェクトa10を制御し得る。
図3に示されている例では、GUIはキャラクタ選択領域802を含み、キャラクタコンテナオブジェクトがキャラクタ選択領域802内にデプロイされる。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することによって表される(すなわち、キャラクタコンテナオブジェクトはバー形状の表示効果をもたらす)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウロケーションを含み、レンダリングが、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内で実行される。キャラクタオペレーションオブジェクトがアバターを使用することによって表される一例が使用される、すなわち、キャラクタ選択領域802は、少なくとも1つもアバターを含む。少なくとも1つのアバターは、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ一対一対応関係にある。図3に示されているように、この例では5対5アプリケーションシナリオが使用されている。ユーザキャラクタオブジェクトa10と同じグループに属する4つのキャラクタオブジェクトがあり、それに対応して、キャラクタ選択領域802内に4つのキャラクタオペレーションオブジェクト、たとえば、図3に示されているキャラクタオペレーションオブジェクトa11、キャラクタオペレーションオブジェクトa12、キャラクタオペレーションオブジェクトa13、およびキャラクタオペレーションオブジェクトa14がある。キャラクタ選択領域802内の4つのキャラクタオペレーションオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する4つの第2のキャラクタオブジェクトと一対一対応関係にあることが理解され得る。この実施形態は、少なくとも2つのグループメンバを含む複数人の戦闘のアプリケーションシナリオに適用され得る。
一実装において、キャラクタ選択領域802内の少なくとも2つのキャラクタオペレーションオブジェクトの間の相互位置関係は、少なくとも2つのキャラクタオペレーションオブジェクトによってゲームシステムに入る時間順序に従って決定される。図3に示されているように、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトがゲームシステムに入る時間は、キャラクタオペレーションオブジェクトa12に関連付けられているキャラクタオブジェクトの時間、キャラクタオペレーションオブジェクトa13の時間、およびキャラクタオペレーションオブジェクトa14の時間などよりも早い時間であり、詳細は本明細書では説明されない。
この実施形態において、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上のビジョン取得ジェスチャが検出されたときに、GUI内でレンダリングが実行され、それにより、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得し、ビジョン取得ジェスチャは、長押しオペレーションジェスチャ、ダブルタップオペレーションジェスチャなどであってよく、前述のオペレーションジェスチャに限定されない。
本明細書において、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、この方法は、第1の命令を生成し、送信し、第1の命令は少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出し、ビジョンイメージをキャプチャするように仮想レンズを制御するように構成されることと、ビジョン取得ジェスチャの検出のプロセスにおいて、仮想レンズによってキャプチャされたビジョンイメージを取得することとをさらに含む。
特に、図3を参照すると、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。キャラクタ選択領域802内のキャラクタオペレーションオブジェクト(図3に示されているキャラクタオペレーションオブジェクトa11など)上の長押しジェスチャが検出されたときに、端末は、第1の命令を生成し、第1の命令に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末へのネットワーク接続を確立し、ネットワーク接続に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末に第1の命令を送信して、第1の命令に基づき、別の端末の仮想レンズを呼び出し、仮想レンズを使用することによってビジョンイメージをキャプチャするように別の端末を制御する。キャラクタオペレーションオブジェクトa11上の長押しジェスチャを連続的に検出するプロセスにおいて、端末は、リアルタイムで、別の端末によって送信されたビジョンイメージを取得し、GUI内でレンダリングを実行して、ビジョンイメージを取得する。ビジョンイメージ表示領域801および図3に示されているビジョンイメージ表示領域801の拡大図801aに図示されているように、キャラクタオペレーションオブジェクトa11に対応するビジョンイメージはビジョンイメージ表示領域801内に表示され、ビジョンイメージは、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトを制御するユーザによって見ることができるイメージである。たとえば、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が、現在、別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを実行している場合、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを現在実行しているビジョンイメージが、図3に示されているように、GUI800内のビジョンイメージ表示領域801内に表示される。ビジョン取得ジェスチャ(長押しジェスチャなど)を用いて、端末は別の対応する端末のビジョンイメージに素早く切り替えることができ、
それにより、端末のユーザはチームメートのビジョンイメージを素早く取得することができることが理解され得る。
本発明のこの実施形態における技術的解決方法を用いることで、GUI内のキャラクタ選択領域内にデプロイされるキャラクタコンテナオブジェクト内のウィンドウロケーションを用いて、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内でレンダリングが実行され、それにより、ユーザはキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを用いて対応する第2のキャラクタオブジェクトのビジョンイメージを素早く取得し、それによって、インタラクションプロセスにおけるユーザのオペレーションエクスペリエンスを大幅に改善することができる。
実施形態2
本発明のこの実施形態は、情報処理方法を提供する。図4は、本発明の実施形態2による情報処理方法の概略フローチャートである。情報処理方法は、端末に適用される。GUIを取得するために、端末のプロセッサ上でソフトウェアアプリケーションが実行され、端末のディスプレイ上でレンダリングが実行される。プロセッサ、GUI、およびソフトウェアアプリケーションは、ゲームシステム内に実装される。図4に示されているように、
ステップ301:GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得する。
ステップ302:GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイする。
この実施形態において、GUIは少なくとも1つのキャラクタ選択領域を含み、キャラクタ選択領域は少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは少なくとも1つのウィンドウロケーションを含む。対応するキャラクタオペレーションオブジェクトは、少なくともいくつかのウィンドウロケーションで運ばれる。キャラクタオペレーションオブジェクトは、GUI内のキャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトの識別子(識別子はアバターであってよい)を使用することによって表され得る。ここにおいて、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する。キャラクタ選択領域内のキャラクタコンテナオブジェクト上のレンダリングの様式は、限定はしないが、バー形状または円環形状を含む、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトまたはキャラクタ選択ホイールオブジェクトを使用することによって表され得る。
特に、図3を参照すると、端末のディスプレイ上のレンダリングを通じて取得されたGUI800は、少なくとも1つの仮想リソースオブジェクトを含んでいる。仮想リソースオブジェクトは、少なくとも1つのユーザキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することによって情報交換を実行する、すなわち、ユーザコマンドを入力し得る。ユーザキャラクタオブジェクトa10は、端末によって検出された第1のユーザコマンドに基づき第1の仮想オペレーションを実行することができ、第1の仮想オペレーションは、限定はしないが、移動オペレーション、物理的攻撃オペレーション、スキル攻撃オペレーションなどを含む。ユーザキャラクタオブジェクトa10は、端末のユーザによって制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムにおいて、ユーザキャラクタオブジェクトa10は、ユーザのオペレーションに基づきGUIにおいて対応するアクションを実行することができる。一実装において、GUI800は、少なくとも1つのスキルオブジェクト803をさらに含み、ユーザは、スキルリリースオペレーションを用いて、対応するスキルリリースオペレーションを実行するようにユーザキャラクタオブジェクトa10を制御し得る。
図3に示されている例では、GUIはキャラクタ選択領域802を含み、キャラクタコンテナオブジェクトがキャラクタ選択領域802内にデプロイされる。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することによって表される(すなわち、キャラクタコンテナオブジェクトはバー形状の表示効果をもたらす)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウロケーションを含み、レンダリングが、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内で実行される。キャラクタオペレーションオブジェクトがアバターを使用することによって表される一例が使用される、すなわち、キャラクタ選択領域802は、少なくとも1つもアバターを含む。少なくとも1つのアバターは、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ一対一対応関係にある。図3に示されているように、この例では5対5アプリケーションシナリオが使用されている。ユーザキャラクタオブジェクトa10と同じグループに属する4つのキャラクタオブジェクトがあり、それに対応して、キャラクタ選択領域802内に4つのキャラクタオペレーションオブジェクト、たとえば、図3に示されているキャラクタオペレーションオブジェクトa11、キャラクタオペレーションオブジェクトa12、キャラクタオペレーションオブジェクトa13、およびキャラクタオペレーションオブジェクトa14がある。キャラクタ選択領域802内の4つのキャラクタオペレーションオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する4つの第2のキャラクタオブジェクトと一対一対応関係にあることが理解され得る。この実施形態は、少なくとも2つのグループメンバを含む複数人の戦闘のアプリケーションシナリオに適用され得る。
一実装において、キャラクタ選択領域802内の少なくとも2つのキャラクタオペレーションオブジェクトの間の相互位置関係は、少なくとも2つのキャラクタオペレーションオブジェクトによってゲームシステムに入る時間順序に従って決定される。図3に示されているように、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトがゲームシステムに入る時間は、キャラクタオペレーションオブジェクトa12に関連付けられているキャラクタオブジェクトの時間、キャラクタオペレーションオブジェクトa13の時間、およびキャラクタオペレーションオブジェクトa14の時間などよりも早い時間であり、詳細は本明細書では説明されない。
ステップ303:キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに第1の命令を生成し、送信し、ビジョン取得ジェスチャを検出するプロセスにおいて、仮想レンズによってキャプチャされたビジョンイメージを取得し、第1の命令は、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出し、ビジョンイメージをキャプチャするように仮想レンズを制御するように構成され、GUIにおいてレンダリングを実行して、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得する。
特に、図3を参照すると、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。キャラクタ選択領域802内のキャラクタオペレーションオブジェクト(図3に示されているキャラクタオペレーションオブジェクトa11など)上の長押しジェスチャが検出されたときに、端末は、第1の命令を生成し、第1の命令に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末へのネットワーク接続を確立し、ネットワーク接続に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末に第1の命令を送信して、第1の命令に基づき、別の端末の仮想レンズを呼び出し、仮想レンズを使用することによってビジョンイメージをキャプチャするように別の端末を制御する。キャラクタオペレーションオブジェクトa11上の長押しジェスチャを連続的に検出するプロセスにおいて、端末は、リアルタイムで、別の端末によって送信されたビジョンイメージを取得し、GUI内でレンダリングを実行して、ビジョンイメージを取得する。ビジョンイメージ表示領域801および図3に示されているビジョンイメージ表示領域801の拡大図801aに図示されているように、キャラクタオペレーションオブジェクトa11に対応するビジョンイメージはビジョンイメージ表示領域801内に表示され、ビジョンイメージは、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトを制御するユーザによって見ることができるイメージである。たとえば、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が、現在、別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを実行している場合、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを現在実行しているビジョンイメージが、図3に示されているように、GUI800内のビジョンイメージ表示領域801内に表示される。ビジョン取得ジェスチャ(長押しジェスチャなど)を用いて、端末は別の対応する端末のビジョンイメージに素早く切り替えることができ、
それにより、端末のユーザはチームメートのビジョンイメージを素早く取得することができることが理解され得る。
ステップ304:ビジョン取得ジェスチャが停止したときに、第2の命令を生成し、第2の命令に基づき、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すのを停止する。
特に、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。第2の命令は、長押しジェスチャが停止したときに生成され、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すことが第2の命令に基づき停止され、端末と別の端末との間のネットワーク接続は、終了する。
本発明のこの実施形態における技術的解決方法を用いることで、GUI内のキャラクタ選択領域内にデプロイされるキャラクタコンテナオブジェクト内のウィンドウロケーションを用いて、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内でレンダリングが実行され、それにより、ユーザはキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを用いて対応する第2のキャラクタオブジェクトのビジョンイメージを素早く取得し、それによって、インタラクションプロセスにおけるユーザのオペレーションエクスペリエンスを大幅に改善することができる。
実施形態3
本発明のこの実施形態は、情報処理方法を提供する。図5は、本発明の実施形態3による情報処理方法の概略フローチャートである。情報処理方法は、端末に適用される。GUIを取得するために、端末のプロセッサ上でソフトウェアアプリケーションが実行され、端末のディスプレイ上でレンダリングが実行される。プロセッサ、GUI、およびソフトウェアアプリケーションは、ゲームシステム内に実装される。図5に示されているように、
ステップ401:GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得する。
ステップ402:GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイする。
この実施形態において、GUIは少なくとも1つのキャラクタ選択領域を含み、キャラクタ選択領域は少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは少なくとも1つのウィンドウロケーションを含む。対応するキャラクタオペレーションオブジェクトは、少なくともいくつかのウィンドウロケーションで運ばれる。キャラクタオペレーションオブジェクトは、GUI内のキャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトの識別子(識別子はアバターであってよい)を使用することによって表され得る。ここにおいて、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する。キャラクタ選択領域内のキャラクタコンテナオブジェクト上のレンダリングの様式は、限定はしないが、バー形状または円環形状を含む、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトまたはキャラクタ選択ホイールオブジェクトを使用することによって表され得る。
特に、図3を参照すると、端末のディスプレイ上のレンダリングを通じて取得されたGUI800は、少なくとも1つの仮想リソースオブジェクトを含んでいる。仮想リソースオブジェクトは、少なくとも1つのユーザキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することによって情報交換を実行する、すなわち、ユーザコマンドを入力し得る。ユーザキャラクタオブジェクトa10は、端末によって検出された第1のユーザコマンドに基づき第1の仮想オペレーションを実行することができ、第1の仮想オペレーションは、限定はしないが、移動オペレーション、物理的攻撃オペレーション、スキル攻撃オペレーションなどを含む。ユーザキャラクタオブジェクトa10は、端末のユーザによって制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムにおいて、ユーザキャラクタオブジェクトa10は、ユーザのオペレーションに基づきGUIにおいて対応するアクションを実行することができる。一実装において、GUI800は、少なくとも1つのスキルオブジェクト803をさらに含み、ユーザは、スキルリリースオペレーションを用いて、対応するスキルリリースオペレーションを実行するようにユーザキャラクタオブジェクトa10を制御し得る。
図3に示されている例では、GUIはキャラクタ選択領域802を含み、キャラクタコンテナオブジェクトがキャラクタ選択領域802内にデプロイされる。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することによって表される(すなわち、キャラクタコンテナオブジェクトはバー形状の表示効果をもたらす)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウロケーションを含み、レンダリングが、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内で実行される。キャラクタオペレーションオブジェクトがアバターを使用することによって表される一例が使用される、すなわち、キャラクタ選択領域802は、少なくとも1つもアバターを含む。少なくとも1つのアバターは、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ一対一対応関係にある。図3に示されているように、この例では5対5アプリケーションシナリオが使用されている。ユーザキャラクタオブジェクトa10と同じグループに属する4つのキャラクタオブジェクトがあり、それに対応して、キャラクタ選択領域802内に4つのキャラクタオペレーションオブジェクト、たとえば、図3に示されているキャラクタオペレーションオブジェクトa11、キャラクタオペレーションオブジェクトa12、キャラクタオペレーションオブジェクトa13、およびキャラクタオペレーションオブジェクトa14がある。キャラクタ選択領域802内の4つのキャラクタオペレーションオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する4つの第2のキャラクタオブジェクトと一対一対応関係にあることが理解され得る。この実施形態は、少なくとも2つのグループメンバを含む複数人の戦闘のアプリケーションシナリオに適用され得る。
一実装において、キャラクタ選択領域802内の少なくとも2つのキャラクタオペレーションオブジェクトの間の相互位置関係は、少なくとも2つのキャラクタオペレーションオブジェクトによってゲームシステムに入る時間順序に従って決定される。図3に示されているように、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトがゲームシステムに入る時間は、キャラクタオペレーションオブジェクトa12に関連付けられているキャラクタオブジェクトの時間、キャラクタオペレーションオブジェクトa13の時間、およびキャラクタオペレーションオブジェクトa14の時間などよりも早い時間であり、詳細は本明細書では説明されない。
ステップ403:キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、GUIにおいてレンダリングを実行し、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得する。
本明細書において、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、この方法は、第1の命令を生成し、送信し、第1の命令は少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出し、ビジョンイメージをキャプチャするように仮想レンズを制御するように構成されることと、ビジョン取得ジェスチャの検出のプロセスにおいて、仮想レンズによってキャプチャされたビジョンイメージを取得することとをさらに含む。
特に、図3を参照すると、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。キャラクタ選択領域802内のキャラクタオペレーションオブジェクト(図3に示されているキャラクタオペレーションオブジェクトa11など)上の長押しジェスチャが検出されたときに、端末は、第1の命令を生成し、第1の命令に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末へのネットワーク接続を確立し、ネットワーク接続に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末に第1の命令を送信して、第1の命令に基づき、別の端末の仮想レンズを呼び出し、仮想レンズを使用することによってビジョンイメージをキャプチャするように別の端末を制御する。キャラクタオペレーションオブジェクトa11上の長押しジェスチャを連続的に検出するプロセスにおいて、端末は、リアルタイムで、別の端末によって送信されたビジョンイメージを取得し、GUI内でレンダリングを実行して、ビジョンイメージを取得する。ビジョンイメージ表示領域801および図3に示されているビジョンイメージ表示領域801の拡大図801aに図示されているように、キャラクタオペレーションオブジェクトa11に対応するビジョンイメージはビジョンイメージ表示領域801内に表示され、ビジョンイメージは、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトを制御するユーザによって見ることができるイメージである。たとえば、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が、現在、別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを実行している場合、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを現在実行しているビジョンイメージが、図3に示されているように、GUI800内のビジョンイメージ表示領域801内に表示される。ビジョン取得ジェスチャ(長押しジェスチャなど)を用いて、端末は別の対応する端末のビジョンイメージに素早く切り替えることができ、
それにより、端末のユーザはチームメートのビジョンイメージを素早く取得することができることが理解され得る。
一実装において、第2の命令は、ビジョン取得ジェスチャが停止したときに生成され、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すことが第2の命令に基づき停止される。
特に、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。第2の命令は、長押しジェスチャが停止したときに生成され、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すことが第2の命令に基づき停止され、端末と別の端末との間のネットワーク接続は、終了する。
ステップ404:GUI内でユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録し、ユーザキャラクタオブジェクトのステータス属性情報を生成し、サーバに対してステータス属性情報を同期的に更新する。
ステップ405:サーバから、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得し、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいてステータス属性情報に関してレンダリングを実行する。
この実施形態において、端末がGUIにおいて、すなわち、ユーザキャラクタオブジェクトが別のキャラクタオブジェクトと情報交換を実行するプロセスにおいて、ユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録するときに、端末は、リアルタイムでユーザキャラクタオブジェクトのステータス属性の変化を記録し、ユーザキャラクタオブジェクトのステータス属性情報を取得し、ステータス属性情報は、限定はしないが、ユーザキャラクタオブジェクトのブラッド値(blood value)、ヒットポイント、またはスキル属性情報を含む。端末は、ユーザキャラクタオブジェクトの取得されたステータス属性情報をリアルタイムでサーバに同期させる。それに対応して、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトについて、第2のキャラクタオブジェクトに対応する端末は、リアルタイムで第2のキャラクタオブジェクトのステータス属性情報も取得し、ステータス属性情報をサーバに同期させる。
さらに、端末は、サーバから、別の端末によって同期された少なくとも1つの第2のキャラクタオブジェクトのステータス属性情報を取得する、すなわち、GUIにおけるキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得する。端末は、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトのステータス属性情報を取得し、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて第2のキャラクタオブジェクトのステータス属性情報に関してレンダリングを実行することが理解され得る。図6は、本発明のこの実施形態による情報処理方法におけるGUIの第2の概略図である。図6に示されているように、ステータス属性情報がブラッド値である一例が使用されている。キャラクタ選択領域802内のキャラクタオペレーションオブジェクトa21の外円にある領域が、ブラッドグルーブ(blood groove)表示領域a211として使用され、対応する第2のキャラクタオブジェクトの現在のブラッド値がブラッドグルーブ表示領域に対するブラッドグルーブ表示領域内のブラッド値の割合を使用することによって表される。確かに、本発明のこの実施形態において、第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクトに対応するウィンドウロケーション内にステータス属性情報に関するレンダリングを実行する方式は、図6に示されているものに限定されない。
本発明のこの実施形態における技術的解決方法を用いることで、その一方で、GUI内のキャラクタ選択領域内にデプロイされるキャラクタコンテナオブジェクト内のウィンドウロケーションを用いて、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内でレンダリングが実行され、それにより、ユーザはキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを用いて対応する第2のキャラクタオブジェクトのビジョンイメージを素早く取得し、それによって、インタラクションプロセスにおけるユーザのオペレーションエクスペリエンスを大幅に改善することができる。その一方で、キャラクタコンテナオブジェクト内のキャラクタオペレーションオブジェクトに関連付けられている第2のキャラクタオブジェクトのステータス属性情報が、同じグループに属する第2のキャラクタオブジェクト(すなわち、チームメート)のステータス属性情報を同期させることによって取得され、特定の方式で対応するウィンドウロケーションにおけるステータス属性情報に関してレンダリングが実行される、すなわち、第2のキャラクタオブジェクト(すなわち、チームメート)のステータス属性情報は、対応するキャラクタオペレーションオブジェクト(UIアバター)上に反映され、したがって、ユーザは、第2のキャラクタオブジェクト(すなわち、チームメート)のステータス属性情報を素早く学習することができ、それによって情報交換プロセスにおけるユーザのオペレーションエクスペリエンスを改善することができる。
実施形態4
本発明のこの実施形態は、情報処理方法を提供する。図7は、本発明の実施形態4による情報処理方法の概略フローチャートである。情報処理方法は、端末に適用される。GUIを取得するために、端末のプロセッサ上でソフトウェアアプリケーションが実行され、端末のディスプレイ上でレンダリングが実行される。プロセッサ、GUI、およびソフトウェアアプリケーションは、ゲームシステム内に実装される。図7に示されているように、
ステップ501:GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得する。
ステップ502:GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイする。
この実施形態において、GUIは少なくとも1つのキャラクタ選択領域を含み、キャラクタ選択領域は少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは少なくとも1つのウィンドウロケーションを含む。対応するキャラクタオペレーションオブジェクトは、少なくともいくつかのウィンドウロケーションで運ばれる。キャラクタオペレーションオブジェクトは、GUI内のキャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトの識別子(識別子はアバターであってよい)を使用することによって表され得る。ここにおいて、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する。キャラクタ選択領域内のキャラクタコンテナオブジェクト上のレンダリングの様式は、限定はしないが、バー形状または円環形状を含む、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトまたはキャラクタ選択ホイールオブジェクトを使用することによって表され得る。
特に、図3を参照すると、端末のディスプレイ上のレンダリングを通じて取得されたGUI800は、少なくとも1つの仮想リソースオブジェクトを含んでいる。仮想リソースオブジェクトは、少なくとも1つのユーザキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することによって情報交換を実行する、すなわち、ユーザコマンドを入力し得る。ユーザキャラクタオブジェクトa10は、端末によって検出された第1のユーザコマンドに基づき第1の仮想オペレーションを実行することができ、第1の仮想オペレーションは、限定はしないが、移動オペレーション、物理的攻撃オペレーション、スキル攻撃オペレーションなどを含む。ユーザキャラクタオブジェクトa10は、端末のユーザによって制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムにおいて、ユーザキャラクタオブジェクトa10は、ユーザのオペレーションに基づきGUIにおいて対応するアクションを実行することができる。一実装において、GUI800は、少なくとも1つのスキルオブジェクト803をさらに含み、ユーザは、スキルリリースオペレーションを用いて、対応するスキルリリースオペレーションを実行するようにユーザキャラクタオブジェクトa10を制御し得る。
図3に示されている例では、GUIはキャラクタ選択領域802を含み、キャラクタコンテナオブジェクトがキャラクタ選択領域802内にデプロイされる。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することによって表される(すなわち、キャラクタコンテナオブジェクトはバー形状の表示効果をもたらす)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウロケーションを含み、レンダリングが、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内で実行される。キャラクタオペレーションオブジェクトがアバターを使用することによって表される一例が使用される、すなわち、キャラクタ選択領域802は、少なくとも1つもアバターを含む。少なくとも1つのアバターは、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ一対一対応関係にある。図3に示されているように、この例では5対5アプリケーションシナリオが使用されている。ユーザキャラクタオブジェクトa10と同じグループに属する4つのキャラクタオブジェクトがあり、それに対応して、キャラクタ選択領域802内に4つのキャラクタオペレーションオブジェクト、たとえば、図3に示されているキャラクタオペレーションオブジェクトa11、キャラクタオペレーションオブジェクトa12、キャラクタオペレーションオブジェクトa13、およびキャラクタオペレーションオブジェクトa14がある。キャラクタ選択領域802内の4つのキャラクタオペレーションオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する4つの第2のキャラクタオブジェクトと一対一対応関係にあることが理解され得る。この実施形態は、少なくとも2つのグループメンバを含む複数人の戦闘のアプリケーションシナリオに適用され得る。
一実装において、キャラクタ選択領域802内の少なくとも2つのキャラクタオペレーションオブジェクトの間の相互位置関係は、少なくとも2つのキャラクタオペレーションオブジェクトによってゲームシステムに入る時間順序に従って決定される。図3に示されているように、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトがゲームシステムに入る時間は、キャラクタオペレーションオブジェクトa12に関連付けられているキャラクタオブジェクトの時間、キャラクタオペレーションオブジェクトa13の時間、およびキャラクタオペレーションオブジェクトa14の時間などよりも早い時間であり、詳細は本明細書では説明されない。
ステップ503:キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、GUIにおいてレンダリングを実行し、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得する。
本明細書において、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、この方法は、第1の命令を生成し、送信し、第1の命令は少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出し、ビジョンイメージをキャプチャするように仮想レンズを制御するように構成されることと、ビジョン取得ジェスチャの検出のプロセスにおいて、仮想レンズによってキャプチャされたビジョンイメージを取得することとをさらに含む。
特に、図3を参照すると、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。キャラクタ選択領域802内のキャラクタオペレーションオブジェクト(図3に示されているキャラクタオペレーションオブジェクトa11など)上の長押しジェスチャが検出されたときに、端末は、第1の命令を生成し、第1の命令に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末へのネットワーク接続を確立し、ネットワーク接続に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末に第1の命令を送信して、第1の命令に基づき、別の端末の仮想レンズを呼び出し、仮想レンズを使用することによってビジョンイメージをキャプチャするように別の端末を制御する。キャラクタオペレーションオブジェクトa11上の長押しジェスチャを連続的に検出するプロセスにおいて、端末は、リアルタイムで、別の端末によって送信されたビジョンイメージを取得し、GUI内でレンダリングを実行して、ビジョンイメージを取得する。ビジョンイメージ表示領域801および図3に示されているビジョンイメージ表示領域801の拡大図801aに図示されているように、キャラクタオペレーションオブジェクトa11に対応するビジョンイメージはビジョンイメージ表示領域801内に表示され、ビジョンイメージは、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトを制御するユーザによって見ることができるイメージである。たとえば、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が、現在、別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを実行している場合、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを現在実行しているビジョンイメージが、図3に示されているように、GUI800内のビジョンイメージ表示領域801内に表示される。ビジョン取得ジェスチャ(長押しジェスチャなど)を用いて、端末は別の対応する端末のビジョンイメージに素早く切り替えることができ、
それにより、端末のユーザはチームメートのビジョンイメージを素早く取得することができることが理解され得る。
一実装において、第2の命令は、ビジョン取得ジェスチャが停止したときに生成され、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すことが第2の命令に基づき停止される。
特に、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。第2の命令は、長押しジェスチャが停止したときに生成され、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すことが第2の命令に基づき停止され、端末と別の端末との間のネットワーク接続は、終了する。
ステップ504:GUI内でユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録し、ユーザキャラクタオブジェクトのステータス属性情報を生成し、GUI内でユーザキャラクタオブジェクトのスキル属性の変化を連続的に記録し、ユーザキャラクタオブジェクトのスキル属性がプリセット条件を満たしていると決定したときにユーザキャラクタオブジェクトのスキル属性情報を生成し、サーバに同期してステータス属性情報およびスキル属性情報を更新する。
その一方で、この実施形態において、端末がGUIにおいて、すなわち、ユーザキャラクタオブジェクトが別のキャラクタオブジェクトと情報交換を実行するプロセスにおいて、ユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録するときに、端末は、リアルタイムでユーザキャラクタオブジェクトのステータス属性の変化を記録し、ユーザキャラクタオブジェクトのステータス属性情報を取得し、ステータス属性情報は、限定はしないが、ユーザキャラクタオブジェクトのブラッド値、ヒットポイント、またはスキル属性情報を含む。端末は、ユーザキャラクタオブジェクトの取得されたステータス属性情報をリアルタイムでサーバに同期させる。それに対応して、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトについて、第2のキャラクタオブジェクトに対応する端末は、リアルタイムで第2のキャラクタオブジェクトのステータス属性情報も取得し、ステータス属性情報をサーバに同期させる。
その一方で、端末がGUIにおいて、すなわち、ユーザキャラクタオブジェクトが別のキャラクタオブジェクトと情報交換を実行するプロセスにおいて、ユーザキャラクタオブジェクトのスキル属性の変化を連続的に記録するときに、端末は、リアルタイムでユーザキャラクタオブジェクトのスキル属性の変化を記録する。ユーザキャラクタオブジェクトがスキルオブジェクトをリリースした後、スキルオブジェクトは一定期間の後に復元され得る、すなわち、スキルオブジェクトは、その期間の後に再びリリースされ得る。したがって、この実施形態では、端末は、リアルタイムでユーザキャラクタオブジェクトのスキル属性の変化を記録し、少なくとも1つのスキルオブジェクトがリリースできると決定したときに、ユーザキャラクタオブジェクトのスキル属性は、プリセット条件を満たすと決定し、ユーザキャラクタオブジェクトのスキル属性情報を生成し、スキル属性情報はユーザキャラクタオブジェクトが少なくとも1つのスキルオブジェクトをリリースできることを表す。端末は、ユーザキャラクタオブジェクトの取得されたスキル属性情報をリアルタイムでサーバに同期させる。それに対応して、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトについて、第2のキャラクタオブジェクトに対応する端末は、リアルタイムで第2のキャラクタオブジェクトのスキル属性情報も取得し、スキル属性情報をサーバに同期させる。
ステップ505:サーバから、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報とスキル属性情報とを取得し、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいてステータス属性情報に関してレンダリングを実行し、第2のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいてスキル属性情報に関してレンダリングを実行する。
ここで、その一方で、端末は、サーバから、別の端末によって同期された少なくとも1つの第2のキャラクタオブジェクトのステータス属性情報を取得する、すなわち、GUIにおけるキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得する。端末は、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトのステータス属性情報を取得し、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて第2のキャラクタオブジェクトのステータス属性情報に関してレンダリングを実行することが理解され得る。図8は、本発明のこの実施形態による情報処理方法におけるGUIの第3の概略図である。図8に示されているように、ステータス属性情報がブラッド値である一例が使用されている。キャラクタ選択領域802内のキャラクタオペレーションオブジェクトa31の外円にある領域が、ブラッドグルーブ表示領域a311として使用され、対応する第2のキャラクタオブジェクトの現在のブラッド値がブラッドグルーブ表示領域a311に対するブラッドグルーブ表示領域内のブラッド値の割合を使用することによって表される。確かに、本発明のこの実施形態において、第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクトに対応するウィンドウロケーション内にステータス属性情報に関するレンダリングを実行する方式は、図8に示されているものに限定されない。
その一方で、端末は、サーバから、別の端末によって同期された少なくとも1つの第2のキャラクタオブジェクトのスキル属性情報を取得する、すなわち、GUIにおけるキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのスキル属性情報を取得する。端末は、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトのスキル属性情報を取得し、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて第2のキャラクタオブジェクトのスキル属性情報に関してレンダリングを実行し、キャラクタオペレーションオブジェクトに表示されるスキル属性情報は、対応する第2のキャラクタオブジェクトが現在少なくとも1つのスキルオブジェクトをリリースすることができることを表す、ことが理解され得る。図8を参照すると、キャラクタコンテナオブジェクト内のキャラクタオペレーションオブジェクトa31の右上隅に、円形識別子a312を使用することによってスキル属性情報が表される。キャラクタオペレーションオブジェクトが円形識別子a312を表示したときに、これは、キャラクタオペレーションオブジェクトに関連付けられている第2のキャラクタオブジェクトは、現在、少なくとも1つのスキルオブジェクトをリリースすることができることを示す。キャラクタオペレーションオブジェクトが円形識別子を表示しないときに、これは、キャラクタオペレーションオブジェクトに関連付けられている第2のキャラクタオブジェクトは、現在、どのスキルオブジェクトもリリースすることができないことを示す。確かに、本発明のこの実施形態において、第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクトに対応するウィンドウロケーション内にステータス属性情報に関するレンダリングを実行する方式は、図8に示されているものに限定されない。
本発明のこの実施形態における技術的解決方法を用いることで、その一方で、GUI内のキャラクタ選択領域内にデプロイされるキャラクタコンテナオブジェクト内のウィンドウロケーションを用いて、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内でレンダリングが実行され、それにより、ユーザはキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを用いて対応する第2のキャラクタオブジェクトのビジョンイメージを素早く取得し、それによって、インタラクションプロセスにおけるユーザのオペレーションエクスペリエンスを大幅に改善することができる。その一方で、キャラクタコンテナオブジェクト内のキャラクタオペレーションオブジェクトに関連付けられている第2のキャラクタオブジェクトのステータス属性情報およびスキル属性情報が、同じグループに属する第2のキャラクタオブジェクト(すなわち、チームメート)のステータス属性情報およびスキル属性情報を同期させることによって取得され、特定の方式で、対応するウィンドウロケーションにおいて、ステータス属性情報およびスキル属性情報に関してレンダリングが実行される、すなわち、第2のキャラクタオブジェクト(すなわち、チームメート)のステータス属性情報およびスキル属性情報は、対応するキャラクタオペレーションオブジェクト(UIアバター)上に反映され、したがって、ユーザは第2のキャラクタオブジェクト(すなわち、チームメート)のステータス属性情報およびスキル属性情報を素早く学習することができ、それによって、情報交換プロセスにおけるユーザのオペレーションエクスペリエンスを改善することができる。
実施形態2から実施形態4における方法実施形態に基づき、2対2アプリケーションシナリオが、以下の詳細な説明のための例として使用される。2対2アプリケーションシナリオは、端末1によって制御される第1のキャラクタオブジェクトおよび端末2によって制御される第2のキャラクタオブジェクトが第1のグループに属し、端末3によって制御される第3のキャラクタオブジェクトおよび端末4よって制御される第4のキャラクタオブジェクトと情報交換を実行するアプリケーションシナリオである。他のアプリケーションシナリオについては、このアプリケーションシナリオでの説明を参照し、この実施形態では再び詳細を説明しない。図9は、本発明のこの実施形態による情報処理方法におけるインタラクションの概略アプリケーション図である。図9に示されているように、このアプリケーションシナリオには、端末1、端末2、端末3、および端末4、ならびにサーバ5が含まれる。ユーザ1は端末1を使用することによってトリガおよび制御を実行し、ユーザ2は端末2を使用することによってトリガおよび制御を実行し、ユーザ3は端末3を使用することによってトリガおよび制御を実行し、ユーザ4は端末4を使用することによってトリガおよび制御を実行し、方法は次のステップを含む。
ユーザ1の場合のステップ11:ユーザ1は、ゲームシステムをトリガし、識別認証情報を登録し、識別認証情報は、ユーザ名およびパスワードであってよい。
ステップ12:端末1は、取得された識別認証情報をサーバ5に送信し、サーバ5は、識別認証を実行し、識別認証が成功した後に第1のGUIを端末1に返し、第1のGUIは第1のキャラクタオブジェクトを含み、第1のキャラクタオブジェクトはユーザ1のトリガオペレーションに基づき仮想オペレーションを実行することができ、仮想オペレーションは第1のキャラクタオブジェクトの移動オペレーション、別のキャラクタオブジェクトに対する第1のキャラクタオブジェクトの攻撃オペレーションまたはスキルリリースオペレーションなどを含む。
ユーザ2の場合のステップ21:ユーザ2は、ゲームシステムをトリガし、識別認証情報を登録し、識別認証情報は、ユーザ名およびパスワードであってよい。
ステップ22:端末2は、取得された識別認証情報をサーバ5に送信し、サーバ5は、識別認証を実行し、識別認証が成功した後に第2のGUIを端末2に返し、第2のGUIは第2のキャラクタオブジェクトを含み、第2のキャラクタオブジェクトはユーザ2のトリガオペレーションに基づき仮想オペレーションを実行することができ、仮想オペレーションは第2のキャラクタオブジェクトの移動オペレーション、別のキャラクタオブジェクトに対する第2のキャラクタオブジェクトの攻撃オペレーションまたはスキルリリースオペレーションなどを含む。
この実施形態において、端末1内でレンダリングが実行される第1のキャラクタオブジェクトおよび端末2内でレンダリングが実行される第2のキャラクタオブジェクトは、同じグループに属し、端末1におけるGUI内のキャラクタコンテナオブジェクトのウィンドウロケーションは、第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクトを含む。キャラクタオペレーションオブジェクトが、ビジョン取得ジェスチャ(長押しジェスチャなど)によって操作されたときに、端末1は、端末2の仮想レンズを呼び出して、仮想レンズを使用することによって端末2のビジョンイメージを取得し、ビジョン取得ジェスチャ(長押しジェスチャなど)が連続的に動作しているときに、端末1は、ビジョンイメージを表示する。それに対応して、端末2における第2のGUI内のキャラクタコンテナオブジェクトのウィンドウロケーションが、第1のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクトを含み、端末1と同様に、端末2のキャラクタオペレーションオブジェクトが、ビジョン取得ジェスチャ(長押しジェスチャなど)によって操作されるときに、端末2は、端末1の仮想レンズを呼び出して、仮想レンズを使用することによって端末1のビジョンイメージを取得することができるが、ここでは詳細について再び説明しない。
ユーザ3の場合のステップ31:ユーザ3は、ゲームシステムをトリガし、識別認証情報を登録し、識別認証情報は、ユーザ名およびパスワードであってよい
ステップ32:端末3は、取得された識別認証情報をサーバ5に送信し、サーバ5は、識別認証を実行し、識別認証が成功した後に第3のGUIを端末3に返し、第3のGUIは第3のキャラクタオブジェクトを含み、第3のキャラクタオブジェクトはユーザ3のトリガオペレーションに基づき仮想オペレーションを実行することができ、仮想オペレーションは第3のキャラクタオブジェクトの移動オペレーション、別のキャラクタオブジェクトに対する第3のキャラクタオブジェクトの攻撃オペレーションまたはスキルリリースオペレーションなどを含む。
ユーザ4の場合のステップ41:ユーザ4は、ゲームシステムをトリガし、識別認証情報を登録し、識別認証情報は、ユーザ名およびパスワードであってよい
ステップ42:端末4は、取得された識別認証情報をサーバ5に送信し、サーバ5は、識別認証を実行し、識別認証が成功した後に第4のGUIを端末5に返し、第4のGUIは第4のキャラクタオブジェクトを含み、第4のキャラクタオブジェクトはユーザ5のトリガオペレーションに基づき仮想オペレーションを実行することができ、仮想オペレーションは第4のキャラクタオブジェクトの移動オペレーション、別のキャラクタオブジェクトに対する第4のキャラクタオブジェクトの攻撃オペレーションまたはスキルリリースオペレーションなどを含む。
端末1および端末2と同様に、端末3および端末4の各々においてレンダリングが実行され、同じグループ4に属する別のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクトを取得する。キャラクタオペレーションオブジェクト上のビジョン取得ジェスチャ(長押しジェスチャなど)が検出されたときに、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトのビジョンイメージが取得されるが、ここでは詳細について再び説明しない。
この実施形態において、ユーザ1およびユーザ2は、第1のグループにグループ化され、ユーザ3およびユーザ4は、第2のグループにグループ化され、第1のグループ内のキャラクタオブジェクトおよび第2グループ内のキャラクタオブジェクトは、トリガオペレーションに基づき情報交換オブジェクトとして働き得る。
ここまでに、ゲームシステム内のユーザ1、ユーザ2、ユーザ3、およびユーザ4のログインオペレーションおよび初期化オペレーションは完了している。
ユーザ1の場合のステップ13:ユーザ1は、端末1によって提示される第1のGUI上でトリガオペレーションを実行し、トリガオペレーションは、任意のスキルオブジェクト上のスキルリリースオペレーション、任意のキャラクタオブジェクト上の情報交換オペレーション(物理的攻撃オペレーションと理解され得る)、第1のキャラクタオブジェクトの移動オペレーションなどを含む、第1のGUI内の任意の仮想リソースオブジェクトに対して実行され得る。この実施形態では、トリガオペレーションは、第1のGUIにおけるキャラクタコンテナオブジェクト内のキャラクタオペレーションオブジェクト上のビジョン取得ジェスチャオペレーションである。
ステップ14:端末1は、トリガオペレーションを取得するときに、トリガオペレーションジェスチャに対応する命令を識別し、命令を実行する、たとえば、対応するオペレーションオブジェクトに対するスキルリリース命令を実行する、対応するキャラクタオブジェクトに対する情報交換命令(物理的攻撃命令など)を実行する、または移動命令を実行し、命令を実行するプロセスにおいて、対応するデータの変化を記録する。
ステップ15:変更されたデータを端末1に対応する第1のデータとして使用し、第1のデータをサーバ5に対し同期させる。
ユーザ2の場合のステップ23:ユーザ2は、端末2によって提示される第2のGUI上でトリガオペレーションを実行し、トリガオペレーションは、任意のスキルオブジェクト上のスキルリリースオペレーション、任意のキャラクタオブジェクト上の情報交換オペレーション(物理的攻撃オペレーションと理解され得る)、第2のキャラクタオブジェクトの移動オペレーションなどを含む、第2のGUI内の任意の仮想リソースオブジェクトに対して実行され得る。この実施形態では、トリガオペレーションは、第2のGUIにおけるキャラクタコンテナオブジェクト内のキャラクタオペレーションオブジェクト上のビジョン取得ジェスチャオペレーションである。
ステップ24:端末2は、トリガオペレーションを取得するときに、トリガオペレーションジェスチャに対応する命令を識別し、命令を実行する、たとえば、対応するオペレーションオブジェクトに対するスキルリリース命令を実行する、対応するキャラクタオブジェクトに対する情報交換命令(物理的攻撃命令など)を実行する、または移動命令を実行し、命令を実行するプロセスにおいて、対応するデータの変化を記録する。
ステップ25:変更されたデータを端末2に対応する第2のデータとして使用し、第2のデータをサーバ5に対し同期させる。
ユーザ3の場合のステップ33:ユーザ3は、端末3によって提示される第3のGUI上でトリガオペレーションを実行し、トリガオペレーションは、任意のスキルオブジェクト上のスキルリリースオペレーション、任意のキャラクタオブジェクト上の情報交換オペレーション(物理的攻撃オペレーションと理解され得る)、第3のキャラクタオブジェクトの移動オペレーションなどを含む、第3のGUI内の任意の仮想リソースオブジェクトに対して実行され得る。この実施形態では、トリガオペレーションは、第3のGUIにおけるキャラクタコンテナオブジェクト内のキャラクタオペレーションオブジェクト上のビジョン取得ジェスチャオペレーションである。
ステップ34:端末3は、トリガオペレーションを取得するときに、トリガオペレーションジェスチャに対応する命令を識別し、命令を実行する、たとえば、対応するオペレーションオブジェクトに対するスキルリリース命令を実行する、対応するキャラクタオブジェクトに対する情報交換命令(物理的攻撃命令など)を実行する、または移動命令を実行し、命令を実行するプロセスにおいて、対応するデータの変化を記録する。
ステップ35:変更されたデータを端末3に対応する第3のデータとして使用し、第3のデータをサーバ5に対し同期させる。
ユーザ4の場合のステップ43:ユーザ4は、端末4によって提示される第4のGUI上でトリガオペレーションを実行し、トリガオペレーションは、任意のスキルオブジェクト上のスキルリリースオペレーション、任意のキャラクタオブジェクト上の情報交換オペレーション(物理的攻撃オペレーションと理解され得る)、第4のキャラクタオブジェクトの移動オペレーションなどを含む、第4のGUI内の任意の仮想リソースオブジェクトに対して実行され得る。この実施形態では、トリガオペレーションは、第4のGUIにおけるキャラクタコンテナオブジェクト内のキャラクタオペレーションオブジェクト上のビジョン取得ジェスチャオペレーションである。
ステップ44:端末4は、トリガオペレーションを取得するときに、トリガオペレーションジェスチャに対応する命令を識別し、命令を実行する、たとえば、対応するオペレーションオブジェクトに対するスキルリリース命令を実行する、対応するキャラクタオブジェクトに対する情報交換命令(物理的攻撃命令など)を実行する、または移動命令を実行し、命令を実行するプロセスにおいて、対応するデータの変化を記録する。
ステップ45:変更されたデータを端末4に対応する第4のデータとして使用し、第4のデータをサーバ5に対し同期させる。
サーバ5の場合のステップ50:端末1によって同期された第1のデータ、端末2によって同期された第2のデータ、端末3によって同期された第3のデータ、および端末4によって同期された第4のデータに基づきデータを更新し、更新されたデータを端末1、端末2、端末3、および端末4に対してそれぞれ同期させる。
前述の方法実施形態の説明を参照すると、実際のアプリケーションシナリオが、次のように本発明のこの実施形態を説明するための一例として使用される。このアプリケーションシナリオは、多人数参加型オンライン戦場ゲーム(Multiplayer Online Battle Arena Games)(MOBA)に関係する。MOBAでは、関係する用語は、次のとおりである。1)UIレイヤ、すなわち、GUI内のアイコン、2)スキルインジケータ:特殊効果、ハロ、またはスキルリリースを補完するために使用されるオペレーション、3)ゲーム内でカメラとして理解されてよい、仮想レンズ、および4)小地図:当事者2人の情報および位置が地図に表示されている、レーダー地図として理解されてよい、大地図のスケールダウンされたバージョン。
図10は、本発明のこの実施形態による情報処理方法におけるGUIの第4の概略図である。この例は、実際のインタラクションプロセスで使用されるアプリケーションシナリオに基づく。図10を参照すると、この実施形態では、レンダリングを通じて取得されるGUI90はキャラクタ選択領域92を含み、キャラクタ選択領域92はキャラクタコンテナオブジェクトを含み、この例では、キャラクタコンテナオブジェクトは4つのウィンドウロケーションを含む。1つのキャラクタオペレーションオブジェクトは、キャラクタオペレーションオブジェクト921、キャラクタオペレーションオブジェクト922、キャラクタオペレーションオブジェクト923、およびキャラクタオペレーションオブジェクト924を含む、各ウィンドウロケーション内のレンダリングを通じて取得される。各キャラクタオペレーションオブジェクトは、1つのキャラクタオブジェクトに関連付けられ、4つのキャラクタオブジェクトはユーザキャラクタオブジェクトと同じグループに属する。この例では、GUI90は、領域91をさらに備える。キャラクタ選択領域92内の任意のキャラクタオペレーションオブジェクト上のビジョン取得ジェスチャが検出されないときに、当事者2人のデプロイメントおよびレイアウトの小地図(図10を参照)が、領域91内のレンダリングを通じて取得される。キャラクタ選択領域92内の任意のキャラクタオペレーションオブジェクト(キャラクタオペレーションオブジェクト921など)上のビジョン取得ジェスチャ(長押しジェスチャなど)が検出されたときに、端末は、命令を使用することによって、キャラクタオペレーションオブジェクト921に関連付けられているキャラクタオブジェクトに対応する仮想レンズを呼び出して、ビジョンイメージをキャプチャするように仮想レンズを制御し、端末内のGUI90にビジョンイメージを返す。対応するキャラクタオペレーションオブジェクト921に関連付けられているキャラクタオブジェクトのビジョンイメージ(図10に示されていない)は、領域91内でのレンダリング通じて取得される。このようにして、ユーザがキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを用いて対応する第2のキャラクタオブジェクトのビジョンイメージを素早く取得するのが容易であり、それによって、インタラクシ
ョンプロセスにおけるユーザのオペレーションエクスペリエンスを大幅に改善することができる。
実施形態5
本発明のこの実施形態は、端末をさらに提供する。図11は、本発明の実施形態5による端末の概略構造図である。図11に示されているように、端末は、レンダリング処理ユニット61と、デプロイメントユニット62と、検出ユニット63と、オペレーション実行ユニット64とを備える。
レンダリング処理ユニット61は、ソフトウェアアプリケーションを実行し、レンダリングを実行して、GUIを取得し、GUIにおいてレンダリングを実行して、少なくとも1つの仮想リソースオブジェクトを取得するように構成され、GUIにおいてレンダリングを実行して、オペレーション実行ユニット64によって取得される少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされるビジョンイメージを取得するようにさらに構成される。
デプロイメントユニット62は、GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイするように構成される。
検出ユニット63は、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出するように構成される。
オペレーション実行ユニット64は、検出ユニット63がキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得するように構成される。
この実施形態において、GUIは少なくとも1つのキャラクタ選択領域を含み、キャラクタ選択領域は少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは少なくとも1つのウィンドウロケーションを含む。対応するキャラクタオペレーションオブジェクトは、少なくともいくつかのウィンドウロケーションで運ばれる。キャラクタオペレーションオブジェクトは、GUI内のキャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトの識別子(識別子はアバターであってよい)を使用することによって表され得る。ここにおいて、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する。キャラクタ選択領域内のキャラクタコンテナオブジェクト上のレンダリングの様式は、限定はしないが、バー形状または円環形状を含む、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトまたはキャラクタ選択ホイールオブジェクトを使用することによって表され得る。
特に、図3を参照すると、レンダリング処理ユニット61によるレンダリングを通じて取得されたGUI800は、少なくとも1つの仮想リソースオブジェクトを含んでいる。仮想リソースオブジェクトは、少なくとも1つのユーザキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することによって情報交換を実行する、すなわち、ユーザコマンドを入力し得る。ユーザキャラクタオブジェクトa10は、端末によって検出された第1のユーザコマンドに基づき第1の仮想オペレーションを実行することができ、第1の仮想オペレーションは、限定はしないが、移動オペレーション、物理的攻撃オペレーション、スキル攻撃オペレーションなどを含む。ユーザキャラクタオブジェクトa10は、端末のユーザによって制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムにおいて、ユーザキャラクタオブジェクトa10は、ユーザのオペレーションに基づきGUIにおいて対応するアクションを実行することができる。GUI800は、少なくとも1つのスキルオブジェクト803をさらに含み、ユーザは、スキルリリースオペレーションを用いて、対応するスキルリリースオペレーションを実行するようにユーザキャラクタオブジェクトa10を制御し得る。
図3に示されている例では、デプロイメントユニット62は、GUI内にキャラクタ選択領域802をデプロイし、キャラクタコンテナオブジェクトをキャラクタ選択領域802内にデプロイする。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することによって表される(すなわち、キャラクタコンテナオブジェクトはバー形状の表示効果をもたらす)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウロケーションを含み、レンダリングが、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内で実行される。キャラクタオペレーションオブジェクトがアバターを使用することによって表される一例が使用される、すなわち、キャラクタ選択領域802は、少なくとも1つもアバターを含む。少なくとも1つのアバターは、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ一対一対応関係にある。図3に示されているように、この例では5対5アプリケーションシナリオが使用されている。ユーザキャラクタオブジェクトa10と同じグループに属する4つのキャラクタオブジェクトがあり、それに対応して、キャラクタ選択領域802内に4つのキャラクタオペレーションオブジェクト、たとえば、図3に示されているキャラクタオペレーションオブジェクトa11、キャラクタオペレーションオブジェクトa12、キャラクタオペレーションオブジェクトa13、およびキャラクタオペレーションオブジェクトa14がある。キャラクタ選択領域802内の4つのキャラクタオペレーションオブジェクトは、ユーザキャラクタオブジェクトと同じグループに属する4つの第2のキャラクタオブジェクトと一対一対応関係にあることが理解され得る。この実施形態は、少なくとも2つのグループメンバを含む複数人の戦闘のアプリケーションシナリオに適用され得る。
一実装において、キャラクタ選択領域802内の少なくとも2つのキャラクタオペレーションオブジェクトの間の相互位置関係は、少なくとも2つのキャラクタオペレーションオブジェクトによってゲームシステムに入る時間順序に従って決定される。図3に示されているように、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトがゲームシステムに入る時間は、キャラクタオペレーションオブジェクトa12に関連付けられているキャラクタオブジェクトの時間、キャラクタオペレーションオブジェクトa13の時間、およびキャラクタオペレーションオブジェクトa14の時間などよりも早い時間であり、詳細は本明細書では説明されない。
この実施形態において、オペレーション実行ユニット64は、検出ユニット63が、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに第1の命令を生成して送信し、第1の命令は、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出し、ビジョンイメージをキャプチャするように仮想レンズを制御するように構成され、検出ユニット63がビジョン取得ジェスチャを検出するプロセスにおいて、仮想レンズによってキャプチャされたビジョンイメージを取得するように構成される。
特に、図3を参照すると、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。検出ユニット63がキャラクタ選択領域802内のキャラクタオペレーションオブジェクト(図3に示されているキャラクタオペレーションオブジェクトa11など)上の長押しジェスチャを検出したときに、オペレーション実行ユニット64は、第1の命令を生成し、第1の命令に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末へのネットワーク接続を確立し、ネットワーク接続に基づき、キャラクタオペレーションオブジェクトに関連付けられているキャラクタオブジェクトに対応する別の端末に第1の命令を送信して、第1の命令に基づき、別の端末の仮想レンズを呼び出し、仮想レンズを使用することによってビジョンイメージをキャプチャするように別の端末を制御する。検出ユニット63がキャラクタオペレーションオブジェクトa11上の長押しジェスチャを連続的に検出するプロセスにおいて、オペレーション実行ユニット64は、リアルタイムで、別の端末によって送信されたビジョンイメージを取得し、GUI内でレンダリングを実行して、ビジョンイメージを取得する。ビジョンイメージ表示領域801および図3に示されているビジョンイメージ表示領域801の拡大図801aに図示されているように、キャラクタオペレーションオブジェクトa11に対応するビジョンイメージはビジョンイメージ表示領域801内に表示され、ビジョンイメージは、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトを制御するユーザによって見ることができるイメージである。たとえば、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が、現在、別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを実行している場合、キャラクタオペレーションオブジェクトa11に関連付けられているキャラクタオブジェクトc11が別のキャラクタオブジェクトb11の方へスキルオブジェクト上でリリースオペレーションを現在実行しているビジョンイメージが、図3に示されているように、GUI800内のビジョンイメージ表示領域801内に表示される。ビジョン取得ジェスチャ(長押しジェスチャ
など)を用いて、端末は別の対応する端末のビジョンイメージに素早く切り替えることができ、それにより、端末のユーザはチームメートのビジョンイメージを素早く取得することができることが理解され得る。
一実装において、オペレーション実行ユニット64は、ビジョン取得ジェスチャが停止したことを検出ユニット63が検出したときに、第2の命令を生成し、第2の命令に基づき、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すのを停止するようにさらに構成される。
特に、ビジョン取得ジェスチャが長押しジェスチャである一例が使用されている。オペレーション実行ユニット64は、長押しジェスチャを検出ユニット63が検出したときに、第2の命令を生成し、第2の命令に基づき、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すのを停止し、端末と別の端末との間のネットワーク接続は、終了する。
当業者であれば、本発明のこの実施形態における端末の処理ユニットの機能は、情報処理方法の関係する説明を参照することで理解され得ることを理解するであろう。本発明のこの実施形態における情報処理端末内の処理ユニットは、本発明のこの実施形態における機能を有するアナログ回路を実装することによって実装され得るか、またはインテリジェント端末上で本発明のこの実施形態における機能を有するソフトウェアを走らせることによって実装され得る。
実施形態6
実施形態5に基づき、本発明のこの実施形態は端末をさらに提供する。図12は、本発明の実施形態6による端末の概略構造図である。図12に示されているように、端末は、レンダリング処理ユニット61と、デプロイメントユニット62と、検出ユニット63と、オペレーション実行ユニット64と、通信ユニット65とを備える。
レンダリング処理ユニット61は、ソフトウェアアプリケーションを実行し、レンダリングを実行して、GUIを取得し、GUIにおいてレンダリングを実行して、少なくとも1つの仮想リソースオブジェクトを取得するように構成され、GUIにおいてレンダリングを実行して、オペレーション実行ユニット64によって取得される少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされるビジョンイメージを取得するようにさらに構成される、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいてオペレーション実行ユニット64によって取得されるステータス属性情報に関してレンダリングを実行するようにさらに構成される。
デプロイメントユニット62は、GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイするように構成される。
検出ユニット63は、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出するように構成される。
オペレーション実行ユニット64は、検出ユニット63がキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得するように構成され、GUI内でユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録し、ユーザキャラクタオブジェクトのステータス属性情報を生成し、通信ユニット65を使用することによってサーバに対してステータス属性情報を同期的に更新するようにさらに構成され、サーバから、通信ユニット65を使用することによって、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得するようにさらに構成される。
この実施形態における、レンダリング処理ユニット61、デプロイメントユニット62、検出ユニット63、およびオペレーション実行ユニット64の機能については、実施形態5の説明を参照し、ここで再び詳細を説明しない。相違点は、この実施形態では、オペレーション実行ユニット64がGUIにおいて、すなわち、ユーザキャラクタオブジェクトが別のキャラクタオブジェクトと情報交換を実行するプロセスにおいて、ユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録するときに、端末は、リアルタイムでユーザキャラクタオブジェクトのステータス属性の変化を記録し、ユーザキャラクタオブジェクトのステータス属性情報を取得し、ステータス属性情報は、限定はしないが、ユーザキャラクタオブジェクトのブラッド値、ヒットポイント、またはスキル属性情報を含む、という点である。オペレーション実行ユニット64は、リアルタイムで通信ユニット65を使用することによってユーザキャラクタオブジェクトの取得されたステータス属性情報をサーバに同期させる。それに対応して、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトについて、第2のキャラクタオブジェクトに対応する端末は、リアルタイムで第2のキャラクタオブジェクトのステータス属性情報も取得し、ステータス属性情報をサーバに同期させる。
さらに、オペレーション実行ユニット64は、サーバから、通信ユニット65を使用することによって、別の端末によって同期された少なくとも1つの第2のキャラクタオブジェクトのステータス属性情報を取得する、すなわち、GUIにおけるキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得する。オペレーション実行ユニット64は、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトのステータス属性情報を取得し、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて第2のキャラクタオブジェクトのステータス属性情報に関してレンダリングを実行することが理解され得る。図6を参照すると、ステータス属性情報がブラッド値である一例が使用されている。キャラクタコンテナオブジェクト内のキャラクタオペレーションオブジェクトの外円にある領域が、ブラッドグルーブ表示領域として使用され、対応する第2のキャラクタオブジェクトの現在のブラッド値がブラッドグルーブ表示領域に対するブラッドグルーブ表示領域内のブラッド値の割合を使用することによって表される。確かに、本発明のこの実施形態において、第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクトに対応するウィンドウロケーション内にステータス属性情報に関するレンダリングを実行する方式は、図6に示されているものに限定されない。
一実装において、オペレーション実行ユニット64は、GUI内でユーザキャラクタオブジェクトのスキル属性の変化を連続的に記録し、ユーザキャラクタオブジェクトのスキル属性がプリセット条件を満たしていると決定したときにユーザキャラクタオブジェクトのスキル属性情報を生成し、通信ユニット65を使用することによってサーバに対してスキル属性情報を同期的に更新するようにさらに構成され、サーバから、通信ユニット65を使用することによって、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのスキル属性情報を取得するようにさらに構成される。
それに対応して、レンダリング処理ユニット61は、第2のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいてオペレーション実行ユニット64によって取得されるスキル属性情報に関してレンダリングを実行するようにさらに構成される。
特に、オペレーション実行ユニット64がGUIにおいて、すなわち、ユーザキャラクタオブジェクトが別のキャラクタオブジェクトと情報交換を実行するプロセスにおいて、ユーザキャラクタオブジェクトのスキル属性の変化を連続的に記録するときに、オペレーション実行ユニット64は、リアルタイムでユーザキャラクタオブジェクトのスキル属性の変化を記録する。ユーザキャラクタオブジェクトがスキルオブジェクトをリリースした後、スキルオブジェクトは一定期間の後に復元され得る、すなわち、スキルオブジェクトは、その期間の後に再びリリースされ得る。したがって、この実施形態では、オペレーション実行ユニット64は、リアルタイムでユーザキャラクタオブジェクトのスキル属性の変化を記録し、少なくとも1つのスキルオブジェクトがリリースできると決定したときに、ユーザキャラクタオブジェクトのスキル属性は、プリセット条件を満たすと決定し、ユーザキャラクタオブジェクトのスキル属性情報を生成し、スキル属性情報はユーザキャラクタオブジェクトが少なくとも1つのスキルオブジェクトをリリースできることを表す。オペレーション実行ユニット64は、リアルタイムで通信ユニット65を使用することによってユーザキャラクタオブジェクトの取得されたスキル属性情報をサーバに同期させる。それに対応して、ユーザキャラクタオブジェクトと同じグループに属する少なくとも1つの第2のキャラクタオブジェクトについて、第2のキャラクタオブジェクトに対応する端末は、リアルタイムで第2のキャラクタオブジェクトのスキル属性情報も取得し、スキル属性情報をサーバに同期させる。
オペレーション実行ユニット64は、サーバから、通信ユニット65を使用することによって、別の端末によって同期された少なくとも1つの第2のキャラクタオブジェクトのスキル属性情報を取得する、すなわち、GUIにおけるキャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのスキル属性情報を取得する。オペレーション実行ユニット64は、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトのスキル属性情報を取得し、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて第2のキャラクタオブジェクトのスキル属性情報に関してレンダリングを実行し、キャラクタオペレーションオブジェクトに表示されるスキル属性情報は、対応する第2のキャラクタオブジェクトが現在少なくとも1つのスキルオブジェクトをリリースすることができることを表す、ことが理解され得る。図8を参照すると、キャラクタ選択領域802内のキャラクタオペレーションオブジェクトの右上隅に、円形識別子を使用することによってスキル属性情報が表される。キャラクタオペレーションオブジェクトが円形識別子を表示したときに、これは、キャラクタオペレーションオブジェクトに関連付けられている第2のキャラクタオブジェクトは、現在、少なくとも1つのスキルオブジェクトをリリースすることができることを示す。キャラクタオペレーションオブジェクトが円形識別子を表示しないときに、これは、キャラクタオペレーションオブジェクトに関連付けられている第2のキャラクタオブジェクトは、現在、どのスキルオブジェクトもリリースすることができないことを示す。確かに、本発明のこの実施形態において、第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクトに対応するウィンドウロケーション内にステータス属性情報に関するレンダリングを実行する方式は、図8に示されているものに限定されない。
当業者であれば、本発明のこの実施形態における端末の処理ユニットの機能は、情報処理方法の関係する説明を参照することで理解され得ることを理解するであろう。本発明のこの実施形態における情報処理端末内の処理ユニットは、本発明のこの実施形態における機能を有するアナログ回路を実装することによって実装され得るか、またはインテリジェント端末上で本発明のこの実施形態における機能を有するソフトウェアを走らせることによって実装され得る。
本発明の実施形態5および実施形態6において、実際のアプリケーションでは、端末内のレンダリング処理ユニット61、デプロイメントユニット62、検出ユニット63、およびオペレーション実行ユニット64はすべて、端末内の中央演算処理装置(CPU)、デジタルシグナルプロセッサ(DSP)、またはフィールドプログラマブルゲートアレイ(FPGA)によって実装され得るものであり、実際のアプリケーションでは、端末内の通信ユニット65は、端末内のトランシーバアンテナまたは通信インターフェースによって実装され得る。
実施形態7
本発明のこの実施形態は、端末をさらに提供する。端末は、PCなどの電子デバイスであり得るか、またはタブレットコンピュータ、ラップトップコンピュータ、またはスマートフォンなどの携帯型電子デバイスであり得る。ゲームシステムは、ソフトウェアアプリケーション(ゲームアプリケーションなど)をインストールすることによって端末内で実行され、端末は、少なくともデータを記憶するためのメモリと、データ処理のためのプロセッサとを備える。データ処理のためのプロセッサに関しては、処理の際に、実装のためにマイクロプロセッサ、CPU、DSP、またはFPGAが使用され得る。メモリは、オペレーション命令を含み、オペレーション命令は、コンピュータ実行可能コードであってよく、本発明の実施形態における情報処理方法の手順のステップは、オペレーション命令を使用することによって実装される。
図13は、本発明の実施形態7による端末の概略構造図である。図13に示されているように、端末は、プロセッサ71と、ディスプレイ72とを備える。プロセッサ71は、ソフトウェアアプリケーションを実行し、ディスプレイ72上でレンダリングを実行して、GUIを取得するように構成される。プロセッサ、GUI、およびソフトウェアアプリケーションは、ゲームシステム上に実装される。
プロセッサ71は、GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得し、GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイし、
キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、GUIにおいてレンダリングを実行し、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得するように構成される。
特に、プロセッサ71は、キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに第1の命令を生成して送信し、第1の命令は、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出し、ビジョンイメージをキャプチャするように仮想レンズを制御するように構成され、ビジョン取得ジェスチャの検出のプロセスにおいて、仮想レンズによってキャプチャされたビジョンイメージを取得するように構成される。
一実装において、プロセッサ71は、ビジョン取得ジェスチャが停止したときに、第2の命令を生成し、第2の命令に基づき、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズを呼び出すのを停止するようにさらに構成される。
一実装において、サーバは、通信デバイス74をさらに備え、プロセッサ71は、GUI内でユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録し、ユーザキャラクタオブジェクトのステータス属性情報を生成し、通信デバイス74を使用することによってサーバに対してステータス属性情報を同期的に更新するようにさらに構成される。
それに対応して、プロセッサ71は、サーバから、通信デバイス74を使用することによって、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得し、第1のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいてステータス属性情報に関してレンダリングを実行するようにさらに構成される。
一実装において、プロセッサ71は、GUI内でユーザキャラクタオブジェクトのスキル属性の変化を連続的に記録し、ユーザキャラクタオブジェクトのスキル属性がプリセット条件を満たしていると決定したときにユーザキャラクタオブジェクトのスキル属性情報を生成し、通信デバイス74を使用することによってサーバに対してスキル属性情報を同期的に更新するようにさらに構成される。
それに対応して、プロセッサ71は、サーバから、通信デバイス74を使用することによって、少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのスキル属性情報を取得し、第2のプリセットされた表示方式で、関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいてスキル属性情報に関してレンダリングを実行するようにさらに構成される。
この実施形態において、端末は、プロセッサ71と、ディスプレイ72と、メモリ73と、入力デバイス76と、バス75と、通信デバイス74とを備える。プロセッサ71、メモリ73、入力デバイス76、ディスプレイ72、および通信デバイス74は、すべて、バス75を使用することによって接続され、バス75は、プロセッサ71、メモリ73、ディスプレイ72、および通信デバイス74の間でデータを伝送するように構成される。
入力デバイス76は、ユーザの入力オペレーションを取得するように主に構成され、入力デバイス76は、端末により異なり得る。たとえば、端末がPCであるときには、入力デバイス76はマウスまたはキーボードなどの入力デバイス76であってよく、端末がスマートフォンまたはタブレットコンピュータなどの携帯型デバイスであるときには、入力デバイス76はタッチスクリーンであってよい。
この実施形態において、コンピュータ記憶媒体は、メモリ73に保存され、コンピュータ実行可能命令は、コンピュータ記憶媒体に記憶され、コンピュータ実行可能命令は、本発明の実施形態における情報処理方法を実行するように構成される。
本出願において提供されるいくつかの実施形態において、開示されているデバイスおよび方法は、他の方式で実装され得ることが理解されるであろう。説明されているデバイス実施形態は、単なる例にすぎない。たとえば、ユニットを分けることは、単に論理機能を分けることであり、実際の実装時には他の分け方であってもよい。たとえば、複数のユニットまたはコンポーネントが、別のシステム内に組み合わされるか、もしくは一体化され得るか、またはいくつかの特徴が無視されるか、もしくは実施され得ない。それに加えて、表示されている、または説明されている相互結合もしくは構成部分の間の直接的結合もしくは通信接続は、いくつかのインターフェースを通じて実装され得る。デバイスもしくはユニットの間の間接的結合もしくは通信接続は、電子的な、機械的な、または他の形態で実装され得る。
分離している部分として説明されるユニットは、物理的に分離し得るかまたは分離し得ず、およびユニットとして表示される部分は、物理的ユニットであり得るかまたは物理的ユニットであり得ず、1つの場所に配置され得るか、または複数のネットワークユニット上に分散され得る。ユニットの一部または全部は、実施形態の解決方法の目的を達成するために実際に必要になるものに従って選択され得る。
それに加えて、本発明の実施形態における機能ユニットは、すべて、1つの処理ユニット内に一体化され得るか、またはユニットの各々が、別々に存在し得るか、または2つ以上のユニットが、1つのユニット内に一体化され、一体化されたユニットは、ハードウェアの形態で実装され得るか、またはソフトウェア機能ユニットに加えてハードウェアの形態で実装され得る。
当業者であれば、方法実施形態のステップの全部または一部が関連するハードウェアに命令するプログラムによって実装され得ることを理解できる。プログラムは、コンピュータ可読記憶媒体に記憶され得る。プログラムが実行されると、方法実施形態のステップが実行される。前述の記憶媒体は、携帯型記憶デバイス、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク、または光ディスクなどの、プログラムコードを記憶することができる任意の媒体を含む。
代替的に、本開示では、一体化されたユニットがソフトウェア機能モジュールの形態で実装され、独立した製品として販売または使用されるときに、一体化されたユニットは、コンピュータ可読記憶媒体に記憶され得る。そのような理解に基づき、本発明の実施形態の技術的解決方法は、本質的に、または既存の技術に寄与する部分は、ソフトウェア製品の形態で実装され得る。コンピュータソフトウェア製品は、記憶媒体に記憶され、本発明の実施形態において説明されている方法のステップのうちのすべてまたはいくつかを実行することをコンピュータデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイスであってよい)に命令するための複数の命令を含む。前述の記憶媒体は、携帯型記憶デバイス、ROM、RAM、磁気ディスク、または光ディスクなどの、プログラムコードを記憶することができる任意の媒体を含む。
前述の説明は、本開示の単に特定の実装にすぎず、本開示の保護範囲を制限することを意図されていない。本開示において開示されている技術の範囲内で当業者が容易に考え付く変更形態または代替的形態は、本開示の保護範囲内にあるものとする。したがって、本開示の保護範囲は、請求項の保護範囲に従うものとする。
本発明の実施形態において、GUI内のキャラクタ選択領域内にデプロイされるキャラクタコンテナオブジェクト内のウィンドウロケーションを用いて、ユーザキャラクタオブジェクトと同じグループに属する第2のキャラクタオブジェクトに関連付けられているキャラクタオペレーションオブジェクト上の、対応するウィンドウロケーション内でレンダリングが実行され、それにより、ユーザはキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを用いて対応する第2のキャラクタオブジェクトのビジョンイメージを素早く取得し、それによって、インタラクションプロセスにおけるユーザのオペレーションエクスペリエンスを大幅に改善することができる。
a10 ユーザキャラクタオブジェクト
a11 キャラクタオペレーションオブジェクト
a12 キャラクタオペレーションオブジェクト
a13 キャラクタオペレーションオブジェクト
a14 キャラクタオペレーションオブジェクト
a31 キャラクタオペレーションオブジェクト
a311 ブラッドグルーブ表示領域
a312 円形識別子
b11、c11 キャラクタオブジェクト
1、2、3、4 ユーザ、端末
5 サーバ
61 レンダリング処理ユニット
62 デプロイメントユニット
63 検出ユニット
64 オペレーション実行ユニット
65 通信ユニット
71 プロセッサ
72 ディスプレイ
73 メモリ
74 通信デバイス
75 バス
76 入力デバイス
90 GUI
91 領域
92 キャラクタ選択領域
101 サーバ
102 端末
103 端末
104 端末
105 端末
106 端末
800 GUI
801 ビジョンイメージ表示領域
801a 拡大図
802 キャラクタ選択領域
803 スキルオブジェクト
921 キャラクタオペレーションオブジェクト
922 キャラクタオペレーションオブジェクト
923 キャラクタオペレーションオブジェクト
924 キャラクタオペレーションオブジェクト

Claims (22)

  1. 情報処理方法であって、ソフトウェアアプリケーションがグラフィカルユーザインターフェース(GUI)を取得するために端末のプロセッサ上で実行され、レンダリングが前記端末のディスプレイ上で実行され、前記プロセッサ、前記GUI、および前記ソフトウェアアプリケーションはゲームシステム内に実装され、前記方法は、
    前記GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得するステップと、
    前記GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイするステップと、
    前記キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、前記GUIにおいてレンダリングを実行し、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得するステップとを含む情報処理方法。
  2. 前記キャラクタコンテナオブジェクト内の前記少なくとも1つのキャラクタオペレーションオブジェクト上で前記ビジョン取得ジェスチャを検出したときに、前記方法は、
    第1の命令を生成し、送信するステップであって、前記第1の命令は前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている前記仮想レンズを呼び出し、前記ビジョンイメージをキャプチャするように前記仮想レンズを制御するように構成される、ステップと、
    前記ビジョン取得ジェスチャの検出のプロセスにおいて、前記仮想レンズによってキャプチャされた前記ビジョンイメージを取得するステップとをさらに含む請求項1に記載の方法。
  3. 前記方法は、前記ビジョン取得ジェスチャが停止したときに、
    第2の命令を生成し、前記第2の命令に基づき、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている前記仮想レンズを呼び出すのを停止するステップをさらに含む請求項2に記載の方法。
  4. 前記方法は、前記GUI内でユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録するステップと、前記ユーザキャラクタオブジェクトのステータス属性情報を生成するステップと、サーバに対して前記ステータス属性情報を同期的に更新するステップとをさらに含む請求項1に記載の方法。
  5. 前記方法は、前記GUI内でユーザキャラクタオブジェクトのスキル属性の変化を連続的に記録するステップと、前記ユーザキャラクタオブジェクトの前記スキル属性がプリセット条件を満たしていると決定したときに前記ユーザキャラクタオブジェクトのスキル属性情報を生成するステップと、サーバに対して前記スキル属性情報を同期的に更新するステップとをさらに含む請求項1に記載の方法。
  6. 前記方法は、前記サーバから、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得するステップと、第1のプリセットされた表示方式で、前記関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて前記ステータス属性情報に関してレンダリングを実行するステップとをさらに含む請求項4に記載の方法。
  7. 前記方法は、前記サーバから、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのスキル属性情報を取得するステップと、第2のプリセットされた表示方式で、前記関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて前記スキル属性情報に関してレンダリングを実行するステップとをさらに含む請求項5に記載の方法。
  8. 端末であって、レンダリング処理ユニットと、デプロイメントユニットと、検出ユニットと、オペレーション実行ユニットとを備え、
    前記レンダリング処理ユニットはソフトウェアアプリケーションを実行し、レンダリングを実行して、グラフィカルユーザインターフェース(GUI)を取得し、前記GUIにおいてレンダリングを実行して、少なくとも1つの仮想リソースオブジェクトを取得するように構成され、前記GUIにおいてレンダリングを実行して、前記オペレーション実行ユニットによって取得される少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされるビジョンイメージを取得するようにさらに構成され、
    前記デプロイメントユニットは前記GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイするように構成され、
    前記検出ユニットは前記キャラクタコンテナオブジェクト内の前記少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出するように構成され、
    前記オペレーション実行ユニットは前記検出ユニットが前記キャラクタコンテナオブジェクト内の前記少なくとも1つのキャラクタオペレーションオブジェクト上で前記ビジョン取得ジェスチャを検出したときに、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている前記仮想レンズによってキャプチャされた前記ビジョンイメージを取得するように構成される、端末。
  9. 前記オペレーション実行ユニットは、前記検出ユニットが、前記キャラクタコンテナオブジェクト内の前記少なくとも1つのキャラクタオペレーションオブジェクト上で前記ビジョン取得ジェスチャを検出したときに第1の命令を生成して送信し、前記第1の命令は、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている前記仮想レンズを呼び出し、前記ビジョンイメージをキャプチャするように前記仮想レンズを制御するように構成され、前記検出ユニットが前記ビジョン取得ジェスチャを検出するプロセスにおいて、前記仮想レンズによってキャプチャされた前記ビジョンイメージを取得するように構成される請求項8に記載の端末。
  10. 前記オペレーション実行ユニットは、前記ビジョン取得ジェスチャが停止したことを前記検出ユニットが検出したときに、第2の命令を生成し、前記第2の命令に基づき、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている前記仮想レンズを呼び出すのを停止するようにさらに構成される請求項9に記載の端末。
  11. 前記端末は、通信ユニットをさらに備え、
    前記オペレーション実行ユニットは、前記GUI内でユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録し、前記ユーザキャラクタオブジェクトのステータス属性情報を生成し、前記通信ユニットを使用することによってサーバに対して前記ステータス属性情報を同期的に更新するようにさらに構成される請求項8に記載の端末。
  12. 前記端末は、通信ユニットをさらに備え、
    前記オペレーション実行ユニットは、前記GUI内でユーザキャラクタオブジェクトのスキル属性の変化を連続的に記録し、前記ユーザキャラクタオブジェクトの前記スキル属性がプリセット条件を満たしていると決定したときに前記ユーザキャラクタオブジェクトのスキル属性情報を生成し、前記通信ユニットを使用することによってサーバに対して前記スキル属性情報を同期的に更新するようにさらに構成される請求項8に記載の端末。
  13. 前記オペレーション実行ユニットは、前記サーバから、前記通信ユニットを使用することによって、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得するようにさらに構成され、
    それに対応して、前記レンダリング処理ユニットは、第1のプリセットされた表示方式で、前記関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて前記オペレーション実行ユニットによって取得される前記ステータス属性情報に関してレンダリングを実行するようにさらに構成される請求項11に記載の端末。
  14. 前記オペレーション実行ユニットは、前記サーバから、前記通信ユニットを使用することによって、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのスキル属性情報を取得するようにさらに構成され、
    それに対応して、前記レンダリング処理ユニットは、第2のプリセットされた表示方式で、前記関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて前記オペレーション実行ユニットによって取得される前記スキル属性情報に関してレンダリングを実行するようにさらに構成される請求項12に記載の端末。
  15. 端末であって、プロセッサとディスプレイとを備え、前記プロセッサは、ソフトウェアアプリケーションを実行し、前記ディスプレイ上でレンダリングを実行して、グラフィカルユーザインターフェース(GUI)を取得するように構成され、前記プロセッサ、前記GUI、および前記ソフトウェアアプリケーションはゲームシステム上に実装され、
    前記プロセッサは前記GUIにおいてレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得し、前記GUI内の少なくとも1つのキャラクタ選択領域内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウロケーションを含むような仕方でデプロイし、
    前記キャラクタコンテナオブジェクト内の少なくとも1つのキャラクタオペレーションオブジェクト上でビジョン取得ジェスチャを検出したときに、前記GUIにおいてレンダリングを実行し、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている仮想レンズによってキャプチャされたビジョンイメージを取得するように構成される、端末。
  16. 前記プロセッサは、前記キャラクタコンテナオブジェクト内の前記少なくとも1つのキャラクタオペレーションオブジェクト上で前記ビジョン取得ジェスチャを検出したときに第1の命令を生成して送信し、前記第1の命令は、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている前記仮想レンズを呼び出し、前記ビジョンイメージをキャプチャするように前記仮想レンズを制御するように構成され、前記ビジョン取得ジェスチャの検出のプロセスにおいて、前記仮想レンズによってキャプチャされた前記ビジョンイメージを取得するように構成される請求項15に記載の端末。
  17. 前記プロセッサは、前記ビジョン取得ジェスチャが停止したときに、第2の命令を生成し、前記第2の命令に基づき、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている前記仮想レンズを呼び出すのを停止するようにさらに構成される請求項16に記載の端末。
  18. 前記サーバは、通信デバイスをさらに備え、
    前記プロセッサは、前記GUI内でユーザキャラクタオブジェクトのステータス属性の変化を連続的に記録し、前記ユーザキャラクタオブジェクトのステータス属性情報を生成し、前記通信デバイスを使用することによってサーバに対して前記ステータス属性情報を同期的に更新するようにさらに構成される請求項15に記載の端末。
  19. 前記サーバは、通信デバイスをさらに備え、
    前記プロセッサは、前記GUI内でユーザキャラクタオブジェクトのスキル属性の変化を連続的に記録し、前記ユーザキャラクタオブジェクトの前記スキル属性がプリセット条件を満たしていると決定したときに前記ユーザキャラクタオブジェクトのスキル属性情報を生成し、前記通信デバイスを使用することによってサーバに対して前記スキル属性情報を同期的に更新するようにさらに構成される請求項15に記載の端末。
  20. 前記プロセッサは、前記サーバから、前記通信デバイスを使用することによって、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのステータス属性情報を取得し、第1のプリセットされた表示方式で、前記関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて前記ステータス属性情報に関してレンダリングを実行するようにさらに構成される請求項18に記載の端末。
  21. 前記プロセッサは、前記サーバから、前記通信デバイスを使用することによって、前記少なくとも1つのキャラクタオペレーションオブジェクトに関連付けられている少なくとも1つのキャラクタオブジェクトのスキル属性情報を取得し、第2のプリセットされた表示方式で、前記関連付けられているキャラクタオペレーションオブジェクトに対応する少なくとも1つのウィンドウロケーションにおいて前記スキル属性情報に関してレンダリングを実行するようにさらに構成される請求項19に記載の端末。
  22. コンピュータ記憶媒体であって、コンピュータ実行可能命令が前記コンピュータ記憶媒体に記憶され、前記コンピュータ実行可能命令は請求項1から7のいずれか一項に記載の前記情報処理方法を実行するように構成されているコンピュータ記憶媒体。
JP2017564016A 2015-09-29 2016-05-04 情報処理方法、端末、およびコンピュータ記憶媒体 Active JP6830447B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510633319.2 2015-09-29
CN201510633319.2A CN105159687B (zh) 2015-09-29 2015-09-29 一种信息处理方法、终端及计算机存储介质
PCT/CN2016/081051 WO2017054452A1 (zh) 2015-09-29 2016-05-04 一种信息处理方法、终端及计算机存储介质

Publications (2)

Publication Number Publication Date
JP2018525050A true JP2018525050A (ja) 2018-09-06
JP6830447B2 JP6830447B2 (ja) 2021-02-17

Family

ID=54800554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017564016A Active JP6830447B2 (ja) 2015-09-29 2016-05-04 情報処理方法、端末、およびコンピュータ記憶媒体

Country Status (8)

Country Link
US (1) US10661171B2 (ja)
EP (1) EP3285156B1 (ja)
JP (1) JP6830447B2 (ja)
KR (1) KR20180005689A (ja)
CN (1) CN105159687B (ja)
CA (1) CA2985867C (ja)
MY (1) MY195861A (ja)
WO (1) WO2017054452A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021007198A (ja) * 2019-06-28 2021-01-21 グリー株式会社 動画配信システム、動画配信方法、情報処理装置、動画配信プログラム及び動画視聴プログラム
JP7018617B1 (ja) 2020-12-11 2022-02-14 正啓 榊原 プレイ記録動画作成システム
US11811681B1 (en) 2022-07-12 2023-11-07 T-Mobile Usa, Inc. Generating and deploying software architectures using telecommunication resources

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159687B (zh) 2015-09-29 2018-04-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105653187A (zh) * 2015-12-24 2016-06-08 杭州勺子网络科技有限公司 一种用于多点触摸终端的触摸控制方法
CN106445588B (zh) * 2016-09-08 2018-05-04 腾讯科技(深圳)有限公司 属性信息的更新方法及装置
CN106453638B (zh) * 2016-11-24 2018-07-06 腾讯科技(深圳)有限公司 一种应用业务内信息交互方法及系统
WO2018103634A1 (zh) 2016-12-06 2018-06-14 腾讯科技(深圳)有限公司 一种数据处理的方法及移动终端
CN106774907B (zh) * 2016-12-22 2019-02-05 腾讯科技(深圳)有限公司 一种在虚拟场景中调整虚拟对象可视区域的方法及移动终端
CN106598438A (zh) * 2016-12-22 2017-04-26 腾讯科技(深圳)有限公司 一种基于移动终端的场景切换方法及移动终端
CN107174824B (zh) * 2017-05-23 2021-01-15 网易(杭州)网络有限公司 特效信息处理方法、装置、电子设备及存储介质
CN107617213B (zh) * 2017-07-27 2019-02-19 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107704165B (zh) * 2017-08-18 2020-05-15 网易(杭州)网络有限公司 虚拟镜头的控制方法及装置、存储介质、电子设备
CN108434742B (zh) 2018-02-02 2019-04-30 网易(杭州)网络有限公司 游戏场景中虚拟资源的处理方法和装置
US11093103B2 (en) 2018-04-09 2021-08-17 Spatial Systems Inc. Augmented reality computing environments-collaborative workspaces
CN108804013B (zh) * 2018-06-15 2021-01-15 网易(杭州)网络有限公司 信息提示的方法、装置、电子设备及存储介质
CN108920124B (zh) * 2018-07-25 2020-11-03 腾讯科技(深圳)有限公司 一种信息显示方法、装置及存储介质
CN109331468A (zh) * 2018-09-26 2019-02-15 网易(杭州)网络有限公司 游戏视角的显示方法、显示装置和显示终端
JP7094216B2 (ja) * 2018-12-28 2022-07-01 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
CN111124226B (zh) * 2019-12-17 2021-07-30 网易(杭州)网络有限公司 游戏画面的显示控制方法、装置、电子设备及存储介质
CN113326212B (zh) * 2020-02-28 2023-11-03 加特兰微电子科技(上海)有限公司 数据处理方法、装置及相关设备
JP7051941B6 (ja) 2020-06-30 2022-05-06 グリー株式会社 端末装置の制御プログラム、端末装置の制御方法、端末装置、サーバ装置の制御方法、一又は複数のプロセッサにより実行される方法、及び配信システム
CN111773703B (zh) * 2020-07-31 2023-10-20 网易(杭州)网络有限公司 游戏对象显示方法、装置、存储介质与终端设备
CN113318444B (zh) * 2021-06-08 2023-01-10 天津亚克互动科技有限公司 角色的渲染方法和装置、电子设备和存储介质
CN113633963A (zh) * 2021-07-15 2021-11-12 网易(杭州)网络有限公司 游戏控制的方法、装置、终端和存储介质
CN113633989A (zh) * 2021-08-13 2021-11-12 网易(杭州)网络有限公司 游戏对象的显示控制方法、装置和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1743043A (zh) * 2005-06-19 2006-03-08 珠海市西山居软件有限公司 一种网络游戏系统及其实现方法
US20100281438A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Altering a view perspective within a display environment
JP2012521039A (ja) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション 仮想オブジェクトの操作
US20140152758A1 (en) * 2012-04-09 2014-06-05 Xiaofeng Tong Communication using interactive avatars
JP2015057106A (ja) * 2014-11-17 2015-03-26 株式会社ソニー・コンピュータエンタテインメント 装置、表示制御方法、プログラム及び情報記憶媒体
WO2015133032A1 (ja) * 2014-03-07 2015-09-11 株式会社ソニー・コンピュータエンタテインメント ゲームシステム、表示制御方法、表示制御プログラム及び記録媒体

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000070549A (ja) * 1998-09-01 2000-03-07 Konami Co Ltd ゲームシステム、画像の保存方法及びゲームプログラムが記録された記録媒体
JP3734815B2 (ja) * 2003-12-10 2006-01-11 任天堂株式会社 携帯ゲーム装置及びゲームプログラム
US8316408B2 (en) * 2006-11-22 2012-11-20 Verizon Patent And Licensing Inc. Audio processing for media content access systems and methods
JP5425407B2 (ja) 2008-03-31 2014-02-26 株式会社バンダイナムコゲームス プログラム及びゲーム装置
US9737796B2 (en) * 2009-07-08 2017-08-22 Steelseries Aps Apparatus and method for managing operations of accessories in multi-dimensions
JP4977248B2 (ja) * 2010-12-10 2012-07-18 株式会社コナミデジタルエンタテインメント ゲーム装置及びゲーム制御プログラム
CN103107982B (zh) * 2011-11-15 2016-04-20 北京神州泰岳软件股份有限公司 一种互联网络中群组成员互动的方法和系统
US8535163B2 (en) * 2012-01-10 2013-09-17 Zynga Inc. Low-friction synchronous interaction in multiplayer online game
US8954890B2 (en) * 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
US8814674B2 (en) * 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
US9403090B2 (en) * 2012-04-26 2016-08-02 Riot Games, Inc. Video game system with spectator mode hud
CN103365596A (zh) * 2013-07-01 2013-10-23 天脉聚源(北京)传媒科技有限公司 一种控制虚拟世界的方法及装置
CN105159687B (zh) * 2015-09-29 2018-04-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
US20180288354A1 (en) * 2017-03-31 2018-10-04 Intel Corporation Augmented and virtual reality picture-in-picture

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1743043A (zh) * 2005-06-19 2006-03-08 珠海市西山居软件有限公司 一种网络游戏系统及其实现方法
JP2012521039A (ja) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション 仮想オブジェクトの操作
US20100281438A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Altering a view perspective within a display environment
US20140152758A1 (en) * 2012-04-09 2014-06-05 Xiaofeng Tong Communication using interactive avatars
WO2015133032A1 (ja) * 2014-03-07 2015-09-11 株式会社ソニー・コンピュータエンタテインメント ゲームシステム、表示制御方法、表示制御プログラム及び記録媒体
JP2015057106A (ja) * 2014-11-17 2015-03-26 株式会社ソニー・コンピュータエンタテインメント 装置、表示制御方法、プログラム及び情報記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"携帯初、3DポリゴンのオンラインRPG モバゲーで", ITMEDIANEWS [ONLINE], JPN6021000100, 20 August 2007 (2007-08-20), ISSN: 0004422442 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021007198A (ja) * 2019-06-28 2021-01-21 グリー株式会社 動画配信システム、動画配信方法、情報処理装置、動画配信プログラム及び動画視聴プログラム
JP7202981B2 (ja) 2019-06-28 2023-01-12 グリー株式会社 動画配信システム、プログラム、及び情報処理方法
JP7473901B2 (ja) 2019-06-28 2024-04-24 グリー株式会社 動画配信システム、プログラム、及び情報処理方法
JP7018617B1 (ja) 2020-12-11 2022-02-14 正啓 榊原 プレイ記録動画作成システム
JP2022093223A (ja) * 2020-12-11 2022-06-23 正啓 榊原 プレイ記録動画作成システム
US11811681B1 (en) 2022-07-12 2023-11-07 T-Mobile Usa, Inc. Generating and deploying software architectures using telecommunication resources

Also Published As

Publication number Publication date
KR20180005689A (ko) 2018-01-16
MY195861A (en) 2023-02-24
US10661171B2 (en) 2020-05-26
CN105159687B (zh) 2018-04-17
US20180028916A1 (en) 2018-02-01
CN105159687A (zh) 2015-12-16
CA2985867C (en) 2021-09-28
EP3285156B1 (en) 2021-02-17
CA2985867A1 (en) 2017-04-06
EP3285156A1 (en) 2018-02-21
JP6830447B2 (ja) 2021-02-17
EP3285156A4 (en) 2018-12-12
WO2017054452A1 (zh) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6830447B2 (ja) 情報処理方法、端末、およびコンピュータ記憶媒体
JP6529659B2 (ja) 情報処理方法、端末及びコンピュータ記憶媒体
US10786733B2 (en) Information processing method, terminal, and computer storage medium for releasing virtual skill object based on user gesture
US11003261B2 (en) Information processing method, terminal, and computer storage medium
US10768812B2 (en) Method, terminal, and storage medium for operating objects displayed on a graphical user interface
US20180028907A1 (en) Information processing method, terminal, and computer storage medium
JP2018520725A (ja) 情報処理方法、端末、およびコンピュータ記憶媒体
JP2018518766A (ja) 情報処理方法、端末、およびコンピュータ記憶媒体
CN116159308A (zh) 游戏交互方法、装置、计算机设备和计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201013

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201013

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201027

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210126

R150 Certificate of patent or registration of utility model

Ref document number: 6830447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250