JP2023523157A - 仮想環境画面の表示方法、装置及びコンピュータプログラム - Google Patents

仮想環境画面の表示方法、装置及びコンピュータプログラム Download PDF

Info

Publication number
JP2023523157A
JP2023523157A JP2022560942A JP2022560942A JP2023523157A JP 2023523157 A JP2023523157 A JP 2023523157A JP 2022560942 A JP2022560942 A JP 2022560942A JP 2022560942 A JP2022560942 A JP 2022560942A JP 2023523157 A JP2023523157 A JP 2023523157A
Authority
JP
Japan
Prior art keywords
control
type
action
virtual object
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022560942A
Other languages
English (en)
Other versions
JP7477640B2 (ja
Inventor
リン,リンユン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2023523157A publication Critical patent/JP2023523157A/ja
Application granted granted Critical
Publication of JP7477640B2 publication Critical patent/JP7477640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本願は、仮想環境画面の表示方法、装置、デバイス及び記憶媒体を開示し、ヒューマンコンピュータインタラクションの分野に属する。方法は、仮想環境画面を表示するステップであって、仮想環境画面に第1のコントロール及び第2のコントロールが表示され、第1のコントロール及び第2のコントロールは、異なるタイプのコントロールに属し、第1のコントロールは、第1の仮想オブジェクトが第1の動作を実行するように制御し、第2のコントロールは、第1の仮想オブジェクトが第2の動作を実行するように制御するステップと、結合設定操作を受信するステップと、結合設定操作に基づいて、第1のコントロール及び第2のコントロールを第3のコントロールに結合するステップであって、第3のコントロールは、第1の仮想オブジェクトが第1の動作及び第2の動作を実行するように制御するステップと、を含む。UIコントロールの仮想環境画面上のレイアウトを変更することにより、ユーザーが仮想オブジェクトを制御する過程を簡略化し、ヒューマンコンピュータインタラクションの効率を向上させる。

Description

本出願は、2020年8月26日に出願した、出願番号が第202010870309.1号、発明の名称が「仮想環境画面の表示方法、装置、デバイス及び記憶媒体」の中国特許出願の優先権を主張するものであり、その全ての内容は参照により本出願に組み込まれるものとする。
本出願は、ヒューマンコンピュータインタラクションの分野に関し、特に仮想環境画面の表示方法、装置、デバイス及び記憶媒体に関する。
仮想環境に基づくアプリケーションプログラム、例えば、ファーストパーソン・シューティングゲームでは、ユーザーは、仮想オブジェクトがしゃがむ、うつ伏せ、射撃、走るなどの動作を実行するように制御することができる。
ゲーム実行時に、仮想環境画面が表示され、仮想環境画面に複数のユーザーインタフェースコントロール(User Interface、UIコントロール)が表示され、複数のUIコントロールは、一定のレイアウトに応じて仮想環境画面に分布し、各UIコントロールは、仮想オブジェクトが1つの動作を実行するように制御することを実現し、例えば、UIコントロール1は、仮想オブジェクトがしゃがむ動作を実行するように制御し、UIコントロール2は、仮想オブジェクトがうつ伏せ動作を実行するように制御する。
上記技術手段において、UIコントロールの数が多い場合、UIコントロールの仮想環境画面上のレイアウトは、一般的に複雑であり、ヒューマンコンピュータインタラクション効率が低い。
本願の実施例は、仮想環境画面の表示方法、装置、デバイス及び記憶媒体を提供し、UIコントロールの仮想環境画面上のレイアウトを変更することにより、ヒューマンコンピュータインタラクションの効率を向上させる。当該技術手段は、以下のとおりである。
本願の一態様によれば、コンピュータデバイスが実行する仮想環境画面の表示方法が提供され、当該方法は、
仮想環境画面を表示するステップであって、前記仮想環境画面に第1のコントロール及び第2のコントロールが表示され、前記第1のコントロール及び前記第2のコントロールは、異なるコントロールタイプに属するステップと、
前記第1のコントロール及び前記第2のコントロールに対する結合設定操作を受信するステップと、
前記結合設定操作に基づいて前記第1のコントロール及び前記第2のコントロールを第3のコントロールに結合するステップと、を含む。
本願の別の態様によれば、仮想環境画面の表示装置を提供し、当該装置は、
仮想環境画面を表示する表示モジュールであって、前記仮想環境画面に第1のコントロール及び第2のコントロールが表示され、前記第1のコントロール及び前記第2のコントロールは、異なるコントロールタイプに属する表示モジュールと、
前記第1のコントロール及び前記第2のコントロールに対する結合設定操作を受信する受信モジュールと、
前記結合設定操作に基づいて前記第1のコントロール及び前記第2のコントロールを第3のコントロールに結合する処理モジュールと、を含む。
本願の別の態様によれば、コンピュータデバイスが提供され、当該コンピュータデバイスは、プロセッサ及びメモリを含み、前記メモリに少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、前記プロセッサがロードし、かつ実行することにより、上記態様に記載の仮想環境画面の表示方法を実現する。
本願の別の態様によれば、コンピュータ可読記憶媒体が提供され、当該記憶媒体に少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、プロセッサがロードし、かつ実行することにより、上記態様に記載の仮想環境画面の表示方法を実現する。
本願の別の態様によれば、コンピュータプログラム製品又はコンピュータプログラムが提供され、当該コンピュータプログラム製品又はコンピュータプログラムは、コンピュータ命令を含み、前記コンピュータ命令は、コンピュータ可読記憶媒体に記憶される。コンピュータデバイスのプロセッサは、前記コンピュータ可読記憶媒体から前記コンピュータ命令を読み取り、前記プロセッサは、前記コンピュータ命令を実行することにより、前記コンピュータデバイスに上記態様に記載の仮想環境画面の表示方法を実行させる。
本願の実施例に係る技術手段によって得られる有利な効果は、少なくとも以下を含む。
受信された結合設定操作に応じて、仮想環境画面に表示された異なるタイプのコントロールを結合することにより、ユーザーは、自主的に設定して、あまり使われないUIコントロールを同一のUIコントロールに結合するか、又は組み合わせて使用する必要があるUIコントロールを同一のUIコントロールに結合することができる。UIコントロールを結合することによりUIコントロールの仮想環境画面上のレイアウトを簡略化し、それによりユーザーが仮想オブジェクトを制御する過程を簡略化し、ヒューマンコンピュータインタラクションの効率を向上させる。
本願の実施例における技術手段をより明確に説明するために、以下、実施例の説明に使用される必要がある図面を簡単に説明する。明らかなように、以下の説明における図面は、本願のいくつかの実施例にすぎず、当業者であれば、創造的な労働をせずに、これらの図面に基づいて他の図面を得ることができる。
本願の例示的な実施例に係るコンピュータシステムのブロック図である。 本願の例示的な実施例に係る状態同期技術の概略図である。 本願の例示的な実施例に係るフレーム同期技術の概略図である。 本願の例示的な実施例に係る仮想環境画面の表示方法のフローチャートである。 本願の別の例示的な実施例に係る仮想環境画面の表示方法のフローチャートである。 本願の例示的な実施例に係るコントロールを結合する前の仮想環境画面の概略図である。 本願の例示的な実施例に係る結合設定操作に対応する設定インタフェースの概略図である。 本願の例示的な実施例に係る更新後の仮想環境画面の概略図である。 本願の別の例示的な実施例に係る仮想環境画面の表示方法のフローチャートである。 本願の別の例示的な実施例に係る仮想環境画面の表示方法のフローチャートである。 本願の例示的な実施例に係るコントロールを分割する概略図である。 本願の別の例示的な実施例に係る更新後の仮想環境画面の概略図である。 本願の別の例示的な実施例に係る仮想環境画面の表示方法のフローチャートである。 本願の例示的な実施例に係る結合設定操作の方法のフローチャートである。 本願の例示的な実施例に係る仮想オブジェクトの状態を判断する方法のフローチャートである。 本願の例示的な実施例に係る仮想環境画面の表示装置のブロック図である。 本願の例示的な実施例に係るコンピュータデバイスの概略構成図である。
本願の目的、技術手段及び利点をより明確にするために、以下、図面を参照しながら本願の実施形態をさらに詳細に説明する。
まず、本願の実施例に係る名詞を解釈する。
仮想環境とは、アプリケーションプログラムが端末上で実行されるときに表示(又は提供)される仮想環境である。当該仮想環境は、現実世界のシミュレーション環境であってもよく、半シミュレーション・半架空の環境であってもよく、純粋に架空の環境であってもよい。仮想環境は、2次元仮想環境、2.5次元仮想環境及び3次元仮想環境のうちの任意の1種であってもよく、本願は、これについて限定しない。下記実施例では、仮想環境が3次元仮想環境であるとして例示して説明する。
仮想オブジェクトとは、仮想環境における可動オブジェクトである。当該可動オブジェクトは、仮想キャラクター、仮想動物、及びアニメーションキャラクターなどであってもよく、例えば、3次元仮想環境に表示されたキャラクター、動物、植生、ドラム缶、壁、石などである。好ましくは、仮想オブジェクトは、アニメーション骨格技術に基づいて構築された3次元立体モデルである。各仮想オブジェクトは、3次元仮想環境でその形状及び体積を有し、3次元仮想環境における一部の空間を占める。仮想オブジェクトは、仮想環境における1つ又は複数の仮想オブジェクトを広く指す。
ユーザーインタフェース(User Interface、UI)コントロールとは、アプリケーションプログラムのユーザーインタフェース上に見える任意の可視コントロール又は要素を指し、例えば、画像、入力ボックス、テキストボックス、ボタン、タグなどのコントロールである。そのうちのいくつかのUIコントロールは、ユーザーの操作に応答し、例えば、ユーザーは、入力ボックスに文字を入力することができ、ユーザーは、上記UIコントロールによりユーザーインタフェースと情報のやり取りを行う。
本願に係る方法は、仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、ファーストパーソン・シューティング(First-Person Shooting Game、FPS)ゲーム、マルチプレイヤーオンラインバトルアリーナゲーム(Multiplayer Online Battle Arena Games、MOBA)、バトルロワイアルタイプのシューティングゲーム、仮想現実(Virtual Reality、VR)アプリケーションプログラム、拡張現実(Augmented Reality、AR)などに適用することができ、下記実施例は、ゲームにおける応用を例として説明する。
仮想環境に基づくゲームは、1つ又は複数のゲーム世界の地図で構成され、ゲーム中の仮想環境は、現実世界のシーンをシミュレーションし、ユーザーは、ゲーム中の仮想オブジェクトが仮想環境において歩き、走り、ジャンプし、射撃し、格闘し、運転し、他の仮想オブジェクトからの攻撃を受け、仮想環境からの傷害を受け、他の仮想オブジェクトを攻撃し、妨害型投げ類道具を使用し、同じチームのチームメイトを救うなどの動作を実行するように制御することができ、インタラクション性が高く、かつ複数のユーザーは、オンラインでチームを作って競技ゲームを行うことができる。ユーザーが使用する端末には、ゲームに対応する仮想環境画面が表示され、仮想環境画面は、ユーザーが制御する仮想オブジェクトの視角で仮想環境を観察して得られる。仮想環境画面に複数のUIコントロールが表示され、ユーザーインタフェースを形成し、各UIコントロールは、仮想オブジェクトが異なる動作を実行するように制御する。例えば、ユーザーは、UIコントロール1をトリガーすると、仮想オブジェクトが前向きに走るように制御する。
図1は、本願の例示的な実施例に係るコンピュータシステムのブロック構成図を示す。当該コンピュータシステム100は、第1の端末120、サーバ140及び第2の端末160を含む。
第1の端末120には、仮想環境をサポートするアプリケーションプログラムがインストールされて、実行される。第1の端末120は、第1のユーザーが使用する端末であり、第1のユーザーは、第1の端末120を使用して、仮想環境中に位置する第1の仮想オブジェクトの動作を制御する。当該動作は、身体姿勢の調整、歩く、走る、ジャンプ、騎行、照準、拾う、投げ類道具の使用、他の仮想オブジェクトへの攻撃のうちの少なくとも1種を含むが、これらに限定されない。例示的には、第1の仮想オブジェクトは、第1の仮想キャラクターであり、例えば、シミュレーションキャラクターオブジェクト又はアニメキャラクターオブジェクトである。
第1の端末120は、無線ネットワーク又は有線ネットワークを介してサーバ140に接続される。
サーバ140は、1台のサーバ、複数台のサーバ、クラウドコンピューティングプラットフォーム及び仮想化センターのうちの少なくとも1種を含む。例示的には、サーバ140は、プロセッサ144及びメモリ142を含む。メモリ142は、受信モジュール1421、制御モジュール1422及び送信モジュール1423をさらに含む。受信モジュール1421は、クライアントから送信された要求、例えば、チーム作り要求を受信し、制御モジュール1422は、仮想環境画面のレンダリングを制御し、送信モジュール1423は、クライアントに応答を送信し、例えば、クライアントにチーム作りに成功したという通知情報を送信する。サーバ140は、3次元仮想環境をサポートするアプリケーションプログラムにバックグラウンドサービスを提供する。好ましくは、サーバ140は、主計算作業を担い、第1の端末120及び第2の端末160は、副計算作業を担い、或いは、サーバ140は、副計算作業を担い、第1の端末120及び第2の端末160は、主計算作業を担い、或いは、サーバ140、第1の端末120及び第2の端末160の三者間は、分散型計算アーキテクチャを採用して協調計算を行う。
サーバ140は、同期技術を採用して複数のクライアントの間の画面表現を一致させることができる。例示的には、サーバ140が採用する同期技術は、状態同期技術又はフレーム同期技術を含む。
状態同期技術
図1に基づく好ましい実施例では、サーバ140は、状態同期技術を採用して複数のクライアントの間で同期を行う。図2に示すように、戦闘ロジックは、サーバ140側で実行される。仮想環境におけるある仮想オブジェクトに状態変化が発生する場合、サーバ140により全てのクライアント、例えば、クライアント1からクライアント10に状態同期結果を送信する。
一例では、クライアント1がサーバ140に要求を送信し、当該要求は、仮想オブジェクト1が仮想オブジェクト2を攻撃する動作を実行するように要求する場合、サーバ140は、仮想オブジェクト1が仮想オブジェクト2を攻撃できるか否か、及び仮想オブジェクト1が攻撃動作を実行した後に仮想オブジェクト2の残りのヒットポイントを判断する。サーバ140は、仮想オブジェクト2の残りのヒットポイントを全てのクライアントに同期させ、全てのクライアントは、仮想オブジェクト2の残りのヒットポイントに基づいてローカルデータ及びインタフェース表現を更新する。
フレーム同期技術
図1に基づく好ましい実施例では、サーバ140は、フレーム同期技術を採用して複数のクライアントの間で同期を行う。図3に示すように、戦闘ロジックは、各クライアント側で実行される。クライアントは、サーバにフレーム同期要求を送信し、当該フレーム同期要求にクライアントのローカルデータの変化が載せられる。サーバ140は、あるフレーム同期要求を受信した後、全てのクライアントに当該フレーム同期要求を転送する。各クライアントは、フレーム同期要求を受信した後、ローカルの戦闘ロジックに応じて当該フレーム同期要求を処理し、ローカルデータ及びインタフェース表現を更新する。
第2の端末160には、仮想環境をサポートするアプリケーションプログラムがインストールされて、実行される。第2の端末160は、第2のユーザーが使用する端末であり、第2のユーザーは、第2の端末160を使用して、仮想環境内に位置する第2の仮想オブジェクトの動作を制御する。当該動作は、身体の姿勢の調整、歩く、走る、ジャンプ、騎行、照準、拾う、投げ類道具の使用、他の仮想オブジェクトへの攻撃のうちの少なくとも1種を含むが、これらに限定されない。例示的には、第2の仮想オブジェクトは、第2の仮想キャラクターであり、例えば、シミュレーションキャラクターオブジェクト又はアニメキャラクターオブジェクトである。
好ましくは、第1の仮想オブジェクトと第2の仮想オブジェクトは、同一の仮想環境にある。好ましくは、第1の仮想オブジェクトと第2の仮想オブジェクトは、同一のチーム、同一の組織、同一の陣営に属し、友達関係を有し、又は一時的な通信権限を有するようにしてもよく、或いは、第1の仮想キャラクターオブジェクトと第2の仮想キャラクターオブジェクトは、異なる陣営、異なるチーム、異なる組織に属し、又は敵対関係を有するようにしてもよい。
好ましくは、第1の端末120と第2の端末160にインストールされたアプリケーションプログラムは同じであり、又は2つの端末にインストールされたアプリケーションプログラムは、異なるオペレーティングシステムプラットフォーム(アンドロイド(登録商標)又はIOS)上の同一タイプのアプリケーションプログラムである。第1の端末120は、一般的に複数の端末のうちの1つを指し、第2の端末160は、一般的に複数の端末のうちの1つを指し、本実施例は、第1の端末120と第2の端末160のみを例示して説明する。第1の端末120及び第2の端末160のデバイスタイプは、同じであるか又は異なり、当該デバイスタイプは、スマートフォン、タブレットコンピュータ、電子書リーダー、MP3プレーヤー、MP4プレーヤー、ラップトップポータブルコンピュータ及びデスクトップコンピュータのうちの少なくとも1種を含む。以下の実施例は、端末がスマートフォンを含むことを例示して説明する。
当業者であれば分かるように、上記端末の数は、より多くても少なくてもよい。例えば、上記端末は、1つのみであってもよく、或いは、上記端末は、数十個又は数百個、又はより多くの数である。本願の実施例は、端末の数及びデバイスタイプを限定しない。
図4は、本願の例示的な実施例に係る仮想環境画面の表示方法のフローチャートを示す。当該方法は、コンピュータデバイスに適用することができ、当該コンピュータデバイスが図1に示す第1の端末120又は第2の端末160、又は当該コンピュータシステム100における他の端末として実現されることを例として説明する。当該方法は、以下のステップ401~ステップ403を含む。
ステップ401では、仮想環境画面、第1のコントロール及び第2のコントロールを表示し、第1のコントロール及び第2のコントロールは、異なるコントロールタイプに属する。
いくつかの実施例では、第1のコントロールは、第1の仮想オブジェクトが第1の動作を実行するように制御し、第2のコントロールは、第1の仮想オブジェクトが第2の動作を実行するように制御する。第1の動作及び第2の動作は、異なるタイプの動作に属し、或いは、第1の動作及び第2の動作は、異なる動作である。
例示的には、第1のコントロールは、第1の仮想オブジェクトが仮想環境において第1の表現を行うように制御し、或いは、第1のコントロールは、第1の仮想オブジェクトが仮想環境において第1の道具を使用するように制御し、或いは、第1のコントロールは、第1の仮想オブジェクトが第1のスキルをトリガーするように制御し、或いは、第1のコントロールは、第1の仮想オブジェクトが第1の移動状態にあるように制御する。同様に、第2のコントロールに対応する第2の動作は、第2の表現、第2の道具の使用、第2のスキルのトリガー、第2の移動状態の保持などを含み、本実施例は、第1のコントロール及び第2のコントロールのコントロール作用を限定しない。
ユーザーが使用する端末では、仮想環境をサポートするアプリケーションプログラムが実行され、これは、例えば、ファーストパーソン・シューティングゲームである。ゲームアプリケーションプログラムを例とすると、ゲームアプリケーションプログラムを実行する場合、仮想環境画面が表示され、当該仮想環境画面は、第1の仮想オブジェクトの視角で仮想環境を観察して得られた画面である。いくつかの実施例では、仮想環境画面に表示された仮想環境は、山や川、平地、河、湖、海、砂漠、空、植生、建物及び交通機関のうちの少なくとも1種の形態を含む。
UIコントロールのコントロールタイプは、主にUIコントロールに対応するトリガーの機能タイプを指示する。仮想環境画面にUIコントロールが表示され、例示的には、UIコントロールは、アシストタイプのUIコントロール、移動タイプのUIコントロール、照準タイプのUIコントロール及び状態切り替えタイプのUIコントロールのうちの少なくとも1種を含む。
アシストタイプのUIコントロールは、仮想オブジェクトの動作をアシストする。いくつかの実施例では、アシストタイプのUIコントロールは、仮想オブジェクトがアシストタイプの仮想道具を使用して動作をアシストするように制御し、或いは、アシストタイプのUIコントロールは、仮想オブジェクトがアシストタイプのスキルをトリガーして動作をアシストするように制御し、例えば、照準器使用コントロールは、アシストタイプのUIコントロールに属し、仮想オブジェクトが射撃動作を実行する場合に照準器道具を使用して目標を照準するように制御する。移動タイプのUIコントロールは、仮想オブジェクトが仮想環境において移動するように制御し、例えば、方向移動コントロールは、移動タイプのUIコントロールに属し、方向移動コントロールがトリガーされる場合、仮想オブジェクトが仮想環境において前、後、左、右に移動する。照準タイプのUIコントロールは、仮想オブジェクトが仮想道具を使用する場合に対応するUIコントロールである。いくつかの実施例では、照準タイプのUIコントロールは、仮想オブジェクトが攻撃道具を使用する場合に対応するUIコントロールであり、例えば、射撃コントロールは、照準タイプのUIコントロールに属し、射撃コントロールがトリガーされる場合、仮想オブジェクトが目標を射撃する。状態切り替えタイプのUIコントロールは、仮想環境における仮想オブジェクトの姿勢を切り替え、例えば、しゃがみコントロールは、状態切り替えタイプのUIコントロールに属し、しゃがみコントロールがトリガーされる場合、仮想オブジェクトが立った状態からしゃがんだ状態に切り替えられるか、又は他の姿勢からしゃがんだ状態に切り替えられる。
ステップ402では、第1のコントロール及び第2のコントロールに対する結合設定操作を受信する。
ユーザーがタッチディスプレイを有する端末を使用する場合、一般的に、スマートフォン又はタブレットコンピュータなどのような端末のタッチディスプレイにUIコントロールが表示される。例示的には、ユーザーは、結合設定操作に対応するUIコントロールをトリガーすることにより結合設定操作を実施し、或いは、ユーザーは、タッチディスプレイに結合設定操作に対応するジェスチャー操作を実施し、例えば、シングルタップ操作、長押し操作、ダブルタップ操作(1本指ダブルタップ操作、複数指ダブルタップ操作のうちの少なくとも1種を含む)、ホバリング操作、ドラッグ操作及びそれらの組み合わせ操作などである。
ユーザーが使用する端末は、外部入力デバイスが接続された端末である場合、さらに外部入力デバイスにより結合設定操作を実行することができる。例示的には、端末は、マウスが接続されたノートパソコンとして実現され、ユーザーは、マウスポインタを結合設定操作に対応するUIコントロールに移動させ、マウスをクリックすることにより結合設定操作を実施する。いくつかの実施例では、ユーザーは、さらにキーボードのキーを押し、マウスをクリックすることにより結合設定操作を実施することができる。
いくつかの実施例では、仮想環境画面には、結合設定操作に対応するUIコントロールが単独で表示され、当該UIコントロールは、結合UIコントロールと名付けられる。他の実施例では、仮想環境画面は、ゲームアプリケーションプログラムを設定する設定ページを含み、当該設定ページは、結合設定操作に対応するUIコントロールを含む。
ステップ403では、結合設定操作に応答して第1のコントロール及び第2のコントロールを第3のコントロールに結合する。
好ましくは、第3のコントロールは、第1の仮想オブジェクトが第1の動作(第1のコントロールに対応する)及び第2の動作(第2のコントロールに対応する)を実行するように制御する。或いは、第3のコントロールは、第1の仮想オブジェクトが第1の動作及び第2の動作から独立している第3の動作を実行するように制御する。
結合とは、少なくとも2つのコントロールを1つのコントロールに合成し、かつ仮想環境画面に結合後のコントロールのみを表示し、結合後のコントロールが結合前のコントロールの機能を兼ねることである。結合設定操作を受信した後、仮想環境画面に第3のコントロールを表示し、かつ第1のコントロール及び第2のコントロールの表示をキャンセルする。第3のコントロールは、第1のコントロールに対応する機能及び第2のコントロールに対応する機能を兼ね、ユーザーは、第3のコントロールをトリガーすることにより第1の仮想オブジェクトが第1の動作及び第2の動作を実行するように制御することを実現できる。
例示的には、ユーザーが第3のコントロールをクリックする場合、第1の仮想オブジェクトは、第1の動作を実行する。ユーザーが第3のコントロールを長押しする場合、第1の仮想オブジェクトは、第2の動作を実行する。或いは、ユーザーが第3のコントロールをクリックする場合、第1の仮想オブジェクトは、第1の動作を実行し、ユーザーが再び第3のコントロールをクリックする場合、ゲームアプリケーションプログラムは、第1の仮想オブジェクトが第1の動作を実行していると判断すると、第1の仮想オブジェクトが第1の動作を実行すると同時に、第2の動作を実行するように制御する。或いは、ユーザーが第3のコントロールをクリックする場合、第1の仮想オブジェクトは、第1の動作を実行し、ユーザーが再び第3のコントロールをクリックする場合、ゲームアプリケーションプログラムは、第1の仮想オブジェクトが既に第1の動作を実行した(第1の動作が既に実行済みである)と判断すると、第1の仮想オブジェクトが第2の動作を実行するように制御する。
好ましくは、UIコントロールは、アプリケーションプログラムにおいて対応するコントロール識別子を有し、結合設定操作を受信した場合、第1のコントロール及び第2のコントロールに対応するコントロール識別子を決定し、第1のコントロール及び第2のコントロールに対応するコントロール識別子に基づいて第3のコントロールに対応するコントロール識別子を決定し、インタフェースをレンダリングする場合、第3のコントロールのコントロール識別子に基づいて第3のコントロールをレンダリングし、第1のコントロール及び第2のコントロールに対するレンダリングをキャンセルする。
理解できるように、ユーザーは、結合設定操作を1回実施して、少なくとも2つのコントロールを結合する。
以上のように、本実施例に係る方法は、受信された結合設定操作に応じて、仮想環境画面に表示された異なるタイプのコントロールを結合することにより、ユーザーが自主的に設定して、あまり使われないUIコントロールを同一のUIコントロールに結合するか、又は組み合わせて使用する必要があるUIコントロールを同一のUIコントロールに結合することができ、UIコントロールの仮想環境画面上のレイアウトを変更することにより、ユーザーが仮想オブジェクトを制御する過程を簡略化し、ヒューマンコンピュータインタラクションの効率を向上させる。
好ましくは、仮想環境画面に結合設定操作を実施することにより、少なくとも2つのコントロールを結合し、或いは、仮想環境画面に分割設定操作を実施することにより、1つのコントロールを少なくとも2つのコントロールに分割する。ゲームアプリケーションプログラムを例にして、ゲームアプリケーションプログラムにおけるユーザーインタフェースに合わせてコントロールを結合する過程及びコントロールを分割する過程を説明する。
1.コントロールを結合するプロセス
図5は、本願の別の例示的な実施例に係る仮想環境画面の表示方法のフローチャートを示す。当該方法は、コンピュータデバイスに適用することができ、当該コンピュータデバイスは、図1に示す第1の端末120又は第2の端末160、又は当該コンピュータシステム100における他の端末として実現される。当該方法は、以下のステップ501~ステップ505を含む。
ステップ501では、仮想環境画面を表示し、仮想環境画面に第1のコントロール及び第2のコントロールが表示され、第1のコントロール及び第2のコントロールは、異なるコントロールタイプに属する。
第1のコントロールは、第1の仮想オブジェクトが第1の動作を実行するように制御し、第2のコントロールは、第1の仮想オブジェクトが第2の動作を実行するように制御する。
図6に示すように、仮想環境画面に第1のコントロール11及び第2のコントロール12が表示される。第1のコントロール11がしゃがみコントロールであり、第2のコントロール12が照準コントロールであり、第1のコントロール11が状態切り替えタイプのコントロールに属し、第2のコントロール12が移動タイプのコントロールに属し、第1のコントロール11及び第2のコントロール12は、仮想環境画面の右側に位置する。
ステップ502では、第1のコントロール及び第2のコントロールに対する結合設定操作を受信する。
例示的には、結合設定操作は、結合しようとするコントロールを同一位置にドラッグする操作として実現される。例えば、ユーザーは、第1のコントロール11を第2のコントロール12の位置にドラッグし、或いは、ユーザーは、第2のコントロール12を第1のコントロール11の位置にドラッグする。
例示的には、図7に示すように、結合設定操作は、設定インタフェースにおいてユーザーによって行われる操作であり、ユーザーは、結合設定操作に対応するコントロール20をアクティブ状態にすると、ゲームアプリケーションプログラムにおいて第1のコントロール11及び第2のコントロール12を結合することができる。
ステップ503では、第1のコントロールの第1のコントロールタイプ及び第2のコントロールの第2のコントロールタイプを取得する。
例示的には、ゲームアプリケーションプログラムは、ユーザーがドラッグする場合に選択したコントロールに基づいて、第1のコントロール及び第2のコントロールのコントロールタイプを取得する。
例示的には、ユーザーの設定インタフェース上の操作に基づいて、コントロールを結合するコントロールタイプを取得する。
いくつかの実施例では、ユーザーの設定インタフェース上の操作は、全ての同じタイプのコントロールを結合するか、又は予め設定されたタイプのコントロールを結合するか(例えば、射撃タイプのコントロールと、移動タイプのコントロールを結合する)、又は予め設定されたコントロールを結合する(例えば、しゃがみコントロールと、うつ伏せコントロールを結合する)。
ステップ504では、第1のコントロールタイプ及び第2のコントロールタイプが予め設定された条件を満たすことに応答して、第1のコントロール及び第2のコントロールを第3のコントロールに結合する。
予め設定された条件は、
第1のコントロールタイプがアシストタイプであり、第2のコントロールタイプが照準タイプである条件であって、例示的には、第1のコントロールが照準器使用コントロール(銃器類の仮想道具の照準器を使うコントロール)であり、第2のコントロールが射撃コントロールである条件と、
第1のコントロールタイプがアシストタイプであり、第2のコントロールタイプが移動タイプである条件であって、例示的には、第1のコントロールが照準器使用コントロールであり、第2のコントロールが方向移動コントロール(左向き移動コントロール、右向き移動コントロール、前向き移動コントロール、後向き移動コントロールを含む)である条件と、
第1のコントロールタイプが移動タイプであり、第2のコントロールタイプが照準タイプである条件であって、例示的には、第1のコントロールが方向移動コントロールであり、第2のコントロールが射撃コントロールであり、或いは、第1のコントロールが方向移動コントロールであり、第2のコントロールが投げコントロール(投げ類の仮想道具を使用するコントロール)である条件と、
第1のコントロールタイプが移動タイプであり、第2のコントロールタイプが状態切り替えタイプである条件であって、例示的には、第1のコントロールが方向移動コントロールであり、第2のコントロールがしゃがみコントロールである条件と、
第1のコントロールタイプが状態切り替えタイプであり、第2のコントロールタイプがアシストタイプである条件であって、例示的には、第1のコントロールがうつ伏せコントロール(仮想オブジェクトがうつ伏せ姿勢を作るように制御するコントロール)であり、第2のコントロールが照準器使用コントロールである条件と、
第1のコントロールタイプが状態切り替えタイプであり、第2のコントロールタイプが照準タイプである条件であって、例示的には、第1のコントロールがしゃがみコントロールであり、第2のコントロールが射撃コントロールである条件と、
のうちの少なくとも1種を含む。
第1のコントロールのタイプ及び第2のコントロールのタイプが上記タイプである場合、ゲームアプリケーションプログラムは、第1のコントロール及び第2のコントロールを結合する。
ステップ505では、第1のコントロール及び第2のコントロールを取り替えるための第3のコントロールを更新表示する。
仮想環境画面に第3のコントロールを更新表示し、更新後の仮想環境画面は、第1のコントロール及び第2のコントロールを含まない。
ユーザーが結合設定操作を実施する場合、ゲームアプリケーションプログラムは、結合設定操作に対応するユーザーアカウントを識別し、ユーザーアカウントに基づいてユーザーアカウントに対応する仮想環境画面を更新する。
図8に示すように、更新後の仮想環境画面に第3のコントロール13が表示される。例示的には、図8において、図6に示す第1のコントロール11のコントロール識別子を現在更新後の第3のコントロール13のコントロール識別子とすることを例とする。好ましくは、第2のコントロールのコントロール識別子を第3のコントロールのコントロール識別子としてもよく、1つの新たなコントロール識別子を生成して第3のコントロールのコントロール識別子としてもよく、当該コントロール識別子は、第1のコントロールのコントロール識別子及び第2のコントロールのコントロール識別子とは異なる。
第3のコントロールを使用して第1の仮想オブジェクトが動作を実行するように制御する場合、図9に示すように、以下のケース1~3のうちの少なくとも1種を含む。
ケース1では、第1の仮想オブジェクトが実行する動作は、第3のコントロールが受信した操作に関連する。
ステップ507aでは、第3のコントロールに対する第1の操作に応答して、第1の仮想オブジェクトが第1の動作を実行するように制御する。
第1の操作は、シングルタップ操作、長押し操作、スワイプ操作、ホバリング操作、ドラッグ操作、ダブルタップ操作(1本指ダブルタップ操作、複数指ダブルタップ操作のうちの少なくとも1種を含む)、及びそれらの組み合わせ操作の少なくとも1種を含む。
一例では、第3のコントロールで長押し操作を受信したことに応答して、第1の仮想オブジェクトが走る動作を実行するように制御する。
ステップ508aでは、第3のコントロールに対する第2の操作に応答して、第1の仮想オブジェクトが第2の動作を実行するように制御する。
第2の操作は、シングルタップ操作、長押し操作、スワイプ操作、ホバリング操作、ドラッグ操作、ダブルタップ操作(1本指ダブルタップ操作、複数指ダブルタップ操作のうちの少なくとも1種を含む)、及びそれらの組み合わせ操作の少なくとも1種を含む。第1の操作は、第2の操作と異なる。
一例では、第3のコントロールでダブルタップ操作を受信したことに応答して、第1の仮想オブジェクトが照準器使用動作を実行するように制御する。
第3のコントロールは、受信された操作タイプに基づいて制御命令を生成し、第1の仮想オブジェクトが異なる動作を実行するように制御する。ステップ507aは、ステップ507bより先に実行されてもよく、或いは、ステップ507bは、ステップ507aより先に実行されてもよい。いくつかの実施例では、第1の仮想オブジェクトが動作aを実行する場合、第3のコントロールが動作bに対応する実行操作を受信すると、第1の仮想オブジェクトは、動作aを実行すると同時に動作bを実行する。一例では、第3のコントロールでダブルタップ操作を受信したことに応答して、第1の仮想オブジェクトは、走る動作を実行し、第1の仮想オブジェクトの走る間に、第3のコントロールで長押し動作を受信したことに応答して、第1の仮想オブジェクトは、走る間に照準器使用動作を実行する。
ケース2では、第1の仮想オブジェクトは、第3のコントロールに対応する動作を同時に実行する。
ステップ507bでは、第3のコントロールに対する第3の操作に応答して、第1の仮想オブジェクトが第1の動作及び第2の動作を同時に実行するように制御する。
第3の操作は、シングルタップ操作、長押し操作、スワイプ操作、ホバリング操作、ドラッグ操作、ダブルタップ操作(1本指ダブルタップ操作、複数指ダブルタップ操作のうちの少なくとも1種を含む)、及びそれらの組み合わせ操作の少なくとも1種を含む。
一例では、第3のコントロールでドラッグ操作を受信したことに応答して、ゲームアプリケーションプログラムは、第1の仮想オブジェクトが走る動作及び弾倉交換動作を同時に実行するように制御する。
ケース3では、第1の仮想オブジェクトは、動作の優先度に基づいて動作を実行する。
ステップ507cでは、第3のコントロールに対する第4の操作に応答して、第1の動作及び第2の動作の優先度を取得する。
第4の操作は、シングルタップ操作、長押し操作、スワイプ操作、ホバリング操作、ドラッグ操作、ダブルタップ操作(1本指ダブルタップ操作、複数指ダブルタップ操作のうちの少なくとも1種を含む)、及びそれらの組み合わせ操作の少なくとも1種を含む。
一例では、第3のコントロールで長押し操作を受信したことに応答して、ゲームアプリケーションプログラムは、第3のコントロールに対応する動作の優先度を取得する。例示的には、優先度の順位付けは、走る動作>射撃動作(又は投げ動作)>しゃがむ動作(又はうつ伏せ動作)>照準器使用動作(弾倉交換動作)である。
ステップ508cでは、優先度に基づいて第1の仮想オブジェクトが予め設定された順序に応じて第1の動作及び第2の動作を実行するように制御する。
例えば、第3のコントロールに対する長押し操作に応答して、第1の動作の優先度が第2の動作の優先度より低いことを取得すると、ゲームアプリケーションプログラムは、第1の仮想オブジェクトがまず第2の動作を実行し、次に第1の動作を実行するように制御する。
以上のように、本実施例に係る方法は、受信された結合設定操作に応じて、仮想環境画面に表示された異なるタイプのコントロールを結合することにより、ユーザーが自主的に設定して、よく使われないUIコントロールを同一のUIコントロールに結合するか、又は組み合わせて使用する必要があるUIコントロールを同一のUIコントロールに結合することができ、UIコントロールの仮想環境画面上のレイアウトを変更することにより、ユーザーが仮想オブジェクトを制御する過程を簡略化し、ヒューマンコンピュータインタラクションの効率を向上させる。
第1のコントロールの第1のコントロールタイプ及び第2のコントロールの第2のコントロールタイプが予め設定された条件を満たすと判断すると、第1のコントロール及び第2のコントロールを第3のコントロールに結合することにより、ユーザーは、結合設定操作により異なるタイプのコントロールを結合することができ、それにより、UIコントロールの仮想環境画面上のレイアウトがより柔軟になる。
予め設定された条件を満たすUIコントロールのタイプを列挙することにより、ユーザーは、結合可能なUIコントロールのタイプを決定し、UIコントロールを柔軟に結合する。
第1のコントロール及び第2のコントロールを結合した後、仮想環境画面を更新表示し、更新後の仮想環境画面に結合後の第3のコントロールが表示され、ユーザーは、更新後の仮想環境画面により仮想オブジェクトをより直感的に制御することができる。
第3のコントロールで異なる操作を受信する場合、仮想オブジェクトが異なるルールに応じて異なる動作を実行するように制御し、それにより、仮想オブジェクトの制御方式がより柔軟で多様になり、ユーザーが自分の好みに合致するか又は自分の使用習慣に適するUIコントロールのレイアウトを設定することに役立つ。
理解できるように、上記3種類のケースは、それぞれ単独で実施してもよく、組み合わせて実施してもよい。
2.コントロールを分割する過程
図10に示すように、コントロールを分割する過程において、以下の3種類のケースを含む。
ケース1では、分割されたコントロールは、異なるタイプのコントロールに属する。
第3のコントロールに対する第1の分割設定操作に応答して、第3のコントロールを第1のコントロール及び第2のコントロールに分割する。
ステップ511aでは、第3のコントロールに対する第1の分割設定操作に応答して、第3のコントロールに対応する動作タイプを取得する。
結合設定操作と区別するために、分割設定操作は、結合設定操作の実施形態と逆であってもよく、例えば、結合設定操作は、左向きドラッグ操作であり、分割設定操作は、右向きドラッグ操作であり、また例えば、結合設定操作は、第1のコントロールを第2のコントロールにドラッグすることにより、第3のコントロールを形成し、分割設定操作は、第3のコントロール13を開始点とし、第3のコントロール13から外向きにコントロールをドラッグして第1のコントロール11又は第2のコントロール12とし、図11に示すように、矢印は、ドラッグ方向を示す。
動作タイプは、コントロールのコントロールタイプに対応する。例示的には、コントロール1のコントロールタイプがアシストタイプであれば、コントロール1がトリガーされた場合、仮想オブジェクトがアシストタイプの動作を実行し、例えば、コントロール1が照準器使用コントロールであれば、照準器使用コントロールがトリガーされた場合、仮想オブジェクトが照準器使用動作を実行し、照準器使用動作の動作タイプがアシストタイプである。
第3のコントロールが結合後のコントロールであるため、第3のコントロールは、少なくとも2種のコントロールの機能を兼ねる。いくつかの実施例では、仮想環境画面上の分割設定操作を受信したことに応答して、ゲームアプリケーションプログラムは、第3のコントロールに対応する動作リストを取得し、当該動作リストは、第3のコントロールのコントロール構成状況を提供する。例えば、仮想環境画面に結合後のコントロールが存在する場合、ゲームアプリケーションプログラム又はバックグラウンドサーバは、結合後のコントロールに対応する動作リストを確立し、かつ当該動作リストを結合後のコントロールとバインディングする。好ましくは、動作リストに第3のコントロールのコントロール識別子、及び第3のコントロールと分割関係を有する少なくとも2つのコントロールに対応するコントロール識別子が記憶され、それにより第3のコントロールを分割する必要がある場合、インタフェースレンダリングプロセスにおいて第3のコントロールに対するレンダリングをキャンセルし、リストにおける第3のコントロールのコントロール識別子に対応する少なくとも2つのコントロールをレンダリングする。
ステップ512aでは、動作タイプに基づいて第3のコントロールを第1のコントロール及び第2のコントロールに分割する。
一例では、第3のコントロールに対応する動作リストがしゃがむ動作及び照準器使用動作を含んでいれば、第3のコントロールをしゃがみコントロール及び照準器使用コントロールに分割する。
ケース2では、分割されたコントロールは、同じタイプのコントロールに属する。
第3のコントロールに対する第2の分割設定操作に応答して、第3のコントロールを第4のコントロール及び第5のコントロールに分割し、第4のコントロール及び第5のコントロールは、同じタイプのコントロールに属する。
ステップ511bでは、第3のコントロールに対する第2の分割設定操作に応答して、第3のコントロールに対応する少なくとも2つの動作の間の相関関係を取得する。
相関関係とは、第3のコントロールがトリガーされる場合、仮想オブジェクトが実行する動作の間の階層関係を指す。例示的には、第3のコントロールに対応する動作は、姿勢切り替え動作であり、各姿勢切り替え動作の間に階層関係があり、例えば、第3のコントロールがトリガーされる場合、仮想オブジェクトが全しゃがみ動作(両膝が屈曲し、両脚が臀部に近づく)及び半しゃがみ動作(片膝をつく状態)を実行するように制御し、全しゃがみ動作と半しゃがみ動作との間の階層関係を取得する。
ステップ512bでは、相関関係に基づいて第3のコントロールを第4のコントロール及び第5のコントロールに分割する。
一例では、相関関係に基づいて第3のコントロールを全しゃがみコントロール及び半しゃがみコントロールに分割し、別の例では、ゲームアプリケーションプログラムは、相関関係に基づいて第3のコントロールをしゃがみコントロール及びうつ伏せコントロールに分割し、別の例では、ゲームアプリケーションプログラムは、相関関係に基づいて第3のコントロールを高倍率照準器使用コントロール及び低倍率照準器使用コントロールに分割する。
ケース3では、仮想オブジェクトの数に基づいて分割する。
例示的には、仮想環境画面は、第1の仮想オブジェクトの視角で仮想環境を観察して得られた画面であり、一般的に第1の仮想オブジェクトにカメラモデルがバインディングされ、カメラモデルにより仮想環境を撮影し、仮想環境画面を得る。仮想環境画面における仮想オブジェクトの数に基づいて第3のコントロールを分割する。
例示的には、第1の仮想オブジェクトの視角内に少なくとも2つの第2の仮想オブジェクトがあることに応答して、第2の仮想オブジェクトの数に基づいて第3のコントロールを分割する。
ステップ511cでは、第1の仮想オブジェクトの視角内に少なくとも2つの第2の仮想オブジェクトがあることに応答して、第2の仮想オブジェクトの数を取得する。
第1の仮想オブジェクトと第2の仮想オブジェクトとが同一の仮想環境にあり、第1の仮想オブジェクトは、仮想環境で動作している間に、仮想環境における第2の仮想オブジェクトを見ることができる。例示的には、第2の仮想オブジェクトと第1の仮想オブジェクトは、チームメイト関係を有する。一例では、第1の仮想オブジェクトの視角には、3つの第2の仮想オブジェクトがあり、ゲームアプリケーションプログラムは、第2の仮想オブジェクトの数を第1の仮想オブジェクトが観察する仮想環境画面とバインディングする。
ステップ512cでは、第2の仮想オブジェクトの数に基づいて第3のコントロールを分割する。
例示的には、3つの仮想オブジェクトに基づいて第3のコントロールを3つのコントロールに分割する。例えば、第3のコントロールをコントロール1、コントロール2及びコントロール3に分割し、コントロール1は、仮想オブジェクト1を攻撃するためのものであり、コントロール2は、仮想オブジェクト2を攻撃するためのものであり、コントロール3は、仮想オブジェクト3を攻撃するためのものである。
いくつかの実施例では、第2の仮想オブジェクトが仮想道具を使用したことに応答して、第2の仮想オブジェクト及び第2の仮想オブジェクトが使用した仮想道具に基づいて第3のコントロールを分割する。例えば、第2の仮想オブジェクトが使用した仮想道具が盾(仮想オブジェクトに与える傷害を減少させる)である場合、第3のコントロールを2つのコントロールに分割し、1つのコントロールは、第2の仮想オブジェクトが使用した仮想道具(盾)を破壊し、もう1つのコントロールは、第2の仮想オブジェクトを攻撃する。いくつかの実施例では、仮想道具を破壊するためのコントロールの持続時間は、第2の仮想オブジェクトを攻撃するためのコントロールの持続時間より長い。
理解できるように、上記3種類のケースは、それぞれ単独で実施してもよく、組み合わせて実施してもよい。
ステップ513では、第3のコントロールを分割した後に第3のコントロールを取り替えるための少なくとも2つの分割済みコントロールを更新表示する。
例示的には、第3のコントロールを分割した後に対応する少なくとも2つの分割済みコントロールを更新表示し、更新後の仮想環境画面は、第3のコントロールを含まない。
ユーザーが分割設定操作を実施する場合、ゲームアプリケーションプログラムは、分割設定操作に対応するユーザーアカウントを識別し、ユーザーアカウントに基づいてユーザーアカウントに対応する仮想環境画面を更新する。
図12に示すように、更新後の仮想環境画面に、分割された第4のコントロール14及び第5のコントロール15が表示され、第4のコントロール14(全しゃがみコントロール)及び第5のコントロール15(半しゃがみコントロール)は、しゃがみコントロール13を分割した後に得られるものである。更新後の仮想環境画面には、しゃがみコントロール13(図では概略的なものである)が表示されない。例示的には、第4のコントロール14のコントロール識別子及び第5のコントロール15のコントロール識別子は、新たに生成されたコントロール識別子であり、かつ、この2つのコントロール識別子は、第3のコントロール13のコントロール識別子とは異なる。或いは、第3のコントロール13のコントロール識別子を第4のコントロール14のコントロール識別子とし、第5のコントロール15のコントロール識別子は、新たに生成されたコントロール識別子である。或いは、第3のコントロール13のコントロール識別子を第5のコントロール15のコントロール識別子とし、第4のコントロール14のコントロール識別子は、新たに生成されたコントロール識別子である。
第3のコントロールを分割した後のコントロールを使用して第1の仮想オブジェクトが動作を実行するように制御する場合、図13に示すように、以下の2種類のケースを含む。
ケース1では、第1の仮想オブジェクトは、少なくとも2つの動作を同時に実行する。
ステップ516aでは、第1のコントロールに対する第1の操作に応答して、第1の仮想オブジェクトが第1の動作を実行するように制御する。
第1のコントロールのコントロールタイプと第2のコントロールのコントロールタイプは異なる。
ステップ517aでは、第2のコントロールに対する第2の操作に応答して、第2の仮想オブジェクトが第1の動作を実行すると同時に、第2の動作を実行するように制御する。
例示的には、第1の仮想オブジェクトが投げる動作を実行している間に(投げる動作がまだ終了していない)、第2のコントロールで長押し操作を受信したことに応答して、ゲームアプリケーションプログラムは、第1の仮想オブジェクトがしゃがむ動作を実行している間に仮想道具を投げるように制御する。ユーザーは、しゃがむ角度に基づいて第1の仮想オブジェクトが目標を正確に命中するように制御することができる。
ケース2では、第1の仮想オブジェクトは、順序に応じて少なくとも2つの動作を実行する。
ステップ516bでは、第4のコントロールに対する第3の操作に応答して、第1の仮想オブジェクトが第4の動作を実行するように制御する。
例示的には、第4のコントロールは、うつ伏せコントロールであり、うつ伏せコントロールでドラッグ操作を受信したことに応答して、ゲームアプリケーションプログラムは、第1の仮想オブジェクトがうつ伏せ動作を実行するように制御する。
ステップ517bでは、第5のコントロールに対する第4の操作に応答して、第1の仮想オブジェクトが第5の動作を実行するように制御し、第4の動作と第5の動作は、相関関係を有する。
理解できるように、第3の操作と第4の操作は、同じであるか又は異なる。
相関関係とは、動作の間に一定の階層関係があることを指し、それらは、同じタイプの動作に属する。例示的には、第5のコントロールは、匍匐コントロール(第1の仮想オブジェクトが匍匐前進するように制御する)であり、匍匐コントロールでダブルタップ操作を受信したことに応答して、ゲームアプリケーションプログラムは、第1の仮想オブジェクトが仮想環境において匍匐移動するように制御する。理解できるように、ステップ516bは、ステップ517bより先に実行されてもよく、ステップ517bは、ステップ516bより先に実行されてもよい。
以上のように、本実施例の提供する方法は、分割設定操作を受信すると、第3のコントロールを同じタイプのコントロール又は異なるタイプのコントロールに分割することにより、ユーザーは、異なる戦況に対してコントロールを意図的に分割することができ、ユーザーの操作習慣に適すると同時に、ユーザーが制御した仮想オブジェクトの対戦効率を向上させることを保証する。
第3のコントロールがトリガーされた場合に対応する動作タイプに基づいて第3のコントロールを分割することにより、分割されたコントロールは、異なるタイプの動作に対応する機能を実現することができ、ユーザーは、異なる機能に基づいて第3のコントロールを分割しやすい。
第3のコントロールがトリガーされた場合に対応する少なくとも2つの動作の間の相関関係に基づいて第3のコントロールを分割することにより、分割されたコントロールは、同じタイプの動作の異なる階層を実現することができ、ユーザーは、異なる対戦状況に基づいて異なる階層の動作を実行しやすく、仮想オブジェクトの作戦効率を向上させることに役立つ。
第1の仮想オブジェクトの視野内の第2の仮想オブジェクトの数に基づいて第3のコントロールを分割することにより、分割されたコントロールは、異なる仮想オブジェクトに対して攻撃を行うことができ、仮想オブジェクトの作戦効率を向上させることに役立つ。
第3のコントロールを分割した後、仮想環境画面を更新表示し、更新後の仮想環境画面に分割済みコントロールが表示され、ユーザーは、更新後の仮想環境画面により仮想オブジェクトをより直感的に制御することができる。
分割されたコントロールで異なる操作を受信する場合、仮想オブジェクトが異なる操作を実行するように制御することができ、それにより、仮想オブジェクトの制御方式がより柔軟で多様になり、ユーザーが自分の好みに合致するか又は自分の使用習慣に適するUIコントロールのレイアウトを設定することに役立つ。
理解できるように、上記2種類のケースは、それぞれ単独で実施してもよく、組み合わせて実施してもよい。
一例では、図14に示すように、コントロールの結合は、以下のステップ1401~1405を含む。
ステップ1401で開始する。
ステップ1402では、ユーザーが結合設定操作を行うか否かを判断する。
ユーザーが結合設定操作を行う場合、ステップ1403aに進み、ユーザーが結合設定操作を行わない場合、ステップ1403bに進む。
ステップ1403aでは、うつ伏せコントロールをトリガーする時間が時間閾値を超える。
ユーザーが結合設定操作を行う場合、ゲームアプリケーションプログラムは、第1のコントロール及び第2のコントロールを結合し、第3のコントロールを取得する。例示的には、第1のコントロールは、しゃがみコントロールであり、第2のコントロールは、うつ伏せコントロールである。第1のコントロール(しゃがみコントロール)のコントロール識別子を第3のコントロールのコントロール識別子とし、第2のコントロール(うつ伏せコントロール)のコントロール識別子を隠して表示する。
例示的には、時間閾値は、0.5秒であり、第3のコントロールで受信されたトリガー操作は0.5秒を超える。
ステップ1404aでは、うつ伏せコントロールを隠して表示する。
このとき、うつ伏せ動作の実行条件を満たすが、仮想環境画面に元の第2のコントロール(うつ伏せコントロール)が表示されない。
ステップ1405aでは、しゃがみコントロールのうつ伏せ状態通知をオンにする。
このとき、結合後の第3のコントロールは、しゃがむ動作と、うつ伏せ動作とをサポートする2つの機能を有する。例示的には、しゃがみコントロールをハイライト表示する形式でユーザーへ通知し、このときのしゃがみコントロールは、第1の仮想オブジェクトがうつ伏せ動作を実行するように制御する。しゃがみコントロールがハイライト状態にない場合、しゃがみコントロールは、第1の仮想オブジェクトがしゃがむ動作を実行するように制御する。
ステップ1403bでは、しゃがみコントロールを長押しすることで、うつ伏せ操作をトリガーすることをオフにする。
ユーザーが結合設定操作を行わない場合、このときに第1のコントロール(しゃがみコントロール)と第2のコントロール(うつ伏せコントロール)は、結合されない。
ステップ1404bでは、うつ伏せコントロールを表示する。
仮想環境画面にうつ伏せコントロールが単独で表示される。
ステップ1405bでは、しゃがみコントロールのうつ伏せ状態通知をオフにする。
しゃがみコントロールは、第1の仮想オブジェクトがしゃがむ動作を実行するように制御し、うつ伏せコントロールは、第1の仮想オブジェクトがうつ伏せ動作を実行するように制御する。2種類のコントロールの機能は、結合されない。
1回のゲームにおいて、上記ステップ1402~ステップ1405a(ステップ1405b)は、ゲームが終了するまで、繰り返して実施することができる。
一例では、コントロールを結合した後、ゲームアプリケーションプログラムは、ユーザーの操作が第1の仮想オブジェクトがうつ伏せ動作を実行するように制御するか、又はしゃがむ動作を実行するように制御するかを判断し、図15に示すように、以下のステップ1051~ステップ1057を含む。
ステップ1501で開始する。
ステップ1502では、結合後のコントロールをトリガーするか否かを判断する。
ユーザーが結合操作を設定した後、ゲームアプリケーションプログラムは、第1のコントロール及び第2のコントロールを結合し、第3のコントロールを取得する。ユーザーが第3のコントロールをトリガーする場合、ステップ1503aに進み、ユーザーが第3のコントロールをトリガーしない場合、ステップ1503bに進む。
ステップ1503aでは、初期時間Δt=0を記録する。
第3のコントロールがトリガーされ、ゲームアプリケーションプログラムは、初期時間、及びトリガープロセスに対応する時間Tを記録する。
ステップ1503bでは、仮想環境画面が変化しない。
第3のコントロールがトリガーされず、仮想環境画面が変化しない。
ステップ1504では、Δt=Δt+Tを計算する。
トリガーの初期時間Δtとトリガー時間Tの総時間を計算する。
ステップ1505では、ユーザーが手を離すか否かを判断する。
ゲームアプリケーションプログラムは、ユーザーが手を離すか否かを判断し、ユーザーが手を離すと、ステップ1506に進み、ユーザーが手を離さないと、ステップ1504に戻る(時間を計算し続ける)。
ステップ1506では、Δt>0.5が成立するか否かを判断する。
ゲームアプリケーションプログラムは、第3のコントロールがトリガーされた時間が時間閾値を超えるか否かを判断し、第3のコントロールがトリガーされた時間が時間閾値を超えない場合、ステップ1507aに進み、第3のコントロールがトリガーされた時間が時間閾値を超える場合、ステップ1507bに進む。
ステップ1507aでは、しゃがむ動作をトリガーする。
第3のコントロールがトリガーされた時間が時間閾値を超えないと、ゲームアプリケーションプログラムは、第1の仮想オブジェクトがしゃがむ動作を実行するように制御する。
ステップ1507bでは、うつ伏せ動作をトリガーする。
第3のコントロールがトリガーされた時間が時間閾値を超えると、ゲームアプリケーションプログラムは、第1の仮想オブジェクトがうつ伏せ動作を実行するように制御する。
なお、ユーザーは、操作オプションを修正するたびにメモリに現在のオプション設定を記録し、主キー値は、SettingKeys.HideProneBtnであり、値内容は、現在のオプションの状態(true又はfalse)である。この部分の情報は、ユーザーに対応するコンピュータデバイスのローカルデータに記憶され、ユーザーが当該コンピュータデバイスを使用してゲームに再ログインするか又はユーザーがゲームを再開始する場合、いずれもローカルデータから当該オプションの値を取得し、これによりユーザーの操作設定の一致性を保持する。
1回のゲームにおいて、上記ステップ1502~ステップ1507a(ステップ1507b)は、ゲームが終了するまで、繰り返して実施することができる。
上記実施例は、ゲームの応用シナリオに基づいて上記方法を説明し、以下、軍事シミュレーションの応用シナリオで上記方法を例示的に説明する。
シミュレーション技術は、ソフトウェアとハードウェアを使用して現実世界の実験を模擬し、システムの行為又は過程を反映するモデル技術である。
軍事シミュレーションプログラムは、シミュレーション技術を利用して軍事用途に対して特別に構築されたプログラムであり、海、陸、空などの作戦要素、武器装備の性能及び作戦行動などを定量的に分析し、さらに戦場環境を正確にシミュレーションし、戦場状況を提示し、作戦体系の評価及び決定の支援を実現する。
一例では、兵士は、軍事シミュレーションプログラムが存在する端末で1つの仮想戦場を構築し、かつチームの形で対戦する。兵士は、戦場仮想環境における仮想オブジェクトが戦場仮想環境下で、立ち、しゃがみ、座り、仰臥、腹臥、側臥、歩き、走り、登り、運転、射撃、投げ、攻撃、負傷、偵察、近接格闘などの動作のうちの少なくとも1種の操作を行うように制御する。戦場の仮想環境は、平地、山や川、高原、盆地、砂漠、河、湖、海、植生のうちの少なくとも1種の自然形態、及び建物、交通機関、廃墟、訓練場などの場所形態を含む。仮想オブジェクトは、仮想キャラクター、仮想動物、アニメーションキャラクターなどを含み、各仮想オブジェクトは、3次元仮想環境でその形状及び体積を有し、3次元仮想環境における一部の空間を占める。
上記状況に基づいて、一例では、兵士Aは、仮想オブジェクトaを制御し、兵士Bは、仮想オブジェクトbを制御し、兵士Cは、仮想オブジェクトcを制御し、兵士Aと兵士Bは、同じチームの兵士であり、兵士Cと兵士A及び兵士Bは、同じチームに属しない。仮想オブジェクトcの視角で仮想オブジェクトa及び仮想オブジェクトbを見ると、兵士cは、軍事シミュレーションプログラムにおいて分割操作を設定し、射撃コントロールを2つの射撃コントロールに分割し、それぞれ射撃コントロール1及び射撃コントロール2であり、射撃コントロール1は、仮想オブジェクト1を攻撃するためのものであり、射撃コントロール2は、仮想オブジェクト2を攻撃するためのものであり、射撃コントロール1及び射撃コントロール2がトリガーされる場合、射撃コントロール1の持続時間は、射撃コントロール2の持続時間より長い(仮想オブジェクト1に防護仮想道具が着用されるため、より長い時間で攻撃する必要がある)。
以上のように、本実施例では、上記仮想環境画面の表示方法を軍事シミュレーションプログラムに適用し、兵士は、戦術レイアウトに合わせてコントロールを結合するか又はコントロールを分割することにより、コントロールのレイアウトが個人の使用習慣に適し、それにより兵士のヒューマンコンピュータインタラクションの効率を向上させ、実戦現場に対してよりリアルなシミュレーションを行い、兵士が良く訓練される。
以下は、本願の装置の実施例であり、装置の実施例では詳細に説明されていない詳細について、上記方法の実施例における対応する記載を参照することができ、本明細書では、説明を省略する。
図16は、本願の例示的な実施例に係る仮想環境画面の表示装置の概略構成図を示す。当該装置は、ソフトウェア、ハードウェア又は両者の組み合わせにより端末の全部又は一部になることを実現することができ、当該装置は、
仮想環境画面、第1のコントロール及び第2のコントロールを表示する表示モジュールであって、第1のコントロール及び第2のコントロールは、異なるコントロールタイプに属する表示モジュール1610と、
前記第1のコントロール及び前記第2のコントロールに対する結合設定操作を受信する受信モジュール1620と、
結合設定操作に応答して第1のコントロール及び第2のコントロールを第3のコントロールに結合する処理モジュール1630と、を含む。
好ましい一実施例では、当該装置は、取得モジュール1640を含み、
前記取得モジュール1640は、前記結合設定操作に応答して第1のコントロールの第1のコントロールタイプ及び第2のコントロールの第2のコントロールタイプを取得し、前記処理モジュール1630は、第1のコントロールタイプ及び第2のコントロールタイプが予め設定された条件を満たすことに応答し、第1のコントロール及び第2のコントロールを第3のコントロールに結合する。
好ましい一実施例では、予め設定された条件は、
第1のコントロールタイプがアシストタイプであり、第2のコントロールタイプが照準タイプである条件と、
第1のコントロールタイプがアシストタイプであり、第2のコントロールタイプが移動タイプである条件と、
第1のコントロールタイプが移動タイプであり、第2のコントロールタイプが照準タイプである条件と、
第1のコントロールタイプが移動タイプであり、第2のコントロールタイプが状態切り替えタイプである条件と、
第1のコントロールタイプが状態切り替えタイプであり、第2のコントロールタイプがアシストタイプである条件と、
第1のコントロールタイプが状態切り替えタイプであり、第2のコントロールタイプが照準タイプである条件と、
のうちの少なくとも1種を含む。
好ましい一実施例では、前記表示モジュール1610は、前記第1のコントロール及び前記第2のコントロールを取り替えるための前記第3のコントロールを更新表示する。
好ましい一実施例では、前記第1のコントロールは、第1の仮想オブジェクトが第1の動作を実行するように制御し、
前記第2のコントロールは、前記第1の仮想オブジェクトが第2の動作を実行するように制御し、
前記第3のコントロールは、前記第1の仮想オブジェクトが前記第1の動作及び前記第2の動作を実行するように制御する。
好ましい一実施例では、前記処理モジュール1630は、第3のコントロールに対する第1の操作に応答して、第1の仮想オブジェクトが第1の動作を実行するように制御し、第3のコントロールに対する第2の操作に応答して、第1の仮想オブジェクトが第2の動作を実行するように制御し、或いは、第3のコントロールに対する第3の操作に応答して、第1の仮想オブジェクトが第1の動作及び第2の動作を同時に実行するように制御し、或いは、第3のコントロールに対する第4の操作に応答して、第1の動作及び第2の動作の優先度を取得し、優先度に基づいて第1の仮想オブジェクトが予め設定された順序に応じて第1の動作及び第2の動作を実行するように制御する。
好ましい一実施例では、前記処理モジュール1630は、前記第3のコントロールに対する第1の分割設定操作に応答して、第3のコントロールを第1のコントロール及び第2のコントロールに分割し、或いは、前記第3のコントロールに対する第2の分割設定操作に応答して、第3のコントロールを第4のコントロール及び第5のコントロールに分割し、第4のコントロール及び第5のコントロールは、同じタイプのコントロールに属する。
好ましい一実施例では、前記取得モジュール1640は、前記第3のコントロールに対する第1の分割設定操作に応答して、第3のコントロールに対応する動作タイプを取得し、前記処理モジュール1630は、動作タイプに基づいて第3のコントロールを第1のコントロール及び第2のコントロールに分割する。
好ましい一実施例では、前記取得モジュール1640は、前記第3のコントロールに対する第2の分割設定操作に応答して、第3のコントロールに対応する少なくとも2つの動作の間の相関関係を取得し、前記処理モジュール1630は、相関関係に基づいて第3のコントロールを第4のコントロール及び第5のコントロールに分割する。
好ましい一実施例では、仮想環境画面は、第1の仮想オブジェクトの視角で仮想環境を観察して得られた画面であり、
前記取得モジュール1640は、第1の仮想オブジェクトの視角内に少なくとも2つの第2の仮想オブジェクトがあることに応答して、第2の仮想オブジェクトの数を取得し、前記処理モジュール1630は、第2の仮想オブジェクトの数に基づいて第3のコントロールを分割する。
好ましい一実施例では、前記表示モジュール1610は、前記第3のコントロールを分割した後に前記第3のコントロールを取り替えるための少なくとも2つの分割済みコントロールを更新表示する。
好ましい一実施例では、前記処理モジュール1630は、第1のコントロールに対する第1の操作に応答して、第1の仮想オブジェクトが第1の動作を実行するように制御し、第2のコントロールに対する第2の操作に応答して、第1の仮想オブジェクトが第1の動作を実行すると同時に、第2の動作を実行するように制御し、或いは、第4のコントロールに対する第3の操作に応答して、第1の仮想オブジェクトが第4の動作を実行するように制御し、第5のコントロールに対する第4の操作に応答して、第1の仮想オブジェクトが第5の動作を実行するように制御し、第4の動作と第5の動作は、相関関係を有する。
以上のように、本実施例に係る装置は、受信された結合設定操作に応じて、仮想環境画面に表示された異なるタイプのコントロールを結合することにより、ユーザーが自主的に設定して、あまり使われないUIコントロールを同一のUIコントロールに結合するか、又は組み合わせて使用する必要があるUIコントロールを同一のUIコントロールに結合することができ、UIコントロールの仮想環境画面上のレイアウトを変更することにより、ユーザーが仮想オブジェクトを制御する過程を簡略化し、ヒューマンコンピュータインタラクションの効率を向上させる。
第1のコントロールの第1のコントロールタイプ及び第2のコントロールの第2のコントロールタイプが予め設定された条件を満たすか否かを判断すると、第1のコントロール及び第2のコントロールを第3のコントロールに結合することにより、ユーザーは、結合設定操作により異なるタイプのコントロールを結合することができ、それにより、UIコントロールの仮想環境画面上のレイアウトがより柔軟になる。
予め設定された条件を満たすUIコントロールのタイプを列挙することにより、ユーザーは、結合可能なUIコントロールのタイプを決定し、UIコントロールを柔軟に結合する。
第1のコントロール及び第2のコントロールを結合した後、仮想環境画面を更新表示し、更新後の仮想環境画面に結合後の第3のコントロールが表示され、ユーザーは、更新後の仮想環境画面により仮想オブジェクトをより直感的に制御することができる。
第3のコントロールで異なる操作を受信する場合、仮想オブジェクトが異なるルールに応じて異なる動作を実行するように制御し、それにより、仮想オブジェクトの制御方式がより柔軟で多様になり、ユーザーが自分の好みに合致するか又は自分の使用習慣に適するUIコントロールのレイアウトを設定することに役立つ。
分割設定操作を受信すると、第3のコントロールを同じタイプのコントロール又は異なるタイプのコントロールに分割することにより、ユーザーは、異なる戦況に対してコントロールを意図的に分割することができ、ユーザーの操作習慣に適すると同時に、ユーザーが制御した仮想オブジェクトの対戦効率を向上させることを保証する。
第3のコントロールがトリガーされた場合に対応する動作タイプに基づいて第3のコントロールを分割することにより、分割されたコントロールは、異なるタイプの動作に対応する機能を実現することができ、ユーザーは、異なる機能に基づいて第3のコントロールを分割しやすい。
第3のコントロールがトリガーされた場合に対応する少なくとも2つの動作の間の相関関係に基づいて第3のコントロールを分割することにより、分割されたコントロールは、同じタイプの動作の異なる階層を実現することができ、ユーザーは、異なる対戦状況に基づいて異なる階層の動作を実行しやすく、仮想オブジェクトの作戦効率を向上させることに役立つ。
第1の仮想オブジェクトの視野内の第2の仮想オブジェクトの数に基づいて第3のコントロールを分割することにより、分割されたコントロールは、異なる仮想オブジェクトに対して攻撃を行うことができ、仮想オブジェクトの作戦効率を向上させることに役立つ。
第3のコントロールを分割した後、仮想環境画面を更新表示し、更新後の仮想環境画面に分割済みコントロールが表示され、ユーザーは、更新後の仮想環境画面により仮想オブジェクトをより直感的に制御することができる。
分割されたコントロールで異なる操作を受信する場合、仮想オブジェクトが異なる操作を実行するように制御することができ、それにより、仮想オブジェクトの制御方式がより柔軟で多様になり、ユーザーが自分の好みに合致するか又は自分の使用習慣に適するUIコントロールのレイアウトを設定することに役立つ。
なお、上記実施例に係る仮想環境画面の表示装置は、上記各機能モジュールの分割を例に挙げて説明しただけであり、実際の適用において、必要に応じて上記機能を異なる機能モジュールによって完成されるように分配することもでき、即ち、装置の内部構造を異なる機能モジュールに分割して、上記した機能の一部又は全部を完成する。また、上記実施例に係る仮想環境画面の表示装置は、仮想環境画面の表示方法の実施例と同じ構想に属し、その具体的な実現過程の詳細は、方法の実施例を参照することができ、ここでは詳細な説明を省略する。
図17に示すように、本出願の例示的な実施例に係るコンピュータデバイス1700のブロック構成図を示す。当該コンピュータデバイス1700は、スマートフォン、タブレットコンピュータ、MP3プレーヤー(Moving Picture Experts Group Audio Layer III、動画専門家グループオーディオレイヤー3)、MP 4(Moving Picture Experts Group Audio Layer IV、動画エキスパートグループオーディオレイヤー4)プレーヤーのような携帯型移動端末であってもよい。コンピュータデバイス1700は、ユーザーデバイス、携帯端末などの他の名前で呼ばれることもある。
一般的に、コンピュータデバイス1700は、プロセッサ1701及びメモリ1702を含む。
プロセッサ1701は、例えば、4コアプロセッサ、8コアプロセッサなどの1つ又は複数の処理コアを含んでもよい。
メモリ1702は、1つ又は複数のコンピュータ可読記憶媒体を含んでもよく、当該コンピュータ可読記憶媒体は、有形かつ非一時的なものであってもよい。メモリ1702は、高速ランダムアクセスメモリ、及び不揮発性メモリをさらに含んでもよく、例えば、1つ又は複数の磁気ディスク記憶デバイス、フラッシュメモリ記憶デバイスである。いくつかの実施例では、メモリ1702における非一時的なコンピュータ可読記憶媒体は、少なくとも1つの命令を記憶し、当該少なくとも1つの命令は、プロセッサ1701によって実行されて本願の実施例に係る仮想環境画面の表示方法を実現する。
いくつかの実施例では、コンピュータデバイス1700は、好ましくは、周辺装置インタフェース1703及び少なくとも1つの周辺装置をさらに含んでもよい。具体的には、周辺装置は、無線周波数回路1704、タッチディスプレイ1705、カメラコンポーネント1706、オーディオ回路1707、測位コンポーネント1708及び電源1709のうちの少なくとも1つを含む。
周辺装置インタフェース1703は、I/O(Input/Output、入力/出力)に関連する少なくとも1つの周辺装置をプロセッサ1701及びメモリ1702に接続することに用いられ得る。
無線周波数回路1704は、電磁信号とも呼ばれるRF(Radio Frequency、無線周波数)信号を送受信する。無線周波数回路1704は、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。無線周波数回路1704は、電気信号を電磁信号に変換して送信するか、又は受信された電磁信号を電気信号に変換する。
タッチディスプレイ1705は、UI(User Interface、ユーザーインタフェース)を表示する。
カメラコンポーネント1706は、画像又はビデオを収集する。オーディオ回路1707は、ユーザーとコンピュータデバイス1700との間のオーディオインタフェースを提供する。オーディオ回路1707は、マイクロフォン及びスピーカーを含んでもよい。
測位コンポーネント1708は、コンピュータデバイス1700の現在の地理的位置を測位することにより、ナビゲーション又はLBS(Location Based Service、位置情報サービス)を実現する。
電源1709は、コンピュータデバイス1700における各コンポーネントに給電する。
いくつかの実施例では、コンピュータデバイス1700は、1つ又は複数のセンサ1710をさらに含む。当該1つ又は複数のセンサ1710は、加速度センサ1711、ジャイロセンサ1712、圧力センサ1713、指紋センサ1714、光学センサ1715及び近接センサ1716を含むが、これらに限定されない。
当業者が理解できるように、図17に示す構造は、コンピュータデバイス1700を限定するものではなく、図示より多いか又は少ないコンポーネントを含み、又はいくつかのコンポーネントを組み合わせ、又は異なるコンポーネント配置を採用して配置するようにしてもよい。
本願の実施例は、さらに、コンピュータデバイスを提供し、当該コンピュータデバイスは、プロセッサ及びメモリを含み、当該メモリに少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、当該少なくとも1つの命令、当該少なくとも1つのプログラム、当該コードセット又は命令セットは、当該プロセッサがロードし、かつ実行することにより、上記各方法の実施例に係る仮想環境画面の表示方法を実現する。
本願の実施例は、さらに、コンピュータ可読記憶媒体を提供し、当該記憶媒体に少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、当該少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットは、プロセッサがロードし、かつ実行することにより、上記各方法の実施例に係る仮想環境画面の表示方法を実現する。
本願の実施例は、さらに、コンピュータプログラム製品又はコンピュータプログラムを提供し、前記コンピュータプログラム製品又はコンピュータプログラムは、コンピュータ命令を含み、前記コンピュータ命令は、コンピュータ可読記憶媒体に記憶される。コンピュータデバイスのプロセッサは、前記コンピュータ可読記憶媒体から前記コンピュータ命令を読み取り、前記プロセッサは、前記コンピュータ命令を実行することにより、前記コンピュータデバイスに上記態様に記載の仮想環境画面の表示方法を実行させる。
理解されるように、本明細書で言及された「複数」は、2つ又は2つ以上を指す。「及び/又は」は、相関オブジェクトの相関関係を説明するためのものであり、3つの関係が存在してもよいことを示し、例えば、「A及び/又はB」は、「Aが独立して存在する」、「AとBが同時に存在する」、「Bが独立して存在する」の3つの状況を示してもよい。文字「/」は、一般的に、前後関連オブジェクトが「又は」の関係であることを示す。
当業者は、上記実施例を実現するためのステップの全部又は一部は、ハードウェアによって完了されてもよいし、プログラムで関連するハードウェアを命令することにより完了されてもよく、当該プログラムは、コンピュータ可読記憶媒体に記憶されることができ、上に言及された記憶媒体は読み取り専用メモリ、磁気ディスク又は光ディスクなどであり得ることを理解できる。
上記は、本願の選択可能な実施例にすぎず、本願を限定することを意図するものではなく、本願の精神及び原則において行われる任意の修正、等価な置換、改良などは、いずれも本願の保護範囲内に含まれるべきある。

Claims (14)

  1. コンピュータデバイスが実行する仮想環境画面の表示方法であって、
    仮想環境画面、第1のコントロール及び第2のコントロールを表示するステップであって、前記第1のコントロール及び前記第2のコントロールは、異なるコントロールタイプに属するステップと、
    前記第1のコントロール及び前記第2のコントロールに対する結合設定操作を受信するステップと、
    前記結合設定操作に応答して前記第1のコントロール及び前記第2のコントロールを第3のコントロールに結合するステップと、含む仮想環境画面の表示方法。
  2. 前記結合設定操作に応答して前記第1のコントロールと前記第2のコントロールを第3のコントロールに結合する前記ステップは、
    前記結合設定操作に応答して前記第1のコントロールの第1のコントロールタイプ及び前記第2のコントロールの第2のコントロールタイプを取得するステップと、
    前記第1のコントロールタイプ及び前記第2のコントロールタイプが予め設定された条件を満たすことに応答して、前記第1のコントロール及び前記第2のコントロールを前記第3のコントロールに結合するステップと、を含む請求項1に記載の方法。
  3. 前記予め設定された条件は、
    前記第1のコントロールタイプがアシストタイプであり、前記第2のコントロールタイプが照準タイプである条件と、
    前記第1のコントロールタイプが前記アシストタイプであり、前記第2のコントロールタイプが移動タイプである条件と、
    前記第1のコントロールタイプが前記移動タイプであり、前記第2のコントロールタイプが前記照準タイプである条件と、
    前記第1のコントロールタイプが前記移動タイプであり、前記第2のコントロールタイプが状態切り替えタイプである条件と、
    前記第1のコントロールタイプが前記状態切り替えタイプであり、前記第2のコントロールタイプが前記アシストタイプである条件と、
    前記第1のコントロールタイプが前記状態切り替えタイプであり、前記第2のコントロールタイプが前記照準タイプである条件と、
    のうちの少なくとも1種を含む、請求項2に記載の方法。
  4. 前記結合設定操作に応答して前記第1のコントロール及び前記第2のコントロールを第3のコントロールに結合した後、さらに、
    前記第1のコントロール及び前記第2のコントロールを取り替えるための前記第3のコントロールを更新表示するステップを含む、請求項1~3のいずれか一項に記載の方法。
  5. 前記第1のコントロールは、第1の仮想オブジェクトが第1の動作を実行するように制御し、
    前記第2のコントロールは、前記第1の仮想オブジェクトが第2の動作を実行するように制御し、
    前記第3のコントロールは、前記第1の仮想オブジェクトが前記第1の動作及び前記第2の動作を実行するように制御する、請求項1~3のいずれか一項に記載の方法。
  6. 前記第3のコントロールに対する第1の操作に応答して、前記第1の仮想オブジェクトが前記第1の動作を実行するように制御し、前記第3のコントロールに対する第2の操作に応答して、前記第1の仮想オブジェクトが前記第2の動作を実行するように制御するステップ、
    又は、
    前記第3のコントロールに対する第3の操作に応答して、前記第1の仮想オブジェクトが前記第1の動作及び前記第2の動作を同時に実行するように制御するステップ、
    又は、
    前記第3のコントロールに対する第4の操作に応答して、前記第1の動作及び前記第2の動作の優先度を取得し、前記優先度に基づいて前記第1の仮想オブジェクトが予め設定された順序に応じて前記第1の動作及び前記第2の動作を実行するように制御するステップをさらに含む、請求項5に記載の方法。
  7. 前記第3のコントロールに対する第1の分割設定操作に応答して、前記第3のコントロールを前記第1のコントロール及び前記第2のコントロールに分割するステップ、
    又は、
    前記第3のコントロールに対する第2の分割設定操作に応答して、前記第3のコントロールを第4のコントロール及び第5のコントロールに分割するステップであって、前記第4のコントロール及び前記第5のコントロールは、同じタイプのコントロールに属するステップをさらに含む、請求項1~3のいずれか一項に記載の方法。
  8. 前記第3のコントロールに対する第1の分割設定操作に応答して、前記第3のコントロールを前記第1のコントロール及び前記第2のコントロールに分割する前記ステップは、
    前記第3のコントロールに対する第1の分割設定操作に応答して、前記第3のコントロールに対応する動作タイプを取得するステップと、
    前記動作タイプに基づいて前記第3のコントロールを前記第1のコントロール及び前記第2のコントロールに分割するステップと、を含む、請求項7に記載の方法。
  9. 前記第3のコントロールに対する第2の分割設定操作に応答して、前記第3のコントロールを前記第4のコントロール及び前記第5のコントロールに分割する前記ステップは、
    前記第3のコントロールに対する第2の分割設定操作に応答して、前記第3のコントロールに対応する少なくとも2つの動作の間の相関関係を取得するステップと、
    前記相関関係に基づいて前記第3のコントロールを前記第4のコントロール及び前記第5のコントロールに分割するステップと、を含む、請求項7に記載の方法。
  10. 前記仮想環境画面は、第1の仮想オブジェクトの視角で仮想環境を観察して得られた画面であり、
    当該方法は、
    前記第1の仮想オブジェクトの視角内に少なくとも2つの第2の仮想オブジェクトがあることに応答して、前記第2の仮想オブジェクトの数に基づいて前記第3のコントロールを分割するステップをさらに含む、請求項7に記載の方法。
  11. 前記第3のコントロールを分割した後に前記第3のコントロールを取り替えるための少なくとも2つの分割済みコントロールを更新表示するステップをさらに含む、請求項7に記載の方法。
  12. 前記第3のコントロールを前記第1のコントロール及び前記第2のコントロールに分割した後、
    前記第1のコントロールに対する第1の操作に応答して、第1の仮想オブジェクトが第1の動作を実行するように制御し、前記第2のコントロールに対する第2の操作に応答して、前記第1の仮想オブジェクトが前記第1の動作を実行すると同時に、第2の動作を実行するように制御するステップをさらに含み、
    或いは、
    前記第3のコントロールを前記第4のコントロール及び前記第5のコントロールに分割した後、
    前記第4のコントロールに対する第3の操作に応答して、前記第1の仮想オブジェクトが第4の動作を実行するように制御し、前記第5のコントロールに対する第4の操作に応答して、前記第1の仮想オブジェクトが第5の動作を実行するように制御するステップをさらに含み、
    前記第4の動作と前記第5の動作は、相関関係を有する、請求項7に記載の方法。
  13. 仮想環境画面、第1のコントロール及び第2のコントロールを表示する表示モジュールであって、前記第1のコントロール及び前記第2のコントロールは、異なるコントロールタイプに属する表示モジュールと、
    前記第1のコントロール及び前記第2のコントロールに対する結合設定操作を受信する受信モジュールと、
    前記結合設定操作に応答して前記第1のコントロール及び前記第2のコントロールを第3のコントロールに結合する処理モジュールと、を含む仮想環境画面の表示装置。
  14. コンピュータに、請求項1~11のいずれか一項に記載の仮想環境画面の表示方法を実施させる、コンピュータプログラム。
JP2022560942A 2020-08-26 2021-08-20 仮想環境画面の表示方法、装置及びコンピュータプログラム Active JP7477640B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010870309.1A CN111921194A (zh) 2020-08-26 2020-08-26 虚拟环境画面的显示方法、装置、设备及存储介质
CN202010870309.1 2020-08-26
PCT/CN2021/113710 WO2022042435A1 (zh) 2020-08-26 2021-08-20 虚拟环境画面的显示方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023523157A true JP2023523157A (ja) 2023-06-02
JP7477640B2 JP7477640B2 (ja) 2024-05-01

Family

ID=73305521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022560942A Active JP7477640B2 (ja) 2020-08-26 2021-08-20 仮想環境画面の表示方法、装置及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US20220379214A1 (ja)
JP (1) JP7477640B2 (ja)
KR (1) KR20230007392A (ja)
CN (1) CN111921194A (ja)
WO (1) WO2022042435A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111921194A (zh) * 2020-08-26 2020-11-13 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
CN112402960B (zh) * 2020-11-19 2022-11-04 腾讯科技(深圳)有限公司 虚拟场景中状态切换方法、装置、设备及存储介质
CN113398564B (zh) * 2021-07-12 2024-02-13 网易(杭州)网络有限公司 虚拟角色控制方法、装置、存储介质及计算机设备
CN113476823B (zh) * 2021-07-13 2024-02-27 网易(杭州)网络有限公司 虚拟对象控制方法、装置、存储介质及电子设备
CN113926181A (zh) * 2021-10-21 2022-01-14 腾讯科技(深圳)有限公司 虚拟场景的对象控制方法、装置及电子设备
CN117717777A (zh) * 2023-04-21 2024-03-19 网易(杭州)网络有限公司 虚拟对象的控制方法、装置和电子设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102109054B1 (ko) 2013-04-26 2020-05-28 삼성전자주식회사 애니메이션 효과를 제공하는 사용자 단말 장치 및 그 디스플레이 방법
CN105549888B (zh) * 2015-12-15 2019-06-28 芜湖美智空调设备有限公司 组合控件生成方法和装置
CN106126064A (zh) * 2016-06-24 2016-11-16 乐视控股(北京)有限公司 一种信息处理方法及设备
CN108499105B (zh) * 2018-04-16 2022-02-25 腾讯科技(深圳)有限公司 在虚拟环境中进行视角调整的方法、装置及存储介质
CN109078326B (zh) 2018-08-22 2022-03-08 网易(杭州)网络有限公司 游戏的控制方法和装置
CN109701274B (zh) 2018-12-26 2019-11-08 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN111209000B (zh) * 2020-01-08 2024-01-26 网易(杭州)网络有限公司 自定义控件的处理方法、装置、电子设备及存储介质
CN111921194A (zh) * 2020-08-26 2020-11-13 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US20220379214A1 (en) 2022-12-01
JP7477640B2 (ja) 2024-05-01
KR20230007392A (ko) 2023-01-12
CN111921194A (zh) 2020-11-13
WO2022042435A1 (zh) 2022-03-03

Similar Documents

Publication Publication Date Title
JP7477640B2 (ja) 仮想環境画面の表示方法、装置及びコンピュータプログラム
WO2021213026A1 (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111399639B (zh) 虚拟环境中运动状态的控制方法、装置、设备及可读介质
CN110548288B (zh) 虚拟对象的受击提示方法、装置、终端及存储介质
JP2022525172A (ja) 仮想オブジェクトの制御方法、装置、コンピュータ機器及びプログラム
CN112416196B (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
WO2022105362A1 (zh) 虚拟对象的控制方法、装置、设备、存储介质及计算机程序产品
KR20220051014A (ko) 상호작용 프롭 디스플레이 방법 및 장치, 및 단말 및 저장 매체
JP2022544888A (ja) インタフェース表示方法、装置、端末、記憶媒体及びコンピュータプログラム
WO2022052831A1 (zh) 应用程序内的控件位置调整方法、装置、设备及存储介质
WO2022227958A1 (zh) 虚拟载具的显示方法、装置、设备以及存储介质
TWI789088B (zh) 虛擬對象釋放技能的方法、裝置、設備、媒體及程式產品
JP2022540277A (ja) 仮想オブジェクト制御方法、装置、端末及びコンピュータプログラム
JP2022533919A (ja) 仮想キャラクタの制御方法並びにそのコンピュータ機器、コンピュータプログラム、及び仮想キャラクタの制御装置
CN113713383B (zh) 投掷道具控制方法、装置、计算机设备及存储介质
US11803301B2 (en) Virtual object control method and apparatus, device, storage medium, and computer program product
KR20220139970A (ko) 가상 장면에서의 데이터 처리 방법, 디바이스, 저장 매체, 및 프로그램 제품
CN111249726B (zh) 虚拟环境中虚拟道具的操作方法、装置、设备及可读介质
CN114225372B (zh) 虚拟对象的控制方法、装置、终端、存储介质及程序产品
WO2024098628A1 (zh) 游戏交互方法、装置、终端设备及计算机可读存储介质
JP2023164687A (ja) 仮想オブジェクトの制御方法及び装置並びにコンピュータ装置及びプログラム
CN111589129B (zh) 虚拟对象的控制方法、装置、设备及介质
JP7408685B2 (ja) アプリケーションプログラム内のコントロールの位置調整方法、装置、機器及び記憶媒体
KR102648210B1 (ko) 가상 객체 제어 방법 및 장치, 단말, 및 저장 매체
CN116795269A (zh) 虚拟道具切换方法、装置、设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240418

R150 Certificate of patent or registration of utility model

Ref document number: 7477640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150