JP7447299B2 - 仮想シーンのアダプティブ表示方法及び装置、電子機器、並びにコンピュータプログラム - Google Patents

仮想シーンのアダプティブ表示方法及び装置、電子機器、並びにコンピュータプログラム Download PDF

Info

Publication number
JP7447299B2
JP7447299B2 JP2022556518A JP2022556518A JP7447299B2 JP 7447299 B2 JP7447299 B2 JP 7447299B2 JP 2022556518 A JP2022556518 A JP 2022556518A JP 2022556518 A JP2022556518 A JP 2022556518A JP 7447299 B2 JP7447299 B2 JP 7447299B2
Authority
JP
Japan
Prior art keywords
virtual scene
button
size
contact area
buttons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022556518A
Other languages
English (en)
Other versions
JP2023524368A (ja
Inventor
ゾウ,ダンチェン
ウー,シェンギュ
ティアン,コン
チュウ,メン
ヒ,ジンジン
ル,ボウイ
クイ,ウェイジャン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2023524368A publication Critical patent/JP2023524368A/ja
Application granted granted Critical
Publication of JP7447299B2 publication Critical patent/JP7447299B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)

Description

本出願は、2020年12月31日に中国専利局に出願した、出願番号が202011620155.7である中国特許出願に基づく優先権を主張するものであり、その全内容を参照によりここに援用する。
本出願は、コンピュータヒューマンマシンインタラクション技術の分野に関し、特に、仮想シーンのアダプティブ表示(adaptive display)方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムプロダクトに関する。
グラフィックス処理ハードウェアに基づく表示技術により、環境を感知し、情報を取得するための手段が増えており、特に、仮想シーンの表示技術は、実際の応用ニーズに応じて、ユーザ又は人工知能によって制御される仮想オブジェクトの間の多様なインタラクションを実現することができ、また、様々な典型的なアプリケーションシーンを有し、例えば、ゲームなどの仮想シーンにおいて仮想オブジェクトの間のリアルな対戦プロセスをシミュレートすることができる。
なかでも、仮想シーンにおけるボタン(キーともいう)、例えば、攻撃機能を有するボタン、仮想オブジェクトの移動を操作する機能を有するジョイスティックボタンなどが広く使用されており、クリック(タップともいう)、押圧、スライディングなどの操作によって仮想シーンにおけるボタンを使用することで、対応する機能を実現することができる。
関連技術では、使用の便宜のため、仮想シーンが実行される前に、ユーザにより仮想シーンにおける各ボタンのサイズを手動で1つずつ調整する必要がある。このようにして、調整後のボタンは、仮想シーンが実行されるときにユーザが操作するのに便利である。しかし、このような頻繁な調整方式は煩雑すぎるため、仮想シーンにおけるヒューマンマシンインタラクションの効率に影響を与え、使用体験(ユーザーエクスペリエンス)に影響を及ぼす恐れがある。
本出願の実施例は、仮想シーンにおけるボタンのサイズの自動調整を実現し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができる仮想シーンのアダプティブ表示方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムプロダクトを提供することを課題とする。
本出願の実施例において仮想シーンのアダプティブ表示方法が提供され、電子機器により実行され、前記方法は、
仮想シーン及び複数の異なるサイズのボタンを表示し;
前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作に対応する接触面積を取得し;及び
前記仮想シーンを更新して表示し、更新後の前記仮想シーンに含まれるボタンのサイズが前記タッチ操作に対応する接触面積に適応していることを含む。
本出願の実施例において仮想シーンのアダプティブ表示装置が提供され、それは、
仮想シーン及び複数の異なるサイズのボタンを表示するように構成される表示モジュール;
前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作に対応する接触面積を取得するように構成される処理モジュール;及
前記仮想シーンを更新して表示するように構成される更新モジュールであって、更新後の前記仮想シーンに含まれるボタンのサイズが前記タッチ操作の主体によって実現され得る接触面積に適応している、更新モジュールを含む。
本出願の実施例においてアダプティブ表示のための電子機器が提供され、前記電子機器は、
実行可能な命令を記憶している記憶器;及び
前記記憶器に記憶されている実行可能な命令を実行することで、本出願の実施例により提供される仮想シーンのアダプティブ表示方法を実現するように構成される処理器を含む。
本出願の実施例においてコンピュータ可読記憶媒体が提供され、その中には実行可能な命令が記憶されており、実行可能な命令は、処理器により実行されるときに、本出願の実施例により提供される仮想シーンのアダプティブ表示方法を実現する。
本出願の実施例においてコンピュータプログラムプロダクトが提供され、それはコンピュータプログラム又は命令を含み、前記コンピュータプログラム又は命令は、処理器により実行されるときに、本出願の実施例により提供される仮想シーンのアダプティブ表示方法を実現する。
本出願の実施例により提供される技術案は、少なくとも、以下のような有利な効果を有する。
仮想シーンにおける複数の異なるサイズのボタンにより、タッチ操作に対応する接触面積を検出し、仮想シーンに含まれるボタンのサイズがタッチ操作に対応する接触面積に適応するように調整することで、高効率のヒューマンマシンインタラクション操作によりボタンのサイズを調整し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができるとともに、グラフィックス処理ハードウェアがヒューマンマシンインタラクションの関連計算を行うときのリソースを大幅に節約することもできる。
関連技術により提供されるボタンサイズ調整のインターフェースを示す図である。 関連技術により提供されるボタンサイズ調整のインターフェースを示す図である。 関連技術により提供されるボタンサイズ調整のインターフェースを示す図である。 関連技術により提供されるボタンサイズ調整のインターフェースを示す図である。 本出願の実施例により提供される仮想シーンのアダプティブ表示方法の応用モードを示す図である。 本出願の実施例により提供される仮想シーンのアダプティブ表示方法の応用モードを示す図である。 本出願の実施例により提供されるアダプティブ表示のための電子機器の構成を示す図である。 本出願の実施例により提供される仮想シーンのアダプティブ表示装置にインストールされるヒューマンマシンインタラクションエンジンの原理を示す図である。 本出願の実施例により提供される仮想シーンのアダプティブ表示方法のフローチャートである。 本出願の実施例により提供される仮想シーンのアダプティブ表示方法のフローチャートである。 本出願の実施例により提供される仮想シーンのアダプティブ表示方法のフローチャートである。 本出願の実施例により提供されるボタンサイズ検出のインターフェースを示す図である。 本出願の実施例により提供されるボタン適応検出入口のインターフェースを示す図である。 本出願の実施例により提供されるボタンサイズ検出のインターフェースを示す図である。 本出願の実施例により提供される最大ボタンサイズ検出のインターフェースを示す図である。 本出願の実施例により提供される確認インターフェースを示す図である。 本出願の実施例により提供される離散スケーリング値選択インターフェースを示す図である。 本出願の実施例により提供される連続スケーリング値選択インターフェースを示す図である。 本出願の実施例により提供されるゲームのUIインターフェースを適応的に調整するプロセスのフローチャートである。 本出願の実施例により提供されるボタンサイズ調整のインターフェースを示す図である。 本出願の実施例により提供されるボタンサイズ調整のインターフェースを示す図である。 本出願の実施例により提供されるボタンサイズ調整のインターフェースを示す図である。 本出願の実施例により提供されるボタンサイズ調整のインターフェースを示す図である。 本出願の実施例により提供されるボタンサイズ調整のインターフェースを示す図である。
本出願の目的、技術案及び利点をより明確にするために、以下、添付した図面を参照しながら本出願をさらに詳しく説明する。なお、説明される実施例は本出願を限定するものではなく、当業者が創造性のある労働をせずに得たすべての他の実施例も本出願の保護の範囲に属する。
以下の説明では、かかる用語“第一/第二”は類似した対象を区別するためだけのものであり、対象の特定の順序を表すものではない。理解すべきは、“第一/第二”は、許可されている場合に、特定の順序又は前後の順序を交換することによって、ここで説明される本出願の実施例がここで図示又は説明される以外の順序に従って実施され得るようにさせることができるということである。
特に明記されていない限り、ここで使用されるすべての技術用語及び科学用語は、当業者が一般に理解している意味と同じ意味を持つ。ここで使用される用語は本出願の実施例を説明することのみを目的としており、本出願を限定することを意図するものではない。
本出願の実施例をさらに詳しく説明する前に、本出願の実施例に係る名詞及び用語について簡単に説明する。本出願の実施例に係る名詞及び用語は次のような意味を有する。
1)「仮想シーン」:装置により出力される、リアル世界とは異なるシーンを用いて、肉眼又は装置の支援によって仮想シーンに対しての視覚感知を形成することができ、例えば、表示スクリーンにより出力される2次元映像、立体投影、仮想現実、拡張現実技術などの立体表示技術により出力される3次元映像を生成することができ;また、各種の可能なハードウェアにより聴覚感知、触覚感知、嗅覚感知、運動感知など、リアル世界をシミュレートする様々な感知を形成することもできる。
2)「・・・に応じて」:実行される操作が依存する条件又は状態を示すために用いられ、依存する条件又は状態が満足されるときに、実行される1つ又は複数の操作はリアルタイムなものであっても良く、所定の遅延を有しても良く;特段の説明がない限り、実行される複数の操作は前後の順序による制限が存在しない。
3)「クライアント」:端末で実行される、各種のサービスを提供するためのアプリケーションプログラム、例えば、ゲームクライアントである。
4)「仮想オブジェクト」:仮想シーンでインタラクションを行い得る各種の人や物のアバター、又は仮想シーンにおける移動可能なオブジェクトである。該移動可能なオブジェクトは仮想人物、仮想動物、アニメキャラクターなど、例えば、仮想シーンで表示される人物、動物、植物、ドラム缶、壁、石などであっても良い。該仮想オブジェクトは該仮想シーンにおいてユーザを表すための1つの仮想アバターであっても良い。仮想シーンには複数の仮想オブジェクトが含まれても良く、各仮想オブジェクトは仮想シーンで独自の形状及び体積を持ち、仮想シーンにおける一部の空間を占める。
例えば、該仮想オブジェクトはクライアントの操作によって制御されるユーザーキャラクターであっても良く、トレーニングを通じて仮想シーンの対戦に設定される人工知能(AI、Artificial Intelligence)であっても良く、又は、仮想シーンのインタラクションに設定される非ユーザーキャラクター(NPC、Non-Player Character)であっても良い。例えば、該仮想オブジェクトは仮想シーンで敵対的なインタラクションを行う仮想人物であり得る。例えば、該仮想シーンでインタラクションに参与する仮想オブジェクトの数は事前設定されても良く、インタラクションに参加するクライアントの数に応じて動的に決定されても良い。
シューティングゲームを例にとると、ユーザは、該仮想シーンにおいて、仮想オブジェクトが空で自由に落下し、滑空し、又はパラシュートを開いて落下し、陸上で走り、ジャンプし、クロールし、又は前にかがんで歩くように制御しても良く、あるいは、仮想オブジェクトが海で泳いだり、浮いたり、ダイビングしたりするように制御しても良い。もちろん、ユーザは、仮想オブジェクトが仮想乗り物に乗って該仮想シーンで移動するように制御しても良く、例えば、該仮想乗り物は仮想自動車、仮想航空機、仮想ヨットなどであっても良い。なお、ここでこれらのシーンを例にして説明を行うが、本出願の実施例はこれらに限定されない。また、ユーザは、仮想オブジェクトが仮想小道具により他の仮想オブジェクトと敵対的なインタラクションを行うように制御しても良く、例えば、該仮想小道具は手榴弾、クラスター地雷、粘着性手榴弾などの投擲類仮想小道具であっても良く、あるいは、マシンガン、ピストル、ライフルなどの射撃類仮想小道具であっても良いが、本出願は仮想小道具の類型について限定しない。
5)「シーンデータ」:仮想シーンにおけるオブジェクトがインタラクションプロセスで現われる各種の特徴を表し、例えば、オブジェクトの仮想シーンにおける位置を含んでも良い。もちろん、仮想シーンの類型に応じて異なる類型の特徴を含んでも良く;例えば、ゲームの仮想シーンでは、シーンデータは、仮想シーンで各種の機能を設定するときに必要な待ち時間(特定の時間内で使用され得る同じ機能の回数による)を含んでも良く、又は、ゲームキャラクターの各種の状態の属性値、例えば、ヒットポイント(HPともいう)、マジックポイント(MPともいう)などを表しても良い。
6)「タッチ面積」:接触面積とも称され、ユーザ(タッチ操作の主体)が或る物体に接触することによって該物体にタッチ(接触)し得る面積であり、即ち、ユーザの該物体上のタッチホットスポットの面積である。
ゲーム中、通常、異なるプレーヤーの手指のサイズが異なる問題があり、例えば、アジアのプレーヤーは手指が細いため、ユーザインターフェース(UI、User Interface)全体のボタンサイズも小さくなるが、欧米のプレーヤーは背が高く、手指も比較的大きいので、依然として比較的小さいボタンを使用すると、操作体験が悪くなり、クリックが期待外れになり、誤ったタッチ(誤タッチ)が生じやすくなるなどの一連の問題を招く恐れがある。
関連技術では、ボタンサイズ調整の操作フローが次のとおりであり、即ち、プレーヤーがバトルインターフェースにいるときに、1)図1Aに示すように、小さな地図101の左側の“設定”ボタン102をクリックして図1Bに示すような設定画面に進み;2)図1Bに示すように、リストにおける操作設定オプション103をクリックして図1Cに示すようなインターフェース調整画面に進み;3)図1Cに示すように、“自己定義レイアウト”ボタン104をクリックして自己定義調整インターフェース(画面)に進み;4)サイズを調整する必要のある或るボタンをクリックし図1Dに示す自己定義調整インターフェースに進み;5)図1Dに示すように、インターフェースにおけるスライダーバー105を用いてサイズの調整を行い;6)調整が終わった後に、保存ボタンをクリックすることで、ボタンサイズの設定を完了する。
しかし、関連技術におけるボタンサイズ調整の操作階層が比較的深く、初心者やカジュアルプレイヤーにとっては、高い理解コストが必要であり、かつ最適なボタンサイズの自己取得や調節が困難である。プレーヤーが調整の方法を理解していても、依然としてシングルボタンに対して複雑な調整を行う必要があるので、ボタンサイズの調整に時間がかかり、ユーザ体験が低下することを来す可能性がある。
上述の問題を解決するために、本出願の実施例では、仮想シーンのアダプティブ表示方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムプロダクトが提供され、これにより、仮想シーンにおけるボタンのサイズの自動調整を実現し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができる。
以下、本出願の実施例により提供される電子機器の例示的な応用について説明する。本出願の実施例により提供される電子機器はノートブックコンピュータ、タブレットコンピュータ、デスクトップコンピュータ、セットトップボックス、モバイルデバイス(例えば、携帯電話、携帯音楽プレーヤー、パーソナルデジタルアシスタント、専用メッセージングデバイス、携帯ゲームデバイス)などの各種類のユーザ端末として実装することができ、又は、サーバーとして実装することもできる。以下、装置が端末として実装されるときの例示的な応用を詳細に説明する。
本出願の実施例により提供される仮想シーンのアダプティブ表示方法を容易に理解し得るために、まず、本出願の実施例により提供される仮想シーンのアダプティブ表示方法の例示的な実装シーンを説明し、仮想シーンは、完全に端末の出力に基づく場合もあれば、端末とサーバーが協力して出力することに基づく場合もある。
幾つかの実施例において、仮想シーンはゲームキャラクターのインタラクション用の環境であっても良く、例えば、ゲームキャラクターが仮想シーンで対戦するためのものであり得る。仮想オブジェクトの行動を制御することにより、仮想シーンで双方のインタラクションを行うことができ、これにより、ユーザはゲームをプレーすることで生活のストレスを和らげることができる。
図2Aは1つの実装シーンを示している。図2Aを参照する。図2Aは本出願の実施例により提供される仮想シーンのアダプティブ表示方法の応用モードを示す図であり、端末400の計算能力に完全に依存することによって仮想シーン100の関連データの計算を完了し得る幾つかの応用モードが含まれ、例えば、スタンドアロン版/オフラインモードのゲームの場合、スマートフォン、タブレットコンピュータ及び仮想現実/拡張現実装置などの端末400により仮想シーンの出力を完了し得る。
仮想シーン100の視覚感知を形成するときに、端末400はグラフィックス計算ハードウェアにより表示に必要なデータの計算を行い、表示データのロード、分析及びレンダリングを完了し、そして、グラフィックス出力ハードウェアで仮想シーンに対して視覚感知を形成し得るビデオフレームを出力し、例えば、スマートフォンの表示スクリーンに2次元のビデオフレームを表示し、又は、拡張現実/仮想現実メガネのレンズに3次元表示効果を実現するビデオフレームを投射し;あるいは、感知効果を豊富にするために、装置はさらに、異なるハードウェアにより、聴覚感知、触覚感知、運動感知及び味覚感知のうちの1つ又は複数を形成することもできる。
例示として、端末400はクライアント410(例えば、スタンドアロン版のゲームアプリケーション)を実行し、クライアント410の実行プロセスではロールプレイングを含む仮想シーンを出力し、仮想シーンはゲームキャラクターのインタラクション用の環境であり、例えば、ゲームキャラクターが対戦を行うための平野、街道、谷などであっても良く;仮想シーンには第一仮想オブジェクト110及び仮想小道具120が含まれ、第一仮想オブジェクト110はユーザ(プレーヤーともいう)により制御されるゲームキャラクターであっても良く、即ち、第一仮想オブジェクト110は実ユーザにより制御され、実ユーザのボタン(ジョイスティックボタン、攻撃ボタン、防御ボタンなどを含む)に対しての操作に応じて仮想シーンで操作を行い、例えば、実ユーザがジョイスティックボタンを左に動かすときに、第一仮想オブジェクトは仮想シーンで左に移動し、又は、静止したり、ジャンプしたり、様々な機能(例えば、スキル及び小道具)を使用したりすることもでき;仮想小道具120は仮想シーンで第一仮想オブジェクト110により使用される戦闘ツールであっても良く、例えば、第一仮想オブジェクト110は、ジョイスティックボタンが動かされることにより、仮想シーンにおける仮想小道具120をピックアップし、仮想小道具120の機能を使用してゲーム対戦を行うことができる。
例を挙げて言えば、ユーザがクライアント410に表示される複数の異なるサイズのボタンに対してタッチ操作を行うことで、タッチ操作に対応する接触面積を決定し、そして、タッチ操作に対応する接触面積に基づいて仮想シーンに含まれるボタン(例えば、ジョイスティックボタン130)のサイズを調整することで、調整後のボタンのサイズがタッチ操作に対応する接触面積に適応するようにさせる。これにより、調整後のボタンに基づいて後続のヒューマンマシンインタラクションを行うことができ、例えば、ユーザが調整後の制御ジョイスティックボタン130により、第一仮想オブジェクト110が仮想シーンにおける仮想小道具120に移動して仮想シーンにおける仮想小道具120をピックアップするように制御するときに、ユーザが手動で仮想シーンにおける各ボタンのサイズを1つずつ調整する必要がなく、高効率のヒューマンマシンインタラクション操作でボタンのサイズを調整し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができる。
図2Bはもう1つの実装シーンを示している。図2Bを参照する。図2Bは本出願の実施例により提供される仮想シーンのアダプティブ表示方法の応用モードを示す図であり、それは端末400及びサーバー200に用いられ、サーバー200の計算能力に依存して仮想シーンの計算を完了してから端末400で仮想シーンを出力する応用モードである。
仮想シーン100の視覚感知を形成することを例にとり、サーバー200は仮想シーンに関する表示データの計算を行い、結果を端末400に送信し、端末400はグラフィックス計算ハードウェアに依存して表示データのロード、分析及びレンダリングにかかる計算を完了し、そして、グラフィックス出力ハードウェアに依存して仮想シーンを出力して視覚感知を形成し、例えば、スマートフォンの表示スクリーンに2次元のビデオフレームを表示し、又は、拡張現実/仮想現実メガネのレンズに3次元表示効果を実現するビデオフレームを投射することができ;仮想シーンの形態の感知について言えば、理解すべきは、端末の対応するハードウェアの出力により、例えば、マイクの出力により聴覚感知を形成し、バイブレーターの出力により触覚感知を形成することがきるということである。
例示として、端末400はクライアント410(例えば、ネットワーク版のゲームアプリケーション)を実行し、ゲームサーバー(即ち、サーバー200)に接続して他のユーザとゲームインタラクションを行うことで、端末400はクライアント410の仮想シーン100を出力し、その中には第一仮想オブジェクト110及び仮想小道具120が含まれ、第一仮想オブジェクト110はユーザにより制御されるゲームキャラクターであっても良く、即ち、第一仮想オブジェクト110は実ユーザにより制御され、実ユーザのボタン(例えば、ジョイスティックボタン、攻撃ボタン、防御ボタンなど)に対しての操作に応じて仮想シーンで操作を行い、例えば、実ユーザがジョイスティックを左に動かすときに、第一仮想オブジェクトは仮想シーンで左に移動し、又は、静止したり、ジャンプしたり、様々な機能(例えば、スキル及び小道具)を使用したりすることもでき;仮想小道具120は仮想シーンで第一仮想オブジェクト110により使用される戦闘ツールであっても良く、例えば、第一仮想オブジェクト110は、ジョイスティックボタンが動かされることにより、仮想シーンにおける仮想小道具120をピックアップし、仮想小道具120の機能を用いてゲーム対戦を行うことができる。
例を挙げて言えば、ユーザがクライアント410に表示される複数の異なるサイズのボタンに対してタッチ操作を行うことで、クライアント410はユーザのタッチ操作(信号)を、ネットワーク300を介してサーバー200に送信し、サーバー200はユーザのタッチ操作(信号)に基づいてタッチ操作に対応する接触面積を決定し、タッチ操作に対応する接触面積に基づいて仮想シーンに含まれるボタン(例えば、ジョイスティックボタン130)のサイズを調整することで、調整後のボタンのサイズがタッチ操作に対応する接触面積に適応するようにさせ、そして、調整後のボタンをクライアント410に送信し、クライアント410は調整後のボタンを受信した後に、調整後のボタン(例えば、ジョイスティックボタン130)を表示する。このようにして、調整後のボタンに基づいて後続のヒューマンマシンインタラクションを行うことができ、例えば、ユーザは調整後の制御ジョイスティックボタン130により、第一仮想オブジェクト110が仮想シーンにおける仮想小道具120に移動して仮想シーンにおける仮想小道具120をピックアップするように制御するときに、高効率のヒューマンマシンインタラクション操作でボタンのサイズを調整し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができる。
幾つかの実施例において、端末400はコンピュータプログラムを実行することで本出願の実施例により提供される仮想シーンのアダプティブ表示方法を実現することができ、例えば、コンピュータプログラムはオペレーティングシステムにおけるネイティブ(Native)プログラム又はソフトウェアモジュールであっても良く;ローカルアプリケーションプログラム(APP、Application)、即ち、オペレーティングシステムにインストールすることにより実行される必要のあるプログラム、例えば、ゲームAPP(即ち、上述のクライアント410)であっても良く;アプレット、即ち、ブラウザ環境にダウンロードされるだけで実行可能なプログラムであっても良く;又は、任意のAPPに埋め込まれ得るゲームアプレットであっても良い。要約すると、上述のコンピュータプログラムは任意の形式のアプリケーションプログラム、モジュール又はプラグインであっても良い。
本出願の実施例はクラウド技術(Cloud Technology)により実現され得る。クラウド技術とは、広域ネットワーク又はローカルエリアネットワークにおいてハードウェア、ソフトウェア、ネットワークなどの一連のリソースを統合することで、データの計算、ストレージ、処理及び共有を実現し得るホスティング技術を指す。
クラウド技術はクラウドコンピューティングビジネスモデルに基づくネットワーク技術、情報技術、統合技術、管理プラットフォーム技術、アプリケーション技術などの総称であり、リソースプールを形成し、ニーズに応じて使用することができ、柔軟かつ便利である。クラウドコンピューティング技術は重要なサポートになる見込みがある。テクニカルネットワークシステムのバックグラウンドサービスは大量の計算やストレージリソースを要する。
例示として、サーバー200は独立した物理サーバーであっても良く、複数の物理サーバーからなるサーバー群又は分散システムであっても良く、又は、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウドストレージ、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメインネームサービス、セキュリティサービス、CDN、ビッグデータ、人工知能プラットフォームなどの基本クラウドコンピューティングサービスを提供するクラウドサーバーであっても良い。端末400はスマートフォン、タブレットコンピュータ、ノートブックコンピュータ、デスクトップコンピュータ、スマートスピーカー、スマートウォッチなどであっても良いが、これらに限定されない。端末400及びサーバー200は有線又は無線通信の方式で直接又は間接的に接続され得るが、本出願の実施例ではこれについて限定しない。
図3Aを参照する。図3Aは本出願の実施例により提供されるアダプティブ表示のための電子機器の構成を示す図であり、電子機器が端末であることを例にして説明を行う。図3Aに示す電子機器は少なくとも1つの処理器410、記憶器450、少なくとも1つのネットワークインターフェース420及びユーザインターフェース430を含む。電子機器400における各アセンブリはバスシステム440により接続される。理解すべきは、バスシステム440はこれらのアセンブリ間の接続及び通信を実現するために用いられるということである。バスシステム440はデータバスを含む以外に、電源バス、制御バス及び状態信号バスをも含む。なお、説明の便宜のため、図3Aでは各種のバスをバスシステム440と総称する。
処理器410は集積回路チップであっても良く、信号の処理能力を有し、例えば、汎用処理器、デジタル信号処理器(DSP、Digital Signal Processor)、他のプログラマブルロジックデバイス、ディスクリートゲート、トランジスタロジックデバイス、ディスクリートハードウェアアセンブリなどであり、そのうち、汎用処理器はマイクロプロセッサ、任意の通常の処理器などであり得る。
ユーザインターフェース430はメディアコンテンツを表示し得る1つ又は複数の出力装置431を含み、例えば、1つ又は複数のスピーカー及び/又は1つ又は複数の視覚的表示スクリーンを含んでも良い。ユーザインターフェース430はさらに1つ又は複数の入力装置432を含み、例えば、キーボード、マウス、マイク、タッチパネル、カメラヘッド、他の入力ボタン及びコントロールのようなユーザ入力のためのユーザインターフェースコンポーネントであり得る。
記憶器450は取り外し可能なもの、取り外し不可能なもの、又はそれらの組み合わせであり得る。例示的なハードウェア装置はソリッドステートメモリ、ハードディスクドライブ、光学式ドライブなどを含む。記憶器450は例えば、処理器410から物理的に離れている1つ又は複数の記憶装置を含み得る。
記憶器450は揮発性メモリ又は不揮発性メモリを含み、揮発性及び不揮発性メモリの両者を含み得る。不揮発性メモリは読み取り専用メモリ(ROM、Read Only Memory)であっても良く、揮発性メモリはランダムアクセスメモリ(RAM、Random Access Memory)であり得る。本出願の実施例で説明される記憶器450は任意の適切なタイプのメモリを含むことを意図している。
幾つかの実施例において、記憶器450は各種の操作をサポートするためにデータを格納することができ、これらのデータの例はプログラム、モジュール、データ構造、あるいはそれらのサブセット又はスーパーセットを含む。以下、例示的に説明する。
オペレーティングシステム451:各種の基本システムサービスを処理し、ハードウェア関連タスクを実行するためのシステムプログラム、例えば、フレームワーク層、コアライブラリ層、ドライブ層などを含み、様々な基本業務を実現し、ハードウェアベースのタスクを実行するために用いられ;
ネットワーク通信モジュール452:1つ又は複数の(有線又は無線)ネットワークインターフェース420を介して他の計算装置に到達するために用いられ、例示的なネットワークインターフェース420はブルートゥース、WiFi、USB(Universal
Serial Bus)などを含み;
表示(ディスプレイ)モジュール453:ユーザインターフェース430に関連付けられた1つ又は複数の出力装置431(例えば、表示スクリーン、スピーカーなど)を介して情報のディスプレイを可能にするために用いられ(例えば、周辺機器を操作し、内容及び情報を表示するためのユーザインターフェース);
入力処理モジュール454:1つ又は複数の入力装置43のうちの1つからの1つ又は複数のユーザ入力又はインタラクションに対して検出を行い、検出した入力又はインタラクションを処理するために用いられる。
幾つかの実施例において、本出願の実施例により提供される仮想シーンのアダプティブ表示装置はソフトウェアの方式で実現され得る。図3Aは記憶器450に記憶されている仮想シーンのアダプティブ表示装置455を示しており、それはプログラム、プラグインなどの形式のソフトウェアであり、次のようなソフトウェアモジュールを含んでも良く、即ち、表示モジュール4551、処理モジュール4552、更新モジュール4553及び設定モジュール4554である。これらのモジュールは論理上のものであるので、実現される機能に基づいて任意の組み合わせ又は更なる分割を行うことができる。なお、各モジュールの機能について後述する。
図3Bを参照する。図3Bは本出願の実施例により提供される仮想シーンのアダプティブ表示装置にインストールされるヒューマンマシンインタラクションエンジンの原理を示す図である。ゲームに適用されることを例とする場合、ヒューマンマシンインタラクションエンジンはゲームエンジンと称されても良く、ゲームエンジンとは、事前に作成された幾つかの編集可能なコンピュータゲームシステム、又は幾つかのインタラクティブなリアルタイム画像アプリケーションプログラムのコアアセンブリを指し、これらのシステムはゲームデザイナーにゲーム作成に必要な各種のツールを提供し、その目的は、ゲームデザイナーがゼロからスタートすることなく、ゲームプログラムを簡単かつ迅速に作成できるようにすることにあり、ゲームエンジンはレンダリングエンジン(即ち、2次元画像エンジン及び3次元画像エンジンを“レンダラー”)、物理エンジン、障害物検出システム、サウンドエフェクト、スクリプトエンジン、コンピューターアニメーション、人工知能、ネットワークエンジン及びシーン管理を含み、ゲームエンジンは、特定の種類のゲームを実行するマシンのために設計され、かつマシンにより認識され得るコード(命令)の集合であり、それはエンジンのように機能し、ゲームの実行を制御することができ、1つのゲームプログラムはゲームエンジンとゲームリソースの2つの部分に分けることができ、ゲームリソースは画像、音声、動画などの部分を含み、ゲーム=エンジン(プログラムコード)+リソース(画像、音声、動画など)であり、ゲームエンジンはゲーム設計の要求に応じてこれらのリソースを順次呼び出すことができる。
本出願の実施例により提供される仮想シーンのアダプティブ表示方法は図3Aに示す仮想シーンのアダプティブ表示装置における各モジュールにより図3Bに示すヒューマンマシンインタラクションエンジンの関連コンポーネントを呼び出すことで実現される。以下、例示的に説明する。
例えば、表示モジュール4551は仮想シーン及び複数の異なるサイズのボタンを表示するために用いられ、表示モジュール4551は図3Bに示すゲームエンジンにおけるユーザインターフェース部分を呼び出すことでユーザとゲームとの間のインタラクションを実現し、ゲームエンジンにおけるモデル部分を呼び出すことで2次元又は3次元モデルを作成し、そして、モデル作成完了後に、スケルタルアニメーション部分により異なる面に従ってマテリアル/マップをモデルに付与し、これは、ボーンをスキンで覆うことに相当する。最後に、レンダリング部分により、モデル、アニメーション、光と影、特殊効果などのすべてのエフェクトをリアルタイムで算出してヒューマンマシンインタラクションインターフェース上で表示することができる。
例えば、処理モジュール4552は、複数の異なるサイズのボタンに対してのタッチ操作を応じてタッチ操作に対応する接触面積を取得し、また、更新モジュール4553を呼び出すことで仮想シーンを更新して表示するために用いられる。レンダリングモジュールにより、仮想シーンに含まれるボタンをレンダリングし、ヒューマンマシンインタラクションインターフェース上で表示することで、ヒューマンマシンインタラクションインターフェース上の更新後の仮想シーンに含まれるボタンのサイズがタッチ操作に対応する接触面積に適応するようにさせることができる。
例えば、設定モジュール4553は仮想シーンでボタン適応検出入口を表示するために用いられ;ボタン適応検出入口に対してのトリガー操作に応じて、設定モジュール4555は図3Bに示すゲームエンジンにおけるレンダリングモジュールを呼び出し、レンダリングモジュールによりボタン適応検出入口をレンダリングし、ヒューマンマシンインタラクションインターフェース上で表示することができる。
前述のように、本出願の実施例により提供される仮想シーンのアダプティブ表示方法は各種類の電子機器、例えば、端末により実行され得る。図4Aを参照する。図4Aは本出願の実施例により提供される仮想シーンのアダプティブ表示方法のフローを示す図である。図4Aに示すステップを参照しながら説明を行う。
以下のステップでは、複数の異なるサイズのボタンは、仮想シーンにおけるインタラクション機能(例えば、キャラクターの選択やキャラクターの制御)に関連付けられた機能ボタン、例えば、仮想オブジェクトが移動するように制御するジョイスティックボタン、仮想オブジェクトが他の仮想オブジェクトを攻撃するように制御する攻撃ボタンなどであっても良い。これにより、タッチ操作の主体が複数の異なるサイズの機能ボタンを操作するプロセスでは、電子機器は、機能ボタンに対してのタッチ操作に応じて、タッチ操作の主体が実現し得る接触面積(即ち、タッチ操作に対応する接触面積)を取得し、その後、タッチ操作の主体が実現し得る接触面積に基づいて、自動で、又はユーザが更新必要と確認した後に、仮想シーンを更新することで、更新後の仮想シーンに含まれるボタンのサイズがユーザの実現し得る接触面積に適応するようにさせることができる。
以下のステップでは、複数の異なるサイズのボタンはさらに、仮想シーンにおけるインタラクション機能(例えば、キャラクターの選択やキャラクターの制御)と関係ない接触面積検出専用ボタン、例えば、接触面積を検出するために専用の検出ボタンなどであっても良い。これにより、ユーザが複数の異なるサイズの検出ボタンを操作するプロセスでは、電子機器は、検出ボタンに対してのタッチ操作に応じて、タッチ操作に対応する接触面積を取得し、その後、タッチ操作に対応する接触面積に基づいて、自動で、又はユーザが更新必要と確認した後に、仮想シーンを更新することで、更新後の仮想シーンに含まれる機能ボタンのサイズがタッチ操作に対応する接触面積に適応するようにさせることができる。
なお、タッチ操作の主体とは、タッチを実現し得る対象を指し、例えば、タッチ操作の主体は実ユーザであり、ユーザは手指にて電子機器上で表示されるボタンをタッチすることで、電子機器のセンサーにより、手指がボタンをタッチしたときの接触面積を検出することができる。あるいは、タッチ操作の主体はタッチ機能を有するグローブであり、ユーザはグローブにて電子機器上で表示するボタンをタッチすることで、電子機器のセンサーにより、グローブがボタンをタッチしたときの接触面積を検出することができる。
また、タッチ操作の主体が実現し得る接触面積(即ち、タッチ操作に対応する接触面積)は、電子機器における表示スクリーンに対応するセンサーにより検出され、そのうち、センサーは複数のセンシングユニットを含み、タッチ操作の主体が複数の異なるサイズのボタンをタッチするプロセスでは、タッチ操作の主体がセンサーにおける複数のタッチユニットをトリガーし、電子機器は、トリガーされたセンシングユニットの数に基づいて、タッチ操作に対応する接触面積への換算を行うことで、ボタンに対してのタッチ操作に応じて、タッチ操作に対応する接触面積を算出することができる。
ステップ101では、仮想シーン及び複数の異なるサイズのボタンを表示する。
例えば、複数の異なるサイズのボタンは、すべて、仮想シーンにおけるインタラクション機能(例えば、キャラクターの選択やキャラクターの制御)と関連付けられており、そのうち、複数の異なるサイズのボタンは機能が同じ又は異なるボタンであっても良い。仮想シーンの実行プロセスでは、仮想シーンで複数の異なるサイズのボタンを表示し、その後、仮想シーンで表示される複数の異なるサイズのボタンに対してのタッチ操作に応じて、タッチ操作の主体がボタンに対して実現し得る接触面積を取得する。このようにして、仮想シーンの実行プロセスにおいて、タッチ操作の主体のリアルタイムな操作により、タッチ操作の主体がボタンに対して実現し得る接触面積を得ることができ、即ち、仮想シーンにおけるインタラクション機能と関係ないボタンを追加して生成することでタッチ操作の主体がボタンに対して実現し得る接触面積を検出する必要がないので、ヒューマンマシンインタラクションの関連計算のリソースを節約することができる。
例えば、複数の異なるサイズのボタンは、すべて、仮想シーンにおけるインタラクション機能(例えば、キャラクターの選択やキャラクターの制御)と関係ない、例えば、接触面積を検出するために専用のプロトタイプボタンボタンなどであっても良い。タッチ操作の主体が仮想シーンに入った後に、仮想シーンを表示し、また、仮想シーンから独立した適応検出領域を表示し、該適応検出領域は分割画面又はフローティングレイヤーにより表示されても良く、そのうち、適応検出領域には仮想シーンにおけるインタラクション機能と関係ない複数の異なるサイズのボタンが含まれ、例えば、図5に示すように、図5における適応検出領域501はフローティングレイヤーにより表示され、仮想シーン500とは区別されており、適応検出領域501は220px(画素)のボタン502、120pxのボタン503、75pxのボタン504、及び45pxのボタン505を含み、その後、適応検出領域における複数の異なるサイズのボタンに対してのタッチ操作に応じて、仮想シーンにおけるインタラクションプロセスを一時停止又は続行し、また、タッチ操作の主体が実現し得る接触面積を取得する。ここで、適応検出領域によりタッチ操作の主体が実現し得る接触面積を検出するプロセスでは、仮想シーンの進行は一時停止又は続行することができる。
また、上述の例では、仮想シーンから独立した適応検出領域を表示する前に、仮想シーンでボタン適応検出入口を表示し、ボタン適応検出入口に対してのトリガー操作に応じて、仮想シーンから独立した適応検出領域を表示する操作を行うと決定する。
図6に示すように、タッチ操作の主体が仮想シーンに入った後に、仮想シーンでボタン適応検出入口601を表示し、タッチ操作の主体がクリック又は押圧などの操作でボタン適応検出入口601をトリガーした後に、図5に示すような、仮想シーンから独立した適応検出領域501を表示し得る。
なお、本出願の実施例ではトリガー操作について限定せず、例えば、トリガー操作はクリック操作であっても良く、又は、長押し操作などのタッチ操作であっても良い。
また、上述の例では、仮想シーンでボタン適応検出入口を表示する前に、仮想シーンに含まれるボタンがタッチ操作の主体によってタッチされる頻度を取得し、頻度が頻度閾値よりも大きいときに、仮想シーンでボタン適応検出入口を表示する操作を行うと決定する。
例えば、タッチ操作の主体が仮想シーンに入った後に、仮想シーンを実行するプロセスにおいて、タッチ操作の主体によるエラーが頻繁に出現するときに、即ち、仮想シーンに含まれるボタンが誤ってタッチ操作の主体により触れられる頻度が頻度閾値よりも大きい場合、図5に示すような適応検出領域501は自動的にポップアップされる。
ステップ102では、複数の異なるサイズのボタンに対してのタッチ操作に応じて、タッチ操作に対応する接触面積を得る。
ここで、タッチ操作の主体が実現し得る接触面積の類型は最小接触面積及び最大接触面積を含む。タッチ操作の主体が実現し得る最小接触面積及び最大接触面積を得た後に、仮想シーンで最小接触面積及び最大接触面積を表示する。
仮想シーンで複数の異なるサイズのボタンを表示し、複数の異なるサイズのボタンによりタッチ操作の主体が実現し得る接触面積を検出することで、その後、タッチ操作の主体が実現し得る接触面積に基づいて仮想シーンに含まれるボタンのサイズを調整することができ、即ち、仮想シーンに含まれるボタンを手動で調整する必要がなく、面倒な手動操作を減らし、仮想シーンにおけるボタンのサイズの自動調整を実現し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができる。
図4Bを参照する。図4Bは本出願の実施例により提供される仮想シーンのアダプティブ表示方法の1つの選択可能なフローを示す図である。図4Bは、図4Aにさらにステップ104が含まれることを示し、ステップ102はステップ1021により実現することができ、そのうち、タッチ操作の主体が実現し得る接触面積の類型は最小接触面積を含む。ステップ104では、複数の異なるサイズのボタンのサイズの大から小への順序に従って、適応検出領域内で複数の異なるサイズのボタンを順次表示し;ステップ1021では、複数の異なるサイズのボタンに対して順次行われるタッチ操作に応じて、タッチ操作に対応する最小接触面積を取得する。
図5に示すように、適応検出領域501では左か右へ220pxのボタン502、120pxのボタン503、75pxのボタン504及び45pxのボタン505が順次表示され、即ち、ボタン502、ボタン503、ボタン504及びボタン505はボタンのサイズの大から小への順で並べ替えられ、タッチ操作の主体は左から右へボタン502、ボタン503、ボタン504及びボタン505を順次クリックすることにより、ボタン502、ボタン503、ボタン504及びボタン505のクリックプロセスにおいてタッチ操作の主体が実現し得る最小接触面積を取得し得る。
幾つかの実施例において、タッチ操作に対応する最小接触面積の取得は、複数の異なるサイズのボタンのうちの任意の1つのサイズのボタンに対して次のような処理を行うことを含み、即ち、任意の1つのサイズのボタンが誤ってタッチされる回数が誤タッチ閾値よりも大きいときに、複数のサイズのうち、所定条件が満足されるサイズをタッチ操作に対応する最小接触面積と決定し、そのうち、所定条件は、任意の1つのサイズに隣接し、かつ任意の1つのサイズよりも大きいことを含む。
図5に示すように、接触面積の検出プロセスにおいて或るサイズのボタンがタッチ操作の主体により誤ってタッチされる回数が誤タッチ閾値よりも大きいときに、該サイズに隣接しかつ該サイズよりも大きいサイズを、タッチ操作の主体が実現し得る最小接触面積と決定し、例えば、ボタン505が連続して2回誤ってタッチされた場合、45pxのサイズのボタンが誤ってタッチされた回数が誤タッチ閾値(例えば、誤タッチ閾値が1と設定されている)よりも大きいと決定し、この場合は、該45pxに隣接しかつ該45pxよりも大きいサイズ(即ち、75px)を、タッチ操作の主体が実現し得る最小接触面積とする。
図7に示すように、同じサイズのボタンが複数あり、例えば、45pxのボタンはボタン702、ボタン703及びボタン704を含み、接触面積の検出プロセスにおいて、或るサイズのボタンがタッチ操作の主体により誤ってタッチされる回数がタッチ閾値よりも大きいときに、該サイズに隣接しかつ該サイズよりも大きいサイズを、タッチ操作の主体が実現し得る最小接触面積と決定し、例えば、ボタン702及びボタン704が検出プロセスで誤ってタッチされた場合、45pxのサイズのボタンが誤ってタッチされた回数が誤タッチ閾値(例えば、誤タッチ閾値が1と設定されている)よりも大きいと決定し、この場合は、該45pxに隣接しかつ該45pxよりも大きいサイズ(即ち、75px)を、タッチ操作の主体が実現し得る最小接触面積とする。
幾つかの実施例において、接触面積の類型は最大接触面積を含み、タッチ操作に対応する接触面積の取得は、ボタンに付着する指紋を取得し、そして、指紋の面積を、タッチ操作に対応する最大接触面積とする。
図8に示すように、接触面積の検出プロセスにおいて、ボタン801に付着したタッチ操作の主体の指紋802を取得し、指紋802の中心が中心803であり、中心803と指紋辺縁との最大距離804を指紋の半径r1とし、該半径がr1の円の面積(即ち、指紋の面積)を、タッチ操作の主体が実現し得る最大接触面積とし、あるいは、中心803と指紋辺縁との最小距離805を指紋の半径r2とし、該半径がr2の円の面積(即ち、指紋の面積)を、タッチ操作の主体が実現し得る最大接触面積とする。
例えば、接触面積の検出プロセスにおいて、タッチ操作の主体がボタンを複数回押圧するときに対応する複数の指紋を取得し、複数の指紋のうちの最大面積の指紋を、ボタンに付着するタッチ操作の主体の指紋とする。
また、上述の例では、ボタンに付着する指紋の取得は、ボタンを複数回押圧するときに対応する複数の指紋を取得し;及び、複数の指紋のうちの任意の1つの指紋に対して次のような処理を行うことを含み、即ち、指紋の面積が押圧プロセスで不変に維持される時間が時間閾値を超えたときに、指紋を、ボタンに付着する指紋とする。
例えば、タッチ操作の主体がボタンを押圧するときに安定でない場合、取得した、タッチ操作の主体がボタンを複数回押圧するときに対応する複数の指紋も不安定になり、タッチ操作の主体が快適でない場合の指紋を得る可能性があり、即ち、この場合に得られる最大接触面積はタッチ操作の主体の使用習慣に合わず、誤タッチを招くことがある。
タッチ操作の主体の使用習慣に合わせる指紋を取るために、接触面積の検出プロセスにおいて、或る指紋の面積が不変に維持される時間が時間閾値を超えたときに、該指紋を、ボタンに付着するタッチ操作の主体の指紋とすることで、安定な指紋、即ち、タッチ操作の主体が快適な場合の指紋を取得し、この場合に得られる最大接触面積はタッチ操作の主体の使用習慣に合致しており、ユーザ体験を向上させることができる。
ステップ103では、仮想シーンを更新して表示し、そのうち、更新後の仮想シーンに含まれるボタンのサイズはタッチ操作に対応する接触面積に適応している。
例えば、複数の異なるサイズのボタンにより、タッチ操作の主体が実現し得る接触面積を検出した後に、タッチ操作の主体が実現し得る接触面積に基づいて、仮想シーンに含まれるボタンのサイズを調整し、即ち、仮想シーンに含まれるボタンを手動で調整する必要がなく、面倒な手動操作を減らし、仮想シーンにおけるボタンのサイズの自動調整を実現し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができる。
ここで、タッチ操作の主体が実現し得る接触面積の類型は最小接触面積及び最大接触面積を含む。図9に示すように、最小接触面積及び最大接触面積を決定した後に、仮想シーンで確認インターフェースを表示することができ、該確認インターフェースは仮想シーンから独立したインターフェースであっても良く、該確認インターフェースは最小接触面積901及び最大接触面積902を含み、タッチ操作の主体が“決定&生成”ボタン903をクリックした後に、タッチ操作の主体のボタン903に対してのトリガー操作に応じて、仮想シーンに含まれるボタンのサイズを調整することで、調整後のボタンのサイズに対応する面積が最小接触面積と最大接触面積との間にあるようにさせる。これにより、仮想シーンに含まれるボタンを手動で1つずつ調整する必要がない。
また、上述の例では、仮想シーンに含まれるボタンのサイズを調整する前に、仮想シーンに含まれるボタンがタッチ操作の主体により誤ってタッチされる頻度を取得し、頻度が頻度閾値よりも大きいときに、ボタンサイズの調整操作を実行すると決定する。
例えば、仮想シーンに含まれるすべてのボタンを調整する必要はない場合がある。ボタンが仮想シーンの実行プロセスで頻繁に誤ってタッチされたときにのみ、ボタンのサイズを調整し、即ち、仮想シーンに含まれるボタンがタッチ操作の主体により誤タッチされた頻度を定期的に取得し、頻度が頻度閾値よりも大きいときに、ボタンが頻繁に誤タッチされたと判定し、該ボタンに対してボタンサイズの調整操作が行われる必要があると決定する。
図4Cを参照する。図4Cは本出願の実施例により提供される仮想シーンのアダプティブ表示方法の1つの選択可能なフローを示す図である。図4Cは、図4Aにおけるステップ103がステップ1031-ステップ1033により実現され得ることを示しており、そのうち、接触面積の類型は最小接触面積を含む。ステップ1031では、仮想シーンに含まれる第一ボタン及び第二ボタンを取得し;ステップ1032では、第一ボタンのサイズを大きく調整し、大きく調整された後の第一ボタンのサイズに対応する面積は最小接触面積と最大接触面積との間にあり;ステップ1033では、第二ボタンのサイズを小さく調整することで、小さく調整された後の第二ボタンのサイズに対応する面積が最小接触面積と最大接触面積との間にあるようにさせる。
ここで、第一ボタンのサイズに対応する面積は最小接触面積よりも小さく、第二ボタンのサイズに対応する面積は最大接触面積よりも大きい。サイズが比較的小さいボタンのサイズを大きく調整し、サイズが比較的大きいボタンのサイズを小さく調整し、仮想シーンにおけるボタンのサイズが既に最小接触面積と最大接触面積との間にあったボタンについてボタンサイズの調整をしないことにより、仮想シーンにおけるすべてのボタンが最小接触面積と最大接触面積との間にあるようにさせる。このようにして、仮想シーン実行時に、仮想シーンにおけるボタンのサイズがタッチ操作の主体の使用習慣に合致しており、誤タッチを減らし、ユーザ体験を向上させることができる。
例えば、仮想シーンに含まれる第一ボタンのサイズが最小接触面積よりも小さいときに、第一ボタンのサイズを調整することで、調整後の第一ボタンのサイズが最小接触面積になるようにさせ、また、仮想シーンに含まれる第二ボタンのサイズが最大接触面積よりも大きいときに、第二ボタンのサイズを調整することで、調整後の第二ボタンのサイズが最大接触面積になるようにさせても良い。
幾つかの実施例において、仮想シーンに含まれるボタンのサイズの調整は、仮想シーンに含まれるボタンに対してのスケーリング比(拡大縮小の比率)を取得し、そのうち、スケーリング比は、仮想シーンに含まれるすべてのボタンのサイズを調整するで、調整後のサイズに対応する面積が最小接触面積と最大接触面積との間にあるようにさせるために用いられ;及び、スケーリング比に従って仮想シーンに含まれるボタンのサイズを調整することを含む。
例えば、最小接触面積及び最大接触面積を得た後に、仮想シーンにおけるすべてのボタンのオリジナルサイズを決定し、計算によって、仮想シーンに含まれるすべてのボタンのサイズを確定することで調整後のサイズに対応する面積が最小接触面積と最大接触面積との間にあるようにさせるためのスケーリング比を確定し、そして、該スケーリング比に従って仮想シーンに含まれるボタンのサイズを調整することで、仮想シーンにおける調整後のサイズに対応する面積が最小接触面積と最大接触面積との間にあるようにさせる。このようにして、仮想シーンにおけるすべてのボタンのサイズを自動で調整し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができる。
幾つかの実施例において、スケーリング比が複数のスケーリング比を含むときに、スケーリング比に従って仮想シーンに含まれるボタンのサイズを調整することは、スケーリング比選択領域を表示し、そのうち、スケーリング比選択領域には複数のスケーリング比が含まれ;及び、スケーリング比選択領域に含まれる複数のスケーリング比に対しての選択操作に応じて、選択されたスケーリング比に従って仮想シーンに含まれるボタンのサイズを調整することを含む。
なお、本出願の実施例では選択操作について限定せず、例えば、選択操作はクリック操作であっても良く、長押し操作などであっても良い。
図10に示すように、複数の離散スケーリング値があるときに、例えば、0.5、0.7及び1.2があるときに、仮想シーンでスケーリング比選択領域1001を表示することができ、該スケーリング比選択領域1001は仮想シーンとは別のインターフェースであっても良く、該選択インターフェース1001は複数のスケーリング比、例えば、0.5、0.7及び1.2を含み、タッチ操作の主体が0.5、0.7及び1.2のうちの1つを選ぶことができ、これにより、タッチ操作の主体のスケーリング比に対してのトリガー操作に応じて、選択されたスケーリング比に基づいて、仮想シーンに含まれるボタンのサイズを調整することで、調整後のボタンのサイズに対応する面積が最小接触面積と最大接触面積との間にあるようにさせることができる。このようにして、手動で仮想シーンに含まれるボタンを1つずつ調整する必要がない。
図11に示すように、連続スケーリング値が存在するときに、例えば、50%~120%があるときに、仮想シーンでスケーリング比選択領域1101を表示することができ、該スケーリング比選択領域1101は仮想シーンとは別のインターフェースであっても良く、該スケーリング比選択領域1101は連続スケーリング値の調節可能なスライダーバー1102を含み、タッチ操作の主体がスライディングスライダーバー1102により50%~120%のうちの1つのスケーリング比を選択することができ、これにより、調節可能なスライダーバー1102に対してのスライディング操作に応じて、調節可能なスライダーバーのうち、選定された比、例えば、75%を、仮想シーンに含まれるボタンの調整用スケーリング比とし、そして、選択されたスケーリング比に従って、仮想シーンに含まれるボタンのサイズを調整することで、調整後のボタンのサイズに対応する面積が最小接触面積と最大接触面積との間にあるようにさせることができる。このようにして、手動で仮想シーンに含まれるボタンを1つずつ調整する必要がない。
以下、本出願の実施例の1つの実際のゲームアプリケーションシーンにおける例示的な応用を説明する。
ゲーム中、通常、異なるプレーヤーの手指のサイズが異なる問題があり、例えば、アジアのプレーヤーは手指が細いため、ユーザインターフェース(UI、User Interface)全体のボタンサイズも小さくなるが、欧米のプレーヤーは背が高く、手指も比較的大きいので、依然として比較的小さいボタンを使用すると、操作体験が悪くなり、クリックが期待外れになり、誤ったタッチが生じやすくなるなどの一連の問題を招く恐れがある。
しかし、関連技術におけるボタンサイズ調整の操作階層が比較的深く、初心者やカジュアルプレイヤーにとっては、高い理解コストが必要であり、かつ最適なボタンサイズの自己取得や調節が困難である。プレーヤーが調整の方法を理解していても、依然としてシングルボタンに対して複雑な調整を行う必要があるので、ボタンサイズの調整に時間がかかり、ユーザ体験が低下することを来す恐れがある。
上述の問題を解決するために、本出願の実施例では仮想シーンのアダプティブ表示方法が提供され、プレーヤーの生体(生物学的)特徴データを得ることで、プレーヤーが操作ボタンサイズを調整するプロセスを自動化し、プレーヤーの理解コストをある程度低減し、調整の速度を上げることができるため、ユーザの体験を向上させることができる。
本出願の実施例で提供される仮想シーンのアダプティブ表示方法は2つのステップを含み、それぞれは検出インタラクション及び生成インタラクションであり、検出インタラクションにより異なるプレーヤーの生体特徴を検出し、生成インタラクションにより対応UIインターフェースを生成することで、最終的には、新しいUIインターフェースがプレーヤーの手指とよりマッチするようにさせ、誤タッチを減らし、ゲームの体験を向上させることができる。
ここで、検出インタラクションの方式は次のとおりであり、即ち、プレーヤーが1つのカスタマイズ可能なUIインターフェース、例えば、ゲーム中のバトルインターフェースに入ったときに、プレーヤー手指サイズを検出するための1つのインターフェースを自動でポップアップして表示し、該インターフェースは一連の大から小へのサイズのボタンを含み、プレーヤーはボタンをクリックすることで、手指データを記録し;プレーヤーが或るサイズのボタンを快適にクリックすることができないときに、該プレーヤーの最小の接触可能なボタン(即ち、最小の接触可能な面積)を取得することができる。よって、ゲーム中のすべてのUIボタンは、プレーヤーがタッチできないことを避けるために、該ボタンよりも小さくすることができない。プレーヤーは、最小のタッチ可能なボタンの検出が完了した後に、2番目のステップに入り、該ステップは、プレーヤーの一般的に使用される手指(或る手指の使用頻度が閾値よりも大きいときに、該手指は一般的に使用される手指である)の最大の接触可能な面積を取得し、一般的に使用される手指は、例えば、射撃ゲームにおいて一般的に使用される左右の親指であり、プレーヤーは、画面中心の円形パターンを、より広いエリアに到達できないまで押し続けることで、プレーヤーの最大の接触可能な面積を記録することができる。
また、生成インタラクションの方式は次のとおりであり、即ち、プレーヤーの最小の接触可能な面積及び最大の接触可能な面積に基づいて、1つの接触面積区間(interval)を算出し、UIインターフェースにおけるタッチ可能なボタンの面積はこの区間の範囲を超えてはいけない。UIインターフェースにおけるタッチ可能なボタンの面積が該区間外にある場合、該区間に基づいてタッチ可能なボタン面積を自動的に調整することで、ゲーム全体のUIインターフェースにおけるすべてのボタンサイズの調整を完了することができる。
以下、本出願の実施例により提供される仮想シーンのアダプティブ表示方法を具体的に説明する。該方法は主に3つの部分に分けられ、即ち、プレーヤーの手指が接触可能な最小面積を検出し;プレーヤーの手指が接触可能な最大面積を検出し;及び、最小面積及び最大面積に基づいて、フルセットのインタラクションインターフェースを自動で生成する。具体的なステップは図12に示すように以下のステップを含む。
ステップ1:図13Aに示すように、バトルインターフェースを表示し、該インターフェースは調節可能なUIインターフェースであり;
ステップ2:図13Aにおける設定ボタン1301をクリックし、図13Bに示すような検出用のポップアップウィンドウを自動表示し、最小ボタンサイズ検出に入り;及び
ステップ3:プレーヤーが最小ボタンサイズ検出のプロセスにおいて、図13Bにおいて大からから小への順で配列されるボタンを順次クリックし、タッチホットスポットの中心でのボタンのトリガーを認識することで、ボタンのクリックが成功したと判定し、クリックすることができない場合、検出が終了し、接触可能な最小ボタン面積が記録される。
ここで、最小ボタンサイズ検出について、クリック検出の方式は次のとおりであり、即ち、手指とスクリーン接触面の図形エリアの中心点がボタン領域内にあるかを決定し、図形エリアの中心点がボタン領域内にあるときに、クリックが成功したと決定し;逆に、図形エリアの中心点がボタン領域外にあるときに、クリックが失敗したと決定し、ボタン機能がトリガーされない。
上述の技術原理に従って、図13Bに基づいて最小ボタンサイズ検出を行うには、大から小への順で3つの積み重ねられたプロトタイプボタンをクリックする必要があり(3つを1組とする積み重ねボタン検出方法を使用することで、シングルボタンの検出による誤差を回避できる)、クリックが成功した場合、プロトタイプボタンボタンが緑色と表示され、逆に、クリックが失敗した場合、プロトタイプボタンボタンが赤色と表示され、プレーヤーは3つの積み重ねボタンの成功クリックを完了した後にのみ、次の1組のより小さいボタンの検出に入ることができる。ここで、比較的小さい積み重ねボタンの場合、クリックが有効にならず、又は、クリックが失敗するという状況が発生する可能性がより高くなり、図13Bに示すように、45pxのサイズのボタンをクリックするときに失敗が発生した。クリックが失敗したときに、後続のより小さい小サイズのボタンを表示せず、かつクリックが完全に成功した1つ前のボタンに対応するサイズを最小ボタンサイズとして記録し、例えば、75pxを最小ボタンサイズとする。
ステップ4:最小ボタンサイズ検出完了後、図13Bにおける“次へ”ボタン1302をクリックして最大サイズ面積検出に入る。
ステップ5:図13Cに示すように、最大サイズ面積検出ステップにおいて、スクリーンにおける領域1303をできるだけ多く覆う必要があり、即ち、覆うことができなくなるまで覆う必要があり、このときに、接触可能な最大ボタン面積を記録し、タッチ領域でハイライトにより接触面積を表示し、そして、図13Cにおける“次へ”ボタン1304をクリックして図13Dに示すような確認インターフェースに進む。
ここで、最大ボタンサイズ検出について、タッチパネル検出の方式は次のとおりであり、即ち、1つの固定したタッチ可能な領域を図形検出ボードとして利用し、プレーヤーは、一般に使用される手指を用いてボードをできるだけ多く覆う必要があり、スクリーンは、タッチが検出されたときに、タッチされている領域1305を緑色としてレンダリングし、これにより、プレーヤーの実際のタッチ可能な接触領域を表示する。領域内で何れのタッチも検出されない場合、ボードの色を不変に維持する。また、プレーヤーが成功裏にタッチした図形の幾何学的中心点を円心とし、タッチした図形の辺縁から円心までの距離rを半径として計算し、rの値に基づいて1つの円形の面積を算出し、そして、該面積をプレーヤーのタッチ可能な最大ボタンサイズとして記録することができる。
ステップ6:図13Dに示すように、最小ボタン面積及び最大ボタン面積を表示し、図13Dにおける“確認&生成”ボタン1306をクリックすると、インターフェースの生成を開始することができる。
図13Dに示すように、最小ボタン面積は最小値A(図13Dに示すような75px)と記録され、最小ボタン面積は最大値B(図13Dに示すような300*300px)と記録される。
ステップ7:インターフェースを生成し、フローは終了する。
図13Aに示すように、バトルインターフェースの構成はサイズが異なる様々なボタンからなり、その中には、右上隅の小さな地図近傍の一部の比較的小さいサイズのボタン及び図中の最大サイズのボタン、例えば、移動用ジョイスティック及び攻撃ボタンが含まれる。プレーヤーの生体特徴に基づいて記録された最小ボタン面積及び最大ボタン面積を確認した後に、現在のUIインターフェースにおけるすべてのボタンのサイズが[A,B]を満たしており、即ち、A以上且つB以下であることを検出する必要がある。[A,B]を満たさないボタンのサイズがあれば、例えば、或るボタンのサイズがAよりも小さければ、該ボタンのサイズを自動でAに調整し、このような処理を、すべてのボタンのサイズが[A、B]を満たすまで行えれば、インターフェースの生成は完了し、例えば、図13Eに示すインターフェースを生成し、そのうち、例えば、攻撃ボタン1307のサイズが自動的にBに調整されている。
要約すると、本出願の実施例は、ボタンサイズを検出することでプレーヤーの生体特徴データを直接取得し、そして、生体特徴データに基づいてフルセットのUIインターフェースをカスタマイズすることで、プレーヤーが自己定義インターフェースを調節する効率を向上させ、ユーザ体験を改善することができる。
ここまで、本出願の実施例により提供される端末の例示的な応用及び実装をもとに、本出願の実施例により提供される仮想シーンのアダプティブ表示方法を説明した。以下、引き続き、本出願の実施例により提供される仮想シーンのアダプティブ表示装置455における各モジュールが仮想シーンのアダプティブ表示を実現するための技術案を説明する。
表示モジュール4551は、仮想シーン及び複数の異なるサイズのボタンを表示するように構成され;処理モジュール4552は、前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作に対応する接触面積を取得するように構成され;更新モジュール4553は、前記仮想シーンを更新して表示するように構成され、そのうち、更新後の前記仮想シーンに含まれるボタンのサイズは、前記タッチ操作に対応する接触面積に適応している。
幾つかの実施例において、前記表示モジュール4551はさらに、前記仮想シーンの実行プロセスにおいて、前記仮想シーンで複数の異なるサイズのボタンを表示するために用いられ、そのうち、前記ボタンは何れも前記仮想シーンにおけるインタラクション機能と関連付けられており;前記処理モジュール4552はさらに、前記仮想シーンで表示される複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作による前記ボタンに対応する接触面積を得るように構成される。
幾つかの実施例において、前記表示モジュール4551はさらに、仮想シーンを表示し、また、前記仮想シーンとは別の適応検出領域を表示するように構成され、そのうち、前記適応検出領域には、前記仮想シーンにおけるインタラクション機能と関係ない複数の異なるサイズのボタンが含まれ;前記処理モジュール4552はさらに、前記適応検出領域における複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記仮想シーンにおけるインタラクションプロセスを一時停止又は続行し、また、前記タッチ操作に対応する接触面積を取得するように構成される。
幾つかの実施例において、前記仮想シーンのアダプティブ表示装置455はさらに設定モジュール4554を含み、それは、前記仮想シーンでボタン適応検出入口を表示し;及び、前記ボタン適応検出入口に対してのトリガー操作に応じて、前記仮想シーンとは別の前記適応検出領域を表示する操作を行うと決定することを含む。
幾つかの実施例において、前記設定モジュール4554はさらに、前記仮想シーンに含まれるボタンが誤タッチされる頻度を取得し;及び、前記頻度が頻度閾値よりも大きいときに、前記仮想シーンで前記ボタン適応検出入口を表示する操作を行うと決定するように構成される。
幾つかの実施例において、前記接触面積の類型は最小接触面積を含み、前記処理モジュール4552はさらに、前記複数の異なるサイズのボタンのサイズの大から小への順序に従って、前記適応検出領域内で前記複数の異なるサイズのボタンを順次表示し;及び、前記複数の異なるサイズのボタンに対して順次行われるタッチ操作に応じて、前記タッチ操作に対応する最小接触面積を得るように構成される。
幾つかの実施例において、前記処理モジュール4552はさらに、前記複数の異なるサイズのボタンのうちのの任意の1つのサイズのボタンについて次の処理を行うように構成され、即ち、前記任意の1つのサイズのボタンが誤タッチされる回数が誤タッチ閾値よりも大きいときに、前記複数のサイズのうち、所定条件が満足されるサイズを、前記タッチ操作に対応する最小接触面積と決定するように構成され、そのうち、前記所定条件は、前記任意の1つのサイズに隣接し、かつ前記任意の1つのサイズよりも大きいことを含む。
幾つかの実施例において、前記接触面積の類型は最大接触面積を含み、前記処理モジュール4552はさらに、前記ボタンに付着する指紋を取得し、そして、前記指紋の面積を前記タッチ操作に対応する最大接触面積とするように構成される。
幾つかの実施例において、前記処理モジュール4552はさらに、前記ボタンの複数回押圧時に対応する複数の指紋を取得し、前記複数の指紋のうちの最大面積の指紋を、前記ボタンに付着する指紋とするように構成される。
幾つかの実施例において、前記処理モジュール4552はさらに、前記ボタンの複数回押圧時に対応する複数の指紋を取得し;及び、前記複数の指紋のうちの任意の1つの指紋について次の処理を行うように構成され、即ち、前記指紋の面積が押圧プロセスで不変に維持される時間が時間閾値を超えたときに、前記指紋を、前記ボタンに付着する指紋とする。
幾つかの実施例において、前記更新モジュール4553はさらに、前記仮想シーンに含まれるボタンのサイズを調整するように構成され、そのうち、調整後の前記ボタンのサイズに対応する面積は最小接触面積と最大接触面積との間にある。
幾つかの実施例において、前記更新モジュール4553はさらに、前記仮想シーンに含まれるボタンが誤タッチされる頻度を取得し、前記頻度が頻度閾値よりも大きいときに、前記仮想シーンに含まれるボタンのサイズを調整する操作を行うと決定するように構成される。
幾つかの実施例において、前記更新モジュール4553はさらに次のように構成され、即ち、前記仮想シーンに含まれる第一ボタン及び第二ボタンを取得し、そのうち、前記第一ボタンのサイズに対応する面積は前記最小接触面積よりも小さく、前記第二ボタンのサイズに対応する面積は前記最大接触面積よりも大きく;前記第一ボタンのサイズを大きく調整し、そのうち、大きく調整された後の前記第一ボタンのサイズに対応する面積は前記最小接触面積と前記最大接触面積との間にあり;及び、前記第二ボタンのサイズを小さく調整し、そのうち、小さく調整された後の前記第二ボタンのサイズに対応する面積は前記最小接触面積と前記最大接触面積との間にある。
幾つかの実施例において、更新モジュール4553はさらに、前記仮想シーンに含まれるボタンについてのスケーリング比を取得し、そのうち、前記スケーリング比は前記仮想シーンに含まれるすべてのボタンのサイズを調整するために用いられ、調整後のサイズに対応する面積は前記最小接触面積と前記最大接触面積との間にあり;及び、前記スケーリング比に従って前記仮想シーンに含まれるボタンのサイズを調整するように構成される。
幾つかの実施例において、更新モジュール4553はさらに、前記スケーリング比が複数のスケーリング比を含むときに、スケーリング比選択領域を表示し、そのうち、前記スケーリング比選択領域には前記複数のスケーリング比が含まれ;及び、前記スケーリング比選択領域に含まれる複数のスケーリング比に対しての選択操作に応じて、選択された前記スケーリング比に基づいて前記仮想シーンに含まれるボタンのサイズを調整するように構成される。
要約すれば、本出願の実施例により提供される仮想シーンのアダプティブ表示装置は以下の有利な効果を奏することができ、即ち、仮想シーンにおける複数の異なるサイズのボタンにより、タッチ操作の主体が実現し得る接触面積を検出し、仮想シーンに含まれるボタンのサイズがタッチ操作の主体の実現し得る接触面積に適応するように調整することで、高効率のヒューマンマシンインタラクション操作でボタンのサイズを調整し、仮想シーンにおけるヒューマンマシンインタラクションの効率を向上させることができるとともに、グラフィックス処理ハードウェアがヒューマンマシンインタラクションの関連計算を行うときのリソースを大幅に節約することができる。
本出願の実施例ではコンピュータプログラムプロダクト又はコンピュータプログラムがさらに提供され、該コンピュータプログラムプロダクト又はコンピュータプログラムはコンピュータ命令を含み、該コンピュータ命令はコンピュータ可読記憶媒体に記憶されている。コンピュータ装置の処理器がコンピュータ可読記憶媒体から該コンピュータ命令を読み取り、該処理器は該コンピュータ命令を実行することで、該コンピュータ装置に、本出願の実施例による上述の仮想シーンのアダプティブ表示方法を実行させる。
本出願の実施例では実行可能な命令を記憶しているコンピュータ可読記憶媒体がさらに提供され、その中には実行可能な命令が記憶されており、実行可能な命令は処理器により実行されるときに、処理器に、本出願の実施例により提供される仮想シーンのアダプティブ表示方法、例えば、図4A-図4Cに示す仮想シーンのアダプティブ表示方法を実行させる。
幾つかの実施例において、コンピュータ可読記憶媒体はFRAM、ROM、PROM、EPROM、EEPROM、フレッシュメモリ、磁気表面メモリ、光ディスク、CD-ROMなどの記憶器であっても良く、又は、上述の記憶器のうちの1つ又は任意の組み合わせを含む各種の装置であっても良い。
幾つかの実施例において、実行可能な命令はプログラム、ソフトウェア、ソフトウェアモジュール、スクリプト又はコードの形式を採用し、任意の形式のプログラミング言語(コンパイル又はインタプリタ言語、あるいは、宣言型又は手続き型言語を含む)で書かれても良く、また、任意の形式でデプロイされても良く、例えば、独立したプログラムとしてデプロイされても良く、あるいは、モジュール、アセンブリ、サブルーチン、計算環境で適用され得る他のユニットとしてデプロイされても良い。
例示として、実行可能な命令はファイルシステムにおけるファイルに対応しても良く、又は、他のプログラム又はデータを格納するファイルの一部に記憶されても良く、例えば、HTML(Hyper Text Markup Language)ドキュメントにおける1つ又は複数のスクリプトに格納されても良く、議論されるプログラムに専用のシングルファイルに保存されても良く、又は、複数の協調ファイル(例えば、1つ又は複数のモジュール、サブプログラム又はコードの部分を記憶するファイル)に記憶されても良い。
例示として、実行可能な命令は1つの計算装置に配置され実行されても良く、1つの場所に所在する複数の計算装置で実行されても良く、又は、複数の箇所に分散しておりかつ通信ネットワークを介して互いに接続されている複数の計算装置で実行されても良い。
以上、本出願の好ましい実施例を説明したが、本出願はこの実施例に限定されず、本出願の趣旨を離脱しない限り、本出願に対するあらゆる変更は本出願の技術的範囲に属する。

Claims (17)

  1. 電子機器が実行する、仮想シーンのアダプティブ表示方法であって、
    前記仮想シーン及び複数の異なるサイズのボタンを表示するステップ;
    前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作に対応する接触面積を取得するステップ;
    前記仮想シーンを更新して表示するステップであって、更新後の前記仮想シーンに含まれるボタンのサイズは前記タッチ操作に対応する接触面積に適応している、ステップを含み、
    前記仮想シーン及び複数の異なるサイズのボタンを表示するステップは、
    前記仮想シーンを表示し、前記仮想シーンとは別の適応検出領域を表示するステップであって、前記適応検出領域には前記仮想シーンにおけるインタラクション機能と関係ない複数の異なるサイズのボタンが含まれる、ステップを含み、
    前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作に対応する接触面積を取得するステップは、
    前記適応検出領域における前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記仮想シーンにおけるインタラクションプロセスを一時停止又は続行し、前記タッチ操作に対応する接触面積を取得するステップを含む、仮想シーンのアダプティブ表示方法。
  2. 請求項1に記載の仮想シーンのアダプティブ表示方法であって、
    前記仮想シーン及び複数の異なるサイズのボタンを表示するステップは、
    前記仮想シーンの実行プロセスにおいて、前記仮想シーンで前記複数の異なるサイズのボタンを表示するステップであって、前記複数の異なるサイズのボタンは何れも前記仮想シーンにおけるインタラクション機能と関連付けられている、ステップを含み、
    前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作に対応する接触面積を取得するステップは、
    前記仮想シーンで表示される前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作の前記ボタンに対しての接触面積を取得するステップを含む、仮想シーンのアダプティブ表示方法。
  3. 請求項に記載の仮想シーンのアダプティブ表示方法であって、
    前記仮想シーンとは別の適応検出領域を表示するステップの前に、前記仮想シーンのアダプティブ表示方法は、さらに、
    前記仮想シーンでボタン適応検出入口を表示するステップ;及び
    前記ボタン適応検出入口に対してのトリガー操作に応じて、前記仮想シーンとは別の前記適応検出領域を表示する操作を行うと決定するステップを含む、仮想シーンのアダプティブ表示方法。
  4. 請求項に記載の仮想シーンのアダプティブ表示方法であって、
    前記仮想シーンでボタン適応検出入口を表示するステップの前に、前記仮想シーンのアダプティブ表示方法は、さらに、
    前記仮想シーンに含まれるボタンが誤タッチされる頻度を取得するステップ;及び
    前記頻度が頻度閾値よりも大きいときに、前記仮想シーンで前記ボタン適応検出入口を表示する操作を行うと決定するステップを含む、仮想シーンのアダプティブ表示方法。
  5. 請求項に記載の仮想シーンのアダプティブ表示方法であって、
    前記接触面積の類型は最小接触面積を含み、
    前記タッチ操作に対応する接触面積を取得するステップの前に、前記仮想シーンのアダプティブ表示方法は、さらに、
    前記複数の異なるサイズのボタンのサイズの大から小への順序に従って、前記適応検出領域内で前記複数の異なるサイズのボタンを順次表示するステップを含み、
    前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作に対応する接触面積を取得するステップは、
    前記複数の異なるサイズのボタンに対して順次行われるタッチ操作に応じて、前記タッチ操作に対応する最小接触面積を取得するステップを含む、仮想シーンのアダプティブ表示方法。
  6. 請求項に記載の仮想シーンのアダプティブ表示方法であって、
    前記タッチ操作に対応する最小接触面積を取得するステップは、
    前記複数の異なるサイズのボタンのうちの任意の1つのサイズのボタンに対して、
    前記の任意の1つのサイズのボタンが誤タッチされる回数が誤タッチ閾値よりも大きいときに、複数のサイズのうちの、所定条件が満足されるサイズを、前記タッチ操作に対応する最小接触面積として決定する
    処理を実行するステップを含み、
    前記所定条件は、前記任意の1つのサイズに隣接し、かつ前記任意の1つのサイズよりも大きいことを含む、仮想シーンのアダプティブ表示方法。
  7. 請求項1に記載の仮想シーンのアダプティブ表示方法であって、
    前記接触面積の類型は最大接触面積を含み、
    前記タッチ操作に対応する接触面積を取得するステップは、
    前記ボタンに付着する指紋を取得し、前記指紋の面積を、前記タッチ操作に対応する最大接触面積とするステップを含む、仮想シーンのアダプティブ表示方法。
  8. 請求項に記載の仮想シーンのアダプティブ表示方法であって、
    前記ボタンに付着する指紋を取得することは、
    前記ボタンを複数回押圧するときに対応する複数の指紋を取得し、前記複数の指紋のうちの最大面積の指紋を、前記ボタンに付着する指紋とするステップを含む、仮想シーンのアダプティブ表示方法。
  9. 請求項に記載の仮想シーンのアダプティブ表示方法あって、
    前記ボタンに付着する指紋を取得することは、
    前記ボタンを複数回押圧するときに対応する複数の指紋を取得するステップ;及び
    前記複数の指紋のうちの任意の1つの指紋に対して、
    前記指紋の面積が押圧プロセスにおいて不変に維持される時間が時間閾値を超えたときに、前記指紋を、前記ボタンに付着する指紋とする
    処理を実行するステップを含む、仮想シーンのアダプティブ表示方法。
  10. 請求項1に記載の仮想シーンのアダプティブ表示方法であって、
    前記仮想シーンを更新して表示するステップは、
    前記仮想シーンに含まれるボタンのサイズを調整するステップであって、調整後の前記ボタンのサイズに対応する面積は最小接触面積と最大接触面積との間にある、ステップを含む、仮想シーンのアダプティブ表示方法。
  11. 請求項1に記載の仮想シーンのアダプティブ表示方法であって、
    前記仮想シーンに含まれるボタンのサイズを調整するステップの前に、前記仮想シーンのアダプティブ表示方法は、さらに、
    前記仮想シーンに含まれるボタンが誤タッチされる頻度を取得するステップ;及び
    前記頻度が頻度閾値よりも大きいときに、前記仮想シーンに含まれるボタンのサイズを調整する操作を行うと決定するステップを含む、仮想シーンのアダプティブ表示方法。
  12. 請求項1に記載の仮想シーンのアダプティブ表示方法であって、
    前記仮想シーンに含まれるボタンのサイズを調整するステップは、
    前記仮想シーンに含まれる第一ボタン及び第二ボタンを取得するステップであって、前記第一ボタンのサイズに対応する面積は前記最小接触面積より小さく、前記第二ボタンのサイズに対応する面積は前記最大接触面積よりも大きい、ステップ;
    前記第一ボタンのサイズを大きく調整するステップであって、大きく調整された後の前記第一ボタンのサイズに対応する面積は前記最小接触面積と前記最大接触面積との間にある、ステップ;及び
    前記第二ボタンのサイズを小さく調整するステップであって、小さく調整された後の前記第二ボタンのサイズに対応する面積は前記最小接触面積と前記最大接触面積との間にある、ステップを含む、仮想シーンのアダプティブ表示方法。
  13. 請求項1に記載の仮想シーンのアダプティブ表示方法であって、
    前記仮想シーンに含まれるボタンのサイズを調整するステップは、
    前記仮想シーンに含まれるボタンについてのスケーリング比を取得するステップであって、前記スケーリング比は前記仮想シーンに含まれるすべてのボタンのサイズを調整するために用いられ、調整後のサイズに対応する面積は前記最小接触面積と前記最大接触面積との間にある、ステップ;及び
    前記スケーリング比に従って前記仮想シーンに含まれるボタンのサイズを調整するステップを含む、仮想シーンのアダプティブ表示方法。
  14. 請求項1に記載の仮想シーンのアダプティブ表示方法であって、
    前記スケーリング比が複数のスケーリング比を含むときに、前記スケーリング比に従って前記仮想シーンに含まれるボタンのサイズを調整するステップは、
    スケーリング比選択領域を表示するステップであって、前記スケーリング比選択領域には前記複数のスケーリング比が含まれる、ステップ;及び
    前記スケーリング比選択領域に含まれる複数のスケーリング比に対しての選択操作に応じて、選択されたスケーリング比に従って前記仮想シーンに含まれるボタンのサイズを調整するステップを含む、想シーンのアダプティブ表示方法。
  15. 仮想シーンのアダプティブ表示装置であって、
    前記仮想シーン及び複数の異なるサイズのボタンを表示するように構成される表示モジュール;
    前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記タッチ操作に対応する接触面積を取得するように構成される処理モジュール;及び
    前記仮想シーンを更新して表示するように構成される更新モジュールであって、更新後の前記仮想シーンに含まれるボタンのサイズは前記タッチ操作に対応する接触面積に適応している、更新モジュールを含み、
    前記表示モジュールは、前記仮想シーンを表示し、前記仮想シーンとは別の適応検出領域を表示し、前記適応検出領域には前記仮想シーンにおけるインタラクション機能と関係ない複数の異なるサイズのボタンが含まれ、
    前記処理モジュールは、前記適応検出領域における前記複数の異なるサイズのボタンに対してのタッチ操作に応じて、前記仮想シーンにおけるインタラクションプロセスを一時停止又は続行し、前記タッチ操作に対応する接触面積を取得する、仮想シーンのアダプティブ表示装置。
  16. コンピュータプログラムを記憶している記憶器;及び
    前記記憶器に接続される処理器を含む電子機器であって、
    前記処理器は、前記コンピュータプログラムを実行することで、請求項1乃至1のうちの何れか1項に記載の仮想シーンのアダプティブ表示方法を実現するように構成される、電子機器。
  17. コンピュータに、請求項1乃至1のうちの何れか1項に記載の仮想シーンのアダプティブ表示方法を実行させるためのプログラム。
JP2022556518A 2020-12-31 2021-10-21 仮想シーンのアダプティブ表示方法及び装置、電子機器、並びにコンピュータプログラム Active JP7447299B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011620155.7 2020-12-31
CN202011620155.7A CN112684970B (zh) 2020-12-31 2020-12-31 虚拟场景的适配显示方法、装置、电子设备及存储介质
PCT/CN2021/125374 WO2022142626A1 (zh) 2020-12-31 2021-10-21 虚拟场景的适配显示方法、装置、电子设备、存储介质及计算机程序产品

Publications (2)

Publication Number Publication Date
JP2023524368A JP2023524368A (ja) 2023-06-12
JP7447299B2 true JP7447299B2 (ja) 2024-03-11

Family

ID=75453820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022556518A Active JP7447299B2 (ja) 2020-12-31 2021-10-21 仮想シーンのアダプティブ表示方法及び装置、電子機器、並びにコンピュータプログラム

Country Status (5)

Country Link
JP (1) JP7447299B2 (ja)
KR (1) KR20220130257A (ja)
CN (1) CN112684970B (ja)
TW (1) TWI818343B (ja)
WO (1) WO2022142626A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112684970B (zh) * 2020-12-31 2022-11-29 腾讯科技(深圳)有限公司 虚拟场景的适配显示方法、装置、电子设备及存储介质
CN113426099B (zh) * 2021-07-07 2024-03-15 网易(杭州)网络有限公司 一种游戏中的显示控制方法及装置
CN114489882B (zh) * 2021-12-16 2023-05-19 成都鲁易科技有限公司 浏览器动态皮肤的实现方法及装置、存储介质
CN115017629B (zh) * 2022-02-16 2024-04-12 中国标准化研究院 按钮尺寸感知阈限的测试装置和方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293175A (ja) 2004-03-31 2005-10-20 Fujitsu Ten Ltd ユーザインタフェイス自動調整方法及び装置
JP2006268313A (ja) 2005-03-23 2006-10-05 Fuji Xerox Co Ltd 表示制御装置およびその表示内容の配置方法
US20130120278A1 (en) 2008-11-11 2013-05-16 Christian T. Cantrell Biometric Adjustments for Touchscreens

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
JP5177158B2 (ja) * 2010-03-19 2013-04-03 パナソニック株式会社 入力装置、入力ボタン表示方法及び入力ボタン表示プログラム
US20150160779A1 (en) * 2013-12-09 2015-06-11 Microsoft Corporation Controlling interactions based on touch screen contact area
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
CN105930077A (zh) * 2016-04-12 2016-09-07 广东欧珀移动通信有限公司 屏幕显示对象的尺寸调整方法及装置
US20180239582A1 (en) * 2017-02-23 2018-08-23 Frank Goss, III Mobile Virtual Assistant Device
CN106951174B (zh) * 2017-03-22 2019-01-22 维沃移动通信有限公司 一种虚拟键盘的调整方法及移动终端
CN107203313B (zh) * 2017-05-24 2020-04-17 维沃移动通信有限公司 调整桌面显示对象方法、移动终端及计算机可读存储介质
CN107748638A (zh) * 2017-09-28 2018-03-02 努比亚技术有限公司 一种区域调整方法、终端及计算机可读存储介质
CN107890664A (zh) * 2017-10-23 2018-04-10 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN109062496B (zh) * 2018-08-09 2021-05-25 北京金山安全软件有限公司 操作区域的调整方法、装置、移动终端及存储介质
CN109753327A (zh) * 2018-11-19 2019-05-14 努比亚技术有限公司 一种控件布局方法、终端及计算机可读存储介质
CN109499061B (zh) * 2018-11-19 2022-08-09 网易(杭州)网络有限公司 游戏场景画面的调整方法、装置、移动终端和存储介质
CN111324276B (zh) * 2018-12-17 2021-04-27 珠海格力电器股份有限公司 虚拟键盘的控制方法、装置和终端
CN111338540B (zh) * 2020-02-11 2022-02-18 Oppo广东移动通信有限公司 图片文本处理方法、装置、电子设备和存储介质
CN111632375A (zh) * 2020-05-28 2020-09-08 腾讯科技(深圳)有限公司 交互对象的显示方法和装置、存储介质及电子装置
CN112090067B (zh) * 2020-09-23 2023-11-14 腾讯科技(上海)有限公司 虚拟载具的控制方法、装置、设备及计算机可读存储介质
CN112684970B (zh) * 2020-12-31 2022-11-29 腾讯科技(深圳)有限公司 虚拟场景的适配显示方法、装置、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293175A (ja) 2004-03-31 2005-10-20 Fujitsu Ten Ltd ユーザインタフェイス自動調整方法及び装置
JP2006268313A (ja) 2005-03-23 2006-10-05 Fuji Xerox Co Ltd 表示制御装置およびその表示内容の配置方法
US20130120278A1 (en) 2008-11-11 2013-05-16 Christian T. Cantrell Biometric Adjustments for Touchscreens

Also Published As

Publication number Publication date
TWI818343B (zh) 2023-10-11
CN112684970B (zh) 2022-11-29
JP2023524368A (ja) 2023-06-12
CN112684970A (zh) 2021-04-20
TW202227172A (zh) 2022-07-16
US20220334716A1 (en) 2022-10-20
KR20220130257A (ko) 2022-09-26
WO2022142626A1 (zh) 2022-07-07

Similar Documents

Publication Publication Date Title
JP7447299B2 (ja) 仮想シーンのアダプティブ表示方法及び装置、電子機器、並びにコンピュータプログラム
JP7331124B2 (ja) 仮想オブジェクトの制御方法、装置、端末及び記憶媒体
CN109885245B (zh) 应用控制方法、装置、终端设备及计算机可读取存储介质
KR20210003687A (ko) 비디오 게임에서 플레이어 게임플레이를 모방하기 위한 커스텀 모델
CN112691377A (zh) 虚拟角色的控制方法、装置、电子设备及存储介质
CN112121417B (zh) 虚拟场景中的事件处理方法、装置、设备及存储介质
TWI793837B (zh) 虛擬物件的控制方法、裝置、設備、儲存媒體及電腦程式產品
JP7391448B2 (ja) 仮想オブジェクトの制御方法、装置、機器、記憶媒体及びコンピュータプログラム製品
CN112891943B (zh) 一种镜头处理方法、设备以及可读存储介质
WO2022088941A1 (zh) 虚拟按键的位置调整方法、装置、设备、存储介质及程序产品
CN111643890A (zh) 卡牌游戏的交互方法、装置、电子设备及存储介质
CN109529340B (zh) 虚拟对象控制方法、装置、电子设备及存储介质
KR20240033087A (ko) 가상 시나리오에서의 오프닝 조작의 제어 방법, 장치, 기기, 저장 매체 및 프로그램 제품
US20230330525A1 (en) Motion processing method and apparatus in virtual scene, device, storage medium, and program product
CN114344896A (zh) 基于虚拟场景的合拍处理方法、装置、设备及存储介质
US20230310989A1 (en) Object control method and apparatus in virtual scene, terminal device, computer-readable storage medium, and computer program product
JP7232350B2 (ja) 仮想キーの位置調整方法及び装置、並びコンピュータ装置及びプログラム
US11995311B2 (en) Adaptive display method and apparatus for virtual scene, electronic device, storage medium, and computer program product
CN113613739A (zh) 信息处理程序、信息处理方法、信息处理装置和信息处理系统
WO2024060924A1 (zh) 虚拟场景的互动处理方法、装置、电子设备及存储介质
WO2024037139A1 (zh) 虚拟场景中的信息提示方法、装置、电子设备、存储介质及程序产品
WO2024012016A1 (zh) 虚拟场景的信息显示方法、装置、电子设备、存储介质及计算机程序产品
WO2024021792A1 (zh) 虚拟场景的信息处理方法、装置、设备、存储介质及程序产品
WO2023168990A1 (zh) 虚拟场景中的表演录制方法、装置、设备、存储介质及程序产品
CN114504812A (zh) 虚拟角色控制方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7447299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150