JP2022505457A - 仮想環境において建築物を建設する方法、装置、機器及びプログラム - Google Patents

仮想環境において建築物を建設する方法、装置、機器及びプログラム Download PDF

Info

Publication number
JP2022505457A
JP2022505457A JP2021521495A JP2021521495A JP2022505457A JP 2022505457 A JP2022505457 A JP 2022505457A JP 2021521495 A JP2021521495 A JP 2021521495A JP 2021521495 A JP2021521495 A JP 2021521495A JP 2022505457 A JP2022505457 A JP 2022505457A
Authority
JP
Japan
Prior art keywords
building
target
viewpoint
screen
construction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021521495A
Other languages
English (en)
Other versions
JP7224459B2 (ja
Inventor
チィウ,メン
パン,ジィアチィ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022505457A publication Critical patent/JP2022505457A/ja
Application granted granted Critical
Publication of JP7224459B2 publication Critical patent/JP7224459B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

Figure 2022505457000001
本願は、仮想環境において建築物を建設する方法、装置、機器及び記憶媒体を開示し、ヒューマンコンピュータインタラクション分野に関する。該方法は、アプリケーションプログラムの第1の視点画面を表示するステップであって、第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示されるステップと、受信した建築物ロッカーコントロールにおいてトリガーされたタッチ操作に基づいて、ターゲット建築物のターゲット建設位置を決定するステップと、受信したタッチ操作に対応するタッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設するステップとを含む。上記のターゲット建築物の建設過程において、ターゲット建築物に対応する建築物ロッカーコントロールによって、ユーザがタッチしてリリースする操作を1回行うと、第1の視点の照準中心位置にターゲット建築物の建設を完了することができ、アプリケーションプログラムの仮想環境においてターゲット建築物を迅速かつ効率的に建設することを実現し、通常のターゲット建築物の建設は3つのステップを実行する必要があり、これに比べると、2つのステップを減少させ、ヒューマンコンピュータインタラクション効率を向上させる。
【選択図】 図6

Description

[関連出願の相互参照]
本願は、2019年1月30日に提出された、出願番号が201910093429.2で、発明の名称が「仮想環境において建築物を建設する方法、装置、機器及び記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は、参照により本願に組み込まれるものとする。
[技術分野]
本願の実施例は、ヒューマンコンピュータインタラクション分野に関し、特に仮想環境において建築物を建設する方法、装置、機器及び記憶媒体に関する。
スマートフォン、タブレットPCなどの端末に、仮想環境によるアプリケーションプログラムが多く存在する。
上記仮想環境によるアプリケーションプログラムでは、ユーザが仮想材料で壁、階段、部屋などを建設することができるが、通常の建設ステップは、少なくとも
建築物ボタンをクリックし、建築物材料のメニューを開く第1のステップと、
視点を回動し、建築物(デフォルトで使用される建築物材料で建設される)の置き位置を調整する第2のステップと、
置きボタンをクリックし、建設を完了する第3のステップとを必要とされる。
非デフォルトで使用される建築物材料を用いると、「所要の建築物材料を選択する」ステップをさらに追加する必要がある。
上記建設のステップが多くて、仮想環境において建築物を建設するとき、建築物の建設を迅速かつ効率的に完了することができず、ヒューマンコンピュータインタラクション効率が低い。
本願の実施例は、建築物の建設ステップを減少できることで、建築物の建設を効率的に完了し、ヒューマンコンピュータインタラクション効率を向上させる、仮想環境において建築物を建設する方法、装置、機器及び記憶媒体を提供する。前記技術案は、以下のとおりである。
本願の一態様によれば、
アプリケーションプログラムの第1の視点画面を表示するステップであって、上記第1の視点画面は、仮想環境において仮想キャラクターの第1の視点で仮想環境を観察する画面であり、該第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示されるステップと、
建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信するステップと、
タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定するステップと、
タッチ操作に対応するタッチリリース操作を受信するステップと、
タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設するステップとを含む、
仮想環境において建築物を建設する方法が提供される。
本願の他の態様によれば、
アプリケーションプログラムの第1の視点画面を表示するための表示モジュールであって、上記第1の視点画面は、仮想環境において仮想キャラクターの第1の視点で仮想環境を観察する画面であり、該第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示される表示モジュールと、
建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信するための受信モジュールと、
タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定するための決定モジュールと、
タッチ操作に対応するタッチリリース操作を受信するための受信モジュールと、
タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設するための建設モジュールとを含む、
仮想環境において建築物を建設する装置が提供される。
本願の他の態様によれば、プロセッサとメモリとを含み、該メモリに少なくとも1つの命令、少なくとも一つのプログラム、コードセットまたは命令セットが記憶され、上記少なくとも1つの命令、少なくとも一つのプログラム、コードセットまたは命令セットがプロセッサによりロードされて実行されて、上記本願の上記態様及びその選択可能な実施例のうちのいずれかに記載の仮想環境において建築物を建設する方法を実現する、端末が提供される。
本願の他の態様によれば、少なくとも1つの命令、少なくとも一つのプログラム、コードセットまたは命令セットが記憶され、上記少なくとも1つの命令、少なくとも一つのプログラム、コードセットまたは命令セットがプロセッサによりロードされて実行されて、上記本願の上記態様及びその選択可能な実施例のうちのいずれかに記載の仮想環境において建築物を建設する方法を実現する、コンピュータ読み取り可能な記憶媒体が提供される。
本願の実施例に係る技術案による有益な効果は、少なくとも以下の効果を含む。
アプリケーションプログラムの第1の視点画面を表示し、上記の第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示され、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信して、タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定し、タッチ操作に対応するタッチリリース操作を受信して、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。上記のターゲット建築物の建設過程において、ターゲット建築物に対応する建築物ロッカーコントロールによって、ユーザがタッチしてリリースする操作を1回行うと、第1の視点の照準中心位置にターゲット建築物の建設を完了することができ、アプリケーションプログラムの仮想環境においてターゲット建築物を迅速かつ効率的に建設することを実現し、通常のターゲット建築物の建設は3つのステップを実行する必要があり、これに比べると、2つのステップを減少させ、ヒューマンコンピュータインタラクション効率を向上させる。
本願の実施例の技術案をより明瞭に説明するために、以下、実施例の説明において必要な図面について簡単に説明するが、以下説明される図面は、本願のいくつかの実施例にすぎず、当業者にとって、創造的な労力が必要とされない限り、これらの図面に基づいて他の図面を獲得できることが自明である。
本願の1つの例示的な実施例に係るカメラモデルの模式図である。 本願の1つの例示的な実施例に係る端末の構成ブロック図である。 本願の1つの例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートである。 本願の1つの例示的な実施例に係る仮想環境画面に表示される建築物ロッカーコントロールのインタフェース模式図である。 本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートである。 本願の1つの例示的な実施例に係る仮想環境において建築物を建設するインタフェース模式図である。 本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートである。 本願の他の例示的な実施例に係る仮想環境において建築物を建設するインタフェース模式図である。 本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートである。 本願の他の例示的な実施例に係る仮想環境において建築物を建設するインタフェース模式図である。 本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートである。 本願の他の例示的な実施例に係る仮想環境において建築物を建設するインタフェース模式図である。 本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートである。 本願の他の例示的な実施例に係る仮想環境において建築物を建設するインタフェース模式図である。 本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートである。 本願の1つの例示的な実施例に係る仮想環境において建築物を建設する装置のブロック図である。 本願の1つの例示的な実施例に係る端末の構成ブロック図である。
本願の目的、技術案及び利点をさらに明瞭にするために、以下、図面を参照しながら本願の実施形態についてさらに詳細に説明する。
まず、本願の実施例に係るいくつかの名詞について解釈する。
仮想環境とは、アプリケーションプログラムが端末に実行されるときに表示される(または提供される)仮想環境である。該仮想環境は、現実世界に対するシミュレーション環境であってもよく、半分シミュレーションかつ半分フィクションな3次元環境であってもよく、さらに、完全にフィクションな3次元環境であってもよい。仮想環境は、2次元仮想環境、2.5次元仮想環境及び3次元仮想環境のうちのいずれかであってもよく、下記実施例は、仮想環境が3次元仮想環境であることを例として説明するが、これについて限定しない。
仮想キャラクターとは、仮想環境における移動可能なキャラクターである。該移動可能なキャラクターは、仮想人物、仮想動物、アニメ人物のうちの少なくとも1つである。好ましくは、仮想環境が3次元仮想環境であると、仮想キャラクターは、アニメ骨格技術に基づいて構築される3次元モデルである。各仮想キャラクターは、それぞれ3次元仮想環境において形状及び体積を有し、3次元仮想環境における一部の空間を占有する。
建築物とは、仮想環境において建設される仮想建築物である。該仮想建築物は、仮想階段、仮想壁、仮想床、仮想屋根などであってもよい。好ましくは、仮想環境が3次元仮想環境であると、仮想建築物は3次元モデルであり、各仮想建築物は、それぞれ3次元仮想環境において形状及び体積を有し、3次元仮想環境における一部の空間を占有する。
本願では、ユーザが仮想環境において候補建築物を建設することができ、ここで、候補建築物は、アプリケーションプログラムにおいて予め設定された、ユーザが建設可能な建築物であり、ターゲット建築物は、ユーザが候補建築物から選択して建設しようとする建築物である。好ましくは、3次元仮想環境が、少なくとも2つの仮想キャラクターが戦う環境であると、仮想建築物は、敵の攻撃を阻止するために用いられ、例えば、少なくとも2つの仮想キャラクターが戦うとき、相手の攻撃を阻止するように、ユーザは仮想壁を相手の攻撃方向に向って建設することができる。好ましくは、仮想キャラクターは、建設された仮想建築物を介して前進方向での障害を越えることができ、例えば、仮想キャラクターの前進方向に小さな川が現れると、ユーザは上記小さな川に仮想階段を建設することで、仮想キャラクターが小さな川を超えることを補助する。
視点とは、仮想キャラクターの一人称視点又は三人称視点で仮想環境において観察するときの観察角度である。好ましくは、本願の実施例において、視点とは、仮想環境においてカメラモデルによって仮想キャラクターを観察するときの角度であり、観察方向とは、仮想環境においてカメラモデルのレンズが向いている方向である。
好ましくは、カメラモデルは、仮想環境において仮想キャラクターを自動的に追従し、すなわち、カメラモデルは、仮想環境での仮想キャラクターの位置が変わると、仮想環境での仮想キャラクターの位置に追従しながら変わるが、仮想環境において常に仮想キャラクターの所定の距離範囲内にある。好ましくは、自動的な追従過程において、カメラモデルと仮想キャラクターとの相対位置は変わらない。
カメラモデルとは、3次元仮想環境において仮想キャラクターの周りに位置する3次元モデルであり、該カメラモデルは、一人称視点を用いる場合、仮想キャラクターの頭部の近傍に位置又は仮想キャラクターの頭部に位置し、三人称視点を用いる場合、仮想キャラクターの後に位置し、且つ仮想キャラクターとバンディングされてもよいし、仮想キャラクターと所定の距離離れた任意の位置に位置してもよい。該カメラモデルによって、3次元仮想環境に位置する仮想キャラクターを異なる角度から観察するこができ、好ましくは、該三人称視点が一人称の肩越し視点である場合、カメラモデルは仮想キャラクター(例えば、仮想人物の頭肩部)の後に位置する。好ましくは、視点は、一人称視点及び三人称視点のほか、俯瞰視点などの他の視点をさらに含み、俯瞰視点を用いる場合、該カメラモデルは仮想キャラクターの頭部の上に位置してもよく、俯瞰視点とは、空から俯瞰する角度で仮想環境を観察する視点である。好ましくは、該カメラモデルは3次元仮想環境において実際に表示されず、すなわち、ユーザインタフェースに表示される3次元仮想環境に該カメラモデルが表示されない。
該カメラモデルが仮想キャラクターと所定の距離離れた任意の位置に位置することを例として説明し、好ましくは、1つの仮想キャラクターが1つのカメラモデルに対応し、該カメラモデルは、仮想キャラクターを回転中心として回転することができ、例えば、仮想キャラクターの任意の点を回転中心としてカメラモデルを回転させ、カメラモデルは、回転過程において角度が回動するだけではなく、位置も変わり、回転するとき、カメラモデルと該回転中心との間の距離が不変に維持され、すなわち、該回転中心を球心とする球体面においてカメラモデルを回転させ、ここで、仮想キャラクターの任意の点は、仮想キャラクターの頭部、胴体、又は仮想キャラクターの周りの任意の点であってもよく、本願の実施例は、これについて限定しない。好ましくは、カメラモデルが仮想キャラクターを観察するとき、該カメラモデルの視点の中心が指す方向は、該カメラモデルが位置する球面の点が球心に指す方向である。
好ましくは、該カメラモデルは、さらに、仮想キャラクターの異なる方向で所定の角度で仮想キャラクターを観察してもよい。
例示的には、図1を参照し、仮想キャラクター11において一点を回転中心12として決定し、カメラモデルは該回転中心12の周りを回転し、好ましくは、該カメラモデルには、仮想キャラクターの後上方の位置(例えば、脳部の後方位置)である初期位置が配置されている。例示的には、図1に示すように、該初期位置は位置13であり、カメラモデルが位置14又は位置15まで回転したとき、カメラモデルの視点方向はカメラモデルの回動とともに変わる。
本願の端末は、ラップトップコンピューター、携帯電話、タブレットPC、電子書リーダー、電子ゲーム機、動画専門家集団オーディオレイヤ4(Moving Picture Experts Group Audio Layer IV、MP4)プレーヤなどであってもよい。
ハードウェア構造に関しては、上記端末は、圧力タッチパネル120と、メモリ140と、プロセッサ160とを含み、図2に示す端末の構成ブロック図を参照してください。
圧力タッチパネル120は、容量性スクリーン又は抵抗スクリーンであってもよい。圧力タッチパネル120は、端末とユーザとのインタラクションを実現するためのものである。本願の実施例では、端末は、タッチ操作、タッチ操作に対応するリリース操作、ドラッグ操作、展開操作、選択操作などの、ユーザによりトリガーされた建築物の建設の関連操作を圧力タッチパネル120によって取得する。
メモリ140は、1つ又は複数のコンピュータ読み取り可能な記憶媒体を含んでもよい。上記コンピュータ記憶媒体は、ランダムアクセスメモリ(Random Access Memory、RAM)、読み出し専用メモリ(Read Only Memory、ROM)、フラッシュメモリ(Flash)のうちの少なくとも1つを含む。メモリ140にオペレーティングシステム12及びアプリケーションプログラム14がインストールされている。
オペレーティングシステム12は、コンピュータハードウェアへのセキュリティアクセスをアプリケーションプログラム14に提供するベースソフトウェアである。オペレーティングシステムは、アンドロイドシステム(Android)又はアップルのシステム(IOS)であってもよい。
アプリケーションプログラム14は、仮想キャラクターを含む仮想環境をサポートするアプリケーションプログラムである。好ましくは、アプリケーションプログラム14は、3次元仮想環境をサポートするアプリケーションプログラムである。該アプリケーションプログラム14は、バーチャルリアリティーアプリケーションプログラム、3次元マッププログラム、軍事シミュレーションプログラム、TPSゲーム、ファーストパーソンシューティング(First Person Shooting、FPS)ゲーム、マルチプレイヤーオンラインバトルアリーナ(Multiplayer Online Battle Arena、MOBA)ゲーム、マルチプレイヤー銃撃戦類サバイバルゲームのうちのいずれかであってもよい。好ましくは、該アプリケーションプログラム14は、スタンドアロン版の3次元(3Dimensions、3D)ゲームプログラムなどのスタンドアロン版のアプリケーションプログラムであってもよく、ネットワークオンライン版のアプリケーションプログラムであってもよい。
プロセッサ160は、1つ又は複数のプロセスコアを含んでもよく、例えば、4コアプロセッサ、8コアプロセッサである。プロセッサ160は、圧力タッチパネル120により受信された建築物建設の関連操作に基づいて、異なる操作に対応する異なる命令を実行するためのものである。
図3は本願の1つの例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートであり、該方法が図2に示す端末に適用されることを例として説明し、該方法は、以下のS201~S205を含む。
ステップ201では、アプリケーションプログラムの第1の視点画面を表示する。
端末にアプリケーションプログラムの第1の視点画面が表示され、好ましくは、アプリケーションプログラムは、バーチャルリアリティーアプリケーションプログラム、3次元マップアプリケーションプログラム、軍事シミュレーションプログラム、TPSゲーム、FPSゲーム、MOBAゲームのうちの少なくとも1つであってもよい。
第1の視点画面は、仮想環境において仮想キャラクターの第1の視点で仮想環境を観察する画面である。好ましくは、上記第1の視点は、仮想人物の一人称視点で仮想環境を観察する視点である、又は、仮想人物の三人称視点で仮想環境を観察する視点である。
第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロール(ジョイスティックコントロールとも呼ばれる)がさらにオーバーレイ表示され、該建築物ロッカーコントロールは、ターゲット建築物を建設するためのロッカーコントロールであり、該建築物ロッカーコントロールは、さらに、キャラクターの仮想環境での視点回動を制御することで、ターゲット建築物のターゲット建設位置を決定するために用いられる。
例示的には、図4は建築物ロッカーコントロール31を示し、左の図に示すように、上記建築物ロッカーコントロール31は、外円32と、ターゲット建築物34の図形が表示されるボタン33とを含む。端末のアプリケーションプログラムの仮想画面に上記建築物ロッカーコントロール31が表示され、ユーザが建築物ロッカーコントロール31においてタッチ操作をトリガーしたとき、端末は仮想環境においてターゲット建築物34を建設し、ユーザはさらに上記タッチ操作をドラッグすることで、ターゲット建築物のターゲット建設位置を調整してもよく、ユーザは外円32においてボタン33を任意の方向へドラッグし、上記ターゲット建設位置を調整してもよく、中間の図に示すように、ユーザは外円32においてボタン33を下方へドラッグし、右図に示すように、ユーザは外円32においてボタン33を左下方へドラッグする。
好ましくは、ターゲット建築物は、仮想壁、仮想屋根、仮想階段、仮想床のうちの少なくとも1つを含む。
ステップ202では、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信する。
端末は、タッチスクリーンを含み、建築物ロッカーコントロールに対応するスクリーン領域において、ユーザによりトリガーされたタッチ操作を受信する。該タッチ操作は、ターゲット建築物のターゲット建築物位置を決定するためのものである。上記タッチ操作とは、ユーザがスクリーンから離さずスクリーンにタッチし続ける操作である。
ステップ203では、タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定する。
好ましくは、上記アプリケーションプログラムにターゲット距離が設定されており、該ターゲット距離は、仮想環境においてターゲット建築物を建設するとき、ターゲット建設位置と仮想キャラクターとの間の距離を指示する。
第1の視点が位置する第1の観察方向と、第1の視点の照準中心位置が位置する方向とが重なり、端末は、タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定し、すなわち、ターゲット建設位置は、第1の視点の照準中心位置が位置する方向にある。
好ましくは、上記ターゲット距離は、端末により決定された仮想人物がいる位置とターゲット建設位置との間の距離であり、上記ターゲット建設位置は、第1の観察方向に延伸した直線と仮想環境における物体との交点である。
ステップ204では、タッチ操作に対応するタッチリリース操作を受信する。
上記タッチリリース操作とは、ユーザがタッチスクリーンにおいてタッチ操作をトリガーした後に、スクリーンから離れるリリース操作である。上記タッチ操作に対応するタッチリリース操作は、ターゲット建設位置にターゲット建築物を建設することを指示するためのものである。
ステップ205では、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。
端末は、上記タッチ操作に対応するタッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設し、つまり、ユーザがターゲット建設位置を調整した後に解放し、ターゲット建設位置にターゲット建築物が自動的に建設される。
好ましくは、端末は、建設に影響を与える物体がターゲット建設位置に存在しないことに応じて、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。
以上のように、本実施例に係る仮想環境において建築物を建設する方法は、アプリケーションプログラムの第1の視点画面を表示し、上記第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示され、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信して、タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定し、タッチ操作に対応するタッチリリース操作を受信して、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。上記のターゲット建築物の建設過程では、ターゲット建築物に対応する建築物ロッカーコントロールによって、ユーザがタッチしてリリースする操作を1回行うと、第1の視点の照準中心位置にターゲット建築物を建設することができ、アプリケーションプログラムの仮想環境においてターゲット建築物を迅速かつ効率的に建設することを実現し、通常のターゲット建築物の建設は3つのステップを実行する必要があり、これに比べると、2つのステップを減少させ、ヒューマンコンピュータインタラクション効率を向上させる。
建築物を建設する過程において、端末は、仮想環境にターゲット建築物を表示し、ここで、ターゲット建築物の表示モードは第1の表示モード及び第2の表示モードを含み、いくつかの実施例では、端末は、ターゲット建築物のターゲット建設位置を決定した後、第1の表示方法でターゲット建築物を表示し、ターゲット建設位置にターゲット建築物を建設した後、第2の表示モードでターゲット建築物を表示する。例示的には、端末が仮想環境において建築物を建設する方法に上記の2つの表示モードを用いる方法フローチャートは、図5に示され、該方法は、端末に適用され、以下のS301~S307を含む。
ステップ301では、アプリケーションプログラムの第1の視点画面を表示する。
第1の視点画面は、仮想環境において仮想キャラクターの第1の視点で仮想環境を観察する視点である。好ましくは、第1の視点は、仮想環境において仮想人物の一人称視点で仮想環境を観察する視点である、又は、仮想環境において仮想人物の三人称視点で仮想環境を観察する視点である。
第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示される。
ステップ302では、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信する。
端末にはタッチスクリーンが取り付けられ、端末は、上記建築物ロッカーコントロールに対応するスクリーン領域においてトリガーされたタッチ操作を受信し、該タッチ操作は、スクリーンから離れずスクリーンにタッチするタッチ操作である。
ステップ303では、タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定する。
上記タッチ操作は、ターゲット建築物の建設開始イベントを指示し、端末は、タッチ操作に基づいてターゲット建築物の建設を開始する。まず、端末は、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定する。
第1の視点が位置する第1の観察方向とは、第1の視点の照準中心位置が指す方向であり、ターゲット距離は、仮想環境における、上記照準中心位置が指す方向での仮想キャラクターとターゲット建設位置との間の空間距離を指示する。
ステップ304では、ターゲット建築物の仮想モデルをターゲット建設位置に第1の表示モードで表示する。
端末は、ターゲット建設位置を決定した後、ターゲット建築物位置にターゲット建築物の仮想モデルを第1の表示モードで表示する。
好ましくは、第1の表示モードは、ターゲット建築物の輪郭図であるターゲット建築物の概略図を表示するモードである、又は、半透明状のターゲット建築物を表示するモードである。好ましくは、仮想環境に示されるターゲット建築物の概略図又は半透明状のターゲット建築物の空間体積と、建設済みのターゲット建築物が仮想環境において占有する空間体積とは、同じである。上記ターゲット建設位置に表示されるターゲット建築物の概略図又は半透明状のターゲット建築物は、ターゲット建築物に対する建設プランに相当し、仮想環境におけるターゲット建設位置に建設済んだのではない。
好ましくは、端末は、建設に影響を与える物体がターゲット建設位置に存在しないことに応じて、ターゲット建築物の仮想モデルをターゲット建設位置に第1の表示モードで表示し、つまり、端末は、建設に影響を与える物体がターゲット建設位置に存在しないと決定すると、ターゲット建築物の仮想モデルをターゲット建設位置に第1の表示モードで表示する。例えば、端末は、ターゲット建築物が仮想床である場合、仮想環境におけるターゲット建設位置に石が設定されていると確定すると、ターゲット建設位置に仮想床を建設することを拒否し、且つターゲット建築物の仮想モデルを表示することを拒否し、仮想環境におけるターゲット建設位置が滑らかな地面である場合、ターゲット建築物の仮想モデルをターゲット建設位置に第1の表示モードで表示する。
ステップ305では、タッチ操作に対応するタッチリリース操作を受信する。
上記タッチリリース操作は、ユーザがスクリーンにタッチして離れる操作であり、上記タッチ操作に対応する。
ステップ306では、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。
端末は、上記タッチリリース操作に基づいてターゲット建設位置にターゲット建築物を建設する。
ステップ307では、ターゲット建築物の仮想モデルをターゲット建設位置に第2の表示モードで表示する。
端末は、建設済みのターゲット建築物の仮想モデルをターゲット建設位置に第2の表示モードで表示する。
第2の表示モードとは、ターゲット建築物を仮想環境に完全に表示するモードであり、第2の表示モードで表示されるターゲット建築物は、仮想環境において実際に存在する建築物に相当し、例えば、ターゲット建築物が仮想階段であり、ターゲット建設位置に第2の表示モードで仮想階段を表示し、仮想キャラクターは階段を介して昇ることができる。
例示的には、図6を参照して、端末にアプリケーションプログラムの第1の視点画面50を表示し、第1の視点画面50には、建築物ロッカーコントロール51がオーバーレイ表示され、建築物ロッカーコントロール51にはターゲット建築物が表示され、端末は、建築物ロッカーコントロール51においてトリガーされたタッチ操作を受信し、第1の表示インタフェースに第1の表示モードでターゲット建築物を表示し、図におけるターゲット建築物の概略図52に示すように、ターゲット建築物の概略図52のターゲット建築物位置は第1の視点の照準中心位置53にあり、端末は、タッチ操作に対応するタッチリリース操作を受信し、建設済みのターゲット建築物54を第1の表示インタフェースに第2の表示モードで表示し、ここで、ターゲット建設位置は、第1の視点が位置する第1の観察方向に、ターゲット距離L離れた場所にある。
以上のように、本実施例に係る仮想環境において建築物を建設する方法は、アプリケーションプログラムの第1の視点画面を表示し、上記第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示され、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信して、タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定し、タッチ操作に対応するタッチリリース操作を受信して、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。上記のターゲット建築物の建設過程において、ターゲット建築物に対応する建築物ロッカーコントロールによって、ユーザがタッチしてリリースする操作を1回行うと、第1の視点の照準中心位置にターゲット建築物を建設することができ、アプリケーションプログラムの仮想環境においてターゲット建築物を迅速かつ効率的に建設することを実現し、通常のターゲット建築物の建設は3つのステップを実行する必要があり、これに比べると、2つのステップを減少させ、ヒューマンコンピュータインタラクション効率を向上させる。
仮想環境において建築物を建設する過程において、ユーザは、さらに、建築物ロッカーコントロールによってターゲット建設位置を調整してもよく、図7に示すように、例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートであり、上記ターゲット建設位置の調整方法について説明し、該方法は、端末に適用され、以下のS401~S409を含む。
ステップ401では、アプリケーションプログラムの第1の視点画面を表示する。
ステップ301を参照してください。ここで繰り返し説明しない。
ステップ402では、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信する。
ステップ302を参照してください。ここで繰り返し説明しない。
ステップ403では、タッチ操作がドラッグされることに応じて、仮想キャラクターを回転中心として、ドラッグ距離に基づいて第1の観察方向から第2の観察方向に回動する。
表示される建築物ロッカーコントロールにおいてタッチ操作をトリガーし、建築物ロッカーコントロールにおいてドラッグし、上記トリガー操作のドラッグに基づいて、仮想キャラクターの視点が位置する観察方向を調整する。
ユーザは、建築物ロッカーコントロールにおいて360度の方向でドラッグし、水平方向及び垂直方向での仮想キャラクターの視点が位置する観察方向を回動させ、端末は、ドラッグ距離に基づいて、視点が位置する観察方向の回動角度を獲得し、第1の観察方向を基準とし、仮想キャラクターを回転中心として、上記ドラッグのドラッグ方向へ、上記獲得された観察方向の回動角度で回動させ、第2の視点を得る。
例示的には、観察方向の回動角度と、ドラッグ距離とは、正相関関係であり、つまり、ドラッグ距離が長いほど、観察方向の回動角度が大きくなる。例示的には、上記観察方向の回動角度とドラッグ距離との正相関関係は、さらに、線形式で示されてもよい。
ステップ404では、アプリケーションプログラムの第2の視点画面を表示する。
第2の視点画面は、仮想環境において仮想キャラクターの第2の視点で仮想環境を観察する視点である。好ましくは、第2の視点は、仮想環境において仮想人物の一人称視点で仮想環境を観察する視点である、又は仮想環境において仮想人物の三人称視点で仮想環境を観察する視点である。
ステップ405では、第2の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定する。
ステップ303を参照してください。第2の視点画面においてターゲット建設位置を決定する方法と、第1の視点画面においてターゲット建設位置を決定する方法とは、同じである。ここで繰り返し説明しない。
ステップ406では、ターゲット建築物の仮想モデルをターゲット建設位置に第1の表示モードで表示する。
ステップ304を参照してください。ここで繰り返し説明しない。
ステップ407では、タッチ操作に対応するタッチリリース操作を受信する。
ステップ305を参照してください。ここで繰り返し説明しない。
ステップ408では、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。
ステップ306を参照してください。ここで繰り返し説明しない。
ステップ409では、ターゲット建築物の仮想モデルをターゲット建設位置に第2の表示モードで表示する。
ステップ307を参照してください。ここで繰り返し説明しない。
例示的には、図8を参照し、端末は、第1の視点画面63を表示し、建築物ロッカーコントロール61におけるタッチ操作を受信して、第1の視点画面63にターゲット建築物62を表示し、タッチ操作が下へドラッグされるとき、第1の観察方向から第2の観察方向に回動し、端末は、第2の視点画面64を表示し、第2の視点画面64にターゲット建築物62を表示して、タッチ操作が再び左下方へドラッグされるとき、第2の観察方向から第3観察方向に回動し、端末は、第3視点画面65を表示し、第3視点画面65にターゲット建築物62を表示する。なお、図8に示す画面にタッチリリース操作がトリガーされていないため、ターゲット建築物62がすべて第1の表示モードで表示される。
以上のように、本実施例に係る仮想環境において建築物を建設する方法は、アプリケーションプログラムの第1の視点画面を表示し、上記第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示され、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信して、タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定し、タッチ操作に対応するタッチリリース操作を受信して、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。上記のターゲット建築物の建設過程において、ターゲット建築物に対応する建築物ロッカーコントロールによって、ユーザがタッチしてリリースする操作を1回行うと、第1の視点の照準中心位置にターゲット建築物の建設を完了することができ、アプリケーションプログラムの仮想環境においてターゲット建築物を迅速かつ効率的に建設することを実現し、通常のターゲット建築物の建設は3つのステップを実行する必要があり、これに比べると、2つのステップを減少させ、ヒューマンコンピュータインタラクション効率を向上させる。
本実施例に係る仮想環境において建築物を建設する方法は、さらに、視点を調整するとともに、ターゲット建設位置を調整することで、視点調整とターゲット建設位置の調整を1つのステップに組み合わせて行ってもよく、ユーザの操作効率を向上させ、建築物の建設がより柔軟になり、ユーザエクスペリエンスを向上させる。
なお、第2の視点画面には操作キャンセルボタンコントロールがさらにオーバーレイ表示され、建築物を建設する中間過程において、端末は建築物の建設を中断することができ、図9に示すように、ステップ405~ステップ409をステップ410~ステップ411に置き換え、建築物を建設する中間過程において端末が建築物の建設をキャンセルする方法について説明し、該方法は、以下のステップ410~ステップ411を含む。
ステップ410では、操作キャンセルボタンコントロールにおいてトリガーされたキャンセル操作を受信する。
端末は、操作キャンセルボタンコントロールに対応するスクリーン領域においてトリガーされたキャンセル操作、例えば、操作キャンセルボタンコントロールにおいてトリガーされたクリック操作を受信する。
ステップ411では、キャンセル操作に基づいて、第1の視点画面を再表示する。
端末は、キャンセル操作に基づいて、ターゲット建築物の建設をキャンセルし、第1の視点画面を再表示する。
例示的には、図10に示すように、端末は、第1の視点画面63を表示し、建築物ロッカーコントロール61におけるタッチ操作を受信し、第1の視点画面63にターゲット建築物62を表示し、タッチ操作が下へドラッグされるとき、第1の視点から第2の視点に回動し、端末は、第2の視点画面64を表示し、第2の視点画面64にターゲット建築物62を表示し、第2の視点画面64には操作キャンセルボタンコントロールの「キャンセル操作」66がオーバーレイ表示され、端末は、操作キャンセルボタンコントロールの「キャンセル操作」66においてトリガーされたキャンセル操作を受信し、ターゲット建築物の建設をキャンセルし、第1の視点画面63を再表示する。
以上のように、本実施例に係る仮想環境において建築物を建設する方法は、建築物を建設する中間過程において建築物の建設を中断してもよく、ユーザが誤って操作するとき、操作をすぐに中断し、ユーザエクスペリエンスを向上させることができる。
図11は、本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートであり、該方法は、さらに、端末に建築物を連続的に建設させてもよく、端末に適用され、以下のS501~S507を含む。
ステップ501では、アプリケーションプログラムの第1の視点画面を表示する。
ステップ301を参照してください。ここで繰り返し説明しない。
ステップ502では、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信する。
ステップ302を参照してください。ここで繰り返し説明しない。
ステップ503では、第1の視点画面に連続建設ボタンコントロールをオーバーレイ表示する。
端末は、上記タッチ操作に基づいて、第1の視点画面に連続建設ボタンコントロールをオーバーレイ表示し、該連続建設ボタンコントロールは、ターゲット建築物を連続的且つ自動的に建設するためのものである。
ステップ504では、連続建設ボタンコントロールにおいてトリガーされた連続建設操作を受信する。
端末は、連続建設ボタンコントロールにおいてトリガーされた連続建設操作を受信する。
ステップ505では、連続建設操作に基づいて、現在の時点からn秒おきに、ターゲット建設位置にターゲット建築物を1回自動的に建設する。
端末は、連続建設操作のトリガーからn秒おきの時点を第1の時点として決定し、第1の時点からn秒おきの時点を第2の時点として決定し、第2の時点からn秒おきの時点を第3時点として決定し、このようにして、端末は、n秒おきに、i(正の整数)番目の時点を決定する。端末は、i番目の時点に、ターゲット建設位置にターゲット建築物を1回自動的に建設する。
好ましくは、端末は、n秒の間隔の時間内に、タッチ操作がドラッグされることに応じて、上記ドラッグ操作に基づいて、ターゲット建設位置を再決定し、再決定されたターゲット建設位置にターゲット建築物をn秒おきに1回自動的に建設する。
端末は、ターゲット建築物を連続的に建設する2つの時点の間隔がn秒であり、ユーザは、上記n秒の間隔内に、タッチ操作をドラッグしてもよく、タッチ操作に対するドラッグによって、仮想環境において仮想キャラクターの視点が位置する観察方向を変更し、これにより、新しい視点画面を決定し、新しい視点画面においてターゲット建設位置を決定し、n秒おきの上記2つの時点のうちの後の時点に、端末は、再決定されたターゲット建設位置にターゲット建築物を1回自動的に建設する。
ステップ506では、タッチ操作に対応するタッチリリース操作を受信する。
端末は、タッチ操作に対応するタッチリリース操作を受信する。
ステップ507では、タッチリリース操作に基づいて、ターゲット建築物の建設を終了する。
端末は、ユーザがタッチ操作し続けると、ターゲット建築物を連続的に建設し、タッチ操作に対応するタッチリリース操作を受信すると、ターゲット建築物の建設を終了する。
例示的には、図12に示すように、端末に第1の視点画面50を表示し、建築物ロッカーコントロール51がタッチ操作を受信すると、第1の視点画面50に連続建設ボタンコントロール55をオーバーレイ表示するとともに、第1の表示モードで表示されるターゲット建築物52を表示し、第1の時点に、ターゲット建築物52に対応した、第2の表示モードで表示されるターゲット建築物54を端末に表示し、端末は連続建設ボタンコントロール55の連続建設操作を受信し、第1の時点と第2の時点との間隔時間において、ユーザは、建築物ロッカーコントロール51によって、視点が位置する第1の観察方向から第2の観察方向に回動し、端末は、第2の視点画面57を表示し、第1の表示モードで表示されるターゲット建築物56を第2の視点画面57に表示し、端末は、第2の時点に、ターゲット建築物56に対応した、第2の表示モードで表示されるターゲット建築物58を第2の視点画面57に表示し、端末は、タッチ操作に対応するタッチリリース操作を受信し、ターゲット建築物の自動的な建設を終了する。
以上のように、本実施例に係る仮想環境において建築物を建設する方法は、視点を調整するとともに、ターゲット建設位置を調整し、視点調整とターゲット建設位置の調整を1つのステップに組み合わせて行い、ユーザの操作効率を向上させ、建築物の建設がより柔軟になり、ユーザエクスペリエンスを向上させる。
さらに建築物を自動的かつ連続的に建設することで、同じ建築物を繰り返して建設するときの重複ステップを節減し、ヒューマンコンピュータインタラクション効率を向上させる。
いくつかの実施例では、ユーザは、建築物ロッカーコントロールに対応するターゲット建築物に対してカスタマイズに設定することができ、図13を参照すると、本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートが示され、該方法は、端末に適用され、以下のS601~S605を含む
ステップ601では、アプリケーションプログラムの第1の視点画面を表示する。
ステップ301を参照してください。ここで繰り返し説明しない。
ステップ602では、建築物メニュー展開コントロールにおける展開操作を受信する。
端末は、建築物メニュー展開コントロールにおける展開操作を受信し、上記展開操作は、第1の視点画面に建築物メニューをオーバーレイ表示するためのものである。
ステップ603では、展開操作に基づいて建築物メニューを表示する。
端末は、展開操作に基づいて、第1の視点画面に建築物メニューをオーバーレイ表示し、上記建築物メニューには、少なくとも1つの候補建築物が含まれる。好ましくは、候補建築物は、仮想階段、仮想壁、仮想屋根、仮想床のうちの少なくとも1つを含む。
ステップ604では、少なくとも1つの候補建築物のうちの1つの候補建築物を選択する選択操作を受信する。
ステップ605では、選択された候補建築物をターゲット建築物として決定する。
端末は、上記選択操作に基づいて、選択された候補建築物をターゲット建築物として決定する。
例示的には、図14に示すように、第1の視点画面60には、ターゲット建築物に対応する建築物ロッカーコントロール61及び建築物メニュー展開コントロール62がオーバーレイ表示され、ここで、建築物ロッカーコントロール61には、候補建築物64のアイコンが対応して表示され、すなわち、このとき、候補建築物64がターゲット建築物であり、建築物メニュー展開コントロール62における展開操作を受信して、候補建築物63、候補建築物64及び候補建築物65が表示される候補建築物の表示ボックスを表示し、候補建築物63に対応するコントロールにおける選択操作を受信して、候補建築物63をターゲット建築物として決定し、このとき、建築物ロッカーコントロール61に候補建築物63のアイコンが対応して表示される。
以上のように、本実施例に係る仮想環境において建築物を建設する方法は、ターゲット建築物をカスタマイズに設定することで、クイックに建設する建築物タイプを選択し、異なる応用シーンに適され、ユーザの操作体験を向上させる。
図15は、本願の他の例示的な実施例に係る仮想環境において建築物を建設する方法のフローチャートであり、該方法は、端末に適用され、以下のS701~S712を含む。
ステップ701では、建築物ロッカーコントロールにおけるタッチ操作を受信する。
端末は、アプリケーションプログラムの第1の視点画面を表示し、該第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示される。端末は、建築物ロッカーコントロールにおけるタッチ操作を受信する。
ステップ702では、第1の視点の照準中心位置に建築物の虚像を表示する。
端末は、タッチ操作に基づいて第1の視点の照準中心位置にターゲット建築物の虚像を表示する。
ステップ703では、建築物を建設するか否かを決定する。
端末は、ターゲット建築物を建設するか否かを判断し、好ましくは、端末は、タッチ操作に対応するタッチリリース操作を受信すると、ターゲット建築物を建設すると決定して、ステップ704を実行し、そうでないと、ステップ707を実行する。
ステップ704では、現在位置に建築物を建設できるか否かを判断する。
端末は、現在の第1の視点の照準中心位置にターゲット建築物を建設できるか否かを判断する。仮想環境における第1の視点の照準中心位置にターゲット建築物を建設できないと、ステップ706を実行し、そうでないと、ステップ705を実行する。上記第1の視点の照準中心位置とは、照準中心が位置する方向と仮想環境における物体との交点である。
ステップ705では、建築物虚像が実物になる。
上記判断結果がYESであると、ターゲット建築物が虚像から仮想環境における実物に変換し、ターゲット建築物の建設が完了される。
ステップ706では、「現在の位置に建築物を建設できない」をフィードバックする。
仮想環境における第1の視点の照準中心位置にターゲット建築物を建設できないと、端末は、「現在の位置に建築物を建設できない」を通知する。好ましくは、端末は、第1の視点画面に「現在の位置に建築物を建設できない」をオーバーレイ表示する。
ステップ707では、建築物ロッカーコントロールを回動し続ける。
ユーザが建築物ロッカーコントロールを回動し続けて、仮想キャラクターの視点を調整する。
ステップ708では、シーンの視点が回動し、建築物の虚像が照準中心に追従して変わる。
仮想キャラクターの視点が変わると、仮想環境におけるシーンが変わり、それに対応する視点画面が変わり、ターゲット建築物が視点画面の照準中心位置に追従して変わる。好ましくは、端末に表示される第1の視点画面から第2の視点画面に回動する。
ステップ709では、建築物を建設するか否かを決定する。
ステップ703を参照してください。ここで繰り返し説明しない。なお、建築物を建設しないと端末が決定すると、ステップ708に戻る。
ステップ710では、現在位置に建築物を建設できるか否かを判断する。
ステップ704を参照してください。ここで繰り返し説明しない。
ステップ711では、建築物虚像が実物になる。
ステップ705を参照してください。ここで繰り返し説明しない。
ステップ712では、「現在の位置に建築物を建設できない」をフィードバックする。
ステップ706を参照してください。ここで繰り返し説明しない。
以上のように、本実施例に係る仮想環境において建築物を建設する方法は、アプリケーションプログラムの第1の視点画面を表示し、上記第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示され、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信して、タッチ操作に基づいてターゲット建築物のターゲット建設位置を決定し、タッチ操作に対応するタッチリリース操作を受信して、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。上記のターゲット建築物の建設過程において、ターゲット建築物に対応する建築物ロッカーコントロールによって、ユーザがタッチしてリリースする操作を1回行うと、第1の視点の照準中心位置にターゲット建築物の建設を完了することができ、アプリケーションプログラムの仮想環境においてターゲット建築物を迅速かつ効率的に建設することを実現し、通常のターゲット建築物の建設は3つのステップを実行する必要があり、これに比べると、2つのステップを減少させ、ヒューマンコンピュータインタラクション効率を向上させる。
図16は、本願の1つの例示的な実施例に係る仮想環境において建築物を建設する装置のブロック図であり、該装置は、ソフトウェア、ハードウェア、又は両者の組合せにより端末の一部又は全部を実現してもよく、該装置は、
アプリケーションプログラムの第1の視点画面を表示するための表示モジュール801であって、第1の視点画面は、仮想環境において仮想キャラクターの第1の視点で仮想環境を観察する画面であり、第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示される表示モジュール801と、
建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信するための受信モジュール802と、
タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定するための決定モジュール803と、
タッチ操作に対応するタッチリリース操作を受信するための受信モジュール802と、
タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設するための建設モジュール804とを含む。
いくつかの実施例では、表示モジュール801は、タッチ操作に基づいて、第1の視点が位置する第1の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定した後、ターゲット建築物の仮想モデルをターゲット建設位置に第1の表示モードで表示し、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設した後、ターゲット建築物の仮想モデルをターゲット建設位置に第2の表示モードで表示するためのものである。
いくつかの実施例では、表示モジュール801は、建設に影響を与える物体がターゲット建設位置に存在しないことに応じて、ターゲット建築物の仮想モデルをターゲット建設位置に第1の表示モードで表示するためのものである。
いくつかの実施例では、回動モジュール805は、タッチ操作がドラッグされることに応じて、仮想キャラクターを回転中心として、ドラッグ距離に基づいて第1の観察方向から第2の観察方向に回動するためのものであり、
表示モジュール801は、アプリケーションプログラムの第2の視点画面を表示するためのもので、第2の視点画面は、仮想環境において第2の観察方向での第2の視点で仮想環境を観察する画面であり、
決定モジュール803は、第2の観察方向でのターゲット距離の場所をターゲット建築物のターゲット建設位置として決定するためのものである。
いくつかの実施例では、第2の視点画面には、操作キャンセルボタンコントロールがさらにオーバーレイ表示され、
受信モジュール802は、操作キャンセルボタンコントロールにおいてトリガーされたキャンセル操作を受信するためのものであり、
表示モジュール801は、キャンセル操作に基づいて、第1の視点画面を再表示するためのものである。
いくつかの実施例では、表示モジュール801は、第1の視点画面に連続建設ボタンコントロールをオーバーレイ表示するためのものであり、
受信モジュール802は、連続建設ボタンコントロールにおいてトリガーされた連続建設操作を受信するためのものであり、
建設モジュール804は、連続建設操作に基づいて、現在の時点からn秒おきに、ターゲット建設位置にターゲット建築物を1回自動的に建設するためのものである。
いくつかの実施例では、決定モジュール803は、n秒の間隔の時間内に、タッチ操作がドラッグされることに応じて、ドラッグ操作に基づいてターゲット建設位置を再決定するためのものであり、
建設モジュール804は、再決定されたターゲット建設位置にターゲット建築物をn秒おきに1回自動的に建設するためのものである。
いくつかの実施例では、受信モジュール802は、タッチ操作に対応するタッチリリース操作を受信するためのものであり、
建設モジュール804は、タッチリリース操作に基づいて、ターゲット建築物の建設を終了するためのものであり。
いくつかの実施例では、第1の視点画面には、建築物メニュー展開コントロールがさらにオーバーレイ表示され、
受信モジュール802は、建築物メニュー展開コントロールにおける展開操作を受信するためのものであり、
表示モジュール801は、少なくとも1つの候補建築物が含まれる建築物メニューを展開操作に基づいて表示するためのものであり、
受信モジュール802は、少なくとも1つの候補建築物のうちの1つの候補建築物を選択する選択操作を受信するためのものであり、
決定モジュール803は、選択された候補建築物をターゲット建築物として決定するためのものである。
以上のように、本実施形態に係る仮想環境において建築物を建設する装置は、アプリケーションプログラムの第1の視点画面を表示し、上記第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示され、建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信して、タッチ操作に基づいてターゲット建築物のターゲット建設位置を決定し、タッチ操作に対応するタッチリリース操作を受信して、タッチリリース操作に基づいて、ターゲット建設位置にターゲット建築物を建設する。上記のターゲット建築物の建設過程において、ターゲット建築物に対応する建築物ロッカーコントロールによって、ユーザがタッチしてリリースする操作を1回行うと、第1の視点の照準中心位置にターゲット建築物の建設を完了することができ、アプリケーションプログラムの仮想環境においてターゲット建築物を迅速かつ効率的に建設することを実現し、通常のターゲット建築物の建設は3つのステップを実行する必要があり、これに比べると、2つのステップを減少させ、ヒューマンコンピュータインタラクション効率を向上させる。
図17は、本発明の1つの例示的な実施例に係る端末900の構成ブロック図を示す。該端末900は、スマートフォン、タブレットPC、動画専門家集団オーディオレイヤ3(Moving Picture Experts Group Audio Layer III、MP3)プレーヤ、動画専門家集団オーディオレイヤ4(Moving Picture Experts Group Audio Layer IV、MP4)プレーヤ、ノートパソコンまたはデスクトップパソコンであってもよい。端末900は、さらに、ユーザ機器、ポータブル端末、ラップトップ端末、デスク型端末などのその他の名称と呼ばれる可能性がある。
通常、端末900は、プロセッサ901とメモリ902とを含む。
プロセッサ901は、1つまたは複数のプロセスコアを含んでもよく、例えば、4コアプロセッサ、8コアプロセッサなどである。プロセッサ901は、デジタルシグナルプロセッサ(Digital Signal Processing、DSP)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array、FPGA)、プログラマブルロジックアレイ(Programmable Logic Array、PLA)のうちの少なくとも1つのハードウェア形態で実現されてもよい。プロセッサ901は、メインプロセッサ及びコプロセッサを含んでもよく、メインプロセッサは、覚醒状態でのデータを処理するためのプロセッサであり、中央処理装置(Central Processing Unit、CPU)とも呼ばれ、コプロセッサは、待機状態でのデータを処理するための低消費電力プロセッサである。いくつかの実施例では、プロセッサ901には、ディスプレイスクリーンに表示される必要があるコンテンツのレンダリング及び作成用の画像プロセッサ(Graphics Processing Unit、GPU)が集積されてもよい。いくつかの実施例では、プロセッサ901は、機器学習に関する演算操作を処理するための人工知能(Artificial Intelligence、Al)プロセッサを含んでもよい。
メモリ902は、1つまたは複数のコンピュータ読み取り可能な記憶媒体を含んでもよく、該コンピュータ読み取り可能な記憶媒体は非一時的なものであってもよい。メモリ902は、1つまたは複数のディスクストレージデバイス、フラッシュストレージデバイスなど、高速ランダムアクセスメモリ、及び不揮発性メモリをさらに含んでもよい。いくつかの実施例では、メモリ902における非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令を記憶するためのものであり、該少なくとも1つの命令は、プロセッサ901により実行され、本願の方法の実施例に係る仮想環境において建築物を建設する方法を実現する。
いくつかの実施例では、端末900は、さらに、周辺機器インタフェース903及び少なくとも1つの周辺機器を含んでもよい。プロセッサ901、メモリ902及び周辺機器インタフェース903は、バスまたは信号線を介して接続されてもよい。各周辺機器は、バス、信号線または回路基板を介して周辺機器インタフェース903に接続されてもよい。具体的には、周辺機器は、RF回路904、タッチディスプレイスクリーン905、カメラ906、音声回路907、ポジショニングコンポーネント908及び電源909のうちの少なくとも1つを含む。
周辺機器インタフェース903は、入力/出力(Input /Output、I/O)に関連する少なくとも1つの周辺機器をプロセッサ901及びメモリ902に接続するために用いられてもよい。いくつかの実施例では、プロセッサ901、メモリ902及び周辺機器インタフェース903は、同じチップまたは回路基板に集積され、いくつかの他の実施例では、プロセッサ901、メモリ902及び周辺機器インタフェース903のうちのいずれか1つまたは2つは、独立したチップまたは回路基板において実現されてもよく、本実施例は、これについて限定しない。
RF回路904は、電磁信号とも呼ばれる無線周波数(Radio Frequency、RF)信号を受送信するためのものである。RF回路904は、電磁信号を介して通信ネットワーク及び他の通信機器と通信する。RF回路904は、電気信号を電磁信号に変換して送信する、または、受信した電磁信号を電気信号に変換する。好ましくは、RF回路904は、アンテナシステム、RF送受信機、1つまたは複数のアンプ、チューナー、発振器、デジタル信号プロセッサ、コーデックチップセット、ユーザIDモジュールカードなどを含む。RF回路904は、少なくとも1つの無線通信プロトコルを介して他の端末と通信してもよい。該無線通信プロトコルは、ワールドワイドウェッブ、メトロポリタンエリアネットワーク、イントラネット、各世代のモバイル通信ネットワーク(2G、3G、4G及び5G)、ワイヤレスLAN及び/またはワイヤレスフィデリテ(Wireless Fidelity、WiFi)ネットワークを含むがこれらに限られない。いくつかの実施例では、RF回路904は、さらに、近距離ワイヤレス通信(Near Field Communication、NFC)に関する回路を含むが、本願はこれについて限定しない。
ディスプレイスクリーン905は、ユーザインタフェース(User Interface、UI)を表示するためのものである。該UIは、グラフィックス、テキスト、アイコン、ビデオ及びそれらの任意の組合せを含んでもよい。ディスプレイスクリーン905は、タッチディスプレイスクリーンである場合、ディスプレイスクリーン905の表面または表面の上方のタッチ信号を収集する機能を有する。該タッチ信号は、制御信号としてプロセッサ901に入力されて処理されてもよい。この場合、ディスプレイスクリーン905は、ソフトボタン及び/またはソフトキーボードとも呼ばれる仮想ボタン及び/または仮想キーボードを提供するためのものであってもよい。いくつかの実施例では、ディスプレイスクリーン905は、1つであってもよく、端末900のフロントパネルに設けられ、他のいくつかの実施例では、ディスプレイスクリーン905は、少なくとも2つであってもよく、それぞれ端末900の異なる表面に設けられ、また他のいくつかの実施例では、ディスプレイスクリーン905は、柔軟性ディスプレイスクリーンであってもよく、端末900の曲がり面または折り畳み面に設けられる。ひいては、ディスプレイスクリーン905は、長方形ではない不規則形状、すなわち、異形スクリーンとして設けられてもよい。ディスプレイスクリーン905は、液晶ディスプレイスクリーン(Liquid Crystal Display、LCD)、有機発光ダイオード(Organic Light-Emitting Diode、OLED)などの材質で製造されてもよい。
カメラアセンブリ906は、画像またはビデオを収集するためのものである。好ましくは、カメラアセンブリ906は、フロントカメラ及びリアカメラを含む。通常、フロントカメラは端末のフロントパネルに設けられ、リアカメラは端末の裏面に設けられる。いくつかの実施例では、リアカメラは、少なくとも2つであり、それぞれメインカメラ、DOFカメラ、広角カメラ、テレフォトカメラのうちのいずれかであり、メインカメラとDOFカメラの組合せで、背景ぼかし機能を実現し、メインカメラと広角カメラの組合せで、パノラマ撮影及びバーチャルリアリティー(Virtual Reality、VR)撮影機能または他の組合せ撮影機能を実現する。いくつかの実施例では、カメラアセンブリ906は、フラッシュランプをさらに含んでもよい。フラッシュランプは、単一色温度フラッシュランプであってもよく、二重色温度フラッシュランプであってもよい。二重色温度フラッシュランプは、ウォームラッシュランプ及びコールドフラッシュの組合せであり、異なる色温度での光補償に用いられる。
音声回路907は、マイクロホン及びスピーカを含んでもよい。マイクロホンは、ユーザ及び環境の音波を収集し、音波を電気信号に変換してプロセッサ901に入力して処理する、又は、RF回路904に入力して音声通信を実現するためのものである。ステレオ収集またはノイズ低減の目的から、マイクロホンは、複数であってもよく、それぞれ端末900の異なる箇所に設けられる。マイクロホンは、さらに、アレイマイクロホンまたはステレオ収集型マイクロホンであってもよい。スピーカは、プロセッサ901またはRF回路904からの電気信号を音波に変換するためのものである。スピーカは、従来の薄膜スピーカであってもよいし、圧電セラミックスピーカであってもよい。スピーカが圧電セラミックスピーカである場合、電気信号を人間が聞こえる音波に変換するだけでなく、距離測定などの用途のために、電気信号を人間が聞こえない音波にも変換する。いくつかの実施例では、音声回路907は、さらに、イヤホンジャックを含んでもよい。
ポジショニングコンポーネント908は、ナビゲーションまたは位置によるサービス(Location Based Service、LBS)を実現するように、端末900の現在の地理的位置をポジショニングするためのものである。ポジショニングコンポーネント908は、アメリカのグローバルポジショニングシステム(Global Positioning System、GPS)、中国の北斗システムまたはロシアのガリレオシステムベースによるポジショニングコンポーネントであってもよい。
電源909は、端末900における各コンポーネントに給電するためのものである。電源909は、交流電気、直流電流、使い捨て電池または充電式電池であってもよい。電源909が充電式電池を含む場合、該充電式電池は、有線充電電池またはワイヤレス充電電池であってもよい。有線充電電池は、有線線路を介して充電する電池であり、ワイヤレス充電電池は、ワイヤレスコイルを介して充電する電池である。該充電式電池は、さらに、急速充電技術をサポートするために用いられてもよい。
いくつかの実施例では、端末900は、1つまたは複数のセンサ910をさらに含む。該1つまたは複数のセンサ910は、加速度センサ911、ジャイロスコープセンサ912、圧力センサ913、指紋センサ914、光学センサ915及び近接センサ916を含むがこれらに限られない。
加速度センサ911は、端末900で作成される座標系の3つの座標軸での加速度の大きさを検出することができる。例えば、加速度センサ911は、3つの座標軸での重力加速度の成分を検出することができる。プロセッサ901は、加速度センサ911により収集された重力加速度信号に基づいて、横方向ビューまたは縦方向ビューでユーザインタフェースを表示するようにタッチディスプレイスクリーン905を制御してもよい。加速度センサ911は、さらに、ゲーム又はユーザの運動データを収集するために用いられてもよい。
ジャイロスコープセンサ912は、端末900の本体方向及び回動角度を検出することができ、加速度センサ911とともに端末900に対するユーザの3D動作を収集することができる。プロセッサ901は、ジャイロスコープセンサ912により収集されたデータに基づいて、動作センシング(例えば、ユーザの傾斜操作に基づいてUIを変更する)、撮影際の画像安定化、ゲーム制御及び慣性航法のような機能を実現することができる。
圧力センサ913は端末900のサイドフレーム及び/またはタッチディスプレイスクリーン905の下層に設けられてもよい。圧力センサ913が端末900のサイドフレームに設けられた場合、端末900に対するユーザによる把持信号を検出することができ、プロセッサ901が圧力センサ913により収集された把持信号に基づいて左右手の認識またはクイック操作を行う。圧力センサ913がタッチディスプレイスクリーン905の下層に設けられた場合、プロセッサ901がタッチディスプレイスクリーン905に対するユーザの圧力操作に基づいて、UIインタフェースにおける操作可能なコントロールを制御することができる。操作可能なコントロールは、ボタンコントロール、スクロールバーコントロール、アイコンコントロール、メニューコントロールのうちの少なくとも1つを含む。
指紋センサ914はユーザの指紋を収集するためのものであり、プロセッサ901が指紋センサ914により収集された指紋に基づいてユーザの身元を認識する、又は、指紋センサ914が収集された指紋に基づいてユーザの身元を認識する。ユーザの身元が信頼できる身元であると認識すると、プロセッサ901は、関連する機密操作を実行することを該ユーザに許可し、該機密操作は、画面アンロック、暗号化情報の確認、ソフトウェアダウンロード、支払い及び設定変更などを含む。指紋センサ914は端末900の正面、裏面または側面に設けられてもよい。端末900に物理ボタンまたはメーカーLogoが設けられると、指紋センサ914は物理ボタンまたはメーカーLogoに集積されてもよい。
光学センサ915は、環境光量を収集するためのものである。1つの実施例では、プロセッサ901は、光学センサ915により収集された環境光量に基づいて、タッチディスプレイスクリーン905の表示明るさを制御してもよい。具体的には、環境光量が高いと、タッチディスプレイスクリーン905の表示明るさを高くし、環境光量が低いと、タッチディスプレイスクリーン905の表示明るさを低くする。他の実施例では、プロセッサ901は、さらに、光学センサ915により収集された環境光量に基づいて、カメラコンポーネント906の撮影パラメータを動的に調整してもよい。
近接センサ916は、距離センサとも呼ばれ、通常、端末900のフロントパネルに設けられる。近接センサ916は、ユーザと端末900の正面との間の距離を収集するためのものである。1つの実施例では、プロセッサ901は、ユーザと端末900の正面との間の距離が徐々に小さくなることが近接センサ916により検出されると、タッチディスプレイスクリーン905が点灯状態から消灯状態に切り替えるように制御し、ユーザと端末900の正面との間の距離が徐々に大きくなることが近接センサ916により検出されると、タッチディスプレイスクリーン905が消灯状態から点灯状態に切り替えるように制御する。
当業者にとって理解できることは、図17に示す構造は、端末900を限定しなく、図に示されているものより多いまたは少ないコンポーネントを含む、又は一部のコンポーネントを組合せる、又は異なるコンポーネントで構成されてもよい。
当業者にとって理解できることは、上記実施例の様々な方法の全部または一部のステップは、プログラムにより関連ハードウェアを命令して実行されてもよく、該プログラムはコンピュータ読み取り可能な記憶媒体に記憶されてもよく、該コンピュータ読み取り可能な記憶媒体は、上記実施例のメモリに含まれるコンピュータ読み取り可能な記憶媒体であってもよいし、独立して存在して、端末に組み立てされていないコンピュータ読み取り可能な記憶媒体であってもよい。該コンピュータ読み取り可能な記憶媒体に少なくとも1つの命令、少なくとも1つのプログラム、コードセットまたは命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセットまたは命令セットが前記プロセッサによりロードされて実行されて、図3~図15のいずれかに記載の仮想環境において建築物を建設する方法を実現する。
好ましくは、該コンピュータ読み取り可能な記憶媒体は、読み出し専用メモリ(Read Only Memory、ROM)、ランダムアクセスメモリバンク(Random Access Memory、RAM)、ソリッドステートドライブ(Solid State Drives、SSD)またはディスクなどを含んでもよい。ここで、ランダムアクセスメモリバンクは、抵抗変化型メモリ(Resistance Random Access Memory、ReRAM)及び動的ランダムアクセスメモリ(Dynamic Random Access Memory、DRAM)を含んでもよい。上記本願の実施例の番号は、説明するためのものにすぎず、実施形態の優劣を代表しない。
当業者にとって理解できることは、上記実施例の全部または一部のステップはハードウェアによって実行されてもよく、プログラムにより関連ハードウェアを命令して実行されてもよく、前記プログラムはコンピュータ読み取り可能な記憶媒体に記憶されてもよいし、上記の記憶媒体は読み出し専用メモリ、フロッピーディスクまたはディスクなどであってもよい。
以上は、本願の好ましい実施例にすぎず、本願を制限するためのものではなく、本願の要旨及び原則内に行われた全ての修正、等価置換や改良などは、全部本願の請求範囲に含まれるべきである。

Claims (12)

  1. アプリケーションプログラムの第1の視点画面を表示するステップであって、前記第1の視点画面は、仮想環境において仮想キャラクターの第1の視点で前記仮想環境を観察する画面であり、前記第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示されるステップと、
    前記建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信するステップと、
    前記タッチ操作に基づいて、前記第1の視点が位置する第1の観察方向でのターゲット距離の場所を前記ターゲット建築物のターゲット建設位置として決定するステップと、
    前記タッチ操作に対応するタッチリリース操作を受信するステップと、
    前記タッチリリース操作に基づいて、前記ターゲット建設位置に前記ターゲット建築物を建設するステップとを含む、
    ことを特徴とする仮想環境において建築物を建設する方法。
  2. 前記タッチ操作に基づいて、前記第1の視点が位置する第1の観察方向でのターゲット距離の場所を前記ターゲット建築物のターゲット建設位置として決定する前記ステップの後には、
    前記ターゲット建築物の仮想モデルを前記ターゲット建設位置に第1の表示モードで表示するステップをさらに含み、
    前記タッチリリース操作に基づいて、前記ターゲット建設位置に前記ターゲット建築物を建設する前記ステップの後には、
    前記ターゲット建築物の仮想モデルを前記ターゲット建設位置に第2の表示モードで表示するステップをさらに含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記ターゲット建築物の仮想モデルを前記ターゲット建設位置に第1の表示モードで表示する前記ステップは、
    建設に影響を与える物体が前記ターゲット建設位置に存在しないことに応じて、前記ターゲット建築物の仮想モデルを前記ターゲット建設位置に第1の表示モードで表示するステップを含む、
    ことを特徴とする請求項2に記載の方法。
  4. 前記建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信する前記ステップの後には、
    前記タッチ操作がドラッグされることに応じて、前記仮想キャラクターを回転中心として、ドラッグ距離に基づいて前記第1の観察方向から第2の観察方向に回動するステップと、
    前記アプリケーションプログラムの第2の視点画面を表示するステップであって、前記第2の視点画面は、前記仮想環境において前記第2の観察方向での第2の視点で前記仮想環境を観察する画面であるステップと、
    前記第2の観察方向での前記ターゲット距離の場所を前記ターゲット建築物のターゲット建設位置として決定するステップとをさらに含む、
    ことを特徴とする請求項1~3のいずれかに記載の方法。
  5. 前記第2の視点画面には、操作キャンセルボタンコントロールがさらにオーバーレイ表示され、
    前記タッチ操作に対応するタッチリリース操作を受信する前記ステップの前には、
    前記操作キャンセルボタンコントロールにおいてトリガーされたキャンセル操作を受信するステップと、
    前記キャンセル操作に基づいて、前記第1の視点画面を再表示するステップとを含む、
    ことを特徴とする請求項4に記載の方法。
  6. 前記建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信する前記ステップの後には、
    前記第1の視点画面に連続建設ボタンコントロールをオーバーレイ表示するステップと、
    前記連続建設ボタンコントロールにおいてトリガーされた連続建設操作を受信するステップと、
    前記連続建設操作に基づいて、現在の時点からn秒おきに、前記ターゲット建設位置に前記ターゲット建築物を1回自動的に建設するステップとを含む、
    ことを特徴とする請求項1~5のいずれかに記載の方法。
  7. 前記連続建設操作に基づいて、現在の時点からn秒おきに、前記ターゲット建設位置に前記ターゲット建築物を1回自動的に建設する前記ステップは、
    n秒の間隔の時間内に、前記タッチ操作がドラッグされることに応じて、前記ドラッグ操作に基づいて前記ターゲット建設位置を再決定するステップと、
    再決定されたターゲット建設位置に前記ターゲット建築物をn秒おきに1回自動的に建設するステップとを含む、
    ことを特徴とする請求項6に記載の方法。
  8. 再決定されたターゲット建設位置に前記ターゲット建築物をn秒おきに1回自動的に建設する前記ステップの後には、
    前記タッチ操作に対応する前記タッチリリース操作を受信するステップと、
    前記タッチリリース操作に基づいて、前記ターゲット建築物の建設を終了するステップとを含む、
    ことを特徴とする請求項7に記載の方法。
  9. 前記第1の視点画面には、建築物メニュー展開コントロールがさらにオーバーレイ表示され、
    アプリケーションプログラムの第1の視点画面を表示する前記ステップの後には、
    前記建築物メニュー展開コントロールにおける展開操作を受信するステップと、
    建築物メニューを展開操作に基づいて表示するステップであって、前記建築物メニューには少なくとも1つの候補建築物が含まれるステップと、
    前記少なくとも1つの候補建築物のうちの1つの候補建築物を選択する選択操作を受信するステップと、
    選択された候補建築物を前記ターゲット建築物として決定するステップとを含む、
    ことを特徴とする請求項1~8のいずれかに記載の方法。
  10. アプリケーションプログラムの第1の視点画面を表示するための表示モジュールであって、前記第1の視点画面は、仮想環境において仮想キャラクターの第1の視点で前記仮想環境を観察する画面であり、前記第1の視点画面には、ターゲット建築物に対応する建築物ロッカーコントロールがオーバーレイ表示される表示モジュールと、
    前記建築物ロッカーコントロールにおいてトリガーされたタッチ操作を受信するための受信モジュールと、
    前記タッチ操作に基づいて、前記第1の視点が位置する第1の観察方向でのターゲット距離の場所を前記ターゲット建築物のターゲット建設位置として決定するための決定モジュールと、
    前記タッチ操作に対応するタッチリリース操作を受信するための前記受信モジュールと、
    前記タッチリリース操作に基づいて、前記ターゲット建設位置に前記ターゲット建築物を建設するための建設モジュールとを含む、
    ことを特徴とする仮想環境において建築物を建設する装置。
  11. プロセッサとメモリとを含み、前記メモリに少なくとも1つの命令、少なくとも一つのプログラム、コードセットまたは命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも一つのプログラム、前記コードセットまたは命令セットが前記プロセッサによりロードされて実行されて、請求項1~9のいずれかに記載の仮想環境において建築物を建設する方法を実現する、
    ことを特徴とする端末。
  12. プロセッサによりロードされて実行されると、請求項1~9のいずれかに記載の仮想環境において建築物を建設する方法を実現する、
    ことを特徴とするコンピュータプログラム。
JP2021521495A 2019-01-30 2020-01-17 仮想環境において建築物を建設する方法、装置、機器及びプログラム Active JP7224459B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910093429.2 2019-01-30
CN201910093429.2A CN109840043B (zh) 2019-01-30 2019-01-30 在虚拟环境中建造建筑物的方法、装置、设备及存储介质
PCT/CN2020/072821 WO2020156252A1 (zh) 2019-01-30 2020-01-17 在虚拟环境中建造建筑物的方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022505457A true JP2022505457A (ja) 2022-01-14
JP7224459B2 JP7224459B2 (ja) 2023-02-17

Family

ID=66884508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021521495A Active JP7224459B2 (ja) 2019-01-30 2020-01-17 仮想環境において建築物を建設する方法、装置、機器及びプログラム

Country Status (4)

Country Link
US (2) US11675488B2 (ja)
JP (1) JP7224459B2 (ja)
CN (1) CN109840043B (ja)
WO (1) WO2020156252A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840043B (zh) 2019-01-30 2021-08-10 腾讯科技(深圳)有限公司 在虚拟环境中建造建筑物的方法、装置、设备及存储介质
CN111481934B (zh) * 2020-04-09 2023-02-10 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
CN113633991B (zh) * 2021-08-13 2023-11-03 腾讯科技(深圳)有限公司 虚拟技能的控制方法、装置、设备及计算机可读存储介质
CN113867407B (zh) * 2021-11-10 2024-04-09 广东电网能源发展有限公司 基于无人机的施工辅助方法、系统、智能设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248843A (ja) * 2002-12-24 2003-09-05 Fujitsu Ltd 仮想3次元空間内における物体編集制御方式
JP2005293474A (ja) * 2004-04-05 2005-10-20 Canon Inc 情報処理装置及びその制御方法及びプログラム及び記憶媒体
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device
JP2016193216A (ja) * 2016-06-20 2016-11-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP2017000575A (ja) * 2015-06-12 2017-01-05 株式会社コロプラ コンピュータプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7625287B2 (en) * 2005-10-05 2009-12-01 Nintendo Co., Ltd. Driving game steering wheel simulation method and apparatus
JP5371626B2 (ja) * 2009-08-18 2013-12-18 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
US9411509B2 (en) * 2010-12-29 2016-08-09 Microsoft Technology Licensing, Llc Virtual controller for touch display
JP2012168932A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
US9004997B1 (en) * 2014-03-12 2015-04-14 Wargaming.Net Llp Providing enhanced game mechanics
WO2015171903A1 (en) * 2014-05-07 2015-11-12 Modular North America, LLC 3d interactive construction estimating system
KR101650269B1 (ko) * 2015-03-12 2016-08-22 라인 가부시키가이샤 화면 제어를 위한 효율적인 인터페이스를 제공하는 시스템 및 방법
CN105760076B (zh) * 2016-02-03 2018-09-04 网易(杭州)网络有限公司 游戏控制方法及装置
US20170354887A1 (en) * 2016-06-08 2017-12-14 Bruce Bollermann Systems & methods for parachute flight simulation
US10515479B2 (en) * 2016-11-01 2019-12-24 Purdue Research Foundation Collaborative 3D modeling system
CN106598465A (zh) * 2016-12-20 2017-04-26 上海逗屋网络科技有限公司 基于虚拟摇杆的控制方法、装置和设备
CN106975219B (zh) * 2017-03-27 2019-02-12 网易(杭州)网络有限公司 游戏画面的显示控制方法及装置、存储介质、电子设备
CN108245885B (zh) * 2017-12-29 2019-03-08 网易(杭州)网络有限公司 信息处理方法、装置、移动终端和存储介质
CN108355353B (zh) * 2017-12-29 2019-10-29 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN108379837A (zh) * 2018-02-01 2018-08-10 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN108499105B (zh) * 2018-04-16 2022-02-25 腾讯科技(深圳)有限公司 在虚拟环境中进行视角调整的方法、装置及存储介质
US11532141B1 (en) * 2018-05-25 2022-12-20 Strukshur Inc. AR/VR interface for client/contractor communication platform
CN109840043B (zh) * 2019-01-30 2021-08-10 腾讯科技(深圳)有限公司 在虚拟环境中建造建筑物的方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248843A (ja) * 2002-12-24 2003-09-05 Fujitsu Ltd 仮想3次元空間内における物体編集制御方式
JP2005293474A (ja) * 2004-04-05 2005-10-20 Canon Inc 情報処理装置及びその制御方法及びプログラム及び記憶媒体
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device
JP2012501016A (ja) * 2008-08-22 2012-01-12 グーグル インコーポレイテッド モバイルデバイス上の3次元環境内でのナビゲーション
JP2017000575A (ja) * 2015-06-12 2017-01-05 株式会社コロプラ コンピュータプログラム
JP2016193216A (ja) * 2016-06-20 2016-11-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム

Also Published As

Publication number Publication date
CN109840043A (zh) 2019-06-04
US11675488B2 (en) 2023-06-13
WO2020156252A1 (zh) 2020-08-06
US20210232299A1 (en) 2021-07-29
CN109840043B (zh) 2021-08-10
JP7224459B2 (ja) 2023-02-17
US20230251771A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
JP7098001B2 (ja) 仮想シーンにおける距離情報表示方法並びにその、端末コンピュータ装置及びコンピュータプログラム
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
WO2019153750A1 (zh) 用于对虚拟环境进行视角切换的方法、装置、设备及存储介质
CN109529319B (zh) 界面控件的显示方法、设备及存储介质
WO2019201047A1 (zh) 在虚拟环境中进行视角调整的方法、装置及可读存储介质
JP7476109B2 (ja) 仮想オブジェクトと仮想シーンとのインタラクションの制御方法、装置、端末及びコンピュータプログラム
CN108710525B (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
CN111921197B (zh) 对局回放画面的显示方法、装置、终端及存储介质
JP7224459B2 (ja) 仮想環境において建築物を建設する方法、装置、機器及びプログラム
CN111589142A (zh) 虚拟对象的控制方法、装置、设备及介质
CN111603770B (zh) 虚拟环境画面的显示方法、装置、设备及介质
CN112402949B (zh) 虚拟对象的技能释放方法、装置、终端及存储介质
JP2022509634A (ja) 仮想環境における仮想アイテムの観察方法、装置およびコンピュータプログラム
CN109917910B (zh) 线型技能的显示方法、装置、设备及存储介质
TWI802978B (zh) 應用程式內的控制項位置調整方法及裝置、設備及存儲介質
JP7309913B2 (ja) 視点回転の方法、装置、端末およびコンピュータプラグラム
CN109407959B (zh) 虚拟场景中的虚拟对象控制方法、设备以及存储介质
CN111589141B (zh) 虚拟环境画面的显示方法、装置、设备及介质
CN112843679A (zh) 虚拟对象的技能释放方法、装置、设备及介质
JP2021535824A (ja) 視角回転の方法、装置及びコンピュータプログラム
JP2022524802A (ja) 仮想環境におけるスコープの適用方法及び装置並びにコンピュータ装置及びプログラム
JP2024509064A (ja) 位置マークの表示方法及び装置、機器並びにコンピュータプログラム
CN112451969A (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
WO2022237076A1 (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
CN111672115B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230207

R150 Certificate of patent or registration of utility model

Ref document number: 7224459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150