JP7384521B2 - 仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム - Google Patents

仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム Download PDF

Info

Publication number
JP7384521B2
JP7384521B2 JP2021563357A JP2021563357A JP7384521B2 JP 7384521 B2 JP7384521 B2 JP 7384521B2 JP 2021563357 A JP2021563357 A JP 2021563357A JP 2021563357 A JP2021563357 A JP 2021563357A JP 7384521 B2 JP7384521 B2 JP 7384521B2
Authority
JP
Japan
Prior art keywords
touch
virtual object
determining
positions
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021563357A
Other languages
English (en)
Other versions
JP2022540278A (ja
Inventor
▲勳▼ 胡
▲ユ▼林 万
建苗 翁
山▲東▼ 粟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022540278A publication Critical patent/JP2022540278A/ja
Application granted granted Critical
Publication of JP7384521B2 publication Critical patent/JP7384521B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本願の実施例はコンピュータの技術分野に関し、特に仮想オブジェクトの制御方法、装置、コンピュータ機器及び記憶媒体に関する。
本願は2020年6月5日に中国特許庁に提出された、出願番号が第202010507467.0であり、発明の名称が「仮想オブジェクトの制御方法、装置、コンピュータ機器及び記憶媒体」である中国特許出願の優先権を主張し、その全内容は引用によって本願に組み込まれる。
コンピュータ技術の発展及び電子ゲームの広い普及に伴って、電子ゲームにおいて仮想オブジェクトが様々な操作を実行するように制御することができ、ゲームの効果を大幅に向上させる。ここで、スキル解放操作は一般的な操作であり、ユーザは仮想オブジェクトが照準方向に応じてスキルを解放するように制御することができ、スキルを解放する前に照準方向を決定する必要がある。
ユーザは通常、指を使用してタッチ制御領域でタッチ操作を実行し、それによりタッチ操作のタッチ位置に基づいて照準方向を決定する。しかし、指とタッチ制御領域との接触面積が大きいため、タッチ位置が制御しにくく、実際のタッチ位置とユーザが所望するタッチ位置との不一致を引き起こしやすく、それにより照準方向が不正確になることを引き起こす。
本願の実施例は仮想オブジェクトの制御方法、装置、コンピュータ機器及び記憶媒体を提供し、照準方向の正確率を向上させる。
各実施例は仮想オブジェクトの制御方法を提供し、前記方法は、
タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作が通過した少なくとも2つのタッチ位置を決定するステップであって、前記少なくとも2つのタッチ位置は前記タッチ操作が最後に通過したプリセット数のタッチ位置から選択される、ステップと、
プリセットポリシーに基づいて前記少なくとも2つのタッチ位置に対して合併を行うことにより、前記タッチ操作の目標タッチ位置を決定するステップと、
前記目標タッチ位置が指示する第1照準方向を決定するステップと、
第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御するステップと、を含む。
各実施例は照準情報取得装置をさらに提供し、前記装置は、タッチ位置決定モジュールと、目標位置決定モジュールと、第1方向決定モジュールと、第1制御モジュールと、を含み、
前記タッチ位置決定モジュールは、タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作が通過した少なくとも2つのタッチ位置を決定することに用いられ、前記少なくとも2つのタッチ位置は前記タッチ操作が最後に通過したプリセット数のタッチ位置から選択され、
前記目標位置決定モジュールは、プリセットポリシーに基づいて前記少なくとも2つのタッチ位置に対して合併を行うことにより、前記タッチ操作の目標タッチ位置を決定することに用いられ、
前記第1方向決定モジュールは、前記目標タッチ位置が指示する第1照準方向を決定することに用いられ、
前記第1制御モジュールは、第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御することに用いられる。
各実施例はコンピュータ機器をさらに提供し、前記コンピュータ機器はプロセッサ及びメモリを含み、前記メモリに少なくとも1つの命令が記憶されており、前記少なくとも1つの命令は前記プロセッサによりロードされ且つ実行されることにより、前記仮想オブジェクトの制御方法で実行される操作を実現する。
各実施例はコンピュータ可読記憶媒体をさらに提供し、前記コンピュータ可読記憶媒体に少なくとも1つの命令が記憶されており、前記少なくとも1つの命令はプロセッサによりロードされ且つ実行されることにより、前記仮想オブジェクトの制御方法で実行される操作を実現する。
本願の実施例が提供する方法、装置、コンピュータ機器及び記憶媒体は、タッチ制御領域でのタッチ操作の最後1つのタッチ位置のみに基づいて照準方向を決定することではなく、タッチ操作の少なくとも2つのタッチ位置を決定し、該少なくとも2つのタッチ位置を総合的に考慮して目標タッチ位置を決定し、ユーザの誤操作のために生じた最後1つのタッチ位置とユーザが所望するタッチ位置とが一致しない状況を回避し、獲得された目標タッチ位置はユーザが所望するタッチ位置を反映することができる。それにより目標タッチ位置が指示する照準方向はユーザのニーズをよりよく満たすことができ、照準方向の正確率を向上させ、その後、決定された照準方向に応じて、第1仮想オブジェクトがスキル解放操作を実行するように制御し、第1仮想オブジェクトのスキル解放操作に対する制御もより正確である。
本願の実施例の技術的手段をより明確に説明するために、以下、実施例の記述に使用される必要がある図面に対して簡単な紹介を行い、明らかなように、以下の記述における図面は本願の実施例のいくつかの実施例に過ぎず、当業者にとっては、創造的な労働を必要としない前提下で、これらの図面に基づいて他の図面を取得することもできる。
本願の実施例が適用できる1つの実施環境の構成図である。 本願の実施例が提供する仮想オブジェクトの制御方法のフローチャートである。 本願の実施例が提供する別の仮想オブジェクトの制御方法のフローチャートである。 本願の実施例が提供する仮想シーンインターフェースの模式図である。 本願の実施例が提供するタッチ制御領域の模式図である。 本願の実施例が提供する別の仮想シーンインターフェースの模式図である。 本願の実施例が提供する別の仮想シーンインターフェースの模式図である。 本願の実施例が提供する別の仮想シーンインターフェースの模式図である。 本願の実施例が提供する別の仮想シーンインターフェースの模式図である。 本願の実施例が提供する別の仮想シーンインターフェースの模式図である。 本願の実施例が提供する別の仮想シーンインターフェースの模式図である。 本願の実施例が提供する別の仮想シーンインターフェースの模式図である。 本願の実施例が提供する別の仮想シーンインターフェースの模式図である。 本願の実施例が提供する仮想オブジェクトがスキルを解放するように制御するフローチャートである。 本願の実施例が提供する別のタッチ領域の模式図である。 本願の実施例が提供する別のタッチ領域の模式図である。 本願の実施例が提供する目標タッチ位置を決定するフローチャートである。 本願の実施例が提供する仮想オブジェクトの制御装置の構造模式図である。 本願の実施例が提供する別の仮想オブジェクトの制御装置の構造模式図である。 本願の実施例が提供する端末の構造模式図である。 本願の実施例が提供するサーバの構造模式図である。
本願の実施例の目的、技術的手段及び利点をより明確にするために、以下、図面と併せて本願の実施形態をさらに詳細に記述する。
理解できるように、本願で使用される「第1」、「第2」等の用語は本明細書で各種の概念を記述することに用いることができるが、特に説明しない限り、これらの概念はこれらの用語により制限されない。これらの用語は1つの概念と別の概念とを区別することのみに用いられる。例を挙げると、本願の範囲から逸脱しない状況下で、第1仮想オブジェクトを第2仮想オブジェクトと呼んでもよく、第2仮想オブジェクトを第1仮想オブジェクトと呼んでもよい。
本願の実施例を理解しやすくするために、本願の実施例に係る名詞に対して解釈する。
マルチプレイヤーオンラインバトルアリーナ:仮想シーンにおいて、少なくとも2つの敵対する陣営はそれぞれ各自の地図領域を占拠し、ある勝利条件を目標として競技を行う。該勝利条件は、拠点を占領し又は敵対する陣営の拠点を撃破することと、敵対する陣営の仮想オブジェクトを撃殺することと、指定されたシーン及び時間内に自身の生存を確保することと、あるリソースを奪い取ったことと、指定された時間内にスコアが相手を超えることとのうちの少なくとも一種を含むが、それらに限定されない。バトルアリーナはラウンドを単位として行うことができ、各ラウンドのバトルアリーナの地図は同じであってもよく、異なってもよい。各仮想チームは1つ又は複数の仮想オブジェクト、例えば、1つ、2つ、3つ又は5つを含む。
MOBA(Multiplayer Online Battle Arena、マルチプレイヤーオンラインバトルアリーナ)ゲーム:仮想シーンにおいて複数の拠点が提供され、異なる陣営にいるユーザが仮想オブジェクトを制御して仮想シーンで対戦し、拠点を占領し又は敵対する陣営の拠点を撃破するゲームである。例えば、MOBAゲームについては、複数のユーザの仮想オブジェクトを2つの敵対する陣営に分けることができ、仮想オブジェクトを仮想シーンに分散させて互いに競争させ、敵方の全部の拠点を撃破又は占領することを勝利条件とする。MOBAゲームはラウンドを単位とし、1ラウンドのMOBAゲームの持続時間はゲームの開始時点からある陣営が勝利条件を達成する時点までである。図1Aは本願の実施例が適用できる1つの実施環境の構成図である。図1Aに示すように、該実施環境はネットワーク20を介して通信を行うサーバ10及び複数の端末、例えば端末30、40、50を含んでもよい。サーバ10はオンラインゲームサービスを提供するゲームサーバであってもよい。端末30、40、50はオンラインゲームを実行できるコンピューティング機器、例えばスマートフォン、PC、タブレットパソコン、ゲームホストコンピュータ等であってもよい。複数の端末のユーザはネットワーク20を介してサーバ10により提供される同一ラウンドのオンラインゲームにアクセスして、オンライン対戦を行うことができる。
仮想オブジェクト:仮想シーンにおける可動オブジェクトを指し、該可動オブジェクトはいずれかの形態、例えば仮想人物、仮想動物、アニメ人物等であってもよい。仮想シーンが3次元仮想シーンであるとき、仮想オブジェクトは3次元立体モデルであってもよく、各仮想オブジェクトは3次元仮想シーンにおいて自体の形状及び体積有し、3次元仮想シーンにおける一部の空間を占拠する。仮想オブジェクトは3次元人体骨格技術に基づいて構築された3次元キャラクタであり、該仮想オブジェクトは異なる皮膚を着用することによって異なる外部イメージを実現する。いくつかの実現形態では、仮想オブジェクトは2.5次元又は2次元モデルを採用して実現してもよく、本願の実施例はこれに対して限定を加えない。
仮想シーン:仮想シーンはアプリケーションプログラムが端末上で実行されるときに表示(又は提供)される仮想シーンである。仮想シーンは1つの3次元仮想空間をシミュレートすることに用いることができ、該3次元仮想空間は1つの開放空間であってもよく、該仮想シーンは現実中の実環境に対してシミュレーションを行う仮想シーンであってもよく、半シミュレーション半架空の仮想シーンであってもよく、さらに完全に架空の仮想シーンであってもよく、仮想シーンは2次元仮想シーン、2.5次元仮想シーン及び3次元仮想シーンのうちの任意の一種であってもよい。例えば、該仮想シーンにおいて川、草むら、陸地、建物等を含んでもよい。該仮想シーンは少なくとも2つの仮想オブジェクト同士が対戦することに用いられ、仮想シーンにおいて、少なくとも2つの仮想オブジェクトのために使用される仮想リソース、例えば、仮想オブジェクトが自分を武装し又は他の仮想オブジェクトと戦うために必要な武器等の道具をさらに含む。
例えば、仮想シーンはいずれかの電子ゲームにおける仮想シーンであってもよく、電子ゲームがMOBAであることを例とすると、該仮想シーンは正方形の地図を提供し、該正方形の地図は対称の左下隅領域と右上角領域を含み、2つの敵対する陣営に属する仮想オブジェクトはそれぞれそのうちの1つの領域を占拠し、且つ相手領域の目標建物を撃破することをゲームの勝利の目標とする。
本願の実施例が提供する仮想オブジェクトの制御方法は、複数種のシーンに適用できる。
例えば、ゲームにおける対戦シーンに適用される。対戦シーンにおいて、端末で第1仮想オブジェクトを表示し、ユーザは第1仮想オブジェクトがスキル解放操作を実行するように制御し、本願の実施例が提供する仮想オブジェクトの制御方法を採用して、第1仮想オブジェクトがスキル解放操作を実行するときの照準方向を決定することができる。
図1Bは本願の実施例が提供する仮想オブジェクトの制御方法のフローチャートである。本願の実施例の実行主体は端末であり、該端末は携帯型、ポケット型、手持ち型等の複数タイプの端末、例えば携帯電話、コンピュータ、タブレットパソコン等であってもよい。図1Bに参照されるように、該方法は以下のステップを含む。
101:端末はタッチ制御領域に対するタッチ操作に応答し、タッチ操作が通過した少なくとも2つのタッチ位置を決定する。上記少なくとも2つのタッチ位置は、上記タッチ操作が最後に通過したプリセット数のタッチ位置から選択されるものを含む。
本願の実施例では、端末は仮想シーンインターフェースを表示し、仮想シーンインターフェースは仮想シーンを含み、仮想シーンにおいて第1仮想オブジェクトが含まれてもよく、川、草むら、陸地、建物、仮想オブジェクトが使用する仮想リソース等がさらに含まれてもよく、また、仮想シーンインターフェースにおいてタッチ制御ボタン、タッチ制御領域等がさらに含まれてもよく、それによりユーザはタッチ制御ボタン又はタッチ制御領域によって第1仮想オブジェクトが操作を実行するように制御する。例えば、仮想オブジェクトが姿勢調整、爬行、歩行、走り、サイクリング、飛行、ジャンプ、運転、ピック等の操作を実行するように制御することができ、仮想オブジェクトがスキル解放操作又は他の操作を実行するように制御することもできる。
ここで、第1仮想オブジェクトはユーザにより制御される仮想オブジェクトであり、仮想シーンにおいて第1仮想オブジェクト以外の他の仮想オブジェクトがさらに含まれてもよく、他の仮想オブジェクトは他のユーザにより制御される仮想オブジェクトであってもよく、端末により自動的に制御される仮想オブジェクトであってもよく、例えば、仮想シーンにおけるモンスター、兵士、中立生物等が挙げられる。
第1仮想オブジェクトはスキル解放操作を実行するとき、別の仮想オブジェクトにスキルを解放し、又はある1つの方向にスキルを解放し、又はある1つの位置にスキルを解放する必要があるが、どちらの状況でも、まずスキル解放時の照準方向を決定する必要がある。
本願の実施例におけるタッチ制御領域はスキル解放操作をトリガーすることに用いられ、照準方向を調整する作用を有し、ユーザの指はタッチ制御領域をタッチし、タッチ制御領域でタッチ操作を行い、それによりタッチ位置が生じる。タッチ位置はスキル解放時の照準方向を指示し、ユーザは指がタッチ制御領域で移動することによって、自分が望む照準方向を選択することができ、一旦ユーザの指が浮上動作を実行すると、端末は指を浮上させたときのタッチ位置に応じて照準方向を決定して、第1仮想オブジェクトが該照準方向に応じてスキル解放操作を実行するように制御することができる。
関連技術では、ユーザの指はタッチ制御領域をタッチし、指はタッチ制御領域で移動し、その後、ユーザは指を浮上させ、この過程で端末は少なくとも2つのタッチ位置を決定し、最後1つのタッチ位置が指示する照準方向に応じて、第1仮想オブジェクトがスキル解放操作を実行するように制御することができるが、実際の適用では、ユーザは指を浮上させるとき、指が少し移動する可能性があり、タッチ位置に変位が生じることを引き起こし、ユーザが所望するタッチ位置の後に新しいタッチ位置が生じ、実際の最後1つのタッチ位置が指示する照準方向はユーザが所望する照準方向ではないことを引き起こす。本願の実施例は照準方向の正確率を向上させ、ユーザのニーズを満たすために、タッチ操作の少なくとも2つのタッチ位置を決定して、続いてこれらのタッチ位置を総合的に考慮してより正確な照準方向を決定することができる。
102:端末はプリセットポリシーに基づいて少なくとも2つのタッチ位置に対して合併を行うことにより、タッチ操作の目標タッチ位置を決定する。
103:端末は目標タッチ位置が指示する第1照準方向を決定する。
本願の実施例では、端末は少なくとも2つのタッチ位置に基づいて1つの目標タッチ位置を決定し、目標タッチ位置が指示する照準方向を第1照準方向とする。少なくとも2つのタッチ位置にユーザが所望するタッチ位置を含む可能性が大きいため、最後1つのタッチ位置に比べて、目標タッチ位置はユーザのニーズをよりよく反映することができ、照準方向の正確率を向上させる。
ここで、目標タッチ位置は第1仮想オブジェクトの第1照準方向を指示することに用いられ、該第1照準方向は仮想シーンにおけるいずれかの1つの方向であってもよく、例えば、第1仮想オブジェクトを原点とすると、第1照準方向は第1仮想オブジェクトの左側、右上方、右下方等であってもよく、又はより正確な方式を採用して示すと、第1照準方向は第1仮想オブジェクトの30度方向、90度方向等であってもよい。
104:端末は第1仮想オブジェクトが第1照準方向に応じてスキル解放操作を実行するように制御する。
端末は第1照準方向を決定した後、第1仮想オブジェクトが第1照準方向にスキル解放操作を実行するように制御する。
第1仮想オブジェクトは異なるタイプのスキルを有してもよく、例えば、方向類スキル、オブジェクト類スキル及び位置類スキルを含んでもよい。異なるタイプのスキルについて、第1仮想オブジェクトがスキル解放操作を実行するように制御するとき、対象となるオブジェクトは異なり、例えば、オブジェクト類スキルについて、第1仮想オブジェクトが仮想シーンにおいて照準方向上に位置する仮想オブジェクトにスキル解放操作を実行するように制御し、位置類スキルについて、第1仮想オブジェクトが仮想シーンにおいて照準方向上に位置するある1つの位置にスキル解放操作を実行するように制御し、方向類スキルについて、第1仮想オブジェクトが仮想シーンにおける照準方向にスキル解放操作を実行するように制御する。
本願の実施例が提供する方法は、タッチ制御領域でのタッチ操作の最後1つのタッチ位置のみに基づいて照準方向を決定することではなく、タッチ操作の少なくとも2つのタッチ位置を決定し、該少なくとも2つのタッチ位置を総合的に考慮して目標タッチ位置を決定する。ユーザの誤操作のために生じた最後1つのタッチ位置とユーザが所望するタッチ位置とが一致しない状況を回避し、獲得された目標タッチ位置はユーザが所望するタッチ位置を反映することができる。それにより目標タッチ位置が指示する照準方向はユーザのニーズをよりよく満たすことができ、照準方向の正確率を向上させ、その後、決定された照準方向に応じて、第1仮想オブジェクトがスキル解放操作を実行するように制御し、第1仮想オブジェクトのスキル解放操作に対する制御もより正確である。
図2は本願の実施例が提供する別の仮想オブジェクトの制御方法のフローチャートである。図2に参照されるように、該実施例の実行主体は端末であり、図2に参照されるように、該方法は以下のステップを含む。
201:端末は第1仮想オブジェクトに対応する仮想シーンインターフェースによって、第1仮想オブジェクトのスキル解放ボタンを表示する。
本願の実施例では、仮想シーンインターフェースは第1仮想オブジェクトの視野範囲内の仮想シーンを表示することに用いられ、該仮想シーンインターフェースにおいて、第1仮想オブジェクトのスキル解放ボタンが含まれてもよく、第1仮想オブジェクト及び他の仮想オブジェクトがさらに含まれてもよく、川、草むら、陸地、建物、仮想オブジェクトが使用する仮想リソース等がさらに含まれてもよい。
ここで、仮想オブジェクトは複数タイプの仮想オブジェクトに分けられてもよい。例えば、仮想オブジェクトの外形、仮想オブジェクトのスキルに基づいて又は他の分類標準に基づいて仮想オブジェクトを複数のタイプに分けることができる。例えば、仮想オブジェクトのスキルに基づいて仮想オブジェクトを複数のタイプに分けると、仮想オブジェクトは戦士型仮想オブジェクト、法師型仮想オブジェクト、補助型仮想オブジェクト、アーチャー型仮想オブジェクト及び刺客型仮想オブジェクトを含んでもよい。本願の実施例における第1仮想オブジェクトはいずれかの1つのタイプの仮想オブジェクトであってもよい。
第1仮想オブジェクトのスキル解放ボタンは1つ又は複数あってもよく、異なるスキル解放ボタンは異なるスキルに対応する。選択的に、スキル解放ボタンにテキスト又は画像が含まれ、該テキスト又は画像は該スキル解放ボタンに対応するスキルを記述することに用いられる。本願の実施例は第1仮想オブジェクトのいずれかの1つのスキル解放ボタンを例として説明するものに過ぎない。
例えば、図3に示される仮想シーンインターフェース300に参照されるように、該仮想シーンインターフェース300において第1仮想オブジェクト301、及び第2仮想オブジェクト302が含まれ、第1仮想オブジェクト301と第2仮想オブジェクト302とは異なる陣営に属する。該仮想シーンインターフェース300において複数のスキル解放ボタン303がさらに含まれ、該複数のスキル解放ボタンは仮想シーンインターフェースの右下隅に位置する。且つ該仮想シーンインターフェースの左上角に完全な仮想シーンの地図が表示されている。
202:端末はスキル解放ボタンに対するトリガー操作に応答し、仮想シーンインターフェースによってタッチ制御領域を表示する。
端末は仮想シーンインターフェースによって第1仮想オブジェクトのスキル解放ボタンを表示し、ユーザはスキル解放ボタンに対してトリガー操作を実行し、端末はユーザによるスキル解放ボタンに対するトリガー操作を検出し、仮想シーンインターフェースによって該スキル解放ボタンに対応するタッチ制御領域を表示する。ここで、トリガー操作はクリック操作、スライド操作又は他の操作であってもよい。
第1仮想オブジェクトが複数のスキル解放ボタンを有すれば、ユーザはいずれかの1つのスキル解放ボタンに対してトリガー操作を行い、端末は仮想シーンインターフェースによって該スキル解放ボタンに対応するタッチ制御領域を表示する。
ここで、該タッチ制御領域は円形、角形又は他の形状であってもよく、該タッチ制御領域は仮想シーンの任意の位置に位置してもよく、例えば、仮想シーンの右下隅、左下隅等に位置する。
一種の可能な実現形態では、タッチ制御領域は第1タッチ制御サブ領域及び第2タッチ制御サブ領域を含み、第2タッチ制御サブ領域は第1タッチ制御サブ領域の外側に位置する。ユーザの指がタッチ制御領域をタッチし、ユーザが指を浮上させるとき、終止タッチ位置が第1タッチ制御サブ領域にあり、端末は第1仮想オブジェクトがスキルを迅速に解放するように制御し、ユーザが指を浮上させるとき、終止タッチ位置が第2タッチ制御サブ領域にあり、端末は第1仮想オブジェクトが積極的な照準を行うように制御して照準方向を獲得する。
例えば、図4に示されるタッチ制御領域400に参照されるように、該タッチ制御領域400は円形領域であり、網掛け部分は第1タッチ制御サブ領域であり、空白の部分は第2タッチ制御サブ領域であり、ドットは指が押すときのタッチ位置を示す。
203:端末はタッチ制御領域に対するタッチ操作に応答し、タッチ操作の少なくとも2つのタッチ位置を決定する。
端末はタッチ制御領域を表示し、ユーザの指は該タッチ制御領域をタッチし、端末はユーザの指に対応するタッチ点を検出し、ユーザの指はタッチ領域で移動し、タッチ点の位置も相応な変化が発生し、ユーザの指を浮上させると、タッチ制御領域に対するタッチ操作を完了し、端末は該タッチ操作を検出することによって、タッチ操作の少なくとも2つのタッチ位置を決定することができる。
一種の可能な実現形態では、ユーザの指を浮上させるとき、タッチ点の終止タッチ位置が第2タッチ制御サブ領域に位置すると、端末は少なくとも2つのタッチ位置に基づいて、タッチ操作の目標タッチ位置を決定する。つまり、終止タッチ位置が第2タッチ制御サブ領域に位置すれば、ユーザは第1仮想オブジェクトがユーザの操作に基づいて照準方向を決定するように制御するのを所望すると考えられる。
選択的に、終止タッチ位置が第2タッチ制御サブ領域に位置するとき、端末が決定する目標タッチ位置は第2タッチ制御サブ領域に位置する可能性があり、第1タッチ制御サブ領域に位置する可能性もあり、目標タッチ位置が第2タッチ制御サブ領域に位置すれば、下記ステップ204を実行し、目標タッチ位置が第1タッチ制御サブ領域に位置すれば、端末は第1仮想オブジェクトがスキルを迅速に解放するように制御する。
一種の可能な実現形態では、タッチ操作は、タッチ点の押下操作、タッチ点のスライド操作及びタッチ点の持ち上げ操作を含む。ここで、ユーザの指がタッチ領域と接触するとき、ユーザの指をタッチ点として識別し、端末はタッチ制御領域でのタッチ点に対応する押下操作に応答し、押下操作に対応する初期タッチ位置を決定し、タッチ点がタッチ制御領域でスライドする過程での少なくとも1つの中間タッチ位置を決定し、タッチ制御領域でのタッチ点に対応する浮上操作に応答し、浮上操作に対応する終止タッチ位置を決定する。上記少なくとも1つの中間タッチ位置及び上記終止タッチ位置から上記プリセット数のタッチ位置を決定することができる。端末はタッチ制御領域でのタッチ点の押下操作を検出したとき、スキル解放操作の実行を準備したことを示し、タッチ点に対するスライド過程は即ち照準方向に対する調整であり、タッチ点の浮上操作を検出したとき、照準方向に対する調整を完了したことを示す。
選択的に、端末はタッチ制御領域でのタッチ制御点の押下操作に応答した後に、タッチ点が該タッチ制御領域に属するか否かを判断し、肯定的であれば、押下操作に対応する初期タッチ位置を決定し、否定的であれば、スキル解放操作を実行しない。
一種の可能な実現形態では、ユーザの複数の指のタッチ操作に衝突が発生することを回避するために、端末はタッチ制御領域でのタッチ点に対応する押下操作に応答し、タッチ点のためにタッチ識別子を割り当てる。その後、タッチ点のタッチ制御領域での位置は変化可能であり、端末はタッチ位置及びそれに対応するタッチ識別子を検出できる。この場合、端末は、タッチ制御領域で検出した、該タッチ識別子とマッチングする少なくとも2つのタッチ位置を決定することにより、決定した少なくとも2つのタッチ位置が同一のユーザの指に属し、即ち同一タッチ操作に属することを確保する。ここで、タッチ点はユーザの指が表示画面と接触して生じた位置点を指すことに用いられ、該タッチ識別子はfingerID又は他のタイプの識別子であってもよい。
タッチ操作を実行する過程で、ユーザの指が押すときのタッチ点が位置する位置は初期タッチ位置であり、タッチ点がタッチ制御領域でスライドする過程で、タッチ点のタッチ識別子は変化しないが、タッチ位置は変化可能であり、さらにより多くのタッチ位置が生じ、且つ該ユーザの指により生じたタッチ位置はタッチ点のタッチ識別子とマッチングし、ユーザの指を浮上させるときのタッチ点が位置する位置は終止タッチ位置であり、終止タッチ位置はタッチ操作過程での最後1つのタッチ位置である。
一種の可能な実現形態では、タッチ操作の全部のタッチ位置について、照準方向を決定するとき、初期のいくつかのタッチ位置による照準方向に対する影響が小さく、最終的ないくつかのタッチ位置による照準方向に対する影響が大きい。従って、決定するタッチ操作の少なくとも2つのタッチ位置は、タッチ操作の終止タッチ位置及び終止タッチ位置の前の少なくとも1つのタッチ位置を含んでもよい。
一種の可能な実現形態では、ユーザがタッチ制御領域に対してタッチ操作を実行する過程は動的過程であり、ユーザがタッチ操作を実行する過程で、端末は仮想シーンインターフェースに対して収集を行い、配列順序に応じて配列される少なくとも2つの仮想シーンインターフェースを獲得し、各仮想シーンインターフェースにおいてタッチ点の1つのタッチ位置が含まれると、少なくとも2つのタッチ位置も配列順序に応じて配列される。例えば、少なくとも2つのタッチ位置が配列順序に応じて初期タッチ位置から終止タッチ位置まで配列されると、端末は少なくとも2つのタッチ位置から、最後に配列されるプリセット数のタッチ位置を選ぶことができる。例えば、2つのタッチ位置を選ぶと、終止タッチ位置及び終止タッチ位置の前の1つのタッチ位置を選ぶ。例えば、少なくとも2つのタッチ位置が配列順序に応じて終止タッチ位置から初期タッチ位置まで配列されると、端末は少なくとも2つのタッチ位置から、最も前に配列されるプリセット数のタッチ位置を選ぶことができる。
選択的に、仮想シーンインターフェースは定まった時間間隔で収集されてもよく、それに対応して、決定する少なくとも2つのタッチ位置のうちいずれかの2つの隣接するタッチ位置間の時間間隔は同じである。
一種の可能な実現形態では、タッチ位置は座標を採用して示されてもよく、各タッチ位置は対応する座標を有し、少なくとも2つのタッチ位置の座標に対して処理を行って、目標タッチ位置の座標を決定することができ、それにより目標タッチ位置を決定する。選択的に、タッチ制御領域の中心を座標の原点として、座標系を作成し、該タッチ制御領域における各位置は1つの対応する座標を有する。
一種の可能な実現形態では、仮想シーンインターフェースにおいて第1仮想オブジェクトの別のタッチ制御領域がさらに含まれてもよく、別のタッチ制御領域は第1仮想オブジェクトの前進、後進、移動等の動作を制御することに用いられ、スキル解放ボタンに対応するタッチ制御領域及び該別のタッチ制御領域上で同時に操作を行うことができ、それにより第1仮想オブジェクトは動くと同時にスキルを解放する。勿論、該仮想シーンインターフェースにおいて他のタッチ制御領域がさらに含まれてもよく、本願の実施例はこれを限定しない。
ステップ203の他の実施形態は上記ステップ101と類似し、ここで再度言及しない。
204:端末は少なくとも2つのタッチ位置に基づいて、タッチ操作の目標タッチ位置を決定する。
一種の可能な実現形態では、座標を採用してタッチ位置を示し、端末は少なくとも2つのタッチ位置の配列順序に応じて、少なくとも2つのタッチ位置の重みを決定し、少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の座標に対して重み付け合併を行い、目標タッチ位置の座標を獲得する。ここで、少なくとも2つのタッチ位置の重みは予め設定されてもよく、且つ少なくとも2つのタッチ位置の重みの和は1であり、少なくとも2つのタッチ位置の数も予め設定されてもよい。
選択的に、タッチ位置の座標は横座標及び縦座標を含み、端末は少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の横座標に対して重み付け加算を行い、目標タッチ位置の横座標を獲得し、少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の縦座標に対して重み付け加算を行い、目標タッチ位置の縦座標を獲得する。
例えば、端末は最後に配列される3つのタッチ位置に基づいて、目標タッチ位置を決定する必要があると、端末は3つのタッチ位置の重みq1、q2及びq3を予め設定し、q1は終止タッチ位置の重みであり、q2は最後から2番目のタッチ位置の重みであり、q3は最後から3番目のタッチ位置の重みであり、終止タッチ位置の座標を(x1,y1)とし、最後から2番目のタッチ位置の座標を(x2,y2)とし、最後から3番目のタッチ位置の座標を(x3,y3)とすると、目標タッチ位置の横座標は、x=x1*q1+x2*q2+x3*q3であり、目標タッチ位置の縦座標は、y=y1*q1+y2*q2+y3*q3であり、それにより目標タッチ位置の座標(x,y)を獲得する。
選択的に、少なくとも2つのタッチ位置は終止タッチ位置及び終止タッチ位置の前の1つのタッチ位置を含むと、終止タッチ位置の重みを0、終止タッチ位置の前の1つのタッチ位置の重みを1として設定してもよい。ユーザの指がタッチ領域を押圧し、ユーザの指とタッチ制御領域との接触面積が大きいため、ユーザが指を浮上させるとき、タッチ点のタッチ位置に変位が生じることができ、ユーザが所望するタッチ位置の後に新しいタッチ位置が生じることができ、即ち、終止タッチ位置はユーザの誤操作により生じたタッチ位置である可能性が非常に高く、終止タッチ位置の前の1つのタッチ位置はユーザが照準方向を決定するためのタッチ位置である可能性が非常に高く、従って、終止タッチ位置の前の1つのタッチ位置を目標タッチ位置として決定する。
ステップ204の他の実施形態は上記ステップ102と類似し、ここで再度言及しない。
205:端末は目標タッチ位置が指示する第1照準方向を決定する。
一種の可能な実現形態では、タッチ制御領域の中心点を原点とし、目標タッチ位置の座標に基づいて、目標タッチ位置が中心点のどちらの1つの方向に位置するかを決定し、該方向を第1照準方向とし、それに対応して、仮想シーンインターフェースにおける第1仮想オブジェクトにとっては、第1照準方向は該第1仮想オブジェクトの照準方向であり、続いて第1仮想オブジェクトはスキル解放操作を実行するとき、第1仮想オブジェクトを原点として、該第1仮想オブジェクトの第1照準方向にスキルを解放する。
ステップ205の他の実施形態は上記ステップ103と類似し、ここで再度言及しない。
206:端末は第1仮想オブジェクトが第1照準方向に応じてスキル解放操作を実行するように制御する。
端末は第1照準方向を決定した後、端末は第1仮想オブジェクトが第1照準方向にスキル解放操作を実行するように制御する。
一種の可能な実現形態では、端末は第1照準方向及び第1プリセット距離に基づいて、第1照準方向上における照準位置を決定し、第1仮想オブジェクトが該照準位置にスキル解放操作を実行するように制御する。ここで、照準位置と第1仮想オブジェクトとの間の距離は第1プリセット距離であり、該第1プリセット距離は第1仮想オブジェクトを原点として設定されたスキル解放距離である。
別の可能な実現形態では、端末は、第1照準方向上において、第1仮想オブジェクトとの距離が最も近い第2仮想オブジェクトを決定し、第1仮想オブジェクトが第2仮想オブジェクトにスキル解放操作を実行するように制御する。ここで、端末は第1照準方向を決定した後、該第1照準方向上における仮想オブジェクトを自動的に取得でき、取得した仮想オブジェクトの位置に基づいて、そのうち第1仮想オブジェクトとの距離が最も近い仮想オブジェクトを第2仮想オブジェクトとして選ぶ。
選択的に、第2仮想オブジェクトは他のユーザにより制御される仮想オブジェクトであるとき、異なるスキルタイプに基づいて、該第2仮想オブジェクトは第1仮想オブジェクトと同一の陣営に属してもよく、第1仮想オブジェクトと敵対する陣営に属してもよい。例えば、第1仮想オブジェクトのスキルが攻撃タイプのスキルであると、第2仮想オブジェクトは第1仮想オブジェクトと敵対する陣営に属してもよく、第1仮想オブジェクトは第2仮想オブジェクトに攻撃操作を実行し、第1仮想オブジェクトのスキルが治療タイプのスキルであると、第2仮想オブジェクトは第1仮想オブジェクトと同一の陣営に属してもよく、第1仮想オブジェクトは第2仮想オブジェクトに治療操作を実行する。
本願の実施例は対戦シーンに適用でき、仮想シーンインターフェースの仮想シーンにおいて第1仮想オブジェクト及び第2仮想オブジェクトが含まれ、他の仮想オブジェクトと第1仮想オブジェクトとが同一の陣営に属すれば、ユーザは第1仮想オブジェクトが治療操作を実行して、他の仮想オブジェクトに対して治療を行うように制御することができ、他の仮想オブジェクトと第1仮想オブジェクトとが敵対する陣営に属すれば、ユーザは第1仮想オブジェクトが攻撃操作を実行して、他の仮想オブジェクトに対して攻撃を行うように制御することができる。
例えば、端末は第1仮想オブジェクトがスキル解放操作を実行して、第2仮想オブジェクトを攻撃するように制御するとき、仮想シーンインターフェースの変化は図5~12に示される。
図5に示される仮想シーンインターフェース500に参照されるように、ユーザはスキル解放ボタンに対してトリガー操作を行った後に、仮想シーンインターフェース500において1つの円形のタッチ制御領域が表示され、該タッチ制御領域で表示されるドットは現在のタッチ位置1を示し、このとき、仮想シーンにおいて第1仮想オブジェクト501の照準方向1が表示され、ユーザは仮想シーンインターフェース500によって現在の照準方向1をプレビューすることができる。
図6に示される仮想シーンインターフェース600は、仮想シーンインターフェース500をもとに、ユーザの指がタッチ制御領域で矢印に示される方向に沿って移動した後に表示された仮想シーンインターフェースであり、指が移動した後にタッチ制御領域でのタッチ位置は変化し、タッチ位置1からタッチ位置2になり、第1仮想オブジェクト501の照準方向も対応して変化し、照準方向1から照準方向2になる。図7に示される仮想シーンインターフェース700は、仮想シーンインターフェース600をもとに、ユーザの指がタッチ制御領域で再び移動した後に表示された仮想シーンインターフェースであり、図7の仮想シーンインターフェース700のタッチ制御領域でのタッチ位置は再び変化し、タッチ位置2からタッチ位置3になり、第1仮想オブジェクト501の照準方向も再び変化し、照準方向2から照準方向3になる。図8に示される仮想シーンインターフェース800は、仮想シーンインターフェース700をもとに、ユーザの指がタッチ制御領域で再び移動した後に表示された仮想シーンインターフェースであり、図8の仮想シーンインターフェース800のタッチ制御領域でのタッチ位置は再び変化し、タッチ位置3からタッチ位置4になり、第1仮想オブジェクト501の照準方向も再び変化し、照準方向3から照準方向4になる。
図9に示される仮想シーンインターフェース900は、仮想シーンインターフェース800をもとに、ユーザの指を浮上させてタッチ制御領域から離れ、このとき、仮想シーンインターフェース900においてタッチ制御領域が表示されなくなり、端末は決定した目標タッチ位置に基づいて、第1仮想オブジェクト501の最終的な照準方向5を決定する。
図10に示される仮想シーンインターフェース1000は、仮想シーンインターフェース900をもとに、第1仮想オブジェクト501が照準方向5に応じてスキルの解放を開始するものであり、このとき、スキル解放ボタンにプリセット時間長さが表示され、該プリセット時間長さはスキル冷却時間長さを示し、該プリセット時間長さ内に、時間長さが0に減少するまで、ユーザは再び該スキル解放ボタンをトリガーできない。図11に示される仮想シーンインターフェース1100は仮想シーンインターフェース1000をもとに、第1仮想オブジェクト501が既に対応するスキルを解放したものであり、このとき、スキル解放ボタンに表示される時間長さは減少する。図12に示される仮想シーンインターフェース1200は仮想シーンインターフェース1100をもとに、第1仮想オブジェクト501が解放したスキルが既に第2仮想オブジェクトを攻撃したものであり、このとき、スキル解放ボタンの上部に表示される時間長さは再び減少する。
また、上記実施例では、いずれも目標タッチ位置が第2タッチ領域に位置することを例として説明しており、一種の可能な実現形態では、ユーザが指を押すから指を浮上させるまで、タッチ点が常時に第1タッチ制御サブ領域に位置し、即ち少なくとも2つのタッチ位置がいずれも第1タッチ制御サブ領域に位置すれば、端末はプリセットルールに応じて第2照準方向を決定し、第1仮想オブジェクトが第2照準方向に応じてスキル解放操作を実行するように制御する。ここで、プリセットルールは予め設定されたルールであってもよく、ユーザは、スキルの関連記述に基づいて該プリセットルールを了解することにより、該プリセットルールに基づいて第1仮想オブジェクトがスキルを解放するように制御するか、それとも手動で照準方向を調整して第1仮想オブジェクトがスキルを解放するように制御するかを決定することができる。
選択的に、該プリセットルールは距離が第2プリセット距離よりも小さい仮想オブジェクトに対してスキルを解放することである。この場合、端末は、第1仮想オブジェクトとの間の距離が第2プリセット距離よりも小さい第3仮想オブジェクトの位置を決定し、第1仮想オブジェクトの位置及び第3仮想オブジェクトの位置に基づいて、第2照準方向を決定し、第2照準方向に応じてスキル解放操作を実行し、それにより第3仮想オブジェクトに対してスキルを解放する。ここで、第1プリセット距離はスキル解放ボタンに対応するスキルが解放できる最も遠い距離であってもよい。
選択的に、第1仮想オブジェクトとの間の距離が第1プリセット距離よりも小さい範囲内に、第1仮想オブジェクト以外の複数の仮想オブジェクトが存在すれば、複数の仮想オブジェクトからいずれかの1つの仮想オブジェクトを第3仮想オブジェクトとして選んでもよく、又は複数の仮想オブジェクトからヒットポイントが最も小さい仮想オブジェクトを第3仮想オブジェクトとして選んでもよい。
図13は本願の実施例が提供するスキル解放のフローチャートであり、図13に参照されるように、スキルを解放するフローは以下のステップを含む。
1301:ユーザはスキル解放ボタンをトリガーし、端末はタッチ制御領域を表示し、タッチ点に対する押下操作を検出した。
1302:端末はスキルの解放を準備する。
1303:端末はユーザがタッチ点に対して浮上操作を行うか否かを検出し、肯定的であれば、ステップ1304を実行し、否定的であれば、ステップ1305を実行する。
1304:決定した少なくとも2つのタッチ位置に基づいて目標タッチ位置を決定し、目標タッチ位置が指示する第1照準方向を決定し、スキル解放操作を実行する。
1305:端末はユーザがタッチ点に対してスライド操作を行うか否かを判断し、肯定的であれば、ステップ1303を実行し、否定的であれば、ステップ1302を実行する。
説明する必要がある点として、本願の実施例は、第1仮想オブジェクトの1つのスキル解放ボタンに対応するタッチ制御領域を例として説明するものに過ぎず、別の実施例では、第1仮想オブジェクトの他のスキル解放ボタンのタッチ制御領域に対して、上記実施例と類似する方式を採用して、第1仮想オブジェクトがスキル解放操作を実行するように制御することを実現してもよい。
説明する必要がある別の点として、本願の実施例は実行主体が端末であることを例として説明するものに過ぎず、別の実施例では、ステップ204及びステップ205は端末に接続されるサーバにより実行されてもよい。即ち、端末はタッチ制御領域に対するタッチ操作に応答し、タッチ操作の少なくとも2つのタッチ位置を決定し、少なくとも2つのタッチ位置をサーバに送信し、サーバは少なくとも2つのタッチ位置に基づいて、タッチ操作の目標タッチ位置を決定し、目標タッチ位置に基づいて、目標タッチ位置が指示する第1照準方向を決定し、第1照準方向を端末に送信し、端末は第1仮想オブジェクトが第1照準方向に応じてスキル解放操作を実行するように制御する。
関連技術では、図14に示されるタッチ制御領域の模式図に参照されるように、タッチ制御領域1400での黒丸はユーザが所望する終止タッチ位置1401を示し、白丸は実際の終止タッチ位置1402を示し、図14から分かるように、ユーザが所望する終止タッチ位置1401と実際の終止タッチ位置1402とは比較的大きく異なり、直接実際の終止タッチ位置1402に基づいて照準方向を決定すれば、決定した照準方向とユーザが所望する照準方向とは比較的大きく異なり、ユーザが所望する効果に達することができないのを引き起こす。
図15に示されるタッチ制御領域の模式図に参照されるように、タッチ制御領域1501で示される軌跡はタッチ制御操作により生じた軌跡であり、タッチ制御領域1502での黒丸はユーザが所望する終止タッチ位置1511を示し、白丸は実際の終止タッチ位置1521を示し、本願の実施例が提供する方法を採用して目標タッチ位置1512を決定する。図15から分かるように、ユーザが所望する終止タッチ位置1511と実際の終止タッチ位置1521とは比較的大きく異なるが、決定した目標タッチ位置1512とユーザが所望する終止タッチ位置1511とはわずかに異なり、目標タッチ位置に基づいて決定した照準方向とユーザが所望する照準方向とはわずかに異なり、ユーザが所望する効果に達することができる。
本願の実施例が提供する方法は、タッチ制御領域でのタッチ操作の最後1つのタッチ位置のみに基づいて照準方向を決定することではなく、タッチ操作の少なくとも2つのタッチ位置を決定し、該少なくとも2つのタッチ位置を総合的に考慮して目標タッチ位置を決定し、ユーザの誤操作のために生じた最後1つのタッチ位置とユーザが所望するタッチ位置とが一致しない状況を回避し、獲得された目標タッチ位置はユーザが所望するタッチ位置を反映することができる。それにより目標タッチ位置が指示する照準方向はユーザのニーズをよりよく満たすことができ、照準方向の正確率を向上させ、その後、決定された照準方向に応じて、第1仮想オブジェクトがスキル解放操作を実行するように制御し、第1仮想オブジェクトのスキル解放操作に対する制御もより正確である。
且つ、本願の実施例では、タッチ制御領域を第1タッチ制御サブ領域及び第2タッチ制御サブ領域に分割することで、ユーザはスキル解放操作を迅速に実行できるだけでなく、照準方向を手動で決定してからスキル解放操作を実行することもでき、ユーザは仮想シーンにおいて第1仮想オブジェクトが解放するスキルに基づいて、柔軟に選択でき、柔軟性を向上させる。
且つ、本願の実施例では、タッチ点のためにタッチ識別子を割り当て、タッチ識別子とマッチングする少なくとも2つのタッチ位置を決定し、決定した少なくとも2つのタッチ位置が同一タッチ操作のタッチ位置であることを確保し、仮想シーンインターフェースにおける他の指のタッチ操作の干渉を回避し、操作精度を向上させる。
一種の可能な実現形態では、図16は本願の実施例が提供する目標タッチ位置を決定するフローチャートであり、該フローは以下のステップを含む。
1601:端末はタッチ点に対する押下操作を検出し、初期タッチ位置を獲得し、該タッチ点のためにタッチ識別子を割り当てる。
1602:端末はタッチ点がタッチ制御領域に位置するか否かを判断する。
1603:タッチ点がタッチ制御領域に位置すれば、端末は初期タッチ位置の座標を(xn,yn)、(xn-1,yn-1)…(x1,y1)までとする。ここで、nは決定する必要があるタッチ位置の数を示し、nは正の整数である。タッチ点がタッチ制御領域に位置しなければ、フローを終了する。
1604:端末はタッチ点に対する移動操作を検出し、移動後のタッチ位置を獲得する。
1605:端末は移動後のタッチ位置のタッチ識別子が上記タッチ点のタッチ識別子とマッチングするか否かを判断する。
1606:マッチングすれば、端末は移動後のタッチ位置の座標を(xn,yn)とする。マッチングしなければ、フローを終了する。
ユーザが再びタッチ点を移動するとき、ステップ1604を繰り返して実行し、(x2,y2)を(x1,y1)とし、(x3,y3)を(x2,y2)とし、このように類推すると、(xn-1,yn-1)を(xn-2,yn-2)とし、(xn,yn)を(xn-1,yn-1)とし、再び移動した後のタッチ位置の座標を(xn,yn)とする。
1607:端末はタッチ点に対する浮上操作を検出し、終止タッチ位置を獲得する。
1608:端末は終止タッチ位置のタッチ識別子が上記タッチ点のタッチ識別子とマッチングするか否かを判断する。
1609:マッチングすれば、端末は(x2,y2)を(x1,y1)とし、(x3,y3)を(x2,y2)とし、このように類推すると、(xn-1,yn-1)を(xn-2,yn-2)とし、(xn,yn)を(xn-1,yn-1)とし、終止タッチ位置の座標を(xn,yn)とする。
1610:端末はn個のタッチ位置の座標及び対応する重みに基づいて、目標タッチ位置の座標を計算し、目標タッチ位置を獲得する。ここで、nは1よりも大きい正の整数である。
例えば、nは3であり、即ち、3つのタッチ位置を決定し、該3つのタッチ位置の座標(x1,y1)、(x2,y2)及び(x3,y3)を獲得する必要がある。タッチ位置の座標を決定する過程で、合計で10個のタッチ位置を獲得すると仮定し、初期タッチ位置を獲得した後に、初期タッチ位置の座標を(x1,y1)、(x2,y2)及び(x3,y3)とし、2番目のタッチ位置を獲得した後に、2番目のタッチ位置の座標を(x3,y3)とし、3番目のタッチ位置を獲得した後に、(x3,y3)(2番目のタッチ位置の座標)を(x2,y2)とし、3番目のタッチ位置の座標を(x3,y3)とし、4番目のタッチ位置の座標を獲得した後に、(x2,y2)(2番目のタッチ位置の座標)を(x1,y1)とし、(x3,y3)(3番目のタッチ位置の座標)を(x2,y2)とし、4番目のタッチ位置の座標を(x3,y3)とし、終止タッチ位置を獲得するまで類推し、(x2,y2)(8番目のタッチ位置の座標)を(x1,y1)とし、(x3,y3)(9番目のタッチ位置の座標)を(x2,y2)とし、終止タッチ位置の座標を(x3,y3)とし、最後3つのタッチ位置の座標を獲得する。
図17は本願の実施例が提供する仮想オブジェクトの制御装置の構造模式図である。図17に参照されるように、該装置は、タッチ位置決定モジュール1701、目標位置決定モジュール1702、第1方向決定モジュール1703及び第1制御モジュール1704を含み、
上記タッチ位置決定モジュール1701は、タッチ制御領域に対するタッチ操作に応答し、タッチ操作が通過した少なくとも2つのタッチ位置を決定することに用いられ、少なくとも2つのタッチ位置はタッチ操作が最後に通過したプリセット数のタッチ位置から選択され、
上記目標位置決定モジュール1702は、プリセットポリシーに基づいて少なくとも2つのタッチ位置に対して合併を行うことにより、タッチ操作の目標タッチ位置を決定することに用いられ、
上記第1方向決定モジュール1703は、目標タッチ位置が指示する第1照準方向を決定することに用いられ、
上記第1制御モジュール1704は、第1仮想オブジェクトが第1照準方向に応じてスキル解放操作を実行するように制御することに用いられる。
本願の実施例が提供する装置は、タッチ制御領域でのタッチ操作の最後1つのタッチ位置のみに基づいて照準方向を決定することではなく、タッチ操作の少なくとも2つのタッチ位置を決定し、該少なくとも2つのタッチ位置を総合的に考慮して目標タッチ位置を決定し、ユーザの誤操作のために生じた最後1つのタッチ位置とユーザが所望するタッチ位置とが一致しない状況を回避し、獲得された目標タッチ位置はユーザが所望するタッチ位置を反映することができる。それにより目標タッチ位置が指示する照準方向はユーザのニーズをよりよく満たすことができ、照準方向の正確率を向上させ、その後、決定された照準方向に応じて、第1仮想オブジェクトがスキル解放操作を実行するように制御し、第1仮想オブジェクトのスキル解放操作に対する制御もより正確である。
一種の可能な実現形態では、図18に参照されるように、目標位置決定モジュール1702は、重み決定ユニット1712及び座標決定ユニット1722を含み、
上記重み決定ユニット1712は、少なくとも2つのタッチ位置の配列順序に応じて、少なくとも2つのタッチ位置の重みを決定することに用いられ、
上記座標決定ユニット1722は、少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の座標に対して重み付け処理を行い、目標タッチ位置の座標を獲得することに用いられる。
別の可能な実現形態では、図18に参照されるように、タッチ位置の座標は横座標及び縦座標を含み、座標決定ユニット1722は、
少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の横座標に対して重み付け加算を行い、目標タッチ位置の横座標を獲得し、
少なくとも2つのタッチ位置の重みに応じて、少なくとも2つのタッチ位置の縦座標に対して重み付け加算を行い、目標タッチ位置の縦座標を獲得することに用いられる。
別の可能な実現形態では、図18に参照されるように、タッチ位置決定モジュール1701は、第1位置決定ユニット1711、第2位置決定ユニット1721及び第3位置決定ユニット1731を含み、
上記第1位置決定ユニット1711は、タッチ制御領域でのタッチ点に対応する押下操作に応答し、押下操作に対応する初期タッチ位置を決定することに用いられ、
上記第2位置決定ユニット1721は、タッチ点がタッチ制御領域でスライドする過程での少なくとも1つのタッチ位置を決定することに用いられ、
上記第3位置決定ユニット1731は、タッチ制御領域でのタッチ点に対応する浮上操作に応答し、浮上操作に対応する終止タッチ位置を決定することに用いられる。
別の可能な実現形態では、図18に参照されるように、装置は識別子割り当てモジュール1705をさらに含み、
上記識別子割り当てモジュール1705は、タッチ制御領域でのタッチ点に対応する押下操作に応答し、タッチ点のためにタッチ識別子を割り当てることに用いられ、
上記第2位置決定ユニット1721は、タッチ制御領域で検出した、タッチ識別子とマッチングする少なくとも2つのタッチ位置を決定することに用いられる。
別の可能な実現形態では、図18に参照されるように、第1制御モジュール1704は、オブジェクト決定ユニット1714及び第1制御ユニット1724を含み、
上記オブジェクト決定ユニット1714は、第1照準方向上において、第1仮想オブジェクトとの間の距離が最も近い第2仮想オブジェクトを決定することに用いられ、
上記第1制御ユニット1724は、第1仮想オブジェクトが第2仮想オブジェクトにスキル解放操作を実行するように制御することに用いられる。
別の可能な実現形態では、図18に参照されるように、第1制御モジュール1704は、照準位置決定ユニット1734及び第2制御ユニット1744を含み、
上記照準位置決定ユニット1734は、第1照準方向及び第1プリセット距離に基づいて、第1照準方向上における照準位置を決定することに用いられ、照準位置と第1仮想オブジェクトとの間の距離は第1プリセット距離であり、
上記第2制御ユニット1744は、第1仮想オブジェクトが照準位置にスキル解放操作を実行するように制御することに用いられる。
別の可能な実現形態では、図18に参照されるように、タッチ制御領域は第1タッチ制御サブ領域及び第2タッチ制御サブ領域を含み、第2タッチ制御サブ領域は第1タッチ制御サブ領域の外側に位置し、
目標位置決定モジュール1702は、終止タッチ位置が第2タッチ制御サブ領域に位置すると、少なくとも2つのタッチ位置に基づいて、タッチ操作の目標タッチ位置を決定することに用いられる。
別の可能な実現形態では、図18に参照されるように、装置は第2方向決定モジュール1706及び第2制御モジュール1707をさらに含み、
上記第2方向決定モジュール1706は、少なくとも2つのタッチ位置がいずれも第1タッチ制御サブ領域に位置すると、プリセットルールに応じて第2照準方向を決定することに用いられ、
上記第2制御モジュール1707は、第1仮想オブジェクトが第2照準方向に応じてスキル解放操作を実行するように制御することに用いられる。
別の可能な実現形態では、図18に参照されるように、第2方向決定モジュール1706は、オブジェクト位置決定ユニット1716及び第2方向決定ユニット1726を含み、
上記オブジェクト位置決定ユニット1716は、第1仮想オブジェクトとの間の距離が第2プリセット距離よりも小さい第3仮想オブジェクトの位置を決定することに用いられ、
上記第2方向決定ユニット1726は、第1仮想オブジェクトの位置及び第3仮想オブジェクトの位置に基づいて、第2照準方向を決定することに用いられる。
別の可能な実現形態では、図18に参照されるように、装置はボタン表示モジュール1708及びタッチ制御領域表示モジュール1709をさらに含み、
上記ボタン表示モジュール1708は、第1仮想オブジェクトに対応する仮想シーンインターフェースによって、第1仮想オブジェクトのスキル解放ボタンを表示することに用いられ、
上記タッチ制御領域表示モジュール1709は、スキル解放ボタンに対するトリガー操作に応答し、仮想シーンインターフェースによってタッチ制御領域を表示することに用いられる。
上記すべての選択的な技術的手段、任意の結合を採用して本願の選択的な実施例を形成することができ、ここで再度逐一言及しない。
説明する必要がある点として、上記実施例が提供する仮想オブジェクトの制御装置が仮想オブジェクトを制御するとき、上記各機能モジュールの分割のみを例として説明し、実際の適用では、必要に応じて上記機能を異なる機能モジュールに割り当てて完了させてもよく、即ち、端末の内部構造を異なる機能モジュールに分割することにより、以上で記述された全部又は一部の機能を完了する。また、上記実施例が提供する仮想オブジェクトの制御装置は仮想オブジェクトの調整方法の実施例と同一の構想に属し、その具体的な実現過程は方法実施例に詳しく記載されており、ここで再度言及しない。
図19は本願の1つの例示的実施例が提供する端末1900の構造模式図を示す。該端末1900は、携帯型移動端末、例えば、スマートフォン、タブレットパソコン、MP3プレーヤー(Moving Picture Experts Group Audio Layer III、動画専門家集団オーディオレイヤー3)、MP4(Moving Picture Experts Group Audio Layer IV、動画専門家集団オーディオレイヤー4)プレーヤー、ノートパソコン又はデスクトップパソコンであってもよい。端末1900はユーザ装置、携帯型端末、ラップトップ型端末、デスクトップ型端末等の他の名称で呼ばれてもよい。
通常、端末1900はプロセッサ1901及びメモリ1902を含む。
プロセッサ1901は、1つ又は複数の処理コア、例えば4コアプロセッサ、8コアプロセッサ等を含んでもよい。プロセッサ1901は、DSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field-Programmable Gate Array、フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array、プログラマブルロジックアレイ)のうちの少なくとも一種のハードウェア形式を採用して実現してもよい。プロセッサ1901はまた、メインプロセッサ及びコプロセッサを含んでもよく、メインプロセッサは、ウェイク状態下でのデータを処理することに用いられるプロセッサであり、CPU(Central Processing Unit、中央プロセッサ)とも呼ばれ、コプロセッサは、スタンバイ状態下でのデータを処理することに用いられる低電力プロセッサである。いくつかの実施例では、プロセッサ1901にはGPU(Graphics Processing Unit、グラフィックスプロセッシングユニット)が集積されてもよく、GPUは、表示画面に表示する必要がある内容のレンダリング及び描画を担当することに用いられる。いくつかの実施例では、プロセッサ1901は、AI(Artificial Intelligence、人工知能)プロセッサをさらに含んでもよく、該AIプロセッサは、機械学習に関する計算操作を処理することに用いられる。
メモリ1902は1つ又は複数のコンピュータ可読記憶媒体を含んでもよく、該コンピュータ可読記憶媒体は非一時的なものであってもよい。メモリ1902は、高速ランダムアクセスメモリ、及び不揮発性メモリ、例えば1つ又は複数の磁気ディスク記憶機器、フラッシュ記憶機器をさらに含んでもよい。いくつかの実施例では、メモリ1902中の非一時的なコンピュータ可読記憶媒体は少なくとも1つの命令を記憶することに用いられ、該少なくとも1つの命令は、プロセッサ1901により実行されて本願の方法実施例が提供するマンマシン対話に基づくコールピックアップ方法を実現することに用いられる。
いくつかの実施例では、端末1900は、周辺機器インターフェース1903及び少なくとも1つの周辺機器をさらに選択的に含んでもよい。プロセッサ1901、メモリ1902と周辺機器インターフェース1903との間はバス又は信号線を介して連結されてもよい。各々の周辺機器はバス、信号線又は回路基板を介して周辺機器インターフェース1903に連結されてもよい。具体的には、周辺機器は、無線周波数回路1904、表示画面1905、カメラコンポーネント1906、オーディオ回路1907、測位コンポーネント1908及び電源1909のうちの少なくとも一種を含む。
周辺機器インターフェース1903は、I/O(Input/Output、入力/出力)に関連する少なくとも1つの周辺機器をプロセッサ1901及びメモリ1902に接続することに用いられてもよい。いくつかの実施例では、プロセッサ1901、メモリ1902及び周辺機器インターフェース1903は同一のチップ又は回路基板上に集積され、いくつかの他の実施例では、プロセッサ1901、メモリ1902及び周辺機器インターフェース1903のうちの任意の1つ又は2つは単独のチップ又は回路基板上で実現されてもよく、本実施例はこれに対して限定を加えない。
いくつかの実施例では、端末1900は1つ又は複数のセンサ1910をさらに含む。該1つ又は複数のセンサ1910は、加速度センサ1911、ジャイロセンサ1912、圧力センサ1919、指紋センサ1914、光学センサ1915及び近接センサ1916を含むが、それらに限定されない。
当業者が理解できるように、図19に示される構造は端末1900に対する限定を構成しておらず、図示したものよりも多い又は少ないコンポーネントを含んだり、又はいくつかのコンポーネントを組み合わせたり、又は異なるコンポーネントの配置を採用したりしてもよい。
図20は本願の実施例が提供するサーバの構造模式図であり、該サーバ2000は構成又は性能が異なるため比較的大きな差異が生じることができ、1つ又は1つ以上のプロセッサ(Central Processing Units、CPU)2001及び1つ又は1つ以上のメモリ2002を含んでもよく、ここで、メモリ2002に少なくとも1つの命令が記憶されており、該少なくとも1つの命令はプロセッサ2001によりロードされ且つ実行されて上記各々の方法実施例が提供する方法を実現する。勿論、該サーバは有線又は無線ネットワークインターフェース、キーボード及び入出力インターフェース等の部材をさらに有してもよく、それにより入出力を行い、該サーバは機器の機能を実現することに用いられる他の部材をさらに含んでもよく、ここで言及しない。
サーバ2000は上記仮想オブジェクトの制御方法でサーバが実行するステップを実行することに用いることができる。
本願の実施例はコンピュータ機器をさらに提供し、該コンピュータ機器はプロセッサ及びメモリを含み、メモリに少なくとも1つの命令が記憶されており、該少なくとも1つの命令はプロセッサによりロードされ且つ実行されることにより、上記実施例の仮想オブジェクトの制御方法で実行される操作を実現する。
本願の実施例はコンピュータ可読記憶媒体をさらに提供し、該コンピュータ可読記憶媒体に少なくとも1つの命令が記憶されており、該少なくとも1つの命令はプロセッサによりロードされ且つ実行されることにより、上記実施例の仮想オブジェクトの制御方法で実行される操作を実現する。
本願の実施例はコンピュータプログラムをさらに提供し、該コンピュータプログラムに少なくとも1つの命令が記憶されており、該少なくとも1つの命令はプロセッサによりロードされ且つ実行されることにより、上記実施例の仮想オブジェクトの制御方法で実行される操作を実現する。
当業者が理解できるように、上記実施例の全部又は一部のステップを実現することはハードウェアによって完了されてもよく、プログラムによって関連するハードウェアを命令して完了されてもよく、該プログラムは一種のコンピュータ可読記憶媒体に記憶されてもよく、上記に言及した記憶媒体は読み出し専用メモリ、磁気ディスク又は光ディスク等であってもよい。
以上は本願の実施例の選択的な実施例に過ぎず、本願の実施例を制限するためのものではなく、本願の実施例の精神及び原則内で行われる任意の修正、均等物への置換や改良等であれば、いずれも本願の特許発明の技術的範囲内に含まれるべきである。
10 サーバ
20 ネットワーク
30 端末
40 端末
50 端末
300 仮想シーンインターフェース
301 第1仮想オブジェクト
302 第2仮想オブジェクト
303 スキル解放ボタン
400 タッチ制御領域
500 仮想シーンインターフェース
1900 端末
1901 プロセッサ
1902 メモリ
1903 周辺機器インターフェース
1904 無線周波数回路
1905 表示画面
1906 カメラコンポーネント
1907 オーディオ回路
1908 測位コンポーネント
1909 電源
1910 センサ
1911 加速度センサ
1912 ジャイロセンサ
1914 指紋センサ
1915 光学センサ
1916 近接センサ
1919 圧力センサ
2000 サーバ
2001 プロセッサ
2002 メモリ

Claims (18)

  1. 1つの端末機器により実行される、仮想オブジェクトの制御方法であって、前記制御方法は、
    タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作が通過した少なくとも3つのタッチ位置のうちの少なくとも2つのタッチ位置を決定するステップであって、前記少なくとも2つのタッチ位置は前記タッチ操作が最後に通過したプリセット数のタッチ位置から選択される、ステップと、
    プリセットポリシーに基づいて前記少なくとも2つのタッチ位置に対して合併を行うことにより、前記タッチ操作の目標タッチ位置を決定するステップであって、
    前記少なくとも2つのタッチ位置の配列順序に応じて、前記少なくとも2つのタッチ位置の重みを決定するステップと、
    前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の座標に対して重み付け合併を行い、前記目標タッチ位置の座標を獲得するステップと、を含む、ステップと、
    前記目標タッチ位置が指示する第1照準方向を決定するステップと、
    第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御するステップと、を含む、仮想オブジェクトの制御方法。
  2. 前記目標タッチ位置の座標を獲得するステップは、
    前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の横座標に対して重み付け加算を行い、前記目標タッチ位置の横座標を獲得するステップと、
    前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の縦座標に対して重み付け加算を行い、前記目標タッチ位置の縦座標を獲得するステップと、を含む、請求項に記載の方法。
  3. 前記タッチ操作が通過した少なくとも2つのタッチ位置を決定するステップは、
    前記タッチ制御領域でのタッチ点に対応する押下操作に応答するステップと、
    前記タッチ点が前記タッチ制御領域でスライドする過程での少なくとも1つの中間タッチ位置を決定するステップと、
    前記タッチ制御領域での前記タッチ点に対応する浮上操作に応答し、前記浮上操作に対応する終止タッチ位置を決定するステップと、
    前記少なくとも1つの中間タッチ位置及び前記終止タッチ位置から前記プリセット数のタッチ位置を決定するステップと、を含む、請求項1に記載の方法。
  4. 前記タッチ制御領域でのタッチ点に対応する押下操作に応答し、前記タッチ点のためにタッチ識別子を割り当てるステップをさらに含み、
    前記タッチ点が前記タッチ制御領域でスライドする過程での少なくとも1つのタッチ位置を決定する前記ステップは、
    前記タッチ制御領域で検出した、前記タッチ識別子とマッチングする少なくとも2つのタッチ位置を決定するステップを含む、請求項に記載の方法。
  5. 第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御する前記ステップは、
    前記第1照準方向上において、前記第1仮想オブジェクトとの間の距離が最も近い第2仮想オブジェクトを決定するステップと、
    前記第1仮想オブジェクトが前記第2仮想オブジェクトに前記スキル解放操作を実行するように制御するステップと、を含む、請求項1に記載の方法。
  6. 第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御する前記ステップは、
    前記第1照準方向及び第1プリセット距離に基づいて、前記第1照準方向上における照準位置を決定するステップであって、前記照準位置と前記第1仮想オブジェクトとの間の距離は前記第1プリセット距離である、ステップと、
    前記第1仮想オブジェクトが前記照準位置に前記スキル解放操作を実行するように制御するステップと、を含む、請求項1に記載の方法。
  7. 前記タッチ制御領域は第1タッチ制御サブ領域及び第2タッチ制御サブ領域を含み、前記第2タッチ制御サブ領域は前記第1タッチ制御サブ領域の外側に位置し、前記少なくとも2つのタッチ位置に基づいて、前記タッチ操作の目標タッチ位置を決定する前記ステップは、
    終止タッチ位置が前記第2タッチ制御サブ領域に位置すると、前記少なくとも2つのタッチ位置に基づいて、前記タッチ操作の目標タッチ位置を決定するステップを含む、請求項1に記載の方法。
  8. タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作の少なくとも2つのタッチ位置を決定する前記ステップの後に、前記制御方法は、
    前記少なくとも2つのタッチ位置がいずれも前記第1タッチ制御サブ領域に位置すると、プリセットルールに応じて第2照準方向を決定するステップと、
    前記第1仮想オブジェクトが前記第2照準方向に応じて前記スキル解放操作を実行するように制御するステップと、をさらに含む、請求項に記載の方法。
  9. プリセットルールに応じて第2照準方向を決定する前記ステップは、 前記第1仮想オブジェクトとの間の距離が第2プリセット距離よりも小さい第3仮想オブジェクトの位置を決定するステップと、
    前記第1仮想オブジェクトの位置及び前記第3仮想オブジェクトの位置に基づいて、前記第2照準方向を決定するステップと、を含む、請求項に記載の方法。
  10. タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作の少なくとも2つのタッ
    チ位置を決定する前記ステップの前に、前記制御方法は、
    前記第1仮想オブジェクトに対応する仮想シーンインターフェースによって、前記第1仮想オブジェクトのスキル解放ボタンを表示するステップと、
    前記スキル解放ボタンに対するトリガー操作に応答し、前記仮想シーンインターフェースによって前記タッチ制御領域を表示するステップと、をさらに含む、請求項1に記載の方法。
  11. 仮想オブジェクトの制御装置であって、タッチ位置決定モジュール、目標位置決定モジュール、第1方向決定モジュール、及び第1制御モジュールを含み、前記タッチ位置決定モジュールは、重み決定ユニット及び座標決定ユニットを含み、
    前記タッチ位置決定モジュールは、タッチ制御領域に対するタッチ操作に応答し、前記タッチ操作が通過した少なくとも3つのタッチ位置のうちの少なくとも2つのタッチ位置を決定することに用いられ、前記少なくとも2つのタッチ位置は前記タッチ操作が最後に通過したプリセット数のタッチ位置から選択され、
    前記重み決定ユニットは、前記少なくとも2つのタッチ位置の配列順序に応じて、前記少なくとも2つのタッチ位置の重みを決定することに用いられ、
    前記座標決定ユニットは、前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の座標に対して重み付け合併を行い、目標タッチ位置の座標を獲得することに用いられ、
    前記目標位置決定モジュールは、プリセットポリシーに基づいて前記少なくとも2つのタッチ位置に対して合併を行うことにより、前記タッチ操作の前記目標タッチ位置を決定することに用いられ、
    前記第1方向決定モジュールは、前記目標タッチ位置が指示する第1照準方向を決定することに用いられ、
    前記第1制御モジュールは、第1仮想オブジェクトが前記第1照準方向に応じてスキル解放操作を実行するように制御することに用いられる、仮想オブジェクトの制御装置。
  12. 前記目標位置決定モジュールは、重み決定ユニット及び座標決定ユニットを含み、
    前記重み決定ユニットは、前記少なくとも2つのタッチ位置の配列順序に応じて、前記少なくとも2つのタッチ位置の重みを決定することに用いられ、
    前記座標決定ユニットは、前記少なくとも2つのタッチ位置の重みに応じて、前記少なくとも2つのタッチ位置の座標に対して重み付け合併を行い、前記目標タッチ位置の座標を獲得することに用いられる、請求項11に記載の装置。
  13. 前記タッチ位置決定モジュールは、第1位置決定ユニット、第2位置決定ユニット及び第3位置決定ユニットを含み、
    前記第1位置決定ユニットは、前記タッチ制御領域でのタッチ点に対応する押下操作に応答し、前記押下操作に対応する初期タッチ位置を決定することに用いられ、
    前記第2位置決定ユニットは、前記タッチ点が前記タッチ制御領域でスライドする過程での少なくとも1つのタッチ位置を決定することに用いられ、
    前記第3位置決定ユニットは、前記タッチ制御領域での前記タッチ点に対応する浮上操作に応答し、前記浮上操作に対応する終止タッチ位置を決定することに用いられる、請求項11に記載の装置。
  14. 前記第1制御モジュールは、オブジェクト決定ユニット及び第1制御ユニットを含み、
    前記オブジェクト決定ユニットは、前記第1照準方向上において、前記第1仮想オブジェクトとの間の距離が最も近い第2仮想オブジェクトを決定することに用いられ、
    前記第1制御ユニットは、前記第1仮想オブジェクトが前記第2仮想オブジェクトに前記スキル解放操作を実行するように制御することに用いられる、請求項11に記載の装置。
  15. 前記第1制御モジュールは、照準位置決定ユニット及び第2制御ユニットを含み、
    前記照準位置決定ユニットは、前記第1照準方向及び第1プリセット距離に基づいて、前記第1照準方向上における照準位置を決定することに用いられ、前記照準位置と前記第1仮想オブジェクトとの間の距離は前記第1プリセット距離であり、
    前記第2制御ユニットは、前記第1仮想オブジェクトが前記照準位置に前記スキル解放操作を実行するように制御することに用いられる、請求項11に記載の装置。
  16. 前記タッチ制御領域は第1タッチ制御サブ領域及び第2タッチ制御サブ領域を含み、前記第2タッチ制御サブ領域は前記第1タッチ制御サブ領域の外側に位置し、
    目標位置決定モジュールは、終止タッチ位置が前記第2タッチ制御サブ領域に位置すると、前記少なくとも2つのタッチ位置に基づいて、前記タッチ操作の目標タッチ位置を決定することに用いられる、請求項11に記載の装置。
  17. コンピュータ機器であって、前記コンピュータ機器はプロセッサ及びメモリを含み、前記メモリに少なくとも1つの命令が記憶されており、前記少なくとも1つの命令は前記プロセッサがロードし、実行することにより、請求項1~10のいずれか一項に記載の仮想オブジェクトの制御方法を実施する、ことを特徴とするコンピュータ機器。
  18. プロセッサがロードし、実行することにより、請求項1~10のいずれか一項に記載の仮想オブジェクトの制御方法を実施する、ことを特徴とするコンピュータプログラム。
JP2021563357A 2020-06-05 2021-05-11 仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム Active JP7384521B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010507467.0 2020-06-05
CN202010507467.0A CN111672115B (zh) 2020-06-05 2020-06-05 虚拟对象控制方法、装置、计算机设备及存储介质
PCT/CN2021/093061 WO2021244237A1 (zh) 2020-06-05 2021-05-11 虚拟对象控制方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022540278A JP2022540278A (ja) 2022-09-15
JP7384521B2 true JP7384521B2 (ja) 2023-11-21

Family

ID=72435176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021563357A Active JP7384521B2 (ja) 2020-06-05 2021-05-11 仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム

Country Status (6)

Country Link
US (2) US12005360B2 (ja)
EP (1) EP3939679A4 (ja)
JP (1) JP7384521B2 (ja)
KR (1) KR102648249B1 (ja)
CN (1) CN111672115B (ja)
WO (1) WO2021244237A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111672115B (zh) 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
CN112717403B (zh) * 2021-01-22 2022-11-29 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141632A (ja) 2010-01-06 2011-07-21 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2018517533A (ja) 2015-10-10 2018-07-05 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 情報処理方法、端末、及びコンピュータ記憶媒体
CN110613933A (zh) 2019-09-24 2019-12-27 网易(杭州)网络有限公司 游戏中技能释放控制方法、装置、存储介质和处理器

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5044956A (en) * 1989-01-12 1991-09-03 Atari Games Corporation Control device such as a steering wheel for video vehicle simulator with realistic feedback forces
US5999168A (en) * 1995-09-27 1999-12-07 Immersion Corporation Haptic accelerator for force feedback computer peripherals
JP2004057634A (ja) * 2002-07-31 2004-02-26 Shuji Sonoda ゲーム装置及びそれを実現するプログラム
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US8210943B1 (en) * 2006-05-06 2012-07-03 Sony Computer Entertainment America Llc Target interface
US8834245B2 (en) * 2007-08-17 2014-09-16 Nintendo Co., Ltd. System and method for lock on target tracking with free targeting capability
ES2822336T3 (es) * 2010-04-19 2021-04-30 Guillemot Corp Controlador direccional de juego
JP5832489B2 (ja) * 2013-08-26 2015-12-16 株式会社コナミデジタルエンタテインメント 移動制御装置及びプログラム
CN104216617B (zh) * 2014-08-27 2017-05-24 小米科技有限责任公司 光标位置确定方法和装置
CN104935725B (zh) * 2015-04-23 2016-07-27 努比亚技术有限公司 移动终端及其利用虚拟边框区域实现功能调节的方法
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
JP6661513B2 (ja) * 2016-10-31 2020-03-11 株式会社バンク・オブ・イノベーション ビデオゲーム処理装置、及びビデオゲーム処理プログラム
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
IL266888B2 (en) 2016-12-05 2024-05-01 Magic Leap Inc Virtual user input controls in a mixed reality environment
CN109529327B (zh) * 2017-09-21 2022-03-04 腾讯科技(深圳)有限公司 虚拟交互场景中目标定位方法、装置及电子设备
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质
CN108499104B (zh) * 2018-04-17 2022-04-15 腾讯科技(深圳)有限公司 虚拟场景中的方位显示方法、装置、电子装置及介质
CN108837506A (zh) * 2018-05-25 2018-11-20 网易(杭州)网络有限公司 一种竞速游戏中虚拟道具的控制方法、装置及存储介质
CN108771863B (zh) 2018-06-11 2022-04-15 网易(杭州)网络有限公司 射击游戏的控制方法和装置
CN110624240B (zh) * 2018-06-25 2023-10-13 腾讯科技(上海)有限公司 一种网络游戏的操作控制方法、装置、终端设备和介质
JP7207911B2 (ja) * 2018-09-06 2023-01-18 株式会社バンダイナムコエンターテインメント プログラム、ゲームシステム、サーバシステム及びゲーム提供方法
CN109224439B (zh) * 2018-10-22 2022-07-29 网易(杭州)网络有限公司 游戏瞄准的方法及装置、存储介质、电子装置
US11189127B2 (en) * 2019-06-21 2021-11-30 Green Jade Games Ltd Target shooting game with banking of player error
CN110275639B (zh) * 2019-06-26 2023-03-28 Oppo广东移动通信有限公司 触摸数据处理方法、装置、终端及存储介质
CN110652725A (zh) 2019-09-29 2020-01-07 网易(杭州)网络有限公司 游戏中瞄准方向的控制方法、装置、电子设备及存储介质
CN110665222B (zh) 2019-09-29 2024-04-19 网易(杭州)网络有限公司 游戏中的瞄准方向控制方法、装置、电子设备及存储介质
US11071906B2 (en) * 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
CN111151002A (zh) * 2019-12-30 2020-05-15 北京金山安全软件有限公司 触控瞄准方法和装置
US11541317B2 (en) * 2020-02-06 2023-01-03 Sony Interactive Entertainment Inc. Automated weapon selection for new players using AI
CN111672115B (zh) * 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
CN116688502A (zh) * 2022-02-25 2023-09-05 腾讯科技(深圳)有限公司 虚拟场景中的位置标记方法、装置、设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141632A (ja) 2010-01-06 2011-07-21 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP2018517533A (ja) 2015-10-10 2018-07-05 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 情報処理方法、端末、及びコンピュータ記憶媒体
CN110613933A (zh) 2019-09-24 2019-12-27 网易(杭州)网络有限公司 游戏中技能释放控制方法、装置、存储介质和处理器

Also Published As

Publication number Publication date
US12005360B2 (en) 2024-06-11
JP2022540278A (ja) 2022-09-15
EP3939679A1 (en) 2022-01-19
CN111672115A (zh) 2020-09-18
CN111672115B (zh) 2022-09-23
KR102648249B1 (ko) 2024-03-14
US20240325910A1 (en) 2024-10-03
KR20210151843A (ko) 2021-12-14
EP3939679A4 (en) 2022-08-31
WO2021244237A1 (zh) 2021-12-09
US20220040579A1 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
JP7331124B2 (ja) 仮想オブジェクトの制御方法、装置、端末及び記憶媒体
CN111481932B (zh) 虚拟对象的控制方法、装置、设备和存储介质
WO2021227682A1 (zh) 虚拟对象的控制方法、装置、设备及介质
JP7124235B2 (ja) 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
WO2021143259A1 (zh) 虚拟对象的控制方法、装置、设备及可读存储介质
JP2022517194A (ja) 仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム
CN110465087B (zh) 虚拟物品的控制方法、装置、终端及存储介质
JP7384521B2 (ja) 仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム
JP7137719B2 (ja) 仮想オブジェクトの選択方法、装置、端末及びプログラム
CN114225372B (zh) 虚拟对象的控制方法、装置、终端、存储介质及程序产品
JP2022540283A (ja) 仮想シーンにおける仮想オブジェクト制御方法、装置、機器及びコンピュータプログラム
CN113633975B (zh) 虚拟环境画面的显示方法、装置、终端及存储介质
US12064689B2 (en) Method for selecting virtual objects, apparatus, terminal and storage medium
JP2024509064A (ja) 位置マークの表示方法及び装置、機器並びにコンピュータプログラム
CN113134232B (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
JPWO2021143259A5 (ja)
JP2024026661A (ja) 仮想オブジェクトの制御方法、装置、端末及びコンピュータプログラム
US20230271087A1 (en) Method and apparatus for controlling virtual character, device, and storage medium
WO2023071808A1 (zh) 基于虚拟场景的图形显示方法、装置、设备以及介质
CN113509729B (zh) 虚拟道具的控制方法、装置、计算机设备及存储介质
CN113546403A (zh) 角色控制方法、装置、终端和计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231102

R150 Certificate of patent or registration of utility model

Ref document number: 7384521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150