JP6911199B2 - 仮想対話型シナリオにおけるターゲット位置決め方法及び装置 - Google Patents

仮想対話型シナリオにおけるターゲット位置決め方法及び装置 Download PDF

Info

Publication number
JP6911199B2
JP6911199B2 JP2020516543A JP2020516543A JP6911199B2 JP 6911199 B2 JP6911199 B2 JP 6911199B2 JP 2020516543 A JP2020516543 A JP 2020516543A JP 2020516543 A JP2020516543 A JP 2020516543A JP 6911199 B2 JP6911199 B2 JP 6911199B2
Authority
JP
Japan
Prior art keywords
suction
point
suction point
target
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020516543A
Other languages
English (en)
Other versions
JP2020534615A (ja
Inventor
リン,シア
ウー,ドン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2020534615A publication Critical patent/JP2020534615A/ja
Application granted granted Critical
Publication of JP6911199B2 publication Critical patent/JP6911199B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

[関連出願への相互参照]
本願は、2017年9月21日に提出された発明名称「仮想対話型シナリオにおけるターゲット位置決め方法及び装置」の中国特許出願第2017108575509号の優先権を主張し、ここで、その内容の全体を引用によって本明細書に組み込まれる。
[技術分野]
本開示はコンピュータの技術分野に関し、特に仮想対話型シナリオにおけるターゲット位置決め方法、装置及び電子機器に関する。
コンピュータ技術の発展に伴って、一人称で構築された仮想対話型シナリオは徐々にユーザの視野に入り、たとえば、該仮想対話型シナリオは射撃ゲームシナリオ、攻撃ゲームシナリオ等を含むことができる。射撃ゲームシナリオを例として、ユーザは、射撃ゲームシナリオにおいて一人称で作成されたユーザ操作対象を介して照準して射撃するゲームを行い、すなわち、ユーザの主観的視点によって仮想ターゲットの照準を行って、更に仮想ターゲットへの射撃を行う。
ユーザの視角の影響により、仮想ターゲットの照準は偏っている可能性があり、その結果、仮想ターゲットへ不正確に射撃することが引き起こされる。そのため、従来技術において、ターゲット位置決め方法を提供しており、即ち、仮想ターゲットに吸引点を設置し、仮想ターゲットを指すトリガー点が該吸引点に接近する場合、トリガー点が仮想ターゲットに設置された吸引点に自動的に吸引され、それによって射撃ゲームシナリオにおける仮想ターゲットの自動照準を実現し、それによりユーザがターゲット位置決めを正確に完了することを支援する。
吸引点は一般的に仮想ターゲットの固定位置に設置されるため、トリガー点が該固定位置に接近するときだけ、自動吸引が有効になり、そうでない場合、仮想ターゲットの照準が依然として不正確になる可能性がある。
以上から分かるように、仮想対話型シナリオにおいて、従来のターゲット位置決め方法は依然として柔軟性の欠如の制限がある。
上記技術課題を解決するために、本開示の1つの目的は、仮想対話型シナリオにおけるターゲット位置決め方法、装置及び電子機器を提供することである。
本開示が採用される技術案は以下のとおりである。
仮想対話型シナリオにおけるターゲット位置決め方法であって、ユーザがターゲット位置決めを行うためのトリガー操作を監視し、トリガー点のスクリーンでの位置を取得するステップと、前記トリガー点の位置及び仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定するステップであって、吸引点位置毎に一つの吸引点に対応するステップと、前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置する場合、複数の前記吸引点に対して吸引点重み値を計算して、吸引点に対応する複数の吸引点重み値を得るステップと、最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動するステップとを含む。
仮想対話型シナリオにおけるターゲット位置決め装置であって、ユーザがターゲット位置決めを行うためのトリガー操作を監視し、トリガー点のスクリーンでの位置を取得するように構成されるトリガー点位置取得モジュールと、前記トリガー点の位置及び仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定するように構成される吸引点位置取得モジュールであって、吸引点位置毎に一つの吸引点に対応する吸引点位置取得モジュールと、前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置する場合、複数の前記吸引点に対して吸引点重み値を計算して、吸引点に対応する複数の吸引点重み値を得るように構成される吸引点重み計算モジュールと、最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動するように構成されるトリガー点移動モジュールとを備える。
電子機器であって、プロセッサと、前記プロセッサによって実行されるときに上述した仮想対話型シナリオにおけるターゲット位置決め方法を実現するコンピュータ可読命令が記憶されているメモリとを備える。
コンピュータ可読記憶媒体であって、プロセッサによって実行されるときに上述した仮想対話型シナリオにおけるターゲット位置決め方法を実現するコンピュータプログラムが記憶されている。
従来技術に比べて、本開示は以下の有益な効果を有する。
仮想ターゲットに複数の吸引点を設置して、仮想ターゲットを指すためのトリガー点をいずれかの吸引点に接近させ、更にトリガー点をそのうちの1つの吸引点に自動的に吸引させるようにトリガーすることにより、ユーザがターゲット位置決めを正確に完了するのを支援する。
具体的には、ユーザがターゲット位置決めを行うためのトリガー操作を監視し、トリガー点のスクリーンでの位置を取得して、トリガー点の位置及び複数の吸引点に基づいて、吸引点位置を決定するようにトリガーし、且つトリガー点の位置がいずれかの吸引点位置によって決定された吸引範囲に位置する場合、複数の吸引点に対して吸引点重み値を計算し、吸引点に対応する複数の吸引点重み値を得て、更に、最大吸引点重み値に対応する吸引点が所在する吸引点位置にトリガー点を移動する。これにより、トリガー点が任意の吸引点に接近するときに自動吸引が有効になることができ、仮想対話型シナリオにおけるターゲット位置決めの柔軟性を更に効果的に強化する。
また、トリガー点が吸引点重み値が最も大きい吸引点に自動的に吸引され、吸引点に対応する吸引点重み値が変化すると、トリガー点の自動的な吸引はそれに従って変化し、ユーザにとって、トリガー点の自動吸引位置が固定ではなく、それにより、ターゲット位置決めの柔軟性を更に強化させる。
なお、以上の一般的な説明及び以下の詳細な説明は例示的及び解釈的なものに過ぎず、本開示を限定することができない。
従来技術に係る吸引点の模式図である。 例示的な実施例に係る電子機器のハードウェア構造模式図である。 例示的な実施例に係る仮想対話型シナリオにおけるターゲット位置決め方法のフローチャートである。 本開示に係る吸引点の模式図である。 例示的な実施例に係る別の仮想対話型シナリオにおけるターゲット位置決め方法のフローチャートである。 図3の対応する実施例におけるステップ330の1つの実施例でのフローチャートである。 本開示に係る吸引点位置によって決定された吸引範囲の模式図である。 図3の対応する実施例におけるステップ350の1つの実施例でのフローチャートである。 図8の対応する実施例におけるステップ355の1つの実施例でのフローチャートである。 例示的な実施例に係る別の仮想対話型シナリオにおけるターゲット位置決め方法のフローチャートである。 本開示に係るユーザ操作対象と仮想ターゲットとの間の相対変位の模式図である。 本開示に係る相対移動速度の模式図である。 本開示に係る吸引係数とユーザのスクリーンスライド速度との間の変換関係の模式図である。 例示的な実施例に係る仮想対話型シナリオにおけるターゲット位置決め装置のブロック図である。 例示的な実施例に係る別の仮想対話型シナリオにおけるターゲット位置決め装置のブロック図である。 図14の対応する実施例における吸引点位置取得モジュール730の1つの実施例でのブロック図である。 図14の対応する実施例における吸引点重み値計算モジュール750の1つの実施例でのブロック図である。 図17の対応する実施例における計算ユニット755の1つの実施例でのブロック図である。 例示的な実施例に係る別の仮想対話型シナリオにおけるターゲット位置決め装置のブロック図である。 例示的な実施例に係る電子機器の別のハードウェア構造模式図である。
上記の図は、本明細書の一部として明細書に組み込まれ、本開示に合致する実施例を示して、明細書と共に本開示の原理を解釈する。
上記図によって、本開示の明確な実施例を示しており、以下、より詳細に説明し、これらの図及び文字による説明は、決して何らかの方法で本開示の発想の範囲を限定するものではなく、特定の実施例を参照することによって当業者のために本開示の概念を説明するものである。
ここで、例示的な実施例を詳細に説明し、その例が図面に示される。以下の説明は図に関するときに、別段の指定がない限り、異なる図における同一の数字は同一又は類似する要素を示す。以下の例示的な実施例に説明された実施形態は本開示に合致するすべての実施形態を表すものではない。逆に、それらは、添付の特許請求の範囲に詳述された、本開示の一態様に合致する装置及び方法の例だけである。
上記のように、通常、吸引点が仮想ターゲットの固定位置に設置され、仮想ターゲットがアニメーションキャラクターであることを例として説明し、図1に示すように、吸引点が該アニメーションキャラクターの体に設置される場合、トリガー点がアニメーションキャラクターの体上の該吸引点に接近するだけで、自動吸引が有効になる。
これに基づき、従来技術においてターゲット位置決め方法は依然として柔軟性欠如の欠陥が存在し、それにより、本開示においては、該仮想対話型シナリオにおけるターゲット位置決め方法によりターゲット位置決めの柔軟性を効果的に強化する仮想対話型シナリオにおけるターゲット位置決め方法を提供する。
図2は例示的な実施例に係る電子機器100のハードウェア構造模式図である。該電子機器100はスマートフォン、コンピュータ、タブレットPC等であってもよく、ここで限定されない。
なお、該電子機器100は1つの本開示に適合された一例であり、本開示の使用範囲に対するいかなる限定を提供するものと考えることができない。該電子機器100は、図2に示された例示的な電子機器100における1つの又は複数のユニットに依存しなければならず又は含有する必要があると解釈することができない。
該電子機器100のハードウェア構造は異なる構成又は特性に応じて大きい差異を有することができ、図2に示すように、電子機器100は、電源110、インタフェース130、少なくとも1つの記憶媒体150、及び少なくとも1つの中央プロセッサ(CPU 、Central Processing Units)170を備える。
電源110は電子機器100上の各ハードウェア装置に動作電圧を提供する。
インタフェース130は少なくとも1つの有線又は無線ネットワークインタフェース131、少なくとも1つのシリアルパラレル変換インタフェース133、少なくとも1つの入出力インタフェース135及び少なくとも1つのUSBインタフェース137等を含み、外部機器と通信する。
記憶媒体150はリソース記憶媒体として、ランダム記憶媒体、磁気ディスク又は光ディスク等であってもよく、記憶されているリソースはオペレーティングシステム151、アプリケーションプログラム153及びデータ155等を含み、記憶方式は一時的な記憶又は恒久的な記憶であってもよい。オペレーティングシステム151は、中央プロセッサ170による大量のデータ155の計算及び処理を実現するために、電子機器100における各ハードウェア装置及びアプリケーションプログラム153を管理及び制御し、Windows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM等であってもよい。アプリケーションプログラム153は、オペレーティングシステム151に基づき少なくとも1つの特定の動作を完了するコンピュータプログラムであり、少なくとも1つのモジュール(図2に図示せず)を備えてもよく、各モジュールがいずれもそれぞれ電子機器100に対する一連の操作命令を含んでもよい。データ155は磁気ディスクに記憶された写真、ピクチャー等であってもよい。
中央プロセッサ170は、1つ又は複数以上のプロセッサを含んでもよく、且つバスを介して記憶媒体150と通信するように設置され、記憶媒体150における大量のデータ155を計算及び処理する。
以上詳細に説明したように、本開示に適用する電子機器100は、中央プロセッサ170によって記憶媒体150に記憶された一連の操作命令を読み取る形式で射撃類ゲームにおける自動照準を行う。
また、ハードウェア回路又はハードウェア回路とソフトウェア命令との組み合わせによって同様に本開示を実現することができ、従って、本開示の実現は、任意の特定のハードウェア回路、ソフトウェア及び両者の組合せに限定するものではない。
図3に示すように、例示的な実施例では、仮想対話型シナリオにおけるターゲット位置決め方法が図2に示される電子機器100に適用でき、該種類の仮想対話型シナリオにおけるターゲット位置決め方法は電子機器100によって実行されてもよく、以下のステップを含んでもよい。
ステップ310において、ユーザがターゲット位置決めを行うためのトリガー操作を監視し、トリガー点のスクリーンでの位置を取得する。
電子機器内の一人称で構築された仮想対話型シナリオに対して、仮想ターゲットは仮想対話型シナリオにおける人物、動物、アイテム、山川、建物等の仮想対象であってもよく、言い換えれば、仮想ターゲットは仮想対話型シナリオにおけるユーザによってトリガーされてターゲット位置決めを行う仮想対象であり、たとえば、攻撃ゲームシナリオにおいて、ユーザは船舶発破任務を実行するために、仮想対象の船舶に対してターゲット位置決めを行う。
対応して、ユーザは、キーボード、マウス、ゲームジョイスティック、スタイラス、タッチパネル等の電子機器に配置された入力装置を操作することにより、仮想対象に対してターゲット位置決めを行うことができる。ユーザがターゲット位置決めを行うためのトリガー操作はユーザが入力装置を操作することによりトリガーされることができ、トリガー点は、ユーザが入力装置を操作して行われるトリガー操作に対応し、且つターゲット位置決めを行うためにユーザによってトリガーされた仮想対象を指す。
例を挙げて以下のように説明し、射撃ゲームシナリオにおいて、ユーザが仮想対象に対してターゲット位置決めを行うようにトリガーすることは、ユーザの視点からユーザ操作対象を介して銃器等の装備の照準中心を操作してターゲットの敵を照準することである。
ターゲットの敵を照準して射撃するときに、先ずユーザが指でタッチパネルにスライドすることにより照準中心を他の任意位置からターゲットの敵に接近する所定の範囲内に移動し、ターゲットの敵を照準し、照準中心がターゲットの敵に接近する所定の範囲に滞在するとき、ユーザがクリック操作(たとえばタッチパネルをタッチする)により照準されたターゲットの敵を射撃する。
上記過程では、照準中心は移動され且つターゲットの敵を指す移動傾向があり、それにより、該照準中心をトリガー点と見なすことができ、すなわち、射撃ゲームシナリオにおいて、トリガー点はユーザの指のタッチパネルでのスライド操作に対応し、且つユーザにより照準されたターゲットの敵を指す。
更に、射撃ゲームシナリオにおいて、ユーザがターゲットの敵の照準を正確に完了するのを支援して、ユーザがターゲットの敵を射撃するときのヒット率を確保するために、ターゲットの敵に対する照準は自動照準を更に含み、即ち、ユーザが精確に制御し照準する必要がなく、照準中心をターゲットの敵に所定の範囲に接近させるだけでよく、ユーザが照準中心をターゲットの敵に所定の範囲接近する場合、照準中心が該ターゲットの敵の身に設置された吸引点に自動的に吸引される。つまり、自動吸引が有効になる前提は照準中心が吸引点に接近し、すなわちトリガー点が吸引点に接近することである。
このため、自動吸引を行う前に、先ずトリガー点と吸引点のスクリーンでの位置を決定する必要があり、更にそれに基づきトリガー点が吸引点に接近したか否かを判断し、トリガー点が吸引点に接近するときのみに自動吸引をトリガーする。
上記のように、トリガー点は他のいずれかの位置から仮想ターゲットに接近する所定の範囲に移動し、且つ移動過程中に仮想ターゲットを指す移動傾向があり、そして最終的に仮想ターゲットに接近する所定の範囲内に滞在する。
従って、上記過程では、ユーザがターゲット位置決めを行うためのトリガー操作を連続的に検出することにより、移動中のトリガー点のスクリーンでの位置及び滞在するトリガー点のスクリーンでの位置を含む移動過程全体におけるトリガー点のスクリーンでの位置を取得し、このようにして、トリガー点のスクリーンでの位置に基づきトリガー点が仮想ターゲット上の吸引点に接近したか否かを判断することができる。
実施例の具体的な実現では、滞在するトリガー点のスクリーンでの位置に対してトリガー点が仮想ターゲット上の吸引点に接近するか否かを判断し、更にトリガー点の自動吸引を迅速で正確に行い、同時にプロセッサのタスク処理力を低減させ、ターゲット位置決め効率の向上に有利である。
ただし、トリガー点のスクリーンでの位置を検出する検出関数は予め設定されており、たとえばMouse Position関数はカーソルのスクリーンでの滞在位置を取得することができ、ここで1つずつ列挙されず、上記予め設定された関数はいずれも電子機器によって直接呼び出すことができる。
また、トリガー点のスクリーンでの位置は座標値の形式で表すことができる。
ステップ330において、トリガー点の位置及び仮想ターゲット上の複数の吸引点に基づき複数の吸引点位置を決定する。
トリガー点の位置を決定した後、仮想ターゲット上の吸引点に対応する吸引点位置を更に決定する。仮想ターゲットがトリガー点によって指される。つまり、トリガー点の位置によって先ずユーザがトリガーしてターゲット位置決めを行う仮想ターゲットを決定し、更に仮想ターゲット上の吸引点に基づき対応する吸引点位置決定する。
仮想ターゲット上の複数の吸引点のそれぞれが1つの吸引点位置に対応する。
具体的には、設定パラメータファイルから仮想ターゲット上の吸引点を取得して、且つ該吸引点のスクリーンでの位置を検出し、該吸引点に対応する吸引点位置を得る。
たとえば、電子機器は仮想対話型シナリオをディスプレイするためのクライアントを実行し、設定パラメータファイルは、該クライアントにおけるパラメータ(preference)ディレクトリでのxmlファイルであり、設定された各種のパラメータを記憶し、たとえば、パラメータは仮想対話型シナリオにおいて各仮想対象に設置された吸引点を含むがこれに限定されない。
なお、吸引点は設定パラメータファイルにおいて吸引点識別子によって一意に表され、吸引点識別子は数字、アルファベット、又は両者の組み合わせで表され、ここで限定されない。たとえば、仮想対象A上に2つの吸引点A1とA2が設置されており、A1とA2はすなわち吸引点識別子である。
勿論、他の実施例では、設定パラメータファイルは、ユーザが仮想対話型シナリオに入るときに行われた選択を対応して保存し、射撃ゲームシナリオを例とし、行われた選択は、ユーザ操作対象、ユーザが指定した銃器の種類、ユーザが指定した入る射撃ステージ等を含み、同時にゲームの他の固有の設定パラメータを記憶しており、たとえば、設定パラメータは、仮想対象の移動速度等を含む。ユーザ操作対象とは仮想対話型シナリオにおける一人称で作成された仮想対象であり、すなわち、該ユーザ操作対象はユーザが一人称で置換又は操作する仮想対象である。
更に、仮想ターゲットがアニメーションキャラクターであると仮定すると、理解できるのは、該アニメーションキャラクターに対応するアニメーションポーズは変化し、たとえばアニメーションキャラクターのアニメーションポーズは立ち上がることから横になることになり、対応して、該アニメーションキャラクターに設置された吸引点に対応する吸引点位置もそれに従って変化し、すなわち吸引点位置が該アニメーションキャラクターのアニメーションポーズに関連付けられる。
ステップ350において、トリガー点の位置がいずれかの吸引点位置によって決定された吸引範囲に位置する場合、複数の吸引点に対して吸引点重み値を計算し、吸引点に対応する複数の吸引点重み値を得る。
吸引範囲は吸引点位置を円心とし、予め設定された間隔を半径として定義された範囲である。
上記330ステップで得られる複数の吸引点位置に対して、トリガー点の位置がいずれかの吸引点位置によって定義された範囲内に位置する場合、トリガー点の位置が該いずれかの吸引点位置によって決定された吸引範囲にあると見なし、このとき、自動吸引が有効になり、トリガー点が1つの吸引点位置に対応する吸引点に自動的に吸引される。
自動吸引は、トリガー点の位置と最も近い吸引点位置に対応する吸引点に基づいて吸引してもよく、又は吸引点の優先度に基づき吸引してもよい。
更に、優先度は吸引点位置に応じて対応して設定されてもよく、又はユーザが指定した銃器種類に応じて対応して設定されてもよい。
たとえば、仮想ターゲットがアニメーションキャラクターであることを例として説明し、図4に示すように、該アニメーションキャラクターに、それぞれ頭、体、脚、左手及び右手に位置する5つの吸引点が設置されると仮定すると、優先度に応じてそれぞれは体、頭、脚及び両手(左手と右手)である。つまり、吸引点位置が該アニメーションキャラクターの中央の3つの部位に位置する吸引点の優先度がいずれも、吸引点位置が該アニメーションキャラクターの両側部位に位置する吸引点の優先度より高い。
又は、ユーザが指定した銃器種類がスナイパーライフルである場合、アニメーションキャラクター頭上の吸引点の優先度が体上の他の吸引点の優先度より高い。本実施例では、吸引点の優先度が吸引点重み値によって表される。このため、自動吸引を行う前に、吸引点に対応する優先度を知るために吸引点に対応する吸引点重み値を得る必要があり、更にトリガー点を優先度が最も高い吸引点が所在する吸引点位置に移動する。
たとえば、引き続き上記例で説明し、頭上の吸引点の優先度が体上の吸引点の優先度より高いと仮定すると、トリガー点が頭上の吸引点に自動的に吸引される。
吸引点重み値は吸引点が所在する吸引点位置、銃器種類、吸引点が可視できるか否かに関連付けられる。
より更に、吸引点重み値の取得過程では、吸引点重み値は、吸引点が所在する吸引点位置、銃器種類、吸引点が可視できるか否かに基づいて動的に配置されてもよい。
ステップ370において、最大吸引点重み値に対応する吸引点が所在する吸引点位置にトリガー点を移動する。
最大吸引点重み値に対応する吸引点にトリガー点が自動的に吸引されるまで、ユーザがターゲット位置決めを完了するのを支援する。
上記過程により、複数の吸引点が仮想対象上に設置され、仮想対象は、ユーザがターゲット位置決めを行うためのトリガー操作により仮想ターゲットになるとき、トリガー点が仮想ターゲット上のいずれかの吸引点に接近する限りトリガーし自動的に吸引され、すなわち、トリガー点は、吸引点重み値に応じて吸引点重み値が最も大きい吸引点に自動的に吸引され、それゆえ、ユーザにとって、吸引点が仮想ターゲットの固定位置に設置せず、吸引点位置が可変であり、いずれかの吸引点がトリガー点によって自動的に吸引される可能性があり、それにより、ターゲット位置決めの柔軟性を効果的に高める。
また、異なる吸引点が異なる吸引点重み値に対応し、トリガー点は吸引点重み値が最も大きい吸引点のみに移動し、吸引点重み値が変化すると、トリガー点の自動吸引はそれに従って変化し、それにより、ターゲット位置決めの柔軟性を更に高める。
例示的な実施例では、仮想ターゲットはアニメーションキャラクターであり且つ複数のアニメーション骨格点によって表される。該アニメーションキャラクターは人物キャラクター、動物キャラクター等を含む。
先ず、仮想ターゲットがアニメーションキャラクターである場合、骨格アニメーションをアニメーションキャラクターとしてアニメーションを生成する方式を採用し、すなわち、骨格アニメーションにおいて、互いに接続する「骨格」でアニメーションキャラクターのスケルトン構造を構成し、且つスケルトン構造における「骨格」の向き及び位置を改変することによりアニメーションキャラクターのためにアニメーションを生成し、更にアニメーションキャラクターを異なるアニメーションポーズでスクリーンに表示させる。
これに基づき、仮想ターゲットがアニメーションキャラクターである場合、複数のアニメーション骨格点によって表されるものである。たとえば、アニメーション骨格点Aでアニメーションキャラクターの頭を表し、アニメーション骨格点Bでアニメーションキャラクターの左手を表す。言い換えれば、アニメーション骨格点はアニメーションキャラクター上の異なる部位を一意に識別する。
対応して、図5に示すように、ステップ330の前に、上述した方法は以下のステップを更に含んでもよい。
ステップ410において、仮想ターゲットから複数のアニメーション骨格点を選択して、選択されたアニメーション骨格点と吸引点との間の一対一に対応するバインディング関係をそれぞれ確立する。
ステップ430において、バインディング関係を、吸引点位置を決定するための設定パラメータファイルに記憶する。
例を挙げて、アニメーションキャラクターの頭、体、脚、左手及び右手に設置されようとする5つの吸引点を予め定義する。
対応して、アニメーションキャラクターから5つのアニメーション骨格点を選択して、該5つのアニメーション骨格点はそれぞれアニメーションキャラクター上の異なる部位:頭、体、脚、左手及び右手を識別する。
更に、該5つのアニメーション骨格点と5つの吸引点との間の一対一に対応するバインディング関係を確立し、且つ該バインディング関係を設定パラメータファイルに記憶する。
それにより、5つの吸引点がアニメーションキャラクターに予め設置されている。且つ、アニメーションキャラクターのアニメーションポーズが変化する場合、アニメーション骨格点の位置が変化したので、吸引点が所在する吸引点位置もアニメーション骨格点の位置に従って変化する。
言い換えれば、アニメーションキャラクターのアニメーションポーズがどのように変化しても、人物に予め設置された5つの吸引点が常に存在し、更にトリガー点の自動吸引がアニメーションキャラクターのアニメーションポーズの変化に従って変化することを可能にし、それによりターゲット位置決めの有効性を十分に保証する。
更に、図6に示すように、ステップ330は以下のステップを含んでもよい。
ステップ331において、設定パラメータファイルから、吸引点とバインディング関係を有するアニメーション骨格点を取得する。
ステップ333において、アニメーション骨格点のスクリーンでの位置を検出する。
ステップ335において、アニメーション骨格点のスクリーンでの位置を、吸引点に対応する吸引点位置とする。
上記のように、アニメーションキャラクターのアニメーションポーズが変化する場合、アニメーション骨格点の位置が変化したので、吸引点が所在する吸引点位置もアニメーション骨格点の位置に従って変化する。
それにより、吸引点に対応する吸引点位置は、該吸引点とバインディング関係を有するアニメーション骨格点の位置である。
具体的には、パラメータファイルに記憶されている吸引点とアニメーション骨格点との間の一対一に対応するバインディング関係によって、先ず吸引点とバインディング関係を有するアニメーション骨格点を得て、且つ該アニメーション骨格点のスクリーンでの位置を検出し、更に検出されたアニメーション骨格点のスクリーンでの位置を該吸引点に対応する吸引点位置とする。
更に、アニメーション骨格点位置の検出はリアルタイムでも周期的でもよく、ここで限定されず、実際の応用シナリオに応じて柔軟的に調整することができる。たとえば、移動性が高い射撃ゲームシナリオにおいて、アニメーション骨格点位置の検出周期が短い。
なお、アニメーション骨格点のスクリーンでの位置も座標値の形式で表される。
上記実施例の協力により、吸引点のキャラクターアニメーションのバインディングを実現し、すなわち、アニメーションキャラクターがどのアニメーションポーズに位置しても安定的な吸引点位置を有し、更に常に有効的な吸引点を有してトリガー点を自動的に吸引することを確保し、自動吸着の無効を回避し、それによりターゲット位置決めの信頼性及び精度を保証する。
例示的な実施例では、ステップ350の前、上述した方法は以下のステップを更に含んでもよい。
トリガー点の位置といずれかの吸引点位置との間の距離が予め設定された間隔より小さいか否かを判断する。
Yesである場合、トリガー点の位置がいずれかの吸引点位置によって決定された吸引範囲に位置することを判定する。
上記のように、吸引範囲は吸引点位置を円心とし、予め設定された間隔を半径として定義された範囲である。
予め設定された間隔は実際の応用シナリオに応じて柔軟的に調整することができ、ここで限定されない。
それにより、図7に示すように、いずれかの吸引点が所在する吸引点位置がAであり、予め設定された間隔がRであると仮定すると、図7の円で示す範囲は該吸引点位置Aによって決定される吸引範囲である。
トリガー点の位置がBであり、トリガー点の位置Bと吸引点位置Aとの間の距離がRabであると仮定すると、Rab>R、トリガー点の位置Bと吸引点位置Aとの間の距離が予め設定された間隔より大きいと表すので、トリガー点の位置Bが吸引点位置Aによって決定される吸引範囲に位置しないと判定し、この場合、自動吸引が有効にならず、吸引点重み値を計算せず、且つステップ310に戻る。
トリガー点の位置がCであり、トリガー点の位置Cと吸引点位置Aとの間の距離がRacであると仮定すると、Rac<R、トリガー点の位置Bと吸引点位置Aとの間の距離が予め設定された間隔より小さいと表すので、トリガー点の位置Cが吸引点位置Aによって決定された吸引範囲に位置することを判定し、この場合、自動吸引が有効になり、吸引点重み値を計算し、ステップ350に進む。
上記実施例の作用により、予め設定された間隔の設定によって吸引範囲の大きさを柔軟的に調整することができ、更に異なる仮想ターゲットに対して異なる吸引範囲を設定することを実現し、たとえば、射撃ゲームシナリオにおいて、bossレベルのアニメーションキャラクターは小さい吸引範囲を設定して、仮想ターゲット照準の複雑さを増加し、更にターゲット位置決めの柔軟性を効果的に高めてもよい。
図8に示すように、例示的な実施例では、ステップ350は以下のステップを含んでもよい。
ステップ351において、設定パラメータファイルから吸引点の基礎重み係数を取得する。
基礎重み係数は、吸引点が所在する吸引点位置に関連付けられ、つまり、吸引点位置が異なると、基礎重み係数も異なり、それにより仮想ターゲット内の異なる位置での吸引点の優先度を表す。
仮想ターゲットがアニメーションキャラクターである場合、図4に示すように、吸引点位置が頭に位置すると、基礎重み係数が3であり、吸引点位置が体に位置すると、基礎重み係数が4であり、該仮想ターゲット体上の吸引点の優先度がその頭上の吸引点の優先度より高い。
基礎重み係数は予め定義されて設定パラメータファイルに記録されており、同時に、該基礎重み係数は実際の応用シナリオに応じて柔軟的に調整することができる。たとえば、射撃ゲームシナリオにおいて、ユーザが仮想ターゲットの頭を照準する傾向があると、頭に位置する吸引点の基礎重み係数を5に調整することができ、それによりユーザのニーズを満たし、更にユーザの照準射撃体験を向上させることに有利である。
設定パラメータファイルにおける基礎重み係数がユーザによってカスタマイズされてもよく、または開発者によって定義されてもよく、ここで限定されない。
これに基づき、設定パラメータファイルから吸引点の基礎重み係数を得ることができる。
ステップ353において、仮想ターゲットに対してレイキャスティング検出を行って吸引点の可視係数を得る。
理解できるのは、仮想ターゲットが防護の後ろに隠されていると、仮想ターゲットに設置された一部ひいては全ての吸引点は防護によって遮断される可能性がある。
それにより、可視係数は、吸引点が防護によって遮断されているか否かを示す。たとえば、可視係数が0である場合、吸引点が防護によって遮断されていることを示し、逆に、可視係数が1である場合、吸引点が防護によって遮断されていないことを示す。
本実施例では、可視係数は仮想ターゲットに対してレイキャスティング検出を行うことにより得られる。レイキャスティング検出とは、光線を仮想ターゲットの外から仮想ターゲットに投影し、光線が仮想ターゲットの外から仮想ターゲットを通過できると、可視と見なすことである。
たとえば、レイキャスティング検出は電子機器に予め設定された検出関数によって行われてもよく、たとえば、 Raycast関数によって返されるレイキャスティング検出結果が可視係数である。
ステップ355において、基礎重み係数及び可視係数により吸引点の吸引点重み値を計算する。
具体的には、吸引点重み値の計算公式は下記の通りである。
point=ωbase×Rhit
pointは仮想ターゲットの任意1つの吸引点の吸引点重み値を表し、ωbaseは該吸引点の基礎重み係数を表し、Rhitは該吸引点の可視係数を表す。
上記過程では、仮想ターゲット上に設置された各吸引点にそれぞれ対応する吸引点重み値を得ることができ、トリガー点の移動に十分な根拠を提供する。
例示的な実施例では、上述した方法は以下のステップを更に含んでもよい。
複数の銃器種類に銃器重み係数をそれぞれ設定して、複数の銃器種類とその銃器重み係数を設定パラメータファイルに関連付けて記憶する。
対応して、図9に示すように、ステップ355は以下のステップを含んでもよい。
ステップ3551において、設定パラメータファイルからユーザが指定した銃器種類を取得し、指定された銃器種類に基づいて設定パラメータファイルから銃器重み係数を関連的にサーチする。
上記のように、各銃器種類に銃器重み係数をそれぞれ設定した後、該各銃器種類及びその銃器重み係数は設定パラメータファイルに関連付けて記憶される。
それにより、設定パラメータファイルからユーザが指定した銃器種類を得た後、設定パラメータファイルにおける関連して記憶されている銃器種類及びその銃器重み係数によって、指定した銃器種類に対応する銃器重み係数を更に得ることができる。
ステップ3553において、関連的にサーチして得られた銃器重み係数、基礎重み係数及び可視係数に基づき吸引点の吸引点重み値を算出する。
具体的には、吸引点重み値の計算公式は下記の通りである。
point=ωbase×μweapon×Rhit
pointは仮想ターゲット上の任意1つの吸引点の吸引点重み値を表し、ωbaseは該吸引点の基礎重み係数を表し、μweaponはユーザが指定した銃器種類に対応する銃器重み係数を表し、Rhitは該吸引点の可視係数を表す。
上記過程では、各吸引点の吸引点重み値はユーザが指定した銃器種類に関連付けられ、すなわち、ユーザが指定した銃器種類が変化すると、各吸引点の吸引点重み値も対応して変化し、それによりターゲット位置決めの柔軟性を更に高める。
図10に示すように、例示的な実施例では、ステップ370の後、上述した方法は以下のステップを更に含んでもよい。
ステップ510において、ユーザが指定した銃器種類、及び吸引点重み値の計算における基礎重み係数及び可視係数を監視する。
ステップ530において、該銃器種類、基礎重み係数及び可視係数のうちのいずれかが変化したことを感知した場合、吸引点重み値を再計算するようにトリガーする。
ステップ550において、再算出された吸引点重み値に基づきトリガー点を再移動する。
理解すべきなのは、ユーザにとって、異なる基礎重み係数を再定義してもよく、又は異なる銃器種類を再選択してもよく、更に又は異なるユーザ操作対象を再選択してもよく、且つ該再選択過程において異なる銃器種類を再選択し、更に銃器重み係数をそれに従って変化させ、一方、仮想ターゲットにとって、照準されることを避けるために繰り返し防護に隠し又は露出する恐れがあり、更に可視係数を対応して変化させる。
それにより、銃器重み係数、基礎重み係数及び可視係数のうちのいずれかを監視することにより、銃器重み係数、基礎重み係数及び可視係数のうちのいずれかが変化したことを感知した場合、吸引点重み値を再計算し、更にトリガー点の自動吸引を再実行させ、すなわちトリガー点が、再算出された最大の吸引点重み値に対応する吸引点が所在する位置に移動する。
上記実施例の作用により、吸引点重み値の動的変化を実現し、更にトリガー点の移動も動的に変化させ、すなわち、トリガー点が常に仮想ターゲットに設置されたある吸引点に自動的に吸引されることができ、それにより、ターゲット位置決めの有効性及び柔軟性を十分に確保し、更にターゲット位置決めの精度を確保する。
例示的な実施例では、トリガー点は吸引角速度で自動的に吸引される。
対応して、ステップ370の前に、上述した方法は以下のステップを更に含んでもよい。
ユーザ操作対象と仮想ターゲットの水平方向での相対変位に基づいて吸引角速度を計算する。
具体的には、図11に示すように、ユーザ操作対象がA点に位置し、仮想ターゲットがB点に位置すると仮定する。
この場合、ユーザ操作対象と仮想ターゲットはいずれも反対の斜め後方に向けて移動し、このため水平方向での相対変位S1が発生し、すなわち、S1=S−Sである。ここで、Sはユーザ操作対象が水平方向に移動する変位を表し、Sは仮想ターゲットが水平方向に移動する変位を表す。
水平方向での相対変位S1が発生した後、吸引角速度ωを計算することができる。
吸引加速度ωの計算公式は下記の通りである。
Figure 0006911199
Figure 0006911199
Sはユーザ操作対象と仮想ターゲットとの間の直線距離を表し、tは相対変位が発生するのにかかる時間を表す。
すなわち、先ず計算公式(1)における相対変位S1と直線距離Sに基づきθ角度の接線値を算出し、次に計算公式(2)に基づきθ角度の接線値と相対変位にかかる時間tから吸引角速度ωを算出する。
ただし、相対変位にかかる時間tはタイマーで取得することができる。
上記過程では、吸引角速度の計算過程に相対変位S1を導入して、この部分でユーザ操作対象と仮想ターゲットとの間の直線距離Sの変化を相殺し、それにより、自動照準中の吸引角速度が十分に安定していない問題を解決する。
更に、上記のように、計算公式(1)と計算公式(2)を組み合わせると、吸引角速度ωの計算公式を
Figure 0006911199
に簡略化することができる、すなわち、相対変位にかかる時間tは吸引角速度ωに影響を与えず、主に吸引角速度ωを決定するのは直線距離Sと相対移動速度Vabである。
相対移動速度VabはVa−であり、Vはユーザ操作対象の水平方向での速度ベクトルを表し、Vは仮想ターゲットの水平方向での速度ベクトルを表す。
言い換えれば、ユーザ操作対象と仮想ターゲットとの間の直線距離に加えて、吸引角速度は実際にユーザ操作対象と仮想ターゲットの水平方向での相対移動速度に関連付けられる。
図12に示すように、ユーザ操作対象と仮想ターゲットはいずれも反対の斜め後方に移動する過程で、ユーザ操作対象と仮想ターゲットはそれぞれ移動速度V’、V’を有し、それにより水平方向での速度ベクトルV、Vを分解し、更に相対移動速度Vab=Va−を得る。
これに基づき、吸引角速度ωを得ることができる。
なお、設定パラメータファイルに記憶されている移動速度はスカラであり、実際の移動過程のみに移動方向が与えられ、更にベクトルの形式で表される。
更に、理解すべきなのは、ユーザ操作対象の移動速度が仮想ターゲットの移動速度と一般的に同じであり、それによりユーザ操作対象が仮想ターゲットに追いつくことができることを確保する。
これに基づき、ユーザ操作対象が仮想ターゲットと水平方向に同じ方向に移動すると仮定すると、両者の間の相対移動速度が零であり、対応して、吸引角速度が零であり、更にトリガー点の自動吸引の失敗をもたらす。
このため、本実施例では、相対移動速度を更に拡大して、吸引角速度が零である状況の発生を回避する。
すなわち、速度差、仮想ターゲットの水平方向での速度ベクトルのうちの最大値を相対移動速度とする。速度差がユーザ操作対象と仮想ターゲットの水平方向での速度ベクトルに基づき算出される。
具体的には、Vab=max{V,Va−}。この場合、V−Vが零であり、すなわち、ユーザ操作対象と仮想ターゲットは水平方向で同じ移動速度で同じ方向に移動すると、相対移動速度は仮想ターゲットの水平方向での速度ベクトルVであり、逆に、Va−が零ではなく、すなわち、ユーザ操作対象と仮想ターゲットは水平方向で同じ移動速度で逆方向に移動すると、相対移動速度は速度差Va−である。
上記過程では、吸引角速度が零である状況を効果的に回避し、それにより吸引角速度の有効性を確保し、自動吸引の成功率を十分に向上させ、すなわち、トリガー点が必ず仮想ターゲットの設置された吸引点に自動的に吸引される。
より更に、理解できるのは、ユーザがトリガー点を吸引範囲から引き離し、更に仮想ターゲットから引き離しようとする場合、ターゲット位置決めと反対するトリガー操作を行う。たとえば、ユーザはマウスを操作してスクリーンに表示されている仮想ターゲットに接近することによりターゲット位置決めを行い、逆に、ユーザは、マウスを操作してスクリーンに表示されている仮想ターゲットから離れるようにすることによりトリガー点の引き離しを行う。
しかし、吸引角速度が大きい場合、ユーザは、吸引角速度が小さい場合より速い速度で入力装置の操作を行う必要があり、そうでない場合はトリガー点を仮想ターゲットから引き離すことが困難であり、それによって現在トリガー点を仮想ターゲットから引き離すコストが大きくなる。
このため、本実施例では、吸引係数の設定によりトリガー点を仮想ターゲットから引き離すコストを低減させる。
吸引係数は、トリガー点を仮想ターゲットから引き離す難しさを表され、吸引係数が小さいほど、トリガー点を仮想ターゲットから引き離しやすくなる。
該吸引係数は可変値であり、且つユーザの入力速度に関係あり、すなわち、ユーザの入力速度が速いほど、ユーザがトリガー点を仮想ターゲットから引き離しようとすることを表し、吸引係数が小さくなり、トリガー点を仮想ターゲットから引き離すことをより容易にし、それによりゲームの手触りと体験がユーザの習慣により合致することを確保する。
ユーザの入力速度はユーザのスクリーンスライド速度、ユーザのジョイスティック振れ速度、ユーザのマウススライド速度、ユーザのボタン押し速度等であってもよく、ここで1つずつ説明しない。
ユーザのスクリーンスライド速度を例として、ユーザのスクリーンスライド速度とは、ユーザが指、マウス又はスタイラスでスクリーンをスライドする速度である。該速度は単位時間内に指、マウス又はスタイラスのスライド距離によって測定される。
吸引係数Kを縦座標とし、ユーザのスクリーンスライド速度Vを横座標とし、両者の間の変換関係を確立することにより対応する曲線関数を得て、図13に示される。
該変換関係において、吸引係数kはユーザのスクリーンスライド速度Vの増加に伴って逓減し、ユーザのスクリーンスライド速度が所定の程度に増加することに伴って、吸引係数も一定の最小値に低減し、ユーザのスクリーンスライド速度が増加し続けると、吸引係数は常に該最小値に保持し、それに従って変化することがない。
この過程では、吸引係数は決して零まで減少せず、それにより、吸引角速度が常に存在し、ユーザのスクリーンスライド速度が速すぎることにより消えないことを確保することに有利である。
具体的には、ユーザがトリガー点を仮想ターゲットから引き離すためのトリガー操作を監視することによりユーザのスクリーンスライド速度を算出する。
ユーザがトリガー点を仮想ターゲットから引き離すためのトリガー操作を連続的に監視することにより、トリガー点のスクリーンでの少なくとも2つの位置、すなわち、現在位置及び前の現在位置を決定し、更にトリガー点のスクリーンでの現在位置と前の現在位置に基づいて、指、マウス又はスタイラスのスライド距離を算出し、且つ連続的な監視に対応するタイムスタンプに基づいてスライド距離のスライド時間を算出して、それによりユーザのスクリーンスライド速度を得る。
吸引係数とユーザのスクリーンスライド速度との間の変換関係に応じてユーザのスクリーンスライド速度を対応する吸引係数に変換する。
変換して得られる吸引係数、相対移動速度及び直線距離に基づいて、吸引角速度を算出する。すなわち、吸引角速度ωの計算公式が
Figure 0006911199
である。
上記過程では、ユーザがスクリーンを少しスライドする場合、依然としてユーザが仮想ターゲットに大きい吸引角速度を有することを確保し、ユーザがスクリーンを迅速にスライドする場合、ユーザがトリガー点を仮想ターゲットから引き離す望みを有すると見なし、その場合、吸引角速度が吸引係数の作用で小さくなり、更にトリガー点を仮想ターゲットから引き離しやすく、それによりユーザのニーズをより良好に満たす。
例示的な実施例では、上述した方法は以下のステップを更に含んでもよい。
ユーザのスクリーンスライド速度を監視する。
ユーザのスクリーンスライド速度が変化したと感知した場合、吸引角速度を再計算するようにトリガーする。
再算出された吸引角速度に従ってトリガー点を移動する。
上記のように、ユーザのスクリーンスライド速度が吸引係数に関連付けられる。
それにより、ユーザのスクリーンスライド速度が変化したことを感知した場合、設定パラメータファイルに記憶されているユーザのスクリーンスライド速度と吸引係数との間の変換関係に応じて、吸引係数がそれに従って変化したと見なすことができ、更に吸引角速度を対応して変化させ、この場合、トリガー点は変化した吸引角速度で吸引点位置に移動する。
上記実施例の作用により、吸引角速度の動的変化を実現し、すなわちトリガー点は常にある速度で仮想ターゲットの設置された吸引点に自動的に吸引されることができ、それにより、自動吸引の有効性を十分に確保し、更に仮想ターゲットの射撃精度を確保する。
以下は本開示の装置実施例であり、本開示に係る仮想対話型シナリオにおけるターゲット位置決め方法の実行に用いることができる。本開示の装置実施例に開示されていない詳細について、本開示に係る仮想対話型シナリオにおけるターゲット位置決め方法の実施例を参照する。
図14に示すように、例示的な実施例では、仮想対話型シナリオにおけるターゲット位置決め装置700は、トリガー点位置取得モジュール710、吸引点位置取得モジュール730、吸引点重み計算モジュール750及びトリガー点移動モジュール770を含むがこれらに限定されない。
トリガー点位置取得モジュール710は、ユーザがターゲット位置決めを行うためのトリガー操作を監視し、トリガー点のスクリーンでの位置を取得するように構成される。
吸引点位置取得モジュール730は、トリガー点の位置及び仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定して取得するように構成され、吸引点位置毎に一つの吸引点に対応する。
吸引点重み計算モジュール750は、トリガー点の位置がいずれかの吸引点位置によって決定された吸引範囲に位置する場合、複数の吸引点に対して吸引点重み値を計算し、吸引点に対応する複数の吸引点重み値を得るように構成される。
トリガー点移動モジュール770は、最大吸引点重み値に対応する吸引点が所在する吸引点位置にトリガー点を移動するように構成される。
図15に示すように、例示的な実施例では、仮想ターゲットはアニメーションキャラクターであり且つ複数のアニメーション骨格点によって表される。
対応して、上述した装置700は、バインディング関係確立モジュール810及びバインディング関係記憶モジュール830をさらに含むがこれに限定されない。
バインディング関係確立モジュール810は、仮想ターゲットから複数のアニメーション骨格点を選択して、選択されたアニメーション骨格点と吸引点との間の一対一に対応するバインディング関係をそれぞれ確立するように構成される。
バインディング関係記憶モジュール830は、バインディング関係を、吸引点位置を決定するための設定パラメータファイルに記憶するように構成される。
図16に示すように、例示的な実施例では、吸引点位置取得モジュール730は、骨格点取得ユニット731、骨格点位置検出ユニット733及び吸引点位置決定ユニット735を含むがこれらに限定されない。
骨格点取得ユニット731は、設定パラメータファイルから、吸引点とバインディング関係を有するアニメーション骨格点を取得するように構成される。
骨格点位置検出ユニット733は、アニメーション骨格点のスクリーンでの位置を検出するように構成される。
吸引点位置決定ユニット735は、アニメーション骨格点のスクリーンでの位置を、吸引点に対応する吸引点位置とするように構成される。
例示的な実施例では、上述した装置700は、距離判断モジュールをさらに含むがこれに限定されない。
距離判断モジュールは、トリガー点の位置といずれかの吸引点位置との間の距離が予め設定された間隔より小さい場合、吸引点重み計算モジュール750に通知するように構成される。
図17に示すように、例示的な実施例では、吸引点重み計算モジュール750は、基礎重み係数取得ユニット751、可視係数取得ユニット753及び計算ユニット755を含むがこれらに限定されない。
基礎重み係数取得ユニット751は、設定パラメータファイルから吸引点の基礎重み係数を取得するように構成される。
可視係数取得ユニット753は、仮想ターゲットに対してレイキャスティング検出を行って吸引点の可視係数を得るように構成される。
計算ユニット755は、基礎重み係数及び可視係数により吸引点の吸引点重み値を計算するように構成される。
例示的な実施例では、上述した装置700は、銃器重み係数設定モジュールをさらに含むがこれに限定されない。
銃器重み係数設定モジュールは、複数の銃器種類に銃器重み係数をそれぞれ設定して、複数の銃器種類とその銃器重み係数を設定パラメータファイルに関連付けて記憶するように構成される。
対応して、図18に示すように、計算ユニット755は、銃器重み係数サーチサブユニット7551及び計算サブユニット7553を含むがこれらに限定されない。
銃器重み係数サーチサブユニット7551は、設定パラメータファイルからユーザが指定した銃器種類を取得し、指定された銃器種類に基づいて設定パラメータファイルから銃器重み係数を関連的にサーチするように構成される。
計算サブユニット7553は、関連的にサーチして得られた銃器重み係数、基礎重み係数及び可視係数に基づき吸引点の吸引点重み値を算出するように構成される。
図19に示すように、例示的な実施例では、上述した装置700は、監視モジュール910、再計算モジュール930及び再移動モジュール950をさらに含むがこれらに限定されない。
監視モジュール910は、ユーザが指定した銃器種類、及び吸引点重み値の計算における基礎重み係数及び可視係数を監視するように構成される。
再計算モジュール930ように構成される該銃器種類、基礎重み係数及び可視係数のうちのいずれかが変化したことを感知した場合、吸引点重み値を再計算するようにトリガーする。
再移動モジュール950は、再算出された吸引点重み値に基づきトリガー点を再移動するように構成される。
なお、上記実施例に係る仮想対話型シナリオにおけるターゲット位置決め装置については、仮想対話型シナリオにおけるターゲット位置決め処理を行うときに、上記各機能モジュールの分割のみで例を挙げて説明し、実際の応用において、需要に基づき上記機能を分割して異なる機能モジュールによって完了することができ、すなわち、仮想対話型シナリオにおけるターゲット位置決め装置の内部構造は異なる機能モジュールに分けられて、以上説明した全部又は一部の機能を完了する。
また、上記実施例に係る仮想対話型シナリオにおけるターゲット位置決め装置及び仮想対話型シナリオにおけるターゲット位置決め方法の実施例は同じ発想に属し、各モジュールが操作を実行する具体的な方式は既に方法実施例に詳細に説明されたので、ここでは詳しく説明しない。
図20に示すように、例示的な実施例では、電子機器1000は、プロセッサ1001、メモリ1002、及び通信バス1003を含むがこれらに限定されない。
メモリ1002にコンピュータ可読命令が記憶されており、プロセッサ1001は通信バス1003を介してメモリ1002に記憶されているコンピュータ可読命令を読み取る。
該コンピュータ可読命令がプロセッサ1001によって実行されるときに、上述した各実施例中の仮想対話型シナリオにおけるターゲット位置決め方法を実現する。
例示的な実施例では、コンピュータ可読記憶媒体であって、プロセッサによって実行されるときに上述した各実施例中の仮想対話型シナリオにおけるターゲット位置決め方法を実現するコンピュータプログラムが記憶されている。
上記内容は、本開示の好ましい例示的な実施例に過ぎず、本開示の実施の形態を限定するものではなく、当業者は本開示の主な発想及び精神に基づき、対応する変更又は修正を非常に便利に行うことができ、従って、本開示の保護範囲は特許請求の範囲に決定される保護範囲を基準とすべきである。

Claims (21)

  1. 仮想対話型シナリオにおけるターゲット位置決め方法であって、
    電子機器が、ユーザのターゲット位置決めを行うトリガー操作を監視し、トリガー点のスクリーンでの位置を取得するステップと、
    前記電子機器が、前記トリガー点の位置及び仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定するステップであって、吸引点位置毎に一つの吸引点に対応するステップと、
    前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置する場合、前記電子機器が、複数の前記吸引点に対して吸引点重み値を計算して、吸引点に対応する複数の吸引点重み値を得るステップと、
    前記電子機器が、最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動するステップとを含み、
    前記した前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置する場合、複数の前記吸引点に対して吸引点重み値を計算して、吸引点に対応する複数の吸引点重み値を得ることは、
    前記電子機器が、設定パラメータファイルから前記吸引点の基礎重み係数を取得するステップと、
    前記電子機器が、前記仮想ターゲットに対してレイキャスティング検出を行って前記吸引点の可視係数を得るステップと、
    前記電子機器が、前記基礎重み係数及び可視係数により前記吸引点の吸引点重み値を計算するステップとを含む、仮想対話型シナリオにおけるターゲット位置決め方法。
  2. 前記仮想ターゲットはアニメーションキャラクターであり且つ複数のアニメーション骨格点によって表され、前記した前記トリガー点の位置及び前記仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定する前に、
    前記電子機器が、前記仮想ターゲットから複数のアニメーション骨格点を選択して、それぞれ選択されたアニメーション骨格点と前記吸引点との間の一対一に対応するバインディング関係を確立するステップと、
    前記電子機器が、前記バインディング関係を、吸引点位置を決定するための設定パラメータファイルに記憶するステップとを更に含む請求項1に記載の方法。
  3. 前記した前記トリガー点の位置及び前記仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定することは、
    前記電子機器が、前記設定パラメータファイルから、前記吸引点とバインディング関係を有する前記アニメーション骨格点を取得するステップと、
    前記電子機器が、前記アニメーション骨格点の前記スクリーンでの位置を検出するステップと、
    前記電子機器が、前記アニメーション骨格点の前記スクリーンでの位置を、前記吸引点に対応する吸引点位置とするステップとを含む請求項2に記載の方法。
  4. 前記した前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置する場合、複数の前記吸引点に対して吸引点重み値を計算して、吸引点に対応する複数の吸引点重み値を得る前に、
    前記トリガー点の位置といずれかの前記吸引点位置との間の距離が予め設定された間隔より小さい場合、前記電子機器が、前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置することを判定する請求項1に記載の方法。
  5. 前記電子機器が、複数の銃器種類に銃器重み係数をそれぞれ設定して、複数の前記銃器種類とその銃器重み係数を前記設定パラメータファイルに関連付けて記憶するステップを更に含み、
    対応して、前記した前記基礎重み係数及び可視係数により前記吸引点の吸引点重み値を計算することは、
    前記電子機器が、前記設定パラメータファイルから前記ユーザが指定した銃器種類を取得し、前記指定された銃器種類に基づいて前記設定パラメータファイルから銃器重み係数を関連的にサーチするステップと、
    前記電子機器が、関連的にサーチして得られた銃器重み係数、前記基礎重み係数及び可視係数に基づき前記吸引点の吸引点重み値を算出するステップとを含む請求項に記載の方法。
  6. 前記した最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動した後、
    前記電子機器が、前記ユーザが指定した銃器種類、及び前記吸引点重み値の計算における基礎重み係数及び可視係数を監視するステップと、
    該銃器種類、基礎重み係数及び可視係数のうちのいずれかが変化したことを感知した場合、前記電子機器が、吸引点重み値を再計算するようにトリガーするステップと、
    前記電子機器が、再算出された吸引点重み値に基づき前記トリガー点を再移動するステップとを更に含む請求項に記載の方法。
  7. 仮想対話型シナリオにおけるターゲット位置決め方法であって、
    電子機器が、ユーザのターゲット位置決めを行うトリガー操作を監視し、トリガー点のスクリーンでの位置を取得するステップと、
    前記電子機器が、前記トリガー点の位置及び仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定するステップであって、吸引点位置毎に一つの吸引点に対応するステップと、
    前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置する場合、前記電子機器が、複数の前記吸引点に対して吸引点重み値を計算して、吸引点に対応する複数の吸引点重み値を得るステップと、
    前記電子機器が、最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動するステップとを含み、
    前記した最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動する前に、
    前記電子機器が、前記仮想ターゲットとユーザ操作対象との水平方向での相対変位を決定するステップと、
    前記電子機器が、前記相対変位に基づいて吸引角速度を計算することにより、前記トリガー点の移動を前記吸引角速度に従って行わせるステップとを更に含む、仮想対話型シナリオにおけるターゲット位置決め方法
  8. 前記した前記仮想ターゲットとユーザ操作対象との水平方向での相対変位により吸引角速度を計算することは、
    前記電子機器が、それぞれ前記ユーザ操作対象と仮想ターゲットの移動速度を取得するステップと、
    前記電子機器が、前記ユーザ操作対象と仮想ターゲットの水平方向に相対変位するときの移動方向に応じて、前記ユーザ操作対象と仮想ターゲットの移動速度をそれぞれ水平方向での速度ベクトルに分解するステップと、
    前記電子機器が、前記ユーザ操作対象と仮想ターゲットの水平方向での速度ベクトルに基づき相対移動速度を決定するステップと、
    前記電子機器が、前記ユーザ操作対象と仮想ターゲットの前記スクリーンでの位置を検出して、前記ユーザ操作対象と仮想ターゲットの位置に基づき前記ユーザ操作対象と仮想ターゲットとの間の直線距離を算出するステップと、
    前記電子機器が、前記相対移動速度及び直線距離により前記吸引角速度を計算するステップとを含む請求項に記載の方法。
  9. 前記した前記ユーザ操作対象と仮想ターゲットの水平方向での速度ベクトルに基づき相対移動速度を決定することは、
    前記電子機器が、前記ユーザ操作対象と仮想ターゲットの水平方向での速度ベクトルに対して速度差を計算するステップと、
    前記電子機器が、算出された速度差、前記仮想ターゲットの水平方向での速度ベクトルのうちの最大値を前記相対移動速度とするステップとを含む請求項に記載の方法。
  10. 前記した前記相対移動速度及び直線距離により前記吸引角速度を計算することは、
    前記電子機器が、前記ユーザが前記トリガー点を前記仮想ターゲットから引き離すトリガー操作を行うことを感知したときに、ユーザ入力速度を計算するステップと、
    前記電子機器が、吸引係数とユーザ入力速度との間の変換関係に応じて、前記ユーザ入力速度を対応する吸引係数に変換するステップと、
    前記電子機器が、変換された吸引係数、前記相対移動速度及び直線距離に基づき前記吸引角速度を算出するステップとを含む請求項に記載の方法。
  11. 前記した最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動する前に、
    前記電子機器が、前記ユーザ入力速度を監視するステップと、
    前記電子機器が、前記ユーザ入力速度が変化したことを感知した場合、吸引角速度を再計算するようにトリガーするステップとを更に含む請求項10に記載の方法。
  12. 前記仮想対話型シナリオは射撃ゲームシナリオであり、前記仮想ターゲットは前記射撃ゲームシナリオにおける照準可能な仮想対象である請求項1に記載の方法。
  13. 仮想対話型シナリオにおけるターゲット位置決め装置であって、
    ユーザのターゲット位置決めを行うトリガー操作を監視し、トリガー点のスクリーンでの位置を取得するように構成されるトリガー点位置取得モジュールと、
    前記トリガー点の位置及び仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定するように構成される吸引点位置取得モジュールであって、吸引点位置毎に一つの吸引点に対応する吸引点位置取得モジュールと、
    前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置する場合、複数の前記吸引点に対して吸引点重み値を計算して、吸引点に対応する複数の吸引点重み値を得るように構成される吸引点重み計算モジュールと、
    最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動するように構成されるトリガー点移動モジュールとを備え
    前記吸引点重み計算モジュールは、
    設定パラメータファイルから前記吸引点の基礎重み係数を取得するように構成される基礎重み係数取得ユニットと、
    前記仮想ターゲットに対してレイキャスティング検出を行って前記吸引点の可視係数を得るように構成される可視係数取得ユニットと、
    前記基礎重み係数及び可視係数により前記吸引点の吸引点重み値を計算するように構成される計算ユニットとを備える、仮想対話型シナリオにおけるターゲット位置決め装置。
  14. 前記仮想ターゲットはアニメーションキャラクターであり且つ複数のアニメーション骨格点によって表され、
    前記仮想ターゲットから複数のアニメーション骨格点を選択して、それぞれ選択されたアニメーション骨格点と前記吸引点との間の一対一に対応するバインディング関係を確立するように構成されるバインディング関係確立モジュールと、
    前記バインディング関係を、吸引点位置を決定するための設定パラメータファイルに記憶するように構成されるバインディング関係記憶モジュールとを備える請求項13に記載の装置。
  15. 前記吸引点位置取得モジュールは、
    前記設定パラメータファイルから、前記吸引点とバインディング関係を有する前記アニメーション骨格点を取得するように構成される骨格点取得ユニットと、
    前記アニメーション骨格点の前記スクリーンでの位置を検出するように構成される骨格点位置検出ユニットと、
    前記アニメーション骨格点の前記スクリーンでの位置を、前記吸引点に対応する吸引点位置とするように構成される吸引点位置決定ユニットとを備える請求項14に記載の装置。
  16. 前記トリガー点の位置といずれかの前記吸引点位置との間の距離が予め設定された間隔より小さい場合、前記吸引点重み計算モジュールに通知するように構成される距離判断モジュールを更に備える請求項13に記載の装置。
  17. 複数の銃器種類に銃器重み係数をそれぞれ設定して、複数の前記銃器種類とその銃器重み係数を前記設定パラメータファイルに関連付けて記憶するように構成される銃器重み係数設定モジュールを更に備え、
    対応して、前記計算ユニットは、
    前記設定パラメータファイルから前記ユーザが指定した銃器種類を取得し、前記指定された銃器種類に基づいて前記設定パラメータファイルから銃器重み係数を関連的にサーチするように構成される銃器重み係数サーチサブユニットと、
    関連的にサーチして得られた銃器重み係数、前記基礎重み係数及び可視係数に基づき前記吸引点の吸引点重み値を算出するように構成される計算サブユニットとを備える請求項13に記載の装置。
  18. 前記ユーザが指定した銃器種類、及び前記吸引点重み値の計算における基礎重み係数及び可視係数を監視するように構成される監視モジュールと、
    該銃器種類、基礎重み係数及び可視係数のうちのいずれかが変化したことを感知した場合、吸引点重み値を再計算するようにトリガーするように構成される再計算モジュールと、
    再算出された吸引点重み値に基づき前記トリガー点を再移動するように構成される再移動モジュールとを備える請求項17に記載の装置。
  19. 仮想対話型シナリオにおけるターゲット位置決め装置であって、
    ユーザのターゲット位置決めを行うトリガー操作を監視し、トリガー点のスクリーンでの位置を取得するように構成されるトリガー点位置取得モジュールと、
    前記トリガー点の位置及び仮想ターゲット上の複数の吸引点に基づいて、複数の吸引点位置を決定するように構成される吸引点位置取得モジュールであって、吸引点位置毎に一つの吸引点に対応する吸引点位置取得モジュールと、
    前記トリガー点の位置がいずれかの前記吸引点位置によって決定された吸引範囲に位置する場合、複数の前記吸引点に対して吸引点重み値を計算して、吸引点に対応する複数の吸引点重み値を得るように構成される吸引点重み計算モジュールと、
    最大吸引点重み値に対応する吸引点の所在する吸引点位置に、前記トリガー点を移動するように構成されるトリガー点移動モジュールと、
    前記仮想ターゲットとユーザ操作対象との水平方向での相対変位を決定するように構成される決定モジュールと、
    前記相対変位に基づいて吸引角速度を計算することにより、前記トリガー点の移動を前記吸引角速度に従って行わせる実行モジュールとを備える仮想対話型シナリオにおけるターゲット位置決め装置。
  20. 電子機器であって、
    プロセッサと、
    前記プロセッサによって実行されるときに請求項1−12のいずれか1項に記載の仮想対話型シナリオにおけるターゲット位置決め方法を実現するコンピュータ可読命令が記憶されているメモリとを備える電子機器。
  21. プロセッサによって実行されるときに請求項1−12のいずれか1項に記載の仮想対話型シナリオにおけるターゲット位置決め方法を実現するコンピュータプログラムが記憶されているコンピュータ記憶媒体。
JP2020516543A 2017-09-21 2018-09-21 仮想対話型シナリオにおけるターゲット位置決め方法及び装置 Active JP6911199B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710857550.9A CN109529327B (zh) 2017-09-21 2017-09-21 虚拟交互场景中目标定位方法、装置及电子设备
CN201710857550.9 2017-09-21
PCT/CN2018/107007 WO2019057164A1 (zh) 2017-09-21 2018-09-21 虚拟交互场景中目标定位方法及装置

Publications (2)

Publication Number Publication Date
JP2020534615A JP2020534615A (ja) 2020-11-26
JP6911199B2 true JP6911199B2 (ja) 2021-07-28

Family

ID=65810647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020516543A Active JP6911199B2 (ja) 2017-09-21 2018-09-21 仮想対話型シナリオにおけるターゲット位置決め方法及び装置

Country Status (5)

Country Link
US (1) US10905955B2 (ja)
JP (1) JP6911199B2 (ja)
KR (1) KR102309037B1 (ja)
CN (1) CN109529327B (ja)
WO (1) WO2019057164A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109529327B (zh) 2017-09-21 2022-03-04 腾讯科技(深圳)有限公司 虚拟交互场景中目标定位方法、装置及电子设备
CN110354495A (zh) * 2019-08-13 2019-10-22 网易(杭州)网络有限公司 目标对象的确定方法、装置及电子设备
CN110841276B (zh) * 2019-10-31 2021-05-14 腾讯科技(深圳)有限公司 虚拟道具的控制方法和装置、存储介质及电子装置
CN110935173B (zh) * 2019-11-20 2021-09-10 腾讯科技(深圳)有限公司 操作控制方法、装置、存储介质及电子装置
CN111202975B (zh) * 2020-01-14 2021-10-29 腾讯科技(深圳)有限公司 虚拟场景中的准星控制方法、装置、设备及存储介质
CN111672115B (zh) * 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
CN112764654B (zh) * 2021-01-29 2022-10-25 北京达佳互联信息技术有限公司 组件的吸附操作方法、装置、终端及存储介质
CN113440853B (zh) * 2021-07-08 2022-07-29 腾讯科技(深圳)有限公司 虚拟场景中虚拟技能的控制方法、装置、设备及存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10272258A (ja) * 1997-01-30 1998-10-13 Sega Enterp Ltd 画像処理装置
JP3442965B2 (ja) * 1997-04-25 2003-09-02 任天堂株式会社 ビデオゲームシステムおよびビデオゲーム用記憶媒体
JP4278072B2 (ja) * 1999-06-17 2009-06-10 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体
JP4172108B2 (ja) * 1999-08-09 2008-10-29 株式会社セガ ゲーム装置及びその制御方法
JP3741965B2 (ja) * 2001-03-19 2006-02-01 株式会社ナムコ 画像処理装置、画像処理用プログラム、およびそのプログラムを記録した記録媒体
JP2003245465A (ja) * 2002-02-25 2003-09-02 Namco Ltd ゲーム装置、ゲーム制御プログラムおよびそのプログラムが記録された記録媒体
JP2006122123A (ja) * 2004-10-26 2006-05-18 Game Republic:Kk ゲーム装置及びプログラム
JP3866745B2 (ja) * 2004-12-10 2007-01-10 株式会社コナミデジタルエンタテインメント ゲーム装置、その制御方法、ならびに、プログラム
US8701026B2 (en) * 2006-03-07 2014-04-15 Goma Systems Corporation User interface
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
US8777708B2 (en) * 2008-06-27 2014-07-15 Microsoft Corporation Targeting control in a simulated environment
US8342926B2 (en) * 2008-07-13 2013-01-01 Sony Computer Entertainment America Llc Game aim assist
US8029422B2 (en) * 2008-11-26 2011-10-04 Patrick Strong Martial arts striking device with flexible, non-force impact, relatively non-resistant contact, striking targets, and method of use
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) * 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8320621B2 (en) * 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
JP5909023B2 (ja) * 2013-04-05 2016-04-26 グリー株式会社 オンラインシューティングゲームの提供装置及びその方法
US20160158641A1 (en) * 2013-04-25 2016-06-09 Phillip B. Summons Targeting system and method for video games
CN105148520A (zh) * 2015-08-28 2015-12-16 上海甲游网络科技有限公司 一种射击游戏的自动瞄准的方法及装置
CN107029428B (zh) * 2016-02-04 2020-06-19 网易(杭州)网络有限公司 一种射击游戏的操控系统、方法及终端
CN107029425B (zh) * 2016-02-04 2020-06-19 网易(杭州)网络有限公司 一种射击游戏的操控系统、方法及终端
JP6100958B2 (ja) * 2016-08-19 2017-03-22 グリー株式会社 オンラインシューティングゲームの提供装置及びその方法
CN109529327B (zh) 2017-09-21 2022-03-04 腾讯科技(深圳)有限公司 虚拟交互场景中目标定位方法、装置及电子设备

Also Published As

Publication number Publication date
WO2019057164A1 (zh) 2019-03-28
CN109529327B (zh) 2022-03-04
US10905955B2 (en) 2021-02-02
KR20190141213A (ko) 2019-12-23
US20190381403A1 (en) 2019-12-19
KR102309037B1 (ko) 2021-10-05
CN109529327A (zh) 2019-03-29
JP2020534615A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
JP6911199B2 (ja) 仮想対話型シナリオにおけるターゲット位置決め方法及び装置
US10500484B2 (en) Information processing method and apparatus, storage medium, and electronic device
US11119581B2 (en) Displacement oriented interaction in computer-mediated reality
CN107913520B (zh) 信息处理方法、装置、电子设备及存储介质
US20210370177A1 (en) Method for Controlling Game Character and Electronic Device and Computer Storage Medium
US20210370170A1 (en) Information Processing Method and Apparatus, Electronic Device, and Storage Medium
CN109224439A (zh) 游戏瞄准的方法及装置、存储介质、电子装置
US20140009384A1 (en) Methods and systems for determining location of handheld device within 3d environment
JP6731461B2 (ja) 情報処理方法及び装置、記憶媒体、電子機器
US20130010071A1 (en) Methods and systems for mapping pointing device on depth map
CN110147159B (zh) 虚拟交互场景中目标定位方法、装置及电子设备
JP7150108B2 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
WO2021082795A1 (zh) 虚拟道具的控制方法和装置、计算机可读存储介质及电子设备
CN107930114A (zh) 信息处理方法及装置、存储介质、电子设备
JP2019136358A (ja) ゲームシステム及びプログラム
US20150309681A1 (en) Depth-based mode switching for touchless gestural interfaces
JP2019205514A (ja) プログラム、方法、および情報端末装置
WO2018043693A1 (ja) ゲームプログラム、方法および情報処理装置
CN116069157A (zh) 虚拟对象显示方法、装置、电子设备及可读介质
US9474964B2 (en) System and method for providing state information of an action figure
CN110624240B (zh) 一种网络游戏的操作控制方法、装置、终端设备和介质
CN112328164B (zh) 操控方法和电子设备
CN111202974A (zh) 游戏中虚拟对象的控制方法、装置、电子设备及存储介质
WO2013176574A1 (en) Methods and systems for mapping pointing device on depth map
CN116850593A (zh) 游戏中的交互方法、装置、终端设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6911199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150