JP2018506118A - ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体 - Google Patents

ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体 Download PDF

Info

Publication number
JP2018506118A
JP2018506118A JP2017538656A JP2017538656A JP2018506118A JP 2018506118 A JP2018506118 A JP 2018506118A JP 2017538656 A JP2017538656 A JP 2017538656A JP 2017538656 A JP2017538656 A JP 2017538656A JP 2018506118 A JP2018506118 A JP 2018506118A
Authority
JP
Japan
Prior art keywords
control point
learning
direction vector
vector
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017538656A
Other languages
English (en)
Other versions
JP6735760B2 (ja
Inventor
思▲遠▼ ▲謝▼
思▲遠▼ ▲謝▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2018506118A publication Critical patent/JP2018506118A/ja
Application granted granted Critical
Publication of JP6735760B2 publication Critical patent/JP6735760B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/646Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car for calculating the trajectory of an object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体が開示される。この方法は、動きトラックにおけるターゲット対象の現在位置に基づいて、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するステップであって、第1の制御ポイントと第2の制御ポイントとは、隣接した制御ポイントである、獲得するステップ(101)と、第1の方向ベクトルおよび第2の方向ベクトルを獲得するステップであって、第1の方向ベクトルは、第1の制御ポイントにおける単位方向ベクトルであり、第2の方向ベクトルは、第2の制御ポイントにおける単位方向ベクトルである、獲得するステップ(102)と、第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲット対象の動き軌道を決定するステップ(103)とを含む。指定されたスプライン曲線補間モデルを用いて、本発明は、実際の軌道が直線である場合、曲線ではなく直線を生成し、したがって、ターゲット対象の動き軌道の決定の精度を向上させる。

Description

本願は、その全体が参照によって本明細書に組み込まれている、中華人民共和国国家知識産権局に2015年6月24日に出願され「METHOD AND DEVICE FOR DETERMINING GAME MOTION TRAJECTORY」と題された中国特許出願番号第201510354868.6号に対する優先権を主張する。
本開示は、コンピュータ技術の分野に関し、特に、ターゲットオブジェクトの動き軌道を決定するための方法、ターゲットオブジェクトの動き軌道を決定するためのデバイス、および記憶媒体に関する。
ネットワーク技術の急速な発展により、様々なパルクールゲームのようなモバイルゲームアプリケーションがますます発展している。そのようなアプリケーションを使用する場合、ユーザは、ターゲットオブジェクトと呼ばれ得る、アプリケーションにおける役割を選択し得る。ターゲットオブジェクトにおけるユーザの制御に基づいて、端末は、動きトラックにおけるターゲットオブジェクトの動き軌道を決定し得、これにより、アプリケーションのナビゲーションモジュールによってターゲットオブジェクトの動きを制御する。
ターゲットオブジェクトの動き軌道を決定するための方法、ターゲットオブジェクトの動き軌道を決定するためのデバイス、および記憶媒体が、本開示の実施形態に従って提供される。
一態様では、ターゲットオブジェクトの動き軌道を決定するための方法が提供される。この方法は、
動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するステップであって、第1の制御ポイントおよび第2の制御ポイントは、隣接した制御ポイントである、獲得するステップ、
第1の方向ベクトルおよび第2の方向ベクトルを獲得するステップであって、第1の方向ベクトルは、第1の制御ポイントにおける単位方向ベクトルであり、第2の方向ベクトルは、第2の制御ポイントにおける単位方向ベクトルである、獲得するステップ、および
第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道を決定するステップ、を含む。
別の態様では、ターゲットオブジェクトの動き軌道を決定するためのデバイスが提供される。このデバイスは、1つまたは複数のプロセッサと、動作命令が記憶される記憶媒体とを含む。記憶媒体に記憶された動作命令が実行された場合、1つまたは複数のプロセッサは、以下のステップを実行する。
動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントが獲得される。第1の制御ポイントおよび第2の制御ポイントは、隣接した制御ポイントである。
第1の方向ベクトルおよび第2の方向ベクトルが獲得される。第1の方向ベクトルは、第1の制御ポイントにおける単位方向ベクトルであり、第2の方向ベクトルは、第2の制御ポイントにおける単位方向ベクトルである。
第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道が決定される。
別の態様では、非瞬間的なコンピュータ読取可能な記憶媒体が提供される。非瞬間的なコンピュータ読取可能な記憶媒体は、コンピュータ実行可能な命令を記憶する。実行可能な命令を実行する場合、コンピュータは、以下のステップを実行する。
動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントが獲得される。第1の制御ポイントおよび第2の制御ポイントは、隣接した制御ポイントである。
第1の方向ベクトルおよび第2の方向ベクトルが獲得される。第1の方向ベクトルは、第1の制御ポイントにおける単位方向ベクトルであり、第2の方向ベクトルは、第2の制御ポイントにおける単位方向ベクトルである。
第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道が決定される。
本開示の実施形態に従う技術的解決策を用いて、ターゲットオブジェクトの実際の動き軌道が直線であるケースにおいて、第1の方向ベクトルが第2の方向ベクトルに等しく、指定されたスプライン曲線補間モデルにおけるマルチパワー変数が相殺され、ターゲットオブジェクトの生成された実際の動き軌道は、曲線ではなく直線であり、これによって、ターゲットオブジェクトの実際の動き軌道は、理論的な動き軌道と同じとなり、これにより、ターゲットオブジェクトの決定された動き軌道の精度を向上させる。
本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するための方法のフローチャートである。 本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するための別の方法のフローチャートである。 本開示の一実施形態による、CatmullRomスプライン曲線アルゴリズムによって生成された線の概要図である。 本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するためのインターフェースの構成図である。 本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するための別のインターフェースの構成図である。 本開示の一実施形態による、指定されたスプライン曲線補間モデルによって生成された線の概要図である。 本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するためのデバイスの構成概要図である。 本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するための別のデバイスの構成概要図である。 本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するための別のデバイスの構成概要図である。
本開示の実施形態は、添付図面と連携して以下のように詳細に説明され、これによって、本開示の目的、特徴、および利点がより明確になり得る。
図1は、本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するための方法のフローチャートである。この方法は、モバイル電話、タブレットパーソナルコンピュータ、およびパームトップコンピュータであり得る、端末へ適用され得る。図1を参照して示すように、この方法は、ステップ101から103を含む。
ステップ101では、動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントが獲得される。第1の制御ポイントおよび第2の制御ポイントは、隣接した制御ポイントである。
ステップ102では、第1の方向ベクトルおよび第2の方向ベクトルが獲得される。第1の方向ベクトルは、第1の制御ポイントにおける単位方向ベクトルであり、第2の方向ベクトルは、第2の制御ポイントにおける単位方向ベクトルである。
ステップ103では、第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道が決定される。
本開示の実施形態に従う技術的解決策を用いて、ターゲットオブジェクトの実際の動き軌道が直線であるケースにおいて、第1の方向ベクトルが第2の方向ベクトルに等しく、指定されたスプライン曲線補間モデルにおけるマルチパワー変数が相殺され、ターゲットオブジェクトの生成された実際の動き軌道は、曲線ではなく直線であり、これによって、ターゲットオブジェクトの実際の動き軌道は、理論的な動き軌道と同じとなり、これにより、ターゲットオブジェクトの決定された動き軌道の精度を向上させる。
オプションで、第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道が決定されるステップの前に、この方法はさらに、
学習されるべきスプライン曲線補間モデルを獲得するステップ、
第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するステップであって、第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントは、リストされたシーケンスに配置され得る、決定するステップ、および
第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、第2の学習ベクトル、および学習スプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルを決定するステップ、を含み得る。
オプションで、第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するステップは、
第2の学習制御ポイントと第3の学習制御ポイントとの間の距離を学習距離として決定するステップ、
第1の学習制御ポイントと第3の学習制御ポイントとを接続する線の単位方向ベクトルを第1の学習ベクトルとして決定するステップ、および
第1の学習制御ポイントと第4の学習制御ポイントとを接続する線の単位方向ベクトルを第2の学習ベクトルとして決定するステップ、を含み得る。
オプションで、第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、第2の学習ベクトル、および学習スプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルを決定するステップは、
第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、および第2の学習ベクトルに基づいて、学習スプライン曲線補間モデルのパラメータを決定するステップ、および
学習スプライン曲線補間モデルのパラメータおよび学習スプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルを決定するステップ、を含み得る。
オプションで、第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道が決定されるステップは、
第1の制御ポイントおよび第2の制御ポイントに基づいて、第1の制御ポイントと第2の制御ポイントとの間の現在の動き距離の補間比率を決定するステップ、
制御ポイント距離を取得するために、第1の制御ポイントと第2の制御ポイントとの間の距離を決定するステップ、および
第1の制御ポイント、第2の制御ポイント、第1の制御ポイントと第2の制御ポイントとの間の現在の動き距離の補間比率、制御ポイント距離、第1の方向ベクトル、および第2の方向ベクトルに基づいて、
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λF)U2+(-2Pi+2Pi-1+λF+λE)U3
として指定されたスプライン曲線補間モデルによって、ターゲットオブジェクトの現在の動きの動き軌道を決定するステップ、を含み得る。
上記式では、P(U)は、ターゲットオブジェクトの動き軌道を表し、Uは、第1の制御ポイントと第2の制御ポイントとの間の現在の動き距離の補間比率を表し、Pi-1は、第1の制御ポイントを表し、Piは、第2の制御ポイントを表し、λは、制御ポイント距離を表し、Eは、第1の方向ベクトルを表し、Fは、第2の方向ベクトルを表す。
オプションで、この方法では、第1の方向ベクトルが第2の方向ベクトルと等しいケースにおいて、指定されたスプライン曲線補間モデルは、P(U)=Pi-1+λVUである。すなわち、動きトラックにおけるターゲットオブジェクトの動き軌道は、直線であり、Vは、第1の方向ベクトルまたは第2の方向ベクトルを表す。
上記オプションの技術的解決策のすべては、本開示の実施形態を形成するために、本明細書では詳細に説明されない任意の手法で組み合わされ得る。
図2は、本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するための方法のフローチャートである。この方法は、モバイル電話、タブレットパーソナルコンピュータ、およびパームトップコンピュータであり得る端末へ適用される。図2を参照して示すように、この方法は、ステップ201から206を含む。
ステップ201では、学習スプライン曲線補間モデルが獲得される。
ターゲットオブジェクトの実際の動き軌道が直線であるケースでは、CatmullRomスプライン曲線アルゴリズムによって生成された線は、直線ではなく曲線である。たとえば、図3に図示されるように、ターゲットオブジェクトの実際の動き軌道が、AからBへの直線であるケースでは、CatmullRomスプライン曲線アルゴリズムによって生成された線は、AからA'、その後、A'からBへの線である。すなわち、ターゲット動きオブジェクトは、最初は、AからA'へ後方へ移動し、次に、A'からBへ移動する必要がある。したがって、本開示に従う実施形態では、ターゲットオブジェクトの動き軌道を決定するステップの前に、ターゲットオブジェクトの実際の軌道が直線であるケースにおいて、指定されたスプライン曲線補間モデルによって生成される線もまた直線になるように、指定されたスプライン曲線補間モデルが再学習され、生成され得る。指定されたスプライン曲線補間モデルが学習される前に、学習スプライン曲線補間モデルが獲得される。
たとえば、学習スプライン曲線補間モデルは、
として表現され得る。
上記式では、Uは、補間比率を表し、0と1との間で変動し、P(U)は、動き軌道を表し、C0、C1、C2、およびC3は、学習スプライン曲線補間モデルのパラメータを表す。Uが決定された場合、P(U)は、動き軌道におけるポイントを表す。たとえば、Uが0である場合、P(0)は、動き軌道の開始ポイントを表し、Uが1である場合、P(1)は、動き軌道の終了ポイントを表す。
ステップ202では、第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルが決定される。第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントは、学習トラックにおいてリストされたシーケンスに配置された制御ポイントである。
指定されたスプライン曲線補間モデルは、学習動き軌道に基づいて取得され得る。第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントが獲得される。第2の学習制御ポイントは、学習動き軌道の開始ポイントであり、第3の学習制御ポイントは、学習動き軌道の終了ポイントであり、第1の学習制御ポイントは、第2の学習制御ポイントの前に隣接している制御ポイントであり、第4の学習制御ポイントは、第3の学習制御ポイントの後に隣接している制御ポイントである。第2の学習制御ポイントと第3の学習制御ポイントとの間の距離が、学習距離として決定される。第1の学習制御ポイントと第3の学習制御ポイントとを接続する線の単位方向ベクトルが、第1の学習ベクトルとして決定される。第1の学習制御ポイントと第4の学習制御ポイントとを接続する線の単位方向ベクトルが、第2の学習ベクトルとして決定される。
たとえば、第1の学習制御ポイントは、Pi-2として表され、第2の学習制御ポイントは、Pi-1として表され、第3の学習制御ポイントは、Piとして表され、第4の学習制御ポイントは、Pi+1として表される。第2の学習制御ポイントと、第3の学習制御ポイントとの間の距離はλであり、すなわち、学習距離はλである。第1の学習制御ポイントと第3の学習制御ポイントとを接続する線の単位方向ベクトルはEであり、すなわち、第1の学習ベクトルはEである。第1の学習制御ポイントと第4の学習制御ポイントとを接続する線の単位方向ベクトルはFであり、すなわち、第2の学習ベクトルはFである。
ステップ203では、第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、第2の学習ベクトル、および学習スプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルが決定される。
学習スプライン曲線補間モデルのパラメータが決定された場合、指定されたスプライン曲線補間モデルは、学習スプライン曲線補間モデルおよび学習されるべきスプライン曲線補間モデルのパラメータに基づいて決定される。
上記ステップ201において言及されたように、P(0)は、動き軌道の開始ポイントを表し、P(1)は、動き軌道の終了ポイントを表す。その後、第2の学習制御ポイントと第3の学習制御ポイントとの間の学習動き軌道について、P(0)は、第2の学習制御ポイントPi-1であり、P(1)は、第3の学習制御ポイントPiである。それに加えて、第2の学習制御ポイントの方向は、第3の学習制御ポイントと第1の学習制御ポイントとを接続する線の方向であり、第3の学習制御ポイントの方向は、第4の学習制御ポイントと第2の学習制御ポイントとを接続する線の方向である。第2の学習制御ポイントにおける方向ベクトルと、第3の学習制御ポイントにおける方向ベクトルとを獲得するために、学習スプライン曲線補間モデルについて導関数演算が実行され、学習スプライン曲線補間モデルの導関数モデルP'(U)=C1+2C2U+3C3U2が取得される。第2の学習制御ポイントにおける方向ベクトルがP'(0)であり、第3の学習制御ポイントにおける方向ベクトルがP'(1)であるので、結果P(0)=C1=Pi-1、P(1)=C0+C1+C2+C3=Pi、P'(0)=C1=λE、およびP'(1)=C1+2C2+3C3=λFが取得される。したがって、学習スプライン曲線補間モデルのパラメータは、C0=Pi-1、C1=λE、C2=3Pi-3Pi-1-λF-2λE、C3=-2Pi+2Pi-1+λF+λEとして決定される。
その後、指定されたスプライン曲線補間モデル
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
を取得するために、学習されるべきスプライン曲線補間モデルのパラメータが、学習スプライン曲線補間モデルへ代入される。
この式では、P(U)が、学習動き軌道を表し、Uが、補間比率を表し、Pi-1が、学習動き軌道の開始ポイント、すなわち、第2の学習制御ポイントを表し、Piが、学習動き軌道の終了ポイント、すなわち、第3の学習制御ポイントを表し、λが、第2の学習制御ポイントと第3の学習制御ポイントとの間の距離、すなわち、学習距離を表し、Eが、第1の学習ベクトルを表し、Fが、第2の学習ベクトルを表す。
指定されたスプライン曲線補間モデルは、上記ステップ201から203の学習によって取得され得る。それに加えて、上記ステップ201から203は、ターゲットオブジェクトの動き軌道を決定するためのみではなく、指定されたスプライン曲線補間モデルを取得するためにも実行され得る。取得された指定されたスプライン曲線補間モデルは記憶され得る。その後、ターゲットオブジェクトの動き軌道を決定する際に、指定された曲線スプライン補間モデルが、ダイレクトに取得され得る。本開示の実施形態は、指定された曲線スプライン補間モデルを決定するためのタイミングを定義しない。それに加えて、指定された曲線スプライン補間モデルを決定した後に、動きトラックにおけるターゲットオブジェクトのスプライン曲線が、指定された曲線スプライン補間モデルによって生成され得、スプライン曲線は、多数の制御ポイントを含み得る。その後、端末は、以下のように説明されたステップによって、動きトラックにおけるターゲットオブジェクトの動き軌道を決定し得る。
ステップ204では、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントが、動きトラック上のターゲットオブジェクトの現在位置に基づいて獲得され、第1の制御ポイントおよび第2の制御ポイントは、隣接した制御ポイントである。
本開示の実施形態では、端末は、動きトラックにおけるターゲットオブジェクトの動き軌道を取得するために、指定された時間インタバルで、動きトラックにおけるターゲットオブジェクトの動き位置を決定し得る。指定された時間インタバルは、前もって設定され、たとえば、指定された時間インタバルは1秒であり得、これによって、毎秒の動きトラックにおけるターゲットオブジェクトの動き位置に基づいて決定される、動きトラックにおけるターゲットオブジェクトの動き軌道がスムーズになる。
この方法が、オンラインゲームへ適用される場合、オンラインゲームの表示効果を保証するために、動きトラックにおけるターゲットオブジェクトの速度は一定である。したがって、ターゲットオブジェクトが、動きトラックの開始ポイントから移動し始めた場合、動きトラックにおけるターゲットオブジェクトの現在位置は、特定の時間インタバルにおいて、ターゲットオブジェクトの速度に基づいて計算され得る。それに加えて、上記説明されたように、動きトラックは、多数の制御ポイントを含み得、本開示の実施形態では、多数の制御ポイントの各々について、動きトラックの制御ポイントと開始ポイントとの間の距離が計算され得る。制御ポイントの長さ比率を取得するために、この距離は、動きトラックの合計長さで除される。したがって、各制御ポイントについて、制御ポイントと、制御ポイントの長さ比率との間の対応が記憶され得る。たとえば、動きトラックは、10の制御ポイントを含み、動きトラックの合計長さは100メートルである。第1の制御ポイントから第10の制御ポイントへの10の制御ポイントは各々、開始ポイントP1、10メートルの距離におけるP2、20メートルの距離におけるP3、35メートルの距離におけるP4、45メートルの距離におけるP5、60メートルの距離におけるP6、70メートルの距離におけるP7、80メートルの距離におけるP8、90メートルの距離におけるP9、および終了ポイントP10である。すなわち、動きトラックの開始ポイントと10の制御ポイントとの間の距離は各々、0メートル、10メートル、20メートル、35メートル、45メートル、60メートル、70メートル、80メートル、90メートル、および100メートルである。各々0%、10%、20%、35%、45%、60%、70%、80%、90%、および100%である10の制御ポイントの長さ比率を取得するために、動きトラックの開始ポイントと10の制御ポイントとの間の距離は各々、動きトラックの合計長さによって除される。その後、10の制御ポイントと、10の制御ポイントの各々の長さ比率とが、Table 1(表1)に図示されるような対応表に記憶される。
動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得する動作は、動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、ターゲットオブジェクトの開始ポイントからの距離を獲得するステップ、およびターゲットオブジェクトの現在の距離の長さ比率を取得するために、ターゲットオブジェクトの開始ポイントからの距離を、動きトラックの合計長さによって除するステップ、を含み得る。制御ポイントと長さ比率との間の対応表に記憶された多数の長さ比率が取得され、多数の長さ比率は、ターゲットオブジェクトの現在の距離の長さ比率と比較される。ターゲットオブジェクトの現在の距離の長さ比率に隣接している2つの長さ比率が、多数の長さ比率から選択される。選択された2つの長さ比率におけるより小さな長さ比率に対応する制御ポイントが、第1の制御ポイントとして決定され得、選択された2つの長さ比率におけるより大きな長さ比率に対応する制御ポイントが、第2の制御ポイントとして決定され得る。
たとえば、上記例において、ターゲットオブジェクトは、動きトラックにおける開始ポイントから50メートルの距離を有する。現在の動き距離の長さ比率として50%を取得するために、距離50メートルが、動きトラックの合計長さ100メートルによって除される。制御ポイントと長さ比率との間の対応表に記憶された多数の長さ比率0%、10%、20%、35%、45%、60%、70%、80%、90%、および100%が取得され、多数の長さ比率は、ターゲットオブジェクトの現在の距離の長さ比率と比較される。ターゲットオブジェクトの現在の距離の長さ比率に隣接している2つの長さ比率45%および60%が、多数の長さ比率から選択される。選択された2つの長さ比率におけるより小さな長さ比率45%に対応する制御ポイントP5が、第1の制御ポイントとして決定され得、選択された2つの長さ比率におけるより大きな長さ比率60%に対応する制御ポイントP6が、第2の制御ポイントとして決定され得る。すなわち、図4に図示されるように、動きトラックにおける第5の制御ポイントP5が、第1の制御ポイントとして決定され、動きトラックにおける第6の制御ポイントP6が、第2の制御ポイントとして決定される。
ステップ205では、第1の方向ベクトルおよび第2の方向ベクトルが獲得される。第1の方向ベクトルは、第1の制御ポイントにおける単位方向ベクトルであり、第2の方向ベクトルは、第2の制御ポイントにおける単位方向ベクトルである。
本開示の実施形態において、端末は、様々な手法で、第1の方向ベクトルおよび第2の方向ベクトルを獲得し得る。たとえば、指定されたスプライン曲線補間モデルの導関数モデルを取得するために、指定されたスプライン曲線補間モデルにおいて、導関数演算が実行され得る。第1の方向ベクトルを取得するために、第1の制御ポイントの補間比率が計算され、第1の制御ポイントの補間比率が、指定されたスプライン曲線補間モデルへ代入される。同様に、第2の方向ベクトルを取得するために、第2の制御ポイントの補間比率が計算され、第2の制御ポイントの補間比率が、指定されたスプライン曲線補間モデルへ代入される。別の例については、第1の方向ベクトルを取得するために、第2の制御ポイントの座標および第3の制御ポイントの座標に基づいて、第2の制御ポイントと第3の制御ポイントとを接続する線の単位方向ベクトルが計算され得る。第3の制御ポイントは、第1の制御ポイントの前に隣接している制御ポイントである。同様に、第2の方向ベクトルを取得するために、第4の制御ポイントの座標および第1の制御ポイントの座標に基づいて、第4の制御ポイントと第1の制御ポイントとを接続する線の単位方向ベクトルが計算され得る。第4の制御ポイントは、第2の制御ポイントの後に隣接している制御ポイントである。第1の方向ベクトルおよび第2の方向ベクトルを獲得するための様々な手法は、本開示の実施形態にリストされない。
本開示の実施形態において、第1の制御ポイントの補間比率および第2の制御ポイントの補間比率を計算するための方法は、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の距離の補間比率を計算するための方法と同じである。これは、ステップ206において詳細に説明され、本明細書において説明されていない。それに加えて、第2の制御ポイントの座標と、第3の制御ポイントの座標とに基づいて、第2の制御ポイントと第3の制御ポイントとを接続する線の単位方向ベクトルを計算することによって第1の方向ベクトルを取得するための方法は、第2の制御ポイントと第3の制御ポイントとの間の方向ベクトルを取得するために、第2の制御ポイントの座標から、第3の制御ポイントの座標を引くステップ、および第1の方向ベクトルを取得するために、第2の制御ポイントと第3の制御ポイントとの間の方向ベクトルをユニット化するステップ、を含み得る。第2の方向ベクトルを計算するための方法は類似しており、これは、本明細書において詳細に説明されない。
ステップ206では、第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道が決定される。
端末は、第1の制御ポイントおよび第2の制御ポイントに基づいて、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の距離の補間比率を決定し、制御ポイント距離を取得するために、第1の制御ポイントと第2の制御ポイントとの間の距離を決定し、第1の制御ポイント、第2の制御ポイント、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の距離の補間比率、制御ポイント距離、第1の方向ベクトル、および第2の方向ベクトルに基づいて、
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
として指定されたスプライン曲線補間比率によって、ターゲットオブジェクトの現在の動きの動き軌道を決定する。
上記式では、P(U)が、ターゲットオブジェクトの動き軌道を表し、Uが、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の距離の補間比率を表し、Pi-1が、ターゲットオブジェクトの現在の動きの動き軌道の開始ポイント、すなわち、第1の制御ポイントを表し、Piが、ターゲットオブジェクトの現在の動きの動き軌道の終了ポイント、すなわち、第2の制御ポイントを表し、λが、第1の制御ポイントと第2の制御ポイントとの間、すなわち、制御ポイント距離を表し、Eが、第1の制御ポイントにおける単位方向ベクトル、すなわち、第1の方向ベクトルを表し、Fが、第2の制御ポイントにおける単位方向ベクトル、すなわち、第2の方向ベクトルを表す。
端末が、第1の制御ポイントおよび第2の制御ポイントに基づいて、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の距離の補間比率を決定するための特定の動作は、第1の比率を取得するために、ターゲットオブジェクトの現在の距離の長さ比率から、第1の制御ポイントの長さ比率を引くステップ、第2の比率を取得するために、第2の制御ポイントの長さ比率から、第1の制御ポイントの長さ比率を引くステップ、および第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の距離の補間比率を取得するために、第1の比率を、第2の比率で除するステップ、を含み得る。
それに加えて、第1の制御ポイントの座標と、第2の制御ポイントの座標とに基づいて、制御ポイント距離が計算され得る。詳細な計算方法については、本明細書では詳細に説明されていない、関連する既存技術に対する参照がなされ得る。
たとえば、5%として第1の比率を取得するために、第1の制御ポイントP5の長さ比率45%が、ターゲットオブジェクトの現在の距離の長さ比率50%から引かれる。15%として第2の比率を取得するために、第1の制御ポイントP5の長さ比率45%が、第2の制御ポイントP6の長さ比率60%から引かれる。33%として、第1の制御ポイントP5と第2の制御ポイントP6との間のターゲットオブジェクトの現在の距離の補間比率を取得するために、第1の比率5%が、第2の比率15%によって除される。第1の制御ポイントP5の座標が(0、0、45)であり、第2の制御ポイントP6の座標が(0、0、60)であり、第1の方向ベクトルと第2の方向ベクトルとの両方が(0、0、1)であれば、第1の制御ポイントP5と第2の制御ポイントP6との間の距離は、15メートルとして計算される。すなわち、制御ポイント距離は、15メートルである。その後、第1の制御ポイントP5(0、0、45)、第2の制御ポイントP6(0、0、60)、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の距離の補間比率33%、制御ポイント距離15、第1の方向ベクトル(0、0、1)、および第2の方向ベクトル(0、0、1)に基づいて、上記指定されたスプライン曲線補間モデルによって、ターゲットオブジェクトの現在の動き距離の位置が(0、0、49.95)として決定され、その後、ターゲットオブジェクトの動き軌道が決定される。すなわち、図5に図示されるインターフェース図を取得するために、ターゲットオブジェクトの現在の動き距離の位置(0、0、49.95)が、図4における第1の制御ポイントP1および第2の制御ポイントP2に基づいて、ポイントaとして決定される(実際、制御ポイントは表示されないことがあり得る)。
ターゲットオブジェクトの実際の動き軌道が直線であるケースでは、すなわち、第1の方向ベクトルと第2の方向ベクトルとが等しいケースでは、第1の方向ベクトルと第2の方向ベクトルとが一体化され、Vとして表現され、第1の制御ポイントと第2の制御ポイントとの間の距離Pi-Pi-1は、λVとして表現され得、上記指定されたスプライン曲線補間モデルは、
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
=Pi-1+λVU+(3λV-λV-2λV)U2+(-2λV+λV+λV)U3
=Pi-1+λVU+(3λV-3λV)U2+(-2λV+2λV)U3
=Pi-1+λVU
であることが注目されるべきである。
このケースでは、指定されたスプライン曲線補間モデルは直線である。したがって、ターゲットオブジェクトの動き軌道は、0から1のUの任意の値について曲線ではあり得ず、これにより、決定された動き軌道の精度を向上させる。図6に図示されるように、実際の軌道がAからBへの直線であるケースでは、指定されたスプライン曲線補間モデルによって生成される線は、AからBへのダイレクトな線であり、ターゲット動きオブジェクトもまた、図3に図示されるような後方移動なしで、AからBへダイレクトに移動する。
それに加えて、実際の軌道が直線であるケースでは、CatmullRomスプライン曲線アルゴリズムによって生成されたスプライン曲線の変化率は一定ではない。すなわち、CatmullRomスプライン曲線アルゴリズムによって決定されたターゲットオブジェクトの動き速度は一定ではない。図3に図示されるように、A'からBへ補間されたポイント間のギャップは、小から大へ変化する。すなわち、指定された一定の時間インタバルの場合、A'とBとの間を移動するターゲットオブジェクトの速度もまた、低速から高速へ変化する。しかしながら、ナビゲーションシステムでは、ターゲットオブジェクトの動き速度は、一定である必要がある。すなわち、スプライン曲線の変化率は一定でなければならない。本開示の実施形態では、直線のケースにおいて、指定されたスプライン曲線補間モデルP(U)=Pi-1+λVUにおいて導関数演算が実行された後、指定されたスプライン曲線補間モデルの導関数モデルが、一定であるP(U)=λVとして取得される。したがって、本開示の実施形態に従って、指定されたスプライン曲線補間モデルによって、生成されたスプライン曲線の変化率は一定である。すなわち、ターゲットオブジェクトの動き速度は、ターゲットオブジェクトの非一定の動き速度ではなく、一定である。図6に図示されるように、AからBへ補間されたポイントのギャップは等しい。すなわち、指定された一定の時間インタバルの場合、AとBとの間を移動しているターゲットオブジェクトの速度もまた一定である。
本開示の実施形態によるターゲットオブジェクトの動き軌道を決定するための方法は、アプリケーションサーバとのインタラクションを必要とするネットワークゲームのシーンにおいて適用され得ることが注目されるべきである。このケースでは、動き軌道を決定するためのシステムは、端末とアプリケーションサーバとを含み得る。端末は、ネットワークを介してアプリケーションサーバと接続される。端末は、上記方法を用いてターゲットオブジェクトの動き軌道を決定し得、ターゲットオブジェクトの動き軌道を、アプリケーションサーバへ同期させ得る。これによって、アプリケーションサーバは、指定された動作を実行するようになる。たとえば、動き軌道が、動きトラックの指定された位置に達した場合、アプリケーションサーバは、端末に対応するユーザへ報酬を与え得る。明らかに、動き軌道を決定するための方法はまた、たとえば、端末がスタンドアロン方式でオンラインゲームをするシーンのような、他のシーンにおいても適用され得る。すなわち、動き軌道を決定するためのシステムは単に、端末を含んでいるだけである。動き軌道を決定するシーンは、本開示の実施形態において限定されない。
本開示の実施形態に従う技術的解決策を用いて、ターゲットオブジェクトの実際の動き軌道が直線であるケースにおいて、第1の方向ベクトルが第2の方向ベクトルに等しく、指定されたスプライン曲線補間モデルにおけるマルチパワー変数が相殺され、ターゲットオブジェクトの生成された実際の動き軌道は、曲線ではなく直線であり、これによって、ターゲットオブジェクトの実際の動き軌道は、理論的な動き軌道と同じとなり、これにより、ターゲットオブジェクトの決定された動き軌道の精度を向上させる。それに加えて、指定されたスプライン補間モデルによって決定された動き軌道における動きの速度は一定であり、ターゲットオブジェクトの非一定の速度を回避する。
図7は、本開示の一実施形態による、ターゲットオブジェクトの動き軌道を決定するためのデバイスの構成概要図である。図7を参照して示すように、デバイスは、第1の獲得モジュール701、第2の獲得モジュール702、および第1の決定モジュール703を含む。
第1の獲得モジュール701は、動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するように構成される。第1の制御ポイントおよび第2の制御ポイントは、隣接した制御ポイントである。
第2の獲得モジュール702は、第1の方向ベクトルおよび第2の方向ベクトルを獲得するように構成される。第1の方向ベクトルは、第1の制御ポイントにおける単位方向ベクトルであり、第2の方向ベクトルは、第2の制御ポイントにおける単位方向ベクトルである。
第1の決定モジュール703は、第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道を決定するように構成される。
オプションで、図8を参照して示すように、デバイスはさらに、第3の獲得モジュール704、第2の決定モジュール705、および第3の決定モジュール706を含み得る。
第3の獲得モジュール704は、学習スプライン曲線補間モデルを獲得するように構成される。
第2の決定モジュール705は、第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するように構成される。第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントは、リストされたシーケンスに配置された制御ポイントである。
第3の決定モジュール706は、第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、第2の学習ベクトル、および学習スプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルを決定するように構成される。
オプションで、第2の決定モジュール705は、第1の決定ユニット、第2の決定ユニット、および第3の決定ユニットを含み得る。
第1の決定ユニットは、第2の学習制御ポイントと第3の学習制御ポイントとの間の距離を学習距離として決定するように構成される。
第2の決定ユニットは、第1の学習制御ポイントと第3の学習制御ポイントとを接続する線の単位方向ベクトルを第1の学習ベクトルとして決定するように構成される。
第3の決定ユニットは、第1の学習制御ポイントと第4の学習制御ポイントとを接続する線の単位方向ベクトルを第2の学習ベクトルとして決定するように構成される。
オプションで、第3の決定モジュール706は、第4の決定ユニットおよび第5の決定ユニットを含み得る。
第4の決定ユニットは、第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、および第2の学習ベクトルに基づいて、学習スプライン曲線補間モデルのパラメータを決定するように構成される。
第5の決定ユニットは、学習スプライン曲線補間モデルのパラメータおよび学習スプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルを決定するように構成される。
オプションで、第1の決定モジュール703は、第6の決定ユニット、第7の決定ユニット、および第8の決定ユニットを含み得る。
第6の決定ユニットは、第1の制御ポイントおよび第2の制御ポイントに基づいて、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の動き位置の補間比率を決定するように構成される。
第7の決定ユニットは、制御ポイント距離を取得するために、第1の制御ポイントと第2の制御ポイントとの間の距離を決定するように構成される。
第8の決定ユニットは、第1の制御ポイント、第2の制御ポイント、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の動き位置の補間比率、制御ポイント距離、第1の方向ベクトル、および第2の方向ベクトルに基づいて、
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
として指定されたスプライン曲線補間モデルによって、ターゲットオブジェクトの現在の動きの動き軌跡を決定するように構成される。
P(U)は、ターゲットオブジェクトの動き軌道を表し、Uは、第1の制御ポイントと第2の制御ポイントとの間のターゲットオブジェクトの現在の動き位置の補間比率を表し、Pi-1は、第1の制御ポイントを表し、Piは、第2の制御ポイントを表し、λは、制御ポイント距離を表し、Eは、第1の方向ベクトルを表し、Fは、第2の方向ベクトルを表す。
オプションで、デバイスでは、第1の方向ベクトルが第2の方向ベクトルに等しいケースでは、指定されたスプライン曲線補間モデルは、P(U)=Pi-1+λVUであり、動きトラックにおけるターゲットオブジェクトの動き軌道は、直線であり、Vは、第1の方向ベクトルまたは第2の方向ベクトルである。
本開示の実施形態に従う技術的解決策を用いて、ターゲットオブジェクトの実際の動き軌道が直線であるケースにおいて、第1の方向ベクトルが第2の方向ベクトルに等しく、指定されたスプライン曲線補間モデルにおけるマルチパワー変数が相殺され、ターゲットオブジェクトの生成された実際の動き軌道は、曲線ではなく直線であり、これによって、ターゲットオブジェクトの実際の動き軌道は、理論的な動き軌道と同じとなり、これにより、ターゲットオブジェクトの決定された動き軌道の精度を向上させる。
本開示の上記実施形態によるゲーム動き軌道を決定するためのデバイスは、動き軌道を決定するための機能モジュールのいくつかの例を用いて単に例示されていることが注目されるべきである。実際、上記機能は、必要に応じて異なる機能モジュールによって達成され得る。すなわち、このデバイスの内部構成は、上記説明された機能のすべてまたは一部を完了するために、異なる機能モジュールとして設計され得る。それに加えて、ゲーム動き軌道を決定するためのデバイスの上記実施形態は、ゲーム動き軌道を決定するための方法の実施形態と同じ概念に属する。デバイスの詳細な実施のために、この方法の実施形態に対する参照がなされ得るが、これは、本明細書では繰り返されない。
図9を参照して示すように、ターゲットオブジェクトの動き軌道を決定するためのデバイスの構成ブロック図が、本開示の実施形態に従って図示される。デバイスは、通信ユニット910、1つまたは複数のコンピュータ読取可能な記憶媒体を含むメモリ920、入力ユニット930、ディスプレイユニット940、センサ950、音声周波数回路960、WiFi(ワイヤレスフィデリティ)モジュール970、1つまたは複数の処理コアを含むプロセッサ980、および電源990を含み得る端末900であり得る。図9に図示される端末構成は、端末を限定しないことが当業者によって理解され得る。端末は、例示されたものよりも多い、または、少ない構成要素を含み得る。構成要素のうちのいくつかは、統合され得るか、または、別の方式で配置され得る。
通信ユニット910は、情報を受信および送信するように、または、コールにおいて信号を受信および送信するように構成され得る。通信ユニット910は、RF(無線周波数)回路、ルータ、モデム、または他のネットワーク通信デバイスであり得る。特に、通信ユニット910がRF回路である場合、RF回路は、基地局から受信したダウンリンク情報を、処理のために、プロセッサ980の1つまたは複数へ伝送し、関連するアップリンクデータを基地局へ送信する。一般に、RF回路は、通信ユニットとして、限定されないが、アンテナ、少なくとも1つの増幅器、チューナ、1つまたは複数の発振器、加入者識別モジュール(SIM)カード、トランシーバ、カプラ、LNA(低ノイズ増幅器)、およびデュプレクサを含む。それに加えて、通信ユニット910はさらに、ワイヤレス通信によって、他のデバイスおよびネットワークと通信し得る。ワイヤレス通信は、限定されないが、GSM(登録商標)(グローバル移動体通信システム)、GPRS(汎用パケット無線サービス)、CDMA(符号分割多元接続)、WCDMA(登録商標)(広帯域符号分割多元接続)、LTE(ロングタームエボリューション)、電子メール、およびSMS(ショートメッセージングサービス)を含む任意の通信規格またはプロトコルを用いて実行され得る。メモリ920は、ソフトウェアプログラムおよびモジュールを記憶するように構成され得、プロセッサ980は、メモリ620に記憶されたソフトウェアプログラムおよびモジュールを実行することによって、様々な機能アプリケーションおよびデータ処理を実行し得る。メモリ920は主に、プログラム記憶エリアおよびデータ記憶エリアを含み得る。プログラム記憶エリアは、たとえば、(オーディオ再生機能、画像表示機能のような)少なくとも1つの機能によって要求されるオペレーティングシステムおよびアプリケーションを記憶し得る。データ記憶エリアは、たとえば、端末900の使用に応じて作成された(オーディオデータ、電話帳のような)データを記憶し得る。それに加えて、メモリ920は、高速ランダムアクセスメモリと、少なくとも1つの磁気ディスクメモリおよびフラッシュメモリのような不揮発性メモリを含み得、または、他の揮発性ソリッドステートメモリを含み得る。したがって、メモリ920はまた、プロセッサ980およ
び入力ユニット930によるメモリ920へのアクセスを制御するためのストレージコントローラを含み得る。
入力ユニット930は、入力された数値またはキャラクタ情報を受信し、キーボード、マウス、操作ロッド、光またはトラックボールを用いて入力されたユーザ設定および機能制御に関連した信号を生成するように構成され得る。好適には、入力ユニット930は、タッチ感知面931および他の入力デバイス932を含み得る。タッチスクリーンまたはタッチパネルとも称されるタッチ感知面931は、タッチ感知面630aにおいてまたはその近傍においてユーザによって実行されたタッチ動作(たとえば、指、スタイラス、または他の任意の適切なオブジェクトまたはアクセサリを用いてタッチ感知面931においてまたはその近傍においてユーザによって実行される動作)を収集し、予め設定されたプログラムに基づいて、対応する接続デバイスを駆動させ得る。オプションで、タッチ感知面931は、タッチ検出デバイスとタッチコントローラとの両方を含み得る。タッチ検出デバイスは、ユーザのタッチ位置を検出し、タッチ動作から生成された信号を検出し、この信号をタッチコントローラへ送信する。タッチコントローラは、タッチ検出デバイスからタッチ情報を受信し、タッチ情報をタッチ座標へ変換し、タッチ座標をプロセッサ980へ送信する。タッチコントローラはまた、プロセッサ980からコマンドを受信し、このコマンドを実行し得る。それに加えて、タッチ感知面931は、抵抗性方式、容量性方式、赤外線方式、および表面弾性波方式のような多くの方式で実施され得る。タッチ感知面931に加えて、入力ユニット930はまた、他の入力デバイス932を含み得る。好適には、他の入力デバイス932は、限定されないが、物理的なキーボード、(音量制御ボタン、切換ボタンのような)ファンクションキー、トラックボール、マウス、およびジョイスティックのうちの1つまたは複数を含み得る。
ディスプレイユニット940は、ユーザによって入力された情報、ユーザへ提供される情報、または、端末900の様々なグラフィックユーザインターフェースを表示するように構成され得る。グラフィックユーザインターフェースは、グラフィック、テキスト、アイコン、ビデオ、およびその任意の組合せによって構成され得る。ディスプレイユニット940は、ディスプレイパネル941を含み得る。オプションで、ディスプレイパネル941は、LCD(液晶ディスプレイ)、OLED(有機発光ダイオード)等の方式で形成され得る。さらに、ディスプレイパネル941は、タッチ感知面931によってカバーされ得る。タッチ感知面931が、その上のまたはそれによるタッチ動作を検出した場合、タッチ感知面931は、タッチイベントのタイプを決定するために、タッチ動作をプロセッサ980へ送信し、その後、プロセッサ980は、タッチイベントのタイプに従って、対応するビジュアル出力をディスプレイパネル941上に提供する。タッチ感知面931およびディスプレイパネル941は、図9において、入力機能および出力機能を、2つの個別の構成要素として実施するが、タッチ感知面931およびディスプレイパネル941は、他の実施形態では、入力機能および出力機能を実施するためにともに統合され得る。
端末900はさらに、フォトセンサ、動きセンサ、および他のセンサのような少なくとも1つのセンサ950を含み得る。光センサは、周辺光センサおよび近接センサを含み得る。周辺光センサを用いて、ディスプレイパネル941の輝度が、周辺光の強度に基づいて調節され得る。端末900が、耳に接近している場合、近接センサを用いて、バックライトまたはディスプレイパネル941が、オフされ得る。一種の動きセンサとして、重力加速度センサは、各方向(通常は、3軸方向)における加速度の大きさを検出し得、センサが定常状態にある場合、重力の値および方向を検出し得る。これは、たとえば、モバイル電話ジェスチャ(たとえば、縦型スクリーンと横型スクリーンとの間の切換、関連するゲーム、または、磁力計姿勢較正)の認識を必要とするアプリケーションにおいて適用され得る。重力加速度センサはさらに、振動認識に関連するアプリケーション(たとえば、万歩計(登録商標)、鼓動認識)へ適用され得る。ジャイロスコープ、気圧計、湿度計、温度計、または赤外線センサのような他のセンサが、端末900においてさらに提供され得る。これは、本明細書では説明されない。
オーディオ回路960、スピーカ961、およびマイクロホン962は、ユーザと端末900との間のオーディオインターフェースを提供し得る。オーディオ回路960は、受信されたオーディオデータから変換された電気信号をスピーカ961へ送信し得る。この電気信号は、音声信号へ変換され、スピーカ961によって出力される。一方、マイクロホン962は、収集された音声信号を電気信号へ変換し、この電気信号は、オーディオ回路960によって受信され、オーディオデータへ変換される。オーディオデータは、処理のためにプロセッサ980へ出力され、その後、通信ユニット910を経由して他の端末へ送信される。または、オーディオデータは、さらなる処理のためにメモリ920へ出力される。オーディオ回路960はまた、周辺のヘッドフォンと端末900との間の通信のために使用されるべきイヤプラグジャックを含み得る。
ワイヤレス通信のために、端末は、WiFiモジュールであり得るワイヤレス通信ユニット970を用いて構成され得る。WiFi技術は、短距離ワイヤレス送信技術である。端末900は、たとえば、ユーザが、ワイヤレス通信ユニット970を経由して、電子メールを送信および受信し、ウェブページをブラウズし、ストリームメディアへアクセスすることを支援し得る。ワイヤレス通信ユニット970は、ユーザのためにワイヤレスブロードバンドインターネットへのアクセスを提供する。図9ではワイヤレス通信ユニット970が図示されているが、ワイヤレス通信ユニット970は、端末900のために必要なユニットではなく、本開示の本質から逸脱することなく、必要に応じて省略され得ることが理解され得る。
プロセッサ980は、様々なインターフェースおよび回路を通じてモバイル電話の様々な部分へ接続された、端末900の制御センタである。プロセッサ980は、モバイル電話の全体モニタリングを実行するために、メモリ920に記憶されたソフトウェアプログラムおよび/またはモジュールを起動または実行し、メモリ920に記憶されたデータを呼び出すことによって、端末900の様々な機能およびデータ処理を実施する。オプションで、プロセッサ980は、1つまたは複数の処理コアを含み得る。好適には、アプリケーションプロセッサおよびモデムプロセッサは、プロセッサ980へ統合され得る。アプリケーションプロセッサは主に、たとえば、オペレーティングシステム、ユーザインターフェース、およびアプリケーションを処理するために使用される。モデムプロセッサは主に、ワイヤレス通信を処理するために使用される。上記モデムプロセッサは、プロセッサ980へ統合されないことがあり得ることが理解され得る。
端末900はまた、様々な構成要素へ電力を供給するための(バッテリのような)電源990を含む。好適には、電源は、電源管理システムによる充電、放電、および電力管理のような機能を実行するために、電源管理システムを経由してプロセッサ980と論理的に接続され得る。電源960はまた、1つまたは複数の直流または交流電源、充電システム、電源障害検出回路、電力変換器またはインバータ、および電源状態インジケータ、および他の構成要素を含み得る。
図示されていないが、端末900はまた、カメラ、Bluetooth(登録商標)モジュール等を含み得る。これらは、本明細書において説明されない。
実施形態では、端末はさらに、メモリに記憶され、1つまたは複数のプロセッサによって実行される1つまたは複数のプログラムを含み得る。1つまたは複数のプログラムは、本開示の実施形態による、ゲーム動き軌道を決定するための方法を実行するための命令を含む。命令は、
動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するステップであって、第1の制御ポイントおよび第2の制御ポイントは、隣接した制御ポイントである、獲得するステップ、
第1の方向ベクトルおよび第2の方向ベクトルを獲得するステップであって、第1の方向ベクトルは、第1の制御ポイントにおける単位方向ベクトルであり、第2の方向ベクトルは、第2の制御ポイントにおける単位方向ベクトルである、獲得するステップ、および
第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道を決定するステップ、を含む。
オプションとして、第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道を決定するステップの前に、命令はさらに、
学習されるべきスプライン曲線補間モデルを獲得するステップ、
第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するステップであって、第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントは、リストされたシーケンスに配置された制御ポイントである、決定するステップ、および
第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、第2の学習ベクトル、および学習スプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルを決定するステップ、を含む。
オプションとして、第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するステップは、
第2の学習制御ポイントと第3の学習制御ポイントとの間の距離を、学習距離として決定するステップ、
第1の学習制御ポイントと第3の学習制御ポイントとを接続する線の単位方向ベクトルを、第1の学習ベクトルとして決定するステップ、および
第1の学習制御ポイントと第4の学習制御ポイントとを接続する線の単位方向ベクトルを、第2の学習ベクトルとして決定するステップ、を含み得る。
オプションとして、第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、第2の学習ベクトル、および学習されるべきスプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルを決定するステップは、
第2の学習制御ポイント、第3の学習制御ポイント、学習距離、第1の学習ベクトル、および第2の学習ベクトルに基づいて、学習スプライン曲線補間モデルのパラメータを決定するステップ、および
学習スプライン曲線補間モデルのパラメータおよび学習スプライン曲線補間モデルに基づいて、指定されたスプライン曲線補間モデルを決定するステップ、を含み得る。
オプションとして、第1の制御ポイント、第2の制御ポイント、第1の方向ベクトル、および第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、動きトラックにおけるターゲットオブジェクトの動き軌道を決定するステップは、
第1の制御ポイントおよび第2の制御ポイントに基づいて、第1の制御ポイントと第2の制御ポイントとの間の現在の動き位置の補間比率を決定するステップ、
制御ポイント距離を取得するために、第1の制御ポイントと第2の制御ポイントとの間の距離を決定するステップ、および
第1の制御ポイント、第2の制御ポイント、第1の制御ポイントと第2の制御ポイントとの間の現在の動き位置の補間比率、制御ポイント距離、第1の方向ベクトル、および第2の方向ベクトルに基づいて、
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λF)U2+(-2Pi+2Pi-1+λF+λE)U3
として指定されたスプライン曲線補間モデルによって、ターゲットオブジェクトの現在の動きの動き軌道を決定するステップ、を含み得る。
このモデルでは、P(U)は、ターゲットオブジェクトの動き軌道を表し、Uは、第1の制御ポイントと第2の制御ポイントとの間の現在の動き位置の補間比率を表し、Pi-1は、第1の制御ポイントを表し、Piは、第2の制御ポイントを表し、λは、制御ポイント距離を表し、Eは、第1の方向ベクトルを表し、Fは、第2の方向ベクトルを表す。
オプションとして、この方法では、第1の方向ベクトルが第2の方向ベクトルと等しいケースにおいて、指定されたスプライン曲線補間モデルは、P(U)=Pi-1+λVUであり、動きトラックにおけるターゲットオブジェクトの動き軌道は、直線である。
本開示の実施形態に従う技術的解決策を用いて、ターゲットオブジェクトの実際の動き軌道が直線であるケースにおいて、第1の方向ベクトルは、第2の方向ベクトルに等しく、指定されたスプライン曲線補間モデルにおけるマルチパワー変数が相殺され、ターゲットオブジェクトの生成された実際の動き軌道は、曲線ではなく直線であり、これによって、ターゲットオブジェクトの実際の動き軌道は、理論的な動き軌道と同じとなり、これにより、ターゲットオブジェクトの動き軌道を決定するための精度を向上させる。
上記実施形態に従うステップのすべてまたはいくつかは、ハードウェアによって実施され得、また、ハードウェアに指示するプログラムによって実施され得ることが当業者によって理解され得る。プログラムは、読取専用メモリ、磁気ディスク、または光ディスクであり得るコンピュータ読取可能な記憶媒体に記憶され得る。
上記は、本開示に従う好適な実施形態のみを説明し、本開示を限定することは意図されていない。本開示の精神および原理においてなされたいずれの修正、等価な置換、およびバリエーションは、本開示の保護の範囲内にある。
701 第1の獲得モジュール
702 第2の獲得モジュール
703 第1の決定モジュール
704 第3の獲得モジュール
705 第2の決定モジュール
706 第3の決定モジュール
900 端末
910 通信ユニット
920 メモリ
930 入力ユニット
931 タッチ感知面
932 他の入力デバイス
940 ディスプレイユニット
941 ディスプレイパネル
950 センサ
960 音声周波数回路、オーディオ回路
961 スピーカ
962 マイクロホン
970 WiFiモジュール、ワイヤレス通信ユニット
980 プロセッサ
990 電源

Claims (13)

  1. ターゲットオブジェクトの動き軌道を決定するための方法であって、
    動きトラックにおける前記ターゲットオブジェクトの現在位置に基づいて、前記動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するステップであって、前記第1の制御ポイントおよび前記第2の制御ポイントは、隣接した制御ポイントである、獲得するステップと、
    第1の方向ベクトルおよび第2の方向ベクトルを獲得するステップであって、前記第1の方向ベクトルは、前記第1の制御ポイントにおける単位方向ベクトルであり、前記第2の方向ベクトルは、前記第2の制御ポイントにおける単位方向ベクトルである、獲得するステップと、
    前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定するステップとを含む方法。
  2. 前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定するステップの前に、前記方法はさらに、
    学習スプライン曲線補間モデルを獲得するステップと、
    第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するステップであって、前記第1の学習制御ポイント、前記第2の学習制御ポイント、前記第3の学習制御ポイント、および前記第4の学習制御ポイントは、学習トラックにおけるリストされたシーケンスに配置された制御ポイントである、決定するステップと、
    前記第2の学習制御ポイント、前記第3の学習制御ポイント、前記学習距離、前記第1の学習ベクトル、前記第2の学習ベクトル、および学習されるべきスプライン曲線補間モデルに基づいて、前記指定されたスプライン曲線補間モデルを決定するステップとを含む、請求項1に記載の方法。
  3. 第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定する前記ステップは、
    前記第2の学習制御ポイントと前記第3の学習制御ポイントとの間の距離を、前記学習距離として決定するステップと、
    前記第1の学習制御ポイントと前記第3の学習制御ポイントとを接続する線の単位方向ベクトルを、前記第1の学習ベクトルとして決定するステップと、
    前記第1の学習制御ポイントと前記第4の学習制御ポイントとを接続する線の単位方向ベクトルを、前記第2の学習ベクトルとして決定するステップとを含む、請求項2に記載の方法。
  4. 前記第2の学習制御ポイント、前記第3の学習制御ポイント、前記学習距離、前記第1の学習ベクトル、前記第2の学習ベクトル、および前記学習されるべきスプライン曲線補間モデルに基づいて、前記指定されたスプライン曲線補間モデルを決定する前記ステップは、
    前記第2の学習制御ポイント、前記第3の学習制御ポイント、前記学習距離、前記第1の学習ベクトル、および前記第2の学習ベクトルに基づいて、前記学習されるべきスプライン曲線補間モデルのパラメータを決定するステップと、
    前記学習されるべきスプライン曲線補間モデルの前記パラメータおよび前記学習スプライン曲線補間モデルに基づいて、前記指定されたスプライン曲線補間モデルを決定するステップとを含む、請求項2に記載の方法。
  5. 前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定する前記ステップは、
    前記第1の制御ポイントおよび前記第2の制御ポイントに基づいて、前記第1の制御ポイントと前記第2の制御ポイントとの間の前記ターゲットオブジェクトの前記現在位置の補間比率を決定するステップと、
    制御ポイント距離を取得するために、前記第1の制御ポイントと前記第2の制御ポイントとの間の距離を決定するステップと、
    前記第1の制御ポイント、前記第2の制御ポイント、前記補間比率、前記制御ポイント距離、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、
    P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λF)U2+(-2Pi+2Pi-1+λF+λE)U3
    として指定されたスプライン曲線補間モデルによって、前記ターゲットオブジェクトの現在の動きの動き軌道を決定するステップとを含み、
    P(U)は、前記ターゲットオブジェクトの前記動き軌道であり、Uは、前記補間比率であり、Pi-1は、前記第1の制御ポイントであり、Piは、前記第2の制御ポイントであり、λは、前記制御ポイント距離であり、Eは、前記第1の方向ベクトルであり、Fは、前記第2の方向ベクトルである、請求項1から4のいずれか一項に記載の方法。
  6. 前記第1の方向ベクトルが、前記第2の方向ベクトルと等しいケースでは、
    前記指定されたスプライン曲線補間モデルは、P(U)=Pi-1+λVUであり、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道は、直線であり、Vは、前記第1の方向ベクトルまたは前記第2の方向ベクトルである、請求項1または5に記載の方法。
  7. ターゲットオブジェクトの動き軌道を決定するためのデバイスであって、1つまたは複数のプロセッサと、動作命令が記憶された記憶媒体とを備え、前記記憶媒体に記憶された前記動作命令が実行された場合、前記1つまたは複数のプロセッサは、
    動きトラックにおける前記ターゲットオブジェクトの現在位置に基づいて、前記動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するステップであって、前記第1の制御ポイントおよび前記第2の制御ポイントは、隣接した制御ポイントである、獲得するステップと、
    第1の方向ベクトルおよび第2の方向ベクトルを獲得するステップであって、前記第1の方向ベクトルは、前記第1の制御ポイントにおける単位方向ベクトルであり、前記第2の方向ベクトルは、前記第2の制御ポイントにおける単位方向ベクトルである、獲得するステップと、
    前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定するステップとを実行する、デバイス。
  8. 前記プロセッサはさらに、
    学習スプライン曲線補間モデルを獲得するステップと、
    第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するステップであって、前記第1の学習制御ポイント、前記第2の学習制御ポイント、前記第3の学習制御ポイント、および前記第4の学習制御ポイントは、学習トラックにおけるリストされたシーケンスに配置された制御ポイントである、決定するステップと、
    前記第2の学習制御ポイント、前記第3の学習制御ポイント、前記学習距離、前記第1の学習ベクトル、前記第2の学習ベクトル、および学習されるべきスプライン曲線補間モデルに基づいて、前記指定されたスプライン曲線補間モデルを決定するステップとを実行する、請求項7に記載のデバイス。
  9. 前記プロセッサが、前記第1の学習制御ポイント、前記第2の学習制御ポイント、前記第3の学習制御ポイント、および前記第4の学習制御ポイントに基づいて、前記学習距離、前記第1の学習ベクトル、および前記第2の学習ベクトルを決定するステップを実行する場合、前記プロセッサは、
    前記第2の学習制御ポイントと前記第3の学習制御ポイントとの間の距離を、前記学習距離として決定するステップと、
    前記第1の学習制御ポイントと前記第3の学習制御ポイントとを接続する線の単位方向ベクトルを、前記第1の学習ベクトルとして決定するステップと、
    前記第1の学習制御ポイントと前記第4の学習制御ポイントとを接続する線の単位方向ベクトルを、前記第2の学習ベクトルとして決定するステップとを実行する、請求項8に記載のデバイス。
  10. 前記プロセッサが、前記第2の学習制御ポイント、前記第3の学習制御ポイント、前記学習距離、前記第1の学習ベクトル、前記第2の学習ベクトル、および前記学習されるべきスプライン曲線補間モデルに基づいて、前記指定されたスプライン曲線補間モデルを決定するステップを実行する場合、前記プロセッサは、
    前記第2の学習制御ポイント、前記第3の学習制御ポイント、前記学習距離、前記第1の学習ベクトル、および前記第2の学習ベクトルに基づいて、前記学習されるべきスプライン曲線補間モデルのパラメータを決定するステップと、
    前記学習されるべきスプライン曲線補間モデルの前記パラメータおよび前記学習スプライン曲線補間モデルに基づいて、前記指定されたスプライン曲線補間モデルを決定するステップとを実行する、請求項8に記載のデバイス。
  11. 前記プロセッサが、前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定するステップを実行する場合、前記プロセッサは、
    前記第1の制御ポイントおよび前記第2の制御ポイントに基づいて、前記第1の制御ポイントと前記第2の制御ポイントとの間の前記ターゲットオブジェクトの前記現在位置の補間比率を決定するステップと、
    制御ポイント距離を取得するために、前記第1の制御ポイントと前記第2の制御ポイントとの間の距離を決定するステップと、
    前記第1の制御ポイント、前記第2の制御ポイント、前記補間比率、前記制御ポイント距離、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、
    P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λF)U2+(-2Pi+2Pi-1+λF+λE)U3
    として指定されたスプライン曲線補間モデルによって、前記ターゲットオブジェクトの現在の動きの動き軌道を決定するステップとを実行し、
    P(U)は、前記ターゲットオブジェクトの前記動き軌道であり、Uは、前記補間比率であり、Pi-1は、前記第1の制御ポイントであり、Piは、前記第2の制御ポイントであり、λは、前記制御ポイント距離であり、Eは、前記第1の方向ベクトルであり、Fは、前記第2の方向ベクトルである、請求項7から10のいずれか一項に記載のデバイス。
  12. 前記第1の方向ベクトルが、前記第2の方向ベクトルと等しいケースでは、
    前記指定されたスプライン曲線補間モデルは、P(U)=Pi-1+λVUであり、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道は、直線であり、Vは、前記第1の方向ベクトルまたは前記第2の方向ベクトルである、請求項7または11に記載のデバイス。
  13. コンピュータ実行可能な命令を記憶する非瞬間的なコンピュータ読取可能な記憶媒体であって、前記実行可能な命令が、コンピュータにおいて実行された場合、前記コンピュータは、
    動きトラックにおけるターゲットオブジェクトの現在位置に基づいて、前記動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するステップであって、前記第1の制御ポイントおよび前記第2の制御ポイントは、隣接した制御ポイントである、獲得するステップと、
    第1の方向ベクトルおよび第2の方向ベクトルを獲得するステップであって、前記第1の方向ベクトルは、前記第1の制御ポイントにおける単位方向ベクトルであり、前記第2の方向ベクトルは、前記第2の制御ポイントにおける単位方向ベクトルである、獲得するステップと、
    前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定するステップとを実行する、コンピュータ読取可能な記憶媒体。
JP2017538656A 2015-06-24 2016-05-11 ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体 Active JP6735760B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510354868.6A CN105046059B (zh) 2015-06-24 2015-06-24 游戏运动轨迹确定方法及装置
CN201510354868.6 2015-06-24
PCT/CN2016/081694 WO2016206491A1 (zh) 2015-06-24 2016-05-11 目标对象运动轨迹确定方法、装置以及存储介质

Publications (2)

Publication Number Publication Date
JP2018506118A true JP2018506118A (ja) 2018-03-01
JP6735760B2 JP6735760B2 (ja) 2020-08-05

Family

ID=54452599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017538656A Active JP6735760B2 (ja) 2015-06-24 2016-05-11 ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体

Country Status (5)

Country Link
US (1) US10354393B2 (ja)
JP (1) JP6735760B2 (ja)
KR (1) KR101975689B1 (ja)
CN (1) CN105046059B (ja)
WO (1) WO2016206491A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046059B (zh) 2015-06-24 2017-09-29 深圳市腾讯计算机系统有限公司 游戏运动轨迹确定方法及装置
WO2017014012A1 (ja) * 2015-07-22 2017-01-26 本田技研工業株式会社 経路生成装置、経路生成方法、および経路生成プログラム
CN107019915B (zh) * 2016-02-01 2018-09-07 腾讯科技(深圳)有限公司 一种确定移动轨迹的方法、用户设备及系统
CN106055245A (zh) * 2016-05-20 2016-10-26 小天才科技有限公司 一种计算游戏物体运动轨迹的方法及装置
CN108269297B (zh) * 2017-12-27 2021-06-01 福建省天奕网络科技有限公司 一种在三维场景中编排角色运动轨迹的方法及终端
CN109126120B (zh) * 2018-08-17 2022-06-03 Oppo广东移动通信有限公司 马达控制方法及相关产品
CN111311745B (zh) * 2018-12-11 2023-06-13 网易(杭州)网络有限公司 一种模型的放置方法和装置
CN112802067B (zh) * 2021-01-26 2024-01-26 深圳市普汇智联科技有限公司 一种基于图网络的多目标跟踪方法及系统
CN113626118B (zh) * 2021-07-30 2023-07-25 中汽创智科技有限公司 能耗实时显示方法、装置及设备
CN115131471A (zh) * 2022-08-05 2022-09-30 北京字跳网络技术有限公司 基于图像的动画生成方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134203A (ja) * 1996-08-07 1998-05-22 Adobe Syst Inc 円弧長再パラメータ化
JP2007316654A (ja) * 2006-05-16 2007-12-06 Navteq North America Llc 位置及び曲率−進行方向に関する2元道路形状表現
JP2008267875A (ja) * 2007-04-17 2008-11-06 Hitachi Ltd デジタル道路地図の生成方法及び地図生成システム
JP2009294446A (ja) * 2008-06-05 2009-12-17 Nec Corp 走行支援システムおよび走行路曲線生成方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7805442B1 (en) * 2000-12-05 2010-09-28 Navteq North America, Llc Method and system for representation of geographical features in a computer-based system
CN101822545B (zh) * 2010-05-11 2011-05-25 河南大学 一种数字减影血管造影运动伪影消除方法及其系统
CN102467587B (zh) * 2010-11-01 2014-01-29 财团法人工业技术研究院 水冷机动态特性模型建立方法、水冷机监控方法和装置
CN102201122B (zh) * 2011-05-16 2014-04-23 大连大学 一种运动捕捉的数据降噪方法、系统及运动捕捉系统
CN102794767B (zh) * 2012-08-31 2014-09-24 江南大学 视觉引导的机器人关节空间b样条轨迹规划方法
CN103793933B (zh) * 2012-11-02 2016-10-12 同济大学 虚拟人体动画的运动路径生成方法
CN103902086A (zh) * 2012-12-28 2014-07-02 北京汇冠新技术股份有限公司 一种基于曲线拟合的触摸轨迹平滑方法及系统
US9727987B2 (en) * 2014-05-12 2017-08-08 Adobe Systems Incorporated Blending techniques for curve fitting
CN105046059B (zh) * 2015-06-24 2017-09-29 深圳市腾讯计算机系统有限公司 游戏运动轨迹确定方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134203A (ja) * 1996-08-07 1998-05-22 Adobe Syst Inc 円弧長再パラメータ化
JP2007316654A (ja) * 2006-05-16 2007-12-06 Navteq North America Llc 位置及び曲率−進行方向に関する2元道路形状表現
JP2008267875A (ja) * 2007-04-17 2008-11-06 Hitachi Ltd デジタル道路地図の生成方法及び地図生成システム
JP2009294446A (ja) * 2008-06-05 2009-12-17 Nec Corp 走行支援システムおよび走行路曲線生成方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BYUNGGU YU ET AL.: ""Curve-based Representation of Moving Object Trajectories"", PROCEEDINGS. INTERNATIONAL DATABASE ENGINEERING AND APPLICATIONS SYMPOSIUM, 2004., JPN6018020215, 9 July 2007 (2007-07-09), US, pages 419 - 425, ISSN: 0003808586 *
CRISTOPHER TWIGG: ""Catmull-Rom splines"", CMU LECTURENOTE, JPN7019001393, 11 March 2003 (2003-03-11), US, pages 1 - 3, ISSN: 0004030710 *
TONY D. DEROSE ET AL.: ""Geometric Continuity, Shape Parameters, and Geometric Constructions for Catmull-Rom Splines"", ACM TRANSACTIONS ON GRAPHICS, vol. 7, no. 1, JPN7018001793, 1 January 1988 (1988-01-01), US, pages 1 - 41, XP058138694, ISSN: 0004030709, DOI: 10.1145/42188.42265 *
小方 博之、外2名: ""時変環境でユーザ仕様を考慮した移動ロボットの軌道計画法"", 日本ロボット学会誌, vol. 12, no. 6, JPN6018020212, 15 September 1994 (1994-09-15), JP, pages 127 - 132, ISSN: 0003808585 *
渡辺 美知子、外2名: ""カルバック情報量基準に基づく曲線・曲面の最適補間の研究(第5報)−B−スプライン曲面の最適補間−"", 1993年度精密工学会春季大会学術講演会講演論文集, JPN6018020209, 25 May 2009 (2009-05-25), JP, pages 669 - 670, ISSN: 0003808584 *

Also Published As

Publication number Publication date
JP6735760B2 (ja) 2020-08-05
CN105046059B (zh) 2017-09-29
CN105046059A (zh) 2015-11-11
US10354393B2 (en) 2019-07-16
KR20170086572A (ko) 2017-07-26
US20170287142A1 (en) 2017-10-05
KR101975689B1 (ko) 2019-05-07
WO2016206491A1 (zh) 2016-12-29

Similar Documents

Publication Publication Date Title
JP6735760B2 (ja) ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体
WO2018103525A1 (zh) 人脸关键点跟踪方法和装置、存储介质
WO2015035796A1 (zh) 桌面显示方法、装置及终端
CN108513671B (zh) 一种2d应用在vr设备中的显示方法及终端
WO2018177207A1 (zh) 操作控制方法、装置及存储介质
WO2018077041A1 (zh) 应用运行的方法及装置
CN108958629B (zh) 分屏退出方法、装置、存储介质和电子设备
CN105094501B (zh) 一种移动终端中消息的显示方法、装置和系统
KR101848696B1 (ko) 위치 정보를 콜라주에 중첩시키는 방법, 단말기 및 서버
WO2014206138A1 (zh) 一种更新网页数据的方法、装置和终端设备
US20200336875A1 (en) Scenario-based sound effect control method and electronic device
JP2017509051A (ja) ストリーミングメディアデータに関する統計を収集するための方法およびシステム、ならびに関連する装置
WO2015014135A1 (zh) 鼠标指针的控制方法、装置及终端设备
CN108564539B (zh) 一种显示图像的方法和装置
CN107193551B (zh) 一种生成图像帧的方法和装置
WO2015135457A1 (en) Method, apparatus, and system for sending and playing multimedia information
US20160274754A1 (en) Method and apparatus for controlling presentation of multimedia data
CN105320532B (zh) 显示交互界面的方法、装置及终端
CN108920086B (zh) 分屏退出方法、装置、存储介质和电子设备
CN105159655B (zh) 行为事件的播放方法和装置
CN110996003B (zh) 一种拍照定位方法、装置及移动终端
CN109240986B (zh) 一种日志处理方法、装置及存储介质
CN107346347B (zh) 网页表格显示方法及装置
WO2015027950A1 (zh) 立体声录制方法、装置和终端
CN106803916B (zh) 信息展示方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190326

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190410

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200714

R150 Certificate of patent or registration of utility model

Ref document number: 6735760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250