JP6735760B2 - ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体 - Google Patents
ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体 Download PDFInfo
- Publication number
- JP6735760B2 JP6735760B2 JP2017538656A JP2017538656A JP6735760B2 JP 6735760 B2 JP6735760 B2 JP 6735760B2 JP 2017538656 A JP2017538656 A JP 2017538656A JP 2017538656 A JP2017538656 A JP 2017538656A JP 6735760 B2 JP6735760 B2 JP 6735760B2
- Authority
- JP
- Japan
- Prior art keywords
- control point
- learning
- direction vector
- vector
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 215
- 238000000034 method Methods 0.000 title claims description 34
- 238000004891 communication Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/573—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
- A63F2300/646—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car for calculating the trajectory of an object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
間の現在の動き距離の補間比率、制御ポイント距離、第1の方向ベクトル、および第2の方
向ベクトルに基づいて、
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
として指定されたスプライン曲線補間モデルによって、ターゲットオブジェクトの現在の動きの動き軌道を決定するステップ、を含み得る。
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
を取得するために、学習されるべきスプライン曲線補間モデルのパラメータが、学習スプライン曲線補間モデルへ代入される。
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
として指定されたスプライン曲線補間比率によって、ターゲットオブジェクトの現在の動きの動き軌道を決定する。
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
=Pi-1+λVU+(3λV-λV-2λV)U2+(-2λV+λV+λV)U3
=Pi-1+λVU+(3λV-3λV)U2+(-2λV+2λV)U3
=Pi-1+λVU
であることが注目されるべきである。
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
として指定されたスプライン曲線補間モデルによって、ターゲットオブジェクトの現在の動きの動き軌跡を決定するように構成される。
び入力ユニット930によるメモリ920へのアクセスを制御するためのストレージコントローラを含み得る。
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
として指定されたスプライン曲線補間モデルによって、ターゲットオブジェクトの現在の動きの動き軌道を決定するステップ、を含み得る。
702 第2の獲得モジュール
703 第1の決定モジュール
704 第3の獲得モジュール
705 第2の決定モジュール
706 第3の決定モジュール
900 端末
910 通信ユニット
920 メモリ
930 入力ユニット
931 タッチ感知面
932 他の入力デバイス
940 ディスプレイユニット
941 ディスプレイパネル
950 センサ
960 音声周波数回路、オーディオ回路
961 スピーカ
962 マイクロホン
970 WiFiモジュール、ワイヤレス通信ユニット
980 プロセッサ
990 電源
Claims (6)
- ターゲットオブジェクトの動き軌道を決定するための方法であって、
学習スプライン曲線補間モデルを獲得するステップと、
第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するステップであって、前記第1の学習制御ポイント、前記第2の学習制御ポイント、前記第3の学習制御ポイント、および前記第4の学習制御ポイントは、学習トラックにおけるリストされたシーケンスに配置された制御ポイントである、決定するステップと、
前記第2の学習制御ポイント、前記第3の学習制御ポイント、前記学習距離、前記第1の学習ベクトル、前記第2の学習ベクトルに基づいて、前記学習スプライン曲線補間モデルのパラメータを決定するステップと、
前記学習スプライン曲線補間モデルと前記学習スプライン曲線補間モデルのパラメータとに基づいて、指定されたスプライン曲線補間モデルを決定する前記ステップと、
動きトラックにおける前記ターゲットオブジェクトの現在位置に基づいて、前記動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するステップであって、前記第1の制御ポイントおよび前記第2の制御ポイントは、隣接した制御ポイントである、獲得するステップと、
第1の方向ベクトルおよび第2の方向ベクトルを獲得するステップであって、前記第1の方向ベクトルは、前記第1の制御ポイントにおける単位方向ベクトルであり、前記第2の方向ベクトルは、前記第2の制御ポイントにおける単位方向ベクトルである、獲得するステップと、
前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、前記指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定するステップとを含み、
前記第1の方向ベクトルおよび前記第2の方向ベクトルは、前記指定されたスプラインに対して導関数演算が実行された後、前記指定されたスプライン曲線補間モデルにそれぞれ前記第1の制御ポイントの補間比率と前記第2の制御ポイントの補間比率を代入することによって取得され、また、前記第1の方向ベクトルは、前記第2の制御ポイントと、前記第1の制御ポイントの前に隣接する制御ポイントである第3の制御ポイントとを接続する線の単位方向ベクトルを計算することにより取得され、前記第2の方向ベクトルは、前記第1の制御ポイントと前記第2の制御ポイントの後に隣接する制御ポイントである第4の制御ポイントとを接続する線の単位方向ベクトルを計算することにより取得され、
前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、前記指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定する前記ステップは、
前記第1の制御ポイントおよび前記第2の制御ポイントに基づいて、前記第1の制御ポイントと前記第2の制御ポイントとの間の前記ターゲットオブジェクトの前記現在位置の補間比率を決定するステップと、
制御ポイント距離を取得するために、前記第1の制御ポイントと前記第2の制御ポイントとの間の距離を決定するステップと、
前記第1の制御ポイント、前記第2の制御ポイント、前記補間比率、前記制御ポイント距離、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、前記指定されたスプライン曲線補間モデルによって、前記ターゲットオブジェクトの現在の動きの動き軌道を決定するステップとを含み、
前記指定されたスプライン曲線補間モデルは、
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
であり、
P(U)は、前記ターゲットオブジェクトの前記動き軌道であり、Uは、前記補間比率であり、Pi-1は、前記第1の制御ポイントであり、Piは、前記第2の制御ポイントであり、λは、前記制御ポイント距離であり、Eは、前記第1の方向ベクトルであり、Fは、前記第2の方向ベクトルである、方法。 - 第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定する前記ステップは、
前記第2の学習制御ポイントと前記第3の学習制御ポイントとの間の距離を、前記学習距離として決定するステップと、
前記第1の学習制御ポイントと前記第3の学習制御ポイントとを接続する線の単位方向ベクトルを、前記第1の学習ベクトルとして決定するステップと、
前記第2の学習制御ポイントと前記第4の学習制御ポイントとを接続する線の単位方向ベクトルを、前記第2の学習ベクトルとして決定するステップとを含む、請求項1に記載の方法。 - 前記第1の方向ベクトルが、前記第2の方向ベクトルと等しいケースでは、
前記指定されたスプライン曲線補間モデルは、P(U)=Pi-1+λVUであり、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道は、直線であり、Vは、前記第1の方向ベクトルまたは前記第2の方向ベクトルである、請求項1に記載の方法。 - ターゲットオブジェクトの動き軌道を決定するためのデバイスであって、1つまたは複数のプロセッサと、動作命令が記憶された記憶媒体とを備え、前記記憶媒体に記憶された前記動作命令が実行された場合、前記1つまたは複数のプロセッサは、
学習スプライン曲線補間モデルを獲得するステップと、
第1の学習制御ポイント、第2の学習制御ポイント、第3の学習制御ポイント、および第4の学習制御ポイントに基づいて、学習距離、第1の学習ベクトル、および第2の学習ベクトルを決定するステップであって、前記第1の学習制御ポイント、前記第2の学習制御ポイント、前記第3の学習制御ポイント、および前記第4の学習制御ポイントは、学習トラックにおけるリストされたシーケンスに配置された制御ポイントである、決定するステップと、
前記第2の学習制御ポイント、前記第3の学習制御ポイント、前記学習距離、前記第1の学習ベクトル、前記第2の学習ベクトルに基づいて、前記学習スプライン曲線補間モデルのパラメータを決定するステップと、
前記学習スプライン曲線補間モデルと前記学習スプライン曲線補間モデルのパラメータとに基づいて、指定されたスプライン曲線補間モデルを決定する前記ステップと、
動きトラックにおける前記ターゲットオブジェクトの現在位置に基づいて、前記動きトラックにおける第1の制御ポイントおよび第2の制御ポイントを獲得するステップであって、前記第1の制御ポイントおよび前記第2の制御ポイントは、隣接した制御ポイントである、獲得するステップと、
第1の方向ベクトルおよび第2の方向ベクトルを獲得するステップであって、前記第1の方向ベクトルは、前記第1の制御ポイントにおける単位方向ベクトルであり、前記第2の方向ベクトルは、前記第2の制御ポイントにおける単位方向ベクトルである、獲得するステップと、
前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、前記指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定するステップとを実行し、
前記第1の方向ベクトルおよび前記第2の方向ベクトルは、前記指定されたスプラインに対して導関数演算が実行された後、前記指定されたスプライン曲線補間モデルにそれぞれ前記第1の制御ポイントの補間比率と前記第2の制御ポイントの補間比率を代入することによって取得され、また、前記第1の方向ベクトルは、前記第2の制御ポイントと、前記第1の制御ポイントの前に隣接する制御ポイントである第3の制御ポイントとを接続する線の単位方向ベクトルを計算することにより取得され、前記第2の方向ベクトルは、前記第1の制御ポイントと前記第2の制御ポイントの後に隣接する制御ポイントである第4の制御ポイントとを接続する線の単位方向ベクトルを計算することにより取得され、
前記プロセッサが、前記第1の制御ポイント、前記第2の制御ポイント、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、前記指定されたスプライン曲線補間モデルによって、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道を決定するステップを実行する場合、前記プロセッサは、
前記第1の制御ポイントおよび前記第2の制御ポイントに基づいて、前記第1の制御ポイントと前記第2の制御ポイントとの間の前記ターゲットオブジェクトの前記現在位置の補間比率を決定するステップと、
制御ポイント距離を取得するために、前記第1の制御ポイントと前記第2の制御ポイントとの間の距離を決定するステップと、
前記第1の制御ポイント、前記第2の制御ポイント、前記補間比率、前記制御ポイント距離、前記第1の方向ベクトル、および前記第2の方向ベクトルに基づいて、前記指定されたスプライン曲線補間モデルによって、前記ターゲットオブジェクトの現在の動きの動き軌道を決定するステップとを実行し、
前記指定されたスプライン曲線補間モデルは、
P(U)=Pi-1+λEU+(3Pi-3Pi-1-λF-2λE)U2+(-2Pi+2Pi-1+λF+λE)U3
であり、
P(U)は、前記ターゲットオブジェクトの前記動き軌道であり、Uは、前記補間比率であり、Pi-1は、前記第1の制御ポイントであり、Piは、前記第2の制御ポイントであり、λは、前記制御ポイント距離であり、Eは、前記第1の方向ベクトルであり、Fは、前記第2の方向ベクトルである、デバイス。 - 前記プロセッサが、前記第1の学習制御ポイント、前記第2の学習制御ポイント、前記第3の学習制御ポイント、および前記第4の学習制御ポイントに基づいて、前記学習距離、前記第1の学習ベクトル、および前記第2の学習ベクトルを決定するステップを実行する場合、前記プロセッサは、
前記第2の学習制御ポイントと前記第3の学習制御ポイントとの間の距離を、前記学習距離として決定するステップと、
前記第1の学習制御ポイントと前記第3の学習制御ポイントとを接続する線の単位方向ベクトルを、前記第1の学習ベクトルとして決定するステップと、
前記第2の学習制御ポイントと前記第4の学習制御ポイントとを接続する線の単位方向ベクトルを、前記第2の学習ベクトルとして決定するステップとを実行する、請求項4に記載のデバイス。 - 前記第1の方向ベクトルが、前記第2の方向ベクトルと等しいケースでは、
前記指定されたスプライン曲線補間モデルは、P(U)=Pi-1+λVUであり、前記動きトラックにおける前記ターゲットオブジェクトの前記動き軌道は、直線であり、Vは、前記第1の方向ベクトルまたは前記第2の方向ベクトルである、請求項4に記載のデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510354868.6A CN105046059B (zh) | 2015-06-24 | 2015-06-24 | 游戏运动轨迹确定方法及装置 |
CN201510354868.6 | 2015-06-24 | ||
PCT/CN2016/081694 WO2016206491A1 (zh) | 2015-06-24 | 2016-05-11 | 目标对象运动轨迹确定方法、装置以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018506118A JP2018506118A (ja) | 2018-03-01 |
JP6735760B2 true JP6735760B2 (ja) | 2020-08-05 |
Family
ID=54452599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017538656A Active JP6735760B2 (ja) | 2015-06-24 | 2016-05-11 | ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10354393B2 (ja) |
JP (1) | JP6735760B2 (ja) |
KR (1) | KR101975689B1 (ja) |
CN (1) | CN105046059B (ja) |
WO (1) | WO2016206491A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105046059B (zh) | 2015-06-24 | 2017-09-29 | 深圳市腾讯计算机系统有限公司 | 游戏运动轨迹确定方法及装置 |
US10684133B2 (en) * | 2015-07-22 | 2020-06-16 | Honda Motor Co., Ltd. | Route generator, route generation method, and route generation program |
CN107019915B (zh) * | 2016-02-01 | 2018-09-07 | 腾讯科技(深圳)有限公司 | 一种确定移动轨迹的方法、用户设备及系统 |
CN106055245A (zh) * | 2016-05-20 | 2016-10-26 | 小天才科技有限公司 | 一种计算游戏物体运动轨迹的方法及装置 |
CN108269297B (zh) * | 2017-12-27 | 2021-06-01 | 福建省天奕网络科技有限公司 | 一种在三维场景中编排角色运动轨迹的方法及终端 |
CN109126120B (zh) * | 2018-08-17 | 2022-06-03 | Oppo广东移动通信有限公司 | 马达控制方法及相关产品 |
CN111311745B (zh) * | 2018-12-11 | 2023-06-13 | 网易(杭州)网络有限公司 | 一种模型的放置方法和装置 |
CN112802067B (zh) * | 2021-01-26 | 2024-01-26 | 深圳市普汇智联科技有限公司 | 一种基于图网络的多目标跟踪方法及系统 |
CN113626118B (zh) * | 2021-07-30 | 2023-07-25 | 中汽创智科技有限公司 | 能耗实时显示方法、装置及设备 |
CN115131471B (zh) * | 2022-08-05 | 2024-08-02 | 北京字跳网络技术有限公司 | 基于图像的动画生成方法、装置、设备及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6115051A (en) * | 1996-08-07 | 2000-09-05 | Adobe Systems Incorporated | Arc-length reparameterization |
US7805442B1 (en) * | 2000-12-05 | 2010-09-28 | Navteq North America, Llc | Method and system for representation of geographical features in a computer-based system |
US7477988B2 (en) | 2006-05-16 | 2009-01-13 | Navteq North America, Llc | Dual road geometry representation for position and curvature-heading |
JP5064870B2 (ja) * | 2007-04-17 | 2012-10-31 | 株式会社日立製作所 | デジタル道路地図の生成方法及び地図生成システム |
JP5446136B2 (ja) * | 2008-06-05 | 2014-03-19 | 日本電気株式会社 | 走行支援システムおよび走行路曲線生成方法 |
CN101822545B (zh) * | 2010-05-11 | 2011-05-25 | 河南大学 | 一种数字减影血管造影运动伪影消除方法及其系统 |
CN102467587B (zh) * | 2010-11-01 | 2014-01-29 | 财团法人工业技术研究院 | 水冷机动态特性模型建立方法、水冷机监控方法和装置 |
CN102201122B (zh) * | 2011-05-16 | 2014-04-23 | 大连大学 | 一种运动捕捉的数据降噪方法、系统及运动捕捉系统 |
CN102794767B (zh) * | 2012-08-31 | 2014-09-24 | 江南大学 | 视觉引导的机器人关节空间b样条轨迹规划方法 |
CN103793933B (zh) * | 2012-11-02 | 2016-10-12 | 同济大学 | 虚拟人体动画的运动路径生成方法 |
CN103902086A (zh) * | 2012-12-28 | 2014-07-02 | 北京汇冠新技术股份有限公司 | 一种基于曲线拟合的触摸轨迹平滑方法及系统 |
US9727987B2 (en) * | 2014-05-12 | 2017-08-08 | Adobe Systems Incorporated | Blending techniques for curve fitting |
CN105046059B (zh) * | 2015-06-24 | 2017-09-29 | 深圳市腾讯计算机系统有限公司 | 游戏运动轨迹确定方法及装置 |
-
2015
- 2015-06-24 CN CN201510354868.6A patent/CN105046059B/zh active Active
-
2016
- 2016-05-11 KR KR1020177016338A patent/KR101975689B1/ko active IP Right Grant
- 2016-05-11 WO PCT/CN2016/081694 patent/WO2016206491A1/zh active Application Filing
- 2016-05-11 JP JP2017538656A patent/JP6735760B2/ja active Active
-
2017
- 2017-06-15 US US15/624,245 patent/US10354393B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN105046059A (zh) | 2015-11-11 |
KR101975689B1 (ko) | 2019-05-07 |
US20170287142A1 (en) | 2017-10-05 |
WO2016206491A1 (zh) | 2016-12-29 |
KR20170086572A (ko) | 2017-07-26 |
CN105046059B (zh) | 2017-09-29 |
JP2018506118A (ja) | 2018-03-01 |
US10354393B2 (en) | 2019-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6735760B2 (ja) | ターゲット対象の動き軌道を決定するための方法およびデバイス、ならびに記憶媒体 | |
CN106406712B (zh) | 信息显示方法及装置 | |
WO2018103525A1 (zh) | 人脸关键点跟踪方法和装置、存储介质 | |
RU2632153C2 (ru) | Способ, устройство и терминал для отображения виртуальной клавиатуры | |
WO2017041664A1 (zh) | 一种征信评分确定方法、装置及存储介质 | |
CN105022552B (zh) | 一种显示消息列表的方法和装置 | |
CN104571979B (zh) | 一种实现分屏视图的方法和装置 | |
WO2018177207A1 (zh) | 操作控制方法、装置及存储介质 | |
CN103677564B (zh) | 滑动操作响应方法、装置及终端设备 | |
CN110874128B (zh) | 可视化数据处理方法和电子设备 | |
TW201541337A (zh) | 移動終端中訊息的顯示方法、裝置和系統 | |
CN110209449B (zh) | 一种游戏中光标定位方法和装置 | |
CN107797723B (zh) | 一种显示样式的切换方法及终端 | |
CN104238931B (zh) | 信息输入方法、装置及电子设备 | |
CN113050863A (zh) | 页面切换方法、装置、存储介质及电子设备 | |
CN107193551B (zh) | 一种生成图像帧的方法和装置 | |
CN104951178A (zh) | 一种桌面数据的处理方法、装置和系统 | |
CN105630315A (zh) | 调节数量的方法和装置 | |
WO2013152656A1 (zh) | 一种绘制滑动轨迹的方法及移动终端 | |
CN109618234A (zh) | 视频播放控制方法、装置、移动终端及存储介质 | |
CN104615451A (zh) | 一种启动应用的方法及装置 | |
US10895799B2 (en) | Method and device for identifying flashing light source | |
CN110996003B (zh) | 一种拍照定位方法、装置及移动终端 | |
CN110413385B (zh) | 任务管理方法、终端设备及介质 | |
CN106803916B (zh) | 信息展示方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180829 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190326 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190410 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20190510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6735760 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |