JP2021536066A - 情報予測方法、モデルトレーニング方法、サーバー及びコンピュータプログラム - Google Patents
情報予測方法、モデルトレーニング方法、サーバー及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2021536066A JP2021536066A JP2021512924A JP2021512924A JP2021536066A JP 2021536066 A JP2021536066 A JP 2021536066A JP 2021512924 A JP2021512924 A JP 2021512924A JP 2021512924 A JP2021512924 A JP 2021512924A JP 2021536066 A JP2021536066 A JP 2021536066A
- Authority
- JP
- Japan
- Prior art keywords
- training
- tag
- feature
- image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 702
- 238000000034 method Methods 0.000 title claims abstract description 124
- 238000004590 computer program Methods 0.000 title claims description 9
- 239000013598 vector Substances 0.000 claims description 53
- 230000003993 interaction Effects 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 23
- 230000007123 defense Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 37
- 230000002787 reinforcement Effects 0.000 description 36
- 230000008569 process Effects 0.000 description 26
- 238000013473 artificial intelligence Methods 0.000 description 14
- 238000003860 storage Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 9
- 238000009826 distribution Methods 0.000 description 6
- 238000005728 strengthening Methods 0.000 description 6
- 230000001965 increasing effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000013078 crystal Substances 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000013486 operation strategy Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5378—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
Abstract
Description
前記予測画像における予測特徴セットを抽出するステップと、
ターゲットジョイントモデルにより、前記予測特徴セットに対応する第1タグ及び/又は第2タグを取得するステップとを含み、
前記第1タグは、操作の内容に関するタグであり、
前記第2タグは、操作の意図に関するタグであり、
前記予測特徴セットには、第1領域の画像特徴を示す第1予測特徴、前記第1領域よりも範囲が小さい第2領域の画像特徴を示す第2予測特徴、及び、インタラクション操作に関する属性特徴を示す第3予測特徴が含まれる。
各トレーニング画像におけるトレーニング特徴セットを抽出するステップと、
前記各トレーニング画像に対応する第1トレーニングタグ及び第2トレーニングタグを取得するステップと、
前記各トレーニング画像における前記トレーニング特徴セット、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得するステップとを含み、
前記第1トレーニングタグは、操作の内容に関するタグであり、
前記第2トレーニングタグは、操作の意図に関するタグであり、
前記トレーニング特徴セットには、第1領域の画像特徴を示す第1トレーニング特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2トレーニング特徴、及び、インタラクション操作に関する属性特徴を示す第3トレーニング特徴が含まれる。
予測画像を取得するための取得モジュールと、
前記取得モジュールにより取得された前記予測画像における予測特徴セットを抽出するための抽出モジュールと、を含み、
前記予測特徴セットには、第1領域の画像特徴を示す第1予測特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2予測特徴、及び、インタラクション操作に関する属性特徴を示す第3予測特徴が含まれ、
前記取得モジュールは、さらに、ターゲットジョイントモデルにより、前記抽出モジュールにより抽出された前記予測特徴セットに対応する第1タグ及び第2タグを取得するために利用され、
前記第1タグは、操作の内容に関するタグであり、
前記第2タグは、操作の意図に関するタグである。
前記取得モジュールは、前記ターゲットジョイントモデルにより、前記予測特徴セットに対応する前記第1タグ、前記第2タグ、及び、勝敗の状況に関するタグである第3タグを取得するために利用される。
N個のトレーニング画像を含むトレーニング画像セットを取得する(Nは1以上の整数である)ために用いられる取得モジュールと、
前記取得モジュールにより取得された各トレーニング画像におけるトレーニング特徴セットを抽出するための抽出モジュールと、
前記抽出モジュールにより抽出された前記各トレーニング画像における前記トレーニング特徴セット、前記取得モジュールにより取得された前記各トレーニング画像に対応する第1トレーニングタグ及び第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得するためのトレーニングモジュールとを含み、
前記トレーニング特徴セットには、第1領域の画像特徴を示す第1トレーニング特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2トレーニング特徴、及び、インタラクション操作に関する属性特徴を示す第3トレーニング特徴が含まれ、
前記取得モジュールは、さらに、前記各トレーニング画像に対応する、操作の内容に関するタグである前記第1トレーニングタグ、及び、操作の意図に関するタグである前記第2トレーニングタグを取得するために利用される。
前記第1トレーニング特徴は、二次元ベクトル特徴であり、前記第1領域におけるキャラクター位置情報、移動オブジェクト位置情報、固定オブジェクト位置情報及び防御オブジェクト位置情報の少なくとも1つを含み、
前記第2トレーニング特徴は、二次元ベクトル特徴であり、前記第2領域におけるキャラクター位置情報、移動オブジェクト位置情報、固定オブジェクト位置情報、防御オブジェクト位置情報、障碍オブジェクト位置情報及び出力オブジェクト位置情報の少なくとも1つを含み、
前記第3トレーニング特徴は、一次元ベクトル特徴であり、キャラクターヒットポイント、キャラクター出力値、時間情報及びスコア情報の少なくとも1つを含み、
前記第1トレーニング特徴と、前記第2トレーニング特徴と、前記第3トレーニング特徴との間に対応関係がある。
前記第1トレーニングタグは、ボタンタイプ情報及び/又はボタンパラメータ情報を含み、
前記ボタンパラメータ情報は、方向パラメータ、位置パラメータ及びターゲットパラメータの少なくとも1つを含み、
前記方向パラメータは、キャラクターが移動する方向を示すために利用され、
前記位置パラメータは、前記キャラクターが所在している位置を示すために利用され、前記ターゲットパラメータは、前記キャラクターの出力すべきオブジェクトを示すために利用される。
前記各トレーニング画像における前記トレーニング特徴セットを処理して、第1ターゲット特徴、第2ターゲット特徴及び第3ターゲット特徴を含むターゲット特徴セットを取得するステップと、
長短期記憶LSTM層により、前記ターゲット特徴セットに対応する第1予測タグ及び第2予測タグを取得するステップと、
前記各トレーニング画像の前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ及び前記第2トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップと、
前記モデルコアパラメータに基づいて、前記ターゲットジョイントモデルを生成するステップとが実現されることに利用され、
前記第1予測タグは、予測により得られた操作の内容に関するタグであり、
前記第2予測タグは、予測により得られた操作の意図に関するタグであり、
前記第1予測タグと前記第2予測タグとは、予測値に属し、
前記第1トレーニングタグと前記第2トレーニングタグとは、真の値に属する。
畳み込み層により、前記各トレーニング画像における前記第2トレーニング特徴を処理して、一次元ベクトル特徴である前記第2ターゲット特徴を取得するステップと、
前記畳み込み層により、前記各トレーニング画像における前記第1トレーニング特徴を処理して、一次元ベクトル特徴である前記第1ターゲット特徴を取得するステップとが実現されることに利用される。
前記各トレーニング画像に対応する、実際の勝敗の状況を示すための第3トレーニングタグを取得するステップと
前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ、前記第2トレーニングタグ、前記第3予測タグ及び前記第3トレーニングタグに基づいてトレーニングして前記モデルコアパラメータを取得するステップとが実現されることに利用され、
前記第3トレーニングタグは、予測値に属し、
前記第3予測タグは、真の値に属する。
前記取得モジュールは、さらに、
前記トレーニングモジュールが前記各トレーニング画像における前記トレーニング特徴セット、並びに、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得した後に、
複数フレームのインタラクション画像を含むトレーニングビデオを取得するステップと、
前記ターゲットジョイントモデルにより、前記トレーニングビデオに対応する、ターゲットシナリオでの関連データを含むターゲットシナリオデータを取得するステップとを実行するために利用され、
前記トレーニングモジュールは、さらに、前記取得モジュールにより取得された前記ターゲットシナリオデータ、前記第1トレーニングタグ及び第1予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するステップを実行するために利用され、
前記第1予測タグは、予測により得られた操作の内容に関するタグであり、
前記第1予測タグは、予測値に属し、
前記第1トレーニングタグは、真の値に属し、
前記更新モジュールは、前記トレーニングモジュールがトレーニングして得られた前記ターゲットモデルパラメータを利用して前記ターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するステップを実行するために利用される。
前記取得モジュールは、さらに、
前記トレーニングモジュールが前記各トレーニング画像における前記トレーニング特徴セット、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得した後に、
複数フレームのインタラクション画像を含むトレーニングビデオを取得するステップと、
前記ターゲットジョイントモデルにより、ターゲットシナリオでの関連データを含む前記トレーニングビデオに対応するターゲットシナリオデータを取得するステップとを実行するために利用され、
前記トレーニングモジュールは、さらに、前記取得モジュールにより取得された前記ターゲットシナリオデータ、前記第2トレーニングタグ及び第2予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するステップとを実行するために利用され、
前記第2予測タグは、予測により得られた操作の意図に関するタグであり、
前記第2予測タグは、予測値に属し、
前記第2トレーニングタグは、真の値に属し、
前記更新モジュールは、前記トレーニングモジュールがトレーニングして得られた前記ターゲットモデルパラメータ利用して前記ターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するステップを実行するために利用される。
本出願の実施形態において、情報予測方法を提供し、まず、サーバーは予測画像を取得し、そして、予測画像における予測特徴セットを抽出し、予測特徴セットは第1予測特徴、第2予測特徴及び第3予測特徴を含み、第1予測特徴は第1領域の画像特徴を示し、第2予測特徴は第2領域の画像特徴を示し、第3予測特徴はインタラクション操作に関する属性特徴を示し、第1領域の範囲が第2領域の範囲よりも小さい。最後に、サーバーは、ターゲットジョイントモデルにより予測画像に対応する第1タグ及び第2タグを取得することができ、第1タグが操作の内容に関するタグであり、第2タグが操作の意図に関するタグである。上記の方式により、1つのジョイントモデルのみを使用して微操作及び大局観を予測することができる。なお、微操作の予測結果は、第1タグとして示され、大局観の予測結果は、第2タグとして示される。従って、大局観モデル及び微操作モデルを1つのジョイントモデルにマージし、階層化モデルでのハードハンドオーバー問題を効果的に解決し、予測の利便性を向上させる。
本実施形態において、サーバーは、まず、予測画像を取得し、当該予測画像は、MOBAゲームにおける画像を指してもよい。
第2トレーニング特徴は、二次元ベクトル特徴であり、第2トレーニング特徴は、第2領域におけるキャラクター位置情報、移動オブジェクト位置情報、固定オブジェクト位置情報、防御オブジェクト位置情報、障碍オブジェクト位置情報及び出力オブジェクト位置情報の少なくとも1つを含む。
第3トレーニング特徴は、一次元ベクトル特徴であり、第3トレーニング特徴はキャラクターヒットポイント、キャラクター出力値、時間情報及びスコア情報の少なくとも1つを含む。
なお、第1トレーニング特徴と、第2トレーニング特徴と、第3トレーニング特徴との間に対応関係がある。
各トレーニング画像におけるトレーニング特徴セットを処理して、第1ターゲット特徴、第2ターゲット特徴及び第3ターゲット特徴を含むターゲット特徴セットを取得するステップと、
長短期記憶LSTM層により、ターゲット特徴セットに対応する第1予測タグ及び第2予測タグを取得するステップと、
各トレーニング画像の第1予測タグ、第1トレーニングタグ、第2予測タグ及び第2トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップと、
モデルコアパラメータに基づいてターゲットジョイントモデルを生成するステップとを含み、
第1予測タグは、予測によって得られた操作の内容に関するタグであり、
第2予測タグは、予測によって得られた操作の意図に関するタグであり、
第1予測タグと第2予測タグは、予測値に属し、
第1トレーニングタグと第2トレーニングタグとは、真の値に属する。
長短期記憶LSTM層により、ターゲット特徴セットに対応する第1予測タグ、第2予測タグ、及び、予測によって得られた勝敗の状況に関するタグである第3予測タグを取得するステップを含み、
各トレーニング画像の第1予測タグ、第1トレーニングタグ、第2予測タグ及び第2トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップは、
各トレーニング画像に対応する、実際の勝敗の状況を示すための第3トレーニングタグを取得するステップと、
第1予測タグ、第1トレーニングタグ、第2予測タグ、第2トレーニングタグ、第3予測タグ及び第3トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップとを含んでもよく、
第3トレーニングタグは、予測値に属し、第3予測タグは、真の値に属する。
複数フレームのインタラクション画像を含むトレーニングビデオを取得するステップと、
ターゲットジョイントモデルによりトレーニングビデオに対応する、ターゲットシナリオでの関連データを含むターゲットシナリオデータを取得するステップと、
ターゲットシナリオデータ、第1トレーニングタグ及び第1予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するステップと、
ターゲットモデルパラメータを利用してターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するステップをさらに含んでもよく、
第1予測タグは、予測により得られた操作の内容に関するタグであり、第1予測タグが予測値に属し、第1トレーニングタグが真の値に属する。
ステップ1において、トレーニングしてターゲットジョイントモデルを取得した後に、サーバーは、教師あり学習により得られたターゲットジョイントモデルをロードし、ジョイントモデルの符号化層及び微操作FC層を固定し、ゲーム環境をロードする必要がある。
複数フレームのインタラクション画像を含むトレーニングビデオを取得するステップと、
ターゲットジョイントモデルによりトレーニングビデオに対応するターゲットシナリオでの関連データを含むターゲットシナリオデータを取得するステップと、
ターゲットシナリオデータ、第2トレーニングタグ及び第2予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するステップと、
ターゲットモデルパラメータを利用してターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するステップとをさらに含んでもよく、
第2予測タグは、予測により得られた操作の意図に関するタグであり、
第2予測タグは、予測値に属し、第2トレーニングタグは、真の値に属する。
ステップ1において、トレーニングしてターゲットジョイントモデルを取得した後に、サーバーは、教師あり学習により得られたターゲットジョイントモデルをロードし、ジョイントモデルの符号化層及び微操作FC層を固定し、ゲーム環境をロードする必要がある。
予測画像を取得する取得モジュール301と、
取得モジュール301によって取得された前記予測画像における予測特徴セットを抽出する抽出モジュール302とを含み、
なお、前記予測特徴セットには、第1領域の画像特徴を示す第1予測特徴、前記第1領域よりも範囲が小さい第2領域の画像特徴を示す第2予測特徴、及び、インタラクション操作に関する属性特徴を示す第3予測特徴が含まれ、
取得モジュール301は、さらに、ターゲットジョイントモデルにより、抽出モジュール302によって抽出された前記予測特徴セットに対応する第1タグ及び第2タグを取得するために利用される。なお、前記第1タグは操作の内容に関するタグであり、前記第2タグは操作の意図に関するタグである。
N個(Nは1以上の整数)のトレーニング画像を含むトレーニング画像セットを取得する取得モジュール401と、
取得モジュール401によって取得された各トレーニング画像におけるトレーニング特徴セットを抽出する抽出モジュール402と、
抽出モジュール402によって抽出された前記各トレーニング画像における前記トレーニング特徴セット、前記取得モジュール401によって取得された前記各トレーニング画像に対応する第1トレーニングタグ及び第2トレーニングタグに応じて、トレーニングしてターゲットジョイントモデルを取得するトレーニングモジュール403とを含み、
なお、前記トレーニング特徴セットには、第1領域の画像特徴を示す第1トレーニング特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2トレーニング特徴、及び、インタラクション操作に関する属性特徴を示す第3トレーニングすべき特徴が含まれ、
取得モジュール401は、さらに、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグを取得するために用いられる。なお、前記第1トレーニングタグは操作の内容に関するタグであり、前記第2トレーニングタグは操作の意図に関するタグである。
に用いられる。
前記第2トレーニング特徴は二次元ベクトル特徴であり、前記第2トレーニング特徴は、前記第2領域でのキャラクター位置情報、移動オブジェクト位置情報、固定オブジェクト位置情報、防御オブジェクト位置情報、障碍オブジェクト位置情報及び出力オブジェクト位置情報の少なくとも1つを含み、
前記第3トレーニング特徴は一次元ベクトル特徴であり、前記第3トレーニング特徴は、キャラクターヒットポイント、キャラクター出力値、時間情報及びスコア情報の少なくとも1つを含み、
前記第1トレーニング特徴と、前記第2トレーニング特徴と、前記第3トレーニング特徴との間に対応関係がある。
前記ボタンパラメータ情報は方向パラメータ、位置パラメータ及びターゲットパラメータの少なくとも1つを含み、前記方向パラメータは、キャラクターが移動する方向を示すために用いられ、前記位置パラメータは、前記キャラクターの所在する位置を示すために用いられ、前記ターゲットパラメータは、前記キャラクターの出力すべきオブジェクト示すために用いられる。
前記操作の意図情報は、キャラクターとオブジェクトとがインタラクションする目的を示し、前記キャラクター位置情報が前記キャラクターの前記第1領域における位置を示す。
長短期記憶LSTM層により、前記ターゲット特徴セットに対応する第1予測タグ及び第2予測タグを取得するステップと、
前記各トレーニング画像の前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ及び前記第2トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップと
前記モデルコアパラメータに基づいて前記ターゲットジョイントモデルを生成するステップとを含み、
前記第1予測タグは、予測によって得られた操作の内容に関するタグであり、
前記第2予測タグは、予測によって得られた操作の意図に関するタグであり、
前記第1予測タグと前記第2予測タグとは、予測値に属し、前記第1トレーニングタグと前記第2トレーニングタグとは、真の値に属する。
畳み込み層により、前記各トレーニング画像における前記第2トレーニング特徴を処理して、一次元ベクトル特徴である前記第2ターゲット特徴を取得するステップと、
前記畳み込み層により、前記各トレーニング画像における前記第1トレーニング特徴を処理して、一次元ベクトル特徴である前記第1ターゲット特徴を取得するステップとを含む。
前記各トレーニング画像に対応する、実際の勝敗の状況を示すための第3トレーニングタグを取得するステップと、
前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ、前記第2トレーニングタグ、前記第3予測タグ及び前記第3トレーニングタグに基づいてトレーニングして前記モデルコアパラメータを取得するステップとを含み、
前記第3トレーニングタグは、予測値に属し、前記第3予測タグは、真の値に属する。
取得モジュール401は、さらに、トレーニングモジュール403が前記各トレーニング画像における前記トレーニング特徴セット、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに応じて、トレーニングしてターゲットジョイントモデルを取得した後に、複数フレームのインタラクション画像を含むトレーニングビデオを取得するために用いられる。
取得モジュール401は、さらに、前記ターゲットジョイントモデルにより前記トレーニングビデオに対応するターゲットシナリオデータを取得するために用いられ、前記ターゲットシナリオデータはターゲットシナリオでの関連データを含む。
トレーニングモジュール403は、さらに、取得モジュール401によって取得された前記ターゲットシナリオデータ、前記第1トレーニングタグ及び第1予測タグに応じて、トレーニングしてターゲットモデルパラメータを取得するために用いられる、前記第1予測タグは予測して得られた操作の内容に関するタグを示し、前記第1予測タグは予測値に属し、前記第1トレーニングタグは真の値に属する。
更新モジュール404は、トレーニングモジュール403がトレーニングして得られた前記ターゲットモデルパラメータを利用して前記ターゲットジョイントモデルを更新することで、強化ジョイントモデルを取得するために用いられる。
取得モジュール401は、さらに、トレーニングモジュール403が前記各トレーニング画像における前記トレーニング特徴セット、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得した後に、トレーニングビデオを取得するために用いられる。なお、前記トレーニングビデオは、複数フレームのインタラクション画像を含む。
取得モジュール401は、さらに、前記ターゲットジョイントモデルにより前記トレーニングビデオに対応するターゲットシナリオデータを取得するために用いられ、前記ターゲットシナリオデータはターゲットシナリオにおける関連データを含む。
トレーニングモジュール403は、さらに、取得モジュール401によって取得された前記ターゲットシナリオデータ、前記第2トレーニングタグ及び第2予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するために用いられる。なお、前記第2予測タグは予測によって得られた操作の意図に関するタグであり、前記第2予測タグは予測値に属し、前記第2トレーニングタグは真の値に属する。
更新モジュール404は、トレーニングモジュール403がトレーニングして得られた前記ターゲットモデルパラメータを利用して前記ターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するために用いられる。
予測画像を取得するステップと、
前記予測画像における予測特徴セットを抽出するステップと、
ターゲットジョイントモデルにより、前記予測特徴セットに対応する第1タグ及び/又は第2タグを取得するステップとを含み、
前記予測特徴セットには、第1領域の画像特徴を示す第1予測特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2予測特徴、及び、インタラクション操作に関する属性特徴を示す第3予測特徴が含まれ、
前記第1タグは、操作の内容に関するタグであり、
前記第2タグは、操作の意図に関するタグである。
前記ターゲットジョイントモデルにより、前記予測特徴セットに対応する前記第1タグ及び/又は前記第2タグ、及び勝敗の状況に関するタグである第3タグを取得するステップを含む。
N個(Nは1以上の整数)のトレーニング画像を含むトレーニング画像セットを取得するステップと、
各トレーニング画像におけるトレーニング特徴セットを抽出するステップと、
前記各トレーニング画像に対応する第1トレーニングタグ及び第2トレーニングタグを取得するステップと、
前記各トレーニング画像における前記トレーニング特徴セット、並びに、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得するステップとを含み、
前記トレーニング特徴セットには、第1領域の画像特徴を示す第1トレーニング特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2トレーニング特徴、及び、インタラクション操作に関する属性特徴を示す第3トレーニング特徴が含まれ、
前記第1トレーニングタグは、操作の内容に関するタグであり、
前記第2トレーニングタグは、操作の意図に関するタグである。
前記各トレーニング画像における前記トレーニング特徴セットを処理して、第1ターゲット特徴、第2ターゲット特徴及び第3ターゲット特徴を含むターゲット特徴セットを取得するステップと、
長短期記憶LSTM層により、前記ターゲット特徴セットに対応する第1予測タグ及び第2予測タグを取得するステップと、
前記各トレーニング画像の前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ及び前記第2トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップと、
前記モデルコアパラメータに基づいて前記ターゲットジョイントモデルを生成するステップとを含み、
前記第1予測タグは、予測によって得られた操作の内容に関するタグであり、
前記第2予測タグは、予測によって得られた操作の意図に関するタグであり、
前記第1予測タグと前記第2予測タグとは、予測値に属し、
前記第1トレーニングタグと前記第2トレーニングタグとは真の値に属する。
全結合層により、前記各トレーニング画像における前記第3トレーニング特徴を処理して、一次元ベクトル特徴である前記第3ターゲット特徴を取得するステップと、
畳み込み層により、前記各トレーニング画像における前記第2トレーニング特徴を処理して、一次元ベクトル特徴である前記第2ターゲット特徴を取得するステップと、
前記畳み込み層により、前記各トレーニング画像における前記第1トレーニング特徴を処理して、一次元ベクトル特徴である前記第1ターゲット特徴を取得するステップとを含む。
長短期記憶LSTM層により、前記ターゲット特徴セットに対応する第1予測タグ、第2予測タグ、及び、予測により得られた勝敗の状況に関するタグである第3予測タグを取得するステップと、
前記各トレーニング画像の前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ及び前記第2トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップと、
前記各トレーニング画像に対応する、実際の勝敗の状況を示すための第3トレーニングタグを取得するステップと、
前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ、前記第2トレーニングタグ、前記第3予測タグ及び前記第3トレーニングタグに基づいてトレーニングして前記モデルコアパラメータを取得するステップとを含み、
前記第3トレーニングタグは、予測値に属し、
前記第3予測タグは、真の値に属する。
複数フレームのインタラクション画像を含むトレーニングビデオを取得するステップと、
前記ターゲットジョイントモデルにより、前記トレーニングビデオに対応する、ターゲットシナリオにおける関連データを含むターゲットシナリオデータを取得するステップと、
前記ターゲットシナリオデータ、前記第1トレーニングタグ及び第1予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するステップと、
前記ターゲットモデルパラメータを利用して前記ターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するステップとを含み、
前記第1予測タグは、予測によって得られた操作の内容に関するタグであり、
前記第1予測タグは、予測値に属し、前記第1トレーニングタグは真の値に属する。
複数フレームのインタラクション画像を含むトレーニングビデオを取得するステップと、
前記ターゲットジョイントモデルにより、前記トレーニングビデオに対応する、ターゲットシナリオにおける関連データを含むターゲットシナリオデータを取得するステップと、
前記ターゲットシナリオデータ、前記第2トレーニングタグ及び第2予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するステップと、
前記ターゲットモデルパラメータを利用して前記ターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するステップとを含み、
前記第2予測タグは、予測によって得られた操作の意図に関するタグであり、
前記第2予測タグは、予測値に属し、前記第2トレーニングタグは、真の値に属する。
Claims (18)
- サーバーが実行する情報予測方法であって、
予測画像を取得するステップと、
前記予測画像における予測特徴セットを抽出するステップと、
ターゲットジョイントモデルにより前記予測特徴セットに対応する第1タグ及び/又は第2タグを取得するステップとを含み、
前記予測特徴セットは、第1領域の画像特徴を示す第1予測特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2予測特徴、及び、インタラクション操作に関する属性特徴を示す第3予測特徴を含み、
前記第1タグは、操作の内容に関するタグであり、
前記第2タグは、操作の意図に関するタグであることを特徴とする方法。 - 前記ターゲットジョイントモデルにより前記予測特徴セットに対応する第1タグ及び/又は第2タグを取得するステップは、
前記ターゲットジョイントモデルにより前記予測特徴セットに対応する前記第1タグ及び/又は前記第2タグ、並びに、勝敗の状況に関するタグである第3タグを取得するステップを含むことを特徴とする請求項1に記載の方法。 - サーバーが実行するモデルトレーニング方法であって、
N(Nは1以上の整数)個のトレーニング画像を含むトレーニング画像セットを取得するステップと、
各トレーニング画像におけるトレーニング特徴セットを抽出するステップと、
前記各トレーニング画像に対応する第1トレーニングタグ及び第2トレーニングタグを取得するステップと、
前記各トレーニング画像における前記トレーニング特徴セット、並びに、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得するステップとを含み、
前記第1トレーニングタグは、操作の内容に関するタグであり、
前記第2トレーニングタグは、操作の意図に関するタグであり、
前記トレーニング特徴セットは、第1領域の画像特徴を示す第1トレーニング特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2トレーニング特徴、及び、インタラクション操作に関する属性特徴を示す第3トレーニング特徴を含む、ことを特徴とする方法。 - 前記第1トレーニング特徴は、二次元ベクトル特徴であり、前記第1領域におけるキャラクター位置情報、移動オブジェクト位置情報、固定オブジェクト位置情報及び防御オブジェクト位置情報の少なくとも1つを含み、
前記第2トレーニング特徴は、二次元ベクトル特徴であり、前記第2領域におけるキャラクター位置情報、移動オブジェクト位置情報、固定オブジェクト位置情報、防御オブジェクト位置情報、障碍オブジェクト位置情報及び出力オブジェクト位置情報の少なくとも1つを含み、
前記第3トレーニング特徴は、一次元ベクトル特徴であり、キャラクターヒットポイント、キャラクター出力値、時間情報及びスコア情報の少なくとも1つを含み、
前記第1トレーニング特徴と、前記第2トレーニング特徴と、前記第3トレーニング特徴との間に対応関係があることを特徴とする請求項3に記載の方法。 - 前記第1トレーニングタグは、ボタンタイプ情報及び/又はボタンパラメータ情報を含み、
前記ボタンパラメータ情報は、方向パラメータ、位置パラメータ及びターゲットパラメータの少なくとも1つを含み、
前記方向パラメータは、キャラクターが移動する方向を示すために利用され、
前記位置パラメータは、前記キャラクターが所在している位置を示すために利用され、前記ターゲットパラメータは、前記キャラクターの出力すべきオブジェクトを示すために利用されることを特徴とする請求項3に記載の方法。 - 前記第2トレーニングタグは、操作の意図の情報及びキャラクター位置情報を含み、
前記操作の意図の情報は、キャラクターとオブジェクトとがインタラクションする目的を示し、
前記キャラクター位置情報は、前記キャラクターの前記第1領域における位置を示すことを特徴とする請求項3に記載の方法。 - 前記各トレーニング画像における前記トレーニング特徴セット、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得するステップは、
前記各トレーニング画像における前記トレーニング特徴セットを処理して、第1ターゲット特徴、第2ターゲット特徴及び第3ターゲット特徴を含むターゲット特徴セットを取得するステップと、
長短期記憶LSTM層により、前記ターゲット特徴セットに対応する第1予測タグ及び第2予測タグを取得するステップと、
前記各トレーニング画像の前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ及び前記第2トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップと、
前記モデルコアパラメータに基づいて前記ターゲットジョイントモデルを生成するステップとを含み、
前記第1予測タグは、予測により得られた操作の内容に関するタグであり、
前記第2予測タグは、予測により得られた操作の意図に関するタグであり、
前記第1予測タグと前記第2予測タグとは予測値に属し、前記第1トレーニングタグと前記第2トレーニングタグとは真の値に属することを特徴とする請求項3に記載の方法。 - 前記各トレーニング画像における前記トレーニング特徴セットを処理してターゲット特徴セットを取得するステップは、
全結合層により、前記各トレーニング画像における前記第3トレーニング特徴を処理して、一次元ベクトル特徴である前記第3ターゲット特徴を取得するステップと、
畳み込み層により、前記各トレーニング画像における前記第2トレーニング特徴を処理して、一次元ベクトル特徴である前記第2ターゲット特徴を取得するステップと、
前記畳み込み層により、前記各トレーニング画像における前記第1トレーニング特徴を処理して、一次元ベクトル特徴である前記第1ターゲット特徴を取得するステップとを含むことを特徴とする請求項7に記載の方法。 - 前記長短期記憶LSTM層により、前記ターゲット特徴セットに対応する第1予測タグ及び第2予測タグを取得するステップは、
長短期記憶LSTM層により、前記ターゲット特徴セットに対応する、第1予測タグ、第2予測タグ、及び、予測により得られた勝敗の状況に関するタグである第3予測タグを取得するステップを含み、
前記各トレーニング画像の前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ及び前記第2トレーニングタグに基づいてトレーニングしてモデルコアパラメータを取得するステップは、
前記各トレーニング画像に対応する、実際の勝敗の状況を示すための第3トレーニングタグを取得するステップと、
前記第1予測タグ、前記第1トレーニングタグ、前記第2予測タグ、前記第2トレーニングタグ、前記第3予測タグ及び前記第3トレーニングタグに基づいてトレーニングして前記モデルコアパラメータを取得するステップとを含み、
前記第3トレーニングタグは、予測値に属し、
前記第3予測タグは、真の値に属することを特徴とする請求項7に記載の方法。 - 前記各トレーニング画像における前記トレーニング特徴セット、並びに、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得した後に、前記方法は、
複数フレームのインタラクション画像を含むトレーニングビデオを取得するステップと、
前記ターゲットジョイントモデルにより、前記トレーニングビデオに対応する、ターゲットシナリオにおける関連データを含むターゲットシナリオデータを取得するステップと、
前記ターゲットシナリオデータ、前記第1トレーニングタグ及び第1予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するステップと、
前記ターゲットモデルパラメータを利用して前記ターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するステップとをさらに含み、
前記第1予測タグは、予測により得られた操作の内容に関するタグであり、且つ予測値に属し、
前記第1トレーニングタグは、真の値に属することを特徴とする請求項3〜9のいずれか一項に記載の方法。 - 前記各トレーニング画像における前記トレーニング特徴セット、並びに、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得した後に、前記方法は、
複数フレームのインタラクション画像を含むトレーニングビデオを取得するステップと、
前記ターゲットジョイントモデルにより、前記トレーニングビデオに対応する、ターゲットシナリオにおける関連データを含むターゲットシナリオデータを取得するステップと、
前記ターゲットシナリオデータ、前記第2トレーニングタグ及び第2予測タグに基づいてトレーニングしてターゲットモデルパラメータを取得するステップと、
前記ターゲットモデルパラメータを利用して前記ターゲットジョイントモデルを更新して、強化ジョイントモデルを取得するステップとをさらに含み、
前記第2予測タグは、予測により得られた操作の意図に関するタグであり、且つ予測値に属し、
前記第2トレーニングタグは、真の値に属することを特徴とする請求項3〜9のいずれか一項に記載の方法。 - サーバーであって、
予測画像を取得する取得モジュールと、
前記取得モジュールにより取得された前記予測画像における予測特徴セットを抽出する抽出モジュールと、を含み、
前記予測特徴セットは、第1領域の画像特徴を示す第1予測特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2予測特徴、及び、インタラクション操作に関する属性特徴を示す第3予測特徴を含み、
前記取得モジュールは、さらに、ターゲットジョイントモデルにより、前記抽出モジュールにより抽出された前記予測特徴セットに対応する第1タグ及び第2タグを取得するために利用され、前記第1タグは、操作の内容に関するタグであり、前記第2タグは操作の意図に関するタグであることを特徴とするサーバー。 - サーバーであって、
N個(Nは1以上の整数)のトレーニング画像を含むトレーニング画像セットを取得する取得モジュールと、
前記取得モジュールにより取得された各トレーニング画像におけるトレーニング特徴セットを抽出する抽出モジュールと、
前記抽出モジュールにより抽出された前記各トレーニング画像における前記トレーニング特徴セット、並びに、前記取得モジュールにより取得された前記各トレーニング画像に対応する第1トレーニングタグ及び第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得するトレーニングモジュールとを含み、
前記トレーニング特徴セットは、第1領域の画像特徴を示す第1トレーニング特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2トレーニング特徴、及び、インタラクション操作に関する属性特徴を示す第3トレーニング特徴を含み、
前記取得モジュールは、さらに、前記各トレーニング画像に対応する、操作の内容に関するタグである前記第1トレーニングタグ、及び、操作の意図に関するタグである前記第2トレーニングタグを取得するために利用されることを特徴とするサーバー。 - サーバーであって、
プログラムが記憶されるメモリと、
送受信器と、
前記メモリにおけるプログラムを実行するプロセッサーと、
前記メモリ及び前記プロセッサーが通信するように前記メモリと前記プロセッサーとを接続するバスシステムとを含み、
前記プロセッサーが前記メモリにおけるプログラムを実行することにより、
予測画像を取得するステップと、
前記予測画像における予測特徴セットを抽出するステップと、
ターゲットジョイントモデルにより、前記予測特徴セットに対応する第1タグ及び/又は第2タグを取得するステップとを含む方法が実行され、
前記予測特徴セットは、第1領域の画像特徴を示す第1予測特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2予測特徴、及び、インタラクション操作に関する属性特徴を示す第3予測特徴を含み、
前記第1タグは、操作の内容に関するタグであり、
前記第2タグは、操作の意図に関するタグであることを特徴とするサーバー。 - 前記プロセッサーは、
前記ターゲットジョイントモデルにより前記予測特徴セットに対応する前記第1タグ及び/又は前記第2タグ、並びに、勝敗の状況に関するタグである第3タグを取得するステップを実行するために用いられることを特徴とする請求項14に記載のサーバー。 - サーバーであって、
プログラムが記憶されるメモリと、
送受信器と、
プロセッサーと、
前記メモリ及び前記プロセッサーが通信するように前記メモリと前記プロセッサーとを接続するバスシステムとを含み、
前記プロセッサーが前記メモリにおけるプログラムを実行することにより、
N個(Nは1以上の整数)のトレーニング画像を含むトレーニング画像セットを取得するステップと、
各トレーニング画像におけるトレーニング特徴セットを抽出するステップと、
前記各トレーニング画像に対応する第1トレーニングタグ及び第2トレーニングタグを取得するステップと、
前記各トレーニング画像における前記トレーニング特徴セット、並びに、前記各トレーニング画像に対応する前記第1トレーニングタグ及び前記第2トレーニングタグに基づいてトレーニングしてターゲットジョイントモデルを取得するステップとを含む方法が実行され、
前記トレーニング特徴セットは、第1領域の画像特徴を示す第1トレーニング特徴、前記第1領域よりも範囲が大きい第2領域の画像特徴を示す第2トレーニング特徴、及び、インタラクション操作に関する属性特徴を示す第3トレーニング特徴を含み、
前記第1トレーニングタグは、操作の内容に関するタグであり、
前記第2トレーニングタグは、操作の意図に関するタグである、ことを特徴とするサーバー。 - 前記プロセッサーが前記メモリにおけるプログラムを実行することにより、
請求項7〜11の何れか一項に記載の方法が実行されることを特徴とする請求項16に記載のサーバー。 - コンピュータプログラムであって、
コンピュータプログラムコードが記憶され、前記コンピュータプログラムコードがコンピュータによって実行されると、請求項1〜11のいずれか一項に記載の方法を前記コンピュータに実行させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811526060.1 | 2018-12-13 | ||
CN201811526060.1A CN110163238B (zh) | 2018-12-13 | 2018-12-13 | 一种信息预测的方法、模型训练的方法以及服务器 |
PCT/CN2019/124681 WO2020119737A1 (zh) | 2018-12-13 | 2019-12-11 | 信息预测的方法、模型训练的方法以及服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021536066A true JP2021536066A (ja) | 2021-12-23 |
JP7199517B2 JP7199517B2 (ja) | 2023-01-05 |
Family
ID=67645216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021512924A Active JP7199517B2 (ja) | 2018-12-13 | 2019-12-11 | 情報予測方法、モデルトレーニング方法、サーバー及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210201148A1 (ja) |
EP (1) | EP3896611A4 (ja) |
JP (1) | JP7199517B2 (ja) |
KR (1) | KR102542774B1 (ja) |
CN (1) | CN110163238B (ja) |
WO (1) | WO2020119737A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163238B (zh) * | 2018-12-13 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种信息预测的方法、模型训练的方法以及服务器 |
CN111450534B (zh) * | 2020-03-31 | 2021-08-13 | 腾讯科技(深圳)有限公司 | 一种标签预测模型的训练方法、标签预测的方法及装置 |
CN113469188A (zh) * | 2021-07-15 | 2021-10-01 | 有米科技股份有限公司 | 字符识别模型训练的数据增强、字符识别的方法及装置 |
CN113780101A (zh) * | 2021-08-20 | 2021-12-10 | 京东鲲鹏(江苏)科技有限公司 | 避障模型的训练方法、装置、电子设备及存储介质 |
KR102593036B1 (ko) | 2021-11-24 | 2023-10-23 | 고려대학교 산학협력단 | 알츠하이머병 진단 모델의 결정을 추론하고 강화하는 방법 및 장치 |
CN115121913B (zh) * | 2022-08-30 | 2023-01-10 | 北京博清科技有限公司 | 激光中心线的提取方法 |
CN116109525B (zh) * | 2023-04-11 | 2024-01-05 | 北京龙智数科科技服务有限公司 | 基于多维度数据增强的强化学习方法及装置 |
CN116842856B (zh) * | 2023-09-04 | 2023-11-14 | 长春工业大学 | 一种基于深度强化学习的工业过程优化方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180239989A1 (en) * | 2017-02-20 | 2018-08-23 | Alibaba Group Holding Limited | Type Prediction Method, Apparatus and Electronic Device for Recognizing an Object in an Image |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3827691B2 (ja) * | 2004-09-03 | 2006-09-27 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、その制御方法、ならびに、プログラム |
US8774515B2 (en) * | 2011-04-20 | 2014-07-08 | Xerox Corporation | Learning structured prediction models for interactive image labeling |
CN103544496B (zh) * | 2012-07-12 | 2016-12-21 | 同济大学 | 基于空间与时间信息融合的机器人场景识别方法 |
CN103544960B (zh) * | 2013-11-11 | 2016-03-30 | 苏州威士达信息科技有限公司 | 基于人耳感知的drm+系统的动态数据发送方法 |
JP2015198935A (ja) * | 2014-04-04 | 2015-11-12 | コナミゲーミング インコーポレーテッド | ゲーミング環境の操作のためのシステムおよび方法 |
CN107480687A (zh) * | 2016-06-08 | 2017-12-15 | 富士通株式会社 | 信息处理装置和信息处理方法 |
CN107766870A (zh) * | 2016-08-22 | 2018-03-06 | 富士通株式会社 | 信息处理装置和信息处理方法 |
KR102308871B1 (ko) * | 2016-11-02 | 2021-10-05 | 삼성전자주식회사 | 객체의 속성에 기반하여 객체를 인식 및 트레이닝하는 방법 및 장치 |
CN107019901B (zh) * | 2017-03-31 | 2020-10-20 | 北京大学深圳研究生院 | 基于图像识别及自动化控制的棋牌类游戏自动博弈机器人的建立方法 |
CN108090561B (zh) * | 2017-11-09 | 2021-12-07 | 腾讯科技(成都)有限公司 | 存储介质、电子装置、游戏操作的执行方法和装置 |
CN107890674A (zh) * | 2017-11-13 | 2018-04-10 | 杭州电魂网络科技股份有限公司 | Ai行为调用方法和装置 |
CN108434740B (zh) * | 2018-03-23 | 2021-01-29 | 腾讯科技(深圳)有限公司 | 一种策略信息确定的方法及装置、存储介质 |
CN108724182B (zh) * | 2018-05-23 | 2020-03-17 | 苏州大学 | 基于多类别模仿学习的端到端游戏机器人生成方法及系统 |
CN109529338B (zh) * | 2018-11-15 | 2021-12-17 | 腾讯科技(深圳)有限公司 | 对象控制方法、装置、电子设计及计算机可读介质 |
CN110163238B (zh) * | 2018-12-13 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种信息预测的方法、模型训练的方法以及服务器 |
CN109893857B (zh) * | 2019-03-14 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 一种操作信息预测的方法、模型训练的方法及相关装置 |
-
2018
- 2018-12-13 CN CN201811526060.1A patent/CN110163238B/zh active Active
-
2019
- 2019-12-11 WO PCT/CN2019/124681 patent/WO2020119737A1/zh unknown
- 2019-12-11 JP JP2021512924A patent/JP7199517B2/ja active Active
- 2019-12-11 KR KR1020217017878A patent/KR102542774B1/ko active IP Right Grant
- 2019-12-11 EP EP19896168.2A patent/EP3896611A4/en active Pending
-
2021
- 2021-03-15 US US17/201,152 patent/US20210201148A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180239989A1 (en) * | 2017-02-20 | 2018-08-23 | Alibaba Group Holding Limited | Type Prediction Method, Apparatus and Electronic Device for Recognizing an Object in an Image |
Non-Patent Citations (1)
Title |
---|
VINYALS, O ET AL.: "StarCraft II: A New Challenge for Reinforcement Learning", ARXIV.ORG [ONLINE], JPN7022002054, 2017, pages 1 - 20, ISSN: 0004769168 * |
Also Published As
Publication number | Publication date |
---|---|
KR20210090239A (ko) | 2021-07-19 |
KR102542774B1 (ko) | 2023-06-14 |
EP3896611A1 (en) | 2021-10-20 |
CN110163238A (zh) | 2019-08-23 |
WO2020119737A1 (zh) | 2020-06-18 |
JP7199517B2 (ja) | 2023-01-05 |
US20210201148A1 (en) | 2021-07-01 |
CN110163238B (zh) | 2023-04-07 |
EP3896611A4 (en) | 2022-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7199517B2 (ja) | 情報予測方法、モデルトレーニング方法、サーバー及びコンピュータプログラム | |
Synnaeve et al. | Torchcraft: a library for machine learning research on real-time strategy games | |
US11491400B2 (en) | Method, apparatus, and device for scheduling virtual objects in virtual environment | |
Risi et al. | From chess and atari to starcraft and beyond: How game ai is driving the world of ai | |
Hausknecht et al. | A neuroevolution approach to general atari game playing | |
CN109893857B (zh) | 一种操作信息预测的方法、模型训练的方法及相关装置 | |
CN111111220B (zh) | 多人对战游戏的自对弈模型训练方法、装置和计算机设备 | |
US7296007B1 (en) | Real time context learning by software agents | |
CN112691377B (zh) | 虚拟角色的控制方法、装置、电子设备及存储介质 | |
US20190118085A1 (en) | Data processing method and apparatus, and storage medium | |
CN112169339A (zh) | 用于在视频游戏中模仿玩家玩游戏的定制的模型 | |
CN110064205B (zh) | 用于游戏的数据处理方法、设备和介质 | |
WO2023024762A1 (zh) | 人工智能对象控制方法、装置、设备及存储介质 | |
CN115888119A (zh) | 一种游戏ai训练方法、装置、电子设备及存储介质 | |
Edwards et al. | The Role of Machine Learning in Game Development Domain-A Review of Current Trends and Future Directions | |
Stapelberg et al. | A survey of benchmarking frameworks for reinforcement learning | |
Pirovano et al. | Fuzzy Tactics: A scripting game that leverages fuzzy logic as an engaging game mechanic | |
Espinosa Leal et al. | Reinforcement learning for extended reality: designing self-play scenarios | |
Vitek et al. | Intelligent agents in games: Review with an open-source tool | |
CN114404976A (zh) | 决策模型的训练方法、装置、计算机设备及存储介质 | |
Khatri | The Gaming Experience With AI | |
CN113018862A (zh) | 虚拟对象的控制方法、装置、电子设备及存储介质 | |
Zhang | Using artificial intelligence assistant technology to develop animation games on iot | |
Stapelberg et al. | A survey of benchmarks for reinforcement learning algorithms | |
CN116726500B (zh) | 一种虚拟角色的控制方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7199517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |