JP2024519577A - 機械学習を使用するビデオフレームからのコントローラーアクション認識 - Google Patents

機械学習を使用するビデオフレームからのコントローラーアクション認識 Download PDF

Info

Publication number
JP2024519577A
JP2024519577A JP2023566928A JP2023566928A JP2024519577A JP 2024519577 A JP2024519577 A JP 2024519577A JP 2023566928 A JP2023566928 A JP 2023566928A JP 2023566928 A JP2023566928 A JP 2023566928A JP 2024519577 A JP2024519577 A JP 2024519577A
Authority
JP
Japan
Prior art keywords
computer simulation
recorded
video
recorded computer
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023566928A
Other languages
English (en)
Inventor
クリシュナン、ラティシュ
シャー、マウリク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2024519577A publication Critical patent/JP2024519577A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

【課題】機械学習モデル(306)を使用して、観客用コンピューターで提示するために、録画されたビデオゲームを受信し(700)、ビデオから、録画されたビデオゲームで生じたゲームのプレイ中におけるコントローラー操作の識別を導出する(702)。【解決手段】識別されたコントローラー操作のインジケーションは、記録されたビデオゲームとともに提示され(704)、視聴者がゲームをプレイする方法を学習するのを支援し得る。【選択図】図7

Description

本願は、必然的にコンピューター技術が原因となり、具体的な技術的改善を生じさせる、技術的に発明性のある非定型な解決策に関する。
本明細書で理解されるように、以前にプレイしたコンピューターゲームのビデオは、コンピューターネットワークを通じて共有され得、ゲームのレベルを完了することによる等、視聴者にゲームに成功する方法を指導する。さらに本明細書で理解されるように、そのようなゲームビデオは、どのコントローラーボタンが押されたのかに関する情報及びゲームのプレイ中のタイミングに関する情報を含まない場合がある。その理由として、ゲームビデオは、ゲームがプレイされたときにコントローラーアクションをキャプチャすることなく記録され得るためである。
また、本明細書で理解されるように、どのコントローラーボタンが押されたのかに関する情報、及びコンピューターゲームのプレイを学習するプレイヤーに価値があるタイミングに関する情報は、初心者からスピードランナーまで、多くのタイプのゲーマーにとって、ゲームをより楽しいものにする。本明細書では、追加のコントローラーデータを用いずに一連のビデオフレームを分析することによって、コントローラーアクション情報を生成する機械学習技術が提供される。
したがって、デバイスは少なくとも1つのコンピューターメモリを含み、少なくとも1つのコンピューターメモリは、一時的信号ではなく、さらには、ビデオフレームのシーケンスを含む記録されたコンピューターシミュレーションを受信するために、少なくとも1つのプロセッサによって実行可能な命令を含む。命令は、機械学習(ML)モデルにおいてビデオフレームのシーケンスを処理すること、記録されたコンピューターシミュレーションを生成することに関連付けられたコンピューターシミュレーションコントローラー(CSC)操作の識別をMLモデルから受信することを実行可能にする。加えて、命令は、記録されたコンピューターシミュレーションを少なくとも1つのオーディオビデオ(AV)ディスプレイに、MLモデルから受信されたCSC操作の少なくとも1つのインジケーションとともに提示することを実行可能にする。
例示的な実施形態では、MLモデルは、少なくとも1つの長短期記憶(LSTM)ネットワーク等の少なくとも1つのリカレントニューラルネットワーク(RNN)を含む。また、畳み込みニューラルネットワーク(CNN)も使用できる。
本デバイスはプロセッサを含み得、このプロセッサは、AVディスプレイに、もしくはコンピューターシミュレーションコンソール等のコンピューターシミュレーションのソースに、及び/またはワイドエリアコンピューターネットワークを通じてAVディスプレイと通信するサーバーに、組み込まれ得る。
別の態様では、本装置は、少なくとも1つのコンピューターシミュレーションコントローラーの制御下で生成された、少なくとも1つの記録されたコンピューターシミュレーションのビデオを提示するように構成された少なくとも1つのディスプレイを含む。しかしながら、記録されたコンピューターシミュレーションは、少なくとも1つの記録されたコンピューターシミュレーションのビデオの生成中におけるコンピューターシミュレーションコントローラーの操作に関する情報を含まない。したがって、本装置は少なくとも1つのプロセッサを含み、プロセッサは、少なくとも1つの記録されたコンピューターシミュレーションのビデオの生成中に、ビデオから、コンピューターシミュレーションコントローラーの操作に関する情報を識別するための命令を伴って構成される。命令は、少なくとも1つの記録されたコンピューターシミュレーションのビデオを提示することとともに当該情報を提示するために、少なくとも1つの記録されたコンピューターシミュレーションのビデオの生成中のコンピューターシミュレーションコントローラーの操作に関する情報を、少なくとも1つのディスプレイに提供するために実行可能である。
例示的な実施態様では、少なくとも1つの機械学習(ML)モデルを使用して、少なくとも1つの記録されたコンピューターシミュレーションのビデオの生成中に、ビデオから、コンピューターシミュレーションコントローラーの操作に関する情報を識別するために実行可能であり得る。
別の態様では、本方法は、少なくともトレーニングセットを、少なくとも1つの機械学習(ML)モデルに入力することを含む。トレーニングセットは、複数の記録されたコンピューターシミュレーションからのビデオフレームのシーケンスと、ビデオフレームのシーケンスの生成中に実行されたコンピューターシミュレーションコントローラー(CSC)操作に関するビデオフレームのシーケンスに関連付けられた情報とを含む。本方法は、次に、少なくとも第1の記録されたコンピューターシミュレーションをMLモデルに入力することを含み、第1の記録されたコンピューターシミュレーションは、第1の記録されたコンピューターシミュレーションの生成中に実行されたCSC操作に関する情報を含まない。本方法は、MLモデルから受信された第1の記録されたコンピューターシミュレーションの生成中に実行されたCSC操作に関する可聴情報及び/または可視情報とともに第1の記録されたコンピューターシミュレーションを提示することを含む。
本願の詳細は、その構造及び動作の両方について、添付の図面を参照すると最良に理解でき、図面において、類似の参照符号は、類似の部分を指す。
本原理による例を含む例示的なシステムのブロック図である。 本原理に即した記録されたコンピューターシミュレーション(コンピューターゲーム等)のビデオから学習され得る例示的なキー操作を要するゲームコントローラーの例を示す。 本原理に即したコンピューターゲーム等の記録されたコンピューターシミュレーションを閲覧するための例を示す。 どのようなコントローラー操作が実施され、いつ実施されたかに関する情報を、記録されたコンピューターシミュレーションビデオから導出するために、機械学習(ML)モデルをトレーニングするための例示的なフローチャートフォーマットにおける例示的なロジックを示す。 MLモデルをトレーニングするために使用され得るコントローラー操作に関する付随情報を伴う一連のビデオフレームを概略的に示す。 コントローラー操作に依存して発生する可能性があるコントローラー操作及び代替ビデオパスに関する付随情報を伴わないビデオフレームのシーケンスを概略的に示し、コントローラー操作の識別を示す。 記録されたコンピューターシミュレーションからの記録されたビデオフレームのシーケンスからのコントローラー操作を識別するための、例示的なフローチャートフォーマットの例示的なロジックを示す。 本原理に即したMLモデルからの例示的な出力表現を示す。
したがって、本原理では、深層学習モデルを含む機械学習モデルを使用し得る。機械学習モデルは、教師あり学習、教師なし学習、半教師あり学習、強化学習、機能学習、自己学習、及び他の学習形式を含む方法でトレーニングされた様々なアルゴリズムを使用する。コンピューター回路によって実装できるそのようなアルゴリズムの例は、畳み込みニューラルネットワーク(CNN)、一連の画像から情報を学習するのに適し得るリカレントニューラルネットワーク(RNN)、及び長短期記憶(LSTM)ネットワークとして既知のRNNのタイプ等の1つ以上のニューラルネットワークを含む。サポートベクターマシン(SVM)及びベイジアンネットワークは、また、機械学習モデルの例と見なされ得る。
本明細書で理解されるように、機械学習を行うことは、トレーニングデータでモデルにアクセスして、次にトレーニングし、モデルがさらなるデータを処理して予測を行うのを可能にすることを含む。ニューラルネットワークは、入力層、出力層、及びそれらの間に複数の隠れ層を含み得、それらの層は、適切な出力について推論するように構成及び重み付けされる。
本開示は、概して、限定ではないが、コンピューターゲームネットワーク等の家電製品(CE)デバイスネットワークの態様を含むコンピューターエコシステムに関する。本明細書のシステムはネットワークを通じて接続され得るサーバーコンポーネント及びクライアントコンポーネントを含み得、それにより、クライアントコンポーネントとサーバーコンポーネントとの間でデータが交換され得る。クライアントコンポーネントは、Sony PlayStation(登録商標)等のゲーム機またはMicrosoft(登録商標)もしくはNintendo(登録商標)もしくは他の製造者によって作成されたゲーム機、仮想現実(VR)ヘッドセット、拡張現実(AR)ヘッドセット、ポータブルテレビ(例えば、スマートテレビ、インターネット対応テレビ)、ラップトップ及びタブレットコンピューター等のポータブルコンピューター、ならびにスマートフォン及び下記に説明される追加例を含む他のモバイルデバイスを含む、1つ以上のコンピューティングデバイスを含み得る。これらのクライアントデバイスは、様々な動作環境で動作し得る。例えば、クライアントコンピューターの一部は、例として、Linux(登録商標)オペレーティングシステム、Microsoft(登録商標)のオペレーティングシステム、もしくはUnix(登録商標)オペレーティングシステム、またはApple(登録商標)社もしくはGoogle(登録商標)によって製造されたオペレーティングシステムを使用し得る。これらの動作環境を使用して、Microsoft(登録商標)もしくはGoogle(登録商標)もしくはMozilla(登録商標)によって作成されたブラウザ、または下記に説明されるインターネットサーバーによってホストされるウェブサイトにアクセスできる他のブラウザプログラム等の1つ以上の閲覧プログラムを実行し得る。また、本原理に従った動作環境を使用して、1つ以上のコンピューターゲームプログラムを実行し得る。
サーバー及び/またはゲートウェイは、インターネット等のネットワークを通じてデータを受信及び伝送するサーバーを構成する命令を実行する1つ以上のプロセッサを含み得る。または、クライアント及びサーバーは、ローカルイントラネットまたは仮想プライベートネットワークを通じて接続できる。サーバーまたはコントローラーは、Sony PlayStation(登録商標)等のゲーム機、パーソナルコンピューター等によってインスタンス化され得る。
情報は、クライアントとサーバーとの間でネットワークを通じて交換され得る。この目的のために及びセキュリティのために、サーバー及び/またはクライアントは、ファイアウォール、ロードバランサ、テンポラリストレージ、及びプロキシ、ならびに信頼性及びセキュリティのための他のネットワークインフラストラクチャを含み得る。1つ以上のサーバーは、ネットワークメンバーにオンラインソーシャルウェブサイト等のセキュアコミュニティを提供する方法を実施する装置を形成し得る。
プロセッサは、アドレスライン、データライン、及び制御ライン等の様々なライン、ならびにレジスタ及びシフトレジスタによってロジックを実行できるシングルチッププロセッサまたはマルチチッププロセッサであり得る。
一実施形態に含まれるコンポーネントは、他の実施形態では、任意の適切な組み合わせで使用できる。例えば、本明細書に説明される及び/または図で示される様々なコンポーネントのいずれかは、組み合わされ得る、交換され得る、または他の実施形態から排除され得る。
「A、B、及びCのうちの少なくとも1つを有するシステム」(同様に「A、B、またはCのうちの少なくとも1つを有するシステム」及び「A、B、Cのうちの少なくとも1つを有するシステム」)は、A単独、B単独、C単独、A及びBをともに、A及びCをともに、B及びCをともに、ならびに/またはA、B、及びC等をともに有するシステムを含む。
ここで具体的に図1を参照すると、例示的なシステム10が示され、システム10は、本原理による、上述され及び下記に詳述される、例示的なデバイスの1つ以上を含み得る。システム10に含まれる第1の例示的デバイスは、限定ではないが、テレビチューナ(同様に、テレビを制御するセットトップボックス)を有するインターネット対応テレビ等の音声ビデオデバイス(AVD)12等の家電製品(CE)デバイスである。代わりに、AVD12は、また、コンピューター制御型インターネット対応(「スマート」)電話、タブレットコンピューター、ノートブックコンピューター、HMD、ウェアラブルコンピューター制御デバイス、コンピューター制御型インターネット対応ミュージックプレイヤー、コンピューター制御型インターネット対応ヘッドフォン、インプラント可能な皮膚用デバイス等のコンピューター制御型インターネット対応のインプラント可能なデバイス等であり得る。とにかく、AVD12は、本原理を実施するように構成される(例えば、本原理を実施するように他のCEデバイスと通信し、本明細書に説明されるロジックを実行し、本明細書に説明されるいずれかの他の機能及び/または動作を行う)ことを理解されたい。
したがって、そのような原理を実施するために、AVD12は、図1に示されるコンポーネントの一部または全てによって確立できる。例えば、AVD12は、1つ以上のディスプレイ14を含み得、1つ以上のディスプレイ14は、高解像度もしくは超解像度の「4K」またはより高い解像度のフラットスクリーンによって実装され得、ディスプレイのタッチによりユーザー入力信号を受信するためにタッチ対応であり得る。AVD12は、本原理に従って音声を出力するための1つ以上のスピーカー16と、可聴コマンドをAVD12に入力して、AVD12を制御するための、例えば、音声受信機/マイクロホン等の少なくとも1つの追加入力デバイス18と、を含み得る。例示的なAVD12は、また、1つ以上のプロセッサ24の制御の下、インターネット、WAN、LAN等の少なくとも1つのネットワーク22を通じて通信するための1つ以上のネットワークインターフェース20を含み得る。また、グラフィックプロセッサを含み得る。したがって、インターフェース20は、限定ではないが、Wi-Fi(登録商標)送受信機であり得、Wi-Fi(登録商標)送受信機は、限定ではないが、メッシュネットワークトランシーバー等の無線コンピューターネットワークインターフェースの例である。プロセッサ24は、ディスプレイ14をそこで画像を提示するように制御することと、そこから入力を受信すること等の本明細書に説明されるAVD12の他の要素を含む本原理を実施するようにAVD12を制御することを理解されたい。さらに、ネットワークインターフェース20は、有線もしくは無線のモデムもしくはルータ、または、無線テレフォニ送受信機もしくは上述したWi-Fi(登録商標)送受信機等の他の適切なインターフェースであり得ることに留意されたい。
上述に加えて、AVD12は、また、別のCEデバイスに物理的に接続するための高精細マルチメディアインターフェース(HDMI(登録商標))ポートもしくはUSBポート、及び/またはヘッドフォンを経由してAVD12からユーザーに音声を提示するためにAVD12にヘッドフォンを接続するためのヘッドフォンポート等の1つ以上の入力ポート26を含み得る。例えば、入力ポート26は、オーディオビデオコンテンツのケーブルまたは衛星ソース26aに有線でまたは無線で接続され得る。したがって、ソース26aは、分離もしくは統合されたセットトップボックス、またはサテライト受信機であり得る。または、ソース26aは、コンテンツを含むゲーム機またはディスクプレイヤーであり得る。ソース26aは、ゲーム機として実装されるとき、CEデバイス44に関連して下記に説明されるコンポーネントの一部または全てを含み得る。
AVD12は、さらに、一時的信号ではない、ディスクベースストレージまたはソリッドステートストレージ等の1つ以上のコンピューターメモリ28を含み得、これらのストレージは、いくつかの場合、スタンドアロンデバイスとして、またはAVプログラムを再生するためにAVDのシャーシの内部もしくは外部のいずれかでパーソナルビデオ録画デバイス(PVR)もしくはビデオディスクプレイヤーとして、または取り外し可能メモリ媒体として、AVDのシャーシ内で具現化される。また、いくつかの実施形態では、AVD12は、限定ではないが、サテライト基地局もしくは携帯電話基地局から地理的位置情報を受信し、情報をプロセッサ24に提供し、及び/またはAVD12がプロセッサ24と併せて配置される高度を判定するように構成される、携帯電話受信機、GPS受信機、及び/または高度計30等の位置受信機または場所受信機を含み得る。コンポーネント30は、また、3次元でのAVD12の位置及び向きを判定するために、典型的に、加速度計、ジャイロスコープ、及び磁力計の組み合わせを含む慣性測定ユニット(IMU)によって実現され得る。
AVD12の説明を続けると、いくつかの実施形態では、AVD12は、1つ以上のカメラ32を含み得、1つ以上のカメラ32は、熱画像カメラ、ウェブカメラ等のデジタルカメラ、ならびに/または本原理に従って写真/画像及び/もしくはビデオを集めるように、AVD12に統合され、プロセッサ24によって制御可能であるカメラであり得る。また、AVD12に含まれるのは、Bluetooth(登録商標)及び/または近距離無線通信(NFC)技術を各々使用して、他のデバイスと通信するためのBluetooth(登録商標)送受信機34及び他のNFC要素36であり得る。例示的なNFC素子は、無線自動識別(RFID)素子であり得る。
さらにまた、AVD12は、プロセッサ24に入力を提供する1つ以上の補助センサ38(例えば、加速度計、ジャイロスコープ、サイクロメータ等の運動センサ、または磁気センサ、赤外線(IR)センサ、光学センサ、速度センサ及び/またはケイデンスセンサ、ジェスチャセンサ(例えば、ジェスチャコマンドを検知するためのセンサ))を含み得る。AVD12は、プロセッサ24に入力を提供する無線(over-the-air(OTA))TV放送を受信するための無線テレビ放送ポート40を含み得る。上述に加えて、AVD12は、また、赤外線(IR)データアソシエーション(IRDA)デバイス等のIR伝送機及び/またはIR受信機及び/またはIR送受信機42も含み得ることに留意されたい。バッテリー(図示せず)は、AVD12に給電するために提供され得、運動エネルギーを電力に変換してバッテリーを充電し、及び/またはAVD12に給電し得る運動エネルギーハーベスターであり得る。グラフィックスプロセッシングユニット(GPU)44及びフィールドプログラマブルゲートアレイ46も含み得る。
さらに図1を参照すると、AVD12に加えて、システム10は、1つ以上の他のCEデバイスタイプを含み得る。一例では、第1のCEデバイス48は、AVD12に直接送信されたコマンドを介して及び/または後述のサーバーを経由して、コンピューターゲームの音声及びビデオをAVD12に送信するために使用できるコンピューターゲーム機であり得る一方、第2のCEデバイス50は第1のCEデバイス48と同様のコンポーネントを含み得る。示される例では、第2のCEデバイス50は、プレイヤーによってマニピュレートされたコンピューターゲームコントローラー、またはプレイヤーによって装着されたヘッドマウントディスプレイ(HMD)として構成され得る。示される例では、2つのCEデバイスだけが示され、より少ない数またはより多い数のデバイスが使用され得ることを理解されたい。本明細書のデバイスは、AVD12用に示されるコンポーネントの一部または全てを実装し得る。次の図に示されるコンポーネントのいずれかは、AVD12の場合に示されるコンポーネントの一部または全てを組み込み得る。
ここで、上述の少なくとも1つのサーバー52を参照すると、サーバー52は、少なくとも1つのサーバープロセッサ54と、ディスクベースストレージまたはソリッドステートストレージ等の少なくとも1つの有形コンピューター可読記憶媒体56と、サーバープロセッサ54の制御の下、ネットワーク22を通じて図1の他のデバイスとの通信を可能にし、実際に、本原理に従ってサーバーとクライアントデバイスとの間の通信を容易にし得る少なくとも1つのネットワークインターフェース58とを含む。ネットワークインターフェース58は、例えば、有線もしくは無線のモデムもしくはルータ、Wi-Fi(登録商標)送受信機、または、例えば、無線テレフォニ送受信機等の他の適切なインターフェースであり得ることに留意されたい。
したがって、いくつかの実施形態では、サーバー52は、インターネットサーバーまたはサーバー「ファーム」全体であり得、「クラウド」機能を含み得、「クラウド」機能を行い得、それにより、システム10のデバイスは、例えば、ネットワークゲーミングアプリケーションに関する例示的な実施形態ではサーバー52を介して「クラウド」環境にアクセスし得る。または、サーバー52は、1つ以上のゲーム機、または図1に示される他のデバイスと同じ部屋もしくはその近くにある他のコンピューターによって実装され得る。
以下の図に示されるコンポーネントは、図1に示されるコンポーネントの一部または全てを含み得る。
図2は、ゲームのプレイ中にコンピューターゲーム等のコンピューターシミュレーションを制御するために本原理に従って使用され得るゲームコントローラーの非限定的な例を示し、ゲームに関連付けられたゲームのビデオ(及びオーディオ/触覚等)は、ディスプレイ14等のディスプレイに示され(触覚の場合、例えばコントローラーを使用して触覚検出のために生成され)、また再生のために記録され、例えばコンピューターメモリ28は図1に示される、及び/またはサーバーメモリ56は図1に示される。
ゲームコントローラーは、ディスプレイ14に提示されたコンピューターゲームを制御するために、コンピューターシミュレーションのソースと通信する上述したコンポーネント(コンピューターゲーム機として組み込まれたCEデバイス48及び/またはサーバー52等)のうちの1つ以上を組み込むことができると理解されたい。
図2は、円形のほぼ円筒形状の左右のハンドル202,204を伴う軽量なハンドヘルド筐体を含むコントローラー200を示し、各ハンドルは上面を規定しており、上面には4つの操作可能なキーが配置されている。例えば4つの方向キー206は、左側のハンドル202の上部に十字形パターンに並んでいる。キー206を使用して、ディスプレイの各々の方向にオブジェクトを移動させることができる。
左ハンドル202のすぐ前方に、追加のL1及びL2キー208が提供され得る。ブリッジはハンドル202、204を接続し、セレクトキー210は、スタートキー212とともにブリッジ上に配置され得る。
右ハンドル204の4つのキーは、三角形キー214、正方形キー216、及び「O」キー218、及び「X」キー220を含み得、各キーは、ゲーム設計者の要望に従って各々の機能を担い得る。右ハンドル204のすぐ前方に、追加のR1及びR2キー222が提供され得る。
また、ハンドル202とハンドル204との間に、左ハンドル202のすぐ内側に左ジョイスティック224が提供され得る。左ジョイスティック224は押し下げ可能な上部226を含み得る。同様に、右ジョイスティック228は右ハンドル204のすぐ内側に提供され得る。右ジョイスティック228は押し下げ可能な上部230を含み得る。
図3はデバイス300を示し、デバイス300は、コンピューターシミュレーション(コンピューターゲーム等)のビデオを記録し、必要に応じて、そのビデオに関連付けられたオーディオ及び触覚を記録する。デバイス300は、例えば、ビデオを生成するためにゲームがプレイされるデバイス、コンピューターゲーム機、プレイヤーから離れたコンピューターゲームサーバー、またはそれらの組み合わせによって実装され得る。
記録されたコンピューターシミュレーション(コンピューターゲーム等)は、記録されたコンピューターゲームのソース302に提供される。ソース302は、記録されたビデオ(必要に応じて、記録されたオーディオ及びゲームの他の感覚的出力、本明細書ではオーディオビデオと呼ぶ)を、観客/学習者コンピューターデバイス304に提供する。
記録中にゲームを制御するために入力されたコンピューターゲームコントローラーの操作を記録することなく、コンピューターゲームAVを記録し得るため、機械学習(ML)エンジン306は、記録されたゲームAVとともに観客/コンピューター304にインジケーションを提示するために、コントローラー操作をコンピューターゲームオーディオビデオから再現するために、本明細書の原理に従った実行のために提供される。MLモデル306は、少なくとも1つの長短期記憶(LSTM)ネットワーク等の少なくとも1つのリカレントニューラルネットワーク(RNN)を含み得る。また、畳み込みニューラルネットワーク(CNN)も使用し得る。MLモデル306は、観客/学習者コンピューター304、記録されたゲームソース302(リモートサーバーまたはローカルゲーム機等)におけるプロセッサ等、本明細書で開示されるプロセッサのいずれかまたはそれらの組み合わせによって実行され得る。いくつかの実施形態では、要素300、302、及び304は同一のデバイスによって実装され得る。例えば、ユーザーは、同じコンソール上でより早くプレイしていた異なるユーザーのゲーム記録から学習しようとし得る。
図4は、図3のMLモデル306をトレーニングするためのロジックを示す。ブロック400において、データのトレーニングセットはMLモデルに入力される。訓練セットは、コンピューターゲーム等の典型的に複数のコンピューターシミュレーションに関連付けられたビデオ及び/またはオーディオを含み得る。
より高い特異性により、トレーニングセットは、複数の記録されたコンピューターシミュレーションからのビデオフレームのシーケンス、及び/または必要に応じて、ビデオに関連付けられたオーディオを含み得る。さらに、トレーニングセットは、ビデオフレームのシーケンスの発生中に実行されたコンピューターシミュレーションコントローラー(CSC)操作に関するビデオフレームのシーケンスに関連付けられたグラウンドトゥルース情報を含む。CSC操作は、例えば、図2の例に示される制御のうちの任意の1つ以上のマニピュレーションから生じ得る。トレーニングセットから、及び適切な学習技術(例えば、教師あり、教師なし、半教師あり等)を使用して、ブロック402において、MLモデル306はビデオフレームシーケンスからCSC操作を学習する。
図5は、MLモデルをトレーニングするために使用されるトレーニングセットにおけるビデオフレーム502のシーケンス500を示す。メタデータ504は、必要に応じて、フレームごとにシーケンス500に関連付けられ、トレーニングシーケンスの記録中にどのコントローラー操作が発生したかと、そのコントローラー操作がいつ発生したかとを示す。いくつかの実施形態では、メタデータはフレーム毎である必要はないことに留意されたい。メタデータは、CSC操作が以前のフレームと比較して変化していた場合にのみ更新され得る。また、CSC操作は、ビデオデータ及びCSCデータを同期させるために使用できたタイムスタンプとともに、完全に別個のファイルに記憶できる。メタデータ504は、例えば図2に示されるコントローラー等のコントローラーにおいて、どのような特定の制御面がマニピュレートされたのかのインジケーションと、これらの制御面が記録されたシーケンス500の生成中にいつマニピュレートされたかのインジケーションとを含み得る。
トレーニングセットは様々な方法で作成され得る。ボタンマニピュレーションのグラウンドトゥルースはゲームプレイ中に集められ、トレーニングセットの一部として使用するために、時間整合して生成されたビデオに関連付けられ得る。トレーニングセットは、また、予め記録されたゲームビデオも含み得、これらのゲームビデオは、それらの上にコントローラーオーバーレイを有し、コントローラーオーバーレイは、オリジナルのゲームがプレイされ、ビデオとともに提示されたときに生成される。オーバーレイにおけるコントローラー操作データは、典型的にビデオ上に提示されるため、既にビデオと時間整合している。各フレームのビデオの画素値をチェックして、ラベリングデータを生成するためにオーバーレイで示されたように、どのボタンが押されたかを確認し得る。これにより、各フレームがタイムスタンプに関連付けられ得るので、タイミングデータも与えられる。オーバーレイ機能は、トレーニングセットビデオが生成されるときの初期再生時にオンにできる。
グラウンドトゥルースのコントローラー操作は、コントローラーの制御下でゲームビデオを記録するデバイスにコントローラーからストリーミングされ得、これによって、トレーニングセットの要素を確立するために、グラウンドトゥルースのコントローラー操作をビデオに関連付ける。
トレーニングに続いて、MLモデルは、第1の記録されたコンピューターシミュレーションの生成中に実行されたCSC操作に関する情報を含まないビデオフレームのシーケンス600(図6では、分かり易くするために、オプションのオーディオを示していない)を伴う第1の記録されたコンピューターシミュレーションを受信するために使用され得る。ビデオフレームのシーケンスがどのように推移するかに応じて、MLモデルは図5のトレーニングに基づき、第1の記録されたシミュレーションの生成中にどのCSC操作が行われたかと、CSC操作がいつ行われたかとを識別する。例えば、図6に示されるシーケンス1と、潜在的なシーケンス2Aとの間で、CSCコントローラー操作が発生していない場合がある。一方、シーケンス1と潜在的なシーケンス2B(潜在的なシーケンス2Aとは異なるシーケンス)との間では、シーケンス全体をシーケンス1‐シーケンス2Aからシーケンス1‐シーケンス2BにずらすようにCSC操作を行い得、そのようなCSC操作の識別602はMLモデルによって行われる。
図7は、例示的なフローチャートフォーマットで上述した原理を示す。図7のロジックは、観客/学習者AVディスプレイ304、及び/または生成されたコンピューターシミュレーションのソース300、及び/または記録されたコンピューターシミュレーションのソース302に組み込まれたプロセッサのうちの任意の1つ以上によって実行され得、それらのいずれか一方または両方は、コンピューターシミュレーションコンソール、またはインターネット等の広域コンピューターネットワークを通じてAVディスプレイと通信するサーバーとしてインスタンス化され得る。
下記に加えて、MLモデルがCSC操作を識別するのに必要な時間を短くするために、前処理及びダウンスケーリングに対してブロックが提供され得、同様に、サポートされていないCSC操作をフィルタリングし、レイテンシを調整するために後処理及び同期に対してブロックが提供され得ることを理解されたい。
ステップ700から開始して、ビデオフレームのシーケンス及び/または付随するオーディオサウンドトラックを含む、記録されたコンピューターゲーム等の記録されたコンピューターシミュレーションを受信する。典型的に、記録されたシミュレーションは、記録されたコンピューターシミュレーションの生成中のコンピューターシミュレーションコントローラーの操作に関する情報を含まない。フレームのシーケンスは、例えば、インターネットプラットフォームからのゲームビデオのスニペットであり得る。
ブロック702に進むと、記録されたコンピューターシミュレーション、例えば、記録されたシミュレーションにおけるビデオフレームのシーケンスは、図4を参照して開示されるようにトレーニングされた、図3におけるMLモデル306によって処理される。MLモデルはコンピューターシミュレーションコントローラー(CSC)操作のインジケーションを識別し、出力し、そして、CSC操作は、受信され、記録されたコンピューターシミュレーションに関連付けられたトレーニングに従って記録されたコンピューターシミュレーションの生成に関連付けられる。MLモデルによって識別されたCSC操作は、例えば、図2の例では、どの制御要素がマニピュレートされたかと、いつマニピュレートされたかとを含み得る。
ブロック704に進むと、記録されたコンピューターシミュレーションは、MLモデルから受信されたCSC操作の少なくとも1つのインジケーションとともに、図3の観客/学習者コンピューター304等の少なくとも1つのオーディオビデオ(AV)ディスプレイに提示される。
図8には以下のことが示される。記録されたビデオゲーム800は、図1に示されるディスプレイ14等のディスプレイに提示され得る。図中、ゲーム800は、飛行物体806において武器804を射撃するキャラクタ802を含む。ライン808は、オブジェクト806がヒットしたことを示す。
どのCSC操作が発生したか(「赤キーが押された」)と、CSC操作がゲーム中にいつ発生したかとを示すインジケーション810がディスプレイに提示され、例では「今」で示され、爆発に繋がった過去のCSC操作、及び操作時間を示し、また探索のために今後のCSC操作も示し得ることを理解されたい。インジケーション810は、示されるように視覚的に提示され得る、及び/またはディスプレイに関連付けられたスピーカーで聴覚的に提示され得る。このように、記録されたコンピューターシミュレーションは、記録されたコンピューターシミュレーションの生成中に実行されたCSC操作に関するMLモデルから受信された情報とともに提示される。
上述のロジックは、コンピューターゲームコントローラーまたは他の機能を伴うプラグインとして提供されることによって、ゲーマーがゲームビデオをダウンロードし、ビデオを生成したコントローラー操作のシーケンスに関する情報を取得することを可能にし得る。
いくつかの例示的な実施形態を参照して本原理を説明してきたが、これらは限定することを意図していないことと、様々な代替の配置を使用して、本明細書で特許請求される主題を実施し得ることとが認識される。

Claims (20)

  1. 一時的信号ではなく、
    ビデオフレームのシーケンスを含む記録されたコンピューターシミュレーションを受信することと、
    機械学習(ML)モデルにおいてビデオフレームの前記シーケンスを処理することと、
    前記MLモデルから、前記記録されたコンピューターシミュレーションを生成することに関連付けられた少なくともいくつかのコンピューターシミュレーションコントローラー(CSC)操作の識別を受信することと、
    前記MLモデルから受信された前記CSC操作のうちの少なくとも1つの少なくとも1つのインジケーションとともに、前記記録されたコンピューターシミュレーションを少なくとも1つのオーディオビデオ(AV)ディスプレイに提示することと、
    のために、少なくとも1つのプロセッサによって実行可能な命令を含む少なくとも1つのコンピューターメモリ、
    を備える、デバイス。
  2. 前記MLモデルは、少なくとも1つのリカレントニューラルネットワーク(RNN)を含む、請求項1に記載のデバイス。
  3. 前記RNNは、少なくとも1つの長短期記憶(LSTM)ネットワークを含む、請求項2に記載のデバイス。
  4. 前記MLモデルは、少なくとも1つの畳み込みニューラルネットワーク(CNN)を含む、請求項1に記載のデバイス。
  5. 前記少なくとも1つのプロセッサを含み、
    前記少なくとも1つのプロセッサは前記AVディスプレイに組み込まれている、請求項1に記載のデバイス。
  6. 前記少なくとも1つのプロセッサを含み、
    前記少なくとも1つのプロセッサは前記コンピューターシミュレーションのソースに組み込まれている、請求項1に記載のデバイス。
  7. 前記ソースは、少なくとも1つのコンピューターシミュレーションコンソールを含む、請求項6に記載のデバイス。
  8. 前記ソースは、ワイドエリアコンピューターネットワークを通じて前記AVディスプレイと通信する少なくとも1つのサーバーを含む、請求項6に記載のデバイス。
  9. 少なくとも1つのコンピューターシミュレーションコントローラーの制御下で生成された、少なくとも1つの記録されたコンピューターシミュレーションの少なくともビデオを提示するように構成され、かつ前記少なくとも1つの記録されたコンピューターシミュレーションの前記ビデオの生成中の前記コンピューターシミュレーションコントローラーの操作に関する情報を含まない、少なくとも1つのディスプレイと、
    命令を伴って構成された少なくとも1つのプロセッサと、を備え、
    前記命令は、
    前記少なくとも1つの記録されたコンピューターシミュレーションの前記ビデオの生成中に、前記ビデオから、前記コンピューターシミュレーションコントローラーの操作に関する情報を識別することと、
    前記少なくとも1つの記録されたコンピューターシミュレーションの前記ビデオを提示することとともに前記情報を提示するために、前記少なくとも1つの記録されたコンピューターシミュレーションの前記ビデオの生成中の前記コンピューターシミュレーションコントローラーの操作に関する前記情報を、前記少なくとも1つのディスプレイに提示することと、
    のためのものである、装置。
  10. 前記プロセッサは、前記ディスプレイに組み込まれている、請求項9に記載の装置。
  11. 前記プロセッサは、コンピューターシミュレーションコンソールに組み込まれている、請求項9に記載の装置。
  12. 前記プロセッサは、ワイドエリアネットワークを通じて前記ディスプレイと通信するサーバーに組み込まれている、請求項9に記載の装置。
  13. 前記命令は、
    少なくとも1つの機械学習(ML)モデルを使用して、前記少なくとも1つの記録されたコンピューターシミュレーションの前記ビデオの生成中に、前記ビデオから、前記コンピューターシミュレーションコントローラーの操作に関する情報を識別することを行うために実行可能である、請求項9に記載の装置。
  14. 前記MLモデルは、少なくとも1つのリカレントニューラルネットワーク(RNN)を含む、請求項13に記載の装置。
  15. 前記RNNは、少なくとも1つの長短期記憶(LSTM)ネットワークを含む、請求項14に記載の装置。
  16. 少なくとも1つの機械学習(ML)モデルに、少なくともトレーニングセットを入力することであって、前記トレーニングセットは、複数の記録されたコンピューターシミュレーションからのビデオフレームのシーケンスと、前記ビデオフレームのシーケンスの生成中に実行されたコンピューターシミュレーションコントローラー(CSC)操作に関する前記ビデオフレームのシーケンスに関連付けられた情報とを含む、前記入力することと、
    前記MLモデルに、第1の記録されたコンピューターシミュレーションの生成中に実行されたCSC操作に関する情報を含まない少なくとも前記第1の記録されたコンピューターシミュレーションを入力することと、
    前記MLモデルから受信された前記第1の記録されたコンピューターシミュレーションの生成中に実行されたCSC操作に関する情報とともに、前記第1の記録されたコンピューターシミュレーションを提示することと、
    を含む、方法。
  17. 前記MLモデルから受信された前記第1の記録されたコンピューターシミュレーションの生成中に実行された前記CSC操作に関する情報を、前記第1の記録されたコンピューターシミュレーションを視覚的に提示することとともに、聴覚的に提示することを含む、請求項16に記載の方法。
  18. 前記MLモデルから受信された前記第1の記録されたコンピューターシミュレーションの生成中に実行された前記CSC操作に関する情報を、前記第1の記録されたコンピューターシミュレーションを視覚的に提示することとともに、視覚的に提示することを含む、請求項16に記載の方法。
  19. 前記第1の記録されたコンピューターシミュレーションを提示するディスプレイに前記第1の記録されたコンピューターシミュレーションを提供するサーバーにおいて、前記第1の記録されたコンピューターシミュレーションを、前記第1の記録されたコンピューターシミュレーションの生成中に実行されたCSC操作に関する情報と関連付けることを含む、請求項16に記載の方法。
  20. 前記第1の記録されたコンピューターシミュレーションを提示するディスプレイに前記第1の記録されたコンピューターシミュレーションを提供するローカルソースにおいて、前記第1の記録されたコンピューターシミュレーションを、前記第1の記録されたコンピューターシミュレーションの生成中に実行されたCSC操作に関する情報と関連付けることを含む、請求項16に記載の方法。
JP2023566928A 2021-05-04 2022-04-29 機械学習を使用するビデオフレームからのコントローラーアクション認識 Pending JP2024519577A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/307,971 US20220355211A1 (en) 2021-05-04 2021-05-04 Controller action recognition from video frames using machine learning
US17/307,971 2021-05-04
PCT/US2022/026947 WO2022235505A1 (en) 2021-05-04 2022-04-29 Controller action recognition from video frames using machine learning

Publications (1)

Publication Number Publication Date
JP2024519577A true JP2024519577A (ja) 2024-05-17

Family

ID=83901093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023566928A Pending JP2024519577A (ja) 2021-05-04 2022-04-29 機械学習を使用するビデオフレームからのコントローラーアクション認識

Country Status (5)

Country Link
US (1) US20220355211A1 (ja)
EP (1) EP4334907A1 (ja)
JP (1) JP2024519577A (ja)
CN (1) CN117242498A (ja)
WO (1) WO2022235505A1 (ja)

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5274801A (en) * 1988-04-29 1993-12-28 International Business Machines Corp. Artifical intelligence delivery system
US5558339A (en) * 1994-05-05 1996-09-24 Perlman; Stephen G. Network architecture to support recording and playback of real-time video games
US5659477A (en) * 1994-12-28 1997-08-19 Collins; Charles Michael Self reproducing fundamental fabricating machines (F-Units)
US7632186B2 (en) * 2005-11-21 2009-12-15 Microsoft Corporation Spectator mode for a game
GB2463121A (en) * 2008-09-09 2010-03-10 Skype Ltd Communications system with game playing facility
US20150231498A1 (en) * 2014-02-17 2015-08-20 DingMedia, Ltd. Universal controller interpreter
EP3192012A4 (en) * 2014-09-12 2018-01-17 Microsoft Technology Licensing, LLC Learning student dnn via output distribution
US20170011554A1 (en) * 2015-07-01 2017-01-12 Survios, Inc. Systems and methods for dynamic spectating
KR102462671B1 (ko) * 2015-10-28 2022-11-04 삼성전자 주식회사 디스플레이 장치 및 디스플레이 장치의 화면 표시 제어 방법
US10390082B2 (en) * 2016-04-01 2019-08-20 Oath Inc. Computerized system and method for automatically detecting and rendering highlights from streaming videos
US10888788B2 (en) * 2016-06-30 2021-01-12 Sony Interactive Entertainment Inc. Automated artificial intelligence (AI) control mode for playing specific tasks during gaming applications
US10306180B2 (en) * 2016-10-21 2019-05-28 Liquidsky Software, Inc. Predictive virtual reality content streaming techniques
US9968856B1 (en) * 2016-11-15 2018-05-15 Genvid Technologies, Inc. Systems and methods of video game streaming with interactive overlay and additional data
US10839215B2 (en) * 2018-05-21 2020-11-17 Electronic Arts Inc. Artificial intelligence for emulating human playstyles
US10713543B1 (en) * 2018-06-13 2020-07-14 Electronic Arts Inc. Enhanced training of machine learning systems based on automatically generated realistic gameplay information
US10569174B1 (en) * 2018-09-27 2020-02-25 Microsoft Licensing Technology, LLC Implementing a graphical overlay for a streaming game based on current game scenario
US10576380B1 (en) * 2018-11-05 2020-03-03 Sony Interactive Entertainment LLC Artificial intelligence (AI) model training using cloud gaming network
US11376500B2 (en) * 2019-02-27 2022-07-05 Nvidia Corporation Gamer training using neural networks
US11554322B2 (en) * 2019-04-26 2023-01-17 Sony Interactive Entertainment LLC Game controller with touchpad input
US11183219B2 (en) * 2019-05-01 2021-11-23 Sony Interactive Entertainment Inc. Movies with user defined alternate endings
CN110119815B (zh) * 2019-05-21 2021-08-13 深圳市腾讯网域计算机网络有限公司 模型训练方法、装置、存储介质及设备
US10940393B2 (en) * 2019-07-02 2021-03-09 Electronic Arts Inc. Customized models for imitating player gameplay in a video game
US11110353B2 (en) * 2019-07-10 2021-09-07 Electronic Arts Inc. Distributed training for machine learning of AI controlled virtual entities on video game clients
US11475249B2 (en) * 2020-04-30 2022-10-18 Electronic Arts Inc. Extending knowledge data in machine vision

Also Published As

Publication number Publication date
CN117242498A (zh) 2023-12-15
WO2022235505A1 (en) 2022-11-10
EP4334907A1 (en) 2024-03-13
US20220355211A1 (en) 2022-11-10

Similar Documents

Publication Publication Date Title
JP7503122B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
EP3746200A1 (en) Social media connection for a robot
KR20240034890A (ko) 게임 플랫폼 간 디지털 자산 전송 및 사용을 위한 nft 프레임워크
JP2023510920A (ja) Aiを使用した新規プレーヤ向けの自動武器選択
JP2023540535A (ja) テキストと音声を用いたフェイシャルアクションユニットの自動生成によるフェイシャルアニメーション制御
US20220355211A1 (en) Controller action recognition from video frames using machine learning
US20220254082A1 (en) Method of character animation based on extraction of triggers from an av stream
US20240001239A1 (en) Use of machine learning to transform screen renders from the player viewpoint
US20240100417A1 (en) Outputting braille or subtitles using computer game controller
US20240115933A1 (en) Group control of computer game using aggregated area of gaze
US11771993B2 (en) Changing response window for interactive content using user's reaction time
US11980807B2 (en) Adaptive rendering of game to capabilities of device
JP7462069B2 (ja) 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択
US20240115937A1 (en) Haptic asset generation for eccentric rotating mass (erm) from low frequency audio content
US11972060B2 (en) Gesture training for skill adaptation and accessibility
US20240104807A1 (en) Customized digital humans and pets for metaverse
US20240161759A1 (en) Utilizing inaudible ultrasonic frequencies to embed additional audio asset channels within existing audio channels
US20240121569A1 (en) Altering audio and/or providing non-audio cues according to listener's audio depth perception
US20230082732A1 (en) Using data from a game metadata system to create actionable in-game decisions
US20240119921A1 (en) Gradual noise canceling in computer game
US20240198230A1 (en) Reconstruction of occluded regions of a face using machine learning
JP2023550773A (ja) 画像ベースの指の追跡とコントローラの追跡
CN117769823A (zh) 使用在多个平台上跟踪印象的nft进行游戏内资产跟踪

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231030