JP2022548331A - 人工知能(ai)制御のカメラパースペクティブジェネレータ及びaiブロードキャスタ - Google Patents
人工知能(ai)制御のカメラパースペクティブジェネレータ及びaiブロードキャスタ Download PDFInfo
- Publication number
- JP2022548331A JP2022548331A JP2022518936A JP2022518936A JP2022548331A JP 2022548331 A JP2022548331 A JP 2022548331A JP 2022518936 A JP2022518936 A JP 2022518936A JP 2022518936 A JP2022518936 A JP 2022518936A JP 2022548331 A JP2022548331 A JP 2022548331A
- Authority
- JP
- Japan
- Prior art keywords
- game
- interest
- narration
- audience
- spectator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013473 artificial intelligence Methods 0.000 title claims description 325
- 238000000034 method Methods 0.000 claims abstract description 64
- 230000009471 action Effects 0.000 claims description 68
- 238000012549 training Methods 0.000 claims description 50
- 238000004891 communication Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000009877 rendering Methods 0.000 description 43
- 238000012545 processing Methods 0.000 description 28
- 238000013135 deep learning Methods 0.000 description 27
- 238000013528 artificial neural network Methods 0.000 description 23
- 238000001914 filtration Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000002787 reinforcement Effects 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 230000008030 elimination Effects 0.000 description 6
- 238000003379 elimination reaction Methods 0.000 description 6
- 230000002349 favourable effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 241000699670 Mus sp. Species 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000008093 supporting effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241001282135 Poromitra oscitans Species 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 206010048232 Yawning Diseases 0.000 description 1
- 238000001994 activation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5258—Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4781—Games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
- A63F13/355—Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5252—Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
- A63F13/86—Watching games played by other players
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/58—Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Acoustics & Sound (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
例えば、これらのストリームの観客は、解説が含まれていないゲームセッションを見るのに飽きたり、解説が提供されていないストリームを避けたりする場合がある。加えて、これらのストリームの観客は、プレイヤが自分のゲームプレイにのみ焦点を合わせているため、ゲームセッションのプレイヤによって提供される実行中の解説に飽きる可能性もある。観客は、ゲームセッションの他のプレイヤについて聞きたい、またはコメントしているプレイヤが気付いていないゲームセッションに関する他の洞察を聞きたいと思うかもしれない。
例えば、観客は、スポーツの生中継またはゲームイベントのプロのブロードキャスタによって提供されるものなど、ゲームセッションの背景情報を望む場合がある。または、観客は、他のプレイヤのゲームプレイを示すシーンと、そのシーンに対応する興味深いファクトを併せて見たいと思うかもしれない。基本的に、観客は、通常のゲーマーのゲームセッションのストリーミングのためにプロの人間のブロードキャスタを望んでいるが、これはロジスティック及び経済的に非現実的である。
本コンピュータ可読媒体は、ゲーム状態データとユーザデータに基づいて1人または複数の観客が興味を持つ可能性が高いゲーム状態データとユーザデータを分離するようにトレーニングされた第1のAIモデルを使用して、ゲームセッションの統計及びファクトを生成するためのプログラム命令を含む。本コンピュータ可読媒体は、第1のAIモデルを使用して生成された統計及びファクトから統計及びファクトを選択するように構成された第2のAIモデルを使用して、観客関心ゾーンのシーンのナレーションを生成するためのプログラム命令を含み、選択された統計及びファクトには、第2のAIモデルによって決定される最高の潜在的な観客の関心があり、第2のAIモデルは、選択された統計及びファクトを使用してナレーションを生成するように構成されている。
本方法は、ゲームセッションにおいて観客関心ゾーンを識別することを含み、観客関心ゾーンは、仮想ゲーム世界の1つまたは複数のカメラパースペクティブから見ることができるビデオゲームの仮想ゲーム世界のシーンを有する。本方法は、ゲーム状態データとユーザデータに基づいて1人または複数の観客が興味を持つ可能性が高いゲーム状態データとユーザデータを分離するようにトレーニングされた第1のAIモデルを使用して、ゲームセッションの統計及びファクトを生成することを含む。
本方法は、第1のAIモデルを使用して生成された統計及びファクトから統計及びファクトを選択するように構成された第2のAIモデルを使用して、観客関心ゾーンのシーンのナレーションを生成することを含み、選択された統計及びファクトには、第2のAIモデルによって決定される最高の潜在的な観客の関心があり、第2のAIモデルは、選択された統計及びファクトを使用してナレーションを生成するように構成されている。
AIは、ストリームにアクションのリプレイを含めることができるため、観客は異なる視点からエキサイティングなアクションを再び見ることができ、ゲームのライブカメラビューでは発生しなかったアクションを見ることができる。AIはカメラアングルを選択して、狙撃兵と狙撃兵が狙っているターゲットの両方を示すアングルなど、疑わしいアクションの全体ビューを含めることができる。AIは、それが生成するゲームストリームに解説を追加できる。いくつかの実施形態では、AI解説は、説得力のある個性を有する。解説は、AIが選択したビューが重要であるとAIが考えた理由を観客に伝えることができる。
例えば、AIが新しいプレイヤが経験豊富なプレイヤをキルする位置にあることに気付いた場合、AIはそのファクトを指摘し、新しいプレイヤが実際に状況を利用してより経験豊富なプレイヤをキルすることができるかどうかを観客に見せることができる。いくつかの実施態様では、解説を提供するAIボイスオーバーにより、eスポーツゲームのアクションを説明できるため、視覚障害のある観客にとって理解可能でエキサイティングなものになる。いくつかの実施形態では、解説を提供するAIは、複数の場所の視聴者にローカライズされた(すなわち、地方及び/または地域の慣習を考慮した)解説を含むストリームを生成し、異なる言語(手話を含む)の解説を含み得る。いくつかの実施形態では、ハイライトカバレッジは、ハイライトリールの生成においてなど、ゲームが終了した後に利用可能である。
このようなカバレッジは、AIの選択に基づいて自動的に生成できる。そのようなカバレッジは、観客がライブゲームプレイを見ているときに見るか巻き戻すことを選択したかに基づくことができる。さらに他の実施形態では、ゲームのカバレッジは、プレイエリアのマップを見る能力を含み得る。このようなマップには、まだゲーム内に残っている全てのプレイヤの場所やプレイヤの排除の場所などのメタデータを含めることができる。マップビューでプレイヤの排除をハイライトすることができる1つの方法は、排除が行われた場所で真っ赤なドットを点滅させることによるものである。
いずれの場合も、クラウドゲームネットワークは、人工知能(AI)によってビデオゲームのシーンの1つまたは複数のレンダリングを生成し、AIによるシーンのナレーション及び/またはビデオゲームのシーンのレンダリングを生成するように構成されている。より具体的には、システム10のクラウドゲームネットワークは、識別されたカメラパースペクティブを通してキャプチャされたシーンの1つまたは複数のレンダリングを生成するために使用される1つまたは複数のAIモデルを構築するため、ならびにシーン及び/または識別されたカメラパースペクティブに対するナレーションを生成するために構成することができる。
例えば、マルチプレイヤモードで、ビデオゲームがローカルで実行されている間、同時にクラウドゲームネットワークは、各ローカルコンピューティングデバイスから情報(例えばゲーム状態データ)を受信し、その情報をローカルコンピューティングデバイスのうちの1つまたは複数にわたり適宜配布し、これにより、各ユーザは、マルチプレイヤビデオゲームのゲーム環境内で他のユーザとインタラクトすることができる(例えばビデオゲーム内の該当キャラクタを通して)。このようにして、クラウドゲームネットワークは、マルチプレイヤゲーム環境内のユーザそれぞれのゲームプレイを調整し、組み合わせる。
クライアントデバイス100はまた、前述のように、ビデオゲームをローカルで実行するように構成されたゲーム実行エンジン111を含み得る。クライアントデバイス100は、ゲームコントローラ6、タブレットコンピュータ11、キーボードなどの様々な種類の入力デバイスからの入力、及びビデオカメラ、マウス、タッチパッドなどにより取り込まれたジェスチャを、受信し得る。
クライアントデバイス100は、メモリとプロセッサモジュールとを少なくとも有する任意の種類のコンピューティングデバイスであり得るもので、ネットワーク150を介してゲームサーバ205に接続することができる。クライアントデバイス100のいくつかの例は、ビデオゲームのインスタンスを実行するためにゲームサーバ205とインタラクトすることが可能である、パーソナルコンピュータ(PC)、ゲームコンソール、ホームシアターデバイス、汎用コンピュータ、モバイルコンピューティングデバイス、タブレット、電話、またはいずれかの他のタイプのコンピューティングデバイスを含む。
このようにして、ゲームロジックは、ゲームエンジンによって提供されるコア機能を最初から構築する必要はない。クライアントのローカルまたはクラウドゲームサーバのいずれかで、ゲームエンジンと組み合わせたゲームロジックはCPU及びGPUによって実行され、CPU及びGPUは高速処理ユニット(APU)内で構成できる。すなわち、共有メモリとともにCPU及びGPUは、ゲームレンダリングされたビデオフレームを生成するためのレンダリングパイプラインとして構成され得るものであり、その結果レンダリングパイプラインは、ターゲットとなる、及び/または仮想化されたディスプレイの各ピクセルに対して対応する色情報を含む、表示に適したビデオまたは画像フレームとしてゲームレンダリングされた画像を出力する。
例えば、メタデータは、ゲームプロセッサ201へネットワーク150経由で出力され、配信される、クライアントデバイス100上のローカルゲーム実行エンジン111により生成され得る。加えて、メタデータは、ゲームプロセッサ201内でゲーム実行エンジン211により、例えば、エンジン211上で実行するビデオゲームのインスタンスにより、生成され得る。加えて、他の仮想マシンと関連するゲームサーバ205の他のゲームプロセッサは、他のユーザのゲームプレイと関連するビデオゲームのインスタンスを実行するように、またこれらのゲームプレイ中にメタデータを捕捉するように構成される。
ゲーム状態データは、そのポイントからビデオゲームを実行するために、実行コードのどの部分をロードする必要があるかを識別することもできる。全てのゲーム状態データを取り込んで保存する必要はなく、対応するポイントでゲームを開始するための実行可能コードに十分なデータだけでよい。ゲーム状態データは、データストア140のゲーム状態データベース145に格納することができる。いくつかの実施形態では、いくつかのゲーム状態データは、メモリにのみ格納され得る。
ゲーム状態データには、AIがプレイヤとの以前のインタラクションを記憶して、それらのインタラクションがAIによる将来の決定に影響を与えることができるようにするなど、AIによって行われた学習が含まれ得る。例として、都市のシーンでは、これらのAIキャラクタがランダムに通りを歩くことができる。加えて、他のオブジェクトを生成し、オーバーレイで提示することができる。例えば、背景における雲、及び空間を通り抜けて飛ぶ鳥をオーバーレイ内に生成し、提示することができる。ランダムシードデータはデータストア140のランダムシードデータベース143に格納される。
具体的には、カメラパースペクティブエンジン230は、AIカメラパースペクティブモデル321を実装して、対応するゲームセッションからシーンのレンダリングされたビューを生成するように構成され、レンダリングされたビューは、観客にとって高い関心がある可能性があると識別される1つまたは複数のカメラパースペクティブから生成される。また、ブロードキャスタ/ナレータエンジン220は、AIナレーションモデル331を実装して、シーン及び/またはそのシーンのカメラパースペクティブの解説及び/またはナレーションを生成するように構成され、解説は、テンプレートならびにそのシーンのゲームセッション中に収集されるメタデータに基づいて、AI統計/ファクトモデル341を使用して生成された統計及びファクトを使用して生成される。
したがって、AIモデルは、ビデオゲームのゲームセッションにおけるシーンのレンダリングされたビュー(例えば、カメラパースペクティブ)を生成し、シーン及び/またはシーンのカメラパースペクティブのナレーションを生成するように構成することができ、レンダリングされたビュー及び/またはナレーションは、ゲームセッション中またはゲームセッション後に観客にストリーミングされ得る。
例えば、関心ゾーンは熟練者をフォローしている場合や、初心者が熟練者をキルする機会があるダビデとゴリアテの状況を定義している場合、または熟練者が自分の照準に犠牲者を入れているシナリオを定義する場合などがある。また、深層学習エンジン190は、AIカメラパースペクティブモデル321をトレーニングするときに、識別された関心領域に対応するシーンのどのビューが観客にとって最大の関心があるかを学習するように構成され得る。ビューは、シーンを示すゲーム環境内で撮影された1つまたは複数のカメラアングルによって定義できる。
さらに、深層学習エンジン190は、識別された関心ゾーンに対応するシーンのナレーションを構築するときに、どの統計及びファクトが観客にとって関心があるかを学習するように構成され得るものであり、ナレーションは、単独で提供され得るか、または観客にストリーミングされたときに識別された関心ゾーンに対応するシーンのビューを補完するように提供され得る。このようにして、1人または複数の観客は、観客の最大の関心を生み出すために構築されたナレーションでサポートされる特定のゲームセッションの最もエキサイティングなシーンを見ることができ、ビューはライブゲームセッションのためにリアルタイムで提供することができ、または対応するゲームセッションのリプレイのために生成され得るものであり、リプレイは、ゲームセッション中、またはゲームセッションが終了した後にストリーミングされ得る。
学習及び/またはモデリングフェーズ中の深層学習エンジン190は、深層学習アルゴリズム、強化学習、またはその他の人工知能ベースのアルゴリズムを含む人工知能を利用して、トレーニングデータと成功基準を使用して1つまたは複数のトレーニングされたAIモデルを構築する(例えば、高い関心を生み出すなど)。トレーニングされたAIモデルは、観客にとって高い関心があるゲームセッションの対応するシーンの関心ゾーンを予測及び/または識別し、観客にとって高い関心があるシーンに対して生成できるビューとカメラパースペクティブを識別し、そして、識別された関心ゾーンに対応しかつ識別されたカメラパースペクティブに対応するシーンのナレーションを構築する際に使用するための統計及びファクトを識別または生成するように構成されている。
深層学習エンジン190は、任意の更新されたトレーニングデータが与えられると、トレーニングされたAIモデルを継続的に精緻化するように構成されてもよい。この精緻化は、トレーニングに使用できるトレーニングデータのセットを、それらのセットが、対応する成功基準に基づいて、深層学習エンジン190内でどのように機能するかに基づいて、決定することに基づいている。
したがって、教師ありまたは教師なしのトレーニングを用いたディープニューラルネットワーク、畳み込みディープニューラルネットワーク、及び/またはリカレントニューラルネットワークを実装することができる。別の例では、ニューラルネットワーク190は、(例えば、成功基準、成功メトリクスなどの使用による)強化学習、または報酬ベースの学習をサポートする深層学習ネットワークを含む。例えば、ニューラルネットワーク190は、強化学習アルゴリズムをサポートするマルコフ決定過程(MDP)としてセットアップされる。
これらの結果は、深層学習エンジン190によって使用されるパラメータを精緻化及び/または修正して、所与の入力のセットに対する適切な予測されるまたは予想される応答及び/またはアクションを反復的に判断するために、現在及び/または以前のゲームセッション、及び/またはトレーニングデータの収集のために使用される、所定の及び真の結果と、あるいは、それらのゲームセッションのブロードキャストから得られる、学習されたアクション及び結果(例えば、成功の結果を駆動する人間の入力)と、比較することができる。つまり、ニューラルネットワーク190内のノードは、パラメータを精緻化する際に、そのような判断を行うために使用することができるトレーニングされたAIモデル(例えば、AIカメラパースペクティブモデル321、AIナレーションモデル331、統計及びファクトモデル341など)のパラメータを学習する。
これらの予測結果に基づいて、ニューラルネットワーク190はまた、それらの結果及び/または入力のセット(ゲームセッションなど)が与えられた場合に実行されるアクション(例えば、予測された関心ゾーン、カメラパースペクティブ、及びナレーションを構築するために使用される統計及びファクト)を決定するために使用されるトレーニングされたAIモデルを定義し得る。そのため、AIモデルは、任意の入力データのセット(ゲームセッションなど)を与えられて、観客の最大の関心を生み出すために構築されたナレーションでサポートされる特定のゲームセッションの最もエキサイティングなシーンを生成するように構成されており、ビューはライブゲームセッションのためにリアルタイムで提供することができ、または対応するゲームセッションのリプレイのために生成され得るものであり、リプレイは、ゲームセッション中、またはゲームセッションが終了した後にストリーミングされ得る。
他の実施形態では、AIモデルを使用して、AIで識別された統計及びファクトを使用したナレーションを伴うシングルプレイヤまたはマルチプレイヤのゲームセッションのシーンのレンダリングされたビューを生成し、その後、1人または複数の観客にストリーミングする。一実施形態では、システム200は、図1Aのシステム10と連動して機能し、ゲームセッションのカメラパースペクティブを生成するように構成されたAIモデルをトレーニング及び/または実装し、観客が見る可能性が最も高いゲームセッションのシーンにナレーションを提供する。ここで図面を参照すると、同様の参照番号は、同一の部分または対応する部分を示す。
このようなものとして、複数の仮想マシンと関連するゲームサーバ205の複数のゲームプロセッサは、複数のユーザ115のゲームプレイと関連するゲームアプリケーションの複数のインスタンスを実行するように構成される。このようにして、バックエンドサーバサポートは、複数の対応するユーザ(例えば、プレイヤ、観客など)に、複数のビデオゲームのゲームプレイのメディア(例えば、ビデオ、オーディオなど)のストリーミングを提供する。
いくつかの実施形態では、クラウドゲームネットワークは、ホストマシンのハイパーバイザ上で動作する複数の仮想マシン(VM)を含むゲームクラウドシステム210であってもよく、1つまたは複数の仮想マシンが、ホストのハイパーバイザで利用可能なハードウェアリソースを利用して、ゲームプロセッサを実行するように構成されている。1人または複数のユーザは、クライアントデバイス100または100’を使用してビデオゲームのリモート処理のためにネットワーク150を介してゲームクラウドシステム210にアクセスすることができ、クライアントデバイス100’は、(例えば、ゲーム実行エンジン211を含む)計算機能を提供するバックエンドサーバとインタフェースするシンクライアントとして構成され得る。
例えば、ユーザ5Bは、対応するクライアントデバイス100’上で第2のビデオゲームをプレイしており、第2のビデオゲームのインスタンスは、クラウドゲームシステム200の対応するゲームタイトル実行エンジン211により実行される。第2のビデオゲームを実装するゲームロジック(例えば、実行可能コード)は、ゲームタイトル処理エンジン211と連携して実行され、第2のビデオゲームを実行する。ユーザ5Bは、レンダリングされた画像を表示するように構成された少なくともデバイス11にアクセスすることができる。
ゲーム状態データには、CPU、GPU、メモリの状態、レジスタ値、プログラムカウンタ値、プログラマブルDMA状態、DMA用のバッファデータ、オーディオチップ状態、CD-ROM状態など、ゲームプレイのレンダリングに使用されるあらゆるデバイスの状態が含まれることもある。ゲーム状態データは、そのポイントからビデオゲームを実行するために、実行コードのどの部分をロードする必要があるかを識別することもできる。ゲーム状態データは、図1Aのデータベース140に格納され得るものであり、状態共有モジュール117によりアクセス可能である。
具体的には、AIモデルは、観客にとって関心がある可能性のある1つまたは複数のゲームセッションで観客関心ゾーンを識別するために使用される。ビデオゲームのゲームセッションのシーンに対応する特定の識別された観客関心ゾーンについて、カメラパースペクティブエンジンは、AIカメラパースペクティブモデルを使用して、観客にとって関心のあるシーンの1つまたは複数のカメラパースペクティブを生成または識別する。
加えて、シーンに対応する特定の識別された観客関心ゾーンについて、ブロードキャスタ/ナレータエンジン220は、AIナレーションモデルを使用して、ゲーム状態データ及びシーンに対応するゲームセッションに関連する他の情報に基づいて統計及びファクトを識別及び/または生成する。生成された統計及びファクトは、解説テンプレートを使用して一緒に織り込まれ、単独でストリーミングしたり、シーンの1つまたは複数のカメラパースペクティブとともに1人または複数の観客にストリーミングしたりできる解説を生成する。
いくつかの実施形態では、ゲームの1つまたは複数のレンダリングは、AIトレーニングされたカメラパースペクティブモデル321を使用するなど、人工知能(AI)によって生成される。一実施形態において、AIカメラパースペクティブモデル321はカメラアングルを制御して、最も関心のあるアクションをキャプチャし、アングル間をカットして、単一のビューに収まらないアクションを組み込み、様々な視点からアクションを表示できる。AIカメラパースペクティブモデル321は、カメラアングルを選択して、狙撃兵と狙撃兵が狙っているターゲットの両方を示すアングルなど、疑わしいアクションの全体ビューを含めることができる。
別の実施形態では、AI関心ゾーンモデル311は、ゲーム及びプレイヤの関心の多くの側面を考慮に入れて、どのアクションが視聴者にとって最も関心があるかを決定できる。観客ごとに異なるストリームを生成できる。さらに別の実施形態では、AIナレーションモデル331は、それが生成するゲームストリームに解説を追加することができる。別の実施形態において、ハイライトエンジンは、ストリームにアクションのリプレイを含めることができるため、観客は異なる視点からエキサイティングなアクションを再び見ることができ、ゲームのライブカメラビューでは発生しなかったアクションを見ることができる。
例えば、プレイヤ1のゲーム空間301Aは、対応するビデオゲームのゲームセッションに関連付けられ、メタデータ302A及びプレイヤ統計303Aは、人工知能を使用して観客関心ゾーンモデル311をトレーニングするためのAI観客関心ゾーントレーナ310への入力として提供される。同様のデータが収集され、プレイヤ2のゲームスペース301BからプレイヤNのゲームスペース301Nまでの入力として提供される。したがって、入力のセット(例えば、1つまたは複数のゲームセッション)が与えられると、観客関心ゾーンモデル311は、1人または複数の観客にとって高い関心がある可能性のある1つまたは複数の識別された観客関心ゾーン312を出力するようにトレーニングされる。AI観客関心ゾーントレーナ310及び関心ゾーンモデル311のトレーニング及び実装のより詳細な説明が図3Bに提供されている。
新しく識別され生成されたカメラアングルは、次にリプレイにおいて表示できる。例えば、これは、関心のあるアクションにつながるイベントを表示するために実装されると(例えば、リプレイ中)、それらのイベントが最初は興味深くは思われなかった場合、つまり、それらのイベントが興味深いアクション(例えば、関心アクション)につながることが知られる前に発生した場合に役立つ。一般に、AIカメラパースペクティブトレーナ320は、関心ゾーンモデル311からの識別された観客関心ゾーン出力のための1つまたは複数のカメラパースペクティブを入力として受信するように構成される。
成功基準に基づいて、AIカメラパースペクティブトレーナは、カメラパースペクティブモデル321をトレーニングして、対応する選択及び/または識別された観客関心ゾーンの対応するシーンについて、少なくとも1つの識別されたビューまたはカメラパースペクティブ322を出力するように構成され、このカメラパースペクティブは、1人または複数の観客にとって高い関心があるものである。AIカメラパースペクティブトレーナ320及びカメラパースペクティブモデル321のトレーニング及び実装のより詳細な議論が図3Cに提供されている。
例えば、プレイヤ1のゲーム空間301Aは、対応するビデオゲームのゲームセッションに関連付けられ、メタデータ302A及びプレイヤ統計303Aは、人工知能を使用して観客関心ゾーンモデル311をトレーニングするためのAI観客関心ゾーントレーナ310への入力として提供される。さらに、プレイヤ2のゲーム空間301Bは、対応するビデオゲームのゲームセッションに関連付けられ、メタデータ302B及びプレイヤ統計303Bは、観客関心ゾーンモデル311をトレーニングするためのAI観客関心ゾーントレーナ310への入力として提供される。
追加の入力データが提供される。例えば、プレイヤNのゲーム空間301Nは、対応するビデオゲームのゲームセッションに関連付けられ、メタデータ302N及びプレイヤ統計303Nは、観客関心ゾーンモデル311をトレーニングするためのAI観客関心ゾーントレーナ310への入力として提供される。加えて、人間の入力は、熟練者の選択及び/または観客関心ゾーンの定義、カメラパースペクティブ、及び/またはナレーションに使用される統計及びファクトなどのトレーニングデータとして提供される場合がある。
ゲーム状態には、ビデオゲームのパーソナライズに使用されるデータなど、ユーザセーブデータも含まれ得る。例えば、ユーザセーブデータは、特定のユーザのキャラクタをパーソナライズできるため、ビデオゲームは、そのユーザに特有であり得るキャラクタ(例えば形状、外観、衣服、兵器類など)でレンダリングされる。ユーザセーブデータには、ユーザ定義のゲーム難易度、ゲームレベル、キャラクタ属性、キャラクタ位置、残存ライフ数、アセット情報などが含まれる。ユーザセーブデータには、ユーザプロファイルデータが含まれてもよい。
説明を容易にするために、フィードバックプロセスは、シングルプレイヤまたはマルチプレイヤのゲームセッションなどの1つのゲームセッションから提供されている入力のセットに関連して説明されている。加えて、ゲームセッションはライブであるか、すでに行われている可能性がある。このようにして、以前のゲームセッションに対応する履歴ゲームデータを使用して、関心ゾーンモデル311をトレーニングして、ゲームセッションにおけるアクションをフォローする方法をよりよく予測し、観客にとって関心があるものを選択することができる。
さらに別の例では、関心ゾーンは、特定の地理的エリア及び/またはゲーム世界の領域に到達すること、またはキャラクタがボスと交戦しようとしているところでボスレベルに到達するときなど、ビデオゲームのセクションまたはセグメントによって定義され得る。さらに別の例では、関心ゾーンは、キャラクタがビデオゲームで山をスケーリングしてターゲットに到達しようとしているときなど、特定の関心のあるアクションによって定義され得る。別の例では、関心ゾーンは、シャーデンフロイデクラスターによって定義される場合がある。これにより、1人または観客がプレイヤの没落を見るのを楽しむことができる。本開示の実施形態では、さらに他の定義がサポートされている。
別のケースでは、低レベルのプレイヤが熟練者(例えば、狙撃率が高い)の照準内にいる。別の例では、関心ゾーンは、プレイヤによって定義され得るものであり、1人または複数の観客の間で人気のあるプレイヤは、関心ゾーンで追跡され得る。さらに別の例では、プレイヤは、観客が見るように調整され得る狙撃シナリオをこのプレイヤが探していることを示す高い狙撃率を有するなど、観客が見るように強いる特定の特性を有し得る。関心ゾーンにはタイミング特性が含まれる場合があり、狙撃率が高いプレイヤは自分の照準内にターゲットを入れることができる。関心ゾーンは、地理的特性を含み得るもので、高い狙撃率を有するプレイヤは、ゲーム世界の特定のエリア内にあり得るもので、そのエリアは、標的が豊富であり得る。本開示の実施形態では、さらに他の定義がサポートされている。
さらに、対応する観客関心ゾーンを含むゲームセッションの部分の視聴中の能動的または受動的な観客アクション360Cは、観客に好都合な対応する関心ゾーンを定義するのに役立ち得る。例えば、受動的なアクションには、バイオフィードバック(例えば、発汗、笑顔など)が含まれ得る。別の例では、能動的なアクションには、ゲームセッションの視聴などに肯定的な関心を示すアイコンの選択が含まれ得る。観客は直接投票するか、表示するフィードまたはフォローするプレイヤを直接選択して間接的に投票できる。例えば、対応する観客関心ゾーンを含むゲームセッションの一部のリプレイが、どれほど人気があるかを示す観客のリプレイカウント360Dは、観客にとって好都合な対応する関心ゾーンの定義に役立ち得る。
観客がフォローすることを選択した関心ゾーンは、関心ゾーンがどれほど興味深いかを示す指標として使用できる。例えば、観客が特定のプレイヤをフォローしている関心ゾーンをフォローするように切り替えると、それは関心ゾーンが観客にとって関心があることを示す指標として使用できる。いくつかの場合では、観客は自分自身のカメラアングルを選択して表示することができる。
選択されたカメラアングルは、関心のあるアクションが発生している場所の指標として使用でき、これは、関心ゾーンまたは特定のカメラアングルを決定する際に使用できる。別の例では、対応する観客関心ゾーンを含むゲームセッションの一部のリプレイが、どれほど人気があるかを示すライブゲームセッションの観客のストリーミングビューカウント360Eは、観客にとって好都合な対応する関心ゾーンを定義するのに役立ち得る。本開示の実施形態では、観客のフィードバックを提供するさらに他の定義がサポートされている。
いくつかの場合では、観客は、ゲームプレイのブロードキャストがどの程度うまく行われていると思うかについてフィードバックを提供でき、これは、表示するアクションまたはリプレイの特定の選択、選択したカメラアングル、ナレーションに含まれる情報、ナレーションの言い回し、レンダリングされたナレータの外観、またはナレーションレンダリングの発話特性と関連付けることができる。観客のフィードバックをAIが集約して使用し、幅広い視聴者にアピールするブロードキャストを生成できる。特定の観客による観客のフィードバックをAIが使用して、その特定の観客が楽しむものにより適した、その観客専用のブロードキャストを生成できる。
いずれの場合も、熟練者は、トレーニングに使用されたときに、定義上、高い成功基準を有しているか、またはそれに変換される、好都合な関心ゾーンを能動的に選択及び/または定義することができる。いくつかの実装では、AIは、1つまたは複数の関心ゾーンのカメラアングルから複数のレンダリングを生成し、これは、ブロードキャストに含めるために選択できる選択肢として、人間の熟練者に提示される。人間の熟練者には、選択が利用可能な、人間が制御するカメラアングルからのレンダリングも提示され得る。いくつかの場合では、人間の熟練者がAIにフィードバックを提供して、AIによって提示されるレンダリングのカメラアングルに影響を与えて、ズームインやズームアウトまたはパンするなどして、異なるアングルを表示することができる。
例えば、図4は、本開示の一実施形態による、ゲームアプリケーションのゲームセッションのカメラパースペクティブ及び関心ゾーンを選択するように構成されたユーザインタフェース400であって、関心ゾーンAIモデル311によって観客にとって関心があると識別された1つまたは複数の観客関心ゾーン312と、それらの識別された観客関心ゾーン312に対する1つまたは複数の生成されたカメラパースペクティブ323とを含み、カメラパースペクティブはAIカメラパースペクティブモデル321を使用して観客にとって関心があるものとして識別されている、ユーザインタフェース400を示す。したがって、観客は、ゲームセッションの観客関心ゾーン(312-1、312-2、または312-3)を選択することができ、各関心ゾーンは、対応するゲーム世界の異なる部分に焦点を合わせることができる(例えば、ある関心ゾーンでプレイヤ1をフォローし、別の関心ゾーンでプレイヤ2をフォローするなど)。
関心ゾーンが選択されると、観客は対応するカメラパースペクティブを選択することができる。例えば、観客は、観客関心ゾーン312-1に対して、カメラパースペクティブ323-1A、323-1B、または323-1Cのうちの1つを選択できる。また、観客は、観客関心ゾーン312-2に対して、カメラパースペクティブ323-2A、323-2B、または323-2Cのうちの1つを選択することができる。さらに、観客は、観客関心ゾーン312-3に対して、カメラパースペクティブ323-3A、323-3B、または323-3Cのうちの1つを選択することができる。いくつかの実施態様では、観客はカメラパースペクティブを制御して、事前定義された選択肢として提示されなかったカスタムカメラパースペクティブを作成することができる。いくつかの場合では、別の観客は、その観客が制御するカスタムカメラパースペクティブを見ることもできる。
別の使用例では、熟練者は、ゲーム状態を使用して記録またはリプレイできるゲームセッションを視聴している場合がある。いずれの場合も、熟練者は、トレーニングに使用されたときに、定義上、高い成功基準を有しているか、またはそれに変換される、関心のある好都合なカメラパースペクティブを能動的に選択及び/または定義することができる。例えば、前述のユーザインタフェース400を使用して、人間の熟練者によって、対応する識別された関心ゾーンのための1つまたは複数のカメラパースペクティブを選択することができる。ユーザインタフェース400は、関心ゾーンAIモデル311によって観客にとって興味深いものとして識別された1つまたは複数の観客関心ゾーン312と、それらの識別された観客関心ゾーン312のための、AIカメラパースペクティブモデル321を使用して、観客にとって興味深いものとして識別される1つまたは複数の生成されたカメラパースペクティブ323とを含む。
例えば、ビューの複数のレンダリングは、AIカメラパースペクティブモデル321によって生成でき、これは、ゲーム世界内の固定カメラ位置、及び/または個々のプレイヤまたはチームをフォローする対応するパースペクティブを備えるカメラ位置、及び/またはアクションの様々な側面をフォローするためにAIによって制御される対応するパースペクティブを備えるカメラ位置であり得る。一例として、ゲーム世界内の識別されたカメラパースペクティブ322は、ゲームセッション中の敵の視点から取られ得る。これにより、観客は、見ているプレイヤが戦っている敵(別のプレイヤまたは生成されたゲーム)の視点からプレイヤを見ることができる。バブルBによって示されるように、そして図3Dにさらに説明されるように、追加のアクションが取られ得る。
すなわち、AIナレーションモデル331は、対応する選択された関心ゾーンのシーンに解説を追加することができ、シーンの解説及び/またはカメラパースペクティブは、1人または複数のユーザにストリーミングされ得る。このようにして、観客の最大の関心を生み出すために構築されたナレーションでサポートされる特定のゲームセッションの最もエキサイティングなシーンは1人または複数の観客にストリーミングすることができ、ビューはライブゲームセッションのためにリアルタイムで提供することができ、または対応するゲームセッションのリプレイのために生成され得るものであり、リプレイは、ゲームセッション中、またはゲームセッションが終了した後にストリーミングされ得る。
例えば、メタデータ302、プレイヤ統計303、及び以前にAI観客関心ゾーントレーナ310に提供された1つまたは複数のビデオゲームの1つまたは複数のゲームセッションからの他の情報もまた、AI統計及びファクトトレーナ340に提供され得る。このようにして、統計及びファクトトレーナ340は、深層学習エンジン190を実装して、1つまたは複数のゲームセッション中に収集されたトレーニングデータを分析し、人工知能を使用してそれらのゲームセッションに関する統計及びファクトを識別する。具体的には、深層学習エンジン190は、深層学習アルゴリズム、強化学習などの人工知能を利用して、対応するゲームセッションの統計及びファクトを識別及び/または生成するために使用される統計/ファクトモデル341を構築することができる。
入力は、1つまたは複数のゲームセッションに関連付けることができる。説明を容易にするために、フィードバックプロセスは、1つのゲームセッション(例えば、ライブ、記録、ゲーム状態を使用したリプレイ)から提供される入力のセットに関連して説明されている。このようにして、以前のゲームセッションに対応する履歴ゲームデータを使用して、AIナレーションモデル331をトレーニングして、ゲームセッションでのアクションをフォローする方法をよりよく予測し、対応するナレーションを作成するときに使用される、観客にとって関心があるもの(例えば、統計及びファクト)を選択することができる。
具体的には、深層学習エンジン190は、AIナレーションモデル331を構築するために、深層学習アルゴリズム、強化学習などの人工知能を利用することができる。このようにして、入力のセット(例えば、対応するシーン及び/または対応するカメラパースペクティブを有する選択された観客関心ゾーン)が与えられると、AIナレーションモデル331は、1人または複数の観客にとって高い関心がある出力331として提供されるゲーム及びプレイヤの統計及びファクトを出力するように構成され、これは、トレーニングのために、またはナレーション332を構築するために使用できる。
選択されたビューは、AIが選択した統計及びファクト333Bを定義するのに役立ち得る固有の統計及びファクトにも対応している。加えて、観客によるアクション(例えば、ジャンプインカウント360A、肯定的な観客フィードバック360B、能動的または受動的な観客アクション360C、リプレイカウント360D、ストリーミングビューカウント360Eなど)を使用して、人工知能によって選択された統計及びファクト333Bを定義できる。例えば、1人または複数の観客が選択を通じて見ることができるゲームセッションの部分に関連する統計及びファクトは、見られるゲームセッションも観客にとって高い関心があると識別されるので、観客にとって高い関心があると定義することができる。
例えば、異なる文化的特徴は、ある文化的特徴のシーンのオブジェクトまたは関連トピックを無視し、別の文化的特徴のオブジェクトまたは関連トピックに正面から取り組むなど、様々な方法でシーンを説明する場合がある。一部の文化的特徴は興奮しやすい解説を好むかもしれないが、他の文化的特徴はより控えめな解説を好むかもしれない。このようにして、AIが生成したナレーション及び/または解説335は、文化及び言語にさらにカスタマイズされた適切なテンプレート338を使用して生成され得る。いくつかの実施形態では、AIが生成したナレーション及び/または解説335は、特定の観客または観客のグループに対してさらにパーソナライズすることができ、文化的フィルタ336は、観客または観客のグループに特定のフィルタリングを適用するように設計される。このようにして、AIナレーションモデル331は、文化的及び性別の考慮を勘案した異なる言語での解説を含む、複数の場所の視聴者にローカライズされた1つまたは複数のストリームを生成するように構成される。
いくつかの場合では、イベントのブロードキャストのAIナレータは、何を言うかを決定するときに、同じイベントの別のブロードキャストで人間のナレータが言ったことを組み込むことができる。いくつかの実施態様では、AIナレータは、何を言うかを決定するときに、1人または複数のナレータ及び/または1人または複数の観客によって言われたことを組み込むことができ、この場合組み込まれた発言はブロードキャストに含まれていない。発言には、ブロードキャストシステム、またはソーシャルメディアなどの他のチャネルを介してアクセスできる。いくつかの場合では、発言は、絵文字、いいね、共有、またはお気に入りなど、非言語的なものであることがある。
例えば、ゲーム状態データは、ゲームプレイにおける対応するポイントでのゲームプレイの状態を定義することができる(例えば、ゲーム状態データは、ゲームキャラクタ、ゲームオブジェクト、オブジェクト属性、グラフィックオーバーレイ、キャラクタのアセット、キャラクタのスキルセット、キャラクタについてのゲームアプリケーション内のタスク達成の履歴、ゲーム内環境のキャラクタの現在の地理的位置、キャラクタのゲームプレイの現在のステータスなどを含む)。
ゲーム状態は、ゲームプレイの対応するポイントに存在したゲーム内環境(例えば、仮想ゲーム世界)の生成を可能にし得る。ユーザセーブデータは、対応するユーザ(例えば、プレイヤ)についてゲームアプリケーションをパーソナライズするために使用することができ、データは、ゲームプレイにおいてキャラクタをパーソナライズする情報(例えば、体型、外観、衣服、武器、ゲーム難易度、ゲームレベル、キャラクタ属性など)を含むことができる。他の情報は、前述されるような、ゲーム状態に関連し得るランダムシードデータを含むことができる。
例えば、第2のカメラパースペクティブは、対応する観客関心ゾーンの1つまたは複数のカメラパースペクティブを生成するようにトレーニングされたAIモデルに基づいて、シーンに対して識別及び生成され得る。第2のカメラパースペクティブは、すでにゲーム生成されていてもよく(例えば、ゲームセッションにおけるプレイヤの現在のゲームプレイのために)、またはゲーム状態を使用して新たに生成され、実行中のビデオゲームによって以前に生成されていなくてもよい(例えば、照準のカメラパースペクティブ、または両方のプレイヤを示すトップダウンパースペクティブ)。このようにして、ストリーミングされたコンテンツには、同じシーンの様々なビューが含まれ得る。
例えば、ゲーム状態データは、ゲームプレイにおける対応するポイントでのゲームプレイの状態を定義することができる(例えば、ゲーム状態データは、ゲームキャラクタ、ゲームオブジェクト、オブジェクト属性、グラフィックオーバーレイ、キャラクタのアセット、キャラクタのスキルセット、キャラクタについてのゲームアプリケーション内のタスク達成の履歴、ゲーム内環境のキャラクタの現在の地理的位置、キャラクタのゲームプレイの現在のステータスなどを含む)。
ゲーム状態は、ゲームプレイの対応するポイントに存在したゲーム内環境(例えば、仮想ゲーム世界)の生成を可能にし得る。ユーザセーブデータは、対応するユーザ(例えば、プレイヤ)についてゲームアプリケーションをパーソナライズするために使用することができ、データは、ゲームプレイにおいてキャラクタをパーソナライズする情報(例えば、体型、外観、衣服、武器、ゲーム難易度、ゲームレベル、キャラクタ属性、背景サウンドなど)を含むことができる。他の情報は、前述のように、ゲーム状態に関連し得るランダムシードデータを含むことができる。
シーン内で、1人のプレイヤからのビュー、または第2のプレイヤからのビュー、トップダウンビュー、クローズアップビュー、照準ビューなど、1つまたは複数のカメラパースペクティブを生成できる。加えて、観客は、選択された関心ゾーンのビュー内に付随するナレーション(例えば、ブロードキャスト)を含めることを望む場合があり、ナレーションは、以下でより完全に説明されるように、人工知能を使用して生成され得る。
1つの実施態様では、統計及びファクトを選択するようにトレーニングされたAIモデルが、ナレーションに使用される統計及びファクトをさらにフィルタリングする。つまり、AIモデルは、1人または複数の観客にとって関心がある可能性の高いゲーム状態データとユーザデータを分離するようにトレーニングされたAIモデルを使用して生成された統計及びファクトから、統計及びファクトを選択するようにトレーニングされ、選択された統計及びファクトは、統計及びファクトを選択するようにトレーニングされたAIモデルによって決定されるように観客の関心が最も高い可能性がある。
いくつかの実施形態では、フィルタリングは、通信フォーマットフィルタを適用することができ、通信フォーマットは音声言語、非音声言語(手話)などであり得る。例えば、フィルタリングは、言語フィルタを適用することができ、ナレーションは、観客のグループが好む特定の言語に対して生成されるようにする。いくつかの実施形態では、非音声言語にフィルタを適用する場合、フィルタリングされた慣習は、性別、手話の異形、地理的位置などを考慮した正しい表現を反映する必要がある。
カメラパースペクティブは、ゲームセッションのプレイヤのためなど、ビデオゲームによって以前に生成されたものである場合もあれば、1人または複数の観客にとって非常に興味深いと識別された視点から人工知能によって新たに生成されてもよい。加えて、ナレーションはストリーミングハイライト用に構築されており、シーンとシーン用にストリーミングされているカメラパースペクティブに合わせて調整することができ、ナレーションには、人工知能によって1人または複数の観客にとって高い関心があると識別される統計及びファクトが含まれる。このようにして、トラフィックの少ないゲームセッションでも、人工知能を使用して生成及び識別された興味深い統計及びファクトを含むAIナレーションを含むハイライトを有し得る。
一実施形態では、統計及びファクトは、ゲームセッションのメタデータ及びプレイヤ統計に基づいて生成された統計及びファクトのグループから選択される。例えば、ゲームセッションにおけるプレイヤ1~Nのメタデータ702及びプレイヤ統計は、AIゲーム及びプレイヤ統計及びファクトトレーナ340に配信され、これは、統計/ファクトモデル341を適用して、そのゲームセッションのための全ての統計及びファクトを生成するように構成されている。例えば、トレーナ340は、AIサーバ260として、またはAIサーバ260内に実装され得る。
例えば、AIが選択した統計及びファクトは、ナレーション335を生成するために適切なテンプレートに織り込むことができ、テンプレートは、見られている特定のシーンに向けられ得るか、または対象となる観客に向けられ得る(例えば、興奮するナレーションの選好)。加えて、1つまたは複数のフィルタリングプロセスをナレーション335に対して実行することができる。例えば、文化的フィルタをナレーションに適用することができ、文化的フィルタは、対象となる観客に適用可能である。加えて、言語フィルタをナレーション335に適用して、解説及び/またはナレーション335を好ましい言語で提供するようにできる。
ユーザ入力デバイス808は、1人または複数のユーザからのユーザ入力をデバイス800に伝達するものであり、その例としては、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、スチルまたはビデオレコーダ/カメラ、及び/またはマイクロフォンがあり得る。ネットワークインタフェース814は、デバイス800が電子通信ネットワークを介して他のコンピュータシステムと通信することを可能にし、かつ、ローカルエリアネットワーク、及びインターネットなどの広域ネットワークを介する有線または無線通信を含み得る。
オーディオプロセッサ812は、CPU802、メモリ804、及び/またはストレージ806によって提供される命令及び/またはデータから、アナログまたはデジタルのオーディオ出力を生成するように適合されている。CPU802、GPU816を含むグラフィックスサブシステム、メモリ804、データストレージ806、ユーザ入力デバイス808、ネットワークインタフェース810、及びオーディオプロセッサ812を含むデバイス800の構成要素は、1つまたは複数のデータバス822を介して接続されている。
ブロードキャスタ/ナレータエンジン220は、本開示の一実施形態によれば、CPU802内に構成されてもよく、またはスタンドアロンハードウェアとしてCPU802から分離されてもよく、さらに、以前に関心ゾーンAIモデルによって観客にとって興味深いものとして識別された関心ゾーンのシーンのためのAIモデルを使用してナレーションを生成するように構成されており、生成されたナレーションは、AIカメラパースペクティブモデルによって識別されるカメラパースペクティブに合わせて調整することができる。
AIサーバ260は、AIカメラパースペクティブモデルをトレーニング及び/または実装するために、ならびにAIブロードキャスト/ナレーションモデルをトレーニング及び/または実装するために構成され得る。ハイライトエンジン240は、本開示の実施形態によれば、CPU802内に構成されてもよく、またはスタンドアロンハードウェアとしてCPU802から分離されてもよく、さらに、ゲームアプリケーションをプレイする1人または複数のプレイヤを含むゲームセッションのハイライトリールを生成するように構成されており、ハイライトリールは、複数のゲームアプリケーションの複数のゲームセッションにおける観客関心ゾーンを識別できるAIモデルを使用して生成されて、それらの識別された観客関心ゾーンの関心があるカメラパースペクティブを識別し、それらの識別された観客関心ゾーンのシーンに対するナレーションを提供する。
代替として、CPU802は、所望の出力画像を定義するデータ及び/または命令をGPU816に提供し、GPU816は、そこから、1つまたは複数の出力画像の画素データを生成する。所望の出力画像を定義するデータ及び/または命令は、メモリ804及び/またはグラフィックメモリ818に格納することができる。実施形態において、GPU816は、シーンの形状、照明、陰影、質感、動き、及び/またはカメラのパラメータを定義する命令及びデータから、出力画像の画素データを生成する3Dレンダリング機能を含む。GPU816はさらに、シェーダプログラムを実行可能な1つまたは複数のプログラム可能実行ユニットを含み得る。
つまり、フレームをレンダリングするときにGPUが循環する。レンダリング操作は重複することができ、GPU1が第1のフレームのレンダリングを終了する前にGPU2が第2のフレームのレンダリングを開始できる。別の実施態様では、複数のGPUデバイスに、レンダリング及び/またはグラフィックスパイプラインで異なるシェーダー操作を割り当てることができる。マスターGPUがメインのレンダリングと合成を実行している。例えば、3つのGPUを含むグループでは、マスターGPU1がメインレンダリング(例えば、第1のシェーダー操作)及び、スレーブGPU2とスレーブGPU3からの出力の合成を実行でき、スレーブGPU2は第2のシェーダー(例えば、川などの流体効果)操作を実行でき、スレーブGPU3は第3のシェーダー(例えば、粒子の煙)操作を実行でき、マスターGPU1は、GPU1、GPU2、及びGPU3のそれぞれからの結果を合成する。
このようにして、様々なGPUを割り当てて、様々なシェーダー操作(旗振り、風、煙の発生、炎など)を実行してビデオフレームをレンダリングできる。さらに別の実施形態では、3つのGPUのそれぞれを、ビデオフレームに対応するシーンの異なるオブジェクト及び/または部分に割り当てることができる。上記の実施形態及び実施態様では、これらの操作は、同じフレーム周期で(同時に並行して)、または異なるフレーム周期で(順次並列に)実行することができる。
例えば、ユーザがタッチしてゲーム入力を生成することができるタッチスクリーン上の位置を示すために、ビデオゲームの実行中に、ボタン、方向パッド、または他の種類の入力要素が、表示またはオーバーレイされ得る。特定の方向のスワイプまたは特定のタッチ動作などのジェスチャも、ゲーム入力として検出され得る。一実施形態では、タッチスクリーン上での制御操作にユーザを慣れさせるために、例えばビデオゲームのゲームプレイを始める前に、タッチスクリーンを介してゲームプレイに入力する方法を示すチュートリアルが、ユーザに提供され得る。
例えば、コントローラは、ローカルネットワークデバイス(前述のルータなど)に接続して、クラウドゲームサーバとデータを送受信し得る。したがって、クライアントデバイスは依然として、クラウドベースビデオゲームからビデオ出力を受信して、それをローカルディスプレイ上にレンダリングする必要はあるが、コントローラがクライアントデバイスを迂回して、ネットワークを介して直接クラウドゲームサーバに入力を送信することを可能にすることにより、入力レイテンシを短縮することができる。
しかし、追加のハードウェアを利用する、またはクライアントデバイスによる処理を要する入力は、クライアントデバイスによりクラウドゲームサーバへ送信され得る。これらは、ゲーム環境からキャプチャされたビデオまたはオーディオを含み得るもので、クラウドゲームサーバへ送信する前にクライアントデバイスにより処理され得る。さらに、コントローラの動作検出ハードウェアからの入力は、キャプチャされたビデオと併せてクライアントデバイスにより処理されて、コントローラの位置及び動作が検出され得るものであり、これは次いでクライアントデバイスによりクラウドゲームサーバへ通信される。様々な実施形態によるコントローラデバイスはまた、クライアントデバイスから、または直接クラウドゲームサーバから、データ(例えばフィードバックデータ)を受信し得ることを理解されたい。
Claims (20)
- ブロードキャストを生成するための方法であって、
1人または複数のプレイヤによってプレイされているビデオゲームのゲームセッションに参加している前記1人または複数のプレイヤのゲーム状態データ及びユーザデータを受信し、
前記ゲームセッションにおいて観客関心ゾーンを識別し、前記観客関心ゾーンは、仮想ゲーム世界の1つまたは複数のカメラパースペクティブから見ることができる前記ビデオゲームの前記仮想ゲーム世界のシーンを有するものであり、
前記ゲーム状態データと前記ユーザデータに基づいて1人または複数の観客が興味を持つ可能性が高いゲーム状態データとユーザデータを分離するようにトレーニングされた第1の人工知能(AI)モデルを使用して、前記ゲームセッションの統計及びファクトを生成し、
前記第1のAIモデルを使用して生成される前記統計及びファクトから統計及びファクトを選択するように構成された第2のAIモデルを使用して、前記観客関心ゾーンの前記シーンのナレーションを生成し、前記選択された統計及びファクトには、前記第2のAIモデルによって決定される最高の潜在的な観客の関心があり、前記第2のAIモデルは、前記選択された統計及びファクトを使用して前記ナレーションを生成するように構成されている、方法。 - 前記観客関心ゾーンが、1人または複数の観客によって見られる可能性が高い1つまたは複数の観客関心ゾーンを分離するようにトレーニングされた第3のAIモデルに基づいて識別され、前記1つまたは複数の観客関心ゾーンのそれぞれは、前記仮想ゲーム世界の対応するシーンを有するか、または
前記観客関心ゾーンが観客によって選択される、請求項1に記載の方法。 - さらに、前記ビデオゲームのビデオゲームタイプと前記観客関心ゾーンの関心ゾーンタイプとに基づくシナリオ用に構築されたナレーションテンプレートを使用して、前記ナレーションを生成する、請求項1に記載の方法。
- さらに、対応する観客関心ゾーンの対応するシーンの1つまたは複数の対応するカメラパースペクティブを生成するようにトレーニングされた第4のAIモデルに基づいて、前記観客関心ゾーンの第1のカメラパースペクティブを識別し、
前記第1のカメラパースペクティブに基づいて前記ナレーションを生成する、請求項1に記載の方法。 - さらに、ネットワークを介して、前記第1のカメラパースペクティブ及び前記ナレーションを1人または複数の観客にストリーミングする、請求項4に記載の方法。
- 前記シーンのナレーションの前記生成では、
1つまたは複数の第1の慣習及び第1の地理的地域の第1の通信フォーマットに合わせて調整された、前記シーンの第1のナレーションを生成し、
1つまたは複数の第2の慣習及び第2の地理的地域の第2の通信フォーマットに合わせて調整された、前記シーンの第2のナレーションを生成する、請求項1に記載の方法。 - さらに、前記ゲームセッションに参加しているプレイヤの以前のゲームプレイの前記観客関心ゾーンを識別し、
前記以前のゲームプレイのハイライトとして前記第1のカメラパースペクティブ及び前記ナレーションをストリーミングし、
前記第1のカメラパースペクティブは、以前のゲームプレイ中に以前に生成されたものであるか、または
前記第1のカメラパースペクティブは、前記プレイヤの前記以前のゲームプレイの前記シーンに対して新たに生成されるものである、請求項4に記載の方法。 - さらに、複数のビデオゲームの複数のゲームセッションに参加している複数のプレイヤのために生成された1つまたは複数の統計及びファクトを選択する人間の入力を受信し、
人間の入力によって選択された1つまたは複数の統計及びファクトを使用して前記第2のAIモデルをトレーニングする、請求項1に記載の方法。 - さらに、複数のビデオゲームの複数のゲームセッションに参加している複数のプレイヤのゲーム状態データ及びユーザデータを受信し、
前記複数のゲームセッションのビューに対応する情報を受信し、前記ビューは対応するナレーションを有するものであり、
前記情報を使用して前記第2のAIモデルをトレーニングし、
前記情報は、
観客のジャンプインの数、または、
前記複数のゲームセッションの視聴中に提供される観客の解説、または、
前記複数のゲームセッションの視聴中に提供される観客のバイオフィードバック、または、
前記複数のゲームセッションの視聴中に提供される観客のアクション、または、
前記複数のゲームセッションのそれぞれに対する観客のリプレイの数、または、
前記複数のゲームセッションのそれぞれに対する観客のライブビューの数、または、
観客の反応、または、
前記複数のゲームセッションのそれぞれに対するソーシャルメディアの傾向、
を含む、請求項1に記載の方法。 - ブロードキャストを生成するためのコンピュータプログラムを格納する非一時的なコンピュータ可読媒体であって、
前記1人または複数のプレイヤによってプレイされているビデオゲームのゲームセッションに参加している1人または複数のプレイヤのゲーム状態データ及びユーザデータを受信するためのプログラム命令と、
前記ゲームセッションにおいて観客関心ゾーンを識別するためのプログラム命令であって、前記観客関心ゾーンは、仮想ゲーム世界の1つまたは複数のカメラパースペクティブから見ることができる前記ビデオゲームの前記仮想ゲーム世界のシーンを有する、前記プログラム命令と、
前記ゲーム状態データと前記ユーザデータに基づいて1人または複数の観客が興味を持つ可能性が高いゲーム状態データとユーザデータを分離するようにトレーニングされた第1の人工知能(AI)モデルを使用して、前記ゲームセッションの統計及びファクトを生成するためのプログラム命令と、
前記第1のAIモデルを使用して生成された統計及びファクトから統計及びファクトを選択するように構成された第2のAIモデルを使用して、前記観客関心ゾーンの前記シーンのナレーションを生成するためのプログラム命令であって、前記選択された統計及びファクトには、前記第2のAIモデルによって決定される最高の潜在的な観客の関心があり、前記第2のAIモデルは、前記選択された統計及びファクトを使用して前記ナレーションを生成するように構成されているプログラム命令と、
を含む、非一時的なコンピュータ可読媒体。 - 前記観客関心ゾーンが、1人または複数の観客によって見られる可能性が高い1つまたは複数の観客関心ゾーンを分離するようにトレーニングされた第3のAIモデルに基づいて識別され、前記1つまたは複数の観客関心ゾーンのそれぞれは、前記仮想ゲーム世界の対応するシーンを有するか、または
前記観客関心ゾーンが観客によって選択される、請求項10に記載の非一時的なコンピュータ可読媒体。 - ネットワークを介して、前記第1のカメラパースペクティブ及び前記ナレーションを1人または複数の観客にストリーミングするためのプログラム命令 をさらに含む、請求項10に記載の非一時的なコンピュータ可読媒体。
- 前記シーンのナレーションを生成するための前記プログラム命令が、
1つまたは複数の第1の慣習及び第1の地理的地域の第1の通信フォーマットに合わせて調整された、前記シーンの第1のナレーションを生成するためのプログラム命令と、
1つまたは複数の第2の慣習及び第2の地理的地域の第2の通信フォーマットに合わせて調整された、前記シーンの第2のナレーションを生成するためのプログラム命令と、を含む、請求項10に記載の非一時的なコンピュータ可読媒体。 - 前記ゲームセッションに参加しているプレイヤの以前のゲームプレイの前記観客関心ゾーンを識別するためのプログラム命令と、
前記以前のゲームプレイのハイライトとして前記第1のカメラパースペクティブ及び前記ナレーションをストリーミングするためのプログラム命令と、
をさらに含み、
前記第1のカメラパースペクティブは、以前のゲームプレイ中に以前に生成されたものであるか、または
前記第1のカメラパースペクティブは、前記プレイヤの前記以前のゲームプレイの前記シーンに対して新たに生成されるものである、請求項12に記載の非一時的なコンピュータ可読媒体。 - 複数のビデオゲームの複数のゲームセッションに参加している複数のプレイヤのゲーム状態データ及びユーザデータを受信するためのプログラム命令と、
前記複数のゲームセッションのビューに対応する情報を受信するためのプログラム命令であって、前記ビューは対応するナレーションを有する、前記プログラム命令と、
前記情報を使用して前記第2のAIモデルをトレーニングするためのプログラム命令と、
をさらに含み、
前記情報は、
観客のジャンプインの数、または、
前記複数のゲームセッションの視聴中に提供される観客の解説、または、
前記複数のゲームセッションの視聴中に提供される観客のバイオフィードバック、または、
前記複数のゲームセッションの視聴中に提供される観客のアクション、または、
前記複数のゲームセッションのそれぞれに対する観客のリプレイの数、または、
前記複数のゲームセッションのそれぞれに対する観客のライブビューの数、または、
観客の反応、または、
前記複数のゲームセッションのそれぞれに対するソーシャルメディアの傾向、
を含む、請求項10に記載の非一時的なコンピュータ可読媒体。 - プロセッサと、
前記プロセッサに接続され、中に命令を格納しているメモリと、
を含み、前記命令は、前記コンピュータシステムにより実行されると、ブロードキャストを生成する方法を前記コンピュータシステムに実行させ、前記方法は、
1人または複数のプレイヤによってプレイされているビデオゲームのゲームセッションに参加している前記1人または複数のプレイヤのゲーム状態データ及びユーザデータを受信し、
前記ゲームセッションにおいて観客関心ゾーンを識別し、前記観客関心ゾーンは、仮想ゲーム世界の1つまたは複数のカメラパースペクティブから見ることができる前記ビデオゲームの前記仮想ゲーム世界のシーンを有する、前記識別し、
前記ゲーム状態データと前記ユーザデータに基づいて1人または複数の観客が興味を持つ可能性が高いゲーム状態データとユーザデータを分離するようにトレーニングされた第1の人工知能(AI)モデルを使用して、前記ゲームセッションの統計及びファクトを生成し、
前記第1のAIモデルを使用して生成される前記統計及びファクトから統計及びファクトを選択するように構成された第2のAIモデルを使用して、前記観客関心ゾーンの前記シーンのナレーションを生成し、前記選択された統計及びファクトには、前記第2のAIモデルによって決定される最高の潜在的な観客の関心があり、前記第2のAIモデルは、前記選択された統計及びファクトを使用して前記ナレーションを生成するように構成されている、コンピュータシステム。 - 前記方法において、前記観客関心ゾーンが、1人または複数の観客によって見られる可能性が高い1つまたは複数の観客関心ゾーンを分離するようにトレーニングされた第3のAIモデルに基づいて識別され、前記1つまたは複数の観客関心ゾーンのそれぞれは、前記仮想ゲーム世界の対応するシーンを有するか、または
前記方法において、前記観客関心ゾーンが観客によって選択される、請求項16に記載のコンピュータシステム。 - 前記方法では、さらに、
ネットワークを介して、前記第1のカメラパースペクティブ及び前記ナレーションを1人または複数の観客にストリーミングする、請求項16に記載のコンピュータシステム。 - 前記方法において前記シーンのナレーション生成では、
1つまたは複数の第1の慣習及び第1の地理的地域の第1の通信フォーマットに合わせて調整された、前記シーンの第1のナレーションを生成し、
1つまたは複数の第2の慣習及び第2の地理的地域の第2の通信フォーマットに合わせて調整された、前記シーンの第2のナレーションを生成する、請求項16に記載のコンピュータシステム。 - 前記方法では、さらに、
前記ゲームセッションに参加しているプレイヤの以前のゲームプレイの前記観客関心ゾーンを識別し、
前記以前のゲームプレイのハイライトとして前記第1のカメラパースペクティブ及び前記ナレーションをストリーミングし、
前記第1のカメラパースペクティブは、以前のゲームプレイ中に以前に生成されたものであるか、または
前記第1のカメラパースペクティブは、前記プレイヤの前記以前のゲームプレイの前記シーンに対して新たに生成されるものである、請求項18に記載のコンピュータシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/584,842 US11103782B2 (en) | 2019-09-26 | 2019-09-26 | Artificial intelligence (AI) controlled camera perspective generator and AI broadcaster |
US16/584,842 | 2019-09-26 | ||
PCT/US2020/049977 WO2021061405A1 (en) | 2019-09-26 | 2020-09-09 | Artificial intelligence (ai) controlled camera perspective generator and ai broadcaster |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022548331A true JP2022548331A (ja) | 2022-11-17 |
JP7320672B2 JP7320672B2 (ja) | 2023-08-03 |
Family
ID=72603547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022518936A Active JP7320672B2 (ja) | 2019-09-26 | 2020-09-09 | 人工知能(ai)制御のカメラパースペクティブジェネレータ及びaiブロードキャスタ |
Country Status (5)
Country | Link |
---|---|
US (3) | US11103782B2 (ja) |
EP (1) | EP4017606A1 (ja) |
JP (1) | JP7320672B2 (ja) |
CN (2) | CN116474378A (ja) |
WO (1) | WO2021061405A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11305191B2 (en) | 2018-12-20 | 2022-04-19 | Activision Publishing, Inc. | Systems and methods for controlling camera perspectives, movements, and displays of video game gameplay |
JP7343285B2 (ja) * | 2019-03-20 | 2023-09-12 | 株式会社コーエーテクモゲームス | コンピュータシステム、配信用端末及び配信サーバー |
US11420122B2 (en) * | 2019-12-23 | 2022-08-23 | Activision Publishing, Inc. | Systems and methods for controlling camera perspectives, movements, and displays of video game gameplay |
US11148061B2 (en) * | 2020-01-15 | 2021-10-19 | Sony Interactive Entertainment Inc. | Spectators vote to bench players in a video game |
US11439904B2 (en) | 2020-11-11 | 2022-09-13 | Activision Publishing, Inc. | Systems and methods for imparting dynamic and realistic movement to player-controlled avatars in video games |
JP6928709B1 (ja) * | 2020-12-28 | 2021-09-01 | プラチナゲームズ株式会社 | 情報処理プログラム、情報処理装置、および情報処理方法 |
US20220212100A1 (en) * | 2021-01-04 | 2022-07-07 | Microsoft Technology Licensing, Llc | Systems and methods for streaming interactive applications |
US11794119B2 (en) * | 2021-03-01 | 2023-10-24 | Super League Gaming, Inc. | Intelligent prioritization and manipulation of stream views |
JP2024011105A (ja) * | 2022-07-14 | 2024-01-25 | 株式会社電通 | 実況音声リアルタイム生成システム |
US20240238679A1 (en) * | 2023-01-17 | 2024-07-18 | Sony Interactive Entertainment Inc. | Method and system for generating an image representing the results of a gaming session |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007143030A (ja) * | 2005-11-22 | 2007-06-07 | Advanced Telecommunication Research Institute International | ビデオコンテンツ作成装置 |
US20090061974A1 (en) * | 2007-08-29 | 2009-03-05 | Lutnick Howard W | Game with chance element and strategy component that can be copied |
US20090325706A1 (en) * | 2008-06-27 | 2009-12-31 | Microsoft Corporation | Live hosting toolset |
US20170157512A1 (en) * | 2015-12-06 | 2017-06-08 | Sliver VR Technologies, Inc. | Methods and systems for computer video game streaming, highlight, and replay |
JP2019512317A (ja) * | 2016-03-15 | 2019-05-16 | スキルズ インコーポレイテッド | ピアツーピアビデオゲームトーナメントにおける試合横断分析 |
JP2021164146A (ja) * | 2020-03-30 | 2021-10-11 | 株式会社ドワンゴ | 動画配信装置、動画配信方法、および、動画配信プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8025572B2 (en) * | 2005-11-21 | 2011-09-27 | Microsoft Corporation | Dynamic spectator mode |
US20120276992A1 (en) * | 2011-04-27 | 2012-11-01 | Microsoft Corporation | Most valuable player gamer status and applications |
US20140038708A1 (en) | 2012-07-31 | 2014-02-06 | Cbs Interactive Inc. | Virtual viewpoint management system |
JP2018524134A (ja) * | 2015-06-14 | 2018-08-30 | 株式会社ソニー・インタラクティブエンタテインメント | Vr観戦のための拡大された視野再レンダリング |
US20170065888A1 (en) | 2015-09-04 | 2017-03-09 | Sri International | Identifying And Extracting Video Game Highlights |
US20170106283A1 (en) | 2015-10-16 | 2017-04-20 | Microsoft Technology Licensing, Llc | Automated generation of game event recordings |
US10695680B2 (en) | 2016-12-09 | 2020-06-30 | Unity IPR ApS | Systems and methods for creating, broadcasting, and viewing 3D content |
CN107423274B (zh) | 2017-06-07 | 2020-11-20 | 北京百度网讯科技有限公司 | 基于人工智能的比赛解说内容生成方法、装置及存储介质 |
US10765954B2 (en) | 2017-06-15 | 2020-09-08 | Microsoft Technology Licensing, Llc | Virtual event broadcasting |
US10792577B2 (en) | 2018-02-28 | 2020-10-06 | Sony Interactive Entertainment LLC | Discovery and detection of events in interactive content |
-
2019
- 2019-09-26 US US16/584,842 patent/US11103782B2/en active Active
-
2020
- 2020-09-09 JP JP2022518936A patent/JP7320672B2/ja active Active
- 2020-09-09 EP EP20775780.8A patent/EP4017606A1/en active Pending
- 2020-09-09 CN CN202310303470.4A patent/CN116474378A/zh active Pending
- 2020-09-09 WO PCT/US2020/049977 patent/WO2021061405A1/en unknown
- 2020-09-09 CN CN202080081541.5A patent/CN114746159B/zh active Active
-
2021
- 2021-08-31 US US17/463,468 patent/US11992761B2/en active Active
-
2024
- 2024-05-28 US US18/676,202 patent/US20240307775A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007143030A (ja) * | 2005-11-22 | 2007-06-07 | Advanced Telecommunication Research Institute International | ビデオコンテンツ作成装置 |
US20090061974A1 (en) * | 2007-08-29 | 2009-03-05 | Lutnick Howard W | Game with chance element and strategy component that can be copied |
US20090325706A1 (en) * | 2008-06-27 | 2009-12-31 | Microsoft Corporation | Live hosting toolset |
US20170157512A1 (en) * | 2015-12-06 | 2017-06-08 | Sliver VR Technologies, Inc. | Methods and systems for computer video game streaming, highlight, and replay |
JP2019512317A (ja) * | 2016-03-15 | 2019-05-16 | スキルズ インコーポレイテッド | ピアツーピアビデオゲームトーナメントにおける試合横断分析 |
JP2021164146A (ja) * | 2020-03-30 | 2021-10-11 | 株式会社ドワンゴ | 動画配信装置、動画配信方法、および、動画配信プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN114746159B (zh) | 2023-04-14 |
US11103782B2 (en) | 2021-08-31 |
JP7320672B2 (ja) | 2023-08-03 |
CN116474378A (zh) | 2023-07-25 |
CN114746159A (zh) | 2022-07-12 |
US20240307775A1 (en) | 2024-09-19 |
US11992761B2 (en) | 2024-05-28 |
US20210387089A1 (en) | 2021-12-16 |
US20210093969A1 (en) | 2021-04-01 |
EP4017606A1 (en) | 2022-06-29 |
WO2021061405A1 (en) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7320672B2 (ja) | 人工知能(ai)制御のカメラパースペクティブジェネレータ及びaiブロードキャスタ | |
JP7224715B2 (ja) | 人工知能(ai)制御のカメラパースペクティブジェネレータ及びaiブロードキャスタ | |
JP7554675B2 (ja) | ゲームクラウドシステム上で実行される、任意のユーザによるゲームプレイ実行を後で開始するために使用される、ゲームプレイのスナップショットを保存するための方法及びシステム | |
TWI716201B (zh) | 用於為一線上遊戲提供資源之分佈式遊戲引擎及方法 | |
CN109792564B (zh) | 用于通过在游戏云系统上执行的视频记录访问先前所存储游戏情节的方法和系统 | |
US20230356081A1 (en) | Drama engine for dramatizing video gaming in a highlight reel including user reaction | |
CN103886009B (zh) | 基于所记录的游戏玩法自动产生为云游戏建议的小游戏 | |
US11666830B2 (en) | Local game execution for spectating and spectator game play | |
JP7339318B2 (ja) | ゲーム内位置ベースのゲームプレイコンパニオンアプリケーション | |
CN115175751A (zh) | 基于预测的游戏活动和观众特性驱动虚拟影响者 | |
US20220395756A1 (en) | Building a dynamic social community based on similar interaction regions of game plays of a gaming application | |
US11729479B2 (en) | Methods and systems for dynamic summary queue generation and provision | |
WO2024026205A1 (en) | Impaired player accessability with overlay logic providing haptic responses for in-game effects | |
CN117769823A (zh) | 使用在多个平台上跟踪印象的nft进行游戏内资产跟踪 | |
US20230381649A1 (en) | Method and system for automatically controlling user interruption during game play of a video game |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220509 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220509 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7320672 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |