JP2024502045A - Method and system for dynamic summary queue generation and provision - Google Patents

Method and system for dynamic summary queue generation and provision Download PDF

Info

Publication number
JP2024502045A
JP2024502045A JP2023540000A JP2023540000A JP2024502045A JP 2024502045 A JP2024502045 A JP 2024502045A JP 2023540000 A JP2023540000 A JP 2023540000A JP 2023540000 A JP2023540000 A JP 2023540000A JP 2024502045 A JP2024502045 A JP 2024502045A
Authority
JP
Japan
Prior art keywords
media item
participant
participants
game
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023540000A
Other languages
Japanese (ja)
Inventor
エム. ベネデット ウォレン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/165,410 external-priority patent/US11729479B2/en
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2024502045A publication Critical patent/JP2024502045A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4756End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

メディアアイテムのストリームが、サーバコンピューティングシステムから1つまたは複数のクライアントコンピューティングシステムに送信される。メディアアイテムには、メディアアイテムを再生するためのタイムラインがある。参加者生成コンテンツが、1つ以上のクライアントコンピューティングシステムのいずれかの1人以上の参加者からサーバコンピューティングシステムで受信される。参加者生成コンテンツは、メディアアイテムのタイムラインに対してタイムインデックスが付けられる。参加者生成コンテンツを処理して、参加者生成コンテンツの中に存在する表示に基づいてメディアアイテムの主要な部分を識別する。メディアアイテムの主要な部分を含む動的要約キューを生成する。動的要約キューはストリーミング用にアセンブルされる。動的要約キューを閲覧する要求が要求者から受信される。要求に応答して、動的要約キューのストリームを要求者のコンピューティングデバイスに送信する。【選択図】図2A stream of media items is sent from a server computing system to one or more client computing systems. A media item has a timeline for playing the media item. Participant-generated content is received at a server computing system from one or more participants at any one or more client computing systems. Participant-generated content is time-indexed relative to the media item's timeline. The participant-generated content is processed to identify key portions of the media item based on representations present within the participant-generated content. Generate a dynamic summary queue containing key parts of the media item. Dynamic summary queues are assembled for streaming. A request to view a dynamic summary queue is received from a requester. In response to the request, a stream of dynamic summary queues is sent to the requester's computing device. [Selection diagram] Figure 2

Description

1.開示の分野
本開示は、サーバのコンピューティングシステムとクライアントのコンピューティングシステムとの間のネットワークを介して、ビデオゲーム及び/またはメディアコンテンツを提供するための方法及びシステムに関する。
1. FIELD OF THE DISCLOSURE The present disclosure relates to methods and systems for providing video game and/or media content over a network between a server computing system and a client computing system.

2.関連技術の説明
ビデオゲーム業界は、長年にわたり多くの変化を遂げてきた。計算能力の増大に伴い、ビデオゲームの開発者もまた、この向上した計算能力を利用するゲームソフトウェアを開発してきた。そのために、ビデオゲーム開発者は、高度な演算及び数学を取り入れて、非常に現実的なゲーム体験を生み出しているゲームをコーディングしてきた。
2. Description of Related Technology The video game industry has undergone many changes over the years. With the increase in computing power, video game developers have also developed game software that takes advantage of this increased computing power. To that end, video game developers have coded games that incorporate advanced arithmetic and mathematics to create highly realistic gaming experiences.

例示的なゲームプラットフォームは、Sony PlayStation(登録商標)、Sony PlayStation2(登録商標)(PS2)、Sony PlayStation3(登録商標)(PS3)、Sony PlayStation4(登録商標)(PS4)及びSony PlayStation5(登録商標)(PS5)を含み、それぞれ、ゲーム機の形態で販売されている。
周知のように、ゲーム機は、ディスプレイ(一般的には、テレビ)に接続し、ハンドヘルドコントローラによって、ユーザとのインタラクションを可能にするように設計されている。ゲーム機は、CPU、集約的なグラフィック演算を処理するためのグラフィックシンセサイザ、ジオメトリ変換を行うためのベクトルユニット、ならびに他のグルーハードウェア、ファームウェア、及びソフトウェアを含む、専用処理ハードウェアが設けられるように設計されている。さらに、ゲーム機によってローカルでプレイするために、ゲーム機は、ゲームディスクを受けるために、光ディスクリーダが設けられるように設計されていてもよい。オンラインゲームも可能であり、ユーザはインターネットを通じて他のユーザとインタラクティブに対戦または一緒にプレイができる。
例えば、PlayStation(登録商標)Networkは、ビデオゲームのオンラインでのプレイ、ビデオコンテンツ(例えば、テレビ、映画、スポーツイベント、ゲームプレイビデオなど)のストリーミング、及び音楽その他のオーディオコンテンツのストリーミングを提供するオンラインデジタルメディアエンターテイメントサービスである。ビデオゲーム開発者は、計算能力の拡大に対応するだけでなく、ユーザとゲームシステムとの間の対話を強化するオンラインゲームも開発している。例えば、対話型オンラインゲームは、ユーザがインターネット上で対話式で他のユーザと対戦するか、または一緒にプレイし、そのような対話を取得する機能を提供する。本発明が生じるのはこの状況の中である。
Exemplary gaming platforms are Sony PlayStation®, Sony PlayStation2® (PS2), Sony PlayStation3® (PS3), Sony PlayStation4® (PS4), and Sony PlayStation® n5 (registered trademark) (PS5), each of which is sold in the form of a game console.
As is well known, gaming consoles are designed to connect to a display (typically a television) and allow interaction with a user by means of a handheld controller. Game consoles are equipped with dedicated processing hardware, including a CPU, a graphics synthesizer to handle intensive graphics operations, a vector unit to perform geometry transformations, and other glue hardware, firmware, and software. It is designed to. Furthermore, for local play by means of a gaming machine, the gaming machine may be designed to be provided with an optical disc reader for receiving game discs. Online gaming is also possible, allowing users to play interactively against or with other users over the Internet.
For example, the PlayStation® Network provides online playback of video games, streaming of video content (e.g., television, movies, sporting events, gameplay videos, etc.), and streaming of music and other audio content. It is a digital media entertainment service. Video game developers are also developing online games that not only accommodate the expansion of computing power, but also enhance the interaction between users and gaming systems. For example, interactive online games provide the ability for users to interactively play against or with other users over the Internet and obtain such interactions. It is in this context that the present invention arises.

例示的な実施形態では、メディアアイテムの要約を生成するための方法が開示される。この方法は、メディアアイテムのストリームをサーバコンピューティングシステムから1つまたは複数のクライアントコンピューティングシステムに送信することを含む。メディアアイテムには、メディアアイテムを再生するためのタイムラインがある。方法はまた、参加者生成コンテンツを、1つ以上のクライアントコンピューティングシステムのいずれかの1人以上の参加者からサーバコンピューティングシステムで受信することを含む。
参加者生成コンテンツには、メディアアイテムのタイムラインに対してタイムインデックスが付けられる(time-indexed:時間インデックスあるいは時刻インデックスが付けられる)。方法はまた、参加者生成コンテンツを処理して、参加者生成コンテンツの中に存在する表示に基づいてメディアアイテムの主要な部分を識別することを含む。方法は、メディアアイテムの主要な部分を含む動的要約キューを生成することも含む。動的要約キューはストリーミング用にアセンブルされる。方法は、動的要約キューを閲覧するための要求を要求者から受信することも含む。方法はまた、要求に応じて動的要約キューのストリームを要求者のコンピューティングデバイスに送信することを含む。
In an exemplary embodiment, a method for generating summaries of media items is disclosed. The method includes transmitting a stream of media items from a server computing system to one or more client computing systems. A media item has a timeline for playing the media item. The method also includes receiving participant-generated content at the server computing system from one or more participants at any of the one or more client computing systems.
Participant-generated content is time-indexed relative to the media item's timeline. The method also includes processing the participant-generated content to identify key portions of the media item based on representations present in the participant-generated content. The method also includes generating a dynamic summary cue that includes a major portion of the media item. Dynamic summary queues are assembled for streaming. The method also includes receiving a request from a requester to view the dynamic summary queue. The method also includes transmitting the stream of the dynamic summary queue to the requester's computing device in response to the request.

例示的な実施形態では、ビデオの要約を生成するためのシステムが開示される。システムは、サーバコンピューティングシステムから1つ以上のクライアントコンピューティングシステムにメディアアイテムのストリームを送信するためコンピュータメモリに格納されるプログラム命令を含む。メディアアイテムには、メディアアイテムを再生するためのタイムラインがある。システムはまた、1つ以上のクライアントコンピューティングシステムのいずれかの1人以上の参加者からサーバコンピューティングシステムで参加者生成コンテンツを受信するためコンピュータメモリに格納されるプログラム命令を含む。
参加者が生成したコンテンツには、メディアアイテムのタイムラインに対してタイムインデックスが付けられる。システムはまた、参加者生成コンテンツを処理して、参加者生成コンテンツの中に存在する表示に基づいてメディアアイテムの主要な部分を識別するためコンピュータメモリに格納されるプログラム命令を含む。システムはまた、メディアアイテムの主要な部分を含む動的要約キューを生成するためコンピュータメモリに格納されるプログラム命令を含む。動的要約キューはストリーミング用にアセンブルされる。システムはまた、要求者から動的要約キューを閲覧するための要求を受信するために、コンピュータメモリに格納されたプログラム命令を含む。システムはまた、要求に応じて要求者のコンピューティングデバイスに動的要約キューのストリームを送信するために、コンピュータメモリに格納されたプログラム命令を含む。
In an exemplary embodiment, a system for generating video summaries is disclosed. The system includes program instructions stored in computer memory for transmitting a stream of media items from a server computing system to one or more client computing systems. A media item has a timeline for playing the media item. The system also includes program instructions stored in the computer memory for receiving participant-generated content at the server computing system from one or more participants on any of the one or more client computing systems.
Participant-generated content is time-indexed relative to the media item's timeline. The system also includes program instructions stored in the computer memory for processing the participant-generated content to identify key portions of the media item based on representations present in the participant-generated content. The system also includes program instructions stored in computer memory for generating a dynamic summary queue that includes a major portion of the media item. Dynamic summary queues are assembled for streaming. The system also includes program instructions stored in the computer memory for receiving requests from requesters to view the dynamic summary queue. The system also includes program instructions stored in the computer memory for transmitting the stream of dynamic summary queues to a requester's computing device in response to a request.

いくつかの実施形態によるクラウドゲームシステムを示す。1 illustrates a cloud gaming system according to some embodiments. いくつかの実施形態に従って、クラウドゲームシステムによって提供されるオンラインビデオゲームのプレイ中にユーザ/参加者に対してディスプレイデバイスに表示される例示的なユーザインターフェースを示す。2 illustrates an example user interface displayed on a display device to a user/participant during play of an online video game provided by a cloud gaming system, according to some embodiments. いくつかの実施形態による、概要要求制御の選択時にユーザ/参加者に対してディスプレイデバイスに表示されるユーザインターフェースの例を示す。2 illustrates an example user interface displayed on a display device to a user/participant upon selection of a summary request control, according to some embodiments. いくつかの実施形態による、メディアアイテムの動的要約キューを生成及び提供するシステムの図を示す。1 illustrates a diagram of a system that generates and provides a dynamic summary queue of media items, according to some embodiments. いくつかの実施形態に従って、動的要約キューの要求者が動的要約キューの生成方法をカスタマイズできるようにするための様々な制御を提供する例示的なユーザインターフェースを示す。2 illustrates an example user interface that provides various controls to enable a requester of a dynamic summary queue to customize how a dynamic summary queue is generated, in accordance with some embodiments. いくつかの実施形態による、図5Aのユーザインターフェースの参加者ベース制御の中で「変更」制御が選択されたときに表示されるユーザインターフェースの例を示す。5A illustrates an example user interface that is displayed when a "change" control is selected among the participant-based controls of the user interface of FIG. 5A, according to some embodiments. FIG. いくつかの実施形態による、図5Aのユーザインターフェースの時間枠制御の中で「変更」制御が選択されたときに表示されるユーザインターフェースの例を示す。5A illustrates an example user interface that is displayed when a “change” control is selected among the time frame controls of the user interface of FIG. 5A, according to some embodiments. FIG. いくつかの実施形態による、図5Aのユーザインターフェースの概要分解制御の中で「変更」制御が選択されたときに表示されるユーザインターフェースの例を示す。5A illustrates an example user interface that is displayed when a "change" control is selected among the summary decomposition controls of the user interface of FIG. 5A, according to some embodiments; FIG. いくつかの実施形態による、図5Aのユーザインターフェースのイベントタイプ制御の中で「変更」制御が選択されたときに表示されるユーザインターフェースの例を示す。5A illustrates an example user interface that is displayed when a “change” control is selected among the event type controls of the user interface of FIG. 5A, according to some embodiments. FIG. いくつかの実施形態による、図5Aのユーザインターフェースの表示タイプ制御の中で「変更」制御が選択されたときに表示されるユーザインターフェースの例を示す。5A illustrates an example user interface that is displayed when a “change” control is selected among the display type controls of the user interface of FIG. 5A, according to some embodiments. FIG. いくつかの実施形態による、メディアアイテムの要約(動的要約キュー)を生成するための方法のフローチャートを示す。2 illustrates a flowchart of a method for generating summaries of media items (dynamic summarization queues), according to some embodiments. いくつかの実施形態による、本開示の様々な実施形態の態様を実行するために使用することができる例示的なコンピューティングデバイス内部のコンポーネントの図を示す。1 illustrates a diagram of components within an example computing device that can be used to perform aspects of various embodiments of this disclosure, according to some embodiments. FIG.

以下の発明を実施するための形態では、本開示の完全な理解をもたらすために、いくつかの具体的な詳細が示されている。しかしながら、本開示の実施形態は、これらの具体的な詳細の一部またはすべてがなくとも実践できることは、当業者には明らかである。他の例では、周知のプロセス動作は、本開示を不要に曖昧にしないようにすべく、詳細に説明されていない。 In the following detailed description, certain specific details are set forth to provide a thorough understanding of the disclosure. However, it will be apparent to those skilled in the art that embodiments of the present disclosure may be practiced without some or all of these specific details. In other instances, well-known process operations have not been described in detail in order not to unnecessarily obscure this disclosure.

図1は、いくつかの実施形態によるクラウドゲームシステム101を示す。クラウドゲームシステム101は、1人以上のユーザ/参加者A、B、C、D(A~D)によるオンラインビデオゲームのプレイを提供する。例えば、図1は、ネットワーク123を介してクラウドゲームシステム101によって提供されるオンラインビデオゲームをプレイするユーザ/参加者A~Dを示す。
ユーザ/参加者A~Dのそれぞれは、対応するローカル計算システム120A、120B、120C、及び120D(120A~120D)をそれぞれ操作する人121A、121B、121C、及び121D(121A~121D)にそれぞれ対応する。このように、図1は複数のユーザ/参加者A~Dによるグループプレイの例を示している。図1の例には説明のために4人のユーザ/参加者A~Dが含まれているが、クラウドゲームシステム101により提供されるグループプレイ及び/またはオンラインビデオゲームの観戦に参加できるユーザ/参加者の数に制限はないことを理解されたい。
本明細書で使用されるオンラインビデオゲームという用語は、クライアント計算デバイス、例えば120A~120Dでユーザ/参加者がプレイ及び/または観戦するためにクラウドゲームシステム101によってクライアント計算デバイスに提供されるビデオゲームを指す。本明細書で言及されるオンラインビデオゲームは、シングルプレイヤービデオゲームまたはマルチプレイヤービデオゲームであり得る。いくつかの実施形態では、ユーザ/参加者A~Dのそれぞれは、オンラインビデオゲームのプレイに従事している。いくつかの実施形態では、ユーザ/参加者A~Dの一部はオンラインビデオゲームのプレイに従事しており、ユーザ/参加者A~Dの一部は他人がオンラインビデオゲームをプレイするのを見ている観客である。
FIG. 1 illustrates a cloud gaming system 101 according to some embodiments. Cloud gaming system 101 provides online video game play by one or more users/participants A, B, C, D (A-D). For example, FIG. 1 shows users/participants AD playing an online video game provided by cloud gaming system 101 via network 123.
Each of the users/participants A-D corresponds to a person 121A, 121B, 121C, and 121D (121A-121D), respectively, operating a corresponding local computing system 120A, 120B, 120C, and 120D (120A-120D), respectively. do. Thus, FIG. 1 shows an example of group play with a plurality of users/participants A to D. Although the example of FIG. 1 includes four users/participants A to D for purposes of illustration, users/participants who can participate in group play and/or watching online video games provided by the cloud gaming system 101 It is understood that there is no limit to the number of participants.
As used herein, the term online video game refers to a video game provided by cloud gaming system 101 to a client computing device for play and/or viewing by a user/participant at the client computing device, e.g. refers to Online video games referred to herein may be single-player or multi-player video games. In some embodiments, each of users/participants A-D is engaged in playing an online video game. In some embodiments, some of the users/participants A-D are engaged in playing online video games, and some of the users/participants A-D are watching others play online video games. They are the audience watching.

いくつかの実施形態では、クラウドゲームシステム101は、オンラインビデオゲームのプレイを提供することに加えて、他のメディアアイテムを提供するように搭載されている。例えば、いくつかの実施形態では、クラウドゲームシステム101は、オーディオビジュアルプレゼンテーションをメディアアイテムとして提供する。いくつかの実施形態では、クラウドゲームシステム101によって提供されるオーディオビジュアルプレゼンテーションは、とりわけ映画、テレビ番組、現実世界のスポーツイベント、電子スポーツイベント、オンラインショー、オンラインビデオ、及びアップロードされたビデオのうちの1つまたは複数のものである。
クラウドゲームシステム101は、それぞれのローカル計算システム120A~120Dにおけるユーザ/参加者A~Dによるプレゼンテーション及び消費(視聴)のために、ネットワークを介してデジタルデータのストリームとして送信できる、本質的に任意のタイプのメディアアイテムを提供するように動作可能であることを理解されたい。
様々な実施形態において、ユーザ/参加者A~Dがグループイベントに参加するように、ユーザ/参加者A~Dはクラウドゲームシステム101によって提供されるメディアアイテムをグループとして見る。グループイベント中、クラウドゲームシステム101は、ユーザ/参加者A~Dが互いに対話し、消費されているメディアアイテムに関して自分の感情を表現できるように、ユーザ/参加者A~Dが参加者生成コンテンツを提供できるようにする。やはり、図1に例として示すように、4人のユーザ/参加者A~Dは、グループイベントに参加できるユーザ/参加者の数にいかなる制限も示さない。クラウドゲームシステム101が提供するグループイベントに参加できるユーザ/参加者の数に制限がないことを理解されたい。
In some embodiments, cloud gaming system 101 is equipped to provide other media items in addition to providing online video game play. For example, in some embodiments, cloud gaming system 101 provides audiovisual presentations as media items. In some embodiments, the audiovisual presentations provided by cloud gaming system 101 include movies, television shows, real-world sporting events, electronic sporting events, online shows, online videos, and uploaded videos, among others. One or more.
Cloud gaming system 101 is capable of providing essentially any data stream that can be transmitted as a stream of digital data over a network for presentation and consumption (viewing) by users/participants A-D at respective local computing systems 120A-120D. It should be understood that the computer is operable to provide media items of type.
In various embodiments, users/participants A-D view media items provided by cloud gaming system 101 as a group, such that users/participants A-D participate in a group event. During a group event, the cloud gaming system 101 provides user-generated content to allow users/participants A-D to interact with each other and express their feelings regarding the media item being consumed. to be able to provide Again, as shown by way of example in FIG. 1, the four users/participants AD do not represent any limitation on the number of users/participants who can participate in a group event. It should be understood that there is no limit to the number of users/participants that can participate in a group event provided by cloud gaming system 101.

いくつかの実施形態では、クラウドゲームシステム101は、複数(N)のクラウドゲームサーバ103-1~103-Nを含む。いくつかの実施形態では、クラウドゲームサーバ103-1~103-Nの数(N)は、最大100、またはそれ以上であり得る。いくつかの実施形態では、クラウドゲームシステム101はまた、複数(X)の管理サーバ105-1~105-X及び1つまたは複数のストレージサーバ107を含む。ストレージサーバ107は、ハードディスクドライブ(HDD)及び/またはソリッドステートドライブ(SSD)などの多数のデータストレージデバイス107Aを含む。ストレージサーバ107は、クラウドゲームシステム101でのプレイに利用可能なビデオゲームを格納する。
いくつかの実施形態では、ストレージサーバ107は、クラウドゲームシステム101による提供に利用可能な様々なメディアアイテムを格納する。いくつかの実施形態では、管理サーバ105-1~105-Xはまた、ストレージサーバ107とは別個の他のクラウドベースのストレージシステムにアクセスでき、他のクラウドベースのストレージシステムは、ビデオゲームデータ及び/またはメディアアイテムデータを格納する。
各管理サーバ105-1~105-Xは、ユーザ/参加者A~Dのクラウドゲームセッションを管理する責任を負う。また、いくつかの実施形態では、所定の管理サーバ105-1~105-Xは、複数のクラウドゲームセッションを同時に管理する責任を負う。
いくつかの実施形態では、各管理サーバ105-1~105-Xは、必要なときに、1つまたは複数のクラウドゲームサーバ103-1~103-Nの電源を入れ、要求されたビデオゲームをストレージサーバ107または他のクラウドベースのストレージシステムから、クラウドゲームサーバ103-1~103-Nのうちの所定の1つにロードし、クラウドゲームサーバ103-1~103-Nの所定の1つで、要求されたビデオゲームの実行を開始し、クラウドゲームサーバ103-1~103-Nの所定の1つにユーザ/参加者A~Dをログインさせ、他の動作の中でも、ストレージサーバ107または他のクラウドベースのストレージシステムからのログインするユーザ/参加者A~Dのユーザデータ111をマウントするよう動作する。
In some embodiments, cloud gaming system 101 includes multiple (N) cloud gaming servers 103-1 through 103-N. In some embodiments, the number (N) of cloud game servers 103-1 to 103-N may be up to 100 or more. In some embodiments, cloud gaming system 101 also includes multiple (X) management servers 105-1 through 105-X and one or more storage servers 107. Storage server 107 includes a number of data storage devices 107A, such as hard disk drives (HDDs) and/or solid state drives (SSDs). Storage server 107 stores video games that can be played on cloud game system 101.
In some embodiments, storage server 107 stores various media items available for provision by cloud gaming system 101. In some embodiments, management servers 105-1 through 105-X may also have access to other cloud-based storage systems separate from storage server 107, where the other cloud-based storage systems may store video game data and /or store media item data.
Each management server 105-1 to 105-X is responsible for managing cloud gaming sessions for users/participants A to D. Also, in some embodiments, a given management server 105-1-105-X is responsible for managing multiple cloud gaming sessions simultaneously.
In some embodiments, each management server 105-1 through 105-X powers on one or more cloud game servers 103-1 through 103-N and plays the requested video game when necessary. from the storage server 107 or other cloud-based storage system to a predetermined one of the cloud game servers 103-1 to 103-N; , initiates execution of the requested video game, logs the user/participant A-D into a given one of the cloud game servers 103-1-103-N, and logs the user/participant A-D into the storage server 107 or other, among other operations. The user data 111 of the logged-in users/participants A to D is operated to mount the user data 111 of the logging-in users/participants A to D from the cloud-based storage system of .

クラウドゲーム(またはオンラインゲーム)では、ユーザ/参加者A~Dは、ローカル計算システム120A~120Dを操作して、インターネットなどのネットワーク123上のクラウドゲームシステム101にログインし、クラウドゲームサーバ103-1~103-Nのうちの1つまたは複数でリモートで実行されるオンラインビデオゲームをプレイする。いくつかの実施形態では、ユーザ/参加者A~Dは、管理サーバ105-1~105-Xのうちの1つを介してクラウドゲームシステム101にログインする。しかし、ユーザ/参加者A~Dのログインに関連する様々なクラウドサービスがあることを理解されたい。例えば、ユーザ/参加者A~Dを認証すること、ユーザ/参加者A~Dが十分な質のインターネット接続を有することを確実にすること、及びユーザ/参加者A~Dがログインできる各ユーザ/参加者A~Dの近くにある利用可能なクラウドゲームサーバ103-1~103-Nを見つけることに関わるクラウドサービスがある。 In a cloud game (or online game), users/participants A to D operate local computing systems 120A to 120D to log into cloud game system 101 on network 123, such as the Internet, and connect to cloud game server 103-1. ~103-N to play remotely executed online video games on one or more of the following. In some embodiments, users/participants A-D log into cloud gaming system 101 via one of management servers 105-1 through 105-X. However, it should be understood that there are various cloud services associated with user/participant AD login. For example, authenticating users/participants A-D, ensuring that users/participants A-D have an internet connection of sufficient quality, and each user/participant A-D can log in to. /There is a cloud service involved in finding available cloud game servers 103-1 to 103-N near participants A to D.

いくつかの実施形態では、ローカル計算システム120A~120Dは、対応するゲームコントローラ125A、125B、125C、125D(125A~125D)、及びテレビやモニタなどの対応するディスプレイデバイス126A、126B、126C、126D(126A~126D)を含む。いくつかの実施形態では、ローカル計算システム120A~120Dは、対応するディスプレイデバイス126A~126Dに接続された対応するドングル128A、128B、128C、128D(128A~128D)を含み、ドングル128A~128Dは、ディスプレイデバイス126A~126Dのネットワークインターフェースコントローラ(NIC)が、ゲームコントローラ125A~125Dからネットワーク123に信号を伝送するために使用することができるように、対応するゲームコントローラ125A~125Dと対応するディスプレイデバイス126A~126Dとの間のデータ通信を可能にするように構成されている。 In some embodiments, the local computing systems 120A-120D include corresponding game controllers 125A, 125B, 125C, 125D (125A-125D) and corresponding display devices 126A, 126B, 126C, 126D (125A-125D), such as televisions or monitors. 126A to 126D). In some embodiments, local computing systems 120A-120D include corresponding dongles 128A, 128B, 128C, 128D (128A-128D) connected to corresponding display devices 126A-126D, where dongles 128A-128D include: A corresponding game controller 125A-125D and a corresponding display device 126A such that the network interface controller (NIC) of the display device 126A-126D can be used to transmit signals from the game controller 125A-125D to the network 123. 126D.

いくつかの実施形態では、ローカル計算システム120A~120Dは、対応するローカルゲーム機127A、127B、127C、127D(127A~127D)も含む。これらの実施形態では、ゲームコントローラ125A~125Dによって生成された信号は、対応するローカルゲーム機127A~127DのNICを使用して、対応するローカルゲーム機127A~127Dを介してネットワーク123に伝送することができる。また、いくつかの実施形態では、ゲームコントローラ125A~125Dは、WIFIネットワークなどのローカルエリアネットワークを通じてネットワーク123に信号を直接伝達することができる。また、いくつかの実施形態では、ローカル計算システム120A~120Dは、ユーザ/参加者A~D及び/またはユーザ/参加者A~Dが存在する環境の静止画像、ビデオ、及び/またはオーディオを取得するための対応するカメラ122A、122B、122C、122D(122A~122D)を含む。カメラ122A~122Dによって取得されたコンテンツは、対応するローカルゲーム機127A~127DのNICを使用して、対応するローカルゲーム機127A~127Dを介してネットワーク123に送信することができる。 In some embodiments, local computing systems 120A-120D also include corresponding local gaming consoles 127A, 127B, 127C, 127D (127A-127D). In these embodiments, the signals generated by the game controllers 125A-125D may be transmitted to the network 123 through the corresponding local gaming consoles 127A-127D using the NICs of the corresponding local gaming consoles 127A-127D. I can do it. Also, in some embodiments, game controllers 125A-125D may communicate signals directly to network 123 through a local area network, such as a WIFI network. In some embodiments, the local computing systems 120A-120D also capture still images, video, and/or audio of the users/participants A-D and/or the environment in which the users/participants A-D are present. It includes corresponding cameras 122A, 122B, 122C, 122D (122A-122D) for recording. Content captured by the cameras 122A-122D may be transmitted to the network 123 via the corresponding local gaming consoles 127A-127D using the NICs of the corresponding local gaming consoles 127A-127D.

また、いくつかの実施形態では、ユーザ/参加者A~Dは、ローカル計算システム120A~120D以外のローカル計算デバイスでオンラインビデオゲームをプレイすることができる。例えば、いくつかの実施形態では、ユーザ/参加者A~Dのいずれかは、中でも、携帯電話、タブレット、ラップトップ、スマートカーシステムなどのモバイル計算デバイスでオンラインビデオゲームをプレイすることができる。また、いくつかの実施形態では、ユーザ/参加者A~Dは、デスクトップ計算システム上でオンラインビデオゲームをプレイすることができる。説明を簡単にするために、本明細書におけるローカル計算システム120A~120Dへの言及は、他の任意の計算デバイスへの言及も伝えており、これにおいて、ユーザ/参加者A~Dは、オンラインビデオゲームをプレイし、及び/またはクラウドゲームシステム101によって提供されるメディアアイテムを消費(視聴)することができる。 Also, in some embodiments, users/participants AD may play online video games on local computing devices other than local computing systems 120A-120D. For example, in some embodiments, any of users/participants A-D may play online video games on a mobile computing device such as a cell phone, tablet, laptop, smart car system, among others. Also, in some embodiments, users/participants A-D may play online video games on desktop computing systems. For ease of explanation, references herein to local computing systems 120A-120D also convey references to any other computing device, in which users/participants A-D are online Video games may be played and/or media items provided by cloud gaming system 101 may be consumed.

さらに、様々な実施形態では、データ(ビデオストリームデータまたはオーディオデータまたは触覚フィードバックデータなど)は、ネットワーク123を介してクラウドゲームシステム101からローカル計算システム120A~120Dに伝達される。いくつかの実施形態では、データは、ネットワーク123を介してクラウドゲームシステム101からディスプレイデバイス126A~126Dに伝達される。いくつかの実施形態では、データは、ネットワーク123を介してクラウドゲームシステム101からローカルゲーム機127A~127Dに、また、ローカルゲーム機127A~127Dから対応するディスプレイデバイス126A~126Dに伝達される。また、いくつかの実施形態では、データは、ネットワーク123を介してクラウドゲームシステム101からゲームコントローラ125A~125Dに伝達される。 Further, in various embodiments, data (such as video stream data or audio data or haptic feedback data) is communicated from cloud gaming system 101 to local computing systems 120A-120D via network 123. In some embodiments, data is communicated from cloud gaming system 101 to display devices 126A-126D via network 123. In some embodiments, data is communicated via network 123 from cloud gaming system 101 to local gaming consoles 127A-127D, and from local gaming consoles 127A-127D to corresponding display devices 126A-126D. Also, in some embodiments, data is communicated from cloud gaming system 101 to game controllers 125A-125D via network 123.

ゲームプレイ中、ユーザ/参加者A~Dは、ネットワーク123を介してクラウドゲームサーバ103-1~103-Nに伝送されるゲームコマンドを生成する。いくつかの実施形態では、ユーザ/参加者A~Dは、ゲームコントローラ125A~125Dを使用してゲームコマンドを生成し、ゲームコマンドは、ゲームコントローラ125A~125Dからネットワーク123へ、そしてクラウドゲームサーバ103-1~103-Nへ信号形式で伝送される。
いくつかの実施形態では、ゲームコマンドは、ゲームコントローラ125A~125Dから対応するローカルゲーム機127A~127Dまたは対応するディスプレイデバイス126A~126Dに信号形式で伝送され、そこからゲームコマンドはネットワーク123を介してクラウドゲームサーバ103-1~103-Nに伝送される。
様々な実施形態では、ゲームコントローラ125A~125Dからネットワーク123への信号形式のゲームコマンドの伝送は、有線ネットワーク接続もしくは無線ネットワーク接続、またはそれらの組み合わせを介して行うことができる。クラウドゲームサーバ103-1~103-Nは、ユーザ/参加者A~Dから受信したゲームコマンドに従ってビデオゲームを実行し、ユーザ/参加者A~Dによるビデオゲームのプレイを反映するビデオストリーム(複数可)を生成する。ビデオストリーム(複数可)は、対応するディスプレイデバイス126A~126Dに表示するために、ネットワーク123を介してクラウドゲームサーバ103-1~103-Nからユーザ/参加者A~Dのローカル計算システム120A~120Dに伝送される。
During game play, users/participants A-D generate game commands that are transmitted via network 123 to cloud game servers 103-1-103-N. In some embodiments, users/participants A-D generate game commands using game controllers 125A-125D, and the game commands are transmitted from game controllers 125A-125D to network 123 and to cloud gaming server 103. -1 to 103-N in signal format.
In some embodiments, game commands are transmitted in the form of signals from game controllers 125A-125D to corresponding local gaming consoles 127A-127D or corresponding display devices 126A-126D, from where game commands are transmitted over network 123. It is transmitted to cloud game servers 103-1 to 103-N.
In various embodiments, transmission of game commands in the form of signals from game controllers 125A-125D to network 123 may occur via wired or wireless network connections, or a combination thereof. Cloud game servers 103-1 to 103-N execute video games according to game commands received from users/participants A to D, and generate video stream(s) reflecting video game play by users/participants A to D. possible). Video stream(s) are transmitted via network 123 from cloud gaming servers 103-1 to 103-N to users/participants A to D's local computing systems 120A to 126D for display on corresponding display devices 126A to 126D. 120D.

クラウドゲームサーバ103-1~103-Nは、ストレージサーバ107または他のクラウドベースのストレージシステムからゲームデータ113及びゲーム実行可能ファイル115をロードする。また、いくつかの実施形態では、クラウドゲームサーバ103-1~103-Nは、ストレージサーバ107または他のクラウドベースのストレージシステムから管理サーバ105-1~105-Xにユーザデータ111をロードする。
最新のビデオゲームでは、大量のユーザデータ111が生成される。ビデオゲーム及びビデオゲームプラットフォーム(ビデオゲーム機)に応じて、所定のユーザ/参加者A~Dのビデオゲーム用に生成される様々な種類のユーザデータ111が存在し得る。
例えば、いくつかの実施形態では、ユーザデータ111は、ユーザ/参加者A~Dの他の種類のデータの中でも、ユーザ/参加者A~Dのためのセーブデータ、ユーザ/参加者A~Dのためのダウンロードデータ、ユーザ/参加者A~Dのための記録データ111A(バッファ内の、または最近プレイされた時間の長さに対するユーザ/参加者A~Dのゲームプレイの記録)、ユーザ/参加者A~Dのトロフィーデータ、ユーザ/参加者A~Dのプロファイルデータ、ユーザ/参加者A~Dのビデオデータ、ユーザ/参加者A~Dのオーディオデータ、ユーザ/参加者A~Dの一時停止及び再開データ(特定の時間においてオンラインゲームシステムの全体的な状態を取得する)を含む。
セーブデータ111Aはユーザデータ111の一部であり、通常、特定のセーブ時間におけるゲームの状態とゲーム内のユーザ/参加者の状態に関するすべてのデータを含むビデオゲームのデータイメージである。ユーザ/参加者A~Dがビデオゲームをプレイするので、ユーザ/参加者A~Dのために作成された多くのセーブデータ111Aイメージが存在する可能性がある。例えば、いくつかの実施形態では、セーブデータ111Aの生成がトリガされる多くの他の時間/例の中でも、あるレベルから別のレベルに移行するとき、またはあるシーンから別のシーンに変わるときなど、ゲームプレイ中の特定の時点で、ユーザ/参加者A~Dのセーブデータ111Aが生成される。また、いくつかの実施形態では、セーブデータ111Aの生成は、ユーザ/参加者A~Dによるメニュー選択によってトリガされる。
Cloud game servers 103-1 through 103-N load game data 113 and game executable files 115 from storage server 107 or other cloud-based storage system. Also, in some embodiments, cloud gaming servers 103-1 through 103-N load user data 111 from storage server 107 or other cloud-based storage system to management servers 105-1 through 105-X.
Modern video games generate large amounts of user data 111. Depending on the video game and video game platform (video game console), there may be various types of user data 111 generated for a given user/participant AD's video game.
For example, in some embodiments, user data 111 includes saved data for users/participants A-D, among other types of data for users/participants A-D. Downloaded data for users/participants A-D, recorded data 111A for users/participants A-D (records of users/participants A-D's game play for length of time in buffer or recently played), for users/participants A-D; Trophy data of participants A to D, profile data of users/participants A to D, video data of users/participants A to D, audio data of users/participants A to D, user/participants A to D Contains pause and resume data (captures the overall state of the online gaming system at a particular time).
Save data 111A is part of user data 111 and is typically a data image of a video game that includes all data regarding the state of the game and the state of users/participants within the game at a particular save time. As users/participants A-D play the video game, there may be many save data 111A images created for users/participants A-D. For example, in some embodiments, when transitioning from one level to another, or from one scene to another, among many other times/examples where the generation of save data 111A is triggered. , save data 111A of users/participants A to D is generated at a specific point during game play. Also, in some embodiments, the generation of save data 111A is triggered by a menu selection by users/participants AD.

図2は、いくつかの実施形態に従って、クラウドゲームシステム101によって提供されるオンラインビデオゲームのプレイ中にユーザ/参加者Aに対してディスプレイデバイス126Aに表示される例示的なユーザインターフェース200を示す。ユーザインターフェース200は、どのユーザが現在オンラインビデオゲームにプレイヤーまたは観客として参加しているかを示すプレイヤー識別セクション201を含む。
プレイヤー識別セクション201は、ユーザ/参加者A~Dが現在オンラインビデオゲームに参加していることを示し、ユーザ/参加者Aの識別子を一意にマーク(例えば、網掛けで)して、ユーザインターフェース200がユーザ/参加者Aのゲームプレイまたは観戦状態に基づいて現在ユーザ/参加者Aに提供されていることを示す。ユーザインターフェース200は、ユーザ/参加者Aによるオンラインゲームの現在のプレイ/観戦に対応するゲームのビデオが表示されるビデオ表示領域203を含む。ユーザインターフェース200はまた、ビデオ表示領域203に現在表示されているゲームビデオに対応するタイムマーク205Aの表示を提供する時間表示205を含み、タイムマーク205Aは、オンラインゲームイベントの予想される期間に亘る時間の規模を表すタイムバー205Bに示される。
FIG. 2 illustrates an example user interface 200 displayed on display device 126A to user/participant A during play of an online video game provided by cloud gaming system 101, according to some embodiments. User interface 200 includes a player identification section 201 that indicates which users are currently participating in an online video game as players or spectators.
Player identification section 201 indicates that users/participants A-D are currently participating in an online video game and uniquely marks (e.g., with shading) an identifier for user/participant A in the user interface. 200 is currently being provided to user/participant A based on user/participant A's game play or viewing status. User interface 200 includes a video display area 203 in which a video of a game corresponding to user/participant A's current playing/watching of an online game is displayed. The user interface 200 also includes a time display 205 that provides a display of time marks 205A corresponding to the game video currently displayed in the video display area 203, the time marks 205A spanning the expected duration of the online game event. This is indicated by a time bar 205B representing the scale of time.

ユーザインターフェース200はまた、ユーザ/参加者A~Dによって提供される様々なコミュニケーションが表示される通信表示領域207を含む。様々な実施形態において、通信表示領域207は、他の種類の通信データがある中でも、テキストデータ、音声データ、オーディオデータ、絵文字データ、画像データ、カメラで取得したビデオデータ、カメラで取得した画像データ、タグのデータ、及びコントローラデバイスの入力データなどの本質的に任意のタイプのユーザ通信(参加者生成コンテンツ)を提示(表示及び/またはリンク)するために備えられる。
いくつかの実施形態では、通信表示領域207の中に提示される各アイテムは、通信に貢献したユーザ/参加者A~Dによって識別子と併せて提示される。いくつかの実施形態では、オーディオ、ビデオ、及び画像コンテンツへのリンクは、通信表示領域207内からアクティブ化可能である。例えば、いくつかの実施形態では、オーディオリンク209を選択すると、対応するオーディオファイルが再生される。また、いくつかの実施形態では、オーディオ通信は、クラウドゲームシステム101によってテキストメッセージに自動転写され、オーディオリンク209に対応するテキストメッセージ209Aによって例示されるように、自動転写されたテキストメッセージが通信表示領域207に表示される。
スクロール制御211は、通信表示領域207の中に表示されるコンテンツを移動するために提供される。いくつかの実施形態では、通信表示領域207の内部に提示されるアイテムは、ビデオ表示領域203に表示されるゲームのビデオに対してタイムインデックスが付けられる。いくつかの実施形態では、ユーザインターフェース200は、ユーザ/参加者A~Dが通信表示領域207の内部に表示するためのコンテンツを提供できるようにするユーザ通信入力制御213も含み、コンテンツは、他の種類のコンテンツがある中でも、テキスト、オーディオ、ビデオ、絵文字、及び画像データのうちの1つまたは複数の指定である。
User interface 200 also includes a communication display area 207 in which various communications provided by users/participants AD are displayed. In various embodiments, the communications display area 207 displays text data, voice data, audio data, pictographic data, image data, camera-captured video data, camera-captured image data, among other types of communication data. , tag data, and controller device input data, essentially any type of user communication (participant generated content).
In some embodiments, each item presented in communication display area 207 is presented with an identifier by the user/participant AD who contributed to the communication. In some embodiments, links to audio, video, and image content can be activated from within communications display area 207. For example, in some embodiments, selecting an audio link 209 plays the corresponding audio file. Additionally, in some embodiments, the audio communication is automatically transcribed into a text message by cloud gaming system 101, and the automatically transcribed text message is displayed as the communication, as illustrated by text message 209A corresponding to audio link 209. It is displayed in area 207.
Scroll control 211 is provided to move content displayed within communication display area 207. In some embodiments, the items presented within communication display area 207 are time indexed relative to the video of the game displayed in video display area 203. In some embodiments, user interface 200 also includes user communications input controls 213 that allow users/participants A-D to provide content for display within communications display area 207; The specification of one or more of text, audio, video, pictograms, and image data, among other types of content.

ユーザインターフェース200は、ユーザ/参加者A~Dがビデオ表示領域203に表示されたビデオにタグを配置できるようにするタグ付け制御215も含む。いくつかの実施形態では、タグ制御215の選択により、ユーザ/参加者A~Dがビデオ表示領域203の内部の位置を選択してタグを配置するプロセスが開始される。様々な実施形態において、タグは、とりわけ、テキスト、オーディオ、ビデオ、絵文字、及び画像データのうちの1つまたは複数である、何らかの関連コンテンツを有する。
タグは、ビデオ表示領域203に表示されるビデオの内部のユーザが選択したピクセル位置に配置される。タグは、ユーザが選択したピクセル位置に関連付けられる。タグはまた、タグが配置されたときにビデオ表示領域203に表示されるビデオに対してタイムインデックスが付けられる。いくつかの実施形態では、タグは、タグがタイムインデックスを付けられているビデオフレームのセットの中のビデオフレームを表示している間に表示されるように、ビデオフレームのセットに対してタイムインデックスが付けられる。
いくつかの実施形態では、タグ付け制御215を選択すると、ビデオ表示領域203に現在表示されているビデオが凍結され、ユーザ/参加者A~Dがタグのコンテンツを指定できるようにする。しかし、いくつかの実施形態では、ユーザ/参加者A~Dがタグのコンテンツを指定するとき、タグ付け制御215を選択することが、ビデオ表示領域203に現在表示されているビデオを凍結しない。また、いくつかの実施形態では、時間表示205は、ビデオ表示領域203の内部にビデオの所望のフレームを表示するために、ユーザ/参加者A~Dがタイムマーク205Aを選択し、タイムバー205Bに沿って移動できるように構成され、それにはタグが付けられることになる。いくつかの実施形態では、ユーザ/参加者A~Dによるタグの挿入が通信表示領域207の内部に示される。
例えば、図2は、ユーザ/参加者Aによって通信表示領域207に入力されたタグT1を示している。タグT1は、ビデオ表示領域203に現在表示されているビデオの内部のピクセル位置217に互いに関連付けられ、タグT1にはオーディオコンテンツが含まれている。いくつかの実施形態では、ビデオ表示領域203及び/または通信表示領域207におけるタグの選択により、タグのコンテンツの表示/再生がトリガされる。例えば、ビデオ表示領域203のタグT1を選択すると、タグT1のオーディオコンテンツが再生される。
User interface 200 also includes tagging controls 215 that allow users/participants AD to place tags on the video displayed in video display area 203. In some embodiments, selection of tag control 215 initiates a process in which users/participants AD select a location within video display area 203 to place a tag. In various embodiments, the tag has some associated content that is one or more of text, audio, video, emoticons, and image data, among others.
The tag is placed at a user-selected pixel location within the video displayed in video display area 203. The tag is associated with a user-selected pixel location. The tag is also time indexed to the video displayed in the video display area 203 when the tag is placed. In some embodiments, the tag is time indexed relative to the set of video frames such that the tag is displayed while displaying a video frame within the set of video frames to which the tag is time indexed. is added.
In some embodiments, selecting tagging control 215 freezes the video currently displayed in video display area 203 and allows users/participants AD to specify the content of the tag. However, in some embodiments, when a user/participant AD specifies content for a tag, selecting the tagging control 215 does not freeze the video currently displayed in the video display area 203. In some embodiments, the time display 205 is also configured such that the user/participant A-D selects the time mark 205A and the time bar 205B to display the desired frame of the video within the video display area 203. It will be configured so that it can be moved along, and it will be tagged. In some embodiments, the insertion of tags by users/participants AD is shown within communication display area 207.
For example, FIG. 2 shows tag T1 entered by user/participant A into communications display area 207. Tag T1 is associated with a pixel location 217 within the video currently displayed in video display area 203, and tag T1 includes audio content. In some embodiments, selection of a tag in video display area 203 and/or communications display area 207 triggers display/playback of the content of the tag. For example, when tag T1 in the video display area 203 is selected, the audio content of tag T1 is played.

いくつかの実施形態では、ユーザインターフェース200は、ユーザ/参加者A~Dが、現在進行中のグループプレイイベント(マルチプレイヤーオンラインゲーム)及び/またはグループ視聴イベントに参加するように別の人をユーザインターフェース200の中に招待できるようにする、招待制御219も含む。いくつかの実施形態では、招待制御219の選択により、ユーザ/参加者A~Dは、参加を招待される人の識別子を指定すること、及び/またはその人を参加のため招待する電子メール、テキストメッセージ、または他のタイプのメッセージを送信することが可能になる。
いくつかの実施形態では、新規ユーザ/参加者が、ユーザインターフェース200の内部で現在進行中のグループプレイイベント(マルチプレイヤーオンラインゲーム)及び/またはグループ視聴イベントに参加するとき、新規ユーザ/参加者は、グループプレイイベント(マルチプレイヤーオンラインゲーム)及び/またはグループ視聴イベントの概要を見て、起こったことや、起こっていることについて手早く知ることを所望する場合がある。これに関して、ユーザインターフェース200は、概要要求制御221を含み、これは、選択されるときに、クラウドゲームシステム101で生成される動的要約キューから概要要求者にオーディオビジュアルの概要を提供するためのプロセスをトリガする。
In some embodiments, the user interface 200 allows users/participants A-D to invite another person to participate in an ongoing group play event (multiplayer online game) and/or group viewing event. Also included is an invite control 219 that allows invitations to be made within interface 200. In some embodiments, selection of the invitation control 219 allows users/participants A-D to specify the identifier of the person to be invited to participate and/or send an email inviting that person to participate; It becomes possible to send text messages, or other types of messages.
In some embodiments, when a new user/participant joins a group play event (multiplayer online game) and/or group viewing event currently in progress within user interface 200, the new user/participant , group play events (multiplayer online games), and/or group viewing events to quickly learn about what happened or is happening. In this regard, the user interface 200 includes a summary request control 221 that, when selected, provides an audiovisual summary to the summary requester from a dynamic summary queue generated at the cloud gaming system 101. Trigger the process.

図3は、いくつかの実施形態による、概要要求制御221の選択時にユーザ/参加者A~Dに対してディスプレイデバイス126Dに表示されるユーザインターフェース300の例を示す。いくつかの実施形態では、ユーザインターフェース300は、概要を要求しなかった他のユーザ/参加者A~Cの1人以上によるオンラインゲームの現在のプレイに対応する、ゲームビデオが表示されるビデオ表示領域301を含む。ユーザインターフェース300は、ビデオ表示領域301に現在表示されているゲームビデオに対応するタイムマーク305Aの表示を提供する時間表示305も含み、タイムマーク305Aは、オンラインゲームイベントの予想される期間に亘る時間の規模を表すタイムバー305Bに示される。 FIG. 3 illustrates an example user interface 300 displayed on display device 126D to users/participants AD upon selection of summary request control 221, according to some embodiments. In some embodiments, the user interface 300 includes a video display in which game video is displayed corresponding to current play of the online game by one or more of the other users/participants A-C who did not request the summary. Including area 301. The user interface 300 also includes a time display 305 that provides a display of time marks 305A corresponding to the game video currently being displayed in the video display area 301, where the time marks 305A are time marks over the expected duration of the online game event. is indicated by a time bar 305B representing the scale of.

ユーザインターフェース300は、グループプレイイベント(マルチプレイヤーオンラインゲーム)及び/またはグループ視聴イベントのオーディオビジュアル概要が、クラウドゲームシステム101で生成される動的要約キューから概要の要求者に提示されるビデオ表示領域303を含む。
ユーザインターフェース300はまた、ビデオ表示領域303に現在表示されている概要コンテンツに対応するタイムマーク307Aの表示をもたらす時間表示307を含み、タイムマーク307Aは、クラウドゲームシステム101の動的要約キューの現在のコンテンツにとっての時間の規模を表すタイムバー307Bに示される。いくつかの実施形態では、タイムマーク307Aは、タイムバー307Bに沿ってドラッグ可能であり、動的要約キューのコンテンツを介するユーザによるナビゲーションを可能にする。
いくつかの実施形態では、タイムバー307BはセグメントS1~S(L)に区切られ、Lはゼロより大きい任意の整数である。セグメントS1~S(L)のそれぞれは、グループプレイイベント(マルチプレイヤーオンラインゲーム)及び/またはグループ視聴イベントの履歴コンテンツのタイムラインの連続部分に対応する。いくつかの実施形態では、ユーザインターフェース300は、ビデオ表示領域303及び時間表示307を含むが、ビデオ表示領域301及びビデオ表示領域305は含まない。
User interface 300 includes a video display area in which an audiovisual summary of a group play event (multiplayer online game) and/or group viewing event is presented to a summary requester from a dynamic summary queue generated in cloud gaming system 101. 303 included.
The user interface 300 also includes a time display 307 that provides the display of a time mark 307A that corresponds to the summary content currently being displayed in the video display area 303, the time mark 307A indicating the current content of the dynamic summary queue of the cloud gaming system 101. The time bar 307B represents the scale of time for the content. In some embodiments, time mark 307A is draggable along time bar 307B to enable navigation by the user through the contents of the dynamic summary queue.
In some embodiments, time bar 307B is divided into segments S1-S(L), where L is any integer greater than zero. Each of the segments S1-S(L) corresponds to a continuous portion of the timeline of historical content of a group play event (multiplayer online game) and/or group viewing event. In some embodiments, user interface 300 includes video display area 303 and time display 307, but does not include video display area 301 and video display area 305.

ユーザインターフェース300はまた、ビデオ表示領域303に現在または最近表示されている動的要約キュー(概要)コンテンツに関連する様々な過去のユーザ/参加者提供コンテンツを表示するための通信表示領域309を含む。様々な実施形態において、通信表示領域309は、他の種類の通信データがある中でも、テキストデータ、音声データ、オーディオデータ、絵文字データ、画像データ、カメラで取得したビデオデータ、カメラで取得した画像データ、タグのデータ、及びコントローラデバイスの入力データなどの本質的に任意のタイプのユーザ/参加者提供コンテンツ(参加者生成コンテンツ)を提示(表示及び/またはリンク)するために備えられる。
いくつかの実施形態では、通信表示領域309の中に提示されるコンテンツの各アイテムは、コンテンツに貢献したユーザ/参加者A~Dによって識別子と併せて提示される。いくつかの実施形態では、オーディオ、ビデオ、及び画像コンテンツへのリンクは、通信表示領域309内からアクティブ化可能である。例えば、いくつかの実施形態では、オーディオリンク310Aを選択すると、対応するオーディオファイルが再生される。また、いくつかの実施形態では、オーディオ通信は、クラウドゲームシステム101によってテキストメッセージに自動転写され、オーディオリンク310Aに対応するテキストメッセージ310Bによって例示されるように、自動転写されたテキストメッセージが通信表示領域309に表示される。スクロール制御311は、通信表示領域309の内部でユーザ/参加者が提供するコンテンツをナビゲートするために提供される。いくつかの実施形態では、通信表示領域309の内部に提示されるユーザ/参加者提供のコンテンツアイテムは、ビデオ表示領域303に表示される動的要約キュー(概要)のコンテンツに対してタイムインデックスが付けられる。
User interface 300 also includes a communications display area 309 for displaying various past user/participant provided content related to dynamic summary cue (summary) content currently or recently displayed in video display area 303 . In various embodiments, the communications display area 309 may display text data, voice data, audio data, pictogram data, image data, camera-captured video data, camera-captured image data, among other types of communication data. , tag data, and controller device input data.
In some embodiments, each item of content presented in communication display area 309 is presented with an identifier by the user/participant AD who contributed the content. In some embodiments, links to audio, video, and image content can be activated from within communications display area 309. For example, in some embodiments, selecting audio link 310A plays the corresponding audio file. Additionally, in some embodiments, the audio communication is automatically transcribed into a text message by cloud gaming system 101, and the automatically transcribed text message is displayed as the communication, as illustrated by text message 310B corresponding to audio link 310A. It is displayed in area 309. Scroll controls 311 are provided to navigate user/participant provided content within communication display area 309. In some embodiments, the user/participant-provided content items presented within the communications display area 309 are time-indexed relative to the content of the dynamic summary cue (summary) displayed in the video display area 303. Can be attached.

また、いくつかの実施形態では、動的要約キューは、ユーザインターフェース300の内部に提供される共有概要制御315を選択することによって、別のユーザ/参加者と共有することができる。例えば、いくつかの実施形態では、共有概要制御315の選択は、動的要約キューが共有されるべき人物の識別子を選択することができるインターフェースをトリガする。いくつかの実施形態では、共有概要制御315の選択は、動的要約キューが共有される相手に電子メール及び/またはメッセージが送信されるインターフェースをトリガする。いくつかの実施形態では、動的要約キューの共有は、グループプレイイベント(マルチプレイヤーオンラインゲーム)及び/またはグループ視聴イベントのユーザ/参加者の身元が秘密に保たれるように、プライベート及び/または匿名の方法で行われる。いくつかの実施形態では、ユーザインターフェース300はまた、選択されるとユーザインターフェース300を閉じ、ユーザ/参加者を図2のユーザインターフェース200などの別のユーザインターフェースに戻す、終了概要制御317を含む。 Also, in some embodiments, the dynamic summary queue can be shared with another user/participant by selecting a share summary control 315 provided within the user interface 300. For example, in some embodiments, selection of the sharing summary control 315 triggers an interface that can select the identifier of the person with whom the dynamic summary queue is to be shared. In some embodiments, selection of the sharing summary control 315 triggers an interface in which an email and/or message is sent to the person with whom the dynamic summary queue is shared. In some embodiments, the sharing of dynamic summary queues is private and/or done in an anonymous manner. In some embodiments, user interface 300 also includes an exit summary control 317 that, when selected, closes user interface 300 and returns the user/participant to another user interface, such as user interface 200 of FIG.

クラウドゲームシステム101で動的要約キューを生成し、要求者に動的要約キューを提供することにより、オンライングループイベント(オンラインビデオゲームやメディアアイテムの提示)に遅れて参加する要求者が、オンライングループイベントの間に起こったことについて、迅速に手早く知ることができる。また、動的要約キューのコンテンツは、グループイベント中にグループ内の他のユーザ/参加者によって提供された履歴入力コンテンツに基づいて選択/生成されることも理解されたい。
このように、動的要約キューのコンテンツは、グループイベントの間のグループ内の他のユーザ/参加者の過去の考えや行動を反映している。また、図1~3の例は主にオンラインビデオゲームのグループプレイという状況で説明されているが、本明細書で開示される動的要約キューの生成及び提供の原理は、本質的にあらゆるタイプのメディアアイテムのマルチユーザ/参加者のオンライン消費(視聴)に同様に適用できることを理解されたい。したがって、いくつかの実施形態では、動的要約キューが生成されるメディアアイテムは、ビデオゲームのゲームビデオ及びオーディオのストリームである。また、いくつかの実施形態では、動的要約キューが生成されるメディアアイテムは、オーディオビジュアルプレゼンテーションであり、オーディオビジュアルプレゼンテーションは、映画、テレビ番組、現実世界のスポーツイベント、電子スポーツイベント、オンラインショー、オンラインビデオ、及び/またはアップロードされたビデオ、その他の本質的にいずれかの種類のオーディオビジュアルプレゼンテーションの1つ以上である。以下の動的要約キューの生成及び提供を説明する際、「メディアアイテム(media item)」という用語は、動的要約キューが生成されるコンテンツを指すために使用される。
By generating a dynamic summary queue in the cloud gaming system 101 and providing the dynamic summary queue to the requester, a requester who joins an online group event (such as the presentation of an online video game or media item) late can participate in the online group event. You can quickly find out about what happened during an event. It should also be appreciated that the content of the dynamic summary queue is selected/generated based on historical input content provided by other users/participants in the group during the group event.
In this way, the content of the dynamic summary cue reflects the past thoughts and actions of other users/participants in the group during the group event. Additionally, although the examples of FIGS. 1-3 are described primarily in the context of group play of online video games, the principles of dynamic summary cue generation and provision disclosed herein are applicable to essentially any type of dynamic summary cue. It should be understood that the same applies to multi-user/participant online consumption (viewing) of media items. Accordingly, in some embodiments, the media items for which dynamic summary cues are generated are streams of game video and audio of a video game. Also, in some embodiments, the media item for which the dynamic summary cue is generated is an audiovisual presentation, and the audiovisual presentation includes a movie, a television show, a real-world sporting event, an electronic sporting event, an online show, One or more of online videos, and/or uploaded videos, and essentially any other type of audiovisual presentation. In describing the generation and provision of dynamic summary cues below, the term "media item" is used to refer to the content for which a dynamic summary cue is generated.

図4は、いくつかの実施形態による、メディアアイテム415の動的要約キュー425を生成及び提供するシステム400の図を示す。メディアアイテム415がオンライングループイベントの中でユーザ/参加者A~Dによって消費(視聴)されると、異なるユーザ/参加者A~Dは、それぞれの入力チャネル401A、401B、401C、401D(401A~401D)を時間の関数として生成する。入力チャネル401A~401Dを総称して入力チャネル401と呼ぶ。入力チャネル401は、ユーザ/参加者A~Dがメディアアイテム415を消費するときに提供される、様々なタイプのユーザ/参加者生成コンテンツを含む。様々な実施形態において、入力チャネル401内部のユーザ/参加者生成コンテンツのタイプは、所与のユーザ/参加者A~Dがメディアアイテム415を消費するときに所与のユーザ/参加者A~Dに関連付けることができる本質的にいずれかの他のタイプのデータの中でも、テキストデータ、音声データ、オーディオデータ、絵文字データ、画像データ、カメラで取得されたビデオデータ、カメラで取得された画像データ、タグのデータ、及びコントローラデバイス入力データのうちの1つまたは複数が含まれる。
様々な実施形態において、グループ内のユーザ/参加者A~Dは、本質的に任意のタイプの入力を提供し、その入力をメディアアイテム415及び/またはメディアアイテム415の中の特定の機能と、メディアアイテム415のタイムラインの特定の時点に関連付けることができる。例えば、いくつかの実施形態では、入力チャネル401は、メディアアイテム415が消費されるときに、ユーザ/参加者A~Dが時間の関数として入力を提供するチャットストリームを含むことができ、ユーザ/参加者が生成した入力は、メディアアイテム415のタイムラインにタイムインデックスが付けられる。入力チャネル401は、ユーザ/参加者A~Dがメディアアイテム415を消費するときにユーザ/参加者A~Dにより生成されるため、入力チャネル401の中のコンテンツの各アイテムとメディアアイテム415のタイムラインとの間には時間的相関が存在する。いくつかの実施形態では、入力チャネル401は、ユーザ/参加者A~D自身のカメラで取得された画像及び/またはビデオを含み、これらはシステム400内で分析されて、他の種類の入力情報の中でも、反応、顔の表情、ジェスチャなどの入力情報を取得することができる。
FIG. 4 depicts a diagram of a system 400 that generates and provides a dynamic summary queue 425 of media items 415, according to some embodiments. When a media item 415 is consumed (viewed) by a user/participant A-D in an online group event, different users/participants A-D can access their respective input channels 401A, 401B, 401C, 401D (401A-D). 401D) as a function of time. Input channels 401A to 401D are collectively referred to as input channel 401. Input channel 401 includes various types of user/participant generated content that are provided when users/participants A-D consume media items 415. In various embodiments, the type of user/participant-generated content within input channel 401 is unique to a given user/participant A-D when a given user/participant A-D consumes media item 415. text data, voice data, audio data, emoticon data, image data, video data captured by a camera, image data captured by a camera, among essentially any other types of data that can be associated with One or more of tag data and controller device input data is included.
In various embodiments, users/participants A-D within a group may provide essentially any type of input and associate that input with media item 415 and/or a particular feature within media item 415; A media item 415 can be associated with a particular point in time in its timeline. For example, in some embodiments, input channel 401 may include a chat stream in which users/participants A-D provide input as a function of time as media item 415 is consumed; Participant-generated input is time-indexed to the timeline of media items 415. Input channel 401 is generated by users/participants A-D as they consume media item 415, so that each item of content in input channel 401 and the time of media item 415 There is a temporal correlation between the lines. In some embodiments, input channel 401 includes images and/or videos captured with users/participants AD's own cameras, which are analyzed within system 400 to provide other types of input information. Among other things, it can capture input information such as reactions, facial expressions, and gestures.

システム400は、入力チャネル401のコンテンツを時間の関数として分析し、メディアアイテム415のどの部分が時間の関数として動的要約キュー425の中に含まれるかについての情報を取得/決定するように動作する。グループ内のユーザ/参加者A~Dによって提供される入力チャネル401は、メディアアイテム415のコンテキスト内で分析されて、メディアアイテム415のどの部分が他の部分よりも関連性が高いかを判断し、メディアアイテム415のこれらのより関連性の高い部分が、動的要約キュー425に含めるために識別される。また、システム400は、メディアアイテム415のコンテンツ自体を時間の関数として分析し、メディアアイテム415のどの部分が時間の関数として動的要約キュー425の中に含まれるかについての情報を取得/判定するように動作する。また、いくつかの実施形態では、メディアアイテム415の状態データ及び/またはメタデータ(状態/メタデータ417)は、メディアアイテム415のどの部分を時間の関数として動的要約キュー425内に含めるべきかについての情報を取得/判定するために、時間の関数として分析される。 The system 400 is operative to analyze the content of the input channel 401 as a function of time and obtain/determine information about which portions of the media items 415 are included in the dynamic summary queue 425 as a function of time. do. The input channels 401 provided by users/participants A-D in the group are analyzed within the context of the media item 415 to determine which parts of the media item 415 are more relevant than other parts. , these more relevant portions of the media item 415 are identified for inclusion in the dynamic summary queue 425. The system 400 also analyzes the content of the media item 415 itself as a function of time to obtain/determine information about which portions of the media item 415 are included in the dynamic summary queue 425 as a function of time. It works like this. In some embodiments, state data and/or metadata (state/metadata 417) for media item 415 also determines which portions of media item 415 should be included in dynamic summary queue 425 as a function of time. analyzed as a function of time to obtain/determine information about

動的要約キュー425は、グループ内のユーザ/参加者A~Dによって提供された入力チャネル401のコンテンツの分析に基づいて、グループ内のユーザ/参加者A~Dが最も関連性があると考えたメディアアイテム415の部分を含む。したがって、メディアアイテム415の動的要約キュー425は、新しいユーザ/参加者A~Dがグループに到着する前にメディアアイテム415の消費に参加したグループ内の他のユーザ/参加者A~Dによって提供された入力チャネル401の分析に基づいて関連すると考えられるメディアアイテム415の部分を示すことによって、グループ内の新しいユーザ/参加者A~Dが迅速に手早く知ることを可能にする。動的要約キュー425は常に動的に生成される。動的要約キュー425のコンテンツは、時間の関数としてグループ内のユーザ/参加者A~Dによって提供される入力チャネル401のコンテンツの処理に基づいており、入力チャネル401のコンテンツは時間の関数として変更される可能性があり、グループ内のユーザ/参加者A~Dの構成は時間の関数として変化にさらされる。
したがって、グループ内のユーザ/参加者A~Dによって提供される入力チャネル401内のコンテンツが変化する場合、動的要約キュー425のコンテンツが変化する可能性がある(動的である)。例えば、入力チャネル401のコンテンツが、メディアアイテム415のタイムラインの後半で起こる、グループ内のユーザ/参加者A~Dの行動、発言、表現、反応、感情、性格などの変化を含む場合、その変更を使用して、メディアアイテム415のタイムラインで以前に受信された入力チャネル401のコンテンツに基づいて以前に決定された動的要約キュー425のコンテンツを更新することができる。したがって、いくつかの実施形態では、動的要約キュー425は、動的要約キュー425にすでに配置されているコンテンツが、入力チャネル401の中で後で受信される情報に基づいて変更される可能性があるという意味で動的である。
The dynamic summary queue 425 determines which users/participants A-D in the group are considered to be the most relevant based on an analysis of the content of the input channels 401 provided by the users/participants A-D in the group. includes a portion of the media item 415 that was Accordingly, the dynamic summary queue 425 of the media item 415 is provided by other users/participants A-D in the group that participated in the consumption of the media item 415 before the new user/participant A-D arrived in the group. By indicating portions of media items 415 that are considered relevant based on an analysis of the input channels 401 that have been input, it allows new users/participants A-D in the group to quickly get up to speed. Dynamic summary queue 425 is always dynamically generated. The content of the dynamic summary queue 425 is based on the processing of the content of the input channel 401 provided by users/participants A-D in the group as a function of time, and the content of the input channel 401 changes as a function of time. The composition of users/participants A-D within a group is subject to change as a function of time.
Therefore, if the content in the input channel 401 provided by users/participants AD in the group changes, the content of the dynamic summary queue 425 may change (is dynamic). For example, if the content of input channel 401 includes changes in the actions, statements, expressions, reactions, emotions, personalities, etc. of users/participants A-D in the group that occur later in the timeline of media item 415, then The changes may be used to update the content of the dynamic summary queue 425 that was previously determined based on the content of the input channel 401 that was previously received in the timeline of the media item 415. Accordingly, in some embodiments, the dynamic summary queue 425 provides the possibility that content already placed in the dynamic summary queue 425 may be modified based on information later received in the input channel 401. It is dynamic in the sense that there is.

いくつかの実施形態では、入力チャネル401は、特徴セレクタ403を通じて処理されて、入力チャネル401から特徴を選択する。いくつかの実施形態では、特徴セレクタ403は、入力チャネル401を定義するデータがシステム400によって受信されると、入力チャネル401をリアルタイムで自動的に解析して入力チャネル401からの特徴を選択するコンピューティングシステムで実行されるアルゴリズム/プログラムである。入力チャネル401から選択される特徴は、ユーザ/参加者A~Dが消費するメディアアイテム415にユーザ/参加者A~Dがどのように応答するかについての情報を伝える様々なタイプの入力である。
様々な実施形態において、特徴は、入力チャネル401内部のユーザ/参加者生成コンテンツ、例えば所与のユーザ/参加者A~Dがメディアアイテム415を消費するときに所与のユーザ/参加者A~Dに関連付けることができる本質的にいずれかの他のタイプのデータの中でも、テキストデータ、音声データ、オーディオデータ、絵文字データ、画像データ、カメラで取得されたビデオデータ、カメラで取得された画像データ、タグのデータ、及びコントローラデバイス入力データのうちの1つまたは複数が含まれる。いくつかの実施形態では、特徴セレクタ403は、ユーザ/参加者A~Dが消費したメディアアイテム415にユーザ/参加者A~Dがどのように応答したかを判定するのに冗長である、及び/または無関係である、入力チャネル401内の入力項目を削除するように動作する。
In some embodiments, input channel 401 is processed through feature selector 403 to select features from input channel 401. In some embodiments, feature selector 403 includes a computer that automatically analyzes input channel 401 in real time to select features from input channel 401 once data defining input channel 401 is received by system 400. It is an algorithm/program that is executed on a processing system. The features selected from the input channels 401 are various types of input that convey information about how the users/participants A-D respond to the media items 415 that they consume. .
In various embodiments, the features include user/participant-generated content within input channel 401, e.g., when a given user/participant A-D consumes media item 415. Text data, voice data, audio data, emoticon data, image data, camera-captured video data, camera-captured image data, among essentially any other types of data that can be associated with D. , tag data, and controller device input data. In some embodiments, the feature selector 403 is redundant in determining how the user/participant A-D responded to the media item 415 that the user/participant A-D consumed; and and/or operate to delete input items in input channel 401 that are irrelevant.

特徴セレクタ403によって入力チャネル401から選択された特徴は、入力特徴として、入力特徴から新しい特徴を抽出/導出するように動作する特徴抽出器405に提供され、これらの新しい特徴は、抽出された特徴407と呼ばれる。いくつかの実施形態では、特徴抽出器405は、特徴セレクタ403から受け取った入力特徴からリアルタイムで特徴を自動的に抽出/導出するコンピューティングシステムで実行されるアルゴリズム/プログラムである。いくつかの実施形態では、抽出された特徴は、ユーザ/参加者A~Dによって消費されたメディアアイテム415に対してユーザ/参加者A~Dがどのように反応したかを示す情報となるように定義される。また、いくつかの実施形態では、抽出された特徴は、冗長にならないように定義される。いくつかの実施形態では、抽出された特徴407は、メディアアイテム415を消費している間にユーザ/参加者A~Dから入力チャネル401で受信された情報のリアルタイムの動的統合を総括的に表す。 The features selected from the input channel 401 by the feature selector 403 are provided as input features to a feature extractor 405 which operates to extract/derive new features from the input features, and these new features are used as the extracted features. It is called 407. In some embodiments, feature extractor 405 is an algorithm/program running on a computing system that automatically extracts/derives features in real time from the input features received from feature selector 403. In some embodiments, the extracted features may be information indicative of how the users/participants A-D reacted to the media items 415 consumed by the users/participants A-D. is defined as Also, in some embodiments, the extracted features are defined so as not to be redundant. In some embodiments, extracted features 407 collectively represent a real-time dynamic integration of information received on input channel 401 from users/participants A-D while consuming media item 415. represent.

いくつかの実施形態では、抽出された特徴407は、抽出された特徴407が複数のカテゴリのうちのどれに属するかを判定するように動作する特徴分類器409への入力として提供される。いくつかの実施形態では、抽出された特徴407のカテゴリ属性に関する情報が抽出された特徴407に付加されて、機械学習モデル413への入力として提供される分類された特徴のセット411が生成される。機械学習モデル413は、メディアアイテム415のどの部分及び/または入力チャネル401内の情報のどの部分が動的要約キュー425の中に含まれるかを自動的に判定するコンピューティングシステムで実行されるアルゴリズム/プログラムである。いくつかの実施形態では、機械学習モデル413は、コンテンツベースのフィルタリングアルゴリズム及び/または協調フィルタリングアルゴリズム及び/またはメディアアイテム415のどの部分及び/または入力チャネル401内の情報のどの部分が、メディアアイテム415を消費するときに、ユーザ/参加者A~Dによってより適切性があるとみなされたかを判定するための他のアプローチを実装する要求者システムである。いくつかの実施形態では、メディアアイテム415及びメディアアイテム415の状態/メタデータ417は、機械学習モデル413への入力として提供される。 In some embodiments, extracted features 407 are provided as input to a feature classifier 409 that operates to determine which of a plurality of categories the extracted features 407 belong to. In some embodiments, information about the categorical attributes of extracted features 407 is appended to extracted features 407 to generate a set of classified features 411 that is provided as input to machine learning model 413. . Machine learning model 413 is an algorithm executed on a computing system that automatically determines which portions of media items 415 and/or which portions of information within input channel 401 are included in dynamic summary queue 425. / program. In some embodiments, machine learning model 413 uses content-based filtering algorithms and/or collaborative filtering algorithms to determine which portions of media items 415 and/or which portions of information within input channel 401 A requestor system implementing other approaches for determining which is deemed more appropriate by users/participants A-D when consuming a . In some embodiments, media item 415 and state/metadata 417 of media item 415 are provided as input to machine learning model 413.

また、いくつかの実施形態では、システム400は、メディアアイテム415、メディアアイテム415の状態/メタデータ417、特徴セレクタ403によって入力チャネル401から選択された特徴、特徴抽出器405によって出力された抽出された特徴407、及び特徴分類器409によって出力された分類された特徴のセット411うちの1つまたは複数に関連するコンテキストを自動的に判定/識別するコンピューティングシステムで実行されるアルゴリズム/プログラムとして実装されるコンテキスト分析エンジン418を含む。様々な実施形態において、コンテキスト分析エンジン418によって所与の情報の一部または情報のセットに対して判定/識別されたコンテキストは、機械学習モデル413への入力として提供される。例えば、いくつかの実施形態では、コンテキスト分析エンジン418によって所与の情報の一部または情報のセットに対して判定/識別されたコンテキストは、メディアアイテム415の中の特定のシーンなど、メディアアイテム415の特定の部分の説明または特徴付けである。 In some embodiments, the system 400 also includes information about the media item 415, the state/metadata 417 of the media item 415, the features selected from the input channel 401 by the feature selector 403, the extracted information output by the feature extractor 405, implemented as an algorithm/program executed on a computing system that automatically determines/identifies the context associated with one or more of the classified features 407 and the set of classified features 411 output by the feature classifier 409; The content analysis engine 418 includes a context analysis engine 418. In various embodiments, the context determined/identified for a given piece or set of information by context analysis engine 418 is provided as an input to machine learning model 413. For example, in some embodiments, the context determined/identified by context analysis engine 418 for a given piece of information or set of information may include a specific scene within media item 415, such as a particular scene within media item 415. is a description or characterization of a particular part of

特徴セレクタ403、特徴抽出器405、特徴分類器409、コンテキスト分析エンジン418、及び機械学習モデル413は、システム400の例示的な実施形態を表すことを理解されたい。他の実施形態では、システム400は、ユーザ/参加者A~Dによるメディアアイテム415の消費中に入力チャネル401に提供されるユーザ/参加者により生成された入力に基づいて、メディアアイテム415のどの部分がグループのユーザ/参加者A~Dとの関連性が高いと考えられるかを識別する機能を有する、本質的に任意のタイプの機械学習アプローチを実装することができる。システム400によって実装される特定のタイプの機械学習アプローチに関係なく、いくつかの実施形態では、機械学習モデル413は、動的要約キュー425に含めるためのコンテンツの推奨を生成するためにクエリされることができる。いくつかの実施形態では、機械学習モデル413は、ユーザ/参加者A~Dによるメディアアイテム415の消費中、入力チャネル401で提供されたユーザ/参加者が生成した情報に基づいて、動的要約キュー425に含めるコンテンツの推奨を生成するために、機械学習モデル413のクエリをトリガする概要要求419を受信する。いくつかの実施形態では、概要要求419は、図2の概要要求制御221の選択に応じてトリガされる。 It should be appreciated that feature selector 403, feature extractor 405, feature classifier 409, context analysis engine 418, and machine learning model 413 represent example embodiments of system 400. In other embodiments, the system 400 determines which of the media items 415 based on user/participant-generated input provided to the input channel 401 during consumption of the media items 415 by the users/participants A-D. Essentially any type of machine learning approach can be implemented that has the ability to identify which parts are considered to be highly relevant to users/participants AD of the group. Regardless of the particular type of machine learning approach implemented by system 400, in some embodiments machine learning model 413 is queried to generate recommendations for content for inclusion in dynamic summary queue 425. be able to. In some embodiments, machine learning model 413 generates dynamic summaries based on user/participant-generated information provided on input channel 401 during consumption of media items 415 by users/participants A-D. A summary request 419 is received that triggers a query of machine learning model 413 to generate recommendations for content to include in queue 425 . In some embodiments, summary request 419 is triggered in response to selection of summary request control 221 of FIG.

システム400は、機械学習モデル413によって生成された動的要約キュー425に含めるためのコンテンツの推奨に対応する動的要約キューデータ421を収集/コンパイルするように動作する。いくつかの実施形態では、動的要約キューデータ421は、メディアアイテム415の様々な部分のビデオデータ及び/またはオーディオデータを含む。また、いくつかの実施形態では、動的要約キューデータ421は、動的要約キュー425の中に含まれるメディアアイテム415の部分に対応する、入力チャネル401で受信された情報の一部をさらに含む。また、いくつかの実施形態では、システム400は、動的要約キュー425の中に含まれるメディアアイテム415の1つ以上の部分のコンピュータ生成の自然言語テキスト及び/またはオーディオ/口頭要約を作成するように動作する自然言語生成器420を含む。いくつかの実施形態では、自然言語生成器420は、要約される情報を指定する機械学習モデル413から入力データを受け取り、受信した入力データの自然言語のテキスト及び/またはオーディオ要約を生成するコンピューティングシステムで実行されるアルゴリズム/プログラムである。 System 400 operates to collect/compile dynamic summary queue data 421 corresponding to recommendations of content for inclusion in dynamic summary queue 425 generated by machine learning model 413 . In some embodiments, dynamic summary cue data 421 includes video and/or audio data for various portions of media item 415. Additionally, in some embodiments, dynamic summary queue data 421 further includes a portion of the information received on input channel 401 that corresponds to the portion of media item 415 that is included within dynamic summary queue 425. . In some embodiments, system 400 is also configured to create computer-generated natural language text and/or audio/verbal summaries of one or more portions of media items 415 that are included within dynamic summary queue 425. a natural language generator 420 that operates on the natural language generator 420; In some embodiments, natural language generator 420 receives input data from machine learning model 413 that specifies information to be summarized and generates a natural language textual and/or audio summary of the received input data. It is an algorithm/program that runs on the system.

動的要約キューデータ421は、動的要約キューデータ421を動的要約キュー425にアセンブルするように動作する動的要約キューアセンブラ423に提供される。また、システム400は、動的要約キュー425のコンテンツを、要求された概要ストリーム427として、概要要求419を受信した要求者のコンピュータシステムに送信するように構成されている。いくつかの実施形態では、要求された概要ストリーム427は、ビデオ及びオーディオデータを含むビデオストリームである。いくつかの実施形態では、システム400は、インターネットを介して要求者のコンピュータシステムに送信する前に、要求された概要ストリーム427を符号化するように構成されている。様々な実施形態において、システム400は、要求された概要ストリーム427を要求者のコンピュータシステムに送信するために、インターネットを介してデータを送信するための本質的に任意の技術を実装することができる。いくつかの実施形態では、要求された概要ストリーム427は、図4のユーザインターフェース300のビデオ表示領域303に示される。 Dynamic summary queue data 421 is provided to a dynamic summary queue assembler 423 that operates to assemble dynamic summary queue data 421 into a dynamic summary queue 425 . The system 400 is also configured to send the contents of the dynamic summary queue 425 as a requested summary stream 427 to the requester's computer system that received the summary request 419. In some embodiments, requested summary stream 427 is a video stream that includes video and audio data. In some embodiments, system 400 is configured to encode requested summary stream 427 before transmitting it to the requester's computer system over the Internet. In various embodiments, the system 400 may implement essentially any technique for transmitting data over the Internet to transmit the requested summary stream 427 to the requester's computer system. . In some embodiments, requested summary stream 427 is shown in video display area 303 of user interface 300 in FIG. 4.

所与の時点における動的要約キュー425のコンテンツは、機械学習モデル413に提供される入力の関数である。いくつかの実施形態では、動的要約キュー425の要求者には、動的要約キュー425の生成をカスタマイズする能力が提供される。例えば、図3を参照すると、いくつかの実施形態では、ユーザインターフェース300は、選択されると、動的要約キュー425の要求者が、動的要約キュー425の生成のための様々なオプションをカスタマイズできるようにするユーザインターフェースの表示をトリガする概要オプション制御313を含む。 The content of dynamic summary queue 425 at a given point in time is a function of the input provided to machine learning model 413. In some embodiments, a requester of dynamic summary queue 425 is provided with the ability to customize the generation of dynamic summary queue 425. For example, referring to FIG. 3, in some embodiments, user interface 300 allows a requester of dynamic summary queue 425 to customize various options for the generation of dynamic summary queue 425. It includes an overview options control 313 that triggers the display of a user interface that allows the user to perform the following actions.

図5Aは、いくつかの実施形態に従って、動的要約キュー425の要求者が動的要約キュー425の生成方法をカスタマイズできるようにするための様々な制御を提供する例示的なユーザインターフェース500を示す。いくつかの実施形態では、ユーザ/参加者A~Dが概要オプション制御313を選択すると、ユーザインターフェース500が表示される。いくつかの実施形態では、概要オプションユーザインターフェース500は、参加者ベース制御501、時間枠制御503、概要分解制御505、イベントタイプ制御507、及び表示タイプ制御509のうちの1つまたは複数を提供し、これらは集合的に、概要オプションとして示される。いくつかの実施形態では、ユーザインターフェース500は、概要オプションのそれぞれに対する現在の設定の表示を提供する。
また、いくつかの実施形態では、ユーザインターフェース500は、概要オプションのそれぞれに対してそれぞれの「変更(Change)」制御を提供し、選択されると、対応する概要オプションの現在の設定を変更するための別のユーザインターフェースの表示をトリガする。また、いくつかの実施形態では、ユーザインターフェース500は、各概要オプションに対してそれぞれの「リセット(Reset)」制御を提供し、これが選択されると、対応する概要オプションがデフォルト設定にリセットされる。
FIG. 5A illustrates an example user interface 500 that provides various controls to enable a requester of a dynamic summary queue 425 to customize how the dynamic summary queue 425 is generated, according to some embodiments. . In some embodiments, when a user/participant AD selects summary options control 313, user interface 500 is displayed. In some embodiments, summary options user interface 500 provides one or more of participant-based controls 501, time frame controls 503, summary decomposition controls 505, event type controls 507, and display type controls 509. , these are collectively shown as summary options. In some embodiments, user interface 500 provides a display of current settings for each of the summary options.
In some embodiments, the user interface 500 also provides a respective "Change" control for each of the summary options that, when selected, changes the current setting of the corresponding summary option. Trigger the display of another user interface for. In some embodiments, the user interface 500 also provides a respective "Reset" control for each summary option, which, when selected, resets the corresponding summary option to its default settings. .

図5Bは、いくつかの実施形態による、図5Aのユーザインターフェース500の参加者ベース制御501の中で「変更」制御が選択されたときに表示されるユーザインターフェース511の例を示す。ユーザインターフェース511は、動的要約キュー425(概要:recap)の要求者が、グループ内のどのユーザ/参加者A~Dを動的要約キュー425を生成するための入力ソースとして使用するかを選択できるようにする。いくつかの実施形態では、ユーザインターフェース511は、ユーザ/参加者A~Dのそれぞれに対する変更制御513を含み、これが選択されると、ユーザ/参加者A~Dの現在の参加者ベースの設定を「含める(include)」と「除外する(exclude)」との間で切り替える。
所与のユーザ/参加者A~Dが「含める」の現在の参加者ベース設定を有する場合、所与のユーザ/参加者A~Dに関連付けられた入力チャネル401は、動的要約キュー425を生成する際にシステム400によって使用されることになる。逆に、所与のユーザ/参加者A~Dが「除外する」の現在の参加者ベース設定を有する場合、所与のユーザ/参加者A~Dに関連付けられた入力チャネル401は、動的要約キュー425を生成する際にシステム400によって使用されないことになる。したがって、参加者ベース制御501を使用することによって、動的要約キュー425の要求者は、どのユーザ/参加者A~D入力チャネル401が動的要約キュー425を生成するための基礎として使用されるかをカスタマイズすることができる。
FIG. 5B shows an example of a user interface 511 that is displayed when a "Change" control is selected within the participant-based controls 501 of the user interface 500 of FIG. 5A, according to some embodiments. User interface 511 allows a requester of dynamic recap queue 425 (summary: recap) to select which users/participants A-D in the group to use as input sources for generating dynamic recap queue 425. It can be so. In some embodiments, the user interface 511 includes a change control 513 for each user/participant A-D that, when selected, changes the current participant-based settings for the user/participant A-D. Toggle between "include" and "exclude".
If a given user/participant A-D has a current participant-based setting of "Include," then the input channel 401 associated with a given user/participant A-D will not include the dynamic summary queue 425. It will be used by system 400 in generating. Conversely, if a given user/participant A-D has a current participant-based setting of "exclude", then the input channel 401 associated with the given user/participant A-D is It will not be used by system 400 in generating summary queue 425. Therefore, by using participant-based control 501, a requester of dynamic summary queue 425 can determine which users/participants A-D input channels 401 are used as the basis for generating dynamic summary queue 425. or can be customized.

例えば、動的要約キュー425の要求者が、ユーザ/参加者A及びCと同様の興味及び/または嗜好を持っていることを知っているが、要求者がユーザ/参加者B及びDを知らない場合、図5Bの例に示すように、要求者は動的要約キュー425の生成において、ユーザ/参加者A及びCを「含める」とともに、ユーザ/参加者B及びDを「除外する」参加者ベース制御501を使用することができる。このようにして、動的要約キュー425の要求者は、動的要約キュー425のコンテンツが自分の興味及び/または嗜好とより一致するものであると確信することができる。別の例では、動的要約キュー425の要求者がグループ内のユーザ/参加者A~Dを知らない場合、要求者は参加者ベース制御501を使用して、すべてのユーザ/参加者A~Dを「含める」ことができ、要求者が動的要約キュー425を見るとき、要求者はメディアアイテム415について最新の情報を手早く知ることができるだけでなく、グループ内のユーザ/参加者A~Dの興味及び/または好みが自分の興味及び/または好みと一致するかどうかを判断することもできるだけでなく、動的要約キュー425の要求者は、グループイベントにユーザ/参加者A~Dとともに参加したいかどうかについて情報に基づいた決定を下すことができる。いくつかの実施形態では、参加者ベース制御501のデフォルト設定は、すべての入力チャネル401A~401Dが動的要約キュー425の生成に使用されるように、グループ内のすべてのユーザ/参加者A~Dを「含める」ものである。 For example, a requester of dynamic summary queue 425 knows that users/participants A and C have similar interests and/or preferences, but the requester does not know users/participants B and D. If not, as shown in the example of FIG. User-based control 501 can be used. In this way, a requester of dynamic summary queue 425 can be confident that the content of dynamic summary queue 425 is more consistent with his or her interests and/or preferences. In another example, if the requester of the dynamic summary queue 425 does not know the users/participants A-D in the group, the requester can use participant-based controls 501 to D can be "included" so that when the requester views the dynamic summary queue 425, the requester not only has the most up-to-date information about the media item 415, but also the users/participants A-D in the group. In addition to being able to determine whether the interests and/or preferences of the dynamic summary queue 425 match those of the user/participant A-D, the requester of the dynamic summary queue 425 may also be able to determine whether the interests and/or preferences of You can make an informed decision about whether you want to. In some embodiments, the default setting of participant-based control 501 is to connect all users/participants A to 401 in a group such that all input channels 401A to 401D are used to generate dynamic summary queue 425. It “includes” D.

図5Cは、いくつかの実施形態による、図5Aのユーザインターフェース500の時間枠制御503の中で「変更」制御が選択されたときに表示されるユーザインターフェース515の例を示す。時間枠制御503により、動的要約キュー425の要求者は、動的要約キュー425が生成されるメディアアイテム415のタイムラインに沿った時間枠を選択できるようになる。いくつかの実施形態では、時間枠制御503により、ユーザは、メディアアイテム415のタイムラインの開始(時間0:00)からユーザ/参加者のグループA~Dに対して進行中のメディアアイテム415のライブ再生の現在時刻に亘る全体の時間の範囲にある、動的要約キュー425の生成のための時間枠516を選択することができる。いくつかの実施形態では、時間枠制御503は、動的要約キュー425の生成のための時間枠516を設定できる全体の時間の範囲を表すタイムバー517を提供する。また、いくつかの実施形態では、時間枠制御503は、第1のスライダ制御519を含み、これは、要求者によってタイムバー517に沿ってスライド可能で、動的要約キュー425の生成に使用される時間枠516のためのメディアアイテム415のタイムラインに沿って、開始時刻を設定する。また、いくつかの実施形態では、時間枠制御503は、第2のスライダ制御521を含み、これは、要求者によってタイムバー517に沿ってスライド可能で、動的要約キュー425の生成に使用される時間枠516のためのメディアアイテム415のタイムラインに沿って、終了時刻を設定する。このようにして、動的要約キュー425は、第1のスライダ制御519の設定に対応する開始時刻から第2のスライダ制御521の設定に対応する終了時刻まで延びるメディアアイテム415のタイムラインに沿った時間枠516にわたって生成されることになる。 FIG. 5C shows an example of a user interface 515 that is displayed when a "change" control is selected within the time frame control 503 of the user interface 500 of FIG. 5A, according to some embodiments. Timeframe control 503 allows a requester of dynamic summary queue 425 to select a timeframe along the timeline of media item 415 in which dynamic summary queue 425 is generated. In some embodiments, the time frame control 503 allows the user to monitor the progress of the media item 415 for groups A-D of users/participants from the start of the media item 415 timeline (time 0:00). A time window 516 for generation of the dynamic summary queue 425 may be selected that spans the entire time span of the current time of the live playback. In some embodiments, the time window control 503 provides a time bar 517 that represents the overall time range within which a time window 516 for the generation of the dynamic summary queue 425 can be set. In some embodiments, the time frame control 503 also includes a first slider control 519 that is slidable along the time bar 517 by the requester and is used to generate the dynamic summary queue 425. The start time is set along the timeline of the media item 415 for the time frame 516 to be used. In some embodiments, the time frame control 503 also includes a second slider control 521 that is slidable along the time bar 517 by the requester and used to generate the dynamic summary queue 425. The end time is set along the timeline of the media item 415 for the time frame 516 to be used. In this way, the dynamic summarization queue 425 is configured to follow a timeline of media items 415 that extends from a start time corresponding to the setting of the first slider control 519 to an end time corresponding to the setting of the second slider control 521. It will be generated over a time frame 516.

また、いくつかの実施形態では、時間枠制御503は、参加者ベース制御501によって現在設定されているように、動的要約キュー425の生成に現在含まれているユーザ/参加者A~Dに関連する入力チャネル401に基づいて、関心の表示(I)及び/または関心のあるイベント(E)がメディアアイテム415のタイムラインに沿って存在し得る時間的位置の表示を提供する。関心の表示(I)及び/または関心のあるイベント(E)がメディアアイテム415のタイムラインに沿って存在し得る時間的位置は、メディアアイテム415のどの部分が動的要約キュー425を生成するための時間枠516内に含めるためにより望ましいかを識別する際の補助として要求者によって使用され得る。
いくつかの実施形態では、第2のスライダ制御521がメディアアイテム415のライブ再生の現在時刻に設定されている場合、システム400は、動的要約キュー425が要求者にストリーミングされるにつれて、動的要約キュー425にコンテンツを追加し続けるように動作し、そのため、要求者が動的要約キュー425の終わりに到達すると、要求者はメディアアイテム415のライブ再生の現在時刻になる。また、いくつかの実施形態では、要求者が動的要約キュー425の終わりに到達すると、要求者はグループ内の他のユーザ/参加者A~Dとともにメディアアイテム415のライブ再生の視聴にすぐに入る。例えば、要求者が動的要約キュー425の終わりに到達すると、要求者に現在表示されているユーザインターフェースは、図3のユーザインターフェース300から図2のユーザインターフェース200に自動的に変化する。
In some embodiments, the time frame control 503 may also be used to determine which users/participants A-D are currently included in the generation of the dynamic summary queue 425, as currently set by the participant-based control 501. Based on the associated input channel 401, an indication of the temporal position where an indication of interest (I) and/or an event of interest (E) may exist along the timeline of the media item 415 is provided. The temporal location at which an indication of interest (I) and/or an event of interest (E) may exist along the timeline of a media item 415 is determined in order to generate a dynamic summary cue 425. may be used by the requester as an aid in identifying which timeframes 516 are more desirable for inclusion.
In some embodiments, if the second slider control 521 is set to the current time of live playback of the media item 415, the system 400 dynamically adjusts the dynamic summary queue 425 as it is streamed to the requester. It operates to continue adding content to the summary queue 425 so that when the requester reaches the end of the dynamic summary queue 425, the requester becomes the current time of live playback of the media item 415. Also, in some embodiments, when a requester reaches the end of the dynamic summary queue 425, the requester is immediately able to watch a live playback of the media item 415 along with other users/participants A-D in the group. enter. For example, when a requester reaches the end of dynamic summary queue 425, the user interface currently displayed to the requester automatically changes from user interface 300 of FIG. 3 to user interface 200 of FIG. 2.

図5Dは、いくつかの実施形態による、図5Aのユーザインターフェース500の概要分解制御505の中で「変更」制御が選択されたときに表示されるユーザインターフェース523の例を示す。概要分解制御505により、要求者は、動的要約キュー425のコンテンツ分解を設定して、動的要約キュー425内にどの程度のコンテンツが含まれるかを制御することができる。いくつかの実施形態では、ユーザインターフェース523は、分解バー525と、要求者によって分解バー525に沿ってスライド可能なスライダ制御527とを含む。
スライダ制御527を分解バー525の「詳細少(Less Detail)」である端部に向けて配置すると、動的要約キュー425がより少ないコンテンツで(より短く)生成されることになる。逆に、スライダ制御527を分解バー525の「詳細多(More Detail)」である端部に向けて配置することは、動的要約キュー425がより多いコンテンツで(より長く)生成されることを引き起こす。また、いくつかの実施形態では、ユーザインターフェース523は、要求者が動的要約キュー425の中に含まれるセグメントの数(またはセグメントの最大数)を示す整数値を入力できるフィールド529を含み、セグメントは、メディアアイテム415の再生タイムラインの連続部分に対応する。また、いくつかの実施形態では、ユーザインターフェース523は、要求者が動的要約キュー425内の各セグメントに使用される時間の長さ(または最長時間の長さ)を入力できるフィールド531を含む。
FIG. 5D shows an example of a user interface 523 that is displayed when the "Change" control is selected within the summary decomposition control 505 of the user interface 500 of FIG. 5A, according to some embodiments. Summary disaggregation controls 505 allow a requester to configure the content disaggregation of dynamic summary queue 425 to control how much content is included within dynamic summary queue 425 . In some embodiments, user interface 523 includes a disassembly bar 525 and a slider control 527 that is slidable along disassembly bar 525 by the requester.
Placing the slider control 527 toward the "Less Detail" end of the decomposition bar 525 will cause the dynamic summary queue 425 to be generated with less content (shorter). Conversely, placing slider control 527 toward the "More Detail" end of decomposition bar 525 causes dynamic summary queue 425 to be generated with more content (longer). cause. In some embodiments, the user interface 523 also includes a field 529 in which the requester can enter an integer value indicating the number of segments (or maximum number of segments) to be included in the dynamic summary queue 425; corresponds to a continuous portion of the playback timeline of media item 415. In some embodiments, user interface 523 also includes a field 531 in which a requester can enter the amount of time (or maximum amount of time) to be used for each segment in dynamic summary queue 425.

図5Eは、いくつかの実施形態による、図5Aのユーザインターフェース500のイベントタイプ制御507の中で「変更」制御が選択されたときに表示されるユーザインターフェース533の例を示す。イベントタイプ制御507は、動的要約キュー425の要求者が、メディアアイテム415内で関心があり、動的要約キュー425に含めることを考慮するはずの特定のタイプのイベントを指定できるようにする。いくつかの実施形態では、ユーザインターフェース533は、メディアアイテム415内で発生でき、動的要約キュー425内に含めるために要求者による選択に現在利用可能な様々なイベントを指定するカスタムイベント設定チャート534を含む。
いくつかの実施形態では、カスタムイベント設定チャート534は、メディアアイテム415内で発生する可能性のある様々なイベントの簡単な説明を含むイベント記述子列543を含む。メディアアイテム415内で発生する可能性のあるイベントのタイプ、及びそれらに対応する簡単な説明は、メディアアイテム415の主題に依存する。例えば、メディアアイテム415が自動車レース(現実世界またはコンピュータゲームのいずれかで発生する)のビデオである場合、メディアアイテム415内で発生する可能性のある例示的ないくつかのイベントには、グリーンフラッグ、イエローフラッグ、チェッカーフラッグ、クラッシュ、スピンアウト、パス、ブロック、ピットなどが含まれ得、例えば図5Eのカスタムイベント設定チャート534の例に示されるものがある。
FIG. 5E shows an example of a user interface 533 that is displayed when a "change" control is selected among the event type controls 507 of the user interface 500 of FIG. 5A, according to some embodiments. Event type control 507 allows a requester of dynamic summary queue 425 to specify particular types of events within media item 415 that are of interest and should be considered for inclusion in dynamic summary queue 425. In some embodiments, the user interface 533 includes a custom event settings chart 534 that specifies various events that can occur within the media item 415 and are currently available for selection by the requester for inclusion within the dynamic summary queue 425. including.
In some embodiments, custom event settings chart 534 includes an event descriptor column 543 that includes brief descriptions of various events that may occur within media item 415. The types of events that may occur within media item 415, and their corresponding brief descriptions, depend on the subject matter of media item 415. For example, if media item 415 is a video of a car race (occurring either in the real world or in a computer game), some example events that may occur within media item 415 include a green flag. , yellow flags, checkered flags, crashes, spinouts, passes, blocks, pits, etc., such as those shown in the example custom event settings chart 534 of FIG. 5E.

いくつかの実施形態では、カスタムイベント設定チャート534は、イベント記述子列543の対応する行に記載されているイベントが、動的要約キュー425を生成するための基礎に含めるためにアクティブであるか非アクティブであるかを示すイベントステータス列545を含む。いくつかの実施形態では、所与のイベントに対するイベントステータス列545の「はい(Yes)」の設定は、所与のイベントが、動的要約キュー425が生成される時間枠516の間にメディアアイテム415の内部で発生した場合に、動的要約キュー425を生成するための基礎の一部として含められることを示す。
逆に、所与のイベントに対するイベントステータス列545の「いいえ(No)」の設定は、所与のイベントが、動的要約キュー425が生成される時間枠516の間にメディアアイテム415の内部で発生した場合に、動的要約キュー425を生成するための基礎の一部として含まれないことを示す。いくつかの実施形態では、カスタムイベント設定チャート534は、選択されるとイベントステータス列545の対応する行の設定が「はい」と「いいえ」の間で切り替わる、及びその逆である「変更」制御を含む調整列547を含む。
また、いくつかの実施形態では、カスタムイベント設定チャート534は、選択されると、リストされたすべてのイベントのイベントステータス列の設定が「いいえ」に設定される大局的「いいえ」制御549を含む。また、いくつかの実施形態では、カスタムイベント設定チャート534は、選択されると、リストされたすべてのイベントのイベントステータス列の設定が「はい」に設定される大局的「はい」制御551を含む。いくつかの実施形態では、リストされたすべてのイベントのイベントステータス列のデフォルト設定は「はい」である。
In some embodiments, the custom event settings chart 534 determines whether the events listed in the corresponding rows of the event descriptor column 543 are active for inclusion in the basis for generating the dynamic summary queue 425. It includes an event status column 545 indicating whether it is inactive. In some embodiments, a setting of "Yes" in the event status column 545 for a given event indicates that the given event is a media item during the time frame 516 during which the dynamic summary queue 425 is generated. 415 is included as part of the basis for generating the dynamic summary queue 425.
Conversely, a setting of "No" in the event status column 545 for a given event indicates that the given event occurred within the media item 415 during the time frame 516 during which the dynamic summary queue 425 was generated. If it occurs, indicates that it is not included as part of the basis for generating the dynamic summary queue 425. In some embodiments, the custom event settings chart 534 has a "change" control that, when selected, toggles the settings in the corresponding row of the event status column 545 between "yes" and "no" and vice versa. An adjustment column 547 that includes.
In some embodiments, the custom event settings chart 534 also includes a global "No" control 549 that, when selected, sets the event status column setting for all listed events to "No". . In some embodiments, the custom event settings chart 534 also includes a global "Yes" control 551 that, when selected, sets the event status column setting for all listed events to "Yes". . In some embodiments, the default setting for the event status column for all listed events is "Yes."

いくつかの実施形態では、カスタムイベント設定チャート534は、イベント記述子列543の対応する行に記載されているように、イベントの重み付けをイベントに対して指定することができるイベント強度列541を含む。いくつかの実施形態では、所与のイベントのイベント重み付けは、1から10のスケールで指定され、1が最も低い重み付けであり、10が最も高い重み付けである。イベント強度列541に列挙されるイベント重み付けは、動的要約キュー425内に含めるための他のイベントよりも高い優先順位を付けるイベントを判定するために、システム400によって使用される。特に、概要分解制御505の現在の設定で対応できるものよりも、動的要約キュー425と共に含めるのに利用できるより多くのコンテンツがあるときである。様々な実施形態において、イベント重み付けに使用されるスケールは、どのイベントが他のイベントよりも重要であるかを判定できるように、イベント重み付け入力の標準化を提供する本質的に任意の方法で定義することができる。 In some embodiments, custom event settings chart 534 includes an event strength column 541 that allows event weighting to be specified for the event, as described in the corresponding row of event descriptor column 543. . In some embodiments, the event weighting for a given event is specified on a scale of 1 to 10, with 1 being the lowest weighting and 10 being the highest weighting. The event weights listed in event strength column 541 are used by system 400 to determine which events should be prioritized higher than other events for inclusion in dynamic summary queue 425. Particularly when there is more content available for inclusion with dynamic summary queue 425 than the current settings of summary decomposition control 505 can accommodate. In various embodiments, the scale used for event weighting is defined in essentially any manner that provides standardization of the event weighting input so that it can be determined which events are more important than other events. be able to.

いくつかの実施形態では、ユーザインターフェース533は、選択されると、要求者が新しいイベント(新しい行)をカスタムイベント設定チャート534に追加できるようにするカスタムイベント追加制御553を含む。また、いくつかの実施形態では、ユーザインターフェース533は、選択されると、カスタムイベント設定チャート534のすべての設定を、イベントタイプ制御507選択に応じてユーザインターフェース533が表示されたときに存在したそれぞれの値にリセットする、リセットイベント制御555を含む。
また、いくつかの実施形態では、ユーザインターフェース533は、自動イネーブル制御535及びカスタムイネーブル制御537を含む。自動イネーブル制御535の選択は、メディアアイテム415内で発生するイベントのうちどれを動的要約キュー425を生成するための基礎の中に含めるべきかを決定する際に、システム400内の機械学習モデル413の使用に関与する。カスタムイネーブル制御537の選択は、メディアアイテム415内で発生するイベントのどれを動的要約キュー425を生成するための基礎の中に含めるべきかを決定する際に、システム400によるカスタムイベント設定チャート534の使用を関与させる。いくつかの実施形態では、自動イネーブル制御535及びカスタムイネーブル制御537のいずれかまたは両方を所与の時点で選択することができる。いくつかの実施形態では、カスタムイネーブル制御537が選択解除されると、自動イネーブル制御535の選択がデフォルトで実装される。
In some embodiments, user interface 533 includes an add custom event control 553 that, when selected, allows the requester to add a new event (new row) to custom event settings chart 534. Additionally, in some embodiments, user interface 533, when selected, configures all settings in custom event settings chart 534 for each of the settings that existed when user interface 533 was displayed in response to event type control 507 selection. includes a reset event control 555 that resets the value to the value of .
In some embodiments, user interface 533 also includes automatic enablement controls 535 and custom enablement controls 537. Selection of automatic enable control 535 relies on machine learning models within system 400 in determining which events occurring within media item 415 should be included in the basis for generating dynamic summary queue 425. Involved in the use of 413. Selection of custom enable control 537 allows system 400 to use custom event settings chart 534 in determining which of the events that occur within media item 415 should be included in the basis for generating dynamic summary queue 425. Involve the use of. In some embodiments, either or both automatic enablement control 535 and custom enablement control 537 may be selected at a given time. In some embodiments, selection of automatic enable control 535 is implemented by default when custom enable control 537 is deselected.

図5Fは、いくつかの実施形態による、図5Aのユーザインターフェース500の表示タイプ制御509の中で「変更」制御が選択されたときに表示されるユーザインターフェース561の例を示す。表示タイプ制御509は、動的要約キュー425の要求者が、ユーザ/参加者A~Dによるメディアアイテム415を消費している間に、関心のある特定のタイプのユーザ/参加者表示を指定できるようにする。それは、メディアアイテム415のどの部分が、動的要約キュー425を生成するための基礎の中に含まれるべきかを判断する際に考慮されることになる。
いくつかの実施形態では、ユーザインターフェース561は、ユーザ/参加者によるメディアアイテム415の消費中に発生する可能性のある、様々なユーザ/参加者の関心の表示を指定するカスタム表示設定チャート563を含む。いくつかの実施形態では、カスタム表示設定チャート563は、関心のある様々なユーザ/参加者表示の簡単な説明を含む表示記述子列565を含む。様々なユーザ/参加者の表示は、ユーザ/参加者A~Dがメディアアイテム415を消費するときに発することができる、様々なタイプの反応、表情、ジェスチャ、動作、発言、音、及び/または伝達を表す。例えば、いくつかの実施形態では、カスタム表示設定チャート563で指定される様々なユーザ/参加者の表示には、メディアアイテム415の消費中にユーザ/参加者A~Dのいずれかによって行われ得る、本質的に他のいずれかのタイプの反応、表情、ジェスチャ、動作、発言、音、及び/または伝達の中でも、好き、嫌い、興奮、幸せ、怒り、叫び、緊張、笑いが含まれてもよい。
FIG. 5F shows an example of a user interface 561 that is displayed when a "change" control is selected among the display type controls 509 of the user interface 500 of FIG. 5A, according to some embodiments. Display type control 509 allows a requester of dynamic summary queue 425 to specify a particular type of user/participant display of interest while consuming media items 415 by users/participants AD. do it like this. It will be considered in determining which portions of media items 415 should be included in the basis for generating dynamic summary queue 425.
In some embodiments, the user interface 561 includes a custom display settings chart 563 that specifies the display of various user/participant interests that may occur during consumption of the media item 415 by the user/participant. include. In some embodiments, custom display settings chart 563 includes a display descriptor column 565 containing brief descriptions of various user/participant displays of interest. Various user/participant indications may include various types of reactions, facial expressions, gestures, actions, speech, sounds, and/or that users/participants A-D may make as they consume media item 415. Represents transmission. For example, in some embodiments, various user/participant displays specified in custom display settings chart 563 may be performed by any of users/participants AD during consumption of media item 415. , even if it includes likes, dislikes, excitement, happiness, anger, screaming, nervousness, laughter, among other essentially any other type of reaction, facial expression, gesture, action, speech, sound, and/or communication. good.

いくつかの実施形態では、カスタム表示設定チャート563は、表示記述子列565の対応する行に記載されているユーザ/参加者の表示が、動的要約キュー425内に含めるためどのコンテンツが選択されるかに基づいて、含めるためにアクティブであるか非アクティブであるかを示す表示ステータス列567を含む。いくつかの実施形態では、所与のユーザ/参加者表示に対する表示ステータス列567の「はい」の設定は、所与のユーザ/参加者表示が、動的要約キュー425の中に含めるために、どのコンテンツが識別/選択されるかを基準の中に含めて使用されることを意味する。逆に、所与のユーザ/参加者表示に対する表示ステータス列567の「いいえ」の設定は、所与のユーザ/参加者表示が、動的要約キュー425の中に含めるために、どのコンテンツが識別/選択されるかを基準の中に含めないということを意味する。
いくつかの実施形態では、カスタム表示設定チャート563は、選択されると表示ステータス列567の対応する行の設定が「はい」と「いいえ」の間で切り替わる、及びその逆である「変更」制御を含む調整列569を含む。また、いくつかの実施形態では、カスタム表示設定チャート563は、大局的「いいえ」制御571を含み、これは、選択されると、リストされたすべてのユーザ/参加者表示に対する表示ステータス列567の設定が「いいえ」に設定されることになる。また、いくつかの実施形態では、カスタム表示設定チャート563は、包括的「はい」制御573を含み、これは、選択されると、リストされたすべてのユーザ/参加者表示に対する表示ステータス列567の設定が「はい」に設定されることになる。いくつかの実施形態では、リストされたすべてのユーザ/参加者の表示に対する表示ステータス列567のデフォルト設定は「はい」である。
In some embodiments, the custom display settings chart 563 determines which content is selected for inclusion within the dynamic summary queue 425 by the user/participant display listed in the corresponding row of the display descriptor column 565. It includes a display status column 567 that indicates whether it is active or inactive for inclusion based on whether it is active or inactive for inclusion. In some embodiments, a setting of “Yes” in the display status column 567 for a given user/participant representation indicates that the given user/participant representation is to be included in the dynamic summary queue 425. This means that the criteria include which content is to be identified/selected. Conversely, a “No” setting in the display status column 567 for a given user/participant display indicates which content the given user/participant display identifies for inclusion in the dynamic summary queue 425. / This means that whether the item is selected is not included in the criteria.
In some embodiments, the custom display settings chart 563 has a "change" control that, when selected, toggles the setting in the corresponding row of the display status column 567 between "yes" and "no" and vice versa. and an adjustment column 569 containing. In some embodiments, the custom display settings chart 563 also includes a global "no" control 571 that, when selected, controls the display status column 567 for all listed user/participant displays. The setting will be set to "No". Additionally, in some embodiments, the custom display settings chart 563 includes a blanket "yes" control 573 that, when selected, controls the display status column 567 for all listed user/participant displays. The setting will be set to "Yes". In some embodiments, the default setting of the display status column 567 for displaying all listed users/participants is "Yes".

いくつかの実施形態では、カスタム表示設定チャート563は、表示記述子列565の対応する行に記載されているように、ユーザ/参加者表示に対して表示の重み付けを指定することができるユーザ/参加者表示強度列575を含む。いくつかの実施形態では、所与のユーザ/参加者表示の表示の重み付けは、1から10のスケールで指定され、1が最も低い重み付けであり、10が最も高い重み付けである。表示強度列575に列挙される表示の重み付けは、メディアアイテム415のどの部分が動的要約キュー425内に含められるべきかを識別/選択するために使用される基準の中に含めるために、どのユーザ/参加者表示が他よりも高い優先順位を付けられるべきかを判定するために、システム400によって使用される。様々な実施形態において、ユーザ/参加者表示の重み付けに使用されるスケールは、どのユーザ/参加者表示が他のものよりも重要であるかを判定できるように、ユーザ/参加者表示の重み付け入力の標準化を提供する、本質的に任意の方法で定義することができる。 In some embodiments, the custom display settings chart 563 provides a user/participant display that can specify display weights for the user/participant display, as described in the corresponding row of the display descriptor column 565. Includes participant display strength column 575. In some embodiments, the display weighting of a given user/participant display is specified on a scale of 1 to 10, with 1 being the lowest weighting and 10 being the highest weighting. The display weights listed in the display strength column 575 determine which portions of the media item 415 to include in the criteria used to identify/select which portions should be included within the dynamic summary queue 425. Used by system 400 to determine whether user/participant displays should be prioritized higher than others. In various embodiments, the scale used to weight the user/participant representations may be configured such that the scale used to weight the user/participant representations is configured such that the user/participant representation weighting input allows determining which user/participant representations are more important than others. can be defined in essentially any way that provides standardization.

いくつかの実施形態では、ユーザインターフェース561は、選択されると、要求者が新しいユーザ/参加者表示(新しい行)をカスタム表示設定チャート563に追加できるようにするカスタム表示追加制御577を含む。また、いくつかの実施形態では、ユーザインターフェース561は、選択されると、カスタム表示設定チャート563のすべての設定を、表示タイプ制御509の選択に応じてユーザインターフェース561が表示されたときに存在したそれぞれの値にリセットするリセット表示制御579を含む。
また、いくつかの実施形態では、ユーザインターフェース561は、自動イネーブル制御581及びカスタムイネーブル制御583を含む。自動イネーブル制御581の選択は、ユーザ/参加者A~Dによるメディアアイテム415の消費中に発生するどのユーザ/参加者表示が、メディアアイテム415のどの部分が動的要約キュー425の中に含まれることになるかを判定するための基準の中に含まれるべきかを決定する際に、システム400の機械学習モデル413の使用を関与させる。カスタムイネーブル制御583の選択は、ユーザ/参加者A~Dによるメディアアイテム415の消費中に発生するどのユーザ/参加者表示が、メディアアイテム415のどの部分が動的要約キュー425の中に含まれることになるかを判定するための基準の中に含まれるべきかを判定する際に、システム400によるカスタム表示設定チャート563の使用を関与させる。いくつかの実施形態では、自動イネーブル制御581及びカスタムイネーブル制御583のいずれかまたは両方を所与の時点で選択することができる。いくつかの実施形態では、カスタムイネーブル制御583が選択解除されると、自動イネーブル制御581の選択がデフォルトで実装される。
In some embodiments, user interface 561 includes an add custom display control 577 that, when selected, allows the requester to add a new user/participant display (new row) to custom display settings chart 563. Additionally, in some embodiments, user interface 561, when selected, configures all settings in custom display settings chart 563 that were present when user interface 561 was displayed in response to the selection of display type control 509. It includes a reset display control 579 that resets to each value.
In some embodiments, user interface 561 also includes automatic enablement controls 581 and custom enablement controls 583. Selection of automatic enable control 581 determines which user/participant representations that occur during consumption of media item 415 by users/participants A-D and which portions of media item 415 are included in dynamic summary queue 425. involves the use of the machine learning model 413 of the system 400 in determining what should be included in the criteria for determining whether the Selection of custom enable control 583 determines which user/participant views that occur during consumption of media item 415 by users/participants A-D and which portions of media item 415 are included in dynamic summary queue 425. involves the use of a custom display settings chart 563 by the system 400 in determining what should be included in the criteria for determining whether the In some embodiments, either or both automatic enablement control 581 and custom enablement control 583 may be selected at a given time. In some embodiments, selection of automatic enable control 581 is implemented by default when custom enable control 583 is deselected.

図6は、いくつかの実施形態による、メディアアイテム(メディアアイテム415)の要約(動的要約キュー425)を生成するための方法のフローチャートを示す。方法は、メディアアイテム415のストリームをサーバコンピューティングシステム(例として、図1のクラウドゲームシステム101など)から1つまたは複数のクライアントコンピューティングシステム(例として、図1のローカル計算システム120A~120Dなど)に送信するための動作601を含む。メディアアイテム415には、メディアアイテム415を再生するためのタイムラインがある。いくつかの実施形態では、メディアアイテム415はオーディオビジュアルプレゼンテーションである。
様々な実施形態において、オーディオビジュアルプレゼンテーションは、本質的に他のいずれかのタイプのオーディオビジュアルプレゼンテーションの中でも、映画、テレビ番組、現実世界のスポーツイベント、電子スポーツイベント、オンラインショー、オンラインビデオ、及びアップロードされたビデオのうちの1つまたは複数である。いくつかの実施形態では、メディアアイテム415は、ビデオゲームのゲームビデオ及びオーディオのストリームである。いくつかの実施形態では、サーバコンピューティングシステムは、1つ以上のクライアントコンピューティングシステム120A~120Dの1人以上のユーザ/参加者(例えば、ゲームプレイヤー/観客A~D)のそれぞれのコントローラデバイス125A~125Dから受信した入力に従ってビデオゲームを実行するように構成されたクラウドゲームシステム101である。
クラウドゲームシステム101は、1人または複数ユーザ/参加者によるビデオゲームのプレイを反映するゲームビデオ及びオーディオのストリームの伝送を指示するように構成される。これらの実施形態では、1人以上のユーザ/参加者は、ビデオゲームのプレイ中に入力チャネル401を介して受信されるユーザ/参加者生成コンテンツを提供する。いくつかの実施形態では、ビデオゲームは電子スポーツビデオゲームである。また、いくつかの実施形態では、ユーザ/参加者の1人以上がビデオゲームの観客である。
FIG. 6 depicts a flowchart of a method for generating a summary (dynamic summary queue 425) of a media item (media item 415), according to some embodiments. The method includes transmitting a stream of media items 415 from a server computing system (e.g., cloud gaming system 101 of FIG. 1) to one or more client computing systems (e.g., local computing systems 120A-120D of FIG. 1, etc.). ). Media item 415 has a timeline for playing media item 415. In some embodiments, media item 415 is an audiovisual presentation.
In various embodiments, audiovisual presentations include movies, television shows, real-world sporting events, electronic sporting events, online shows, online videos, and uploads, among essentially any other types of audiovisual presentations. one or more of the videos. In some embodiments, media item 415 is a stream of game video and audio for a video game. In some embodiments, the server computing system controls each controller device 125A of one or more users/participants (e.g., game players/spectators A-D) of one or more client computing systems 120A-120D. A cloud gaming system 101 configured to execute a video game according to input received from ~125D.
Cloud gaming system 101 is configured to direct the transmission of streams of game video and audio that reflect the play of a video game by one or more users/participants. In these embodiments, one or more users/participants provide user/participant-generated content that is received via input channel 401 during play of a video game. In some embodiments, the video game is an electronic sports video game. Also, in some embodiments, one or more of the users/participants are spectators of the video game.

方法はまた、1つ以上のクライアントコンピューティングシステムのいずれかの1人以上のユーザ/参加者からサーバコンピューティングシステムでユーザ/参加者生成コンテンツを受信する動作603を含む。ユーザ/参加者生成コンテンツは、図4に関して説明したように、入力チャネル401のいずれかを介して受信された任意の情報に対応する。ユーザ/参加者生成コンテンツは、メディアアイテム415のタイムラインに対してタイムインデックスが付けられる。また、ユーザ/参加者生成コンテンツは、メディアアイテム415を消費(視聴)している任意のユーザ/参加者によって提供されることを理解されたい。様々な実施形態において、ユーザ/参加者は、メディアアイテム415の性質に応じて、ビデオゲームプレイヤー、ビデオゲームの観客、及び/または視聴者であり得る。いくつかの実施形態では、ユーザ/参加者生成コンテンツには、入力チャネル401を介してユーザ/参加者によって提供できる本質的にいずれかの他のタイプのデータの中でも、テキストデータ、音声データ、オーディオデータ、絵文字データ、画像データ、カメラで取得されたビデオデータ、カメラで取得された画像データ、タグのデータ、及びコントローラデバイス入力データのうちの1つまたは複数が含まれる。 The method also includes an act of receiving 603 user/participant generated content at the server computing system from one or more users/participants of any of the one or more client computing systems. User/participant generated content corresponds to any information received via any of the input channels 401, as described with respect to FIG. User/participant generated content is time indexed relative to the timeline of media items 415. It should also be understood that user/participant generated content is provided by any user/participant consuming (viewing) media item 415. In various embodiments, users/participants may be video game players, video game spectators, and/or viewers depending on the nature of the media item 415. In some embodiments, user/participant generated content may include text data, audio data, audio, among essentially any other types of data that may be provided by the user/participant via input channel 401. data, glyph data, image data, camera-captured video data, camera-captured image data, tag data, and controller device input data.

この方法はまた、ユーザ/参加者生成コンテンツを処理して、ユーザ/参加者生成コンテンツ内に存在する表示に基づいてメディアアイテム415の主要な部分を識別する動作605を含み、メディアアイテム415の主要な部分は、動的要約キュー425に含めるために識別される。いくつかの実施形態では、ユーザ/参加者生成コンテンツ内に存在するユーザ/参加者の表示の識別は、図5Fに関して記載したように、ユーザ/参加者によるメディアアイテム415の消費中に起こり得るユーザ/参加者の関心の表示の指定に基づく。いくつかの実施形態では、動作605はまた、メディアアイテム415及び/またはメディアアイテム415に関連付けられた状態/メタデータ417を処理して、動的要約キュー425内に含めるためのメディアアイテム415の主要な部分を識別することを含む。いくつかの実施形態では、メディアアイテム415の主要な部分の識別は、図5Eに関して説明したように、メディアアイテム415内で発生する可能性のあるイベントの指定に基づく。 The method also includes an act 605 of processing the user/participant-generated content to identify key portions of the media item 415 based on representations present within the user/participant-generated content; portions are identified for inclusion in dynamic summary queue 425. In some embodiments, the identification of user/participant representations present in user/participant-generated content may occur during consumption of media item 415 by the user/participant, as described with respect to FIG. 5F. /Based on the participant's indication of interest. In some embodiments, operation 605 also processes the media item 415 and/or state/metadata 417 associated with the media item 415 to determine the primary content of the media item 415 for inclusion within the dynamic summary queue 425. This includes identifying the parts that are In some embodiments, identification of key portions of media item 415 is based on specifying events that may occur within media item 415, as described with respect to FIG. 5E.

いくつかの実施形態では、ユーザ/参加者生成コンテンツを処理する動作605は、図4の特徴抽出器405に関して説明したように、ユーザ/参加者生成コンテンツから特徴を抽出して、抽出された特徴407のセットを取得することを含む。また、いくつかの実施形態では、ユーザ/参加者生成コンテンツを処理する動作605は、図4の特徴分類器409に関して説明したように、抽出された特徴407を1つ以上の分類に分類して、分類された特徴のセット411を取得することを含む。また、いくつかの実施形態では、ユーザ/参加者生成コンテンツを処理する動作605は、機械学習モデル413を通じて分類された特徴のセット411を処理して、動的要約キュー425の中に含まれるメディアアイテム415の主要な部分を識別することを含む。
また、いくつかの実施形態では、動作605は、機械学習モデル413を介して、分類された特徴のセット411を処理することと併せて、メディアアイテム415の状態/メタデータ417を機械学習モデル413を介して処理して、動的要約キュー425の中に含まれるメディアアイテム415の主要な部分を識別することを含む。メディアアイテム415の状態/メタデータ417は、分類された特徴のセット411に、タイムインデックスによって、互いに関連付けられる。いくつかの実施形態では、メディアアイテム415の状態/メタデータ417は、1人以上のユーザ/参加者(例えば、A~D)のそれぞれのコントローラデバイス125A~125Dから受信した入力に従って実行されるビデオゲームの状態データを含み、メディアアイテム415をゲームビデオ及びオーディオのストリームとして生成する。
In some embodiments, the act of processing user/participant-generated content 605 includes extracting features from the user/participant-generated content and processing the extracted features as described with respect to feature extractor 405 of FIG. 407 sets. In some embodiments, the act of processing 605 the user/participant-generated content also includes classifying the extracted features 407 into one or more classifications, as described with respect to the feature classifier 409 of FIG. , including obtaining a set of classified features 411. In some embodiments, the act of processing user/participant-generated content 605 also processes the set of features 411 classified through the machine learning model 413 to summarize the media contained within the dynamic summary queue 425. This includes identifying the main parts of item 415.
In some embodiments, the operation 605 also includes processing the state/metadata 417 of the media item 415 via the machine learning model 413 in conjunction with processing the classified feature set 411. 425 to identify key portions of the media items 415 included in the dynamic summary queue 425. The state/metadata 417 of the media item 415 is related to the set of classified features 411 by time index. In some embodiments, the state/metadata 417 of the media item 415 is a video that is performed according to input received from the respective controller devices 125A-125D of one or more users/participants (e.g., A-D). Media items 415 are generated as streams of game video and audio, including game state data.

この方法はまた、動作605で識別されたメディアアイテム415の主要な部分を含む動的要約キュー(動的要約キュー425)を生成するための動作607を含む。この方法はまた、動的要約キュー425の要求者にストリーミングするために動的要約キュー425を組み立てることを含む。いくつかの実施形態では、動作607は、動的要約キュー425に含めるための、メディアアイテム415の主要な部分の自動生成された口頭要約及び/または自動生成された書面要約の作成を含む。いくつかの実施形態では、動的要約キュー425は、入力チャネル401を介してユーザ/参加者から受信した、メディアアイテム415の主要な部分に関連付けられたユーザ/参加者生成コンテンツの少なくとも一部を含む。 The method also includes an act 607 for generating a dynamic summary queue (dynamic summary queue 425) that includes the major portions of the media items 415 identified in act 605. The method also includes assembling the dynamic summary queue 425 for streaming to a requester of the dynamic summary queue 425. In some embodiments, operation 607 includes creating an automatically generated verbal summary and/or an automatically generated written summary of the major portions of media item 415 for inclusion in dynamic summary queue 425. In some embodiments, the dynamic summary queue 425 summarizes at least a portion of the user/participant-generated content associated with the main portion of the media item 415 received from the user/participant via the input channel 401. include.

方法はまた、要求者から動的要約キュー425を閲覧するための要求を受信するための動作609を含む。いくつかの実施形態では、要求者は、メディアアイテム415を消費している1人以上のユーザ/参加者のいずれかである。いくつかの実施形態では、要求者は、メディアアイテムを消費する際に1人以上のユーザ/参加者に参加するよう招待された人物である。いくつかの実施形態では、要求者は、ゲームビデオ及びオーディオのストリームとしてメディアアイテム415を生成するべく1人以上のユーザ/参加者(例えば、A~D)のそれぞれのコントローラデバイス125A~125Dから受信した入力に従って実行されるビデオゲームをプレイする際に、1人以上のユーザ/参加者に参加するよう招待された人物である。 The method also includes an act 609 of receiving a request to view dynamic summary queue 425 from a requester. In some embodiments, the requester is any one or more users/participants consuming media item 415. In some embodiments, a requester is a person who is invited to join one or more users/participants in consuming a media item. In some embodiments, the requestor receives data from the respective controller devices 125A-125D of one or more users/participants (e.g., A-D) to generate media items 415 as streams of game video and audio. A person who is invited to join one or more users/participants in playing a video game that is performed according to the input provided.

様々な実施形態において、動作609は、図6の方法の中の任意の時点で発生することができる。例えば、いくつかの実施形態において、動的要約キュー425を閲覧する要求は、動作605において、ユーザ/参加者生成コンテンツを処理する前に動作609で受信され得る。あるいは、別の例示的な実施形態では、動的要約キュー425が動作607ですでに生成された後、動的要約キュー425を閲覧する要求を動作609で受信することができる。また、いくつかの実施形態では、動作609で受信された動的要約キュー425を閲覧するための要求は、図5A~5Fに関して説明した様々な制御など、動的要約キュー425を生成するときに適用される様々な制御の指定を含むことができる。
この方法はまた、動作609で受信された要求に応答して、動的要約キュー425のストリームを要求者のコンピューティングデバイスに送信するための動作611を含む。いくつかの実施形態では、この方法は、ユーザ/参加者生成コンテンツが(入力チャネル401を介して)サーバコンピューティングシステムで受信され、メディアアイテム415の主要な部分を識別するために処理されるときに、動的要約キュー425を更新することを含む。いくつかの実施形態では、動的要約キュー425を更新することは、新しいコンテンツを動的要約キュー425に追加すること、及び/または動的要約キュー425内にすでに存在する一部のコンテンツを変更することを含む。
In various embodiments, act 609 can occur at any point during the method of FIG. For example, in some embodiments, a request to view dynamic summary queue 425 may be received in operation 609 prior to processing user/participant generated content in operation 605. Alternatively, in another exemplary embodiment, a request to view dynamic summary queue 425 may be received at operation 609 after dynamic summary queue 425 has already been generated at operation 607. Additionally, in some embodiments, the request to view dynamic summary queue 425 received in operation 609 may be performed when generating dynamic summary queue 425, such as through the various controls described with respect to FIGS. 5A-5F. It can include specifications of various controls to be applied.
The method also includes an act 611 for transmitting the stream of the dynamic summary queue 425 to the requester's computing device in response to the request received in act 609. In some embodiments, the method includes: when user/participant generated content is received at the server computing system (via input channel 401) and processed to identify key portions of the media item 415; This includes updating the dynamic summary queue 425. In some embodiments, updating the dynamic summary queue 425 includes adding new content to the dynamic summary queue 425 and/or changing some content that already exists within the dynamic summary queue 425. including doing.

いくつかの実施形態では、この方法は、図5Aに関して説明した制御パラメータなど、動的要約キュー425を生成するための制御パラメータを受信することを含む。いくつかの実施形態では、制御パラメータは、図5Fに関して説明したように、メディアアイテム415の主要な部分を示すユーザ/参加者生成コンテンツ内に存在する1つまたは複数のタイプの表示の指定を含む。いくつかの実施形態では、表示の種類には、反応、表情、ジェスチャ、動作、発言、音、伝達、及び/またはメディアアイテム415内の主題に関連する、ユーザ/参加者によって発することができる本質的に他の任意の種類の表示のうちの1つまたは複数が含まれる。 In some embodiments, the method includes receiving control parameters for generating the dynamic summary queue 425, such as the control parameters described with respect to FIG. 5A. In some embodiments, the control parameters include specifying one or more types of display present within the user/participant-generated content to indicate the major portions of the media item 415, as described with respect to FIG. 5F. . In some embodiments, types of displays include reactions, facial expressions, gestures, actions, utterances, sounds, communications, and/or essences that may be emitted by the user/participant that are related to the subject matter within the media item 415. may also include one or more of any other type of representation.

いくつかの実施形態では、動的要約キュー425を生成するための制御パラメータは、図5Eに関して説明したように、メディアアイテム415内で発生する可能性のある1つまたは複数のタイプのイベントの指定を含む。いくつかの実施形態では、動的要約キュー425を生成するための制御パラメータは、図5Bに関して説明したように、(入力チャネル401を介して受信されたとおりの)ユーザ/参加者生成コンテンツを処理して、メディアアイテム415の主要な部分を識別するときに、ユーザ/参加者生成コンテンツが1人以上のユーザ/参加者のいずれが制限されるべきかの指定を含む。いくつかの実施形態では、動的要約キュー425を生成するための制御パラメータは、図5Cに関して説明したように、動的要約キュー425が生成されるメディアアイテム415の再生のためのタイムライン内の時間枠516の指定を含む。いくつかの実施形態では、動的要約キュー425を生成するための制御パラメータは、図5Dに関して説明したように、動的要約キュー425の概要分解の指定を含む。 In some embodiments, the control parameters for generating dynamic summary queue 425 include a specification of one or more types of events that may occur within media item 415, as described with respect to FIG. 5E. including. In some embodiments, the control parameters for generating dynamic summary queue 425 include processing user/participant generated content (as received via input channel 401) as described with respect to FIG. 5B. When identifying the essential portions of the media item 415, the user/participant generated content includes a designation to which one or more users/participants should be restricted. In some embodiments, the control parameters for generating dynamic summary cue 425 are within the timeline for playback of media item 415 for which dynamic summary cue 425 is generated, as described with respect to FIG. 5C. Includes a time frame 516 designation. In some embodiments, the control parameters for generating dynamic summary queue 425 include specifying a summary decomposition of dynamic summary queue 425, as described with respect to FIG. 5D.

さらに、いくつかの実施形態では、図6に関して説明した動的要約キュー425を生成する方法は、ビデオの要約を生成するシステム(例えば、システム400)として実装される。これらの実施形態では、システムは、メディアアイテム415のストリームをサーバコンピューティングシステムから1つまたは複数のクライアントコンピューティングシステムに送信するためのコンピュータメモリに格納されたプログラム命令を含み、メディアアイテム415は、メディアアイテム415の再生のためのタイムラインを有する。このシステムはまた、1つ以上のクライアントコンピューティングシステムのいずれかの1人以上のユーザ/参加者からサーバコンピューティングシステムでユーザ/参加者生成コンテンツを受信するために、コンピュータメモリに格納されたプログラム命令を含み、ユーザ/参加者生成コンテンツは、メディアアイテム415のタイムラインに対してタイムインデックスが付けられる。
このシステムはまた、ユーザ/参加者生成コンテンツを処理して、ユーザ/参加者生成コンテンツ内に存在する表示に基づいてメディアアイテム415の主要な部分を識別するためのコンピュータメモリに格納されたプログラム命令も含む。このシステムはまた、メディアアイテム415の主要な部分を含む動的要約キュー425を生成するためにコンピュータメモリに格納されるプログラム命令を含み、動的要約キュー425はストリーミング用にアセンブルされる。システムはまた、要求者から動的要約キュー425を閲覧するための要求を受信するために、コンピュータメモリに格納されたプログラム命令を含む。システムはまた、要求に応じて要求者のコンピューティングデバイスに動的要約キュー425のストリームを送信するために、コンピュータメモリに格納されたプログラム命令を含む。
Further, in some embodiments, the method for generating dynamic summary queue 425 described with respect to FIG. 6 is implemented as a system (eg, system 400) for generating summaries of videos. In these embodiments, the system includes program instructions stored in computer memory for transmitting a stream of media items 415 from a server computing system to one or more client computing systems, wherein the media items 415 are Contains a timeline for playback of media items 415. The system also includes a program stored in computer memory for receiving user/participant generated content at the server computing system from one or more users/participants of any of the one or more client computing systems. The user/participant generated content, including instructions, is time indexed relative to the timeline of media items 415.
The system also includes program instructions stored in computer memory for processing the user/participant generated content to identify key portions of the media item 415 based on representations present within the user/participant generated content. Also included. The system also includes program instructions stored in computer memory to generate a dynamic summary queue 425 that includes a major portion of the media items 415, and the dynamic summary queue 425 is assembled for streaming. The system also includes program instructions stored in computer memory for receiving requests from requesters to view dynamic summary queue 425. The system also includes program instructions stored in computer memory for transmitting the stream of dynamic summarization queues 425 to the requestor's computing device upon request.

図7は、いくつかの実施形態による、本開示の様々な実施形態の態様を実行するために使用することができる例示的なコンピューティングデバイス700内部のコンポーネントの図を示す。様々な実施形態で、コンピューティングデバイス700は、本開示の実施形態を実施するのに好適なパーソナルコンピュータ、ビデオゲーム機、パーソナルデジタルアシスタント、サーバ、または他のデジタルデバイスを組み込むことができる、またはこれらであり得る。コンピューティングデバイス700は、ソフトウェアアプリケーション及び任意選択でオペレーティングシステムを実行するための中央処理装置(CPU)702を含む。CPU702は、1つ以上の同種または異種処理コアを含むことができる。 FIG. 7 depicts a diagram of components within an example computing device 700 that can be used to implement aspects of various embodiments of this disclosure, according to some embodiments. In various embodiments, computing device 700 may incorporate or incorporate a personal computer, video game console, personal digital assistant, server, or other digital device suitable for implementing embodiments of the present disclosure. It can be. Computing device 700 includes a central processing unit (CPU) 702 for running software applications and optionally an operating system. CPU 702 may include one or more homogeneous or heterogeneous processing cores.

いくつかの実施形態では、ビデオゲームは、ゲーム機、パーソナルコンピュータ、またはサーバでローカルに実行される。場合によっては、ビデオゲームはデータセンターの1つ以上のサーバによって実行される。ビデオゲームが実行されるとき、ビデオゲームのいくつかのインスタンスは、ビデオゲームのシミュレーションであり得る。例えば、ビデオゲームは、ビデオゲームのシミュレーションを生成する環境またはサーバによって実行され得る。シミュレーションは、いくつかの実施形態では、ビデオゲームのインスタンスである。他の実施形態では、シミュレーションはエミュレータによって生成されてもよい。いずれの場合でも、ビデオゲームがシミュレーションとして表現されている場合、そのシミュレーションは、ユーザ入力によってインタラクティブにストリーミング、実行、及び/または制御できるインタラクティブコンテンツ(例えば、ビデオフレーム)をレンダリングするために実行することができる。 In some embodiments, the video game is executed locally on a gaming console, personal computer, or server. In some cases, video games are executed by one or more servers in a data center. When a video game is run, some instances of the video game may be a simulation of the video game. For example, a video game may be executed by an environment or server that generates a simulation of the video game. A simulation, in some embodiments, is an instance of a video game. In other embodiments, the simulation may be generated by an emulator. In any case, if a video game is expressed as a simulation, the simulation may be executed to render interactive content (e.g., video frames) that can be interactively streamed, executed, and/or controlled by user input. I can do it.

CPU702は、1つ以上の処理コアを含む1つ以上の汎用マイクロプロセッサである。いくつかの実施形態では、コンピューティングデバイス700は、クエリの解釈、文脈的に関連するリソースの識別、及び文脈的に関連するリソースのビデオゲーム内での即時実施及びレンダリングなど、高並列及び計算集約的なアプリケーションに特に適合したマイクロプロセッサアーキテクチャを有する1つ以上のCPU702を使用して、実施する。様々な実施形態で、コンピューティングデバイス700は、ゲームセグメント(例えば、ゲーム機)をプレイするプレイヤーにローカライズされたもの、またはプレイヤーからリモートであるもの(例えば、バックエンドサーバプロセッサ)、またはクライアントへのゲームプレイのリモートストリーミングのためにゲームクラウドシステムで仮想化を使用する多くのサーバの1つである。 CPU 702 is one or more general purpose microprocessors that include one or more processing cores. In some embodiments, the computing device 700 performs highly parallel and computationally intensive operations such as interpreting queries, identifying contextually relevant resources, and immediately implementing and rendering the contextually relevant resources within a video game. The CPU 702 is implemented using one or more CPUs 702 having a microprocessor architecture specifically adapted for commercial applications. In various embodiments, the computing device 700 is localized to a player playing a game segment (e.g., a gaming console), or remote from the player (e.g., a backend server processor), or remote to a client. It is one of many servers that use virtualization in the Game Cloud system for remote streaming of gameplay.

コンピューティングデバイス700は、CPU702によって使用されるアプリケーション及びデータを格納するコンピュータメモリ704を含む。コンピューティングシステム700は、データの不揮発性記憶装置及びアプリケーション用のコンピュータ可読媒体を提供するデータストレージデバイス706も含む。様々な実施形態で、コンピューティングデバイス700は、固定ディスクドライブ、リムーバブルディスクドライブ、フラッシュメモリデバイス、及び/またはCD-ROM、DVD-ROM、Blu-ray(登録商標)、HD-DVD、またはその他の光学ストレージデバイス、ならびに信号伝送及びストレージメディアを含んでもよい。コンピューティングデバイス700は、1人以上のユーザからのユーザ入力をコンピューティングデバイス700に通信する1つ以上のユーザ入力デバイス708も含む。例えば、ユーザ入力デバイス708(複数可)は、キーボード(複数可)、マウス(複数可)、ジョイスティック(複数可)、タッチパッド(複数可)、タッチスクリーン(複数可)、静止画またはビデオレコーダ(複数可)/カメラ(複数可)、ジェスチャを認識する追跡デバイス(複数可)、及び/またはマイクロフォン(複数可)が含まれ得る。
コンピューティングデバイス700は、コンピューティングデバイス700が電子通信ネットワークを介して他のコンピュータシステムと通信することを可能にし、ローカルエリアネットワーク、及びインターネットなどのワイドエリアネットワークにわたる有線または無線通信を含んでもよいネットワークインタフェース714も含む。コンピューティングデバイス700は、CPU702、コンピュータメモリ704、及び/またはデータストレージデバイス706によって提供される命令及び/またはデータから、アナログまたはデジタルオーディオ出力を生成するオーディオプロセッサ712も含む。コンピューティングデバイス700は、CPU702、コンピュータメモリ704、データストレージデバイス(複数可)706、ユーザ入力デバイス(複数可)708、ネットワークインタフェース714、及びオーディオプロセッサ712を接続するための1つまたは複数のデータバス(複数可)722も含む。
Computing device 700 includes computer memory 704 that stores applications and data used by CPU 702 . Computing system 700 also includes a data storage device 706 that provides non-volatile storage of data and computer-readable media for applications. In various embodiments, computing device 700 includes a fixed disk drive, a removable disk drive, a flash memory device, and/or a CD-ROM, DVD-ROM, Blu-ray, HD-DVD, or other May include optical storage devices and signal transmission and storage media. Computing device 700 also includes one or more user input devices 708 that communicate user input from one or more users to computing device 700. For example, user input device(s) may include keyboard(s), mouse(s), joystick(s), touch pad(s), touch screen(s), still image or video recorder(s), etc. )/camera(s), tracking device(s) that recognize gestures, and/or microphone(s).
Computing device 700 is connected to a network that enables computing device 700 to communicate with other computer systems via electronic communications networks, which may include wired or wireless communications across local area networks and wide area networks, such as the Internet. Also includes an interface 714. Computing device 700 also includes an audio processor 712 that generates analog or digital audio output from instructions and/or data provided by CPU 702 , computer memory 704 , and/or data storage device 706 . Computing device 700 includes a CPU 702, computer memory 704, data storage device(s) 706, user input device(s) 708, network interface 714, and one or more data buses for connecting audio processor 712. (Multiple possible) 722 is also included.

グラフィックサブシステム720はさらに、データバス722、及びコンピューティングデバイス700の様々なコンポーネントと接続される。グラフィックサブシステム720は、グラフィック処理ユニット(GPU)716及びグラフィックスメモリ718を含む。グラフィックスメモリ718は、出力画像の各画素の画素データを格納するために使用される表示メモリ(例えばフレームバッファ)を含む。グラフィックスメモリ718は、GPU716と同一のデバイスに統合されてもよく、GPU716と別個のデバイスとして接続されてもよく、及び/またはコンピュータメモリ704の内部で実装されてもよい。
画素データは、CPU702からグラフィックスメモリ718に直接提供されてもよい。代わりに、CPU702は、所望の出力画像を定義するデータ及び/または命令をGPU716に提供し、GPU716は、そこから1つ以上の出力画像の画素データを生成する。所望の出力画像を定義するデータ及び/または命令は、コンピュータメモリ704及び/またはグラフィックスメモリ718に記憶されてもよい。いくつかの実施形態では、GPU716は、シーン用のジオメトリ、照明、シェーディング、テクスチャリング、動き、及び/またはカメラパラメータを定義する命令及びデータから、出力画像の画素データを生成する3次元(3D)レンダリング機能を含む。GPU716はさらに、シェーダプログラムを実行することが可能な1つ以上のプログラム可能実行ユニットを含んでもよい。
Graphics subsystem 720 is further coupled to a data bus 722 and various components of computing device 700. Graphics subsystem 720 includes a graphics processing unit (GPU) 716 and graphics memory 718. Graphics memory 718 includes display memory (eg, a frame buffer) used to store pixel data for each pixel of the output image. Graphics memory 718 may be integrated into the same device as GPU 716, may be connected as a separate device from GPU 716, and/or may be implemented within computer memory 704.
Pixel data may be provided directly from CPU 702 to graphics memory 718. Instead, CPU 702 provides data and/or instructions defining a desired output image to GPU 716 from which GPU 716 generates pixel data for one or more output images. Data and/or instructions defining the desired output image may be stored in computer memory 704 and/or graphics memory 718. In some embodiments, the GPU 716 generates the pixel data of the output image from instructions and data that define the geometry, lighting, shading, texturing, motion, and/or camera parameters for the scene. Contains rendering functions. GPU 716 may further include one or more programmable execution units capable of executing shader programs.

グラフィックスサブシステム720は、グラフィックスメモリ718から画像の画素データを定期的に出力して、ディスプレイデバイス710に表示させる。ディスプレイデバイス710は、本質的に他の任意の種類のコンピュータディスプレイデバイスの中でも、CRT、LCD、プラズマ、及びOLEDディスプレイを含む、コンピューティングデバイス700からの信号に応答して、視覚情報を表示することが可能な任意のデバイスであってもよい。様々な実施形態において、コンピューティングデバイス700は、ディスプレイデバイス710にアナログ信号及び/またはデジタル信号を提供する。 Graphics subsystem 720 periodically outputs image pixel data from graphics memory 718 for display on display device 710. Display device 710 is capable of displaying visual information in response to signals from computing device 700, including CRT, LCD, plasma, and OLED displays, among essentially any other types of computer display devices. It may be any device capable of In various embodiments, computing device 700 provides analog and/or digital signals to display device 710.

様々な実施形態において、本明細書に開示される方法及びシステムは、広い地理的領域にわたってビデオゲーム及び/または他のメディアコンテンツへのアクセスを提供するなどのアクセスサービスを提供するクラウドコンピューティングシステムにおいて実装される。クラウドコンピューティングとは、動的にスケーラブルで多くの場合仮想化されたリソースがインターネットを介したサービスとして提供されるコンピューティング様式である。ユーザは、ユーザをサポートする「クラウド」の技術的インフラストラクチャのエキスパートである必要はない。クラウドコンピューティングは、サービスとしてのインフラストラクチャ(IaaS)、サービスとしてのプラットフォーム(PaaS)、サービスとしてのソフトウェア(SaaS)などの異なるサービスに分類することができる。クラウドコンピューティングサービスは、多くの場合、ビデオゲームなどのアプリケーションを、ウェブブラウザからアクセスするオンラインで提供するが、ソフトウェア及びデータは、クラウド内のサーバに記憶される。クラウドという用語は、コンピュータネットワークの図にインターネットを描く方法に基づいたインターネットのメタファーとして使用され、複雑なインフラストラクチャを隠し持つことの抽象的概念である。 In various embodiments, the methods and systems disclosed herein are implemented in cloud computing systems that provide access services, such as providing access to video games and/or other media content over a wide geographic area. Implemented. Cloud computing is a computing modality in which dynamically scalable and often virtualized resources are provided as a service over the Internet. Users do not need to be experts in the "cloud" technical infrastructure that supports them. Cloud computing can be classified into different services such as Infrastructure as a Service (IaaS), Platform as a Service (PaaS), and Software as a Service (SaaS). Cloud computing services often provide applications such as video games online that are accessed through a web browser, but the software and data are stored on servers in the cloud. The term cloud is used as a metaphor for the Internet, based on the way the Internet is depicted in computer network diagrams, and is an abstract concept that hides complex infrastructure.

いくつかの実施形態では、ゲームサーバは、ビデオゲームプレイヤーのための持続的情報プラットフォームの動作を実行するために使用される。インターネット上でプレイされるほとんどのビデオゲームは、ゲームサーバへの接続を介して作動する。いくつかの実施形態では、オンラインのビデオゲームはプレイヤーからのデータを収集し、それを他のプレイヤーに配信する専用サーバアプリケーションを使用する。他の実施形態では、オンラインのビデオゲームは、分散型ゲームエンジンによって実行される。これらの実施形態では、分散型ゲームエンジンは、複数の処理エンティティ(PE)で実行されてよく、その結果、各PEは、オンラインのビデオゲームが実行される所与のゲームエンジンの機能セグメントを実行する。いくつかの実施形態では、各PEは、ゲームエンジンによって計算ノードとして認識される。 In some embodiments, a game server is used to perform operations of a persistent information platform for video game players. Most video games played over the Internet operate through a connection to a game server. In some embodiments, online video games use dedicated server applications that collect data from players and distribute it to other players. In other embodiments, online video games are executed by a distributed game engine. In these embodiments, the distributed game engine may be executed in multiple processing entities (PEs) such that each PE performs a functional segment of the given game engine on which the online video game is executed. do. In some embodiments, each PE is recognized by the game engine as a compute node.

ゲームエンジンは通常、機能的に多様な一連の操作を行って、ユーザが体験する追加のサービスを提供すると共にビデオゲームアプリケーションを実行する。例えば、ゲームエンジンは、ゲームロジックを実装し、ゲーム計算、物理的過程、ジオメトリ変換、レンダリング、照明、シェーディング、オーディオ、及び追加のゲーム内またはゲーム関連サービスを実行する。追加のサービスには、例えば、メッセージング、ソーシャルユーティリティ、オーディオ通信、ゲームプレイ/再生機能、ヘルプ機能などが含まれてよい。
いくつかの実施形態では、ゲームエンジンは、特定のサーバのハイパーバイザによって仮想化される動作システムにおいて実行される。いくつかの実施形態では、ゲームエンジンのセグメントは複数のPEに分散され、各PEはデータセンターの異なるサーバユニットに常駐することができる。いくつかの実施形態では、ゲームエンジンセグメントを実行するために使用される様々なPEは、各ゲームエンジンセグメントのニーズに応じて、サーバユニット、仮想マシン、またはコンテナとして実装され得る。例えば、ゲームエンジンセグメントがカメラの変換を担当する場合、比較的単純な数学演算(例えば、行列変換)を多数行うことになるので、その特定のゲームエンジンセグメントは、GPUに関連付けられた仮想マシンと共にプロビジョニングされてよい。より少ないがより複雑な操作を必要とする他のゲームエンジンセグメントは、1つ以上のより高出力のCPUに関連付けられた処理エンティティと共にプロビジョニングされてよい。
Game engines typically perform a functionally diverse set of operations to provide additional services for the user to experience and to run the video game application. For example, a game engine implements game logic and performs game calculations, physics, geometry transformations, rendering, lighting, shading, audio, and additional in-game or game-related services. Additional services may include, for example, messaging, social utilities, audio communications, gameplay/playback functionality, help functionality, and the like.
In some embodiments, the game engine executes in an operating system that is virtualized by a hypervisor of a particular server. In some embodiments, segments of the game engine are distributed across multiple PEs, and each PE may reside on a different server unit of the data center. In some embodiments, the various PEs used to run game engine segments may be implemented as server units, virtual machines, or containers, depending on the needs of each game engine segment. For example, if a game engine segment is responsible for camera transformations, it will be doing a lot of relatively simple mathematical operations (e.g., matrix transformations), so that particular game engine segment, along with the virtual machine associated with the GPU, May be provisioned. Other game engine segments requiring fewer but more complex operations may be provisioned with processing entities associated with one or more higher-powered CPUs.

ゲームエンジンを分散することにより、ゲームエンジンは、物理サーバユニットの能力に拘束されない弾力性のある計算特性を備える。代わりに、ゲームエンジンは、必要なとき、ビデオゲームの要求を満たすためにより多いまたは少ない計算ノードと共にプロビジョニングされる。ビデオゲーム及びビデオゲームプレイヤーの観点からは、複数の計算ノードに分散されているゲームエンジンは、ゲームエンジンマネージャまたはスーパーバイザがワークロードを分散し、結果をシームレスに統合して、エンドユーザにビデオゲーム出力構成要素を提供するので、単一の処理エンティティで実行される非分散ゲームエンジンと区別できない。 By distributing the game engine, the game engine has resilient computational properties that are not tied to the capabilities of physical server units. Instead, the game engine is provisioned with more or fewer compute nodes when needed to meet the demands of the video game. From a video game and video game player perspective, a game engine that is distributed across multiple compute nodes allows a game engine manager or supervisor to distribute the workload and seamlessly integrate the results to provide video game output to the end user. indistinguishable from non-distributed game engines running on a single processing entity.

ユーザは、少なくともCPU、ディスプレイ及び入力/出力(I/O)デバイスを含む、クライアントデバイスを使用してリモートサービスにアクセスする。クライアントデバイスには、パーソナルコンピュータ(PC)、携帯電話、タブレット、ネットブック、PDA、またはその他任意のタイプのコンピューティングデバイスを使用できる。いくつかの実施形態では、ゲームサーバで実行するネットワークは、クライアントによって使用されるコンピューティングデバイスの種類を認識し、採用するデータ通信方法を調整する。別の事例では、クライアントデバイスは、HTML(ハイパーテキストマークアップ言語)などの標準的なデータ通信方法を使用して、インターネットを介してゲームサーバのアプリケーションにアクセスする。 A user accesses remote services using a client device that includes at least a CPU, a display, and an input/output (I/O) device. The client device can be a personal computer (PC), mobile phone, tablet, netbook, PDA, or any other type of computing device. In some embodiments, the network running on the game server recognizes the type of computing device used by the client and adjusts the data communication method employed. In another case, a client device accesses a game server's application over the Internet using standard data communication methods such as HTML (Hypertext Markup Language).

所与のビデオゲームまたはゲームアプリケーションは、特定のプラットフォーム及び特定の関連コントローラデバイス用に開発され得ることを、理解されたい。しかしながら、ゲームクラウドシステムを介してこのようなゲームを利用可能にするときに、ユーザは、異なるコントローラデバイスによってビデオゲームにアクセスすることができる。例えば、ゲームは、ゲーム機及びその関連したコントローラのために開発されている可能性があるが、ユーザは、キーボード及びマウスを利用するパーソナルコンピュータからゲームのクラウドベースのバージョンにアクセスすることができる。このようなシナリオにおいて、入力パラメータ構成は、ユーザの利用可能なコントローラデバイス(この事例において、キーボード及びマウス)により生成されることが可能である入力から、ビデオゲームの実行のために許容可能である入力へのマッピングを定義することが可能である。
他の例では、ユーザは、タブレットコンピューティングデバイス、タッチスクリーンスマートフォン、または他のタッチスクリーン駆動デバイスを介して、クラウドゲームシステムにアクセスし得る。この事例において、クライアントデバイス及びコントローラデバイスは、入力が検出されたタッチスクリーンの入力/ジェスチャとして提供されながら、同一のデバイス内に合わせて一体化される。このようなデバイスについて、入力パラメータ構成は、ビデオゲームについてのゲーム入力に対応する特定のタッチスクリーン入力を定義することができる。たとえば、ボタン、指向性パッド、または他のタイプの入力素子は、ビデオゲームの実行中に表示され、またはオーバーレイされ、ユーザがゲーム入力を生成するためにタッチすることが可能であるタッチスクリーンの位置を示すことができる。特定の向きにおけるスワイプなどのジェスチャ、または特定のタッチモーションもゲーム入力として検出されることができる。一実施形態では、例えばビデオゲームのプレイを始める前に、ゲームプレイのタッチスクリーンを介して入力を提供する方法を示すチュートリアルが、ユーザに提供され得る。
It should be understood that a given video game or game application may be developed for a particular platform and particular associated controller device. However, when making such games available through a game cloud system, users can access video games with different controller devices. For example, a game may be developed for a gaming console and its associated controller, but a user can access a cloud-based version of the game from a personal computer utilizing a keyboard and mouse. In such a scenario, the input parameter configuration is acceptable for running the video game from inputs that can be generated by the user's available controller devices (in this case, a keyboard and mouse). It is possible to define mappings to inputs.
In other examples, a user may access a cloud gaming system via a tablet computing device, touchscreen smartphone, or other touchscreen-driven device. In this case, the client device and controller device are integrated together within the same device, with input provided as detected touch screen inputs/gestures. For such devices, the input parameter configuration may define specific touch screen inputs that correspond to game inputs for the video game. For example, buttons, directional pads, or other types of input elements are visible or overlaid during the execution of a video game and are touchscreen locations that the user can touch to generate game input. can be shown. Gestures such as swipes in specific orientations, or specific touch motions can also be detected as game inputs. In one embodiment, for example, before beginning to play a video game, a user may be provided with a tutorial that shows how to provide input through a gameplay touch screen.

いくつかの実施形態では、クライアントデバイスは、コントローラデバイスについての接続ポイントとして機能する。例えば、コントローラデバイスは、無線接続または有線接続を介してクライアントデバイスと通信し、コントローラデバイスからクライアントデバイスへ入力を伝送する。次に、クライアントデバイスは、これらの入力を処理して、その後入力データを、ネットワーク(例えばルータなどのローカルネットワークデバイスを介してアクセスされるネットワーク)を介して、クラウドゲームサーバへ送信し得る。
しかしながら、他の実施形態において、コントローラ自体は、ネットワークを介してクラウドゲームサーバへ直接に入力を通信する能力を有し、これらのような入力を最初にクライアントデバイスを通して通信する必要がなく、ネットワーク化されたデバイスであることが可能である。例えば、コントローラは、ローカルネットワークデバイス(ルータなど)に接続し、クラウドゲームサーバへデータを送信し、このクラウドゲームサーバからデータを受信することができる。したがって、クライアントデバイスは、クラウドベースのビデオゲームからビデオ出力を受信し、それをローカルディスプレイにレンダリングすることを必要とされたままであることができる一方で、入力レイテンシは、コントローラがクラウドゲームサーバへネットワーク経由で直接に入力を送信することを可能にし、クライアントデバイスをバイパスするようにすることにより、減少することが可能である。
In some embodiments, a client device acts as an attachment point for a controller device. For example, a controller device communicates with a client device via a wireless or wired connection to transmit input from the controller device to the client device. The client device may then process these inputs and then send the input data to the cloud gaming server via a network (eg, a network accessed through a local network device such as a router).
However, in other embodiments, the controller itself has the ability to communicate inputs directly to the cloud gaming server over the network, without having to first communicate these inputs through the client device, and without having to communicate these inputs through the client device first. It is possible that the device is For example, a controller can connect to a local network device (such as a router) to send data to and receive data from a cloud gaming server. Thus, while the client device can still receive video output from a cloud-based video game and render it to its local display, the input latency is reduced when the controller connects to the cloud game server over the network. This can be reduced by allowing input to be sent directly via the client device, bypassing the client device.

いくつかの実施形態では、ネットワーク化されたコントローラ及びクライアントデバイスは、特定のタイプの入力をコントローラからクラウドゲームサーバへ直接に、また他のタイプの入力をクライアントデバイスを介して送信するように構成されることが可能である。例えば、コントローラ自体は別として、任意の追加のハードウェアまたは処理に依存しない検出による入力は、クライアントデバイスをバイパスするように、ネットワークを介して直接コントローラからクラウドゲームサーバへ送信することができる。このような入力には、コントローラデバイスにより提供され得る他のいずれかの種類の入力の中でも、ボタン入力、ジョイスティック入力、埋め込みモーション検出入力(例えば、加速度計、磁力計、ジャイロスコープ)が含まれ得る。しかし、追加のハードウェアを利用するか、クライアントデバイスによる処理を必要とする入力は、クライアントデバイスによりクラウドゲームサーバに送信され得る。
これらの入力は、クラウドゲームサーバへ送信する前に、クライアントデバイスにより処理され得るゲーム環境から取得されたビデオ及び/またはオーディオを含むことができる。加えて、コントローラの動き検出ハードウェアからの入力は、取得されたビデオと併せてクライアントデバイスにより処理され、コントローラの位置及び動きを検出することができ、その後、クライアントデバイスによりクラウドゲームサーバへ通信される。いくつかの実施形態では、コントローラデバイスはまた、クライアントデバイスから、または直接クラウドゲームサーバから、データ(例えばフィードバックデータ、ハプティックデータなど)を受信し得る。
In some embodiments, the networked controller and client device are configured to send certain types of input directly from the controller to the cloud gaming server and other types of input through the client device. It is possible to For example, apart from the controller itself, detection inputs that do not rely on any additional hardware or processing can be sent directly from the controller to the cloud gaming server over the network, bypassing the client device. Such inputs may include button inputs, joystick inputs, embedded motion sensing inputs (e.g., accelerometers, magnetometers, gyroscopes), among any other types of inputs that may be provided by the controller device. . However, inputs that utilize additional hardware or require processing by the client device may be sent by the client device to the cloud gaming server.
These inputs may include video and/or audio obtained from the gaming environment that may be processed by the client device before being sent to the cloud gaming server. In addition, input from the controller motion detection hardware can be processed by the client device in conjunction with the captured video to detect the controller's position and motion, and then communicated by the client device to the cloud gaming server. Ru. In some embodiments, the controller device may also receive data (eg, feedback data, haptic data, etc.) from the client device or directly from the cloud gaming server.

当然のことながら、本明細書で規定した種々の実施形態を、本明細書で開示した種々の特徴を用いて具体的な実施態様に結合するかまたはアセンブルしてもよい。従って、提供される例は、可能な例の一部にすぎず、様々な要素を組み合わせることでより多くの実施態様を規定することが可能な様々な実施態様に制限を加えるものではない。ある例では、ある実施態様は、開示されたまたは同等の実施態様の趣旨から逸脱することなく、より少ない要素を含んでもよい。本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラマブルコンシューマ用エレクトロニクス、ミニコンピュータ、メインフレームコンピュータなどを含む種々のコンピュータシステム構成によって実施してもよい。また、本開示の実施形態は、有線ベースまたは無線ネットワークを介してリンクされる遠隔処理デバイスによりタスクが行われる分散計算環境においても、実施することができる。 It will be appreciated that the various embodiments defined herein may be combined or assembled into specific implementations using various features disclosed herein. Accordingly, the examples provided are only some of the possible examples and are not intended to be limiting to the various embodiments, which can define many more embodiments by combining various elements. In certain examples, certain embodiments may include fewer elements without departing from the spirit of the disclosed or equivalent embodiments. Embodiments of the present disclosure may be practiced by a variety of computer system configurations, including handheld devices, microprocessor systems, microprocessor-based or programmable consumer electronics, minicomputers, mainframe computers, and the like. Embodiments of the present disclosure can also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through wired-based or wireless networks.

また、いくつかの方法の動作が特定の順序/シーケンスで本明細書に記載されているが、他のハウスキーピング動作が様々な方法の動作の間に実行されてもよい、及び/または方法の動作がわずかに異なる時間に行われるように調整されてもよい、及び/または変更されるゲーム状態を生成するためのゲームテレメトリ及び/またはゲーム状態データの処理が時間的に十分な方法で実行される限り、例えば、後続のゲーム実行可能動作によって必要とされるときにゲームテレメトリ及び/またはゲーム状態を利用できるようにするために、方法の動作の処理が様々な間隔で行われることを可能にするシステムに、方法の動作が分散されてもよいということを理解されたい。 Additionally, although some method operations are described herein in a particular order/sequence, other housekeeping operations may be performed between the various method operations and/or Actions may be adjusted to occur at slightly different times and/or the processing of game telemetry and/or game state data to produce a changed game state may be performed in a temporally sufficient manner. processing of the method operations may be performed at various intervals, for example, to make game telemetry and/or game state available as needed by subsequent game executable operations. It should be understood that the operations of the method may be distributed across systems that support the system.

いくつかの実施形態では、本明細書に開示される様々な方法及びシステムは、コンピュータ可読媒体のコンピュータ可読コードとして実装する(製造する)。コンピュータ可読媒体はデータを記憶でき、その後、コンピュータシステムによってそのデータを読み取ることができる任意のデータストレージデバイスである。コンピュータ可読媒体の例は、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み出し専用メモリ、ランダムアクセスメモリ、CD-ROM、CD-R、CD-RW、磁気テープ、並びに他の光学及び/または非光学データストレージデバイスを含む。また、コンピュータ可読媒体には、コンピュータ可読コードが分散方式で格納され実行されるように、ネットワーク接続されたコンピュータシステムにわたり分散されたコンピュータ可読有形媒体が含まれ得る。 In some embodiments, the various methods and systems disclosed herein are implemented (manufactured) as computer readable code on a computer readable medium. A computer-readable medium is any data storage device that can store data and that can then be read by a computer system. Examples of computer readable media are hard drives, network attached storage (NAS), read only memory, random access memory, CD-ROM, CD-R, CD-RW, magnetic tape, and other optical and/or non-optical data. Including storage devices. Computer-readable media can also include computer-readable tangible media that is distributed over a network-coupled computer system so that computer-readable code is stored and executed in a distributed manner.

実施形態の前述の説明は、例示及び説明の目的で提供されたものであり、網羅的または限定的であることは意図されていない。特定の実施形態の個々の要素または特徴は、一般に、その特定の実施形態に限定されないが、適用可能な場合、交換可能であり、特に図示または説明されていなくても、選択された実施形態で使用することができる。このように、本明細書に開示された1つまたは複数の実施形態からの1つまたは複数の特徴を、本明細書に開示された1つまたは複数の他の実施形態からの1つまたは複数の特徴と組み合わせて、本明細書に明示的に開示されていないが、本明細書に暗示的に開示されている別の実施形態を形成することができる。この他の実施形態も、多くの方法で変更することができる。そのような実施形態の変形は、本明細書の開示からの逸脱と見なされるべきではなく、そのような実施形態の変形及び修正はすべて、本明細書に提供される開示の範囲の中に含まれることが意図される。 The foregoing descriptions of embodiments are provided for purposes of illustration and description and are not intended to be exhaustive or restrictive. Individual elements or features of a particular embodiment are generally not limited to that particular embodiment, but are interchangeable where applicable and may be used in the selected embodiment, even if not specifically shown or described. can be used. Thus, one or more features from one or more embodiments disclosed herein can be combined with one or more features from one or more other embodiments disclosed herein. may be combined with features not explicitly disclosed herein to form further embodiments that are implicitly disclosed herein. Other embodiments may also be modified in many ways. Variations in such embodiments should not be considered a departure from the disclosure herein, and all such variations and modifications in embodiments are included within the scope of the disclosure provided herein. It is intended that

前述の実施形態は、理解を明確にするためにある程度詳細に説明されたが、添付の特許請求の範囲内で特定の変更及び修正を実施できることは明らかであろう。したがって、本明細書に開示される実施形態は、限定ではなく例示としてみなされるべきであり、本実施形態は、本明細書に記載される詳細に限定されるべきではなく、添付の特許請求の範囲及び均等物の中で変更されてよい。 Although the foregoing embodiments have been described in some detail for clarity of understanding, it will be obvious that certain changes and modifications may be practiced within the scope of the appended claims. Accordingly, the embodiments disclosed herein are to be regarded as illustrative rather than limiting, and the embodiments should not be limited to the details set forth herein, but rather in accordance with the appended claims. Variations may be made within the scope and equivalents.

Claims (24)

メディアアイテムの要約を生成する方法であって、
サーバコンピューティングシステムから1つ以上のクライアントコンピューティングシステムにメディアアイテムのストリームを送信し、前記メディアアイテムは前記メディアアイテムの再生のためのタイムラインを有し、
前記1つ以上のクライアントコンピューティングシステムのいずれかの1人以上の参加者から前記サーバコンピューティングシステムで参加者生成コンテンツを受信し、前記参加者生成コンテンツは前記メディアアイテムの前記タイムラインにタイムインデックスが付けられ、
前記参加者生成コンテンツを処理して、前記参加者生成コンテンツの中に存在する表示に基づいて前記メディアアイテムの主要な部分を識別し、
前記メディアアイテムの前記主要な部分を含む動的要約キューを生成し、前記動的要約キューがトリーミング用にアセンブルされ、
要求者から前記動的要約キューを表示する要求を受信し、
前記要求に応答して、前記動的要約キューのストリームを前記要求者のコンピューティングデバイスに送信する、方法。
A method of generating a summary of a media item, the method comprising:
transmitting a stream of media items from a server computing system to one or more client computing systems, the media items having a timeline for playback of the media items;
receiving participant-generated content at the server computing system from one or more participants of any of the one or more client computing systems, the participant-generated content being time-indexed to the timeline of the media item; is attached,
processing the participant-generated content to identify key portions of the media item based on representations present in the participant-generated content;
generating a dynamic summary queue including the main portion of the media item, the dynamic summary queue being assembled for streaming;
receiving a request to display the dynamic summary queue from a requester;
In response to the request, the method sends the stream of the dynamic summary queue to the requester computing device.
前記メディアアイテムはオーディオビジュアルプレゼンテーションである、請求項1に記載の方法。 2. The method of claim 1, wherein the media item is an audiovisual presentation. 前記オーディオビジュアルプレゼンテーションは、映画、テレビ番組、現実世界のスポーツイベント、電子スポーツイベント、オンラインショー、オンラインビデオ、及びアップロードされたビデオのうちの1つまたは複数である、請求項2に記載の方法。 3. The method of claim 2, wherein the audiovisual presentation is one or more of a movie, a television show, a real-world sporting event, an electronic sporting event, an online show, an online video, and an uploaded video. 前記メディアアイテムは、ビデオゲームのゲームビデオ及びオーディオのストリームである、請求項1に記載の方法。 2. The method of claim 1, wherein the media item is a stream of game video and audio of a video game. 前記サーバコンピューティングシステムは、前記1つ以上のクライアントコンピューティングシステムにおける前記1人以上の参加者のそれぞれのコントローラデバイスから受け取った入力に従って前記ビデオゲームを実行するように構成されたクラウドゲームシステムであり、前記クラウドゲームシステムは、前記1人以上の参加者による前記ビデオゲームのプレイを反映するゲームビデオ及びオーディオの前記ストリームの送信を指示するように構成され、前記1人以上の参加者が前記ビデオゲームのプレイ中に前記参加者生成コンテンツを提供する、請求項4に記載の方法。 The server computing system is a cloud gaming system configured to execute the video game according to input received from a respective controller device of the one or more participants at the one or more client computing systems. , the cloud gaming system is configured to direct the transmission of the stream of game video and audio reflecting play of the video game by the one or more participants, and the cloud gaming system is configured to direct the transmission of the stream of game video and audio reflecting play of the video game by the one or more participants, 5. The method of claim 4, providing the participant-generated content during game play. 前記ビデオゲームは電子スポーツビデオゲームである、請求項4に記載の方法。 5. The method of claim 4, wherein the video game is an electronic sports video game. 前記参加者生成コンテンツは、テキストデータ、音声データ、オーディオデータ、絵文字データ、画像データ、カメラで取得されたビデオデータ、カメラで取得された画像データ、タグのデータ、及びコントローラデバイスの入力データの1つ以上を含む、請求項1に記載の方法。 The participant-generated content may include one of text data, voice data, audio data, pictographic data, image data, video data captured by a camera, image data captured by a camera, tag data, and controller device input data. 2. The method of claim 1, comprising more than one. 前記参加者生成コンテンツを処理することは、前記参加者生成コンテンツから特徴を抽出して抽出された特徴のセットを取得し、前記抽出された特徴を1つまたは複数の分類に分類して分類された特徴のセットを取得し、及び機械学習モデルを通じて前記分類された特徴のセットを処理して、前記メディアアイテムの主要な部分を識別することを含む、請求項1に記載の方法。 Processing the participant-generated content includes extracting features from the participant-generated content to obtain a set of extracted features, and classifying the extracted features into one or more classifications. 2. The method of claim 1, comprising obtaining a set of classified features and processing the classified set of features through a machine learning model to identify key parts of the media item. さらに、前記機械学習モデルを通じて前記メディアアイテムの状態データを処理し、前記メディアアイテムの前記主要な部分を識別するために前記機械学習モデルを通じて前記分類された特徴のセットを処理することと併せて、前記メディアアイテムの前記状態データをタイムインデックスによって前記分類された特徴のセットに互いに関連付ける、請求項8に記載の方法。 further processing state data of the media item through the machine learning model and processing the set of classified features through the machine learning model to identify the main portions of the media item; 9. The method of claim 8, correlating the state data of the media item to the set of classified features by a time index. 前記メディアアイテムの前記状態データは、前記メディアアイテムをゲームビデオ及びオーディオのストリームとして生成するために、前記1人以上の参加者のそれぞれのコントローラデバイスから受信した入力に従って実行されるビデオゲームの状態データを含む、請求項9に記載の方法。 The state data of the media item is state data of a video game that is executed according to input received from a respective controller device of the one or more participants to generate the media item as a stream of game video and audio. 10. The method of claim 9, comprising: 前記動的要約キューは、前記メディアアイテムの前記主要な部分の自動生成された口頭要約及び/または自動生成された書面要約を含む、請求項1に記載の方法。 2. The method of claim 1, wherein the dynamic summary cue includes an automatically generated verbal summary and/or an automatically generated written summary of the main portion of the media item. 前記動的要約キューは、前記メディアアイテムの前記主要な部分に関連付けられた前記参加者生成コンテンツの少なくとも一部を含む、請求項1に記載の方法。 2. The method of claim 1, wherein the dynamic summary cue includes at least a portion of the participant-generated content associated with the major portion of the media item. 前記参加者生成コンテンツが前記サーバコンピューティングシステムで受信され、前記メディアアイテムの主要な部分を識別するために処理されるときに、前記動的要約キューを更新し、前記動的要約キューの更新は、さらに、前記動的要約キューに新しいコンテンツを追加し、及び/または前記動的要約キューの中にすでに存在している一部のコンテンツを変更する、請求項1に記載の方法。 updating the dynamic summary queue when the participant-generated content is received at the server computing system and processed to identify key portions of the media item, the updating of the dynamic summary queue comprising: The method of claim 1, further comprising adding new content to the dynamic summary queue and/or modifying some content already present in the dynamic summary queue. 前記要求者は、前記1人以上の参加者のいずれかである、請求項1に記載の方法。 2. The method of claim 1, wherein the requester is any of the one or more participants. 前記要求者は、前記メディアアイテムを見る際に前記1人以上の参加者に参加するよう招待された人物である、請求項1に記載の方法。 2. The method of claim 1, wherein the requester is a person invited to join the one or more participants in viewing the media item. 前記要求者は、ゲームのビデオ及びオーディオのストリームとして前記メディアアイテムを生成するために、前記1人以上の参加者のそれぞれのコントローラデバイスから受信した入力に従って実行されるビデオゲームのプレイに前記1人以上の参加者に参加するよう招待された人物である、請求項1に記載の方法。 The requestor may cause the one or more participants to play a video game in accordance with inputs received from respective controller devices of the one or more participants to produce the media items as video and audio streams of the game. 2. The method of claim 1, wherein the person is a person invited to join the above participants. さらに、前記動的要約キューを生成するための制御パラメータを受信する、請求項1に記載の方法。 2. The method of claim 1, further comprising receiving control parameters for generating the dynamic summary queue. 前記制御パラメータは、前記メディアアイテムの主要な部分を示す、前記参加者生成コンテンツの中に存在する表示の1つ以上のタイプの指定を含む、請求項17に記載の方法。 18. The method of claim 17, wherein the control parameters include specifying one or more types of representations present in the participant-generated content that indicate major portions of the media item. 前記表示のタイプは、前記メディアアイテムの中の主題に関して、前記1人以上の参加者のいずれかによって発せられた反応、表情、ジェスチャ、動作、発言、音、及び/または伝達の1つ以上を含む、請求項18に記載の方法。 The type of display may include one or more of reactions, facial expressions, gestures, actions, utterances, sounds, and/or communications made by any of the one or more participants regarding the subject matter in the media item. 19. The method of claim 18, comprising: 前記制御パラメータは、前記メディアアイテム内で発生する1つまたは複数のタイプのイベントの指定を含む、請求項17に記載の方法。 18. The method of claim 17, wherein the control parameters include specifying one or more types of events that occur within the media item. 前記制御パラメータは、前記メディアアイテムの主要な部分を識別するために前記参加者生成コンテンツを処理する際に、前記参加者生成コンテンツが前記1人以上の参加者のうちのいずれに限定されるかの指定を含む、請求項17に記載の方法。 The control parameter determines which of the one or more participants the participant-generated content is limited to when processing the participant-generated content to identify key portions of the media item. 18. The method of claim 17, comprising specifying. 前記制御パラメータは、前記動的要約キューが生成される前記メディアアイテムの再生のためのタイムライン内の時間枠の指定を含む、請求項17に記載の方法。 18. The method of claim 17, wherein the control parameters include specifying a time slot within a timeline for playback of the media item for which the dynamic summary cue is generated. 前記制御パラメータは、前記動的要約キューの概要分解の指定を含む、請求項17に記載の方法。 18. The method of claim 17, wherein the control parameters include specifying a summary decomposition of the dynamic summary queue. ビデオの要約を生成するシステムであって、
サーバコンピューティングシステムから1つ以上のクライアントコンピューティングシステムにメディアアイテムのストリームを送信するためコンピュータメモリに格納されるプログラム命令を有し、前記メディアアイテムは前記メディアアイテムの再生のためのタイムラインを有し、
前記1つ以上のクライアントコンピューティングシステムのいずれかの1人以上の参加者から前記サーバコンピューティングシステムで参加者生成コンテンツを受信するため前記コンピュータメモリに格納されるプログラム命令を有し、前記参加者生成コンテンツは前記メディアアイテムの前記タイムラインにタイムインデックスが付けられ、
前記参加者生成コンテンツを処理して、前記参加者生成コンテンツの中に存在する表示に基づいて前記メディアアイテムの主要な部分を識別するため前記コンピュータメモリに格納されるプログラム命令を有し、
前記メディアアイテムの前記主要な部分を含む動的要約キューを生成するため前記コンピュータメモリに格納されるプログラム命令を有し、前記動的要約キューがストリーミング用にアセンブルされており、
要求者から前記動的要約キューを閲覧する要求を受信するため前記コンピュータメモリに格納されるプログラム命令を有し、
前記要求に応答して、前記動的要約キューのストリームを前記要求者のコンピューティングデバイスに送信するため前記コンピュータメモリに格納されるプログラム命令を有する、システム。
A system for generating a video summary, the system comprising:
program instructions stored in computer memory for transmitting a stream of media items from a server computing system to one or more client computing systems, the media items having a timeline for playback of the media items; death,
program instructions stored in the computer memory for receiving participant-generated content at the server computing system from one or more participants of any of the one or more client computing systems; the generated content is time-indexed to the timeline of the media item;
program instructions stored in the computer memory for processing the participant-generated content to identify key portions of the media item based on representations present in the participant-generated content;
program instructions stored in the computer memory for generating a dynamic summary queue including the main portion of the media item, the dynamic summary queue being assembled for streaming;
program instructions stored in the computer memory for receiving a request from a requester to view the dynamic summary queue;
A system having program instructions stored in the computer memory for transmitting the stream of the dynamic summary queue to the requester computing device in response to the request.
JP2023540000A 2020-12-31 2021-12-20 Method and system for dynamic summary queue generation and provision Pending JP2024502045A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063132909P 2020-12-31 2020-12-31
US63/132,909 2020-12-31
US17/165,410 2021-02-02
US17/165,410 US11729479B2 (en) 2020-12-31 2021-02-02 Methods and systems for dynamic summary queue generation and provision
PCT/US2021/064463 WO2022146754A1 (en) 2020-12-31 2021-12-20 Methods and systems for dynamic summary queue generation and provision

Publications (1)

Publication Number Publication Date
JP2024502045A true JP2024502045A (en) 2024-01-17

Family

ID=79830939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023540000A Pending JP2024502045A (en) 2020-12-31 2021-12-20 Method and system for dynamic summary queue generation and provision

Country Status (3)

Country Link
EP (1) EP4271493A1 (en)
JP (1) JP2024502045A (en)
WO (1) WO2022146754A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10363488B1 (en) * 2015-06-29 2019-07-30 Amazon Technologies, Inc. Determining highlights in a game spectating system
US11170819B2 (en) * 2019-05-14 2021-11-09 Microsoft Technology Licensing, Llc Dynamic video highlight

Also Published As

Publication number Publication date
EP4271493A1 (en) 2023-11-08
WO2022146754A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
JP6538776B2 (en) Friction-free social sharing with cloud-based game slice generation and instant replay
JP2022525413A (en) AI modeling for video game coaching and matchmaking
TW201440857A (en) Sharing recorded gameplay to a social graph
US11883748B2 (en) Fractional non-fungible token for game related digital assets
US11400381B2 (en) Virtual influencers for narration of spectated video games
CN116782986A (en) Identifying a graphics interchange format file for inclusion with content of a video game
US11579752B1 (en) Augmented reality placement for user feedback
JP2023515948A (en) Methods for Behavior of Virtual Influencers Based on Predicted Gaming Activity and Audience Characteristics
US11412297B2 (en) Influencer tools for stream curation based on follower information
US11729479B2 (en) Methods and systems for dynamic summary queue generation and provision
EP4347070A1 (en) Simulating crowd noise for live events through emotional analysis of distributed inputs
JP2023552744A (en) Dynamic camera angle adjustment in-game
WO2024026198A1 (en) Reporting and crowd-sourced review whether game activity is appropriate for user
US20230199420A1 (en) Real-world room acoustics, and rendering virtual objects into a room that produce virtual acoustics based on real world objects in the room
US11778279B2 (en) Social media crowd-sourced discussions
JP2024502045A (en) Method and system for dynamic summary queue generation and provision
CN116761658A (en) Method and system for dynamic summary queue generation and provisioning
US20240066413A1 (en) Ai streamer with feedback to ai streamer based on spectators
US20240100440A1 (en) AI Player Model Gameplay Training and Highlight Review
US11872487B2 (en) Real time interconnected game context and data sharing plugin framework
US20230381649A1 (en) Method and system for automatically controlling user interruption during game play of a video game
US20240033619A1 (en) Impaired player accessability with overlay logic providing haptic responses for in-game effects
US20240017179A1 (en) Methods and system for predicting duration of multi-player game session
US20240100424A1 (en) Bifurcation of gameplay between mobile and non-mobile play with intelligent game state saving, and startups
CN117122907A (en) Method and system for providing game re-immersion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230801