JP2018014725A - Information processing device and content data generation method - Google Patents

Information processing device and content data generation method Download PDF

Info

Publication number
JP2018014725A
JP2018014725A JP2017153449A JP2017153449A JP2018014725A JP 2018014725 A JP2018014725 A JP 2018014725A JP 2017153449 A JP2017153449 A JP 2017153449A JP 2017153449 A JP2017153449 A JP 2017153449A JP 2018014725 A JP2018014725 A JP 2018014725A
Authority
JP
Japan
Prior art keywords
content
metadata
unit
application
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017153449A
Other languages
Japanese (ja)
Other versions
JP6592046B2 (en
Inventor
尚亨 椚田
Naoyuki Kunugida
尚亨 椚田
承賢 李
Seung-Hyun Yi
承賢 李
宅周 李
Taek-Chu Yi
宅周 李
宙營 池
Ju Yeong Ji
宙營 池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2017153449A priority Critical patent/JP6592046B2/en
Publication of JP2018014725A publication Critical patent/JP2018014725A/en
Application granted granted Critical
Publication of JP6592046B2 publication Critical patent/JP6592046B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique for generating an environment that can provide a content image matching to the situation of a user, from a server.SOLUTION: A game execution unit 112 executes a game program, and a status data notification unit 116 notifies a download processing unit 120 of the status data indicating the execution state of a game from the executing game program. A request transmission unit 146 transmits a search request containing the status data as metadata to a content server. A candidate image generation unit 136 generates a plurality of images relating to a content becoming a plural of candidates, as results of search in the server, and a content image generation unit 138 generates the image of a selected content.SELECTED DRAWING: Figure 9

Description

本発明は、ゲームなどのコンテンツ画像を視聴する技術、またコンテンツ画像の視聴を実現するための技術に関する。   The present invention relates to a technology for viewing content images such as games, and a technology for realizing viewing of content images.

多人数でのコミュニケーションツールとして、様々なソーシャル・ネットワーキング・サービス(SNS:Social Networking Service)が活用されている。またユーザが作成またはキャプチャした動画を共有するサービスも普及しており、ユーザは、ネットワーク上で様々な情報を他のユーザと共有できるようになっている。動画共有サイトは、ユーザが動画を投稿し、また閲覧する環境を提供している。   Various social networking services (SNS: Social Networking Service) are used as communication tools for a large number of people. In addition, a service for sharing a moving picture created or captured by a user is also widespread, and the user can share various information with other users on a network. The video sharing site provides an environment in which users can post and browse videos.

ユーザが動画を投稿する際には、ユーザが、動画タイトルやコメントなどのメタデータを入力して、動画データとともに動画共有サイトに送信する。またユーザが動画を閲覧する際には、動画共有サイトに検索キーワードを入力して、検索された動画リストから所望の動画を選択することで、動画データが配信される。   When a user posts a moving image, the user inputs metadata such as a moving image title and a comment, and transmits it to the moving image sharing site together with the moving image data. When a user browses a moving image, moving image data is distributed by inputting a search keyword to the moving image sharing site and selecting a desired moving image from the searched moving image list.

しかしながら従来の動画共有サービスにおいては、ユーザが、所望の動画にアクセスすることが容易でないという問題がある。これは、動画検索の際に、ユーザが適切な検索キーワードを入力することが難しいことが一つの理由であり、また、動画共有サイトに投稿された動画に、適切なメタデータが付加されていないことも別の理由として存在する。そのため、従来の動画共有サイトは、多くの動画を蓄積していても、ユーザの要求に沿った動画を提供できずにいるという課題を有している。   However, the conventional video sharing service has a problem that it is not easy for a user to access a desired video. This is because it is difficult for users to input appropriate search keywords when searching for videos, and appropriate videos are not added to videos posted on video sharing sites. That is another reason. Therefore, the conventional video sharing site has a problem that even if a large number of videos are accumulated, it is not possible to provide videos according to the user's request.

そこで本発明は、サーバから、ユーザの状況にマッチしたコンテンツ画像を提供可能な環境を生成するための技術を提供することを目的とする。   Therefore, an object of the present invention is to provide a technique for generating an environment capable of providing a content image that matches a user's situation from a server.

上記課題を解決するために、本発明のある態様の情報処理装置は、実行中のアプリケーションの画像データを記録する記録部と、実行中のアプリケーションから、アプリケーションの実行状態を示すメタデータを取得するメタデータ取得部と、記録部に記録されたアプリケーション画像データのうち、開始点から終了点までのアプリケーション画像データを、コンテンツデータとして抽出するコンテンツ生成部と、を備える。コンテンツ生成部は、メタデータが取得されたタイミングを示す時間情報を参照して、開始点から終了点までの期間に収集されたメタデータを、コンテンツデータに付加する。   In order to solve the above-described problem, an information processing apparatus according to an aspect of the present invention acquires metadata indicating an execution state of an application from a recording unit that records image data of the application being executed and the application being executed. A metadata acquisition unit; and a content generation unit that extracts application image data from a start point to an end point among the application image data recorded in the recording unit as content data. The content generation unit refers to the time information indicating the timing at which the metadata is acquired, and adds the metadata collected during the period from the start point to the end point to the content data.

本発明の別の態様もまた、情報処理装置である。この装置は、サーバに、実行中のアプリケーションの画像データを送信する送信処理部と、実行中のアプリケーションから、アプリケーションの実行状態を示すメタデータを取得するメタデータ取得部と、を備える。送信処理部は、アプリケーション画像データをサーバに送信している間にメタデータ取得部が取得したメタデータを、サーバに送信する。   Another embodiment of the present invention is also an information processing apparatus. The apparatus includes a transmission processing unit that transmits image data of an application being executed to the server, and a metadata acquisition unit that acquires metadata indicating the execution state of the application from the application being executed. The transmission processing unit transmits the metadata acquired by the metadata acquisition unit to the server while transmitting the application image data to the server.

本発明のさらに別の態様は、コンテンツデータ生成方法である。この方法は、実行中のアプリケーションから、アプリケーションの実行状態を示すメタデータを取得するステップと、実行中のアプリケーションの画像データを記録する記録部から、開始点から終了点までの画像データを、コンテンツデータとして抽出するステップと、メタデータが取得されたタイミングを示す時間情報を参照して、開始点から終了点までの期間に収集されたメタデータを、コンテンツデータに付加するステップと、を備える。   Yet another embodiment of the present invention is a content data generation method. This method includes a step of acquiring metadata indicating an execution state of an application from a running application, a recording unit that records image data of the running application, and image data from a start point to an end point. A step of extracting as data, and a step of adding metadata collected in a period from the start point to the end point to the content data with reference to time information indicating the timing at which the metadata is acquired.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明の情報処理技術によると、サーバから、ユーザの状況にマッチしたコンテンツ画像を提供可能な環境を生成するための技術を提供することを目的とする。   According to the information processing technology of the present invention, it is an object to provide a technology for generating an environment capable of providing a content image that matches a user's situation from a server.

本発明の実施例にかかる情報処理システムを示す図である。It is a figure which shows the information processing system concerning the Example of this invention. (a)は、入力装置上面の外観構成を示す図であり、(b)は、入力装置奥側側面の外観構成を示す図である。(A) is a figure which shows the external appearance structure of an input device upper surface, (b) is a figure which shows the external appearance structure of an input device back | inner side surface. 情報処理装置の機能ブロック図である。It is a functional block diagram of an information processor. コンテンツ送信機能を実現する情報処理装置の内部構成を示す図である。It is a figure which shows the internal structure of the information processing apparatus which implement | achieves a content transmission function. ゲーム画面の一例を示す図である。It is a figure which shows an example of a game screen. (a)は、イベントの発生時刻がコンテンツデータを切り出す開始点となる例を示す図であり、(b)は、2つのイベントコードで開始点と終了点が指定される例を示す図である。(A) is a figure which shows the example from which the generation | occurrence | production time of an event becomes a starting point which cuts out content data, (b) is a figure which shows the example in which a starting point and an end point are designated by two event codes. . ゲーム画面上に重畳表示される編集画面の一例を示す図である。It is a figure which shows an example of the edit screen superimposed and displayed on a game screen. 編集サーバの内部構成を示す図である。It is a figure which shows the internal structure of an edit server. コンテンツ受信機能を実現する情報処理装置の内部構成を示す図である。It is a figure which shows the internal structure of the information processing apparatus which implement | achieves a content reception function. ゲーム画面の一例を示す図である。It is a figure which shows an example of a game screen. コンテンツサーバの内部構成を示す図である。It is a figure which shows the internal structure of a content server. 検索結果画面の一例を示す図である。It is a figure which shows an example of a search result screen. ダウンロードしたプレイ動画の一例を示す図である。It is a figure which shows an example of the downloaded play moving image. ダウンロードしたプレイ動画の一例を示す図である。It is a figure which shows an example of the downloaded play moving image.

図1は、本発明の実施例にかかる情報処理システム1を示す。情報処理システム1は、ユーザAが使用する情報処理装置10と、別のユーザが使用する情報処理装置5a、5bと、コンテンツサーバ12とを備え、これらはインターネットやLAN(Local Area Network)などのネットワーク3を介して接続している。コンテンツサーバ12は、ゲーム動画などのコンテンツに関するサービスを提供し、ここでは配信サーバ14、編集サーバ16および検索サーバ18を統括した概念として示されている。配信サーバ14は、ユーザに対してゲーム動画などのアプリケーション画像を配信するサービスを提供する。たとえば配信サーバ14は、共有動画サイトであってよく、ユーザにより投稿された動画データや、編集サーバ16により編集された動画データを配信する。編集サーバ16は、ユーザから提供される動画データを編集するサービスを提供する。検索サーバ18は、ユーザからの動画検索要求に応じて配信サーバ14から提供する動画の候補をユーザに提示するサービスを提供する。   FIG. 1 shows an information processing system 1 according to an embodiment of the present invention. The information processing system 1 includes an information processing device 10 used by a user A, information processing devices 5a and 5b used by another user, and a content server 12, and these include the Internet, a LAN (Local Area Network), and the like. Connected via the network 3. The content server 12 provides services related to content such as game videos, and is shown here as a concept that integrates the distribution server 14, the editing server 16, and the search server 18. The distribution server 14 provides a service for distributing application images such as game videos to the user. For example, the distribution server 14 may be a shared moving image site, and distributes moving image data posted by the user or moving image data edited by the editing server 16. The editing server 16 provides a service for editing moving image data provided by a user. The search server 18 provides a service that presents to the user video candidates provided from the distribution server 14 in response to a video search request from the user.

配信サーバ14、編集サーバ16および検索サーバ18は、別個のサーバとして構成され、各々がネットワーク3を介して通信してもよいが、これらのサーバは一体として形成されてもよい。また配信サーバ14と編集サーバ16とが一体として形成されてもよく、配信サーバ14と検索サーバ18とが一体として形成されてもよく、編集サーバ16と検索サーバ18とが一体として形成されてもよい。たとえば配信サーバ14が、動画データを蓄積し、ユーザにより指定された動画データを配信するという単純な機能しか有しない場合には、編集サーバ16および検索サーバ18が、動画データに付加されるメタデータを処理するためのインテリジェントな知識サーバとして構成されてもよい。なお動画のメタデータが動画データに埋め込まれていない場合には、編集サーバ16ないしは検索サーバ18が、配信サーバ14が蓄積する動画データとは別に、動画データのメタデータを蓄積して、動画データの編集処理ないしは検索処理を行ってもよい。   The distribution server 14, the editing server 16, and the search server 18 are configured as separate servers, and may communicate with each other via the network 3, but these servers may be integrally formed. Further, the distribution server 14 and the editing server 16 may be formed integrally, the distribution server 14 and the search server 18 may be formed integrally, or the editing server 16 and the search server 18 may be formed integrally. Good. For example, when the distribution server 14 has only a simple function of accumulating moving image data and distributing moving image data specified by the user, the editing server 16 and the search server 18 are metadata added to the moving image data. May be configured as an intelligent knowledge server for processing. If the video metadata is not embedded in the video data, the editing server 16 or the search server 18 stores the video data metadata separately from the video data stored in the distribution server 14, and the video data The editing process or the search process may be performed.

アクセスポイント(以下、「AP」とよぶ)8は、無線アクセスポイントおよびルータの機能を有し、情報処理装置10は、無線または有線経由でAP8に接続して、ネットワーク3上のコンテンツサーバ12と通信可能に接続する。情報処理装置5a、5b(以下、特に区別しない場合には「情報処理装置5」とよぶ)も同様にコンテンツサーバ12と通信可能に接続する。なお情報処理装置10と情報処理装置5は、同種の装置であってもよいが、別種の装置であってもよく、少なくともコンテンツサーバ12からコンテンツを提供されて、コンテンツを再生表示できるものであればよい。   An access point (hereinafter referred to as “AP”) 8 has functions of a wireless access point and a router, and the information processing apparatus 10 is connected to the AP 8 wirelessly or via a wire to connect to the content server 12 on the network 3. Connect to enable communication. The information processing devices 5a and 5b (hereinafter referred to as “information processing device 5” unless otherwise distinguished) are also connected to the content server 12 in a communicable manner. The information processing device 10 and the information processing device 5 may be the same type of device, but may be different types of devices, and at least the content is provided from the content server 12 and the content can be reproduced and displayed. That's fine.

情報処理装置10は、ユーザが操作する入力装置6と無線または有線で接続し、入力装置6はユーザの操作結果を示す操作情報を情報処理装置10に出力する。情報処理装置10は入力装置6から操作情報を受け付けるとシステムソフトウェアやアプリケーションソフトウェアの処理に反映し、出力装置4から処理結果を出力させる。情報処理システム1において情報処理装置10はゲームを実行するゲーム装置であり、入力装置6はゲームコントローラなど情報処理装置10に対してユーザの操作情報を供給する機器であってよい。ゲームをプレイするためにユーザは情報処理装置10のOS(システムソフトウェア)にログインする。ログインユーザは、情報処理装置10において登録されているユーザアカウントによって管理される。   The information processing device 10 is connected to the input device 6 operated by the user wirelessly or by wire, and the input device 6 outputs operation information indicating the operation result of the user to the information processing device 10. When the information processing apparatus 10 receives the operation information from the input device 6, the information processing apparatus 10 reflects it in the processing of the system software or application software, and causes the output device 4 to output the processing result. In the information processing system 1, the information processing device 10 is a game device that executes a game, and the input device 6 may be a device such as a game controller that supplies user operation information to the information processing device 10. In order to play the game, the user logs in to the OS (system software) of the information processing apparatus 10. The login user is managed by a user account registered in the information processing apparatus 10.

配信サーバ14は、情報処理装置10や情報処理装置5からアップロードされる画像データを共有するためのサービスを提供する。配信サーバ14は、蓄積した画像データをユーザからの要求に応じてオンデマンド配信し、またユーザからリアルタイムで提供される画像データをライブ配信する機能を有する。情報処理システム1において配信サーバ14の数は1つに限定されるものではなく、それ以上存在してよい。配信サーバ14により提供される画像配信サービスは、対象とするユーザを登録会員に限定してもよく、また一般に開放してもよい。   The distribution server 14 provides a service for sharing image data uploaded from the information processing apparatus 10 or the information processing apparatus 5. The distribution server 14 has a function of distributing the stored image data on demand in response to a request from the user, and performing live distribution of the image data provided in real time from the user. In the information processing system 1, the number of distribution servers 14 is not limited to one, and there may be more. The image distribution service provided by the distribution server 14 may limit the target user to registered members, and may generally open the user.

編集サーバ16は、ユーザから提供される画像データを編集する機能をもつ。たとえば編集サーバ16は、アプリケーションにおいて発生したイベントを特定するイベントコードに基づいて、画像データから、イベントコードに対応する箇所をコンテンツデータとして抽出し、編集したコンテンツデータを生成する。イベントコードは、イベントコードに付随する時間情報とともに、画像データからコンテンツデータを抽出するための開始点および終了点を定めるものであり、編集サーバ16は、イベントコードに基づいてコンテンツデータを抽出する。たとえば編集サーバ16が、野球ゲームの動画像から、ホームランを打ったシーンを切り出して、所定時間(たとえば10秒間)のイベント動画(コンテンツ)を生成してもよい。編集サーバ16は、野球ゲームにおける「ホームランを打った」ことを示すイベントコードおよびその時間情報をもとに、野球ゲームのプレイを記録した動画像データの中から切り出すシーンの開始点と終了点を特定して、動画像データからホームランを打ったシーンを抽出したホームラン動画を生成する。編集サーバ16は、ユーザからリアルタイムで提供される画像データとイベントコードを用いて、オンタイムで画像編集を行ってもよいが、画像データとイベントコードとが全て提供された後に、バッチ処理で、または必要に応じたタイミングで、画像編集を行ってもよい。編集サーバ16は、生成したコンテンツデータを、配信サーバ14に提供して、配信サーバ14が配信できるようにする。   The editing server 16 has a function of editing image data provided by the user. For example, the editing server 16 extracts a portion corresponding to the event code from the image data as content data based on an event code that specifies an event that has occurred in the application, and generates edited content data. The event code defines a start point and an end point for extracting content data from image data together with time information attached to the event code, and the editing server 16 extracts content data based on the event code. For example, the editing server 16 may cut out a scene of hitting a home run from a moving image of a baseball game and generate an event video (content) for a predetermined time (for example, 10 seconds). The editing server 16 determines the start and end points of the scene to be cut out from the moving image data that records the play of the baseball game, based on the event code indicating that “the home run was hit” and the time information in the baseball game. Specifically, a home run moving image is generated by extracting a scene that hit a home run from moving image data. The editing server 16 may perform on-time image editing using image data and event codes provided in real time from the user, but after all the image data and event codes are provided, Alternatively, image editing may be performed at a timing as necessary. The editing server 16 provides the generated content data to the distribution server 14 so that the distribution server 14 can distribute it.

検索サーバ18は、ユーザからコンテンツの検索要求を受け取ると、配信サーバ14に記録されているコンテンツのメタデータを参照して、コンテンツを検索する。コンテンツの検索要求には、ユーザの状況を示す情報、たとえばユーザがプレイしているゲームのステータスデータが含まれており、検索サーバ18は、このステータスデータを、コンテンツのメタデータと比較することで、ユーザの状況に適したゲーム動画を検索する。なお検索サーバ18は、検索効率を高めるために、コンテンツのメタデータを、コンテンツIDに紐付けて自ら保持していてもよい。   Upon receiving a content search request from the user, the search server 18 refers to the content metadata recorded in the distribution server 14 and searches for the content. The content search request includes information indicating the user's situation, for example, status data of a game played by the user, and the search server 18 compares the status data with content metadata. Search for game videos suitable for the user's situation. Note that the search server 18 may hold content metadata in association with the content ID in order to increase search efficiency.

補助記憶装置2はHDD(ハードディスクドライブ)やフラッシュメモリなどの大容量記憶装置であり、USB(Universal Serial Bus)などによって情報処理装置10と接続する外部記憶装置であってよく、内蔵型記憶装置であってもよい。出力装置4は画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよく、またコンピュータディスプレイであってもよい。出力装置4は、情報処理装置10に有線ケーブルで接続されてよく、無線接続されてもよい。   The auxiliary storage device 2 is a large-capacity storage device such as an HDD (hard disk drive) or a flash memory, and may be an external storage device connected to the information processing device 10 by a USB (Universal Serial Bus) or the like, and is a built-in storage device. There may be. The output device 4 may be a television having a display for outputting an image and a speaker for outputting sound, or may be a computer display. The output device 4 may be connected to the information processing device 10 with a wired cable or may be wirelessly connected.

撮像装置であるカメラ7は出力装置4の近傍に設けられ、出力装置4周辺の空間を撮像する。図1ではカメラ7が出力装置4の上部に取り付けられている例を示しているが、出力装置4の側方に配置されてもよく、いずれにしても出力装置4の前方でゲームをプレイするユーザを撮像できる位置に配置される。なおカメラ7はステレオカメラであってよい。入力装置6は複数のプッシュ式の操作ボタンや、アナログ量を入力できるアナログスティック、回動式ボタンなどの複数の入力部を有して構成される。   A camera 7 as an imaging device is provided in the vicinity of the output device 4 and images the space around the output device 4. Although FIG. 1 shows an example in which the camera 7 is attached to the upper part of the output device 4, the camera 7 may be arranged on the side of the output device 4, and in any case, the game is played in front of the output device 4. It is arranged at a position where the user can be imaged. The camera 7 may be a stereo camera. The input device 6 includes a plurality of input units such as a plurality of push-type operation buttons, an analog stick that can input an analog amount, and a rotary button.

入力装置6のボタン構成について説明する。
[上面部の構成]
図2(a)は、入力装置上面の外観構成を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置6を操作する。入力装置6の筐体上面には、入力部である方向キー71、アナログスティック77a、77bと、4種の操作ボタン76が設けられている。4種のボタン72〜75には、それぞれを区別するために、異なる色で異なる図形が記されている。すなわち、○ボタン72には赤色の丸、×ボタン73には青色のバツ、□ボタン74には紫色の四角形、△ボタン75には緑色の三角形が記されている。筐体上面上において、方向キー71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
The button configuration of the input device 6 will be described.
[Configuration of top surface]
FIG. 2A shows an external configuration of the upper surface of the input device. The user operates the input device 6 by holding the left grip 78b with the left hand and holding the right grip 78a with the right hand. On the upper surface of the casing of the input device 6, there are provided direction keys 71, analog sticks 77a and 77b, which are input units, and four types of operation buttons 76. In order to distinguish each of the four types of buttons 72 to 75, different figures with different colors are written. That is, the circle button 72 is marked with a red circle, the x button 73 is marked with a blue cross, the square button 74 is marked with a purple square, and the triangle button 75 is marked with a green triangle. On the upper surface of the housing, a touch pad 79 is provided in a flat area between the direction key 71 and the operation button 76. The touch pad 79 also functions as a push-down button that sinks downward when pressed by the user and returns to the original position when the user releases the hand.

2つのアナログスティック77a、77bの間に機能ボタン80が設けられる。機能ボタン80は、入力装置6の電源をオンし、同時に入力装置6と情報処理装置10とを接続する通信機能をアクティブにするために使用される。入力装置6が情報処理装置10と接続した後は、機能ボタン80は、情報処理装置10にメニュー画面を表示させるためにも使用される。   A function button 80 is provided between the two analog sticks 77a and 77b. The function button 80 is used to turn on the power of the input device 6 and simultaneously activate a communication function for connecting the input device 6 and the information processing device 10. After the input device 6 is connected to the information processing device 10, the function button 80 is also used to display a menu screen on the information processing device 10.

SHAREボタン81は、タッチパッド79と方向キー71の間に設けられる。SHAREボタン81は、情報処理装置10におけるOSないしはシステムソフトウェアに対するユーザからの指示を入力するために利用される。またOPTIONSボタン82は、タッチパッド79と操作ボタン76の間に設けられる。OPTIONSボタン82は、情報処理装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。   The SHARE button 81 is provided between the touch pad 79 and the direction key 71. The SHARE button 81 is used to input an instruction from the user to the OS or system software in the information processing apparatus 10. The OPTIONS button 82 is provided between the touch pad 79 and the operation button 76. The OPTIONS button 82 is used to input an instruction from the user to an application (game) executed in the information processing apparatus 10. Both the SHARE button 81 and the OPTIONS button 82 may be formed as push buttons.

[奥側側面部の構成]
図2(b)は、入力装置奥側側面の外観構成を示す。入力装置6の筐体奥側側面の上側には、タッチパッド79が筐体上面から延設されており、筐体奥側側面の下側には、横長の発光部85が設けられる。発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、情報処理装置10から送信される発光色情報にしたがって点灯する。
[Configuration of back side]
FIG. 2B shows an external configuration of the back side surface of the input device. A touch pad 79 extends from the upper surface of the casing on the upper side of the casing rear side of the input device 6, and a horizontally long light emitting unit 85 is provided on the lower side of the casing rear side. The light emitting unit 85 includes red (R), green (G), and blue (B) LEDs, and lights up according to light emission color information transmitted from the information processing apparatus 10.

筐体奥側側面において、上側ボタン83a、下側ボタン84aと、上側ボタン83b、下側ボタン84bとが長手方向の左右対称な位置に設けられる。上側ボタン83a、下側ボタン84aは、それぞれユーザ右手の人差し指、中指により操作され、上側ボタン83b、下側ボタン84bは、それぞれユーザ左手の人差し指、中指により操作される。図示されるように発光部85が、右側の上側ボタン83a、下側ボタン84aの並びと、左側の上側ボタン83b、下側ボタン84bの並びの間に設けられることで、各ボタンを操作する人差し指または中指によって隠れることはなく、カメラ7は、点灯した発光部85を好適に撮像することができる。上側ボタン83はプッシュ式ボタンとして構成され、下側ボタン84は回動支持されたトリガー式のボタンとして構成されてよい。   On the rear side surface of the housing, the upper button 83a, the lower button 84a, the upper button 83b, and the lower button 84b are provided at symmetrical positions in the longitudinal direction. The upper button 83a and the lower button 84a are operated by the index finger and middle finger of the user's right hand, respectively, and the upper button 83b and the lower button 84b are operated by the index finger and the middle finger of the user's left hand, respectively. As shown in the drawing, the light emitting unit 85 is provided between the arrangement of the right upper button 83a and the lower button 84a and the arrangement of the left upper button 83b and the lower button 84b, so that an index finger for operating each button is provided. Or it is not hidden by the middle finger, and the camera 7 can suitably image the light-emitting unit 85 that is lit. The upper button 83 may be configured as a push-type button, and the lower button 84 may be configured as a trigger-type button that is rotatably supported.

図3は、情報処理装置10の機能ブロック図を示す。情報処理装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。   FIG. 3 shows a functional block diagram of the information processing apparatus 10. The information processing apparatus 10 includes a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, and wired communication. A module 40, a subsystem 50, and a main system 60 are included.

メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUは補助記憶装置2に記録されたゲームプログラムを実行する機能をもつ。   The main system 60 includes a main CPU (Central Processing Unit), a memory and a memory controller that are main storage devices, a GPU (Graphics Processing Unit), and the like. The GPU is mainly used for arithmetic processing of game programs. These functions may be configured as a system on chip and formed on a single chip. The main CPU has a function of executing a game program recorded in the auxiliary storage device 2.

サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えず、ゲームプログラムを実行する機能をもたない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。サブCPUは、メインCPUがスタンバイ状態にある間においても動作し、消費電力を低く抑えるべく、その処理機能を制限されている。   The subsystem 50 includes a sub CPU, a memory that is a main storage device, a memory controller, and the like, does not include a GPU, and does not have a function of executing a game program. The number of circuit gates of the sub CPU is smaller than the number of circuit gates of the main CPU, and the operation power consumption of the sub CPU is smaller than the operation power consumption of the main CPU. The sub CPU operates even while the main CPU is in the standby state, and its processing function is limited in order to keep power consumption low.

メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、情報処理装置10の筐体の前面に設けられ、情報処理装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。   The main power button 20 is an input unit through which an operation input from a user is performed. The main power button 20 is provided on the front surface of the housing of the information processing apparatus 10 and turns on or off the power supply to the main system 60 of the information processing apparatus 10. To be manipulated. The power ON LED 21 is lit when the main power button 20 is turned on, and the standby LED 22 is lit when the main power button 20 is turned off.

システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。   The system controller 24 detects pressing of the main power button 20 by the user. When the main power button 20 is pressed while the main power is off, the system controller 24 acquires the pressing operation as an “on instruction”, while when the main power is in the on state, the main power button 20 is pressed. When the button 20 is pressed, the system controller 24 acquires the pressing operation as an “off instruction”.

クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。   The clock 26 is a real-time clock, generates current date / time information, and supplies it to the system controller 24, the subsystem 50, and the main system 60.

デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。   The device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that exchanges information between devices like a south bridge. As illustrated, devices such as a system controller 24, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, a wired communication module 40, a subsystem 50, and a main system 60 are connected to the device controller 30. The The device controller 30 absorbs the difference in electrical characteristics of each device and the difference in data transfer speed, and controls the timing of data transfer.

メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアである。   The media drive 32 is a drive device that loads and drives application software such as a game and a ROM medium 44 that records license information, and reads programs and data from the ROM medium 44. The ROM medium 44 is a read-only recording medium such as an optical disc, a magneto-optical disc, or a Blu-ray disc.

USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置2およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置6と無線通信する。なお無線通信モジュール38は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT−2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応してもよく、さらには別の世代のデジタル携帯電話方式に対応してもよい。有線通信モジュール40は、外部機器と有線通信し、たとえばAP8を介してネットワーク3に接続する。   The USB module 34 is a module connected to an external device with a USB cable. The USB module 34 may be connected to the auxiliary storage device 2 and the camera 7 with a USB cable. The flash memory 36 is an auxiliary storage device that constitutes an internal storage. The wireless communication module 38 wirelessly communicates with, for example, the input device 6 using a communication protocol such as a Bluetooth (registered trademark) protocol or an IEEE802.11 protocol. The wireless communication module 38 corresponds to the 3rd generation digital mobile phone system conforming to the IMT-2000 (International Mobile Telecommunication 2000) standard defined by the ITU (International Telecommunication Union). It may also be compatible with another generation of digital mobile phone systems. The wired communication module 40 performs wired communication with an external device, and connects to the network 3 via, for example, the AP 8.

本実施例の情報処理装置10は、コンテンツサーバ12にコンテンツを送信する機能と、コンテンツサーバ12からコンテンツを受信する機能とを備える。以下、これらの2つの機能について説明する。   The information processing apparatus 10 according to the present embodiment has a function of transmitting content to the content server 12 and a function of receiving content from the content server 12. Hereinafter, these two functions will be described.

<コンテンツ送信機能>
情報処理装置10は、コンテンツサーバ12によるオンデマンド配信のためにコンテンツサーバ12にコンテンツを送信し、またコンテンツサーバ12によるライブ配信のためにコンテンツサーバ12にコンテンツを送信する機能を有する。
図4は、コンテンツ送信機能を実現する情報処理装置10の内部構成を示す。情報処理装置10は、処理部100および通信部102を備え、処理部100は、アプリケーション処理部110、画像生成部130、コンテンツ生成部150、記録部170および共有処理部190を備える。アプリケーション処理部110は、アプリケーションに関する処理を行い、画像生成部130は、出力装置4に表示するための画像生成処理を行う。コンテンツ生成部150は、アプリケーション画像の編集に関する処理を行い、記録部170は、アプリケーションの画像データを、所定時間分を上限として記録する処理を行う。共有処理部190は、アプリケーションの画像データをコンテンツサーバ12に送信する処理を行う。
<Content transmission function>
The information processing apparatus 10 has a function of transmitting content to the content server 12 for on-demand distribution by the content server 12 and transmitting content to the content server 12 for live distribution by the content server 12.
FIG. 4 shows the internal configuration of the information processing apparatus 10 that implements the content transmission function. The information processing apparatus 10 includes a processing unit 100 and a communication unit 102, and the processing unit 100 includes an application processing unit 110, an image generation unit 130, a content generation unit 150, a recording unit 170, and a sharing processing unit 190. The application processing unit 110 performs processing related to the application, and the image generation unit 130 performs image generation processing for display on the output device 4. The content generation unit 150 performs a process related to editing of an application image, and the recording unit 170 performs a process of recording image data of the application up to a predetermined time. The sharing processing unit 190 performs processing for transmitting the image data of the application to the content server 12.

図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   In FIG. 4, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

本実施例の情報処理システム1において、通信部102は、入力装置6においてユーザが入力部を操作した情報(以下、「操作情報」ともよぶ)を受信し、また処理部100で生成または取得した画像データをコンテンツサーバ12に送信する。ここで画像データは、画像生成部130において生成された画像データ、およびコンテンツ生成部150において編集された画像データ(コンテンツデータ)を少なくとも含む。通信部102は図3に示す無線通信モジュール38および有線通信モジュール40の機能を併せ持つ構成として表現され、無線通信モジュール38は入力装置6との通信を担当し、有線通信モジュール40はコンテンツサーバ12との通信を担当する。   In the information processing system 1 according to the present embodiment, the communication unit 102 receives information (hereinafter, also referred to as “operation information”) that the user has operated the input unit in the input device 6, and the processing unit 100 generates or acquires. The image data is transmitted to the content server 12. Here, the image data includes at least image data generated by the image generation unit 130 and image data (content data) edited by the content generation unit 150. The communication unit 102 is expressed as a configuration having the functions of the wireless communication module 38 and the wired communication module 40 shown in FIG. 3. The wireless communication module 38 is in charge of communication with the input device 6, and the wired communication module 40 is connected to the content server 12. Responsible for communication.

アプリケーション処理部110は、ゲーム実行部112、イベントコード通知部114およびステータスデータ通知部116を備える。ゲーム実行部112は、ユーザによる入力装置6の操作入力を受けてゲームを進行させるプログラムを実行する機能を有する。イベントコード通知部114は、ゲームの実行中に所定のイベントが発生すると、そのイベントを特定する情報(以下、「イベントコード」と呼ぶ)をコンテンツ生成部150に出力する。なおイベントは、ゲームごとに設定されており、たとえば野球ゲームであれば、「二死満塁になった」、「1イニング中に2点差を逆転した」、「盗塁した」、「ホームランを打った」など、様々なものが設定されてよい。イベントコード通知部114は、設定されたイベントが発生すると、そのイベントコードをコンテンツ生成部150に通知する機能をもつ。ステータスデータ通知部116は、ゲームのステータスデータをコンテンツ生成部150に通知する。ステータスデータ通知部116は、コンテンツ生成部150からの要求に応じてステータスデータをコンテンツ生成部150に通知してもよいが、たとえばステータスに変化があった場合に、変化後のステータスデータをコンテンツ生成部150に通知してもよい。このときステータスデータ通知部116は、変化前と変化後の差分となるステータスデータを通知してもよいが、変化後の全てのステータスデータを収集して通知してもよい。   The application processing unit 110 includes a game execution unit 112, an event code notification unit 114, and a status data notification unit 116. The game execution unit 112 has a function of executing a program for advancing the game upon receiving an operation input from the input device 6 by the user. When a predetermined event occurs during the execution of the game, the event code notification unit 114 outputs information for identifying the event (hereinafter referred to as “event code”) to the content generation unit 150. The event is set for each game. For example, in the case of a baseball game, “I was full of two deaths”, “I reversed the two-point difference during one inning”, “I stole”, “I hit a home run” Various things may be set. The event code notification unit 114 has a function of notifying the content generation unit 150 of the event code when a set event occurs. The status data notification unit 116 notifies the content generation unit 150 of game status data. The status data notification unit 116 may notify the status data to the content generation unit 150 in response to a request from the content generation unit 150. For example, when the status changes, the status data notification unit 116 generates the status data after the change. The unit 150 may be notified. At this time, the status data notification unit 116 may notify the status data that is the difference before and after the change, but may collect and notify all the status data after the change.

ゲーム実行部112は、ユーザから入力装置6に入力された操作情報をもとに、仮想空間においてゲームキャラクタを動かす演算処理を行う。このようにゲーム実行部112はアプリケーション(ゲームプログラム)そのものを含む概念として表現されてもよい。ゲーム画像生成部132はレンダリング処理などを実行するGPU(Graphics Processing Unit)であってよく、ゲーム実行部112による処理結果を受けて、出力装置4に表示するアプリケーション(ゲーム)の画像データを生成する。図5は、出力装置4に表示されるゲーム画面の一例を示す。なお本実施例においてゲーム実行部112はゲームプログラムを実行するが、他の種類のアプリケーションプログラムを実行してもよい。   The game execution unit 112 performs arithmetic processing for moving the game character in the virtual space based on the operation information input from the user to the input device 6. In this way, the game execution unit 112 may be expressed as a concept including the application (game program) itself. The game image generation unit 132 may be a GPU (Graphics Processing Unit) that executes rendering processing and the like, and receives image processing results from the game execution unit 112 to generate image data of an application (game) to be displayed on the output device 4. . FIG. 5 shows an example of a game screen displayed on the output device 4. In the present embodiment, the game execution unit 112 executes a game program, but other types of application programs may be executed.

情報処理装置10において記録部170は、記録制御部172、書込/読出部174およびリングバッファ176を有し、出力装置4に表示される画像をバックグランドで録画する機能を有する。ゲーム画像生成部132は、ゲーム画像データを生成して出力装置4に表示するが、記録部170は、その画像データをバックグランドで録画している。   In the information processing apparatus 10, the recording unit 170 includes a recording control unit 172, a writing / reading unit 174, and a ring buffer 176, and has a function of recording an image displayed on the output device 4 in the background. The game image generation unit 132 generates game image data and displays it on the output device 4, but the recording unit 170 records the image data in the background.

記録制御部172は、書込/読出部174によるデータの書込および読出処理を制御する。書込/読出部174はリングバッファ176にデータを書き込み、またはデータを読み出す。記録部170におけるバックグランド録画は、リングバッファ176において行われる。記録制御部172は、補助記憶装置2の記憶領域の開始アドレスおよび終了アドレスを設定してリングバッファ176を生成する。このリングバッファ領域は、情報処理装置10の出荷時に予め設定されていてよい。記録制御部172は、ゲーム画像生成部132で生成された、実行中のアプリケーションの画像データをリングバッファ176に記録する。記録制御部172はリングバッファ176に画像データを開始アドレスから予め定められたアドレス順に記録し、終了アドレスまでの記録が終了すると、開始アドレスに戻って上書き記録し、それを繰り返す。たとえばリングバッファ176は、最長30分間のゲーム画像を記録するように設定され、記録されたゲーム画像には、時間情報(タイムスタンプ)が付与される。このタイムスタンプは、情報処理装置10によるOSにより付与されてよい。表示画像データをリングバッファ176にバックグランド録画しておくことで、ゲーム中にイベントが発生したときに、コンテンツ生成部150が、イベント発生時よりも過去の画像データを含むコンテンツデータを生成できるようになる。   The recording control unit 172 controls data writing and reading processing by the writing / reading unit 174. The writing / reading unit 174 writes data to the ring buffer 176 or reads data. Background recording in the recording unit 170 is performed in the ring buffer 176. The recording control unit 172 sets the start address and end address of the storage area of the auxiliary storage device 2 and generates the ring buffer 176. This ring buffer area may be set in advance when the information processing apparatus 10 is shipped. The recording control unit 172 records the image data of the running application generated by the game image generation unit 132 in the ring buffer 176. The recording control unit 172 records the image data in the ring buffer 176 in the order of a predetermined address from the start address. When the recording up to the end address is completed, the recording control unit 172 returns to the start address, performs overwriting recording, and repeats this. For example, the ring buffer 176 is set to record a game image for a maximum of 30 minutes, and time information (time stamp) is given to the recorded game image. This time stamp may be given by the OS by the information processing apparatus 10. By recording the display image data in the ring buffer 176 in the background, when an event occurs during the game, the content generation unit 150 can generate content data including past image data than when the event occurred. become.

図5は、野球ゲームの実行画面を示す。ユーザは、入力装置6を操作して野球ゲームをプレイしている。ここでゲームの進行が、ゲームプログラムに設定されているイベントを発生させると、イベントコード通知部114が、そのイベントコードをコンテンツ生成部150に通知する。たとえばイベントは、「二死満塁になった」、「1イニング中に2点差を逆転した」、「盗塁した」、「ホームランを打った」など様々であり、ゲームに、様々なイベントを仕込んでおくことで、ゲーム画像共有サービスの充実を図れるようになる。   FIG. 5 shows a baseball game execution screen. A user operates the input device 6 to play a baseball game. Here, when the progress of the game generates an event set in the game program, the event code notification unit 114 notifies the content generation unit 150 of the event code. For example, there are various events such as “I became full of two deaths”, “Reversed the difference of two points during one inning”, “Stole”, “I hit a home run”, and various events are prepared in the game As a result, the game image sharing service can be enhanced.

たとえば、野球ゲームの局面が、二死満塁となったとき、イベントコード通知部114は、「二死満塁になった」イベントの発生を示すイベントコードを、イベント発生時の時間情報とともにコンテンツ生成部150に通知する。したがってメタデータ取得部154は、実行中のアプリケーション(ゲームプログラム)から、アプリケーションにおいて設定されているイベントの発生を示すイベントコードを、その時間情報とともに自動取得する。このイベントコードは、後述するように、コンテンツデータに付加されるメタデータを構成する。   For example, when the phase of the baseball game is full of two deaths, the event code notification unit 114 sends an event code indicating the occurrence of the event “full of two deaths” to the content generation unit 150 together with time information at the time of the event occurrence. Notice. Therefore, the metadata acquisition unit 154 automatically acquires, from the application (game program) being executed, an event code indicating the occurrence of an event set in the application together with the time information. As will be described later, this event code constitutes metadata added to the content data.

イベントコードが通知されると、メタデータ取得部154は、ステータスデータ通知部116に、現在のステータスデータの通知を要求する。ステータスデータ通知部116は、要求を受けた時点のアプリケーションの実行状態を示すステータスデータを収集し、収集したステータスデータを、収集したタイミングを示す時間情報とともにメタデータ取得部154に通知する。したがってメタデータ取得部154は、実行中のアプリケーション(ゲームプログラム)から通知されたステータスデータを、メタデータとして取得する。   When the event code is notified, the metadata acquisition unit 154 requests the status data notification unit 116 to notify the current status data. The status data notification unit 116 collects status data indicating the execution state of the application at the time of receiving the request, and notifies the metadata acquisition unit 154 of the collected status data together with time information indicating the collected timing. Therefore, the metadata acquisition unit 154 acquires status data notified from the application (game program) being executed as metadata.

たとえばステータスデータは、ゲームプレイしているシーンを特定するシーンIDを含む。また野球ゲームにおいては、ステータスデータとして、ユーザのチーム情報、対戦相手のチーム情報、イニング情報、バッター情報、相手のピッチャー情報などがさらに含まれてもよい。ステータスデータ通知部116が収集するステータスデータは、後述するように、コンテンツサーバ12にアップロードされるコンテンツに、メタデータとして付加されるものであり、コンテンツサーバ12においてコンテンツの検索に使用されるものである。そのため、ステータスデータ通知部116が、多種類のステータスデータを収集できるようにゲームプログラムが構成されていることで、コンテンツサーバ12における検索の粒度を高めることが可能となる。   For example, the status data includes a scene ID that identifies a scene in which a game is played. In the baseball game, status data may further include user team information, opponent team information, inning information, batter information, opponent pitcher information, and the like. As will be described later, the status data collected by the status data notification unit 116 is added to the content uploaded to the content server 12 as metadata, and is used for content search in the content server 12. is there. Therefore, the granularity of the search in the content server 12 can be increased by configuring the game program so that the status data notification unit 116 can collect various types of status data.

上記したように、リングバッファ176には、過去30分間のゲーム画像が記録されており、また、最新のゲーム画像がリアルタイムで順次上書き記録されていく。リングバッファ176に記録されているゲーム画像にはタイムスタンプが付加されており、編集処理部156は、イベント発生時の時間情報で指定される開始点から所定時間分(たとえば1分間)の画像データがリングバッファ176に記録されるのを待って、イベントコードおよびイベント発生時の時間情報で特定される開始点から終了点までの画像データをリングバッファ176から読み出し、二死満塁イベントのコンテンツデータとして抽出する。   As described above, game images for the past 30 minutes are recorded in the ring buffer 176, and the latest game images are sequentially overwritten and recorded in real time. A time stamp is added to the game image recorded in the ring buffer 176, and the editing processing unit 156 stores image data for a predetermined time (for example, 1 minute) from the start point specified by the time information at the time of event occurrence. Is recorded in the ring buffer 176, the image data from the start point to the end point specified by the event code and the time information at the time of the event is read from the ring buffer 176, and extracted as content data of the two-death event To do.

編集処理部156は、このコンテンツデータに、メタデータ取得部154が取得したメタデータを付加する。このとき編集処理部156は、ステータスデータが収集されたタイミングを示す時間情報を参照して、コンテンツデータを切り出した開始点から終了点までの期間に収集されたステータスデータを、メタデータとしてコンテンツデータに付加する。このように編集処理部156がゲーム画像を編集することで、ユーザがゲームプレイしていた状況を詳細に示すメタデータをコンテンツデータに付加することができる。なおメタデータ取得部154は、アプリケーションを特定するためのアプリケーションID(タイトルID)、およびプレイヤであるユーザを特定する情報を予め取得しておき、編集処理部156は、これらの情報をメタデータとしてコンテンツデータに付加することが好ましい。編集処理部156は、少なくともアプリケーションIDについては、必ずメタデータとしてコンテンツデータに付加する。   The edit processing unit 156 adds the metadata acquired by the metadata acquisition unit 154 to the content data. At this time, the edit processing unit 156 refers to the time information indicating the timing at which the status data is collected, and the status data collected during the period from the start point to the end point where the content data is cut out as content data. Append to As described above, the editing processing unit 156 edits the game image, so that metadata indicating in detail the situation in which the user is playing the game can be added to the content data. The metadata acquisition unit 154 acquires in advance an application ID (title ID) for specifying an application and information for specifying a user who is a player, and the editing processing unit 156 uses the information as metadata. It is preferable to add to the content data. The edit processing unit 156 always adds at least the application ID to the content data as metadata.

図6(a)は、イベントの発生時刻がコンテンツデータを切り出す開始点となる例を示す。コンテンツデータの切り出しの終了点は、開始点から所定時間(1分)後に設定される。この例においてメタデータ取得部154は、ステータスデータA、B、C、Dを取得している。このうち、編集処理部156は、開始点から終了点までの期間に収集されたステータスデータB、Cを、コンテンツデータに付加する。これにより、開始点から終了点で切り出されたコンテンツデータと、その期間におけるゲームのプレイ状況を示すステータスデータとを紐付けることができる。   FIG. 6A shows an example in which the event occurrence time is the starting point for extracting the content data. The end point for cutting out content data is set after a predetermined time (1 minute) from the start point. In this example, the metadata acquisition unit 154 acquires status data A, B, C, and D. Among these, the edit processing unit 156 adds the status data B and C collected during the period from the start point to the end point to the content data. Thereby, the content data cut out from the start point to the end point can be associated with the status data indicating the game play status during that period.

なお上記の例では、編集処理部156が、二死満塁イベントの発生時から所定時間分の画像データをコンテンツデータとして切り出すことを説明したが、たとえば、二死満塁イベントの発生から終了までの画像データをコンテンツデータとして切り出してもよい。野球ゲームにおいて、二死満塁のチャンスが終了すると、イベントコード通知部114は、「二死満塁が終了した」イベントの発生を示すイベントコードを、イベント発生時の時間情報とともにコンテンツ生成部150に通知する。これにより編集処理部156は、二死満塁イベントの終了を知り、「二死満塁になった」イベント発生時の時間情報で指定される開始点と、「二死満塁が終了した」イベント発生時の時間情報で指定される終了点とを用いて、画像データをリングバッファ176から読み出し、二死満塁イベントのコンテンツデータとして抽出する。これにより編集処理部156は、二死満塁の発生から終了までのコンテンツデータを取得できる。編集処理部156は、このコンテンツデータに、開始点から終了点までの期間においてメタデータ取得部154が取得したメタデータを付加する。このように編集処理部156がゲーム画像を編集することで、ユーザがゲームプレイしていた状況を詳細に示すメタデータをコンテンツデータに付加することができる。   In the above example, it has been described that the edit processing unit 156 cuts out image data for a predetermined time from the occurrence of the two-death satisfaction event as content data. You may cut out as content data. In the baseball game, when the chance of two deaths is complete, the event code notification unit 114 notifies the content generation unit 150 of an event code indicating the occurrence of the event “two deaths are complete” together with time information at the time of the event occurrence. As a result, the editing processing unit 156 knows the end of the two-dead-full event, the start point specified by the time information when the “two-dead-full” event occurs, and the time information when the “two-dead-full” event occurs The image data is read out from the ring buffer 176 using the end point specified in (2), and is extracted as content data of a two-death event. Thereby, the edit process part 156 can acquire the content data from the generation | occurrence | production to completion | finish to the time of two deaths. The edit processing unit 156 adds the metadata acquired by the metadata acquisition unit 154 to the content data during the period from the start point to the end point. As described above, the editing processing unit 156 edits the game image, so that metadata indicating in detail the situation in which the user is playing the game can be added to the content data.

図6(b)は、2つのイベントコードで開始点と終了点が指定される例を示す。最初のイベントコードの時間情報でコンテンツデータの切り出しの開始点が指定され、次のイベントコードの時間情報でコンテンツデータの切り出しの終了点が指定される。この例においてメタデータ取得部154は、ステータスデータA、B、C、D、E、F、Gを取得している。このうち、編集処理部156は、開始点から終了点までの期間に収集されたステータスデータB、C、D、E、Fを、コンテンツデータに付加する。これにより、開始点から終了点で切り出されたコンテンツデータと、その期間におけるゲームのプレイ状況を示すステータスデータとを紐付けることができる。   FIG. 6B shows an example in which the start point and the end point are specified by two event codes. The start point of the content data cut-out is specified by the time information of the first event code, and the end point of the cut-out of the content data is specified by the time information of the next event code. In this example, the metadata acquisition unit 154 acquires status data A, B, C, D, E, F, and G. Among these, the edit processing unit 156 adds the status data B, C, D, E, and F collected during the period from the start point to the end point to the content data. Thereby, the content data cut out from the start point to the end point can be associated with the status data indicating the game play status during that period.

なお、編集処理部156におけるコンテンツデータの抽出処理は、イベントコード通知部114から通知されるイベントコードの種別を用いて実行されてよい。イベントコードの種別として、たとえば、
(1)イベント発生時を開始点とし、所定時間後を終了点とするもの、
(2)開始点を指定するイベントコードと、終了点を指定するイベントコードとが、一組となっているもの、
が定義される。イベントコードに、種別を示す情報が埋め込まれることで、編集処理部156は、イベントコードの種別を認識できるようになる。端的に両者の違いを説明すれば、種別(1)のイベントコードは、単独で開始点と終了点を特定できるものであり、種別(2)のイベントコードは、一組で、開始点と終了点を特定できるものである。
Note that the content data extraction processing in the editing processing unit 156 may be executed using the type of event code notified from the event code notification unit 114. As an event code type, for example,
(1) The starting point is when the event occurs and the ending point is after a predetermined time,
(2) A set of an event code that specifies a start point and an event code that specifies an end point,
Is defined. By embedding information indicating the type in the event code, the editing processing unit 156 can recognize the type of the event code. To explain the difference between them, the type (1) event code can specify the start point and end point independently, and the type (2) event code is a set of start point and end point. A point can be specified.

種別(1)のイベントコードには、開始点から終了点までの期間を指定する情報が含まれる。イベントコードで指定される期間は、たとえば10秒、30秒、60秒など、様々であってよく、これらの期間は、イベントに応じてゲームメーカが適宜決めればよい。編集処理部156は、種別の(1)のイベントコードを受け取ると、イベント発生時(開始点)から、所定時間後(終了点)までの画像データを、コンテンツデータとしてリングバッファ176から読み出す。上記した例でいえば、「二死満塁になった」イベントの発生時から1分間分の画像データを抽出して、コンテンツデータを生成したことが相当する。なお、種別(1)のイベントコードの変形例として、イベントコードに、さらに、開始点を指定する時間情報が含まれていてもよい。たとえば、イベントコードに、イベント発生時のα秒前を開始点とし、所定時間後を終了点とする情報が含まれてもよい。リングバッファ176には過去30分間分の画像データが記録されているため、編集処理部156は、イベント発生前の画像データもコンテンツデータに組み込めることを利用して、コンテンツデータの開始点と終了点とを適宜設定することが可能となる。なお、イベントコードに、イベント発生時のβ秒後を開始点とし、所定時間後を終了点とする情報が含まれてもよい。このように種別(1)のイベントコードは、単独で、開始点および終了点を定めることができる。   The event code of type (1) includes information specifying a period from the start point to the end point. The period specified by the event code may be various, for example, 10 seconds, 30 seconds, 60 seconds, etc., and these periods may be appropriately determined by the game maker according to the event. Upon receiving the type (1) event code, the editing processing unit 156 reads image data from the event occurrence (start point) to a predetermined time (end point) from the ring buffer 176 as content data. In the example described above, this corresponds to the generation of content data by extracting image data for one minute from the time of occurrence of a “two-dead-full” event. As a modification of the type (1) event code, the event code may further include time information for designating the start point. For example, the event code may include information having a start point α seconds before the occurrence of the event and an end point after a predetermined time. Since image data for the past 30 minutes is recorded in the ring buffer 176, the editing processing unit 156 uses the fact that image data before the occurrence of an event can be incorporated into the content data, so that the start and end points of the content data Can be set as appropriate. Note that the event code may include information having a start point after β seconds when the event occurs and an end point after a predetermined time. Thus, the type (1) event code can independently determine the start point and the end point.

種別(2)のイベントコードには、開始点を指定するイベントコードであるか、または終了点を指定するイベントコードであるかを特定する情報が含まれる。図6(b)に示した例でいえば、「二死満塁になった」イベントが開始点を指定するイベントコードであり、「二死満塁が終了した」イベントが終了点を指定するイベントコードである。「二死満塁になった」イベントのイベントコードと、「二死満塁が終了した」イベントのイベントコードは、一組のイベントコードとして編集処理部156により扱われる。たとえば各イベントコードには、一組のイベントコードの一方であることを示す情報が含まれている。前者をイベント開始コード、後者をイベント終了コードと呼ぶと、イベント開始コードには、イベントが開始されたこと、イベント終了コードには、イベントが終了したこと、を示す情報が含まれ、編集処理部156は、この一組のイベントコードによって、切り出す画像データの開始点と終了点を決定する。なお、イベント開始コードには、開始点が指定する時間情報が含まれ、イベント終了コードには、終了点を指定する時間情報が含まれていてもよい。これによりイベント開始コードは、イベントコードの時間情報の前後を開始点とすることもでき、またイベント終了コードは、イベントコードの時間情報の前後を終了点とすることもできる。   The event code of type (2) includes information that specifies whether the event code is an event code that specifies a start point or an event code that specifies an end point. In the example shown in FIG. 6B, the event code “two deaths full” is an event code that specifies a start point, and the event “two deaths are complete” is an event code that specifies an end point. . The event code of the event “full of two deaths” and the event code of the event of “full of two deaths” are handled by the editing processing unit 156 as a set of event codes. For example, each event code includes information indicating that it is one of a set of event codes. When the former is called an event start code and the latter is called an event end code, the event start code includes information indicating that the event has started, and the event end code includes information indicating that the event has ended. Reference numeral 156 determines a start point and an end point of image data to be cut out by this set of event codes. The event start code may include time information specified by the start point, and the event end code may include time information specifying the end point. As a result, the event start code can have the start point before and after the time information of the event code, and the event end code can also have the end point before and after the time information of the event code.

種別(2)のイベントコードの別の例として、「1イニング中に2点差を逆転した」イベントについて説明する。このイベントは、プレイヤが攻撃するイニングにおいて、2点差で負けているときに発生する。イベントコード通知部114は、イニングの開始時にプレイヤが負けていれば、「2点差で負けている」イベントのイベントコードをメタデータ取得部154に通知する。メタデータ取得部154は、「2点差で負けている」イベントの発生時以降に通知されるステータスデータを、このイベントのコンテンツデータに付加するために蓄積する。既述したように、メタデータ取得部154は、イベントコードを通知されると、ステータスデータ通知部116に現在のステータスデータを要求して、ステータスデータ通知部116が、現在のステータスデータをメタデータ取得部154に通知してもよいが、ステータスデータ通知部116は、ステータスが変化するたびに、ステータスデータをメタデータ取得部154に通知してもよい。ステータスデータ通知部116は、たとえば、バッター交替があったとき、また守備の変更があったときを、ステータスに変化があったとみなし、その時点のステータスデータを収集して、メタデータ取得部154に通知する。これにより、メタデータ取得部154は、2点差を逆転するまでの詳細なメタデータを取得し、蓄積できる。ゲームにおいて、プレイヤが2点差を逆転すると、イベントコード通知部114が、「1イニング中に2点差を逆転した」イベントのイベントコードをメタデータ取得部154に通知する。   As another example of the type (2) event code, an event “two-point difference is reversed during one inning” will be described. This event occurs when the player is losing by a two-point difference in the inning to attack. If the player loses at the start of inning, the event code notification unit 114 notifies the metadata acquisition unit 154 of the event code of the event “losing by two points difference”. The metadata acquisition unit 154 accumulates the status data notified after the occurrence of the “losing by 2 points difference” event to add to the content data of this event. As described above, when notified of the event code, the metadata acquisition unit 154 requests the current status data from the status data notification unit 116, and the status data notification unit 116 converts the current status data to the metadata. Although the acquisition unit 154 may be notified, the status data notification unit 116 may notify the metadata acquisition unit 154 of status data every time the status changes. For example, the status data notifying unit 116 considers that the status has changed when there is a batter change or a defensive change, collects the status data at that time, and sends it to the metadata acquisition unit 154. Notice. Thereby, the metadata acquisition unit 154 can acquire and store detailed metadata until the two-point difference is reversed. In the game, when the player reverses the two-point difference, the event code notification unit 114 notifies the metadata acquisition unit 154 of the event code of the event “the two-point difference is reversed during one inning”.

この場合、「2点差で負けている」イベントのイベントコードと、「1イニング中に2点差を逆転した」イベントのイベントコードとは、一組のイベントコートとして、編集処理部156により取り扱われる。編集処理部156は、この一組のイベントコードによって、切り出す画像データの開始点と終了点を決定する。これにより、編集処理部156は、2点差で負けていた時点から、同じイニング内で2点差を逆転するまでの一連のゲーム画像を、コンテンツデータとしてリングバッファ176から切り出すことができるとともに、その間のステータスデータを、メタデータとしてコンテンツデータに付加できるようになる。   In this case, the event code of the event “losing by 2 points difference” and the event code of the event “reversing the 2 points difference during 1 inning” are handled by the editing processing unit 156 as a set of event codes. The edit processing unit 156 determines the start point and end point of the image data to be cut out based on this set of event codes. As a result, the edit processing unit 156 can cut out a series of game images from the time when the two points difference was lost until the two points difference was reversed within the same inning from the ring buffer 176 as content data. Status data can be added to content data as metadata.

なお、1イニング中に2点差を逆転できるかどうかは、ゲームの進行次第であり、逆転できないこともある。このときイベントコード通知部114は、イニングの終了時に、イニングが終了したことを示すイベントコードをメタデータ取得部154に通知する。メタデータ取得部154は、イニング終了を示すイベントコードを受け取ると、2点差を逆転できなかったことが分かるので、「2点差で負けている」イベントの発生時以降に蓄積していたステータスデータを破棄してもよく、編集処理部156は、画像データの編集を行わない。図6(b)の例でいえば、2つめのイベント終了コードを取得できなかった場合に相当し、この場合には、イベント開始コードの取得後のステータスデータを破棄してもよい。   Whether or not the two-point difference can be reversed during one inning depends on the progress of the game and may not be reversed. At this time, the event code notification unit 114 notifies the metadata acquisition unit 154 of an event code indicating that the inning has ended at the end of the inning. When the metadata acquisition unit 154 receives the event code indicating the end of inning, the metadata acquisition unit 154 knows that the difference between the two points could not be reversed, so the status data accumulated after the occurrence of the event “losing by the two points difference” occurs. The edit processing unit 156 does not edit the image data. In the example of FIG. 6B, this corresponds to a case where the second event end code cannot be acquired. In this case, the status data after acquisition of the event start code may be discarded.

以上のように、編集処理部156は、リングバッファ176に記録された画像データを編集して、メタデータを付加したコンテンツデータを生成する。なおメタデータには、情報処理装置10の機器種別を特定する情報が含まれてもよい。さらにはゲームにおいて、ユーザの習熟度を示すユーザレベルが定められている場合には、アプリケーションを使用しているユーザに関する情報の1つとして、ユーザのレベル情報もメタデータに含まれてよい。このように編集処理部156は、直接ゲームから、ステータスデータを受け取ることで、そのゲームプレイ時の状況を示す詳細な情報を、メタデータとしてコンテンツデータに付加することが可能となる。   As described above, the edit processing unit 156 edits the image data recorded in the ring buffer 176, and generates content data to which metadata is added. Note that the metadata may include information for specifying the device type of the information processing apparatus 10. Furthermore, in the game, when a user level indicating the user's proficiency level is defined, the user level information may be included in the metadata as one of the information related to the user who is using the application. As described above, the edit processing unit 156 can receive detailed status data directly from the game, and can add detailed information indicating the situation during the game play to the content data as metadata.

アップロード処理部192は、生成されたコンテンツデータを、コンテンツサーバ12にアップロードする。具体的にアップロード処理部192は、コンテンツデータを、配信サーバ14にアップロードして、他のユーザが、コンテンツデータをダウンロードして視聴できるようにする。これにより、ユーザのプレイ動画が共有されることになり、多くの人の目に触れることで、ゲームの人気向上が期待される。   The upload processing unit 192 uploads the generated content data to the content server 12. Specifically, the upload processing unit 192 uploads the content data to the distribution server 14 so that other users can download and view the content data. Thereby, a user's play animation will be shared and the popularity improvement of a game is anticipated by touching many people's eyes.

以上は、コンテンツ生成部150が、自動的にコンテンツデータを生成する仕組みについて説明した。以下、コンテンツ生成部150が、ユーザからの指示に基づいて、コンテンツデータを生成する仕組みについて説明する。   The above describes the mechanism in which the content generation unit 150 automatically generates content data. Hereinafter, a mechanism in which the content generation unit 150 generates content data based on an instruction from the user will be described.

図7は、ゲーム画面上に重畳表示される編集画面の一例を示す。ユーザが、入力装置6を操作して、画像編集指示を画像生成部130に提供すると、編集画像生成部134が、編集画面200を生成する。ユーザが入力装置6の所定のボタン(たとえばSHAREボタン81)を操作すると、編集ボタンが画面に表示されて、それを選択することで、画面編集指示が画像生成部130に提供されてもよい。   FIG. 7 shows an example of an editing screen displayed superimposed on the game screen. When the user operates the input device 6 to provide an image editing instruction to the image generation unit 130, the edited image generation unit 134 generates the editing screen 200. When the user operates a predetermined button (for example, the SHARE button 81) of the input device 6, an edit button may be displayed on the screen, and a screen edit instruction may be provided to the image generation unit 130 by selecting it.

編集画面200においてユーザはアップロードする動画データの長さを決定することができ、具体的には最長で30分の画像データの開始点202と終了点204を定めて、開始点202と終了点204の間の画像データをアップロード対象として決定する。ユーザは入力装置6を操作することで、開始点202および終了点204を自由に移動させられる。画像表示領域206には、動画データが再生され、ユーザは、再生ボタン、早送りボタン、早戻しボタンなどのインジケータ208を操作して、アップロードする動画データの開始点202および終了点204を再生画像を見ながら決定する。画像表示領域206の左端は、リングバッファ176に記録されている画像データの最初(すなわち30分前の画像)、右端は画像データの最後(すなわち最新の画像)を示し、ユーザが画像表示領域206の任意の位置にカーソルをあてると、時間軸上の対応する位置に存在する画像が表示されてもよい。時間情報210は、過去30分のうちの再生画像の相対的な時間を示す。ユーザは開始点202および終了点204を設定し、Enterキーを押すことで抽出する画像データが特定される。   In the editing screen 200, the user can determine the length of the moving image data to be uploaded. Specifically, the start point 202 and the end point 204 of the image data having a maximum length of 30 minutes are determined. Is determined as an upload target. The user can freely move the start point 202 and the end point 204 by operating the input device 6. In the image display area 206, the moving image data is reproduced, and the user operates the indicators 208 such as a play button, a fast forward button, and a fast reverse button to display the start point 202 and the end point 204 of the moving image data to be uploaded. Decide while watching. The left end of the image display area 206 indicates the beginning of the image data recorded in the ring buffer 176 (that is, the image 30 minutes before), and the right end indicates the end of the image data (that is, the latest image). When the cursor is placed at any position of, an image existing at the corresponding position on the time axis may be displayed. The time information 210 indicates the relative time of the reproduced image in the past 30 minutes. The user sets the start point 202 and the end point 204, and the image data to be extracted is specified by pressing the Enter key.

ユーザがEnterキーを操作すると、指示取得部152は、画像データの編集指示を取得するとともに、編集画面200において設定された開始点202および終了点204の時間情報を取得する。ステータスデータ通知部116は、ゲーム中のステータスが変化するたびに、ステータスデータを収集して、収集したタイミングを示す時間情報とともにメタデータ取得部154に逐次通知し、メタデータ取得部154は、その全てを蓄積している。なお、メタデータ取得部154は、リングバッファ176から上書き削除された画像データに対応するメタデータ、すなわち30分以上前の時間情報をもつメタデータについては、破棄してもよい。   When the user operates the Enter key, the instruction acquisition unit 152 acquires an instruction to edit image data, and acquires time information of the start point 202 and the end point 204 set on the editing screen 200. The status data notification unit 116 collects status data every time the status in the game changes, and sequentially notifies the metadata acquisition unit 154 together with time information indicating the collected timing. The metadata acquisition unit 154 Accumulating everything. Note that the metadata acquisition unit 154 may discard metadata corresponding to the image data overwritten and deleted from the ring buffer 176, that is, metadata having time information of 30 minutes or more before.

既述したように、リングバッファ176に記録されている画像データには、タイムスタンプが付与されている。編集処理部156は、開始点202および終了点204で特定される画像データをリングバッファ176から抽出してコンテンツデータとして取得するとともに、この画像データの開始点から終了点までの期間に、メタデータ取得部154が取得したステータスデータをメタデータとしてコンテンツデータに付加する。このように編集処理部156が、ユーザからの開始点および終了点を指定した編集指示をもとにゲーム画像を編集することで、ユーザがゲームプレイしていた状況を詳細に示すメタデータを、コンテンツデータに付加することができる。アップロード処理部192は、コンテンツデータを、コンテンツサーバ12に送信する。   As described above, the image data recorded in the ring buffer 176 is given a time stamp. The edit processing unit 156 extracts the image data specified by the start point 202 and the end point 204 from the ring buffer 176 and acquires it as content data, and in the period from the start point to the end point of the image data, The status data acquired by the acquisition unit 154 is added to the content data as metadata. In this way, the editing processing unit 156 edits the game image based on the editing instruction designating the start point and the end point from the user, so that metadata indicating the situation in which the user is playing the game in detail is obtained. It can be added to content data. The upload processing unit 192 transmits the content data to the content server 12.

以上のようにして、コンテンツサーバ12に、多くのコンテンツデータが集まるようになる。特に、編集処理部156がイベントコードをもちいて自動的に画像データを編集することで、ユーザの作業が不要となるため、コンテンツサーバ12は、多くのユーザから、多数のコンテンツデータを自動的に集めることが可能となる。なお編集処理部156が、自動的にコンテンツデータを生成するか否かは、ユーザが選択することができ、したがってユーザが自動編集を望まない場合には、自動編集を禁止する設定をすればよい。この場合であっても、ユーザは図7に示す編集画面200から、コンテンツデータをコンテンツサーバ12にアップロードできる。   As described above, a large amount of content data is collected in the content server 12. In particular, since the editing processing unit 156 automatically edits the image data using the event code, the user's work is not necessary. Therefore, the content server 12 automatically receives a large amount of content data from many users. It becomes possible to collect. Note that whether or not the edit processing unit 156 automatically generates content data can be selected by the user. Therefore, if the user does not want automatic editing, the automatic editing may be prohibited. . Even in this case, the user can upload the content data to the content server 12 from the editing screen 200 shown in FIG.

なお以上は、情報処理装置10がコンテンツデータを生成して、アップロードする仕組みであるが、コンテンツデータは、コンテンツサーバ12側において生成されてもよい。画像データの生成処理は、編集サーバ16によって行われる。   Although the above is a mechanism in which the information processing apparatus 10 generates and uploads content data, the content data may be generated on the content server 12 side. The image data generation process is performed by the editing server 16.

編集サーバ16が画像データを編集する前提として、情報処理装置10において、送信処理部194が、ゲーム画像生成部132により生成された画像データを、編集サーバ16に送信する。また送信処理部194が、イベントコード通知部114により通知されたイベントコードを、イベント発生時の時間情報とともに編集サーバ16に送信する。また送信処理部194が、ステータスデータ通知部116により通知されたステータスデータを、ステータス収集時の時間情報とともに編集サーバ16に送信する。なおステータスデータ通知部116は、ゲーム中のステータスが変化するたびに、ステータスデータを送信処理部194に通知し、送信処理部194が、ステータスデータの通知をうける度に、編集サーバ16にステータスデータを送信することが好ましい。   As a premise that the editing server 16 edits the image data, in the information processing apparatus 10, the transmission processing unit 194 transmits the image data generated by the game image generating unit 132 to the editing server 16. The transmission processing unit 194 transmits the event code notified by the event code notification unit 114 to the editing server 16 together with time information at the time of event occurrence. The transmission processing unit 194 transmits the status data notified by the status data notification unit 116 to the editing server 16 together with the time information at the time of status collection. The status data notification unit 116 notifies the status data to the transmission processing unit 194 every time the status during the game changes, and whenever the transmission processing unit 194 receives the status data notification, the status data is notified to the editing server 16. Is preferably transmitted.

図8は、編集サーバ16の内部構成を示す。編集サーバ16は、コンテンツ生成部300および通信部302を備える。コンテンツ生成部300は、通信部302を介してネットワーク3に接続し、画像データ取得部310、メタデータ取得部312、編集処理部314および記録部316を備える。図8において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   FIG. 8 shows the internal configuration of the editing server 16. The editing server 16 includes a content generation unit 300 and a communication unit 302. The content generation unit 300 is connected to the network 3 via the communication unit 302, and includes an image data acquisition unit 310, a metadata acquisition unit 312, an edit processing unit 314, and a recording unit 316. In FIG. 8, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

画像データ取得部310は、情報処理装置10から配信される画像データを取得し、記録部316に記録する。画像データはリアルタイム送信されるため、したがって、この画像データは、配信サーバ14から、ライブ配信されてもよい。情報処理装置10から画像データがライブ中継のために配信サーバ14に送信されている場合には、画像データ取得部310は、配信サーバ14から画像データを取得してもよい。   The image data acquisition unit 310 acquires image data distributed from the information processing apparatus 10 and records it in the recording unit 316. Since the image data is transmitted in real time, the image data may be distributed live from the distribution server 14. When image data is transmitted from the information processing apparatus 10 to the distribution server 14 for live relay, the image data acquisition unit 310 may acquire image data from the distribution server 14.

メタデータ取得部312は、情報処理装置10から送信されるイベントコードおよびステータスデータを、それぞれの時間情報とともに取得する。編集処理部314は、イベントコードおよびイベント発生時の時間情報をもとに、記録部316に記録された画像データを編集する。   The metadata acquisition unit 312 acquires the event code and status data transmitted from the information processing apparatus 10 together with each time information. The edit processing unit 314 edits the image data recorded in the recording unit 316 based on the event code and time information at the time of event occurrence.

なおコンテンツ生成部300におけるメタデータ取得部312、編集処理部314および記録部316の各機能は、情報処理装置10におけるメタデータ取得部154、編集処理部156およびリングバッファ176の各機能と同じであるため、重複する説明は省略する。なお記録部316は、リングバッファである必要はなく、リングバッファ176よりも大きな記憶領域を有してよい。このように編集サーバ16は、情報処理装置10内で行っていた画像データの編集処理を実行する機能を有する。なお編集サーバ16は、画像データの編集処理を行う点で、情報処理装置10と同様の画像データ編集機能を有するものであり、したがって編集サーバ16は、画像データの編集処理機能を備えた情報処理装置と呼ぶこともできる。   The functions of the metadata acquisition unit 312, the editing processing unit 314, and the recording unit 316 in the content generation unit 300 are the same as the functions of the metadata acquisition unit 154, the editing processing unit 156, and the ring buffer 176 in the information processing apparatus 10. Therefore, redundant description is omitted. Note that the recording unit 316 need not be a ring buffer, and may have a larger storage area than the ring buffer 176. As described above, the editing server 16 has a function of executing the image data editing processing performed in the information processing apparatus 10. Note that the editing server 16 has an image data editing function similar to that of the information processing apparatus 10 in that it performs image data editing processing. Therefore, the editing server 16 has an information processing function including an image data editing processing function. It can also be called an apparatus.

画像データの編集処理を情報処理装置10側で行うか、または編集サーバ16側で行うかは、情報処理システム1における処理負荷バランスにより決定されればよい。編集処理部314は、イベントコードにもとづいて画像データを切り出す開始点と終了点を特定して、記録部316に記録された画像データの開始点から終了点までを抽出して、コンテンツデータを取得する。編集処理部314は、開始点から終了点までの期間にメタデータ取得部312が取得したイベントコードおよびステータスデータを、メタデータとしてコンテンツデータに付加する。編集処理部314が生成したコンテンツデータは、コンテンツサーバ12に提供されて、複数のユーザがコンテンツデータをダウンロードして視聴できるようにする。これにより、ユーザのプレイ動画が共有されることになり、多くの人の目に触れることで、ゲームの人気向上が期待される。   Whether the image data editing process is performed on the information processing apparatus 10 side or the editing server 16 side may be determined by the processing load balance in the information processing system 1. The edit processing unit 314 specifies the start point and end point for cutting out image data based on the event code, extracts the start point to the end point of the image data recorded in the recording unit 316, and acquires content data To do. The edit processing unit 314 adds the event code and status data acquired by the metadata acquisition unit 312 during the period from the start point to the end point as metadata to the content data. The content data generated by the editing processing unit 314 is provided to the content server 12 so that a plurality of users can download and view the content data. Thereby, a user's play animation will be shared and the popularity improvement of a game is anticipated by touching many people's eyes.

以上のようにして、コンテンツサーバ12は、複数のコンテンツデータを所有する。コンテンツデータには、ゲームプログラムから提供される詳細なメタデータが付加されているため、ユーザは、ブラウザからコンテンツサーバ12にアクセスして、メタデータを検索ワードとして入力することで、所望のコンテンツをダウンロードできる環境が実現される。   As described above, the content server 12 owns a plurality of content data. Since the detailed metadata provided from the game program is added to the content data, the user accesses the content server 12 from the browser and inputs the metadata as a search word, thereby obtaining the desired content. A downloadable environment is realized.

以下、ユーザの状況に応じて、効率よく所望のコンテンツをダウンロードする仕組みについて説明する。
<コンテンツ受信機能>
図9は、コンテンツ受信機能を実現する情報処理装置10の内部構成を示す。情報処理装置10は、処理部100および通信部102を備え、処理部100は、アプリケーション処理部110、画像生成部130およびダウンロード処理部120を備える。アプリケーション処理部110は、アプリケーションに関する処理を行い、画像生成部130は、出力装置4に表示するための画像生成処理を行う。ダウンロード処理部120は、コンテンツサーバ12に蓄積されたコンテンツのダウンロード処理を行う。
Hereinafter, a mechanism for efficiently downloading desired content according to the user's situation will be described.
<Content reception function>
FIG. 9 shows an internal configuration of the information processing apparatus 10 that realizes the content reception function. The information processing apparatus 10 includes a processing unit 100 and a communication unit 102, and the processing unit 100 includes an application processing unit 110, an image generation unit 130, and a download processing unit 120. The application processing unit 110 performs processing related to the application, and the image generation unit 130 performs image generation processing for display on the output device 4. The download processing unit 120 performs processing for downloading content stored in the content server 12.

図9において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。なお図9において、図4に示す符号と同じ符号を付した構成は、図4に示す構成と同一もしくは同様の機能を有している。通信部102は、コンテンツサーバ12との間で、コンテンツに関する要求やデータを送受信する。   In FIG. 9, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one. Note that in FIG. 9, the configuration given the same reference numeral as that shown in FIG. 4 has the same or similar function as the configuration shown in FIG. 4. The communication unit 102 transmits / receives a request and data regarding the content to / from the content server 12.

アプリケーション処理部110において、ゲーム実行部112は、ユーザによる入力装置6の操作入力を受けてゲームを進行させるプログラムを実行する機能を有する。ゲーム画像生成部132はレンダリング処理などを実行するGPUであってよく、ゲーム実行部112による処理結果を受けて、出力装置4に表示するアプリケーション(ゲーム)の画像データを生成する。図10は、出力装置4に表示されるゲーム画面の一例を示す。   In the application processing unit 110, the game execution unit 112 has a function of executing a program for advancing the game in response to an operation input of the input device 6 by the user. The game image generation unit 132 may be a GPU that executes a rendering process or the like, and generates image data of an application (game) to be displayed on the output device 4 in response to a processing result by the game execution unit 112. FIG. 10 shows an example of the game screen displayed on the output device 4.

イベントコード通知部114は、ゲームの実行中に、ゲームプログラムにおいて設定されたイベントが発生すると、そのイベントの発生を示すイベントコードをダウンロード処理部120に出力する。ダウンロード処理部120において、メタデータ取得部142が、通知されたイベントコードを取得する。なおイベントは、ゲームごとに設定されており、たとえば格闘ゲームであれば、「格闘が開始された」、「体力が半分になった」、「残り時間が10秒となった」、「必殺技がでた」など、様々なものが設定されてよい。イベントコード通知部114は、設定されたイベントが発生すると、そのイベントコードをコンテンツ生成部150に通知する機能をもつ。ステータスデータ通知部116は、ゲームのステータスデータをコンテンツ生成部150に通知する。ステータスデータ通知部116は、コンテンツ生成部150からの要求に応じてステータスデータをコンテンツ生成部150に通知してもよいが、たとえばステータスに変化があった場合に、変化後のステータスデータをコンテンツ生成部150に通知してもよい。このときステータスデータ通知部116は、変化前と変化後の差分となるステータスデータを通知してもよいが、変化後の全てのステータスデータを収集して通知してもよい。   When an event set in the game program occurs during execution of the game, the event code notification unit 114 outputs an event code indicating the occurrence of the event to the download processing unit 120. In the download processing unit 120, the metadata acquisition unit 142 acquires the notified event code. The event is set for each game. For example, in the case of a fighting game, “the fight has started”, “the physical strength has been halved”, “the remaining time is 10 seconds”, “the special technique Various things may be set, such as “departure”. The event code notification unit 114 has a function of notifying the content generation unit 150 of the event code when a set event occurs. The status data notification unit 116 notifies the content generation unit 150 of game status data. The status data notification unit 116 may notify the status data to the content generation unit 150 in response to a request from the content generation unit 150. For example, when the status changes, the status data notification unit 116 generates the status data after the change. The unit 150 may be notified. At this time, the status data notification unit 116 may notify the status data that is the difference before and after the change, but may collect and notify all the status data after the change.

図10は、格闘ゲームの実行画面を示す。ユーザは、入力装置6を操作して格闘ゲームをスタートする。ユーザは、プレイ中のどの時点でも構わないが、入力装置6を操作して、現在のプレイ状況に関連した画像データの検索指示を生成する。たとえばユーザは、機能ボタン80を操作して、メニュー画面に表示される検索ボタンを選択することで検索指示を生成してもよく、または検索機能が割り当てられているボタンを操作して、検索指示を生成してもよい。実施例の情報処理装置10は、カメラ7からユーザのジェスチャを認識できるため、ユーザが所定のジェスチャを行うことで、検索指示が生成されてもよい。いずれにしても、検索指示が生成されると、指示取得部140が、検索指示を受け付ける。   FIG. 10 shows an execution screen for a fighting game. The user operates the input device 6 to start a fighting game. Although the user may be at any time point during play, the user operates the input device 6 to generate a search instruction for image data related to the current play situation. For example, the user may generate a search instruction by operating the function button 80 and selecting a search button displayed on the menu screen, or by operating a button to which a search function is assigned. May be generated. Since the information processing apparatus 10 according to the embodiment can recognize the user's gesture from the camera 7, the search instruction may be generated when the user performs a predetermined gesture. In any case, when a search instruction is generated, the instruction acquisition unit 140 receives the search instruction.

メタデータ取得部142は、アプリケーションの実行状態を示すイベントコードおよびステータスデータを取得している。イベントコード通知部114は、イベントが発生するたびにイベントコードを通知し、またステータスデータ通知部116は、ステータスに変化があるたびに、ステータスデータを収集して通知している。指示取得部140が検索指示を受け付けると、メタデータ取得部142は、最新のイベントコード、および最新のステータスデータを、メタデータとして要求生成部144に提供する。要求生成部144は、最新のイベントコードおよび最新のステータスデータをメタデータとして含むコンテンツの検索要求を生成し、要求生成部144が、検索要求をコンテンツサーバ12に送信する。   The metadata acquisition unit 142 acquires an event code and status data indicating the execution state of the application. The event code notification unit 114 notifies an event code every time an event occurs, and the status data notification unit 116 collects and notifies status data whenever the status changes. When the instruction acquisition unit 140 receives the search instruction, the metadata acquisition unit 142 provides the latest event code and the latest status data as metadata to the request generation unit 144. The request generation unit 144 generates a content search request including the latest event code and the latest status data as metadata, and the request generation unit 144 transmits the search request to the content server 12.

要求生成部144が、イベントコードおよびステータスデータをメタデータとして検索要求に含ませることで、この検索要求には、現在のユーザのプレイ状況を表現する多種類のメタデータが埋め込まれることになる。なお既述したように、メタデータには、タイトルIDが必ず含まれる。たとえば格闘ゲームのステータスデータとしては、ユーザが使用するキャラクタ、対戦相手のキャラクタ、それぞれのキャラクタの残り体力、残り時間などが含まれてよい。またステータスデータには、ユーザの習熟度や経験値を表現するレベル、対戦相手のレベルも含まれてよい。   The request generation unit 144 includes the event code and the status data as metadata in the search request, so that various types of metadata expressing the current user play status are embedded in the search request. As described above, the metadata always includes the title ID. For example, the status data of the fighting game may include characters used by the user, opponent characters, remaining physical strength of each character, remaining time, and the like. The status data may also include a level representing the user's proficiency level and experience level, and the level of the opponent.

図11は、配信サーバ14および検索サーバ18の機能を集約した構成を示す。以下、これらの機能をコンテンツサーバ12が有しているものとして説明する。コンテンツサーバ12は、配信処理部320および通信部322を備える。配信処理部320は、通信部322を介してネットワーク3に接続し、検索要求取得部330、検索処理部332、検索結果送信部334、送信要求取得部336、コンテンツ送信部338およびコンテンツ記録部340を備える。これらの機能ブロックをあえて配信サーバ14と検索サーバ18とに振り分けるとすると、検索要求取得部330、検索処理部332、検索結果送信部334が検索サーバ18に、送信要求取得部336、コンテンツ送信部338、コンテンツ記録部340が配信サーバ14に含まれてよいが、この限りではない。コンテンツ記録部340は、メタデータを付加されたコンテンツデータを記録する。なお、各コンテンツデータには、コンテンツ記録部340においてコンテンツを一意に特定するためのコンテンツIDが付与されているものとする。コンテンツIDは、コンテンツサーバ12がコンテンツデータを受け入れたときに、当該コンテンツを識別するために付与してもよい。   FIG. 11 shows a configuration in which the functions of the distribution server 14 and the search server 18 are integrated. In the following description, it is assumed that the content server 12 has these functions. The content server 12 includes a distribution processing unit 320 and a communication unit 322. The distribution processing unit 320 is connected to the network 3 via the communication unit 322, and includes a search request acquisition unit 330, a search processing unit 332, a search result transmission unit 334, a transmission request acquisition unit 336, a content transmission unit 338, and a content recording unit 340. Is provided. If these functional blocks are distributed to the distribution server 14 and the search server 18, the search request acquisition unit 330, the search processing unit 332, and the search result transmission unit 334 are transferred to the search server 18, the transmission request acquisition unit 336, and the content transmission unit. 338 and the content recording unit 340 may be included in the distribution server 14, but this is not restrictive. The content recording unit 340 records content data to which metadata is added. It is assumed that a content ID for uniquely identifying content in the content recording unit 340 is assigned to each content data. The content ID may be assigned to identify the content when the content server 12 accepts the content data.

図11において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   In FIG. 11, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

コンテンツサーバ12において、検索要求取得部330が、情報処理装置10から送信されるコンテンツの検索要求を取得する。検索処理部332は、検索要求に含まれるメタデータにもとづいて、コンテンツ記録部340においてコンテンツを検索する。ここで、検索要求に含まれるメタデータの例を以下に示す。
タイトルID XYZ
ユーザ名 A
プレイヤキャラクタ TARO
対戦相手キャラクタ JIRO
ユーザレベル 3
プレイヤ残り体力 100%
対戦相手残り体力 100%
In the content server 12, the search request acquisition unit 330 acquires a content search request transmitted from the information processing apparatus 10. The search processing unit 332 searches the content in the content recording unit 340 based on the metadata included in the search request. Here, examples of metadata included in the search request are shown below.
Title ID XYZ
User name A
Player character TARO
Opponent character JIRO
User level 3
100% remaining player health
100% remaining opponent health

検索処理部332は、これらのメタデータにマッチするメタデータをもつコンテンツをコンテンツ記録部340から検索する。なおコンテンツサーバ12は、コンテンツのメタデータを抽出したデータベースを検索用に予め作成しておき、検索処理部332は、このデータベースを参照して、検索処理を行ってもよい。まず検索処理部332は、タイトルIDを同一とするコンテンツを検索する。これにより検索対象を、同じゲームの動画に絞る。   The search processing unit 332 searches the content recording unit 340 for content having metadata that matches these metadata. The content server 12 may create a database from which content metadata is extracted in advance for search, and the search processing unit 332 may perform search processing with reference to this database. First, the search processing unit 332 searches for content having the same title ID. This narrows down the search target to videos of the same game.

検索処理部332は、ゲームごとに、検索条件として優先度の高いメタデータを把握している。検索処理部332は、メタデータの優先度を、メタデータごとに登録したファイルを保持していてもよい。たとえば、プレイヤキャラクタと対戦相手キャラクタとが同一であることが最高の優先度に設定されていれば、検索処理部332は、プレイヤキャラクタがTARO、対戦相手キャラクタがJIROであるメタデータが設定されているコンテンツを検索する。   The search processing unit 332 grasps metadata having high priority as a search condition for each game. The search processing unit 332 may hold a file in which the metadata priority is registered for each metadata. For example, if the highest priority is set so that the player character and the opponent character are the same, the search processing unit 332 sets metadata in which the player character is TARO and the opponent character is JIRO. Search for content.

一方で、あまりに実力レベルの違うユーザのプレイ動画を見ても、視聴ユーザに参考にならないこともあるため、ユーザレベルが同じであって、且つプレイヤキャラクタが同一であることが最高の優先度に設定されていれば、検索処理部332は、プライヤキャラクタがTARO、ユーザレベルが3のメタデータが設定されているコンテンツを検索する。   On the other hand, even if you watch a play video of a user with a different skill level, it may not be helpful to the viewing user, so the highest priority is that the user level is the same and the player character is the same If it is set, the search processing unit 332 searches for content in which metadata with a prier character of TARO and a user level of 3 is set.

このように検索条件の優先度は、各ゲームメーカによって定められてよい。この優先度は、ユーザに対して、どのような動画を見せたいかという観点から定められる。なお、検索処理部332は、複数のカテゴリで検索結果を生成してもよい。たとえば検索処理部332は、最高の優先度に設定されている検索条件での検索結果、検索要求を送信したユーザのフレンドで検索した検索結果、視聴ユーザからの評価が高い検索結果など、さまざまなカテゴリの検索結果を生成してもよい。検索結果送信部334は、コンテンツの検索結果を、情報処理装置10に送信する。この検索結果には、コンテンツID、コンテンツの静止画像や、コンテンツの投稿ユーザ名、投稿日時などのコンテンツごとの情報が含まれる。   As described above, the priority of the search condition may be determined by each game maker. This priority is determined from the viewpoint of what kind of moving image the user wants to show. Note that the search processing unit 332 may generate search results with a plurality of categories. For example, the search processing unit 332 has various search results such as a search result with the search condition set to the highest priority, a search result searched with the friend of the user who transmitted the search request, and a search result highly evaluated by the viewing user. A category search result may be generated. The search result transmission unit 334 transmits the content search result to the information processing apparatus 10. This search result includes information for each content such as a content ID, a content still image, a content posting user name, and a posting date.

また検索条件は、ゲームのシーンごとに定められてよい。たとえばストーリーが進行するアドベンチャーゲームにおいては、プレイヤキャラクタのアクションに応じて、その後のゲーム進行が決定される。そこで、ゲームシーンがストーリーの分岐点である場合に、そこから進行する可能性のある複数のルートに関する検索結果を、検索処理部332が生成するようにしてもよい。キャラクタがストーリーの分岐点にいる場合に、ゲームが、イベントコードを出力するように構成されていれば、検索処理部332は、そのイベントコードに対応付けられている検索条件をもとに、コンテンツのメタデータを検索してもよい。   Search conditions may be defined for each game scene. For example, in an adventure game in which a story progresses, the subsequent game progress is determined according to the action of the player character. Therefore, when the game scene is a branch point of a story, the search processing unit 332 may generate search results regarding a plurality of routes that may progress from there. If the game is configured to output an event code when the character is at the branch point of the story, the search processing unit 332 will display the content based on the search condition associated with the event code. You may search for metadata.

情報処理装置10において、検索結果取得部160が、コンテンツの検索結果を取得する。この検索結果は、検索要求に含まれる複数種類のメタデータにもとづいて検索されたコンテンツの検索結果である。候補画像生成部136は、検索結果として、ダウンロードする候補となる複数のコンテンツに関する画像を生成して、出力装置4に表示する。なお、これにより、出力装置4に表示されていたゲーム画面は、ダウンロード候補のリスト画面に切り替えられることになる。   In the information processing apparatus 10, the search result acquisition unit 160 acquires a content search result. This search result is a search result of content searched based on a plurality of types of metadata included in the search request. The candidate image generation unit 136 generates images related to a plurality of contents that are candidates for download as search results, and displays them on the output device 4. As a result, the game screen displayed on the output device 4 is switched to the download candidate list screen.

図12は、検索結果画面の一例を示す。候補画像生成部136は、検索結果として、複数のコンテンツに関する画像を並べて表示する。検索画面においては、コンテンツの静止画像であるキャプチャ画像220が並べられ、また各キャプチャ画像220の横には、投稿ユーザ名や、投稿日時などが表示される。またリストの上段には、複数の検索結果タブが表示され、ユーザは、タブを選択することで、検索結果を切り替えて閲覧できるようになっている。なお、「キーワード」タブは、ユーザがあらためて検索キーワードを入力する際に選択される。   FIG. 12 shows an example of the search result screen. The candidate image generation unit 136 displays images related to a plurality of contents side by side as search results. On the search screen, captured images 220 that are still images of content are arranged, and a posting user name, a posting date and time, and the like are displayed beside each captured image 220. In addition, a plurality of search result tabs are displayed at the top of the list, and the user can select and browse the search results by selecting the tab. The “keyword” tab is selected when the user inputs a search keyword again.

この検索結果画面において、ユーザが入力装置6を操作して、ダウンロードを希望するコンテンツを選択する。情報処理装置10において、指示取得部140が、コンテンツを指定する選択指示を受け付けると、要求生成部144が、選択されたコンテンツのコンテンツIDを含めたコンテンツ送信要求を生成する。要求送信部146は、コンテンツ送信要求をコンテンツサーバ12に送信する。   On this search result screen, the user operates the input device 6 to select content desired to be downloaded. In the information processing apparatus 10, when the instruction acquisition unit 140 receives a selection instruction for specifying content, the request generation unit 144 generates a content transmission request including the content ID of the selected content. The request transmission unit 146 transmits a content transmission request to the content server 12.

コンテンツサーバ12において、送信要求取得部336が、コンテンツの送信要求を取得すると、コンテンツ送信部338が、送信要求に含まれるコンテンツIDで特定されるコンテンツデータをコンテンツ記録部340から読み出し、情報処理装置10に送信する。   In the content server 12, when the transmission request acquisition unit 336 acquires a content transmission request, the content transmission unit 338 reads content data specified by the content ID included in the transmission request from the content recording unit 340, and the information processing apparatus 10 to send.

情報処理装置10において、コンテンツ取得部162がコンテンツデータを取得し、コンテンツ画像生成部138が、取得したコンテンツの画像を生成して、出力装置4に出力する。図13および図14は、ダウンロードしたプレイ動画の一例を示す。なお図13は、プレイヤキャラクタが相手キャラクタを攻撃している様子を、図14はプレイヤキャラクタが相手キャラクタをKOした様子を示している。   In the information processing apparatus 10, the content acquisition unit 162 acquires content data, and the content image generation unit 138 generates an image of the acquired content and outputs it to the output device 4. 13 and 14 show an example of the downloaded play video. FIG. 13 shows a state in which the player character is attacking the opponent character, and FIG. 14 shows a state in which the player character KOs the opponent character.

このように情報処理装置10は、コンテンツの検索要求に、現在のプレイ状況を詳細に示すメタデータを自動的に付加することで、コンテンツサーバ12が、ユーザの状況に適した検索処理を実行できるようになる。またコンテンツサーバ12においても、各コンテンツに、詳細なメタデータが付加されていることで、コンテンツサーバ12における検索の粒度を高めることも可能となっている。   In this manner, the information processing apparatus 10 automatically adds metadata indicating the current play status in detail to the content search request, so that the content server 12 can execute search processing suitable for the user's status. It becomes like this. Also in the content server 12, it is possible to increase the granularity of search in the content server 12 by adding detailed metadata to each content.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

実施例においては、情報処理装置10ないし編集サーバ16が、アプリケーションの実行中に、画像データを切り出して、メタデータを付加したコンテンツデータを生成することを説明した。このようにコンテンツデータを生成して、コンテンツ記録部340に記録しておくことで、配信サーバ14は、送信を要求されたコンテンツデータを即座に情報処理装置10に配信することができる。   In the embodiment, it has been described that the information processing apparatus 10 or the editing server 16 generates content data to which image data is extracted and metadata is added during execution of an application. By generating the content data in this way and recording it in the content recording unit 340, the distribution server 14 can immediately distribute the content data requested to be transmitted to the information processing apparatus 10.

変形例では、コンテンツサーバ12が、コンテンツ記録部340において、切り出しを行っていない画像データと、その画像データのメタデータとを紐付けて記録しておく。なお画像データとメタデータとは、別個のストレージ装置に記録されていてもよい。図8に示す編集サーバ16の動作に関連して説明したように、情報処理装置10において、送信処理部194が、ゲーム画像生成部132により生成された画像データを、コンテンツサーバ12に送信する。また送信処理部194が、イベントコード通知部114により通知されたイベントコードを、イベント発生時の時間情報とともにコンテンツサーバ12に送信する。また送信処理部194が、ステータスデータ通知部116により通知されたステータスデータを、ステータス収集時の時間情報とともにコンテンツサーバ12に送信する。送信処理部194は、画像データをコンテンツサーバ12に送信している間にメタデータ取得部154が取得したイベントコードおよびステータスデータを、メタデータとしてコンテンツサーバ12に送信する。   In the modified example, the content server 12 records in the content recording unit 340 the image data that has not been cut out and the metadata of the image data in association with each other. Note that the image data and the metadata may be recorded in separate storage devices. As described with reference to the operation of the editing server 16 illustrated in FIG. 8, in the information processing apparatus 10, the transmission processing unit 194 transmits the image data generated by the game image generation unit 132 to the content server 12. The transmission processing unit 194 transmits the event code notified by the event code notification unit 114 to the content server 12 together with time information at the time of event occurrence. Further, the transmission processing unit 194 transmits the status data notified by the status data notification unit 116 to the content server 12 together with time information at the time of status collection. The transmission processing unit 194 transmits the event code and status data acquired by the metadata acquisition unit 154 while transmitting image data to the content server 12 to the content server 12 as metadata.

コンテンツサーバ12において、これらのデータ、すなわち画像データおよびメタデータは、互いに関連づけてコンテンツ記録部340に記録される。実施例では、編集サーバ16が、イベントコードの取得を契機として画像データを編集してコンテンツデータを生成することを説明したが、この変形例では、この時点で編集サーバ16はコンテンツデータを生成しない。   In the content server 12, these data, that is, image data and metadata are recorded in the content recording unit 340 in association with each other. In the embodiment, it has been described that the editing server 16 edits the image data in response to the acquisition of the event code to generate the content data. However, in this modification, the editing server 16 does not generate the content data at this time. .

ここで、ユーザから検索要求取得部330が検索要求を受け付けると、検索処理部332が、コンテンツ記録部340に記録されたメタデータを参照して、検索要求に含まれるメタデータにマッチしたコンテンツを検索し、検索結果送信部334が、検索結果を情報処理装置10に送信する。情報処理装置10においてコンテンツが選択され、送信要求取得部336が、コンテンツの送信要求を受け取ると、このとき、編集サーバ16が、検索要求に含まれていたメタデータのうちのイベントコードにもとづいて画像データを編集してコンテンツデータを生成する。すなわち、編集サーバ16は、コンテンツの送信要求を受けた後に、画像データを編集して、コンテンツデータを生成する。コンテンツ送信部338は、編集されたコンテンツデータを情報処理装置10に送信する。このように編集サーバ16は、都度コンテンツデータを生成するようにすることで、編集処理にかかる負荷を低減できる。   Here, when the search request acquisition unit 330 receives a search request from the user, the search processing unit 332 refers to the metadata recorded in the content recording unit 340 and selects content that matches the metadata included in the search request. The search result transmission unit 334 transmits the search result to the information processing apparatus 10. When content is selected in the information processing apparatus 10 and the transmission request acquisition unit 336 receives the content transmission request, at this time, the editing server 16 is based on the event code in the metadata included in the search request. Edit the image data to generate content data. That is, after receiving the content transmission request, the editing server 16 edits the image data to generate content data. The content transmission unit 338 transmits the edited content data to the information processing apparatus 10. In this way, the editing server 16 can reduce the load on the editing process by generating the content data each time.

なお、この変形例において、送信処理部194は、画像データをコンテンツサーバ12にリアルタイムで送信するが、メタデータに関しては、リアルタイムで送信しなくてもよい。つまり送信処理部194は、画像データの送信中にメタデータ取得部154が取得したメタデータを、画像データの送信が終了した後に、コンテンツサーバ12に送信してもよい。また画像データについても、情報処理装置10からリアルタイムで送信されなくてもよく、情報処理装置10において記録した画像データ、メタデータが、まとめて編集サーバ16に送信されてもよい。   In this modification, the transmission processing unit 194 transmits the image data to the content server 12 in real time, but the metadata may not be transmitted in real time. That is, the transmission processing unit 194 may transmit the metadata acquired by the metadata acquisition unit 154 during the transmission of the image data to the content server 12 after the transmission of the image data is completed. The image data may not be transmitted from the information processing apparatus 10 in real time, and the image data and metadata recorded in the information processing apparatus 10 may be transmitted to the editing server 16 collectively.

1・・・情報処理システム、10・・・情報処理装置、12・・・コンテンツサーバ、14・・・配信サーバ、16・・・編集サーバ、18・・・検索サーバ、100・・・処理部、102・・・通信部、110・・・アプリケーション処理部、112・・・ゲーム実行部、114・・・イベントコード通知部、116・・・ステータスデータ通知部、120・・・ダウンロード処理部、130・・・画像生成部、132・・・ゲーム画像生成部、134・・・編集画像生成部、136・・・候補画像生成部、138・・・コンテンツ画像生成部、140・・・指示取得部、142・・・メタデータ取得部、144・・・要求生成部、146・・・要求送信部、150・・・コンテンツ生成部、152・・・指示取得部、154・・・メタデータ取得部、156・・・編集処理部、160・・・検索結果取得部、162・・・コンテンツ取得部、170・・・記録部、172・・・記録制御部、174・・・書込/読出部、176・・・リングバッファ、190・・・共有処理部、192・・・アップロード処理部、194・・・送信処理部、200・・・編集画面、300・・・コンテンツ生成部、302・・・通信部、310・・・画像データ取得部、312・・・メタデータ取得部、314・・・編集処理部、316・・・記録部、320・・・配信処理部、322・・・通信部、330・・・検索要求取得部、332・・・検索処理部、334・・・検索結果送信部、336・・・送信要求取得部、338・・・コンテンツ送信部、340・・・コンテンツ記録部。 DESCRIPTION OF SYMBOLS 1 ... Information processing system, 10 ... Information processing apparatus, 12 ... Content server, 14 ... Distribution server, 16 ... Editing server, 18 ... Search server, 100 ... Processing part , 102 ... Communication unit, 110 ... Application processing unit, 112 ... Game execution unit, 114 ... Event code notification unit, 116 ... Status data notification unit, 120 ... Download processing unit, DESCRIPTION OF SYMBOLS 130 ... Image generation part, 132 ... Game image generation part, 134 ... Edit image generation part, 136 ... Candidate image generation part, 138 ... Content image generation part, 140 ... Acquisition of instruction | indication , 142 ... metadata acquisition unit, 144 ... request generation unit, 146 ... request transmission unit, 150 ... content generation unit, 152 ... instruction acquisition unit, 154 ... metadata Data acquisition unit, 156 ... edit processing unit, 160 ... search result acquisition unit, 162 ... content acquisition unit, 170 ... recording unit, 172 ... recording control unit, 174 ... write / Reading unit, 176 ... Ring buffer, 190 ... Share processing unit, 192 ... Upload processing unit, 194 ... Transmission processing unit, 200 ... Edit screen, 300 ... Content generation unit, 302 ... Communication unit, 310 ... Image data acquisition unit, 312 ... Metadata acquisition unit, 314 ... Edit processing unit, 316 ... Recording unit, 320 ... Distribution processing unit, 322. ..Communication unit 330 ... Search request acquisition unit 332 ... Search processing unit 334 ... Search result transmission unit 336 ... Transmission request acquisition unit 338 ... Content transmission unit 340 ..Content recording part.

Claims (8)

実行中のアプリケーションの画像データを記録する記録部と、
実行中のアプリケーションから、アプリケーションの実行状態を示すメタデータを取得するメタデータ取得部と、
前記記録部に記録されたアプリケーション画像データのうち、開始点から終了点までのアプリケーション画像データを、コンテンツデータとして抽出するコンテンツ生成部と、を備え、
前記コンテンツ生成部は、メタデータが取得されたタイミングを示す時間情報を参照して、開始点から終了点までの期間に収集されたメタデータを、コンテンツデータに付加することを特徴とする情報処理装置。
A recording unit for recording image data of the application being executed;
A metadata acquisition unit that acquires metadata indicating an execution state of the application from the running application;
A content generation unit that extracts, as content data, application image data from a start point to an end point among application image data recorded in the recording unit,
The content generation unit refers to time information indicating a timing at which metadata is acquired, and adds metadata collected during a period from a start point to an end point to the content data. apparatus.
前記メタデータ取得部は、アプリケーションを使用しているユーザに関する情報を、メタデータとして取得し、
前記コンテンツ生成部は、コンテンツデータに、ユーザに関する情報を付加することを特徴とする請求項1に記載の情報処理装置。
The metadata acquisition unit acquires information about a user who uses the application as metadata,
The information processing apparatus according to claim 1, wherein the content generation unit adds information about the user to content data.
前記メタデータ取得部は、実行中のアプリケーションから、アプリケーションにおいて設定されているイベントの発生を示すイベントコードを取得し、
前記コンテンツ生成部は、イベントコードにもとづいて開始点および終了点を特定して、コンテンツデータを抽出することを特徴とする請求項1または2に記載の情報処理装置。
The metadata acquisition unit acquires an event code indicating the occurrence of an event set in the application from a running application,
The information processing apparatus according to claim 1, wherein the content generation unit identifies a start point and an end point based on an event code, and extracts content data.
サーバに、実行中のアプリケーションの画像データを送信する送信処理部と、
実行中のアプリケーションから、アプリケーションの実行状態を示すメタデータを取得するメタデータ取得部と、を備え、
前記送信処理部は、アプリケーション画像データをサーバに送信している間に前記メタデータ取得部が取得したメタデータを、サーバに送信することを特徴とする情報処理装置。
A transmission processing unit that transmits image data of the running application to the server;
A metadata acquisition unit that acquires metadata indicating an execution state of the application from a running application,
The transmission processing unit transmits the metadata acquired by the metadata acquisition unit to the server while transmitting the application image data to the server.
前記メタデータ取得部は、実行中のアプリケーションから、アプリケーションにおいて設定されているイベントの発生を示すイベントコードを取得し、
前記送信処理部は、イベントコードを、メタデータとして、サーバに送信することを特徴とする請求項4に記載の情報処理装置。
The metadata acquisition unit acquires an event code indicating the occurrence of an event set in the application from a running application,
The information processing apparatus according to claim 4, wherein the transmission processing unit transmits the event code as metadata to the server.
実行中のアプリケーションから、アプリケーションの実行状態を示すメタデータを取得するステップと、
実行中のアプリケーションの画像データを記録する記録部から、開始点から終了点までの画像データを、コンテンツデータとして抽出するステップと、
メタデータが取得されたタイミングを示す時間情報を参照して、開始点から終了点までの期間に収集されたメタデータを、コンテンツデータに付加するステップと、
を備えることを特徴とするコンテンツデータ生成方法。
Obtaining metadata indicating the execution state of the application from the running application;
Extracting image data from a start point to an end point as content data from a recording unit that records image data of an application being executed;
Adding metadata collected during the period from the start point to the end point with reference to time information indicating the timing at which the metadata was acquired;
A content data generation method comprising:
コンピュータに、
実行中のアプリケーションから、アプリケーションの実行状態を示すメタデータを取得する機能と、
実行中のアプリケーションの画像データを記録する記録部から、開始点から終了点までの画像データを、コンテンツデータとして抽出する機能と、
メタデータが取得されたタイミングを示す時間情報を参照して、開始点から終了点までの期間に収集されたメタデータを、コンテンツデータに付加する機能と、
を実現するためのプログラム。
On the computer,
A function for acquiring metadata indicating an execution state of an application from a running application,
A function for extracting image data from a start point to an end point as content data from a recording unit that records image data of an application being executed;
A function of adding metadata collected during the period from the start point to the end point to the content data with reference to time information indicating the timing at which the metadata was acquired,
Program to realize.
請求項7に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 7 is recorded.
JP2017153449A 2017-08-08 2017-08-08 Information processing apparatus and content data generation method Active JP6592046B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017153449A JP6592046B2 (en) 2017-08-08 2017-08-08 Information processing apparatus and content data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017153449A JP6592046B2 (en) 2017-08-08 2017-08-08 Information processing apparatus and content data generation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014076452A Division JP6224503B2 (en) 2014-04-02 2014-04-02 Information processing apparatus, information processing system, and content image generation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019169995A Division JP2020010394A (en) 2019-09-19 2019-09-19 Information processing device and search result acquisition method

Publications (2)

Publication Number Publication Date
JP2018014725A true JP2018014725A (en) 2018-01-25
JP6592046B2 JP6592046B2 (en) 2019-10-16

Family

ID=61020453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017153449A Active JP6592046B2 (en) 2017-08-08 2017-08-08 Information processing apparatus and content data generation method

Country Status (1)

Country Link
JP (1) JP6592046B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164617A (en) * 2018-03-20 2019-09-26 ヤフー株式会社 Information distribution system, information distribution method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011516103A (en) * 2008-02-15 2011-05-26 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for automatically generating video game highlights
WO2013111246A1 (en) * 2012-01-24 2013-08-01 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011516103A (en) * 2008-02-15 2011-05-26 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for automatically generating video game highlights
WO2013111246A1 (en) * 2012-01-24 2013-08-01 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164617A (en) * 2018-03-20 2019-09-26 ヤフー株式会社 Information distribution system, information distribution method, and program
JP7134662B2 (en) 2018-03-20 2022-09-12 ヤフー株式会社 Information delivery system and information delivery method

Also Published As

Publication number Publication date
JP6592046B2 (en) 2019-10-16

Similar Documents

Publication Publication Date Title
JP6224503B2 (en) Information processing apparatus, information processing system, and content image generation method
US20210245049A1 (en) Method, non-transitory computer-readable recording medium, information processing system, and information processing device
US9776085B2 (en) Information processing system, information processing device, server machine, recording medium and information processing method
RU2612618C2 (en) Information processing device and input device
JP2022088431A (en) Information processing system and information processing method
JP5562123B2 (en) Information processing device
US20140364205A1 (en) Information processing system, information processing device, recording medium and information display method
US9682312B2 (en) Information processing system, server machine, information processing device, recording medium and information processing method
JP6592046B2 (en) Information processing apparatus and content data generation method
JP2020061629A (en) Information processing device and method of reproducing content file
JP7162730B2 (en) Information processing equipment
JP5992085B2 (en) Construction method, program, information processing system, and information processing apparatus
JP6997247B2 (en) Construction method, program, information processing system and information processing equipment
JP6215995B2 (en) Input device
JP2020010394A (en) Information processing device and search result acquisition method
WO2020075593A1 (en) Information processing system, information processing device, and content file generation method
JP7374257B2 (en) Processing method and program
JP6392818B2 (en) Construction method, program, information processing system, and information processing apparatus
JP7328640B2 (en) CONSTRUCTION METHOD, PROGRAM, INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING APPARATUS
JP6687572B2 (en) Construction method, program, information processing system, and information processing apparatus
JP6779190B2 (en) Game controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190919

R150 Certificate of patent or registration of utility model

Ref document number: 6592046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150