JP5870742B2 - Information processing apparatus, system, and information processing method - Google Patents

Information processing apparatus, system, and information processing method Download PDF

Info

Publication number
JP5870742B2
JP5870742B2 JP2012033871A JP2012033871A JP5870742B2 JP 5870742 B2 JP5870742 B2 JP 5870742B2 JP 2012033871 A JP2012033871 A JP 2012033871A JP 2012033871 A JP2012033871 A JP 2012033871A JP 5870742 B2 JP5870742 B2 JP 5870742B2
Authority
JP
Japan
Prior art keywords
content
target
scenario
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012033871A
Other languages
Japanese (ja)
Other versions
JP2013171373A5 (en
JP2013171373A (en
Inventor
博之 安齊
博之 安齊
俊介 青木
俊介 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012033871A priority Critical patent/JP5870742B2/en
Priority to US13/714,592 priority patent/US20130215144A1/en
Priority to CN201310050767.0A priority patent/CN103258557B/en
Publication of JP2013171373A publication Critical patent/JP2013171373A/en
Publication of JP2013171373A5 publication Critical patent/JP2013171373A5/ja
Application granted granted Critical
Publication of JP5870742B2 publication Critical patent/JP5870742B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、情報処理装置、システムおよび情報処理方法に関する。   The present disclosure relates to an information processing device, a system, and an information processing method.

ユーザが撮影した写真や動画を、ネットワークなどを介して他のユーザとの間で共有することは、すでに広く行われている。例えば、特許文献1では、あるユーザ端末からネットワークを介してサーバにアルバムを作成し、そのアルバムを他のユーザ端末から閲覧する技術が開示されている。   Sharing photos and videos taken by users with other users via a network or the like is already widely performed. For example, Patent Document 1 discloses a technique for creating an album on a server from a user terminal via a network and browsing the album from another user terminal.

特開2004−102548号公報JP 2004-102548 A

ところで、上記のような写真や動画は、様々なIT(Information Technology)リテラシーをもったユーザによって生成される。また、コンテンツを生成するユーザの多くにとって、例えば商用コンテンツの製作者とは異なり、自らが生成したコンテンツの整理に多大な時間と手間とをかけることは困難である。それゆえ、写真や動画の中には、撮影されてPC(Personal Computer)などに保存された後、何の整理もされていないものも少なくない。   By the way, the above-described photographs and moving images are generated by users having various IT (Information Technology) literacy. Also, for many users who generate content, unlike commercial content producers, for example, it is difficult to spend a great deal of time and effort on organizing the content generated by the user. Therefore, there are many photographs and videos that have not been organized after being taken and stored on a PC (Personal Computer) or the like.

それゆえ、例えばユーザが自ら生成したコンテンツを視聴したり、コンテンツを他のユーザとの間で共有しようとする場合、所望のコンテンツが見つけにくかったり、コンテンツの中で関心の対象になる部分を探すのに時間がかかったり、といったように、コンテンツが整理されていないことによる不便が生じることも多かった。   So, for example, if you want to view content that you have created yourself, or share content with other users, you may find it difficult to find the content you want, or search for the part of your content that you are interested in In many cases, inconvenience was caused by the fact that the contents were not organized, such as taking time.

そこで、本開示では、コンテンツを提供するユーザの手間を軽減しつつ、共有によるコンテンツの活用を促進することが可能な、新規かつ改良された情報処理装置、システムおよび情報処理方法を提案する。   Therefore, the present disclosure proposes a new and improved information processing apparatus, system, and information processing method capable of promoting the use of content by sharing while reducing the effort of the user who provides the content.

本開示によれば、静止画または動画を含むコンテンツの共有相手である対象ユーザ、および上記対象ユーザに関連付けられた被写体である対象被写体の情報を取得する共有関連情報取得部と、上記コンテンツから、上記対象被写体が映っているコンテンツを対象コンテンツとして抽出するコンテンツ抽出部と、上記対象コンテンツを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成するシナリオ生成部とを含む情報処理装置が提供される。   According to the present disclosure, a shared user information acquisition unit that acquires information on a target user who is a content sharing partner including a still image or a moving image, and a target subject that is a subject associated with the target user, and the content, There is provided an information processing apparatus including a content extraction unit that extracts content in which the target subject is shown as target content, and a scenario generation unit that generates a scenario for configuring digest content by combining the target content.

また、本開示によれば、静止画または動画を含むコンテンツを提供する第1のユーザが、上記コンテンツの共有相手である対象ユーザ、および上記対象ユーザに関連付けられる被写体である対象被写体の情報を設定する操作を取得する操作部を含む第1のクライアント装置と、上記対象ユーザおよび上記対象被写体の情報を取得する共有関連情報取得部、上記コンテンツから、上記対象被写体が映っているコンテンツを対象コンテンツとして抽出するコンテンツ抽出部、および上記対象コンテンツを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成して出力するシナリオ生成部を含むサーバ装置と、上記出力されたシナリオを取得し、上記シナリオに従って上記コンテンツから上記ダイジェストコンテンツを生成して上記対象ユーザに提供するコンテンツ取得部を含む第2のクライアント装置とを含むシステムが提供される。   Further, according to the present disclosure, a first user who provides content including a still image or a moving image sets information about a target user who is a partner with whom the content is shared and a target subject that is a subject associated with the target user. A first client device that includes an operation unit that acquires an operation to perform, a shared related information acquisition unit that acquires information on the target user and the target subject, and content that shows the target subject from the content as target content A server device including a content extraction unit to extract and a scenario generation unit that generates and outputs a scenario for configuring digest content by combining the target content, and acquires the output scenario, and the content according to the scenario Generate the above digest content from System and a second client device including a content acquisition unit which provides the target user is provided.

また、本開示によれば、静止画または動画を含むコンテンツの共有相手である対象ユーザ、および上記対象ユーザに関連付けられた被写体である対象被写体の情報を取得することと、上記コンテンツから、上記対象被写体が映っているコンテンツを対象コンテンツとして抽出することと、上記対象コンテンツを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成することとを含む情報処理方法が提供される。   Further, according to the present disclosure, it is possible to acquire information on a target user who is a content sharing partner including a still image or a moving image and a target subject that is a subject associated with the target user, and from the content, the target There is provided an information processing method including extracting content showing a subject as target content and generating a scenario for combining the target content to form digest content.

上記の構成によれば、共有されるコンテンツから、自動的に、対象被写体が映っているコンテンツを抽出し、抽出されたコンテンツを組み合わせたダイジェストコンテンツを生成することが可能である。この自動化によって、コンテンツを提供するユーザの手間は軽減される。ダイジェストコンテンツは、コンテンツを視聴するユーザの所望するコンテンツにより近いコンテンツでありうるため、コンテンツの共有相手にとってはより快適なコンテンツの視聴体験が実現されうる。   According to the above configuration, it is possible to automatically extract the content in which the target subject is shown from the shared content, and generate a digest content combining the extracted content. This automation reduces the effort of the user who provides the content. Since the digest content can be content closer to the content desired by the user who views the content, a more comfortable content viewing experience can be realized for the content sharing partner.

以上説明したように本開示によれば、コンテンツを提供するユーザの手間を軽減しつつ、共有によるコンテンツの活用を促進することができる。   As described above, according to the present disclosure, it is possible to promote the utilization of content by sharing while reducing the effort of the user who provides the content.

本開示の一実施形態に係るシステムの機能構成を示す概略的なブロック図である。1 is a schematic block diagram illustrating a functional configuration of a system according to an embodiment of the present disclosure. 本開示の一実施形態に係るシステムの動作について説明するための図である。5 is a diagram for describing an operation of a system according to an embodiment of the present disclosure. FIG. 本開示の一実施形態における共有設定の例を示す図である。3 is a diagram illustrating an example of sharing settings according to an embodiment of the present disclosure. FIG. 本開示の一実施形態における共有設定の例を示す図である。3 is a diagram illustrating an example of sharing settings according to an embodiment of the present disclosure. FIG. 本開示の一実施形態における共有設定の例を示す図である。3 is a diagram illustrating an example of sharing settings according to an embodiment of the present disclosure. FIG. 本開示の一実施形態における共有設定の例を示す図である。3 is a diagram illustrating an example of sharing settings according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるイベント情報について説明するための図である。It is a figure for demonstrating the event information in one Embodiment of this indication. 本開示の一実施形態におけるシナリオ情報について説明するための図である。It is a figure for demonstrating the scenario information in one Embodiment of this indication. 本開示の一実施形態におけるシナリオ情報について説明するための図である。It is a figure for demonstrating the scenario information in one Embodiment of this indication. 本開示の一実施形態におけるシナリオ情報を用いたコンテンツの再生について説明するための図である。FIG. 4 is a diagram for describing content reproduction using scenario information according to an embodiment of the present disclosure. 本開示の一実施形態におけるサムネイル画像およびシナリオ情報の生成について説明するための図である。5 is a diagram for describing generation of thumbnail images and scenario information according to an embodiment of the present disclosure. FIG. 本開示の一実施形態における対象コンテンツの選択について説明するための図である。5 is a diagram for describing selection of target content according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるサムネイル画像およびサムネイルシナリオの生成について説明するための図である。4 is a diagram for describing generation of thumbnail images and thumbnail scenarios according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるサムネイル画像およびサムネイルシナリオの生成について説明するための図である。4 is a diagram for describing generation of thumbnail images and thumbnail scenarios according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるサムネイル画像およびサムネイルシナリオの生成について説明するための図である。4 is a diagram for describing generation of thumbnail images and thumbnail scenarios according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるサムネイル画像およびサムネイルシナリオの生成について説明するための図である。4 is a diagram for describing generation of thumbnail images and thumbnail scenarios according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるハイライトシナリオの生成について説明するための図である。5 is a diagram for describing generation of a highlight scenario according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるハイライトシナリオの生成について説明するための図である。5 is a diagram for describing generation of a highlight scenario according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるハイライトシナリオの生成について説明するための図である。5 is a diagram for describing generation of a highlight scenario according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるコンテンツ視聴時の表示の全体について説明するための図である。5 is a diagram for describing an entire display when viewing content according to an embodiment of the present disclosure. FIG. 本開示の一実施形態におけるノーマルモード再生画面の例を示す図である。It is a figure which shows the example of the normal mode reproduction | regeneration screen in one Embodiment of this indication. 本開示の一実施形態におけるハイライトモード再生画面の例を示す図である。It is a figure which shows the example of the highlight mode reproduction | regeneration screen in one Embodiment of this indication. 本開示の一実施形態におけるハイライトモード再生画面の例を示す図である。It is a figure which shows the example of the highlight mode reproduction | regeneration screen in one Embodiment of this indication. 本開示の一実施形態におけるハイライトモード再生画面の例を示す図である。It is a figure which shows the example of the highlight mode reproduction | regeneration screen in one Embodiment of this indication. 本開示の一実施形態におけるハイライトモード再生画面の例を示す図である。It is a figure which shows the example of the highlight mode reproduction | regeneration screen in one Embodiment of this indication. 本開示の他の実施形態に係るシステムの動作について説明するための図である。FIG. 10 is a diagram for describing an operation of a system according to another embodiment of the present disclosure. 情報処理装置のハードウェア構成について説明するためのブロック図である。It is a block diagram for demonstrating the hardware constitutions of information processing apparatus.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

なお、説明は以下の順序で行うものとする。
1.序論
2.全体構成
3.共有設定
4.共有サーバでの処理
4−1.概要
4−2.詳細
5.コンテンツ視聴時の表示
6.補足
The description will be made in the following order.
1. Introduction 2. Overall configuration Share settings4 . Processing in shared server 4-1. Outline 4-2. Details 5. 5. Display when viewing content Supplement

(1.序論)
以下で本開示の一実施形態について説明するにあたり、関連する事項についてまず説明する。
(1. Introduction)
In describing an embodiment of the present disclosure below, related items will be described first.

本開示の一実施形態は、ユーザが撮影した画像(静止画)または動画を含むコンテンツをサーバにアップロードし、このコンテンツをユーザ自身が視聴したり、他のユーザとの間で共有したりするためのシステムに関する。   According to an embodiment of the present disclosure, a content including an image (still image) or a moving image captured by a user is uploaded to a server, and the user himself / herself views or shares the content with other users. Related to the system.

ここで生成されるコンテンツは、例えば運動会や旅行などのイベントの際にデジタルカメラなどで撮影された画像または動画である。このようなコンテンツは、例えば撮影日時に基づくファイル名がつけられた画像または動画のファイルとして保存される。例えば、ITリテラシーがあまり高くない、またはものぐさなユーザの場合、コンテンツはこのままの形で保存され、また共有される。そうではないユーザの場合でも、多くの場合、ファイル名をイベントの名称を含むように変更したり、ファイル単位でイベントの名称のタグをつけたりする程度である。   The content generated here is, for example, an image or a moving image shot with a digital camera or the like at an event such as an athletic meet or a trip. Such content is stored, for example, as an image or movie file with a file name based on the shooting date and time. For example, in the case of a user who is not very high in IT literacy, or contentious, the content is stored and shared as it is. Even in the case of a user who is not so, in many cases, the file name is changed to include the event name, or the event name tag is attached to each file.

上記のようなコンテンツを他のユーザとの間で共有する場合、他のユーザにとって、共有されたコンテンツの視聴は必ずしも容易ではない。例えば、撮影日時に基づくファイル名のままでコンテンツが共有された場合、他のユーザには、そのファイルが何のイベントの際に撮影されたコンテンツであるかがわからない(時間が経ってから、コンテンツを撮影したユーザ自身が視聴する場合も同様である)。また、何のイベントの際に撮影されたコンテンツであるかがファイル名などからわかったとしても、その詳細な内容はわからない。   When sharing such content with other users, viewing of the shared content is not always easy for other users. For example, when content is shared with the file name based on the shooting date and time, other users do not know what event the file was shot at (when the time passed, the content The same applies to the case where the user himself / herself who has taken the image views). Further, even if it is known from the file name or the like what kind of event was taken at the time of the event, the detailed contents are not known.

例えば、両親が子の運動会で撮影したコンテンツがあるとする。コンテンツの中には、子を映した部分もあれば、子の友達を映した部分もあれば、単に競技の結果を映した部分もある。このコンテンツを祖父母と共有する場合、祖父母としては、孫(子)が映っているコンテンツだけを視聴したい。しかし、孫が映っているコンテンツと、そうではないコンテンツとを、例えばファイル名から見分けることは困難である。また、例えばファイルへのタグ付けなどによって孫が映っているコンテンツがわかったとしても、例えば動画コンテンツの場合、孫の映っていないシーンを早送りしつつ視聴するという、あまり快適ではない作業が必要になる。   For example, suppose that there is content taken by parents at a child's sports day. Some content shows the child, some shows the child's friends, and some simply shows the results of the competition. When sharing this content with grandparents, the grandparents want to watch only the content showing the grandchild (child). However, it is difficult to distinguish, for example, a file name from content that shows a grandchild and content that does not. Also, for example, even if the content showing the grandchild is shown by tagging the file, for example, in the case of video content, it is necessary to perform an uncomfortable work of watching the scene where the grandchild is not reflected while fast-forwarding. Become.

このような場合に、コンテンツを提供する両親が、祖父母との共有用にコンテンツを選別することも考えられるが、そのためには再度コンテンツを見直して内容を把握しなければならず、多大な時間と手間とが必要になる。また、例えばコンテンツが動画である場合には、孫が映っている部分とそうではない部分とが1つのファイルの中に混在している場合もあり、動画を編集してまで共有用のコンテンツを用意することは、多くのユーザにとっては現実的ではない。さらに、コンテンツの中で興味の対象になる部分は、コンテンツを視聴するユーザによって異なる(例えば、祖父母であれば孫(子)、子の友達であれば子と友達、子自身であれば友達と競技の結果、といったように)。   In such a case, the parents who provide the content may select the content for sharing with the grandparents. However, for that purpose, the content must be reviewed and understood again, which takes a lot of time. It takes time and effort. For example, if the content is a video, the portion where the grandchild is reflected and the portion where the grandchild is not reflected may be mixed in one file. Preparing is not practical for many users. In addition, the part of the content that is of interest varies depending on the user viewing the content (for example, grandchildren (children) if they are grandparents, children and friends if they are children's friends, and friends if they are children themselves) The results of the competition, etc.).

そこで、本開示の一実施形態では、このような状況に鑑み、ユーザが生成したコンテンツから、自動的に共有に適したコンテンツを抽出することによって、コンテンツを提供するユーザの手間を軽減しつつ、コンテンツを視聴するユーザのより快適な視聴体験を実現する。   Therefore, in an embodiment of the present disclosure, in view of such a situation, by automatically extracting content suitable for sharing from content generated by the user, while reducing the effort of the user who provides the content, Realize a more comfortable viewing experience for users viewing content.

(2.全体構成)
以下、図1および図2を参照して、本開示の一実施形態の全体構成について説明する。図1は、本開示の一実施形態に係るシステムの機能構成を示す概略的なブロック図である。図2は、本開示の一実施形態に係るシステムの動作について説明するための図である。
(2. Overall configuration)
Hereinafter, an overall configuration of an embodiment of the present disclosure will be described with reference to FIGS. 1 and 2. FIG. 1 is a schematic block diagram illustrating a functional configuration of a system according to an embodiment of the present disclosure. FIG. 2 is a diagram for describing an operation of a system according to an embodiment of the present disclosure.

(2−1.システムの機能構成)
図1を参照すると、本開示の一実施形態に係るシステム10は、共有サーバ100、コンテンツ提供クライアント200、コンテンツ視聴クライアント300、およびコンテンツサーバ400を含む。
(2-1. Functional configuration of the system)
Referring to FIG. 1, a system 10 according to an embodiment of the present disclosure includes a shared server 100, a content providing client 200, a content viewing client 300, and a content server 400.

(共有サーバ)
共有サーバ100は、ネットワーク上に設置されるサーバであり、例えば後述するような情報処理装置によって実現される。共有サーバ100は、機能構成として、コンテンツ情報取得部110、コンテンツ分類部120、共有関連情報取得部130、コンテンツ抽出部140、イベント情報生成部150、フレーム/シーン抽出部160、サムネイル画像抽出部170、およびシナリオ情報生成部180を含む。それぞれの機能構成は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)が、ストレージ装置またはリムーバブル記録媒体に格納されたプログラムに従って動作することによって実現される。
(Shared server)
The shared server 100 is a server installed on the network, and is realized by, for example, an information processing apparatus as described later. The shared server 100 includes a content information acquisition unit 110, a content classification unit 120, a sharing related information acquisition unit 130, a content extraction unit 140, an event information generation unit 150, a frame / scene extraction unit 160, and a thumbnail image extraction unit 170 as functional configurations. , And a scenario information generation unit 180. Each functional configuration is realized by, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) operating according to a program stored in a storage device or a removable recording medium. .

なお、共有サーバ100は、必ずしも単一の装置によって実現されなくてもよい。例えば、複数の装置が有するリソースがネットワークを介して協働することによって共有サーバ100の機能が実現されてもよい。   Note that the shared server 100 is not necessarily realized by a single device. For example, the function of the shared server 100 may be realized by cooperation of resources possessed by a plurality of devices via a network.

コンテンツ情報取得部110は、コンテンツサーバ400のコンテンツ解析部420から、コンテンツに関する情報を取得する。コンテンツ解析部420は、コンテンツを提供するユーザによってアップロードされたコンテンツを解析し、例えばコンテンツが撮影されたイベントに関する情報や、コンテンツである画像または動画に映っている人物に関する情報などを、例えばコンテンツのメタ情報として取得する。   The content information acquisition unit 110 acquires information related to content from the content analysis unit 420 of the content server 400. The content analysis unit 420 analyzes the content uploaded by the user who provides the content, for example, information about the event where the content was photographed, information about the person appearing in the image or video that is the content, etc. Obtained as meta information.

コンテンツ分類部120は、コンテンツ情報取得部110が取得した情報に基づいて、コンテンツを分類する。この実施形態において、コンテンツの分類は、コンテンツを、撮影対象のイベントごとに分類することである。コンテンツのイベントごとの分類は、後述するように、例えばコンテンツサーバ400のコンテンツ解析部420がコンテンツを撮影日時の分布に基づいてクラスタリングした結果を利用して実行される。   The content classification unit 120 classifies content based on the information acquired by the content information acquisition unit 110. In this embodiment, content classification is classification of content for each event to be imaged. As will be described later, for example, the content analysis unit 420 of the content server 400 classifies the content for each event using the result of clustering the content based on the distribution of the shooting date and time.

共有関連情報取得部130は、コンテンツ提供クライアント200から、コンテンツの共有相手である対象ユーザと、対象ユーザごとに関連付けられた被写体である対象被写体の情報とを取得する。対象被写体は、コンテンツの被写体のうち、対象ユーザがコンテンツを視聴するときの関心の対象になると推定されるものである。上述の例でいえば、対象ユーザは祖父母であり、対象被写体は孫(子)である。なお、対象ユーザおよび対象被写体については、後に詳述する。   The sharing related information acquisition unit 130 acquires, from the content providing client 200, the target user who is the content sharing partner and the information on the target subject which is a subject associated with each target user. The target subject is estimated to be an object of interest when the target user views the content among the content subjects. In the above example, the target user is grandparents, and the target subject is a grandchild (child). The target user and the target subject will be described in detail later.

さらに、共有関連情報取得部130は、対象ユーザごとに、公開を許可するイベントの情報を取得してもよい。これによって、対象ユーザごとに共有を許可するコンテンツを細かく設定しなくても、イベント単位で当該対象ユーザとコンテンツを共有するかどうかを設定することが可能である。このような設定は、例えば、同じく子が映っているコンテンツであっても、祖父母との旅行の際に撮影されたコンテンツについては祖父母との間でだけ共有し、運動会の際に撮影されたコンテンツについては祖父母だけでなく子の友達との間でも共有する、といったような共有設定をする場合に利用されうる。   Furthermore, the sharing related information acquisition unit 130 may acquire information on events that are permitted to be disclosed for each target user. Thus, it is possible to set whether to share content with the target user in units of events without finely setting the content permitted to be shared for each target user. For example, even if the content shows a child, the content shot during the trip with the grandparents is shared only with the grandparents, and the content was shot during the athletic meet. Can be used for sharing settings such as sharing not only with grandparents but also with children's friends.

コンテンツ抽出部140は、共有関連情報取得部130が取得した情報に基づいて、ユーザによって提供されるコンテンツ(コンテンツ情報取得部110によって情報が取得されたコンテンツ)から、対象被写体が映っているコンテンツを抽出する。ここで抽出されるコンテンツを、以下では対象コンテンツともいう。例えば、コンテンツ抽出部140は、対象ユーザが指定された場合に、その対象ユーザに関連付けられた対象被写体が映っているコンテンツを対象コンテンツとして抽出する。従って、例えば対象ユーザが複数存在するような場合、コンテンツ抽出部140によって抽出される対象コンテンツは、指定される対象ユーザによって異なりうる。   Based on the information acquired by the sharing related information acquisition unit 130, the content extraction unit 140 selects content that shows the target subject from content provided by the user (contents acquired by the content information acquisition unit 110). Extract. The content extracted here is also referred to as target content below. For example, when a target user is designated, the content extraction unit 140 extracts content showing a target subject associated with the target user as target content. Therefore, for example, when there are a plurality of target users, the target content extracted by the content extraction unit 140 may differ depending on the specified target user.

さらに、コンテンツ抽出部140は、コンテンツ分類部120によるコンテンツの分類に基づいて、対象コンテンツをイベントごとに抽出することが可能である。これによって、例えば、後述するシナリオの生成において、イベントごとにシナリオを生成することが可能になる。また、イベント情報生成部150において、イベント単位でコンテンツを提示する情報を生成することが可能になる。共有関連情報取得部130が、対象ユーザごとに公開を許可するイベントを指定する情報を取得している場合、コンテンツ抽出部140は、例えば指定された対象ユーザに対応するイベントについて対象コンテンツを抽出してもよい。   Furthermore, the content extraction unit 140 can extract the target content for each event based on the content classification by the content classification unit 120. Thereby, for example, in the scenario generation described later, it is possible to generate a scenario for each event. In addition, the event information generation unit 150 can generate information for presenting content in units of events. In a case where the sharing related information acquisition unit 130 acquires information specifying an event that is permitted to be released for each target user, the content extraction unit 140 extracts target content for an event corresponding to the specified target user, for example. May be.

イベント情報生成部150は、コンテンツ抽出部140が対象コンテンツをイベントごとに抽出した結果に基づいて、イベント情報を生成し、これをコンテンツ視聴クライアント300に出力する。イベント情報は、例えば、コンテンツを視聴する対象ユーザに対して、その対象ユーザに関連付けられた対象被写体が映っているコンテンツを含むイベント(つまり、後述するシナリオ情報生成部180によってシナリオが生成されうるイベント)を提示するものである。上述のように、対象コンテンツが抽出されるイベントは、共有関連情報取得部130が取得する情報によって限定されてもよい。   The event information generation unit 150 generates event information based on the result of the content extraction unit 140 extracting the target content for each event, and outputs the event information to the content viewing client 300. The event information is, for example, an event including content that shows a target subject associated with the target user for a target user who views the content (that is, an event for which a scenario can be generated by the scenario information generation unit 180 described later) ). As described above, the event from which the target content is extracted may be limited by the information acquired by the sharing related information acquisition unit 130.

フレーム/シーン抽出部160は、対象コンテンツに含まれる動画から、所定の条件を満たすフレームまたはシーンを抽出する。ここで、フレームは、動画を構成する連続した画像の1枚1枚を意味する。また、シーンは、対象コンテンツの一部または全部を構成する一連のフレームを意味する。例えば、フレーム/シーン抽出部160は、対象コンテンツに含まれる動画から、対象被写体が映っている部分を対象シーンとして抽出する。さらに、フレーム/シーン抽出部160は、各動画について、対象シーンの中から代表シーンを選択してもよい。   The frame / scene extraction unit 160 extracts a frame or a scene that satisfies a predetermined condition from the moving image included in the target content. Here, the frame means one of the continuous images constituting the moving image. A scene means a series of frames constituting part or all of the target content. For example, the frame / scene extraction unit 160 extracts, as a target scene, a portion where the target subject is shown from a moving image included in the target content. Further, the frame / scene extraction unit 160 may select a representative scene from the target scenes for each moving image.

また、フレーム/シーン抽出部160は、対象コンテンツに含まれる動画から、対象被写体が映っているフレームを対象フレームとして抽出し、対象フレームの中から各動画の代表フレームを選択してもよい。なお、対象コンテンツに含まれる画像(静止画)は、フレーム/シーン抽出部160での処理を経ずに、そのままシナリオ情報生成部180やサムネイル画像抽出部170に提供されうる。かかるフレームシーン抽出部160の処理の詳細については後述する。 Further, the frame / scene extraction unit 160 may extract a frame in which the target subject is shown as a target frame from the moving image included in the target content, and select a representative frame of each moving image from the target frame. Note that an image (still image) included in the target content can be provided to the scenario information generation unit 180 and the thumbnail image extraction unit 170 without being processed by the frame / scene extraction unit 160. Details of the processing of the frame / scene extraction unit 160 will be described later.

サムネイル画像抽出部170は、コンテンツ抽出部140によってイベントごとに抽出された対象コンテンツについて、フレーム/シーン抽出部160によるフレームの抽出結果も利用して、そのイベントのコンテンツを短くまとめたサムネイル画像を抽出する。サムネイル画像は、例えば、1枚の画像またはフレーム(以下、イベント代表画像ともいう)であってもよいし、複数枚の画像またはフレームを組み合わせたアニメーション(以下、パラパラサムネイルともいう)であってもよい。なお、サムネイルとしては、他に、画像と動画の代表シーンとからなる動画(以下、サムネイル動画ともいう)も生成されうるが、これは後述するようにシナリオ情報生成部180の機能によって生成される。   The thumbnail image extraction unit 170 extracts a thumbnail image that summarizes the contents of the event in a short manner using the frame extraction result by the frame / scene extraction unit 160 for the target content extracted for each event by the content extraction unit 140. To do. The thumbnail image may be, for example, a single image or frame (hereinafter also referred to as an event representative image), or an animation in which a plurality of images or frames are combined (hereinafter also referred to as a flip thumbnail). Good. In addition, as the thumbnail, a moving image (hereinafter also referred to as a thumbnail moving image) including an image and a representative scene of the moving image can be generated. This is generated by the function of the scenario information generating unit 180 as described later. .

ここで、サムネイル画像抽出部170がイベント代表画像を抽出する場合、サムネイル画像抽出部170は、フレーム/シーン抽出部160によって抽出された代表フレームと、対象コンテンツに含まれる画像(静止画)との中からイベント代表画像を選択する代表画像選択部ともいえる。なお、例えばコンテンツに動画だけが含まれる場合、イベント代表画像は代表フレームの中から選択される。   Here, when the thumbnail image extraction unit 170 extracts the event representative image, the thumbnail image extraction unit 170 includes the representative frame extracted by the frame / scene extraction unit 160 and the image (still image) included in the target content. It can also be said to be a representative image selection unit that selects an event representative image from the inside. For example, when the content includes only a moving image, the event representative image is selected from the representative frames.

一方、サムネイル画像抽出部170がパラパラサムネイルを生成する場合、サムネイル画像抽出部170は、フレーム/シーン抽出部160によって抽出された代表フレームと、対象コンテンツに含まれる画像(静止画)とを組み合わせてダイジェストアニメーション(パラパラサムネイル)を生成するアニメーション生成部ともいえる。なお、例えばコンテンツに動画だけが含まれる場合、パラパラサムネイルは代表フレームを組み合わせて生成される。   On the other hand, when the thumbnail image extraction unit 170 generates a flip thumbnail, the thumbnail image extraction unit 170 combines the representative frame extracted by the frame / scene extraction unit 160 and an image (still image) included in the target content. It can also be said to be an animation generation unit that generates a digest animation (a flip thumbnail). For example, when the content includes only a moving image, the flip thumbnail is generated by combining representative frames.

サムネイル画像抽出部170によって抽出されたサムネイル画像は、例えば画像データの形でベント情報生成部150に提供され、イベント情報とともにコンテンツ視聴クライアント300に出力される。コンテンツ視聴クライアント300では、コンテンツを視聴する対象ユーザに対して、イベント情報とともにサムネイルコンテンツが提示され、例えば各イベントに分類されたコンテンツの内容を把握することを容易にする。 Thumbnail image extracted by the thumbnail image extraction unit 170, for example, be provided in the form of image data in the event information generator 150, is output together with the event information to the content viewing client 300. In the content viewing client 300, thumbnail content is presented together with event information to target users who view the content, and for example, it is easy to grasp the content of the content classified into each event.

シナリオ情報生成部180は、コンテンツ抽出部140によって抽出された対象コンテンツについて、コンテンツを組み合わせてダイジェストコンテンツを再生するためのシナリオを生成して、シナリオ情報としてコンテンツ視聴クライアント300に出力する。シナリオ情報は、後述するように、コンテンツ視聴クライアント300のコンテンツ取得部310が、コンテンツサーバ400にアクセスしてコンテンツを取得し、ダイジェストコンテンツとして再生するために用いられる。シナリオ情報生成部180は、シナリオ情報の生成にあたり、フレーム/シーン抽出部160によるフレームまたはシーンの抽出結果を利用してもよい。   The scenario information generation unit 180 generates a scenario for reproducing the digest content by combining the content with respect to the target content extracted by the content extraction unit 140, and outputs the scenario to the content viewing client 300 as scenario information. As will be described later, the scenario information is used by the content acquisition unit 310 of the content viewing client 300 to access the content server 400 to acquire content and reproduce it as digest content. The scenario information generation unit 180 may use the frame or scene extraction result by the frame / scene extraction unit 160 in generating the scenario information.

また、シナリオ情報生成部180は、共有関連情報取得部130によって情報が取得される前後に関わらず、共有対象に設定されたコンテンツについてシナリオを生成しうる。つまり、シナリオ情報生成部180は、共有の設定がされた場合、それ以前に共有対象に設定されたコンテンツについてもシナリオを生成し、また、それ以後に共有対象に追加されたコンテンツについてもシナリオを生成する。   Further, the scenario information generation unit 180 can generate a scenario for the content set as the sharing target regardless of before and after the information is acquired by the sharing related information acquisition unit 130. That is, when sharing is set, the scenario information generation unit 180 generates a scenario for content that has been set as a sharing target before, and also generates a scenario for content that has been added to the sharing target after that. Generate.

ここで、ダイジェストコンテンツは、例えば、ハイライト動画とサムネイル動画とを含む。ハイライト動画は、フレーム/シーン抽出部160が対象コンテンツに含まれる動画から抽出した対象シーンと、対象コンテンツに含まれる画像(静止画)とを組み合わせて再生する動画である。なお、例えば対象コンテンツに動画だけが含まれる場合、ハイライト動画は、それぞれの動画の対象フレーム部分を連続して再生する動画である。かかるハイライト動画を再生するためのシナリオを、以下ではハイライトシナリオともいう。コンテンツ視聴クライアント300でハイライトシナリオを用いて再生されるハイライト動画は、例えば対象ユーザの視聴に供される。   Here, the digest content includes, for example, a highlight video and a thumbnail video. The highlight moving image is a moving image that is reproduced by combining the target scene extracted from the moving image included in the target content by the frame / scene extraction unit 160 and the image (still image) included in the target content. For example, when the target content includes only a moving image, the highlight moving image is a moving image that continuously reproduces the target frame portion of each moving image. Hereinafter, a scenario for reproducing the highlight moving image is also referred to as a highlight scenario. The highlight video that is played back by the content viewing client 300 using the highlight scenario is used for viewing by the target user, for example.

一方、サムネイル動画は、フレーム/シーン抽出部160が対象コンテンツに含まれる動画から抽出した対象シーンから選択された代表シーンと、対象コンテンツに含まれる画像(静止画)とを組み合わせた動画である。なお、例えば対象コンテンツに動画だけが含まれる場合、ハイライト動画は、それぞれの動画の代表フレーム部分を連続して再生する動画である。かかるサムネイル動画を構成するためのシナリオを、以下ではサムネイルシナリオともいう。コンテンツ視聴クライアント300でサムネイルシナリオを用いて再生されるサムネイル動画は、例えば対象ユーザがイベント情報を見ながら視聴するコンテンツを選択するときに、イベント情報とともに表示される。   On the other hand, the thumbnail moving image is a moving image in which the representative scene selected from the target scene extracted from the moving image included in the target content by the frame / scene extraction unit 160 and the image (still image) included in the target content are combined. For example, when the target content includes only a moving image, the highlight moving image is a moving image that continuously reproduces the representative frame portion of each moving image. Hereinafter, a scenario for configuring such a thumbnail video is also referred to as a thumbnail scenario. For example, when the target user selects content to be viewed while viewing the event information, the thumbnail video that is reproduced using the thumbnail scenario by the content viewing client 300 is displayed together with the event information.

なお、上述のように、この実施形態では、コンテンツ分類部120がイベントごとにコンテンツを分類し、コンテンツ抽出部140がイベントごとに対象コンテンツを抽出する。従って、シナリオ情報生成部180も、イベントごとにシナリオを生成する。   As described above, in this embodiment, the content classification unit 120 classifies content for each event, and the content extraction unit 140 extracts target content for each event. Accordingly, the scenario information generation unit 180 also generates a scenario for each event.

(コンテンツ提供クライアント)
コンテンツ提供クライアント200は、ネットワークを介して共有サーバ100に接続されるクライアントであり、例えば後述するような情報処理装置によって実現される。コンテンツ提供クライアント200は、機能構成として、操作部210、表示制御部220、および表示部230を含む。より具体的には、コンテンツ提供クライアント200は、例えばユーザが保有するデスクトップ型、ノート型、タブレット型などのPC、ネットワーク通信機能を有するテレビジョン受像機やレコーダ、スマートフォンやモバイルメディアプレーヤなどでありうるが、これらには限られず、上記の機能構成を有することが可能な各種の装置でありうる。
(Content offer client)
The content providing client 200 is a client connected to the shared server 100 via a network, and is realized by an information processing apparatus as described later, for example. The content providing client 200 includes an operation unit 210, a display control unit 220, and a display unit 230 as functional configurations. More specifically, the content providing client 200 can be, for example, a desktop, notebook, or tablet PC that the user has, a television receiver or recorder having a network communication function, a smartphone, a mobile media player, or the like. However, the present invention is not limited thereto, and may be various devices that can have the above-described functional configuration.

操作部210は、コンテンツ提供クライアント200に設けられる、または外部接続機器として接続される各種の入力装置によって実現され、コンテンツ提供クライアント200に対するユーザの操作を取得する。操作部210は、例えばタッチパッドやマウスなどのポインティングデバイスを含み、後述する表示制御部220および表示部230と協働してユーザにGUI(Graphical User Interface)による操作を提供してもよい。   The operation unit 210 is realized by various input devices provided in the content providing client 200 or connected as an external connection device, and acquires a user operation on the content providing client 200. The operation unit 210 includes a pointing device such as a touch pad or a mouse, for example, and may provide a user with a GUI (Graphical User Interface) in cooperation with the display control unit 220 and the display unit 230 described later.

ここで、操作部210が取得するユーザの操作は、コンテンツを共有する対象である対象ユーザと、対象ユーザごとに関連付けられる対象被写体とを設定する操作を含む。なお、コンテンツ提供クライアント200を操作するユーザは、コンテンツを提供するユーザであり、多くの場合、コンテンツを撮影したユーザである。上述の例でいうならば、操作部210は、両親が対象ユーザとして祖父母を指定し、さらに、対象ユーザである祖父母に対象被写体として孫(子)を関連付ける操作を取得する。かかる操作の例は、GUIコンポーネントの例とともに後述する。   Here, the user operation acquired by the operation unit 210 includes an operation of setting a target user who is a target to share content and a target subject associated with each target user. Note that the user who operates the content providing client 200 is a user who provides content, and in many cases, is a user who has taken the content. If it says in the above-mentioned example, the operation part 210 will acquire operation | movement which associates grandchild (child) as an object subject with the parents designating grandparents as an object user, and also grandparents who are object users. An example of such an operation will be described later together with an example of a GUI component.

表示制御部220は、例えば、CPU、RAM、およびROMがストレージ装置またはリムーバブル記録媒体に格納されたプログラムに従って動作することによって実現され、表示部230の表示を制御する。上述のように、表示制御部220は、表示部230に、操作部210を介して操作されるGUIコンポーネントを表示させてもよい。なお、かかるGUIコンポーネントの例については後述する。   The display control unit 220 is realized by, for example, a CPU, a RAM, and a ROM operating according to a program stored in a storage device or a removable recording medium, and controls display on the display unit 230. As described above, the display control unit 220 may cause the display unit 230 to display the GUI component operated via the operation unit 210. An example of such a GUI component will be described later.

表示部230は、例えば、コンテンツ提供クライアント200が出力装置として有する、あるいはコンテンツ提供クライアント200に外部接続機器として接続される、LCD(Liquid Crystal Display)や有機EL(Electro-luminescence)ディスプレイなどの表示装置によって実現される。表示部230は、表示制御部220の制御に従って、各種の画像を表示する。   The display unit 230 is, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-luminescence) display that the content providing client 200 has as an output device or is connected to the content providing client 200 as an external connection device. It is realized by. The display unit 230 displays various images under the control of the display control unit 220.

(コンテンツ視聴クライアント)
コンテンツ視聴クライアント300は、ネットワークを介して共有サーバ100およびコンテンツサーバ400に接続されるクライアントであり、例えば後述するような情報処理装置によって実現される。コンテンツ視聴クライアント300は、機能構成として、コンテンツ取得部310、表示制御部320、表示部330、および操作部340を含む。より具体的には、コンテンツ視聴クライアント300は、例えばユーザが保有するデスクトップ型、ノート型、タブレット型などのPC、ネットワーク通信機能を有するテレビジョン受像機やレコーダ、スマートフォンやモバイルメディアプレーヤなどでありうるが、これらには限られず、上記の機能構成を有することが可能な各種の装置でありうる。
(Content viewing client)
The content viewing client 300 is a client connected to the shared server 100 and the content server 400 via a network, and is realized by an information processing apparatus as described later, for example. The content viewing client 300 includes a content acquisition unit 310, a display control unit 320, a display unit 330, and an operation unit 340 as functional configurations. More specifically, the content viewing client 300 can be, for example, a desktop, notebook, or tablet PC that the user holds, a television receiver or recorder having a network communication function, a smartphone, a mobile media player, or the like. However, the present invention is not limited thereto, and may be various devices that can have the above-described functional configuration.

コンテンツ取得部310は、例えば、CPU、RAM、およびROMがストレージ装置またはリムーバブル記録媒体に格納されたプログラムに従って動作することによって実現される。コンテンツ取得部310は、共有サーバ100のシナリオ情報生成部180から出力されたシナリオ情報を取得し、このシナリオ情報に基づいて、例えばユーザが所望するハイライト動画やサムネイル動画などを再生するのに必要なコンテンツをコンテンツサーバ400から取得する。さらに、コンテンツ取得部310は、シナリオ情報に基づき、取得したコンテンツを用いてハイライト動画やサムネイル動画を再生する。例えば、コンテンツ取得部310は、取得したコンテンツをシナリオ情報で定義された順序で再生し、動画については対象シーンまたは代表シーンだけをシークして再生することによって、ハイライト動画やサムネイル動画を再生してもよい。また、コンテンツ取得部310は、取得したコンテンツをシナリオ情報で定義された順序で配列し、動画については対象シーンまたは代表シーンだけを切り出す編集処理によってハイライト動画やサムネイル動画を生成し、これを再生してもよい。コンテンツ取得部310は、再生した動画のデータを表示制御部320に提供する。 The content acquisition unit 310 is realized by, for example, a CPU, a RAM, and a ROM operating according to a program stored in a storage device or a removable recording medium. The content acquisition unit 310 acquires the scenario information output from the scenario information generation unit 180 of the shared server 100, and is necessary for reproducing, for example, a highlight video or a thumbnail video desired by the user based on the scenario information. Content is acquired from the content server 400. Furthermore, the content acquisition unit 310 reproduces a highlight video or a thumbnail video using the acquired content based on the scenario information. For example, the content acquisition unit 310 reproduces the acquired content in the order defined by the scenario information, and reproduces the highlight video or the thumbnail video by seeking and reproducing only the target scene or the representative scene. May be. In addition, the content acquisition unit 310 arranges the acquired content in the order defined by the scenario information, and for the video, generates a highlight video or a thumbnail video by editing processing that extracts only the target scene or the representative scene, and plays it back May be. The content acquisition unit 310 provides the reproduced moving image data to the display control unit 320.

表示制御部320は、例えば、CPU、RAM、およびROMがストレージ装置またはリムーバブル記録媒体に格納されたプログラムに従って動作することによって実現され、表示部330の表示を制御する。表示制御部320は、コンテンツ取得部310から提供されたハイライト動画を、表示部330に表示させる。また、表示制御部320は、共有サーバ100のイベント情報生成部150から出力されたイベント情報を取得し、このイベント情報に基づいて、例えばコンテンツが存在するイベント一覧を表示部330に表示させる。このとき、イベント情報とともに出力されたイベント代表画像やパラパラサムネイルが、イベント一覧とともに表示される。また、イベントについてサムネイル動画が生成されている場合、表示制御部320は、コンテンツ取得部310が取得したサムネイル動画を、イベント一覧とともに表示させる。なお、ハイライト動画やイベント一覧の表示の例については、後述する。また、表示制御部320は、表示部330に、操作部340を介して操作されるGUIコンポーネントを表示させてもよい。かかるGUIコンポーネントの例についても、後述する。   The display control unit 320 is realized by, for example, a CPU, a RAM, and a ROM operating according to a program stored in a storage device or a removable recording medium, and controls the display on the display unit 330. The display control unit 320 causes the display unit 330 to display the highlight video provided from the content acquisition unit 310. Further, the display control unit 320 acquires the event information output from the event information generation unit 150 of the shared server 100, and causes the display unit 330 to display, for example, an event list in which content exists based on the event information. At this time, the event representative image and flip thumbnails output together with the event information are displayed together with the event list. When a thumbnail video is generated for the event, the display control unit 320 displays the thumbnail video acquired by the content acquisition unit 310 together with the event list. Note that examples of display of a highlight video and an event list will be described later. In addition, the display control unit 320 may cause the display unit 330 to display a GUI component operated via the operation unit 340. An example of such a GUI component will also be described later.

表示部330は、例えば、コンテンツ視聴クライアント300が出力装置として有する、あるいはコンテンツ視聴クライアント300に外部接続機器として接続される、LCDや有機ELディスプレイなどの表示装置によって実現される。表示部330は、表示制御部320の制御に従って、各種の画像を表示する。   The display unit 330 is realized by, for example, a display device such as an LCD or an organic EL display that the content viewing client 300 has as an output device or is connected to the content viewing client 300 as an external connection device. The display unit 330 displays various images according to the control of the display control unit 320.

操作部340は、コンテンツ視聴クライアント300に設けられる、または外部接続機器として接続される各種の入力装置によって実現され、コンテンツ視聴クライアント300に対するユーザの操作を取得する。操作部340は、例えばタッチパッドやマウスなどのポインティングデバイスを含み、上述のように表示制御部320および表示部330と協働してユーザにGUIによる操作を提供してもよい。   The operation unit 340 is realized by various input devices provided in the content viewing client 300 or connected as an external connection device, and acquires a user operation on the content viewing client 300. The operation unit 340 may include a pointing device such as a touch pad or a mouse, for example, and may provide a user with a GUI operation in cooperation with the display control unit 320 and the display unit 330 as described above.

(コンテンツサーバ)
コンテンツサーバ400は、ネットワーク上に設置されるサーバであり、例えば後述するような情報処理装置によって実現される。コンテンツサーバ400は、機能構成として、コンテンツDB410およびコンテンツ解析部420を含む。
(Content server)
The content server 400 is a server installed on the network, and is realized by an information processing apparatus as described later, for example. The content server 400 includes a content DB 410 and a content analysis unit 420 as functional configurations.

なお、コンテンツサーバ400は、必ずしも単一の装置によって実現されなくてもよい。例えば、複数の装置が有するリソースがネットワークを介して協働することによってコンテンツサーバ400の機能が実現されてもよい。また、コンテンツサーバ400は、共有サーバ100と別体でなくてもよく、少なくとも一部の機能が共有サーバ100と同じ装置によって実現されてもよい。   Note that the content server 400 is not necessarily realized by a single device. For example, the function of the content server 400 may be realized by cooperation of resources possessed by a plurality of devices via a network. Further, the content server 400 may not be separate from the shared server 100, and at least a part of functions may be realized by the same device as the shared server 100.

コンテンツDB410は、例えばストレージ装置によって実現され、コンテンツを提供するユーザによってアップロードされたコンテンツを格納する。格納されたコンテンツは、例えばコンテンツ解析部420によって解析され、また、コンテンツ視聴クライアント300のコンテンツ取得部310によってアクセスされる。   The content DB 410 is realized by a storage device, for example, and stores content uploaded by a user who provides the content. The stored content is analyzed, for example, by the content analysis unit 420 and accessed by the content acquisition unit 310 of the content viewing client 300.

コンテンツ解析部420は、例えば、CPU、RAM、およびROMがストレージ装置またはリムーバブル記録媒体に格納されたプログラムに従って動作することによって実現され、コンテンツDB410に格納されたコンテンツを解析する。コンテンツ解析部420は、例えば、画像の特徴量の解析によって、コンテンツの画像や動画に映っている人物を被写体として検出する。また、コンテンツ解析部420は、例えばコンテンツの撮影日時の分布に基づいてコンテンツをクラスタリングし、コンテンツが撮影されたイベントを特定してもよい。コンテンツ解析部420は、解析の結果を、例えばコンテンツのメタ情報として、共有サーバ100のコンテンツ情報取得部110に提供する。   The content analysis unit 420 is realized by, for example, a CPU, a RAM, and a ROM operating according to a program stored in a storage device or a removable recording medium, and analyzes the content stored in the content DB 410. For example, the content analysis unit 420 detects a person appearing in a content image or a moving image as a subject by analyzing the feature amount of the image. Further, the content analysis unit 420 may cluster the content based on, for example, the distribution of the shooting date and time of the content, and specify the event where the content was shot. The content analysis unit 420 provides the analysis result to the content information acquisition unit 110 of the shared server 100 as, for example, content meta information.

(2−2.システムの動作)
次に、図2を参照して、上述した本開示の一実施形態に係るシステム10の動作の一例について、さらに説明する。以下では、S1〜S11の動作ごとに、対応する図1の機能構成を示しながら説明する。
(2-2. System operation)
Next, an example of the operation of the system 10 according to the embodiment of the present disclosure described above will be further described with reference to FIG. Below, it demonstrates, showing the corresponding functional structure of FIG. 1 for every operation | movement of S1-S11.

まず、コンテンツを提供するユーザは、所定のアプリケーションを用いて、画像または動画をストレージにアップロードする(S1)。なお、アップロードのためのアプリケーションについては、既存のコンテンツのアップロードに用いられているものと同様の構成とすることが可能であるため、上記の図1には対応する機能構成を図示していない。このアプリケーションは、例えば共有設定(S2)と同じくコンテンツ提供クライアント200で実行されてもよいし、またこれとは別の装置、例えばコンテンツを取得するデジタルカメラなどで実行されてもよい。ストレージは、コンテンツサーバ400のコンテンツDB410に対応する。   First, a user who provides content uploads an image or a moving image to a storage using a predetermined application (S1). Note that the application for uploading can have the same configuration as that used for uploading existing content, so the corresponding functional configuration is not shown in FIG. This application may be executed by the content providing client 200, for example, in the same manner as the sharing setting (S2), or may be executed by another device, for example, a digital camera that acquires content. The storage corresponds to the content DB 410 of the content server 400.

次に、コンテンツを提供するユーザは、クライアント装置から、共有設定アプリケーションを用いて、共有設定を実行する(S2)。この共有設定によって、例えば、コンテンツを共有する対象である対象ユーザと、対象ユーザごとに関連付けられる対象被写体とが設定される。ここで、本実施形態において、対象被写体は、それまでに撮り貯められたコンテンツの画像解析(顔クラスタリング)によって顔クラスタが生成された人物である。なお、共有設定アプリケーションは、例えばコンテンツ提供クライアント200の操作部210、表示制御部220、および表示部230を介して提供されるアプリケーションである。   Next, the user who provides the content executes sharing setting from the client device using the sharing setting application (S2). By this sharing setting, for example, a target user who is a target to share content and a target subject associated with each target user are set. Here, in the present embodiment, the target subject is a person for whom a face cluster has been generated by image analysis (face clustering) of content that has been captured and stored so far. The sharing setting application is an application provided via the operation unit 210, the display control unit 220, and the display unit 230 of the content providing client 200, for example.

共有設定の結果は、サーバ側のユーザDBおよびグループDBに反映される。ここで、ユーザDBには、例えばユーザが設定した対象ユーザの情報が格納される。また、グループDBには、後述するようにユーザが設定した対象ユーザのグループごとに、関連付けられる対象被写体の情報が格納される。なお、上記の共有設定は、画像/動画アップロードやコンテンツ解析の後に、事後的に実行されてもよい。   The result of sharing setting is reflected in the user DB and group DB on the server side. Here, for example, information on a target user set by the user is stored in the user DB. Further, in the group DB, information on a target subject to be associated is stored for each target user group set by the user as will be described later. Note that the above-described sharing setting may be executed after the image / video upload or content analysis.

一方、アップロードされた画像または動画について、サーバ側でコンテンツ解析が実行される(S3)。ここで実行されるコンテンツ解析は、例えば、画像の特徴量の解析による被写体の検出や、コンテンツの撮影日時の分布に基づくクラスタリングによるイベントの特定を含みうる。コンテンツ解析は、例えばコンテンツサーバ400のコンテンツ解析部420の機能に対応する。   On the other hand, content analysis is executed on the server side for the uploaded image or video (S3). The content analysis executed here may include, for example, detection of a subject by analyzing the feature amount of the image and identification of an event by clustering based on the distribution of the shooting date / time of the content. The content analysis corresponds to the function of the content analysis unit 420 of the content server 400, for example.

上記のコンテンツ解析(S3)の結果は、コンテンツのメタ情報としてコンテンツDBに入力される(S4)。このメタ情報の入力は、例えば共有サーバ100のコンテンツ情報取得部110の機能に対応する。   The result of the content analysis (S3) is input to the content DB as content meta information (S4). This input of meta information corresponds to the function of the content information acquisition unit 110 of the shared server 100, for example.

ここで、コンテンツDBには、例えばコンテンツごとのメタ情報が格納される。ここまででコンテンツDB、ユーザDB、およびグループDBに格納された情報は、例えばコンテンツを提供するユーザのIDをキーにして結合され、シナリオ作成モジュールよって利用される(S5)。シナリオ作成モジュールは、例えば共有サーバ100のコンテンツ分類部120、コンテンツ抽出部140、イベント情報生成部150、フレーム/シーン抽出部160、サムネイル画像抽出部170、およびシナリオ情報生成部180の機能に対応する。   Here, in the content DB, for example, meta information for each content is stored. The information stored in the content DB, the user DB, and the group DB so far is combined using, for example, the ID of the user who provides the content as a key, and is used by the scenario creation module (S5). The scenario creation module corresponds to the functions of the content classification unit 120, content extraction unit 140, event information generation unit 150, frame / scene extraction unit 160, thumbnail image extraction unit 170, and scenario information generation unit 180 of the shared server 100, for example. .

まず、シナリオ作成モジュールは、イベント情報を生成する(S6)。上述のように、イベント情報は、コンテンツを視聴する対象ユーザに対して、対象ユーザに関連付けられた対象被写体が映っているコンテンツを含むイベントを提示する情報である。コンテンツを視聴する対象ユーザは、シナリオプレーヤアプリケーションを用いて、イベント情報を取得する(S7)。なお、シナリオプレーヤアプリケーションは、例えばコンテンツ視聴クライアント300のコンテンツ取得部310、表示制御部320、表示部330、および操作部340を介して提供されるアプリケーションである。   First, the scenario creation module generates event information (S6). As described above, the event information is information for presenting an event including a content showing a target subject associated with the target user to the target user who views the content. The target user who views the content acquires event information using the scenario player application (S7). The scenario player application is an application provided via the content acquisition unit 310, the display control unit 320, the display unit 330, and the operation unit 340 of the content viewing client 300, for example.

これに対して、コンテンツを視聴する対象ユーザは、シナリオプレーヤアプリケーションを用いて、イベント情報の中から所望のイベントを選択する。シナリオ作成モジュールは、これに応じて、例えばハイライト動画のシナリオを生成する(S8)。シナリオプレーヤアプリケーションは、生成されたシナリオを取得し(S9)、シナリオに基づいてストレージに格納されたコンテンツにアクセスする(S10)。さらに、シナリオプレーヤアプリケーションは、アクセスしたコンテンツからハイライト動画などのユーザ所望の動画を生成し、再生する(S11)。   On the other hand, the target user who views the content selects a desired event from the event information using the scenario player application. In response to this, the scenario creation module generates, for example, a highlight movie scenario (S8). The scenario player application acquires the generated scenario (S9), and accesses the content stored in the storage based on the scenario (S10). Further, the scenario player application generates a user-desired moving image such as a highlight moving image from the accessed content and reproduces it (S11).

(3.共有設定)
次に、図3A〜3Dを参照して、本開示の一実施形態における共有設定について説明する。図3A〜図3Dは、本開示の一実施形態における共有設定の例を示す図である。
(3. Sharing settings)
Next, the sharing setting according to an embodiment of the present disclosure will be described with reference to FIGS. 3A to 3D are diagrams illustrating an example of sharing settings according to an embodiment of the present disclosure.

共有設定は、例えば、図1を参照して説明したシステム10において、コンテンツ提供クライアント200の操作部210、表示制御部220、および表示部230を介して提供される共有設定アプリケーションを用いて実行される。従って、以下で例を説明する共有設定の手順は、例えば表示制御部220によって表示部230に表示され、操作部210を介して操作されるGUIを用いるものでありうる。また、ここで説明する共有設定は、図2を参照して説明した動作では共有設定(S2)に対応する。   For example, in the system 10 described with reference to FIG. 1, the sharing setting is executed using a sharing setting application provided via the operation unit 210, the display control unit 220, and the display unit 230 of the content providing client 200. The Accordingly, the sharing setting procedure described below as an example may use a GUI displayed on the display unit 230 by the display control unit 220 and operated via the operation unit 210, for example. The sharing setting described here corresponds to the sharing setting (S2) in the operation described with reference to FIG.

図3Aには、コンテンツを共有する対象ユーザを設定する手順の例が示されている。図示された例では、対象ユーザリストL1に含まれるユーザUが、対象ユーザに設定される。まず、(a)に示すように、ユーザU1(祖父母),U2(パパの友達A),U3(パパの友達B)が、対象ユーザリストL1(パパの友達リスト)に追加される。この実施形態では、対象ユーザリストL1への追加、すなわち対象ユーザとしての設定には、追加されるユーザの承認が必要である。従って、(b)に示すように、追加直後は、対象ユーザリストL1内のユーザU1〜U3はいずれも未承認のユーザとして表示される。この後、ユーザU1(祖父母),U3(パパの友達B)が対象ユーザリストL1への追加を承認すると、(c)に示すように、対象ユーザリストL1内のユーザU1(祖父母),U3(パパの友達B)が、承認済みのユーザとして表示される。   FIG. 3A shows an example of a procedure for setting a target user to share content. In the illustrated example, the user U included in the target user list L1 is set as the target user. First, as shown in (a), users U1 (grandparents), U2 (daddy's friend A), and U3 (daddy's friend B) are added to the target user list L1 (daddy's friend list). In this embodiment, the addition to the target user list L1, that is, the setting as the target user requires the approval of the added user. Therefore, as shown in (b), immediately after the addition, all of the users U1 to U3 in the target user list L1 are displayed as unapproved users. Thereafter, when the users U1 (grandparents) and U3 (papa's friend B) approve the addition to the target user list L1, as shown in (c), the users U1 (grandparents) and U3 ( Daddy's friend B) is displayed as an approved user.

図3Bには、対象ユーザを設定してグルーピングする手順の例が示されている。図示された例では、まず、ユーザU0(パパ=共有設定を実行するユーザ)とユーザU3(パパの友達B)とが、それぞれ、コンテンツの共有を提供するサービスのアカウントを作成する。次に、図3Aを参照して説明したように、ユーザU0が対象ユーザリストL1(パパの友達リスト)を表示し、ここにユーザU3を追加する。このとき、対象ユーザリストL1内のユーザU3は、未承認のユーザとして表示される。   FIG. 3B shows an example of a procedure for setting and grouping target users. In the illustrated example, first, a user U0 (a dad = a user who executes sharing settings) and a user U3 (a daddy's friend B) each create an account for a service that provides content sharing. Next, as described with reference to FIG. 3A, the user U0 displays the target user list L1 (daddy's friend list), and adds the user U3 thereto. At this time, the user U3 in the target user list L1 is displayed as an unapproved user.

一方、共有設定アプリケーションは、ユーザU3に、ユーザU0によって対象ユーザリストL1に追加された旨の通知(招待)を送信する。ユーザU3は、適切なアプリケーションを用いてこの招待を受信し、これを受諾する。受諾の通知を受信した共有設定アプリケーションは、対象ユーザリストL1に追加されたユーザU3を有効化する。つまり、対象ユーザリストL1内のユーザU3は、承認済みのユーザとして表示される。   On the other hand, the sharing setting application transmits a notification (invitation) that the user U3 has been added to the target user list L1 by the user U0. User U3 receives the invitation using an appropriate application and accepts it. The share setting application that has received the notification of acceptance validates the user U3 added to the target user list L1. That is, the user U3 in the target user list L1 is displayed as an approved user.

次に、ユーザU0は、対象ユーザグループG1(ゴルフ仲間Gp)を作成し、このグループG1に、対象ユーザリストL1からユーザU3を追加する。これによって、ユーザU3は、対象ユーザグループG1に分類される。さらに、ユーザU0は、対象ユーザグループG1に、人物F1(パパの友達BすなわちユーザU3)の情報を追加する。なお、ここで追加される人物の情報は、対象ユーザグループG1に分類される対象ユーザに関連付けられる対象被写体の情報にあたる。これによって、ユーザU3(パパの友達B)は、ユーザU0(パパ)が共有の対象に設定したコンテンツのうち、人物F1、つまりユーザU3自身が映っているものについて、適切なアプリケーションを用いてコンテンツを共有することが可能になる。   Next, the user U0 creates a target user group G1 (golf companion Gp), and adds the user U3 from the target user list L1 to the group G1. As a result, the user U3 is classified into the target user group G1. Furthermore, the user U0 adds information on the person F1 (papa's friend B, that is, the user U3) to the target user group G1. The information on the person added here corresponds to information on the target subject associated with the target user classified into the target user group G1. As a result, the user U3 (daddy's friend B) can use the appropriate application for the content that the user U0 (daddy) has set as the sharing target and the person F1, that is, the user U3 himself / herself is shown. Can be shared.

なお、上記の手順は、例えば他のアプリケーションを応用することによって適宜変更されうる。例えば、対象ユーザリストL1は、上記のようにユーザによって作成されてもよいし、またSNS(Social Network Service)などの他のサービスの友人設定のインポートによって作成されてもよい。従って、共有設定アプリケーションは、必ずしも上記の例に示される対象ユーザの設定に関する処理をすべて実行しなくてもよい。   In addition, said procedure can be suitably changed, for example by applying another application. For example, the target user list L1 may be created by the user as described above, or may be created by importing friend settings of other services such as SNS (Social Network Service). Therefore, the sharing setting application does not necessarily need to execute all the processes related to the setting of the target user shown in the above example.

図3Cには、対象ユーザのグループに対して人物の情報を関連付ける手順の例が示されている。図示された例では、上記の図3Aおよび図3Bで示されたような手順によって、ユーザU1(祖父母)が分類される対象ユーザグループG2(祖父母グループ)が設定されている。共有設定アプリケーションは、例えば、この対象ユーザグループG2に対して、人物リストFL(人物一覧)から所望の人物Fの情報を関連付けるGUIを提供する。図示された例では、人物リストFLに、人物F2〜F7が表示されている。共有設定を実行するユーザは、例えば人物リストFLの中から所望の人物Fを対象ユーザグループG2の領域にドラッグすることによって、人物Fの情報を対象ユーザグループG2に関連付ける。   FIG. 3C shows an example of a procedure for associating person information with a group of target users. In the illustrated example, the target user group G2 (grandparent group) into which the user U1 (grandparent) is classified is set by the procedure as shown in FIGS. 3A and 3B. For example, the sharing setting application provides a GUI for associating information on the desired person F from the person list FL (person list) to the target user group G2. In the illustrated example, persons F2 to F7 are displayed in the person list FL. The user who executes the sharing setting associates the information of the person F with the target user group G2 by dragging the desired person F from the person list FL to the area of the target user group G2, for example.

図示された例では、人物F2(花子),F3(太郎)が、対象ユーザグループG2(祖父母グループ)の領域にドラッグされる。これによって、対象ユーザグループG2に分類されるユーザU1(祖父母)に、対象被写体として人物F2(花子),F3(太郎)が関連付けられる。これによって、ユーザU1(祖父母)は、人物F2(花子),F3(太郎)が映っているコンテンツを共有することが可能になる。このように、対象ユーザをグループ化することで、複数の対象ユーザに共通する被写体の設定が容易になる。また、対象ユーザと同様に、被写体がグループ化されていてもよい。   In the illustrated example, persons F2 (Hanako) and F3 (Taro) are dragged to the area of the target user group G2 (grandparent group). As a result, persons F2 (Hanako) and F3 (Taro) are associated as target subjects with the user U1 (grandparents) classified into the target user group G2. As a result, the user U1 (grandparents) can share content showing the persons F2 (Hanako) and F3 (Taro). In this way, grouping target users makes it easy to set subjects common to a plurality of target users. In addition, similar to the target user, subjects may be grouped.

図3Dには、対象ユーザのグループに対して人物の情報を関連付ける手順の別の例が示されている。図示された例では、上記の図3Aおよび図3Bで示されたような手順によって、対象ユーザグループG1〜G4が設定されている。共有設定アプリケーションでは、このように複数の対象ユーザグループGを設定することも可能である。この場合、例えば対象ユーザグループG1〜G4が人物リストFL(人物一覧)の周囲に配置され、共有設定を実行するユーザは、人物リストFLの中の所望の人物Fをいずれかの対象ユーザグループGの領域にドラッグする操作を実行してもよい。   FIG. 3D shows another example of a procedure for associating person information with a group of target users. In the illustrated example, the target user groups G1 to G4 are set by the procedure as shown in FIGS. 3A and 3B. In the sharing setting application, a plurality of target user groups G can be set as described above. In this case, for example, the target user groups G1 to G4 are arranged around the person list FL (person list), and the user who executes the sharing setting selects a desired person F in the person list FL as one of the target user groups G. An operation of dragging to the area may be executed.

図示された例では、図3Cの例と同様に、対象ユーザグループG2(祖父母グループ)の領域に、人物F2(花子),F3(太郎)がドラッグされることによって、対象ユーザであるユーザU1(祖父母)に、対象被写体として人物F2(花子),F3(太郎)が関連付けられる。共有設定を実行するユーザは、同じようにして、例えば対象ユーザグループG1(パパの友達グループ)に、人物F5(パパの友達A)をドラッグする。また、対象ユーザグループG4(家族グループ)に、人物F2(花子),F3(太郎)をドラッグする。このように、対象被写体としての人物Fの設定は、対象ユーザグループGの間で異なっていてもよいし、また一部または全部が重複していてもよい。   In the illustrated example, as in the example of FIG. 3C, by dragging persons F2 (Hanako) and F3 (Taro) to the area of the target user group G2 (grandparent group), the user U1 (the target user) The persons F2 (Hanako) and F3 (Taro) are associated with the grandparents as target subjects. In the same manner, the user who executes the sharing setting drags the person F5 (papa's friend A) to the target user group G1 (papa's friend group), for example. In addition, the persons F2 (Hanako) and F3 (Taro) are dragged to the target user group G4 (family group). As described above, the setting of the person F as the target subject may be different between the target user groups G, or a part or all of them may overlap.

(4.共有サーバでの処理)
(4−1.概要)
次に、図4〜図6を参照して、本開示の一実施形態における共有サーバ100での処理の概要について説明する。図4は、本開示の一実施形態におけるイベント情報について説明するための図である。図5Aおよび図5Bは、本開示の一実施形態におけるシナリオ情報について説明するための図である。図6は、本開示の一実施形態におけるシナリオ情報を用いたコンテンツの再生について説明するための図である。
(4. Processing on shared server)
(4-1. Overview)
Next, an overview of processing in the shared server 100 according to an embodiment of the present disclosure will be described with reference to FIGS. FIG. 4 is a diagram for describing event information according to an embodiment of the present disclosure. 5A and 5B are diagrams for describing scenario information according to an embodiment of the present disclosure. FIG. 6 is a diagram for describing content reproduction using scenario information according to an embodiment of the present disclosure.

(イベント情報に関する処理)
図4は、イベント情報に関する処理を示す。図示された処理は、図1を参照して説明したシステム10では、共有サーバ100のコンテンツ分類部120、コンテンツ抽出部140、およびイベント情報生成部150の機能に対応する。また、図示された処理は、図2を参照して説明した動作では、イベント情報の生成(S6)およびイベント情報の取得(S7)に対応する。
(Processing related to event information)
FIG. 4 shows processing related to event information. The illustrated process corresponds to the functions of the content classification unit 120, the content extraction unit 140, and the event information generation unit 150 of the shared server 100 in the system 10 described with reference to FIG. Further, the illustrated processing corresponds to the generation of event information (S6) and the acquisition of event information (S7) in the operation described with reference to FIG.

図示された例では、ユーザU1(祖父母)のためのイベント情報が生成される。ユーザU1が属する対象ユーザグループG2(祖父母グループ)には、人物F2(花子),F3(太郎)が関連付けられている。つまり、対象ユーザであるユーザU1には、対象被写体として人物F2,F3が関連付けられている。共有サーバ100では、共有関連情報取得部130がこれらの情報を取得する。このような人物F2,F3の情報(対象被写体の情報)は、イベント情報の生成のための第1の入力になりうる。   In the illustrated example, event information for the user U1 (grandparent) is generated. Persons F2 (Hanako) and F3 (Taro) are associated with the target user group G2 (grandparent group) to which the user U1 belongs. That is, the person F2, F3 is associated with the user U1 who is the target user as the target subject. In the shared server 100, the sharing related information acquisition unit 130 acquires these pieces of information. Such information of the persons F2 and F3 (information of the target subject) can be a first input for generating event information.

一方、例えばユーザU0(パパ=共有設定を実行するユーザ)によって提供されるコンテンツは、例えば図1で説明したコンテンツ解析部420によってクラスタリングされる。図示された例では、コンテンツが、イベントI1〜I3の3つにクラスタリングされている。共有サーバ100では、コンテンツ分類部120が、クラスタリングの結果に従ってコンテンツを分類する。このようにしてイベントI1〜I3に分類されたコンテンツは、イベント情報の生成のための第2の入力になりうる。   On the other hand, for example, content provided by the user U0 (papa = user who executes sharing setting) is clustered by the content analysis unit 420 described with reference to FIG. In the illustrated example, the content is clustered into three events I1 to I3. In shared server 100, content classification unit 120 classifies content according to the result of clustering. The content classified into the events I1 to I3 in this way can be a second input for generating event information.

これらの入力を用いて、ユーザU1(祖父母)のためのイベント情報Iinfoが生成される。共有サーバ100では、まず、コンテンツ抽出部140が、イベントI1〜I3に分類されたコンテンツから、人物F2(花子),F3(太郎)が被写体として含まれるコンテンツを抽出する。その結果、イベントI1(運動会),I2(家族旅行)では、人物F2(花子),F3(太郎)が被写体として含まれるコンテンツが抽出される。一方、イベントI3(ゴルフ)では、人物F0(パパ),F5(パパの友達A)が被写体として含まれるコンテンツしか抽出されなかった。 Using these inputs, event information Iinfo for user U1 (grandparents) is generated. In the shared server 100, first, the content extraction unit 140 extracts content including persons F2 (Hanako) and F3 (Taro) as subjects from the contents classified into the events I1 to I3. As a result, contents including person F2 (Hanako) and F3 (Taro) as subjects are extracted at events I1 (athletic meet) and I2 (family trip). On the other hand, in the event I3 (golf), only content including the persons F0 (daddy) and F5 (daddy's friend A) as subjects was extracted.

この結果を受けて、イベント情報生成部150は、イベントI1(運動会),I2(家族旅行)の情報を含むイベント情報Iinfoを生成し、コンテンツ視聴クライアント300を介してユーザU1(祖父母)に提示する。これによって、ユーザU1は、興味の対象となる被写体(花子、太郎)が映っているコンテンツを、イベント単位で容易に選択して視聴することが可能である。   In response to this result, the event information generation unit 150 generates event information Iinfo including information on the events I1 (athletic meet) and I2 (family trip) and presents them to the user U1 (grandparents) via the content viewing client 300. . Thus, the user U1 can easily select and view the content showing the subject of interest (Hanako, Taro) on an event basis.

なお、上述のように、イベント情報Iinfoに含まれるイベントIは、例えばユーザU0(パパ=共有設定を実行するユーザ)の設定によって限定されてもよい。例えば、イベントI2(家族旅行)が、ユーザU1(祖父母)には内緒のイベントであるような場合、ユーザU0は、ユーザU1に提示されるイベント情報IinfoにイベントI2を含めないように設定することも可能である。このような設定のために、コンテンツ提供クライアント200では、例えば対象ユーザごとのイベント情報のプレビュー機能が提供されてもよい。   As described above, the event I included in the event information Iinfo may be limited, for example, by the setting of the user U0 (papa = a user who executes sharing setting). For example, when the event I2 (family trip) is a secret event for the user U1 (grandparents), the user U0 is set not to include the event I2 in the event information Iinfo presented to the user U1. Is also possible. For such setting, the content providing client 200 may be provided with a preview function of event information for each target user, for example.

(シナリオ情報に関する処理)
図5Aは、シナリオ情報に関する処理を示す。図示された処理は、図1を参照して説明したシステム10では、共有サーバ100のコンテンツ抽出部140、フレーム/シーン抽出部160、およびシナリオ情報生成部180の機能に対応する。また、図示された処理は、図2を参照して説明した動作では、シナリオの生成(S8)およびシナリオの取得(S9)に対応する。
(Processing related to scenario information)
FIG. 5A shows processing related to scenario information. The illustrated process corresponds to the functions of the content extraction unit 140, the frame / scene extraction unit 160, and the scenario information generation unit 180 of the shared server 100 in the system 10 described with reference to FIG. The illustrated process corresponds to scenario generation (S8) and scenario acquisition (S9) in the operation described with reference to FIG.

図示された例では、上記のイベント情報の例の続きとして、ユーザU1(祖父母)のためのシナリオ情報が生成される。対象ユーザであるユーザU1(祖父母)には、対象被写体として人物F2,F3が関連付けられている。共有サーバ100では、共有関連情報取得部130がこれらの情報を取得する。このような人物F2,F3の情報(対象被写体の情報)は、シナリオ情報の生成のための第1の入力になりうる。   In the illustrated example, scenario information for the user U1 (grandparent) is generated as a continuation of the above event information example. Persons F2 and F3 are associated with the target user, user U1 (grandparents) as target subjects. In the shared server 100, the sharing related information acquisition unit 130 acquires these pieces of information. Such information of the persons F2 and F3 (information of the target subject) can be a first input for generating scenario information.

一方、例えばイベント情報IinfoとしてイベントI1(運動会),I2(家族旅行)を呈されたユーザU1(祖父母)が、その中からイベントI1(運動会)を選択したとする。その場合、コンテンツ抽出部140、およびフレーム/シーン抽出部160は、イベントI1に属するコンテンツについて処理を実行する。図示された例では、イベントI1に属する2つのコンテンツとして、動画Aおよび動画Bが示されている。このようなイベントIに属するコンテンツは、シナリオ情報の生成のための第2の入力になりうる。   On the other hand, for example, it is assumed that a user U1 (grandparents) presenting events I1 (athletic meet) and I2 (family trip) as event information Iinfo selects event I1 (athletic meet). In that case, the content extraction unit 140 and the frame / scene extraction unit 160 execute processing for the content belonging to the event I1. In the illustrated example, a moving image A and a moving image B are shown as two contents belonging to the event I1. Content belonging to such an event I can be a second input for generating scenario information.

これらの入力を用いて、フレーム/シーン抽出部160は、動画A、動画Bから、人物F2,F3のうちの少なくともいずれかが映っているシーンを抽出する。図示された例では、動画AからシーンA−2,A−3,A−5が、動画BからシーンB−2が、それぞれ抽出される。シナリオ情報生成部180は、これらのシーンを結合させてハイライト動画を構成する。   Using these inputs, the frame / scene extraction unit 160 extracts a scene in which at least one of the persons F2 and F3 is shown from the moving picture A and the moving picture B. In the illustrated example, scenes A-2, A-3, and A-5 are extracted from the moving image A, and a scene B-2 is extracted from the moving image B, respectively. The scenario information generation unit 180 combines these scenes to form a highlight movie.

ただし、図示された例において、シナリオ情報生成部180は、このハイライト動画をそのまま出力するのではなく、ハイライトシナリオHSとして出力する。ハイライトシナリオHSは、後述するように、コンテンツ視聴クライアント300がコンテンツにアクセスしてハイライト動画を得るために用いられる情報である。図示された例では、ハイライトシナリオHSが、コンテンツの所在およびシーンの開始と終了との位置を示すxml形式のファイルとして示されているが、ハイライトシナリオHSの形式はどのようなものであってもよい。   However, in the illustrated example, the scenario information generation unit 180 does not output the highlight moving image as it is, but outputs it as a highlight scenario HS. As will be described later, the highlight scenario HS is information used by the content viewing client 300 to access the content and obtain a highlight moving image. In the illustrated example, the highlight scenario HS is shown as an xml file indicating the location of the content and the start and end of the scene, but what is the format of the highlight scenario HS? May be.

図5Bは、図5Aに示されたシナリオ情報に関する処理を、より詳細に示す。図5Aと同様に、シナリオ情報生成のための第1の入力は、人物F2,F3の情報(対象被写体の情報)である。また、第2の入力は、イベントI1(運動会)に属するコンテンツである。ただし、図5Bの例では、図5Aの例とは異なり、イベントI1には、画像A、画像B、画像C、動画D、動画E、および動画Fの6つのコンテンツが属する。   FIG. 5B shows the process related to the scenario information shown in FIG. 5A in more detail. Similar to FIG. 5A, the first input for generating scenario information is information on the persons F2 and F3 (information on the target subject). The second input is content belonging to the event I1 (athletic meet). However, in the example of FIG. 5B, unlike the example of FIG. 5A, the event I1 includes six contents of image A, image B, image C, movie D, movie E, and movie F.

これらの入力を用いて、まず、コンテンツ抽出部140が、イベントI1に属するコンテンツの中から、人物F2,F3を被写体として含むコンテンツを抽出する。図示された例では、画像A、画像C、動画D、動画E、および動画Fに、人物F2,F3が被写体として含まれる。従って、コンテンツ抽出部140は、画像A、画像C、動画D、動画E、および動画Fを対象コンテンツとして抽出する。一方、人物F2,F3を被写体として含まない画像Bは、シナリオ情報生成に関する以降の処理では用いられない。   Using these inputs, first, the content extraction unit 140 extracts content including persons F2 and F3 as subjects from content belonging to the event I1. In the illustrated example, the images A, C, D, E, and F include persons F2 and F3 as subjects. Therefore, the content extraction unit 140 extracts the image A, the image C, the moving image D, the moving image E, and the moving image F as target content. On the other hand, the image B that does not include the persons F2 and F3 as subjects is not used in the subsequent processing related to scenario information generation.

次に、フレーム/シーン抽出部160が、動画D、動画E、および動画Fについて、人物F2,F3が映っているシーンを抽出する。図示された例では、動画DからシーンD−2,D−3,D−5,D−8が、動画EからシーンE−2が、動画FからシーンF−1,F−4が、それぞれ抽出される。   Next, the frame / scene extraction unit 160 extracts scenes in which the persons F2 and F3 are shown for the moving picture D, the moving picture E, and the moving picture F. In the illustrated example, scenes D-2, D-3, D-5, and D-8 from the video D, scenes E-2 from the video E, scenes F-1 and F-4 from the video F, respectively. Extracted.

図示された例において、シナリオ情報生成部180は、上記で抽出された画像およびシーンから、2種類のシナリオ情報を生成する。1つは、上記の図5Aでも説明したハイライトシナリオHSである。ハイライトシナリオHSは、抽出された画像およびシーンを、例えば時系列などの順番ですべて配列したハイライト動画を得るためのシナリオである。   In the illustrated example, the scenario information generation unit 180 generates two types of scenario information from the images and scenes extracted above. One is the highlight scenario HS described in FIG. 5A above. The highlight scenario HS is a scenario for obtaining a highlight moving image in which all extracted images and scenes are arranged in an order such as time series.

もう1つは、サムネイルシナリオTSである。サムネイルシナリオTSは、抽出された画像およびシーンから、所定の条件を満たす画像およびシーンをさらに抽出し、それらを配列したサムネイル動画を得るためのシナリオである。図示された例では、抽出された画像およびシーンから、映っている人物F2,F3の笑顔度が高い画像およびシーン(スマイルマークで示した)であるシーンD−3、シーンE−2、および画像Cが抽出され、サムネイル動画を構成する。   The other is a thumbnail scenario TS. The thumbnail scenario TS is a scenario for further extracting images and scenes satisfying a predetermined condition from the extracted images and scenes and obtaining a thumbnail moving image in which the images and scenes are arranged. In the illustrated example, from the extracted images and scenes, scenes D-3, E-2, and images that are images and scenes (indicated by smile marks) with high smile levels of the people F2 and F3 that are shown C is extracted to constitute a thumbnail video.

(シナリオ情報を用いたコンテンツの再生)
図6は、例えば図5Aに示すような処理によって出力されたシナリオ情報を用いてコンテンツを再生する処理を示す。図示された処理は、図1を参照して説明したシステム10では、コンテンツ視聴クライアント300のコンテンツ取得部310の機能に対応する。また、図示された処理は、図2を参照して説明した動作では、コンテンツアクセス(S10)および再生(S11)に対応する。
(Reproduction of contents using scenario information)
FIG. 6 shows a process of reproducing content using scenario information output by the process shown in FIG. 5A, for example. The illustrated processing corresponds to the function of the content acquisition unit 310 of the content viewing client 300 in the system 10 described with reference to FIG. Further, the illustrated processing corresponds to content access (S10) and reproduction (S11) in the operation described with reference to FIG.

図示された例では、シナリオ情報であるハイライトシナリオHSによって、動画AのシーンA−2,A−3,A−5、および動画BのシーンB−2を含むハイライト動画が定義されている。かかるハイライトシナリオHSを取得したコンテンツ取得部310は、例えばコンテンツサーバ400に格納された動画Aおよび動画Bのコンテンツ実体にアクセスして、ハイライトシナリオHSによって指定されたシーンを含む動画を取得する。さらにコンテンツ取得部310は、指定されたシーンをシークして再生することによって、図示されているように取得したシーンを時間軸上に配列した動画を表示制御部320に提供し、これによってハイライト動画を表示部330に表示させる。   In the illustrated example, a highlight movie including scenes A-2, A-3, and A-5 of movie A and scene B-2 of movie B is defined by the highlight scenario HS that is scenario information. . The content acquisition unit 310 that has acquired the highlight scenario HS accesses the content entities of the moving image A and the moving image B stored in the content server 400, for example, and acquires the moving image including the scene specified by the highlight scenario HS. . Further, the content acquisition unit 310 seeks and reproduces the designated scene, thereby providing the display control unit 320 with a moving image in which the acquired scenes are arranged on the time axis as shown in the figure, thereby highlighting the scene. The moving image is displayed on the display unit 330.

なお、ここで、コンテンツ取得部310は、例えばコンテンツサーバ400から動画Aおよび動画Bを丸ごと取得し、クライアント側で動画の編集処理を実行してハイライト動画を再生してもよい。あるいは、コンテンツ取得部310は、ハイライトシナリオHSをコンテンツサーバ400に送信し、これに基づいてコンテンツサーバ400側で動画が編集され、コンテンツ視聴クライアント300に例えばストリーミングによって提供されてもよい。   Here, the content acquisition unit 310 may acquire the entire moving image A and moving image B from the content server 400, for example, and may perform editing processing of the moving image on the client side to reproduce the highlight moving image. Alternatively, the content acquisition unit 310 may transmit the highlight scenario HS to the content server 400, edit the video on the content server 400 side based on this, and provide the content viewing client 300 with, for example, streaming.

(4−2.詳細)
次に、図7〜図10Cを参照して、本開示の一実施形態における共有サーバ100での処理の詳細について説明する。図7は、本開示の一実施形態におけるサムネイル画像およびシナリオ情報の生成について説明するための図である。図8は、本開示の一実施形態における対象コンテンツの選択について説明するための図である。図9A〜図9Dは、本開示の一実施形態におけるサムネイル画像およびサムネイルシナリオの生成について説明するための図である。図10A〜図10Cは、本開示の一実施形態におけるハイライトシナリオの生成について説明するための図である。
(4-2. Details)
Next, details of processing in the shared server 100 according to an embodiment of the present disclosure will be described with reference to FIGS. 7 to 10C. FIG. 7 is a diagram for describing generation of thumbnail images and scenario information according to an embodiment of the present disclosure. FIG. 8 is a diagram for describing selection of target content according to an embodiment of the present disclosure. 9A to 9D are diagrams for describing generation of thumbnail images and thumbnail scenarios according to an embodiment of the present disclosure. 10A to 10C are diagrams for describing generation of a highlight scenario according to an embodiment of the present disclosure.

(サムネイル画像およびシナリオ情報の生成について)
図7は、以下で図8〜図10Cを参照して説明される処理の全体の流れを示しており、図7の処理の符号(S101〜S108)は、図8〜図10Cにおけるそれぞれの処理の符号に対応する。
(About generation of thumbnail images and scenario information)
FIG. 7 shows the overall flow of the processing described below with reference to FIGS. 8 to 10C, and the reference numerals (S101 to S108) of the processing in FIG. 7 denote the respective processing in FIGS. 8 to 10C. Corresponds to the sign of.

図7を参照すると、まず、サムネイル画像として1枚の画像またはフレーム(イベント代表画像)を出力する場合、コンテンツ抽出部140が対象コンテンツを選択し(S101)、フレーム/シーン抽出部160が抽出された対象コンテンツについてスコアを抽出する(S102)。この結果に基づいて、サムネイル画像抽出部170は、イベント代表画像を選定する(S103)。   Referring to FIG. 7, first, when outputting one image or frame (event representative image) as a thumbnail image, the content extraction unit 140 selects the target content (S101), and the frame / scene extraction unit 160 is extracted. A score is extracted for the target content (S102). Based on this result, the thumbnail image extraction unit 170 selects an event representative image (S103).

また、サムネイル画像として複数枚の画像またはフレームからなるアニメーション(パラパラサムネイル)を出力する場合、イベント代表画像の場合と同様にフレーム/シーン抽出部160が対象コンテンツについてスコアを抽出(S102)した後、サムネイル画像抽出部170がパラパラサムネイルを生成する(S104)。   Also, when outputting an animation (a flip thumbnail) consisting of a plurality of images or frames as thumbnail images, the frame / scene extraction unit 160 extracts the score for the target content (S102), as in the case of the event representative image. The thumbnail image extraction unit 170 generates a flip thumbnail (S104).

一方、サムネイルシナリオを生成する場合、フレーム/シーン抽出部160が、上記の2つの場合と同様に対象コンテンツについてスコアを抽出(S102)した後、さらにシーン切り出しAの処理を実行する(S105)。この結果に基づいて、シナリオ情報生成部180は、サムネイルシナリオを生成する(S106)。   On the other hand, when generating a thumbnail scenario, the frame / scene extraction unit 160 extracts a score for the target content in the same manner as in the above two cases (S102), and then executes the process of scene cutout A (S105). Based on this result, the scenario information generation unit 180 generates a thumbnail scenario (S106).

また、ハイライトシナリオを生成する場合、コンテンツ抽出部140が対象コンテンツを選択(S101)した後、フレーム/シーン抽出部160がシーン切り出しBの処理を実行する(S107)。この結果に基づいて、シナリオ情報生成部180は、ハイライトシナリオを生成する(S108)。   When generating a highlight scenario, after the content extraction unit 140 selects the target content (S101), the frame / scene extraction unit 160 executes the process of scene cutout B (S107). Based on this result, the scenario information generation unit 180 generates a highlight scenario (S108).

(対象コンテンツの選択について)
図8は、コンテンツ抽出部140による対象コンテンツの選択(S101)の例を、より詳細に示す図である。図示された例では、上記の図5Bの例と同様に、第1の入力として人物F2,F3の情報(対象被写体の情報)が、第2の入力としてイベントI1に属する画像A〜C、および動画D〜Fの6つのコンテンツが、それぞれ与えられる。
(About selection of target content)
FIG. 8 is a diagram showing in more detail an example of target content selection (S101) by the content extraction unit 140. FIG. In the illustrated example, as in the example of FIG. 5B described above, the information of the persons F2 and F3 (information on the target subject) as the first input, the images A to C belonging to the event I1 as the second input, and Six contents of moving pictures D to F are given respectively.

対象コンテンツの選択(S101)では、入力として与えられたコンテンツから、人物F2,F3が被写体として映っているコンテンツがピックアップされる。コンテンツ抽出部140は、画像A〜Cについては、それぞれの画像に映っている被写体の情報を例えばコンテンツ情報取得部110から取得し、被写体として映っている人物F2(花子),F3(太郎)を検出する。図示された例では、画像Aに人物F2(花子)が映っており、画像Cに人物F2(花子),F3(太郎)の両方が映っていることが検出される。   In the selection of the target content (S101), content in which the persons F2 and F3 are shown as subjects is picked up from the content given as input. For the images A to C, the content extraction unit 140 acquires information on the subject shown in each image from the content information acquisition unit 110, for example, and selects the persons F2 (Hanako) and F3 (Taro) shown as subjects. To detect. In the illustrated example, it is detected that the person F2 (Hanako) is shown in the image A, and both the persons F2 (Hanako) and F3 (Taro) are shown in the image C.

一方、コンテンツ抽出部140は、動画D〜Fについては、それぞれの動画から所定のフレームレートのキャプチャ画像(フレーム)を取得し、それぞれのフレームに映っている被写体の情報を例えばコンテンツ情報取得部110から取得し、被写体として映っている人物F2,F3を検出する。図示された例では、フレームレート1fpsでキャプチャ画像が取得された結果、動画DのフレームD#1に人物F2(花子)が、フレームD#3に人物F3(太郎)が、フレームD#9,D#10に人物F2(花子),F3(太郎)の両方が映っていることが検出される。また、動画FのフレームF#1,F#5には、人物F2(花子)が映っていることが検出される。   On the other hand, for the moving images D to F, the content extraction unit 140 acquires captured images (frames) at a predetermined frame rate from the respective moving images, and obtains information on the subject reflected in each frame, for example, the content information acquiring unit 110. And the persons F2 and F3 appearing as subjects are detected. In the illustrated example, as a result of the capture image being acquired at the frame rate of 1 fps, the person F2 (Hanako) is in frame D # 1 of the moving picture D, the person F3 (Taro) is in frame D # 3, and the frame D # 9, It is detected that both of the persons F2 (Hanako) and F3 (Taro) are shown in D # 10. Further, it is detected that the person F2 (Hanako) is reflected in the frames F # 1 and F # 5 of the moving image F.

コンテンツ抽出部140は、上記の検出の結果、人物F2(花子),F3(太郎)のうちの少なくともいずれかが映っているコンテンツとして、画像A、画像C、動画D、および動画Fの4つを選択する。一方、人物F2(花子),F3(太郎)がいずれも映っていない画像Bおよび動画Eは、この後に続くサムネイル画像やシナリオ情報の生成には使用されない。しかし、画像Bおよび動画Eは、必ずしも不要なコンテンツとは限らない。例えば、動画Eに他の被写体(例えば花子の友達)が映っているとすると、対象ユーザが花子の友達や花子自身である場合には、動画Eがコンテンツ抽出部140によって選択されうる。   As a result of the above detection, the content extraction unit 140 includes four images, that is, an image A, an image C, a moving image D, and a moving image F as content in which at least one of the persons F2 (Hanako) and F3 (Taro) is reflected. Select. On the other hand, the image B and the moving image E in which neither the person F2 (Hanako) nor F3 (Taro) is shown are used for the subsequent generation of thumbnail images and scenario information. However, the image B and the moving image E are not necessarily unnecessary contents. For example, if another subject (for example, Hanako's friend) is shown in the moving image E, the moving image E can be selected by the content extraction unit 140 when the target user is Hanako's friend or Hanako himself.

(サムネイル画像およびサムネイルシナリオの生成について)
図9Aは、フレーム/シーン抽出部160によるスコア抽出(S102)の例を、より詳細に示す図である。図示された例では、上記の図8の例の続きとして、コンテンツ抽出部140によって選択された画像A、画像C、動画D、および動画Fが、入力として与えられる。
(About generation of thumbnail images and thumbnail scenarios)
FIG. 9A is a diagram illustrating an example of score extraction (S102) by the frame / scene extraction unit 160 in more detail. In the illustrated example, as a continuation of the example of FIG. 8 described above, the image A, the image C, the moving image D, and the moving image F selected by the content extraction unit 140 are given as inputs.

スコア抽出(S102)では、入力として与えられたコンテンツについて、所定の基準でコンテンツ単位のスコアが設定される。図示された例では、対象被写体として含まれる人物F2(花子),F3(太郎)の笑顔度(スマイルマークを伴う数字で示す)が、各コンテンツのスコアとして抽出される。なお、笑顔度の検出には、例えば特開2008−311819号公報に記載された技術など、公知のあらゆる技術を適用することが可能である。   In the score extraction (S102), the content unit score is set based on a predetermined standard for the content given as input. In the illustrated example, smile levels (indicated by numbers with smile marks) of the persons F2 (Hanako) and F3 (Taro) included as target subjects are extracted as the scores of the respective contents. It should be noted that any known technique such as the technique described in Japanese Patent Application Laid-Open No. 2008-311819 can be applied to smile level detection.

図示された例において、フレーム/シーン抽出部160は、画像Aおよび画像Cについては、そのまま笑顔度検出を実行して、笑顔度をコンテンツのスコアに設定する。一方、動画Dおよび動画Fについては、コンテンツ抽出部140での処理と同様に、所定のフレームレートでキャプチャ画像(フレーム)を取得し、対象被写体が映っているフレームについて笑顔度検出を実行する。つまり、図示された例では、フレームレート1fpsで取得されたキャプチャ画像のうち、動画DのフレームD#1、D#3,D#9,D#10、および動画FのフレームF#1,F#5について、笑顔度検出が実行される。フレーム/シーン抽出部160は、それぞれの動画について、各フレームで取得された笑顔度のうち最も高いものをコンテンツのスコアに設定する。   In the illustrated example, the frame / scene extraction unit 160 performs smile level detection as it is for the image A and the image C, and sets the smile level as a content score. On the other hand, for the moving image D and the moving image F, similar to the processing in the content extraction unit 140, a captured image (frame) is acquired at a predetermined frame rate, and smile level detection is executed for a frame in which the target subject is shown. That is, in the illustrated example, among the captured images acquired at the frame rate of 1 fps, the frames D # 1, D # 3, D # 9, and D # 10 of the moving image D and the frames F # 1 and F of the moving image F are captured. Smile level detection is executed for # 5. The frame / scene extraction unit 160 sets, for each moving image, the highest smile level acquired in each frame as the content score.

また、図示された例において、フレーム/シーン抽出部160は、対象被写体が複数である場合、それぞれの対象被写体について笑顔度検出を実行する。つまり、人物F2(花子),F3(太郎)の両方が映っている画像C,および動画DのフレームD#9,D#10について、フレーム/シーン抽出部160は、人物F2(花子)についての笑顔度と、人物F3(太郎)についての笑顔度との両方を検出する。このようにして検出された笑顔度は、例えば画像Cについては「70/30」のように示されている。これは、人物F2(花子)についての笑顔度が70であり、人物F3(太郎)についての笑顔度が30であることを示す。   Further, in the illustrated example, when there are a plurality of target subjects, the frame / scene extraction unit 160 performs smile level detection for each target subject. That is, the frame / scene extraction unit 160 for the image F in which both the persons F2 (Hanako) and F3 (Taro) are shown, and the frames D # 9 and D # 10 of the moving picture D, the person F2 (Hanako). Both the smile level and the smile level of the person F3 (Taro) are detected. The degree of smile detected in this way is indicated as “70/30” for the image C, for example. This indicates that the smile degree for the person F2 (Hanako) is 70 and the smile degree for the person F3 (Taro) is 30.

以上のようなスコア抽出の結果に基づいて、フレーム/シーン抽出部160は、それぞれのコンテンツのスコアを決定する。また、コンテンツが動画の場合、フレーム/シーン抽出部160は、スコアに対応するフレームをコンテンツの代表フレームに設定してもよい。図示された例において、フレーム/シーン抽出部160は、画像Aについては人物F2(花子)の笑顔度10を、画像Cについては人物F2(花子)/F3(太郎)の笑顔度70/30を、動画Dについては代表フレームD#1および人物F2(花子)の笑顔度100を、動画Fについては代表フレームF#5および人物F2(花子)の笑顔度80を、それぞれ設定する。   Based on the result of the score extraction as described above, the frame / scene extraction unit 160 determines the score of each content. Further, when the content is a moving image, the frame / scene extraction unit 160 may set a frame corresponding to the score as a representative frame of the content. In the illustrated example, the frame / scene extraction unit 160 sets the smile level 10 of the person F2 (Hanako) for the image A and the smile level 70/30 of the person F2 (Hanako) / F3 (Taro) for the image C. For movie D, representative frame D # 1 and person F2 (Hanako) smile level 100 are set, and for movie F, representative frame F # 5 and person F2 (Hanako) smile level 80 are set.

なお、ここで抽出されるスコアおよび代表フレームは、例えばサムネイルとして表示される画像または動画の選択に影響するため、フレーム/シーン抽出部160は、例えば被写体間のバランスに配慮して、設定を調整してもよい。例えば、フレーム/シーン抽出部160は、人物F2(花子)と人物F3(太郎)とが両方含まれるフレームを、優先的に代表フレームとして選択してもよい。この場合、例えば、動画Dでは、人物F2(花子)が単独で映っていて笑顔度が高いフレームD#1ではなく、人物F2(花子)と人物F3(太郎)とが両方映っているフレームD#9またはフレームD#10が代表フレームに設定され、人物F2(花子)/F3(太郎)の笑顔度50/90がコンテンツのスコアに設定される。   Note that the score and the representative frame extracted here affect the selection of, for example, an image or a moving image displayed as a thumbnail. Therefore, the frame / scene extraction unit 160 adjusts the setting in consideration of the balance between subjects, for example. May be. For example, the frame / scene extraction unit 160 may preferentially select a frame including both the person F2 (Hanako) and the person F3 (Taro) as the representative frame. In this case, for example, in the moving image D, the frame D # 1 in which both the person F2 (Hanako) and the person F3 (Taro) are shown is shown, not the frame D # 1 in which the person F2 (Hanako) is shown alone and the smile level is high. # 9 or frame D # 10 is set as the representative frame, and the smile level 50/90 of person F2 (Hanako) / F3 (Taro) is set as the content score.

図9Bは、サムネイル画像抽出部170によるイベント代表画像の選定(S103)およびパラパラサムネイルの生成(S104)の例を、より詳細に示す図である。図示された例では、上記の図9Aの例の続きとして、フレーム/シーン抽出部160によって設定されたコンテンツ(画像A、画像C、動画D、および動画F)のスコアおよび代表フレームの情報が、入力として与えられる。   FIG. 9B is a diagram illustrating in more detail an example of event representative image selection (S103) and flip thumbnail generation (S104) by the thumbnail image extraction unit 170. In the illustrated example, as a continuation of the example of FIG. 9A described above, the score of the content (image A, image C, moving image D, and moving image F) set by the frame / scene extraction unit 160 and the information of the representative frame are as follows. Given as input.

イベント代表画像選定(S103)では、フレーム/シーン抽出部160によって設定されたスコアが最も高い画像、または動画のフレームが、イベントの代表画像に設定される。図示された例では、動画Dの代表フレームD#1における人物F2(花子)の笑顔度100が、最も高いスコアである。そこで、サムネイル画像抽出部170は、このフレームD#1を、イベントI1(運動会)の代表画像に選定する。上述のように、イベント代表画像は、例えばコンテンツ視聴クライアント300において、イベント情報とともに表示されうる。   In event representative image selection (S103), an image with the highest score set by the frame / scene extraction unit 160 or a frame of a moving image is set as the representative image of the event. In the illustrated example, the smile degree 100 of the person F2 (Hanako) in the representative frame D # 1 of the moving image D is the highest score. Therefore, the thumbnail image extraction unit 170 selects the frame D # 1 as a representative image of the event I1 (athletic meet). As described above, the event representative image can be displayed together with the event information in the content viewing client 300, for example.

一方、パラパラサムネイル生成(S104)では、フレーム/シーン抽出部160によってスコアが設定された画像、および動画の代表フレームが順次表示されるアニメーションを生成する。図示された例において、パラパラサムネイルでは、画像A、動画DのフレームD#1(代表フレーム)、画像C、および動画FのフレームF#5(代表フレーム)が、5秒ずつ順次表示される。なお、各画像が表示される時間は必ずしも5秒でなくてもよい。また、これらの画像は、繰返し表示されてもよい。パラパラサムネイルも、イベント代表画像と同様に、例えばコンテンツ視聴クライアント300において、イベント情報とともに表示されうる。   On the other hand, in the flip thumbnail generation (S104), an image in which a score is set by the frame / scene extraction unit 160 and an animation in which a representative frame of a moving image is sequentially displayed is generated. In the illustrated example, in the flip thumbnail, frame D # 1 (representative frame) of image A, moving image D, image C, and frame F # 5 (representative frame) of moving image F are sequentially displayed every 5 seconds. The time for displaying each image is not necessarily 5 seconds. These images may be displayed repeatedly. Similar to the event representative image, the flip thumbnail can be displayed together with the event information in the content viewing client 300, for example.

図9Cは、フレーム/シーン抽出部160によるシーン切り出しAの処理(S105)の例を、より詳細に示す図である。図示された例では、上記の図9Aの例の続きとして、フレーム/シーン抽出部160によって設定されたコンテンツ(画像A、画像C、動画D、および動画F)のスコアおよび代表フレームの情報が、入力として与えられる。   FIG. 9C is a diagram showing in more detail an example of scene cutout A processing (S105) by the frame / scene extraction unit 160. In the illustrated example, as a continuation of the example of FIG. 9A described above, the score of the content (image A, image C, moving image D, and moving image F) set by the frame / scene extraction unit 160 and the information of the representative frame are as follows. Given as input.

シーン切り出しAの処理(S105)では、動画のコンテンツ(動画Dおよび動画F)について、代表フレームの前後の区間を代表シーンとして切り出す。図示された例では、シーンの切り出しのルールとして、例えば以下が設定される。
・対象被写体が映っているフレームが連続している場合、これらのフレームを一体のフレーム群として扱う。
・対象被写体が映っているフレームと、次に対象被写体が映っているフレーム(別の対象被写体が映っていてもよい)との間が2秒以内の場合は、これらのフレームを一体のフレーム群として扱う。
・対象被写体が映っているフレームまたはフレーム群の前後1秒までを、1つのシーンとして切り出す。
・1つのシーンは最低3秒とし、対象被写体が映っているフレームが先頭フレームまたは最終フレームである場合は、当該フレームの前後2秒までを切り出す。
In the process of scene cutout A (S105), the sections before and after the representative frame are cut out as representative scenes for the moving picture contents (moving picture D and moving picture F). In the illustrated example, for example, the following is set as a scene cut-out rule.
-When the frames in which the subject is shown are continuous, these frames are treated as an integrated frame group.
・ If it is within 2 seconds between the frame in which the target subject is shown and the next frame in which the target subject is shown (other target subjects may be shown), these frames are combined into a single frame group. Treat as.
Cut out as a single scene up to 1 second before and after the frame or frame group in which the target subject is shown.
One scene is at least 3 seconds, and if the frame in which the target subject is shown is the first frame or the last frame, cut out up to 2 seconds before and after the frame.

図示された例では、シーン切り出しの基準が1秒の単位で設定されるため、上述した対象コンテンツの選択などの場合と同様に、フレームレート1fpsで取得したキャプチャ画像を用いて、シーン切り出しの判定が可能である。例えば、シーン切り出しの基準が0.1秒の単位で設定されているような場合には、フレームレート10fpsで取得したキャプチャ画像を用いてシーン切り出しの判定が実行されうる。   In the example shown in the drawing, the scene cut-out criterion is set in units of one second, so that the scene cut-out determination is performed using the captured image acquired at the frame rate of 1 fps as in the case of selecting the target content described above. Is possible. For example, when the scene cutout reference is set in units of 0.1 seconds, scene cutout determination can be performed using a captured image acquired at a frame rate of 10 fps.

動画Dについては、先頭のフレームD#1が代表フレームであるため、フレームD#1から3秒、つまりフレームD#1〜D#3代表シーンD#1に設定される。また、動画Fについては、中間のフレームF#5が代表フレームであるため、このフレームF#5の前後1秒で3秒、つまりフレームF#4〜F#6が代表シーンF#5に設定される。 For the moving image D, since the first frame D # 1 is the representative frame, 3 seconds from the frame D # 1, that is, the frames D # 1 to D # 3 are set as the representative scene D # 1. For the moving image F, since the intermediate frame F # 5 is the representative frame, 3 seconds in 1 second before and after the frame F # 5, that is, the frames F # 4 to F # 6 are set as the representative scene F # 5. Is done.

なお、代表シーンの範囲は、上記のように所定のフレームレートのキャプチャ画像によって設定されるが、実際の代表シーンは、これらのキャプチャ画像に対応する動画の区間である。つまり、代表シーンD#1は、3枚のフレームではなく、例えばフレームD#1からD#3までの間の一連のフレームの全体によって構成される動画の一部分である。   The range of the representative scene is set by the captured images having a predetermined frame rate as described above, but the actual representative scene is a moving image section corresponding to these captured images. That is, the representative scene D # 1 is not a three-frame frame, but is a part of a moving image constituted by a whole series of frames between, for example, the frames D # 1 to D # 3.

上記のようなシーン切り出しAの処理によって取得される動画D,Fのそれぞれの代表シーンD#1,F#5と、対象コンテンツ選択(S101)で選択された画像Aおよび画像Cとを、例えば時系列で配列することによって、サムネイル動画が得られる。   For example, the representative scenes D # 1 and F # 5 of the moving images D and F acquired by the scene cutout A processing as described above and the images A and C selected in the target content selection (S101) are, for example, A thumbnail video is obtained by arranging in time series.

図9Dは、シナリオ情報生成部180によるサムネイルシナリオの生成(S106)の例を、より詳細に示す図である。図示された例では、上記の図9Cの例の続きとして、画像A、画像C、および動画D,Fのそれぞれの代表シーンD#1,F#5が、入力として与えられる。   FIG. 9D is a diagram illustrating an example of thumbnail scenario generation (S106) by the scenario information generation unit 180 in more detail. In the illustrated example, as a continuation of the above example of FIG. 9C, the representative scenes D # 1 and F # 5 of the image A, the image C, and the moving images D and F are given as inputs.

シナリオ情報生成部180は、これらのコンテンツを例えば時系列で配列して、サムネイル動画を定義する。さらに、シナリオ情報生成部180は、サムネイル動画に対応するサムネイルシナリオTSを生成する。サムネイルシナリオTSは、例えば上記のハイライトシナリオHSの例と同様に、コンテンツの所在およびシーンの開始と終了との位置を示すxml形式のファイルであってもよいが、これには限られない。   The scenario information generation unit 180 defines the thumbnail video by arranging these contents, for example, in time series. Furthermore, the scenario information generation unit 180 generates a thumbnail scenario TS corresponding to the thumbnail video. The thumbnail scenario TS may be an xml file indicating the location of the content and the start and end of the scene, as in the example of the highlight scenario HS described above, but is not limited thereto.

生成されたサムネイルシナリオTSは、コンテンツ視聴クライアント300に出力される。コンテンツ視聴クライアント300のコンテンツ取得部310が、サムネイルシナリオTSに従ってコンテンツを取得することによって、図示されているようなサムネイル動画が再生される。   The generated thumbnail scenario TS is output to the content viewing client 300. When the content acquisition unit 310 of the content viewing client 300 acquires content according to the thumbnail scenario TS, a thumbnail video as illustrated is reproduced.

図示されたサムネイル動画の例では、画像Aが3秒間表示された後に、シーンD#1が再生され、さらに画像Cが3秒間表示され、最後にシーンF#5が再生される。なお、サムネイル動画において、画像が表示される時間は必ずしも3秒でなくてもよいが、図示された例では、シーンD#1およびシーンF#5の長さがいずれも3秒であるため、画像A,Cもこれらに合わせて3秒間表示される。また、サムネイル動画は、繰返し再生されてもよい。   In the example of the thumbnail movie shown in the figure, after the image A is displayed for 3 seconds, the scene D # 1 is reproduced, the image C is further displayed for 3 seconds, and finally the scene F # 5 is reproduced. In the thumbnail video, the image display time does not necessarily have to be 3 seconds. However, in the illustrated example, the lengths of the scene D # 1 and the scene F # 5 are both 3 seconds. Images A and C are also displayed for 3 seconds in accordance with these. Further, the thumbnail video may be reproduced repeatedly.

また、図示されているように、サムネイル動画は、例えばコンテンツ視聴クライアント300において、イベント情報(イベント詳細)とともに表示されうるが、このとき、コンテンツに含まれる被写体の情報(映っている人物)があわせて表示されてもよい。図示された例では、人物F2,F3が表示されている。   As shown in the figure, the thumbnail video can be displayed together with event information (event details), for example, in the content viewing client 300. At this time, information on the subject included in the content (a person who is shown) is added. May be displayed. In the illustrated example, people F2 and F3 are displayed.

(ハイライトシナリオの生成について)
図10Aは、フレーム/シーン抽出部160によるシーン切り出しBの処理(S107)の例を、より詳細に示す図である。図示された例では、上記の図8の例の続きとして、コンテンツ抽出部140によって選択された画像A、画像C、動画D、および動画Fが、入力として与えられる。
(About creating a highlight scenario)
FIG. 10A is a diagram showing in more detail an example of scene cutout B processing (S107) by the frame / scene extraction unit 160. In the illustrated example, as a continuation of the example of FIG. 8 described above, the image A, the image C, the moving image D, and the moving image F selected by the content extraction unit 140 are given as inputs.

シーン切り出しBの処理(S107)では、動画のコンテンツ(動画Dおよび動画F)について、対象被写体が映っている区間を代表シーンとして切り出す。図示された例では、シーンの切り出しのルールとして、例えば以下が設定される(上記のシーン切り出しAの処理でのルールとの相違点を<>で示す)。
・対象被写体が映っているフレームが連続している場合、これらのフレームを一体のフレーム群として扱う。
・対象被写体が映っているフレームと、次に対象被写体が映っているフレーム(別の対象被写体が映っていてもよい)との間が<5秒>以内の場合は、これらのフレームを一体のフレーム群として扱う。
・対象被写体が映っているフレームまたはフレーム群の前後<2秒>までを、1つのシーンとして切り出す。
In the process of scene cutout B (S107), the section in which the target subject is shown is cut out as a representative scene for the moving picture content (moving picture D and moving picture F). In the illustrated example, for example, the following is set as a scene cut-out rule (the difference from the rule in the scene cut-out A process is indicated by <>).
-When the frames in which the subject is shown are continuous, these frames are treated as an integrated frame group.
・ If the frame between the subject subject and the next subject subject frame (may be another subject subject) is within <5 seconds>, these frames are integrated Treat as a frame group.
Cut out as a single scene up to <2 seconds> before and after the frame or frame group in which the subject is shown.

ハイライト動画は、コンテンツを短くまとめるために生成されるサムネイル動画とは異なり、ユーザによる視聴の対象として生成される。それゆえ、ハイライト動画には、コンテンツの中で視聴するユーザの興味の対象になる部分が十分に含まれることが望ましい。そのため、上記の例のように、シーン切り出しの基準が、サムネイル動画の場合とは異なっていてもよい。   A highlight video is generated as a target for viewing by a user, unlike a thumbnail video generated to shorten content. Therefore, it is desirable that the highlight moving image sufficiently includes a portion that is a target of interest of the user who views the content. For this reason, as in the above example, the criteria for scene cutout may be different from those for thumbnail videos.

例えば、動画において、対象被写体が映っているフレームだけをシーンとして切り出すと、途切れ途切れの不自然なハイライト動画が生成される可能性がある。そこで、ハイライト動画のためのシーン切り出しBの処理では、対象被写体が映っているフレームが一体のフレーム群として扱われるための間隔や、1つのシーンの最低長さが、サムネイル動画の場合よりも長く設定されうる。これによって、例えば、対象被写体が映っているが画像解析では認識されなかった場合や、対象被写体が後ろを向いていた場合など、対象被写体が映ってはいるが人物としては認識されていない部分を、切り出されるシーンに含めることが可能になる。   For example, if only a frame in which a target subject is shown in a moving image is cut out as a scene, an unnatural highlight moving image may be generated. Therefore, in the scene cutout B process for the highlight video, the interval for handling the frame in which the target subject is shown as an integral frame group and the minimum length of one scene are smaller than in the case of the thumbnail video. Can be set longer. As a result, for example, when the target subject is reflected but not recognized by image analysis, or when the target subject is facing backward, the portion where the target subject is reflected but is not recognized as a person Can be included in the scene to be cut out.

図示された例では、上記のルールに従って、動画Dでは、フレームD#1とフレームD#3とが一体のフレーム群として扱われ、フレームD#1から、フレームD#3の2秒後のフレームD#5までが、シーンD#1として切り出される。また、フレームD#9とフレームD#10とが一体のフレーム群として扱われ、フレームD#9の2秒前のフレームD#7から、フレームD#10までが、シーンD#2として切り出される。一方、動画Fでは、フレームF#1とフレームF#5とが一体のフレーム群として扱われ、フレームF#1から、フレームF#5の2秒後のフレームF#7までが、シーンF#1として切り出される。 In the illustrated example, in accordance with the above rules, in the moving image D, the frame D # 1 and the frame D # 3 are handled as an integrated frame group, and the frame 2 seconds after the frame D # 3 from the frame D # 1 Up to D # 5 is cut out as scene D # 1. Also, the frame D # 9 and the frame D # 10 are treated as an integrated frame group, and the frame D # 7 from 2 seconds before the frame D # 9 to the frame D # 10 are cut out as the scene D # 2. . On the other hand, in the moving image F, the frame F # 1 and the frame F # 5 are treated as an integrated frame group, and the frame F # 1 to the frame F # 7 that is 2 seconds after the frame F # 5 are the scene F #. Cut out as 1.

なお、ここで切り出されるシーンの範囲は、上記のように所定のフレームレートのキャプチャ画像によって設定されるが、実際のシーンは、これらのキャプチャ画像に対応する動画の区間である。つまり、シーンD#1は、5枚のフレームではなく、例えばフレームD#1からD#5までの一連のフレームの全体によって構成される動画の一部分である。   Note that the range of the scene cut out here is set by the captured images having a predetermined frame rate as described above, but the actual scene is a moving image section corresponding to these captured images. That is, the scene D # 1 is not a frame of five frames but a part of a moving image constituted by a whole series of frames from, for example, the frames D # 1 to D # 5.

図10Bおよび10Cは、シナリオ情報生成部180によるハイライトシナリオの生成(S108)の例を、より詳細に示す図である。図示された例では、上記の図10Aの例の続きとして、画像A、画像C、動画Dから切り出されたシーンD#1およびシーンD#2、ならびに動画Fから切り出されたシーンF#1が、入力として与えられる。   10B and 10C are diagrams illustrating an example of the highlight scenario generation (S108) by the scenario information generation unit 180 in more detail. In the illustrated example, as a continuation of the example of FIG. 10A described above, scenes D # 1 and D # 2 cut out from image A, image C, and movie D, and scene F # 1 cut out from movie F are shown. , Given as input.

図10Bに示すように、シナリオ情報生成部180は、これらのコンテンツを例えば時系列で配列して、ハイライト動画を定義する。さらに、シナリオ情報生成部180は、ハイライト動画に対応するハイライトシナリオHSを生成する。ハイライトシナリオHSは、例えばコンテンツの所在およびシーンの開始と終了との位置を示すxml形式のファイルであってもよいが、これには限られない。   As shown in FIG. 10B, the scenario information generation unit 180 defines the highlight moving image by arranging these contents in time series, for example. Further, the scenario information generation unit 180 generates a highlight scenario HS corresponding to the highlight moving image. The highlight scenario HS may be, for example, an xml format file indicating the location of the content and the start and end of the scene, but is not limited thereto.

図10Cに示すように、生成されたハイライトシナリオHSは、コンテンツ視聴クライアント300に出力される。コンテンツ視聴クライアント300のコンテンツ取得部310が、ハイライトシナリオHSに従ってコンテンツを取得することによって、図示されているようなハイライト動画が再生される。   As illustrated in FIG. 10C, the generated highlight scenario HS is output to the content viewing client 300. When the content acquisition unit 310 of the content viewing client 300 acquires content according to the highlight scenario HS, a highlight moving image as illustrated is reproduced.

図示されたハイライト動画の例では、画像Aが3秒間表示された後に、シーンD#1が再生され、続いてシーンD#2が再生され、さらに画像Cが3秒間表示され、最後にシーンF#1が再生される。なお、ハイライト動画において、画像が表示される時間は必ずしも3秒でなくてもよい。画像が表示される時間は、例えば他に含まれる動画のシーンの長さ、あるいはハイライト動画全体の長さに応じて動的に設定されてもよい。なお、ハイライト動画は、例えばユーザによって意図的に選択されて視聴されるものであるため、サムネイル動画とは異なり、多くの場合は繰返し再生されない。   In the example of the highlighted movie shown in the figure, after the image A is displayed for 3 seconds, the scene D # 1 is reproduced, the scene D # 2 is subsequently reproduced, and the image C is further displayed for 3 seconds. F # 1 is reproduced. In the highlight movie, the time for displaying an image is not necessarily 3 seconds. The time for which the image is displayed may be dynamically set according to, for example, the length of the moving image scene included elsewhere or the entire length of the highlight moving image. Note that the highlight moving image is, for example, intentionally selected and viewed by the user, and therefore unlike the thumbnail moving image, in many cases, it is not repeatedly reproduced.

(5.コンテンツ視聴時の表示)
次に、図11〜図13Dを参照して、本開示の一実施形態におけるコンテンツ視聴時の表示について説明する。図11は、本開示の一実施形態におけるコンテンツ視聴時の表示の全体について説明するための図である。図12は、本開示の一実施形態におけるノーマルモード再生画面の例を示す図である。図13A〜図13Dは、本開示の一実施形態におけるハイライトモード再生画面の例を示す図である。
(5. Display when viewing content)
Next, with reference to FIGS. 11 to 13D, display during content viewing according to an embodiment of the present disclosure will be described. FIG. 11 is a diagram for describing the entire display during content viewing according to an embodiment of the present disclosure. FIG. 12 is a diagram illustrating an example of a normal mode playback screen according to an embodiment of the present disclosure. 13A to 13D are diagrams illustrating examples of a highlight mode reproduction screen according to an embodiment of the present disclosure.

図11を参照すると、本開示の一実施形態では、コンテンツ視聴時に、例えば、ログイン画面1100、イベント一覧画面1200、ノーマルモード再生画面1300、およびハイライトモード再生画面1400が表示される。これらの表示は、例えば、コンテンツ視聴クライアント300で、表示制御部320によって表示部330に表示されうる。   Referring to FIG. 11, in one embodiment of the present disclosure, for example, a login screen 1100, an event list screen 1200, a normal mode playback screen 1300, and a highlight mode playback screen 1400 are displayed when viewing content. These displays can be displayed on the display unit 330 by the display control unit 320 in the content viewing client 300, for example.

例えば、ユーザがコンテンツ視聴クライアント300で、共有されたコンテンツの視聴を開始する場合、まず、表示制御部320は、ログイン画面1100を表示部330に表示させる。ログイン画面1100は、例えば図示されているように、IDおよびパスワードの入力領域を有する。このログイン画面を用いて、ユーザは、例えばコンテンツの共有を提供するサービスのアカウントにログインする。これによって、例えば、共有サーバ100は、コンテンツ視聴クライアント300を使用しているのがどの対象ユーザであるかを識別することが可能である。   For example, when the user starts viewing the shared content on the content viewing client 300, the display control unit 320 first displays the login screen 1100 on the display unit 330. The login screen 1100 has an input area for an ID and a password as shown in the figure, for example. Using this login screen, the user logs in to an account of a service that provides content sharing, for example. Thereby, for example, the shared server 100 can identify which target user is using the content viewing client 300.

ユーザのログインが成功すると、イベント一覧画面1200が表示される。イベント一覧画面1200は、例えば、共有サーバ100のイベント情報生成部150によって生成されるイベント情報を、リストとして表示する画面である。イベント一覧画面には、例えば、サムネイル画像抽出部170によって生成されるイベント代表画像やパラパラサムネイル、あるいは、シナリオ情報生成部180によって生成されるサムネイルシナリオに従って取得されるサムネイル動画が、イベントの情報とともに表示されてもよい。この場合、イベント代表画像、パラパラサムネイル、またはサムネイル動画のいずれを表示するかは、例えばコンテンツ視聴クライアント300の描画能力に基づいて決定されてもよい。   If the user login is successful, an event list screen 1200 is displayed. The event list screen 1200 is a screen that displays, for example, event information generated by the event information generation unit 150 of the shared server 100 as a list. In the event list screen, for example, event representative images and flip thumbnails generated by the thumbnail image extraction unit 170 or thumbnail videos acquired according to the thumbnail scenario generated by the scenario information generation unit 180 are displayed together with event information. May be. In this case, whether to display the event representative image, the flip thumbnail, or the thumbnail moving image may be determined based on, for example, the rendering capability of the content viewing client 300.

ここで、イベント一覧画面1200で表示されるイベントは、例えば、図示されているように「運動会」、「誕生日」、「家族旅行」などの具体的なイベントに対応していてもよいし、「2008.05.08−2008.05.09」のように、単に撮影日時の範囲に対応していてもよい。コンテンツは、必ずしも具体的なイベントの際に撮影されるとは限らないため、図示された例のように、撮影日時の範囲によってイベントが定義されてもよい。   Here, the events displayed on the event list screen 1200 may correspond to specific events such as “Athletic meet”, “Birthday”, “Family trip”, for example, As in “2008.05.08-2008.05.09”, it may simply correspond to the shooting date and time range. Since the content is not necessarily shot at a specific event, the event may be defined by the range of shooting date and time as in the illustrated example.

また、イベント一覧画面1200では、イベント名(または日付)とともに、コンテンツを提供しているユーザを識別する情報が表示されてもよい。図示された例では、コンテンツを提供しているユーザを識別する情報として、「aaa@bb.cc」などのメールアドレスが表示されているが、これには限られず、例えばユーザID、ニックネームなどが表示されてもよい。   In the event list screen 1200, information for identifying a user who provides content may be displayed together with an event name (or date). In the illustrated example, an e-mail address such as “aaa@bb.cc” is displayed as information for identifying the user providing the content, but is not limited to this, for example, a user ID, a nickname, or the like. May be displayed.

イベント一覧画面1200で、ユーザが例えば操作部340を用いていずれかのイベントを選択すると、イベントに対応するコンテンツの再生が開始される。ここで再生されるコンテンツは、例えば、共有サーバ100のシナリオ情報生成部180によって生成されるハイライトシナリオに従って取得されるハイライト動画である。   When the user selects any event on the event list screen 1200 using, for example, the operation unit 340, reproduction of content corresponding to the event is started. The content reproduced here is, for example, a highlight movie acquired according to a highlight scenario generated by the scenario information generation unit 180 of the shared server 100.

図示された例において、コンテンツは、まずはノーマルモード再生画面1300で再生される。ここで、ユーザが例えば操作部340を用いてモード切替の操作を実行すると、コンテンツの再生が継続されたまま、表示がハイライトモード再生画面1400に変更される。ここで、ノーマルモード再生画面1300とハイライトモード再生画面1400との間では、コンテンツの進行を表示するプログレスバーの表示が異なる。このプログレスバーの表示については、続く部分でより詳しく説明する。   In the illustrated example, the content is first played on the normal mode playback screen 1300. Here, when the user performs a mode switching operation using the operation unit 340, for example, the display is changed to the highlight mode playback screen 1400 while the playback of the content is continued. Here, between the normal mode playback screen 1300 and the highlight mode playback screen 1400, the display of the progress bar for displaying the progress of the content is different. The display of the progress bar will be described in more detail in the following part.

ノーマルモード再生画面1300、またはハイライトモード再生画面1400で、ユーザが例えば操作部340を用いて再生終了を指示すると、コンテンツの再生が終了し、表示がイベント一覧画面1200に戻る。   In the normal mode playback screen 1300 or the highlight mode playback screen 1400, when the user instructs the end of playback using, for example, the operation unit 340, the playback of content ends and the display returns to the event list screen 1200.

(ノーマルモード再生画面)
図12には、ノーマルモード再生画面の例が示されている。ノーマルモード再生画面1300には、通常のプログレスバー1310が表示される。なお、プログレスバー1310としては、例えは特開2008−67207号公報に記載された技術など、公知のあらゆる技術を適用することが可能である。図示された例では、プログレスバー1310が再生されるコンテンツの全体を表示している。プログレスバー1310のうち、既に再生された部分と、まだ再生されていない部分とは、異なる色で表示される。これらの色の異なる部分の境界が、現在再生されている部分に対応する。ユーザは、プログレスバー1310の任意の位置を操作部340を用いて選択することによって、コンテンツ内の任意の位置にジャンプすることが可能である。
(Normal mode playback screen)
FIG. 12 shows an example of a normal mode playback screen. On the normal mode playback screen 1300, a normal progress bar 1310 is displayed. As the progress bar 1310, any known technique such as the technique described in Japanese Patent Application Laid-Open No. 2008-67207 can be applied. In the illustrated example, the progress bar 1310 displays the entire content to be played. Of the progress bar 1310, the part that has already been reproduced and the part that has not yet been reproduced are displayed in different colors. The boundaries of these differently colored parts correspond to the part currently being played back. The user can jump to an arbitrary position in the content by selecting an arbitrary position of the progress bar 1310 using the operation unit 340.

(ハイライトモード再生画面)
図13Aには、ハイライトモード再生画面の例が示されている。ハイライトモード再生画面1400には、例えばハイライト動画のようなハイライトコンテンツの再生に特に適したプログレスバー1410が表示される。ここで、ハイライトコンテンツは、ハイライト動画のように、元々のコンテンツに含まれる区間のうちの一部(第1の区間)が再生され、他の部分(第2の区間)が再生されないコンテンツである。
(Highlight mode playback screen)
FIG. 13A shows an example of a highlight mode playback screen. On the highlight mode playback screen 1400, a progress bar 1410 particularly suitable for playback of highlight content such as a highlight movie is displayed. Here, the highlight content is a content in which a part (first section) of the section included in the original content is reproduced and the other part (second section) is not reproduced, like a highlight video. It is.

かかるハイライトコンテンツが再生される場合、例えば、ユーザが、カットされた部分も視聴したくなる場合はある。そのような場合に、例えばカットされた部分がプログレスバー上に表示されていなければ、ユーザは、カットされた部分を認識することすら難しい(視聴したい部分がカットされているのか、元々ないのかがわからない)。かといって、カットされた部分もすべて含めてプログレスバーを表示すると、プログレスバー上に意味のない部分(ユーザが視聴したいと望まなければ再生されない部分)が多く発生してしまい、表示が冗長になってしまう。   When such highlight content is reproduced, for example, the user may want to view the cut portion. In such a case, for example, if the cut portion is not displayed on the progress bar, it is difficult for the user to recognize the cut portion (whether the portion that the user wants to watch has been cut or not originally exists). do not know). However, if the progress bar is displayed including all the cut parts, there will be many meaningless parts on the progress bar (parts that will not be played if the user does not want to watch), and the display becomes redundant. turn into.

そこで、この実施形態では、ハイライトコンテンツの再生に特に適したプログレスバー1410を表示して、上記のような場合であってもユーザがより快適にコンテンツを視聴できるようにする。   Therefore, in this embodiment, a progress bar 1410 particularly suitable for reproduction of highlight content is displayed so that the user can view the content more comfortably even in the above case.

プログレスバー1410は、+ボタン1411、および−ボタン1412を含む。また、ハイライトモード再生画面1400には、さらに、再生位置表示1420、および人物表示1430が表示される。   The progress bar 1410 includes a + button 1411 and a − button 1412. Further, on the highlight mode playback screen 1400, a playback position display 1420 and a person display 1430 are further displayed.

まず、プログレスバー1410は、必ずしも再生されるコンテンツの全体を表示しないという点で、ノーマルモード再生画面に表示されるプログレスバー1310とは異なる。プログレスバー1410は、現在再生されている部分が、再生位置表示1420(位置が固定されている)に一致するように(センターフォーカス)、コンテンツの再生に伴って右から左へと流れていく。従って、後述するようにプログレスバー1410上に配置される+ボタン1411や−ボタン1412は、コンテンツが再生された状態で、ユーザが特に操作をしなければ、プログレスバー1410の右端から現れ、再生位置表示1420の位置を通過し、プログレスバー1410の左端まで流れて消える。   First, the progress bar 1410 is different from the progress bar 1310 displayed on the normal mode playback screen in that it does not necessarily display the entire content to be played back. The progress bar 1410 flows from right to left as the content is played back so that the currently played portion matches the playback position display 1420 (the position is fixed) (center focus). Accordingly, as described later, the + button 1411 and the − button 1412 arranged on the progress bar 1410 appear from the right end of the progress bar 1410 when the user does not perform any particular operation in a state where the content is played back, and the playback position. It passes through the position of the display 1420, flows to the left end of the progress bar 1410, and disappears.

(+ボタン/−ボタン)
続いて、図13Bをあわせて参照して、プログレスバー1410に表示される+ボタン1411および−ボタン1412について、さらに説明する。
(+ Button /-button)
Next, the + button 1411 and the − button 1412 displayed on the progress bar 1410 will be further described with reference to FIG. 13B.

+ボタン1411は、再生されているコンテンツにカットされた部分が存在することを示すボタンである。上述のように、図示された例において再生されているコンテンツは、例えばシナリオ情報生成部180によって生成されるハイライトシナリオに従って取得されるハイライト動画である。ハイライト動画には、例えば図10Bの例に示されるように、動画の中にシーンとして抽出されなかった部分が存在する。   The + button 1411 is a button indicating that there is a cut portion in the content being played back. As described above, the content being played back in the illustrated example is a highlight moving image acquired according to a highlight scenario generated by the scenario information generation unit 180, for example. In the highlight moving image, for example, as shown in the example of FIG. 10B, there is a portion that is not extracted as a scene in the moving image.

ここで、ユーザが、例えば操作部340を介して+ボタン1411を押下したとする。そうすると、+ボタン1411が−ボタン1412に変化し、+ボタン1411によって示されていた、コンテンツの中のカット部分CUTが表示される。図13Aおよび図13Bにおいて、−ボタン1412の両側で他の部分とは異なる色で表示されている部分が、カット部分CUTである。カット部分CUTは、元々のコンテンツのうち、ハイライト動画としては再生されない部分(第2の区間)を表す。そのため、カット部分CUTは、プログレスバー1410の他の部分とは異なる概観、例えば異なる色で表示される。   Here, it is assumed that the user presses the + button 1411 via the operation unit 340, for example. Then, the + button 1411 changes to a − button 1412, and the cut portion CUT in the content indicated by the + button 1411 is displayed. In FIG. 13A and FIG. 13B, the portions displayed in a color different from the other portions on both sides of the − button 1412 are cut portions CUT. The cut part CUT represents a part (second section) of the original content that is not reproduced as a highlight moving image. Therefore, the cut portion CUT is displayed in a different overview from the other portions of the progress bar 1410, for example, in a different color.

それゆえ、プログレスバー1410のうち、カット部分CUT以外の部分をコンテンツの第1の区間を表す第1のバー、カット部分CUTを第1のバーに連続して表示されて第2の区間を表す第2のバーと表現してもよい。そうすると、+ボタン1411は、第2のバーに代えて第1のバー上に表示されて第2の区間が再生されないことを示すアイコンともいえる。   Therefore, in the progress bar 1410, a part other than the cut part CUT is displayed in succession on the first bar representing the first section of the content, and the cut part CUT is displayed in succession on the first bar to represent the second section. It may be expressed as a second bar. Then, it can be said that the + button 1411 is displayed on the first bar instead of the second bar and indicates that the second section is not reproduced.

−ボタン1412とともに表示されるカット部分CUTは、表示されるだけではなく、実際に再生される。例えば、再生位置表示1420よりも右側に位置するプログレスバー1410上の+ボタン1411が押下された場合、この+ボタン1411に対応するカットされた部分がカット部分CUTとして表示されるとともに、カット部分CUTが再生位置表示1420の位置に達した場合、コンテンツは、元々はカットされていた部分を含んで再生される。   The cut portion CUT displayed together with the − button 1412 is not only displayed but actually reproduced. For example, when the + button 1411 on the progress bar 1410 located on the right side of the reproduction position display 1420 is pressed, the cut portion corresponding to the + button 1411 is displayed as the cut portion CUT and the cut portion CUT. When the position of the playback position display 1420 is reached, the content is played back including the part that was originally cut.

これは、例えば、コンテンツ視聴クライアント300のコンテンツ取得部310が、操作部340を介して取得される+ボタン1411を押下する操作に応じて、コンテンツのカットされている部分のデータを新たにコンテンツサーバ400から取得し、そのデータを表示制御部320に提供することによって可能になる。   This is because, for example, in response to an operation in which the content acquisition unit 310 of the content viewing client 300 presses the + button 1411 acquired via the operation unit 340, the data of the cut part of the content is newly added to the content server. It can be obtained by acquiring the data from 400 and providing the data to the display control unit 320.

上記のような動作によって、再生されるコンテンツの全長は延びる。しかし、プログレスバー1410は、元々全体がコンテンツの全長には対応しておらず、またセンターフォーカスである。それゆえ、例えば図13Aの例で、再生位置表示1420の左側で+ボタン1411が−ボタン1412に変化し、−ボタン1412の両側にカット部分CUTが追加で表示されたとしても、プログレスバー1410のそれよりも左側の部分(元々カットされていない部分)の一部が表示されなくなるだけで、例えば再生位置表示1420の右側に表示されている別の+ボタン1411などの表示位置は変化しない。   By the operation as described above, the total length of the content to be played is extended. However, the progress bar 1410 originally does not correspond to the entire length of the content, and is the center focus. Therefore, for example, in the example of FIG. 13A, even if the + button 1411 is changed to the − button 1412 on the left side of the playback position display 1420 and the cut portions CUT are additionally displayed on both sides of the − button 1412, The display position of another + button 1411 or the like displayed on the right side of the playback position display 1420 does not change, for example, only a part of the left part (the part that is not originally cut) is not displayed.

一方、ユーザが、例えば操作部340を介して−ボタン1412を押下した場合、−ボタン1412が+ボタン1411に変化し、−ボタン1412の両側に表示されていたカット部分CUTが表示されなくなる。この状態では、例えば元々のハイライト動画のように、カットされた部分は再生されない。また、この場合、再生されるコンテンツの全長は縮まる。しかし、上述のように、プログレスバー1410は、元々全体がコンテンツの全長には対応しておらず、またセンターフォーカスであるため、−ボタン1412の+ボタン1411への変化が、例えばプログレスバー1410上で再生位置表示1420をはさんで反対側にある領域の表示に影響を与えることはない。   On the other hand, when the user presses the − button 1412 via the operation unit 340, for example, the − button 1412 changes to the + button 1411, and the cut portions CUT displayed on both sides of the − button 1412 are not displayed. In this state, the cut portion is not played back as in the original highlight movie, for example. In this case, the total length of the content to be reproduced is reduced. However, as described above, the progress bar 1410 originally does not correspond to the entire length of the content, and is the center focus, so that the change of the − button 1412 to the + button 1411 is, for example, on the progress bar 1410. Thus, the display of the area on the opposite side across the reproduction position display 1420 is not affected.

なお、上記の例では、初期設定としては、ハイライト動画が再生されることになっているため、再生の開始時には、カットされている部分を含まないコンテンツの再生が予定されている。このとき、プログレスバー1410上には、カット部分CUTおよび−ボタン1412は表示されず、コンテンツのカットされた部分にはすべて+ボタン1411が表示される。   In the above example, as a default setting, a highlight moving image is to be played back. Therefore, at the start of playback, playback of content that does not include a cut portion is scheduled. At this time, the cut portion CUT and the − button 1412 are not displayed on the progress bar 1410, and the + button 1411 is displayed for all the cut portions of the content.

(人物表示)
続いて、図13Cをあわせて参照して、ハイライトモード再生画面1400に表示される人物表示1430の例について、さらに説明する。人物表示1430は、コンテンツ共有の設定で、対象ユーザ(図示された例においてコンテンツ視聴しているユーザ)に関連付けられた対象被写体(人物)が映っているコンテンツ上の位置を示す。
(Person display)
Next, an example of the person display 1430 displayed on the highlight mode playback screen 1400 will be further described with reference to FIG. 13C. The person display 1430 indicates the position on the content where the target subject (person) associated with the target user (the user viewing the content in the illustrated example) is reflected in the content sharing setting.

図13Cの例では、人物表示1430が、それぞれの人物が映り始めたコンテンツ上の位置に表示される。例えば、人物表示1430aは、人物P1(花子),P2(太郎)が初めて映っている位置に表示される。それゆえ、人物表示1430aは、人物P1(花子),P2(太郎)の表示を含む。また、人物表示1430bは、人物P3(次郎)が初めて映っており、また人物P1(花子),P2(太郎)が一旦映らなくなった後、再び映り始めた位置に表示される。それゆえ、人物表示1430bは、人物P1(花子),P2(太郎),P3(次郎)の表示を含む。   In the example of FIG. 13C, the person display 1430 is displayed at a position on the content where each person starts to appear. For example, the person display 1430a is displayed at a position where the persons P1 (Hanako) and P2 (Taro) are shown for the first time. Therefore, the person display 1430a includes displays of persons P1 (Hanako) and P2 (Taro). Also, the person display 1430b is displayed at a position where the person P3 (Jiro) is shown for the first time, and after the persons P1 (Hanako) and P2 (Taro) are no longer shown, they are shown again. Therefore, the person display 1430b includes displays of persons P1 (Hanako), P2 (Taro), and P3 (Jiro).

一方、人物表示1430cは、人物P1(花子)が一旦映らなくなった後、再び映り始めた位置に表示される。この時点で、人物P2(太郎),P3(次郎)は、前回の人物表示1430bが表示された時点から継続して映っているため、人物表示1430cには含まれない。従って、人物表示1430cは、人物P1(花子)の表示だけを含む。また、人物表示1430dは、人物P2(太郎),P3(次郎)が一旦映らなくなった後、再び映り始めた位置に表示される。この時点で、人物P1(花子)は、前回の人物表示1430cが表示された時点から継続して映っているため、人物表示1430dには含まれない。従って、人物表示1430は、人物P2(太郎),P3(次郎)の表示だけを含む。 On the other hand, the person display 1430c is displayed at a position where the person P1 (Hanako) once appears and then starts to appear again. At this time, the persons P2 (Taro) and P3 (Jiro) are not included in the person display 1430c because they are continuously reflected from the time when the previous person display 1430b is displayed. Accordingly, the person display 1430c includes only the display of the person P1 (Hanako). In addition, the person display 1430d is displayed at a position where the persons P2 (Taro) and P3 (Jiro) once appear and then start to appear again. At this time, the person P1 (Hanako) is not included in the person display 1430d because the person P1 (Hanako) continues to appear from the time when the previous person display 1430c was displayed. Thus, the person display 1430 d is the person P2 (Taro), including only the display of the P3 (Jiro).

上記のような人物表示1430によって、例えば、コンテンツを視聴するユーザは、それぞれの人物が映り始めるタイミングを認識することが可能である。このように、映っている区間ではなく、出現するタイミングを表示することで、例えば、コンテンツを視聴していて、ある人物Pが映らなくなった場合に、次にその人物Pが出現する位置を探したいというようなユーザの要求を満たすことができる。   By the person display 1430 as described above, for example, a user who views the content can recognize the timing at which each person starts to appear. In this way, by displaying the timing of appearance instead of the section in which the image is shown, for example, when viewing content, when a certain person P no longer appears, the position where that person P appears next is searched. It is possible to satisfy the user's request for wanting.

別の例として、人物表示1430は、再生されているハイライト動画を構成するシーンや静止画ごとに表示されてもよい。上述のように、ハイライト動画は、対象被写体が映っているシーンや静止画によって構成される。従って、シーンや静止画ごとに、映っている対象被写体が変化することが多い。それゆえ、+ボタン1411で区切られたシーンや静止画ごとに人物表示1430を表示することによって、それぞれのシーンや静止画の表示にどの対象被写体が映っているかをユーザに知らせることができる。例えば、シーンの場合、人物表示1430は、シーンの開始位置(+ボタン1411の位置)に表示されてもよいし、シーンの中ほど(前後の+ボタン1411の中間)に表示されてもよい。   As another example, the person display 1430 may be displayed for each scene or still image constituting the highlighted moving image being reproduced. As described above, the highlight moving image is configured by a scene or a still image in which the target subject is shown. Therefore, the target subject that appears is often changed for each scene or still image. Therefore, by displaying the person display 1430 for each scene or still image delimited by the + button 1411, it is possible to inform the user which target subject appears in the display of each scene or still image. For example, in the case of a scene, the person display 1430 may be displayed at the start position of the scene (position of the + button 1411), or may be displayed in the middle of the scene (intermediate between the previous and next + buttons 1411).

なお、人物表示1430は、表示するか否かを、例えばシナリオプレーヤアプリケーション(図2を参照)の設定によって切り替えることが可能である。また、例えばユーザが操作部340を介して人物表示1430を選択した場合、再生がその場所にジャンプしてもよい。   Whether or not to display the person display 1430 can be switched by, for example, setting of a scenario player application (see FIG. 2). Further, for example, when the user selects the person display 1430 via the operation unit 340, the reproduction may jump to that place.

さらに、人物表示1430の他の例として、図13Dに示されるように、プログレスバー1410上の任意の位置が操作部340などを介して選択された場合、コンテンツのその位置に対応する部分に映っている人物Pの表示を含む人物表示1430が表示されてもよい。この表示は、例えば、シナリオプレーヤアプリケーションの設定によって人物表示1430が非表示に設定されている場合でも可能であってもよい。   Furthermore, as another example of the person display 1430, as shown in FIG. 13D, when an arbitrary position on the progress bar 1410 is selected via the operation unit 340 or the like, it is reflected in a portion corresponding to the position of the content. The person display 1430 including the display of the person P may be displayed. This display may be possible even when the person display 1430 is set to non-display by the setting of the scenario player application, for example.

(6.補足)
(他の実施形態)
なお、上記で図2を参照して説明したシステムの動作については、例えば以下で図14を参照して説明するような他の実施形態も可能である。図14は、本開示の他の実施形態に係るシステムの動作について説明するための図である。なお、この実施形態において、システムの機能構成などは、上記で説明した実施形態と同様であるため、詳細な説明を省略する。
(6. Supplement)
(Other embodiments)
In addition, about operation | movement of the system demonstrated above with reference to FIG. 2, other embodiment which is demonstrated with reference to FIG. 14 below, for example is also possible. FIG. 14 is a diagram for describing an operation of a system according to another embodiment of the present disclosure. In this embodiment, the functional configuration of the system is the same as that of the above-described embodiment, and detailed description thereof is omitted.

図14には、図2で説明したS1〜S11と同様の動作が示されている。ただし、この実施形態では、それぞれの動作が、図示されているように複数のサーバに分散して実行される。図示された例では、クライアント側のアプリケーションに関する処理は、アプリケーションサーバで実行される。また、コンテンツ解析(S3)を実行する解析サーバと、シナリオ生成(S8)などを実行するシナリオ作成サーバとは、別個のサーバである。この場合、これらのサーバ間でのメタ情報入力(S4)のために、解析コネクタサーバが設けられてもよい。   FIG. 14 shows operations similar to S1 to S11 described in FIG. However, in this embodiment, each operation is executed by being distributed to a plurality of servers as shown in the figure. In the illustrated example, processing related to the client-side application is executed by the application server. Also, the analysis server that executes content analysis (S3) and the scenario creation server that executes scenario generation (S8) are separate servers. In this case, an analysis connector server may be provided for meta information input (S4) between these servers.

なお、上記で図2および図14を参照して説明した動作は、いずれも本開示の実施形態の一例にすぎない。すなわち、図2および図14は、いずれも、例えば図1に示されるような本開示の機能構成の実装の一例を示しているに過ぎない。上述のように、本開示の機能構成は、例えば1または複数のサーバ装置と、同じく1または複数のクライアント装置とを含む任意のシステム構成によって実現されうる。   Note that the operations described above with reference to FIGS. 2 and 14 are only examples of the embodiment of the present disclosure. That is, both FIG. 2 and FIG. 14 show only an example of implementation of the functional configuration of the present disclosure as shown in FIG. 1, for example. As described above, the functional configuration of the present disclosure can be realized by an arbitrary system configuration including, for example, one or a plurality of server devices and one or a plurality of client devices.

(ハードウェア構成)
次に、図15を参照して、本開示の実施形態に係る共有サーバ100、コンテンツ提供クライアント200、コンテンツ視聴クライアント300、およびコンテンツサーバ400などを実現しうる情報処理装置900のハードウェア構成について説明する。図15は、情報処理装置のハードウェア構成について説明するためのブロック図である。
(Hardware configuration)
Next, a hardware configuration of the information processing apparatus 900 that can realize the shared server 100, the content providing client 200, the content viewing client 300, the content server 400, and the like according to the embodiment of the present disclosure will be described with reference to FIG. To do. FIG. 15 is a block diagram for explaining a hardware configuration of the information processing apparatus.

情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。さらに、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、および通信装置925を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)などの処理回路を有してもよい。   The information processing apparatus 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905. Further, the information processing apparatus 900 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925. The information processing apparatus 900 may include a processing circuit such as a DSP (Digital Signal Processor) instead of or in addition to the CPU 901.

CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。   The CPU 901 functions as an arithmetic processing device and a control device, and controls the overall operation or a part of the information processing device 900 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927. The ROM 903 stores programs and calculation parameters used by the CPU 901. The RAM 905 primarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. The CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. Further, the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.

入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。   The input device 915 is a device operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. The input device 915 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that supports the operation of the information processing device 900. The input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901. The user operates the input device 915 to input various data and instruct processing operations to the information processing device 900.

出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。   The output device 917 is configured by a device capable of visually or audibly notifying acquired information to the user. The output device 917 can be, for example, a display device such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro-Luminescence) display, an audio output device such as a speaker and headphones, and a printer device. . The output device 917 outputs the result obtained by the processing of the information processing device 900 as video such as text or an image, or outputs it as audio such as voice or sound.

ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶バイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。 The storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900. The storage device 919 is, for example, HDD (Hard Disk Drive) a magnetic storage device such as a semiconductor storage device, an optical storage device, or a magneto-optical storage device. The storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.

ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。   The drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 900. The drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905. In addition, the drive 921 writes a record in the attached removable recording medium 927.

接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。   The connection port 923 is a port for directly connecting a device to the information processing apparatus 900. The connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like. Further, the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (High-Definition Multimedia Interface) port, or the like. By connecting the external connection device 929 to the connection port 923, various types of data can be exchanged between the information processing apparatus 900 and the external connection device 929.

通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。   The communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931. The communication device 925 can be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB). The communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication. The communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example. The communication network 931 connected to the communication device 925 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, radio wave communication, or satellite communication.

撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。   The imaging device 933 uses various members such as an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) and a lens for controlling the formation of a subject image on the imaging element, for example. It is an apparatus that images a real space and generates a captured image. The imaging device 933 may capture a still image or may capture a moving image.

センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。   The sensor 935 is various sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, and a sound sensor. The sensor 935 acquires information about the state of the information processing apparatus 900 itself, such as the posture of the information processing apparatus 900, and information about the surrounding environment of the information processing apparatus 900, such as brightness and noise around the information processing apparatus 900, for example. To do. The sensor 935 may include a GPS sensor that receives a GPS (Global Positioning System) signal and measures the latitude, longitude, and altitude of the apparatus.

以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。   Heretofore, an example of the hardware configuration of the information processing apparatus 900 has been shown. Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.

(実施形態のまとめ)
本開示の実施形態では、コンテンツの共有相手ごとに、例えば共有相手の興味の対象になりうる被写体が設定される。この設定に従って、共有サーバが自動的にダイジェストコンテンツを構成するためのシナリオを生成する。ダイジェストコンテンツは、例えば共有相手にとって意味のあるシーンや画像を組み合わせたコンテンツであり、上記の実施形態ではハイライト動画として例示された。共有サーバは、上記の設定がされた後に追加されたコンテンツについても、自動的にシナリオの生成などを実行することが可能である。従って、コンテンツを提供するユーザは、一度共有設定をした後は、特に追加の操作をすることなくコンテンツを共有対象に追加するだけでよい。
(Summary of embodiment)
In the embodiment of the present disclosure, for each content sharing partner, for example, a subject that can be an interest of the sharing partner is set. In accordance with this setting, the shared server automatically generates a scenario for configuring the digest content. The digest content is, for example, content that combines scenes and images that are meaningful to the sharing partner, and is exemplified as a highlight video in the above embodiment. The shared server can automatically generate a scenario or the like for content added after the above settings are made. Therefore, the user who provides the content only needs to add the content to the sharing target without performing any additional operation after setting the sharing once.

また、ダイジェストコンテンツとしては、サムネイル動画が生成されてもよい。サムネイル動画は、共有相手にとって意味のあるシーンや画像を、より短くまとめたコンテンツである。ハイライト動画が主として共有相手の視聴に供されるのに対し、サムネイル動画は、いわばハイライト動画のサムネイルとして、例えばコンテンツの撮影対象のイベントを示す情報とともに共有相手に提示され、視聴対象の選択を容易にする。   In addition, a thumbnail video may be generated as the digest content. A thumbnail video is content in which scenes and images that are meaningful to a sharing partner are gathered together in a shorter time. The highlight video is mainly used for viewing by the sharing partner, while the thumbnail video is presented to the sharing partner, for example, as the thumbnail of the highlight video, together with information indicating the event to be captured of the content, for example. To make it easier.

視聴対象の選択を容易にするための情報としては、他に、サムネイル画像を表示してもよい。サムネイル画像は、上記の実施形態ではコンテンツ代表画像およびパラパラサムネイルとして例示された。サムネイル画像は、単一の画像(静止画)、または複数の静止画からなるアニメーションであるため、例えばクライアント装置の画像処理能力が低い場合でも表示することが可能である。   As information for facilitating selection of a viewing target, a thumbnail image may be displayed. In the above embodiment, the thumbnail images are exemplified as the content representative image and the flip thumbnail. Since the thumbnail image is a single image (still image) or an animation composed of a plurality of still images, it can be displayed even when the image processing capability of the client device is low, for example.

上記の実施形態では、共有サーバがシナリオ情報をクライアントに提供し、クライアント側でシナリオに従ってハイライト動画などのダイジェストコンテンツが生成された。しかしながら、例えばクライアント装置の画像処理能力が低かったり、通信状態が安定していたりする場合には、共有サーバ、またはコンテンツサーバがシナリオに従ってダイジェストコンテンツを生成し、クライアントに提供してもよい。   In the above embodiment, the shared server provides the scenario information to the client, and the digest content such as the highlight video is generated on the client side according to the scenario. However, for example, when the image processing capability of the client device is low or the communication state is stable, the shared server or the content server may generate digest content according to the scenario and provide it to the client.

また、共有相手や、共有相手に関連付ける被写体を設定するための操作は、例えば上記の実施形態で示されたようなGUIを用いて取得されうる。例えば、共有相手と被写体とをアイコン化して表示し、それぞれのアイコンを関連付けるドラッグ操作などに従って共有相手と被写体との関連付けを実行してもよい。これによって、ユーザが直感的な操作によって共有設定をすることが可能になる。   In addition, an operation for setting a sharing partner or a subject to be associated with the sharing partner can be acquired using, for example, a GUI as described in the above embodiment. For example, the sharing partner and the subject may be displayed as icons, and the sharing partner and the subject may be associated according to a drag operation for associating each icon. As a result, the user can make sharing settings through intuitive operations.

また、上記のハイライト動画などのように、元々のコンテンツのうちの一部が抽出された(他の部分がカットされた)コンテンツを視聴する場合、例えば、ハイライト動画として提供された部分をユーザが視聴した結果、その前後のカットされた部分も視聴したくなる場合がある。そのような場合に、+ボタンや−ボタンなどを用いて抽出された部分とカットされた部分とを直感的に表示し、またこれらのボタンへの操作によってカットされた部分を再生するように変更することが可能なGUIを提供すれば、ユーザがコンテンツを視聴する体験はより快適なものになる。   In addition, when viewing a content in which a part of the original content is extracted (other parts are cut), such as the above-described highlight video, for example, the portion provided as the highlight video is As a result of viewing by the user, it may be desired to view the cut portions before and after that. In such a case, the part extracted using the + button and-button and the cut part are displayed intuitively, and the part cut by the operation of these buttons is played back. If a GUI that can be used is provided, the user's experience of viewing content becomes more comfortable.

なお、上記の説明では、主に情報処理装置に係る本開示の実施形態を紹介したが、例えばこれらの情報処理装置において実行される方法、情報処理装置に機能を実現されるためのプログラム、およびかかるプログラムを記録した記録媒体も、本開示の実施形態として実現されうる。   In the above description, the embodiments of the present disclosure mainly related to the information processing apparatus have been introduced. For example, a method executed in these information processing apparatuses, a program for realizing functions in the information processing apparatus, and A recording medium on which such a program is recorded can also be realized as an embodiment of the present disclosure.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)静止画または動画を含むコンテンツの共有相手である対象ユーザ、および前記対象ユーザに関連付けられた被写体である対象被写体の情報を取得する共有関連情報取得部と、
前記コンテンツから、前記対象被写体が映っているコンテンツを対象コンテンツとして抽出するコンテンツ抽出部と、
前記対象コンテンツを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成するシナリオ生成部と
を備える情報処理装置。
(2)前記対象コンテンツに含まれる動画から、前記対象被写体が映っている部分を対象シーンとして抽出するシーン抽出部をさらに備え、
前記シナリオ生成部は、前記対象シーンを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成する、前記(1)に記載の情報処理装置。
(3)前記シナリオ生成部は、前記対象シーンと前記対象コンテンツに含まれる静止画とを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成する、前記(2)に記載の情報処理装置。
(4)前記シーン抽出部は、前記対象シーンから当該動画の代表シーンを選択し、
前記シナリオ生成部は、前記代表シーンを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成する、前記(2)または(3)に記載の情報処理装置。
(5)前記対象被写体は、人物であり、
前記シーン抽出部は、前記人物の笑顔度に基づいて前記代表シーンを選択する、前記(4)に記載の情報処理装置。
(6)前記対象コンテンツに含まれる動画から、前記対象被写体が映っているフレームを対象フレームとして抽出し、前記対象フレームから当該動画の代表フレームを選択するフレーム抽出部と、
前記代表フレームを組み合わせて前記対象コンテンツのダイジェストアニメーションを生成するアニメーション生成部と
をさらに備える、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記アニメーション生成部は、前記代表フレームと前記対象コンテンツに含まれる静止画とを組み合わせて前記ダイジェストアニメーションを生成する、前記(6)に記載の情報処理装置。
(8)前記対象コンテンツに含まれる動画から、前記対象被写体が映っているフレームを対象フレームとして抽出し、前記対象フレームから当該動画の代表フレームを選択するフレーム抽出部と、
前記代表フレームから前記対象コンテンツの代表画像を選択する代表画像選択部と
をさらに備える、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(9)前記代表画像選択部は、前記代表フレームと前記対象コンテンツに含まれる静止画とから前記代表画像を選択する、前記(8)に記載の情報処理装置。
(10)撮影対象のイベントごとに前記コンテンツを分類するコンテンツ分類部をさらに備え、
前記シナリオ生成部は、前記イベントごとに前記シナリオを生成する、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記シナリオが生成される前記イベントの情報を含むイベント情報を生成するイベント情報生成部をさらに備える、前記(10)に記載の情報処理装置。
(12)前記共有関連情報取得部は、さらに、前記対象ユーザへの公開が許可される前記イベントの情報を取得する、前記(10)または(11)に記載の情報処理装置。
(13)前記共有関連情報取得部は、前記対象ユーザのグループ、および前記グループごとに関連付けられた前記対象被写体の情報を取得する、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)前記シナリオ生成部は、前記対象ユーザおよび前記対象被写体の情報が取得される以前に共有の対象に設定された前記コンテンツについても、前記対象ユーザおよび前記対象被写体の情報が取得された以後に共有の対象に追加された前記コンテンツについても、前記シナリオを生成する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記シナリオ生成部は、前記対象ユーザが前記ダイジェストコンテンツを視聴する外部装置に前記シナリオを出力する、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)静止画または動画を含むコンテンツを提供する第1のユーザが、前記コンテンツの共有相手である第2のユーザ、および前記第2のユーザに関連付けられる被写体である対象被写体を設定する操作を取得する操作部を含む第1のクライアント装置と、
前記第2のユーザおよび前記対象被写体の情報を取得する共有関連情報取得部、
前記コンテンツから、前記対象被写体が映っているコンテンツを対象コンテンツとして抽出するコンテンツ抽出部、および
前記対象コンテンツを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成して出力するシナリオ生成部
を含むサーバ装置と、
前記出力されたシナリオを取得し、前記シナリオに従って前記コンテンツから前記ダイジェストコンテンツを生成して前記第2のユーザに提供するコンテンツ取得部を含む第2のクライアント装置と
を含むシステム。
(17)前記第1のクライアント装置は、前記対象被写体の候補である候補被写体を示すアイコンを表示部に表示させる表示制御部をさらに含み、
前記操作部は、前記アイコンの中から所望の被写体に対応するアイコンを選択することによって前記対象被写体を設定する前記第1のユーザの操作を取得する、前記(16)に記載のシステム。
(18)静止画または動画を含むコンテンツの共有相手である対象ユーザ、および前記対象ユーザに関連付けられた被写体である対象被写体の情報を取得することと、
前記コンテンツから、前記対象被写体が映っているコンテンツを対象コンテンツとして抽出することと、
前記対象コンテンツを組み合わせてダイジェストコンテンツを構成するためのシナリオを生成することと
を含む情報処理方法。
The following configurations also belong to the technical scope of the present disclosure.
(1) a sharing related information acquisition unit that acquires information on a target user who is a sharing partner of content including a still image or a moving image, and a target subject that is a subject associated with the target user;
A content extraction unit that extracts, as the target content, content in which the target subject appears from the content;
An information processing apparatus comprising: a scenario generation unit configured to generate a scenario for configuring digest content by combining the target content.
(2) a scene extracting unit that extracts, as a target scene, a portion in which the target subject appears from a moving image included in the target content;
The information processing apparatus according to (1), wherein the scenario generation unit generates a scenario for configuring digest content by combining the target scenes.
(3) The information processing apparatus according to (2), wherein the scenario generation unit generates a scenario for configuring digest content by combining the target scene and a still image included in the target content.
(4) The scene extraction unit selects a representative scene of the moving image from the target scene,
The information processing apparatus according to (2) or (3), wherein the scenario generation unit generates a scenario for configuring digest content by combining the representative scenes.
(5) The target subject is a person,
The information processing apparatus according to (4), wherein the scene extraction unit selects the representative scene based on a smile level of the person.
(6) a frame extraction unit that extracts a frame in which the target subject is shown as a target frame from a moving image included in the target content, and selects a representative frame of the moving image from the target frame;
The information processing apparatus according to any one of (1) to (5), further including: an animation generation unit that generates a digest animation of the target content by combining the representative frames.
(7) The information processing apparatus according to (6), wherein the animation generation unit generates the digest animation by combining the representative frame and a still image included in the target content.
(8) a frame extraction unit that extracts a frame in which the target subject is shown as a target frame from a moving image included in the target content, and selects a representative frame of the moving image from the target frame;
The information processing apparatus according to any one of (1) to (5), further including: a representative image selection unit that selects a representative image of the target content from the representative frame.
(9) The information processing apparatus according to (8), wherein the representative image selection unit selects the representative image from the representative frame and a still image included in the target content.
(10) a content classifying unit that classifies the content for each event to be photographed;
The information processing apparatus according to any one of (1) to (9), wherein the scenario generation unit generates the scenario for each event.
(11) The information processing apparatus according to (10), further including an event information generation unit that generates event information including information on the event for which the scenario is generated.
(12) The information processing apparatus according to (10) or (11), wherein the sharing related information acquisition unit further acquires information on the event that is permitted to be disclosed to the target user.
(13) The sharing-related information acquisition unit according to any one of (1) to (12), wherein the sharing-related information acquisition unit acquires information on the target user group and the target subject associated with each group. Information processing device.
(14) The scenario generation unit may acquire information about the target user and the target subject for the content set as a sharing target before the information about the target user and the target subject is acquired. The information processing apparatus according to any one of (1) to (13), wherein the scenario is also generated for the content added to the sharing target.
(15) The information processing apparatus according to any one of (1) to (14), wherein the scenario generation unit outputs the scenario to an external apparatus where the target user views the digest content.
(16) An operation in which a first user who provides content including a still image or a moving image sets a second user who is a share partner of the content and a target subject which is a subject associated with the second user. A first client device including an operation unit to obtain;
A shared related information acquisition unit for acquiring information on the second user and the target subject;
A server device comprising: a content extraction unit that extracts content showing the target subject as target content from the content; and a scenario generation unit that generates and outputs a scenario for configuring digest content by combining the target content When,
A second client device including a content acquisition unit that acquires the output scenario, generates the digest content from the content according to the scenario, and provides the digest content to the second user.
(17) The first client device further includes a display control unit configured to display an icon indicating a candidate subject that is a candidate for the target subject on a display unit,
The system according to (16), wherein the operation unit acquires an operation of the first user who sets the target subject by selecting an icon corresponding to a desired subject from the icons.
(18) acquiring information on a target user who is a partner with whom content including a still image or a moving image is shared, and a target subject that is a subject associated with the target user;
Extracting the content in which the target subject appears from the content as target content;
Generating a scenario for configuring the digest content by combining the target content.

10 システム
100 共有サーバ
110 コンテンツ情報取得部
120 コンテンツ分類部
130 共有関連情報取得部
140 コンテンツ抽出部
150 イベント情報生成部
160 フレーム/シーン抽出部
170 サムネイル画像抽出部
180 シナリオ情報生成部
200 コンテンツ提供クライアント
210 操作部
220 表示制御部
230 表示部
300 コンテンツ視聴クライアント
310 コンテンツ取得部
320 表示制御部
330 表示部
340 操作部
400 コンテンツサーバ
410 コンテンツDB
420 コンテンツ解析部
1410 プログレスバー
1411 +ボタン
1412 −ボタン
1430 人物表示
CUT カット部分
DESCRIPTION OF SYMBOLS 10 System 100 Shared server 110 Content information acquisition part 120 Content classification part 130 Sharing related information acquisition part 140 Content extraction part 150 Event information generation part 160 Frame / scene extraction part 170 Thumbnail image extraction part 180 Scenario information generation part 200 Content provision client 210 Operation unit 220 Display control unit 230 Display unit 300 Content viewing client 310 Content acquisition unit 320 Display control unit 330 Display unit 340 Operation unit 400 Content server 410 Content DB
420 Content analysis part 1410 Progress bar 1411 + button 1412-button 1430 Person display CUT Cut part

Claims (17)

静止画または動画を含むコンテンツの共有相手である対象ユーザ、および前記対象ユーザに関連付けられた被写体である対象被写体の情報を取得する共有関連情報取得部と、
前記コンテンツから、前記対象被写体が映っているコンテンツを対象コンテンツとして抽出するコンテンツ抽出部と、
前記対象コンテンツに含まれる動画から、前記対象被写体が映っている部分に基づいて対象シーンを抽出し、前記対象シーンの抽出基準よりも長さが短い抽出基準で代表シーンを抽出するシーン抽出部と、
前記対象シーンを組み合わせてハイライト動画を構成するためのハイライトシナリオを生成し、前記代表シーンを組み合わせてサムネイル動画を構成するためのサムネイルシナリオを生成するシナリオ生成部と
を備える情報処理装置。
A shared user information acquisition unit that acquires information on a target user who is a partner to share content including a still image or a video, and a target subject that is a subject associated with the target user;
A content extraction unit that extracts, as the target content, content in which the target subject appears from the content;
A scene extraction unit that extracts a target scene from a moving image included in the target content based on a portion where the target subject is shown, and extracts a representative scene based on an extraction criterion that is shorter than the extraction criterion of the target scene; ,
An information processing apparatus comprising: a scenario generation unit that generates a highlight scenario for forming a highlight moving image by combining the target scenes , and generates a thumbnail scenario for combining the representative scene to form a thumbnail moving image .
前記シナリオ生成部は、前記対象シーンと前記対象コンテンツに含まれる静止画とを組み合わせて前記ハイライト動画を構成するための前記ハイライトシナリオを生成する、請求項に記載の情報処理装置。 The information processing apparatus according to claim 1 , wherein the scenario generation unit generates the highlight scenario for configuring the highlight moving image by combining the target scene and a still image included in the target content. 前記シーン抽出部は、前記対象シーンから前記代表シーンを選択する、請求項またはに記載の情報処理装置。 The scene extraction unit selects the representative scene from the target scene, the information processing apparatus according to claim 1 or 2. 前記対象被写体は、人物であり、
前記シーン抽出部は、前記人物の笑顔度に基づいて前記代表シーンを選択する、請求項に記載の情報処理装置。
The target subject is a person,
The information processing apparatus according to claim 3 , wherein the scene extraction unit selects the representative scene based on a smile level of the person.
前記対象コンテンツに含まれる動画から、前記対象被写体が映っているフレームを対象フレームとして抽出し、前記対象フレームから当該動画の代表フレームを選択するフレーム抽出部と、
前記代表フレームを組み合わせて前記対象コンテンツのダイジェストアニメーションを生成するアニメーション生成部と
をさらに備える、請求項1〜のいずれか1項に記載の情報処理装置。
A frame extraction unit that extracts a frame in which the target subject is shown as a target frame from a moving image included in the target content, and selects a representative frame of the moving image from the target frame;
Further comprising a animation generator for generating a digest animation of the target content by combining the representative frames, the information processing apparatus according to any one of claims 1-4.
前記アニメーション生成部は、前記代表フレームと前記対象コンテンツに含まれる静止画とを組み合わせて前記ダイジェストアニメーションを生成する、請求項に記載の情報処理装置。 The information processing apparatus according to claim 5 , wherein the animation generation unit generates the digest animation by combining the representative frame and a still image included in the target content. 前記対象コンテンツに含まれる動画から、前記対象被写体が映っているフレームを対象フレームとして抽出し、前記対象フレームから当該動画の代表フレームを選択するフレーム抽出部と、
前記代表フレームから前記対象コンテンツの代表画像を選択する代表画像選択部と
をさらに備える、請求項1〜のいずれか1項に記載の情報処理装置。
A frame extraction unit that extracts a frame in which the target subject is shown as a target frame from a moving image included in the target content, and selects a representative frame of the moving image from the target frame;
Further comprising an information processing apparatus according to any one of claims 1-4 and a representative image selecting section for selecting a representative image of the target content from the representative frame.
前記代表画像選択部は、前記代表フレームと前記対象コンテンツに含まれる静止画とから前記代表画像を選択する、請求項に記載の情報処理装置。 The information processing apparatus according to claim 7 , wherein the representative image selection unit selects the representative image from the representative frame and a still image included in the target content. 撮影対象のイベントごとに前記コンテンツを分類するコンテンツ分類部をさらに備え、
前記シナリオ生成部は、前記イベントごとに前記ハイライトシナリオおよび前記サムネイルシナリオを生成する、請求項1〜のいずれか1項に記載の情報処理装置。
A content classification unit that classifies the content for each event to be photographed;
The scenario generation unit generates the highlight scenario and the thumbnail scenarios for each of the event, the information processing apparatus according to any one of claims 1-8.
前記ハイライトシナリオおよび前記サムネイルシナリオが生成される前記イベントの情報を含むイベント情報を生成するイベント情報生成部をさらに備える、請求項に記載の情報処理装置。 The information processing apparatus according to claim 9 , further comprising an event information generation unit configured to generate event information including information on the event for which the highlight scenario and the thumbnail scenario are generated. 前記共有関連情報取得部は、さらに、前記対象ユーザへの公開が許可される前記イベントの情報を取得する、請求項または10に記載の情報処理装置。 The information processing apparatus according to claim 9 or 10 , wherein the sharing related information acquisition unit further acquires information on the event that is permitted to be disclosed to the target user. 前記共有関連情報取得部は、前記対象ユーザのグループ、および前記グループごとに関連付けられた前記対象被写体の情報を取得する、請求項1〜10のいずれか1項に記載の情報処理装置。 The shared related information obtaining unit, the target user group, and acquires said target object information associated with each group, information processing apparatus according to any one of claims 1-10. 前記シナリオ生成部は、前記対象ユーザおよび前記対象被写体の情報が取得される以前に共有の対象に設定された前記コンテンツについても、前記対象ユーザおよび前記対象被写体の情報が取得された以後に共有の対象に追加された前記コンテンツについても、前記ハイライトシナリオおよび前記サムネイルシナリオを生成する、請求項1〜12のいずれか1項に記載の情報処理装置。 The scenario generation unit may also share the content set as a sharing target before the information about the target user and the target subject is acquired after the information about the target user and the target subject is acquired. for even the content that has been added to the subject, it generates the highlight scenario and the thumbnail scenario, the information processing apparatus according to any one of claims 1 to 12. 前記シナリオ生成部は、前記対象ユーザが前記ハイライト動画および前記サムネイル動画を視聴する外部装置に前記ハイライトシナリオおよび前記サムネイルシナリオを出力する、請求項1〜13のいずれか1項に記載の情報処理装置。 The information according to any one of claims 1 to 13 , wherein the scenario generation unit outputs the highlight scenario and the thumbnail scenario to an external device where the target user views the highlight video and the thumbnail video. Processing equipment. 静止画または動画を含むコンテンツを提供する第1のユーザが、前記コンテンツの共有相手である第2のユーザ、および前記第2のユーザに関連付けられる被写体である対象被写体を設定する操作を取得する操作部を含む第1のクライアント装置と、
前記第2のユーザおよび前記対象被写体の情報を取得する共有関連情報取得部、
前記コンテンツから、前記対象被写体が映っているコンテンツを対象コンテンツとして抽出するコンテンツ抽出部
前記対象コンテンツに含まれる動画から、前記対象被写体が映っている部分に基づいて対象シーンを抽出し、前記対象シーンの抽出基準よりも長さが短い抽出基準で代表シーンを抽出するシーン抽出部と、
前記対象シーンを組み合わせてハイライト動画を構成するためのハイライトシナリオを生成し、前記代表シーンを組み合わせてサムネイル動画を構成するためのサムネイルシナリオを生成して出力するシナリオ生成部と、
を含むサーバ装置と、
前記出力されたハイライトシナリオおよびサムネイルシナリオを取得し、前記ハイライトシナリオに従って前記コンテンツから前記ハイライト動画を生成し、前記サムネイルシナリオに従って前記コンテンツから前記サムネイル動画を生成して前記第2のユーザに提供するコンテンツ取得部を含む第2のクライアント装置と
を含むシステム。
An operation in which a first user who provides content including a still image or a moving image acquires an operation of setting a second user who is a partner to share the content and a target subject which is a subject associated with the second user. A first client device including a section;
A shared related information acquisition unit for acquiring information on the second user and the target subject;
A content extraction unit that extracts, as the target content, content in which the target subject appears from the content;
A scene extraction unit that extracts a target scene from a moving image included in the target content based on a portion where the target subject is shown, and extracts a representative scene based on an extraction criterion that is shorter than the extraction criterion of the target scene; ,
A scenario generation unit that generates a highlight scenario for configuring a highlight movie by combining the target scenes , and generates and outputs a thumbnail scenario for configuring a thumbnail movie by combining the representative scenes ;
A server device including:
Obtains the output highlight scenario and thumbnail scenario, the highlight generates the highlight video from the content according to the scenario, the product to the second user the thumbnail video from the content in accordance with the thumbnail scenario A second client device including a content acquisition unit to be provided.
前記第1のクライアント装置は、前記対象被写体の候補である候補被写体を示すアイコンを表示部に表示させる表示制御部をさらに含み、
前記操作部は、前記アイコンの中から所望の被写体に対応するアイコンを選択することによって前記対象被写体を設定する前記第1のユーザの操作を取得する、請求項15に記載のシステム。
The first client device further includes a display control unit configured to display an icon indicating a candidate subject that is a candidate for the target subject on a display unit,
The system according to claim 15 , wherein the operation unit acquires an operation of the first user that sets the target subject by selecting an icon corresponding to a desired subject from the icons.
静止画または動画を含むコンテンツの共有相手である対象ユーザ、および前記対象ユーザに関連付けられた被写体である対象被写体の情報を取得することと、
前記コンテンツから、前記対象被写体が映っているコンテンツを対象コンテンツとして抽出することと、
前記対象コンテンツに含まれる動画から、前記対象被写体が映っている部分に基づいて対象シーンを抽出し、前記対象シーンの抽出基準よりも長さが短い抽出基準で代表シーンを抽出することと、
前記対象シーンを組み合わせてハイライト動画を構成するためのハイライトシナリオを生成し、前記代表シーンを組み合わせてサムネイル動画を構成するためのサムネイルシナリオを生成することと
を含む情報処理方法。
Obtaining information on a target user who is a partner to share content including a still image or a video, and a target subject that is a subject associated with the target user;
Extracting the content in which the target subject appears from the content as target content;
Extracting a target scene from a moving image included in the target content based on a portion where the target subject is shown, and extracting a representative scene with an extraction criterion that is shorter than the extraction criterion of the target scene;
An information processing method comprising: generating a highlight scenario for composing a highlight video by combining the target scenes , and generating a thumbnail scenario for composing a thumbnail video by combining the representative scenes .
JP2012033871A 2012-02-20 2012-02-20 Information processing apparatus, system, and information processing method Expired - Fee Related JP5870742B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012033871A JP5870742B2 (en) 2012-02-20 2012-02-20 Information processing apparatus, system, and information processing method
US13/714,592 US20130215144A1 (en) 2012-02-20 2012-12-14 Display control device and display control method
CN201310050767.0A CN103258557B (en) 2012-02-20 2013-02-08 Display control unit and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012033871A JP5870742B2 (en) 2012-02-20 2012-02-20 Information processing apparatus, system, and information processing method

Publications (3)

Publication Number Publication Date
JP2013171373A JP2013171373A (en) 2013-09-02
JP2013171373A5 JP2013171373A5 (en) 2015-02-26
JP5870742B2 true JP5870742B2 (en) 2016-03-01

Family

ID=49265271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012033871A Expired - Fee Related JP5870742B2 (en) 2012-02-20 2012-02-20 Information processing apparatus, system, and information processing method

Country Status (1)

Country Link
JP (1) JP5870742B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6018029B2 (en) 2013-09-26 2016-11-02 富士フイルム株式会社 Apparatus for determining main face image of captured image, control method thereof and control program thereof
WO2015129246A1 (en) * 2014-02-26 2015-09-03 日本電気株式会社 Information management device, information sharing system, control method, and computer-readable recording medium
JP6389803B2 (en) * 2015-05-27 2018-09-12 富士フイルム株式会社 Image processing apparatus, image processing method, program, and recording medium
JP6389801B2 (en) * 2015-05-27 2018-09-12 富士フイルム株式会社 Image processing apparatus, image processing method, program, and recording medium
JP6677527B2 (en) * 2016-02-23 2020-04-08 株式会社 ミックウェア Server device and program
JP2017021844A (en) * 2016-09-29 2017-01-26 富士フイルム株式会社 Device for determining main face image in picked-up images, control method thereof, and control program therefor
JP7095377B2 (en) 2018-04-17 2022-07-05 富士フイルムビジネスイノベーション株式会社 Information processing equipment and information processing programs
JP6758351B2 (en) * 2018-09-04 2020-09-23 ユニファ株式会社 Image management system and image management method
KR102261221B1 (en) * 2020-04-07 2021-06-07 (주)제타미디어 System And Method For Obtaining Image Information, And Method For Displaying Image Acquisition Information

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270328A (en) * 2004-03-24 2005-10-06 Toshiba Corp Medical picture display device
JP4696967B2 (en) * 2006-02-24 2011-06-08 ソニー株式会社 Display device, display method, and program
JP2007293399A (en) * 2006-04-21 2007-11-08 Seiko Epson Corp Image exchange device, image exchange method, and image exchange program
JP2008033743A (en) * 2006-07-31 2008-02-14 Fuji Xerox Co Ltd Program and device for reproduction control of time-series data
JP2008283486A (en) * 2007-05-10 2008-11-20 Sony Corp Information processor, information processing method, and program
JP2010193183A (en) * 2009-02-18 2010-09-02 Nikon Corp Image display device, image display program, and storage medium

Also Published As

Publication number Publication date
JP2013171373A (en) 2013-09-02

Similar Documents

Publication Publication Date Title
JP5870742B2 (en) Information processing apparatus, system, and information processing method
US20220068312A1 (en) Highlighting Media Through Weighting of People or Contexts
JP5791605B2 (en) Metadata tagging system, image search method, device, and gesture tagging method applied thereto
JP4988011B2 (en) Electronic apparatus and image processing method
US20090190804A1 (en) Electronic apparatus and image processing method
JP2011053833A (en) Information processing apparatus and information processing method
TWI522823B (en) Techniques for intelligent media show across multiple devices
JP2013171599A (en) Display control device and display control method
US20130215144A1 (en) Display control device and display control method
JP2013541888A (en) Remote control of TV display
JP2021535656A (en) Video processing methods, equipment, devices and computer programs
JP4829357B2 (en) Image processing apparatus and image processing method
CN112235603B (en) Video distribution system, method, computing device, user equipment and video playing method
WO2017094800A1 (en) Display device, display program, and display method
US11336963B2 (en) Method and apparatus for playing a 360-degree video
US20120163761A1 (en) Image processing device, image processing method, and program
JP2013232904A (en) Image processing device, image processing program, and image processing method
JP2018092254A (en) Display, display program, and display method
JP2012235304A (en) Electronic apparatus, image processing method, and program
JP2011065278A (en) Electronic equipment, image retrieval method, and content reproduction program
JP5888382B2 (en) Content recommendation method for user, content recommendation system for user, and computer-readable recording medium
JP2012034383A (en) Image processing device, image processing program, and image processing method
EP4207739A1 (en) Information processing device, information processing method, and program
JP2011193386A (en) Electronic apparatus and image processing method
JP2011053834A (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R151 Written notification of patent or utility model registration

Ref document number: 5870742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees