JP2015203933A - content extraction device and content extraction method - Google Patents

content extraction device and content extraction method Download PDF

Info

Publication number
JP2015203933A
JP2015203933A JP2014082346A JP2014082346A JP2015203933A JP 2015203933 A JP2015203933 A JP 2015203933A JP 2014082346 A JP2014082346 A JP 2014082346A JP 2014082346 A JP2014082346 A JP 2014082346A JP 2015203933 A JP2015203933 A JP 2015203933A
Authority
JP
Japan
Prior art keywords
content
preset data
extraction
extracted
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014082346A
Other languages
Japanese (ja)
Inventor
貴之 北平
Takayuki Kitahira
貴之 北平
優 丸山
Masaru Maruyama
優 丸山
忠之 星野
Tadayuki Hoshino
忠之 星野
啓太 熊木
Keita Kumaki
啓太 熊木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Imaging Systems Inc
Original Assignee
Canon Imaging Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Imaging Systems Inc filed Critical Canon Imaging Systems Inc
Priority to JP2014082346A priority Critical patent/JP2015203933A/en
Publication of JP2015203933A publication Critical patent/JP2015203933A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a content extraction device and a content extraction method capable of extracting content following a story or scenario to be obtained by analyzing music, animation and document or the like.SOLUTION: A content extraction device capable of distributing and displaying a plurality of content in accordance with a predetermined rule includes: an input part for inputting the extraction condition information of content such as music, animation and document; a preset data generation part for analyzing the extraction condition information of the content, and for generating preset data from the analysis result; a content extraction part for extracting the content on the basis of the preset data; and a content connection/edition part for connecting the extracted content in accordance with a predetermined sequence.

Description

本発明は、大量のコンテンツの中からユーザが所望のコンテンツを容易に抽出できるコンテンツ抽出装置およびコンテンツ抽出方法に関する。   The present invention relates to a content extraction apparatus and a content extraction method that allow a user to easily extract desired content from a large amount of content.

大量のコンテンツ(画像、動画、音楽、文例など)から、好みに応じたコンテンツを選び出す作業には多くの時間がかかる。また、思い入れのあるコンテンツほど、指定の数に絞り込むことが難しく、より多くの時間がかかる原因となっている。   It takes a lot of time to select content according to taste from a large amount of content (images, videos, music, sentence examples, etc.). In addition, it is difficult to narrow down to the specified number as the content is thoughtful, which causes more time.

そこで、ビューアやブラウザなどで表示された大量のコンテンツの中からユーザが所望するコンテンツを効率的に抽出(検索)できるようにするものがある。   In view of this, there is an apparatus that can efficiently extract (search) content desired by a user from a large amount of content displayed by a viewer, a browser, or the like.

その1つとして大量の画像データの中から利用者が所望する画像を抽出(検索)する場合に、利用者が入力した所定の検索条件(キー画像の指定)に基づき、検索対象の画像の集合(画像グループ)を決定し、抽出(検索)対象の画像を視覚的に表現する画像検索方法が提案されている(例えば、特許文献1参照)。   For example, when extracting (searching) an image desired by a user from a large amount of image data, a set of images to be searched based on a predetermined search condition (designation of a key image) input by the user. An image search method for determining (image group) and visually expressing an image to be extracted (searched) has been proposed (see, for example, Patent Document 1).

特開2004−164331号公報JP 2004-164331 A

しかしながら、特許文献1は、利用者が指定した検索条件(キー画像)の特徴量に基づき、画像データを抽出しているため、キー画像と類似の画像データしか抽出されなかった。   However, since Patent Document 1 extracts image data based on a feature amount of a search condition (key image) designated by the user, only image data similar to the key image is extracted.

本発明は、上記の課題に鑑みてなされたものであり、音楽、動画、文書などの抽出条件を解析して得られるストーリーやシナリオに沿ってコンテンツを抽出可能なコンテンツ抽出装置およびコンテンツ抽出方法を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a content extraction apparatus and a content extraction method capable of extracting content in accordance with stories and scenarios obtained by analyzing extraction conditions for music, moving images, documents, and the like. The purpose is to provide.

上記の課題を解決するために、請求項1のコンテンツ抽出装置は、所定の規則に従ってコンテンツを分布し、表示するコンテンツ抽出装置であって、前記コンテンツの抽出条件情報を入力する入力手段と、前記入力手段によって入力されたコンテンツの抽出条件情報を判断する抽出条件情報判断手段と、前記抽出条件情報判断手段で判断された抽出条件情報を解析し、解析結果から前記コンテンツを抽出するためのプリセットデータを生成するプリセットデータ生成手段と、前記プリセットデータ生成手段で生成されたプリセットデータに基づいて、前記コンテンツを抽出するコンテンツ抽出手段と、前記コンテンツ抽出手段で抽出されたコンテンツを所定の順序で結合するコンテンツ結合手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the content extraction device according to claim 1 is a content extraction device that distributes and displays content according to a predetermined rule, the input means for inputting the extraction condition information of the content, Extraction condition information determining means for determining the extraction condition information of the content input by the input means, and preset data for analyzing the extraction condition information determined by the extraction condition information determining means and extracting the content from the analysis result A preset data generation means for generating the content, a content extraction means for extracting the content based on the preset data generated by the preset data generation means, and a content extracted by the content extraction means in a predetermined order Content combining means.

本発明によれば、所定の抽出条件を解析して得られるストーリーやシナリオに沿ってコンテンツを抽出することができる。   According to the present invention, content can be extracted along a story or scenario obtained by analyzing predetermined extraction conditions.

PC100の内部構成を例示するブロック図である。2 is a block diagram illustrating an internal configuration of a PC 100. FIG. コンテンツのレーティング情報に応じた分布の一例を示す図である。It is a figure which shows an example of distribution according to the rating information of content. PC100におけるコンテンツの抽出と結合処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the content extraction and combination process in PC100. 抽出条件情報の解析結果から生成、表示されるプリセットデータを例示する図である。It is a figure which illustrates the preset data produced | generated and displayed from the analysis result of extraction condition information. 第1の実施形態におけるプリセットデータ400に基づいて抽出されたコンテンツを結合する場合を例示した説明図である。It is explanatory drawing which illustrated the case where the content extracted based on the preset data 400 in 1st Embodiment is combined. プリセットデータの軌跡の太さによって抽出するコンテンツを変化させる場合を例示した説明図である。It is explanatory drawing which illustrated the case where the content to extract is changed with the thickness of the locus | trajectory of preset data. 第1の実施形態におけるプリセットデータ600に基づいて抽出されたコンテンツを結合する場合を例示した説明図である。It is explanatory drawing which illustrated the case where the content extracted based on the preset data 600 in 1st Embodiment is combined. 第1の実施形態におけるコンテンツ抽出時にプリセットデータとともに抽出数を表示する場合を例示した説明図である。It is explanatory drawing which illustrated the case where the number of extraction is displayed with preset data at the time of the content extraction in 1st Embodiment. 第2の実施形態におけるコンテンツの時間情報を加味してコンテンツを分布した場合を例示した説明図である。It is explanatory drawing which illustrated the case where the content was distributed in consideration of the time information of the content in 2nd Embodiment. 第2の実施形態におけるプリセットデータ900に基づいて抽出されたコンテンツを結合する場合を例示した説明図である。It is explanatory drawing which illustrated the case where the content extracted based on the preset data 900 in 2nd Embodiment is combined. 第3の実施形態におけるプリセットデータ1100を分割した場合を例示した説明図である。It is explanatory drawing which illustrated the case where the preset data 1100 in 3rd Embodiment was divided | segmented. 第3の実施形態におけるプリセットデータ1100に基づいて抽出されたコンテンツを結合する場合を例示した説明図である。It is explanatory drawing which illustrated the case where the content extracted based on the preset data 1100 in 3rd Embodiment is couple | bonded. 第4の実施形態における結合コンテンツを編集した場合を例示した説明図である。It is explanatory drawing which illustrated the case where the combined content in 4th Embodiment was edited. 第4の実施形態におけるプリセットデータの変更(編集)を行った場合を例示した説明図である。It is explanatory drawing which illustrated the case where preset data change (edit) in a 4th embodiment was performed.

[第1の実施形態]
以下、本発明の第1の実施形態を、図面を参照して詳細に説明する。
<コンテンツ抽出装置の構成>
図1は、本発明の第1の実施形態に係るコンテンツ抽出装置の一例であるPC100の構成を概略的に示すブロック図である。なお、本実施形態では、コンテンツ抽出装置をPC(Personal Computer)として説明するが、スマートフォンやタブレット端末などであってもよい。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
<Configuration of content extraction device>
FIG. 1 is a block diagram schematically showing the configuration of a PC 100 that is an example of a content extraction apparatus according to the first embodiment of the present invention. In the present embodiment, the content extraction device is described as a PC (Personal Computer), but may be a smartphone, a tablet terminal, or the like.

PC100は、CPU、入力部、表示部、メモリ、通信部、ローカルI/F、記憶部などが内部バスで接続されている。CPUは、PC100内の各部を制御する中央処理装置である。入力部は、キーボード、マウス、タッチパネル等の操作装置である。表示部は、液晶モニタ等の表示装置である。メモリは、RAM、ROM等の記憶装置である。通信部は、ネットワーク(有線又は無線ネットワーク)に接続するためのインターフェースであり、他のクライアントPCやサーバなどとデータ通信を行うことで、コンテンツデータを送受信することが可能となる。ローカルI/Fは、外部周辺装置や外部記憶媒体(USBメモリ、SDカードなど)との接続に用いられるインターフェースである。記憶部は、ハードディスク等の記憶装置である。   In the PC 100, a CPU, an input unit, a display unit, a memory, a communication unit, a local I / F, a storage unit, and the like are connected by an internal bus. The CPU is a central processing unit that controls each unit in the PC 100. The input unit is an operation device such as a keyboard, a mouse, or a touch panel. The display unit is a display device such as a liquid crystal monitor. The memory is a storage device such as a RAM or a ROM. The communication unit is an interface for connecting to a network (wired or wireless network), and can transmit and receive content data by performing data communication with other client PCs and servers. The local I / F is an interface used for connection to an external peripheral device or an external storage medium (USB memory, SD card, etc.). The storage unit is a storage device such as a hard disk.

次に、記憶部に格納される各ソフトウェアの機能について順次説明する。記憶部には、ソフトウェアとして、不図示のオペレーティングシステム(以下、「OS」と呼ぶ)、コンテンツ記憶部101、コンテンツ表示部102、入力操作判断部103、コンテンツ抽出部104、コンテンツ結合・編集部105、コンテンツ再生部106、プリセットデータ生成部107、および他の機能に関するソフトウェアが記憶されている。これらのソフトウェアはメモリに読み出されて、CPUの制御に従い動作する。なお、コンテンツ記憶部101〜プリセットデータ生成部107を総称して「コンテンツ抽出アプリケーション」と呼ぶものとする。以下、本発明に関わるもののみを説明する。   Next, functions of each software stored in the storage unit will be sequentially described. The storage unit includes, as software, an operating system (not shown) (hereinafter referred to as “OS”), a content storage unit 101, a content display unit 102, an input operation determination unit 103, a content extraction unit 104, and a content combining / editing unit 105. , A content reproduction unit 106, a preset data generation unit 107, and software related to other functions are stored. These software are read into the memory and operate according to the control of the CPU. The content storage unit 101 to the preset data generation unit 107 are collectively referred to as “content extraction application”. Hereinafter, only those related to the present invention will be described.

コンテンツ記憶部101は、コンテンツ(画像、動画、音楽など)を記憶する機能部である。コンテンツは、PC100のコンテンツ記憶部101以外にローカルI/Fを介して接続された外部記憶媒体に記憶されてもよい。   The content storage unit 101 is a functional unit that stores content (images, moving images, music, and the like). The content may be stored in an external storage medium connected via a local I / F other than the content storage unit 101 of the PC 100.

コンテンツ表示部102は、コンテンツ記憶部101で管理されたコンテンツを所定の規則に従って分布させ、表示する機能部である。   The content display unit 102 is a functional unit that distributes and displays the content managed by the content storage unit 101 according to a predetermined rule.

入力操作判断部103は、入力部を介して入力された情報を判断して、どのような情報が入力されたか判断する機能部である。   The input operation determination unit 103 is a functional unit that determines information input through the input unit and determines what information is input.

コンテンツ抽出部104は、後述するプリセットデータに基づいて、コンテンツを抽出する機能部である。   The content extraction unit 104 is a functional unit that extracts content based on preset data described later.

コンテンツ結合・編集部105は、コンテンツ抽出部104によって抽出されたコンテンツを所定の順序に従って結合する機能部である。また、結合したコンテンツに対して順番の入れ替えや削除、追加などの編集を行う機能部である。なお、結合したコンテンツを以下、「結合コンテンツ」と呼ぶ。   The content combining / editing unit 105 is a functional unit that combines the content extracted by the content extracting unit 104 in a predetermined order. In addition, it is a functional unit that performs editing such as order change, deletion, and addition on the combined content. The combined content is hereinafter referred to as “combined content”.

コンテンツ再生部106は、コンテンツ結合・編集部105によって結合された結合コンテンツを再生する機能部である。   The content playback unit 106 is a functional unit that plays back the combined content combined by the content combining / editing unit 105.

プリセットデータ生成部107は、入力部を介して入力された抽出条件情報(例:キーワード、文書、音楽、動画など)を取得・解析し、その解析結果から抽出条件情報を再現するようなストーリーやシナリオをデータとして生成する機能部である。このデータを以下、「プリセットデータ」と呼ぶ。   The preset data generation unit 107 acquires / analyzes extraction condition information (eg, keyword, document, music, video, etc.) input via the input unit, and reproduces the extraction condition information from the analysis result. It is a functional unit that generates a scenario as data. This data is hereinafter referred to as “preset data”.

<レーティング情報およびレーティング情報に応じたコンテンツの分布>
次に、コンテンツに付与されるレーティング情報、および、レーティング情報に応じたコンテンツの分布について説明する。
<Rating information and content distribution according to rating information>
Next, rating information given to content, and content distribution according to the rating information will be described.

本発明において、コンテンツにはレーティング情報が予め1つ以上付与されているものとする。レーティング情報とは、ある基準に基づいたコンテンツの格付けを示す有意のアナログ的な数値(実際にはデジタル数値として量子化された数値)のことをいう。レーティング情報は、コンテンツ自身に付帯させるか、別途、コンテンツの一覧を管理するコンテンツリスト(不図示)を記憶部に保持し、各々のコンテンツとレーティング情報を対応付けて管理する。   In the present invention, it is assumed that one or more pieces of rating information are assigned in advance to the content. Rating information refers to a significant analog numerical value (actually a numerical value quantized as a digital numerical value) indicating a rating of content based on a certain standard. The rating information is attached to the content itself, or a content list (not shown) for managing the content list is separately stored in the storage unit, and each content and the rating information are managed in association with each other.

図2は、3つのコンテンツ(コンテンツ1〜コンテンツ3)がそれぞれ記憶するレーティング情報に基づいて所定の規則に従って分布(プロット)された一例を示している。ここでは、「暗い・明るい」をX軸(横軸)に、「哀しい・楽しい」をY軸(縦軸)にそれぞれ定義した2次元座標上にコンテンツを分布している。   FIG. 2 shows an example in which three contents (contents 1 to 3) are distributed (plotted) according to predetermined rules based on rating information stored respectively. Here, the content is distributed on two-dimensional coordinates in which “dark / bright” is defined on the X axis (horizontal axis) and “sad / fun” is defined on the Y axis (vertical axis).

図2において、コンテンツ1は明るい+200と楽しい+450を、コンテンツ2は明るい+380と楽しい+190を、コンテンツ3は明るい−76と楽しい−30をそれぞれレーティング情報として付与されている。なお、レーティング情報は、「暗い・明るい」、「哀しい・楽しい」に限定されず、他の定義でもよい。   In FIG. 2, content 1 is given bright +200 and fun +450, content 2 is given bright +380 and fun +190, and content 3 is given bright -76 and fun -30 as rating information. The rating information is not limited to “dark / bright” or “sad / fun”, but may be other definitions.

<コンテンツの抽出と結合>
続いて、PC100におけるコンテンツの抽出と結合の処理の流れについて、図3のフローチャートを用いて説明する。
<Content extraction and combination>
Next, the flow of content extraction and combination processing in the PC 100 will be described with reference to the flowchart of FIG.

ステップS301において、PC100は、ユーザの操作に従って、コンテンツ抽出アプリケーションを起動する。   In step S301, the PC 100 activates a content extraction application in accordance with a user operation.

ステップS302において、コンテンツ表示部102は、コンテンツ記憶部101に記憶されたコンテンツを図2に例示したような形態で分布・表示する。   In step S302, the content display unit 102 distributes and displays the content stored in the content storage unit 101 in the form illustrated in FIG.

このとき、コンテンツ記憶部101の中からコンテンツを分布・表示を行う対象のコンテンツを選択する。例えば、任意のコンテンツを1つ以上選択することでもよいし、任意のフォルダを選択して、そのフォルダに含まれる全てのコンテンツを表示するようにしてもよい。   At this time, the content to be distributed / displayed is selected from the content storage unit 101. For example, one or more arbitrary contents may be selected, or an arbitrary folder may be selected and all contents included in the folder may be displayed.

ユーザによって任意のコンテンツが選択されなかった場合は、デフォルトで設定されたコンテンツや特定のフォルダ内のコンテンツを表示対象とする。また、コンテンツを分布する際に基準となる軸(例:2次元の場合は、縦軸および横軸)は、予め定義されているか、ユーザによって設定される。   When an arbitrary content is not selected by the user, the content set by default or the content in a specific folder is displayed. In addition, axes serving as a reference when content is distributed (for example, in the case of two dimensions, the vertical axis and the horizontal axis) are defined in advance or set by the user.

ステップS303において、入力操作判断部103は、入力部を介して入力された情報がどのような抽出条件情報かを判断し、判断結果をプリセットデータ生成部107に通知する。   In step S <b> 303, the input operation determination unit 103 determines what kind of extraction condition information the information input via the input unit is, and notifies the preset data generation unit 107 of the determination result.

抽出条件情報とは、キーワード(日時や場所も含む)、文書、音楽、映像などである。キーワード、文書、音楽、動画それぞれ単独でもよいし、これらを組み合わせたものでもよい。また、抽出条件情報を「キーワード」とする場合には、キーワードに加えて、時間の経過(流れ)を特定するための「時間情報」を指定するようにしてもよい。   The extraction condition information is a keyword (including date and time and location), document, music, video, and the like. Keywords, documents, music, and moving images may be used alone or in combination. When the extraction condition information is “keyword”, “time information” for specifying the passage (flow) of time may be specified in addition to the keyword.

ステップS304において、プリセットデータ生成部107は、入力操作判断部103から取得した判断結果に基づいて、入力部を介して入力された抽出条件情報を解析してプリセットデータを生成し、表示する。プリセットデータを表示するのみの場合は、ステップS305に進まず、本処理を終了する。   In step S304, the preset data generation unit 107 generates preset data by analyzing the extraction condition information input through the input unit based on the determination result acquired from the input operation determination unit 103, and displays the preset data. If only the preset data is to be displayed, the process is terminated without proceeding to step S305.

ステップS305において、コンテンツ抽出部104は、ステップS304で生成されたプリセットデータに基づいて、コンテンツを抽出する。   In step S305, the content extraction unit 104 extracts content based on the preset data generated in step S304.

ステップS306において、コンテンツ抽出部104は、ステップS305でコンテンツが1つも抽出されなかった場合(ステップS306でNo)、ステップS303に戻る。   In step S306, if no content is extracted in step S305 (No in step S306), the content extraction unit 104 returns to step S303.

ステップS306において、コンテンツ抽出部104は、ステップS305でコンテンツが抽出された場合(ステップS306でYes)、ステップS307に進む。   In step S306, the content extraction unit 104 proceeds to step S307 when the content is extracted in step S305 (Yes in step S306).

ステップS307において、コンテンツ結合・編集部105は、ステップS305で抽出されたコンテンツを所定の順番で結合し、結合コンテンツを生成する。   In step S307, the content combining / editing unit 105 combines the contents extracted in step S305 in a predetermined order to generate combined content.

ステップS308において、コンテンツ結合・編集部105は、ステップS307で生成された結合コンテンツの編集要求があるか判断する。ここで、結合コンテンツの編集要求がある場合(ステップS308でYes)、ステップS309に進む。結合コンテンツの編集要求がない場合(ステップS308でNo)、本処理を終了する。   In step S308, the content combining / editing unit 105 determines whether there is a request for editing the combined content generated in step S307. If there is a combined content editing request (Yes in step S308), the process proceeds to step S309. If there is no request for editing the combined content (No in step S308), the process ends.

ステップS309において、コンテンツ結合・編集部105は、ユーザからの結合コンテンツの編集要求に応じて、結合コンテンツの編集(コンテンツの順番の入れ替え、削除、追加)を行い、本処理を終了する。なお、結合コンテンツを編集した場合、併せて、プリセットデータを編集してもよい。   In step S309, the content combining / editing unit 105 edits the combined content (replacement, deletion, addition of content order) in response to a combined content editing request from the user, and ends this processing. When the combined content is edited, the preset data may be edited together.

以上が、PC100におけるコンテンツの抽出と結合の処理の流れである。なお、ステップS304で生成したプリセットをメモリやプリセット記憶部(不図示)などに記憶してもよい。また、記憶したプリセットデータを再度、読み出して利用する場合は、ステップS303で入力した抽出条件に近いプリセットデータを読み出してもよいし、ユーザがプリセットデータを直接、指定(選択)するようにしてもよい。   The above is the flow of content extraction and combination processing in the PC 100. Note that the preset generated in step S304 may be stored in a memory, a preset storage unit (not shown), or the like. When the stored preset data is read again and used, preset data close to the extraction condition input in step S303 may be read, or the user may directly specify (select) the preset data. Good.

<プリセットデータの生成と表示>
次に、ユーザによって入力された抽出条件情報を解析し、プリセットデータを生成、表示することについて図4を用いて説明する。なお、図4では、図2と同じくレーティング情報として「暗い・明るい」、「哀しい・楽しい」を用いるものとする。
<Preset data generation and display>
Next, analysis of extraction condition information input by the user, generation and display of preset data will be described with reference to FIG. In FIG. 4, as in FIG. 2, “dark / bright” and “sad / fun” are used as the rating information.

図4(a)に示すプリセットデータ410は、入力された抽出条件情報を「哀しい・楽しい」の観点で解析し、横軸を時間(T)、縦軸を「哀しい・楽しい」(Y)とした座標軸で図示した例である。   The preset data 410 shown in FIG. 4A analyzes the input extraction condition information from the viewpoint of “sad / fun”, the horizontal axis is time (T), and the vertical axis is “sad / fun” (Y). This is an example illustrated with coordinate axes.

一方、図4(b)に示すプリセットデータ420は、入力された同じ抽出条件情報を「暗い・明るい」の観点で解析し、横軸を時間(T)、縦軸を「暗い・明るい」(X)とした座標軸で図示した例である。   On the other hand, the preset data 420 shown in FIG. 4B analyzes the same inputted extraction condition information from the viewpoint of “dark / bright”, the horizontal axis is time (T), and the vertical axis is “dark / bright” ( X) is an example illustrated with coordinate axes.

これら時間軸が一致するプリセットデータ410とプリセットデータ420を、横軸を「暗い・明るい」(X)、縦軸を「哀しい・楽しい」(Y)とした2次元座標軸で表示したものが図4(c)のプリセットデータ400である。このプリセットデータ400が、最終的に生成されたプリセットデータとしてコンテンツ抽出アプリケーションの画面上に表示される。   The preset data 410 and the preset data 420 having the same time axis are displayed on a two-dimensional coordinate axis in which the horizontal axis is “dark / bright” (X) and the vertical axis is “sad / fun” (Y). This is preset data 400 of (c). This preset data 400 is displayed on the screen of the content extraction application as preset data finally generated.

なお、図4(c)ではさらに、プリセットデータ400と各コンテンツに付与されたレーティング情報に基づいて、プリセットデータ400(軌跡)に接触または近接しているコンテンツ1〜コンテンツ16が抽出され、表示された状態を示している。   In FIG. 4C, the contents 1 to 16 that are in contact with or close to the preset data 400 (trajectory) are further extracted and displayed based on the preset data 400 and the rating information given to each content. Shows the state.

ただし、図4(c)の例示に限らず、ユーザが軌跡を描く際の参考情報としてプリセットデータを表示するのみでもよい。また、1つの抽出条件情報から複数のプリセットデータを生成し、表示してもよいし、プリセットデータを表示する際に、プリセットデータによって抽出されるコンテンツの抽出数や抽出条件をあわせて表示するようにしてもよい。   However, the present invention is not limited to the example shown in FIG. 4C, and only preset data may be displayed as reference information when the user draws a trajectory. Also, a plurality of preset data may be generated and displayed from one piece of extraction condition information, and when the preset data is displayed, the number of extracted contents and the extraction conditions extracted by the preset data are displayed together. It may be.

さらに、プリセットデータは、メモリや記憶部内のプリセットデータ記憶部(不図示)などに記憶し、再度読み出して、再利用するようにしてもよい。また、複数の抽出条件情報が入力された場合は、各々のプリセットデータを生成し、これらを組み合わせたプリセットデータを(組み合わせを考慮した複数種類)生成し、表示してもよい。   Furthermore, the preset data may be stored in a memory or a preset data storage unit (not shown) in the storage unit, read again, and reused. Further, when a plurality of pieces of extraction condition information are input, each preset data may be generated, and preset data obtained by combining these may be generated and displayed (a plurality of types considering the combination).

<抽出されたコンテンツの結合>
続いて、図4で説明したプリセットデータ400に基づいて抽出されたコンテンツを結合する場合について、図5を用いて説明する。
<Combination of extracted contents>
Next, a case of combining contents extracted based on the preset data 400 described with reference to FIG. 4 will be described with reference to FIG.

図5(a)は、抽出したコンテンツを正順に並べて結合した場合の例示である。図4(c)で示したプリセットデータ400の開始点401から終了点402に向かって、コンテンツ7→コンテンツ2→コンテンツ3→コンテンツ4→コンテンツ9→コンテンツ10→コンテンツ11→コンテンツ12→コンテンツ13→コンテンツ14→コンテンツ15の順にコンテンツを結合している。   FIG. 5A is an example when the extracted contents are combined in the normal order. From the start point 401 to the end point 402 of the preset data 400 shown in FIG. 4C, content 7 → content 2 → content 3 → content 4 → content 9 → content 10 → content 11 → content 12 → content 13 → Content is combined in the order of content 14 → content 15.

図5(b)は、抽出したコンテンツを逆順に並べて結合した場合の例示である。図4(c)で示したプリセットデータ400の終了点402から開始点401に向かって、コンテンツ15→コンテンツ14→コンテンツ13→コンテンツ12→コンテンツ11→コンテンツ10→コンテンツ9→コンテンツ4→コンテンツ3→コンテンツ2→コンテンツ7の順にコンテンツを結合している。   FIG. 5B is an example when the extracted contents are combined in the reverse order. From the end point 402 to the start point 401 of the preset data 400 shown in FIG. 4C, content 15 → content 14 → content 13 → content 12 → content 11 → content 10 → content 9 → content 4 → content 3 → Content is combined in the order of content 2 → content 7.

次に、2次元座標上に分布・表示されたコンテンツに対してプリセットデータ600の軌跡の太さを可変にすることで抽出するコンテンツを変化させる場合の一例について図6を用いて説明する。   Next, an example of changing content to be extracted by changing the thickness of the trajectory of the preset data 600 with respect to content distributed and displayed on two-dimensional coordinates will be described with reference to FIG.

図4(a)〜図4(c)では、プリセットデータの太さが均一の場合を説明したが、プリセットデータ生成部107が、入力された抽出条件情報に応じて、プリセットデータの開始点から終了点までの経路(方向、長さ)、太さ、速さを解析・識別して、プリセットデータの太さを可変にして生成してもよい。   In FIGS. 4A to 4C, the case where the thickness of the preset data is uniform has been described. However, the preset data generation unit 107 starts from the start point of the preset data according to the input extraction condition information. The preset data may be generated by varying the thickness of the preset data by analyzing and identifying the path (direction, length), thickness, and speed to the end point.

図6(a)〜図6(c)では、プリセットデータ600、610、620の軌跡の太さが部分々々で異なっている。こうすることによって、図4(c)と図6(c)では、プリセットデータに接触または近接するコンテンツ1〜コンテンツ16の配置は同一であっても、抽出するコンテンツの数を変化させることができる。   6 (a) to 6 (c), the preset data 600, 610, and 620 have different trajectory thicknesses. By doing so, in FIG. 4C and FIG. 6C, the number of contents to be extracted can be changed even if the arrangement of the contents 1 to 16 in contact with or close to the preset data is the same. .

例えば、コンテンツが多数重なっているところで、プリセットデータの幅が太く描かれた部分は、基準の太さに比べて多くのコンテンツを抽出し、幅が細く描かれた部分は、基準の太さに比べて少なくコンテンツを抽出する。   For example, where a large number of contents are overlapped, the part where the preset data width is drawn is extracted more than the standard thickness, and the part where the preset data is thin is drawn to the standard thickness. Extract less content than

また、コンテンツ上に表示されたプリセットデータを参考にしてユーザが軌跡を描いた場合、軌跡の筆圧(強い・弱い)や、速度(速い・遅い)に応じて、抽出するコンテンツの数を変化させることもできる。   Also, when the user draws a track with reference to the preset data displayed on the content, the number of content to be extracted changes depending on the stroke pressure (strong / weak) and speed (fast / slow) It can also be made.

例えば、コンテンツが多数重なっているところで、筆圧を強くして軌跡を太く描いた部分は、基準の太さに比べて多くのコンテンツを抽出し、筆圧を弱くして軌跡を細く描いた部分は、基準の太さに比べて少なくコンテンツを抽出する。   For example, where a lot of content overlaps, the part where the stroke is drawn thicker with the pen pressure increased, more content is extracted than the standard thickness, and the part drawn with the pen pressure weakened. Extracts content less than the standard thickness.

また、軌跡を速く描いた部分は、基準の速さに比べて少なくコンテンツを抽出し、軌跡を遅く描いた部分は、基準の速さに比べて多数のコンテンツを抽出する。   In addition, a portion where the trajectory is drawn faster extracts less content than the reference speed, and a portion where the trajectory is drawn slower extracts more content than the reference speed.

図7は、図6で説明したプリセットデータ600に基づいて抽出されたコンテンツを結合する場合の例示である。   FIG. 7 is an example in the case of combining contents extracted based on the preset data 600 described in FIG.

図7(a)は、抽出したコンテンツを正順に並べて結合した場合の例示である。図6(c)で示したプリセットデータ600の開始点601から終了点602に向かって、コンテンツ7→コンテンツ1→コンテンツ2→コンテンツ3→コンテンツ4→コンテンツ5→コンテンツ9→コンテンツ10→コンテンツ11→コンテンツ12→コンテンツ13→コンテンツ14→コンテンツ15の順にコンテンツを結合している。コンテンツ1およびコンテンツ5を含んでいる点が図5(a)の結合コンテンツとの差異である。   FIG. 7A is an example when the extracted contents are combined in the normal order. From the start point 601 to the end point 602 of the preset data 600 shown in FIG. 6C, content 7 → content 1 → content 2 → content 3 → content 4 → content 5 → content 9 → content 10 → content 11 → Content is combined in the order of content 12 → content 13 → content 14 → content 15. The content 1 and the content 5 are different from the combined content in FIG.

図7(b)は、抽出したコンテンツを逆順に並べて結合した場合の例示である。図6(c)で示したプリセットデータ600の終了点602から開始点601に向かって、コンテンツ15→コンテンツ14→コンテンツ13→コンテンツ12→コンテンツ11→コンテンツ10→コンテンツ9→コンテンツ5→コンテンツ4→コンテンツ3→コンテンツ2→コンテンツ1→コンテンツ7の順にコンテンツを結合している。コンテンツ1およびコンテンツ5を含んでいる点が図5(b)の結合コンテンツとの差異である。   FIG. 7B is an example when the extracted contents are combined in the reverse order. From the end point 602 of the preset data 600 shown in FIG. 6C toward the start point 601, content 15 → content 14 → content 13 → content 12 → content 11 → content 10 → content 9 → content 5 → content 4 → Content is combined in the order of content 3 → content 2 → content 1 → content 7. The content 1 and the content 5 are different from the combined content in FIG.

続いて、コンテンツ抽出時にプリセットデータとともに抽出数を表示する場合について、図8を用いて説明する。   Next, a case where the number of extractions is displayed together with preset data at the time of content extraction will be described with reference to FIG.

図8(a)に例示するように、コンテンツが2次元座標に分布されている場合に、プリセットデータ800の描画中に、抽出したコンテンツの数をポインタ850の近隣に表示することもできる。   As illustrated in FIG. 8A, when the contents are distributed in two-dimensional coordinates, the number of extracted contents can be displayed near the pointer 850 while the preset data 800 is drawn.

なお、抽出したコンテンツの数はプリセットデータ上に表示させる以外にも図8(b)に例示するように、プリセットデータ以外(表示画面上のいずれかの位置)に表示されるようにしてもよい。また、コンテンツの抽出数だけでなく、コンテンツの抽出条件(例:コンテンツの時間情報)を表示するようにしてもよい。   Note that the number of extracted contents may be displayed on the preset data other than the preset data (any position on the display screen) as illustrated in FIG. . Further, not only the number of content extractions but also content extraction conditions (for example, content time information) may be displayed.

さらに、プリセットデータ800によってコンテンツ抽出後、再度、ユーザの操作によって所定のコンテンツが選択された場合、そのコンテンツが何枚目に抽出されたものかを表示してもよい。例えば、図8(a)のようにコンテンツが分布され、プリセットデータ800が描かれている場合に、ユーザによってコンテンツ9が選択されると、コンテンツ9が5枚目に抽出されたことを示す数「5」をポインタ850の近隣に表示する。   Further, after a content is extracted by the preset data 800, when a predetermined content is selected again by a user operation, the number of the content extracted may be displayed. For example, when the content is distributed as shown in FIG. 8A and the preset data 800 is drawn, if the content 9 is selected by the user, the number indicating that the content 9 is extracted to the fifth sheet. “5” is displayed near the pointer 850.

<結合コンテンツの再生>
最後に、結合コンテンツの再生について説明する。コンテンツ再生部106は、上述した方法により生成された結合コンテンツを再生することができる。再生とは、フォトムービー、フォトブック、動画や音楽のプレイリストなどの再生のことである。抽出したコンテンツの再生・表示時間は、コンテンツ抽出部104がコンテンツを抽出する際に設定する。
<Playback of combined contents>
Finally, playback of combined content will be described. The content playback unit 106 can play back the combined content generated by the method described above. Playback refers to playback of a photo movie, a photo book, a video or music playlist, and the like. The playback / display time of the extracted content is set when the content extraction unit 104 extracts the content.

コンテンツ抽出部104は、プリセットデータの幅(太い・細い)に応じて、コンテンツ毎の再生・表示時間を可変に設定することができる。例えば、プリセットデータの幅が太く描かれた部分は、基準の時間に比べてコンテンツを再生・表示する時間を長くし、プリセットデータの幅が細く描かれた部分は、基準の時間に比べてコンテンツを再生・表示する時間を短くすることができる。   The content extraction unit 104 can variably set the playback / display time for each content according to the width (thick / thin) of the preset data. For example, the part where the preset data width is drawn thickens the time to play and display the content compared to the reference time, and the part where the preset data width is thin shows the content compared to the reference time. The time for playing and displaying can be shortened.

また、コンテンツ上に表示されたプリセットデータを参考にしてユーザが軌跡を描いた場合、軌跡の筆圧(強い・弱い)や、速度(速い・遅い)に応じて、コンテンツ毎の再生・表示時間を可変に設定することができる。例えば、筆圧を強くして軌跡を太く描いた部分は、基準の時間に比べてコンテンツを再生・表示する時間を長くし、筆圧を弱くして軌跡を細く描いた部分は、基準の時間に比べてコンテンツを再生・表示する時間を短くすることができる。また、軌跡を速く描いた部分は、基準の時間に比べてコンテンツを再生・表示する時間を短くし、軌跡を遅く描いた部分は、基準の時間に比べてコンテンツを再生・表示する時間を長くすることができる。   Also, when the user draws a track with reference to preset data displayed on the content, the playback / display time for each content depends on the stroke pressure (strong / weak) and speed (fast / slow). Can be set variably. For example, the portion where the stroke is drawn thicker with the pen pressure increased, the time to play and display the content is longer than the reference time, and the portion where the stroke is drawn thinner with the pen pressure reduced is the reference time. Compared to, it is possible to shorten the time for reproducing and displaying the content. In addition, the part where the trajectory is drawn quickly shortens the time for playing and displaying the content compared to the reference time, and the part where the trajectory is drawn slowly increases the time for playing and displaying the content compared to the reference time. can do.

上述した図5および図7に示した結合コンテンツを、ユーザの指示に応じて、コンテンツ結合・編集部105によって、コンテンツの編集(並べ替え、削除、追加など)を行うことができる。さらに、結合コンテンツを加工して、フォトムービー、フォトブック、動画や音楽のプレイリストなどの作成に適用できる。また、結合コンテンツの編集は、前述したコンテンツ結合・編集部105以外に、任意のコンテンツ編集アプリケーションでも実現することができる。   The combined content shown in FIGS. 5 and 7 can be edited (sorted, deleted, added, etc.) by the content combining / editing unit 105 in accordance with a user instruction. Furthermore, the combined content can be processed to create photo movies, photo books, video and music playlists, and the like. In addition to the content combining / editing unit 105 described above, editing of combined content can be realized by any content editing application.

上述した例では、プリセットデータを単一の線(一筆書き)で描いたが、断続した線(かすれ、破線、点線などの線や複数の線など)で描いた場合も同様に処理できる。   In the example described above, the preset data is drawn with a single line (drawn with a single stroke). However, the same processing can be performed when the preset data is drawn with an intermittent line (a line such as a blur, a broken line, a dotted line, or a plurality of lines).

また、抽出条件情報が入力された場合、抽出条件情報を解析し、その解析結果に基づいて、プリセットデータ記憶部(不図示)からプリセットデータを選定してもよい。   When extraction condition information is input, the extraction condition information may be analyzed, and preset data may be selected from a preset data storage unit (not shown) based on the analysis result.

上述したように、本実施形態では、ユーザによって指定された抽出条件情報(キーワードや音楽など)に基づいて、プリセットデータを生成し、このプリセットデータに沿ってコンテンツを抽出することで、コンテンツの抽出を容易に行うことができる。また、プリセットデータを表示するだけでも、ユーザが軌跡を描く際の参考情報となり、ユーザが所望の軌跡を描きやすくなる。   As described above, in the present embodiment, content extraction is performed by generating preset data based on extraction condition information (keyword, music, etc.) designated by the user and extracting content along the preset data. Can be easily performed. Further, simply displaying the preset data provides reference information when the user draws a trajectory, and makes it easier for the user to draw a desired trajectory.

[第2の実施形態]
<時間情報を加味したコンテンツの分布>
続いて、本発明の第2の実施形態について説明する。第2の実施形態は、コンテンツが有するレーティング情報に加えて、コンテンツ自身が有する時間情報(例えば、写真の撮影日に関する情報、コンテンツの作成・更新に関する情報など)を加味して、分布することが特徴である。なお、図1に示したコンテンツ抽出装置の構成、および、図3に示したコンテンツ抽出・結合処理の流れは第1の実施形態と同一であるため説明を省略する。
[Second Embodiment]
<Content distribution with time information>
Subsequently, a second embodiment of the present invention will be described. In the second embodiment, in addition to the rating information that the content has, time information that the content itself has (for example, information about the shooting date of the photo, information about the creation / update of the content, etc.) can be distributed. It is a feature. Note that the configuration of the content extraction apparatus shown in FIG. 1 and the flow of content extraction / combination processing shown in FIG. 3 are the same as those in the first embodiment, and thus description thereof is omitted.

図9は、任意のレーティング軸による空間に対し、コンテンツ自体が持つ時間情報(写真の撮影日情報など)軸を加味してコンテンツを分布した場合の例示である。   FIG. 9 shows an example in which content is distributed in consideration of the time information (photograph date information, etc.) axis of the content itself with respect to a space based on an arbitrary rating axis.

コンテンツの時間情報は、コンテンツの抽出を行う際のフィルタ情報として使用する。プリセットデータの開始点から終了点に向かって順次古いコンテンツから新しいコンテンツを抽出する。反対にプリセットデータの開始点から終了点に向かって順次新しいコンテンツから古いコンテンツを抽出することも可能である。   The content time information is used as filter information when content is extracted. New contents are extracted from old contents sequentially from the start point to the end point of the preset data. Conversely, it is also possible to extract old content from new content sequentially from the start point to the end point of the preset data.

図9(a)は、「暗い・明るい」をX軸(横軸)に、「哀しい・楽しい」をY軸(縦軸)にそれぞれ定義した2次元座標上にコンテンツを分布した例示である。ここに、コンテンツ自体が持つ時間情報を加味して3次元座標上にコンテンツを分布したものが図9(b)である。図9(b)ではコンテンツの時間情報が新しいものを一層目、中間のものを二層目、古いものを三層目に分布している。   FIG. 9A is an example in which contents are distributed on two-dimensional coordinates in which “dark / bright” is defined on the X axis (horizontal axis) and “sad / fun” is defined on the Y axis (vertical axis). FIG. 9B shows the content distributed on the three-dimensional coordinates in consideration of the time information of the content itself. In FIG. 9B, the time information of the content is distributed in the first layer, the middle one is distributed in the second layer, and the old one is distributed in the third layer.

なお、時間情報に基づくコンテンツの分布は、新しいものから古いものへの順に一層目から三層目に分けたが、古いものから新しいものへの順に三層に分けて分布してもよいし、時間軸の層(Z軸)をさらに詳細(多層的)に分けてもよい。例えば、時間軸の層(Z軸)を年別、月別、日別、時間別に分類することもできる。   The distribution of content based on time information is divided from the first layer to the third layer in order from the newest to the old one, but it may be distributed in three layers from the oldest to the new one, The time axis layer (Z-axis) may be further divided into details (multilayer). For example, the time axis layer (Z axis) can be classified by year, month, day, and time.

図10は、図9で説明したプリセットデータ900に基づいて抽出されたコンテンツを結合する場合の例示である。   FIG. 10 is an example in the case of combining contents extracted based on the preset data 900 described in FIG.

図10(a)は、抽出したコンテンツをコンテンツの時間情報を考慮して正順に並べて結合した場合の例示である。図9(b)で示したプリセットデータ900の開始点901から終了点902へコンテンツの時間情報軸の三層目→二層目→一層目に向かって、三層目のコンテンツ2→三層目のコンテンツ3→三層目のコンテンツ7→二層目のコンテンツ7→二層目のコンテンツ1→二層目のコンテンツ2→二層目のコンテンツ3→二層目のコンテンツ4→二層目のコンテンツ5→一層目のコンテンツ6→一層目のコンテンツ5一の順にコンテンツを結合している。   FIG. 10A is an example of a case where the extracted contents are arranged in order and combined in consideration of the time information of the contents. From the start point 901 to the end point 902 of the preset data 900 shown in FIG. 9B, the third layer → second layer → first layer of content information in the time information axis, the third layer content 2 → third layer Content 3 → third layer content 7 → second layer content 7 → second layer content 1 → second layer content 2 → second layer content 3 → second layer content 4 → second layer The contents are combined in the order of content 5 → first layer content 6 → first layer content 5.

図10(b)は、抽出したコンテンツをコンテンツの時間情報を考慮して逆順に並べて結合した場合の例示である。図9(b)で示したプリセットデータ900の終了点902から開始点901へコンテンツの時間情報軸の一層目→二層目→三層目に向かって、一層目のコンテンツ5→一層目のコンテンツ6→二層目のコンテンツ5→二層目のコンテンツ4→二層目のコンテンツ3→二層目のコンテンツ2→二層目のコンテンツ1→二層目のコンテンツ7→三層目のコンテンツ7→三層目のコンテンツ3→三層目のコンテンツ2の順にコンテンツを結合している。   FIG. 10B is an example when the extracted contents are combined in the reverse order in consideration of the time information of the contents. From the end point 902 to the start point 901 of the preset data 900 shown in FIG. 9B, the first layer content 5 → first layer content from the first layer → second layer → third layer of the time information axis of content. 6 → second layer content 5 → second layer content 4 → second layer content 3 → second layer content 2 → second layer content 1 → second layer content 7 → third layer content 7 The contents are combined in the order of the third layer content 3 → the third layer content 2.

なお、本実施形態では、コンテンツが有するレーティング情報に加えて、コンテンツ自身が有する時間情報(写真の撮影日に関する情報、コンテンツの作成・更新に関する情報など)を加味すると説明したが、コンテンツの再生・表示の長さ(動画や音楽の再生・表示時間)、コンテンツのファイル容量、ファイルの種類(ファイルの拡張子)などへの応用も可能である。また、コンテンツの時間情報、コンテンツの再生・表示の長さ、コンテンツのファイル容量、ファイルの種類(ファイルの拡張子)のうちの一部または全てを組み合わせてもよい。   In the present embodiment, in addition to the rating information of the content, it has been described that the time information of the content itself (information about the shooting date of the photograph, information about creation / update of the content, etc.) is taken into account. Application to display length (playback / display time of video and music), content file capacity, file type (file extension), etc. is also possible. Also, some or all of content time information, content playback / display length, content file capacity, and file type (file extension) may be combined.

上述したように、本実施形態では、コンテンツの新旧(新しい、古い)を意識しなくとも、コンテンツの時間情報に基づいて、時間順に並んだ結合コンテンツを作成することができる。   As described above, in the present embodiment, combined contents arranged in time order can be created based on the time information of contents without being conscious of the new and old contents (new and old).

[第3の実施形態]
<コンテンツの抽出数および抽出割合の設定>
続いて、本発明の第3の実施形態について説明する。第3の実施形態は、プリセットデータに基づいて抽出するコンテンツ数と、プリセットデータを分割した区間毎に抽出するコンテンツの割合(比率)を設定する点が特徴である。なお、図1に示したコンテンツ抽出装置の構成、および、図3に示したコンテンツ抽出・結合処理の流れは第1の実施形態と同一であるため説明を省略する。
[Third Embodiment]
<Setting of content extraction number and extraction ratio>
Subsequently, a third embodiment of the present invention will be described. The third embodiment is characterized in that the number of contents to be extracted based on preset data and the ratio (ratio) of contents to be extracted for each section obtained by dividing the preset data are set. Note that the configuration of the content extraction apparatus shown in FIG. 1 and the flow of content extraction / combination processing shown in FIG. 3 are the same as those in the first embodiment, and thus description thereof is omitted.

本実施形態においては、PC100が備える入力部を介してユーザがコンテンツ抽出アプリケーションに指示を与えることで、プリセットデータに基づいて抽出するコンテンツ数、プリセットデータを幾つかの区間に分けるための分割点(または分割数)、各区間から抽出するコンテンツの割合(比率)を決定する。   In the present embodiment, when the user gives an instruction to the content extraction application via the input unit provided in the PC 100, the number of contents to be extracted based on the preset data and the dividing points for dividing the preset data into several sections ( Or the number of divisions) and the ratio (ratio) of content extracted from each section.

例えば、2次元座標上に、抽出条件情報に基づいてプリセットデータの軌跡が描かれているものとする。ここで、ユーザ操作に応じて、ユーザが入力した分割点がプリセットデータの軌跡上に表示される。なお、ユーザが分割数を入力した場合は、分割数に基づいた初期位置(例えば等間隔)に分割点が表示され、その後に分割点の位置変更をできるようにすればよい。次に、ユーザは、分割されたプリセットデータの区間毎に抽出するコンテンツの割合(比率)を入力する。このようにすることで、ユーザは、抽出するコンテンツの総数と、分割したプリセットデータの区間毎に抽出するコンテンツの割合を任意に指定することができる。   For example, it is assumed that a locus of preset data is drawn on two-dimensional coordinates based on extraction condition information. Here, the division point input by the user is displayed on the locus of the preset data in accordance with the user operation. When the user inputs the division number, the division point is displayed at an initial position (for example, at equal intervals) based on the division number, and the position of the division point can be changed thereafter. Next, the user inputs the ratio (ratio) of content to be extracted for each section of the divided preset data. In this way, the user can arbitrarily specify the total number of contents to be extracted and the content ratio to be extracted for each segment of the preset data.

図11は、2次元座標上に表示されたプリセットデータ1100上に3つの分割点(1121、1122、1123)が表示され、プリセットデータが4つの区間に分割された場合の例示である。   FIG. 11 shows an example in which three division points (1121, 1122, 1123) are displayed on the preset data 1100 displayed on two-dimensional coordinates, and the preset data is divided into four sections.

図11に対応する結合コンテンツの例を図12に示す。具体的には、プリセットデータ1100の開始点を1101、終了点を1102としたとき、プリセットデータ1100がプリセットデータ1111(開始点1101〜分割点1121)、プリセットデータ1112(分割点1121〜分割点1122)、プリセットデータ1113(分割点1122〜分割点1123)、プリセットデータ1114(分割点1123〜終了点1102)からなる4つの区間に分割されている。   An example of the combined content corresponding to FIG. 11 is shown in FIG. Specifically, when the start point of the preset data 1100 is 1101 and the end point is 1102, the preset data 1100 is the preset data 1111 (start point 1101 to division point 1121), and the preset data 1112 (division point 1121 to division point 1122). ), Preset data 1113 (division point 1122 to division point 1123), and preset data 1114 (division point 1123 to end point 1102).

また、図12では、分割されたプリセットデータの区間毎にユーザが設定した割合に応じてコンテンツが抽出されている。この例では、プリセットデータの全区間において抽出するコンテンツ数が合計10個であり、プリセットデータ1111〜1114の各区間に対してそれぞれ1:3:3:3の割合が設定されている。   Also, in FIG. 12, content is extracted according to the ratio set by the user for each segment of the preset data. In this example, the total number of contents extracted in all sections of the preset data is 10, and a ratio of 1: 3: 3: 3 is set for each section of the preset data 1111 to 1114, respectively.

この設定によって、プリセットデータ1111区間からはコンテンツ7(コンテンツ数1)を、プリセットデータ1112区間からは、コンテンツ2、コンテンツ1、コンテンツ3(コンテンツ数3)を、プリセットデータ1113区間からは、コンテンツ10、コンテンツ11、コンテンツ12(コンテンツ数3)を、プリセットデータ1114区間からは、コンテンツ13、コンテンツ14、コンテンツ15(コンテンツ数3)を各々抽出する。こうして抽出されたコンテンツをプリセットデータ1100の開始点1101から終了点1102に向けて正順に結合したものが図12に示す結合コンテンツである。   By this setting, content 7 (content number 1) from the preset data 1111 section, content 2, content 1, content 3 (content number 3) from the preset data 1112 section, and content 10 from the preset data 1113 section. , Content 11, content 12 (content number 3), and content 13, content 14, content 15 (content number 3) are extracted from the preset data 1114 section. The combined contents shown in FIG. 12 are obtained by combining the extracted contents in order from the start point 1101 to the end point 1102 of the preset data 1100.

上述したように、本実施形態では、抽出するコンテンツの総数と、分割したプリセットデータの区間毎に抽出するコンテンツの割合(または数)を任意に指定することで、抽出するコンテンツの数や区間毎のバランスを調整することができる。   As described above, in the present embodiment, the total number of contents to be extracted and the ratio (or number) of the contents to be extracted for each section of the divided preset data are arbitrarily specified, so that the number of contents to be extracted and each section are extracted. The balance can be adjusted.

以上、第3の実施形態について説明したが、本発明は、上述した実施形態に限定されるものではなく、以下のように適宜変更可能である。   Although the third embodiment has been described above, the present invention is not limited to the above-described embodiment, and can be appropriately changed as follows.

プリセットデータ1113区間では、コンテンツ4、コンテンツ5、コンテンツ9、コンテンツ10、コンテンツ11、コンテンツ12を抽出可能であるが、上記の例では、コンテンツ10、コンテンツ11、コンテンツ12(プリセットデータ1113の終了点に近いほうのコンテンツ)を結合コンテンツに用いた。しかしこれに限らず、プリセットデータ区間の開始点に近い方のコンテンツ(例:コンテンツ4、コンテンツ5、コンテンツ9)を抽出してもよいし、プリセットデータの開始点と終了点の中間にあるコンテンツ(例:コンテンツ9、コンテンツ10、コンテンツ11)を抽出してもよい。   In the preset data 1113 section, content 4, content 5, content 9, content 10, content 11, and content 12 can be extracted. However, in the above example, content 10, content 11, content 12 (end point of preset data 1113) Content that is closer to) was used as the combined content. However, the present invention is not limited to this, and content closer to the start point of the preset data section (eg, content 4, content 5, content 9) may be extracted, or content that is between the start point and end point of the preset data (Example: content 9, content 10, content 11) may be extracted.

分割したプリセットデータ(プリセットデータ1111〜プリセットデータ1114)にユーザが設定した割合に応じて、コンテンツを抽出すると説明したが、割合は均等でもよい。また、分割されたプリセットデータそれぞれにコンテンツ抽出数を設定してもよい。さらに、分割されたプリセットデータの一部分(特定の区間)のみにコンテンツ抽出数を設定してもよい。   Although it has been described that the content is extracted according to the ratio set by the user in the divided preset data (preset data 1111 to preset data 1114), the ratio may be equal. Further, the content extraction number may be set for each of the divided preset data. Furthermore, the number of content extractions may be set only for a part (particular section) of the divided preset data.

ユーザによって設定されたコンテンツの抽出数や割合(コンテンツ抽出制限)に応じてコンテンツを抽出する場合であっても、プリセットデータの辿った位置に配置されるコンテンツ数がユーザによって設定されたコンテンツの抽出数や割合よりも少ないときは、設定されたコンテンツの抽出数や割合よりも少ないコンテンツを抽出するようにすればよい。   Even when content is extracted in accordance with the number and ratio of content extraction set by the user (content extraction restriction), content extraction in which the number of content arranged at the position followed by the preset data is set by the user When the number is less than the number or the ratio, it is sufficient to extract the content that is smaller than the set number or ratio of the extracted contents.

プリセットデータの分割は、プリセットデータの分割点(プリセットデータの長さ)を設定することに限らず、所定の間隔でプリセットデータを分割してもよい。例えば、プリセットデータが描かれる時間(例:1秒)やプリセットデータの長さ(例:1cm)を予め設定することで、設定した時間(例:1秒毎)や長さ(例:1cm毎)に応じて、プリセットデータを分割することができる。   The division of the preset data is not limited to setting the division point (the length of the preset data) of the preset data, and the preset data may be divided at a predetermined interval. For example, preset time (eg: 1 second) and preset data length (eg: 1 cm) are set in advance, so that the set time (eg: every 1 second) and length (eg: every 1 cm) ), The preset data can be divided.

また、ユーザがプリセットデータに対して分割点を設定することでプリセットデータを分割することと、所定の間隔(プリセットデータを描く時間や軌跡の長さ)でプリセットデータを任意の数(区間)に分割することの両方を組み合わせて実現してもよい。さらに、プリセットデータの分割点は、プリセットデータが描かれた後ではなくプリセットデータを描く前に予め設定してもよい。   In addition, the user divides the preset data by setting a division point for the preset data, and the preset data is set to an arbitrary number (section) at a predetermined interval (time for drawing the preset data or the length of the trajectory). You may implement | achieve combining both dividing | segmenting. Further, the division point of the preset data may be set in advance before drawing the preset data, not after the preset data is drawn.

2次元や3次元など多次元座標軸上に表されたプリセットデータの軌跡に対して分割点を設定してプリセットデータを分割する以外にも、プリセットデータの軌跡を開始点から終了点までの直線で表した状態で分割してもよい。また、プリセットデータの分割はコンテンツの抽出前に限らず、コンテンツの抽出後でもよい。   In addition to dividing the preset data by dividing the preset data trajectory on the preset data trajectory expressed on multi-dimensional coordinate axes such as 2D and 3D, the preset data trajectory is a straight line from the start point to the end point. You may divide | segment in the state represented. The division of the preset data is not limited to before content extraction, but may be performed after content extraction.

[第4の実施形態]
<結合コンテンツの編集によるプリセットデータの変更>
続いて、本発明の第4の実施形態について説明する。第4の実施形態は、結合コンテンツを編集することでプリセットデータを変更する場合について説明する。なお、図1に示したコンテンツ抽出装置の構成、および、図3に示したコンテンツ抽出・結合処理の流れは第1の実施形態と同一であるため説明を省略する。
[Fourth Embodiment]
<Change preset data by editing merged content>
Subsequently, a fourth embodiment of the present invention will be described. In the fourth embodiment, a case where preset data is changed by editing combined content will be described. Note that the configuration of the content extraction apparatus shown in FIG. 1 and the flow of content extraction / combination processing shown in FIG. 3 are the same as those in the first embodiment, and thus description thereof is omitted.

図13は、第4の実施形態における結合コンテンツを編集した場合を例示した説明図である。   FIG. 13 is an explanatory diagram illustrating a case where the combined content is edited in the fourth embodiment.

図13(a)は、図4で示したプリセットデータ400によって、抽出されたコンテンツを結合したものであり、図5(a)と同一である。   FIG. 13A is a combination of the extracted contents by the preset data 400 shown in FIG. 4, and is the same as FIG. 5A.

図13(a)の結合コンテンツを変更(編集)したものが図13(b)である。具体的には、図13(a)の結合コンテンツからコンテンツ2、コンテンツ3、コンテンツ4、コンテンツ10、コンテンツ11、コンテンツ12、コンテンツ14およびコンテンツ15を削除し、コンテンツ1とコンテンツ8を追加する編集を行い、コンテンツ7→コンテンツ1→コンテンツ9→コンテンツ8→コンテンツ13の順に再結合したものである。   FIG. 13B shows a result of changing (editing) the combined content shown in FIG. Specifically, the content 2, content 3, content 4, content 10, content 11, content 12, content 14, and content 15 are deleted from the combined content in FIG. 13A, and content 1 and content 8 are added. The contents are recombined in the order of content 7 → content 1 → content 9 → content 8 → content 13.

図14は、第4の実施形態における結合コンテンツの変更(編集)に伴いプリセットデータが変更(編集)された場合を例示した説明図である。   FIG. 14 is an explanatory diagram exemplifying a case where preset data is changed (edited) in accordance with the change (edit) of combined content in the fourth embodiment.

プリセットデータ400は、図13(a)を抽出したときのものである。これに対して、プリセットデータ450は、図13(a)の変更(編集)に基づいて図13(b)を抽出できるようにプリセットデータ生成部107によって変更(編集)されたものである。   The preset data 400 is obtained when FIG. 13A is extracted. On the other hand, the preset data 450 is changed (edited) by the preset data generation unit 107 so that FIG. 13 (b) can be extracted based on the change (edit) of FIG. 13 (a).

この変更後のプリセットデータ450をメモリや記憶部内のプリセットデータ記憶部(不図示)などに記憶し、再度、読み出して、再利用できるようになる。   The changed preset data 450 is stored in a memory or a preset data storage unit (not shown) in the storage unit, and can be read out again and reused.

なお、プリセットデータ450は、説明の便宜上、図14では、破線となっているが、実際には、実線で描かれる。   For convenience of explanation, the preset data 450 is a broken line in FIG. 14, but is actually drawn with a solid line.

上述したように、本実施形態では、結合コンテンツの変更(編集)に応じて、プリセットデータも変更(編集)されることで、プリセットデータによるコンテンツの抽出精度が高まり、プリセットデータを再利用する場合に、ユーザは所望のコンテンツを抽出しやすくなる。   As described above, in the present embodiment, when the preset data is changed (edited) in accordance with the change (edit) of the combined content, the content extraction accuracy by the preset data is increased, and the preset data is reused. In addition, the user can easily extract desired content.

なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において適宜変更可能である。   In addition, this invention is not limited to embodiment mentioned above, In the range which does not deviate from the summary of this invention, it can change suitably.

上述した実施形態では、プリセットデータの辿った位置にある全てのコンテンツを抽出すると説明したが、プリセットデータの辿った位置にある所定の種類のコンテンツのみ(例:写真のみ)を抽出するようにしてよい。   In the above-described embodiment, it has been described that all the contents at the position traced by the preset data are extracted. However, only a predetermined type of content (eg, only a photograph) at the position traced by the preset data is extracted. Good.

所定の種類のコンテンツのみが抽出された場合、それらのコンテンツのみを結合して結合コンテンツを生成してもよい。   When only a predetermined type of content is extracted, only the content may be combined to generate a combined content.

コンテンツの分布は、2次元座標に限らず、1次元座標や3次元座標に分布させてもよい。   The content distribution is not limited to two-dimensional coordinates, and may be distributed to one-dimensional coordinates or three-dimensional coordinates.

プリセットデータは、2次元の線に限らず、1次元の線や3次元の線でもよい。   The preset data is not limited to a two-dimensional line, and may be a one-dimensional line or a three-dimensional line.

抽出されたコンテンツを所定の順序(例:プリセットデータの開始点から終了点の順序)に並べて結合コンテンツを作成すると説明したが、抽出されたコンテンツの種類に応じて、コンテンツの並び順を変えて結合コンテンツを生成してもよい。例えば、写真1→音楽1→写真2→写真3→音楽2→動画1→写真4の順序で複数種類のコンテンツを抽出した場合、音楽1→音楽2→写真1→写真2→写真3→写真4→動画1のようにコンテンツの種類毎に並んだ結合コンテンツを生成する場合である。   Although it has been described that the combined content is created by arranging the extracted contents in a predetermined order (eg, the order from the start point to the end point of the preset data), the arrangement order of the contents is changed depending on the type of the extracted contents Combined content may be generated. For example, when a plurality of types of content are extracted in the order of photo 1 → music 1 → photo 2 → photo 3 → music 2 → video 1 → photo 4, music 1 → music 2 → photo 1 → photo 2 → photo 3 → photo. This is a case where combined content arranged for each type of content is generated, such as 4 → video 1.

コンテンツはレーティング情報に従って分布する以外にコンテンツの時間情報、EXIF情報、コンテンツのファイル容量、ファイルの種類(ファイルの拡張子)などに従って分布してもよい。   In addition to distribution according to rating information, the content may be distributed according to content time information, EXIF information, content file capacity, file type (file extension), and the like.

また、本発明の目的は、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給システム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出して処理を実行することによっても達成することができる。   Another object of the present invention is to supply a storage medium recording software program codes for realizing the functions of the above-described embodiments to the system or apparatus, and store the system or apparatus computer (or CPU, MPU, etc.) in the storage medium. It can also be achieved by reading the program code and executing the process.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶したコンピュータで読み取り可能な記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and a computer-readable storage medium storing the program code constitutes the present invention.

また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現されるように構成しても良い。   Further, an OS (operating system) or the like running on the computer performs part or all of the actual processing based on an instruction of the program code, and the functions of the above-described embodiments are realized by the processing. You may do it.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれたあと、このプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を実行し、その処理に応じて上述した実施形態が実現される場合も含んでいる。   Furthermore, after the program code read from the storage medium is written in the memory of the function expansion board inserted in the computer or the function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. In some cases, the CPU or the like provided in the board or the function expansion unit executes part or all of the actual processing, and the above-described embodiment is realized according to the processing.

なお、プログラムコードを供給するため、例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CDやDVDに代表される光ディスク、磁気テープ、不揮発性のメモリカード、ROM等の記憶媒体を用いることができる。または、プログラムコードは、ネットワークを介してダウンロードしてもよい。   In order to supply the program code, for example, a floppy (registered trademark) disk, a hard disk, a magneto-optical disk, an optical disk represented by CD or DVD, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. Can do. Alternatively, the program code may be downloaded via a network.

100:PC
101:コンテンツ記憶部
102:コンテンツ表示部
103:入力操作判断部
104:コンテンツ抽出部
105:コンテンツ結合・編集部
106:コンテンツ再生部
107:プリセットデータ生成部
100: PC
101: Content storage unit 102: Content display unit 103: Input operation determination unit 104: Content extraction unit 105: Content combination / editing unit 106: Content reproduction unit 107: Preset data generation unit

Claims (24)

所定の規則に従ってコンテンツを分布し、表示するコンテンツ抽出装置であって、
前記コンテンツの抽出条件情報を入力する入力手段と、
前記入力手段によって入力されたコンテンツの抽出条件情報を判断する抽出条件情報判断手段と、
前記抽出条件情報判断手段で判断された抽出条件情報を解析し、解析結果から前記コンテンツを抽出するためのプリセットデータを生成するプリセットデータ生成手段と、
前記プリセットデータ生成手段で生成されたプリセットデータに基づいて、前記コンテンツを抽出するコンテンツ抽出手段と、
前記コンテンツ抽出手段で抽出されたコンテンツを所定の順序で結合するコンテンツ結合手段と、
を備えることを特徴とするコンテンツ抽出装置。
A content extraction device that distributes and displays content according to a predetermined rule,
Input means for inputting the extraction condition information of the content;
Extraction condition information determining means for determining extraction condition information of content input by the input means;
Analyzing the extraction condition information determined by the extraction condition information determination means, and preset data generation means for generating preset data for extracting the content from the analysis result;
Content extracting means for extracting the content based on the preset data generated by the preset data generating means;
Content combining means for combining the contents extracted by the content extracting means in a predetermined order;
A content extraction apparatus comprising:
前記プリセットデータは、単一の線を分割したもの、または、複数の線を組み合わせたものであることを特徴とする請求項1に記載のコンテンツ抽出装置。   2. The content extraction apparatus according to claim 1, wherein the preset data is obtained by dividing a single line or a combination of a plurality of lines. 前記所定の順序とは、前記プリセットデータの開始点から終了点の順、または、前記プリセットデータの終了点から開始点の順であることを特徴とする請求項1または請求項2に記載のコンテンツ抽出装置。   3. The content according to claim 1, wherein the predetermined order is an order from a start point to an end point of the preset data, or an order from the end point of the preset data to the start point. Extraction device. 前記所定の順序とは、前記コンテンツが有する時間情報に基づいて、新しいものから古いものの順、または、古いものから新しいものの順であることを特徴とすることを特徴とする請求項1または請求項2に記載のコンテンツ抽出装置。   2. The predetermined order is an order from newest to oldest, or from oldest to newest based on time information of the content. 2. The content extraction device according to 2. 前記コンテンツ結合手段は、前記プリセットデータの長さ、前記プリセットデータの幅に応じて、前記コンテンツの再生・表示時間をコンテンツ毎に夫々設定することを特徴とする請求項1乃至請求項4の何れか1項に記載のコンテンツ抽出装置。   5. The content merging unit sets the playback / display time of the content for each content according to the length of the preset data and the width of the preset data, respectively. The content extraction device according to claim 1. 前記プリセットを任意の区間に分割する分割手段と、
前記プリセットデータの全区間に抽出すべきコンテンツの抽出数および前記分割手段によって分割されたプリセットデータの区間毎に抽出すべきコンテンツの抽出割合を設定するコンテンツ抽出制限設定手段と、を更に備え、
前記コンテンツ抽出手段は、前記コンテンツ抽出制限設定手段によって設定されたコンテンツの抽出数およびコンテンツの抽出割合に応じて前記コンテンツを抽出すること
を特徴とする請求項1乃至請求項5の何れか1項に記載のコンテンツ抽出装置。
A dividing means for dividing the preset into arbitrary sections;
Content extraction restriction setting means for setting the number of contents to be extracted in all sections of the preset data and the extraction ratio of the contents to be extracted for each section of the preset data divided by the dividing means;
6. The content extraction unit according to claim 1, wherein the content extraction unit extracts the content according to the number of content extractions and the content extraction ratio set by the content extraction restriction setting unit. The content extraction device described in 1.
前記プリセットを任意の区間に分割する分割手段と、
前記分割手段によって分割されたプリセットの区間毎に抽出すべきコンテンツの抽出数を設定するコンテンツ抽出制限設定手段と、を更に備え、
前記コンテンツ抽出手段は、前記コンテンツ抽出制限設定手段によって設定されたコンテンツの抽出数に応じて前記コンテンツを抽出することを特徴とする請求項1乃至請求項5の何れか1項に記載のコンテンツ抽出装置。
A dividing means for dividing the preset into arbitrary sections;
Content extraction restriction setting means for setting the number of extracted contents to be extracted for each preset section divided by the dividing means,
The content extraction unit according to any one of claims 1 to 5, wherein the content extraction unit extracts the content according to the number of content extractions set by the content extraction restriction setting unit. apparatus.
前記コンテンツ抽出手段によって複数種類の前記コンテンツを抽出可能な場合、
前記コンテンツ抽出手段は、所定の種類の前記コンテンツを抽出することを特徴とする請求項1乃至請求項7の何れか1項に記載のコンテンツ抽出装置。
When a plurality of types of the content can be extracted by the content extraction unit,
The content extraction apparatus according to claim 1, wherein the content extraction unit extracts the content of a predetermined type.
前記コンテンツ結合手段は、前記コンテンツ抽出手段によって抽出された前記所定の種類のコンテンツを結合し、前記所定の種類毎に結合されたコンテンツをさらに結合することを特徴とする請求項8に記載のコンテンツ抽出装置。   9. The content according to claim 8, wherein the content combining unit combines the predetermined types of content extracted by the content extracting unit, and further combines the combined content for each of the predetermined types. Extraction device. 前記コンテンツ抽出手段は、抽出中のコンテンツ数および/またはコンテンツ抽出条件を表示することを特徴とする請求項1乃至請求項9の何れか1項に記載のコンテンツ抽出装置。   The content extraction device according to any one of claims 1 to 9, wherein the content extraction unit displays the number of content being extracted and / or a content extraction condition. 前記プリセットデータ生成手段で生成された前記プリセットデータを記憶するプリセットデータ記憶手段と、
前記プリセットデータ生成手段で生成された前記プリセットデータまたは前記プリセットデータ記憶手段に記憶された前記プリセットデータを編集するプリセットデータ編集手段と、
を更に備えることを特徴とする請求項1乃至請求項10の何れか1項に記載のコンテンツ抽出装置。
Preset data storage means for storing the preset data generated by the preset data generation means;
Preset data editing means for editing the preset data generated by the preset data generating means or the preset data stored in the preset data storage means;
The content extraction apparatus according to claim 1, further comprising:
前記コンテンツ結合手段によって結合されたコンテンツを編集可能な結合コンテンツ編集手段を更に備え、
前記プリセットデータ編集手段は、コンテンツ編集手段によって編集されたコンテンツを抽出可能なように前記コンテンツを抽出した際に使用した前記プリセットデータを編集するまたはプリセットデータを新たに生成することを特徴とする請求項11に記載のコンテンツ抽出装置。
A combined content editing unit capable of editing the content combined by the content combining unit;
The preset data editing unit edits the preset data used when the content is extracted or newly generates preset data so that the content edited by the content editing unit can be extracted. Item 12. The content extraction device according to Item 11.
所定の規則に従ってコンテンツを分布し、表示するコンテンツ抽出装置のコンテンツ抽出方法であって、
入力手段によって前記コンテンツの抽出条件情報を入力する入力ステップと、
抽出条件情報解析手段によって前記入力ステップによって入力されたコンテンツの抽出条件情報を解析する抽出条件情報解析ステップと、
プリセットデータ生成手段によって前記抽出条件情報解析ステップで解析された抽出条件情報の解析結果から前記コンテンツを抽出するためのプリセットデータを生成するプリセットデータ生成ステップと、
コンテンツ抽出手段によって前記プリセットデータ生成ステップで生成されたプリセットデータに基づいて、前記コンテンツを抽出するコンテンツ抽出ステップと、
コンテンツ結合手段によって前記コンテンツ抽出ステップで抽出されたコンテンツを所定の順序で結合するコンテンツ結合ステップと、を備える
ことを特徴とするコンテンツ抽出方法。
A content extraction method of a content extraction device for distributing and displaying content according to a predetermined rule,
An input step of inputting the extraction condition information of the content by an input means;
An extraction condition information analyzing step of analyzing the extraction condition information of the content input by the input step by the extraction condition information analyzing means;
A preset data generation step for generating preset data for extracting the content from the analysis result of the extraction condition information analyzed in the extraction condition information analysis step by a preset data generation unit;
A content extraction step for extracting the content based on the preset data generated in the preset data generation step by a content extraction means;
A content extraction method comprising: a content combination step of combining the contents extracted in the content extraction step by a content combination unit in a predetermined order.
前記プリセットデータは、単一の線を分割したもの、または、複数の線を組み合わせたものであることを特徴とする請求項13に記載のコンテンツ抽出方法。   14. The content extraction method according to claim 13, wherein the preset data is obtained by dividing a single line or combining a plurality of lines. 前記所定の順序とは、前記プリセットデータの開始点から終了点の順、または、前記プリセットデータの終了点から開始点の順であることを特徴とする請求項13または請求項14に記載のコンテンツ抽出方法。   The content according to claim 13 or 14, wherein the predetermined order is an order from a start point to an end point of the preset data, or an order from an end point of the preset data to a start point. Extraction method. 前記所定の順序とは、前記コンテンツが有する時間情報に基づいて、新しいものから古いものの順、または、古いものから新しいものの順であることを特徴とすることを特徴とする請求項13または請求項14に記載のコンテンツ抽出方法。   14. The predetermined order is an order from newest to oldest, or from oldest to newest, based on time information of the content. 14. The content extraction method according to 14. 前記コンテンツ結合ステップは、前記プリセットデータの長さ、前記プリセットデータの幅に応じて、前記コンテンツの再生・表示時間をコンテンツ毎に夫々設定することを特徴とする請求項13乃至請求項16の何れか1項に記載のコンテンツ抽出方法。   The content combining step sets the reproduction / display time of the content for each content according to the length of the preset data and the width of the preset data, respectively. The content extraction method according to claim 1. 分割手段によって前記プリセットを任意の区間に分割する分割ステップと、
コンテンツ抽出制限設定手段によって前記プリセットデータの全区間に抽出すべきコンテンツの抽出数および前記分割ステップによって分割されたプリセットデータの区間毎に抽出すべきコンテンツの抽出割合を設定するコンテンツ抽出制限設定ステップと、を更に備え、
前記コンテンツ抽出ステップは、前記コンテンツ抽出制限設定ステップによって設定されたコンテンツの抽出数およびコンテンツの抽出割合に応じて前記コンテンツを抽出すること
を特徴とする請求項13乃至請求項17の何れか1項に記載のコンテンツ抽出方法。
A dividing step of dividing the preset into arbitrary sections by a dividing unit;
A content extraction restriction setting step for setting the number of extracted contents to be extracted in all sections of the preset data by the content extraction restriction setting means and the extraction ratio of the contents to be extracted for each section of the preset data divided by the dividing step; Further comprising
18. The content extraction step according to claim 13, wherein the content extraction step extracts the content according to the number of content extractions and the content extraction ratio set by the content extraction restriction setting step. The content extraction method described in 1.
分割手段によって前記プリセットを任意の区間に分割する分割ステップと、
コンテンツ抽出制限設定手段によって前記分割ステップによって分割されたプリセットの区間毎に抽出すべきコンテンツの抽出数を設定するコンテンツ抽出制限設定ステップと、を更に備え、
前記コンテンツ抽出ステップは、前記コンテンツ抽出制限設定ステップによって設定されたコンテンツの抽出数に応じて前記コンテンツを抽出することを特徴とする請求項13乃至請求項17の何れか1項に記載のコンテンツ抽出方法。
A dividing step of dividing the preset into arbitrary sections by a dividing unit;
A content extraction restriction setting step for setting the number of content extractions to be extracted for each preset section divided by the division step by the content extraction restriction setting means,
18. The content extraction according to claim 13, wherein the content extraction step extracts the content according to the number of content extractions set by the content extraction restriction setting step. Method.
前記コンテンツ抽出ステップによって複数種類の前記コンテンツを抽出可能な場合、
前記コンテンツ抽出ステップは、所定の種類の前記コンテンツを抽出することを特徴とする請求項13乃至請求項19の何れか1項に記載のコンテンツ抽出方法。
When a plurality of types of the content can be extracted by the content extraction step,
The content extraction method according to any one of claims 13 to 19, wherein the content extraction step extracts a predetermined type of the content.
前記コンテンツ結合ステップは、前記コンテンツ抽出ステップによって抽出された前記所定の種類のコンテンツを結合し、前記所定の種類毎に結合されたコンテンツをさらに結合することを特徴とする請求項20に記載のコンテンツ抽出方法。   21. The content according to claim 20, wherein the content combining step combines the predetermined types of content extracted by the content extraction step, and further combines the combined content for each of the predetermined types. Extraction method. 前記コンテンツ抽出ステップは、抽出中のコンテンツ数および/またはコンテンツ抽出条件を表示することを特徴とする請求項13乃至請求項21の何れか1項に記載のコンテンツ抽出方法。   The content extraction method according to any one of claims 13 to 21, wherein the content extraction step displays the number of contents being extracted and / or a content extraction condition. プリセットデータ記憶手段によって前記プリセットデータ生成ステップで生成された前記プリセットデータを記憶するプリセットデータ記憶ステップと、
プリセットデータ編集手段によって前記プリセットデータ生成ステップで生成された前記プリセットデータまたは前記プリセットデータ記憶ステップで記憶された前記プリセットデータを編集するプリセットデータ編集ステップと、
を更に備えることを特徴とする請求項13乃至請求項22の何れか1項に記載のコンテンツ抽出方法。
A preset data storage step for storing the preset data generated in the preset data generation step by a preset data storage means;
A preset data editing step for editing the preset data generated in the preset data generation step by the preset data editing means or the preset data stored in the preset data storage step;
The content extraction method according to any one of claims 13 to 22, further comprising:
結合コンテンツ編集手段によって前記コンテンツ結合ステップによって結合されたコンテンツを編集可能な結合コンテンツ編集ステップを更に備え、
前記プリセットデータ編集ステップは、コンテンツ編集ステップによって編集されたコンテンツを抽出可能なように前記コンテンツを抽出した際に使用した前記プリセットデータを編集するまたはプリセットデータを新たに生成することを特徴とする請求項23に記載のコンテンツ抽出方法。
A combined content editing step capable of editing the content combined by the content combining step by the combined content editing means;
The preset data editing step edits the preset data used when the content is extracted or newly generates preset data so that the content edited by the content editing step can be extracted. Item 24. The content extraction method according to Item 23.
JP2014082346A 2014-04-11 2014-04-11 content extraction device and content extraction method Pending JP2015203933A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014082346A JP2015203933A (en) 2014-04-11 2014-04-11 content extraction device and content extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014082346A JP2015203933A (en) 2014-04-11 2014-04-11 content extraction device and content extraction method

Publications (1)

Publication Number Publication Date
JP2015203933A true JP2015203933A (en) 2015-11-16

Family

ID=54597375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014082346A Pending JP2015203933A (en) 2014-04-11 2014-04-11 content extraction device and content extraction method

Country Status (1)

Country Link
JP (1) JP2015203933A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008572A (en) * 2017-06-26 2019-01-17 日本電信電話株式会社 Similar document retrieval device, similarity calculation device, method of similar document retrieval device, similarity calculation device, and program thereof
CN111857923A (en) * 2020-07-17 2020-10-30 北京字节跳动网络技术有限公司 Special effect display method and device, electronic equipment and computer readable medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008572A (en) * 2017-06-26 2019-01-17 日本電信電話株式会社 Similar document retrieval device, similarity calculation device, method of similar document retrieval device, similarity calculation device, and program thereof
CN111857923A (en) * 2020-07-17 2020-10-30 北京字节跳动网络技术有限公司 Special effect display method and device, electronic equipment and computer readable medium
CN111857923B (en) * 2020-07-17 2022-10-28 北京字节跳动网络技术有限公司 Special effect display method and device, electronic equipment and computer readable medium

Similar Documents

Publication Publication Date Title
US20210173530A1 (en) Hierarchical, Zoomable Presentations Of Media Sets
US11082377B2 (en) Scripted digital media message generation
US9715482B1 (en) Representing consumption of digital content
US9116912B1 (en) Methods and devices for modifying pre-existing media items
US9880709B2 (en) System and method for creating and displaying previews of content items for electronic works
US20180232340A1 (en) Output Generation Based on Semantic Expressions
US20140019865A1 (en) Visual story engine
US10198411B2 (en) Storing additional document information through change tracking
CN104541265A (en) E-reader systems
US20220035865A1 (en) Content capture across diverse sources
US9843823B2 (en) Systems and methods involving creation of information modules, including server, media searching, user interface and/or other features
EP2864985A1 (en) Displaying documents based on author preferences
US20120229391A1 (en) System and methods for generating interactive digital books
US20170161244A1 (en) Mechanism for partial document restore
US10304493B2 (en) Cartoon content editing method and cartoon content editing apparatus
JP2015203933A (en) content extraction device and content extraction method
JP5944975B2 (en) Story display program and story display system
CN111782309B (en) Method and device for displaying information and computer readable storage medium
JP2014171053A (en) Electronic document container data file, electronic document container data file generating apparatus, electronic document container data file generating program, server apparatus, and electronic document container data file generating method
KR20180046419A (en) System of making interactive smart contents based on cloud service
JP2015088102A (en) Content extraction device and content extraction method
JP4674726B2 (en) File management method and information processing apparatus
KR102488623B1 (en) Method and system for suppoting content editing based on real time generation of synthesized sound for video content
KR102465870B1 (en) Method and system for generating video content based on text to speech for image
KR102353797B1 (en) Method and system for suppoting content editing based on real time generation of synthesized sound for video content