JP6550180B2 - INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND CONTROL PROGRAM - Google Patents

INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND CONTROL PROGRAM Download PDF

Info

Publication number
JP6550180B2
JP6550180B2 JP2018162672A JP2018162672A JP6550180B2 JP 6550180 B2 JP6550180 B2 JP 6550180B2 JP 2018162672 A JP2018162672 A JP 2018162672A JP 2018162672 A JP2018162672 A JP 2018162672A JP 6550180 B2 JP6550180 B2 JP 6550180B2
Authority
JP
Japan
Prior art keywords
video
file
designated
moving image
files
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018162672A
Other languages
Japanese (ja)
Other versions
JP2019013021A (en
Inventor
健治 笠原
健治 笠原
哲成 野崎
哲成 野崎
綾乃 矢島
綾乃 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixi Inc
Original Assignee
Mixi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixi Inc filed Critical Mixi Inc
Priority to JP2018162672A priority Critical patent/JP6550180B2/en
Publication of JP2019013021A publication Critical patent/JP2019013021A/en
Application granted granted Critical
Publication of JP6550180B2 publication Critical patent/JP6550180B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、映像を編集する仕組みに関する。特に、複数の映像ファイルのうち少なくとも一部からそれぞれ抽出される映像を連結して連結映像を生成する仕組みに関するものである。   The present invention relates to a mechanism for editing video. In particular, the present invention relates to a mechanism for connecting videos extracted from at least a part of a plurality of video files to generate a connected video.

一定期間内に撮影された複数の動画ファイルのうち少なくとも一部から画像信号又は音声信号が所定の基準を満たす部分を含む部分動画像をそれぞれ抽出しこれらを結合して編集済ファイルを生成する編集装置が知られている(例えば、特許文献1参照。)。
特許文献1記載の編集装置は、動画を構成するフレーム画像及び音声を解析し、撮影時に強制抽出信号が付与された部分,撮影時にズームアップされた部分,記録された音量が大きい部分等を含む動画ファイルから当該部分を含む部分動画像を優先的に抽出する。
A partial moving image including a portion in which an image signal or an audio signal meets a predetermined standard is extracted from at least a part of a plurality of moving image files captured within a predetermined period, and these are combined to generate an edited file An apparatus is known (see, for example, Patent Document 1).
The editing apparatus described in Patent Document 1 analyzes frame images and sounds constituting a moving image, and includes a portion to which a forced extraction signal is given at the time of shooting, a portion zoomed in at the time of shooting, a portion with a large recorded volume, etc. The partial moving image including the portion is preferentially extracted from the moving image file.

特開2002−176613号公報Japanese Patent Application Laid-Open No. 2002-176613

時間の経過とともに外観が変化し得るオブジェクト(例えば、人物,胎児,動物,植物,微生物,細胞,景観など)をそれぞれ被写体とする複数の映像ファイルが比較的長期間にわたって撮りためられていることがある。これら複数の映像ファイルから好適な部分を抽出し撮影時期の順に連結すれば、被写体であるオブジェクトの変遷を表現する連結映像になり得る。   A plurality of video files, each of which has an object whose appearance may change with the passage of time (for example, a person, a fetus, an animal, a plant, a microorganism, a cell, a landscape, etc.), is taken over a relatively long period of time is there. If suitable portions are extracted from the plurality of video files and connected in order of shooting time, it can be a connected video representing the transition of the object which is the subject.

映像の抽出に関し、特許文献1記載の編集装置のように解析結果に基づく優先度が相対的に高い部分を優先する手法を採用すれば、ユーザにとって価値が高いであろう部分が抽出されやすくなる。その一方で、解析結果に基づく優先度が相対的に高い部分を含む映像の撮影時期が時間軸上に満遍なく分布することはまずないので、当該手法により抽出される映像の撮影時期には偏りが発生しやすい。   If a method of prioritizing a portion having a relatively high priority based on the analysis result as in the editing device described in Patent Document 1 is adopted for extraction of a video, a portion that would be highly valuable to the user is easily extracted. On the other hand, since there is unlikely to be a uniform distribution of shooting times of videos including portions with relatively high priorities based on the analysis results on the time axis, there is a bias in the shooting times of videos extracted by this method. Likely to happen.

本発明が解決しようとする課題は、素材とする複数の映像ファイルのうち少なくとも一部から連結映像に組み入れるべき映像をそれぞれ抽出する際に撮影時期の偏りを抑止する、という点である。   The problem to be solved by the present invention is to suppress the bias of the photographing time when extracting each of the video to be incorporated into the connected video from at least a part of the plurality of video files as the material.

上記課題を解決するため、本発明の一態様である「情報処理装置」は、数の映像ファイルを撮影時期に応じて複数の区分のいずれかにそれぞれ仕分ける仕分手段と、
前記複数の映像ファイルの中から連結映像の素材とする複数の選定ファイルを選定する際に加味される重みを前記仕分手段により仕分けられる映像ファイルの数が多い区分の映像ファイルほど選定されにくくなるように設定する設定手段と、を具備する。
上記課題を解決するため、本発明の一態様である「情報処理装置の制御方法」は、数の映像ファイルを撮影時期に応じて複数の区分のいずれかにそれぞれ仕分ける仕分ステップと、
前記複数の映像ファイルの中から連結映像の素材とする複数の選定ファイルを選定する際に加味される重みを前記仕分ステップにおいて仕分けられる映像ファイルの数が多い区分の映像ファイルほど選定されにくくなるように設定する設定ステップと、を含む。
上記課題を解決するため、本発明の一態様である「制御プログラム」は、数の映像ファイルを撮影時期に応じて複数の区分のいずれかにそれぞれ仕分ける仕分機能と、前記複数の映像ファイルの中から連結映像の素材とする複数の選定ファイルを選定する際に加味される重みを前記仕分機能により仕分けられる映像ファイルの数が多い区分の映像ファイルほど選定されにくくなるように設定する設定機能と、を情報処理装置のコンピュータに実現させる。
上記課題を解決するため、本発明の一態様である「記録媒体」にコンピュータ読取り可能に記録される制御プログラムは、数の映像ファイルを撮影時期に応じて複数の区分のいずれかにそれぞれ仕分ける仕分機能と、前記複数の映像ファイルの中から連結映像の素材とする複数の選定ファイルを選定する際に加味される重みを前記仕分機能により仕分けられる映像ファイルの数が多い区分の映像ファイルほど選定されにくくなるように設定する設定機能と、を情報処理装置のコンピュータに実現させる。
To solve the above problems, "information processing apparatus" which is one embodiment of the present invention includes: any Niso Re respective sorting sorting means of a plurality of divided according to the time shooting the image file of multiple,
Hardly selected as the image file of a large number division of a video file to be sorted by the previous SL sorting means the weight to be taken into account when a plurality of the selected file to select the constant to the material of the connection image from the plurality of image files setting means for setting so as to include a.
To solve the above problem, "method of controlling an information processing apparatus" which is one embodiment of the present invention includes: any Niso Re respective sorting sorting step a plurality of sections in accordance with the time shooting the image file of multiple ,
Hardly selected as the image file of a large number division of a video file to be sorted in the previous SL sorting step the weight to be taken into account when a plurality of the selected file to select the constant to the material of the connection image from the plurality of image files including, a setting step of setting so.
To solve the above problems, which is one embodiment of the present invention "control program" includes any Niso Re respective sorting sorting function of a plurality of sections in accordance with the time shooting the image file of multiple, said plurality of such that hardly is selected as the image file of a large number division of a video file to be sorted by the previous SL sort function weights are taken into account when a plurality of the selected file to select the constant to the material of the consolidated image from a video file a setting function to set the to realize the computer of the information processing apparatus.
To solve the above problem, a control program recorded computer readable to an embodiment "recording medium" of the present invention, Re or Niso a plurality of sections in accordance with the time shooting the image file of multiple a respective sorting sort function, a large number of image files are sorted by the previous SL sort function weights are taken into account when a plurality of selected constant selection files to the material of the consolidated image from the plurality of image files a setting function to set as less likely to be selected as the image file of the segment, the realizing on the computer of the information processing apparatus.

本発明において「映像ファイル」とは、任意の装置により記録されたコンテンツ(例えば、動画像データと静止画像データとのうち少なくともいずれか又は当該少なくともいずれかと音声データとの組合せ)とメタデータ(例えば、撮影時期,撮影位置など)とを含むひとまとまりのデータをいう。
本発明において「映像ファイル」が「特定のオブジェクトに関連する」とは、特定のオブジェクト(例えば、時間の経過とともに外観が変化し得るオブジェクト(例えば、人物,胎児,動物,植物,微生物,細胞,景観など))を撮影した映像(例えば、動画像,静止画像)を含むこと又はその可能性が高いことをいう。なお、例えば、特定のオブジェクトに関連付けられたディレクトリに格納されていたり、特定のオブジェクトに関連付けられたタグやコメントが付加されていたり、特定のオブジェクトに関連するタイトルが付与されていたりする映像ファイルは、当該オブジェクトを撮影した映像を含む可能性が高いといえる。
本発明において「所定期間」は特に限定されない。例えば、1週間,1か月間,3か月間,半年間,1年間といった暦上の期間が好適である。
本発明において「連結映像」とは、異なる複数の映像が連続的に表示される一連の映像をいう。「連結映像」は、1の映像ファイルにそれぞれ採録された異なる複数の映像の集合であってもよいし、再生リストに基づいて連続的に再生される異なる複数の映像の集合であってもよい。
本発明において「連結映像に組み入れる」とは、連結映像をコンテンツとする映像ファイル(連結映像ファイル)のコンテンツに採録すること、又は、連結映像を再生させるための再生リストに編入することをいう。
本発明において「指定長さ」は、特に限定されない。例えば、「指定長さの抽出部分」は選定ファイル内のある時点(始点)から他の時点(終点)までのX秒間分(X:適当な正の実数)の映像(一連の複数の静止画像(すなわち動画像))であるのが好適であるが、選定ファイル内のある時点の映像(単数のフレーム画像)であってもよい。Xの値は全ての選定ファイルに一律に指定されてもよいし選定ファイルごとに個別に指定されてもよい。なお、抽出部分が単数の静止画像である場合、連結映像では当該静止画像が所定の時間だけ表示され続ける。
本発明において「複数の選定ファイルを・・・選定する」処理は「情報処理装置」が実行してもよいし他の装置が実行していてもよい。
本発明において「重み」とは、選定されやすさの度合いを示すデータをいう。「重み」はある区分に属する全ての映像ファイルに一律に設定してもよいし映像ファイルごとに個別に設定してもよい。また、一度設定された「重み」の一部又は全部を状況に応じて変化させてもよい。
本発明において選定する際に「重み」を「加味」するとは、「重み」が示す選定されやすさの度合いが高い映像ファイルほど優先的に又は高い確率で選定される手法により選定することをいう。例えば、各映像ファイルに設定された重みの合計値に応じて各区分に選定数を割り当て各区分から割当数分の映像ファイルを選定する手法を採用してもよいし、各映像ファイルに設定された重みの大きさの比に応じて所定の数値範囲を分割し各映像ファイルをいずれかの分割範囲にそれぞれ対応付け当該数値範囲の疑似乱数を発生させて発生した疑似乱数を含む分割範囲に対応付けられた映像ファイルを選定する手法を採用してもよい。
本発明において「重み」が「映像ファイルの数が多い区分の映像ファイルほど選定されにく」いとは、「区分に属する映像ファイルの数」の関数として定義される「当該区分に属する映像ファイルの重み」が「区分に属する映像ファイルの数」の増大に伴い単調に減少することをいう。例えば、各映像ファイルに当該映像ファイルが属する区分に仕分けられた映像ファイルの数に反比例する重みをそれぞれ設定するのが好適である。
In the present invention, “video file” refers to content (for example, a combination of at least one of moving image data and still image data or a combination of the at least one and audio data) and metadata (for example, video files). , Shooting time, shooting position, etc.).
In the present invention, “video file” is “related to a specific object” means a specific object (for example, an object whose appearance may change with the passage of time (for example, a person, a fetus, an animal, a plant, a microorganism, a cell, Landscape etc.)) or contains a high possibility of including a video (for example, moving image, still image). Note that, for example, a video file stored in a directory associated with a specific object, added with a tag or comment associated with a specific object, or given a title associated with a specific object , It can be said that there is a high possibility of including an image obtained by photographing the object.
In the present invention, the "predetermined period" is not particularly limited. For example, calendar periods such as one week, one month, three months, half a year, and one year are suitable.
In the present invention, “connected video” refers to a series of videos in which a plurality of different videos are displayed continuously. The “connected video” may be a set of a plurality of different videos each recorded in one video file, or may be a set of a plurality of different videos continuously reproduced based on the reproduction list. .
In the present invention, “incorporate into a connected video” means to record the content of a video file (connected video file) having the linked video as the content, or to incorporate it into a reproduction list for playing back the connected video.
In the present invention, the "specified length" is not particularly limited. For example, “extraction part of specified length” is an image (X: an appropriate positive real number) of X seconds from a certain point (start point) to another point (end point) in the selected file (a series of plural still images) (I.e., a moving image)) is preferable, but it may be an image (a single frame image) at a certain point in time in the selected file. The value of X may be uniformly specified in all selection files or may be individually specified for each selection file. When the extracted portion is a single still image, the still image is continuously displayed for a predetermined time in the connected video.
In the present invention, the process "select a plurality of selection files ..." may be executed by the "information processing apparatus" or may be executed by another apparatus.
In the present invention, “weight” refers to data indicating the degree of ease of selection. The “weight” may be set uniformly to all the video files belonging to a certain section, or may be set individually for each video file. Also, part or all of the "weight" set once may be changed according to the situation.
In the present invention, “adding in” the “weight” means selecting by a method in which a video file having a high degree of ease of selection indicated by the “weight” is selected preferentially or with high probability. . For example, a method may be adopted in which the number of selections is assigned to each section according to the total value of weights set in each video file, and a video file for the number of allocations is selected from each section. A predetermined numerical range is divided according to the ratio of weight sizes, and each video file is associated with one of the divided ranges, respectively. A pseudo-random number of the numerical range is generated to generate a pseudo-random number. A method of selecting the selected video file may be adopted.
In the present invention, “weight” is less likely to be selected for video files of a section having a larger number of video files ”is defined as a function of“ the number of video files belonging to the section ”. Weight is said to decrease monotonously with the increase of "the number of video files belonging to the section". For example, it is preferable to set, in each video file, a weight that is inversely proportional to the number of video files sorted into the section to which the video file belongs.

上記「情報処理装置」には、以下に例示する技術的限定を加えてもよい。また、同趣旨の技術的限定を、「情報処理装置の制御方法」,「制御プログラム」及び「記録媒体」に加えてもよい。
例えば、前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと所定の関係を有する他の映像ファイルが選定されなくなるように又は再設定前に比較して選定されにくくなるように前記重みを再設定し、前記設定手段により設定される最新の重みを加味して複数の前記選定ファイルを順次選定する選定手段をさらに具備する、という技術的限定を加えてもよい。
ここで、「最新の重みを加味」して選定ファイルを「順次選定」するとは、1の選定ファイルが選定される度に映像ファイルの少なくとも一部に重みを再設定し再設定後の重みを加味して新たな選定ファイルを選定する、という一連の手順を選定ファイルの数が所望の数に達するまで繰り返すことをいう。
ここで、「最新の重みを加味」するとは、「重み」が示す選定されやすさの度合いが相対的に高い映像ファイルほど優先的に又は高い確率で選定される手法により選定することをいう。例えば、設定された重みが相対的に最も高い映像ファイルを最優先で選定する手法を採用してもよいし、各映像ファイルに設定された重みの大きさの比に応じて所定の数値範囲の数値を分割し各映像ファイルをいずれかの分割範囲にそれぞれ対応付け当該数値範囲の疑似乱数を発生させて発生した疑似乱数を含む分割範囲に対応付けられている映像ファイルを選定する手法を採用してもよい。
The above-described “information processing apparatus” may have the technical limitations exemplified below. In addition, the technical limitations of the same purpose may be added to the “control method of the information processing apparatus”, the “control program”, and the “recording medium”.
For example, the setting unit may not select another video file having a predetermined relationship with the video file every time one video file is selected, or may be more difficult to select as compared to before resetting. resetting the weights, further comprising selecting means for sequentially selecting a plurality of the selected file in consideration of the latest weight that is set by the setting unit, it may be added to the technical limitation that.
Here, “adding the latest weight” and “selecting the selected file sequentially” resets the weight to at least a part of the video file every time the selected file of 1 is selected, and sets the weight after resetting. A series of procedures of selecting a new selection file in consideration is repeated until the number of selection files reaches a desired number.
Here, “adding the latest weight” means selecting by a method in which a video file having a relatively high degree of selection indicated by the “weight” is selected preferentially or with a high probability. For example, a method may be adopted in which a video file having a relatively high set weight is selected with the highest priority, or a predetermined numerical range may be selected according to the ratio of the magnitudes of the weights set in each video file. A method is adopted in which a numerical value is divided and each video file is associated with any of the divided ranges, and a pseudo random number of the numerical range is generated to select a video file associated with the divided range including the generated pseudo random number. May be

上記「再設定」に関する技術的限定を加えた「情報処理装置」には、以下に例示する技術的限定をさらに加えてもよい。また、同趣旨の技術的限定を、「情報処理装置の制御方法」,「制御プログラム」及び「記録媒体」に加えてもよい。
例えば、前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと同一の区分に属する他の映像ファイルの少なくとも一部が選定されなくなるように又は再設定前に比較して選定されにくくなるように前記重みを再設定する、という技術的限定を加えてもよい。
具体的には、前記仕分手段が、撮影時期が所定の基準を満たす程度に近接する(例えば、映像ファイルを短期区分(時間帯,撮影日,撮影週など「区分」より相対的に短期の区分)に仕分けた場合に撮影時期が同一の短期区分に属する関係にある)複数の映像ファイルが同一のグループに属するように前記複数の映像ファイルを前記区分内でさらにグループ化し、前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと同一のグループに属する他の関連映像ファイルが選定されなくなるように又は再設定前に比較して選定されにくくなるように前記重みを再設定する、という技術的限定を加えてもよい。
The technical limitations exemplified below may be further added to the “information processing apparatus” to which the technical limitations regarding the above “resetting” have been added. In addition, the technical limitations of the same purpose may be added to the “control method of the information processing apparatus”, the “control program”, and the “recording medium”.
For example, the setting means is selected so that at least a part of another video file belonging to the same segment as the video file is not selected every time one video file is selected or compared before the resetting. the re-setting the weight to be Nikuku, may be added to the technical limitation that.
Specifically, the sorting means is close to the extent that the shooting time meets a predetermined standard (for example, the video file is divided into short-term segments (time zone, shooting date, shooting week, etc., relatively short-range than “segment”) Grouping of the plurality of video files in the division so that the plurality of video files belong to the same group, and the video recording time belongs to the same short-term division when the video data is sorted into resetting the weights to the first video file is less likely to be selected as compared to the prior way or resetting other relevant video file is not is selected belonging to the video files of the same group each time it is selected The technical limitations may be added.

上記「グループ化」に関する技術的限定を加えた「情報処理装置」には、以下に例示するように種々の技術的限定をさらに加えてもよい。また、同趣旨の技術的限定を、「情報処理装置の制御方法」,「制御プログラム」及び「記録媒体」にさらに加えてもよい。
例えば、前記仕分手段が、撮影時期の少なくとも一部が相互に重なる(例えば、一方の映像ファイルの撮影開始時期から撮影終了時期までの期間内に他方の映像ファイルの撮影開始時期と撮影終了時期との少なくともいずれかが含まれる関係にある)複数の映像ファイルが同一のグループに属するようにグループ化し、前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと同一のグループに属する前記他の関連映像ファイルが選定されなくなるように前記重みを再設定する、という技術的限定をさらに加えてもよい。
なお、前記仕分手段が、撮影時期の少なくとも一部が重なる複数の映像ファイルが同一のグループに属するように前記複数の映像ファイルをさらにグループ化する条件として、撮影位置が所定の基準を満たす程度に近接する(例えば、撮影位置間の直線距離が所定閾値を超えない関係にある)場合、又は、同一のディレクトリに保存されており若しくは同一のタグデータが付加されている場合に限ってもよい。
Various technical limitations may be further added to the “information processing apparatus” to which the above-mentioned “grouping” has been technically limited, as exemplified below. In addition, the technical limitations of the same purpose may be further added to the “control method of the information processing apparatus”, the “control program”, and the “recording medium”.
For example, at least part of the shooting times of the sorting unit mutually overlap (for example, the shooting start time and the shooting end time of the other video file within a period from the shooting start time of one video file to the shooting end time) Groups of video files are in the same group, and the setting unit belongs to the same group as the video file each time one video file is selected. the other related image file is re-set the weight so will not be selected, it may be further added to the technical limitation that.
As a condition for further grouping the plurality of video files such that the plurality of video files in which at least a part of the shooting time overlaps one another belong to the same group, They may be close to each other (for example, when the linear distance between the imaging positions does not exceed a predetermined threshold) or when the same directory stores the same tag data.

上記「グループ化」に関する技術的限定を加えた「情報処理装置」には、以下に例示するように、種々の技術的限定をさらに加えてもよい。また、同趣旨の技術的限定を、「情報処理装置の制御方法」,「制御プログラム」及び「記録媒体」にさらに加えてもよい。
例えば、複数の前記選定ファイルにおいてそれぞれ特定される複数の抽出部分が順次表示される前記連結映像を表示装置に表示させる提示手段と、前記連結映像の表示中(例えば、通常再生中,スロー再生中,一時停止中など)に視聴者の所定動作(例えば、発声,ジェスチャ,マウス操作,ボタン操作,タッチ操作)により指定される指定部分を代替映像に差し替える編集手段と、をさらに具備する、という技術的限定を加えてもよい。
このとき、前記提示手段が、前記指定部分の抽出元の選定ファイルの他の部分及び該選定ファイルと同一のグループに属する前記他の関連映像ファイルの部分の少なくともいずれかをそれぞれ含む複数の前記代替映像の候補を連結した候補連結映像を該指定部分が指定された後(例えば、指定部分が指定された直後,連結映像の表示が終了した後など)に前記表示装置にさらに表示させ、前記編集手段が、前記候補連結映像の表示中に視聴者の指定操作(例えば、発声,ジェスチャ,マウス操作,ボタン操作,タッチ操作)により指定される指定候補を前記代替映像に取り込む、という技術的限定をさらに加えてもよい。
また、前記提示手段が、前記選定ファイル及び該選定ファイルと同一のグループに属する前記他の関連映像ファイルにおいてそれぞれ特定される前記抽出部分の候補が複数の区画に分割された画面に同時に表示される分割映像を含む前記連結映像を前記表示装置に表示させ、前記編集手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するためのタッチ操作(例えば、シングルタップ操作,ダブルタップ操作など)により併せて指定される指定区画に表示されていた候補を前記代替映像に取り込む、という技術的限定をさらに加えてもよい。
また、前記提示手段が、前記選定ファイル及び該選定ファイルと同一のグループに属する前記他の関連映像ファイルにおいてそれぞれ特定される前記抽出部分の候補が複数の区画に分割された画面に同時に表示される分割映像を含む前記連結映像を前記表示装置に表示させ、前記編集手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するための第1タッチ操作(例えば、シングルタップ操作,第2タッチ操作と異なる特定方向へのフリック操作やスワイプ操作など)により併せて指定される指定区画に表示されていた候補を前記代替映像に取り込み、前記提示手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するための第2タッチ操作(例えば、ダブルタップ操作,第1タッチ操作と異なる特定方向へのフリック操作やスワイプ操作など)により併せて指定される指定区画に表示されていた候補の抽出元の選定ファイルの他の部分をそれぞれ含む複数の前記代替映像の候補を連結した候補連結映像を該指定区画が指定された後に前記表示装置にさらに表示させ、前記編集手段が、前記候補連結映像の表示中に視聴者の指定操作(例えば、発声,ジェスチャ,マウス操作,ボタン操作,タッチ操作)により指定される指定候補を前記代替映像に取り込む、という技術的限定をさらに加えてもよい。
また、前記提示手段が、前記選定ファイル及び該選定ファイルと同一のグループに属する前記他の関連映像ファイルにおいてそれぞれ特定される前記抽出部分の候補が複数の区画に分割された画面に同時に表示される分割映像を含む前記連結映像を前記表示装置に表示させ、前記編集手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するための第1タッチ操作(例えば、シングルタップ操作,第2タッチ操作と異なる特定方向へのフリック操作やスワイプ操作など)により併せて指定される指定区画に表示されていた候補を前記代替映像に取り込み、前記提示手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するための第2タッチ操作(例えば、ダブルタップ操作,第1タッチ操作と異なる特定方向へのフリック操作やスワイプ操作など)により併せて指定される指定区画に表示されていた候補の抽出元の選定ファイルの他の部分をそれぞれ含む複数の前記代替映像の候補が複数の区画に分割された画面に同時に表示される候補分割映像を該指定区画が指定された後に前記表示装置にさらに表示させ、前記編集手段が、前記候補分割映像の表示中に視聴者のタッチ操作(例えば、シングルタップ操作,ダブルタップ操作など)により指定される指定区画に表示されていた候補を前記代替映像に取り込む、という技術的限定をさらに加えてもよい。
Various technical limitations may be further added to the “information processing apparatus” to which the technical limitations regarding “grouping” have been added, as exemplified below. In addition, the technical limitations of the same purpose may be further added to the “control method of the information processing apparatus”, the “control program”, and the “recording medium”.
For example, presenting means for causing the display device to display the connected video in which a plurality of extracted portions specified in the plurality of selected files are sequentially displayed, and displaying the connected video (for example, during normal playback or slow playback) And editing means for replacing a designated part designated by a predetermined action (for example, an utterance, a gesture, a mouse operation, a button operation, a touch operation) of the viewer during substitute pause, etc. Limitations may be added.
At this time, the plurality of substitutes each including at least one of the other portion of the selection file of the extraction source of the designated portion and the portion of the other related video file belonging to the same group as the selection file After the designated portion is designated (for example, immediately after the designated portion is designated, after the display of the coupled video is finished, etc.), the candidate concatenated video obtained by linking the video candidates is further displayed on the display device, and the editing is performed The technical limitation is that the means takes in a designated candidate designated by a designated operation (for example, an utterance, a gesture, a mouse operation, a button operation, a touch operation) of a viewer during display of the candidate connected video into the alternative video. You may add further.
In addition, the presenting unit simultaneously displays the selection file and the candidate for the extracted portion specified in the other related video file belonging to the same group as the selection file on a screen divided into a plurality of sections. A touch operation (for example, a single tap operation, a double tap, etc.) for displaying the connected video including divided video on the display device and the editing unit designating the specified portion when the specified portion includes the divided video A technical limitation may be further added in which the candidate displayed in the designated section designated together by the operation etc.) is taken into the alternative video.
In addition, the presenting unit simultaneously displays the selection file and the candidate for the extracted portion specified in the other related video file belonging to the same group as the selection file on a screen divided into a plurality of sections. A first touch operation (for example, a single tap operation) for designating the connected video including the split video on the display device and the editing unit designating the designated portion when the designated portion includes the split video The candidate displayed in the designated section specified together with flick operation in a specific direction different from the second touch operation, swipe operation, etc.) is taken into the alternative video, and the presentation unit Second touch operation (eg, double tap operation, to a specific direction different from the first touch operation) for specifying the designated portion when Designate a candidate combined video in which a plurality of alternatives of the candidate video including the other part of the selection file of the extraction source of the candidate displayed in the designated section which is also displayed together by flick operation, swipe operation etc. After the section is specified, it is further displayed on the display device, and the editing means is specified by the designating operation (for example, the utterance, the gesture, the mouse operation, the button operation, the touch operation) of the viewer during the display of the candidate concatenated video In addition, technical limitations may be added to capture designated candidates to be included in the alternative video.
In addition, the presenting unit simultaneously displays the selection file and the candidate for the extracted portion specified in the other related video file belonging to the same group as the selection file on a screen divided into a plurality of sections. A first touch operation (for example, a single tap operation) for designating the connected video including the split video on the display device and the editing unit designating the designated portion when the designated portion includes the split video The candidate displayed in the designated section specified together with flick operation in a specific direction different from the second touch operation, swipe operation, etc.) is taken into the alternative video, and the presentation unit Second touch operation (eg, double tap operation, to a specific direction different from the first touch operation) for specifying the designated portion when A screen in which a plurality of alternative video image candidates each including other portions of the selection file of the extraction source of the candidate displayed in the designated area specified together by flick operation, swipe operation, etc.) are divided into a plurality of areas The candidate division video simultaneously displayed on the display section is further displayed on the display device after the designated section is designated, and the editing means performs the touch operation (for example, single tap operation, etc.) of the viewer while the candidate division video is displayed. A technical limitation may be added in which the candidate displayed in the designated section designated by the double tap operation or the like is captured in the alternative image.

上記「再設定」に関する技術的限定(特に、「所定の関係」として「選定された映像ファイルと同一の区分に属する他の映像ファイルの少なくとも一部」を想定する技術的限定)を加えた「情報処理装置」には、以下に例示するように、種々の技術的限定をさらに加えてもよい。また、同趣旨の技術的限定を、「情報処理装置の制御方法」,「制御プログラム」及び「記録媒体」にさらに加えてもよい。
例えば、前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと撮影時期が前記区分の境界を跨いで所定の基準を満たす程度に近接する(例えば、撮影間隔が所定日数以内である,「区分」を均等にn分割したサブ区間が隣接する関係にある)他の映像ファイルが選定されにくくなるように前記重みを再設定する、という技術的限定を加えてもよい。
The technical limitation regarding the above “resetting” (in particular, the technical limitation assuming “at least a part of another video file belonging to the same category as the selected video file” as “predetermined relationship”) The “information processing apparatus” may further have various technical limitations, as exemplified below. In addition, the technical limitations of the same purpose may be further added to the “control method of the information processing apparatus”, the “control program”, and the “recording medium”.
For example, every time one video file is selected, the setting unit approaches the video file and the shooting time so as to cross the boundary of the division and satisfy a predetermined standard (for example, the shooting interval is within a predetermined number of days) there, subinterval obtained by equally divided into n to "segment" is a relationship adjacent) other video files to reset the weight so less likely to be selected, may be added to the technical limitation that.

上記「再設定」に関する技術的限定を加えた「情報処理装置」には、以下に例示するように、種々の技術的限定をさらに加えてもよい。また、同趣旨の技術的限定を、「情報処理装置の制御方法」,「制御プログラム」及び「記録媒体」にさらに加えてもよい。
例えば、前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと撮影装置又は投稿者(投稿時のユーザアカウント)が一致する他の映像ファイルが選定されにくくなるように前記重みを再設定する、という技術的限定を加えてもよい。
Various technical limitations may be further added to the “information processing apparatus” to which the above-described “resetting” technical limitations have been added, as exemplified below. In addition, the technical limitations of the same purpose may be further added to the “control method of the information processing apparatus”, the “control program”, and the “recording medium”.
For example, the setting means, the weight as other video file the video file with the imaging device or the author every time one image file is selected (the user account when posts) match is hardly selected You may add the technical limitation of resetting.

本発明は、映像ファイルが相対的に多い時期に撮影された映像ファイルを相対的に選定されにくく設定することにより、時期的に近接する複数の映像ファイルばかりから映像が抽出される可能性を軽減させる。
したがって、本発明によれば、素材とする複数の映像ファイルのうち少なくとも一部から連結映像に組み入れるべき映像をそれぞれ抽出する際に撮影時期が偏りにくい。
The present invention reduces the possibility of video being extracted from only a plurality of video files that are temporally close by setting video files taken at a time when there are relatively many video files to be relatively difficult to select. Let
Therefore, according to the present invention, when extracting a video to be incorporated into a connected video from at least a part of a plurality of video files as materials, the photographing time is not likely to be uneven.

重み設定の具体例の説明図である。(実施形態)It is explanatory drawing of the specific example of a weight setting. (Embodiment) 実施例のシステムのネットワーク構成例の説明図である。(実施例)It is explanatory drawing of the example of a network configuration of the system of an Example. (Example) サーバ装置のハードウェア構成例の説明図である。(実施例)It is an explanatory view of the example of hardware constitutions of a server apparatus. (Example) ユーザ装置のハードウェア構成例の説明図である。(実施例)It is an explanatory view of the example of hardware constitutions of a user device. (Example) ユーザ端末、配信管理サーバ及びファイル管理サーバの機能構成例の説明図である。(実施例)It is explanatory drawing of the function structural example of a user terminal, a delivery management server, and a file management server. (Example) ユーザ端末、編集管理サーバ及びファイル管理サーバの機能構成例の説明図である。(実施例)It is explanatory drawing of the function structural example of a user terminal, an edit management server, and a file management server. (Example) 動画ファイルに付随するメタデータの項目例の説明図である。(実施例)FIG. 6 is an explanatory diagram of an example item of metadata attached to a moving image file. (Example) 連結動画生成手順の説明図である。(実施例)It is explanatory drawing of a connection moving image generation procedure. (Example) グループ化手順の説明図である。(変形例1A)It is explanatory drawing of a grouping procedure. (Modification 1A) 連結動画生成手順の説明図である。(変形例1A)It is explanatory drawing of a connection moving image generation procedure. (Modification 1A) 重み設定手順の説明図である。(変形例1B)It is explanatory drawing of a weight setting procedure. (Modification 1B) 連結動画生成手順の説明図である。(変形例1B)It is explanatory drawing of a connection moving image generation procedure. (Modification 1B) 連結動画編集手順の説明図である。(変形例2A)It is explanatory drawing of a connection moving image editing procedure. (Modification 2A) 連結動画編集手順の説明図である。(変形例2B)It is explanatory drawing of a connection moving image editing procedure. (Modification 2B)

[1.実施形態]
[1−1.概要]
時間の経過とともに外観が変化し得るオブジェクト(例えば、人物,胎児,動物,植物,微生物,細胞,景観など)をそれぞれ被写体とする複数の映像ファイルから好適な映像を抽出し撮影時期の順に連結することにより、被写体であるオブジェクトの変遷を表現する連結映像を生成する。
本実施形態では、素材とする複数の映像ファイルのうち少なくとも一部から連結映像に組み入れるべき映像をそれぞれ抽出する際に撮影時期の偏りを抑止するため、映像ファイルが相対的に多い時期に撮影された映像ファイルを相対的に選定されにくく設定することにより時期的に近接する複数の映像ファイルばかりから映像が抽出される可能性を軽減させる。
[1. Embodiment]
[1-1. Overview]
Extract suitable images from multiple image files, each of which has an object whose appearance can change with the passage of time (for example, a person, a fetus, an animal, a plant, a microorganism, a cell, a landscape, etc.) Thus, a connected video is generated that represents the transition of the object that is the subject.
In this embodiment, when each video is extracted from at least a part of a plurality of video files as materials, the video is shot at a time when there are a relatively large number of video files in order to suppress the bias of the shooting time. By setting the video file to be relatively difficult to select, the possibility of video being extracted from only a plurality of video files that are temporally close to each other is reduced.

[1−2.情報処理装置]
本実施形態に係る情報処理装置は、特定のオブジェクトに関連する複数の映像ファイルを所定期間ごとに区切られた複数の区分のいずれかに撮影時期に応じてそれぞれ仕分ける仕分部と、連結映像に組み入れられる指定長さの抽出部分がそれぞれ特定されるべき複数の選定ファイルを前記複数の映像ファイルの中から選定する際に加味される重みを該複数の映像ファイルに対して前記仕分部により仕分けられる映像ファイルの数が多い区分の映像ファイルほど選定されにくくなるようにそれぞれ設定する設定部と、を具備する。
[1-2. Information processing apparatus]
The information processing apparatus according to the present embodiment incorporates a plurality of video files related to a specific object into a sorting unit for sorting each of the plurality of video files into any one of a plurality of divisions divided at predetermined time intervals according to the photographing time. An image classified by the sorting unit with respect to the plurality of video files, with a weight taken into consideration when selecting a plurality of selection files from among the plurality of video files, in which a plurality of extraction files of specified lengths to be extracted should be specified respectively And a setting unit configured to set each of the video files in a section having a large number of files so as to be less likely to be selected.

図1を参照して重みの設定の具体例を示す。
例えば、複数の映像ファイルを撮影時期に応じて複数の区分(例えば、区分n〜区分n+3(n:適当な自然数))に仕分けた結果が、図1に示すようになったとする。なお、図1のグラフにおいて、横軸は区分(i)を、縦軸は映像ファイルの数(N(i))を、それぞれ表す。この結果によれば、区分ごとの映像ファイルの数の比率は下記[数1]に示すように表される。
このとき、下記[数2]に示すように映像ファイルの数の逆数の比率で重み(W(i))を設定すれば、映像ファイルの数が多い区分の映像ファイルほど選定されにくくなる。本実施形態では、このように設定される重みを加味して選定される映像ファイルから、連結映像を構成するべき指定長さの抽出部分がそれぞれ抽出される。
A specific example of setting of weights is shown with reference to FIG.
For example, it is assumed that a result of sorting a plurality of video files into a plurality of sections (for example, section n to section n + 3 (n: an appropriate natural number)) according to shooting timing is as shown in FIG. In the graph of FIG. 1, the horizontal axis represents division (i), and the vertical axis represents the number of video files (N (i)). According to this result, the ratio of the number of video files per section is expressed as shown in the following [Equation 1].
At this time, as shown in the following [Equation 2], if the weight (W (i)) is set by the ratio of the reciprocal of the number of video files, video files of sections having a large number of video files become more difficult to select. In the present embodiment, an extraction portion of a designated length that should constitute a concatenated video is extracted from the video file selected in consideration of the weight set in this manner.

Figure 0006550180
Figure 0006550180
Figure 0006550180
Figure 0006550180

[1−3.情報処理装置の実装例]
本発明は、下記の形態で実施することが可能である。
・サーバ装置が連結映像を生成してユーザ装置に提供し、ユーザ装置が連結映像を表示する。この実装態様では、サーバ装置が本発明に係る「情報処理装置」に該当する。
・サーバ装置が再生リストを作成してユーザ装置に提供し、ユーザ装置が再生リストに基づいて連結映像を構成する個別の映像を順次表示する。この実装態様では、サーバ装置が本発明に係る「情報処理装置」に該当する。
・ユーザ装置が連結映像を生成し、ユーザ装置が連結映像を表示する。この実装態様では、ユーザ装置が本発明に係る「情報処理装置」に該当する。
・ユーザ装置が再生リストを作成し、ユーザ装置が再生リストに基づいて連結映像を構成する個別の映像を順次表示する。この実装態様では、ユーザ装置が本発明に係る「情報処理装置」に該当する。
[1-3. Implementation Example of Information Processing Device]
The present invention can be implemented in the following modes.
The server device generates a concatenated video and provides it to the user device, and the user device displays the concatenated video. In this implementation aspect, the server device corresponds to the “information processing device” according to the present invention.
The server apparatus creates a reproduction list and provides the user apparatus with the reproduction list, and the user apparatus sequentially displays individual videos constituting the concatenated video based on the reproduction list. In this implementation aspect, the server device corresponds to the “information processing device” according to the present invention.
The user device generates a concatenated video, and the user device displays the concatenated video. In this implementation aspect, the user apparatus corresponds to the "information processing apparatus" according to the present invention.
The user device creates a play list, and the user device sequentially displays individual videos constituting the concatenated video based on the play list. In this implementation aspect, the user apparatus corresponds to the "information processing apparatus" according to the present invention.

[2.実施例]
[2−1.概要]
特定の人物(例えば、乳幼児)をそれぞれ被写体とする複数の動画ファイル(「映像ファイル」の一例。)から好適な部分を抽出し撮影時期の昇順に連結することにより、被写体である人物の成長過程を表現する連結動画(「連結映像」の一例。)を生成する。
本実施例では、素材とする複数の動画ファイルのうち少なくとも一部から連結動画に採録されるべき映像をそれぞれ抽出する際に撮影時期の偏りを抑止するため、動画ファイルが相対的に多い時期に撮影された動画ファイルを相対的に選定されにくく設定することにより時期的に近接する複数の動画ファイルばかりから映像が抽出される可能性を軽減させる。
[2. Example]
[2-1. Overview]
By extracting suitable parts from a plurality of moving image files (an example of a “video file”) each having a specific person (for example, an infant) as a subject, and connecting them in ascending order of photographing time, the growth process of the person who is the subject To generate a connected moving image (an example of “connected video”) representing
In this embodiment, in order to suppress the bias of the photographing time when extracting the video to be recorded to the connected moving image from at least a part of the plurality of moving image files as the material, the moving image file is relatively large. By setting the captured moving image file to be relatively difficult to select, it is possible to reduce the possibility of the video being extracted from only a plurality of moving image files that are close in time.

[2−2.ネットワーク構成]
図2に、実施例のシステムのネットワーク構成例を示す。
本実施例のシステムは、配信管理サーバ10と、編集管理サーバ20(「情報処理装置」の一例。)と、ファイル管理サーバ30と、複数のユーザ端末40(40−1,40−2,…,40−n)と、を含む。
配信管理サーバ10は、あるユーザ端末40により投稿された動画ファイルを指定された範囲(例えば、投稿者が属する特定のオンラインコミュニティ(例えば、SNS(Social Networking Service)におけるグループ)の内部)のユーザ端末40に配信するサービス(以下、「動画配信サービス」という。)を提供する。一方、編集管理サーバ20は、動画配信サービスで管理される動画ファイルを素材として連結動画を生成するサービス(以下、「連結動画生成サービス」という。)を提供する。
[2-2. Network configuration]
FIG. 2 shows an example of the network configuration of the system of the embodiment.
The system of this embodiment includes a distribution management server 10, an editing management server 20 (an example of an "information processing apparatus"), a file management server 30, and a plurality of user terminals 40 (40-1, 40-2, ... , 40-n).
The distribution management server 10 is a user terminal of a range (for example, a specific online community to which a poster belongs (for example, a group in SNS (Social Networking Service)) in which a moving image file posted by a certain user terminal 40 is designated. Provide a service to be distributed to 40 (hereinafter referred to as a "video distribution service"). On the other hand, the editing management server 20 provides a service (hereinafter referred to as “connected moving image generation service”) that generates a connected moving image using a moving image file managed by the moving image distribution service as a material.

配信管理サーバ10及び編集管理サーバ20とユーザ端末40とは、通信ネットワーク50を通じてそれぞれデータの授受が可能である。また、配信管理サーバ10及び編集管理サーバ20は、ファイル管理サーバ30を介して記憶装置31に記憶されるデータ(本実施例では、動画ファイル)にアクセス可能である。
通信ネットワーク50は、既存のネットワーク(例えば、インターネット(Internet),携帯電話網,無線WAN(Wireless Wide Area Network),無線LAN(Wireless Local Area Network),イーサネット(Ethernet)(登録商標)など)のうち少なくともいずれかを含んでいてよい。
The distribution management server 10, the editing management server 20, and the user terminal 40 can exchange data via the communication network 50, respectively. Also, the distribution management server 10 and the editing management server 20 can access data (in the present embodiment, a moving image file) stored in the storage device 31 via the file management server 30.
The communication network 50 is an existing network (for example, the Internet, a mobile phone network, a wireless wide area network (WAN), a wireless local area network (LAN), Ethernet (registered trademark), etc.). At least one may be included.

[2−2−1.配信管理サーバ]
図2において、配信管理サーバ10は、Webサーバプログラム(HTTPデーモン(HyperText Transfer Protocol Daemon)ともいう。)がインストールされたサーバ装置(汎用コンピュータ)である。
配信管理サーバ10は、例えば、動画ファイルを指定する所定の要求(リクエスト)に応じて、指定された動画ファイルをファイル管理サーバ30を介して記憶装置31から取得し、これを要求元に応答(レスポンス)する機能を有する。
なお、複数のサーバ装置を連携させて配信管理システムを構成し、配信管理サーバ10の機能を分散させることも可能である。例えば、配信管理サーバ10が外部の配信サーバへのリンク情報を提供したり同配信サーバへ所定の要求を転送(リダイレクト)したりすることにより、指定された動画ファイルを要求元に応答する処理を当該外部の配信サーバに負担させてもよい。
2-2-1. Delivery Management Server]
In FIG. 2, the delivery management server 10 is a server apparatus (general-purpose computer) on which a Web server program (also referred to as an HTTP daemon (HyperText Transfer Protocol Daemon)) is installed.
For example, in response to a predetermined request (request) for specifying a moving image file, the distribution management server 10 acquires the specified moving image file from the storage device 31 via the file management server 30, and responds to the request source Response function).
Note that it is also possible to configure a distribution management system by linking a plurality of server devices and to distribute the functions of the distribution management server 10. For example, the delivery management server 10 provides link information to an external delivery server, or transfers (redirects) a predetermined request to the delivery server, thereby responding the specified moving image file to the request source. It may be borne by the external distribution server.

[2−2−2.編集管理サーバ]
図2において、編集管理サーバ20は、Webサーバプログラム(HTTPデーモン(HyperText Transfer Protocol Daemon)ともいう。)及びアプリケーションプログラムがインストールされたサーバ装置(汎用コンピュータ)である。
編集管理サーバ20は、例えば、連結動画の生成要求に応じて連結動画を生成し、生成された連結動画に関する情報を要求元に提供する機能を有する。
なお、複数のサーバ装置を連携させて編集管理システムを構成し、編集管理サーバ20の機能を分散させることも可能である。例えば、Webサーバプログラムがインストールされたサーバ装置(Webサーバ)と、アプリケーションプログラムがインストールされたサーバ装置(アプリケーションサーバ)とを別個に用意し、ユーザ端末40からのアクセスに対応する機能と連結動画を生成する機能とを分散させてもよい。また、編集管理サーバ20が外部の配信サーバへのリンク情報を提供したり同配信サーバへ所定の要求を転送(リダイレクト)したりすることにより、指定された動画ファイルを要求元に応答する処理を当該外部の配信サーバに負担させてもよい。その他、例えば、生成された連結動画ファイルを他の動画ファイルと同様にファイル管理サーバ30に管理させることにより、生成された連結動画ファイルを要求元に応答する処理をファイル管理サーバ30に実行させてもよい。
2-2-2. Editing Management Server]
In FIG. 2, the editing management server 20 is a server apparatus (general-purpose computer) on which a Web server program (also referred to as an HTTP daemon (HyperText Transfer Protocol Daemon)) and an application program are installed.
The editing management server 20 has a function of, for example, generating a connected moving image in response to a request for generating a connected moving image, and providing information about the generated connected moving image to a request source.
Note that it is also possible to configure an editing management system by linking a plurality of server devices and to distribute the functions of the editing management server 20. For example, a server apparatus (Web server) on which a web server program is installed and a server apparatus (application server) on which an application program is installed are separately prepared, and a function and linked moving image corresponding to access from the user terminal 40 The functions to be generated may be distributed. In addition, the editing management server 20 provides link information to an external distribution server, or transfers (redirects) a predetermined request to the distribution server, thereby responding the designated moving image file to the request source. It may be borne by the external distribution server. In addition, for example, by causing the file management server 30 to manage the generated linked moving image file in the same manner as other moving image files, the file management server 30 executes processing for responding the generated linked moving image file to the request source. It is also good.

[2−2−3.ファイル管理サーバ]
図2において、ファイル管理サーバ30は、ファイルサーバプログラムがインストールされたサーバ装置(汎用コンピュータ)である。
ファイル管理サーバ30は、例えば、ファイルの格納要求に応じて要求元から取得されるファイルを記憶装置31に格納する機能と、ファイルの抽出要求に応じて記憶装置31から抽出されるファイルを要求元に応答する機能とを有する。
なお、複数のサーバ装置を連携させてファイル管理システムを構成し、ファイル管理サーバ30の機能を分散させることも可能である。また、ファイル管理サーバ30が内蔵し又は外部の接続可能な複数の記憶装置にデータを分散配置することも可能である。その他、NAS(Network Attached Storage)と呼ばれる専用装置を用いて構成してもよい。
2-2-3. File Management Server]
In FIG. 2, the file management server 30 is a server apparatus (general-purpose computer) in which a file server program is installed.
For example, the file management server 30 has a function of storing a file acquired from a request source in response to a file storage request in the storage device 31 and a file source requesting a file extracted from the storage device 31 in response to a file extraction request. And the function of responding to
Note that it is also possible to configure a file management system by linking a plurality of server devices and to distribute the functions of the file management server 30. It is also possible to distribute data in a plurality of storage devices that the file management server 30 incorporates or can be connected externally. Besides, it may be configured using a dedicated device called NAS (Network Attached Storage).

[2−2−4.ユーザ端末]
図2において、ユーザ端末40は、データ表示機能,データ通信機能,映像撮影機能などを有するユーザ装置(汎用コンピュータ)である。
本実施例のシステムでは、ユーザ端末40として、携帯電話,スマートフォン(smartphone),タブレット(tablet)端末,タブレットPC(personal computer),小型のPC,ウェアラブルデバイス(wearable device)などの携帯型のユーザ装置を用いることができる。
2-2-4. User terminal]
In FIG. 2, the user terminal 40 is a user device (general-purpose computer) having a data display function, a data communication function, a video shooting function, and the like.
In the system of this embodiment, portable user devices such as a mobile phone, a smart phone (smartphone), a tablet (tablet) terminal, a tablet PC (personal computer), a small PC, and a wearable device as the user terminal 40 Can be used.

[2−3.ハードウェア構成]
[2−3−1.サーバ装置]
図3に、サーバ装置のハードウェア構成例を示す。
典型的なサーバ装置は、MPU(Micro-Processing Unit)やROM(Read Only Memory)を含む制御処理装置310と、RAM(Random Access Memory)を含む主記憶装置320と、HDD(Hard Disc Drive)を含む補助記憶装置330と、マウスやキーボードを含む入力装置340と、ディスプレイやスピーカを含む出力装置350と、ネットワークカード(Network Interface Card)を含む通信制御装置360と、を有する。
[2-3. Hardware configuration]
[2-3-1. Server device]
FIG. 3 shows an example of the hardware configuration of the server device.
A typical server device includes a control processing device 310 including a Micro-Processing Unit (MPU) and a Read Only Memory (ROM), a main storage device 320 including a Random Access Memory (RAM), and a Hard Disc Drive (HDD). And an input device 340 including a mouse and a keyboard, an output device 350 including a display and a speaker, and a communication control device 360 including a network interface card.

主記憶装置320、補助記憶装置330、入力装置340、出力装置350及び通信制御装置360は、バスラインを介して制御処理装置310とそれぞれ接続される。
制御処理装置310は、(1)補助記憶装置330に記憶されたプログラムを主記憶装置320上に読み込み、(2)プログラムの指示に従って入力装置340と補助記憶装置330と通信制御装置360との少なくともいずれかからデータを受け取り、(3)取得したデータをプログラムに規定される手順で演算・加工した上で、(4)演算済み・加工済みのデータを補助記憶装置330と出力装置350と通信制御装置360との少なくともいずれかに送り出す。
The main storage unit 320, the auxiliary storage unit 330, the input unit 340, the output unit 350, and the communication control unit 360 are connected to the control processing unit 310 through bus lines.
The control processing unit 310 (1) reads the program stored in the auxiliary storage unit 330 onto the main storage unit 320, and (2) at least the input unit 340, the auxiliary storage unit 330 and the communication control unit 360 according to the instructions of the program. After receiving data from either (3) computing and processing the acquired data according to the procedure specified in the program, (4) communicating control with auxiliary storage device 330 and output device 350, and data that has been computed and processed Send to at least one of the device 360.

[2−3−2.ユーザ装置]
図4に、ユーザ装置のハードウェア構成例を示す。
典型的なユーザ装置は、制御処理部を構成するMPU411と、主記憶部を構成するRAM421と、補助記憶部を構成するROM422及びEEPROM(Electrically Erasable Programmable Read-Only Memory)423と、入力出力部を構成するタッチパネルディスプレイ431と、通信制御部を構成するNIC(Network Interface Controller)441及び無線LAN(Local Area Network)チップ442と、撮像素子(例えば、CMOS(Complementary Metal-Oxide Semiconductor)センサ)で撮影した画像をデジタル信号に変換するカメラ451と、音波によって生ずる振動板などの機械的な振動を電気信号に変換するマイクロフォン(Microphone)452と、複数の人工衛星からそれぞれ送出される所定の信号を用いて割り出した現在位置を示す位置情報を出力するGPSチップ461と、現在時刻を出力する時計462と、を少なくとも有する。
2-3-2. User device]
FIG. 4 shows an example of the hardware configuration of the user apparatus.
A typical user device includes an MPU 411 constituting a control processing unit, a RAM 421 constituting a main storage unit, a ROM 422 and an Electrically Erasable Programmable Read-Only Memory (EEPROM) 423 constituting an auxiliary storage unit, and an input / output unit. Photographed with a touch panel display 431, an NIC (Network Interface Controller) 441 and a wireless LAN (Local Area Network) chip 442 constituting a communication control unit, and an imaging device (for example, a Complementary Metal-Oxide Semiconductor (CMOS) sensor) A camera 451 that converts an image into a digital signal, a microphone 452 that converts mechanical vibration such as a diaphragm generated by sound waves into an electrical signal, and predetermined signals respectively transmitted from a plurality of satellites GPS chip that outputs position information indicating the calculated current position Having at least a 61, a clock 462 that outputs the current time, the.

RAM421と、ROM422と、EEPROM423と、タッチパネルディスプレイ431と、NIC441と、無線LANチップ442と、カメラ451と、マイクロフォン452と、GPSチップ461と、時計462とは、バスラインを介してMPU411と接続される。
MPU411は、(1)EEPROM423に記憶されたプログラムをRAM421上に読み込み、(2)プログラムの指示に従ってタッチパネルディスプレイ431とEEPROM423とNIC441と無線LANチップ442とカメラ451とマイクロフォン452とGPSチップ461と時計462との少なくともいずれかからデータを受け取り、(3)取得したデータをプログラムに規定される手順で演算・加工した上で、(4)演算済み・加工済みのデータをEEPROM423とタッチパネルディスプレイ431とNIC441と無線LANチップ442との少なくともいずれかに送り出す。
The RAM 421, the ROM 422, the EEPROM 423, the touch panel display 431, the NIC 441, the wireless LAN chip 442, the camera 451, the microphone 452, the GPS chip 461, and the clock 462 are connected to the MPU 411 via a bus line. Ru.
The MPU 411 reads (1) the program stored in the EEPROM 423 onto the RAM 421 and (2) the touch panel display 431, the EEPROM 423, the NIC 441, the wireless LAN chip 442, the camera 451, the microphone 452, the GPS chip 461 and the clock 462 according to the instructions of the program. And (3) operation and process the acquired data according to the procedure defined in the program, and then (4) the operation completed / processed data into the EEPROM 423, the touch panel display 431, and the NIC 441. It sends it out to at least one of the wireless LAN chip 442.

[2−4.機能構成]
図5に、「動画配信サービス」に関する配信管理サーバ、ファイル管理サーバ及びユーザ端末の機能構成例をそれぞれ示す。
配信管理サーバ10の機能は、サーバ装置向けOS(Operating System)と当該OS上で動作するWebサーバプログラムとがサーバ装置にそれぞれインストールされることにより実現される。ファイル管理サーバ30の機能は、サーバ装置向けOS(Operating System)と当該OS上で動作するファイルサーバプログラムとがサーバ装置にそれぞれインストールされることにより実現される。また、ユーザ端末40の機能は、ユーザ装置向けOSと当該OS上で動作するブラウザプログラムや各種のプログラム(例えば、カメラ451やマイクロフォン452を駆動させるドライバプログラムやアプリケーションプログラム)とがユーザ装置にそれぞれインストールされることにより実現される。
[2-4. Functional configuration]
FIG. 5 shows an example of the functional configuration of the distribution management server, the file management server, and the user terminal regarding the “moving image distribution service”.
The function of the delivery management server 10 is realized by installing an operating system (OS) for the server apparatus and a web server program operating on the OS in the server apparatus. The function of the file management server 30 is realized by installing an OS (Operating System) for a server device and a file server program operating on the OS in the server device. In addition, the functions of the user terminal 40 include an OS for the user device, a browser program operating on the OS, and various programs (for example, a driver program or an application program for driving the camera 451 and the microphone 452) installed in the user device. It is realized by being done.

図6に、「連結動画生成サービス」に関する編集管理サーバ、ファイル管理サーバ及びユーザ端末の機能構成例をそれぞれ示す。
編集管理サーバ20の機能は、サーバ装置向けOS(Operating System)と当該OS上で動作するWebサーバプログラム及びアプリケーションプログラムとがサーバ装置にそれぞれインストールされることにより実現される。ファイル管理サーバ30及びユーザ端末40の機能のうち図5と同一の符号が付されているものの機能は、図5に示す機能と同等である。
FIG. 6 shows an example of the functional configuration of the editing management server, the file management server and the user terminal related to the “connected moving image generation service”.
The function of the editing management server 20 is realized by installing an operating system (OS) for the server device and a web server program and an application program operating on the OS in the server device. Among the functions of the file management server 30 and the user terminal 40, those having the same reference numerals as those in FIG. 5 have the same functions as those shown in FIG.

サーバ装置にインストールされるべきプログラムは、各種の記録媒体(例えば、CD(Compact Disc),DVD(Digital Versatile Disk),MOディスク(Magneto-Optical disk),フラッシュメモリ(flash memory)など)に記録された状態で配布され当該記録媒体からサーバ装置に読み込まれてもよいし、通信ネットワークを介し搬送波に重畳させてサーバ装置に供給されてもよい。また、出荷当初からインストールされていてもよい。
ユーザ装置にインストールされるべきプログラムは、通信ネットワークを介し搬送波に重畳させてユーザ装置に供給されるのが一般的である。なお、各種の記録媒体(例えば、CD,DVD,MOディスク,フラッシュメモリなど)に記録された状態で配布され当該記録媒体からユーザ装置に読み込まれてもよい。また、出荷当初からインストールされていてもよい。
The program to be installed on the server device is recorded in various recording media (for example, CD (Compact Disc), DVD (Digital Versatile Disk), MO disc (Magneto-Optical disk), flash memory, etc.). It may be distributed as it is and read from the recording medium to the server device, or may be supplied to the server device superimposed on a carrier wave via a communication network. Moreover, it may be installed from the beginning of shipping.
Generally, the program to be installed on the user device is supplied to the user device by being superimposed on a carrier wave via a communication network. The program may be distributed in a state of being recorded on various recording media (for example, a CD, a DVD, an MO disk, a flash memory, etc.) and read from the recording medium to the user device. Moreover, it may be installed from the beginning of shipping.

[2−4−1.動画配信サービスに関する機能構成]
図5に示すように、ユーザ端末40は、撮影部4010と、記憶部4020と、検出部4030と、要求部4040と、受領部4050と、表示部4060と、を具備する。
このうち、撮影部4010はカメラ451及びマイクロフォン452を含んで構成される。記憶部4020はEEPROM423を含んで構成される。検出部4030及び表示部4060はタッチパネルディスプレイ431を含んで構成される。要求部4040及び受領部4050はNIC441と無線LANチップ442の少なくともいずれかを含んで構成される。
[2-4-1. Functional configuration of video distribution service]
As shown in FIG. 5, the user terminal 40 includes an imaging unit 4010, a storage unit 4020, a detection unit 4030, a request unit 4040, a reception unit 4050, and a display unit 4060.
Among them, the photographing unit 4010 is configured to include a camera 451 and a microphone 452. The storage unit 4020 is configured to include an EEPROM 423. The detection unit 4030 and the display unit 4060 are configured to include a touch panel display 431. The request unit 4040 and the reception unit 4050 are configured to include at least one of the NIC 441 and the wireless LAN chip 442.

撮影部4010は、受光される映像及び集音される音声を所定形式でそれぞれ符号化したコンテンツとこれに付随するメタデータとを含む動画ファイルを生成し、記憶部4020に記憶させる。
メタデータには、ユーザ端末の種別(撮影装置)、GPSチップ461から取得される位置情報(撮影位置)及び時計462から取得される時刻情報(撮影時期)が含まれる。
The photographing unit 4010 generates a moving image file including content obtained by encoding the light-received video and collected sound in a predetermined format, and metadata attached to the content, and causes the storage unit 4020 to store the moving-image file.
The metadata includes the type of the user terminal (shooting device), position information (shooting position) obtained from the GPS chip 461, and time information (shooting time) obtained from the clock 462.

要求部4040は、検出部4030により検出されるタッチ操作により記憶部4020に記憶される動画ファイルの中から指定される動画を配信管理サーバ10に投稿(ポスト)し、その管理を要求する(動画管理要求)。また、検出部4030により検出されるタッチ操作により配信管理サーバ10で管理される動画の中から指定される指定動画の配信を配信管理サーバ10に要求する(動画配信要求)。
受領部4050は、投稿した動画を受け付けた旨の通知(受付完了通知)を配信管理サーバ10から受領する。また、指定した動画ファイル(指定動画ファイル)に関する情報(例えば、指定動画ファイルそのもの,指定動画ファイルの配信を手動で要求するためのリンク情報,指定動画ファイルの配信を自動で要求するためのリダイレクト情報など)を配信管理サーバ10から受領する。その後、ユーザ端末40は、必要に応じて指定動画を取得し表示部4060に表示させる。
The request unit 4040 posts (posts) a moving image specified from the moving image files stored in the storage unit 4020 by the touch operation detected by the detecting unit 4030 to the distribution management server 10, and requests management thereof (moving image Management request). Further, the distribution management server 10 is requested to distribute the designated moving image specified from the moving images managed by the distribution management server 10 by the touch operation detected by the detection unit 4030 (moving image distribution request).
The receiving unit 4050 receives from the distribution management server 10 a notification (reception completion notification) to the effect that the posted video has been received. In addition, information on a specified moving image file (specified moving image file) (for example, specified moving image file itself, link information for manually requesting distribution of specified moving image file, redirect information for automatically requesting distribution of specified moving image file Etc.) from the delivery management server 10. Thereafter, the user terminal 40 acquires the designated moving image as needed and causes the display unit 4060 to display the specified moving image.

図5に示すように、ファイル管理サーバ30は、ファイル管理部3010と、ファイル記憶部3020とを具備する。
ファイル管理部3010は、外部からの格納要求に応じてファイル記憶部3020に投稿された動画ファイル(投稿動画ファイル)を記憶させるとともに、外部からの抽出要求に応じてファイル記憶部3020に記憶される指定動画ファイルを提供する。
As shown in FIG. 5, the file management server 30 comprises a file management unit 3010 and a file storage unit 3020.
The file management unit 3010 stores the moving image file (posted moving image file) posted to the file storage unit 3020 in response to the storage request from the outside, and is stored in the file storage unit 3020 in response to the extraction request from the outside. Provide a specified video file.

図7に、ファイル記憶部3020に格納される動画ファイルのメタ情報の主要な項目を例示する。
図7に例示するように、メタ情報は、「動画ID」(キー項目)と、「ファイル名」と、保存場所を示す「ディレクトリパス」と、ファイルの「投稿者」と、コンテンツの圧縮形式を示す「ファイル種類」と、「フレームサイズ(幅,高さ)」と、「フレームレート」と、「長さ」(再生時間)と、「撮影時期」と、「撮影位置(経度,緯度,高度)」と、「撮影装置」と、単数又は複数の「タグ」と、「コメント」とを含む。
FIG. 7 exemplifies main items of the meta information of the moving image file stored in the file storage unit 3020.
As exemplified in FIG. 7, the meta information includes “moving image ID” (key item), “file name”, “directory path” indicating storage location, “poster of file”, and compression format of content Indicating “file type”, “frame size (width, height)”, “frame rate”, “length” (reproduction time), “shooting time”, “shooting position (longitude, latitude, Advanced), "shooting device", one or more "tags", and "comments".

図5に示すように、配信管理サーバ10は、受付部1010と、管理部1020と、応答部1030とを具備する。
受付部1010は、動画管理要求及び動画配信要求をユーザ端末40から受け付ける。
管理部1020は、ログイン済みのユーザ端末40から投稿(ポスト)される投稿動画ファイルに一意のIDを付与し、投稿者のIDに関連付けてファイル記憶部3020に格納するようファイル管理部3010に要求する。また、ユーザ端末40により指定される指定動画ファイルをファイル記憶部3020から抽出するようファイル管理部3010に要求する。
応答部1030は、受付完了通知及び指定動画ファイルに関する情報をユーザ端末40に応答する。
As shown in FIG. 5, the distribution management server 10 includes a reception unit 1010, a management unit 1020, and a response unit 1030.
The receiving unit 1010 receives a video management request and a video distribution request from the user terminal 40.
The management unit 1020 requests the file management unit 3010 to assign a unique ID to the post moving image file posted from the logged-in user terminal 40 and store it in the file storage unit 3020 in association with the post ID. Do. Further, the file management unit 3010 is requested to extract the designated moving image file designated by the user terminal 40 from the file storage unit 3020.
The response unit 1030 responds to the user terminal 40 with information on the acceptance completion notification and the designated moving image file.

[2−4−2.連結動画生成サービスに関する機能構成]
図6に示すように、ユーザ端末40は、検出部4030と、要求部4040と、受領部4050と、表示部4060と、を具備する。
このうち、検出部4030及び表示部4060はタッチパネルディスプレイ431を含んで構成される。要求部4040及び受領部4050はNIC441と無線LANチップ442の少なくともいずれかを含んで構成される。
要求部4040は、検出部4030により検出されるタッチ操作に応じて、記憶部4020に記憶される動画ファイルの中から指定される複数の動画ファイルを素材とする連結動画の生成を要求する(連結動画生成要求)。
受領部4050は、生成された連結動画ファイルにアクセスするためのアクセス情報(例えば、連結動画ファイルの配信を手動で要求するためのリンク情報,連結動画ファイルの配信を自動で要求するためのリダイレクト情報など)を編集管理サーバ20から受領する。その後、ユーザ端末40は、指定動画を取得する手順と同様の手順で連結動画ファイルを取得し表示部4060に表示させる。
[2-4-2. Functional configuration related to linked video generation service]
As shown in FIG. 6, the user terminal 40 includes a detection unit 4030, a request unit 4040, a reception unit 4050, and a display unit 4060.
Among them, the detection unit 4030 and the display unit 4060 are configured to include a touch panel display 431. The request unit 4040 and the reception unit 4050 are configured to include at least one of the NIC 441 and the wireless LAN chip 442.
In response to the touch operation detected by the detection unit 4030, the request unit 4040 requests generation of a connected moving image using a plurality of moving image files specified from among the moving image files stored in the storage unit 4020 as materials (connection Video generation request).
The receiving unit 4050 is access information for accessing the generated combined moving image file (for example, link information for manually requesting distribution of a connected moving image file, redirect information for automatically requesting distribution of a connected moving image file Etc.) from the editing management server 20. Thereafter, the user terminal 40 acquires the connected moving image file in the same procedure as acquiring the specified moving image and causes the display unit 4060 to display the file.

図6に示すように、編集管理サーバ20は、受付部2010と、仕分部2020と、設定部2030と、選定部2040と、特定部2050と、抽出部2060と、連結部2070と、提示部2080とを具備する。
受付部2010は、連結動画生成要求をユーザ端末40から受け付ける。
仕分部2020は、特定の人物に関連する複数の動画ファイルを所定期間ごとに区切られた複数の区分のいずれかに撮影時期に応じてそれぞれ仕分ける。設定部2030は、仕分部2020により仕分けられる動画ファイルの数が多い区分の動画ファイルほど選定されにくくなるように複数の動画ファイルに重みをそれぞれ設定する。
As shown in FIG. 6, the editing management server 20 includes a receiving unit 2010, a sorting unit 2020, a setting unit 2030, a selecting unit 2040, a specifying unit 2050, an extracting unit 2060, a connecting unit 2070, and a presenting unit. And 2080.
The receiving unit 2010 receives a linked moving image generation request from the user terminal 40.
The sorting unit 2020 sorts a plurality of moving image files related to a specific person into any one of a plurality of sections divided at predetermined intervals according to a photographing time. The setting unit 2030 sets weights on a plurality of moving image files such that moving image files of a section having a large number of moving image files sorted by the sorting unit 2020 are less likely to be selected.

選定部2040は、設定部2030により設定される重みを加味して複数の動画ファイルの中から複数の動画ファイル(選定ファイル)を選定する。特定部2050は、選定部2040により選定される複数の選定ファイルにおいて連結動画を構成するべき指定長さの抽出部分をそれぞれ特定する。抽出部2060は、特定部2050によりそれぞれ特定される抽出部分を複数の選定ファイルからそれぞれ抽出する。連結部2070は、抽出部2060により抽出される映像を連結して連結動画を生成し、生成された連結動画をコンテンツとする連結動画ファイルをファイル記憶部3020に格納するようファイル管理部3010に要求する。以降、連結動画ファイルは、配信主体(サーバ名)、ディレクトリパス(格納位置)の一部、及び、ファイル名が連結されるURL(Uniform Resource Locator)により特定される。
提示部2080は、連結部2070により生成される連結動画ファイルのアクセス情報をユーザ端末40に応答する。
The selecting unit 2040 selects a plurality of moving image files (selected files) from among the plurality of moving image files in consideration of the weight set by the setting unit 2030. The identifying unit 2050 identifies, in each of the plurality of selection files selected by the selecting unit 2040, an extraction portion of a designated length which should constitute the linked moving image. The extraction unit 2060 extracts the extraction portions specified by the specifying unit 2050 from the plurality of selection files. The linking unit 2070 links the video extracted by the extracting unit 2060 to generate a linked moving image, and requests the file management unit 3010 to store a linked moving image file having the generated linked moving image as a content in the file storage unit 3020. Do. Subsequently, the linked moving image file is specified by a distribution subject (server name), a part of a directory path (storage position), and a URL (Uniform Resource Locator) to which file names are linked.
The presentation unit 2080 responds to the user terminal 40 with the access information of the linked moving image file generated by the linking unit 2070.

[2−5.連結映像の生成手順]
図8に、編集管理サーバによる連結映像の生成手順を例示する。
編集管理サーバ20は、ユーザ端末40からの要求に応じて、図8に示す手順で連結映像(連結動画)を生成する。
〔S802〕受付部2010が、ユーザ端末40から連結動画生成要求(リクエスト)を受け付ける。連結動画生成要求は、「動画配信サービス」の各ページに共通して表示されるメニューに含まれ又はいずれかのページに個別に配置されるリンク要素(例えば、テキスト,画像,ボタンなど)の表示領域がユーザのタッチ操作により指定された際にユーザ端末40から編集管理サーバ20に送信されるものとする。なお、複数種類(例えば、30秒バージョン及び3分バージョンの2種類)の連結動画を生成可能とする場合、連結動画のバージョンにそれぞれ対応する複数のリンク要素を配置してもよい。この場合、連結動画生成要求にはバージョンを識別可能なパラメータを含ませるとよい。また、素材とする動画ファイルの数が不足する場合には、リンク要素を無効化(非表示又はグレーアウト)してもよい。
[2-5. Procedure for generating connected video]
FIG. 8 exemplifies a procedure of generating a linked video by the editing management server.
In response to the request from the user terminal 40, the editing management server 20 generates a connected video (connected moving image) according to the procedure shown in FIG.
[S802] The receiving unit 2010 receives a linked moving image generation request (request) from the user terminal 40. The linked moving image generation request is a display of a link element (for example, text, an image, a button, etc.) included in a menu commonly displayed on each page of the “moving image distribution service” or individually arranged on any page. It is assumed that the user terminal 40 transmits an area to the editing management server 20 when the area is designated by the user's touch operation. In addition, when making it possible to generate a plurality of types of linked moving images (for example, 30 seconds version and 3 minutes version), it is possible to arrange a plurality of link elements respectively corresponding to the version of the connected moving image. In this case, the linked moving image generation request may include a parameter that can identify the version. In addition, when the number of moving image files to be the material is insufficient, the link element may be invalidated (hidden or grayed out).

〔S804〕仕分部2020が、特定の人物に関連する複数の動画ファイルを月ごとに区切られた複数の区分のいずれかに撮影時期に応じてそれぞれ仕分ける。なお、本実施例では、撮影ミスに係る動画ファイルが紛れている可能性を考慮して、コンテンツの「長さ」が6秒間以上である動画ファイルを仕分けの対象とする。また、特定の人物に関連付けられたディレクトリに格納されていたり、特定の人物に関連付けられたタグやコメントが付加されていたり、特定の人物に関連するタイトルが付与されていたりするなど、当該人物を撮影した映像を含む可能性が高い動画ファイルを仕分けの対象とする。   [S804] The sorting unit 2020 sorts a plurality of moving image files related to a specific person into any of a plurality of divisions divided by month according to the photographing time. In the present embodiment, in consideration of the possibility that a moving image file relating to a shooting error is mixed, a moving image file whose “length” of the content is 6 seconds or more is targeted for sorting. In addition, the person is stored in a directory associated with a specific person, or a tag or comment associated with the specific person is added, or a title related to the specific person is given, etc. A moving image file that has a high possibility of containing captured images is targeted for sorting.

〔S808〕設定部2030が、区分ごとに仕分部2020により当該区分に仕分けられる動画ファイルの数に反比例する重みを当該区分に属する複数の素材にそれぞれ設定する。
〔S810a〕選定部2040が、設定部2030により設定される重みを加味して複数の動画ファイルの中から複数の動画ファイル(選定ファイル)を選定する。本実施例では、各動画ファイルに設定された重みの大きさの比に応じて所定の数値範囲を分割し各映像ファイルをそれぞれいずれかの分割範囲に対応付け当該数値範囲の疑似乱数を発生させて発生した疑似乱数を含む分割区分に対応付けられている動画ファイルを選定する処理を繰り返す。選定数は連結動画の長さに応じて設定する。例えば、30秒バージョンの連結動画を生成する場合は選定数30、180秒バージョンの連結動画を生成する場合は選定数180に設定する。
[S808] The setting unit 2030 sets, for each of the plurality of materials belonging to the category, weights inversely proportional to the number of moving image files sorted into the category by the sorting unit 2020 for each category.
[S810a] The selecting unit 2040 selects a plurality of moving image files (selected files) from among a plurality of moving image files in consideration of the weight set by the setting unit 2030. In this embodiment, a predetermined numerical range is divided according to the ratio of the weight sizes set in each moving image file, and each video file is associated with any one of the divided ranges, and pseudo random numbers of the numerical range are generated. The process of selecting a moving image file associated with the division section including the pseudo random numbers generated is repeated. The number of selections is set according to the length of the connected video. For example, the number of selections is set to 30, when generating a 30-second version of the connected moving image, and is set to 180 when generating a 180-second version of the connected moving image.

〔S818〕特定部2050が、選定部2040により選定される複数の選定ファイルにおいて、連結動画を構成するべき指定長さ(本実施例では、一律に1秒間)の抽出部分をそれぞれ特定する。なお、本実施例では、先頭から5秒後の時点から10秒後の時点までの範囲内で抽出部分をランダムに特定することにより、特定処理の迅速化を図っている。
〔S820〕抽出部2060が、特定部2050によりそれぞれ特定される抽出部分を複数の選定ファイルからそれぞれ抽出する。
[S818] The specifying unit 2050 specifies, in the plurality of selection files selected by the selecting unit 2040, extraction portions of a designated length (one second in the present embodiment) which should constitute the concatenated moving image. In the present embodiment, the extraction process is specified at random within the range from the point 5 seconds after the head to the point 10 seconds after, thereby speeding up the identification processing.
[S820] The extraction unit 2060 extracts the extracted portions specified by the specifying unit 2050 from the plurality of selected files.

〔S822〕連結部2070が、抽出部2060により抽出される映像を元の音声を残したまま撮影時期の昇順に連結し、必要に応じてBGM(background music)を付加して連結動画を生成し、生成された連結動画をコンテンツとする連結動画ファイルをファイル管理サーバ30(記憶装置31)に管理させる。ある選定ファイルの映像が縦長である場合は、フレーム画像の上部と下部の少なくともいずれかを切り取るか、フレーム画像のサイズを縮小するかして、横長の映像に高さを合わせるのが好ましい。
〔S824〕提示部2080が、連結部2070により生成される連結動画のアクセス情報をユーザ端末40に応答(レスポンス)として返す。なお、連結動画の生成には相応の時間を要するため、S802のリクエストに対し例えば「作成中」と表示されるページをレスポンスとしていったん返し、その後ユーザ端末40から編集管理サーバ20に所定時間ごとにページ更新要求を送信させ、連結動画が完成した際に当該連結動画のアクセス情報を応答してもよい。また、連結動画ファイルが完成した旨を電子メールや通知機能を利用して指定された範囲のユーザに報知することとしてもよい。
[S822] The linking unit 2070 links the video extracted by the extracting unit 2060 in ascending order of shooting time while leaving the original audio, adds BGM (background music) as necessary, and generates a linked moving image. The file management server 30 (storage device 31) manages a connected moving image file whose content is the generated connected moving image. When the video of a selected file is vertically long, it is preferable to adjust the height to the horizontally long video by cutting off at least one of the upper part and the lower part of the frame image or reducing the size of the frame image.
[S824] The presentation unit 2080 returns the access information of the linked moving image generated by the linking unit 2070 to the user terminal 40 as a response. It should be noted that, since generation of the linked moving image requires a corresponding time, a page displayed as “during creation”, for example, is once returned as a response to the request of S802, and thereafter it is sent to the editing management server 20 from the user terminal 40 A page update request may be sent, and when the linked video is completed, the access information of the linked video may be returned. In addition, notification of completion of the linked moving image file may be provided to the user of the designated range using an electronic mail or a notification function.

[3.変形例]
[3−1.変形例1:動画ファイルが選定される度に重みを更新する]
いずれかの動画ファイルが選定ファイルとして選定される度に当該選定ファイルと所定の関係を有する他の動画ファイルの重み(選定されやすさ度合い)を半減し又は0(若しくは有効でない値)にしてもよい。
これにより、最新の重みを加味して動画ファイルが順次選定されれば、選定された動画ファイルと特定の関係にある他の動画ファイルがその後に選定される可能性が相対的に下がると同時にその他の動画ファイルがその後に選定される可能性が相対的に上がる。
以下では、所定の関係として、撮影時期が近接し又は部分的に重複する場合を想定した例(変形例1A及び変形例1B)及び撮影者が重複する場合を想定した例(変形例1C)を例示する。変形例1A〜変形例1Cは、相互に組み合わせてもよい。
[3. Modified example]
[3-1. Modification 1: Update weights every time a moving image file is selected]
Every time any moving image file is selected as a selection file, the weight (selectability degree) of another moving image file having a predetermined relationship with the selection file is halved or 0 (or an invalid value). Good.
As a result, if moving image files are sequentially selected in consideration of the latest weight, the possibility that other moving image files having a specific relationship with the selected moving image file will be selected thereafter is relatively reduced. There is a relative increase in the possibility that the movie file of will be selected later.
In the following, as predetermined relationships, an example (Modification 1A and Modification 1B) in which shooting times are close or partially overlapping and an example (Modification 1C) in which a photographer overlaps are described. I will illustrate. Modifications 1A to 1C may be combined with each other.

[3−1−1.変形例1A]
いずれかの動画ファイルが選定ファイルとして選定される度に同一区分に属する他の動画ファイルの少なくとも一部の重み(選定されやすさ度合い)を半減し又は0(若しくは有効でない値)にしてもよい。
これにより、最新の重みを加味して動画ファイルが順次選定されれば、選定された動画ファイルと同一の区分に仕分けられている他の動画ファイルがその後に選定される可能性が相対的に下がると同時に他の区分に仕分けられている動画ファイルがその後に選定される可能性が相対的に上がるため、結果的に撮影時期がより偏りにくくなる。
[3-1-1. Modification 1A]
Every time a moving image file is selected as a selection file, at least a part of the weight (selectability) of another moving image file belonging to the same category may be halved or 0 (or a non-valid value) .
As a result, if moving image files are sequentially selected in consideration of the latest weight, there is a relatively low possibility that another moving image file sorted in the same category as the selected moving image file will be selected thereafter. At the same time, since the possibility that the moving image files sorted into other categories will be selected later is relatively increased, as a result, it becomes more difficult to bias the photographing time.

具体的には、撮影時期が近接する(例えば、撮影日が同一である)複数の動画ファイルをグループ化し、いずれかが選定ファイルとして選定される度に同一グループの他の関連動画ファイル(「関連映像ファイル」の一例。)の重み(選定されやすさ度合い)を半減し又は0(若しくは有効でない値)にするとよい。例えば、図9に示すように動画ファイルが存在する場合、撮影日が「Y年M月D日」の動画ファイルの組<a,a,a,b,b,b>及び撮影日が「Y年M月(D+1)日」の動画ファイルの組<a,a>をそれぞれグループ化する。
これにより、最新の重みを加味して動画ファイルが順次選定されれば、選定された動画ファイルと撮影時期が近い他の関連動画ファイルがその後に選定される可能性が相対的に下がると同時にその他の動画ファイルがその後に選定される可能性が相対的に上がるため、結果的に撮影時期がより偏りにくくなる。
Specifically, a plurality of moving image files whose shooting times are close (for example, the shooting date is the same) are grouped, and another related moving image file of the same group is selected each time one is selected as a selection file (“related One example of “image file” is to reduce the weight (degree of selection ease) to half or 0 (or an invalid value). For example, if the moving image file exists as shown in FIG. 9, the photographing date is set in the moving image file "Y Year M Month D Day" <a 1 ,a 2 ,a 3 ,b 1 ,b 2 ,b 3> and shooting date is set <a 4 each group the ,a 5> of the moving image file of "Y year M month (D + 1) day".
As a result, if the moving image file is sequentially selected in consideration of the latest weight, the possibility that the selected moving image file and another related moving image file whose shooting time is near will be selected will be reduced relatively at the same time. Since the possibility that the moving image file of will be selected later is relatively increased, as a result, the photographing time is less likely to be biased.

特に、撮影時期の少なくとも一部が相互に重なる複数の動画ファイルをグループ化し、いずれかが選定ファイルとして選定される度に同一グループの他の関連動画ファイルの重み(選定されやすさ度合い)を0(又は有効でない値)にするのが好適である。例えば、図9に示すように動画ファイルが存在する場合、撮影日が「Y年M月D日」で撮影時期が部分的に重なる動画ファイルの組<a,b>,<a,b>,<a,b>又はこれらの組合せ<a,a,a,b>をグループ化する。
これにより、最新の重みを加味して動画ファイルが順次選定されれば、選定された動画ファイルと同一の場面を撮影した映像を含む可能性が高い他の関連動画ファイルがその後に選定される可能性がなくなり、結果的に連結動画に採録される映像の重複が排除される。
In particular, a plurality of moving image files in which at least a part of shooting time mutually overlaps are grouped, and the weight (selectability degree) of another related moving image file in the same group is set to 0 each time any one is selected as a selection file. It is preferable to set (or an invalid value). For example, if the video file is present as shown in FIG. 9, of the moving image file that time shooting shooting date is "Y year M month D day" partially overlap set <a 1 ,b 1>, <a 2, b 1>, grouping <a 3 ,b 1> or a combination thereof <a 1 ,a 2 ,a 3 ,b 1 >.
Thereby, if the moving image file is sequentially selected in consideration of the latest weight, another related moving image file having a high possibility of including the image obtained by shooting the same scene as the selected moving image file may be selected thereafter. As a result, the duplication of the video recorded in the connected animation is eliminated.

なお、グループ化の条件として、複数の動画ファイルの撮影位置が極めて近接する場合に限ってもよい。あるいは、複数の動画ファイルが同一のディレクトリに保存されており又は複数の動画ファイルに同一のタグデータが付加されている場合に限ってもよい。
これらにより、同一の場面を撮影した映像を含む可能性が極めて高い他の関連動画ファイルの特定精度が向上する。
The grouping condition may be limited to the case where shooting positions of a plurality of moving image files are extremely close to each other. Alternatively, it may be limited to the case where a plurality of moving image files are stored in the same directory or the same tag data is added to a plurality of moving image files.
As a result, the identification accuracy of other related moving image files, which are highly likely to include a video of the same scene, is improved.

図10に、編集管理サーバによる連結映像の生成手順の変形例を例示する。
編集管理サーバ20は、ユーザ端末40からの要求に応じて、図10に示す手順で連結映像(連結動画)を生成してもよい。なお、実施例(図8)と同等の処理には同一の符号を付し重複説明を省略する。
〔S806〕仕分部2020が、動画ファイルをさらにグループ化する。例えば、撮影時期が近接し又は撮影時期の少なくとも一部が相互に重なる複数の動画ファイルをグループ化するとよい。また、グループ化の条件として、複数の動画ファイルの撮影位置が極めて近接する場合に限ってもよいし、複数の動画ファイルが同一のディレクトリに保存されており又は複数の動画ファイルに同一のタグが付加されている場合に限ってもよい。
FIG. 10 exemplifies a modification of the procedure of linked video generation by the editing management server.
In response to a request from the user terminal 40, the editing management server 20 may generate a connected video (connected moving image) according to the procedure shown in FIG. In addition, the same code | symbol is attached | subjected to the process equivalent to an Example (FIG. 8), and duplication description is abbreviate | omitted.
[S806] The sorting unit 2020 further groups the moving image file. For example, it is preferable to group a plurality of moving image files in which shooting times are close to each other or at least a part of the shooting times overlap each other. In addition, grouping conditions may be limited to the case where shooting positions of a plurality of moving image files are extremely close, or a plurality of moving image files are stored in the same directory, or the same tag is included in a plurality of moving image files. It may only be added.

〔S810b〕選定部2040が、設定部2030により設定される最新の重みを加味して複数の素材の中から単数の動画ファイル(選定ファイル)を選定する。本実施例では、各動画ファイルに設定された重みの割合に応じて所定の数値範囲を分割し各映像ファイルをそれぞれいずれかの分割範囲に対応付け、当該数値範囲の疑似乱数を発生させて発生した疑似乱数を含む分割範囲に対応付けられている動画ファイルを選定する。
〔S812b〕選定部2040が、選定ファイルの数が上限数に等しいか否かを判定する。等しくなければ(S812b:No)、S814bに進む。一方、等しければ(S812b:Yes)、ループを抜けてS818に進む。なお、選定数の上限値は連結動画の長さに応じて設定する。例えば、30秒バージョンの連結動画を生成する場合は選定数30、180秒バージョンの連結動画を生成する場合は選定数180に設定する。
[S810b] The selecting unit 2040 selects a single moving image file (selected file) from among a plurality of materials in consideration of the latest weight set by the setting unit 2030. In this embodiment, a predetermined numerical range is divided according to the weight ratio set for each moving image file, each video file is associated with any of the divided ranges, and pseudo random numbers of the numerical range are generated and generated. The moving image file associated with the divided range including the pseudo random number is selected.
[S812b] The selecting unit 2040 determines whether the number of selected files is equal to the upper limit number. If not equal (S812b: No), the process proceeds to S814b. On the other hand, if they are equal (S812b: Yes), the process exits the loop and proceeds to S818. Note that the upper limit value of the number of selections is set according to the length of the linked moving image. For example, the number of selections is set to 30, when generating a 30-second version of the connected moving image, and is set to 180 when generating a 180-second version of the connected moving image.

〔S814b〕選定部2040が、直前に選定された動画ファイルと同一のグループに属する他の関連動画ファイルが存在するか否かを判定する。存在する場合(S814b:Yes)、S816bに進む。一方、存在しない場合(S814b:No)、S810bに戻る。
〔S816b〕設定部2030が、直前に選定された動画ファイルと同一のグループに属する他の関連動画ファイルに重みを再設定する。例えば、撮影時期が近接する他の関連動画ファイルの重みを1/2にしたり、撮影時期の少なくとも一部が相互に重なる他の関連動画ファイルの重みを0(又は無効な値)にしたりするとよい。
[S814b] The selecting unit 2040 determines whether there is another related moving image file belonging to the same group as the moving image file selected immediately before. If it exists (S 814 b: Yes), the process proceeds to S 816 b. On the other hand, when there is not (S814b: No), it returns to S810b.
[S816b] The setting unit 2030 resets the weights to other related moving image files belonging to the same group as the moving image file selected immediately before. For example, it is preferable to set the weight of other related moving image files whose shooting time is close to 1/2 or to set the weight of other related moving image files in which at least a part of the shooting time mutually overlaps each other to 0 (or invalid value) .

[3−1−2.変形例1B]
動画ファイルが選定ファイルとして選定される度に、当該動画ファイルと区間の境界を跨いで撮影時期が近接する(例えば、撮影日のズレが一定日数以内である)他の動画ファイルの重み(選定されやすさ度合い)を縮小させてもよい。例えば、図11に示すように動画ファイルが分布する場合、第(n+1)番目の区分のサブ区分3と第(n+2)番目の区分のサブ区分1の間で一方のサブ区分に属する動画ファイルが選定される度に他方のサブ区分に属する他の動画ファイルの重みを一律に2/3にする。
これにより、最新の重みを加味して動画ファイルが順次選定されれば、選定された動画ファイルと区分の境界線を跨いで撮影時期が近い他の動画ファイルがその後に選定される可能性が相対的に下がると同時にその他の動画ファイルがその後に選定される可能性が相対的に上がるため、区分の境界となる時期の直前直後に撮影時期が偏る不都合が解消される。
[3-1-2. Modification 1B]
Every time a moving image file is selected as a selection file, weights of other moving image files whose shooting time is close (for example, the shift of the shooting date is within a certain number of days) across the boundary between the moving image file and the section The degree of ease) may be reduced. For example, when moving image files are distributed as shown in FIG. 11, a moving image file belonging to one sub-division is present between sub-division 3 of the (n + 1) -th division and sub-division 1 of the (n + 2) -th division. Every time it is selected, the weights of other moving image files belonging to the other sub-division are uniformly reduced to 2/3.
As a result, if the moving image file is sequentially selected in consideration of the latest weight, there is a relative possibility that another moving image file whose photographing time is close across the boundary between the selected moving image file and the division may be subsequently selected. Since the possibility that other moving image files will be selected later is relatively increased at the same time, the disadvantage that the photographing time is biased immediately before and immediately after the division boundary time is resolved.

なお、動画ファイルが選定ファイルとして選定される度に、当該動画ファイルと区間の境界を跨いで撮影時期が近接する(例えば、撮影日のズレが一定日数以内である)他の動画ファイルの重み(選定されやすさ度合い)を撮影時期のズレの度合いに応じて段階的に縮小させてもよい。例えば、選定された動画ファイルとの撮影日のズレが区間の境界を跨いでi日(例えば、1≦i≦10)である動画ファイルの重みを(i+1)/(i+2)にする。
これにより、サブ区分に仕分ける処理を省略することができる。
Note that each time a moving image file is selected as a selection file, the shooting time approaches the moving image file across the section boundary (for example, the shift of the shooting date is within a certain number of days) the weight of another moving image file ( The degree of easiness of selection may be reduced stepwise in accordance with the degree of deviation of the photographing time. For example, the weight of the moving image file whose i-th day (for example, 1 ≦ i ≦ 10) is shifted between the selected moving image file and the shooting date across the section boundary is set to (i + 1) / (i + 2).
Thus, the process of sorting into sub-divisions can be omitted.

図12に、編集管理サーバによる連結映像の生成手順の変形例を例示する。
編集管理サーバ20は、ユーザ端末40からの要求に応じて、図12に示す手順で連結映像(連結動画)を生成してもよい。なお、実施例(図8)又は変形例1A(図10)と同等の処理には同一の符号を付し重複説明を省略する。
〔S804〕仕分部2020が、特定の人物に関連する複数の動画ファイルを月ごとに区切られた複数の区分のいずれかに撮影時期に応じてそれぞれ仕分ける。また、必要に応じて、複数の動画ファイルをさらに、区分を細分化したサブ区分に仕分ける。
FIG. 12 exemplifies a modification of the procedure of linked video generation by the editing management server.
In response to a request from the user terminal 40, the editing management server 20 may generate a connected video (connected moving image) according to the procedure shown in FIG. The same processing as that of the embodiment (FIG. 8) or the modification 1A (FIG. 10) is denoted by the same reference numeral, and the redundant description will be omitted.
[S804] The sorting unit 2020 sorts a plurality of moving image files related to a specific person into any of a plurality of divisions divided by month according to the photographing time. In addition, if necessary, the plurality of moving image files are further divided into subdivisions into which the divisions are subdivided.

〔S814c〕選定部2040が、直前に選定された動画ファイルと区分の境界を跨いで撮影時期が近接する他の動画ファイルが存在するか否かを判定する。存在する場合(S814c:Yes)、S816cに進む。一方、存在しない場合(S814c:No)、S810bに戻る。
〔S816c〕設定部2030が、直前に選定された動画ファイルと区分の境界を跨いで撮影時期が近接する他の動画ファイルに重みを再設定する。例えば、区分の境界を跨いで隣接するサブ区分に属する他の動画ファイルの重みを2/3にしたり、撮影日のズレが区間の境界を跨いでi日(例えば、1≦i≦10)である動画ファイルの重みを(i+1)/(i+2)にしたりするとよい。
[S814c] The selecting unit 2040 determines whether there is another moving image file whose shooting time is close across the boundary between the moving image file selected immediately before and the division. If it exists (S 814 c: Yes), the process proceeds to S 816 c. On the other hand, when there is not (S814 c: No), it returns to S810 b.
[S816c] The setting unit 2030 resets the weights of the moving image file selected immediately before and other moving image files whose shooting times are close to each other across the boundary of the section. For example, the weight of another moving image file belonging to a subdivision adjacent to a division boundary is set to 2/3, or the shift of the photographing date crosses the boundary of the division on the i day (for example, 1 ≦ i ≦ 10) It is preferable to set the weight of a certain moving image file to (i + 1) / (i + 2).

[3−1−3.変形例1C]
動画ファイルが選定ファイルとして選定される度に、当該動画ファイルと撮影装置又は投稿者が一致する他の動画ファイルの重み(選定されやすさ度合い)を半減させてもよい。
これにより、最新の重みを加味して動画ファイルが順次選定されれば、選定された動画ファイルと同一の撮影者により撮影された可能性が高い他の動画ファイルがその後に選定される可能性が相対的に下がると同時にその他の動画ファイルがその後に選定される可能性が相対的に上がるため、撮影者の偏りを抑止することができる。
[3-1-3. Modification 1C]
Every time a moving image file is selected as a selection file, the weight (selectability) of another moving image file that matches the moving image file and the photographing apparatus or the contributor may be halved.
As a result, if the moving image file is sequentially selected in consideration of the latest weight, there is a possibility that another moving image file having a high possibility of being photographed by the same photographer as the selected moving image file may be subsequently selected. Since the possibility of the other moving image files being selected later increases relatively at the same time as the relative decrease, the bias of the photographer can be suppressed.

[3−2.変形例2:連結動画の指定部分を代替映像に差し替える]
連結動画の表示中にユーザの所定動作(例えば、発声,ジェスチャ,マウス操作,ボタン操作,タッチ操作など)により指定される指定部分を、当該指定部分の映像と撮影時期が近接し又は少なくとも部分的に重なる代替映像に差し替える仕組みを、実施例,変形例1A,変形例1B又は変形例1Cにさらに付加してもよい。
代替映像は指定部分の映像と撮影時期が近接し又は少なくとも部分的に重なるから、編集後の連結動画も撮影時期に偏りが発生しにくい。
[3-2. Variation 2: Replace designated part of linked video with alternative video]
The designated part specified by the user's predetermined action (for example, voice, gesture, mouse operation, button operation, touch operation, etc.) while the linked moving image is displayed is such that the image of the specified part is close to or at least partially captured A mechanism for replacing an alternative image overlapping the above may be further added to the embodiment, the modification 1A, the modification 1B or the modification 1C.
Since the image of the designated portion and the shooting time of the alternative video image are close to or at least partially overlap with each other, the combined moving image after editing is less likely to be biased at the shooting time.

[3−2−1.変形例2A]
特に、複数の代替映像の候補を連結した候補連結動画をユーザにさらに提示し、候補連結動画の表示中に検出されるタッチ操作により指定されるタイミングに対応する候補を代替映像に取り込んでもよい。
変形例2Aは、構成がシンプルであるため、直観的に操作することができる。加えて、実施例や変形例からの変更要素が少なくて済む。
[3-2-1. Modification 2A]
In particular, a candidate connected moving image in which a plurality of alternative video candidates are connected may be further presented to the user, and a candidate corresponding to a timing designated by a touch operation detected during display of the candidate connected moving image may be captured in the alternative video.
The modification 2A can be operated intuitively because the configuration is simple. In addition, the change from the embodiment and the modification can be reduced.

例えば、連結動画(図13(a))の映像A及び映像Bが表示部4060に表示されているタイミングで、検出部4030により連結動画表示領域を対象とする所定のタッチ操作(例えば、タップ操作)がそれぞれ検出されたとする。
このとき、編集管理サーバ20は、指定されたタイミングに応じて映像Aに対する候補連結動画(図13(b))及び映像Bに対する候補連結動画(図13(c))をそれぞれユーザに提示し、指定部分(映像A及び映像B)に差し替えるべき代替映像をそれぞれ選択させる。
代替映像が選択されると、編集管理サーバ20は、連結動画の指定部分(映像A及び映像B)が代替映像にそれぞれ差し替えられた新たな連結動画を生成し、ユーザに提示する。
For example, at timing when the video A and the video B of the connected moving image (FIG. 13A) are displayed on the display unit 4060, a predetermined touch operation (for example, a tap operation) targeting the connected moving image display area by the detecting unit 4030 ) Are detected respectively.
At this time, the editing management server 20 presents the user with the candidate concatenated moving image (FIG. 13 (b)) for the video A and the candidate concatenated moving image (FIG. 13 (c)) for the video B according to the designated timing. The substitute image to be replaced with the designated part (image A and image B) is selected respectively.
When the alternative video is selected, the editing management server 20 generates a new combined moving image in which the designated parts (video A and video B) of the connected moving image are replaced with the alternative video, respectively, and presents them to the user.

なお、候補連結動画は、例えば次の映像のうち少なくとも一部を代替映像の候補として抽出しこれらを撮影時期の順に又はランダムに連結することにより生成するとよい。
・指定部分の映像の抽出元の動画ファイル(選定ファイル)から抽出される単数又は複数の指定長さの映像。例えば、選定ファイルを抽出数に応じて複数の部分に分割し、指定部分の映像を含まない部分からそれぞれ抽出される指定長さの映像。
・指定部分の映像の抽出元の動画ファイル(選定ファイル)と撮影時期が近接し又は撮影時期の少なくとも一部が相互に重なる複数の動画ファイル(変形例1Aのようにグループ化している場合は、同一のグループに属する他の関連動画ファイル)から少なくとも1部分ずつそれぞれ抽出される指定長さの映像。
The candidate connected moving image may be generated, for example, by extracting at least a part of the next video as a candidate for the substitute video and linking these in the order of shooting time or randomly.
An image of a single or a plurality of designated lengths extracted from a moving image file (selection file) from which an image of the designated part is extracted. For example, a video of a designated length which is divided into a plurality of parts according to the number of extractions and which is extracted from parts which do not include the video of the designated part.
A plurality of moving image files in which the moving image file (selection file) from which the specified part image is extracted and the shooting time are close to each other or at least a part of the shooting time mutually overlaps (when grouped as in modification 1A Video of specified length extracted at least one part each from other related moving image files belonging to the same group.

[3−2−2.変形例2B]
特に、単数又は複数の分割映像(例えば、撮影時期が少なくとも部分的に重なる複数の動画ファイルからそれぞれ抽出される候補が複数の区画(例えば、m行n列の区画,単数の主たる区画と単数又は複数の従たる区画)に分割された画面に同時に表示される映像)を含む連結動画をユーザに提示し、分割映像の表示中に検出されるタッチ操作により指定される区画に対応する候補を代替映像に取り込んでもよい。
変形例2Bは、当初から選択肢のある連結動画をユーザに提示するとともに、所定のタッチ操作がタイミングの指定と候補の選択とを兼ねるため、連結動画を編集するための工程が少なくて済む。
3-2-2. Modification 2B]
In particular, a single or a plurality of divided videos (for example, candidates extracted respectively from a plurality of moving image files whose shooting times overlap at least partially are a plurality of sections (for example, a section of m rows and n columns, a single main section and a single section or Presenting to the user a connected moving image including a video simultaneously displayed on a screen divided into a plurality of subdivisions), and replacing the candidate corresponding to the division designated by the touch operation detected during display of the divided video It may be captured in a video.
The modification 2B presents the user with a connected moving image having options from the beginning, and the predetermined touch operation doubles as specifying a timing and selecting a candidate, so the number of processes for editing the connected moving image can be reduced.

例えば、当初の連結動画(図14(a))に分割映像C(図14(b)又は図14(c))が含まれているものとする。
図14(b)に例示される分割映像Cは、2行2列で合計4つの区画(1A,1B,2A,2B)に画面が均等に分割されており、異なる複数の動画ファイル(例えば、図9に示す4つの動画ファイルa,a,a,bがグループ化されており、いずれかが選定ファイルとして選定された場合に、当該選定ファイルを含むグループ内の4つの動画ファイル)からそれぞれランダムに抽出される指定長さの映像が各区画に同時に表示されるものとする。このとき、抽出された映像と当該映像を表示させる区画との対応関係は任意に決定してよい。
一方、図14(c)に例示される分割映像Cは、1つの主たる区画(3A)と主たる区画の表示範囲の前面に重畳的に配置される3つの従たる区画(4A,4B,4C)の合計4つの区画に画面が分割されており、異なる複数の動画ファイル(例えば、図9に示す4つの動画ファイルa,a,a,bがグループ化されており、いずれかが選定ファイルとして選定された場合に、当該選定ファイルを含むグループ内の4つの動画ファイル)からそれぞれランダムに抽出される指定長さの映像が各区画に同時に表示されるものとする。このとき、選定ファイルから抽出された映像は主たる区画(3A)に、選定ファイル以外の関連動画ファイルからそれぞれ抽出された映像は従たる区画に、それぞれ表示させるとよい。なお、表示領域が互いに重ならないように主たる区画と従たる区画とを配置してもよい。
For example, it is assumed that the divided video C (FIG. 14 (b) or FIG. 14 (c)) is included in the original combined moving image (FIG. 14 (a)).
The divided video C illustrated in FIG. 14B has a screen divided equally into a total of four sections (1A, 1B, 2A, 2B) in two rows and two columns, and a plurality of different moving image files (for example, When four moving image files a 1 , a 2 , a 3 and b 1 shown in FIG. 9 are grouped and one of them is selected as a selected file, four moving image files in the group including the selected file It is assumed that the video of the designated length randomly extracted from each is displayed simultaneously in each section. At this time, the correspondence between the extracted video and the section in which the video is displayed may be determined arbitrarily.
On the other hand, the divided video C illustrated in FIG. 14C includes three sub-partitions (4A, 4B, 4C) disposed in front of the display range of one main partition (3A) and the main partition. The screen is divided into a total of four sections, and a plurality of different moving image files (for example, four moving image files a 1 , a 2 , a 3 , b 1 shown in FIG. 9 are grouped, any of which is When selected as a selection file, video of a designated length randomly extracted from four moving image files in a group including the selection file is simultaneously displayed in each section. At this time, the video extracted from the selected file may be displayed on the main section (3A), and the video extracted from the related moving image file other than the selected file may be displayed on the sub section. Note that the main sections and the sub sections may be arranged such that the display areas do not overlap with each other.

そして、分割映像が表示部4060に表示されているタイミングで、検出部4030によりいずれかの区画を対象とする所定のタッチ操作(例えば、タップ操作)が検出されたとする。
このとき、編集管理サーバ20は、指定されたタイミングに対応する指定部分(分割映像C)が指定された区画に対応する映像に差し替えられた新たな連結動画を生成し、ユーザに提示する。
Then, it is assumed that a predetermined touch operation (for example, a tap operation) targeting any section is detected by the detection unit 4030 at the timing when the divided video is displayed on the display unit 4060.
At this time, the editing management server 20 generates a new combined moving image in which the designated part (divided video C) corresponding to the designated timing has been replaced with the video corresponding to the designated segment, and presents it to the user.

[3−2−3.変形例2C]
特に、単数又は複数の分割映像を含む連結動画をユーザに提示し、分割映像の表示中に検出される第1タッチ操作(例えば、シングルタップ操作,第2タッチ操作と異なる特定方向へのフリック操作又はスワイプ操作など)により指定される区画に対応する候補を代替映像に取り込むとともに、分割映像の表示中に検出される第2タッチ操作(例えば、ダブルタップ操作,プレス操作,第1タッチ操作と異なる特定方向へのフリック操作又はスワイプ操作など)により指定される区画に対応する候補の抽出元の動画ファイルの他の部分を連結した候補連結動画をユーザにさらに提示し、候補連結動画の表示中にタッチ操作により指定されるタイミングに対応する候補を代替映像に取り込んでもよい。
3-2-3. Modification 2C]
In particular, a first moving operation including a single or a plurality of divided images is presented to the user, and a first touch operation detected during display of the divided images (for example, a flick operation in a specific direction different from a single tap operation and a second touch operation) Alternatively, the second touch operation (eg, double tap operation, press operation, first touch operation) different from the second touch operation (eg, double tap operation, press operation, first touch operation) detected while displaying the divided video, while capturing the candidate corresponding to the section specified by swipe operation) The candidate connected moving image is further presented to the user by connecting the other part of the moving image file of the candidate extraction source corresponding to the section specified by the flick operation or swipe operation in a specific direction), etc. The candidate corresponding to the timing designated by the touch operation may be taken into the alternative video.

変形例2Cは、当初から選択肢のある連結動画をユーザに提示するとともに、所定のタッチ操作(第1タッチ操作及び第2タッチ操作)がタイミングの指定と区画(候補)の選択とを兼ねるため、連結動画を編集するための工程が少なくて済む。
加えて、所定のタッチ操作(第1タッチ操作及び第2タッチ操作)により、表示されている候補をそのまま採用するか当該候補の前後の部分を検討するか、が選択可能であるため、より細やかな編集を直観的に行うことができる。
Modification 2C presents to the user a connected moving image having options from the beginning, and the predetermined touch operation (the first touch operation and the second touch operation) serves both as the designation of timing and the selection of a section (candidate). It takes less steps to edit linked videos.
In addition, it is possible to select whether to adopt the displayed candidate as it is or to examine the portions before and after the candidate by a predetermined touch operation (the first touch operation and the second touch operation). Editing can be done intuitively.

なお、候補連結動画は、例えば指定区画に対応する映像の抽出元の動画ファイルから抽出される単数又は複数の指定長さの映像(例えば、当該動画ファイルを抽出数に応じて複数の部分に分割し、指定区画に対応する映像を含まない部分からそれぞれ抽出される指定長さの映像)のうち少なくとも一部を代替映像の候補として抽出しこれらを撮影時期の順に又はランダムに連結することにより生成するとよい。   The candidate concatenated moving image is, for example, a video of a single or a plurality of designated lengths extracted from the moving image file of the extraction source of the video corresponding to the designated section (for example, the moving image file is divided into a plurality of portions according to the number of extractions And at least a part of the video of the designated length extracted respectively from the part not including the video corresponding to the designated section) as a candidate of the substitute video, and generated by connecting these in the order of photographing time or randomly. It is good to do.

[3−2−4.変形例2D]
特に、単数又は複数の分割映像を含む連結動画をユーザに提示し、分割映像の表示中に検出される第1タッチ操作(例えば、シングルタップ操作,第2タッチ操作と異なる特定方向へのフリック操作又はスワイプ操作など)により指定される区画に対応する候補を代替映像に取り込むとともに、分割映像の表示中に検出される第2タッチ操作(例えば、ダブルタップ操作,プレス操作,第1タッチ操作と異なる特定方向へのフリック操作又はスワイプ操作など)により指定される区画に対応する候補の抽出元の動画ファイルの他の部分を連結した候補分割動画をユーザにさらに提示し、候補分割動画の表示中にタッチ操作により指定される区画に対応する候補を代替映像に取り込んでもよい。
3-2-4. Modification 2D]
In particular, a first moving operation including a single or a plurality of divided images is presented to the user, and a first touch operation detected during display of the divided images (for example, a flick operation in a specific direction different from a single tap operation and a second touch operation) Alternatively, the second touch operation (eg, double tap operation, press operation, first touch operation) different from the second touch operation (eg, double tap operation, press operation, first touch operation) detected while displaying the divided video, while capturing the candidate corresponding to the section specified by swipe operation) The user is further presented to the user a candidate divided moving image obtained by connecting other parts of the moving image file of the candidate extraction source corresponding to the section designated by the flick operation or swipe operation in a specific direction) The candidate corresponding to the section specified by the touch operation may be taken into the alternative video.

変形例2Dは、変形例2Cと同様に、当初から選択肢のある連結動画をユーザに提示するとともに、所定のタッチ操作(第1タッチ操作及び第2タッチ操作)がタイミングの指定と区画(候補)の選択とを兼ねるため、連結動画を編集するための工程が少なくて済む。
加えて、所定のタッチ操作(第1タッチ操作及び第2タッチ操作)により、表示されている候補をそのまま採用するか当該候補の前後の部分を検討するか、が選択可能であるため、より細やかな編集を直観的に行うことができる。
Similar to Modified Example 2C, Modified Example 2D presents to the user a combined moving image having options from the beginning, and also performs predetermined touch operations (first touch operation and second touch operation) on timing designation and sections (candidates). In addition, the process for editing the connected moving image can be reduced.
In addition, it is possible to select whether to adopt the displayed candidate as it is or to examine the portions before and after the candidate by a predetermined touch operation (the first touch operation and the second touch operation). Editing can be done intuitively.

[3−3.その他の変形例]
実施例ではコンテンツの長さが6秒間以上の動画ファイルのみを対象としているが、しきい値は任意に設定することができる。
実施例では動画コンテンツの先頭から5秒後の時点から10秒後の時点までの範囲内で抽出部分をランダムに特定しているが、抽出部分を特定する範囲は任意に設定することができる。
実施例では抽出部分をランダムに特定しているが(図8,図10,図12のS820)、視聴者によるフィードバックに応じて特定してもよい。例えば、動画ファイルの表示中に視聴者に何らかの操作を行わせることとし、一定の期間内に当該操作が行われた累計回数が多い部分が含まれるように抽出部分を特定してもよい。
[3-3. Other Modifications]
In the embodiment, only a moving image file having a content length of 6 seconds or more is targeted, but the threshold can be set arbitrarily.
In the embodiment, the extraction portion is specified at random within the range from 5 seconds after the beginning of the moving image content to 10 seconds after the start, but the range for specifying the extraction portion can be set arbitrarily.
Although the extraction part is specified at random in the embodiment (S 820 in FIG. 8, FIG. 10, FIG. 12), it may be specified in accordance with the feedback from the viewer. For example, the viewer may specify some operation while displaying the moving image file, and the extraction portion may be specified so that the portion including the number of times the operation has been performed in a large number in a certain period is included.

10 配信管理サーバ
20 編集管理サーバ
30 ファイル管理サーバ
31 記憶装置
40 ユーザ端末
50 通信ネットワーク

10 Distribution Management Server 20 Editing Management Server 30 File Management Server 31 Storage Device 40 User Terminal 50 Communication Network

Claims (16)

数の映像ファイルを撮影時期に応じて複数の区分のいずれかにそれぞれ仕分ける仕分手段と、
前記複数の映像ファイルの中から連結映像の素材とする複数の選定ファイルを選定する際に加味される重みを前記仕分手段により仕分けられる映像ファイルの数が多い区分の映像ファイルほど選定されにくくなるように設定する設定手段と、
を具備する情報処理装置。
And one Niso Re respective sorting sorting means of a plurality of sections depending on the time taken multiple video files,
Hardly selected as the image file of a large number division of a video file to be sorted by the previous SL sorting means the weight to be taken into account when a plurality of the selected file to select the constant to the material of the connection image from the plurality of image files setting means for setting so that,
An information processing apparatus equipped with
前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと所定の関係を有する他の映像ファイルが選定されなくなるように又は再設定前に比較して選定されにくくなるように前記重みを再設定し、
前記設定手段により設定される最新の重みを加味して複数の前記選定ファイルを順次選定する選定手段をさらに具備する、
請求項1に記載の情報処理装置。
It said setting means, the weight to be less likely to be selected as compared to the previous another video file so can not be selected or reconfigured with the video file and the predetermined relationship to the time the first video file is selected Reset and
The system further includes selection means for sequentially selecting a plurality of the selection files in consideration of the latest weight set by the setting means.
An information processing apparatus according to claim 1.
前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと同一の区分に属する他の映像ファイルの少なくとも一部が選定されなくなるように又は再設定前に比較して選定されにくくなるように前記重みを再設定する、
請求項2に記載の情報処理装置。
The setting means is less likely to be selected so that at least a part of other video files belonging to the same division as the video file is not selected every time one video file is selected, or compared to before re-setting resetting the weights so,
The information processing apparatus according to claim 2.
前記仕分手段が、撮影時期が所定の基準を満たす程度に近接する複数の映像ファイルが同一のグループに属するように前記複数の映像ファイルを前記区分内でさらにグループ化し、
前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと同一のグループに属する他の関連映像ファイルが選定されなくなるように又は再設定前に比較して選定されにくくなるように前記重みを再設定する、
請求項3に記載の情報処理装置。
The sorting unit further groups the plurality of video files in the division such that a plurality of video files close to each other such that the photographing time satisfies a predetermined standard belongs to the same group.
It said setting means, wherein such less likely to be selected as compared to the previous other such relevant video file is no longer selected or reconfigured belonging to the video files of the same group each time the first video file is selected Reset weights,
The information processing apparatus according to claim 3.
前記仕分手段が、撮影時期の少なくとも一部が相互に重なる複数の映像ファイルが同一のグループに属するようにグループ化し、
前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと同一のグループに属する前記他の関連映像ファイルが選定されなくなるように前記重みを再設定する、
請求項4に記載の情報処理装置。
The sorting means groups a plurality of video files in which at least a part of shooting time mutually overlaps, to belong to the same group,
The setting means resets the weight such that the other related video file belonging to the same group as the video file is not selected each time one video file is selected.
The information processing apparatus according to claim 4.
前記仕分手段が、撮影位置が所定の基準を満たす程度に近接する場合に限り撮影時期の少なくとも一部が重なる複数の映像ファイルが同一のグループに属するように前記複数の映像ファイルをさらにグループ化する、
請求項5に記載の情報処理装置。
The sorting unit further groups the plurality of video files such that a plurality of video files overlapping at least a part of the shooting time belong to the same group only when the shooting positions are close enough to satisfy a predetermined standard. ,
The information processing apparatus according to claim 5.
前記仕分手段が、同一のディレクトリに保存されており又は同一のタグデータが付加されている場合に限り撮影時期の少なくとも一部が重なる複数の映像ファイルが同一のグループに属するように前記複数の映像ファイルをさらにグループ化する、
請求項5に記載の情報処理装置。
The plurality of videos may be arranged such that a plurality of video files overlapping at least a part of the photographing time belong to the same group only when the sorting means is stored in the same directory or the same tag data is added. Group files further,
The information processing apparatus according to claim 5.
複数の前記選定ファイルにおいてそれぞれ特定される複数の抽出部分が順次表示される前記連結映像を表示装置に表示させる提示手段と、
前記連結映像の表示中に視聴者の所定動作により指定される指定部分を代替映像に差し替える編集手段と、
をさらに具備する請求項4から請求項7までのいずれか一項に記載の情報処理装置。
Presenting means for causing the display device to display the connected video in which a plurality of extracted portions respectively specified in the plurality of selected files are sequentially displayed;
Editing means for replacing a designated part designated by a predetermined action of the viewer while the connected video is displayed with a substitute video;
The information processing apparatus according to any one of claims 4 to 7, further comprising:
前記提示手段が、前記指定部分の抽出元の選定ファイルの他の部分及び該選定ファイルと同一のグループに属する前記他の関連映像ファイルの部分の少なくともいずれかをそれぞれ含む複数の前記代替映像の候補を連結した候補連結映像を該指定部分が指定された後に前記表示装置にさらに表示させ、
前記編集手段が、前記候補連結映像の表示中に視聴者の指定操作により指定される指定候補を前記代替映像に取り込む、
請求項8に記載の情報処理装置。
A plurality of candidates for the alternative image, wherein the presenting means includes at least one of the other portion of the selection file of the extraction source of the designated portion and the portion of the other related image file belonging to the same group as the selection file Displaying the candidate connected video image obtained by connecting the video files on the display device after the designated portion is specified,
The editing unit takes a designated candidate designated by a designation operation of a viewer during display of the candidate concatenated video as the alternative video.
The information processing apparatus according to claim 8.
前記提示手段が、前記選定ファイル及び該選定ファイルと同一のグループに属する前記他の関連映像ファイルにおいてそれぞれ特定される前記抽出部分の候補が複数の区画に分割された画面に同時に表示される分割映像を含む前記連結映像を前記表示装置に表示させ、
前記編集手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するためのタッチ操作により併せて指定される指定区画に表示されていた候補を前記代替映像に取り込む、
請求項8に記載の情報処理装置。
A divided video displayed simultaneously on the screen in which the candidate for the extracted portion specified in the selection file and the other related video file belonging to the same group as the selection file is specified in the plurality of sections. Displaying the connected video including the
When the designated part includes the divided video, the editing unit takes the candidate displayed in the designated section which is designated together by the touch operation for designating the designated part into the substitute video.
The information processing apparatus according to claim 8.
前記提示手段が、前記選定ファイル及び該選定ファイルと同一のグループに属する前記他の関連映像ファイルにおいてそれぞれ特定される前記抽出部分の候補が複数の区画に分割された画面に同時に表示される分割映像を含む前記連結映像を前記表示装置に表示させ、
前記編集手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するための第1タッチ操作により併せて指定される指定区画に表示されていた候補を前記代替映像に取り込み、
前記提示手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するための第2タッチ操作により併せて指定される指定区画に表示されていた候補の抽出元の選定ファイルの他の部分をそれぞれ含む複数の前記代替映像の候補を連結した候補連結映像を該指定区画が指定された後に前記表示装置にさらに表示させ、
前記編集手段が、前記候補連結映像の表示中に視聴者の指定操作により指定される指定候補を前記代替映像に取り込む、
請求項8に記載の情報処理装置。
A divided video displayed simultaneously on the screen in which the candidate for the extracted portion specified in the selection file and the other related video file belonging to the same group as the selection file is specified in the plurality of sections. Displaying the connected video including the
When the specified part includes the divided video, the editing unit takes into the alternative video the candidate displayed in the specified partition which is also specified by the first touch operation for specifying the specified part,
In addition to the selection file of the extraction source of the candidate displayed in the designated section which is simultaneously designated by the second touch operation for designating the designated part when the designated part includes the divided video, the presenting means may Displaying a candidate combined video obtained by linking a plurality of candidates for the substitute video, each including a portion of に, on the display device after the designated section is designated,
The editing unit takes a designated candidate designated by a designation operation of a viewer during display of the candidate concatenated video as the alternative video.
The information processing apparatus according to claim 8.
前記提示手段が、前記選定ファイル及び該選定ファイルと同一のグループに属する前記他の関連映像ファイルにおいてそれぞれ特定される前記抽出部分の候補が複数の区画に分割された画面に同時に表示される分割映像を含む前記連結映像を前記表示装置に表示させ、
前記編集手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するための第1タッチ操作により併せて指定される指定区画に表示されていた候補を前記代替映像に取り込み、
前記提示手段が、前記指定部分が前記分割映像を含む場合に該指定部分を指定するための第2タッチ操作により併せて指定される指定区画に表示されていた候補の抽出元の選定ファイルの他の部分をそれぞれ含む複数の前記代替映像の候補が複数の区画に分割された画面に同時に表示される候補分割映像を該指定区画が指定された後に前記表示装置にさらに表示させ、
前記編集手段が、前記候補分割映像の表示中に視聴者のタッチ操作により指定される指定区画に表示されていた候補を前記代替映像に取り込む、
請求項8に記載の情報処理装置。
A divided video displayed simultaneously on the screen in which the candidate for the extracted portion specified in the selection file and the other related video file belonging to the same group as the selection file is specified in the plurality of sections. Displaying the connected video including the
When the specified part includes the divided video, the editing unit takes into the alternative video the candidate displayed in the specified partition which is also specified by the first touch operation for specifying the specified part,
In addition to the selection file of the extraction source of the candidate displayed in the designated section which is simultaneously designated by the second touch operation for designating the designated part when the designated part includes the divided video, the presenting means may The candidate divided video displayed simultaneously on the screen in which the plurality of alternatives of the alternative video, each of which includes the part of, is divided into a plurality of sections is further displayed on the display device after the designated section is designated,
The editing unit takes the candidate displayed in the designated section designated by the touch operation of the viewer during display of the candidate divided video into the alternative video;
The information processing apparatus according to claim 8.
前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと撮影時期が前記区分の境界を跨いで所定の基準を満たす程度に近接する他の映像ファイルが選定されにくくなるように前記重みを再設定する、
請求項3から請求項12までのいずれか一項に記載の情報処理装置。
Said setting means, wherein as the video file and the photographing time every time one image file is selected is less likely to be the selected other image files to be proximate to the extent that satisfies a predetermined criterion across the boundary of said section Reset weights,
The information processing apparatus according to any one of claims 3 to 12.
前記設定手段が、1の映像ファイルが選定される度に該映像ファイルと撮影装置又は投稿者が一致する他の映像ファイルが選定されにくくなるように前記重みを再設定する、
請求項2から請求項13までのいずれか一項に記載の情報処理装置。
The setting means resets the weight such that it becomes difficult to select another video file that matches the video file and the photographing apparatus or the contributor each time one video file is selected.
The information processing apparatus according to any one of claims 2 to 13.
数の映像ファイルを撮影時期に応じて複数の区分のいずれかにそれぞれ仕分ける仕分ステップと、
前記複数の映像ファイルの中から連結映像の素材とする複数の選定ファイルを選定する際に加味される重みを前記仕分ステップにおいて仕分けられる映像ファイルの数が多い区分の映像ファイルほど選定されにくくなるように設定する設定ステップと、
を含む、情報処理装置の制御方法。
And one Niso Re respective sorting sorting step of a plurality of sections depending on the time taken multiple video files,
Hardly selected as the image file of a large number division of a video file to be sorted in the previous SL sorting step the weight to be taken into account when a plurality of the selected file to select the constant to the material of the connection image from the plurality of image files a setting step of setting so that,
And a control method of the information processing apparatus.
数の映像ファイルを撮影時期に応じて複数の区分のいずれかにそれぞれ仕分ける仕分機能と、
前記複数の映像ファイルの中から連結映像の素材とする複数の選定ファイルを選定する際に加味される重みを前記仕分機能により仕分けられる映像ファイルの数が多い区分の映像ファイルほど選定されにくくなるように設定する設定機能と、
を情報処理装置のコンピュータに実現させる制御プログラム。
And one Niso Re respectively sorting sorting function of a plurality of sections depending on the time taken multiple video files,
Is selected as the image file of a large number division of a video file to be sorted by the previous SL sort function weights are taken into account when a plurality of the selected file to select the constant to the material of the consolidated image from the plurality of image files and setting function to set in such a way that Nikuku,
The Ru control program to be implemented by a computer in an information processing apparatus.
JP2018162672A 2018-08-31 2018-08-31 INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND CONTROL PROGRAM Active JP6550180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018162672A JP6550180B2 (en) 2018-08-31 2018-08-31 INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND CONTROL PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018162672A JP6550180B2 (en) 2018-08-31 2018-08-31 INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND CONTROL PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014158059A Division JP6397253B2 (en) 2014-08-01 2014-08-01 Information processing apparatus, control method for information processing apparatus, and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019120730A Division JP6757449B2 (en) 2019-06-28 2019-06-28 Information processing device, control method and control program of information processing device

Publications (2)

Publication Number Publication Date
JP2019013021A JP2019013021A (en) 2019-01-24
JP6550180B2 true JP6550180B2 (en) 2019-07-24

Family

ID=65228132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018162672A Active JP6550180B2 (en) 2018-08-31 2018-08-31 INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND CONTROL PROGRAM

Country Status (1)

Country Link
JP (1) JP6550180B2 (en)

Also Published As

Publication number Publication date
JP2019013021A (en) 2019-01-24

Similar Documents

Publication Publication Date Title
JP4577173B2 (en) Information processing apparatus and method, and program
CN105122789B (en) The digital platform of the editor of the synchronization of the video generated for user
EP2732383B1 (en) Methods and systems of providing visual content editing functions
CN102696223B (en) Multifunction multimedia device
US11580155B2 (en) Display device for displaying related digital images
US9148643B2 (en) Systems and methods for enchancing media with supplemental content
US20120208167A1 (en) Methods and systems for management of evaluation metrics and evaluation of persons performing a task based on multimedia captured and/or direct observations
JP2018060508A (en) System and method for managing message and creating document on device, message management program, and mobile device
WO2018005649A1 (en) Methods and systems for presentation of media collections with automated advertising
EP3055793A1 (en) Systems and methods for adding descriptive metadata to digital content
CN103988496A (en) Method and apparatus for creating composite video from multiple sources
CN103124968B (en) For the Content Transformation of back-tilting type amusement
JP2018060507A (en) System and method for managing message and creating document on device, message management program, and mobile device
JP7293338B2 (en) Video processing method, apparatus, device and computer program
CN103942275A (en) Video identification method and device
US20150324395A1 (en) Image organization by date
CN110781417A (en) Method and system for spreading speakable works based on two-dimension code
JP6757449B2 (en) Information processing device, control method and control program of information processing device
JP6397253B2 (en) Information processing apparatus, control method for information processing apparatus, and control program
JP6550180B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND CONTROL PROGRAM
US11290753B1 (en) Systems and methods for adaptive livestreaming
JP2008135045A (en) Information associating method
JP7154335B2 (en) Information processing device, information processing method, and information processing program
CN112218146A (en) Video content distribution method and device, server and medium
JP2020106988A (en) Method for notifying of distribution of public information, server device, and system for notifying of distribution of public information

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190628

R150 Certificate of patent or registration of utility model

Ref document number: 6550180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250