JP2012222450A - Similar video output method, similar video output apparatus and similar video output program - Google Patents
Similar video output method, similar video output apparatus and similar video output program Download PDFInfo
- Publication number
- JP2012222450A JP2012222450A JP2011083739A JP2011083739A JP2012222450A JP 2012222450 A JP2012222450 A JP 2012222450A JP 2011083739 A JP2011083739 A JP 2011083739A JP 2011083739 A JP2011083739 A JP 2011083739A JP 2012222450 A JP2012222450 A JP 2012222450A
- Authority
- JP
- Japan
- Prior art keywords
- video data
- video
- similar
- important scene
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、類似する映像データを出力する類似映像出力方法、類似映像出力装置および類似映像出力プログラムに関する。 The present invention relates to a similar video output method, a similar video output device, and a similar video output program for outputting similar video data.
昨今の情報処理装置の発達に伴い、映像データなどの電子コンテンツが膨大に増えている。例えば、IPTV(Internet Protocol TeleVision)や動画共有サイトにおいて、ユーザは、大量の映像データの中から、興味のある映像データを選択し、任意のタイミングでその選択した映像データを閲覧することが可能である。ユーザは例えば、所望の映像データのキーワードやジャンルを指定することによって、指定された条件に合致する映像データを閲覧することができる。このように、ユーザが所望する映像データのイメージが明確である場合、検索条件を指定し、検索された映像データから所望の映像データを探すことは容易である。 With the recent development of information processing apparatuses, electronic contents such as video data have increased enormously. For example, in an IPTV (Internet Protocol TeleVision) or video sharing site, a user can select video data of interest from a large amount of video data and browse the selected video data at an arbitrary timing. is there. For example, by specifying a keyword or genre of desired video data, the user can browse video data that matches the specified conditions. Thus, when the image of the video data desired by the user is clear, it is easy to specify the search condition and search for the desired video data from the searched video data.
しかし、ユーザが所望する映像のイメージが明確でない場合、ユーザは、適切な検索条件を指定することができない。従ってユーザは、検索条件を指定する方法では、所望の映像を探し出すことが困難となってしまう。また、所望の映像データを閲覧する都度、検索条件を指定する操作が必要になるため、ユーザが煩わしさを感じる場合もある。 However, if the image of the video desired by the user is not clear, the user cannot specify an appropriate search condition. Therefore, it is difficult for the user to find a desired video by the method of specifying the search condition. In addition, every time the desired video data is browsed, an operation for specifying the search condition is required, and the user may feel annoyed.
このような問題を解決するためのアプローチの一つとして、映像推薦技術がある。この映像推薦とは、ユーザがある映像に対して閲覧や評価をした際に、関連する別の映像を提示することにより、ユーザの映像発見を容易にするための手法である。 One approach for solving such problems is video recommendation technology. This video recommendation is a technique for facilitating the user's video discovery by presenting another related video when a user browses or evaluates a video.
この映像推薦のための手法は、主に、協調フィルタリングと内容ベースフィルタリングに大別される。 The video recommendation methods are mainly divided into collaborative filtering and content-based filtering.
協調フィルタリングは、映像に対するユーザの閲覧履歴や評価履歴を利用することにより、ユーザもしくは映像同士が似ているかを分析し、推薦する手法である。例えば、ユーザからの評価値のつけられ方が似ているアイテムを推薦する方法がある(例えば、非特許文献1参照)。
Collaborative filtering is a technique of analyzing and recommending whether users or videos are similar by using a user's browsing history or evaluation history for the video. For example, there is a method of recommending items that are similar in how evaluation values are given by users (see Non-Patent
この協調フィルタリングの推薦手法では、非特許文献1に挙げた技術のように、映像間の関連を分析するために視聴履歴を利用する。非特許文献1に記載の技術は、視聴や評価をした映像が共通するユーザを嗜好が似ているとみなし、嗜好が似たユーザが視聴した映像のうち、未視聴の映像を推薦する。
In this collaborative filtering recommendation method, the viewing history is used to analyze the relationship between videos, as in the technique described in Non-Patent
しかし、協調フィルタリングでは、ユーザの履歴を利用して推薦するという特性上、履歴の量が少ない場合には、視聴履歴の量が少ないため、映像を視聴したユーザが似ているかどうかを正確に分析できず、効果的な推薦を行うことができないという問題があった。例えば、サービスをあまり利用していない、もしくは、サービスに登録したばかりのユーザに推薦を行いたい場合や、埋もれていたり、サービスに新たに追加された映像を推薦の対象にしたい場合には、効果的な推薦を行うことができなかった。 However, in collaborative filtering, the recommendation is to use the user's history, so when the amount of history is small, the amount of viewing history is small, so it accurately analyzes whether the users who viewed the video are similar. There was a problem that it was impossible to make an effective recommendation. For example, if you do not use the service very much or want to recommend it to users who have just registered in the service, or if you want to recommend videos that are buried or newly added to the service I was unable to make a recommendation.
協調フィルタリングは、多くの視聴履歴を必要とするのに対し、内容ベースフィルタリングは、履歴の量が少ない場合でも、映像に付与されたメタデータや映像から抽出された映像特徴の情報に基づいて推薦を行うことができる。内容ベースフィルタリングによれば、サービスに登録したばかりの新規ユーザや埋もれている映像を対象にした推薦など、利用可能な履歴の量が少ない場合にも、映像を推薦することができる。これにより、サービスをより多くのユーザに利用してもらい、より多くの映像を視聴してもらうことができる。 Collaborative filtering requires a lot of viewing history, whereas content-based filtering recommends based on metadata attached to video and video feature information extracted from video even when the amount of history is small It can be performed. According to content-based filtering, a video can be recommended even when the amount of available history is small, such as a recommendation for a new user who has just registered in the service or a video that is buried. As a result, the service can be used by more users and more videos can be viewed.
内容ベースフィルタリングに関する研究としては、ユーザが高く評価したコンテンツに付与されている属性の出現頻度を計測し、出現頻度の高い属性が付与されているコンテンツを推薦する手法(特許文献1)がある。また、ユーザや映像に付与されたメタデータの情報を利用せず、映像特徴の分析に基づいて推薦する手法(例えば、非特許文献2)もある。 As a research on content-based filtering, there is a method (Patent Document 1) that measures the frequency of appearance of attributes assigned to content highly evaluated by the user and recommends content assigned attributes with high appearance frequency. In addition, there is a method (for example, Non-Patent Document 2) that recommends based on analysis of video features without using information on metadata provided to users or videos.
非特許文献2に挙げた技術は、映像の見た目と音の情報に基づいて映像の類似度を算出する。見た目の情報としては、色ヒストグラム、動きの激しさ、1秒あたりの平均ショット数を利用し、音の情報としては、音のテンポの平均値と分散を利用する。
The technique described in Non-Patent
内容ベースフィルタリングの推薦手法では、映像と内容やジャンルが共通した映像を推薦することが一般的である。 In a content-based filtering recommendation method, it is common to recommend a video having the same content and genre as the video.
しかし、映像を推薦する際、内容やジャンルが共通した映像を推薦するだけではなく、視聴者に与える印象が似ている映像を推薦することも重要である。例えば、明るい雰囲気の映像を視聴したユーザには、暗い雰囲気の映像ではなく、明るい雰囲気の映像を推薦した方が、ユーザが視聴する可能性が高い。 However, when recommending videos, it is important not only to recommend videos that share the same content and genre, but also to recommend videos that have similar impressions to viewers. For example, for a user who has viewed a bright atmosphere video, it is more likely that the user will view a video with a bright atmosphere rather than a dark atmosphere.
内容ベースフィルタリングにおいて、映像間の関連を分析するための方法として、映像に付されたメタデータを利用する方法と、映像特徴を解析する方法がある。 In content-based filtering, as a method for analyzing the relationship between videos, there are a method of using metadata attached to videos and a method of analyzing video features.
特許文献1の手法では、メタデータ中の属性やキーワードに基づいて、推薦する映像を決定する。そのため、メタデータ中に映像の印象に関する属性やキーワードが存在しない場合や、メタデータが全く付与されていない場合には、印象が似ている映像の推薦を行うことができなかった。
In the method of
また、非特許文献2に開示された映像間の関連を分析するために映像特徴を解析する技術では、映像全体を解析する。従って、視聴者の印象に残らないようなあまり重要でないシーンも類似度算出の対象となり、重要でないシーンの特徴は似ていても視聴者の映像に対する印象は似ていない映像を推薦してしまうという問題があった。また、この技術は、各特徴について、映像全体における平均値もしくは分散を類似度算出に利用するため、映像の前半に特徴が多く現れるといった、映像の時間軸に関する情報を比較することができないという問題があった。そのため、印象が似ている映像を、適切に推薦することができなかった。
Further, in the technique for analyzing video features for analyzing the relationship between videos disclosed in Non-Patent
従って本発明の目的は、印象が類似する映像データを出力する類似映像出力方法、類似映像出力装置および類似映像出力プログラムを提供することである。 Accordingly, an object of the present invention is to provide a similar video output method, a similar video output device, and a similar video output program for outputting video data having similar impressions.
上記課題を解決するため、本発明の第1の特徴は、類似する映像データを出力する類似映像出力方法に関する。すなわち本発明の第1の特徴に係る類似映像出力方法は、映像データ記憶部に記憶された複数の映像データのそれぞれについて、当該映像データを分割した区間毎の構造的特徴の出現する時間を構造的特徴量として算出し、構造的特徴量に基づいて、映像データ間の構造的特徴類似度を算出して、構造的特徴類似度データを出力する構造的特徴類似度算出ステップと、構造的特徴類似度データに基づいて、映像データ記憶部から、基準映像データに類似する映像データを抽出する類似映像決定ステップと、を備える。 In order to solve the above problems, a first feature of the present invention relates to a similar video output method for outputting similar video data. That is, the similar video output method according to the first feature of the present invention has a structure in which the appearance time of a structural feature for each section obtained by dividing the video data for each of a plurality of video data stored in the video data storage unit is structured. A structural feature similarity calculating step for calculating a structural feature similarity between video data based on the structural feature amount and outputting structural feature similarity data, and a structural feature A similar video determination step of extracting video data similar to the reference video data from the video data storage unit based on the similarity data.
ここで、構造的特徴は、区間における色、動き、音響特徴、カット割り、音楽区間、発話区間およびテロップ区間のうち、いずれか一つ以上である。 Here, the structural feature is any one or more of color, motion, acoustic feature, cut division, music segment, speech segment, and telop segment in the segment.
また、複数の映像データのそれぞれについて、当該映像データに含まれる重要シーンの特徴量を重要シーン特徴量として算出し、重要シーン特徴量に基づいて、映像データ間の重要シーン特徴類似度を算出して、重要シーン特徴類似度データを出力する重要シーン特徴類似度算出ステップをさらに備えても良い。この場合、類似映像決定ステップは、構造的特徴類似度データおよび重要シーン特徴類似度データに基づいて、映像データ記憶部から、基準映像データに類似する映像データを抽出する。 For each of a plurality of video data, the feature amount of the important scene included in the video data is calculated as the important scene feature amount, and the important scene feature similarity between the video data is calculated based on the important scene feature amount. An important scene feature similarity calculating step for outputting important scene feature similarity data may be further included. In this case, the similar video determination step extracts video data similar to the reference video data from the video data storage unit based on the structural feature similarity data and the important scene feature similarity data.
ここで、重要シーン特徴は、重要シーンの色、動き、音響特徴のいずれか一つ以上である。 Here, the important scene feature is at least one of the color, motion, and acoustic feature of the important scene.
本発明の第2の特徴は、類似する映像データを出力する類似映像出力方法に関する。本発明の第2の特徴に係る類似映像出力方法は、映像データ記憶部に記憶された複数の映像データのそれぞれについて、当該映像データに含まれる重要シーンの特徴量を重要シーン特徴量として算出し、重要シーン特徴量に基づいて、映像データ間の重要シーン特徴類似度を算出して、重要シーン特徴類似度データを出力する重要シーン特徴類似度算出ステップと、重要シーン特徴類似度データに基づいて、映像データ記憶部から、基準映像データに類似する映像データを抽出する類似映像決定ステップと、を備える。 The second feature of the present invention relates to a similar video output method for outputting similar video data. The similar video output method according to the second feature of the present invention calculates, for each of a plurality of video data stored in the video data storage unit, an important scene feature amount included in the video data as an important scene feature amount. Calculating an important scene feature similarity between video data based on the important scene feature amount, and outputting the important scene feature similarity data; and based on the important scene feature similarity data A similar video determination step of extracting video data similar to the reference video data from the video data storage unit.
本発明の第3の特徴は、類似する映像データを出力する類似映像出力装置に関する。本発明の第3の特徴に係る類似映像出力装置は、複数の映像データが記憶された映像データ記憶部と、複数の映像データのそれぞれについて、当該映像データを分割した区間毎の構造的特徴の出現する時間を構造的特徴量として算出し、構造的特徴量に基づいて、映像データ間の構造的特徴類似度を算出して、構造的特徴類似度データを出力する構造的特徴類似度算出手段と、構造的特徴類似度データに基づいて、映像データ記憶部から、基準映像データに類似する映像データを抽出する類似映像決定手段と、を備える。 A third feature of the present invention relates to a similar video output device that outputs similar video data. The similar video output device according to the third aspect of the present invention includes a video data storage unit storing a plurality of video data, and a structural feature for each section obtained by dividing the video data for each of the plurality of video data. Structural feature similarity calculating means for calculating the appearance time as a structural feature amount, calculating the structural feature similarity between video data based on the structural feature amount, and outputting the structural feature similarity data And similar video determination means for extracting video data similar to the reference video data from the video data storage unit based on the structural feature similarity data.
ここで、構造的特徴は、区間における色、動き、音響特徴、カット割り、音楽区間、発話区間およびテロップ区間のうち、いずれか一つ以上である。 Here, the structural feature is any one or more of color, motion, acoustic feature, cut division, music segment, speech segment, and telop segment in the segment.
また、複数の映像データのそれぞれについて、当該映像データに含まれる重要シーンの特徴量を重要シーン特徴量として算出し、重要シーン特徴量に基づいて、映像データ間の重要シーン特徴類似度を算出して、重要シーン特徴類似度データを出力する重要シーン特徴類似度算出手段をさらに備えても良い。この場合、類似映像決定手段は、構造的特徴類似度データおよび重要シーン特徴類似度データに基づいて、映像データ記憶部から、基準映像データに類似する映像データを抽出する。 For each of a plurality of video data, the feature amount of the important scene included in the video data is calculated as the important scene feature amount, and the important scene feature similarity between the video data is calculated based on the important scene feature amount. An important scene feature similarity calculating unit that outputs important scene feature similarity data may be further included. In this case, the similar video determining means extracts video data similar to the reference video data from the video data storage unit based on the structural feature similarity data and the important scene feature similarity data.
ここで、重要シーン特徴は、重要シーンの色、動き、音響特徴のいずれか一つ以上である。 Here, the important scene feature is at least one of the color, motion, and acoustic feature of the important scene.
本発明の第4の特徴は、類似する映像データを出力する類似映像出力装置に関する。本発明の第4の特徴に係る類似映像出力装置は、複数の映像データが記憶された映像データ記憶部と、複数の映像データのそれぞれについて、当該映像データに含まれる重要シーンの特徴量を重要シーン特徴量として算出し、重要シーン特徴量に基づいて、映像データ間の重要シーン特徴類似度を算出して、重要シーン特徴類似度データを出力する重要シーン特徴類似度算出手段と、重要シーン特徴類似度データに基づいて、映像データ記憶部から、基準映像データに類似する映像データを抽出する類似映像決定手段と、を備える。 A fourth feature of the present invention relates to a similar video output device that outputs similar video data. The similar video output device according to the fourth feature of the present invention provides a video data storage unit storing a plurality of video data and a feature amount of an important scene included in the video data for each of the plurality of video data. An important scene feature similarity calculating means for calculating an important scene feature similarity between video data based on the important scene feature quantity and outputting important scene feature similarity data; And a similar video determining means for extracting video data similar to the reference video data from the video data storage unit based on the similarity data.
本発明の第5の特徴は、コンピュータに、本発明の第1の特徴または第2の特徴に係る類似映像出力方法のステップを実行させるための類似映像出力プログラムである。 A fifth feature of the present invention is a similar video output program for causing a computer to execute the steps of the similar video output method according to the first feature or the second feature of the present invention.
本発明によれば、印象が類似する映像データを出力する類似映像出力方法、類似映像出力装置および類似映像出力プログラムを提供することができる。 According to the present invention, it is possible to provide a similar video output method, a similar video output device, and a similar video output program for outputting video data with similar impressions.
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.
(実施の形態)
本発明の実施の形態に係る類似映像出力方法は、印象が類似する映像データを出力する。
(Embodiment)
The similar video output method according to the embodiment of the present invention outputs video data with similar impressions.
実施の形態に係る類似映像出力方法は、映像特徴量を分析して、映像の構造的な特徴が似ているかどうか、もしくは、映像の重要シーンの特徴が似ているかどうかに基づいて、複数の推薦対象の映像データから、印象が類似する映像データを、ユーザに推薦する映像データとして出力する。本発明の実施の形態においては、構造的特徴類似度および重要シーン特徴類似度の両方に基づいて、類似する映像データを算出する場合を説明するが、このいずれかのみでも構わない。ユーザが基準映像データの情報を入力すると、類似映像出力方法は、この基準映像データに類似する映像データを、ユーザに推薦する映像データとして出力する。ユーザに出力する推薦する映像データは、一つでも良いし複数でも良い。実施の形態において、推薦する対象をユーザと表記するが、このユーザは一般ユーザであっても良いし、実施の形態に係る類似映像出力方法を利用するシステムであっても良い。 The similar video output method according to the embodiment analyzes a video feature amount, and based on whether the structural feature of the video is similar or whether the feature of the important scene of the video is similar, From the recommended video data, video data with a similar impression is output as video data recommended to the user. In the embodiment of the present invention, a case in which similar video data is calculated based on both the structural feature similarity and the important scene feature similarity will be described. When the user inputs information on the reference video data, the similar video output method outputs video data similar to the reference video data as video data recommended to the user. There may be one or more recommended video data to be output to the user. In the embodiment, a target to be recommended is described as a user, but this user may be a general user or a system using the similar video output method according to the embodiment.
図1を参照して、実施の形態に係る類似映像出力方法の処理の概要を説明する。まず、類似映像出力方法は、ステップS1において基準映像データが入力されると、ステップS2に進む。 With reference to FIG. 1, the outline of the process of the similar video output method according to the embodiment will be described. First, the similar video output method proceeds to step S2 when reference video data is input in step S1.
ステップS2において、構造的類似度算出処理が実行される。構造的類似度算出処理において、映像データを分割した各区間毎の構造的特徴の出現する時間を構造的特徴量として算出し、構造的特徴量に基づいて、映像データ間の構造的特徴類似度が算出される。ここで、構造的特徴は、映像データの区間における色、動き、音響特徴、カット割り、音楽区間、発話区間およびテロップ区間などである。映像を時間順に見ていったとき、ショットの切り替わった時点をカット位置といい、ショットとは、連続して撮影された一つの場面である。 In step S2, a structural similarity calculation process is executed. In the structural similarity calculation processing, the appearance time of the structural feature for each section obtained by dividing the video data is calculated as the structural feature amount, and the structural feature similarity between the video data is calculated based on the structural feature amount. Is calculated. Here, the structural features include color, movement, acoustic features, cut division, music section, speech section, and telop section in the section of video data. When viewing the video in chronological order, the point at which the shots are switched is called the cut position, and a shot is one scene shot continuously.
ステップS3において、映像類似度算出処理が実行される。映像類似度算出処理において、映像データに含まれる重要シーンの特徴量を重要シーン特徴量として算出し、重要シーン特徴量に基づいて、映像データ間の重要シーン特徴類似度が算出される。ここで重要シーン特徴は、重要シーンの色、動き、音響特徴のいずれか一つ以上である。 In step S3, a video similarity calculation process is executed. In the video similarity calculation process, the feature amount of the important scene included in the video data is calculated as the important scene feature amount, and the important scene feature similarity between the video data is calculated based on the important scene feature amount. Here, the important scene feature is at least one of the color, motion, and acoustic feature of the important scene.
ステップS4において類似映像データが決定される。ここでは、ステップS2で算出された構造的特徴類似度、およびステップS3で算出された重要シーン特徴類似度の少なくともいずれかの類似度から算出された映像データ間の類似度に基づいて、基準映像データに類似する映像データが特定される。 In step S4, similar video data is determined. Here, based on the structural feature similarity calculated in step S2 and the similarity between the video data calculated from at least one of the important scene feature similarity calculated in step S3, the reference video Video data similar to the data is specified.
ステップS5において、ステップS4で特定された類似する映像データの情報が出力される。例えば、類似映像出力装置1は、特定された類似する映像データのタイトル、説明、推薦スコアなどのリストを、出力する。
In step S5, information on the similar video data specified in step S4 is output. For example, the similar
(類似映像出力装置)
図1を参照して説明した実施の形態に係る類似映像出力方法は、図2に示す類似映像出力装置1によって実現される。類似映像出力装置1は、記憶装置10、中央処理制御装置20および表示装置30を備える一般的なコンピュータである。類似映像出力装置1は、所定の処理を実行するための類似映像出力プログラムが、一般的なコンピュータにインストールされることにより実装される。この類似映像出力装置1の各構成要素は、サーバ装置のAPI(Application Program Interface)などであって、クライアント端末がこのAPI通じて映像情報を提供するためのプログラムにより実現されても良い。
(Similar video output device)
The similar video output method according to the embodiment described with reference to FIG. 1 is realized by the similar
記憶装置10は、基準映像データ記憶部11、映像データ記憶部12、構造的特徴量データ記憶部13、構造的特徴類似度データ記憶部14、重要シーン特徴量データ記憶部15、重要シーン特徴類似度データ記憶部16、類似度データ記憶部17、類似映像リストデータ記憶部18および映像管理データ記憶部19が記憶される。また記憶装置10には、類似映像出力プログラムも記憶される。
The storage device 10 includes a reference video data storage unit 11, a video
基準映像データ記憶部11は、記憶装置10のうち、基準映像データ11aが記憶された記憶領域である。類似映像出力装置1は、基準映像データ11aに印象が類似する映像データを出力する。基準映像データ11aは、映像データそのものであっても良いし、例えば、後述する映像データ記憶部12に記憶された映像データの識別子であっても良い。
The reference video data storage unit 11 is a storage area in the storage device 10 in which the reference video data 11a is stored. The similar
映像データ記憶部12は、記憶装置10のうち、複数の映像データ12a、12b…が記憶された記憶領域である。
The video
構造的特徴量データ記憶部13は、記憶装置10のうち、構造的特徴量データ13aが記憶された記憶領域である。構造的特徴量データ13aは、構造的特徴類似度算出手段22によって生成され、参照される。
The structural feature value
構造的特徴量データ13aは、図3に示すように、映像識別子および映像中の区分識別子と、その映像および区分における構造的特徴識別子および構造的特徴量とを対応づけたデータである。ここで、構造的特徴識別子は、映像データの区間における色、動き、音響特徴、カット割り、音楽区間、発話区間およびテロップ区間などの、本発明の構造的特徴を模式的に示したものである。図3に示す例において、構造的特徴識別子”FEA001”が色の構造的特徴を示している場合、映像識別子”MOV001”の区分識別子”DIV001”で識別される映像データの区分において、色の構造的特徴が、”(0.0001,0.0002,・・・・)”のベクトルであることを示している。類似映像出力装置1は、これらの構造的特徴識別子と、構造的特徴の名称と、を対応づけたデータを記憶装置10に記憶しても良い。
As shown in FIG. 3, the structural feature amount data 13a is data in which a video identifier and a segment identifier in the video are associated with a structural feature identifier and a structural feature amount in the video and the segment. Here, the structural feature identifier schematically shows the structural features of the present invention such as color, motion, acoustic feature, cut division, music section, speech section, and telop section in the section of video data. . In the example shown in FIG. 3, when the structural feature identifier “FEA001” indicates the structural feature of the color, the color structure in the segment of the video data identified by the segment identifier “DIV001” of the video identifier “MOV001”. This indicates that the target feature is a vector of “(0.0001, 0.0002,...)”. The similar
構造的特徴類似度データ記憶部14は、記憶装置10のうち、構造的特徴類似度データ14aが記憶された記憶領域である。構造的特徴類似度データ14aは、任意の映像データ間の構造的特徴類似度を記憶する。構造的特徴類似度データ14aは、構造的特徴類似度算出手段22によって生成され、類似映像決定手段24によって参照される。
The structural feature similarity
構造的特徴類似度データ14aは、図4に示すように、第1の映像識別子と、第2の映像識別子と、これら第1および第2の映像識別子で特定される映像データ間の構造的特徴類似度と、が対応づけられたデータである。構造的特徴類似度は、図3を参照して説明した構造的特徴量データ13aから算出される。 As shown in FIG. 4, the structural feature similarity data 14a includes a first video identifier, a second video identifier, and a structural feature between the video data specified by the first and second video identifiers. It is data in which the similarity is associated with. The structural feature similarity is calculated from the structural feature data 13a described with reference to FIG.
重要シーン特徴量データ記憶部15は、記憶装置10のうち、重要シーン特徴量データ15aが記憶された記憶領域である。重要シーン特徴量データ15aは、重要シーン特徴類似度算出手段23によって生成され、参照される。
The important scene feature value
重要シーン特徴量データ15aは、図5に示すように、映像識別子および映像中の重要シーン識別子と、その映像および重要シーンにおける重要シーン特徴識別子および重要シーン特徴量とを対応づけたデータである。ここで、重要シーン特徴識別子は、重要シーンの色、動き、音響特徴などの重要シーン特徴の識別子である。例えば、重要シーンの色の特徴としてL*a*b*ヒストグラムが、重要シーンの動きの特徴としてオプティカルフローが、考えられる。類似映像出力装置1は、これらの重要シーン特徴識別子と、重要シーン特徴の名称と、を対応づけたデータを記憶装置10に記憶しても良い。
As shown in FIG. 5, the important scene feature data 15a is data in which a video identifier and an important scene identifier in the video are associated with an important scene feature identifier and an important scene feature in the video and the important scene. Here, the important scene feature identifier is an identifier of an important scene feature such as the color, motion, and acoustic feature of the important scene. For example, an L * a * b * histogram can be considered as the color feature of the important scene, and an optical flow can be considered as the feature of the important scene movement. The similar
重要シーン特徴類似度データ記憶部16は、記憶装置10のうち、重要シーン特徴類似度データ16aが記憶された記憶領域である。重要シーン特徴類似度データ16aは、任意の映像データ間の重要シーン特徴類似度を記憶する。重要シーン特徴類似度データ16aは、重要シーン特徴類似度算出手段23よって生成され、類似映像決定手段24によって参照される。
The important scene feature similarity
重要シーン特徴類似度データ16aは、図6に示すように、第1の映像識別子と、第2の映像識別子と、これら第1および第2の映像識別子で特定される映像データ間の重要シーン特徴類似度と、が対応づけられたデータである。重要シーン特徴類似度は、図5を参照して説明した重要シーン特徴量データ15aから算出される。 The important scene feature similarity data 16a includes, as shown in FIG. 6, important scene features between the first video identifier, the second video identifier, and the video data specified by the first and second video identifiers. It is data in which the similarity is associated with. The important scene feature similarity is calculated from the important scene feature data 15a described with reference to FIG.
類似度データ記憶部17は、記憶装置10のうち、類似度データ17aが記憶された記憶領域である。類似度データ記憶部17は、類似映像決定手段24によって生成され、参照される。
The similarity
類似度データ17aは、第1の映像識別子と、第2の映像識別子と、これら第1および第2の映像識別子で特定される映像データ間の類似度と、類似度に対応する推薦スコアが対応づけられたデータである。映像データ間の類似度は、図4を参照して説明した構造的特徴類似度データ14aの構造的特徴類似度と、図6を参照して説明した重要シーン特徴類似度データ16aの重要シーン特徴類似度と、に基づいて算出される。図7に示す例では、映像データ間の類似度は、0から1の値を採る。推薦スコアは、類似度に基づいて算出され、図7に示す例では、0から100の値を採る。実施の形態において、類似度および推薦スコアは高いほど映像データが類似していることを示し、類似映像データとして推薦され易いことを示している。 The similarity data 17a corresponds to the first video identifier, the second video identifier, the similarity between the video data specified by the first and second video identifiers, and the recommendation score corresponding to the similarity. It is attached data. The similarity between the video data is the structural feature similarity of the structural feature similarity data 14a described with reference to FIG. 4 and the important scene feature of the important scene feature similarity data 16a described with reference to FIG. It is calculated based on the similarity. In the example shown in FIG. 7, the similarity between video data takes values from 0 to 1. The recommendation score is calculated based on the similarity, and takes a value of 0 to 100 in the example shown in FIG. In the embodiment, the higher the similarity and the recommendation score, the more similar the video data is, and it is easy to recommend the similar video data.
類似映像リストデータ記憶部18は、記憶装置10のうち、類似映像リストデータ18aが記憶された記憶領域である。類似映像リストデータ18aは、類似映像決定手段24によって出力され、類似映像情報出力手段25によって参照される。
The similar video list
類似映像リストデータ18aは、基準映像データ11aに類似する映像として、ユーザに推薦する映像データの情報である。類似映像リストデータ18aは、推薦する映像データの識別子、タイトル、説明、推薦スコアなどが対応づけられたデータである。 The similar video list data 18a is information of video data recommended to the user as a video similar to the reference video data 11a. The similar video list data 18a is data in which identifiers, titles, descriptions, recommendation scores, and the like of video data to be recommended are associated.
映像管理データ記憶部19は、記憶装置10のうち映像管理データ19aが記憶された記憶領域である。映像管理データ19aは、図8に示すように、映像識別子、映像名称およびその映像データの説明が対応づけられたデータである。映像管理データ19aは、ユーザに推薦する映像データの情報を表示するために参照される。 The video management data storage unit 19 is a storage area in the storage device 10 in which video management data 19a is stored. As shown in FIG. 8, the video management data 19a is data in which a video identifier, a video name, and a description of the video data are associated with each other. The video management data 19a is referred to in order to display information of video data recommended for the user.
図2に示すように、類似映像出力装置1の中央処理制御装置20は、基準映像データ取得手段21、構造的特徴類似度算出手段22、重要シーン特徴類似度算出手段23、類似映像決定手段24および類似映像情報出力手段25を備える。
As shown in FIG. 2, the central
基準映像データ取得手段21は、基準映像データ11aを取得し、基準映像データ記憶部11に記憶する。類似映像出力装置1は、この基準映像データ11aに類似する映像データを検索する。基準映像データ11aは、映像データ記憶部12に記憶された映像データの識別子であっても良い。
The reference video data acquisition unit 21 acquires the reference video data 11 a and stores it in the reference video data storage unit 11. The similar
基準映像データ11aとして、映像データ記憶部12に記憶されていない映像データが入力された場合、入力された基準映像データ11aについて、後述する構造的特徴類似度算出手段22において、構造的特徴量が算出され、基準映像データ11aと、映像データ記憶部12の各映像データとの構造的特徴類似度が算出される。同様に、入力された基準映像データ11aについて、後述する重要シーン特徴類似度算出手段23において、重要シーン特徴量が算出され、基準映像データ11aと、映像データ記憶部12の各映像データとの重要シーン特徴類似度が算出される。さらに後述する類似映像決定手段24は、基準映像データ11aと、映像データ記憶部12の各映像データとの構造的特徴類似度と、基準映像データ11aと、映像データ記憶部12の各映像データとの重要シーン特徴類似度と、から基準映像データ11aと、映像データ記憶部12の各映像データとの類似度および推薦スコアを算出して、基準映像データ11aに類似する映像データの情報を出力する。
When video data that is not stored in the video
本発明の実施の形態においては、基準映像データ11aとして、映像データ記憶部12に記憶された映像データの識別子が指定された場合を説明する。また、後述する構造的特徴類似度算出手段22、重要シーン特徴類似度算出手段23および類似映像決定手段24において、映像データ記憶部12に記憶された全ての映像データ間の類似度等を算出する場合について説明する。
In the embodiment of the present invention, a case where an identifier of video data stored in the video
構造的特徴類似度算出手段22は、構造的特徴解析手段221および類似度算出手段222を備える。
The structural feature
構造的特徴解析手段221は、映像データ記憶部12に記憶された複数の映像データのそれぞれについて、構造的特徴量を算出する。構造的特徴解析手段221は、例えば時間の長さが均等になるように、映像データを複数の区間に分割し、各区間毎の構造的特徴の出現する時間を構造的特徴量として算出する。ここで構造的特徴解析手段221は、構造的特徴量として、色、動き、音響特徴、カット割り、音楽区間、発話区間およびテロップ区間の各構造的特徴の出現する時間を、各映像データおよび各区間について算出する。構造的特徴解析手段221は、映像識別子と、映像データ中の区間の識別子と、構造的特徴の識別子をキーとして、構造的特徴量を対応づけたレコードを、構造的特徴量データ13aに挿入する。
The structural feature analysis unit 221 calculates a structural feature amount for each of the plurality of video data stored in the video
類似度算出手段222は、構造的特徴量データ13aの構造的特徴量に基づいて、映像データ間の構造的特徴類似度を算出して、構造的特徴類似度データ14aを出力する。ここで類似度算出手段222は、各映像識別子について、この映像識別子関連づけられる複数の構造的特徴量を要素に持つ特徴ベクトルを算出する。類似度算出手段222は、映像データ間の類似度として、この特徴ベクトルの類似度を算出する。類似度算出手段222は、第1の映像識別子と、第2の映像識別子と、この第1の映像識別子の映像データとこの第2の映像識別子の映像データとの構造的特徴類似度と、を対応づけたレコードを、構造的特徴類似度データ14aに挿入する。 The similarity calculation means 222 calculates the structural feature similarity between the video data based on the structural feature quantity of the structural feature quantity data 13a, and outputs the structural feature similarity data 14a. Here, the similarity calculation unit 222 calculates, for each video identifier, a feature vector having a plurality of structural feature quantities associated with the video identifier as elements. The similarity calculation means 222 calculates the similarity of this feature vector as the similarity between video data. The similarity calculation means 222 calculates the first video identifier, the second video identifier, the structural feature similarity between the video data of the first video identifier and the video data of the second video identifier. The associated record is inserted into the structural feature similarity data 14a.
図9を参照して、構造的特徴類似度算出手段22による構造的特徴類似度算出処理を説明する。 With reference to FIG. 9, the structural feature similarity calculation processing by the structural feature similarity calculation means 22 will be described.
まず、映像データ記憶部12に記憶された各映像データについて、ステップS101ないしステップS103の処理を繰り返す。ステップS101において構造的特徴類似度算出手段22は、映像データを時間が均等となる複数の区分に分割する。
First, the processing from step S101 to step S103 is repeated for each video data stored in the video
この複数の区間のそれぞれについて、ステップS102およびステップS103の処理を繰り返す。構造的特徴類似度算出手段22は、各区間について、構造的特徴量を算出する。このとき構造的特徴類似度算出手段22は、各区間における色、動き、音響特徴、カット割り、音楽区間、発話区間およびテロップ区間の時間の長さを、構造的特徴量として算出し、ステップS103において、構造的特徴量データ13aに記録する。全ての区間について、ステップS102ないしステップS103の処理が終了すると、次の映像データについて、ステップS101ないしステップS103の処理を続ける。
The processing in step S102 and step S103 is repeated for each of the plurality of sections. The structural feature
全ての映像データについてステップS101ないしステップS103の処理が終了すると、構造的特徴類似度算出手段22は、ステップS104ないしステップS107において、各映像データ間の構造的特徴類似度を算出する。まずステップS104において構造的特徴類似度算出手段22は、任意の第1の映像データについて、構造的特徴量データ13aから各区間の構造的特徴量を取得する。ステップS105において構造的特徴類似度算出手段22は、第2の映像データについて、構造的特徴量データ13aから各区間の構造的特徴量を取得する。
When the processing of steps S101 to S103 is completed for all the video data, the structural feature
ステップS106において構造的特徴類似度算出手段22は、ステップS104で取得した第1の映像データの構造的特徴量と、ステップS105で取得した第2の映像データの構造的特徴量から、第1の映像データと第2の映像データとの類似度を算出する。さらにステップS107において構造的特徴類似度算出手段22は、第1の映像データの識別子と、第2の映像データの識別子と、ステップS106で算出した構造的特徴量に基づく構造的特徴類似度とを対応づけて、構造的特徴類似度データ14aに記録する。
In step S106, the structural feature
ここで、構造的特徴類似度算出手段22の処理を詳述する。本発明の実施の形態において、構造的特徴とは、映像データのカット割り、音楽区間、発話区間、テロップ区間などである。本発明の実施の形態において、これらの構造的特徴がそれぞれ映像データに現れる時間に基づいて、映像データの構造的特徴量が算出される。例えば、音楽区間の構造的特徴量とは、図10(a)に示すように、映像データにおける音楽区間の時間の長さや、音楽区間の位置の情報である。本発明の実施の形態において、このような構造的特徴の類似する映像データを推薦することができる。 Here, the processing of the structural feature similarity calculation means 22 will be described in detail. In the embodiment of the present invention, the structural features include a cut division of video data, a music section, a speech section, a telop section, and the like. In the embodiment of the present invention, the structural feature amount of the video data is calculated based on the time when these structural features appear in the video data. For example, as shown in FIG. 10A, the structural feature amount of the music section is information on the length of the music section and the position of the music section in the video data. In the embodiment of the present invention, video data having similar structural features can be recommended.
構造的特徴の抽出方法として、既存の処理方法を利用することができる。例えば、映像データからカット位置の検出方法として、特許第2869398号公報に記載の方法などが考えられる。音楽区間の抽出方法として、特許第4572218号公報に記載の方法などが考えられる。発話区間の抽出方法として、特許第3105465号公報に記載の方法などが考えられる。テロップ区間の抽出方法として、特許第3479592号公報に記載の方法などが考えられる。 An existing processing method can be used as a structural feature extraction method. For example, a method described in Japanese Patent No. 2869398 is conceivable as a method for detecting a cut position from video data. As a method for extracting a music section, a method described in Japanese Patent No. 4572218 can be considered. As a method for extracting an utterance section, a method described in Japanese Patent No. 3105465 can be considered. As a telop section extraction method, a method described in Japanese Patent No. 3479592 can be considered.
構造的特徴類似度算出手段22は、図10(b)に示すように、映像をいくつかの区間に分割し、それぞれの区間における構造的特徴量を分析し、特徴ベクトルを作成する。構造的特徴類似度算出手段22は、例えば、映像を時間が均等になるようにいくつかの区間に分割する。また、構造的特徴類似度算出手段22は、それぞれの区間の長さに対する構造的特徴が出現する区間の長さの割合を数値で表し、それらを要素とする特徴ベクトルを作成する。ここで、特徴量の絶対値ではなく、増減が重要である場合、構造的特徴類似度算出手段22は、特徴ベクトルを正規化してもよい。
As shown in FIG. 10B, the structural feature
ここで、映像データAの各区間の構造的特徴が出現する区間の長さの割合を要素とする特徴ベクトルをvAとし、映像データBの各区間の構造的特徴が出現する区間の長さの割合を要素とする特徴ベクトルをvBとする場合を考える。構造的特徴類似度算出手段22は、この特徴ベクトルvAおよび特徴ベクトルvBの類似度を算出することにより、特徴ベクトルvAおよび特徴ベクトルvBの類似度S(vA,vB)を算出する。
Here, a feature vector whose element is a ratio of the length of the section in which the structural feature of each section of the video data A appears is v A, and the length of the section in which the structural feature of each section of the video data B appears. consider the case of a feature vector for the ratio between the element and v B. Structural features
ここで構造的特徴の特徴ベクトルの類似度の算出において、任意の尺度が利用される。例えば、特徴ベクトルの類似度尺度としてコサイン類似度を利用すると、S(vA,vB)は式(1)で与えられる。
ここで、vi Aは、vAのi次元目の値を示し、vi Bは、vBのi次元目の値を示す。nは、特徴ベクトルの次元数である。 Here, v i A represents the i-th value of v A , and v i B represents the i-th value of v B. n is the number of dimensions of the feature vector.
ここで、構造的特徴の抽出方法や使用する構造的特徴量が、Ns(>0)個存在する場合、構造的特徴類似度算出手段22は、それぞれについて、映像データAと映像データBとの類似度S(vA,vB)を求める。構造的特徴類似度算出手段22は、それぞれについて求められたS(vA,vB)に基づいて、構造的特徴に基づく類似度SABを、類似度SAB={Si A,B|i=1〜Ns}とする。
Here, when there are N s (> 0) structural feature extraction methods and structural feature amounts to be used, the structural feature
構造的特徴類似度算出手段22は、このように算出された類似度SABを、映像データAの識別子および映像データBの識別子に関連づけたレコードを生成し、構造的特徴類似度データ14aに挿入して記憶する。 The structural feature similarity calculating means 22 generates a record in which the similarity S AB calculated in this way is associated with the identifier of the video data A and the identifier of the video data B, and inserts it into the structural feature similarity data 14a. And remember.
次に、重要シーン特徴類似度算出手段23を説明する。重要シーン特徴類似度算出手段23は、重要シーン抽出手段231、映像特徴解析手段232および類似度算出手段233を備える。
Next, the important scene feature
重要シーン抽出手段231は、映像データ記憶部12に記憶された複数の映像データのそれぞれから、重要シーンを抽出する。重要シーンの抽出方法としては、ダイジェスト作成方法など既存の処理方法を用いることができる。本発明の実施の形態においては、一つの映像データから複数の重要シーンが抽出されても良い。
The important scene extraction unit 231 extracts an important scene from each of the plurality of video data stored in the video
映像特徴解析手段232は、映像データ記憶部12に記憶された複数の映像データのそれぞれの重要シーンについて、当該映像データに含まれる重要シーンの特徴量を重要シーン特徴量として算出する。ここで、映像特徴解析手段232は、重要シーン特徴量として、重要シーンの色、動き、音響特徴のいずれか一つ以上を、各映像データの各重要シーンについて算出する。映像特徴解析手段232は、各重要シーンの中間点におけるフレーム画像に基づいて、各重要シーン特徴量を算出しても良い。例えば映像特徴解析手段232は、この中間点におけるフレーム画像の色ヒストグラムを、重要シーンの色の特徴量として算出する。映像特徴解析手段232は、映像識別子と、映像データ中の重要シーンの識別子と、重要シーン特徴の識別子をキーとして、重要シーン特徴量を対応づけたレコードを、重要シーン特徴量データ15aに挿入する。
For each important scene of the plurality of video data stored in the video
類似度算出手段233は、重要シーン特徴量データ15aの重要シーン特徴量に基づいて、映像データ間の重要シーン特徴類似度を算出して、重要シーン特徴類似度データ16aを出力する。ここで類似度算出手段233は、各映像識別子について、この映像識別子関連づけられる複数の重要シーン特徴量を要素に持つ特徴ベクトルを算出する。類似度算出手段233は、映像データ間の類似度として、この特徴ベクトルの類似度を算出する。類似度算出手段233は、第1の映像識別子と、第2の映像識別子と、この第1の映像識別子の映像データとこの第2の映像識別子の映像データとの重要シーン特徴類似度と、を対応づけたレコードを、重要シーン特徴類似度データ16aに挿入する。 The similarity calculation means 233 calculates the important scene feature similarity between the video data based on the important scene feature quantity of the important scene feature quantity data 15a, and outputs the important scene feature similarity data 16a. Here, the similarity calculation means 233 calculates, for each video identifier, a feature vector having a plurality of important scene feature quantities associated with the video identifier as elements. The similarity calculation means 233 calculates the similarity of this feature vector as the similarity between video data. The similarity calculating means 233 calculates the first video identifier, the second video identifier, the important scene feature similarity between the video data of the first video identifier and the video data of the second video identifier. The associated record is inserted into the important scene feature similarity data 16a.
図9を参照して、重要シーン特徴類似度算出手段23による重要シーン特徴類似度算出処理を説明する。
With reference to FIG. 9, the important scene feature similarity calculating process by the important scene feature
まず、映像データ記憶部12に記憶された各映像データについて、ステップS201ないしステップS203の処理を繰り返す。ステップS201において重要シーン特徴類似度算出手段23は、各映像データから、重要シーンを抽出する。ここで一つの映像データから抽出する重要シーンは、一つでも良いし複数でも良い。
First, the processing from step S201 to step S203 is repeated for each video data stored in the video
この重要シーンのそれぞれについて、ステップS202およびステップS203の処理を繰り返す。重要シーン特徴類似度算出手段23は、各重要シーンについて、重要シーン特徴量を算出する。このとき重要シーン特徴類似度算出手段23は、各重要シーンの中間のフレームの重要シーンの色、動き、音響特徴のいずれか一つ以上を、重要シーン特徴量として算出し、ステップS203において、重要シーン特徴量データ15aに記録する。全ての重要シーンについて、ステップS202ないしステップS203の処理が終了すると、次の映像データについて、ステップS201ないしステップS203の処理を続ける。
The process of step S202 and step S203 is repeated for each important scene. The important scene feature
全ての映像データについてステップS201ないしステップS203の処理が終了すると、重要シーン特徴類似度算出手段23は、ステップS204ないしステップS207において、各映像データ間の重要シーン特徴類似度を算出する。まずステップS204において重要シーン特徴類似度算出手段23は、任意の第1の映像データについて、重要シーン特徴量データ15aから各重要シーンの重要シーン特徴量を取得する。ステップS205において重要シーン特徴類似度算出手段23は、第2の映像データについて、重要シーン特徴量データ15aから各重要シーンの重要シーン特徴量を取得する。
When the processing from step S201 to step S203 is completed for all the video data, the important scene feature
ステップS206において重要シーン特徴類似度算出手段23は、ステップS204で取得した第1の映像データの重要シーン特徴量と、ステップS205で取得した第2の映像データの重要シーン特徴量から、第1の映像データと第2の映像データとの類似度を算出する。さらにステップS207において重要シーン特徴類似度算出手段23は、第1の映像データの識別子と、第2の映像データの識別子と、ステップS206で算出した重要シーン特徴量に基づく重要シーン特徴類似度とを対応づけて、重要シーン特徴類似度データ16aに記録する。
In step S206, the important scene feature
ここで、重要シーン特徴類似度算出手段23の処理を詳述する。重要シーン抽出手段231が映像データから重要シーンを抽出する方法として、既存の処理方法を利用することができる。例えば、特許第4358723号公報に記載のダイジェスト映像作成方法などが考えられる。ダイジェスト映像作成技術により、映像データのダイジェストを作成することができるため、ダイジェストとして選択された区間を、映像データの重要シーンとしてみなすことができる。 Here, the processing of the important scene feature similarity calculating means 23 will be described in detail. An existing processing method can be used as a method by which the important scene extracting unit 231 extracts an important scene from video data. For example, a digest video creation method described in Japanese Patent No. 4358723 may be considered. Since the digest of the video data can be created by the digest video creation technique, the section selected as the digest can be regarded as an important scene of the video data.
重要シーン特徴類似度算出手段23は、図12(a)に示すように、重要シーン抽出手段231で抽出された重要シーンについて、図12(b)に示すように、映像データの重要シーン特徴を解析する。重要シーン特徴類似度算出手段23は、重要シーン特徴量として、色、動き、音響特徴などを利用することができる。
As shown in FIG. 12A, the important scene feature
重要シーン特徴量の類似度算出には、任意の尺度が利用される。例えば、重要シーン特徴量として色ヒストグラムを利用する場合、重要シーン特徴類似度算出手段23は、図12に示すように、映像データの中からいくつかの重要シーンを抽出し、それぞれのシーンの中間点におけるフレームを抽出する。重要シーン特徴類似度算出手段23は、そのフレームの色ヒストグラムを作成し、特徴ベクトルとして表現する。ここで、ヒストグラムの次元間の距離は、利用する表色空間における距離を用いる。
An arbitrary scale is used for calculating the similarity of the important scene feature quantity. For example, when a color histogram is used as the important scene feature quantity, the important scene feature
ここで、映像データAの各重要シーンから抽出した特徴量をvA、映像Bの各重要シーンから抽出した特徴量をvBとする。vAとvBの類似度I(vA,vB)は、例えば、式(2)によって算出される。
重要シーン特徴類似度算出手段23は、図10(b)に示すように、映像データAに含まれる各重要シーンA1、A2、…と、映像データB1、B2…に含まれる各シーンの類似度を算出する。類似度が高い重要シーンが存在するほど、I(vA,vB)の値は大きくなる。ここで、NAは、映像データAから抽出された重要シーンの数であり、NBは、映像データBから抽出された重要シーンの数である。vi Aは映像データAのi番目の重要シーン、vj Bは映像データBのj番目の重要シーンである。また、D(vi A,vj B)は、重要シーンvi Aと重要シーンvj Bの類似度である。 The important scene feature similarity calculating means 23, as shown in FIG. 10B, includes each important scene A 1 , A 2 ,... Included in the video data A and each video data B 1 , B 2 . Calculate the similarity of the scene. The value of I (v A , v B ) increases as there is an important scene with a high degree of similarity. Here, N A is the number of important scene extracted from the video data A, N B is the number of important scene extracted from the video data B. v i A is the i-th important scene of the video data A, and v j B is the j-th important scene of the video data B. D (v i A , v j B ) is the similarity between the important scene v i A and the important scene v j B.
ここで、Earth Mover’s Distance(Y. Rubner, C. Tomasi, and L. Guibas. "The earth mover’s distance as a metric for image retrieval," International Journal of Computer Vision Vol. 40, No. 2, pp. 99-121, 2000.)を利用する。vi Aとvj BのEarth Mover’s Distanceを、E(vi A,vj B)とすると、D(vi A,vj B)は、式(3)によって算出される。
他の方法として、重要シーン特徴類似度算出手段23は、映像データAの特徴ベクトルをvA、映像データBの特徴ベクトルをvBとおいたとき、vAとvBのコサイン類似度を算出することによって、重要シーンAiと重要シーンBjの類似度D(vi A,vj B)を算出することができる。この類似度D(vi A,vj B)は、式(4)によって表される。
ここで、vi Aは、映像データAの特徴ベクトルのi次元目の値で、vi Bは、映像データBの特徴ベクトルのi次元目の値である。nは、特徴ベクトルの次元数である。 Here, v i A is the i-th value of the feature vector of the video data A, and v i B is the i-th value of the feature vector of the video data B. n is the number of dimensions of the feature vector.
ここで、重要シーンの抽出方法や使用する重要シーン特徴量が、NI(>0)個存在する場合、重要シーン特徴類似度算出手段23は、それぞれについて、映像データAの重要シーンと映像データBの重要シーンの類似度I(vA,vB)の値を求める。重要シーン特徴類似度算出手段23は、それぞれについて求められたI(vA,vB)に基づいて、重要シーン特徴に基づく類似度IABを、類似度IAB={Ii A,B|i=1〜NI}とする。
Here, when there are N I (> 0) important scene extraction methods and important scene feature quantities to be used, the important scene feature
重要シーン特徴類似度算出手段23は、このように算出された類似度IABを、映像データAの識別子および映像データBの識別子に関連づけたレコードを生成し、重要シーン特徴類似度データ16aに挿入して記憶する。
The important scene feature
次に、類似映像決定手段24を説明する。類似映像決定手段24は、構造的特徴類似度データ14aおよび重要シーン特徴類似度データ16aに基づいて、映像データ記憶部12から、基準映像データ11aに類似する映像データを抽出する。
Next, the similar
類似映像決定手段24は、構造的特徴および重要シーン特徴のうち、いずれか一方のみを用いて、基準映像データ11aに類似する映像データを抽出しても良い。例えば、構造的特徴のみに基づいて類似する映像データを抽出する際、類似映像決定手段24は、構造的特徴類似度データ14aに基づいて、構造的特徴類似度を映像データ間の類似度に設定する。重要シーン特徴のみに基づいて類似する映像データを抽出する際、類似映像決定手段24は、重要シーン特徴類似度データ16aに基づいて、重要シーン特徴類似度を映像データ間の類似度に設定する。
The similar
構造的特徴類似度データ14aおよび重要シーン特徴類似度データ16aの両方に基づいて基準映像データ11aに類似する映像データを抽出する際、それぞれを重み付けして評価し、類似する映像データを抽出しても良い。この重みは、予めユーザなどにより指定されても良いし、管理者などによりデフォルトの重みが指定されても良い。 When video data similar to the reference video data 11a is extracted based on both the structural feature similarity data 14a and the important scene feature similarity data 16a, each is weighted and evaluated, and similar video data is extracted. Also good. This weight may be designated in advance by a user or the like, or a default weight may be designated by an administrator or the like.
類似映像決定手段24は、映像データ間の類似度が算出されると、この類似度に基づいて、基準映像データ11aに対する各映像データの推薦スコアを算出する。この推薦スコアは、類似度が高いほど高くなり、優先的に推薦されることを示す。類似映像決定手段24は、この推薦スコアに基づいて、基準映像データ11aに類似する映像データを抽出する。ここで類似映像決定手段24が抽出する映像データは、映像データそのものでなくても、映像データの識別子のみでも良い。類似映像決定手段24は、類似度の高い所定数の映像データを抽出してもよいし、所定の類似度以上の映像データを抽出しても良い。
When the similarity between the video data is calculated, the similar
類似映像決定手段24は、類似度の高い映像データを推薦する映像データとして、これらの映像データの識別子を含む類似映像リストデータ18aを生成し、類似映像リストデータ記憶部18に記憶する。この類似映像リストデータ18aにおいて、ユーザに推薦の度合いを示すため、推薦対象の映像データの識別子に、その推薦スコアが対応づけられても良い。
The similar video determination means 24 generates similar video list data 18a including identifiers of these video data as video data for recommending video data having a high similarity, and stores the similar video list data 18a in the similar video list
図13を参照して、類似映像決定手段24による類似映像決定処理を説明する。 With reference to FIG. 13, the similar video determination process by the similar video determination means 24 will be described.
類似映像決定手段24は、映像データ記憶部12に記憶された任意の2つの映像データについて、ステップS301ないしステップS305の処理を繰り返す。
The similar
まずステップS301において類似映像決定手段24は、構造的特徴類似度データ14aから第1の映像データおよび第2の映像データ間の構造的特徴類似度を取得する。同様にステップS302において類似映像決定手段24は、重要シーン特徴類似度データ16aから第1の映像データおよび第2の映像データ間の重要シーン特徴類似度を取得する。
First, in step S301, the similar video determination means 24 acquires the structural feature similarity between the first video data and the second video data from the structural feature similarity data 14a. Similarly, in step S302, the similar
ステップS303において類似映像決定手段24は、ステップS301およびステップS302で取得した、第1の映像データおよび第2の映像データ間の構造的特徴類似度および重要シーン特徴類似度に基づいて、第1の映像データおよび第2の映像データ間の類似度を算出する。このとき類似映像決定手段24は、構造的特徴類似度および重要シーン特徴類似度をそれぞれ重み付けして、第1の映像データおよび第2の映像データ間の類似度を算出する。
In step S303, the similar
ステップS304において類似映像決定手段24は、第1の映像データの識別子と、第2の映像データの識別子と、第1の映像データおよび第2の映像データ間の類似度と、を対応づけたレコードを、類似度データ17aに挿入する。
In step S304, the similar
ステップS305において類似映像決定手段24は、類似度データ17aを参照して、基準映像データ11aとの類似度が高い映像データの識別子を、推薦する映像データの識別子として取得する。さらに類似映像決定手段24は、取得した推薦する映像データの識別子を含む類似映像リストデータ18aを生成し、記憶装置10に記憶する。
In step S305, the similar
ここで、類似映像決定手段24の処理を詳述する。類似映像決定手段24は、映像データAと映像データBの類似度について、構造的特徴に基づいて算出された類似度SABと、重要シーン特徴に基づいて算出された類似度IABとから、映像データAを視聴したユーザに対する映像データBの推薦スコアR(A,B)を算出する。 Here, the processing of the similar video determination means 24 will be described in detail. The similar video determination means 24 calculates the similarity between the video data A and the video data B from the similarity S AB calculated based on the structural feature and the similarity I AB calculated based on the important scene feature. A recommendation score R (A, B) of video data B for a user who has watched video data A is calculated.
推薦スコアR(A,B)は、構造的特徴に基づく構造的特徴類似度の値が大きい場合、もしくは、重要シーンに基づく重要シーン特徴類似度の値が大きい場合、推薦スコアR(A,B)の値も大きくなるように算出される。 The recommendation score R (A, B) is a recommendation score R (A, B) when the value of the structural feature similarity based on the structural feature is large or when the value of the important scene feature similarity based on the important scene is large. ) Is also calculated to be large.
例えば、SABの各要素とIABの各要素の重み付き線形和により推薦スコアを算出する場合、R(A,B)は、式(5)で与えられる。
ここで、ただし、kp IはIp A,Bの重み、kq SはSq A,Bの重みである。映像データに含まれる重要シーン特徴を重視して推薦スコアを算出したい場合、kp Iの値は大きく設定される。映像データの演出を重視して推薦スコアを算出したい場合、Ip A,Bの値は大きく設定される。 Here, k p I is the weight of I p A, B , and k q S is the weight of S q A, B. When it is desired to calculate the recommendation score with emphasis on the important scene feature included in the video data, the value of k p I is set large. When the recommendation score is to be calculated with emphasis on the presentation of video data, the values of I p A, B are set large.
重要シーンに基づいて算出した映像データAと映像データBの類似度IAB、および、構造的特徴に基づいて算出した映像データAと映像データBの類似度SABのうち、どちらか片方のみを利用して、映像データAおよび映像データBの類似度R(A,B)が算出されても良い。重要シーンに基づいて算出した映像データAと映像データBの類似度IABのみ用いて類似度R(A,B)を算出する場合、類似度R(A,B)は、式(6)で与えられる。構造的特徴に基づいて算出した映像データAと映像データBの類似度SABのみ用いて類似度R(A,B)を算出する場合、類似度R(A,B)は、式(7)で与えられる。
重みkp IおよびIp A,Bは、基準映像データ11aや映像データ記憶部12に記憶された映像データの種類によって適宜設定されても良い。例えば、ホームビデオなど、編集があまりされていない映像データの場合、重要シーンに基づいて算出した類似度を用いるのがよい。また、重要シーンの抽出が困難な映像を対象に推薦する場合には、構造的特徴に基づいて算出した類似度を用いるのがよい。それ以外の場合には、重要シーンに基づいて算出した類似度と構造的特徴に基づいて算出した類似度の両方を用いるのがよい。
The weights k p I and I p A, B may be set as appropriate depending on the types of video data stored in the reference video data 11a and the video
類似映像決定手段24は、類似度R(A,B)から推薦スコアを算出する。例えば、類似度R(A,B)を100分率表記に換算したものが、推薦スコアとして出力されても良い。ユーザに推薦度をわかりやすく知らせるため、推薦スコアは記号などで表記されても良い。例えば類似映像決定手段24は、類似度が高く推薦スコアが高い場合、推薦スコアを「★★★」などと表記し、類似度が比較的低く推薦スコアが低い場合、推薦スコアを「★」などと表記しても良い。
The similar video determination means 24 calculates a recommendation score from the similarity R (A, B). For example, a value obtained by converting the similarity R (A, B) into a 100% notation may be output as the recommendation score. In order to inform the user of the recommendation level in an easy-to-understand manner, the recommendation score may be written with a symbol or the like. For example, when the similarity is high and the recommendation score is high, the similar
類似映像決定手段24は、ユーザが映像データAにアクセスしたとき、映像データ記憶部12の任意の映像データXのうち、R(A,B)の値が大きい映像データから順に所定数の映像データについて類似映像リストデータ18aを作成する。
When the user accesses the video data A, the similar
次に、類似映像情報出力手段25を説明する。類似映像情報出力手段25は、記憶装置10から類似映像リストデータ18aおよび映像管理データ19aを読み出し、推薦する映像データの識別子に基づいて、これらの映像データのタイトルや内容などの情報を取得する。類似映像決定手段24は、推薦する映像データの識別子と、これらのタイトルなどを対応づけて、出力する。図2に参照する例では、類似映像出力装置1の表示装置30に表示する場合を説明するが、これに限られない。類似映像情報出力手段25は例えば、通信制御装置(図示せず)および通信ネットワークを介して、他のコンピュータの表示装置に表示しても良い。
Next, the similar video information output means 25 will be described. The similar video information output means 25 reads the similar video list data 18a and the video management data 19a from the storage device 10, and acquires information such as the title and content of these video data based on the identifier of the recommended video data. The similar video determination means 24 associates the identifier of video data to be recommended with these titles and outputs them. In the example referred to in FIG. 2, the case where the image is displayed on the display device 30 of the similar
ここで、構造的特徴類似度算出手段22および重要シーン特徴類似度算出手段23の各処理は、基準映像データ取得手段21によって基準映像データ11aが入力された際に実行されても良いし、予め実行されていても良い。例えば、構造的特徴類似度算出手段22によって構造的特徴類似度データ14aが、重要シーン特徴類似度算出手段23によって重要シーン特徴類似度データ16aが、それぞれ予め算出されていれば、類似映像決定手段24は、容易に類似度データ17aおよび類似映像リストデータ18aを生成することができる。さらに、類似映像決定手段24によって、類似度データ17aも予め算出されていても良い。この様に予め類似度データなどを算出することにより、類似映像情報の出力に要する処理時間を短縮することができる。
Here, each process of the structural feature
このように本発明の実施の形態に係る類似映像出力装置1によれば、映像データの構造的特徴に基づく類似度と、重要シーン特徴に基づく類似度によって、類似する映像データを特定することができる。
As described above, according to the similar
構造的特徴に基づく類似度は、映像データの演出に関する特徴の類似度である。カット割りや音楽区間など、映像の演出に関係する特徴を抽出し、各特徴が映像の前半や後半など、時間軸におけるどの位置に多く出現するかを分析することによって、構造的特徴に基づく類似度が算出される。 The similarity based on the structural feature is the similarity of the feature related to the presentation of the video data. Similarities based on structural features are extracted by extracting features related to the production of the video, such as cut splits and music sections, and analyzing where each feature appears in the time axis, such as the first half or the second half of the video. The degree is calculated.
重要シーン特徴に基づく類似度は、視聴者の印象に残りやすいシーンに関する特徴の類似度である。視聴者の印象に残りやすいような重要シーンのみに限定して色などの特徴を分析することにより、重要シーン特徴に基づく類似度が算出される。 The similarity based on the important scene feature is a feature similarity related to a scene that tends to remain in the viewer's impression. The similarity based on the important scene feature is calculated by analyzing features such as color only for the important scene that tends to remain in the viewer's impression.
一般的に、映像データの演出に関する特徴や、重要シーンにおける特徴が類似する映像は、視聴者の映像データに対する印象も類似すると考えられる。そこで本発明の実施の形態に係る類似映像出力装置1は、各映像データについて、映像データの演出に関する構造的特徴量や、重要シーンにおける重要シーン特徴量を算出し、これらの特徴量が基準映像データ11aと類似する映像データを、推薦映像データとして出力する。これにより、本発明の実施の形態に係る類似映像出力装置1は、基準映像データ11aに視聴者の映像データに対する印象が類似する映像データを推薦することができる。
In general, it is considered that a video having similar characteristics regarding the presentation of video data or a characteristic in an important scene has a similar impression on the video data of the viewer. Therefore, the similar
構造的特徴類似度算出手段22は、映像データから演出に関する構造的特徴を抽出し、各特徴が映像データの時間軸におけるどの位置でどのくらいの頻度で出現するかを分析して、構造的特徴類似度を算出する。このような構造的特徴類似度により、構造的特徴が映像データの前半部分に多く現れるのか、後半部分に多く現れるのか、あるいは、全体を通してまんべんなく現れるのかなどの情報に基づいて、映像データの類似度が算出される。映画などの映像データでは、緊迫感を与えるため、カット数を増やすといった演出がなされる。そのため、演出に関する特徴が似ている映像データは、視聴者に与える印象も似ていると考えられ、類似映像出力装置1は、構造的特徴類似度により、視聴者に与える印象の似ている映像データを推薦できる。
The structural feature similarity calculating means 22 extracts structural features related to performance from the video data, analyzes how often each feature appears on the time axis of the video data, and analyzes the structural feature similarity. Calculate the degree. Based on such structural feature similarity, the degree of similarity of video data based on information such as whether structural features often appear in the first half, the second half, or evenly throughout. Is calculated. In video data such as movies, an effect of increasing the number of cuts is given to give a sense of urgency. For this reason, it is considered that video data having similar characteristics related to presentations also have similar impressions to viewers, and the similar
また、構造的特徴類似度算出手段22は、映像データをいくつかの区間に分割し、各区間におけるカット割りや音楽区間などの構造的特徴量の出現頻度を要素とする特徴ベクトルの類似度を算出する。これにより、緊迫感などの印象を与えるためにカットの頻度を増減するといった、演出に関する情報を分析し、構造的特徴類に基づいた映像データの類似度を算出することができる。 Further, the structural feature similarity calculating means 22 divides the video data into several sections, and calculates the similarity of the feature vectors whose elements are the appearance frequency of the structural features such as cut division and music sections in each section. calculate. This makes it possible to analyze information related to performance such as increasing or decreasing the frequency of cuts to give an impression such as a sense of urgency, and to calculate the similarity of video data based on structural features.
重要シーン特徴類似度算出手段23は、映像データの中で、視聴者の印象に残りやすいような重要シーンの特徴に基づいて、映像データの類似度を算出する。重要シーンの特徴として利用する特徴は、色、動き、音響特徴などがある。これにより、類似映像出力装置1は、映像データが視聴者に与える印象の似ている映像データを推薦することができる。
The important scene feature
例えば、ホラー映画には、明るいシーンもあれば暗いシーンもあるが、ホラー映画において、印象に残りやすい重要なシーンでは暗いシーンが一般的と考えられる。そこで重要シーン特徴類似度算出手段23が、重要シーンに限定して特徴を分析することにより、類似映像出力装置1は、例えば、「重要シーンに暗いシーンが多い」という観点で似ている映像データを発見できる。視聴者の印象に残りやすいシーンの特徴が似ている場合、映像データが視聴者に与える印象も似ていると考えられ、類似映像出力装置1は、重要シーン特徴類似度により、視聴者に与える印象の似ている映像を推薦できる。
For example, in a horror movie, there are a bright scene and a dark scene, but in a horror movie, a dark scene is generally considered as an important scene that tends to remain in an impression. Therefore, the important scene feature
さらに、重要シーン特徴類似度算出手段23は、重要シーンに限定して特徴を分析し、類似度を算出する。これにより、映像全体の類似度を算出する場合に比べ、解析対象のシーンが少なくなるため、重要シーン特徴類似度算出手段23は、類似度算出にかかる計算処理量を削減することができる。
Further, the important scene feature similarity calculating means 23 analyzes the features limited to the important scenes and calculates the similarity. As a result, since the number of scenes to be analyzed is reduced as compared with the case of calculating the similarity of the entire video, the important scene feature
このように本発明の実施の形態に係る類似映像出力装置1は、映像データの構造的特徴、または、映像データの重要シーンの特徴、あるいはその両方を分析することにより、映像データの印象の類似度を算出できる。これにより、本発明の実施の形態に係る類似映像出力装置1は、基準映像データ11aと印象の似た映像データを推薦することができる。
As described above, the similar
(変形例)
本発明の実施の形態においては、基準映像データが一つの場合について説明したが、変形例においては、複数の基準映像データが指定された場合を説明する。
(Modification)
In the embodiment of the present invention, the case where there is one reference video data has been described. However, in the modification, a case where a plurality of reference video data is designated will be described.
変形例において、類似映像出力装置1の類似映像決定手段24aは、入力された複数の基準映像データが入力されると、これらの複数の基準映像データについての類似度を合計することにより、推薦する映像を決定することができる。
In the modification, the similar video determining unit 24a of the similar
例えば、入力としてNA件の映像集合A={Ai|i=1〜NA}が与えられると、式8に示したR’(A,B)を、式6および式7のR(A,B)の代わりに利用する。これにより類似映像決定手段24aは、変形例に係る類似映像リストデータ18bを生成することができる。
このように、本発明の変形例においては、複数の基準映像データについても、構造的特徴類似度および重要シーン特徴類似度に基づいて、これらの基準映像データに類似する映像データの情報を、出力することができる。 As described above, in the modified example of the present invention, information on video data similar to the reference video data is output based on the structural feature similarity and the important scene feature similarity for a plurality of reference video data. can do.
(その他の実施の形態)
上記のように、本発明の最良の実施の形態とその変形例によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなる。
(Other embodiments)
As described above, the best mode for carrying out the invention and the modifications thereof have been described. However, it should not be understood that the description and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.
例えば、本発明の最良の実施の形態に記載した類似映像出力装置は、図2に示すように一つのハードウェア上に構成されても良いし、その機能や処理数に応じて複数のハードウェア上に構成されても良い。又、既存の情報処理システム上に実現されても良い。 For example, the similar video output device described in the best embodiment of the present invention may be configured on one piece of hardware as shown in FIG. 2, or a plurality of pieces of hardware may be used depending on the functions and the number of processes. It may be configured above. Further, it may be realized on an existing information processing system.
本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 It goes without saying that the present invention includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.
1 類似映像出力装置
10 記憶装置
11 基準映像データ記憶部
12 映像データ記憶部
13 構造的特徴量データ記憶部
14 構造的特徴類似度データ記憶部
15 重要シーン特徴量データ記憶部
16 重要シーン特徴類似度データ記憶部
17 類似度データ記憶部
18 類似映像リストデータ記憶部
19 映像管理データ記憶部
20 中央処理制御装置
21 基準映像データ取得手段
22 構造的特徴類似度算出手段
23 重要シーン特徴類似度算出手段
24 類似映像決定手段
25 類似映像情報出力手段
30 表示装置
221 構造的特徴解析手段
222、233 類似度算出手段
231 重要シーン抽出手段
232 映像特徴解析手段
DESCRIPTION OF
Claims (11)
映像データ記憶部に記憶された複数の映像データのそれぞれについて、当該映像データを分割した区間毎の構造的特徴の出現する時間を構造的特徴量として算出し、構造的特徴量に基づいて、映像データ間の構造的特徴類似度を算出して、構造的特徴類似度データを出力する構造的特徴類似度算出ステップと、
前記構造的特徴類似度データに基づいて、前記映像データ記憶部から、基準映像データに類似する映像データを抽出する類似映像決定ステップと、
を備えることを特徴とする類似映像出力方法。 A similar video output method for outputting similar video data,
For each of a plurality of video data stored in the video data storage unit, a time at which a structural feature appears for each section obtained by dividing the video data is calculated as a structural feature amount. A structural feature similarity calculating step for calculating the structural feature similarity between the data and outputting the structural feature similarity data;
A similar video determination step of extracting video data similar to reference video data from the video data storage unit based on the structural feature similarity data;
A similar video output method comprising:
ことを特徴とする請求項1に記載の類似映像出力方法。 The similar image according to claim 1, wherein the structural feature is at least one of a color, a motion, an acoustic feature, a cut division, a music segment, a speech segment, and a telop segment in the segment. output method.
前記類似映像決定ステップは、前記構造的特徴類似度データおよび前記重要シーン特徴類似度データに基づいて、前記映像データ記憶部から、前記基準映像データに類似する映像データを抽出する
ことを特徴とする請求項1または2に記載の類似映像出力方法。 For each of the plurality of video data, an important scene feature amount included in the video data is calculated as an important scene feature amount, and an important scene feature similarity between the video data is calculated based on the important scene feature amount. And an important scene feature similarity calculating step for outputting important scene feature similarity data,
The similar video determining step extracts video data similar to the reference video data from the video data storage unit based on the structural feature similarity data and the important scene feature similarity data. The similar image output method according to claim 1 or 2.
ことを特徴とする請求項3に記載の類似映像出力方法。 The similar video output method according to claim 3, wherein the important scene feature is at least one of a color, a motion, and an acoustic feature of the important scene.
映像データ記憶部に記憶された複数の映像データのそれぞれについて、当該映像データに含まれる重要シーンの特徴量を重要シーン特徴量として算出し、重要シーン特徴量に基づいて、映像データ間の重要シーン特徴類似度を算出して、重要シーン特徴類似度データを出力する重要シーン特徴類似度算出ステップと、
前記重要シーン特徴類似度データに基づいて、前記映像データ記憶部から、基準映像データに類似する映像データを抽出する類似映像決定ステップと、
を備えることを特徴とする類似映像出力方法。 A similar video output method for outputting similar video data,
For each of a plurality of video data stored in the video data storage unit, a feature amount of an important scene included in the video data is calculated as an important scene feature amount, and an important scene between the video data is calculated based on the important scene feature amount. An important scene feature similarity calculating step for calculating feature similarity and outputting important scene feature similarity data;
A similar video determination step of extracting video data similar to reference video data from the video data storage unit based on the important scene feature similarity data;
A similar video output method comprising:
複数の映像データが記憶された映像データ記憶部と、
前記複数の映像データのそれぞれについて、当該映像データを分割した区間毎の構造的特徴の出現する時間を構造的特徴量として算出し、構造的特徴量に基づいて、映像データ間の構造的特徴類似度を算出して、構造的特徴類似度データを出力する構造的特徴類似度算出手段と、
前記構造的特徴類似度データに基づいて、前記映像データ記憶部から、基準映像データに類似する映像データを抽出する類似映像決定手段と、
を備えることを特徴とする類似映像出力装置。 A similar video output device that outputs similar video data,
A video data storage unit storing a plurality of video data;
For each of the plurality of video data, the appearance time of the structural feature for each section obtained by dividing the video data is calculated as the structural feature amount, and the structural feature similarity between the video data is calculated based on the structural feature amount. A structural feature similarity calculating means for calculating a degree and outputting structural feature similarity data;
Similar video determination means for extracting video data similar to reference video data from the video data storage unit based on the structural feature similarity data;
A similar video output device comprising:
ことを特徴とする請求項6に記載の類似映像出力装置。 The similar image according to claim 6, wherein the structural feature is any one or more of a color, a motion, an acoustic feature, a cut division, a music section, a speech section, and a telop section in the section. Output device.
前記類似映像決定手段は、前記構造的特徴類似度データおよび前記重要シーン特徴類似度データに基づいて、前記映像データ記憶部から、前記基準映像データに類似する映像データを抽出する
ことを特徴とする請求項6または7に記載の類似映像出力装置。 For each of the plurality of video data, an important scene feature amount included in the video data is calculated as an important scene feature amount, and an important scene feature similarity between the video data is calculated based on the important scene feature amount. , Further comprising important scene feature similarity calculating means for outputting important scene feature similarity data,
The similar video determining means extracts video data similar to the reference video data from the video data storage unit based on the structural feature similarity data and the important scene feature similarity data. The similar image output device according to claim 6 or 7.
ことを特徴とする請求項8に記載の類似映像出力装置。 The similar video output device according to claim 8, wherein the important scene feature is at least one of a color, a motion, and an acoustic feature of the important scene.
複数の映像データが記憶された映像データ記憶部と、
前記複数の映像データのそれぞれについて、当該映像データに含まれる重要シーンの特徴量を重要シーン特徴量として算出し、重要シーン特徴量に基づいて、映像データ間の重要シーン特徴類似度を算出して、重要シーン特徴類似度データを出力する重要シーン特徴類似度算出手段と、
前記重要シーン特徴類似度データに基づいて、前記映像データ記憶部から、基準映像データに類似する映像データを抽出する類似映像決定手段と、
を備えることを特徴とする類似映像出力装置。 A similar video output device that outputs similar video data,
A video data storage unit storing a plurality of video data;
For each of the plurality of video data, an important scene feature amount included in the video data is calculated as an important scene feature amount, and an important scene feature similarity between the video data is calculated based on the important scene feature amount. , Important scene feature similarity calculating means for outputting important scene feature similarity data;
Similar video determining means for extracting video data similar to reference video data from the video data storage unit based on the important scene feature similarity data;
A similar video output device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011083739A JP5627002B2 (en) | 2011-04-05 | 2011-04-05 | Similar video output method, similar video output device, and similar video output program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011083739A JP5627002B2 (en) | 2011-04-05 | 2011-04-05 | Similar video output method, similar video output device, and similar video output program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012222450A true JP2012222450A (en) | 2012-11-12 |
JP5627002B2 JP5627002B2 (en) | 2014-11-19 |
Family
ID=47273548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011083739A Expired - Fee Related JP5627002B2 (en) | 2011-04-05 | 2011-04-05 | Similar video output method, similar video output device, and similar video output program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5627002B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015099958A (en) * | 2013-11-18 | 2015-05-28 | 日本電信電話株式会社 | Digest video generating apparatus, digest video generating method, and digest video generating program |
JP2019079560A (en) * | 2019-01-11 | 2019-05-23 | 楽天株式会社 | Server and control method therefor, and computer program |
WO2020075485A1 (en) * | 2018-10-11 | 2020-04-16 | 富士フイルム株式会社 | Data processing device, method, program, and system |
KR20210040604A (en) * | 2019-10-04 | 2021-04-14 | 광주과학기술원 | Action recognition method and device |
JP7486871B1 (en) | 2024-03-25 | 2024-05-20 | 株式会社Star Ai | Scene extraction system, scene extraction method, and scene extraction program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0746517A (en) * | 1993-07-29 | 1995-02-14 | Canon Inc | Method and device for searching moving image |
JP2001167095A (en) * | 1999-09-27 | 2001-06-22 | Mitsubishi Electric Corp | System and method for retrieving image |
JP2005167456A (en) * | 2003-12-01 | 2005-06-23 | Matsushita Electric Ind Co Ltd | Method and device for extracting interesting features of av content |
JP2006279429A (en) * | 2005-03-29 | 2006-10-12 | Kddi Corp | Recommendation system for video content |
-
2011
- 2011-04-05 JP JP2011083739A patent/JP5627002B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0746517A (en) * | 1993-07-29 | 1995-02-14 | Canon Inc | Method and device for searching moving image |
JP2001167095A (en) * | 1999-09-27 | 2001-06-22 | Mitsubishi Electric Corp | System and method for retrieving image |
JP2005167456A (en) * | 2003-12-01 | 2005-06-23 | Matsushita Electric Ind Co Ltd | Method and device for extracting interesting features of av content |
JP2006279429A (en) * | 2005-03-29 | 2006-10-12 | Kddi Corp | Recommendation system for video content |
Non-Patent Citations (6)
Title |
---|
CSNG200200106021; 堀田 政二、外2名: '"画像集合間距離に基づくビデオの類似検索"' 映像情報メディア学会誌 第54巻,第11号, 20001120, p.1653-1656, (社)映像情報メディア学会 * |
CSNG200700375006; 近藤 功、外2名: '"映像ショット分類で生成したシンボル列に基づく任意映像区間の検索"' 電子情報通信学会技術研究報告 マルチメディア・仮想環境基礎 第106巻,第157号, 20060706, p.31-36, 社団法人電子情報通信学会 * |
CSNH201000062002; 住吉 英樹、外7名: '"コンテンツを自動的に推薦するテレビ"' NHK技研R&D 第121号, 20100515, p.16-25, 日本放送協会 * |
JPN6014017604; 近藤 功、外2名: '"映像ショット分類で生成したシンボル列に基づく任意映像区間の検索"' 電子情報通信学会技術研究報告 マルチメディア・仮想環境基礎 第106巻,第157号, 20060706, p.31-36, 社団法人電子情報通信学会 * |
JPN6014017606; 堀田 政二、外2名: '"画像集合間距離に基づくビデオの類似検索"' 映像情報メディア学会誌 第54巻,第11号, 20001120, p.1653-1656, (社)映像情報メディア学会 * |
JPN6014017609; 住吉 英樹、外7名: '"コンテンツを自動的に推薦するテレビ"' NHK技研R&D 第121号, 20100515, p.16-25, 日本放送協会 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015099958A (en) * | 2013-11-18 | 2015-05-28 | 日本電信電話株式会社 | Digest video generating apparatus, digest video generating method, and digest video generating program |
WO2020075485A1 (en) * | 2018-10-11 | 2020-04-16 | 富士フイルム株式会社 | Data processing device, method, program, and system |
JPWO2020075485A1 (en) * | 2018-10-11 | 2021-10-28 | 富士フイルム株式会社 | Data processing equipment, methods, programs, and systems |
JP7134245B2 (en) | 2018-10-11 | 2022-09-09 | 富士フイルム株式会社 | Data processing device, method, program and system |
JP2019079560A (en) * | 2019-01-11 | 2019-05-23 | 楽天株式会社 | Server and control method therefor, and computer program |
KR20210040604A (en) * | 2019-10-04 | 2021-04-14 | 광주과학기술원 | Action recognition method and device |
KR102334338B1 (en) | 2019-10-04 | 2021-12-03 | 광주과학기술원 | Action recognition method and device |
JP7486871B1 (en) | 2024-03-25 | 2024-05-20 | 株式会社Star Ai | Scene extraction system, scene extraction method, and scene extraction program |
Also Published As
Publication number | Publication date |
---|---|
JP5627002B2 (en) | 2014-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10650861B2 (en) | Video summarization and collaboration systems and methods | |
US10652605B2 (en) | Visual hot watch spots in content item playback | |
US9715731B2 (en) | Selecting a high valence representative image | |
US9641879B2 (en) | Systems and methods for associating electronic content | |
US8799300B2 (en) | Bookmarking segments of content | |
KR102028198B1 (en) | Device for authoring video scene and metadata | |
US8132200B1 (en) | Intra-video ratings | |
KR102068790B1 (en) | Estimating and displaying social interest in time-based media | |
US10390062B2 (en) | Recommending content based on user behavior tracking and analysis | |
US20090006368A1 (en) | Automatic Video Recommendation | |
US10390067B1 (en) | Predicting video start times for maximizing user engagement | |
JP6338456B2 (en) | Apparatus, program, and method for recommending content based on user's emotion | |
CN106471498B (en) | Systems and methods for filtering techniques using metadata and usage data analysis | |
JP5358395B2 (en) | User preference suitable item recommendation device | |
US20140068676A1 (en) | Method and system for video collection management, invalid video replacement and continuous video replay | |
US20230291975A1 (en) | Systems and methods for navigating media assets | |
JP2011175362A (en) | Information processing apparatus, importance level calculation method, and program | |
US20220107978A1 (en) | Method for recommending video content | |
JP5627002B2 (en) | Similar video output method, similar video output device, and similar video output program | |
AU2016252645A1 (en) | Systems and methods for improving accuracy in media asset recommendation models | |
KR101051804B1 (en) | System of targeting data service for web-based media contents | |
US8943525B2 (en) | Information processing apparatus, information processing method, and program | |
KR101305535B1 (en) | Recommendation system for moving picture | |
JP2006217046A (en) | Video index image generator and generation program | |
WO2014103374A1 (en) | Information management device, server and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5627002 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |