JP2009049667A - Information processor, and processing method and program thereof - Google Patents
Information processor, and processing method and program thereof Download PDFInfo
- Publication number
- JP2009049667A JP2009049667A JP2007213220A JP2007213220A JP2009049667A JP 2009049667 A JP2009049667 A JP 2009049667A JP 2007213220 A JP2007213220 A JP 2007213220A JP 2007213220 A JP2007213220 A JP 2007213220A JP 2009049667 A JP2009049667 A JP 2009049667A
- Authority
- JP
- Japan
- Prior art keywords
- representative frame
- representative
- feature amount
- candidate
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、情報処理装置に関し、特に、動画を検索することが可能な情報処理装置およびその処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。 The present invention relates to an information processing apparatus, and more particularly, to an information processing apparatus capable of searching for a moving image, a processing method thereof, and a program for causing a computer to execute the method.
従来、動画を構成するフレームの中から特徴のあるフレームである代表フレームを抽出し、この代表フレームに関する特徴量を記憶する情報処理装置が存在する。そして、動画を再生する場合には、このように記憶された代表フレームに関する特徴量を用いて、ユーザの好みに応じた再生をすることができる。また、上述した代表フレームに関する特徴量を用いて、この代表フレームに対応する動画と類似する動画を検索することが可能な情報処理装置が存在する。 2. Description of the Related Art Conventionally, there exists an information processing apparatus that extracts a representative frame, which is a characteristic frame, from frames constituting a moving image and stores a feature amount related to the representative frame. Then, when playing back a moving image, it is possible to play back according to the user's preference using the feature amount related to the representative frame stored in this way. In addition, there is an information processing apparatus that can search for a moving image similar to the moving image corresponding to the representative frame by using the feature amount related to the representative frame.
上述した代表フレームを抽出する方法として、例えば、時間的に一定の周期でフレームをサンプリングする方法が存在する。この方法により代表フレームを抽出する場合には、各フレームの特徴量とは無関係にサンプリングが行われるため、互いに類似するフレームが代表フレームとしてサンプリングされる場合がある。この場合には、記憶すべき代表フレームに関する特徴量のサイズが大きくなるという問題がある。また、サンプリング周期が粗い場合には、特徴的な代表フレームを抽出することができない場合も考えられる。 As a method of extracting the representative frame described above, for example, there is a method of sampling a frame at a fixed period in time. When representative frames are extracted by this method, sampling is performed regardless of the feature amount of each frame, and therefore, similar frames may be sampled as representative frames. In this case, there is a problem that the size of the feature amount related to the representative frame to be stored becomes large. In addition, when the sampling period is rough, there may be a case where a characteristic representative frame cannot be extracted.
そこで、例えば、ビデオ信号のフレーム間の相関に基づいてシーン変化を検出し、シーン変化が検出された場合には、ビデオ信号の1フレーム分を静止画データとして記録する画像記録装置が提案されている(例えば、特許文献1参照。)。
上述の従来技術では、動画においてシーン変化が検出された場合には、ビデオ信号の1フレーム分を静止画データとして記録するため、互いに類似する1フレーム分のデータが記録されることを低減させることができる。 In the above-described prior art, when a scene change is detected in a moving image, one frame of the video signal is recorded as still image data, so that it is possible to reduce the recording of one frame of data similar to each other. Can do.
しかしながら、近年では、多数の動画を記録することが可能な画像記録装置が存在する。また、インターネット等のネットワーク技術の向上等によって、インターネットに接続されている複数のパソコン(パーソナルコンピュータ)間で動画を共有して閲覧することが可能な動画共有システムが普及している。このため、ユーザが取り扱うことが可能な動画の数は非常に多く、再生や検索等を迅速に処理することが求められている。これらの動画について、代表フレームに関する特徴量を用いて再生や類似検索を迅速に行うためには、記憶しておくべき代表フレームに関する特徴量の情報量をさらに削減して、再生や検索等に係る処理量を削減することが重要である。 However, in recent years, there are image recording apparatuses capable of recording a large number of moving images. In addition, due to improvements in network technology such as the Internet, a moving image sharing system that allows a moving image to be shared and viewed among a plurality of personal computers (personal computers) connected to the Internet has become widespread. For this reason, the number of moving images that can be handled by the user is very large, and it is required to quickly process playback and search. For these videos, in order to quickly perform the reproduction and similarity search using the feature amount related to the representative frame, the information amount of the feature amount related to the representative frame that should be stored is further reduced to relate to the playback and the search. It is important to reduce the throughput.
そこで、本発明は、動画を構成する各フレームから適切な代表フレームを判別することを目的とする。 Accordingly, an object of the present invention is to determine an appropriate representative frame from each frame constituting a moving image.
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、動画を構成するフレーム毎の特徴量を抽出する特徴量抽出手段と、上記特徴量抽出手段により抽出された特徴量に基づいて、上記動画を構成するフレームの中から代表フレーム候補を判別する代表フレーム候補判別手段と、上記代表フレーム候補について抽出された特徴量である代表フレーム候補特徴量のそれぞれの差分を利用して、上記代表フレーム候補の中から代表フレームを判別する代表フレーム判別手段とを具備する情報処理装置およびその処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、動画を構成するフレーム毎の特徴量を抽出し、この抽出された特徴量に基づいて、動画を構成するフレームの中から代表フレーム候補を判別し、この代表フレーム候補について抽出された特徴量である代表フレーム候補特徴量のそれぞれの差分を利用して、代表フレーム候補の中から代表フレームを判別するという作用をもたらす。 The present invention has been made to solve the above problems, and a first aspect of the present invention is extracted by a feature amount extraction unit that extracts a feature amount for each frame constituting a moving image and the feature amount extraction unit. The difference between the representative frame candidate determining means for determining the representative frame candidate from the frames constituting the moving image based on the feature amount and the representative frame candidate feature amount that is the feature amount extracted for the representative frame candidate. And an information processing apparatus including a representative frame discriminating unit that discriminates a representative frame from the representative frame candidates, a processing method thereof, and a program for causing a computer to execute the method. As a result, the feature amount for each frame constituting the moving image is extracted, the representative frame candidate is determined from the frames constituting the moving image based on the extracted feature amount, and the feature extracted for the representative frame candidate By using the difference between the representative frame candidate feature quantities, which is a quantity, the representative frame is discriminated from the representative frame candidates.
また、この第1の側面において、上記代表フレーム判別手段は、上記代表フレーム候補特徴量のそれぞれの差分を算出し、当該算出された差分が所定の範囲内に存在するか否かに基づいて上記代表フレームを判別することができる。これにより、代表フレーム候補特徴量のそれぞれの差分を算出して、この算出された差分が所定の範囲内に存在するか否かに基づいて、代表フレーム候補の中から代表フレームを判別するという作用をもたらす。 In the first aspect, the representative frame determination unit calculates a difference between the representative frame candidate feature amounts, and determines whether the calculated difference is within a predetermined range. A representative frame can be determined. Thus, the difference between the representative frame candidate feature amounts is calculated, and the representative frame is determined from the representative frame candidates based on whether or not the calculated difference exists within a predetermined range. Bring.
また、この第1の側面において、上記代表フレーム候補のうちで最後に判別された代表フレーム候補について抽出された特徴量を参照特徴量として保持する参照特徴量保持手段をさらに具備し、上記代表フレーム候補判別手段は、上記参照特徴量と上記抽出された特徴量とを比較して当該比較結果に基づいて上記代表フレーム候補を判別することができる。これにより、代表フレーム候補のうちで最後に判別された代表フレーム候補について抽出された特徴量を参照特徴量として保持し、この参照特徴量と判別対象の特徴量とを比較して、この比較結果に基づいて代表フレーム候補を判別するという作用をもたらす。 Further, in the first aspect, the image processing apparatus further comprises reference feature amount holding means for holding a feature amount extracted for the representative frame candidate most recently determined among the representative frame candidates as a reference feature amount, The candidate determination unit can compare the reference feature amount with the extracted feature amount and determine the representative frame candidate based on the comparison result. As a result, the feature quantity extracted for the representative frame candidate most recently discriminated among the representative frame candidates is retained as a reference feature quantity, and the comparison feature value is compared with the reference feature quantity. Based on the above, the representative frame candidate is discriminated.
また、この第1の側面において、上記代表フレーム候補を判別するための閾値を保持する候補選択閾値保持手段をさらに具備し、上記代表フレーム候補判別手段は、上記参照特徴量と上記抽出された特徴量との差分値を算出し、当該算出された差分値と上記候補選択閾値保持手段に保持されている閾値とを比較することにより上記代表フレーム候補を判別することができる。これにより、参照特徴量と判別対象の特徴量との差分値を算出し、この算出された差分値と候補選択閾値保持手段に保持されている閾値とを比較することによって、代表フレーム候補を判別するという作用をもたらす。 The first aspect further includes candidate selection threshold value holding means for holding a threshold value for determining the representative frame candidate, wherein the representative frame candidate determination means includes the reference feature amount and the extracted feature. The representative frame candidate can be determined by calculating a difference value from the amount and comparing the calculated difference value with a threshold value held in the candidate selection threshold value holding means. As a result, a difference value between the reference feature amount and the feature amount to be discriminated is calculated, and the representative frame candidate is discriminated by comparing the calculated difference value with the threshold value held in the candidate selection threshold value holding means. The effect of doing.
また、この第1の側面において、上記代表フレーム候補を判別するための閾値を保持する候補選択閾値保持手段をさらに具備し、上記代表フレーム候補判別手段は、上記参照特徴量と上記抽出された特徴量とのユークリッド距離を算出し、当該算出されたユークリッド距離の値と上記候補選択閾値保持手段に保持されている閾値とを比較することにより上記代表フレーム候補を判別することができる。これにより、参照特徴量と判別対象の特徴量とのユークリッド距離を算出し、この算出されたユークリッド距離の値と候補選択閾値保持手段に保持されている閾値とを比較することによって、代表フレーム候補を判別するという作用をもたらす。 The first aspect further includes candidate selection threshold value holding means for holding a threshold value for determining the representative frame candidate, wherein the representative frame candidate determination means includes the reference feature amount and the extracted feature. The representative frame candidate can be discriminated by calculating the Euclidean distance with the amount and comparing the calculated Euclidean distance value with the threshold value held in the candidate selection threshold value holding means. Thereby, the Euclidean distance between the reference feature quantity and the feature quantity to be discriminated is calculated, and by comparing the calculated Euclidean distance value with the threshold value held in the candidate selection threshold value holding means, the representative frame candidate The effect of discriminating is brought about.
また、この第1の側面において、上記代表フレームについて抽出された特徴量を代表特徴量として保持する代表特徴量保持手段をさらに具備し、上記代表フレーム判別手段は、上記代表特徴量保持手段に保持されている各代表特徴量と上記代表フレーム候補特徴量との差分を算出し、当該算出された差分が所定の範囲内に存在するか否かに基づいて上記代表フレームを判別することができる。これにより、代表フレームについて抽出された特徴量を代表特徴量として保持し、各代表特徴量と代表フレーム候補特徴量との差分を算出して、この算出された差分が所定の範囲内に存在するか否かに基づいて代表フレームを判別するという作用をもたらす。 Further, in the first aspect, the image processing apparatus further includes a representative feature amount holding unit that holds a feature amount extracted for the representative frame as a representative feature amount, and the representative frame determination unit holds the representative feature amount holding unit in the representative feature amount holding unit. The difference between each representative feature amount and the representative frame candidate feature amount is calculated, and the representative frame can be determined based on whether or not the calculated difference exists within a predetermined range. Thereby, the feature amount extracted for the representative frame is held as the representative feature amount, the difference between each representative feature amount and the representative frame candidate feature amount is calculated, and the calculated difference exists within a predetermined range. The representative frame is discriminated based on whether or not it is.
また、この第1の側面において、上記代表フレームを判別するための閾値を保持する決定閾値保持手段をさらに具備し、上記代表フレーム判別手段は、上記代表特徴量保持手段に保持されている各代表特徴量と上記代表フレーム候補特徴量との差分値を算出し、当該算出された差分値と上記決定閾値保持手段に保持されている閾値とを比較することにより上記算出された差分値のうちの少なくとも1つが上記決定閾値保持手段に保持されている閾値以下である代表フレーム候補を上記代表フレームとして選択しないことができる。これにより、各代表特徴量と代表フレーム候補特徴量との差分値を算出し、この算出された差分値と決定閾値保持手段に保持されている閾値とを比較することによって、算出された差分値のうちの少なくとも1つが、その閾値以下である代表フレーム候補を代表フレームとして選択しないという作用をもたらす。 In the first aspect, the image processing apparatus further includes a determination threshold value holding unit that holds a threshold value for determining the representative frame, and the representative frame determination unit includes each representative value held in the representative feature value holding unit. A difference value between the feature amount and the representative frame candidate feature amount is calculated, and the calculated difference value is compared with a threshold value held in the determination threshold value holding unit. A representative frame candidate whose at least one is equal to or less than the threshold value held in the determination threshold value holding unit may not be selected as the representative frame. Thereby, a difference value between each representative feature amount and the representative frame candidate feature amount is calculated, and the calculated difference value is compared with the threshold value held in the determination threshold value holding unit. At least one of them has an effect of not selecting a representative frame candidate that is equal to or lower than the threshold as a representative frame.
また、この第1の側面において、上記代表フレームを判別するための閾値を保持する決定閾値保持手段をさらに具備し、上記代表フレーム判別手段は、上記代表特徴量保持手段に保持されている各代表特徴量と上記代表フレーム候補特徴量とのユークリッド距離を算出し、当該算出されたユークリッド距離の値と上記決定閾値保持手段に保持されている閾値とを比較することにより上記算出されたユークリッド距離の値のうちの少なくとも1つが上記決定閾値保持手段に保持されている閾値以下である代表フレーム候補を上記代表フレームとして選択しないことができる。これにより、各代表特徴量と代表フレーム候補特徴量とのユークリッド距離を算出し、この算出されたユークリッド距離の値と、決定閾値保持手段に保持されている閾値とを比較することによって、算出されたユークリッド距離の値のうちの少なくとも1つが、その閾値以下である代表フレーム候補を代表フレームとして選択しないという作用をもたらす。 In the first aspect, the image processing apparatus further includes a determination threshold value holding unit that holds a threshold value for determining the representative frame, and the representative frame determination unit includes each representative value held in the representative feature value holding unit. The Euclidean distance between the feature quantity and the representative frame candidate feature quantity is calculated, and the calculated Euclidean distance is compared with the calculated Euclidean distance value and the threshold value held in the determination threshold value holding means. A representative frame candidate in which at least one of the values is equal to or less than the threshold value held in the determination threshold value holding unit may not be selected as the representative frame. Thus, the Euclidean distance between each representative feature quantity and the representative frame candidate feature quantity is calculated, and the calculated Euclidean distance value is compared with the threshold value held in the decision threshold value holding means. In addition, the representative frame candidate having at least one of the Euclidean distance values equal to or less than the threshold value is not selected as the representative frame.
また、この第1の側面において、上記動画を構成するフレームに対応する画面において一定の変化が検出された時間軸における位置を示すチェンジ点を検出するチェンジ点検出手段と、上記検出されたチェンジ点間の間隔を示すチェンジ点間隔を算出するチェンジ点間隔算出手段とをさらに具備し、上記代表フレーム候補判別手段は、上記算出されたチェンジ点間隔毎に上記代表フレーム候補を判別し、上記代表フレーム判別手段は、上記チェンジ点間隔毎に判別された代表フレーム候補の中から代表フレームを判別することができる。これにより、チェンジ点を検出するとともにチェンジ点間隔を算出し、この算出されたチェンジ点間隔毎に代表フレーム候補を判別し、チェンジ点間隔毎に判別された代表フレーム候補の中から代表フレームを判別するという作用をもたらす。 Further, in the first aspect, change point detecting means for detecting a change point indicating a position on a time axis at which a certain change is detected on a screen corresponding to a frame constituting the moving image, and the detected change point Change point interval calculating means for calculating a change point interval indicating an interval between the representative frame candidates, wherein the representative frame candidate determining means determines the representative frame candidate for each of the calculated change point intervals. The discriminating means can discriminate the representative frame from the representative frame candidates discriminated at every change point interval. As a result, change points are detected, change point intervals are calculated, representative frame candidates are determined for each calculated change point interval, and representative frames are determined from representative frame candidates determined for each change point interval. The effect of doing.
本発明によれば、動画を構成する各フレームから適切な代表フレームを判別することができるという優れた効果を奏し得る。 According to the present invention, it is possible to achieve an excellent effect that an appropriate representative frame can be determined from each frame constituting a moving image.
次に本発明の実施の形態について図面を参照して詳細に説明する。 Next, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施の形態における情報処理装置100の機能構成例を示すブロック図である。この情報処理装置100は、動画入力部110と、ビデオ・オーディオデマルチプレクサ120と、ビデオデコード部130と、データベース140と、特徴量照合部150と、判定結果出力部160と、特徴量抽出部200とを備える。なお、この情報処理装置100は、例えば、デジタルビデオカメラ等の撮像装置で撮影された動画について、映像解析により特徴量を抽出し、この抽出された特徴量を用いて各種画像処理を施すことが可能なパーソナルコンピュータによって実現することができる。
FIG. 1 is a block diagram illustrating a functional configuration example of an
動画入力部110は、動画を入力する動画入力部であり、入力された動画をビデオ・オーディオデマルチプレクサ120に出力する。動画入力部110に入力される動画としては、例えば、撮像装置で撮影された動画やテレビジョン放送で受信された動画等が考えられる。
The moving
ビデオ・オーディオデマルチプレクサ120は、動画入力部110から出力された動画について、ビデオデータ(信号)とオーディオデータ(信号)とに分離するものであり、分離されたビデオデータをビデオデコード部130に出力する。なお、分離されたオーディオデータは、本発明の実施の形態においては特に利用されない。
The video /
ビデオデコード部130は、ビデオ・オーディオデマルチプレクサ120から出力されたビデオデータをデコードしてベースバンドデータを生成するものであり、生成されたベースバンドデータを特徴量抽出部200に出力する。
The
特徴量抽出部200は、ビデオデコード部130から出力されたベースバンドデータに基づいて特徴量を抽出するものであり、抽出された特徴量をデータベース140および特徴量照合部150に出力する。具体的には、特徴量抽出部200は、動画を構成する各フレームから少なくとも1つの代表フレームを判別して、この代表フレームに対応するカラーヒストグラムである代表ヒストグラムを特徴量としてデータベース140および特徴量照合部150に出力する。なお、特徴量抽出部200については、図2を参照して詳細に説明する。
The feature
データベース140は、特徴量抽出部200から出力された代表ヒストグラムを動画毎に格納するデータベースであり、格納されている代表ヒストグラムを動画毎に特徴量照合部150に出力する。
The
特徴量照合部150は、特徴量抽出部200から出力された代表ヒストグラムと、データベース140に格納されている代表ヒストグラムとを比較し、この比較結果に基づいて、動画入力部110に入力された動画と、データベース140に格納されている代表ヒストグラムに対応する動画とを照合して、両者が一致または類似するか否かを判定するものであり、この判定結果を示す類似リストを判定結果出力部160に出力する。すなわち、特徴量照合部150は、動画入力部110に入力された動画と一致または類似する動画に対応する代表ヒストグラムを、データベース140に格納されている代表ヒストグラムの中から検索して、一致または類似の判定を行う。
The feature
判定結果出力部160は、特徴量照合部150から出力された類似リストを出力するものである。例えば、特徴量照合部150から出力された類似リストを表示して出力することができる。
The determination
図2は、特徴量抽出部200の機能構成例を示すブロック図である。特徴量抽出部200は、カラーヒストグラム抽出部210と、候補選択閾値保持部220と、代表フレーム候補判別部230と、参照ヒストグラム保持部240と、決定閾値保持部250と、代表フレーム判別部260と、代表ヒストグラム保持部270とを備える。
FIG. 2 is a block diagram illustrating a functional configuration example of the feature
図3(a)および(b)は、ビデオデコード部130から出力されたベースバンドデータからフレーム毎に抽出される輝度信号Y、色差信号(青)Cbおよび色差信号[0](赤)Crのカラーヒストグラムの一例を示す図である。図3(a)および(b)に示すグラフおいて、横軸は階調を示し、縦軸は頻度を示す。図3(c)は、図3(a)および(b)に示すカラーヒストグラムの面積の差分を示す図である。図3(c)において、斜線で示す領域が、図3(a)および(b)に示すカラーヒストグラムの面積の差分値に相当する領域である。なお、図3については、図2を参照して詳細に説明する。
3A and 3B show the luminance signal Y, the color difference signal (blue) Cb, and the color difference signal [0] (red) Cr extracted from the baseband data output from the
図4は、動画を構成する各フレームを時系列に並べられた場合を概念的に示す図である。この例では、撮像装置により撮影された動画300を構成するフレーム301乃至315を概略的に示す。なお、図4については、図2を参照して詳細に説明する。
FIG. 4 is a diagram conceptually illustrating a case where frames constituting a moving image are arranged in time series. In this example, frames 301 to 315 constituting the moving
カラーヒストグラム抽出部210は、ビデオデコード部130から出力されたベースバンドデータをバッファに保持して、このバッファに保持されたベースバンドデータから画面全体のY、CbおよびCrのカラーヒストグラムをサンプリングし、このサンプリングされたカラーヒストグラムについて、階調をN段階(例えば、N=16)に分け、各階調における頻度の和が一定になるように正規化を行うものである。そして、正規化が施されたY、CbおよびCrのヒストグラムを代表フレーム候補判別部230にフレーム毎に出力するものである。例えば、動画を構成する1つのフレームについて抽出されたY、CbおよびCrのヒストグラムを図3(a)に示し、図3(a)に示すヒストグラムに対応するフレームとは異なるフレームについて抽出されたY、CbおよびCrのヒストグラムを図3(b)に示す。このように、動画入力部110に入力された動画を構成する各フレームについて、Y、CbおよびCrのヒストグラムが抽出される。
The color
候補選択閾値保持部220は、代表フレーム候補判別部230が代表フレーム候補を判別する場合に用いられる閾値を保持するものであり、保持されている閾値を代表フレーム候補判別部230に出力する。
The candidate selection threshold
代表フレーム候補判別部230は、カラーヒストグラム抽出部210から出力されたカラーヒストグラムと、参照ヒストグラム保持部240に保持されている参照ヒストグラムとの面積の差分値を算出するものである。そして、代表フレーム候補判別部230は、この算出されたヒストグラム差分値が、候補選択閾値保持部220に保持されている閾値以上であるか否かに基づいて、カラーヒストグラム抽出部210から出力されたカラーヒストグラムに対応するフレームが代表フレーム候補であるか否かを判別する。すなわち、代表フレーム候補判別部230は、算出されたヒストグラム差分値が、候補選択閾値保持部220に保持されている閾値以上である場合には、カラーヒストグラム抽出部210から出力されたカラーヒストグラムに対応するフレームが代表フレーム候補であると判別して、そのカラーヒストグラムを参照ヒストグラム保持部240および代表フレーム判別部260に出力する。一方、代表フレーム候補判別部230は、算出されたヒストグラム差分値が、候補選択閾値保持部220に保持されている閾値未満である場合には、カラーヒストグラム抽出部210から出力されたカラーヒストグラムに対応するフレームが代表フレーム候補ではないと判別する。このように代表フレーム候補ではないと判別された場合には、参照ヒストグラム保持部240および代表フレーム判別部260にはカラーヒストグラムが出力されない。なお、代表フレーム候補判別部230は、カラーヒストグラム抽出部210から出力されたカラーヒストグラムに対応するフレームが、動画の先頭のフレームである場合には、参照ヒストグラム保持部240に保持されている参照ヒストグラムが存在しないため、この先頭のフレームが代表フレーム候補であると判別して、そのカラーヒストグラムを参照ヒストグラム保持部240および代表フレーム判別部260に出力する。
The representative frame
ここで、図4に示すフレーム301乃至315が代表フレーム候補判別部230に入力された場合について説明する。なお、図4に示すフレーム301乃至315において、例えば、フレーム301は先頭のフレームであり、フレーム315は後端のフレームであるものとする。この場合においては、フレーム301は先頭のフレームであるため、代表フレーム候補判別部230は、フレーム301が代表フレーム候補であると判別して、フレーム301に対応するカラーヒストグラムを参照ヒストグラム保持部240および代表フレーム判別部260に出力する。続いて、フレーム302が入力されると、代表フレーム候補判別部230は、参照ヒストグラム保持部240に保持されているフレーム301に対応するカラーヒストグラムと、フレーム302に対応するカラーヒストグラムとのヒストグラム差分値を算出し、算出されたヒストグラム差分値が、候補選択閾値保持部220に保持されている閾値以上であるか否かにより、フレーム302が代表フレーム候補であるか否かを判別する。また、同様に、フレーム301に対応するカラーヒストグラムと、フレーム303乃至307に対応するカラーヒストグラムとのヒストグラム差分値が順次算出され、フレーム303乃至307が代表フレーム候補であるか否かが順次判別される。
Here, a case where the
例えば、図4に示すフレーム301乃至315については、フレーム301および307、フレーム307および310、フレーム310および315に対応するカラーヒストグラムのそれぞれのヒストグラム差分値が、候補選択閾値保持部220に保持されている閾値以上であるものとし、これら以外のヒストグラム差分値は候補選択閾値保持部220に保持されている閾値未満であるものとする。この場合には、フレーム301、307、310、315が代表フレーム候補であると順次判別される。そして、フレーム301、307、310、315に対応するカラーヒストグラムが参照ヒストグラム保持部240および代表フレーム判別部260に順次出力される。
For example, for the
参照ヒストグラム保持部240は、代表フレーム候補判別部230から出力されたカラーヒストグラムを参照ヒストグラムとして保持するとともに、保持されている参照ヒストグラムを代表フレーム候補判別部230に出力するものである。なお、参照ヒストグラム保持部240は、代表フレーム候補判別部230からカラーヒストグラムが出力される毎に、保持されている参照ヒストグラムを削除する。すなわち、代表フレーム候補判別部230から最後に出力されたカラーヒストグラムのみが参照ヒストグラムとして保持される。
The reference
決定閾値保持部250は、代表フレーム判別部260が代表フレームを決定する場合に用いられる閾値を保持するものであり、保持されている閾値を代表フレーム判別部260に出力する。なお、候補選択閾値保持部220または決定閾値保持部250に保持される閾値は、同一の値を用いるようにしてもよく、異なる値を用いるようにしてもよい。
The determination threshold
代表フレーム判別部260は、代表フレーム候補判別部230から出力されたカラーヒストグラムと、代表ヒストグラム保持部270に保持されている各カラーヒストグラムとの面積の差分値をそれぞれ算出するものである。そして、代表フレーム判別部260は、この算出された各ヒストグラム差分値が、決定閾値保持部250に保持されている閾値以下であるか否かに基づいて、代表フレーム候補判別部230から出力されたカラーヒストグラムに対応するフレームが代表フレームであるか否かを判別する。すなわち、代表フレーム判別部260は、算出されたヒストグラム差分値の全てが、決定閾値保持部250に保持されている閾値以上である場合には、代表フレーム候補判別部230から出力されたカラーヒストグラムに対応するフレームが代表フレームであると判別して、そのカラーヒストグラムを代表ヒストグラム保持部270、データベース140および特徴量照合部150に出力する。一方、代表フレーム判別部260は、算出されたヒストグラム差分値のうちの少なくとも1つが、決定閾値保持部250に保持されている閾値以下である場合には、代表フレーム候補判別部230から出力されたカラーヒストグラムに対応するフレームが代表フレームではなく類似フレームであると判別する。このように代表フレームではないと判別された場合には、代表ヒストグラム保持部270、データベース140および特徴量照合部150にはカラーヒストグラムが出力されない。なお、代表フレーム判別部260は、算出されたヒストグラム差分値のうちの少なくとも1つが、決定閾値保持部250に保持されている閾値以上である場合には、代表フレーム候補判別部230から出力されたカラーヒストグラムに対応するフレームが代表フレームであると判別するようにしてもよい。この場合において、代表フレーム判別部260は、算出されたヒストグラム差分値の全てが、決定閾値保持部250に保持されている閾値以下である場合には、代表フレーム候補判別部230から出力されたカラーヒストグラムに対応するフレームが代表フレームではなく類似フレームであると判別する。
The representative
例えば、図4に示すフレーム301、307、310、315が代表フレーム判別部260に順次入力される。例えば、フレーム310が代表フレーム判別部260に入力された場合には、代表ヒストグラム保持部270に既に保持されているフレーム301、307に対応する各カラーヒストグラムと、フレーム310に対応するカラーヒストグラムとのヒストグラム差分値が順次算出され、算出されたヒストグラム差分値の少なくとも1つが、決定閾値保持部250に保持されている閾値以下であるか否かにより、フレーム310が代表フレームであるか否かが判別される。
For example, the
代表ヒストグラム保持部270は、代表フレーム判別部260から出力された各カラーヒストグラムの全てを代表ヒストグラムとして保持するとともに、保持されている各代表ヒストグラムを代表フレーム判別部260に出力するものである。なお、代表ヒストグラム保持部270は、代表ヒストグラムとして保持する各カラーヒストグラムを、1つの動画の判別が終了した後に削除する。
The representative
次に、本発明の実施の形態における情報処理装置100の動作について図面を参照して説明する。
Next, the operation of the
図5は、情報処理装置100による代表フレーム候補判別処理の処理手順を示すフローチャートである。この代表フレーム候補判別処理は、代表フレーム候補判別部230により行われる。
FIG. 5 is a flowchart illustrating a processing procedure of representative frame candidate determination processing by the
最初に、カラーヒストグラム抽出部210により抽出されたカラーヒストグラムが入力される(ステップS901)。続いて、入力されたカラーヒストグラムに対応するフレームが、動画の先頭フレームであるか否かが判断される(ステップS902)。入力されたカラーヒストグラムに対応するフレームが、動画の先頭フレームである場合には(ステップS902)、入力されたカラーヒストグラムに対応するフレームが、代表フレーム候補であると判別され(ステップS905)、そのカラーヒストグラムが参照ヒストグラム保持部240および代表フレーム判別部260に出力される(ステップS906)。代表フレーム候補判別部230からカラーヒストグラムが出力されると、このカラーヒストグラムのみを参照ヒストグラム保持部240が保持する。
First, the color histogram extracted by the color
一方、入力されたカラーヒストグラムに対応するフレームが、動画の先頭フレームではない場合には(ステップS902)、入力されたカラーヒストグラムと、参照ヒストグラム保持部240に保持されている参照ヒストグラムとのヒストグラム差分値が算出される(ステップS903)。
On the other hand, if the frame corresponding to the input color histogram is not the first frame of the moving image (step S902), the histogram difference between the input color histogram and the reference histogram held in the reference
続いて、算出されたヒストグラム差分値が、候補選択閾値保持部220に保持されている閾値以上であるか否かが判断される(ステップS904)。算出されたヒストグラム差分値が、候補選択閾値保持部220に保持されている閾値以上である場合には(ステップS904)、入力されたカラーヒストグラムに対応するフレームが、代表フレーム候補であると判別され(ステップS905)、そのカラーヒストグラムが参照ヒストグラム保持部240および代表フレーム判別部260に出力される(ステップS906)。
Subsequently, it is determined whether or not the calculated histogram difference value is equal to or greater than a threshold value held in the candidate selection threshold value holding unit 220 (step S904). If the calculated histogram difference value is equal to or greater than the threshold value stored in the candidate selection threshold value holding unit 220 (step S904), it is determined that the frame corresponding to the input color histogram is a representative frame candidate. (Step S905), the color histogram is output to the reference
一方、算出されたヒストグラム差分値が、候補選択閾値保持部220に保持されている閾値未満である場合には(ステップS904)、入力されたカラーヒストグラムに対応するフレームが、代表フレーム候補ではないと判別され、代表フレーム候補判別処理の動作を終了する。 On the other hand, when the calculated histogram difference value is less than the threshold held in the candidate selection threshold holding unit 220 (step S904), the frame corresponding to the input color histogram is not a representative frame candidate. After the determination, the operation of the representative frame candidate determination process is terminated.
図6は、情報処理装置100による代表フレーム判別処理の処理手順を示すフローチャートである。この代表フレーム判別処理は、代表フレーム判別部260により行われる。また、この例では、代表フレーム候補判別部230から出力されたカラーヒストグラムと代表ヒストグラムとのヒストグラム差分値の全てが、決定閾値保持部250に保持されている閾値以上である場合に、そのカラーヒストグラムに対応するフレームが代表フレームであると判別し、そのヒストグラム差分値のうちの少なくとも1つが、決定閾値保持部250に保持されている閾値以下である場合に、そのカラーヒストグラムに対応するフレームが代表フレームではなく類似フレームであると判別する場合について説明する。
FIG. 6 is a flowchart illustrating a processing procedure of representative frame discrimination processing by the
最初に、代表フレーム候補判別部230から出力されたカラーヒストグラムが入力されたか否かが判断される(ステップS911)。カラーヒストグラムが入力されていない場合には(ステップS911)、カラーヒストグラムが入力されるまで監視を継続する。
First, it is determined whether or not the color histogram output from the representative frame
代表フレーム候補判別部230からのカラーヒストグラムが入力された場合には(ステップS911)、代表ヒストグラム保持部270に代表ヒストグラムが保持されているか否かが判断される(ステップS912)。代表ヒストグラム保持部270に代表ヒストグラムが保持されていない場合には(ステップS912)、ステップS911で入力されたカラーヒストグラムに対応する代表フレーム候補が代表フレームとして判別され(ステップS917)、そのカラーヒストグラムが代表ヒストグラム保持部270、データベース140および特徴量照合部150に出力される(ステップS918)。
When the color histogram is input from the representative frame candidate determination unit 230 (step S911), it is determined whether or not the representative histogram is held in the representative histogram holding unit 270 (step S912). When the representative histogram is not held in the representative histogram holding unit 270 (step S912), a representative frame candidate corresponding to the color histogram input in step S911 is determined as a representative frame (step S917), and the color histogram is displayed. The data is output to the representative
代表ヒストグラム保持部270に代表ヒストグラムが保持されている場合には(ステップS912)、代表ヒストグラム保持部270に保持されている代表ヒストグラムの中から1つの代表ヒストグラムが取得され(ステップS913)、入力されたカラーヒストグラムと、取得された代表ヒストグラムとのヒストグラム差分値が算出される(ステップS914)。 When the representative histogram is held in the representative histogram holding unit 270 (step S912), one representative histogram is acquired from the representative histograms held in the representative histogram holding unit 270 (step S913) and input. A histogram difference value between the obtained color histogram and the acquired representative histogram is calculated (step S914).
続いて、算出されたヒストグラム差分値が、決定閾値保持部250に保持されている閾値以下であるか否かが判断される(ステップS915)。算出されたヒストグラム差分値が、決定閾値保持部250に保持されている閾値以下である場合には(ステップS915)、ステップS911で入力されたカラーヒストグラムに対応する代表フレーム候補に類似する代表フレームが存在すると判別され、そのカラーヒストグラムが削除される(ステップS919)。 Subsequently, it is determined whether or not the calculated histogram difference value is equal to or less than a threshold value held in the decision threshold value holding unit 250 (step S915). When the calculated histogram difference value is equal to or less than the threshold value stored in the determination threshold value storage unit 250 (step S915), a representative frame similar to the representative frame candidate corresponding to the color histogram input in step S911 is displayed. It is determined that it exists, and the color histogram is deleted (step S919).
一方、算出されたヒストグラム差分値が、決定閾値保持部250に保持されている閾値以下ではない場合には(ステップS915)、代表ヒストグラム保持部270に保持されている代表ヒストグラムの中で、取得されていない代表ヒストグラムが存在するか否かが判断される(ステップS916)。代表ヒストグラム保持部270に保持されている代表ヒストグラムの中で、取得されていない代表ヒストグラムが存在する場合には(ステップS916)、ステップS913に戻り、ヒストグラム差分値の比較処理を繰り返す(ステップS913乃至ステップS915)。
On the other hand, if the calculated histogram difference value is not less than or equal to the threshold value held in the decision threshold value holding unit 250 (step S915), it is acquired from the representative histogram held in the representative
一方、代表ヒストグラム保持部270に保持されている代表ヒストグラムの中で、取得されていない代表ヒストグラムが存在しない場合には(ステップS916)、ステップS911で入力されたカラーヒストグラムに対応する代表フレーム候補が代表フレームとして判別され(ステップS917)、そのカラーヒストグラムが代表ヒストグラム保持部270、データベース140および特徴量照合部150に出力される(ステップS918)。
On the other hand, if there is no representative histogram that has not been acquired among the representative histograms held in the representative histogram holding unit 270 (step S916), the representative frame candidate corresponding to the color histogram input in step S911 is displayed. It is determined as a representative frame (step S917), and the color histogram is output to the representative
次に、動画におけるチェンジ点毎に代表フレームを判別する例について図面を参照して詳細に説明する。チェンジ点は、例えば、動画において撮影場面が瞬間的に変化する場合におけるその境界点を示すカットチェンジ点や、動画において撮影場面が比較的大きく変化する場合におけるその境界点を示すクロスフェード点等を含むものである。また、このチェンジ点間隔は、連続するチェンジ点間の区間における時間やフレーム数等の間隔を示すものである。 Next, an example of determining a representative frame for each change point in a moving image will be described in detail with reference to the drawings. The change point is, for example, a cut change point indicating the boundary point when the shooting scene changes momentarily in the moving image, a crossfade point indicating the boundary point when the shooting scene changes relatively large in the moving image, etc. Is included. The change point interval indicates an interval such as time or the number of frames in a section between successive change points.
図7は、図1に示す情報処理装置100の一部を変形した情報処理装置101の構成例を示すブロック図である。情報処理装置101は、図1に示す情報処理装置100において、データベース140、特徴量照合部150および特徴量抽出部200の代わりに、データベース141、特徴量照合部151および特徴量抽出部400を設けた情報処理装置である。なお、データベース141、特徴量照合部151および特徴量抽出部400以外の構成は、図1に示す情報処理装置100と同様であるため、これらの以外の構成についての説明は省略する。
FIG. 7 is a block diagram illustrating a configuration example of the
特徴量抽出部400は、ビデオデコード部130から出力されたベースバンドデータに基づいて、動画におけるチェンジ点間隔、および、チェンジ点間隔における代表フレームに対応する代表ヒストグラムを抽出するものであり、抽出されたチェンジ点間隔および代表ヒストグラムをデータベース141および特徴量照合部151に出力する。なお、特徴量抽出部400については、図8を参照して詳細に説明する。
Based on the baseband data output from the
データベース141は、特徴量抽出部400から出力されたチェンジ点間隔および代表ヒストグラムを動画毎に格納するデータベースであり、格納されているチェンジ点間隔および代表フレームを動画毎に特徴量照合部151に出力する。
The
特徴量照合部151は、特徴量抽出部400から出力されたチェンジ点間隔と、データベース141に格納されているチェンジ点間隔との比較、または、特徴量抽出部400から出力された代表ヒストグラムと、データベース141に格納されている代表ヒストグラムとの比較により、動画入力部110に入力された動画と、データベース141に格納されているチェンジ点間隔および代表フレームに対応する動画とが一致または類似するか否かを判定するものであり、この判定結果を示す類似リストを判定結果出力部160に出力する。なお、特徴量照合部151については、図10を参照して詳細に説明する。
The feature
図8は、特徴量抽出部400の機能構成例を示すブロック図である。特徴量抽出部400は、代表ヒストグラム抽出部201と、カラーヒストグラム抽出部410と、連続フレーム間ヒストグラム差分算出部420と、閾値保持部430と、カットチェンジ点判別部440と、Nフレーム間ヒストグラム差分算出部460と、閾値保持部470と、Nフレームチェンジ点判別部480と、チェンジ点間隔算出部490とを備える。なお、カラーヒストグラム抽出部410は、カラーヒストグラム抽出部210と同様であるため、ここでの説明を省略する。
FIG. 8 is a block diagram illustrating a functional configuration example of the feature
連続フレーム間ヒストグラム差分算出部420は、カラーヒストグラム抽出部410から出力されたフレーム毎のY、CbおよびCrのカラーヒストグラムについて、連続する2フレーム間におけるカラーヒストグラムの面積の差分値を算出するものであり、算出されたヒストグラム差分値をカットチェンジ点判別部440に出力するものである。
The inter-continuous frame histogram
閾値保持部430は、連続する2フレーム間がカットチェンジ点であるか否かをカットチェンジ点判別部440が判別する場合に用いられる閾値を保持するものであり、保持されている閾値をカットチェンジ点判別部440に出力する。
The
カットチェンジ点判別部440は、連続フレーム間ヒストグラム差分算出部420から出力されたヒストグラム差分値が、閾値保持部430に保持されている閾値を超えたか否かに基づいて、連続する2フレーム間がカットチェンジ点であるか否かを判別するものである。すなわち、カットチェンジ点判別部440は、連続フレーム間ヒストグラム差分算出部420から出力されたヒストグラム差分値が、閾値保持部430に保持されている閾値を超えた場合には、そのヒストグラム差分値に対応する連続する2フレーム間がカットチェンジ点であると判別して、そのフレーム間に対応する時刻をカットチェンジ点の時刻として、代表ヒストグラム抽出部201およびチェンジ点間隔算出部490に出力する。一方、カットチェンジ点判別部440は、連続フレーム間ヒストグラム差分算出部420から出力されたヒストグラム差分値が、閾値保持部430に保持されている閾値を超えていない場合には、そのヒストグラム差分値に対応する連続する2フレーム間がカットチェンジ点ではないと判別する。このようにカットチェンジ点ではないと判別された場合には、チェンジ点間隔算出部490には時刻が出力されない。
The cut change
Nフレーム間ヒストグラム差分算出部460は、カラーヒストグラム抽出部410から出力されたフレーム毎のY、CbおよびCrのカラーヒストグラムについて、連続するNフレームにおける最初のフレームおよび最後のフレーム間におけるカラーヒストグラムの面積の差分値を算出するものであり、算出されたヒストグラム差分値をNフレームチェンジ点判別部480に出力するものである。
The N-frame histogram
閾値保持部470は、連続するNフレーム間がチェンジ点であるか否かをNフレームチェンジ点判別部480が判別する場合に用いられる閾値を保持するものであり、保持されている閾値をNフレームチェンジ点判別部480に出力する。
The
Nフレームチェンジ点判別部480は、Nフレーム間ヒストグラム差分算出部460から出力されたヒストグラム差分値が、閾値保持部470に保持されている閾値を超えたか否かに基づいて、連続するNフレーム間がチェンジ点(クロスフェード点)であるか否かを判別するものである。すなわち、Nフレームチェンジ点判別部480は、Nフレーム間ヒストグラム差分算出部460から出力されたヒストグラム差分値が、閾値保持部470に保持されている閾値を超えた場合には、そのヒストグラム差分値に対応する連続するNフレーム間がチェンジ点であると判別して、そのフレーム間に対応する時刻をカットチェンジ点の時刻として、代表ヒストグラム抽出部201およびチェンジ点間隔算出部490に出力する。一方、Nフレームチェンジ点判別部480は、Nフレーム間ヒストグラム差分算出部460から出力されたヒストグラム差分値が、閾値保持部470に保持されている閾値を超えていない場合には、そのヒストグラム差分値に対応する連続するNフレーム間がチェンジ点ではないと判別する。このようにチェンジ点ではないと判別された場合には、チェンジ点間隔算出部490には時刻が出力されない。
The N frame change
チェンジ点間隔算出部490は、カットチェンジ点判別部440またはNフレームチェンジ点判別部480から出力されたカットチェンジ点またはチェンジ点の時刻に基づいて、隣接する2つのチェンジ点間の時間間隔を算出するものであり、算出されたチェンジ点間隔をデータベース141および特徴量照合部151に出力する。すなわち、チェンジ点間隔算出部490は、カットチェンジ点判別部440またはNフレームチェンジ点判別部480からカットチェンジ点またはチェンジ点の時刻が出力された場合には、この時刻と、この時刻の直前に出力された時刻との差の値を算出して、隣接する2つのチェンジ点間の時間間隔を算出する。なお、隣接する2つのチェンジ点間の間隔として、このチェンジ点間に含まれるフレームの数を算出し、この算出されたフレーム数をチェンジ点間隔とするようにしてもよい。
The change point
代表ヒストグラム抽出部201は、カットチェンジ点判別部440またはNフレームチェンジ点判別部480から出力されたカットチェンジ点またはチェンジ点の時刻に基づいて、隣接する2つのチェンジ点間に含まれるフレームから少なくとも1つの代表フレームを判別して、この代表フレームに対応する代表ヒストグラムをデータベース141および特徴量照合部151に出力する。すなわち、代表ヒストグラム抽出部201は、同一カット内における代表ヒストグラムを抽出する。なお、動画入力部110に入力された1つの動画について、カットチェンジ点判別部440またはNフレームチェンジ点判別部480からカットチェンジ点またはチェンジ点の時刻が1つも出力されない場合には、代表ヒストグラム抽出部201は、この入力された1つの動画を構成するフレームから少なくとも1つの代表フレームを判別して、この代表フレームに対応する代表ヒストグラムを抽出する。なお、代表ヒストグラム抽出部201については、図9を参照して詳細に説明する。
Based on the cut change point or the time of the change point output from the cut change
図9は、代表ヒストグラム抽出部201の機能構成例を示すブロック図である。代表ヒストグラム抽出部201は、図2に示す特徴量抽出部200において、カラーヒストグラム抽出部210を省略するとともに、参照ヒストグラム保持部240および代表ヒストグラム保持部270の代わりに、参照ヒストグラム保持部241および代表ヒストグラム保持部271を設けたものである。なお、参照ヒストグラム保持部241および代表ヒストグラム保持部271以外の構成は、図2に示す特徴量抽出部200と同様であるため、参照ヒストグラム保持部241および代表ヒストグラム保持部271以外の構成についての説明は省略する。
FIG. 9 is a block diagram illustrating a functional configuration example of the representative
参照ヒストグラム保持部241は、代表フレーム候補判別部230から出力されたカラーヒストグラムを参照ヒストグラムとして保持するとともに、保持されている参照ヒストグラムを代表フレーム候補判別部230に出力するものである。なお、参照ヒストグラム保持部241は、代表フレーム候補判別部230からカラーヒストグラムが出力される毎に、保持されている参照ヒストグラムを削除する。また、カットチェンジ点判別部440またはNフレームチェンジ点判別部480からカットチェンジ点またはチェンジ点の時刻が入力された場合にも、保持されている参照ヒストグラムを削除する。
The reference
代表ヒストグラム保持部271は、代表フレーム判別部260から出力された各カラーヒストグラムの全てを代表ヒストグラムとして保持するとともに、保持されている各代表ヒストグラムを代表フレーム判別部260に出力するものである。なお、代表ヒストグラム保持部271は、カットチェンジ点判別部440またはNフレームチェンジ点判別部480からカットチェンジ点またはチェンジ点の時刻が入力された場合には、代表ヒストグラムとして保持する各カラーヒストグラムを削除する。
The representative
次に、チェンジ点間隔または代表ヒストグラムの何れかを用いて動画一致検索を行う例について図面を参照して詳細に説明する。 Next, an example of performing a moving image match search using either the change point interval or the representative histogram will be described in detail with reference to the drawings.
ここで、チェンジ点間隔および代表ヒストグラムのデータ量を比較した場合には、代表ヒストグラムのデータ量よりもチェンジ点間隔のデータ容量が少ない場合が多い。このため、動画の一致判定処理を行う場合において、チェンジ点間隔が存在する場合には、チェンジ点間隔を用いて一致判定処理を行う。一方、チェンジ点間隔が存在しない場合には、代表ヒストグラムを用いて一致判定処理を行う。これにより、動画の一致判定処理を迅速に行うことができる。 Here, when the change point interval and the data amount of the representative histogram are compared, the data capacity of the change point interval is often smaller than the data amount of the representative histogram. For this reason, in the case where the moving image match determination process is performed, if there is a change point interval, the match determination process is performed using the change point interval. On the other hand, when there is no change point interval, a matching determination process is performed using a representative histogram. Accordingly, the moving image matching determination process can be quickly performed.
図10は、特徴量照合部151の機能構成例を示すブロック図である。特徴量照合部151は、照合方法決定部152と、チェンジ点間隔照合部153と、カラーヒストグラム照合部154とを備える。
FIG. 10 is a block diagram illustrating a functional configuration example of the feature
図11は、照合方法決定部152が照合する方法を決定する場合における決定方法の概略を示す図である。本発明の実施の形態では、特徴量抽出部400からチェンジ点間隔が出力されたか否かと、データベース141にチェンジ点間隔が格納されているか否かに基づいて、照合方法が決定される。具体的には、図11に示すように、特徴量抽出部400からチェンジ点間隔が出力されるとともに(入力動画のチェンジ点間隔511が「有」の場合)、データベース141にチェンジ点間隔が格納されている場合(DB動画のチェンジ点間隔512が「有」の場合)には、照合方法としてチェンジ点間隔を用いた照合方法が決定される。一方、特徴量抽出部400からチェンジ点間隔が出力されない場合(入力動画のチェンジ点間隔511が「無」の場合)、または、データベース141にチェンジ点間隔が格納されていない場合(DB動画のチェンジ点間隔512が「無」の場合)には、照合方法としてカラーヒストグラムを用いた照合方法が決定される。
FIG. 11 is a diagram showing an outline of a determination method when the verification
照合方法決定部152は、特徴量抽出部400からチェンジ点間隔が出力されたか否かと、データベース141にチェンジ点間隔が格納されているか否かとに応じて、図11に示すように、照合方法を決定するものであり、決定された照合方法に応じて、チェンジ点間隔照合部153またはカラーヒストグラム照合部154に照合指示信号を出力する。すなわち、照合方法決定部152は、照合方法としてチェンジ点間隔を用いた照合方法が決定された場合には、チェンジ点間隔照合部153に照合指示信号を出力し、照合方法としてカラーヒストグラムを用いた照合方法が決定された場合には、カラーヒストグラム照合部154に照合指示信号を出力する。
As shown in FIG. 11, the collation
チェンジ点間隔照合部153は、照合方法決定部152からの照合指示信号を入力すると、特徴量抽出部400から出力されたチェンジ点間隔と、データベース141に格納されているチェンジ点間隔とを比較し、この比較結果に基づいて、動画入力部110に入力された動画と、データベース141に格納されているチェンジ点間隔に対応する動画とが一致するか否かを判定するものであり、この判定結果を示す一致リストを判定結果出力部160に出力する。すなわち、動画入力部110に入力された動画と一致する動画に対応するチェンジ点間隔を、データベース141に格納されている特徴量リストの中から検索する。
When the collation instruction signal from collation
カラーヒストグラム照合部154は、照合方法決定部152からの照合指示信号を入力すると、特徴量抽出部400から出力された代表ヒストグラムと、データベース141に格納されている代表ヒストグラムとを比較し、この比較結果に基づいて、動画入力部110に入力された動画と、データベース141に格納されている代表ヒストグラムに対応する動画とが一致するか否かを判定するものであり、この判定結果を示す一致リストを判定結果出力部160に出力する。すなわち、カラーヒストグラム照合部154は、照合方法決定部152からの照合指示信号を入力すると、特徴量抽出部400から出力された代表ヒストグラムと、データベース141に格納されている代表ヒストグラムとを比較してヒストグラム差分値を算出し、この算出されたヒストグラム差分値が閾値以下となった場合に、動画入力部110に入力された動画と、データベース141に格納されている特徴量リストに対応する動画とが一致すると判別する。
When the color
例えば、映画、テレビ番組等のように編集された動画コンテンツについては、チェンジ点があると想定される。この場合には、チェンジ点間隔を用いて動画一致検索を迅速に行うことができる。また、入力動画の代表ヒストグラムとデータベースに格納されている代表ヒストグラムとを照合するカラーヒストグラム照合は、動画一致検索以外にも、動画類似検索を行うことが可能である。なお、チェンジ点が存在しない動画コンテンツについては、カラーヒストグラムの変化量が小さいか、カラーヒストグラムの変化がない動画であるため、カラーヒストグラムをサンプリングすべき画像を少なくすることができる。このため、情報量を削減することができる。 For example, it is assumed that there is a change point for a moving image content edited like a movie or a television program. In this case, the moving image matching search can be quickly performed using the change point interval. In addition, the color histogram collation that collates the representative histogram of the input moving image with the representative histogram stored in the database can perform a moving image similarity search in addition to the moving image match search. Note that the moving image content in which no change point exists is a moving image in which the amount of change in the color histogram is small or the color histogram does not change, so that the number of images for which the color histogram should be sampled can be reduced. For this reason, the amount of information can be reduced.
次に、動画入力部110から入力された動画の代表フレームを判別する判別方法として、その動画を構成するフレームに対応する各カラーヒストグラムの差分値以外の比較結果に基づいて動画の代表フレームを判別する例について、図面を参照して詳細に説明する。
Next, as a determination method for determining the representative frame of the moving image input from the moving
図12(a)は、動画を構成する各フレームから抽出されたカラーヒストグラムが3階調(#1、#2、#3)で表される場合におけるカラーヒストグラムの一例を示す図である。図12(b)は、3次元空間上において、動画を構成する各フレームから抽出されたカラーヒストグラムの点の軌跡が時系列に配置された場合を概念的に示す図である。 FIG. 12A is a diagram illustrating an example of a color histogram in a case where the color histogram extracted from each frame constituting the moving image is represented by three gradations (# 1, # 2, # 3). FIG. 12B is a diagram conceptually showing a case where the locus of the points of the color histogram extracted from each frame constituting the moving image is arranged in time series on the three-dimensional space.
例えば、動画を構成する各フレームから抽出されたカラーヒストグラムを16階調で表す場合には、カラーヒストグラムを示すデータは16次元のベクトルデータとして表現される。この例では、図12に示すように、動画を構成する各フレームから抽出されたカラーヒストグラムを3階調(#1、#2、#3)で表す場合を例にして説明するが、3階調以外の場合についても、3階調と同様に考えることができる。 For example, when the color histogram extracted from each frame constituting the moving image is expressed by 16 gradations, the data indicating the color histogram is expressed as 16-dimensional vector data. In this example, as shown in FIG. 12, a case where a color histogram extracted from each frame constituting a moving image is expressed by three gradations (# 1, # 2, # 3) will be described as an example. The cases other than the key can also be considered in the same manner as the three gradations.
図12(a)に示すグラフにおいて、横軸は階調を示し、縦軸は頻度を示す。また、図12(b)において、3次元空間上における互いに直行する3方向の各軸をx、y、z軸とし、x軸は、カラーヒストグラムの階調「#1」の頻度を示す軸とし、y軸は、カラーヒストグラムの階調「#2」の頻度を示す軸とし、z軸は、カラーヒストグラムの階調「#3」の頻度を示す軸とする。 In the graph shown in FIG. 12A, the horizontal axis indicates gradation and the vertical axis indicates frequency. In FIG. 12B, the three axes orthogonal to each other in the three-dimensional space are x, y, and z axes, and the x axis is an axis indicating the frequency of the gradation “# 1” of the color histogram. The y axis is an axis indicating the frequency of the gradation “# 2” of the color histogram, and the z axis is an axis indicating the frequency of the gradation “# 3” of the color histogram.
ここで、図12(b)に示す3次元空間上において、動画を構成するフレームから抽出されたカラーヒストグラムのうちの2つカラーヒストグラムの位置をPn(xn,yn,zn)およびPm(xm,ym,zm)とする。この場合において、この2つのカラーヒストグラムの差分値は、以下に示す絶対距離d1の式1を用いて算出することができる。
d1(Pn,Pm)=|xn−xm|+|yn−ym|+|zn−zm|……(式1)
Here, on the three-dimensional space shown in FIG. 12B, the positions of two color histograms among the color histograms extracted from the frames constituting the moving image are represented by P n (x n , y n , z n ) and P m (x m, y m , z m) to. In this case, the difference value between the two color histograms can be calculated using
d1 (P n, P m) = | x n -x m | + | y n -y m | + | z n -z m | ...... ( Equation 1)
このように、図12(b)に示す3次元空間上における2つの位置Pn(xn,yn,zn)およびPm(xm,ym,zm)の差分値を用いる代わりに、Pn(xn,yn,zn)およびPm(xm,ym,zm)間のユークリッド距離を用いることができる。Pn(xn,yn,zn)およびPm(xm,ym,zm)間のユークリッド距離d2は、以下に示す式2を用いて算出することができる。
このユークリッド距離d2は、図12(b)に示す3次元空間上における2つの位置Pn(xn,yn,zn)およびPm(xm,ym,zm)の距離に等しい。 The Euclidean distance d2 is equal to the distance between two positions P n (x n , y n , z n ) and P m (x m , y m , z m ) in the three-dimensional space shown in FIG. .
図12(b)では、1つの動画を構成する各フレームから抽出された各カラーヒストグラムに対応する各位置を、点601乃至620として配置する。なお、1つの動画を構成する各フレームのうちの先頭のフレームに対応するカラーヒストグラムの位置を点601とし、1つの動画を構成するフレームのうちの後端のフレームに対応するカラーヒストグラムの位置を点620とし、点601および点620間の各点については、時系列に数字を付して、これらの各点を時系列に曲線で結ぶ。
In FIG. 12B, the positions corresponding to the color histograms extracted from the frames constituting one moving image are arranged as
2つのカラーヒストグラムのユークリッド距離は式2を用いて算出され、この算出されたユークリッド距離の値は、図12(b)に示す3次元空間上において、2つのカラーヒストグラムに対応する2つの点の距離に等しい。例えば、図12(b)に示す3次元空間上において、点601と点607とのユークリッド距離は、矢印631で示すベクトルの長さに等しい。また、同様に、点607と点613とのユークリッド距離、点613と点617とのユークリッド距離、点610と点607とのユークリッド距離は、それぞれ矢印632乃至634で示すベクトルの長さに等しい。
The Euclidean distance between the two color histograms is calculated using
図12(b)に示す3次元空間上における点601乃至620について、ユークリッド距離を用いて代表フレームを判別する場合には、最初は、点601が参照ヒストグラムとされる。そして、点602以降の点と、点601とのユークリッド距離を順次算出していき、ユークリッド距離の値が候補選択閾値保持部220の閾値以上となる点を検出する。例えば、点601および点607のユークリッド距離(矢印631の長さ)が、候補選択閾値保持部220の閾値以上であるものとする。この場合には、点607が参照ヒストグラムとされる。そして、点601の場合と同様に、点608以降の点と、点607とのユークリッド距離を順次算出していき、ユークリッド距離の値が候補選択閾値保持部220の閾値以上となる点を検出する。
When the representative frame is determined using the Euclidean distance for the
図12(b)に示す3次元空間上においては、このようにして検出された点を点601、607、613、617、620とする。このように検出された点601、607、613、617、620に対応するフレームが、代表フレーム候補と判別される。
In the three-dimensional space shown in FIG. 12B, the points detected in this way are set as
続いて、代表フレーム候補の中から、互いに類似する代表フレーム候補を検出して、互いに類似する代表フレーム候補のうちの一方を削除する。そして、互いに類似する代表フレーム候補を削除した後に残っている代表フレーム候補が、代表フレームとして判別される。 Subsequently, representative frame candidates similar to each other are detected from the representative frame candidates, and one of the similar representative frame candidates is deleted. Then, representative frame candidates remaining after deleting similar representative frame candidates are determined as representative frames.
例えば、代表フレーム候補として判別された点601、607、613、617、620について、代表フレーム候補が判別される毎に、この代表フレーム候補と、既に判別されている代表フレーム候補とを比較して、互いに類似するか否かが判別される。この判別は、例えば、比較対象の2つの代表フレーム候補に対応するカラーヒストグラムのユークリッド距離を算出して、この算出されたユークリッド距離の値が、決定閾値保持部250に保持されている閾値以下であるか否かに基づいて判別される。例えば、図12(b)に示す3次元空間上においては、点601および点620間のユークリッド距離が、決定閾値保持部250に保持されている閾値以下であるものとする。この場合には、点601よりも後に判別された点620が削除される。そして、代表フレーム候補として判別された点601、607、613、617、620のうちで、点620以外の点601、607、613、617が代表フレームとして判別される。
For example, for each of the
また、特徴量のベクトルデータを用いて代表フレームを判別する判別方法としては、図12(b)に示すように、ユークリッド距離を用いて代表フレームを判別する判別方法以外に、図12(b)に示す3次元空間上に配置される各点間における内積(コサイン尺度)を用いて代表フレームを判別する判別方法を用いることができる。 Further, as a determination method for determining the representative frame using the vector data of the feature amount, as shown in FIG. 12B, in addition to the determination method of determining the representative frame using the Euclidean distance, FIG. A discriminating method for discriminating a representative frame using an inner product (cosine scale) between points arranged in the three-dimensional space shown in FIG.
さらに、動画に関する特徴量として、動画を構成するフレームに対応するカラーヒストグラムを用いて代表フレームを判別する判別方法以外に、動画を構成するフレームを画面分割し、この分割された領域内の各カラーヒストグラムやエッジ情報を各フレームの特徴量として用いて、代表フレームを判別するようにしてもよい。 Furthermore, as a feature amount related to the moving image, in addition to the determination method of determining the representative frame using the color histogram corresponding to the frame constituting the moving image, the frame constituting the moving image is divided into screens, and each color in the divided area is divided. The representative frame may be determined using the histogram or edge information as the feature amount of each frame.
以上で示したように、本発明の実施の形態では、代表フレーム候補判別部230が代表フレーム候補を判別し、この代表フレーム候補の中から代表フレーム判別部260が代表フレームを判別する。このため、似ている特徴量を有するフレームを重複してサンプリングすることを阻止することができる。これにより、保存すべき特徴量のサイズを低減させることができる。
As described above, in the embodiment of the present invention, the representative frame
また、チェンジ点間隔においては、チェンジ点間隔に含まれる各フレームの中から代表フレームをチェンジ点間隔毎に判別することができる。なお、同一のチェンジ点間隔内では、カラーヒストグラムの変化量が小さいため、代表フレーム候補の中から互いに類似するフレームを削除して代表フレームを判別しても、検索精度に与える影響は少ない。 Further, in the change point interval, the representative frame can be determined for each change point interval from among the frames included in the change point interval. Since the amount of change in the color histogram is small within the same change point interval, even if frames similar to each other are deleted from the representative frame candidates and the representative frames are determined, the influence on the search accuracy is small.
このように、本発明の実施の形態によれば、動画を構成する各フレームから適切な代表フレームを判別することができる。 Thus, according to the embodiment of the present invention, an appropriate representative frame can be determined from each frame constituting a moving image.
また、本発明の実施の形態では、情報処理装置に入力される動画から代表フレームを判別して一致または類似検索する場合について説明したが、例えば、インターネット上に流通する動画コンテンツの検索、コンテンツホルダ内(映画会社、テレビ局、CMコンテンツホルダ)での一致または類似検索、テレビ番組等をユーザが携帯電話でキャプチャしてサーバ側に送信し、同一または類似のコンテンツを紹介または配信するシステム、動画コンテンツの分類、動画共有サイトでの動画コンテンツ分類等に本発明の実施の形態を適用することができる。 In the embodiment of the present invention, the case where the representative frame is discriminated from the moving image input to the information processing apparatus and the matching or similarity search is performed has been described. For example, searching for moving image content distributed on the Internet, content holder Video content, a system that introduces or distributes the same or similar content by the user capturing a match or similarity search within a movie company, a TV station, a CM content holder, a user capturing a TV program with a mobile phone, and transmitting it to the server side The embodiment of the present invention can be applied to classification of video content, video content classification on a video sharing site, and the like.
なお、本発明の実施の形態では、情報処理装置を例にして説明したが、動画を検索することができる携帯端末装置等の画像検索装置に本発明の実施の形態を適用することができる。 In the embodiment of the present invention, the information processing device has been described as an example. However, the embodiment of the present invention can be applied to an image search device such as a mobile terminal device capable of searching for a moving image.
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、以下に示すように特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。 The embodiment of the present invention is an example for embodying the present invention and has a corresponding relationship with the invention-specific matters in the claims as shown below, but is not limited thereto. However, various modifications can be made without departing from the scope of the present invention.
すなわち、請求項1乃至9において、情報処理装置は、例えば情報処理装置100または101に対応する。
That is, in
また、請求項1において、特徴量抽出手段は、例えば特徴量抽出部200または400に対応する。また、代表フレーム候補判別手段は、例えば代表フレーム候補判別部230に対応する。また、代表フレーム判別手段は、例えば代表フレーム判別部260に対応する。
Further, in
請求項3において、参照特徴量保持手段は、例えば参照ヒストグラム保持部240または241に対応する。
In
また、請求項4または5において、候補選択閾値保持手段は、例えば候補選択閾値保持部220に対応する。
Further, in claim 4 or 5, the candidate selection threshold value holding means corresponds to, for example, the candidate selection threshold
また、請求項6において、代表特徴量保持手段は、例えば代表ヒストグラム保持部270または271に対応する。
Further, in claim 6, the representative feature amount holding means corresponds to, for example, the representative
また、請求項7または8において、決定閾値保持手段は、例えば決定閾値保持部250に対応する。
Further, in claim 7 or 8, the determination threshold value holding unit corresponds to, for example, the determination threshold
また、請求項9において、チェンジ点検出手段は、例えばカットチェンジ点判別部440またはNフレームチェンジ点判別部480に対応する。また、チェンジ点間隔算出手段は、例えばチェンジ点間隔算出部490に対応する。
In claim 9, the change point detection means corresponds to, for example, the cut change
また、請求項10または11において、特徴量抽出手順は、例えば特徴量抽出部200または400により行われる。また、代表フレーム候補判別手順は、例えばステップS905に対応する。また、代表フレーム判別手順は、例えばステップS917に対応する。
In claim 10 or 11, the feature amount extraction procedure is performed by, for example, the feature
なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。 The processing procedure described in the embodiment of the present invention may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program May be taken as
100、101 情報処理装置
110 動画入力部
120 ビデオ・オーディオデマルチプレクサ
130 ビデオデコード部
140、141 データベース
150、151 特徴量照合部
152 照合方法決定部
153 チェンジ点間隔照合部
154 カラーヒストグラム照合部
160 判定結果出力部
200、400 特徴量抽出部
201 代表ヒストグラム抽出部
210 カラーヒストグラム抽出部
220 候補選択閾値保持部
230 代表フレーム候補判別部
240、241 参照ヒストグラム保持部
250 決定閾値保持部
260 代表フレーム判別部
270、271 代表ヒストグラム保持部
410 カラーヒストグラム抽出部
420 連続フレーム間ヒストグラム差分算出部
430、470 閾値保持部
440 カットチェンジ点判別部
460 Nフレーム間ヒストグラム差分算出部
480 Nフレームチェンジ点判別部
490 チェンジ点間隔算出部
100, 101
Claims (11)
前記特徴量抽出手段により抽出された特徴量に基づいて、前記動画を構成するフレームの中から代表フレーム候補を判別する代表フレーム候補判別手段と、
前記代表フレーム候補について抽出された特徴量である代表フレーム候補特徴量のそれぞれの差分を利用して、前記代表フレーム候補の中から代表フレームを判別する代表フレーム判別手段と
を具備する情報処理装置。 Feature quantity extraction means for extracting feature quantities for each frame constituting the video;
Based on the feature amount extracted by the feature amount extraction means, representative frame candidate determination means for determining a representative frame candidate from the frames constituting the moving image;
An information processing apparatus comprising: representative frame discrimination means for discriminating a representative frame from the representative frame candidates by using a difference between representative frame candidate feature amounts, which are feature amounts extracted for the representative frame candidate.
請求項1記載の情報処理装置。 The representative frame determining unit calculates a difference between the representative frame candidate feature quantities, and determines the representative frame based on whether the calculated difference is within a predetermined range. Information processing device.
前記代表フレーム候補判別手段は、前記参照特徴量と前記抽出された特徴量とを比較して当該比較結果に基づいて前記代表フレーム候補を判別する
請求項1記載の情報処理装置。 Reference feature amount holding means for holding, as a reference feature amount, a feature amount extracted with respect to the representative frame candidate determined last among the representative frame candidates,
The information processing apparatus according to claim 1, wherein the representative frame candidate determination unit compares the reference feature amount with the extracted feature amount and determines the representative frame candidate based on the comparison result.
前記代表フレーム候補判別手段は、前記参照特徴量と前記抽出された特徴量との差分値を算出し、当該算出された差分値と前記候補選択閾値保持手段に保持されている閾値とを比較することにより前記代表フレーム候補を判別する
請求項3記載の情報処理装置。 Candidate selection threshold value holding means for holding a threshold value for determining the representative frame candidate,
The representative frame candidate determination unit calculates a difference value between the reference feature amount and the extracted feature amount, and compares the calculated difference value with a threshold value held in the candidate selection threshold value holding unit. The information processing apparatus according to claim 3, wherein the representative frame candidate is determined.
前記代表フレーム候補判別手段は、前記参照特徴量と前記抽出された特徴量とのユークリッド距離を算出し、当該算出されたユークリッド距離の値と前記候補選択閾値保持手段に保持されている閾値とを比較することにより前記代表フレーム候補を判別する
請求項3記載の情報処理装置。 Candidate selection threshold value holding means for holding a threshold value for determining the representative frame candidate,
The representative frame candidate discriminating means calculates a Euclidean distance between the reference feature quantity and the extracted feature quantity, and calculates the value of the calculated Euclidean distance and the threshold value held in the candidate selection threshold value holding means. The information processing apparatus according to claim 3, wherein the representative frame candidate is determined by comparison.
前記代表フレーム判別手段は、前記代表特徴量保持手段に保持されている各代表特徴量と前記代表フレーム候補特徴量との差分を算出し、当該算出された差分が所定の範囲内に存在するか否かに基づいて前記代表フレームを判別する
請求項1記載の情報処理装置。 A representative feature amount holding means for holding the feature amount extracted for the representative frame as a representative feature amount;
The representative frame discriminating unit calculates a difference between each representative feature amount held in the representative feature amount holding unit and the representative frame candidate feature amount, and whether the calculated difference exists within a predetermined range. The information processing apparatus according to claim 1, wherein the representative frame is determined based on whether or not.
前記代表フレーム判別手段は、前記代表特徴量保持手段に保持されている各代表特徴量と前記代表フレーム候補特徴量との差分値を算出し、当該算出された差分値と前記決定閾値保持手段に保持されている閾値とを比較することにより前記算出された差分値のうちの少なくとも1つが前記決定閾値保持手段に保持されている閾値以下である代表フレーム候補を前記代表フレームとして選択しない
請求項6記載の情報処理装置。 A decision threshold value holding means for holding a threshold value for discriminating the representative frame;
The representative frame discriminating unit calculates a difference value between each representative feature amount held in the representative feature amount holding unit and the representative frame candidate feature amount, and the calculated difference value and the determination threshold holding unit 7. The representative frame candidate in which at least one of the calculated difference values is equal to or less than the threshold held in the decision threshold holding means by comparing with a held threshold is not selected as the representative frame. The information processing apparatus described.
前記代表フレーム判別手段は、前記代表特徴量保持手段に保持されている各代表特徴量と前記代表フレーム候補特徴量とのユークリッド距離を算出し、当該算出されたユークリッド距離の値と前記決定閾値保持手段に保持されている閾値とを比較することにより前記算出されたユークリッド距離の値のうちの少なくとも1つが前記決定閾値保持手段に保持されている閾値以下である代表フレーム候補を前記代表フレームとして選択しない
請求項6記載の情報処理装置。 A decision threshold value holding means for holding a threshold value for discriminating the representative frame;
The representative frame discriminating unit calculates a Euclidean distance between each representative feature amount held in the representative feature amount holding unit and the representative frame candidate feature amount, and holds the calculated Euclidean distance value and the determination threshold value. A representative frame candidate having at least one of the calculated Euclidean distance values equal to or less than the threshold held in the decision threshold holding means is selected as the representative frame by comparing with a threshold held in the means The information processing apparatus according to claim 6 which is not.
前記検出されたチェンジ点間の間隔を示すチェンジ点間隔を算出するチェンジ点間隔算出手段とをさらに具備し、
前記代表フレーム候補判別手段は、前記算出されたチェンジ点間隔毎に前記代表フレーム候補を判別し、
前記代表フレーム判別手段は、前記チェンジ点間隔毎に判別された代表フレーム候補の中から代表フレームを判別する
請求項1記載の情報処理装置。 Change point detecting means for detecting a change point indicating a position on a time axis at which a constant change is detected on a screen corresponding to a frame constituting the moving image;
Change point interval calculating means for calculating a change point interval indicating an interval between the detected change points;
The representative frame candidate determination means determines the representative frame candidate for each calculated change point interval,
The information processing apparatus according to claim 1, wherein the representative frame determining unit determines a representative frame from representative frame candidates determined at each change point interval.
前記特徴量抽出手順で抽出された特徴量に基づいて、前記動画を構成するフレームの中から代表フレーム候補を判別する代表フレーム候補判別手順と、
前記代表フレーム候補について抽出された特徴量である代表フレーム候補特徴量のそれぞれの差分を利用して、前記代表フレーム候補の中から代表フレームを判別する代表フレーム判別手順と
を含む情報処理方法。 A feature quantity extraction procedure for extracting feature quantities for each frame constituting the video;
Based on the feature amount extracted in the feature amount extraction procedure, a representative frame candidate determination procedure for determining a representative frame candidate from the frames constituting the moving image;
An information processing method comprising: a representative frame determination procedure for determining a representative frame from among the representative frame candidates by using a difference between representative frame candidate feature amounts that are feature amounts extracted for the representative frame candidate.
前記特徴量抽出手順で抽出された特徴量に基づいて、前記動画を構成するフレームの中から代表フレーム候補を判別する代表フレーム候補判別手順と、
前記代表フレーム候補について抽出された特徴量である代表フレーム候補特徴量のそれぞれの差分を利用して、前記代表フレーム候補の中から代表フレームを判別する代表フレーム判別手順と
をコンピュータに実行させるプログラム。 A feature quantity extraction procedure for extracting feature quantities for each frame constituting the video;
Based on the feature amount extracted in the feature amount extraction procedure, a representative frame candidate determination procedure for determining a representative frame candidate from the frames constituting the moving image;
A program for causing a computer to execute a representative frame discrimination procedure for discriminating a representative frame from the representative frame candidates by using respective differences of representative frame candidate feature amounts, which are feature amounts extracted for the representative frame candidates.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007213220A JP2009049667A (en) | 2007-08-20 | 2007-08-20 | Information processor, and processing method and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007213220A JP2009049667A (en) | 2007-08-20 | 2007-08-20 | Information processor, and processing method and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009049667A true JP2009049667A (en) | 2009-03-05 |
Family
ID=40501455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007213220A Pending JP2009049667A (en) | 2007-08-20 | 2007-08-20 | Information processor, and processing method and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009049667A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010125757A1 (en) * | 2009-04-28 | 2010-11-04 | 三菱電機株式会社 | Video/audio reproduction device, video/audio recording/ reproduction device, video/audio reproduction method, and video/audio recording/reproduction method |
WO2012102276A1 (en) * | 2011-01-24 | 2012-08-02 | エイディシーテクノロジー株式会社 | Still image extraction device |
JP2015026202A (en) * | 2013-07-25 | 2015-02-05 | 日本放送協会 | Program retrieval device and program retrieval program |
-
2007
- 2007-08-20 JP JP2007213220A patent/JP2009049667A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010125757A1 (en) * | 2009-04-28 | 2010-11-04 | 三菱電機株式会社 | Video/audio reproduction device, video/audio recording/ reproduction device, video/audio reproduction method, and video/audio recording/reproduction method |
WO2012102276A1 (en) * | 2011-01-24 | 2012-08-02 | エイディシーテクノロジー株式会社 | Still image extraction device |
JPWO2012102276A1 (en) * | 2011-01-24 | 2014-06-30 | エイディシーテクノロジー株式会社 | Still image extraction device |
JP2015026202A (en) * | 2013-07-25 | 2015-02-05 | 日本放送協会 | Program retrieval device and program retrieval program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105653700B (en) | Video retrieval method and system | |
JP4428424B2 (en) | Information processing apparatus, information processing method, program, and recording medium | |
US9432702B2 (en) | System and method for video program recognition | |
US8295611B2 (en) | Robust video retrieval utilizing audio and video data | |
JP5371083B2 (en) | Face identification feature value registration apparatus, face identification feature value registration method, face identification feature value registration program, and recording medium | |
EP1081960A1 (en) | Signal processing method and video/voice processing device | |
US20060245724A1 (en) | Apparatus and method of detecting advertisement from moving-picture and computer-readable recording medium storing computer program to perform the method | |
US20050228849A1 (en) | Intelligent key-frame extraction from a video | |
US20110085734A1 (en) | Robust video retrieval utilizing video data | |
JP2005513663A (en) | Family histogram based techniques for detection of commercial and other video content | |
KR101812103B1 (en) | Method and program for setting thumbnail image | |
CN110688524A (en) | Video retrieval method and device, electronic equipment and storage medium | |
KR20090007177A (en) | Apparatus and method for selective real time recording based on face identification | |
WO2013056311A1 (en) | Keypoint based keyframe selection | |
JP4197014B2 (en) | Video search method and apparatus | |
KR100896336B1 (en) | System and Method for related search of moving video based on visual content | |
JP5096259B2 (en) | Summary content generation apparatus and summary content generation program | |
JP2009049667A (en) | Information processor, and processing method and program thereof | |
JP4333808B2 (en) | Video search method and apparatus | |
KR100930529B1 (en) | Harmful video screening system and method through video identification | |
JP2006039753A (en) | Image processing apparatus and image processing method | |
CN114189754A (en) | Video plot segmentation method and system | |
JP6091552B2 (en) | Movie processing apparatus and movie processing system | |
JP2007060606A (en) | Computer program comprised of automatic video structure extraction/provision scheme | |
JP4853564B2 (en) | Information processing apparatus, information processing method, program, and recording medium |