JP2014099110A - Image search device, method, and program - Google Patents
Image search device, method, and program Download PDFInfo
- Publication number
- JP2014099110A JP2014099110A JP2012251626A JP2012251626A JP2014099110A JP 2014099110 A JP2014099110 A JP 2014099110A JP 2012251626 A JP2012251626 A JP 2012251626A JP 2012251626 A JP2012251626 A JP 2012251626A JP 2014099110 A JP2014099110 A JP 2014099110A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- image
- instance
- frame image
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像検索装置、方法、及びプログラムに関する。 The present invention relates to an image search apparatus, method, and program.
従来、特定の人、物、場所等であるイスタンスを示す画像をクエリとして、大規模画像データベースからインスタンスを含む画像を検索することが行われている。例えば、インスタンスを示す画像群と映像フレーム画像群との間の局所特徴量の出現パターンの類似性に基づいて、インスタンスを含む映像を検索する技術、つまりクエリ画像群と映像との類似尺度を使用した映像検索技術が提案されている(例えば、非特許文献1参照)。
Conventionally, an image including an instance is searched from a large-scale image database by using an image indicating an instance such as a specific person, thing, or place as a query. For example, based on the similarity of the appearance pattern of local features between the image group showing the instance and the video frame image group, a technology that searches the video including the instance, that is, the query image group and video similarity measure is used. A video search technique has been proposed (see Non-Patent
本発明は、従来技術とは異なるアプローチにより、より高精度にインスタンスを示す画像を検索することができる画像検索装置、方法、及びプログラムを提供することを目的とする。 An object of the present invention is to provide an image search apparatus, method, and program capable of searching for an image showing an instance with higher accuracy by an approach different from the prior art.
上記目的を達成するために、本発明の画像検索装置は、クエリとなるインスタンスを示すインスタンス画像、及び検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出する特徴抽出手段と、前記特徴抽出手段により複数のインスタンスの各々を示す複数のインスタンス画像の各々から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々の前記複数のインスタンス画像における前記インスタンス毎の第1出現頻度を集計する特徴集約集計手段と、前記集約特徴の各々と前記フレーム画像から抽出された複数の特徴とを照合し、前記集約特徴の各々について、前記各フレーム画像における第2出現頻度、及び前記画像群における第3出現頻度を集計する特徴照合集計手段と、前記集約特徴の各々について、前記第2出現頻度に基づいて、前記画像群における該集約特徴の出現頻度が低いほど高くなる逆フレーム画像頻度を計算する逆フレーム画像頻度計算手段と、前記集約特徴の各々の前記逆フレーム画像頻度、前記第1出現頻度、及び第3出現頻度、並びに前記画像群に含まれる集約特徴の数に関する画像群長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、前記評価値に基づく検索結果を作成する検索結果作成手段と、を含んで構成されている。 In order to achieve the above object, the image search apparatus of the present invention is characterized by extracting a plurality of features from each frame image of an image group consisting of an instance image indicating an instance to be a query and a plurality of frame images to be searched. The instance in each of the plurality of instance images of the aggregated feature obtained by aggregating overlapping features from a plurality of features extracted from each of the plurality of instance images indicating each of the plurality of instances by the extracting unit and the feature extracting unit A feature aggregation totaling unit that aggregates the first appearance frequency for each, a collation between each of the aggregated features and a plurality of features extracted from the frame image, and for each of the aggregated features, a second in each frame image A feature collating and summing unit for summing up the appearance frequency and the third appearance frequency in the image group; On the basis of the second appearance frequency, reverse frame image frequency calculation means for calculating a reverse frame image frequency that increases as the appearance frequency of the aggregate feature in the image group decreases, and the inverse of each of the aggregate features The search target represented by the sum of the importance of each aggregated feature determined based on the frame image frequency, the first appearance frequency, the third appearance frequency, and the image group length related to the number of aggregated features included in the image group. Search result creating means for obtaining an evaluation value of each image group for the instance and creating a search result based on the evaluation value.
本発明の画像検索装置によれば、特徴抽出手段が、クエリとなるインスタンスを示すインスタンス画像から複数の特徴を抽出する。ここでは、複数のインスタンスの各々を示す複数のインスタンス画像の各々から複数の特徴を抽出する。そして、特徴集約集計手段が、特徴抽出手段により複数のインスタンス画像から抽出された複数の特徴のうち、重複する特徴を集約した集約特徴の各々の前記複数のインスタンス画像における前記インスタンス毎の第1出現頻度を集計する。 According to the image search device of the present invention, the feature extraction unit extracts a plurality of features from an instance image indicating an instance that is a query. Here, a plurality of features are extracted from each of a plurality of instance images indicating each of the plurality of instances. Then, the feature aggregation and aggregation unit first appearance for each instance in the plurality of instance images of each of the aggregated features obtained by aggregating overlapping features among the plurality of features extracted from the plurality of instance images by the feature extraction unit Aggregate frequency.
また、特徴抽出手段が、検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出する。そして、特徴照合集計手段が、集約特徴の各々とフレーム画像から抽出された複数の特徴とを照合し、集約特徴の各々について、各フレーム画像における第2出現頻度、及び画像群における第3出現頻度を集計する。さらに、逆フレーム画像頻度計算手段が、集約特徴の各々について、第2出現頻度に基づいて、画像群における集約特徴の出現頻度が低いほど高くなる逆フレーム画像頻度を計算する。 In addition, the feature extraction unit extracts a plurality of features from each frame image of an image group including a plurality of frame images to be searched. Then, the feature collating and summing unit collates each aggregated feature with a plurality of features extracted from the frame image, and for each aggregated feature, the second appearance frequency in each frame image and the third appearance frequency in the image group Are counted. Further, the reverse frame image frequency calculation means calculates the reverse frame image frequency that becomes higher as the appearance frequency of the aggregate feature in the image group is lower for each of the aggregate features based on the second appearance frequency.
そして、検索結果作成手段が、集約特徴の各々の逆フレーム画像頻度、第1出現頻度、及び第3出現頻度、並びに画像群に含まれる集約特徴の数に関する画像群長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、評価値に基づく検索結果を作成する。 Then, the search result creating means determines each aggregate feature determined based on the image group length related to the reverse frame image frequency, the first appearance frequency, the third appearance frequency, and the number of aggregate features included in the image group. The evaluation value of each image group for the search target instance represented by the sum of the importance levels is obtained, and a search result based on the evaluation value is created.
このように、インスタンス画像から抽出され集約された集約特徴のインスタンス画像における出現頻度を、各集約特徴の重要度として考慮した評価値に基づいて検索結果を作成するため、より高精度にインスタンスを示す画像を検索することができる。 In this way, the search result is created based on the evaluation value in which the appearance frequency in the instance image of the aggregated feature extracted and aggregated from the instance image is considered as the importance of each aggregated feature. You can search for images.
また、前記特徴集約集計手段は、検索対象として新たに追加されたインスタンスを示すインスタンス画像から抽出された特徴のうち、前記集約特徴に含まれない追加特徴に基づいて、前記第1出現頻度の集計結果を更新し、前記特徴照合集計手段は、前記追加特徴と前記フレーム画像から抽出された複数の特徴とを照合し、前記第2出現頻度及び前記第3出現頻度を更新し、前記逆フレーム画像頻度計算手段は、更新された前記第2出現頻度に基づいて、前記逆フレーム画像頻度を再計算し、前記検索結果作成手段は、再計算された逆フレーム画像頻度、更新された前記第1出現頻度、及び更新された前記第3出現頻度に基づいて、前記新たに追加されたインスタンスに対する検索結果を作成することができる。これにより、追加分の処理を行うだけで、追加されたインスタンスについても高精度にインスタンスを示す画像を検索することができる。 Further, the feature aggregation and aggregation unit is configured to calculate the first appearance frequency based on an additional feature that is not included in the aggregation feature among features extracted from an instance image indicating an instance newly added as a search target. Updating the result, the feature collating and summing unit collates the additional feature with a plurality of features extracted from the frame image, updates the second appearance frequency and the third appearance frequency, and the reverse frame image Frequency calculation means recalculates the reverse frame image frequency based on the updated second appearance frequency, and the search result creation means recalculates the reverse frame image frequency and the updated first appearance. A search result for the newly added instance can be created based on the frequency and the updated third appearance frequency. As a result, it is possible to search for an image showing an instance with high accuracy for the added instance only by performing processing for the added amount.
また、前記検索結果作成手段は、前記検索結果に前記画像群のファイル名、または前記画像群のファイル名と該画像群の評価値とを含めることができる。検索結果は評価値に基づいて作成されればよく、様々な形態の検索結果を作成可能である。 The search result creating means may include a file name of the image group or a file name of the image group and an evaluation value of the image group in the search result. The search result may be created based on the evaluation value, and various forms of search results can be created.
また、本発明の画像検索方法は、特徴抽出手段と、特徴集約集計手段と、特徴照合集計手段と、逆フレーム画像頻度計算手段と、検索結果作成手段とを含む画像検索装置における画像検索方法であって、前記特徴抽出手段が、クエリとなるインスタンスを示すインスタンス画像、及び検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出し、前記特徴抽出手段により複数のインスタンスの各々を示す複数のインスタンス画像の各々から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々の前記複数のインスタンス画像における前記インスタンス毎の第1出現頻度を集計し、前記特徴照合集計手段が、前記集約特徴の各々と前記フレーム画像から抽出された複数の特徴とを照合し、前記集約特徴の各々について、前記各フレーム画像における第2出現頻度、及び前記画像群における第3出現頻度を集計し、前記逆フレーム画像頻度計算手段が、前記集約特徴の各々について、前記第2出現頻度に基づいて、前記画像群における該集約特徴の出現頻度が低いほど高くなる逆フレーム画像頻度を計算し、前記検索結果作成手段が、前記集約特徴の各々の前記逆フレーム画像頻度、前記第1出現頻度、及び第3出現頻度、並びに前記画像群に含まれる集約特徴の数に関する画像群長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、前記評価値に基づく検索結果を作成する方法である。 The image search method of the present invention is an image search method in an image search apparatus including a feature extraction unit, a feature aggregation totaling unit, a feature matching totaling unit, an inverse frame image frequency calculation unit, and a search result creation unit. The feature extraction means extracts a plurality of features from each frame image of an image group consisting of an instance image indicating an instance to be a query and a plurality of frame images to be searched, and the feature extraction means From the plurality of features extracted from each of a plurality of instance images indicating each of the instances, the first appearance frequency for each instance in each of the plurality of instance images of each of the aggregated features that aggregate overlapping features is aggregated, and A feature collating and summing unit collates each of the aggregated features with a plurality of features extracted from the frame image, and For each feature, the second appearance frequency in each frame image and the third appearance frequency in the image group are tabulated, and the inverse frame image frequency calculation means calculates the second appearance frequency for each of the aggregated features. Based on this, the inverse frame image frequency that increases as the appearance frequency of the aggregated feature in the image group becomes low, and the search result creation means calculates the inverse frame image frequency and the first appearance frequency of each of the aggregated features. , And the third appearance frequency, and the evaluation value of each image group for the search target instance represented by the sum of importance of each aggregated feature determined based on the image group length related to the number of aggregated features included in the image group This is a method of obtaining and creating a search result based on the evaluation value.
また、本発明の画像検索プログラムは、コンピュータを、上記の画像検索装置を構成する各手段として機能させるためのプログラムである。 The image search program of the present invention is a program for causing a computer to function as each means constituting the image search apparatus.
以上説明したように、本発明の画像検索装置、方法、及びプログラムによれば、インスタンス画像から抽出され集約された集約特徴のインスタンス画像における出現頻度を、各集約特徴の重要度として考慮した評価値に基づいて検索結果を作成するため、より高精度にインスタンスを示す画像を検索することができる、という効果が得られる。 As described above, according to the image search device, method, and program of the present invention, the evaluation value considering the appearance frequency of the aggregated feature extracted from the instance image in the instance image as the importance of each aggregated feature Since a search result is created based on the above, an effect that an image showing an instance can be searched with higher accuracy can be obtained.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<各実施の形態の概要>
各実施の形態では、インスタンス(実例)を示す画像(以下、「インスタンス画像」という)を入力とし、大規模映像データベースからインスタンスを含む映像を検索し、検索結果を出力する映像検索装置に本発明の画像検索装置を適用した場合について説明する。各実施の形態に係る映像検索装置は、インスタンス画像群の局所特徴の重要度の指標である逆フレーム画像頻度、インスタンス画像群及び映像群における局所特徴の出現頻度、並びに各映像に含まれる局所特徴の総数である映像長に注目することで、インスタンスを含む映像の検索(以下、「インスタンス検索」ともいう)を高精度に行うインスタンス検索システムを実現するものである。
<Outline of each embodiment>
In each embodiment, the present invention is applied to a video search apparatus that receives an image (hereinafter referred to as “instance image”) indicating an instance (example), searches a video including the instance from a large-scale video database, and outputs a search result. A case in which the image search apparatus is applied will be described. The video search device according to each embodiment includes an inverse frame image frequency that is an index of the importance of local features of an instance image group, an appearance frequency of local features in the instance image group and the video group, and a local feature included in each video. By paying attention to the video length, which is the total number of images, an instance search system that performs high-precision video search including instances (hereinafter also referred to as “instance search”) is realized.
各実施の形態では、Webページのキーワード検索でよく用いられるBM25(Best Match 25)と呼ばれるランキング手法を、インスタンス検索に応用する。BM25を応用する際、BM25におけるキーワードの重要度を示す指標であるIDF(Inverse Document Frequency)をインスタンスに関する局所特徴の重要度とみなし、重要度が高い局所特徴を多く含む映像を検索するための指標とする。また、インスタンス検索におけるクエリは、1つ以上のインスタンス画像から得られた局所特徴量分の大きなベクトルとして表現されるため、クエリとして小さいベクトルを想定したBM25を、キーワードに基づく文書検索から映像検索に適合した形に拡張し、拡張したBM25(各実施の形態では「EBM25」と呼ぶ)をインスタンス検索に適用する。 In each embodiment, a ranking method called BM25 (Best Match 25), which is often used for Web page keyword search, is applied to instance search. When applying BM25, IDF (Inverse Document Frequency), which is an index indicating the importance of keywords in BM25, is regarded as the importance of local features related to instances, and is an index for searching for a video including many local features with high importance And In addition, since the query in the instance search is expressed as a large vector corresponding to the local feature amount obtained from one or more instance images, the BM 25 that assumes a small vector as a query is changed from a document search based on a keyword to a video search. The expanded BM 25 (referred to as “EBM 25” in each embodiment) is applied to the instance search.
<第1の実施の形態>
第1の実施の形態に係る映像検索装置10は、CPUと、RAMと、後述する映像検索処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、インスタンス画像特徴抽出部11と、特徴集約集計部12と、フレーム画像抽出部13と、フレーム画像特徴抽出部14と、特徴照合集計部15と、逆フレーム画像頻度計算部16と、検索ランキング部17と、検索結果出力部18とを含んだ構成で表すことができる。また、映像検索装置10には、追加特徴データベース(DB)21、インスタンス特徴DB22、フレーム画像特徴DB23、映像特徴DB24、及び逆フレーム画像頻度DB25を記憶する所定の記憶領域が設けられている。
<First Embodiment>
The
映像検索装置10には、インスタンス検索のクエリとして、インスタンス画像が入力される。第1の実施の形態では、インスタンス特徴DB22を作成するため、複数のインスタンスを対象とし、インスタンスのそれぞれについて、複数のインスタンス画像からなるインスタンス画像群が入力される。例えば、インスタンスの数がq個で、各インスタンスについてh枚のインスタンス画像が用意されている場合には、q個のインスタンス画像群、総数q×h枚のインスタンス画像が入力されることとなる。ただし、入力されるインスタンス画像は、1つのインスタンスについて1枚以上であればよい。また、インスタンスを示す映像を入力とし、その映像の各フレームをインスタンス画像群として入力してもよい。なお、1つのインスタンスに対するインスタンス画像群に含まれるインスタンス画像の数が多いほど、インスタンス検索の検索精度が向上する。
An instance image is input to the
図2に、インスタンス画像のデータ構造の一例を示す。図2は、インスタンス画像がn×m画素で構成され、各画素の画素値としてRGB値を有する場合の例であり、画素毎の位置(xn,ym)とRGB値(rnm,gnm,bnm)とが対応付けられたデータ構造となっている。 FIG. 2 shows an example of the data structure of the instance image. FIG. 2 shows an example in which the instance image is composed of n × m pixels and has RGB values as the pixel values of each pixel. The position (x n , y m ) and the RGB value (r nm , g) for each pixel are shown. nm , b nm ).
インスタンス画像特徴抽出部11は、映像検索装置10に入力されたインスタンス画像群を受け付け、各インスタンス画像から特徴点を検出し、検出した特徴点の特徴量を記述した特徴ベクトルを局所特徴として抽出する。インスタンス画像特徴抽出部11は、例えば、インスタンス画像において輝度値の変化が激しい箇所をHarris-Laplace法(「C. Harris et al., “A combined corner and edge detector.”, 4th Alvey Vision Conf., 1988.」参照)により特徴点として検出する。そして、検出した各特徴点の特徴量をCompact Color SIFT(「K. Mikolajczyk et al., “Scale and affine invariant interest point detectors.”, IJCV, 2004.」参照)により記述する。Compact Color SIFTは輝度に関する128次元のSIFT特徴量に色度を表す64次元のベクトルを追加した局所特徴量である。
The instance image feature extraction unit 11 receives an instance image group input to the
図3に局所特徴のデータ構造の一例を示す。図3は、上記のCompact Color SIFTを用いた例であり、抽出された各局所特徴の識別番号(特徴1,特徴2,・・・,特徴i)と192次元のCompact Color SIFT特徴量(特徴ベクトル)とが対応付けられたデータ構造となっている。
FIG. 3 shows an example of the data structure of local features. FIG. 3 is an example using the above-described Compact Color SIFT. The extracted identification numbers (
特徴集約集計部12は、インスタンス画像特徴抽出部11で抽出された局所特徴のうち、重複している局所特徴を一つに集約する。「重複している局所特徴」とは、インスタンス画像群として映像の各フレームを用いた場合などのように、ほぼ同一のインスタンス画像から同一の局所特徴が抽出された場合に、その同一の局所特徴を「重複」とみなすものである。特徴集約集計部12は、集約した局所特徴を集約特徴とした集約特徴DB21を作成し、所定の記憶領域に記憶する。図4に、集約特徴DB21のデータ構造の一例を示す。図4の例では、各集約特徴の識別番号(特徴1,特徴2,・・・,特徴j)と192次元のCompact Color SIFT特徴量(特徴ベクトル)とが対応付けられたデータ構造となっている。このデータ構造は、インスタンス画像特徴抽出部11により抽出された局所特徴(例えば、図3)のデータ構造と同様であるが、特徴集約集計部12により局所特徴の数がiからjに集約されたことを示している。
The feature aggregation /
また、特徴集約集計部12は、集約特徴に基づいて、各インスタンスを示すインスタンス画像群における各集約特徴の出現回数を、インスタンスの特徴としてインスタンス毎に抽出し、インスタンス特徴DB22として作成し、所定の記憶領域に記憶する。図5に、インスタンス特徴DB22のデータ構造の一例を示す。図5は、インスタンスの数がq個、集約特徴の総数がj個の例であり、各インスタンスの識別番号(インスタンス1,・・・,イスタンスq)と、各集約特徴の出現回数kf(keypoint frequency)とが対応付けられたデータ構造となっている。
In addition, the feature
なお、特徴集約集計部12は、集約された局所特徴をクラスタリングして次元数を下げることにより、さらに集約してもよい。
The feature aggregation /
フレーム画像抽出部13は、映像検索装置10に入力された映像群を受け付け、例えば1fps(1秒間に1フレーム)のレートで各映像からフレーム画像を抽出する。フレーム画像のデータ構造は、インスタンス画像のデータ構造(例えば、図2)と同様であるため、詳細な説明は省略する。
The frame
フレーム画像特徴抽出部14は、局所特徴を抽出する対象がインスタンス画像ではなくフレーム画像抽出部13で抽出されたフレーム画像であるという点が、インスタンス画像特徴抽出部11と異なるだけであり、また、抽出される局所特徴のデータ構造も、インスタンス画像特徴抽出部11で抽出される局所特徴のデータ構造(例えば、図3)と同様であるため、詳細な説明は省略する。
The frame image
特徴照合集計部15は、フレーム画像特徴抽出部14で抽出された各局所特徴と、集約特徴DB21に記憶されている各集約特徴との照合を行う。上記のCompact Color SIFTの場合、例えば、192次元の特徴ベクトル間のコサイン類似度(0〜1の範囲の値を取り、同一の特徴ベクトルの場合は1)を用いて、コサイン類似度が所定値以上(例えば、0.95)の局所特徴と集約特徴とを一致する特徴と判定する。フレーム画像から抽出された局所特徴に対して、コサイン類似度が所定値以上となる集約特徴が集約特徴DB21に複数存在する場合には、コサイン類似度が最も大きい集約特徴同士を疎の局所特徴に一致する集約特徴と判定する。
The feature
なお、局所特徴間の照合は、コサイン類似度を用いる場合に限定されず、各特徴ベクトル間の距離や類似度を測る尺度であれば、どのようなものを用いてもよい。 Note that collation between local features is not limited to using cosine similarity, and any measure may be used as long as it is a scale for measuring the distance and similarity between feature vectors.
また、特徴集約集計部12によりクラスタリングにより局所特徴が集約されている場合には、特徴照合集計部15は、集約特徴DB21における各クラスタの重心を用いて、フレーム画像から抽出された局所特徴との照合を行うことができる。
Further, when local features are aggregated by clustering by the feature aggregation /
特徴照合集計部15は、フレーム画像から抽出された局所特徴と集約特徴DB21に記憶されている集約特徴との照合結果に基づいて、フレーム画像特徴DB23を映像毎に作成し、所定の記憶領域に記憶する。図6に、フレーム画像特徴DB23のデータ構造の一例を示す。図6の例では、1つの映像から抽出された各フレーム画像の識別番号(フレーム画像1,・・・,フレーム画像N)と、各フレーム画像における各集約特徴の出現回数Kfが対応付けられている。
The feature
また、特徴照合集計部15は、フレーム画像から抽出された局所特徴と集約特徴DB21に記憶されている局所特徴との照合結果に基づいて、映像特徴DB24を作成し、所定の記憶領域に記憶する。図7に、映像特徴DB24のデータ構造の一例を示す。図7の例では、映像の識別番号(映像1,・・・,映像v)と、各映像における各集約特徴の出現回数KFが対応付けられている。出現回数KFは、映像毎に作成されたフレーム画像特徴DB23の集約特徴毎の出現回数をフレーム画像1からフレーム画像Nまで合計して求めることができる。
In addition, the feature
逆フレーム画像頻度計算部16は、映像毎のフレーム画像特徴DB23を参照し、集約特徴jの逆フレーム画像頻度IFFj(Inverse Frame Frequency)を、下記(1)式に基づいて計算する。
The inverse frame image
ここで、Nは1つの映像内の全フレーム画像数、njは1つの映像内における集約特徴jを含むフレーム画像数であり、フレーム画像特徴DB23において、集約特徴jの出現回数Kfjが1以上となっているフレーム画像をカウントすることにより求めることができる。集約特徴jがフレーム画像特徴DB23において高い頻度で出現している場合には、集約特徴jはインスタンスに対する識別能力が低い局所特徴であるとみなせるため、IFFjは小さくなる。逆に、集約特徴jのフレーム画像特徴DB23における出現頻度が低い場合には、集約特徴jはインスタンスに対する識別能力が高い集約特徴であるとみなせるため、IFFjは大きくなる。
Here, N is the number of all frame images in one video, n j is the number of frame images including the aggregate feature j in one video, and the number of appearances Kf j of the aggregate feature j is 1 in the frame
逆フレーム画像頻度計算部16は、集約特徴DB21に記憶されている集約特徴(特徴1,・・・,特徴j)の全てについてIFFjを計算し、計算結果を逆フレーム画像頻度DB25として作成し、所定の記憶領域に記憶する。図8に、逆フレーム画像頻度DB25のデータ構造の一例を示す。図8の例では、集約特徴の識別番号(特徴1,・・・,特徴j)と、計算されたとIFFjとが対応付けられている。逆フレーム画像頻度DB25は映像毎に作成される。
The inverse frame image
検索ランキング部17は、各インスタンスに対してそのインスタンスが含まれている可能性のある映像候補を、入力された映像群の中から検索し、映像候補をランキングする。具体的には、まず、検索ランキング部17は、インスタンス特徴DB22からインスタンスqのインスタンス特徴である各集約特徴の出現回数kf1,・・・,kfjを取得する。また、検索ランキング部17は、映像vの逆フレーム画像頻度DB25から各集約特徴の逆フレーム画像頻度IFF1,・・・,IFFjを取得する。さらに、検索ランキング部17は、映像特徴DB24から映像vに対応付けられた各集約特徴の出現回数KF1,・・・,KFjを取得する。そして、検索ランキング部17は、下記(2)式に示すインスタンスqに対する映像vの評価値EBM25(q,v)を計算する。
The
ここで、k1、k2、及びb1は設定パラメータで、例えば、k1=k2=1.2、b1=0.75とすることができる。またvlは映像長(video length)、avvlは平均映像長(average video length)を意味し、vlは映像vに対応付けられた各集約特徴の出現回数KFの和、avvlは映像特徴DB24内における各映像のvlの平均である。また、Σqjはインスタンスqの集約特徴1,・・・,jに関する和を意味する。(2)式に示した評価値EBM25は、下記(3)式に示すBM25(「S. E. Robertson et al., “Some Simple Effective Approximations to the 2-Poisson Model for Probabilistic Weighted Retrieval.”, In Proc. of SIGIR'04, 1994.」参照)に、各集約特徴の重要度として、インスタンス特徴DB22における集約特徴の出現頻度の項((k2+1)kfj)/(k2+kfj)と、逆フレーム画像頻度IFFjとをさらに考慮したものである。
Here, k 1 , k 2 , and b 1 are setting parameters. For example, k 1 = k 2 = 1.2 and b 1 = 0.75 can be set. Further, vl means video length, avvl means average video length, vl is the sum of the number of appearances KF of each aggregated feature associated with the video v, and avvl is in the
BM25及びEBM25は共に、インスタンスに対して重要度が高い集約特徴を多く含み、かつ映像長が大き過ぎない映像に対してハイスコアを与える。しかし、BM25では、フレーム画像特徴DB23内での集約特徴の出現頻度のみで、各集約特徴の重要度が定義されたが、EBM25では、インスタンス特徴DB22における集約特徴の出現頻度もさらに考慮されている。EBM25は、テキスト検索分野でキーワードによる検索ではなくドキュメントをクエリとした検索を行う際のBM25の拡張に相当する。
Both the
検索ランキング部17は、インスタンスqに対する各映像(映像1,・・・,映像v)の評価値EBM25をそれぞれ計算し、評価値EBM25の降順で映像をランキングした検索結果を作成する。検索結果は、インスタンスの各々(インスタンス1,・・・,インスタンスq)について作成する。図9に、検索結果のデータ構造の一例を示す。図9では、各インスタンスの識別番号(インスタンス1,・・・,インスタンスq)と、評価値EBM25の降順で並べられた映像とが対応付けられている。
The
なお、検索結果は、上記のようにランキング形式にする場合に限定されず、評価値が最大となる映像のみを検索結果としてもよいし、評価値が所定値以上となる映像をランダムに並べた検索結果としてもよい。また、検索結果を、映像のファイル名としてもよいし、映像のファイル名とEBM25の値としてもよい。検索結果は、EBM25の値に基づくものであれば、様々な形態をとることが可能である。
The search result is not limited to the ranking format as described above, and only the video with the maximum evaluation value may be used as the search result, or videos with the evaluation value equal to or greater than the predetermined value are randomly arranged. It is good also as a search result. The search result may be a video file name, or a video file name and a value of the
検索結果出力部18は、検索ランキング部17で作成された検索結果を出力する。
The search
次に、第1の実施の形態に係る映像検索装置10の作用について説明する。映像検索装置10に、複数のインスタンスを示す複数のインスタンス画像群が入力されると、映像検索装置10において、図10に示す映像検索処理ルーチンが実行される。
Next, the operation of the
ステップ100で、インスタンス画像特徴抽出部11が、映像検索装置10に入力されたインスタンス画像群を受け付け、各インスタンス画像から特徴点を検出し、検出した特徴点の特徴量を記述した特徴ベクトルを局所特徴として抽出する。
In
次に、ステップ102で、特徴集約集計部12が、上記ステップ100で抽出された局所特徴から、重複している局所特徴を一つに集約し、集約した局所特徴を集約特徴とした集約特徴DB21を作成し、所定の記憶領域に記憶する。また、特徴集約集計部12が、集約特徴に基づいて、各インスタンスの特徴として、各インスタンス画像群における各集約特徴の出現回数を示すインスタンス特徴DB22を作成し、所定の記憶領域に記憶する。
Next, in
次に、ステップ104で、フレーム画像抽出部13が、映像検索装置10に入力された映像群を受け付け、各映像からフレーム画像を抽出する。次に、ステップ106で、フレーム画像特徴抽出部14が、上記ステップ104で抽出された各フレーム画像から局所特徴を抽出する。
Next, in
次に、ステップ108で、特徴照合集計部15が、上記ステップ106でフレーム画像から抽出された各局所特徴と、上記ステップ102で記憶された集約特徴DB21内の各集約特徴とを、特徴ベクトル間の類似度に基づいて照合する。そして、特徴照合集計部15が、照合結果に基づいて、各フレーム画像における各集約特徴の出現頻度Kfを示すフレーム画像特徴DB23を映像毎に作成し、所定の記憶領域に記憶する。また、特徴照合集計部15が、照合結果に基づいて、各映像における各集約特徴の出現回数KFを示す映像特徴DB24を作成し、所定の記憶領域に記憶する。
Next, in
次に、ステップ110で、逆フレーム画像頻度計算部16が、フレーム画像特徴DB23を参照し、集約特徴jの逆フレーム画像頻度IFFjを、集約特徴DB21に記憶されている集約特徴(特徴1,・・・,特徴j)の全てについて計算し、各集約特徴のIFFを示す逆フレーム画像頻度DB25を作成し、所定の記憶領域に記憶する。逆フレーム画像頻度DB25は映像毎に作成する。
Next, in
次に、ステップ112で、検索ランキング部17が、インスタンス特徴DB22からインスタンスqのインスタンス特徴である各集約特徴の出現回数kf1,・・・,kfjを取得し、各映像の逆フレーム画像頻度DB25から各集約特徴の逆フレーム画像頻度IFF1,・・・,IFFjを取得し、映像特徴DB24から各映像に対応付けられた各集約特徴の出現回数KF1,・・・,KFjを取得する。そして、検索ランキング部17が、インスタンスqに対する各映像の評価値EBM25を計算し、評価値EBM25の降順で映像をランキングした検索結果を作成する。検索結果は、各インスタンスについて作成する。
Next, in
次に、ステップ114で、検索結果出力部18が、上記ステップ112で作成された検索結果を出力して、映像検索処理ルーチンを終了する。
Next, in
以上説明したように、第1の実施の形態に係る映像検索装置によれば、インスタンス画像群における出現頻度と、逆フレーム画像頻度とを集約特徴の重要度としてさらに考慮したEBM25を評価値として用いることにより、より高精度にインスタンスを示す画像を検索することができる。
As described above, according to the video search device according to the first embodiment, the
<第2の実施の形態>
第2の実施の形態では、既にインスタンス特徴DB22に所定数のデータが蓄積されている状態で、新しく追加されたインスタンス画像をクエリとして映像を検索する場合について説明する。なお、第2の実施の形態に係る映像検索装置について、第1の実施の形態に係る映像検索装置10と同一の構成については、同一符号を付して詳細な説明を省略する。
<Second Embodiment>
In the second embodiment, a case will be described in which a video is searched using a newly added instance image as a query in a state where a predetermined number of data has already been accumulated in the
第2の実施の形態に係る映像検索装置210は、CPUと、RAMと、後述する映像検索処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成されている。このコンピュータは、機能的には、図11に示すように、インスタンス画像特徴抽出部11と、特徴集約集計部212と、フレーム画像抽出部13と、フレーム画像特徴抽出部14と、特徴照合集計部215と、逆フレーム画像頻度計算部16と、検索ランキング部17と、検索結果出力部18とを含んだ構成で表すことができる。また、映像検索装置10には、集約特徴DB21、インスタンス特徴DB22、フレーム画像特徴DB23、映像特徴DB24、逆フレーム画像頻度DB25、及び追加特徴DB26を記憶する所定の記憶領域が設けられている。
The
特徴集約集計部212は、インスタンス画像特徴抽出部11で抽出された新しいインスタンス画像の局所特徴を受け取り、集約特徴DB21を参照して、重複している局所特徴を排除し、新たに追加された追加特徴を抽出する。ここでは、インスタンスq+1を示すインスタンス画像群が新たに入力され、追加特徴j+1が追加された場合について説明する。特徴集約集計部212は、追加特徴j+1を、集約特徴DB21と同じデータ構造の追加特徴DB26に記憶すると共に、集約特徴DB21を追加特徴j+1の追加分だけ更新する。図12に、追加特徴DB26の一例を、図13に、更新された集約特徴DB21の一例を示す。
The feature aggregation /
また、特徴集約集計部212は、追加されたインスタンスq+1及び追加特徴j+1により、インスタンス特徴DB22を更新する。図14に、更新されたインスタンス特徴DB22の一例を示す。図14の例では、更新前のインスタンス特徴DB22(図5)に、追加特徴j+1の列及びインスタンスq+1の行が追加されている。なお、追加特徴j+1は新たに追加された集約特徴であるため、インスタンス1,・・・,インスタンスqについての出現回数kfj+1は0である。
In addition, the feature
特徴照合集計部215は、フレーム画像から抽出された局所特徴と追加特徴DB26に記憶されている追加特徴との照合結果に基づいて、フレーム画像特徴DB23及び映像特徴DB24を更新する。局所特徴と追加特徴との照合方法は、第1の実施の形態の特徴照合集計部15における局所特徴と集約特徴との照合方法と同様である。フレーム画像特徴DB23の更新では、各フレーム画像における追加特徴j+1の出現回数Kfj+1をカウントし、追加特徴j+1の列をフレーム画像特徴DB23に追加する。また、映像特徴DB24の更新では、更新された映像毎のフレーム画像特徴DB23の追加特徴j+1の出現回数Kfj+1をフレーム画像1からフレーム画像Nまで合計して、映像毎の追加特徴j+1の出現回数KFj+1を求めて、追加特徴j+1の列を映像特徴DB24に追加する。
The feature
次に、第2の実施の形態に係る映像検索装置210の作用について、第1の実施の形態と異なる点について説明する。
Next, the operation of the
図10の映像検索処理ルーチンのステップ102では、特徴集約集計部212が、ステップ100で抽出された新しいインスタンス画像の局所特徴から、集約特徴DB21を参照して追加特徴を抽出し、追加特徴DB26に記憶すると共に、集約特徴DB21を新たな追加特徴の追加分だけ更新する。また、特徴集約集計部212が、新たなインスタンス及び追加特徴の追加分だけ、インスタンス特徴DB22を更新する。
In
ステップ108では、特徴照合集計部215が、ステップ106で抽出された局所特徴と、上記ステップ102で追加特徴DB26に記憶された追加特徴との照合結果に基づいて、追加特徴の追加分だけ、フレーム画像特徴DB23及び映像特徴DB24を更新する。
In
後段の処理では、上記のように更新された各データベースを参照して、第1の実施の形態と同様に評価値EBM25を計算して、検索結果を作成すればよい。
In the subsequent processing, the database updated as described above is referred to, the
以上説明したように、第2次の実施の形態に係る映像検索装置によれば、インスタンス特徴DBに所定数以上のデータが蓄積されている場合には、新たに追加されたインスタンス画像について処理するだけで、第1の実施の形態と同様に、より高精度にインスタンスを示す画像を検索することができる。 As described above, according to the video search device according to the second embodiment, when a predetermined number or more of data is accumulated in the instance feature DB, the newly added instance image is processed. As in the first embodiment, it is possible to search for an image showing an instance with higher accuracy.
<評価結果>
ここで、TRECVID2011,2012のインスタンス検索タスクのデータセットを使用した検索精度の評価結果について説明する。TRECVIDは毎年行われている映像検索分野のコンペティションで、アメリカのNIST(National Institute of Standards and Technology)が主催している。TRECVID2011のインスタンス検索タスクでは25個のインスタンスが用意され、それぞれに平均約4枚の画像が付与されている。そして約2万本の映像データベース(海外の番組映像)が検索対象になる。TRECVID2012のインスタンス検索タスクでは21個のインスタンスが用意され、それぞれに平均約5枚の画像が付与されている。そして約8万本の映像データベース(Web上のConsumer Generated Media(CGM))が検索対象になる。TRECVID2011のインスタンス毎の平均正解映像数は約73で、TRECVID2012では約59である。検索結果ランキングの精度はMean Average Precision(MAP)という指標で評価した。MAPは下記(4)式で定義される。
<Evaluation results>
Here, the evaluation result of the search accuracy using the instance search task data set of TRECVID 2011, 2012 will be described. TRECVID is an annual competition in the field of video search and is hosted by the National Institute of Standards and Technology (NIST) in the United States. In the instance search task of
ここで|Q|は全インスタンス数、|Rq|はインスタンスqの正解映像数、jは映像の検索結果ランク、rel(q,j)はランクjの映像がqに対して正解であれば1を、不正解であれば0を返す関数である。c(q,j)はランク1からランクjまでに存在した正解映像の数である。ランク1から順に正解映像が並んでいる場合、つまり最高の検索精度はMAP=100(%)である。
Where | Q | is the total number of instances, | R q | is the number of correct videos of instance q, j is the search result rank of video, and rel (q, j) is the video of rank j that is correct with respect to q. It is a function that returns 1 if the answer is incorrect. c (q, j) is the number of correct images existing from
図15に検索精度の評価結果を示す。KFは映像中における局所特徴の出現頻度の総和のみで検索ランキングした手法、IFFは映像中における局所特徴の逆フレーム画像頻度の総和のみで検索ランキングした手法である。図15の結果から、IFFを使用することで検索精度が大幅に改善することが分かる。そして、映像中における局所特徴の出現頻度及び映像長による正規化を考慮するBM25を使用することでランキングが改善され、さらにクエリとなるインスタンス画像における局所特徴の出現頻度及びIFFをさらに考慮するEBM25(本実施の形態の手法)の検索精度は、BM25を上回る結果を出すことが分かる。MAPの差は危険度1%水準での検定で有意であることを確認している。
FIG. 15 shows the evaluation result of the search accuracy. KF is a search ranking method using only the sum of appearance frequencies of local features in the video, and IFF is a search ranking method using only the sum of the reverse frame image frequencies of local features in the video. From the results of FIG. 15, it can be seen that the search accuracy is greatly improved by using IFF. Then, the ranking is improved by using the
今後、映像メディアは録画や記録デバイス、ソーシャルネットワーキングサービス等の発達により爆発的に増加することが予想され、その様な状況に対処しうるロバストな映像検索技術が求められているが、本実施の形態の手法を使用することで、大規模映像データベースからの高精度なインスタンス検索を実現することが可能になる。 In the future, video media is expected to increase explosively with the development of recording and recording devices, social networking services, etc., and robust video search technology that can cope with such situations is required. By using the method of the form, it becomes possible to realize a highly accurate instance search from a large-scale video database.
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.
例えば、上記各実施の形態では、インスタンスの検索対象の画像を映像とする場合について説明したが、検索対象の画像を静止画像とした場合にも、本発明を適用可能である。この場合、例えば10000枚の静止画像を検索対象として入力した場合、映像中の特徴点の出現回数KFを静止画像中の特徴点の出現回数KF’に、映像中のKFの総和であるvlを静止画像中の特徴点の出現回数の総和であるvl’に、vlの平均値であるavdlをvl’の平均値であるavdl’に置き換え、上記のEBM25を適用すればよい。IFFは10000枚の静止画像集合の中で(1)式により計算される。
For example, although cases have been described with the above embodiments where the search target image is an image, the present invention can also be applied to a case where the search target image is a still image. In this case, for example, when 10,000 still images are input as search targets, the number of appearances KF of feature points in the video is set to the number of appearances KF ′ of feature points in the still image, and vl that is the sum of KF in the video is set. The above-described
また、検索対象を静止画像とした場合には、検索結果として、静止画像のファイル名や、静止画像のファイル名とEBM25の値など、EBM25の値に基づく様々な形態の検索結果を出力することができる。さらに、検索対象を映像及び静止画像の両方とした場合、検索結果として、映像と静止画像とが混在したものを出力してもよい。
When the search target is a still image, search results in various forms based on the value of the
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。 In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.
10、210 映像検索装置
11 インスタンス画像特徴抽出部
12、212 特徴集約集計部
13 フレーム画像抽出部
14 フレーム画像特徴抽出部
15、215 特徴照合集計部
16 逆フレーム画像頻度計算部
17 検索ランキング部
18 検索結果出力部
21 集約特徴DB
22 インスタンス特徴DB
23 フレーム画像特徴DB
24 映像特徴DB
25 逆フレーム画像頻度DB
26 追加特徴DB
DESCRIPTION OF SYMBOLS 10,210 Image | video search apparatus 11 Instance image
22 Instance feature DB
23 Frame image feature DB
24 Video feature DB
25 Reverse frame image frequency DB
26 Additional features DB
Claims (5)
前記特徴抽出手段により複数のインスタンスの各々を示す複数のインスタンス画像の各々から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々の前記複数のインスタンス画像における前記インスタンス毎の第1出現頻度を集計する特徴集約集計手段と、
前記集約特徴の各々と前記フレーム画像から抽出された複数の特徴とを照合し、前記集約特徴の各々について、前記各フレーム画像における第2出現頻度、及び前記画像群における第3出現頻度を集計する特徴照合集計手段と、
前記集約特徴の各々について、前記第2出現頻度に基づいて、前記画像群における該集約特徴の出現頻度が低いほど高くなる逆フレーム画像頻度を計算する逆フレーム画像頻度計算手段と、
前記集約特徴の各々の前記逆フレーム画像頻度、前記第1出現頻度、及び第3出現頻度、並びに前記画像群に含まれる集約特徴の数に関する画像群長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、前記評価値に基づく検索結果を作成する検索結果作成手段と、
を含む画像検索装置。 Feature extraction means for extracting a plurality of features from each frame image of an image group consisting of an instance image indicating an instance to be queried and a plurality of frame images to be searched;
The first for each instance in the plurality of instance images of the aggregated feature obtained by aggregating overlapping features from the plurality of features extracted from each of the plurality of instance images indicating each of the plurality of instances by the feature extraction unit. A feature aggregation and aggregation means for counting the appearance frequency;
Each of the aggregated features is compared with a plurality of features extracted from the frame image, and the second appearance frequency in each frame image and the third appearance frequency in the image group are totaled for each of the aggregated features. A feature matching and aggregation means;
For each of the aggregate features, based on the second appearance frequency, an inverse frame image frequency calculation unit that calculates a reverse frame image frequency that increases as the appearance frequency of the aggregate feature in the image group decreases;
The importance level of each aggregated feature determined based on the image frame length related to the reverse frame image frequency, the first appearance frequency, and the third appearance frequency of each aggregated feature, and the number of aggregated features included in the image group. A search result creating means for obtaining an evaluation value of each image group for a search target instance represented by a sum, and creating a search result based on the evaluation value;
Image search device including
前記特徴照合集計手段は、前記追加特徴と前記フレーム画像から抽出された複数の特徴とを照合し、前記第2出現頻度及び前記第3出現頻度を更新し、
前記逆フレーム画像頻度計算手段は、更新された前記第2出現頻度に基づいて、前記逆フレーム画像頻度を再計算し、
前記検索結果作成手段は、再計算された逆フレーム画像頻度、更新された前記第1出現頻度、及び更新された前記第3出現頻度に基づいて、前記新たに追加されたインスタンスに対する検索結果を作成する
請求項1記載の画像検索装置。 The feature aggregation and aggregation means calculates the aggregation result of the first appearance frequency based on an additional feature not included in the aggregation feature among features extracted from an instance image indicating an instance newly added as a search target. Updated,
The feature collation tabulation unit collates the additional feature with a plurality of features extracted from the frame image, updates the second appearance frequency and the third appearance frequency,
The inverse frame image frequency calculating means recalculates the inverse frame image frequency based on the updated second appearance frequency,
The search result creating means creates a search result for the newly added instance based on the recalculated reverse frame image frequency, the updated first appearance frequency, and the updated third appearance frequency. The image search device according to claim 1.
前記特徴抽出手段が、クエリとなるインスタンスを示すインスタンス画像、及び検索対象となる複数のフレーム画像からなる画像群の各フレーム画像から複数の特徴を抽出し、
前記特徴抽出手段により複数のインスタンスの各々を示す複数のインスタンス画像の各々から抽出された複数の特徴から、重複する特徴を集約した集約特徴の各々の前記複数のインスタンス画像における前記インスタンス毎の第1出現頻度を集計し、
前記特徴照合集計手段が、前記集約特徴の各々と前記フレーム画像から抽出された複数の特徴とを照合し、前記集約特徴の各々について、前記各フレーム画像における第2出現頻度、及び前記画像群における第3出現頻度を集計し、
前記逆フレーム画像頻度計算手段が、前記集約特徴の各々について、前記第2出現頻度に基づいて、前記画像群における該集約特徴の出現頻度が低いほど高くなる逆フレーム画像頻度を計算し、
前記検索結果作成手段が、前記集約特徴の各々の前記逆フレーム画像頻度、前記第1出現頻度、及び第3出現頻度、並びに前記画像群に含まれる集約特徴の数に関する画像群長に基づいて定まる各集約特徴の重要度の和で表される検索対象のインスタンスに対する各画像群の評価値を求め、前記評価値に基づく検索結果を作成する
画像検索方法。 An image search method in an image search apparatus including a feature extraction unit, a feature aggregation totaling unit, a feature matching totalization unit, an inverse frame image frequency calculation unit, and a search result creation unit,
The feature extraction means extracts a plurality of features from each frame image of an image group consisting of an instance image indicating an instance to be a query and a plurality of frame images to be searched;
The first for each instance in the plurality of instance images of the aggregated feature obtained by aggregating overlapping features from the plurality of features extracted from each of the plurality of instance images indicating each of the plurality of instances by the feature extraction unit. Total frequency of appearance,
The feature collating and summing unit collates each of the aggregated features with a plurality of features extracted from the frame image, and for each of the aggregated features, a second appearance frequency in each frame image, and in the image group Aggregate the third appearance frequency,
The inverse frame image frequency calculating means calculates, for each of the aggregate features, an inverse frame image frequency that increases as the appearance frequency of the aggregate feature in the image group decreases based on the second appearance frequency;
The search result creation means is determined based on an image group length related to the reverse frame image frequency, the first appearance frequency, and the third appearance frequency of each of the aggregate features, and the number of aggregate features included in the image group. An image search method for obtaining an evaluation value of each image group for a search target instance represented by a sum of importance of each aggregated feature and creating a search result based on the evaluation value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012251626A JP5851381B2 (en) | 2012-11-15 | 2012-11-15 | Image search apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012251626A JP5851381B2 (en) | 2012-11-15 | 2012-11-15 | Image search apparatus, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014099110A true JP2014099110A (en) | 2014-05-29 |
JP5851381B2 JP5851381B2 (en) | 2016-02-03 |
Family
ID=50941056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012251626A Active JP5851381B2 (en) | 2012-11-15 | 2012-11-15 | Image search apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5851381B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016081131A (en) * | 2014-10-10 | 2016-05-16 | 日本電信電話株式会社 | Image processor, method, and program |
JP2017054438A (en) * | 2015-09-11 | 2017-03-16 | 日本電信電話株式会社 | Image recognition device, method and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350655A (en) * | 2005-06-15 | 2006-12-28 | Nippon Telegr & Teleph Corp <Ntt> | Method, device and program for classifying and presenting result of web image search, and storage medium with the program stored therein |
JP2008242965A (en) * | 2007-03-28 | 2008-10-09 | Kddi Corp | Moving image presentation system |
JP2009064148A (en) * | 2007-09-05 | 2009-03-26 | Seiko Epson Corp | Information processor, and method and program for controlling information processor |
US20090245657A1 (en) * | 2008-04-01 | 2009-10-01 | Masamichi Osugi | Image search apparatus and image processing apparatus |
JP2009251667A (en) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Image retrieval device |
-
2012
- 2012-11-15 JP JP2012251626A patent/JP5851381B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350655A (en) * | 2005-06-15 | 2006-12-28 | Nippon Telegr & Teleph Corp <Ntt> | Method, device and program for classifying and presenting result of web image search, and storage medium with the program stored therein |
JP2008242965A (en) * | 2007-03-28 | 2008-10-09 | Kddi Corp | Moving image presentation system |
JP2009064148A (en) * | 2007-09-05 | 2009-03-26 | Seiko Epson Corp | Information processor, and method and program for controlling information processor |
US20090245657A1 (en) * | 2008-04-01 | 2009-10-01 | Masamichi Osugi | Image search apparatus and image processing apparatus |
JP2009251667A (en) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Image retrieval device |
Non-Patent Citations (1)
Title |
---|
JPN6015043413; 川西 隆仁、外6名: 'TRECVID 2010 Instance Searchタスク参加報告' 電子情報通信学会技術研究報告 第110巻,第414号, 20110210, p.81-86, 社団法人電子情報通信学会 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016081131A (en) * | 2014-10-10 | 2016-05-16 | 日本電信電話株式会社 | Image processor, method, and program |
JP2017054438A (en) * | 2015-09-11 | 2017-03-16 | 日本電信電話株式会社 | Image recognition device, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP5851381B2 (en) | 2016-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10394878B2 (en) | Associating still images and videos | |
CN104991959B (en) | A kind of method and system of the same or similar image of information retrieval based on contents | |
US7961986B1 (en) | Ranking of images and image labels | |
US9747305B2 (en) | Image search device, image search method, program, and computer-readable storage medium | |
US20120221572A1 (en) | Contextual weighting and efficient re-ranking for vocabulary tree based image retrieval | |
US8498455B2 (en) | Scalable face image retrieval | |
JP6211407B2 (en) | Image search system, image search device, search server device, image search method, and image search program | |
Pedronette et al. | Exploiting pairwise recommendation and clustering strategies for image re-ranking | |
Zhou et al. | Online video recommendation in sharing community | |
CN106445963B (en) | Advertisement index keyword automatic generation method and device of APP platform | |
US20210073890A1 (en) | Catalog-based image recommendations | |
CN108595688A (en) | Across the media Hash search methods of potential applications based on on-line study | |
CN102890700A (en) | Method for retrieving similar video clips based on sports competition videos | |
CN102855245A (en) | Image similarity determining method and image similarity determining equipment | |
CN103440262A (en) | Image searching system and image searching method basing on relevance feedback and Bag-of-Features | |
CN104899321A (en) | Collaborative filtering recommendation method based on item attribute score mean value | |
JP6062981B2 (en) | Video search apparatus, method, and program | |
JP5851381B2 (en) | Image search apparatus, method, and program | |
JP6314071B2 (en) | Information processing apparatus, information processing method, and program | |
JP6017277B2 (en) | Program, apparatus and method for calculating similarity between contents represented by set of feature vectors | |
WO2015024522A1 (en) | Search method and system, search engine and client | |
JP5979444B2 (en) | Image search apparatus, method, and program | |
dos Santos et al. | A signature-based bag of visual words method for image indexing and search | |
Kesidis et al. | Efficient cut-off threshold estimation for word spotting applications | |
CN108280766B (en) | Transaction behavior risk identification method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150122 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151030 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5851381 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |