JP2011070244A - Device, method and program for retrieving image - Google Patents

Device, method and program for retrieving image Download PDF

Info

Publication number
JP2011070244A
JP2011070244A JP2009218347A JP2009218347A JP2011070244A JP 2011070244 A JP2011070244 A JP 2011070244A JP 2009218347 A JP2009218347 A JP 2009218347A JP 2009218347 A JP2009218347 A JP 2009218347A JP 2011070244 A JP2011070244 A JP 2011070244A
Authority
JP
Japan
Prior art keywords
image
similarity
feature
region
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009218347A
Other languages
Japanese (ja)
Other versions
JP4906900B2 (en
Inventor
Stejic Zoran
ゾラン ステイチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2009218347A priority Critical patent/JP4906900B2/en
Publication of JP2011070244A publication Critical patent/JP2011070244A/en
Application granted granted Critical
Publication of JP4906900B2 publication Critical patent/JP4906900B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate ranking of similar image retrieval considering a retrieval intention of a user based on a query image. <P>SOLUTION: In an image retrieval device, a similarity integration part 50 performs weighting to similarity by similar object retrieval and similarity by similar area retrieval by use of the number of characteristic areas detected from the query image by a characteristic vector generation part 30c of a similar object retrieval part 30 and a division number of dividing the query image by a characteristic vector generation part 40c of a similar area retrieval part 40, and ranks respective retrieval target images by integrated similarity. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像の有する特徴量に基づいた類似画像を検索する画像検索装置、画像検索方法及びプログラムに関する。   The present invention relates to an image search apparatus, an image search method, and a program for searching for similar images based on feature values of images.

画像を検索キーとして入力し、画像の特徴量(配色、テクスチャ、形状等の画像の特徴を数値化して表現したもの)を比較することにより、検索キーである画像(以下「クエリ画像」という)に類似する画像を検索する技術が知られている。ユーザがクエリ画像を入力すると、検索対象の画像を格納した画像データベース内から類似する画像が検索されて、類似度にランキングされた検索結果が得られる。   By inputting an image as a search key and comparing image feature amounts (represented by quantifying image features such as color scheme, texture, and shape), an image that is a search key (hereinafter referred to as a “query image”) A technique for searching for an image similar to is known. When the user inputs a query image, similar images are searched from the image database storing the search target images, and search results ranked by similarity are obtained.

類似画像検索を行う際のユーザの検索意図としては対象とする画像に応じて複数の意図が想定される。先ず、例えば、クエリ画像中のオブジェクト(人や物や文字等の物体)と類似するオブジェクトを含む画像を検索したいという検索意図である。この場合、画像中のオブジェクトに注目して抽出した特徴量に基づいて画像検索を行う。   As the search intention of the user when performing the similar image search, a plurality of intentions are assumed depending on the target image. First, for example, the search intention is to search for an image including an object similar to an object (an object such as a person, a thing, or a character) in a query image. In this case, the image search is performed based on the feature amount extracted by paying attention to the object in the image.

また、クエリ画像全体と構成が類似する画像を検索したいという検索意図がある。この場合は、画像を構成する各領域の特徴量に基づいて画像検索を行う。   In addition, there is a search intention to search for an image having a configuration similar to that of the entire query image. In this case, an image search is performed based on the feature amount of each area constituting the image.

このように、ユーザの検索意図が複数ある場合には、画像検索のアルゴリズムを検索意図に応じて切り替える必要がある。しかし、クエリ画像だけからユーザの検索意図を判別することは難しいため、複数の検索アルゴリズムにより画像検索を行って、それらの検索により得られる類似度(スコア)を統合して検索結果を得る技術が考案されている(例えば、特許文献1参照)。   In this manner, when there are a plurality of search intentions of the user, it is necessary to switch the image search algorithm according to the search intention. However, since it is difficult to determine the user's search intention from only the query image, there is a technique for performing an image search using a plurality of search algorithms and integrating the similarities (scores) obtained by the search to obtain a search result. It has been devised (for example, see Patent Document 1).

特開2001−160057号公報Japanese Patent Laid-Open No. 2001-160057

ところで、上述した特許文献1の技術のように、複数の検索アルゴリズムによる類似度を統合する場合、ユーザが検索意図を指定しない限り、検索アルゴリズム毎の類似度が均等に考慮されるため、一方のアルゴリズムによるランキングに他方の類似度が影響を与えてしまう。   By the way, when integrating similarities based on a plurality of search algorithms as in the technique of Patent Document 1 described above, the similarity for each search algorithm is considered evenly unless the user designates the search intention. The similarity of the other side affects the ranking by the algorithm.

例えば、オブジェクトを含むクエリ画像の場合、オブジェクトが含まれる画像が上位にランキングされるのが望ましいが、領域に注目した類似度がこのランキングに統合されると、クエリ画像と同じオブジェクトを含まないが、画像全体の配色やパターンが類似するような画像が上位にランキングされるようになってしまう。   For example, in the case of a query image including an object, it is desirable that the image including the object is ranked higher, but if the similarity focused on the region is integrated into this ranking, the same object as the query image is not included. Images with similar color schemes and patterns of the entire image are ranked higher.

このように、単に複数の検索アルゴリズムによる類似度を統合する場合は、それぞれの検索アルゴリズムがランキングに互いに影響を与えてしまうため、ユーザの検索意図を考慮したランキングで検索結果を得ることは難しかった。   As described above, when the similarities based on a plurality of search algorithms are simply integrated, each search algorithm affects the ranking, so it is difficult to obtain a search result with a ranking that considers the user's search intention. .

また、クエリとして複数の画像の組合せを指定する場合もある。この場合、各クエリ画像について複数の検索アルゴリズムにより類似画像検索を行って、それらの検索結果を統合することとなるが、それらの検索結果の統合は複雑である。   In some cases, a combination of a plurality of images is specified as a query. In this case, similar image searches are performed for each query image using a plurality of search algorithms, and the search results are integrated, but the integration of the search results is complicated.

本発明は、上述した課題に鑑みて為されたものであり、その目的とするところは、クエリ画像に基づいてユーザの検索意図を考慮した類似画像検索のランキングを生成することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to generate a ranking of similar image searches in consideration of a user's search intention based on a query image.

上記目的を達成するため、第1の発明は、
画像データベースに記憶された検索対象の画像とクエリ画像との類似度を算出して、該類似度に基づいた検索結果を出力する画像検索装置において、
前記クエリ画像から物体の存在を示す特徴領域を検出する特徴領域検出手段と、
前記検出された特徴領域に基づいて前記クエリ画像の特徴ベクトルを生成する物体ベクトル生成手段と、
前記クエリ画像と、前記検索対象の画像との類似度を前記物体特徴生成手段により生成された特徴ベクトルに基づいて算出する物体類似度算出手段と、
前記クエリ画像を領域分割する領域分割手段と、
前記領域分割された各画像領域に基づいて前記クエリ画像の特徴ベクトルを生成する領域ベクトル生成手段と、
前記クエリ画像と、前記検索対象の画像との類似度を前記領域ベクトル生成手段により生成された特徴ベクトルに基づいて算出する領域類似度算出手段と、
前記物体類似度算出手段により算出された類似度と、前記領域類似度算出手段により算出された類似度とに、前記特徴領域検出手段により検出された特徴領域の数と、前記領域分割手段により領域分割された分割数とに基づいた重み付けを行って前記検索対象の画像毎に該類似度を統合する類似度統合手段と、
を備えることを特徴としている。
In order to achieve the above object, the first invention provides:
In an image search apparatus for calculating a similarity between a search target image stored in an image database and a query image and outputting a search result based on the similarity,
Feature region detecting means for detecting a feature region indicating the presence of an object from the query image;
Object vector generation means for generating a feature vector of the query image based on the detected feature region;
Object similarity calculation means for calculating the similarity between the query image and the image to be searched based on the feature vector generated by the object feature generation means;
Area dividing means for dividing the query image into areas;
Area vector generation means for generating a feature vector of the query image based on each of the divided image areas;
Area similarity calculating means for calculating the similarity between the query image and the search target image based on the feature vector generated by the area vector generating means;
The similarity calculated by the object similarity calculating unit and the similarity calculated by the region similarity calculating unit, the number of feature regions detected by the feature region detecting unit, and the region by the region dividing unit A similarity integration unit that performs weighting based on the number of divisions and integrates the similarity for each image to be searched;
It is characterized by having.

第1の発明によれば、クエリ画像から検出した特徴領域の数と、該クエリ画像の領域分割の数とに基づいて、特徴領域に基づいて生成した特徴ベクトルによる類似度と、領域分割した画像領域に基づいて生成した特徴ベクトルによる類似度とに重み付けを行う。即ち、クエリ画像中に物体の存在を示す特徴領域の数が多い場合には、特徴領域に基づいて生成した特徴ベクトルによる類似度に対する重み付けが高まり、また、特徴領域が少ない場合には、画像領域に基づいて生成した特徴ベクトルによる類似度の重みが高まる。   According to the first invention, the similarity based on the feature vector generated based on the feature region based on the number of feature regions detected from the query image and the number of region divisions of the query image, and the region-divided image The similarity based on the feature vector generated based on the region is weighted. That is, when the number of feature areas indicating the presence of an object in the query image is large, weighting on the similarity by the feature vector generated based on the feature area is increased, and when there are few feature areas, the image area The weight of similarity based on the feature vector generated based on is increased.

このため、物体の存在に注目した検索意図なのか、画像全体の領域構成に注目した検索意図なのかを指し示す重み付けをクエリ画像に基づいて各類似度に対して行うことができる。従って、クエリ画像に基づいてユーザの検索意図を考慮した類似画像検索のランキングを生成することができる。   For this reason, it is possible to weight each similarity based on the query image to indicate whether the search intention is focused on the presence of the object or the search intention focused on the area configuration of the entire image. Therefore, it is possible to generate a ranking of similar image searches in consideration of the user's search intention based on the query images.

また、第2の発明において、前記領域分割手段は、
前記特徴領域検出手段により検出された特徴領域の数に基づいて前記領域分割する数を決定することを特徴としている。
In the second invention, the area dividing means includes
The number of region divisions is determined based on the number of feature regions detected by the feature region detection means.

このため、クエリ画像から検出した特徴領域の数に基づいてクエリ画像の領域分割の数を決定するため、特徴領域が多く検出された場合には細かく、少ない場合には荒く領域分割するといったように、特徴領域の数に応じて領域分割の精度を変えることができる。   For this reason, since the number of region divisions of the query image is determined based on the number of feature regions detected from the query image, the region is divided finely when a large number of feature regions are detected, and roughly divided when the number of feature regions is small. The accuracy of area division can be changed according to the number of feature areas.

また、第3の発明において、
前記クエリ画像が、画像の一部を切り出すことにより生成された画像である場合に、
前記類似度統合手段は、
前記特徴領域検出手段がクエリ画像から検出した特徴領域を前記切り出す前の画像から検出される特徴領域の数により正規化し、その正規化した特徴領域の数を用いて前記類似度を統合することを特徴としている。
In the third invention,
When the query image is an image generated by cutting out a part of the image,
The similarity integration unit includes:
Normalizing the feature region detected by the feature region detection unit from the query image based on the number of feature regions detected from the image before clipping, and integrating the similarity using the normalized number of feature regions; It is a feature.

このため、クエリ画像の特徴領域の数を、該クエリ画像を切り出す前の元の画像の特徴領域の数に基づいて正規化することにより、クエリ画像にオブジェクトが含まれる確率として重み付けを行うことができる。   For this reason, by normalizing the number of feature regions of the query image based on the number of feature regions of the original image before cutting out the query image, weighting can be performed as the probability that the query image includes an object. it can.

また、第4の発明は、
コンピュータが、画像データベースに記憶された検索対象の画像とクエリ画像との類似度を算出して、該類似度に基づいた検索結果を出力する画像検索方法において、
前記クエリ画像から物体の存在を示す特徴領域を検出する特徴領域検出工程と、
前記検出された特徴領域に基づいて前記クエリ画像の特徴ベクトルを生成する物体ベクトル生成工程と、
前記クエリ画像と、前記検索対象の画像との類似度を前記物体特徴生成工程において生成された特徴ベクトルに基づいて算出する物体類似度算出工程と、
前記クエリ画像を領域分割する領域分割手段と、
前記領域分割された各画像領域に基づいて前記クエリ画像の特徴ベクトルを生成する領域ベクトル生成工程と、
前記クエリ画像と、前記検索対象の画像との類似度を前記領域ベクトル生成工程において生成された特徴ベクトルに基づいて算出する領域類似度算出工程と、
前記物体類似度算出工程において算出された類似度と、前記領域類似度算出工程において算出された類似度とに、前記特徴領域検出工程において検出された特徴領域の数と、前記領域分割工程において領域分割された分割数とに基づいた重み付けを行って前記検索対象の画像毎に該類似度を統合する類似度統合工程と、
を前記コンピュータが行うことを特徴としている。
In addition, the fourth invention is
In an image search method in which a computer calculates a similarity between a query image and a query image stored in an image database, and outputs a search result based on the similarity.
A feature region detection step of detecting a feature region indicating the presence of an object from the query image;
An object vector generation step of generating a feature vector of the query image based on the detected feature region;
An object similarity calculation step of calculating a similarity between the query image and the search target image based on the feature vector generated in the object feature generation step;
Area dividing means for dividing the query image into areas;
A region vector generation step of generating a feature vector of the query image based on each of the divided image regions;
A region similarity calculation step of calculating a similarity between the query image and the search target image based on the feature vector generated in the region vector generation step;
The similarity calculated in the object similarity calculation step, the similarity calculated in the region similarity calculation step, the number of feature regions detected in the feature region detection step, and the region in the region division step A similarity integration step of integrating the similarities for each image to be searched by performing weighting based on the number of divided divisions;
Is performed by the computer.

また、第5の発明の画像検索プログラムは、上記第4の発明である画像検索方法をコンピュータに実行させることを特徴としている。   According to a fifth aspect of the present invention, there is provided an image search program that causes a computer to execute the image search method according to the fourth aspect of the present invention.

第4、第5の発明によれば、第1の発明と同様に、物体の存在に注目した検索意図なのか、画像全体の領域構成に注目した検索意図なのかを指し示す重み付けをクエリ画像に基づいて各類似度に対して行うことができるため、クエリ画像に基づいてユーザの検索意図を考慮した類似画像検索のランキングを生成することができる。   According to the fourth and fifth inventions, as in the first invention, the weighting indicating whether the search intention is focused on the presence of an object or the search intention focused on the area configuration of the entire image is based on the query image. Therefore, it is possible to generate a ranking of similar image search considering the user's search intention based on the query image.

本発明によれば、クエリ画像に基づいてユーザの検索意図を考慮した類似画像検索のランキングを生成することができる。   According to the present invention, it is possible to generate a ranking of similar image search in consideration of a user's search intention based on a query image.

本発明に係る画像検索装置の機能構成を示すブロック図。The block diagram which shows the function structure of the image search device which concerns on this invention. 類似物体検索におけるインデクシング処理の処理フローを示すフローチャート。The flowchart which shows the processing flow of the indexing process in a similar object search. 類似領域検索におけるインデクシング処理の処理フローを示すフローチャート。The flowchart which shows the processing flow of the indexing process in a similar area | region search. ビジュアルキーワードによるインデクシングの概要を説明するための図。The figure for demonstrating the outline | summary of the indexing by a visual keyword. 検索処理(物体類似度算出処理、領域類似度算出処理、類似度統合処理)の処理フローを示すフローチャート。The flowchart which shows the processing flow of a search process (an object similarity calculation process, an area similarity calculation process, a similarity integration process). クエリ画像に対する特徴領域の抽出例、領域分割の例を示す図。The figure which shows the example of extraction of the characteristic area | region with respect to a query image, and the example of area division. クエリ画像にオブジェクトが含まれる確率についての近似グラフ。The approximation graph about the probability that an object will be included in a query image.

[画像検索装置の構成]
以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本発明を適用した画像検索装置1の機能ブロック図である。画像検索装置1には、図示しないクライアント端末が通信ネットワーク(インターネットや電話回線網等)を介して接続され、互いにデータ通信可能となっている。
[Configuration of image search device]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a functional block diagram of an image search apparatus 1 to which the present invention is applied. A client terminal (not shown) is connected to the image search apparatus 1 via a communication network (such as the Internet or a telephone line network) so that data communication can be performed.

画像検索装置1は、通信ネットワークを介して接続されたパーソナルコンピュータや携帯端末等のクライアント端末から送信されるクエリ画像を検索要求として受信する。そして、その検索要求に応じた類似画像検索を行って、類似度順にランキングした検索結果をクライアント端末に返送する。   The image search apparatus 1 receives a query image transmitted from a client terminal such as a personal computer or a mobile terminal connected via a communication network as a search request. Then, a similar image search is performed according to the search request, and search results ranked in the order of similarity are returned to the client terminal.

本実施形態における画像検索装置1は、ビジュアルキーワードによる画像領域をインデックス化することによる画像検索手法を用いる。ビジュアルキーワードによる画像検索とは、画像を複数の画像領域の集合として表現し、各画像を構成する画像領域(以下、適宜「部分画像」という)から得られる特徴量に基づいて画像のインデックス(特徴ベクトル)を生成する技術であり、テキスト中のキーワードから文章の特徴量を求めるテキスト検索技術の応用といえる。   The image search apparatus 1 according to the present embodiment uses an image search method by indexing image areas based on visual keywords. An image search using visual keywords represents an image as a set of a plurality of image areas, and an image index (feature) based on a feature amount obtained from image areas (hereinafter referred to as “partial images” as appropriate) constituting each image. Vector), which can be said to be an application of text search technology for obtaining feature values of sentences from keywords in text.

このため、ビジュアルキーワードによる画像検索では、画像中の画像領域をキーワードとして扱うことでテキスト検索技術(転置インデックスやベクトル空間モデル、単語の出現頻度等)における技術を画像領域検索へ適用して、大規模且つ高速性を実現することができる。ビジュアルキーワードによる画像検索についての参考技術文献としては、
・Sivic and Zisserman:“Efficient visual search for objects in videos”, Proceedings of the IEEE, Vol.96,No.4.,pp.548-566,Apr 2008.
・Yang and Hauptmann:“A text categorization approach to video scene classification using keypoint features”,Carnegie Mellon University Technical Report,pp.25,Oct 2006.
・Jiang and Ngo:“Bag-of-visual-words expansion using visual relatedness for video indexing”,Proc.31st ACM SIGIR Conf.,pp.769-770,Jul 2008.
・Jiang, Ngo, andYang:“Towards optimal bag-of-features for object categorization and semantic video retrieval”,Proc.6th ACM CIVR Conf.,pp.494-501,Jul.2007.
・Yang, Jiang, Hauptmann, and Ngo:“Evaluating bag-of-visual-words representations in scene classification”,Proc.15th ACM MM Conf., Workshop onMMIR,pp.197-206,Sep. 2007.
等が挙げられる。
For this reason, in image search using visual keywords, text search technology (transposition index, vector space model, word appearance frequency, etc.) is applied to image region search by treating the image region in the image as a keyword. Scale and high speed can be realized. As reference technical literature on image search using visual keywords,
Sivic and Zisserman: “Efficient visual search for objects in videos”, Proceedings of the IEEE, Vol.96, No.4, pp.548-566, Apr 2008.
・ Yang and Hauptmann: “A text categorization approach to video scene classification using keypoint features”, Carnegie Mellon University Technical Report, pp. 25, Oct 2006.
・ Jiang and Ngo: “Bag-of-visual-words expansion using visual relatedness for video indexing”, Proc. 31 st ACM SIGIR Conf., Pp.769-770, Jul 2008.
・ Jiang, Ngo, and Yang: “Towards optimal bag-of-features for object categorization and semantic video retrieval”, Proc. 6th ACM CIVR Conf., Pp.494-501, Jul. 2007.
・ Yang, Jiang, Hauptmann, and Ngo: “Evaluating bag-of-visual-words representations in scene classification”, Proc. 15 th ACM MM Conf., Workshop on MMIR, pp.197-206, Sep. 2007.
Etc.

また、ある一つの画像を複数の領域画像の集合として表現することによって、一般的な類似画像検索とは異なり、画像中の一部分を任意大きさや位置で切り出した部分画像をクエリ画像とした検索が可能となる。このため、ユーザは、所望の検索結果を得るために、画像の一部分を指定するといった操作により、より直接・正確にクエリを表現することができる。   Also, by expressing a single image as a set of multiple region images, unlike general similar image search, search using a partial image obtained by cutting out a part of an image with an arbitrary size or position as a query image is possible. It becomes possible. For this reason, in order to obtain a desired search result, the user can express a query more directly and accurately by an operation such as designating a part of an image.

本実施形態では、ビジュアルキーワードによる画像領域検索の技術の応用として次ぎの二つの画像検索を用いる。
先ずは、クエリ画像内に含まれるオブジェクトと類似するオブジェクトを含む類似画像を検索する類似物体検索である。オブジェクトとは、人物や物等の形状を有する物体であり、この検索では、クエリ画像には特定のオブジェクトが含まれている必要がある。
もう一方は、クエリ画像と同じ画像領域又は視覚的に類似している画像領域を含み、全体的な特徴が類似する類似画像を検索する類似領域検索である。この検索では、クエリ画像は特定のオブジェクトを含む必要がなく、また、複数の画像の組み合わせであってもよい。
In the present embodiment, the following two image searches are used as an application of the image region search technique using visual keywords.
First, a similar object search is performed for searching for a similar image including an object similar to the object included in the query image. An object is an object having a shape such as a person or an object. In this search, a specific object needs to be included in the query image.
The other is a similar region search that searches for a similar image that includes the same image region as the query image or an image region that is visually similar and has similar overall characteristics. In this search, the query image does not need to include a specific object, and may be a combination of a plurality of images.

画像検索装置1は、類似物体検索及び類似領域検索それぞれに対応した検索アルゴリズムを備えて、クエリ画像に対してそれぞれの検索処理を行って検索結果を出力する。   The image search apparatus 1 includes search algorithms corresponding to the similar object search and the similar area search, performs each search process on the query image, and outputs a search result.

図1に示すように、画像検索装置1は、クエリ画像受付部10、画像DB20、類似物体検索部30、類似領域検索部40、類似度統合部50及び検索結果出力部60を備えて構成される。これらの機能部は、所謂コンピュータにより構成され、演算/制御装置としてのCPU(Central Processing Unit)、記憶媒体としてのRAM(Random Access Memory)及びROM(Read Only Memory)、通信インターフェイス等が連関することで実現される。   As shown in FIG. 1, the image search device 1 includes a query image reception unit 10, an image DB 20, a similar object search unit 30, a similar region search unit 40, a similarity integration unit 50, and a search result output unit 60. The These functional units are configured by so-called computers, and are associated with a CPU (Central Processing Unit) as an arithmetic / control device, a RAM (Random Access Memory) and a ROM (Read Only Memory) as a storage medium, a communication interface, and the like. It is realized with.

クエリ画像受付部10は、クライアント端末から送信される類似画像検索の検索キーとなるクエリ画像を受信して受け付ける。   The query image receiving unit 10 receives and receives a query image that is a search key for similar image search transmitted from a client terminal.

画像DB20は、クエリ画像に対して類似する画像を検索する対象となる画像データ(以下適宜「検索対象画像」という)を記憶するデータベースである。例えば、画像を識別するための識別情報である画像IDと、画像データとを対応付けて記憶する。   The image DB 20 is a database that stores image data to be searched for images similar to the query image (hereinafter referred to as “search target image” as appropriate). For example, an image ID, which is identification information for identifying an image, and image data are stored in association with each other.

類似物体検索部30は、クエリ画像と検索対象画像とについて、画像中に含まれるオブジェクトに注目した類似度を検索対象画像毎に算出して出力する。詳細は後述するが、簡単には、画像中のオブジェクトの存在を示す特徴領域を抽出し、その特徴領域を含む画像領域の特徴量に基づいて特徴ベクトルを生成する。そして、画像毎の特徴ベクトルに基づいて、クエリ画像と検索対象画像との類似度を算出する。   The similar object search unit 30 calculates and outputs, for each search target image, the degree of similarity of the query image and the search target image, focusing on the object included in the image. Although details will be described later, a feature region indicating the presence of an object in an image is extracted, and a feature vector is generated based on a feature amount of the image region including the feature region. Then, the similarity between the query image and the search target image is calculated based on the feature vector for each image.

図1によれば、類似物体検索部30は、インデクシング部30a、インデックスDB30b、特徴ベクトル生成部30c、物体類似度算出部30d及びクラスタDB30eを備えて構成される。   Referring to FIG. 1, the similar object search unit 30 includes an indexing unit 30a, an index DB 30b, a feature vector generation unit 30c, an object similarity calculation unit 30d, and a cluster DB 30e.

類似物体検索部30は、画像DB20に記憶された画像データの特徴ベクトルを生成し予めインデックス化しておくインデックス処理工程と、クエリ画像から生成した特徴ベクトルとインデックスDB30bに記憶された特徴ベクトルとを比較することで類似度を算出する類似度算出工程とを行う。尚、インデクシング部30aが行う特徴ベクトルの生成と、特徴ベクトル生成部30cが行う特徴ベクトルの生成とは同じアルゴリズムを用い、各処理工程の詳細については後述する。   The similar object search unit 30 generates a feature vector of image data stored in the image DB 20 and indexes it in advance, and compares the feature vector generated from the query image with the feature vector stored in the index DB 30b. Thus, a similarity calculation step for calculating the similarity is performed. The generation of feature vectors performed by the indexing unit 30a and the generation of feature vectors performed by the feature vector generation unit 30c use the same algorithm, and details of each processing step will be described later.

類似領域検索部40は、クエリ画像と検索対象画像とについて、画像中の各画像領域に注目した類似度を検索対象画像毎に算出して出力する。簡単には、画像をN×Mの領域に分割して、その画像領域の特徴量に基づいて画像の特徴ベクトルを生成する。そして、その画像毎の特徴ベクトルに基づいて、クエリ画像と検索対象画像との類似度を算出する。   The similar area search unit 40 calculates and outputs, for each search target image, the degree of similarity for each image area in the image for the query image and the search target image. Briefly, an image is divided into N × M areas, and an image feature vector is generated based on the feature amount of the image area. Then, the similarity between the query image and the search target image is calculated based on the feature vector for each image.

図1によれば、類似領域検索部40は、インデクシング部40a、インデックスDB40b、特徴ベクトル生成部40c、領域類似度算出部40d及びクラスタDB40eを備えて構成される。類似領域検索部40も類似物体検索部30と同様に、インデックス処理工程と、類似度算出工程とを行う。尚、インデクシング部40aが行う特徴ベクトルの生成と、特徴ベクトル生成部40cが行う特徴ベクトルの生成とは同じアルゴリズムを用いて実現できる。   According to FIG. 1, the similar region search unit 40 includes an indexing unit 40a, an index DB 40b, a feature vector generation unit 40c, a region similarity calculation unit 40d, and a cluster DB 40e. Similar to the similar object search unit 30, the similar region search unit 40 performs an index processing step and a similarity calculation step. Note that the generation of feature vectors performed by the indexing unit 40a and the generation of feature vectors performed by the feature vector generation unit 40c can be realized using the same algorithm.

類似度統合部50は、類似物体検索部30により算出された検索対象画像毎の類似度と、類似領域検索部40により算出された検索対象画像毎の類似度とを、その検索対象画像毎に統合する演算を行う。   The similarity integration unit 50 calculates the similarity for each search target image calculated by the similar object search unit 30 and the similarity for each search target image calculated by the similar region search unit 40 for each search target image. Perform operations to be integrated.

検索結果出力部60は、類似度統合部50により統合された類似度に基づいて検索対象画像をランク付けしたデータを生成する。この検索結果出力部60が出力するデータは、例えば、検索対象画像の画像IDを類似度に基づいてソートしたデータである。画像IDには、画像DB20にアクセスするためのアドレス(URL)を付加してもよい。   The search result output unit 60 generates data obtained by ranking the search target images based on the similarities integrated by the similarity integrating unit 50. The data output by the search result output unit 60 is, for example, data obtained by sorting the image IDs of search target images based on the similarity. An address (URL) for accessing the image DB 20 may be added to the image ID.

[類似物体検索におけるインデクシング処理]
次ぎに、類似物体検索におけるインデクシング処理について、図2のインデクシング処理工程の処理フローを示すフローチャートと、図4の特徴ベクトルの生成についての概略を示す図を参照しながら説明する。
[Indexing process in similar object search]
Next, the indexing process in the similar object search will be described with reference to a flowchart showing the process flow of the indexing process step in FIG. 2 and a schematic diagram of generating feature vectors in FIG.

先ず、インデクシング部30aは、画像DB20に記憶されている画像データを読み出して、各検索対象画像中のオブジェクトに着目した特徴領域を検出する(ステップS11)。この特徴領域の検出方法としては、
・Harris−affine
・Hessian−affine
・Maximally stable extremal regions(MSER)
・Difference of Gaussians(DoG)
・Laplacian of Gaussian(LoG)
・Determinant of Hessian(DoH)
等がある。
また、特徴領域の検出手法としては、画像中のランダムな大きさ・位置の画像領域を特徴領域として選択する手法も知られている。
First, the indexing unit 30a reads the image data stored in the image DB 20, and detects a feature region focused on an object in each search target image (step S11). As a detection method of this feature region,
・ Harris-affine
・ Hessian-affine
・ Maximally stable extremal regions (MSER)
・ Difference of Gaussians (DoG)
・ Laplacian of Gaussian (LoG)
・ Determinant of Hessian (DoH)
Etc.
As a feature region detection method, a method of selecting an image region having a random size and position in an image as a feature region is also known.

また、特徴領域の検出技術については、“Local Invariant Feature Detectors: A Survey”(Foundations and Trends in Computer Graphics and Vision,Vol.3,No.3,pp.177-280,2007.)等において公開されており、適宜公知技術を採用可能である。   The feature region detection technology is published in “Local Invariant Feature Detectors: A Survey” (Foundations and Trends in Computer Graphics and Vision, Vol.3, No.3, pp.177-280, 2007.). Any known technique can be adopted as appropriate.

インデクシング部30aは、画像中にある特徴点を中心とした所定の形状の特徴領域(楕円や矩形)を「領域画像」として検出する。   The indexing unit 30a detects a feature region (an ellipse or a rectangle) having a predetermined shape centered on a feature point in the image as an “region image”.

図4は、画像IDが‘0001’について、画像中の特徴点を検出して、その特徴点を中心とした領域T1〜T6を切り出している例を示している。また、画像ID‘0002’については領域T11〜T14、画像ID‘0003’については領域T21〜T26を切り出している例を示している。   FIG. 4 shows an example in which a feature point in the image is detected for the image ID “0001”, and regions T1 to T6 centered on the feature point are cut out. Further, an example is shown in which regions T11 to T14 are extracted for the image ID “0002” and regions T21 to T26 are extracted for the image ID “0003”.

次ぎにインデクシング部30aは、領域画像から特徴量を抽出する(ステップS12)。尚、類似物体検索におけるインデクシングでは、スケール変化や回転、角度変化等のアフィン変換に耐性を持つ局所特徴量を抽出する。局所特徴量の一例としては、例えば次ぎのものが挙げられる。   Next, the indexing unit 30a extracts a feature amount from the region image (step S12). In the indexing in the similar object search, local feature amounts that are resistant to affine transformation such as scale change, rotation, and angle change are extracted. As an example of the local feature amount, for example, the following can be cited.

・SIFT
・gradient location and orientation histogram
・shape context
・PCA−SIFT
・spin images
・steerable filters
・differential invariants
・complex filters
・moment invariants
・ SIFT
・ Gradient location and orientation histogram
・ Shape context
・ PCA-SIFT
・ Spin images
・ Steerable filters
・ Differential inverters
・ Complex filters
・ Moment inviteants

局所特徴量の抽出については、“A performance evaluation of local descriptors”(IEEE Trans. Pattern Analysis and Machine Intelligence, Vol.27, No.10,pp.1615-1630,2005.)等において公開されており、適宜公知技術を採用可能である。   The extraction of local features is published in “A performance evaluation of local descriptors” (IEEE Trans. Pattern Analysis and Machine Intelligence, Vol.27, No.10, pp.1615-1630, 2005.) A known technique can be adopted as appropriate.

そして、領域画像の集合を特徴量に基づいてクラスタリングする(ステップS13)。インデクシング部30aは、クラスタDB30eで予めクラスタリングされた画像の分布と、領域画像との特徴量空間における距離に基づいて、領域画像が属するクラスタを決定する。   Then, the set of area images is clustered based on the feature amount (step S13). The indexing unit 30a determines a cluster to which the region image belongs based on the distribution of images clustered in advance in the cluster DB 30e and the distance between the region image and the feature amount space.

クラスタDB30eは、予め画像を特徴量に基づいてクラスタリングして、画像とクラスタとを対応付けて蓄積記憶したデータベースである。クラスタDB30eにおいてクラスタリングしておく画像は、画像DB20に記憶された画像から検出した特徴領域(領域画像)であってもよいし、学習用に予め用意した画像から検出した特徴領域(領域画像)であってもよい。   The cluster DB 30e is a database in which images are clustered in advance based on feature values, and the images and clusters are stored in association with each other. The image to be clustered in the cluster DB 30e may be a feature region (region image) detected from an image stored in the image DB 20, or a feature region (region image) detected from an image prepared in advance for learning. There may be.

クラスタリングにより、類似する特徴量を有する領域画像は同じクラスタに属することとなる。例えば、画像の特徴を軸とした特徴量空間に全ての領域画像を配置して、領域画像の総数に対して所定割合以上の領域画像の集合が得られた領域をクラスタとみなすようにすればよい。以下、各クラスタを識別するIDを‘#’を付して説明する。   By clustering, region images having similar feature amounts belong to the same cluster. For example, if all the region images are arranged in the feature amount space with the feature of the image as an axis, and a region in which a set of region images of a predetermined ratio or more with respect to the total number of region images is obtained is regarded as a cluster. Good. Hereinafter, an ID for identifying each cluster will be described with “#” attached.

尚、クラスタリングの標準的な手法としては、k-means, Hierarchical Agglomerative Clustering(HAC)などが用いられる。参考文献として、
・Jain, Murty, Flynn:"Data clustering:a review", ACM Computing Surveys,Vol.31,Issue 3,pp.264-323,1999.
がある。
As a standard method of clustering, k-means, Hierarchical Agglomerative Clustering (HAC) or the like is used. As a reference,
-Jain, Murty, Flynn: "Data clustering: a review", ACM Computing Surveys, Vol. 31, Issue 3, pp. 264-323, 1999.
There is.

図4では、切り出した領域T1、T3〜T6の画像がクラスタ#1、T2の画像がクラスタ#2、領域T12〜T14の画像がクラスタ#3、領域T11及びT21の画像がクラスタ#4、領域T24〜T26の画像がクラスタ#5、領域T22及びT23の画像がクラスタ#6に分類されている。   In FIG. 4, the extracted images of the regions T1, T3 to T6 are the cluster # 1, the image of T2 is the cluster # 2, the images of the regions T12 to T14 are the cluster # 3, the images of the regions T11 and T21 are the cluster # 4, the region The images of T24 to T26 are classified as cluster # 5, and the images of regions T22 and T23 are classified as cluster # 6.

インデクシング部30aは、領域画像をクラスタリングすると、各検索対象画像から検出したそれぞれの領域画像が属するクラスタと、各クラスタでの該領域画像の出現頻度を取得する(ステップS14)。例えば、No.0001の画像については、クラスタ#1において5つ、#2において1つの領域画像が出現している。   When the area images are clustered, the indexing unit 30a acquires the cluster to which each area image detected from each search target image belongs and the appearance frequency of the area image in each cluster (step S14). For example, no. Regarding the 0001 image, five area images appear in cluster # 1 and one area image in # 2.

そして、インデクシング部30aは、各検索対象画像の領域画像が属するクラスタと出現頻度により特徴ベクトルを生成する(ステップS15)。図4に示すクラスタリングの特徴ベクトルの一例に基づいて生成される特徴ベクトルは次ぎのようになる。   Then, the indexing unit 30a generates a feature vector based on the cluster to which the region image of each search target image belongs and the appearance frequency (step S15). A feature vector generated based on an example of the clustering feature vector shown in FIG. 4 is as follows.

Figure 2011070244
Figure 2011070244

インデクシング部30aは、検索対象画像毎に生成した特徴ベクトルをインデックスとして画像IDに対応付けてインデックスDB30bに記憶する。以上の処理により、インデクシング部30aは、画像DB20に記憶された画像について、画像中のオブジェクトに注視した特徴ベクトルを生成してインデックスDB30bに予め記憶しておく。   The indexing unit 30a stores the feature vector generated for each search target image as an index in the index DB 30b in association with the image ID. With the above processing, the indexing unit 30a generates a feature vector in which an object in the image is focused on the image stored in the image DB 20, and stores it in the index DB 30b in advance.

[類似領域検索におけるインデクシング処理]
次ぎに、類似領域検索におけるインデクシング処理について、図3のインデクシング処理工程の処理フローを示すフローチャートと、図4の特徴ベクトルの生成についての概略を示す図を参照しながら説明する。
[Indexing process in similar area search]
Next, the indexing process in the similar area search will be described with reference to the flowchart showing the process flow of the indexing process in FIG. 3 and the outline of the feature vector generation in FIG.

先ず、類似領域検索部40のインデクシング部40aは、画像DB20に記憶されている画像データを読み出して、各検索対象画像を所定領域で分割する(ステップS21)。ここで、画像を分割する手法としては、例えば、予め定めたM×Nブロックに分割したり、分割後のブロックの大きさが予め定めたm×n画素となるように分割したりする手法がある。例えば、画像を10×10のブロックに分割する場合、画像の大きさが640×480画素であれば、1ブロックの大きさは64×48画素となる。   First, the indexing unit 40a of the similar region search unit 40 reads the image data stored in the image DB 20, and divides each search target image into predetermined regions (step S21). Here, as a method of dividing the image, for example, a method of dividing the image into predetermined M × N blocks or a method of dividing the divided blocks so that the size of the divided blocks becomes predetermined m × n pixels. is there. For example, when an image is divided into 10 × 10 blocks, if the size of the image is 640 × 480 pixels, the size of one block is 64 × 48 pixels.

図4の例では、No.0001の画像については7×6ブロックに分割されている。また、No.0002の画像については5×7ブロック、No.0003の画像については6×6ブロックに分割されている。   In the example of FIG. The 0001 image is divided into 7 × 6 blocks. No. For images of 0002, 5 × 7 blocks, No. The 0003 image is divided into 6 × 6 blocks.

次ぎにインデクシング部40aは、検索対象画像を分割したブロック状の各画像から特徴量を抽出する(ステップS22)。そして、分割画像の集合を特徴量に基づいてクラスタリングする(ステップS23)。この類似領域検索のインデクシングにおいて抽出する特徴量は、画像の配色やテクスチャ、形状等の各画像の特徴を数値化して表現したものである。尚、図4では、特徴領域として検出点に基づいて切り出した領域画像をクラスタリングした場合を例示しており、分割画像のクラスタリングについての例示は省略している。   Next, the indexing unit 40a extracts a feature amount from each block-shaped image obtained by dividing the search target image (step S22). Then, the set of divided images is clustered based on the feature amount (step S23). The feature amount extracted in the indexing of the similar area search is a numerical expression of the feature of each image such as the color scheme, texture, and shape of the image. FIG. 4 illustrates a case where the region images cut out based on the detection points are clustered as feature regions, and illustration of clustering of divided images is omitted.

画像特徴量についての参考文献は、
“Content-based image retrieval at the end of the early years”,IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22,No.12,pp.1349-1380.Dec 2000.
が知られている。
References about image features are:
“Content-based image retrieval at the end of the early years”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, No.12, pp.1349-1380.Dec 2000.
It has been known.

また、インデクシング部40aは、クラスタDB40eで予めクラスタリングされた画像の分布と、分割画像との特徴量空間における距離に基づいて、分割画像が属するクラスタを決定する。クラスタDB40eは、予め画像を特徴量に基づいてクラスタリングして、画像とクラスタとを対応付けて蓄積記憶したデータベースである。クラスタDB40eにおいてクラスタリングしておく画像は、画像DB20に記憶された画像を所定領域に分割した分割画像であってもよいし、学習用に予め用意した画像を分割した分割画像であってもよい。   Further, the indexing unit 40a determines a cluster to which the divided image belongs based on the distribution of the images clustered in advance in the cluster DB 40e and the distance in the feature amount space between the divided images. The cluster DB 40e is a database in which images are clustered based on feature amounts in advance and the images and clusters are stored in association with each other. The image to be clustered in the cluster DB 40e may be a divided image obtained by dividing an image stored in the image DB 20 into predetermined regions, or may be a divided image obtained by dividing an image prepared in advance for learning.

インデクシング部40aは、分割画像をクラスタリングすると、各検索対象画像から分割された分割画像が属するクラスタと、各クラスタでの該分割画像の出現頻度を取得する(ステップS24)。そして、インデクシング部40aは、各検索対象画像を構成する分割画像が属するクラスタと出現頻度により特徴ベクトルを生成する(ステップS25)。   When the divided images are clustered, the indexing unit 40a acquires a cluster to which the divided images divided from each search target image belong and the appearance frequency of the divided images in each cluster (step S24). Then, the indexing unit 40a generates a feature vector based on the cluster to which the divided images constituting each search target image belong and the appearance frequency (step S25).

インデクシング部40aは、検索対象画像毎に生成した特徴ベクトルをインデックスとして画像IDに対応付けてインデックスDB40bに記憶する。以上の処理により、インデクシング部40aは、画像DB20に記憶された画像について、各画像を構成する領域に着目した特徴ベクトルを生成してインデックスDB40bに予め記憶しておく。   The indexing unit 40a stores the feature vector generated for each search target image as an index in the index DB 40b in association with the image ID. Through the above processing, the indexing unit 40a generates a feature vector focusing on the area constituting each image for the image stored in the image DB 20, and stores it in the index DB 40b in advance.

このように、類似物体検索部30のインデクシング部30aが生成する特徴ベクトルは、オブジェクトの存在する可能性の高い特徴領域から生成されるため、オブジェクトの特徴を示す指標として有効である。   As described above, the feature vector generated by the indexing unit 30a of the similar object search unit 30 is generated from a feature region where the object is highly likely to exist, and thus is effective as an index indicating the feature of the object.

また、類似領域検索部40のインデクシング部40aが生成する特徴ベクトルは、画像を構成する各分割画像から生成されるため、画像の全体的な構成を示す指標として有効である。   Further, since the feature vector generated by the indexing unit 40a of the similar region search unit 40 is generated from each divided image constituting the image, it is effective as an index indicating the overall configuration of the image.

[画像検索装置の検索処理]
次ぎに、クエリ画像に類似する画像を検索する検索処理について図5のフローチャートと、図6の類似度の算出についての概略を示す図を参照しながら説明する。
[Search processing of image search device]
Next, a search process for searching for an image similar to the query image will be described with reference to the flowchart of FIG. 5 and the outline of the similarity calculation in FIG.

クエリ画像受付部10がクライアント端末からクエリ画像を受け付けると、図5に示す検索処理を行うが、この検索処理は、大きく分けて物体類似度算出処理と、領域類似度算出処理と、類似度統合処理とに分けられる。   When the query image receiving unit 10 receives a query image from the client terminal, the search processing shown in FIG. 5 is performed. This search processing is roughly divided into object similarity calculation processing, region similarity calculation processing, and similarity integration. It is divided into processing.

[物体類似度算出処理]
先ず、物体類似度算出処理について説明する。
類似物体検索部30の特徴ベクトル生成部30cは、クエリ画像をクエリ画像受付部10から取得して、上述したインデクシング処理と同様にクエリ画像中から特徴領域を検出する(ステップS31)。
[Object similarity calculation processing]
First, the object similarity calculation process will be described.
The feature vector generation unit 30c of the similar object search unit 30 acquires a query image from the query image reception unit 10, and detects a feature region from the query image in the same manner as the indexing process described above (step S31).

そして、検出した特徴領域を(領域画像)から特徴量を抽出する(ステップS32)。特徴ベクトル生成部30cは、各領域画像から抽出した特徴量と、クラスタDB30eに記憶されたクラスタの情報とに基づいて、各領域画像をクラスタリングして、各領域画像が属するクラスタを特定する(ステップS33)。   Then, a feature amount is extracted from the detected feature region (region image) (step S32). The feature vector generation unit 30c clusters each region image based on the feature amount extracted from each region image and the cluster information stored in the cluster DB 30e, and identifies the cluster to which each region image belongs (step S1). S33).

このクエリ画像から検出した領域画像のクラスタリングは、クラスタDB30eにおいてオブジェクトの特徴に着目したクラスタに対して行われる。各領域画像が属するクラスタと、そのクラスタへの領域画像の出現頻度とに基づいて、上述した手法と同様に特徴ベクトルを生成する(ステップS34)。   Clustering of the region image detected from the query image is performed on a cluster that focuses on the feature of the object in the cluster DB 30e. Based on the cluster to which each region image belongs and the appearance frequency of the region image in the cluster, a feature vector is generated in the same manner as described above (step S34).

類似物体検索部30の物体類似度算出部30dは、クエリ画像の特徴ベクトルと、インデックスDB30bに記憶された各検索対象画像の特徴ベクトルとに基づいて、検索対象画像毎の類似度(以下「物体類似度」という)を算出する(ステップS35)。尚、類似度の算出方法としては、コサイン距離やBhattacharyya距離等の公知技術が用いられる。   Based on the feature vector of the query image and the feature vector of each search target image stored in the index DB 30b, the object similarity calculation unit 30d of the similar object search unit 30 determines the similarity (hereinafter “object”) for each search target image. (Referred to as “similarity”) (step S35). As a method for calculating the similarity, a known technique such as a cosine distance or a Bhattacharyya distance is used.

ここで、例えば、クエリ画像から類似物体検索によるインデクシングにより次ぎの特徴ベクトルが生成されたとする。

Figure 2011070244
Here, for example, it is assumed that the next feature vector is generated from the query image by indexing by similar object search.
Figure 2011070244

このとき、図4の図示した画像ID‘0001’〜‘0003’の画像から生成した特徴ベクトルとのコサイン距離を類似度1〜3として算出すると、次ぎのようになる。   At this time, when the cosine distances with the feature vectors generated from the images with the image IDs “0001” to “0003” illustrated in FIG.

Figure 2011070244
Figure 2011070244

即ち、クエリ画像と検索対象画像とのそれぞれの画像中に含まれるオブジェクトに着目した特徴ベクトルに基づいて、画像ID‘0003’の検索対象画像がクエリ画像に最も類似しているとして、類似度が算出される。   That is, based on a feature vector focused on an object included in each of the query image and the search target image, the search target image with the image ID “0003” is most similar to the query image, and the similarity is Calculated.

[領域類似度算出処理]
次ぎに、領域類似度算出処理について説明する。
先ず、類似領域検索部40の特徴ベクトル生成部40cは、クエリ画像をクエリ画像受付部10から取得して、上述したインデクシング処理と同様に、そのクエリ画像を所定領域に分割する(ステップS41)。そして、所定領域に分割した画像から特徴量を抽出する(ステップS42)。
[Area similarity calculation processing]
Next, the region similarity calculation process will be described.
First, the feature vector generation unit 40c of the similar region search unit 40 acquires a query image from the query image reception unit 10, and divides the query image into predetermined regions in the same manner as the indexing process described above (step S41). Then, feature amounts are extracted from the image divided into predetermined regions (step S42).

特徴ベクトル生成部40cは、各分割画像から抽出した特徴量と、クラスタDB40eに記憶されたクラスタの情報とに基づいて各領域画像をクラスタリングして、各領域画像が属するクラスタを特定する(ステップS43)。クエリ画像から得られる分割画像のクラスタリングは、検索対象画像の特徴量に基づいてインデクシング部40aにより生成された画像を構成する各領域に着目したクラスタに対して行われる。   The feature vector generation unit 40c clusters each region image based on the feature amount extracted from each divided image and the cluster information stored in the cluster DB 40e, and specifies the cluster to which each region image belongs (step S43). ). Clustering of the divided images obtained from the query image is performed on clusters that focus on each area constituting the image generated by the indexing unit 40a based on the feature amount of the search target image.

特徴ベクトル生成部40cは、各分割画像が属するクラスタと、そのクラスタへの分割画像の出現頻度とに基づいて、上述した手法と同様に特徴ベクトルを生成する(ステップS44)。   The feature vector generation unit 40c generates a feature vector in the same manner as described above based on the cluster to which each divided image belongs and the frequency of appearance of the divided image in the cluster (step S44).

類似領域検索部40の領域類似度算出部40dは、クエリ画像の特徴ベクトルと、インデックスDB40bに記憶された各検索対象画像の特徴ベクトルとに基づいて、検索対象画像毎の類似度(以下「領域類似度」という)を算出する(ステップS45)。即ち、領域類似度算出部40dでは、各画像全体を構成する各領域に着目した特徴ベクトルに基づいて類似度が算出される。   The region similarity calculation unit 40d of the similar region search unit 40 uses a similarity for each search target image (hereinafter, “region” based on the feature vector of the query image and the feature vector of each search target image stored in the index DB 40b. (Referred to as “similarity”) (step S45). In other words, the area similarity calculation unit 40d calculates the similarity based on the feature vector focused on each area constituting the entire image.

[類似度統合処理]
次ぎに、類似度統合処理について説明する。
類似度統合部50は、類似物体検索部30の特徴ベクトル生成部30cにおいてクエリ画像から抽出された特徴領域の数と、類似領域検索部40の特徴ベクトル生成部40cにおいてクエリ画像を分割して得られた領域画像の分割数分割数とを取得する(ステップS51)。
[Similarity integration processing]
Next, the similarity integration process will be described.
The similarity integration unit 50 is obtained by dividing the number of feature regions extracted from the query image by the feature vector generation unit 30c of the similar object search unit 30 and the query image by the feature vector generation unit 40c of the similar region search unit 40. The division number of the obtained area image and the division number are acquired (step S51).

そして、各検索対象画像について物体類似度算出部30dが算出した物体類似度と、領域類似度算出部40dが算出した領域類似度に特徴領域数と分割数とに基づいた重み付けを行って、その類似度を検索対象画像毎に統合する(ステップS52)。検索対象画像毎に統合された類似度を以下「統合類似度」といい、次式により算出される。   Then, the object similarity calculated by the object similarity calculating unit 30d and the region similarity calculated by the region similarity calculating unit 40d for each search target image are weighted based on the number of feature regions and the number of divisions. Similarities are integrated for each search target image (step S52). The similarity integrated for each search target image is hereinafter referred to as “integrated similarity” and is calculated by the following equation.

統合類似度 = 物体類似度 ×(特徴領域数/(特徴領域数+分割数))
+領域類似度 ×(分割数 /(特徴領域数+分割数))
Integrated similarity = object similarity × (number of feature areas / (number of feature areas + number of divisions))
+ Area similarity x (number of divisions / (number of feature areas + number of divisions))

即ち、上式による算出される統合類似度は、クエリ画像に含まれるオブジェクトの特徴を示す特徴領域の数が多いと、物体類似度に対する重みが高められ、クエリ画像が画像全体に特徴を有する場合は、領域類似度に対する重みが高められるように各類似度が統合される。   In other words, the integrated similarity calculated by the above formula increases the weight for the object similarity when the number of feature regions indicating the features of the object included in the query image is large, and the query image has a feature in the entire image. Are integrated with each other so that the weight for the region similarity is increased.

例えば、図6(a)に示すようなクエリ画像Q1がクエリ画像受付部10で受け付けられたとする。このとき、類似物体検索部30においてクエリ画像Q1中の特徴領域が抽出され、クエリ画像Q1から、図6(b)の黒点にて示す特徴領域が170個抽出されるとする。また、類似領域検索部40において、図6(c)に示すようにクエリ画像Q1が8×10の80個のブロックに分割されるとする。   For example, it is assumed that the query image Q1 as shown in FIG. At this time, it is assumed that the similar object search unit 30 extracts feature areas in the query image Q1, and extracts 170 feature areas indicated by black dots in FIG. 6B from the query image Q1. In the similar area search unit 40, it is assumed that the query image Q1 is divided into 80 blocks of 8 × 10 as shown in FIG.

この特徴領域数と分割数により、物体類似度に乗算される重みは 170/(170+80)=0.68、領域類似度に乗算される重みは 80/(170+80)=0.32となる。   Based on the number of feature areas and the number of divisions, the weight multiplied by the object similarity is 170 / (170 + 80) = 0.68, and the weight multiplied by the area similarity is 80 / (170 + 80) = 0.32.

従って、クエリ画像Q1と各検索対象画像との物体類似度と領域類似度とを統合する場合に、クエリ画像Q1にオブジェクトが含まれていることから、オブジェクトに特化した物体類似度のほうが高く重み付けされた統合類似度が算出される。   Therefore, when the object similarity and the region similarity of the query image Q1 and each search target image are integrated, the object is included in the query image Q1, and thus the object similarity specialized for the object is higher. A weighted integrated similarity is calculated.

また、図6(e)に示すようなクエリ画像Q3がクエリ画像受付部10で受け付けられたとする。このとき、類似物体検索部30においてクエリ画像Q3中の特徴領域が抽出され、クエリ画像Q3からは、図6(f)の黒点にて示す特徴領域が20個抽出されるとする。また、類似領域検索部40において、図6(g)に示すようにクエリ画像Q3が8×10の80個のブロックに分割されるとする。   Further, it is assumed that the query image Q3 as shown in FIG. At this time, it is assumed that the feature region in the query image Q3 is extracted by the similar object search unit 30, and 20 feature regions indicated by black dots in FIG. 6 (f) are extracted from the query image Q3. In the similar area search unit 40, it is assumed that the query image Q3 is divided into 80 blocks of 8 × 10 as shown in FIG.

この特徴領域数と分割数により、物体類似度に乗算される重みは 20/(20+80)=0.2、領域類似度に乗算される重みは 80/(20+80)=0.8となる。   Based on the number of feature regions and the number of divisions, the weight multiplied by the object similarity is 20 / (20 + 80) = 0.2, and the weight multiplied by the region similarity is 80 / (20 + 80) = 0.8.

従って、クエリ画像Q3と各検索対象画像との物体類似度と領域類似度とを統合する場合に、クエリ画像Q3に含まれているオブジェクトの占有率が低く、全体的な配色等の構成に特徴を持つ画像であるから、画像領域に特化した領域類似度のほうが高く重み付けされた統合類似度が算出される。   Therefore, when the object similarity and the region similarity of the query image Q3 and each search target image are integrated, the occupancy rate of the objects included in the query image Q3 is low, and the overall configuration such as color scheme is characteristic. Therefore, the integrated similarity that is weighted higher in the area similarity specialized for the image area is calculated.

以上のように、本実施形態によれば、類似物体検索によりクエリ画像から検出した特徴領域の数と、類似領域検索によるクエリ画像を分割する分割数とを用いて、類似物体検索による類似度と、類似領域検索による類似度とに重み付けを行って、各検索対象画像の統合類似度によるランク付けを行う。   As described above, according to the present embodiment, using the number of feature regions detected from the query image by the similar object search and the number of divisions for dividing the query image by the similar region search, Then, weighting is performed on the similarity by the similar region search, and ranking is performed by the integrated similarity of each search target image.

これにより、ユーザが検索時に入力するクエリ画像にオブジェクトの存在を示す特徴領域が多いと、類似物体検索による類似度が重要視されたランキングとなる。また、クエリ画像中にオブジェクトの存在を示す特徴領域が少ない場合には、類似領域検索によるクエリ画像の全体的な構成が重要視されたランキングとなる。従って、クエリ画像に基づいてユーザの検索意図を考慮した類似画像検索のランキングを生成することができる。   As a result, if there are many feature regions indicating the presence of an object in the query image input by the user at the time of search, the ranking based on the similarity by similar object search is regarded as important. In addition, when there are few feature areas indicating the presence of an object in the query image, the ranking of the entire query image based on the similar area search is regarded as important. Therefore, it is possible to generate a ranking of similar image searches in consideration of the user's search intention based on the query images.

尚、上述した実施形態により本発明が限定されるものではなく、その要旨を逸脱しない範囲で変更可能である。   In addition, this invention is not limited by embodiment mentioned above, It can change in the range which does not deviate from the summary.

[変形例1]
例えば、類似物体検索による類度と、類似領域検索による類似度とを類似度の統合の際の反映させる際の比率をユーザに入力させて、その比率を重み付けに付加してもよい。尚、この場合、クエリ画像の入力時又は事前の設定処理において、比率αをユーザに設定入力させる。
[Modification 1]
For example, the user may input a ratio for reflecting the similarity by the similar object search and the similarity by the similar area search when integrating the similarities, and the ratio may be added to the weighting. In this case, the ratio α is set and input by the user at the time of inputting the query image or in advance setting processing.

比率αを用いた統合類似度の算出は次式により行われる。
統合類似度=α×物体類似度 ×(特徴領域数/(特徴領域数+分割数))
+(1−α)×領域類似度 ×(分割数/(特徴領域数+分割数))
尚、αは0〜1の範囲の値をとする。
Calculation of the integrated similarity using the ratio α is performed by the following equation.
Integrated similarity = α × object similarity × (number of feature areas / (number of feature areas + number of divisions))
+ (1-α) × region similarity × (number of divisions / (number of feature regions + number of divisions))
Α is a value in the range of 0-1.

これにより、物体類似度及び領域類似度を統合する際の類似度にユーザの設定入力に応じた重み付けを加えることができる。従って、ユーザは、クエリ画像に含まれるとオブジェクトと、クエリ画像の画像構成とのどちらを重要視するかを適宜設定できる。   Thereby, the weight according to a user's setting input can be added to the similarity at the time of integrating object similarity and area | region similarity. Therefore, the user can appropriately set which of the object and the image configuration of the query image is important when included in the query image.

[変形例2]
また、クエリ画像が、ある画像(元画像)の一部を切り出した画像である場合に、クエリ画像の分割数と、元画像の分割数とに基づいて、重み付け値を正規化することとしてもよい。
[Modification 2]
Further, when the query image is an image obtained by cutting out a part of an image (original image), the weight value may be normalized based on the number of divisions of the query image and the number of divisions of the original image. Good.

分割数により正規化を行った場合の、統合類似度の算出は次式により行われる。
正規特徴領域数 = クエリ画像の特徴領域数/元画像の特徴領域数
正規分割数 = クエリ画像の分割数 /元画像の分割数
統合類似度=物体類似度 ×(正規特徴領域数/(正規特徴領域数+正規分割数))
+領域類似度 ×(正規分割数 /(正規特徴領域数+正規分割数))
但し、元画像の特徴領域数≧クエリ画像の特徴領域数、元画像の分割数≧クエリ画像の分割数。
When normalization is performed by the number of divisions, the calculation of the integrated similarity is performed by the following equation.
Number of normal feature areas = number of feature areas of query image / number of feature areas of original image Normal number of divisions = number of divisions of query image / number of divisions of original image Integrated similarity = object similarity x (number of normal feature areas / (normal feature Number of areas + number of regular divisions))
+ Area similarity x (Normal division number / (Normal feature area number + Normal division number))
However, the number of feature areas of the original image ≧ the number of feature areas of the query image, the number of divisions of the original image ≧ the number of divisions of the query image.

例えば、図6(a)に示した画像Q1が元画像であって、この画像の一部分を切り出した画像をクエリ画像Q1aとした場合、画像Q1の特徴領域及び分割数と、クエリ画像Q1aの特徴領域数及び分割数とに基づいて、正規化される。   For example, when the image Q1 shown in FIG. 6A is an original image and an image obtained by cutting out a part of this image is a query image Q1a, the feature region and the number of divisions of the image Q1, and the feature of the query image Q1a Normalization is performed based on the number of regions and the number of divisions.

これにより、クエリ画像を切り出した元画像から検出される特徴領域数や、元画像をインデクシングする際にインデクシング部40aで分割する分割数に基づいて、クエリ画像の特徴領域数や分割数を正規化し、個々のクエリ画像による統合類似度のばらつきを抑えることができる。   Accordingly, the number of feature regions and the number of divisions of the query image are normalized based on the number of feature regions detected from the original image cut out of the query image and the number of divisions divided by the indexing unit 40a when the original image is indexed. Therefore, it is possible to suppress variation in integrated similarity due to individual query images.

尚、この変形例2においても、変形例1と同様に、ユーザの設定入力された比率αに基づいて、物体類似度及び領域類似度に重み付けを行ってもよい。   In the second modification, as in the first modification, the object similarity and the region similarity may be weighted based on the ratio α input by the user.

[変形例3]
また、類似領域検索でのインデクシングによる分割数を、類似物体検索でのインデクシングにおいて画像から検出した特徴領域数に基づいた値としてもよい。
[Modification 3]
Further, the number of divisions by indexing in the similar area search may be a value based on the number of feature areas detected from the image in the indexing in the similar object search.

例えば、インデクシング部30a及び特徴ベクトル生成部30cが画像から検出した特徴領域数がKの場合、インデクシング部40a及び特徴ベクトル生成部40cが画像を分割する際の分割数をKに設定する。N×Nのブロックへの分割の場合、合計の領域数をN×N=(Kの平方根)×(Kの平方根)=K、即ち、特徴領域数と同じになる。   For example, when the number of feature regions detected from the image by the indexing unit 30a and the feature vector generation unit 30c is K, the number of divisions when the indexing unit 40a and the feature vector generation unit 40c divide the image is set to K. In the case of division into N × N blocks, the total number of regions is N × N = (square root of K) × (square root of K) = K, that is, the same as the number of feature regions.

このように、画像から検出した特徴領域数に基づいて分割数を設定することで、例えば、特徴領域数が少ない場合には分割精度を低くし、特徴領域数が多い場合には分割精度が高くなる。   Thus, by setting the number of divisions based on the number of feature regions detected from the image, for example, the division accuracy is lowered when the number of feature regions is small, and the division accuracy is high when the number of feature regions is large. Become.

このため、類似領域検索のインデクシングにおける分割数を画像から検出される特徴領域数に応じて画像の分割精度を変えることができる。また、統合類似度の算出の際の正規化が不要になる。   For this reason, the division accuracy of the image can be changed according to the number of feature regions detected from the image as the number of divisions in the indexing of the similar region search. Also, normalization when calculating the integrated similarity is not necessary.

[変形例4]
また、類似物体検索のインデクシングで検出した特徴領域数に基づいて物体類似度及び領域類似度の統合を算出してもよい。特徴領域数のみを用いた統合類似度の算出は次式により行われる。
[Modification 4]
Further, the integration of object similarity and region similarity may be calculated based on the number of feature regions detected by indexing of similar object search. The calculation of the integrated similarity using only the number of feature areas is performed by the following equation.

統合類似度 = 物体類似度×f(特徴領域数)+領域類似度×(1−f(特徴領域数))   Integrated similarity = object similarity × f (number of feature regions) + region similarity × (1−f (number of feature regions))

尚、f(n)は、クエリ画像にオブジェクトが含まれる確率を近似したものであり、一例として式1又は式2により与えられる。F,F,N,Nは実験的に設定される。また、式1によるf(n)のグラフを図7(a)に、式2によるf(n)のグラフを図7(b)に示す。 Note that f (n) approximates the probability that an object is included in the query image, and is given by Equation 1 or Equation 2 as an example. F 1 , F 2 , N 1 and N 2 are set experimentally. FIG. 7A shows a graph of f (n) according to Equation 1, and FIG. 7B shows a graph of f (n) according to Equation 2.

Figure 2011070244
Figure 2011070244

Figure 2011070244
Figure 2011070244

上述の式により、クエリ画像にオブジェクトが含まれる確率が高くなると、物体類似度を重要視した統合類似度が算出されるようになる。また、特徴領域数のみに基づいて統合類似度を算出した場合には、特徴領域数がN以上になった場合には、物体類似検索による類似度のみが統合類似度として得られる。 According to the above formula, when the probability that an object is included in the query image is increased, an integrated similarity with importance placed on the object similarity is calculated. When the integrated similarity is calculated based only on the number of feature areas, only the similarity based on the object similarity search is obtained as the integrated similarity when the number of feature areas is N 2 or more.

また、図1に示す機能ブロックにより画像検索装置1は、特徴ベクトルの生成や類似度の算出、類似度の統合を行うこととしたが、図に示した機能ブロックは一例であり、図示にとらわれるものではない。   In addition, the image search apparatus 1 performs feature vector generation, similarity calculation, and similarity integration using the functional blocks illustrated in FIG. 1, but the functional blocks illustrated in FIG. It is not a thing.

例えば、上述では、インデクシング部と特徴ベクトル生成部とをそれぞれ別の機能ブロックで図示して説明したが、画像DB20に記憶された画像に対する事前処理(インデクシング)と、クエリ画像に対する処理(特徴ベクトルの生成)とを説明の都合上、個別に記載したものであり、それらを一つの機能ブロックにより実現することとしてもよい。   For example, in the above description, the indexing unit and the feature vector generation unit are illustrated and described as separate functional blocks. However, the preprocessing (indexing) for the image stored in the image DB 20 and the processing for the query image (feature vector Generation) are described individually for convenience of explanation, and may be realized by one functional block.

即ち、インデクシング部が、画像DB20に記憶された画像から特徴ベクトルを生成してインデックスDBに記憶すると共に、クエリ画像受付部20から入力されたクエリ画像から特徴ベクトルを生成して物体類似度算出部や領域類似度算出部に出力することとしてもよい。   That is, the indexing unit generates a feature vector from the image stored in the image DB 20 and stores it in the index DB, and also generates a feature vector from the query image input from the query image receiving unit 20 to generate an object similarity calculation unit. Or may be output to the region similarity calculation unit.

[変形例5]
また、上述では、一つのクエリ画像が受け付けられた場合を例示して説明したが、クエリ画像が複数受け付けることとしてもよい。この場合は、類似物体検索や類似領域検索による特徴ベクトルの生成を各クエリ画像に対して行う。そして、特徴ベクトル生成部が各クエリ画像から生成した複数の特徴ベクトルを加算することで一つの特徴ベクトルに合成して、物体類似度算出部や領域類似度算出部がインデックスDBの特徴ベクトルと比較し類似度を算出する。
[Modification 5]
In the above description, the case where one query image is received has been described as an example, but a plurality of query images may be received. In this case, feature vectors are generated for each query image by similar object search or similar region search. Then, the feature vector generation unit adds a plurality of feature vectors generated from each query image to compose one feature vector, and the object similarity calculation unit and the region similarity calculation unit compare with the feature vector in the index DB. The similarity is calculated.

このように、複数の特徴ベクトルを加算することで一つの特徴ベクトルに合成できるのは、画像を複数の画像領域の集合として表現するというビジュアルキーワード固有の技術による。即ち、クエリ画像が複数である場合には、その複数のクエリ画像から検出される部分画像(領域画像や分割画像)の集合を、1つのクエリ(検索要求)に対する部分画像の集合と見なすことができるため、特徴ベクトルの合成が可能となる。   In this way, the addition of a plurality of feature vectors enables synthesis into one feature vector is based on a technique unique to a visual keyword that represents an image as a set of a plurality of image regions. That is, when there are a plurality of query images, a set of partial images (region images and divided images) detected from the plurality of query images can be regarded as a set of partial images for one query (search request). Therefore, it is possible to synthesize feature vectors.

また、類似度統合部は、特徴ベクトル生成部が各クエリ画像から検出した特徴領域数の総数と、各クエリ画像を領域分割した分割数の総数とに基づいて重み付けを行って、物体類似度と領域類似度との統合を行う。   The similarity integration unit performs weighting based on the total number of feature regions detected from each query image by the feature vector generation unit and the total number of divisions obtained by dividing each query image into regions, and the object similarity and Integration with region similarity.

これにより、ユーザが検索時に入力するクエリ画像が複数であった場合にも、類似物体検索と類似領域検索とによる類似度それぞれの重要視する重み付けをクエリ画像全体から算出でき、ユーザの検索意図を考慮した類似画像検索のランキングを生成することができる。   As a result, even when there are a plurality of query images input by the user at the time of search, the weighting of importance of each similarity by similar object search and similar region search can be calculated from the entire query image, and the search intention of the user can be determined. It is possible to generate a ranking of similar image searches in consideration.

また、複数のクエリ画像が入力された場合にも、類似物体検索による検索結果の類似度と、類似領域検索による検索結果の類似度とを統合することができ、ユーザの検索意図に応じた検索結果のランキングを精度よく得ることができる。   In addition, even when a plurality of query images are input, the similarity of the search result by the similar object search and the similarity of the search result by the similar region search can be integrated, and the search according to the search intention of the user The ranking of results can be obtained with high accuracy.

[変形例6]
また、上述では、特徴ベクトルを領域画像や分割画像の出現頻度に基づいて生成することとしたが、テキスト検索における単語の重み付け手法であるTF/IDF(term frequency-inverse document frequency)により重み付けを行って特徴ベクトルを生成することとしてもよい。
[Modification 6]
In the above description, the feature vector is generated based on the appearance frequency of the region image and the divided image. However, weighting is performed by TF / IDF (term frequency-inverse document frequency) which is a word weighting method in the text search. Thus, a feature vector may be generated.

TF/IDFに関する参考資料としては、
C.D.Manning, P.Raghavan and H.Schutze:" Introduction to Information Retrieval",Cambridge University Press.2008.
が知られている。
For reference materials on TF / IDF,
CDManning, P. Raghavan and H. Schutze: "Introduction to Information Retrieval", Cambridge University Press. 2008.
It has been known.

以下、簡単にTF/IDFによる重み付けの手法を説明する。
画像IDがi、各クラスタkでの出現頻度をTF/IDFにより重み付けした出現頻度(k,i)は、次式で算出される。
Hereinafter, a method of weighting by TF / IDF will be briefly described.
The appearance frequency (k, i) obtained by weighting the appearance frequency in each cluster k with the image ID i by TF / IDF is calculated by the following equation.

出現頻度(k,i)=TF(k,i)/T(i)*IDF(k)
IDF(k) =log(N/DF(k))
尚、
TF(k,i)は、画像iについての部分画像がクラスタkで出現する数(出現頻度)
T(i)は、画像iから検出した部分画像の数
DF(k)は、クラスタkに出現する画像の数
Nは、画像DB20の画像総数
である。
Appearance frequency (k, i) = TF (k, i) / T (i) * IDF (k)
IDF (k) = log (N / DF (k))
still,
TF (k, i) is the number of occurrences of partial images for image i in cluster k (appearance frequency)
T (i) is the number of partial images detected from the image i, DF (k) is the number of images that appear in the cluster k, and N is the total number of images in the image DB 20.

上述した例に基づいて、N=3とした場合、TF/IDFにより重み付けした出現頻度による特徴ベクトルは、次ぎのようになる。   Based on the above example, when N = 3, the feature vector based on the appearance frequency weighted by TF / IDF is as follows.

Figure 2011070244
Figure 2011070244

このように、TF/IDFにおけるドキュメントを画像とみなし、ドキュメント内の単語を部分画像とみなして重み付けを行うことで、各画像に出現する部分画像の重要度を下げ、特定の画像に際立って出現する特徴的な部分画像についての重要度を上げるように出現頻度に重み付けを行うことができる。   In this way, the document in TF / IDF is regarded as an image, the word in the document is regarded as a partial image, and weighting is performed, so that the importance of the partial image appearing in each image is reduced, and the specific image appears prominently. The appearance frequency can be weighted so as to increase the importance of the characteristic partial image.

尚、上述した実施形態では、物体に特化した画像検索アルゴリズムにより算出した類似度と、画像の領域構成に特化した画像検索アルゴリズムにより算出した類似度と、をそれぞれから検出した部分画像の数に基づいて重み付けすることで類似度を統合することとして説明したが、このアルゴリズムの組み合わせは適宜変更可能である。   In the above-described embodiment, the number of partial images detected from the similarity calculated by the image search algorithm specialized for the object and the similarity calculated by the image search algorithm specialized for the image area configuration, respectively. The similarity has been described as being integrated based on weighting based on the above, but the combination of the algorithms can be changed as appropriate.

例えば、顔画像に特化した特徴量を用いて検索する類似度と、風景画像に特化した特徴量を用いて検索するアルゴリズムによる類似度とに、顔画像に特化した特徴領域と、風景画像に特化した特徴領域の数により上述した重み付けを行うこととしてもよい。この場合、クエリ画像が顔画像であるか風景画像であるかに応じた重み付けを行うことができるので、ユーザの検索意図に合わせた検索結果のランキングを得ることができる。   For example, a feature area specialized for a face image, a similarity degree searched using a feature quantity specialized for a face image, and a similarity degree obtained by an algorithm used for a feature quantity specialized for a landscape image, and a landscape The weighting described above may be performed according to the number of feature regions specialized for an image. In this case, since it is possible to perform weighting according to whether the query image is a face image or a landscape image, it is possible to obtain a ranking of search results according to the user's search intention.

また、二つの検索アルゴリズムによる類似度を統合することとして説明したが、複数の検索アルゴリズムに対して類似度の統合を行うことができる。即ち、各検索アルゴリズムによる類似度と、各検索アルゴリズムによりクエリ画像から検出した部分画像の数とを用いて、類似度に重み付けを行える。   Moreover, although it demonstrated as integrating the similarity by two search algorithms, similarity can be integrated with respect to a some search algorithm. That is, the similarity can be weighted by using the similarity based on each search algorithm and the number of partial images detected from the query image by each search algorithm.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 画像検索装置
10 クエリ画像受付部
20 画像DB
30 類似物体検索部
30a インデクシング部
30b インデックスDB
30c 特徴ベクトル生成部
30d 物体類似度算出部
40 類似領域検索部
40a インデクシング部
40b インデックスDB
40c 特徴ベクトル生成部
40d 領域類似度算出部
50 類似度統合部
60 検索結果出力部
Q1 クエリ画像
1 Image Search Device 10 Query Image Accepting Unit 20 Image DB
30 Similar Object Search Unit 30a Indexing Unit 30b Index DB
30c Feature vector generation unit 30d Object similarity calculation unit 40 Similar region search unit 40a Indexing unit 40b Index DB
40c Feature vector generation unit 40d Region similarity calculation unit 50 Similarity integration unit 60 Search result output unit Q1 Query image

Claims (5)

画像データベースに記憶された検索対象の画像とクエリ画像との類似度を算出して、該類似度に基づいた検索結果を出力する画像検索装置において、
前記クエリ画像から物体の存在を示す特徴領域を検出する特徴領域検出手段と、
前記検出された特徴領域に基づいて前記クエリ画像の特徴ベクトルを生成する物体ベクトル生成手段と、
前記クエリ画像と、前記検索対象の画像との類似度を前記物体特徴生成手段により生成された特徴ベクトルに基づいて算出する物体類似度算出手段と、
前記クエリ画像を領域分割する領域分割手段と、
前記領域分割された各画像領域に基づいて前記クエリ画像の特徴ベクトルを生成する領域ベクトル生成手段と、
前記クエリ画像と、前記検索対象の画像との類似度を前記領域ベクトル生成手段により生成された特徴ベクトルに基づいて算出する領域類似度算出手段と、
前記物体類似度算出手段により算出された類似度と、前記領域類似度算出手段により算出された類似度とに、前記特徴領域検出手段により検出された特徴領域の数と、前記領域分割手段により領域分割された分割数とに基づいた重み付けを行って前記検索対象の画像毎に該類似度を統合する類似度統合手段と、
を備えることを特徴とする画像検索装置。
In an image search apparatus for calculating a similarity between a search target image stored in an image database and a query image and outputting a search result based on the similarity,
Feature region detecting means for detecting a feature region indicating the presence of an object from the query image;
Object vector generation means for generating a feature vector of the query image based on the detected feature region;
Object similarity calculation means for calculating the similarity between the query image and the image to be searched based on the feature vector generated by the object feature generation means;
Area dividing means for dividing the query image into areas;
Area vector generation means for generating a feature vector of the query image based on each of the divided image areas;
Area similarity calculating means for calculating the similarity between the query image and the search target image based on the feature vector generated by the area vector generating means;
The similarity calculated by the object similarity calculating unit and the similarity calculated by the region similarity calculating unit, the number of feature regions detected by the feature region detecting unit, and the region by the region dividing unit A similarity integration unit that performs weighting based on the number of divisions and integrates the similarity for each image to be searched;
An image search apparatus comprising:
前記領域分割手段は、
前記特徴領域検出手段により検出された特徴領域の数に基づいて前記領域分割する数を決定することを特徴とする請求項1に記載の画像検索装置。
The region dividing means includes
The image search apparatus according to claim 1, wherein the number of region divisions is determined based on the number of feature regions detected by the feature region detection unit.
前記クエリ画像が、画像の一部を切り出すことにより生成された画像である場合に、
前記類似度統合手段は、
前記特徴領域検出手段がクエリ画像から検出した特徴領域を前記切り出す前の画像から検出される特徴領域の数により正規化し、その正規化した特徴領域の数を用いて前記類似度を統合することを特徴とする請求項1又は2に記載の画像検索装置。
When the query image is an image generated by cutting out a part of the image,
The similarity integration unit includes:
Normalizing the feature region detected by the feature region detection unit from the query image based on the number of feature regions detected from the image before clipping, and integrating the similarity using the normalized number of feature regions; The image search apparatus according to claim 1, wherein the image search apparatus is an image search apparatus.
コンピュータが、画像データベースに記憶された検索対象の画像とクエリ画像との類似度を算出して、該類似度に基づいた検索結果を出力する画像検索方法において、
前記クエリ画像から物体の存在を示す特徴領域を検出する特徴領域検出工程と、
前記検出された特徴領域に基づいて前記クエリ画像の特徴ベクトルを生成する物体ベクトル生成工程と、
前記クエリ画像と、前記検索対象の画像との類似度を前記物体特徴生成工程において生成された特徴ベクトルに基づいて算出する物体類似度算出工程と、
前記クエリ画像を領域分割する領域分割手段と、
前記領域分割された各画像領域に基づいて前記クエリ画像の特徴ベクトルを生成する領域ベクトル生成工程と、
前記クエリ画像と、前記検索対象の画像との類似度を前記領域ベクトル生成工程において生成された特徴ベクトルに基づいて算出する領域類似度算出工程と、
前記物体類似度算出工程において算出された類似度と、前記領域類似度算出工程において算出された類似度とに、前記特徴領域検出工程において検出された特徴領域の数と、前記領域分割工程において領域分割された分割数とに基づいた重み付けを行って前記検索対象の画像毎に該類似度を統合する類似度統合工程と、
を前記コンピュータが行うことを特徴とする画像検索方法。
In an image search method in which a computer calculates a similarity between a query image and a query image stored in an image database, and outputs a search result based on the similarity.
A feature region detection step of detecting a feature region indicating the presence of an object from the query image;
An object vector generation step of generating a feature vector of the query image based on the detected feature region;
An object similarity calculation step of calculating a similarity between the query image and the search target image based on the feature vector generated in the object feature generation step;
Area dividing means for dividing the query image into areas;
A region vector generation step of generating a feature vector of the query image based on each of the divided image regions;
A region similarity calculation step of calculating a similarity between the query image and the search target image based on the feature vector generated in the region vector generation step;
The similarity calculated in the object similarity calculation step, the similarity calculated in the region similarity calculation step, the number of feature regions detected in the feature region detection step, and the region in the region division step A similarity integration step of integrating the similarities for each image to be searched by performing weighting based on the number of divided divisions;
The image search method characterized in that the computer performs the above.
請求項4に記載の画像検索方法をコンピュータに実行させることを特徴とする画像検索プログラム。   An image search program for causing a computer to execute the image search method according to claim 4.
JP2009218347A 2009-09-24 2009-09-24 Image search apparatus, image search method and program Active JP4906900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009218347A JP4906900B2 (en) 2009-09-24 2009-09-24 Image search apparatus, image search method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009218347A JP4906900B2 (en) 2009-09-24 2009-09-24 Image search apparatus, image search method and program

Publications (2)

Publication Number Publication Date
JP2011070244A true JP2011070244A (en) 2011-04-07
JP4906900B2 JP4906900B2 (en) 2012-03-28

Family

ID=44015499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009218347A Active JP4906900B2 (en) 2009-09-24 2009-09-24 Image search apparatus, image search method and program

Country Status (1)

Country Link
JP (1) JP4906900B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022419A (en) * 2010-07-13 2012-02-02 Yahoo Japan Corp Learning data creation device, learning data creation method, and program
JP2013004093A (en) * 2011-06-16 2013-01-07 Fujitsu Ltd Search method and system by multi-instance learning
JP2016162414A (en) * 2015-03-05 2016-09-05 株式会社日立製作所 Image processing device
JP2017102869A (en) * 2015-12-04 2017-06-08 日本電信電話株式会社 Importance calculation device, method, and program
JP2018165974A (en) * 2016-10-17 2018-10-25 パナソニックIpマネジメント株式会社 Program creation method, program creation device, and control program
JP2022554127A (en) * 2019-11-11 2022-12-28 美的集団股▲フン▼有限公司 Machine control method and system based on object recognition

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2945071B1 (en) 2013-01-11 2020-08-26 NEC Corporation Index generating device and method, and search device and search method
US10437803B2 (en) 2014-07-10 2019-10-08 Nec Corporation Index generation apparatus and index generation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056820A (en) * 1999-08-19 2001-02-27 Nippon Hoso Kyokai <Nhk> Still picture retrieval device and recording medium
WO2004047026A1 (en) * 2002-11-20 2004-06-03 Fujitsu Limited Image search program
JP2006119723A (en) * 2004-10-19 2006-05-11 Canon Inc Device and method for image processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056820A (en) * 1999-08-19 2001-02-27 Nippon Hoso Kyokai <Nhk> Still picture retrieval device and recording medium
WO2004047026A1 (en) * 2002-11-20 2004-06-03 Fujitsu Limited Image search program
JP2006119723A (en) * 2004-10-19 2006-05-11 Canon Inc Device and method for image processing

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022419A (en) * 2010-07-13 2012-02-02 Yahoo Japan Corp Learning data creation device, learning data creation method, and program
JP2013004093A (en) * 2011-06-16 2013-01-07 Fujitsu Ltd Search method and system by multi-instance learning
JP2016162414A (en) * 2015-03-05 2016-09-05 株式会社日立製作所 Image processing device
JP2017102869A (en) * 2015-12-04 2017-06-08 日本電信電話株式会社 Importance calculation device, method, and program
JP2018165974A (en) * 2016-10-17 2018-10-25 パナソニックIpマネジメント株式会社 Program creation method, program creation device, and control program
JP2022554127A (en) * 2019-11-11 2022-12-28 美的集団股▲フン▼有限公司 Machine control method and system based on object recognition

Also Published As

Publication number Publication date
JP4906900B2 (en) 2012-03-28

Similar Documents

Publication Publication Date Title
Zhou et al. Fast and accurate near-duplicate image elimination for visual sensor networks
Sarwar et al. A novel method for content-based image retrieval to improve the effectiveness of the bag-of-words model using a support vector machine
Lei Ba et al. Predicting deep zero-shot convolutional neural networks using textual descriptions
JP4906900B2 (en) Image search apparatus, image search method and program
Zhen et al. Spectral multimodal hashing and its application to multimedia retrieval
JP5121917B2 (en) Image search apparatus, image search method and program
Su et al. Effective semantic annotation by image-to-concept distribution model
JP5094830B2 (en) Image search apparatus, image search method and program
GB2395808A (en) Information retrieval
Hsiao et al. Pareto-depth for multiple-query image retrieval
JP4937395B2 (en) Feature vector generation apparatus, feature vector generation method and program
JP5014479B2 (en) Image search apparatus, image search method and program
Ihou et al. A new latent generalized dirichlet allocation model for image classification
Martinet et al. A relational vector space model using an advanced weighting scheme for image retrieval
Yuan et al. Utilizing related samples to enhance interactive concept-based video search
de Ves et al. Modeling user preferences in content-based image retrieval: A novel attempt to bridge the semantic gap
Song et al. Sparse multi-modal topical coding for image annotation
Boudjeloud-Assala Visual interactive evolutionary algorithm for high dimensional outlier detection and data clustering problems
Polley et al. X-vision: explainable image retrieval by re-ranking in semantic space
Indu et al. Survey on sketch based image retrieval methods
JP6017277B2 (en) Program, apparatus and method for calculating similarity between contents represented by set of feature vectors
Zaharieva et al. Retrieving Diverse Social Images at MediaEval 2017: Challenges, Dataset and Evaluation.
Tian et al. Exploration of image search results quality assessment
Ke et al. Fast image clustering based on convolutional neural network and binary k-means
Abinaya et al. Effective Feature Selection For High Dimensional Data using Fast Algorithm

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4906900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250