JP2005352990A - Partial image retrieval system, method and program - Google Patents

Partial image retrieval system, method and program Download PDF

Info

Publication number
JP2005352990A
JP2005352990A JP2004175866A JP2004175866A JP2005352990A JP 2005352990 A JP2005352990 A JP 2005352990A JP 2004175866 A JP2004175866 A JP 2004175866A JP 2004175866 A JP2004175866 A JP 2004175866A JP 2005352990 A JP2005352990 A JP 2005352990A
Authority
JP
Japan
Prior art keywords
target
feature
image
partial
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004175866A
Other languages
Japanese (ja)
Other versions
JP4425719B2 (en
Inventor
Shogo Kimura
昭悟 木村
Takahito Kawanishi
隆仁 川西
Kunio Kayano
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004175866A priority Critical patent/JP4425719B2/en
Publication of JP2005352990A publication Critical patent/JP2005352990A/en
Application granted granted Critical
Publication of JP4425719B2 publication Critical patent/JP4425719B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a partial image retrieval system, method and program capable of reducing the information quantity of indexes to reduce a storage capacity necessary for holding the indexes while causing retrieval omission. <P>SOLUTION: In this partial image retrieval device for detecting a position containing a similar partial image from a group of accumulated images, indexes are assigned to accumulated partial area characteristics, respectively, accumulated partial area characteristics similar to an intended partial area characteristic are extracted as retrieval candidate characteristics by use of the indexes, the distance of each retrieval candidate characteristic from the intended partial area characteristic is calculated, and whether the similar partial image is present in the group of accumulated images or not is determined based on the distance. For a position of an accumulated image in which the partial image similar to the intended image is determined to be present in a collation result determination part, a collation window of the same size as an intended image is set to the accumulated characteristics to calculate the distance from the intended characteristic, and whether the partial image similar to the intended image is present in this position in the group of accumulated images or not is determined based on the characteristic distance. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、蓄積された複数の画像から、与えられた画像と類似した部分画像を含む画像及びその部分画像が含まれている位置を同定するのに適した部分画像検索システム及び方法並びにプログラムに関する。   The present invention relates to a partial image search system and method suitable for identifying an image including a partial image similar to a given image, and a position where the partial image is included, from a plurality of stored images. .

デジタルカメラの普及や記録媒体の大容量化・低価格化、さらに大容量ネットワークの普及により、容易に大容量のデジタル画像を取得して保存する環境が整ってきている。
そのため、大量の画像から所望の画像を高速に探し出す高速画像検索技術が必要となってきており、特に画像の部分検索は、検索したい画像が蓄積されている画像の一部分であるため、比較の処理が多くなり、さらに高速性が要求される。
この部分画像検索技術は、膨大な画像データベースの中から、高速に目的の画像をその一部分として含む画像を検索する画像検出技術に用いられる。
With the spread of digital cameras, the increase in capacity and price of recording media, and the spread of large-capacity networks, an environment for easily acquiring and storing large-capacity digital images has been established.
For this reason, high-speed image search technology for quickly searching for a desired image from a large number of images is required. In particular, the partial image search is a part of the image in which the image to be searched is stored. In addition, higher speed is required.
This partial image retrieval technique is used for an image detection technique for retrieving an image including a target image as a part thereof from a huge image database at high speed.

例えば、画像データベースに蓄積された画像の中から、特定人物の顔が撮影されている画像を検出してユーザに提示したり、特定の物体や建造物などが撮影されている画像を含まれるホームページを検索したりする検索技術に用いられる。
従来、上記部分画像検索方法に関しては、見本となる検索したい画像と類似した画像の場所をより大きなサイズの画像の中から漏れなく正確に探し出す高速部分画像検出方法が、物体検出装置(例えば、特許文献1参照)や、高速テンプレート照合法(例えば、非特許文献1参照)等として知られている。
For example, a homepage that includes an image in which a face of a specific person is captured from images stored in an image database and presented to the user, or an image in which a specific object or building is captured It is used for search technology that searches for.
Conventionally, with regard to the partial image search method, a high-speed partial image detection method for accurately searching for a location of an image similar to an image to be searched as a sample from an image of a larger size without omission is an object detection device (for example, a patent This method is known as a high-speed template matching method (see Non-Patent Document 1, for example).

しかし、上述した方法においては、目的画像との類似性によらず、全ての画像の全ての部分領域に対して照合検索を行うため、多数の無駄な照合処理が発生してしまい、検索を高速化できないという欠点がある。
そのため、部分画像の検索を高速化する方法として、容易に画像の検索を行うため、各画像に予め索引をつけておくことが考えられる。
しかし、各画像から位置的にあり得る全ての部分画像を抽出した場合、その画像数が膨大となり、これら画像の全てに索引を付与すると、索引保持に必要となる記憶容量が膨大になるという問題点がある。
However, in the above-described method, since all the partial regions of all the images are collated and searched regardless of the similarity to the target image, a lot of useless collating processes occur, and the search is performed at high speed. There is a drawback that it can not be made.
Therefore, as a method for speeding up the search for partial images, it is conceivable to index each image in advance in order to easily search for images.
However, when all the partial images that can be located are extracted from each image, the number of the images becomes enormous, and if all these images are indexed, the storage capacity necessary for index retention becomes enormous. There is a point.

これに対し、従来、上記問題点を解決する方法として、部分画像をクラスタリングすることによって、索引を付与する部分画像の数を削減する部分画像検出方法(例えば、非特許文献2参照)が知られている.
特開平09−330404号公報 「目的画像の部分領域間の残差情報を利用した高速テンプレート照合法」、川西隆仁,et al、情報科学技術フォーラム講演論文集、LI-008,2003年9月 「WALRUS:A similarity retrieval algorithm for image databases」、A. Natsev,et al、IEEE Transactions on Knowledge and Data Engineering,Vol.16,No-3,2004年3月
On the other hand, a partial image detection method that reduces the number of partial images to be indexed by clustering partial images as a method for solving the above-described problem has been known (for example, see Non-Patent Document 2). ing.
JP 09-330404 A "High-speed template matching method using residual information between partial regions of target image", Takahito Kawanishi, et al, Information Science and Technology Forum, Proceedings, LI-008, September 2003 "WALRUS: A similarity retrieval algorithm for image databases", A. Natsev, et al, IEEE Transactions on Knowledge and Data Engineering, Vol. 16, No-3, March 2004

しかしながら、上述した非特許文献2に示す部分画像をクラスタリングする部分画像検出方法にあっては、特許文献1及び非特許文献1に対して部分画像の数を減少させることができるが、容量削減の観点において部分画像の数の削減が十分ではなく、索引の保持に必要となる記憶容量が膨大になるという問題点が解消されていない。
また、上記非特許文献2の方法においては、部分画像のクラスタリングに要する計算時間が非常に長く必要となるため、索引を付与するために必要な時間が膨大になるという欠点がある。
本発明は、このような事情に鑑みてなされたもので、索引の情報量を低減し、索引の保持に必要な記憶容量を削減し、かつ検索漏れが生じない部分画像検索システム及び方法並びにプログラムを提供することを目的とする。
However, in the partial image detection method for clustering the partial images shown in Non-Patent Document 2 described above, the number of partial images can be reduced compared to Patent Document 1 and Non-Patent Document 1, but the capacity reduction can be achieved. From the viewpoint, the number of partial images is not sufficiently reduced, and the problem that the storage capacity necessary for holding the index becomes enormous has not been solved.
Further, the method of Non-Patent Document 2 has a drawback that the calculation time required for clustering the partial images is very long, so that the time required for assigning the index becomes enormous.
The present invention has been made in view of such circumstances, and a partial image search system, method, and program for reducing the amount of information in an index, reducing the storage capacity necessary for holding the index, and causing no search omission. The purpose is to provide.

本発明の部分画像検索方法は、データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索方法であり、前記蓄積画像群の各画像の特徴である蓄積特徴を抽出する蓄積特徴抽出過程と、所定の大きさの注目窓を所定の間隔でずらしつつ、各位置における注目窓内の特徴を、蓄積部分領域特徴として抽出する蓄積部分領域特徴抽出過程と、前記蓄積部分領域特徴各々を標識する索引を付与する索引付与過程と、前記目的画像の特徴である目的特徴を抽出する目的特徴抽出過程と、該目的特徴において、所定の大きさの注目窓を設定し、該注目窓をずらしつつ、各位置における注目窓内の特徴を、目的部分領域特徴として抽出する目的部分領域特徴抽出過程と、前記目的部分領域特徴の集合に類似する蓄積部分領域特徴を、前記索引を用いて検索候補特徴として抽出する索引検索過程と、該検索候補特徴と前記目的部分領域特徴との距離を計算する特徴照合過程と、前記距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かを判定する照合結果判定過程と、前記照合結果判定過程にて、目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴に対し、目的画像と同一の大きさの照合窓を設定し、前記目的特徴との特徴距離を計算する特徴再照合過程と、前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定過程と、前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択過程と、前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定過程と、前記蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域を指定する次検索候補特徴選定過程とを備えることを特徴とする。   The partial image search method of the present invention is a partial image search method for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database, and a position of the partial image in the image. The accumulated feature extraction process for extracting the accumulated feature that is a feature of each image of the accumulated image group, and the feature in the attention window at each position are stored in the accumulation portion while shifting the attention window of a predetermined size at a predetermined interval. A storage partial region feature extraction process for extracting as a region feature; an indexing step for assigning an index for labeling each of the storage partial region features; a target feature extraction step for extracting a target feature that is a feature of the target image; In the target feature, a target window of a predetermined size is set, and the target partial region feature that extracts the feature in the target window at each position as the target partial region feature while shifting the target window. An extraction process, an index search process for extracting a stored partial area feature similar to the set of target partial area features as a search candidate feature using the index, and a distance between the search candidate feature and the target partial area feature. A feature matching process to be calculated; a matching result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists at the location in the accumulated image group based on the distance; and the matching result In the determination process, a matching window having the same size as the target image is set for the stored feature at a location in the stored image where it is determined that there is a possibility that a partial image similar to the target image exists. A feature re-matching process for calculating a feature distance with the target feature, and a matching result re-check for determining whether or not a partial image similar to the target image exists at the location in the stored image group based on the feature distance. Overjudgment A search result candidate selection process in which a location in the stored image determined that a partial image similar to the target image exists in the matching result re-determination process is a search result candidate; and a set of the target partial region features Next target partial area feature selection process for designating a target partial area feature to be matched next, and next search candidate feature for designating a storage partial area to be matched next from the set of the accumulated partial area features And a selection process.

以上説明したように、本発明によれば、蓄積画像群の各画像において、部分領域より狭い所定の間隔毎に、部分領域を間引いて抽出して索引を付与することにより、ピクセル単位に画像全体にずらしながら、蓄積された画像群の各画像に対し、部分画像を抽出して索引を付与する非特許文献2などの公知の方法に比較し、索引付与に要する時問を増加させることなく、索引の保持に必要な記憶容量を削減し、かつ、目的画像に対して、画像全体に渡り、間隔を有さずに全ての部分領域を抽出するため、蓄積画像の検索処理において検索漏れを生じさせないことを保証できるという効果が得られる。   As described above, according to the present invention, in each image of the accumulated image group, the partial image is extracted by thinning out the partial region at predetermined intervals narrower than the partial region, and an index is assigned to each pixel. Compared to a known method such as Non-Patent Document 2 that extracts a partial image and assigns an index to each image of the accumulated image group without shifting, without increasing the time required for indexing, Since the storage capacity required to maintain the index is reduced and all partial areas are extracted from the target image without any interval, the search failure of the stored image occurs. The effect that it can be guaranteed not to be obtained is obtained.

<第1の実施例>
以下、本発明の第1の実施例による部分画像検索装置を図面を参照して説明する。図1は上記第1の実施例の部分画像検索装置の一構成例を示すブロック図である。
この図において、本実施例の部分画像検索装置は、蓄積特徴抽出部1と、蓄積部分領域特徴抽出部2と、索引付与部3と、目的特徴抽出部4と、目的部分領域特徴抽出部5と、索引検索部6と、特徴照合部7と、照合結果判定部8と、特徴再照合部9と、照合結果再判定部10、検索結果候補選択部llと、次目的部分領域特徴選定部12と、次検索候補特徴選定部13とを有しており、目的画像、すなわち参照している検索したい画像と、データベース等に蓄積されている蓄積画像群、すなわち検索される被検索画像である蓄積画像の集合を入力とし、上記目的画像と類似する部分画像が含まれている蓄積画像内の箇所を出力する。
<First embodiment>
Hereinafter, a partial image search apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of the partial image search apparatus of the first embodiment.
In this figure, the partial image search apparatus according to the present embodiment includes an accumulation feature extraction unit 1, an accumulation partial region feature extraction unit 2, an indexing unit 3, a target feature extraction unit 4, and a target partial region feature extraction unit 5. The index search unit 6, the feature matching unit 7, the matching result determining unit 8, the feature re-matching unit 9, the matching result redetermining unit 10, the search result candidate selecting unit ll, and the next target partial region feature selecting unit. 12 and a next search candidate feature selection unit 13, which are a target image, that is, an image to be searched that is referred to, and a stored image group that is stored in a database or the like, that is, a searched image to be searched. A set of accumulated images is input, and a location in the accumulated image containing a partial image similar to the target image is output.

蓄積特徴抽出部1は、蓄積画像群の各画像から、画像を表現する蓄積特徴を、画像全体、または所定の画素数からなるブロック単位に抽出する。
蓄積部分領域特徴抽出部2は、上記蓄積特徴抽出部1から出力された特徴に対し、予め定められた所定の大きさの注目窓を、予め定められた所定の間隔で設定し(所定の間隔でずらし)、各注目窓内の特徴である蓄積部分領域特徴を抽出する。
索引付与部3は、上記蓄積部分領域特徴抽出部2から出力される各蓄積部分領域特徴を、各々ベクトル量子化し、ベクトル量子化の符号語を、標識のための索引として付与する。
The accumulated feature extraction unit 1 extracts accumulated features representing an image from each image of the accumulated image group in the entire image or a block unit having a predetermined number of pixels.
The accumulation partial region feature extraction unit 2 sets a predetermined window of a predetermined size with respect to the feature output from the accumulation feature extraction unit 1 at a predetermined interval (a predetermined interval). And the accumulated partial region feature which is a feature in each window of interest is extracted.
The index assigning unit 3 vector-quantizes each accumulated partial region feature output from the accumulated partial region feature extracting unit 2, and assigns a vector quantization codeword as an index for a sign.

目的特徴抽出部4は、目的画像から画像を表現する目的特徴を抽出する。
目的部分領域特徴抽出部5は、上記目的特徴抽出部4が抽出した目的特徴に対して、予め定められた所定の大きさの注目窓を設定し、この注目窓を1ピクセルずつずらしながら、各注目窓内の特徴である目的部分領域特徴の抽出を行う。
索引検索部6は、上記索引付与部3から出力きれる索引を用いて、上記目的部分領域特徴抽出部5の抽出した目的部分領域特徴の集合から、類似する蓄積部分領域特徴の抽出を行う。
The target feature extraction unit 4 extracts a target feature that represents an image from the target image.
The target partial region feature extraction unit 5 sets a target window of a predetermined size for the target feature extracted by the target feature extraction unit 4 and shifts the target window by one pixel. The target partial region feature that is the feature in the window of interest is extracted.
The index search unit 6 extracts similar accumulated partial region features from the set of target partial region features extracted by the target partial region feature extraction unit 5 using the index output from the index assigning unit 3.

特徴照合部7は、上記索引検索部6の抽出した蓄積部分領域特徴と、目的部分領域特徴抽出部5の抽出した目的部分領域特徴との距離を計算する。
この距離は、ユークリッド距離,マンハッタン距離,内積,正規化相互相関などを用いることが出来る。
照合結果判定部8は、上記特徴照合部7の演算した距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かの判定を行う。
The feature matching unit 7 calculates the distance between the accumulated partial region feature extracted by the index search unit 6 and the target partial region feature extracted by the target partial region feature extraction unit 5.
As this distance, Euclidean distance, Manhattan distance, inner product, normalized cross-correlation, and the like can be used.
Based on the distance calculated by the feature matching unit 7, the matching result determination unit 8 determines whether or not there is a possibility that a partial image similar to the target image exists in the location in the accumulated image group.

特徴再照合部9は、上記照合結果判定部8が目的画像と類似する部分蓄像が存在する可能性があると判定した場合、判定された蓄積画像における箇所において、蓄積特徴抽出部1の抽出した蓄積特徴に対し、目的画像と同じ大きさの照合窓を設定して、目的特徴抽出部4から出力された目的特徴との特徴距離を計算する。この特徴距離も上記距離と同様に各種の定義を用いることができる。
照合結果再判定部10は、上記照合結果判定部8において用いられた距離に基づいて、目的画像と類似する部分画像が、蓄積画像群中の当該箇所に存在するか否かの判定を行う。
When the matching result determination unit 8 determines that there is a possibility that a partial image similar to the target image exists, the feature re-collation unit 9 extracts the accumulated feature extraction unit 1 at the determined location in the accumulated image. A matching window having the same size as the target image is set for the stored features, and a feature distance from the target feature output from the target feature extraction unit 4 is calculated. Various definitions can be used for this characteristic distance as well as the above distance.
The collation result re-determination unit 10 determines whether or not a partial image similar to the target image exists at the location in the accumulated image group based on the distance used in the collation result determination unit 8.

検索結果候補選択部11は、上記照合結果再判定部10において目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を、詳細な類似性の検討を行う検索結果候補とする。
次目的部分領域特徴選定部12は、上記目的部分領域特徴抽出部5において抽出された目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴の指定を行う。
次検索候補特徴選定部13は、上記索引検索部6から検索結果として出力された蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域の指定を行う。
The search result candidate selection unit 11 sets a location in the accumulated image, which is determined by the matching result re-determination unit 10 as having a partial image similar to the target image, as a search result candidate for performing detailed similarity examination.
The next target partial region feature selection unit 12 designates a target partial region feature to be collated next from the set of target partial region features extracted by the target partial region feature extraction unit 5.
The next search candidate feature selecting unit 13 designates a storage partial region to be collated next from the set of storage partial region features output as a search result from the index search unit 6.

次に、図1及び図2を参照して、上述した部分画像検索装置の動作を説明する。図2は、図1の第1の実施例による部分画像検索装置の一動作例を具体的に示すフローチャートである。
蓄積特徴抽出部1は、初めに、蓄積画像群を、図示しないデータベースから読み込む(ステップS1)。
次に、蓄積特徴抽出部1は、入力した蓄積画像群の各画像から、画像の特徴である蓄積特徴を抽出する(ステップS2)。
Next, the operation of the partial image search apparatus described above will be described with reference to FIGS. FIG. 2 is a flowchart specifically showing an operation example of the partial image search apparatus according to the first embodiment of FIG.
First, the accumulated feature extraction unit 1 reads an accumulated image group from a database (not shown) (step S1).
Next, the accumulated feature extraction unit 1 extracts an accumulated feature that is a feature of the image from each image of the inputted accumulated image group (step S2).

例えば、RGB画素値をそのまま用いて、蓄積画像の大きさが「384×256」ピクセルであるとすると、「384×256×3=294912」個の数値で構成される蓄積特徴(多次元ベクトルからなる特徴ベクトル)が各蓄積画像ごとに、すなわち、1画像あたり1つ得られる。ここで、上記「384×256」に乗ぜられている「3」はRGBの色数である。   For example, if the RGB pixel values are used as they are and the size of the accumulated image is “384 × 256” pixels, the accumulated features (from multidimensional vectors) composed of “384 × 256 × 3 = 294912” numerical values. For each accumulated image, that is, one per image. Here, “3” multiplied by “384 × 256” is the number of RGB colors.

また、他の実施例として、例えば、画像から8×8ピクセル程度の大きさの小領域(ブロック)を用い、縦及び横方向に順次1ピクセルずつ、この小領域をずらしながら、各小領域の範囲内での蓄積特徴を抽出し、各小領域のRGB各々の平均値を計算することにより得ることができる。
すなわち、蓄積画像の大きさが「384×256」ピクセルであるとすると、「(384−8+1)×(256−8+1)×3=281619」個の数値で構成される特徴が、各蓄積画像ごとに、すなわち、1画像あたり1つ得られる。
As another embodiment, for example, a small area (block) having a size of about 8 × 8 pixels is used from an image, and the small areas are sequentially shifted by 1 pixel in the vertical and horizontal directions. It can be obtained by extracting the accumulated features within the range and calculating the average value of each RGB of each small region.
That is, assuming that the size of the accumulated image is “384 × 256” pixels, a feature composed of “(384-8 + 1) × (256-8 + 1) × 3 = 281619” numbers is obtained for each accumulated image. In other words, one image is obtained.

さらに、他の実施例として、例えば、蓄積画像から8×8ピクセル程度の大きさの小領域を、縦及び横方向に1ピクセルずつずらしながら、各小領域に含まれるピクセルのRGB各々に対して、2次元DCT(デジタルコサイン変換)を行い、その係数ベクトルを蓄積特徴とすることもできる。
すなわち、蓄積画像の大きさが「384×256」ピクセルであるとすると、8×8×3=192次元の特徴ベクトルが、1画像あたりに、「(384−8+1)×(256−8+1)=93873」個、算出される。
この場合、蓄積特徴抽出部1は、蓄積画像から抽出された特徴である蓄積特徴の集合を出力することになる。
Furthermore, as another embodiment, for example, a small area having a size of about 8 × 8 pixels is shifted from the accumulated image by 1 pixel in the vertical and horizontal directions, and each of RGB of pixels included in each small area is shifted. Two-dimensional DCT (digital cosine transform) can be performed, and the coefficient vector can be used as an accumulation feature.
That is, assuming that the size of the accumulated image is “384 × 256” pixels, an 8 × 8 × 3 = 192-dimensional feature vector is “(384-8 + 1) × (256-8 + 1) = 93873 ”pieces are calculated.
In this case, the accumulated feature extraction unit 1 outputs a set of accumulated features that are the features extracted from the accumulated image.

次に、蓄積部分領域特徴抽出部2は、蓄積特徴抽出部1から、蓄積特徴の集合を読み込み、蓄積画像のある1つの箇所に、予め定められた所定の大きさの第1注目窓を設定する。
例えば、この第1注目窓は、大きさが64×64ピクセルであり、初期状態として蓄積画像の左上の角に配置される。。
そして、蓄積部分領域特徴抽出部2は、設定された上記第1注目窓内に含まれる部分領域の画像の特徴である蓄積部分領域特徴を抽出する。
例えば、この蓄積部分領域特徴各々は、RGB画素値をそのまま用いて、「64×64×3=12288次元の特徴ベクトルを1つ得ることになる。
Next, the storage partial region feature extraction unit 2 reads a set of storage features from the storage feature extraction unit 1 and sets a first target window of a predetermined size at a certain location of the storage image. To do.
For example, the first window of interest has a size of 64 × 64 pixels, and is arranged in the upper left corner of the stored image as an initial state. .
Then, the storage partial region feature extraction unit 2 extracts a storage partial region feature that is a feature of the image of the partial region included in the set first attention window.
For example, for each of the accumulated partial area features, the RGB pixel value is used as it is, and one “64 × 64 × 3 = 1288 dimensional feature vector is obtained.

また、他の実施形態においては、例えば、蓄積部分領域特徴として、小領域内のRGB面素値の平均を演算し、得られた平均値を用い、上記第1注目窓内に、重複することも隙間もな存在しない状態に、上記小領域を配置して、この各小領域に対応する特徴を抽出して、「(64/8)×(64/8)×3=192」次元の特徴のベクトルを1つ得るようにすることも可能である。
さらに、他の実施形態においては、例えば、蓄積部分領域特徴として、小領域内の2次元DCT係数ベクトルを用い、上記第1注目窓内に重複することも隙問も存在しない状態に、上記小領域を配置して、この各小領域に対応する特徴を抽出し、「8×8×3=192」次元の特徴ベクトルを、「(64/8)×(64/8)=64」個、もしくは、全ての次元の特徴ベクトルを1つにまとめて、「192×64=12288」次元の特徴ベクトルを1つ得ることもできる。
In another embodiment, for example, an average of RGB surface element values in a small region is calculated as the accumulated partial region feature, and the obtained average value is used to overlap the first attention window. The above-mentioned small areas are arranged in a state where there is no gap, and features corresponding to the small areas are extracted, and a feature of “(64/8) × (64/8) × 3 = 192” dimension is extracted. It is also possible to obtain one vector.
Further, in another embodiment, for example, as the accumulated partial region feature, the two-dimensional DCT coefficient vector in the small region is used, and the small region is not overlapped in the first attention window and there is no gap. Areas are arranged, and features corresponding to the respective small areas are extracted, and “(64/8) × (64/8) = 64” feature vectors of “8 × 8 × 3 = 192” dimensions are obtained. Alternatively, all the dimension feature vectors can be combined into one to obtain one “192 × 64 = 1288” dimension feature vector.

第1注目窓は、各蓄積画像内において、予め定められた所定の間隔により、複数設定され、各注目窓内の部分領域から蓄積部分領域特徴を抽出する(ステップS3)。
すなわち、第1注目窓(横ωxピクセル×縦ωyピクセル)は、各蓄積画像内において、縦及び横方向に、上記所定の間隔(各注目窓の同一の辺同士の間隔であり、例えば左辺同士、上辺同士の間隔として、横方向にmxピクセル,縦方向にmyピクセル)で順次ずらして配置されており、各々が重なり合う状態となっており、連続する第1の窓同士は、図3に示すように、所定の間隔を除いて重なることとなる。
A plurality of first attention windows are set at predetermined intervals in each accumulated image, and the accumulated partial area features are extracted from the partial areas in each attention window (step S3).
That is, the first window of interest (horizontal ωx pixel × vertical ωy pixel) is the predetermined interval (interval between the same sides of each window of interest) in each accumulated image in the vertical and horizontal directions. , The interval between the upper sides is sequentially shifted by mx pixels in the horizontal direction and my pixels in the vertical direction), and each of the overlapping first windows is shown in FIG. In this way, they overlap except for a predetermined interval.

例えば、第1注目窓を縦横それぞれ16ピクセルの間隔で配置し、蓄積画像の大きさが「384×256」ピクセルであるとすると、第1注目窓が「64×64」ピクセルであるために1画像あたり、「21×13=273」個の第1注目窓が設定されることになる。
また、第1注目窓の配置問隔を、以下マージンと呼ぶことにする。このマージンは、例えば、第1注目窓の大きさ以下に設定すると、必ず第1注目窓が重なって配置されることになり、検索漏れを生じることがなくなる。
そして、蓄積部分領域特徴抽出部2は、上記第1注目窓毎に得られた蓄積部分領域特徴の集合を出力する。
For example, if the first window of interest is arranged at intervals of 16 pixels vertically and horizontally, and the size of the accumulated image is “384 × 256” pixels, the first window of interest is “64 × 64” pixels. For each image, “21 × 13 = 273” first attention windows are set.
Further, the arrangement interval of the first window of interest is hereinafter referred to as a margin. For example, if the margin is set to be equal to or smaller than the size of the first target window, the first target window is always arranged so as not to cause a search omission.
Then, the storage partial region feature extraction unit 2 outputs a set of storage partial region features obtained for each of the first windows of interest.

次に、索引付与部3は、蓄積部分領域特徴抽出部2の抽出した蓄積部分領域特徴の集合を読み込み、この読み込んだ各部分領域特徴に対して、検索を容易にするための索引を付与する。
例えば、「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002−236496)記載の実施例のように、予め作成されたベクトル量子化符号帳を用いて、各部分領域画像の特徴ベクトルをベクトル量子化し、ベクトル量子化の符号語を索引とする。
Next, the index assigning unit 3 reads the set of accumulated partial region features extracted by the accumulated partial region feature extracting unit 2, and assigns an index for facilitating the search to each read partial region feature. .
For example, as in the embodiment described in “Signal Detection Method, Signal Detection Device, Recording Medium, and Program” (Japanese Patent Application Laid-Open No. 2002-236696), a feature of each partial region image is created using a vector quantization codebook created in advance. The vector is vector-quantized, and the codeword of vector quantization is used as an index.

すなわち、上記方法について簡単に説明すると、はじめに、索引付与部3は、蓄積部分領域特徴の集合を読み込む。
次に、索引付与部3は、各蓄積部分領域特徴のクラスタリングを行う。このクラスタリングは、例えば、各蓄積部分領域特徴をベクトルと考えて、そのベクトルを、ベクトル量子化を用いて符号化することによって行う。
例えば、ベクトル量子化の符号語数が1024個であれば、部分領域特徴は1024個のクラスタのいずれかに分類されることになる。
That is, the above method will be briefly described. First, the index assigning unit 3 reads a set of accumulated partial region features.
Next, the index assigning unit 3 performs clustering of each accumulated partial region feature. This clustering is performed by, for example, considering each accumulated partial region feature as a vector and encoding the vector using vector quantization.
For example, if the number of code words for vector quantization is 1024, the partial region features are classified into any of 1024 clusters.

ここで、ベクトル量子化は、例えば、自乗誤差を距離関数として用い、クラスタ重心との距離が他のどのクラスタ重心との距離よりも小さくなるクラスタに部分領域特徴を所属させ、クラスタに対応する符号語を出力することによって行われる。
このクラスタは、例えば、クラスタ作成のために予め用意された、部分領域特徴と同じ次元数の特徴である学習特徴を用いて予め作成しておく。
すなわち、クラスタは、それに所属する学習特徴とクラスタ重心との距離の総和が最小になるように、かつそのクラスタに所属する学習特徴について、所属するクラスタのクラスタ重心との距離が、他のどのクラスタ重心との距離よりも小さくなるように構成される。
そして、索引付与部3は、索引として、各部分領域特徴に対応する、ベクトル量子化の符号語を出力する(ステップS4)。
Here, the vector quantization uses, for example, a square error as a distance function, assigns a partial region feature to a cluster whose distance from the cluster centroid is smaller than the distance from any other cluster centroid, and codes corresponding to the clusters. This is done by outputting a word.
This cluster is created in advance using, for example, learning features that are prepared in advance for cluster creation and have the same number of dimensions as the partial region features.
That is, a cluster is such that the sum of the distance between the learning feature belonging to it and the cluster centroid is minimized, and the distance from the cluster centroid of the cluster to which the cluster belongs is any other cluster. It is comprised so that it may become smaller than the distance with a gravity center.
Then, the index assigning unit 3 outputs a vector quantization code word corresponding to each partial region feature as an index (step S4).

また、別の実施形態として、例えば、R-Tree(「The R-Tree: an efficient and rbust access method for points and rectangles」,(N.Beckman他1名,Proc. of ACM SIGMOD Conference,pp.322-331,1990))やSR-Tree(「SR-Tree: 高次元データに対する最近接探索のためのインデックス構造の提案」(片山紀生 他1名,電子情報通信学会論文誌D-I,Vol.J80-D-I,No.8,pp.703-717,1997年8月))など、多次元インデックスと総称される手法を用いて、特徴の存在する多次元空間内で特徴を包含する領域を階層的に作成し、最下層の領域と特徴とを対応付けることにより索引を付与することも可能である。
特徴を包含する領域は、例えば、R-Treeであれば、3次元空間における直方体に相当する超直方体、SR-Treeであれば、超直方体と、3次元空間における球に相当する超球との重なりとなる。
そして、索引付与部3は、上述のように求められた、各部分領域特徴に対する索引を出力する。
As another embodiment, for example, R * -Tree (“The R * -Tree: an efficient and rbust access method for points and rectangles”, (N. Beckman et al., Proc. Of ACM SIGMOD Conference, pp .322-331, 1990)) and SR-Tree ("SR-Tree: Proposal of index structure for nearest neighbor search for high-dimensional data" (Natao Katayama et al., IEICE Transactions DI, Vol. J80-DI, No.8, pp.703-717 (August 1997)) and other methods that are collectively referred to as multidimensional indexes It is also possible to create an index and assign an index by associating the lowest layer area with a feature.
The region including the feature is, for example, a super cuboid corresponding to a rectangular parallelepiped in three-dimensional space if R * -Tree, and a super sphere corresponding to a sphere in three-dimensional space if SR-Tree. It becomes an overlap.
Then, the index assigning unit 3 outputs an index for each partial region feature obtained as described above.

次に、目的特徴抽出部4は、目的画像を読み込むが(ステップS5)、この目的画像の大きさは、例えば、マージンと第1注目窓の大ききとの和(合計)以上に設定すると、完全に蓄積画像の特徴の抽出を行う範囲を包含するために、検索漏れを生じることがない。
そして、目的特徴抽出部4は、目的画像から特徴の抽出を、上記蓄積特徴抽出部1と同様の手法で行い、目的画像から抽出された特徴である目的特徴の集合を出力する(ステップS6)。
Next, the target feature extraction unit 4 reads the target image (step S5). If the size of the target image is set to be equal to or larger than the sum (total) of the margin and the size of the first window of interest, for example, Since the range in which the feature of the stored image is completely extracted is included, no omission of search occurs.
Then, the target feature extraction unit 4 performs feature extraction from the target image by the same method as the accumulated feature extraction unit 1, and outputs a set of target features that are the features extracted from the target image (step S6). .

次に、目的部分領域特徴抽出部5は、目的特徴抽出部4の抽出した目的特徴の集合を読み込み、この目的画像のある1つの箇所に、蓄積部分領域特徴抽出部2で用いた注目窓と同様の大きさ(縦×横)の注目窓、すなわち、第1注目窓を用い、この第1注目窓内に含まれる画像の特徴である目的部分領域特徴を抽出する。
また、目的部分領域特徴抽出部5は、上記蓄積部分領域特徴抽出部2と同様の抽出方法を用いて、画像の特徴を抽出して、抽出結果を目的部分領域特徴の集合として出力する(ステップS7)。
Next, the target partial region feature extraction unit 5 reads the set of target features extracted by the target feature extraction unit 4, and sets the target window used by the storage partial region feature extraction unit 2 in one location of the target image. A target window having the same size (vertical × horizontal), that is, a first target window is used, and a target partial region feature that is a feature of an image included in the first target window is extracted.
The target partial region feature extraction unit 5 extracts image features using the same extraction method as the storage partial region feature extraction unit 2 and outputs the extraction result as a set of target partial region features (step S7).

ここで、目的部分領域特徴抽出部5は、蓄積部分領域特徴抽出部2における特徴抽出の場合と異なり、上記第1注目窓を、目的画像内に重複することもなく、かつ隙間もない状態に設定し、それらを1ピクセルずつずらしながら、各位置において上記目的部分領域特徴の抽出を行う。
このとき、第1抽出窓は、例えば、少なくともマージンの大きさの分だけずらせば、検索漏れを生じさせることがない。
例えば、目的画像の大きさが「80×80」ピクセル、第1注目窓の大きさが「64×64」ピクセル、マージンが「16×16」ピクセルであるとき、目的画像内に重複することもなく、かつ隙間もない状態に設定できる第1注目窓の数が1つなので、目的画像全体において、「16×16=256」個の第1注目窓が設定される。
そして、目的部分領域特徴抽出部5は、上述した処理により抽出した、目的部分領域特徴の集合を出力する。
Here, unlike the case of the feature extraction in the storage partial region feature extraction unit 2, the target partial region feature extraction unit 5 does not overlap the first target window in the target image and has no gap. The target partial region features are extracted at each position while setting them and shifting them one pixel at a time.
At this time, for example, if the first extraction window is shifted at least by the size of the margin, no search omission occurs.
For example, when the size of the target image is “80 × 80” pixels, the size of the first target window is “64 × 64” pixels, and the margin is “16 × 16” pixels, the target image may overlap. Since the number of first target windows that can be set in a state without any gap is one, “16 × 16 = 256” first target windows are set in the entire target image.
Then, the target partial region feature extraction unit 5 outputs a set of target partial region features extracted by the above-described processing.

次に、索引検索部6は、索引付与部3から出力される索引と、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合とを読み込む。
そして、目的代表特徴抽出部15において、目的部分領域特徴から目的代表特徴を抽出する処理を行った場合、索引検索部6は、目的部分領域特徴の集合の代わりに、目的代表特徴抽出部15から出力される目的代表特徴の集合を読み込む。
目的代表特徴抽出部15は、後述する他の実施形態において詳細に説明する。
また、必要に応じて、索引検索部6は、目的部分領域間距離計算部16から出力される目的部分領域間距離を、さらに、読み込む構成もある。目的部分領域間距離計算部16は後述する他の実施形態において、詳細に説明する。
また、検索閾値更新部14が検索閾値及び選択閾値を更新する処理を行った場合、索引検索部6は更新された選択閾値を読み込む。この検索閾値更新部14については後述する他の実施形態において、詳細に説明する。
Next, the index search unit 6 reads the index output from the index assigning unit 3 and the set of target partial region features output from the target partial region feature extraction unit 5.
When the target representative feature extraction unit 15 performs the process of extracting the target representative feature from the target partial region feature, the index search unit 6 uses the target representative feature extraction unit 15 instead of the set of target partial region features. Read a set of target representative features to be output.
The target representative feature extraction unit 15 will be described in detail in another embodiment to be described later.
In addition, the index search unit 6 may further read the target inter-region distance output from the target inter-region distance calculation unit 16 as necessary. The target partial region distance calculation unit 16 will be described in detail in another embodiment described later.
Further, when the search threshold update unit 14 performs a process of updating the search threshold and the selection threshold, the index search unit 6 reads the updated selection threshold. The search threshold update unit 14 will be described in detail in another embodiment described later.

そして、索引検索部6は、読み込んだ索引を用い、目的部分領域特徴の集合に類似する蓄積部分領域特徴を、検索候補特徴として抽出する(ステップS8)。
このとき、索引検索部6は、目的部分領域特徴の集合内におけるいずれかの目的部分領域特徴に対し、該部分領域特徴との距離dt、例えば自乗誤差が、予め定められた閾値である選択閾値θを下回るような(以下となるような)蓄積部分領域特徴を、索引により抽出する。
上記選択閾値θは後述するパラメータから自動的に決定される値であり、また、この選択閾値の決定方法は後述する。
Then, the index search unit 6 uses the read index to extract an accumulated partial area feature similar to the target partial area feature set as a search candidate feature (step S8).
At this time, the index search unit 6 selects, for any target partial region feature in the set of target partial region features, a distance dt from the partial region feature, for example, a square error, which is a predetermined threshold value. Accumulated partial region features that are below θ 2 (below) are extracted by index.
The selection threshold θ 2 is a value that is automatically determined from parameters described later, and a method for determining the selection threshold will be described later.

また、別の実施例として、目的部分領域特徴の集合の代わりに、目的部分領域特徴から代表的な特徴を目的代表特徴として抽出し、この目的代表特徴の集合を用いて、集合内のいずれかの目的代表特徴との距離dtが選択閾値θを下回る蓄積部分領域特徴を、上記索引から抽出する構成とすることも可能である(後述)。
さらに、別の実施例として、目的部分領域間距離を用い、各目的代表特徴との距離dtを、該目的代表特徴に対応する目的部分領域間距離の最大値分だけ小さくし、この距離dtの値が選択閾値θを下回る蓄積部分領域特徴を索引から抽出する構成とすることも可能である(後述)。
As another example, instead of a set of target sub-region features, a representative feature is extracted from the target sub-region feature as a target representative feature, and this target representative feature set is used to distance dt between objects representative feature is the storage part region feature below a selected threshold theta 2 of, it is also possible to adopt a configuration that extracts from the index (described later).
Further, as another embodiment, the distance between the target partial areas is used by using the distance between the target partial areas, and the distance dt between each target representative area is reduced by the maximum value of the distance between the target partial areas corresponding to the target representative feature. It is also possible to adopt a configuration in which accumulated partial region features whose values are below the selection threshold θ 2 are extracted from the index (described later).

ここで上述した、ある1つの目的部分領域特徴あるいは目的代表特徴との距離が選択閾値を下回る蓄積部分領域特徴を索引から抽出する抽出方法について説明する。
この抽出方法は、上記索引付与部3において用いられた索引の種類によって異なり、上記索引に対応する特許明細書記載の方法あるいは非特許文献記載の方法と同様にして実施することができる。
例えば、「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002−236496)に記載の方法を用いて索引を付与した場合、以下のようにして所望の蓄積部分領域特徴を抽出することができる。
Here, an extraction method for extracting from the index an accumulated partial region feature whose distance from a certain target partial region feature or target representative feature is below the selection threshold will be described.
This extraction method differs depending on the type of index used in the index assigning unit 3 and can be implemented in the same manner as the method described in the patent specification or the method described in the non-patent document corresponding to the index.
For example, when an index is assigned using the method described in “Signal Detection Method, Signal Detection Device, Recording Medium, and Program” (Japanese Patent Laid-Open No. 2002-236696), a desired accumulated partial region feature is extracted as follows. be able to.

はじめに、索引検索部6は、目的部分領域特徴あるいは目的代表特徴と、索引付与部3で作成された索引(クラスタ)、及び選択閾値θを読み込む。
以下では、簡単のため、目的代表特徴ではなく、本実施例で採用した構成において目的部分領域特徴を読み込んだものとして説明する。
そして、索引検索部6は、読み込んだ目的部分領域特徴と、各クラスタ重心との距離を計算する。
続いて、索引検索部6は、計算された距離dtに基づいて、目的部分領域特徴との距離が選択閾値θを下回る蓄積部分領域特徴を含む可能性のあるクラスタを選択する。
First, the index search unit 6 reads and purpose partial region feature or objects representative feature, indexes created by the indexing portion 3 (the cluster), and the selection threshold theta 2.
In the following, for the sake of simplicity, the description will be made assuming that the target partial region feature is read in the configuration adopted in this embodiment, not the target representative feature.
Then, the index search unit 6 calculates the distance between the read target partial region feature and each cluster centroid.
Subsequently, the index search unit 6, based on the calculated distance dt, selects a potential cluster including storage part region feature where the distance between the objective portion region feature is below a selected threshold theta 2.

上述したクラスタを選択する原理を以下に説明する。
図4は、点Q,C1,C2の3点が乗るような平面であり、特徴ベクトルが配置される特徴空間を切り出した様子を示している。
ここで、点Qは目的部分領域特徴、C1は部分領域特徴Qが所属しているクラスタのクラスタ重心、C2は他のクラスタのクラスタ重心を表しており、距離dQ1,dQ2,d12はそれぞれ、点Qと点C1との距離、点Qと点C2との距離、点C1と点C2との距離を示している。
The principle of selecting the above-described cluster will be described below.
FIG. 4 is a plane on which three points Q, C1, and C2 are placed, and shows a state in which a feature space in which feature vectors are arranged is cut out.
Here, the point Q is the target partial region feature, C1 is the cluster centroid of the cluster to which the partial region feature Q belongs, C2 is the cluster centroid of the other cluster, and the distances dQ1, dQ2, and d12 are the points. The distance between Q and point C1, the distance between point Q and point C2, and the distance between point C1 and point C2 are shown.

ここで、目的部分領域特徴の座標である点Qからの距離dtが選択閾値θ以内である蓄積部分領域特徴を抽出しなければならないとすると、点Qを中心とする半径θの超球(図4においては半径dθの円)の内部にある蓄積部分領域特徴がそれに該当する。
そして、点Qを中心とする超球の半径が図4におけるdθより大きくなったとき、点C2に対応するクラスタに所属する蓄積部分領域特徴の中に、所望の蓄積部分領域特徴が含まれている可能性がある。
そこで、選択閾値θが図4におけるdθより大きくなったとき、そのクラスタを選択する。dθは、以下の(1)式,(2)式を用いて求められる。
Here, if it is necessary to extract an accumulated partial region feature whose distance dt from the point Q that is the coordinates of the target partial region feature is within the selection threshold θ 2 , a hypersphere having a radius θ 2 centered on the point Q storage part region feature in the interior of true thereto (circle of radius d theta in FIG. 4).
Then, when the radius of the hypersphere centered at the point Q becomes larger than in FIG. 4, a desired storage partial region feature is included in the storage partial region features belonging to the cluster corresponding to the point C2. There is a possibility.
Therefore, when the selection threshold θ 2 becomes larger than d θ in FIG. 4, the cluster is selected. is obtained using the following equations (1) and (2).

Figure 2005352990
Figure 2005352990

上記(1)式より、   From the above equation (1),

Figure 2005352990
Figure 2005352990

が求められる。
最終的に、索引検索部6は、以下の(3)式が成り立つとき、点C2に対応するクラスタを選択し、そのクラスタに所属する蓄積部分領域特徴を全て抽出する。
そして、この手順を、目的部分領域特徴Qが所属するクラスタを除く全てのクラスタに対して行い、抽出された蓄積部分領域特徴を、検索候補特徴として出力する。
Is required.
Finally, when the following expression (3) holds, the index search unit 6 selects a cluster corresponding to the point C2, and extracts all accumulated partial region features belonging to the cluster.
Then, this procedure is performed for all clusters except the cluster to which the target partial region feature Q belongs, and the extracted accumulated partial region features are output as search candidate features.

Figure 2005352990
Figure 2005352990

次に、特徴照合部7は、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合と、索引検索部6から出力される検索候補特徴の集合を読み込む。
そして、特徴照合部7は、次目的部分領域特徴選定部12により、次に照合すべき目的部分領域特徴が指定されている場合、該目的部分領域特徴を読み込む。この次目的部分領域特徴選定部12は、本実施形態において後述する。
Next, the feature matching unit 7 reads the set of target partial region features output from the target partial region feature extraction unit 5 and the set of search candidate features output from the index search unit 6.
The feature matching unit 7 reads the target partial region feature when the next target partial region feature selecting unit 12 specifies the target partial region feature to be verified next. The next target partial region feature selection unit 12 will be described later in this embodiment.

また、特徴照合部7は、次検索候補特徴選定部13から、次に照合すべき検索候補特徴が指定されている場合、該検索候補特徴を読み込む。この次検索候補特徴選定部13は、本実施形態において後述する。
次に、特徴照合部7は、次目的部分領域特徴選定部12から読み込んだ目的部分領域特徴と、次検索候補特徴選定部13から読み込んだ検索候補特徴の集合との照合を行う。
このとき、特徴照合部7は、上記目的部分領域特徴と検索候補特徴との距離、例えば、自乗誤差の演算を行う。
Further, when a search candidate feature to be matched next is designated from the next search candidate feature selection unit 13, the feature matching unit 7 reads the search candidate feature. This next search candidate feature selection unit 13 will be described later in this embodiment.
Next, the feature matching unit 7 performs matching between the target partial region feature read from the next target partial region feature selecting unit 12 and the set of search candidate features read from the next search candidate feature selecting unit 13.
At this time, the feature matching unit 7 calculates a distance between the target partial region feature and the search candidate feature, for example, a square error.

ここで、特徴照合部7は、指定された目的部分領域特徴がなければ、初期目的部分領域特徴として、例えば、目的画像の左上角の位置に対応する目的部分領域特徴を指定し、上記検索候補特徴と照合処理を行う(ステップS9)。
また、特徴照合部7は、指定された検索候補特徴がなければ、初期の検索候補特徴として、例えば、任意に選択した検索候補特徴を指定し、上記目的部分領域特徴と照合する。
そして、特徴照合部7は、照合計算(検索候補特徴と目的部分領域特徴との間の距離の演算)の結果として、照合した検索候補特徴と目的部分領域特徴との距離値d(ω)を出力する。
Here, if there is no designated target partial region feature, the feature matching unit 7 designates, for example, a target partial region feature corresponding to the position of the upper left corner of the target image as the initial target partial region feature, and the search candidate A feature and matching process is performed (step S9).
Further, if there is no designated search candidate feature, the feature matching unit 7 designates, for example, an arbitrarily selected search candidate feature as an initial search candidate feature, and collates it with the target partial region feature.
Then, the feature matching unit 7 calculates the distance value d (ω) between the matched search candidate feature and the target partial region feature as a result of the matching calculation (calculation of the distance between the search candidate feature and the target partial region feature). Output.

次に、照合結果判定部12は、特徴照合部7から出力される距離値d(ω)を読み込み、目的画像と類似する部分画像が、現在の照合箇所に存在する可能性があるか否かの判定、すなわち、該距離値d(ω)と、前記選択閾値θとの比較を行う。
そして、照合結果判定部8は、距離値d(ω)が選択閾値θを以下となったとき、目的画像と類似する部分画像が現在の照合箇所に存在する可能性があると判定し、蓄積部分領域特徴を照合箇所として出力し、一方、距離値d(ω)が選択閾値θを超えているとき、目的画像と類似する部分画像が現在の照合箇所に存在する可能性がないと判定し、処理をステップS14へ進める(ステップS10)。
Next, the matching result determination unit 12 reads the distance value d (ω) output from the feature matching unit 7 and determines whether or not there is a possibility that a partial image similar to the target image exists at the current matching location. That is, the distance value d (ω) is compared with the selection threshold value θ 2 .
The verification result determining section 8, when the distance value d (omega) is equal to or less than the selected threshold theta 2, it determines that there is a possibility that the partial image similar to the target image exists in the current matching point, outputting the stored partial region feature as the matching portion, whereas, when the distance value d (omega) exceeds the selection threshold theta 2, if there is no possibility of partial image similar to the target image is in the current verification point Determination is made and the process proceeds to step S14 (step S10).

次に、特徴再照合部9は、蓄積特徴抽出部1から出力される蓄積特徴の集合と、目的特徴抽出部4から出力される目的特徴の集合と、照合結果判定部8から出力される照合箇所とを読み込む。
そして、特徴再照合部9は、読み込んだ蓄積特徴に、目的画像と同じ大きさ(縦×横)の注目窓である第2注目窓を設定する。
Next, the feature re-collation unit 9 includes a set of accumulated features output from the accumulated feature extraction unit 1, a set of target features output from the target feature extraction unit 4, and a collation output from the matching result determination unit 8. Read the location.
Then, the feature re-collation unit 9 sets a second attention window, which is the attention window having the same size (vertical × horizontal) as the target image, in the read accumulated feature.

ここで、特徴再照合部9は、第2注目窓の配置箇所を、照合結果判定部8から出力された照合箇所に対応して決定する。
すなわち、特徴再照合部9は、図5の概念図に示すように、第2注目窓の配置箇所に対する蓄積部分領域の相対的な位置が、目的画像における目的部分領域の相対的な位置と同一になるように、つまり、照合箇所における蓄積部分領域と目的部分領域とが重なる位置に、上記第2注目窓を配置する。
Here, the feature re-collation unit 9 determines the location of the second window of interest corresponding to the collation location output from the collation result determination unit 8.
That is, as shown in the conceptual diagram of FIG. 5, the feature re-collation unit 9 has the same relative position of the accumulation partial area with respect to the arrangement position of the second target window as the relative position of the target partial area in the target image. In other words, the second window of interest is arranged at a position where the accumulation partial area and the target partial area at the collation location overlap.

次に、特徴再照合部9は、第2注目窓内における蓄積特徴と目的特徴との照合を行う。
ここで、特徴再照合部9は、例えば、第2注目窓内の蓄積特徴と目的特徴との距離値d、例えば、自乗誤差を計算する。
そして、特徴再照合部9は、照合計算結果である距離値dを出力する(ステップS11)。
Next, the feature re-collation unit 9 collates the accumulated feature and the target feature in the second attention window.
Here, the feature re-collation unit 9 calculates, for example, a distance value d between the accumulated feature in the second attention window and the target feature, for example, a square error.
Then, the feature re-collation unit 9 outputs a distance value d that is a collation calculation result (step S11).

次に、照合結果再判定部14は、特徴再照合部13から出力される距離値dを読み込み、目的画像と類似する部分画像が現在の照合箇所に存在する可能性があるか否かの判定、すなわち、該距離値dと、前記予め定められた閾値である検索閾値θとの比較を行う。
このとき、照合結果再判定部10は、距離値dが検索閾値θ以下であるとき、目的画像と類似する部分画像が現在の照合箇所に存在すると判定し、蓄積画像における該照合箇所を検出箇所として、この検出箇所の位置及び判定結果(存在したことを示す情報)を出力し、一方、距離値dが検索閾値θを超えたとき、目的画像と類似する部分画像が現在の照合箇所に存在しないと判定し、処理をステップS14へ進める(ステップS12)。
Next, the collation result re-determination unit 14 reads the distance value d output from the feature re-collation unit 13, and determines whether or not there is a possibility that a partial image similar to the target image exists in the current collation location. That is, the distance value d is compared with the search threshold value θ which is the predetermined threshold value.
At this time, when the distance value d is equal to or less than the search threshold θ, the matching result re-determination unit 10 determines that a partial image similar to the target image exists at the current matching location, and detects the matching location in the accumulated image as a detected location. The position and determination result (information indicating the presence) of this detection location is output, and when the distance value d exceeds the search threshold θ, a partial image similar to the target image exists at the current verification location It determines with not, and advances a process to step S14 (step S12).

上記選択閾値θは、前記検索閾値θから決定され、以下に示す(4)式に示すように、選択閾値θを設定すると、検索漏れを生じることがない。 The selection threshold θ 2 is determined from the search threshold θ, and if the selection threshold θ 2 is set as shown in the following equation (4), no search omission occurs.

Figure 2005352990
Figure 2005352990

上記(4)式において、Nは第1注目窓を重複も隙問もなく蓄積画像中に配置したと仮定したとき、任意位置に配置された第2照合窓に含まれる第1照合窓の最小数であり、以下に示す(5)〜(7)式により与えられる。   In the above equation (4), N is the minimum of the first matching window included in the second matching window placed at an arbitrary position when it is assumed that the first window of interest is placed in the stored image without overlapping or gaps. It is a number and is given by the following equations (5) to (7).

Figure 2005352990
Figure 2005352990

Figure 2005352990
Figure 2005352990

Figure 2005352990
Figure 2005352990

ここで、(6)式におけるNxは横方向の第1の照合窓の数であり、(7)式におけるNyは縦方向の第1の照合窓の数である。
ただし、(qx、qy)は目的画像の大きさ、すなわち、第2注目窓の大きさであり、(ωx,ωy)は第1注目窓の大きさである。
次に、検索結果候補選択部11は、照合結果再判定部10から出力される検出箇所と、特徴再照合部9から出力される距離値dを読み込む。
Here, Nx in the equation (6) is the number of first collation windows in the horizontal direction, and Ny in the equation (7) is the number of first collation windows in the vertical direction.
However, (qx, qy) is the size of the target image, that is, the size of the second target window, and (ωx, ωy) is the size of the first target window.
Next, the search result candidate selection unit 11 reads the detection location output from the verification result re-determination unit 10 and the distance value d output from the feature re-verification unit 9.

次に、検索結果候補選択部11は、上記検出箇所と、この検出箇所における距離値dとを、検索結果候補として登録する。
検索結果候補選択部11は、例えば、距離値の大小にかかわらず、読み込んだ検出箇所と距離値dとの組を全て登録する。
また、検索結果候補選択部11は、他の実施形態として、検索結果候補が予め定められた数量以下になるように登録する構成とすることも可能である。
Next, the search result candidate selection unit 11 registers the detection location and the distance value d at the detection location as search result candidates.
For example, the search result candidate selection unit 11 registers all the combinations of the read detection location and the distance value d regardless of the distance value.
In addition, as another embodiment, the search result candidate selection unit 11 may be configured to register the search result candidates so that the number of search result candidates is equal to or less than a predetermined number.

すなわち、検索結果候補選択部11は、検索結果候補を該数量までは無条件に検出箇所と距離値との組を登録し、該数量を超過する場合、例えば、すでに読み込まれた検索結果候補の中における最大距離値dmaxと、以降読み込んだ距離値dとを比較し、読み込んだ距離値dが最大距離値dmaxを下回る場合、最大距離値dmaxに対応する候補を削除し、新たに読み込んだ検出箇所と距離値dの組とを候補として登録する。
このように、検索結果候補選択部11は、蓄積画像から上述した方法により検索結果候補を出力する(ステップS13)。
That is, the search result candidate selection unit 11 unconditionally registers the search result candidates up to the quantity, and sets a combination of the detected location and the distance value. If the quantity exceeds the quantity, for example, the search result candidate already read The maximum distance value dmax in the inside is compared with the distance value d read thereafter, and when the read distance value d falls below the maximum distance value dmax, the candidate corresponding to the maximum distance value dmax is deleted and newly read detection A location and a set of distance values d are registered as candidates.
As described above, the search result candidate selection unit 11 outputs the search result candidate from the accumulated image by the method described above (step S13).

次に、次目的部分領域特徴選定部12は、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合を読み込み、必要に応じて、特徴照合部7から出力される距離値d(ω),検索閾値更新部14から出力される選択閾値θ,及び周辺距離下限値計算部17から出力される周辺距離下限値を読み込む。
上記検索閾値更新部14及び周辺距離下限値計算部17は、他の実施例において後述する。
そして、次目的部分領域特徴選定部12は、次に照合する目的部分領域特徴の有無の検出を行い、照合箇所がないことを検出すると処理をステップS15へ進め、一方、照合箇所があることを検出すると、次に照合する目的部分領域特徴を選択して、処理をステップS9へ進める(ステップS14)。
Next, the next target partial region feature selection unit 12 reads the set of target partial region features output from the target partial region feature extraction unit 5 and, if necessary, the distance value d ( ω), the selection threshold θ 2 output from the search threshold update unit 14, and the peripheral distance lower limit value output from the peripheral distance lower limit calculation unit 17 are read.
The search threshold update unit 14 and the peripheral distance lower limit calculation unit 17 will be described later in another embodiment.
Then, the next target partial region feature selection unit 12 detects the presence or absence of the target partial region feature to be collated next. When it is detected that there is no collation location, the process proceeds to step S15. If detected, the target partial region feature to be checked next is selected, and the process proceeds to step S9 (step S14).

このとき、次目的部分領域特徴選定部12は、例えば、現在注目している蓄積部分領域特徴に対して、照合が終了していない目的部分領域特徴があるか否かを判定して、終了していない目的部分領域特徴があれば、この中から任意の目的部分領域特徴を1つ選択し、全ての目的部分領域特徴の照合が終了している場合、次の、蓄積部分領域特徴に注目を変更するため、処理をステップS15へ進める。
また、別の実施形態として、次目的部分領域特徴選定部12は、上記周辺距離下限値を読み込んだ場合、この距離下限値が、読み込んだ選択閾値θ上回る目的部分領域特徴との照合を省略し、この距離下限値が選択閾値θ以下の目的部分領域特徴から任意に1つ選択する構成とすることも可能である。
そして、次目的部分領域特徴選定部12は、終了していない目的部分領域特徴があれば、照合箇所が選択された目的部分領域特徴と、この目的部分特徴に対応する目的画像内の位置を出力する。
At this time, for example, the next target partial region feature selection unit 12 determines whether or not there is a target partial region feature that has not been collated with respect to the storage partial region feature currently focused on, and ends. If there is a target partial area feature that is not yet selected, one arbitrary target partial area feature is selected from these, and when all target partial area features have been collated, attention is paid to the next storage partial area feature. In order to change, the process proceeds to step S15.
As another embodiment, the following objective partial region feature selection unit 12, if read the peripheral distance limit value, the distance limit value, omit collation purposes partial region feature above selected threshold theta 2 read and, it is also possible to adopt a configuration in which the distance limit value is any one to choose for the selection threshold theta 2 following purposes partial region feature.
Then, if there is an unfinished target partial region feature, the next target partial region feature selection unit 12 outputs the target partial region feature whose collation location is selected and the position in the target image corresponding to the target partial feature. To do.

次に、次検索候補特徴選定部13は、索引検索部6から出力される検索候補特徴の集合を読み込み、次に照合すべき検索候補特徴を選択、すなわち次に照合する検索候補特徴の有無の検出を行い、照合する検索候補特徴がないことを検出すると処理を終了させ、一方、照合する検索候補特徴があることを検出すると、次に照合すべき検索候補特徴を選択して、処理をステップS9へ進める(ステップS15)。
このとき、次検索候補特徴選定部13は、例えば、照合する検索候補特徴があることを検出すると、照合が終了していない検索候補特徴から任意に1つ選択する。
これにより、次検索候補特徴選定部13は、選択された検索候補特徴を、特徴照合部7に対して出力する。
Next, the next search candidate feature selection unit 13 reads a set of search candidate features output from the index search unit 6, selects a search candidate feature to be matched next, that is, whether there is a search candidate feature to be matched next. When detection is performed and it is detected that there is no search candidate feature to be matched, the process is terminated. On the other hand, when it is detected that there is a search candidate feature to be matched, a search candidate feature to be matched next is selected and the process is performed. The process proceeds to S9 (step S15).
At this time, for example, when detecting that there is a search candidate feature to be collated, the next search candidate feature selection unit 13 selects one arbitrarily from the search candidate features that have not been collated.
As a result, the next search candidate feature selection unit 13 outputs the selected search candidate feature to the feature matching unit 7.

<第2の実施例>(請求項3に対応)
図6は、請求項3に記載の方法を適用した第2の実施例による部分画像検索装置の構成例を示すブロック図である。
第2の実施例の部分画像検索装置は、請求項1に記載の方法を適用した第1の実施例による部分画像検索装置に加え、さらに、図6に示すように、検索閾値更新部14を設け、任意の目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される複数の画像である蓄積画像の集合を入力とし、目的画像と類似する画像が含まれている部分画像の蓄積画像内における箇所を出力する。
Second Embodiment (Corresponding to Claim 3)
FIG. 6 is a block diagram showing a configuration example of a partial image retrieval apparatus according to a second embodiment to which the method according to claim 3 is applied.
In addition to the partial image search apparatus according to the first embodiment to which the method of claim 1 is applied, the partial image search apparatus according to the second embodiment further includes a search threshold update unit 14 as shown in FIG. A partial image that contains an image that is similar to the target image, with an input of an arbitrary target image, that is, a sample image to be searched, and a set of stored images, that is, a set of stored images that are a plurality of searched images. The location in the stored image is output.

上記検索閾値更新部14は、上記検索結果候補選択部11から出力された検索結果候補から、上記特徴再照合部9から出力された距離値に基づいて、所定の距離内にある候補を検出し、この検出した候補の距離値に基づいて新たに検索閾値θを設定する。
次に、上述した蓄積特徴抽出部1から検索閾値更新部14における部分画像の検出処理を、図7を用いて具体的に説明する。ここで、図7は、図6に示す部分画像検索装置の動作例を示すフローチャートである。
The search threshold update unit 14 detects candidates within a predetermined distance from the search result candidates output from the search result candidate selection unit 11 based on the distance value output from the feature re-collation unit 9. The search threshold θ is newly set based on the detected candidate distance value.
Next, the partial image detection processing from the accumulated feature extraction unit 1 to the search threshold update unit 14 will be described in detail with reference to FIG. Here, FIG. 7 is a flowchart showing an operation example of the partial image search apparatus shown in FIG.

図7のフローチャートは、図2に示す第1の実施例のフローチャートに対して、ステップS13の「検索結果の候補選択」の処理の次に、ステップS16の「検索閾値更新」の処理が追加されたのみで、他の処理については同様であるため、このステップS16の処理の説明のみを行う。
検索閾値更新部14は、検索結果候補選択部11から出力される検索結果候補を読み込み、この読み込んだ検索結果候補の中から、距離値が最大の検索結果候補を選び出し、選択した検索結果候補の距離値が検索閾値θ以下であるか否かの判定を行い、この距離値が探索結果閾値θ以下であることを検出した場合、検索閾値θをその距離値と同じ値に更新する。
そして、(4)式に基づいて検索閾値θから選択閾値θを計算し、更新した検索閾値θと共に出力する(ステップS14)。
これ以降は、この更新された検索閾値θ及び選択閾値θが照合結果の判定に用いられる。
In the flowchart of FIG. 7, the “search threshold update” process of step S16 is added to the flowchart of the first embodiment shown in FIG. 2 after the “search result candidate selection” process of step S13. Since the other processes are the same, only the process of step S16 will be described.
The search threshold update unit 14 reads the search result candidate output from the search result candidate selection unit 11, selects the search result candidate having the maximum distance value from the read search result candidates, and selects the selected search result candidate. It is determined whether or not the distance value is equal to or less than the search threshold value θ. When it is detected that the distance value is equal to or less than the search result threshold value θ, the search threshold value θ is updated to the same value as the distance value.
Then, (4) the selection threshold theta 2 from the search threshold theta calculated based on equation outputs with updated search threshold theta (step S14).
Thereafter, the updated search threshold θ and selection threshold θ 2 are used for determination of the collation result.

<第3の実施例>(請求項5に対応)
図8は、請求項5に記載の方法を適用した第3の実施例による部分画像検索装置の構成例を示すブロック図である。
この第3の実施例による部分画像検索装置は、第1及び第2の実施例の部分画像検索装置に対して、目的代表特徴抽出部15を加えたものであり、目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される画像である蓄積画像の集合とを入力し、目的画像と類似する画像が含まれてた部分画像の、上記蓄積画像内における箇所を検索し、検索結果を出力する。
この目的代表特徴抽出部15は、上記目的部分領域特徴抽出部5から出力された目的部分領域特徴の集合の中から、各目的部分領域特徴に共通する特徴としての目的代表特徴を抽出する。
<Third embodiment> (corresponding to claim 5)
FIG. 8 is a block diagram showing a configuration example of a partial image search apparatus according to a third embodiment to which the method according to claim 5 is applied.
The partial image search device according to the third embodiment is obtained by adding a target representative feature extraction unit 15 to the partial image search devices of the first and second embodiments, and serves as a target image, that is, a sample. Input an image to be searched and a stored image group, that is, a set of stored images that are to be searched, and search for a location in the stored image of a partial image containing an image similar to the target image, Output search results.
The target representative feature extraction unit 15 extracts a target representative feature as a feature common to each target partial region feature from the set of target partial region features output from the target partial region feature extraction unit 5.

次に、上述した蓄積特徴抽出部1から目的代表特徴抽出部15における部分画像の検出処理を、図9を用いて具体的に説明する。ここで、図9は、図8に示す部分画像検索装置の動作例を示すフローチャートである。
図9のフローチャートは、図7に示す第2の実施例のフローチャートに対して、ステップS7の「目的部分領域の抽出」の処理の次に、ステップS17の「目的代表特徴の抽出」の処理が追加されたのみで、他の処理については同様であるため、このステップS17の処理の説明のみを行う。
Next, the partial image detection processing in the above-described accumulated feature extraction unit 1 to target representative feature extraction unit 15 will be specifically described with reference to FIG. Here, FIG. 9 is a flowchart showing an operation example of the partial image search apparatus shown in FIG.
The flowchart of FIG. 9 is different from the flowchart of the second embodiment shown in FIG. 7 in that the process of “extraction of target representative features” in step S17 is followed by the process of “extraction of target partial area” in step S7. Since only the process is added and the other processes are the same, only the process of step S17 will be described.

目的代表特徴抽出部15は、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合を読み込み、これら複数の目的部分領域特徴に対してクラスタリング処理を行う。
このとき、目的代表特徴抽出部15は、例えば、クラスタを1つだけ用意し(共通の特徴ベクトルを抽出する)、上記集合における全ての目的部分領域特徴をそのクラスタに所属させる(1つの目的代表特徴を出力することになる)。
The target representative feature extraction unit 15 reads a set of target partial region features output from the target partial region feature extraction unit 5 and performs a clustering process on the plurality of target partial region features.
At this time, for example, the target representative feature extraction unit 15 prepares only one cluster (extracts a common feature vector), and assigns all target partial region features in the set to the cluster (one target representative). Will output features).

さらに、目的代表特徴抽出部15は、別の実施例として、目的部分領域特徴に対応する目的画像中の位置を、読み込んだ全ての目的部分領域特徴について抽出し、その存在範囲を格子状に区切り、各格子をクラスタと対応させる構成とすることも可能である。
また、さらに、目的代表特徴抽出部15は、別の実施例として、同一クラスタ内の目的部分領域特徴同士の距離の最大値が、予め定められた閾値である分類閾値を上回らないように、クラスタを併合することも可能である。
Further, as another example, the target representative feature extraction unit 15 extracts the positions in the target image corresponding to the target partial region features for all the read target partial region features, and divides the existence range into a grid pattern. It is also possible to adopt a configuration in which each lattice is associated with a cluster.
In addition, as another example, the target representative feature extraction unit 15 may prevent the maximum value of the distance between target partial region features in the same cluster from exceeding a classification threshold that is a predetermined threshold. Can also be merged.

このとき、目的代表特徴抽出部15は、クラスタの初期状態として、例えば、読み込んだ目的部分領域特徴の数だけ用意したクラスタに1つずつ目的部分領域を割り当てたものを用いる。
次に、目的代表特徴抽出部15は、上記各クラスタから、該クラスタを代表する部分領域特徴である代表特徴を抽出する。目的代表特徴抽出部15は、例えば、クラスタ内の任意に選択した1つの目的部分領域特徴を代表特徴とする。
At this time, the target representative feature extraction unit 15 uses, as the initial state of the cluster, for example, one in which target partial areas are assigned to clusters prepared for the number of read target partial area features.
Next, the target representative feature extraction unit 15 extracts a representative feature that is a partial region feature representing the cluster from each cluster. The target representative feature extraction unit 15 uses, for example, one arbitrarily selected target partial region feature in the cluster as a representative feature.

また、目的代表特徴抽出部15は、別の実施例として、ある特定位置に対応する目的部分領域特徴を代表特徴とすることもできる。
この特定位置とは、例えば、目的画像の左上角の位置などである。
さらに、目的代表特徴抽出部15は、別の実施例として、クラスタ内の目的部分領域特徴の重心にある目的部分特徴を代表特徴とする構成とすることもできる。
そして、目的代表特徴抽出部15は、上述した第3の実施例における各実施例により求めた、代表特徴あるいはその集合を出力する。
次のステップS8において、索引検索部6は、上記目的代表特徴を用いて、蓄積画像の索引との照合処理を行う。
In addition, as another example, the target representative feature extraction unit 15 can use a target partial region feature corresponding to a specific position as a representative feature.
This specific position is, for example, the position of the upper left corner of the target image.
Further, as another example, the target representative feature extraction unit 15 may be configured such that the target partial feature at the center of gravity of the target partial region feature in the cluster is a representative feature.
Then, the target representative feature extraction unit 15 outputs the representative feature or the set obtained by each embodiment in the third embodiment described above.
In the next step S8, the index search unit 6 performs a matching process with the index of the stored image using the target representative feature.

<第4の実施例>(請求項7に対応)
図10は、請求項6に記載の方法を適用した第4の実施例による部分画像検索装置の構成例を示すブロック図である。
この第4の実施例による部分画像検索装置は、第1、第2、第3の実施例の部分画像検索装置に対して、目的部分領域間距離計算部16と、周辺距離下限値計算部17とを加えたものであり、目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される画像である蓄積画像の集合とを入力し、目的画像と類似する画像が含まれてた部分画像の、上記蓄積画像内における箇所を検索し、検索結果を出力する。
<Fourth embodiment> (corresponding to claim 7)
FIG. 10 is a block diagram showing a configuration example of a partial image search apparatus according to a fourth embodiment to which the method according to claim 6 is applied.
The partial image search device according to the fourth embodiment is different from the partial image search devices according to the first, second, and third embodiments in the target partial region distance calculation unit 16 and the peripheral distance lower limit value calculation unit 17. The target image, that is, the image to be searched as a sample, and the stored image group, that is, the set of stored images that are the searched images, are input, and an image similar to the target image is included. The part of the stored partial image is searched for in the stored image, and the search result is output.

上記目的部分領域間距離計算部16は、上記目的部分領域特徴抽出部5から出力された目的部分領域特徴について、部分領域特徴同士の距離を計算する。
そして、目的代表特徴抽出部15が設けられている場合は、目的部分領域特徴と、それに対応する目的代表特徴との距離を計算する。
上記周辺距離下限値計算部17は、特徴照合部7から出力された距離値と、目的部分領域間距離計算部16から出力された距離値とを用い、特徴照合部7で照合を行った検索候補特徴と、上記目的部分領域特徴抽出部5から出力された各目的部分領域特徴との距離を演算して、この演算結果から下限値を抽出する。
The target inter-region distance calculation unit 16 calculates the distance between the partial region features for the target partial region feature output from the target partial region feature extraction unit 5.
If the target representative feature extraction unit 15 is provided, the distance between the target partial region feature and the corresponding target representative feature is calculated.
The peripheral distance lower limit calculation unit 17 uses the distance value output from the feature matching unit 7 and the distance value output from the target inter-region distance calculation unit 16 to perform a search performed by the feature matching unit 7. A distance between the candidate feature and each target partial region feature output from the target partial region feature extraction unit 5 is calculated, and a lower limit value is extracted from the calculation result.

次に、上述した蓄積特徴抽出部1から周辺距離下限値計算部17における部分画像の検出処理を、図11を用いて具体的に説明する。ここで、図11は、図10に示す部分画像検索装置の動作例を示すフローチャートである。
図11のフローチャートは、図9に示す第3の実施例のフローチャートに対して、ステップS17の「目的代表特徴の抽出」の処理の次に、ステップS18の「目的部分領域間距離の演算」の処理が追加され、また、ステップS16の「検索閾値の更新」の処理の次に、ステップS19の「周辺距離下限値の演算」の処理が追加されたのみで、他の処理については同様であるため、このステップS18及びステップS19の処理の説明のみを行う。
Next, the partial image detection processing from the accumulated feature extraction unit 1 to the peripheral distance lower limit calculation unit 17 will be described in detail with reference to FIG. Here, FIG. 11 is a flowchart showing an operation example of the partial image search apparatus shown in FIG.
The flowchart of FIG. 11 is different from the flowchart of the third embodiment shown in FIG. 9 in the “calculation of distance between target partial areas” in step S18 after the process of “extraction of target representative features” in step S17. A process is added, and after the process of “update search threshold” in step S16, only the process of “calculation of lower limit of peripheral distance” in step S19 is added, and the other processes are the same. Therefore, only the processing in steps S18 and S19 will be described.

目的部分領域間距離計算部16は、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合を読み込み、各目的部分領域特徴同士の距離を計算する。
そして、目的部分領域間距離計算部16は、例えば、全ての目的部分領域特徴の組に対して距離計算を行う。ここで、距離尺度としては、例えば、自乗誤差を用いる。
また、別の実施例として、目的代表特徴抽出部15が設けられている場合には、さらにこの目的代表特徴抽出部15から出力される目的代表特徴の集合を読み込み、各目的部分領域特徴と、それに対応する目的部分領域特徴との距離を計算することも可能である。
上述したように、目的部分領域間距離計算部16は、目的部分領域特徴同士の距離、あるいは目的部分領域特徴と目的代表特徴との距離を出力する。
上述した距離を用いて、ステップS8において、索引による検索が行われる。
The target partial region distance calculation unit 16 reads a set of target partial region features output from the target partial region feature extraction unit 5 and calculates a distance between the target partial region features.
Then, the target inter-region distance calculation unit 16 performs distance calculation for all sets of target sub-region features, for example. Here, for example, a square error is used as the distance scale.
As another example, when the target representative feature extracting unit 15 is provided, a set of target representative features output from the target representative feature extracting unit 15 is further read, and each target partial region feature, It is also possible to calculate the distance to the corresponding target subregion feature.
As described above, the target partial region distance calculation unit 16 outputs the distance between the target partial region features or the distance between the target partial region feature and the target representative feature.
Using the distances described above, an index search is performed in step S8.

次に、周辺距離下限値計算部17は、特徴照合部7から出力される距離値と、目的部分領域間距離計算部16から出力される部分領域間距離とを読み込む。
そして、周辺距離下限値計算部17は、読み込んだ距離値と部分領域問距離とから、蓄積部分領域特徴と各目的部分領域特徴との距離下限値を計算する。
このとき、周辺距離下限値計算部17は、蓄積部分領域特徴f (W)と、目的部分領域特徴fQ2 (W)との距離の下限値d(f (W),fQ2 (W))は、三角不等式に基づいて、以下の(8)式により求められる。,
Next, the peripheral distance lower limit value calculation unit 17 reads the distance value output from the feature matching unit 7 and the inter-subregion distance output from the target inter-region distance calculation unit 16.
Then, the peripheral distance lower limit value calculation unit 17 calculates a distance lower limit value between the accumulated partial area feature and each target partial area feature from the read distance value and the partial area query distance.
At this time, the peripheral distance lower limit value calculation unit 17 sets the lower limit values d (f D (W) and f Q2 (W ) of the distance between the accumulated partial region feature f D (W) and the target partial region feature f Q2 (W). ) ) Is obtained by the following equation (8) based on the triangular inequality. ,

Figure 2005352990
Figure 2005352990

上記(8)式において、d(f (W),fQ1 (W))は特徴照合部7から読み込んだ距離値であり、d(fQ1 (W),fQ2 (W))は読み込んだ目的部分領域間距離である。
上述したように、周辺距離下限値計算部17は、蓄積部分領域特徴と、目的部分領域特徴との距離の下限値である周辺距離下限値を出力する。
そして、次のステップS14において、次目的部分領域特徴選定部12は、上記周辺距離下限値を入力し、この距離下限値が、読み込んだ選択閾値θを上回る目的部分領域特徴との照合を省略し、この距離下限値が選択閾値θ以下の目的部分領域特徴から任意に1つ選択する。
In the above equation (8), d (f D (W) , f Q1 (W) ) is a distance value read from the feature matching unit 7, and d (f Q1 (W) , f Q2 (W) ) is read. This is the distance between the target partial areas.
As described above, the peripheral distance lower limit value calculation unit 17 outputs the peripheral distance lower limit value that is the lower limit value of the distance between the accumulated partial region feature and the target partial region feature.
The omission in the next step S14, the next objective partial region feature selection unit 12, and inputs the near distance limit value, the distance limit value, the collation of an object part region feature above a selected threshold theta 2 read and, this distance limit value is any one to choose for the selection threshold theta 2 following purposes partial region feature.

<実験>
本発明を適用した装置の動作例を以下に示す。
ここで、蓄積画像群として、大きさ384 × 256 ピクセルの画像1000枚を用い、目的画像として、大きさ80×80ピクセルの画像10枚を、上記蓄積画像群中の任意の箇所から切り出して用いた。
また、部分領域は大きさを64×64ピクセルとし、マージンを縦方向及び横方向共に16ピクセルと設定して、部分画像の切り出しを行った。
すなわち、蓄積画像1枚あたりの部分領域の数は273個であり、目的画像の部分領域の数は256個である。
<Experiment>
An example of the operation of the apparatus to which the present invention is applied is shown below.
Here, 1000 images with a size of 384 × 256 pixels are used as the stored image group, and 10 images with a size of 80 × 80 pixels are cut out from any location in the stored image group as the target image. It was.
In addition, the partial image was cut out with a size of 64 × 64 pixels and a margin of 16 pixels in both the vertical and horizontal directions.
That is, the number of partial areas per stored image is 273, and the number of partial areas of the target image is 256.

画像の特徴としては、大きさ8×8ピクセルの小領域におけるRGBの平均値を用いたため、部分領域特徴の次元は192次元となっている。
索引付与部3及び索引検索部6は、「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002-236496)記載の実施例のように、ベクトル量子化に基づく索引付与と索引検索と実施し、クラスタ数を1024とした。
また、距離尺度は自乗誤差を用い、検索閾値は1000とした。
Since the average value of RGB in a small region having a size of 8 × 8 pixels is used as the image feature, the dimension of the partial region feature is 192 dimensions.
The index assignment unit 3 and the index search unit 6 are provided with index assignment and index search based on vector quantization as in the embodiments described in “Signal Detection Method, Signal Detection Device, Recording Medium, and Program” (Japanese Patent Application Laid-Open No. 2002-236496). And the number of clusters was set to 1024.
The distance scale used was a square error, and the search threshold was 1000.

本発明の効果を確認するため、まず、マージンを変化させたときの、索引保持に必要な記憶容量の変化を検討した。
マージンは縦方向及び横方向共に同じ値とした。
本実験の結果を図12に示す。この図において、グラフの横軸はマージンを表し、グラフの縦軸は索引付与に必要な記憶容量をバイト単位で示している。
上記図12からわかるように、マージンの増加にともなって、索引付与に必要な記憶容量が大幅に削減されている。
In order to confirm the effect of the present invention, first, the change in the storage capacity necessary for index holding when the margin was changed was examined.
The margin was set to the same value in both the vertical and horizontal directions.
The result of this experiment is shown in FIG. In this figure, the horizontal axis of the graph represents the margin, and the vertical axis of the graph represents the storage capacity required for indexing in bytes.
As can be seen from FIG. 12, as the margin increases, the storage capacity required for indexing is greatly reduced.

例えば、マージンが16のとき、記憶容量は2.05メガバイトであり、マージンが1のとき、すなわち、あらゆる全ての部分領域に索引を付与するときに124メガバイトであり、マージンを16取った場合が1である場合に比べて、記憶容量が約1/60にまで削減されている。   For example, when the margin is 16, the storage capacity is 2.05 megabytes, and when the margin is 1, that is, when assigning indexes to all the partial areas, it is 124 megabytes, and 16 margins are taken. Compared to the case of 1, the storage capacity is reduced to about 1/60.

次に、マージンを変化させたときにおける、検索所要時間(実線)の変化を検討した。
マージンは上述した実験と同様に縦方向及び横方向共に同じ値とした。
本実験の結果を図13に示す。この図において、グラフの横軸はマージンを表し、グラフの縦軸は検索所要時間を秒単位で示している。
上記図13からわかるように、マージンが12のときに最も検索所要時間が短くなり、5.12秒であり、マージンが1のとき10.49秒であり、もっとも検索時間が長くなった。この図において、破線は検索所要時間に含まれる検索を行う前の前処理の時間を示している。
Next, we examined the change in search time (solid line) when the margin was changed.
The margin was set to the same value in both the vertical direction and the horizontal direction as in the experiment described above.
The results of this experiment are shown in FIG. In this figure, the horizontal axis of the graph represents the margin, and the vertical axis of the graph represents the search time in seconds.
As can be seen from FIG. 13, when the margin is 12, the search time is the shortest, 5.12 seconds, and when the margin is 1, the search time is 10.49 seconds, which is the longest search time. In this figure, the broken line indicates the pre-processing time before the search included in the required search time.

なお、図1,6,8,10における部分画像検索装置の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、部分画像の検索処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   In addition, a program for realizing the function of the partial image search device in FIGS. 1, 6, 8, and 10 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system. By executing this, partial image search processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

本発明の第1の実施例による部分画像検索装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search device by 1st Example of this invention. 図1の部分画像検索装置の動作例を示すフローチャートである。3 is a flowchart illustrating an operation example of the partial image search device in FIG. 1. 蓄積画像において部分画像を設定する際に、配置のマージンについて説明する概念図である。It is a conceptual diagram explaining the margin of arrangement when setting a partial image in an accumulated image. 索引検索部6がクラスタを選択するときの原理を説明する概念図である。It is a conceptual diagram explaining the principle when the index search part 6 selects a cluster. 蓄積画像における照合窓の設定を説明する概念図である。It is a conceptual diagram explaining the setting of the collation window in an accumulation image. 本発明の第2の実施例による部分画像検索装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search device by 2nd Example of this invention. 図6の部分画像検索装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the partial image search device of FIG. 本発明の第3の実施例による部分画像検索装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search device by 3rd Example of this invention. 図8の部分画像検索装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the partial image search apparatus of FIG. 本発明の第4の実施例による部分画像検索装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search device by the 4th Example of this invention. 図10の部分画像検索装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the partial image search apparatus of FIG. 画像を検索する際の、部分領域を設定する場合のマージンと、索引付与に必要な記憶容量のバイト数との関係を示すグラフである。It is a graph which shows the relationship between the margin in the case of setting a partial area | region at the time of searching an image, and the number of bytes of the storage capacity required for index assignment. 画像を検索する際の、部分領域を設定する場合のマージンと、検索所要時間との関係を示すグラフである。It is a graph which shows the relationship between the margin in the case of setting a partial area | region at the time of searching for an image, and search required time.

符号の説明Explanation of symbols

1…蓄積特徴抽出部 2…蓄積部分領域特徴抽出部 3…索引付与部
4…目的特徴抽出部 5…目的部分領域特徴抽出部 6…索引検索部
7…特徴照合部 8…照合結果判定部 9…特徴再照合部
10…照合結果再判定部 11…検索結果候補選択部
12…次目的部分領域特徴選定部 13…次検索候補特徴選定部
14…検索閾値更新部 15…目的代表特徴抽出部
16…目的部分領域間距離計算部 17…周辺距離下限値計算部
DESCRIPTION OF SYMBOLS 1 ... Accumulation feature extraction part 2 ... Accumulation partial area | region extraction part 3 ... Index provision part 4 ... Objective feature extraction part 5 ... Target partial area | region extraction part 6 ... Index search part 7 ... Feature collation part 8 ... Collation result determination part 9 ... Feature re-collation unit 10. Collation result re-determination unit 11... Search result candidate selection unit 12 .. Next target partial region feature selection unit 13... Next search candidate feature selection unit 14. ... Distance calculation part between target partial areas 17 ... Peripheral distance lower limit calculation part

Claims (10)

データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索方法であり、
前記蓄積画像群の各画像の特徴である蓄積特徴を抽出する蓄積特徴抽出過程と、
所定の大きさの注目窓を所定の間隔でずらしつつ、各位置における注目窓内の特徴を、蓄積部分領域特徴として抽出する蓄積部分領域特徴抽出過程と、
前記蓄積部分領域特徴各々を標識する索引を付与する索引付与過程と、
前記目的画像の特徴である目的特徴を抽出する目的特徴抽出過程と、
該目的特徴において、所定の大きさの注目窓を設定し、該注目窓をずらしつつ、各位置における注目窓内の特徴を、目的部分領域特徴として抽出する目的部分領域特徴抽出過程と、
前記目的部分領域特徴の集合に類似する蓄積部分領域特徴を、前記索引を用いて検索候補特徴として抽出する索引検索過程と、
該検索候補特徴と前記目的部分領域特徴との距離を計算する特徴照合過程と、
前記距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かを判定する照合結果判定過程と、
前記照合結果判定過程にて、目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴に対し、目的画像と同一の大きさの照合窓を設定し、前記目的特徴との特徴距離を計算する特徴再照合過程と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定過程と、
前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択過程と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定過程と、
前記検索候補特徴の集合の中から、次に照合すべき検索候補特徴を指定する次検索候補特徴選定過程と
を備えることを特徴とする部分画像検索方法。
A partial image search method for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image,
An accumulated feature extraction process for extracting an accumulated feature that is a feature of each image of the accumulated image group;
An accumulation partial area feature extraction process for extracting features in the attention window at each position as accumulation partial area features while shifting the attention window of a predetermined size at a predetermined interval;
An indexing process for providing an index for labeling each of the accumulated subregion features;
A target feature extraction process for extracting a target feature that is a feature of the target image;
In the target feature, a target window of a predetermined size is set, and a target partial region feature extraction process for extracting a feature in the target window at each position as a target partial region feature while shifting the target window;
An index search process for extracting accumulated partial area features similar to the set of target partial area features as search candidate features using the index; and
A feature matching process for calculating a distance between the search candidate feature and the target partial region feature;
Based on the distance, a collation result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists at the location in the accumulated image group;
In the verification result determination process, a verification window having the same size as the target image is provided for the stored feature at a location in the stored image where it is determined that there may be a partial image similar to the target image. A feature rematching process for setting and calculating a feature distance with the target feature;
Based on the feature distance, a verification result redetermination process for determining whether or not a partial image similar to the target image exists at the location in the accumulated image group;
A search result candidate selection process in which the location in the stored image determined to have a partial image similar to the target image in the matching result redetermination process is a search result candidate;
A next target subregion feature selection process for designating a target subregion feature to be matched next from the set of target subregion features;
A partial image search method comprising: a next search candidate feature selection step for designating a search candidate feature to be matched next from the set of search candidate features.
前記照合結果再判定過程において、前記特徴距離と、該特徴距離に対応する閾値である検索閾値とが比較され、
前記目的画像と類似する部分画像が前記蓄積画像中の当該箇所に存在するか否かが判定され、
前記索引探索過程において、前記目的部分領域特徴抽出過程から導かれたいずれかの目的部分領域特徴との距離が、前記検索閾値から決定される選択閾値を下回る蓄積部分領域特徴を、前記索引を用いて抽出し、前記照合結果判定過程において、前記距離と、前記選択閾値とが比較され、前記目的画像と類似する部分画像が前記蓄積画像中の当該箇所に存在する可能性の有無が判定されることを特徴とする請求項1に記載の部分画像検索方法。
In the verification result re-determination process, the feature distance is compared with a search threshold that is a threshold corresponding to the feature distance;
It is determined whether or not a partial image similar to the target image exists at the location in the stored image,
In the index search process, the accumulated sub-region feature whose distance from any target sub-region feature derived from the target sub-region feature extraction step is less than a selection threshold determined from the search threshold is used for the index. In the verification result determination process, the distance is compared with the selection threshold value, and it is determined whether or not there is a possibility that a partial image similar to the target image exists at the location in the accumulated image. The partial image search method according to claim 1, wherein:
前記検索結果候補選択過程において、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所が、前記特徴距離の小さい順に、予め定められた数量だけ選択されて検索結果候補とされ、
該検索結果候補から、前記特徴距離に基づいてある候補を検出し、該候補の距離値を新たに検索閾値として設定する検索閾値更新過程と
を備えることを特徴とする請求項2に記載の部分画像検索方法。
In the search result candidate selection process, locations in the stored image that are determined to have a partial image similar to the target image are selected as a predetermined number in order from the smallest feature distance to be search result candidates,
The search threshold update step of detecting a candidate based on the feature distance from the search result candidate and newly setting the distance value of the candidate as a search threshold. Image search method.
前記索引検索過程において、前記目的部分領域特徴抽出過程により導かれた全ての目的部分領域特徴を用い、検索候補特徴が抽出されることを特徴とする請求項1から請求項3のいずれかに記載の部分画像検索方法。   The search candidate feature is extracted in the index search process using all target partial region features derived by the target partial region feature extraction step. Partial image search method. 前記目的部分領域特徴を分類し、各分類を代表する部分領域特徴である代表特徴を抽出する目的代表特徴抽出過程と
を備え、
前記索引検索過程において、前記目的部分領域特徴に替え、前記目的代表特徴抽出過程により導かれた代表特徴を用いることを特徴とする請求項1から請求項3のいずれかに記載の部分画像検索方法。
A target representative feature extraction process for classifying the target partial region features and extracting representative features that are partial region features representing each classification;
4. The partial image search method according to claim 1, wherein, in the index search process, a representative feature derived by the target representative feature extraction process is used instead of the target partial region feature. .
前記次目的部分領域特徴選定過程において、蓄積部分領域特徴との距離が前記選択閾値を超えることが検出された、前記目的部分領域特徴抽出過程にて抽出された目的部分領域特徴を、次に照合すべき部分領域特徴として指定せずに照合を省略することを特徴とする、請求項1から請求項5のいずれかに記載の部分画像検索方法。   In the next target partial region feature selection process, the target partial region feature extracted in the target partial region feature extraction process, in which it is detected that the distance from the accumulated partial region feature exceeds the selection threshold, is then collated. 6. The partial image search method according to claim 1, wherein collation is omitted without designating as a partial region feature to be performed. 前記目的部分領域特徴各々の部分距離を計算する目的部分領域間距離計算過程と、
前記距離と前記部分距離とを用い、前記特徴照合過程で照合を行った蓄積部分領域と、前記目的部分領域特徴抽出過程にて抽出された各目的部分領域特徴との距離の距離下限値を計算する周辺距離下限値計算過程と
を備え、
前記次目的部分領域特徴選定過程において、前記距離下限値と、前記選択閾値とを比較し、距離下限値が選択閾値を下回る目的部分領域特徴の箇所を、次に照合すべき部分領域として指定することを特徴とする請求項6に記載の部分画像検索方法。
A distance calculation process between target partial areas for calculating a partial distance of each of the target partial area features;
Using the distance and the partial distance, the distance lower limit value of the distance between the accumulated partial area collated in the feature matching process and each target partial area feature extracted in the target partial area feature extraction process is calculated. And a surrounding distance lower limit calculation process.
In the next target partial area feature selection process, the distance lower limit value is compared with the selection threshold value, and a location of the target partial area feature whose distance lower limit value is lower than the selection threshold value is designated as a partial area to be collated next. The partial image search method according to claim 6.
データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索装置であり、
前記蓄積画像群の各画像の特徴である蓄積特徴を抽出する蓄積特徴抽出部と、
所定の大きさの注目窓を所定の間隔でずらしつつ、各位置における注目窓内の特徴を、蓄積部分領域特徴として抽出する蓄積部分領域特徴抽出部と、
前記蓄積部分領域特徴各々を標識する索引を付与する索引付与部と、
前記目的画像の特徴である目的特徴を抽出する目的特徴抽出部と、
該目的特徴において、所定の大きさの注目窓を設定し、該注目窓をずらしつつ、各位置における注目窓内の特徴を、目的部分領域特徴として抽出する目的部分領域特徴抽出部と、
前記目的部分領域特徴の集合に類似する蓄積部分領域特徴を、前記索引を用いて検索候補特徴として抽出する索引検索部と、
該検索候補特徴と前記目的部分領域特徴との距離を計算する特徴照合過程と、
前記距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かを判定する照合結果判定部と、
前記照合結果判定過程にて、目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴に対し、目的画像と同一の大きさの照合窓を設定し、前記目的特徴との特徴距離を計算する特徴再照合部と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定部と、
前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択部と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定部と、
前記蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域を指定する次検索候補特徴選定部と
を有することを特徴とする部分画像検索装置。
A partial image search device for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image;
A storage feature extraction unit that extracts a storage feature that is a feature of each image of the storage image group;
A storage partial region feature extraction unit that extracts a feature in the target window at each position as a storage partial region feature while shifting a target window of a predetermined size at a predetermined interval;
An indexing unit for providing an index for labeling each of the accumulated partial region features;
A target feature extraction unit that extracts a target feature that is a feature of the target image;
In the target feature, a target window of a predetermined size is set, and a target partial region feature extraction unit that extracts the feature in the target window at each position as the target partial region feature while shifting the target window;
An index search unit that extracts storage partial region features similar to the set of target partial region features as search candidate features using the index; and
A feature matching process for calculating a distance between the search candidate feature and the target partial region feature;
Based on the distance, a matching result determination unit that determines whether or not there is a possibility that a partial image similar to the target image exists in the location in the stored image group;
In the verification result determination process, a verification window having the same size as the target image is provided for the stored feature at a location in the stored image where it is determined that there may be a partial image similar to the target image. A feature re-matching unit that sets and calculates a feature distance from the target feature;
A matching result re-determination unit that determines whether or not a partial image similar to the target image exists in the portion of the accumulated image group based on the feature distance;
A search result candidate selection unit that sets a location in the stored image determined to have a partial image similar to the target image in the matching result redetermination process as a search result candidate;
A next target partial region feature selection unit for designating a target partial region feature to be matched next from the set of target partial region features;
A partial image search device comprising: a next search candidate feature selection unit that specifies a storage partial region to be collated next from the set of storage partial region features.
データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索処理をコンピュータに実行させるプログラムであり、
前記蓄積画像群の各画像の特徴である蓄積特徴を抽出する蓄積特徴抽出処理と、
所定の大きさの注目窓を所定の間隔でずらしつつ、各位置における注目窓内の特徴を、蓄積部分領域特徴として抽出する蓄積部分領域特徴抽出処理と、
前記蓄積部分領域特徴各々を標識する索引を付与する索引付与処理と、
前記目的画像の特徴である目的特徴を抽出する目的特徴抽出処理と、
該目的特徴において、所定の大きさの注目窓を設定し、該注目窓をずらしつつ、各位置における注目窓内の特徴を、目的部分領域特徴として抽出する目的部分領域特徴抽出処理5と、
前記目的部分領域特徴の集合に類似する蓄積部分領域特徴を、前記索引を用いて検索候補特徴として抽出する索引検索処理と、
該検索候補特徴と前記目的部分領域特徴との距離を計算する特徴照合処理と、
前記距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かを判定する照合結果判定処理と、
前記照合結果判定過程にて、目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴に対し、目的画像と同一の大きさの照合窓を設定し、前記目的特徴との特徴距離を計算する特徴再照合処理と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定処理と、
前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択処理と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定処理と、
前記蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域を指定する次検索候補特徴選定処理と
を有する部分画像検索の処理をコンピュータに実行させるプログラム。
A program for causing a computer to execute a partial image search process for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image,
An accumulated feature extraction process for extracting an accumulated feature that is a feature of each image in the accumulated image group;
A storage partial region feature extraction process for extracting features in the target window at each position as storage partial region features while shifting a target window of a predetermined size at a predetermined interval;
An indexing process for providing an index for labeling each of the accumulated partial region features;
A target feature extraction process for extracting a target feature that is a feature of the target image;
A target partial region feature extraction process 5 for setting a target window of a predetermined size in the target feature and extracting the feature in the target window at each position as a target partial region feature while shifting the target window;
Index search processing for extracting accumulated partial area features similar to the set of target partial area features as search candidate features using the index; and
A feature matching process for calculating a distance between the search candidate feature and the target partial region feature;
Based on the distance, a collation result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists in the location in the accumulated image group;
In the verification result determination process, a verification window having the same size as the target image is provided for the stored feature at a location in the stored image where it is determined that there may be a partial image similar to the target image. A feature rematching process for setting and calculating a feature distance from the target feature;
Based on the feature distance, a collation result re-determination process for determining whether or not a partial image similar to the target image exists in the location in the accumulated image group;
A search result candidate selection process in which a location in the stored image determined to have a partial image similar to the target image in the matching result redetermination process is set as a search result candidate;
A next target partial region feature selection process for designating a target partial region feature to be matched next from the set of target partial region features;
A program for causing a computer to execute a partial image search process including: a next search candidate feature selection process for designating a storage partial area to be collated next from the set of storage partial area features.
請求項9に記載の部分画像検索プログラムを記録したコンピュータ読み取り可能な記録媒体。
A computer-readable recording medium on which the partial image search program according to claim 9 is recorded.
JP2004175866A 2004-06-14 2004-06-14 Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program Expired - Fee Related JP4425719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004175866A JP4425719B2 (en) 2004-06-14 2004-06-14 Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004175866A JP4425719B2 (en) 2004-06-14 2004-06-14 Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program

Publications (2)

Publication Number Publication Date
JP2005352990A true JP2005352990A (en) 2005-12-22
JP4425719B2 JP4425719B2 (en) 2010-03-03

Family

ID=35587401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004175866A Expired - Fee Related JP4425719B2 (en) 2004-06-14 2004-06-14 Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program

Country Status (1)

Country Link
JP (1) JP4425719B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113569A (en) * 2008-11-07 2010-05-20 Yahoo Japan Corp Image retrieval device, image retrieval method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113569A (en) * 2008-11-07 2010-05-20 Yahoo Japan Corp Image retrieval device, image retrieval method and program

Also Published As

Publication number Publication date
JP4425719B2 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
CN107256262B (en) Image retrieval method based on object detection
Makantasis et al. In the wild image retrieval and clustering for 3D cultural heritage landmarks reconstruction
US8798357B2 (en) Image-based localization
KR101191223B1 (en) Method, apparatus and computer-readable recording medium by for retrieving image
US9251434B2 (en) Techniques for spatial semantic attribute matching for location identification
US20180349735A1 (en) Method and Device for Comparing Similarities of High Dimensional Features of Images
CN106557521B (en) Object indexing method, object searching method and object indexing system
AU2018202767B2 (en) Data structure and algorithm for tag less search and svg retrieval
WO2013129580A1 (en) Approximate nearest neighbor search device, approximate nearest neighbor search method, and program
JP2006338313A (en) Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium
Song et al. 6-DOF image localization from massive geo-tagged reference images
US9569698B2 (en) Method of classifying a multimodal object
CN109522434A (en) Social image geographic positioning and system based on deep learning image retrieval
Mithun et al. Rgb2lidar: Towards solving large-scale cross-modal visual localization
US20150086118A1 (en) Method for recognizing a visual context of an image and corresponding device
JP4421527B2 (en) Video search apparatus, method and program, and recording medium recording program
KR20190124436A (en) Method for searching building based on image and apparatus for the same
JP2012079186A (en) Image retrieval device, image retrieval method and program
CN113868351A (en) Address clustering method and device, electronic equipment and storage medium
CN113254687A (en) Image retrieval and image quantification model training method, device and storage medium
JP4343038B2 (en) Partial image search system, method and program
Sui et al. An accurate indoor localization approach using cellphone camera
JP4425719B2 (en) Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program
JP5819158B2 (en) Program, method and image search apparatus for extracting feature vector suitable for image search
Peng et al. KISS: Knowing camera prototype system for recognizing and annotating places-of-interest

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131218

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees