JP2005352990A - Partial image retrieval system, method and program - Google Patents
Partial image retrieval system, method and program Download PDFInfo
- Publication number
- JP2005352990A JP2005352990A JP2004175866A JP2004175866A JP2005352990A JP 2005352990 A JP2005352990 A JP 2005352990A JP 2004175866 A JP2004175866 A JP 2004175866A JP 2004175866 A JP2004175866 A JP 2004175866A JP 2005352990 A JP2005352990 A JP 2005352990A
- Authority
- JP
- Japan
- Prior art keywords
- target
- feature
- image
- partial
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、蓄積された複数の画像から、与えられた画像と類似した部分画像を含む画像及びその部分画像が含まれている位置を同定するのに適した部分画像検索システム及び方法並びにプログラムに関する。 The present invention relates to a partial image search system and method suitable for identifying an image including a partial image similar to a given image, and a position where the partial image is included, from a plurality of stored images. .
デジタルカメラの普及や記録媒体の大容量化・低価格化、さらに大容量ネットワークの普及により、容易に大容量のデジタル画像を取得して保存する環境が整ってきている。
そのため、大量の画像から所望の画像を高速に探し出す高速画像検索技術が必要となってきており、特に画像の部分検索は、検索したい画像が蓄積されている画像の一部分であるため、比較の処理が多くなり、さらに高速性が要求される。
この部分画像検索技術は、膨大な画像データベースの中から、高速に目的の画像をその一部分として含む画像を検索する画像検出技術に用いられる。
With the spread of digital cameras, the increase in capacity and price of recording media, and the spread of large-capacity networks, an environment for easily acquiring and storing large-capacity digital images has been established.
For this reason, high-speed image search technology for quickly searching for a desired image from a large number of images is required. In particular, the partial image search is a part of the image in which the image to be searched is stored. In addition, higher speed is required.
This partial image retrieval technique is used for an image detection technique for retrieving an image including a target image as a part thereof from a huge image database at high speed.
例えば、画像データベースに蓄積された画像の中から、特定人物の顔が撮影されている画像を検出してユーザに提示したり、特定の物体や建造物などが撮影されている画像を含まれるホームページを検索したりする検索技術に用いられる。
従来、上記部分画像検索方法に関しては、見本となる検索したい画像と類似した画像の場所をより大きなサイズの画像の中から漏れなく正確に探し出す高速部分画像検出方法が、物体検出装置(例えば、特許文献1参照)や、高速テンプレート照合法(例えば、非特許文献1参照)等として知られている。
For example, a homepage that includes an image in which a face of a specific person is captured from images stored in an image database and presented to the user, or an image in which a specific object or building is captured It is used for search technology that searches for.
Conventionally, with regard to the partial image search method, a high-speed partial image detection method for accurately searching for a location of an image similar to an image to be searched as a sample from an image of a larger size without omission is an object detection device (for example, a patent This method is known as a high-speed template matching method (see Non-Patent
しかし、上述した方法においては、目的画像との類似性によらず、全ての画像の全ての部分領域に対して照合検索を行うため、多数の無駄な照合処理が発生してしまい、検索を高速化できないという欠点がある。
そのため、部分画像の検索を高速化する方法として、容易に画像の検索を行うため、各画像に予め索引をつけておくことが考えられる。
しかし、各画像から位置的にあり得る全ての部分画像を抽出した場合、その画像数が膨大となり、これら画像の全てに索引を付与すると、索引保持に必要となる記憶容量が膨大になるという問題点がある。
However, in the above-described method, since all the partial regions of all the images are collated and searched regardless of the similarity to the target image, a lot of useless collating processes occur, and the search is performed at high speed. There is a drawback that it can not be made.
Therefore, as a method for speeding up the search for partial images, it is conceivable to index each image in advance in order to easily search for images.
However, when all the partial images that can be located are extracted from each image, the number of the images becomes enormous, and if all these images are indexed, the storage capacity necessary for index retention becomes enormous. There is a point.
これに対し、従来、上記問題点を解決する方法として、部分画像をクラスタリングすることによって、索引を付与する部分画像の数を削減する部分画像検出方法(例えば、非特許文献2参照)が知られている.
しかしながら、上述した非特許文献2に示す部分画像をクラスタリングする部分画像検出方法にあっては、特許文献1及び非特許文献1に対して部分画像の数を減少させることができるが、容量削減の観点において部分画像の数の削減が十分ではなく、索引の保持に必要となる記憶容量が膨大になるという問題点が解消されていない。
また、上記非特許文献2の方法においては、部分画像のクラスタリングに要する計算時間が非常に長く必要となるため、索引を付与するために必要な時間が膨大になるという欠点がある。
本発明は、このような事情に鑑みてなされたもので、索引の情報量を低減し、索引の保持に必要な記憶容量を削減し、かつ検索漏れが生じない部分画像検索システム及び方法並びにプログラムを提供することを目的とする。
However, in the partial image detection method for clustering the partial images shown in
Further, the method of Non-Patent
The present invention has been made in view of such circumstances, and a partial image search system, method, and program for reducing the amount of information in an index, reducing the storage capacity necessary for holding the index, and causing no search omission. The purpose is to provide.
本発明の部分画像検索方法は、データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索方法であり、前記蓄積画像群の各画像の特徴である蓄積特徴を抽出する蓄積特徴抽出過程と、所定の大きさの注目窓を所定の間隔でずらしつつ、各位置における注目窓内の特徴を、蓄積部分領域特徴として抽出する蓄積部分領域特徴抽出過程と、前記蓄積部分領域特徴各々を標識する索引を付与する索引付与過程と、前記目的画像の特徴である目的特徴を抽出する目的特徴抽出過程と、該目的特徴において、所定の大きさの注目窓を設定し、該注目窓をずらしつつ、各位置における注目窓内の特徴を、目的部分領域特徴として抽出する目的部分領域特徴抽出過程と、前記目的部分領域特徴の集合に類似する蓄積部分領域特徴を、前記索引を用いて検索候補特徴として抽出する索引検索過程と、該検索候補特徴と前記目的部分領域特徴との距離を計算する特徴照合過程と、前記距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かを判定する照合結果判定過程と、前記照合結果判定過程にて、目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴に対し、目的画像と同一の大きさの照合窓を設定し、前記目的特徴との特徴距離を計算する特徴再照合過程と、前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定過程と、前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択過程と、前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定過程と、前記蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域を指定する次検索候補特徴選定過程とを備えることを特徴とする。 The partial image search method of the present invention is a partial image search method for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database, and a position of the partial image in the image. The accumulated feature extraction process for extracting the accumulated feature that is a feature of each image of the accumulated image group, and the feature in the attention window at each position are stored in the accumulation portion while shifting the attention window of a predetermined size at a predetermined interval. A storage partial region feature extraction process for extracting as a region feature; an indexing step for assigning an index for labeling each of the storage partial region features; a target feature extraction step for extracting a target feature that is a feature of the target image; In the target feature, a target window of a predetermined size is set, and the target partial region feature that extracts the feature in the target window at each position as the target partial region feature while shifting the target window. An extraction process, an index search process for extracting a stored partial area feature similar to the set of target partial area features as a search candidate feature using the index, and a distance between the search candidate feature and the target partial area feature. A feature matching process to be calculated; a matching result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists at the location in the accumulated image group based on the distance; and the matching result In the determination process, a matching window having the same size as the target image is set for the stored feature at a location in the stored image where it is determined that there is a possibility that a partial image similar to the target image exists. A feature re-matching process for calculating a feature distance with the target feature, and a matching result re-check for determining whether or not a partial image similar to the target image exists at the location in the stored image group based on the feature distance. Overjudgment A search result candidate selection process in which a location in the stored image determined that a partial image similar to the target image exists in the matching result re-determination process is a search result candidate; and a set of the target partial region features Next target partial area feature selection process for designating a target partial area feature to be matched next, and next search candidate feature for designating a storage partial area to be matched next from the set of the accumulated partial area features And a selection process.
以上説明したように、本発明によれば、蓄積画像群の各画像において、部分領域より狭い所定の間隔毎に、部分領域を間引いて抽出して索引を付与することにより、ピクセル単位に画像全体にずらしながら、蓄積された画像群の各画像に対し、部分画像を抽出して索引を付与する非特許文献2などの公知の方法に比較し、索引付与に要する時問を増加させることなく、索引の保持に必要な記憶容量を削減し、かつ、目的画像に対して、画像全体に渡り、間隔を有さずに全ての部分領域を抽出するため、蓄積画像の検索処理において検索漏れを生じさせないことを保証できるという効果が得られる。
As described above, according to the present invention, in each image of the accumulated image group, the partial image is extracted by thinning out the partial region at predetermined intervals narrower than the partial region, and an index is assigned to each pixel. Compared to a known method such as Non-Patent
<第1の実施例>
以下、本発明の第1の実施例による部分画像検索装置を図面を参照して説明する。図1は上記第1の実施例の部分画像検索装置の一構成例を示すブロック図である。
この図において、本実施例の部分画像検索装置は、蓄積特徴抽出部1と、蓄積部分領域特徴抽出部2と、索引付与部3と、目的特徴抽出部4と、目的部分領域特徴抽出部5と、索引検索部6と、特徴照合部7と、照合結果判定部8と、特徴再照合部9と、照合結果再判定部10、検索結果候補選択部llと、次目的部分領域特徴選定部12と、次検索候補特徴選定部13とを有しており、目的画像、すなわち参照している検索したい画像と、データベース等に蓄積されている蓄積画像群、すなわち検索される被検索画像である蓄積画像の集合を入力とし、上記目的画像と類似する部分画像が含まれている蓄積画像内の箇所を出力する。
<First embodiment>
Hereinafter, a partial image search apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of the partial image search apparatus of the first embodiment.
In this figure, the partial image search apparatus according to the present embodiment includes an accumulation
蓄積特徴抽出部1は、蓄積画像群の各画像から、画像を表現する蓄積特徴を、画像全体、または所定の画素数からなるブロック単位に抽出する。
蓄積部分領域特徴抽出部2は、上記蓄積特徴抽出部1から出力された特徴に対し、予め定められた所定の大きさの注目窓を、予め定められた所定の間隔で設定し(所定の間隔でずらし)、各注目窓内の特徴である蓄積部分領域特徴を抽出する。
索引付与部3は、上記蓄積部分領域特徴抽出部2から出力される各蓄積部分領域特徴を、各々ベクトル量子化し、ベクトル量子化の符号語を、標識のための索引として付与する。
The accumulated
The accumulation partial region
The
目的特徴抽出部4は、目的画像から画像を表現する目的特徴を抽出する。
目的部分領域特徴抽出部5は、上記目的特徴抽出部4が抽出した目的特徴に対して、予め定められた所定の大きさの注目窓を設定し、この注目窓を1ピクセルずつずらしながら、各注目窓内の特徴である目的部分領域特徴の抽出を行う。
索引検索部6は、上記索引付与部3から出力きれる索引を用いて、上記目的部分領域特徴抽出部5の抽出した目的部分領域特徴の集合から、類似する蓄積部分領域特徴の抽出を行う。
The target
The target partial region
The
特徴照合部7は、上記索引検索部6の抽出した蓄積部分領域特徴と、目的部分領域特徴抽出部5の抽出した目的部分領域特徴との距離を計算する。
この距離は、ユークリッド距離,マンハッタン距離,内積,正規化相互相関などを用いることが出来る。
照合結果判定部8は、上記特徴照合部7の演算した距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かの判定を行う。
The
As this distance, Euclidean distance, Manhattan distance, inner product, normalized cross-correlation, and the like can be used.
Based on the distance calculated by the
特徴再照合部9は、上記照合結果判定部8が目的画像と類似する部分蓄像が存在する可能性があると判定した場合、判定された蓄積画像における箇所において、蓄積特徴抽出部1の抽出した蓄積特徴に対し、目的画像と同じ大きさの照合窓を設定して、目的特徴抽出部4から出力された目的特徴との特徴距離を計算する。この特徴距離も上記距離と同様に各種の定義を用いることができる。
照合結果再判定部10は、上記照合結果判定部8において用いられた距離に基づいて、目的画像と類似する部分画像が、蓄積画像群中の当該箇所に存在するか否かの判定を行う。
When the matching
The collation result
検索結果候補選択部11は、上記照合結果再判定部10において目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を、詳細な類似性の検討を行う検索結果候補とする。
次目的部分領域特徴選定部12は、上記目的部分領域特徴抽出部5において抽出された目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴の指定を行う。
次検索候補特徴選定部13は、上記索引検索部6から検索結果として出力された蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域の指定を行う。
The search result
The next target partial region
The next search candidate
次に、図1及び図2を参照して、上述した部分画像検索装置の動作を説明する。図2は、図1の第1の実施例による部分画像検索装置の一動作例を具体的に示すフローチャートである。
蓄積特徴抽出部1は、初めに、蓄積画像群を、図示しないデータベースから読み込む(ステップS1)。
次に、蓄積特徴抽出部1は、入力した蓄積画像群の各画像から、画像の特徴である蓄積特徴を抽出する(ステップS2)。
Next, the operation of the partial image search apparatus described above will be described with reference to FIGS. FIG. 2 is a flowchart specifically showing an operation example of the partial image search apparatus according to the first embodiment of FIG.
First, the accumulated
Next, the accumulated
例えば、RGB画素値をそのまま用いて、蓄積画像の大きさが「384×256」ピクセルであるとすると、「384×256×3=294912」個の数値で構成される蓄積特徴(多次元ベクトルからなる特徴ベクトル)が各蓄積画像ごとに、すなわち、1画像あたり1つ得られる。ここで、上記「384×256」に乗ぜられている「3」はRGBの色数である。 For example, if the RGB pixel values are used as they are and the size of the accumulated image is “384 × 256” pixels, the accumulated features (from multidimensional vectors) composed of “384 × 256 × 3 = 294912” numerical values. For each accumulated image, that is, one per image. Here, “3” multiplied by “384 × 256” is the number of RGB colors.
また、他の実施例として、例えば、画像から8×8ピクセル程度の大きさの小領域(ブロック)を用い、縦及び横方向に順次1ピクセルずつ、この小領域をずらしながら、各小領域の範囲内での蓄積特徴を抽出し、各小領域のRGB各々の平均値を計算することにより得ることができる。
すなわち、蓄積画像の大きさが「384×256」ピクセルであるとすると、「(384−8+1)×(256−8+1)×3=281619」個の数値で構成される特徴が、各蓄積画像ごとに、すなわち、1画像あたり1つ得られる。
As another embodiment, for example, a small area (block) having a size of about 8 × 8 pixels is used from an image, and the small areas are sequentially shifted by 1 pixel in the vertical and horizontal directions. It can be obtained by extracting the accumulated features within the range and calculating the average value of each RGB of each small region.
That is, assuming that the size of the accumulated image is “384 × 256” pixels, a feature composed of “(384-8 + 1) × (256-8 + 1) × 3 = 281619” numbers is obtained for each accumulated image. In other words, one image is obtained.
さらに、他の実施例として、例えば、蓄積画像から8×8ピクセル程度の大きさの小領域を、縦及び横方向に1ピクセルずつずらしながら、各小領域に含まれるピクセルのRGB各々に対して、2次元DCT(デジタルコサイン変換)を行い、その係数ベクトルを蓄積特徴とすることもできる。
すなわち、蓄積画像の大きさが「384×256」ピクセルであるとすると、8×8×3=192次元の特徴ベクトルが、1画像あたりに、「(384−8+1)×(256−8+1)=93873」個、算出される。
この場合、蓄積特徴抽出部1は、蓄積画像から抽出された特徴である蓄積特徴の集合を出力することになる。
Furthermore, as another embodiment, for example, a small area having a size of about 8 × 8 pixels is shifted from the accumulated image by 1 pixel in the vertical and horizontal directions, and each of RGB of pixels included in each small area is shifted. Two-dimensional DCT (digital cosine transform) can be performed, and the coefficient vector can be used as an accumulation feature.
That is, assuming that the size of the accumulated image is “384 × 256” pixels, an 8 × 8 × 3 = 192-dimensional feature vector is “(384-8 + 1) × (256-8 + 1) = 93873 ”pieces are calculated.
In this case, the accumulated
次に、蓄積部分領域特徴抽出部2は、蓄積特徴抽出部1から、蓄積特徴の集合を読み込み、蓄積画像のある1つの箇所に、予め定められた所定の大きさの第1注目窓を設定する。
例えば、この第1注目窓は、大きさが64×64ピクセルであり、初期状態として蓄積画像の左上の角に配置される。。
そして、蓄積部分領域特徴抽出部2は、設定された上記第1注目窓内に含まれる部分領域の画像の特徴である蓄積部分領域特徴を抽出する。
例えば、この蓄積部分領域特徴各々は、RGB画素値をそのまま用いて、「64×64×3=12288次元の特徴ベクトルを1つ得ることになる。
Next, the storage partial region
For example, the first window of interest has a size of 64 × 64 pixels, and is arranged in the upper left corner of the stored image as an initial state. .
Then, the storage partial region
For example, for each of the accumulated partial area features, the RGB pixel value is used as it is, and one “64 × 64 × 3 = 1288 dimensional feature vector is obtained.
また、他の実施形態においては、例えば、蓄積部分領域特徴として、小領域内のRGB面素値の平均を演算し、得られた平均値を用い、上記第1注目窓内に、重複することも隙間もな存在しない状態に、上記小領域を配置して、この各小領域に対応する特徴を抽出して、「(64/8)×(64/8)×3=192」次元の特徴のベクトルを1つ得るようにすることも可能である。
さらに、他の実施形態においては、例えば、蓄積部分領域特徴として、小領域内の2次元DCT係数ベクトルを用い、上記第1注目窓内に重複することも隙問も存在しない状態に、上記小領域を配置して、この各小領域に対応する特徴を抽出し、「8×8×3=192」次元の特徴ベクトルを、「(64/8)×(64/8)=64」個、もしくは、全ての次元の特徴ベクトルを1つにまとめて、「192×64=12288」次元の特徴ベクトルを1つ得ることもできる。
In another embodiment, for example, an average of RGB surface element values in a small region is calculated as the accumulated partial region feature, and the obtained average value is used to overlap the first attention window. The above-mentioned small areas are arranged in a state where there is no gap, and features corresponding to the small areas are extracted, and a feature of “(64/8) × (64/8) × 3 = 192” dimension is extracted. It is also possible to obtain one vector.
Further, in another embodiment, for example, as the accumulated partial region feature, the two-dimensional DCT coefficient vector in the small region is used, and the small region is not overlapped in the first attention window and there is no gap. Areas are arranged, and features corresponding to the respective small areas are extracted, and “(64/8) × (64/8) = 64” feature vectors of “8 × 8 × 3 = 192” dimensions are obtained. Alternatively, all the dimension feature vectors can be combined into one to obtain one “192 × 64 = 1288” dimension feature vector.
第1注目窓は、各蓄積画像内において、予め定められた所定の間隔により、複数設定され、各注目窓内の部分領域から蓄積部分領域特徴を抽出する(ステップS3)。
すなわち、第1注目窓(横ωxピクセル×縦ωyピクセル)は、各蓄積画像内において、縦及び横方向に、上記所定の間隔(各注目窓の同一の辺同士の間隔であり、例えば左辺同士、上辺同士の間隔として、横方向にmxピクセル,縦方向にmyピクセル)で順次ずらして配置されており、各々が重なり合う状態となっており、連続する第1の窓同士は、図3に示すように、所定の間隔を除いて重なることとなる。
A plurality of first attention windows are set at predetermined intervals in each accumulated image, and the accumulated partial area features are extracted from the partial areas in each attention window (step S3).
That is, the first window of interest (horizontal ωx pixel × vertical ωy pixel) is the predetermined interval (interval between the same sides of each window of interest) in each accumulated image in the vertical and horizontal directions. , The interval between the upper sides is sequentially shifted by mx pixels in the horizontal direction and my pixels in the vertical direction), and each of the overlapping first windows is shown in FIG. In this way, they overlap except for a predetermined interval.
例えば、第1注目窓を縦横それぞれ16ピクセルの間隔で配置し、蓄積画像の大きさが「384×256」ピクセルであるとすると、第1注目窓が「64×64」ピクセルであるために1画像あたり、「21×13=273」個の第1注目窓が設定されることになる。
また、第1注目窓の配置問隔を、以下マージンと呼ぶことにする。このマージンは、例えば、第1注目窓の大きさ以下に設定すると、必ず第1注目窓が重なって配置されることになり、検索漏れを生じることがなくなる。
そして、蓄積部分領域特徴抽出部2は、上記第1注目窓毎に得られた蓄積部分領域特徴の集合を出力する。
For example, if the first window of interest is arranged at intervals of 16 pixels vertically and horizontally, and the size of the accumulated image is “384 × 256” pixels, the first window of interest is “64 × 64” pixels. For each image, “21 × 13 = 273” first attention windows are set.
Further, the arrangement interval of the first window of interest is hereinafter referred to as a margin. For example, if the margin is set to be equal to or smaller than the size of the first target window, the first target window is always arranged so as not to cause a search omission.
Then, the storage partial region
次に、索引付与部3は、蓄積部分領域特徴抽出部2の抽出した蓄積部分領域特徴の集合を読み込み、この読み込んだ各部分領域特徴に対して、検索を容易にするための索引を付与する。
例えば、「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002−236496)記載の実施例のように、予め作成されたベクトル量子化符号帳を用いて、各部分領域画像の特徴ベクトルをベクトル量子化し、ベクトル量子化の符号語を索引とする。
Next, the
For example, as in the embodiment described in “Signal Detection Method, Signal Detection Device, Recording Medium, and Program” (Japanese Patent Application Laid-Open No. 2002-236696), a feature of each partial region image is created using a vector quantization codebook created in advance. The vector is vector-quantized, and the codeword of vector quantization is used as an index.
すなわち、上記方法について簡単に説明すると、はじめに、索引付与部3は、蓄積部分領域特徴の集合を読み込む。
次に、索引付与部3は、各蓄積部分領域特徴のクラスタリングを行う。このクラスタリングは、例えば、各蓄積部分領域特徴をベクトルと考えて、そのベクトルを、ベクトル量子化を用いて符号化することによって行う。
例えば、ベクトル量子化の符号語数が1024個であれば、部分領域特徴は1024個のクラスタのいずれかに分類されることになる。
That is, the above method will be briefly described. First, the
Next, the
For example, if the number of code words for vector quantization is 1024, the partial region features are classified into any of 1024 clusters.
ここで、ベクトル量子化は、例えば、自乗誤差を距離関数として用い、クラスタ重心との距離が他のどのクラスタ重心との距離よりも小さくなるクラスタに部分領域特徴を所属させ、クラスタに対応する符号語を出力することによって行われる。
このクラスタは、例えば、クラスタ作成のために予め用意された、部分領域特徴と同じ次元数の特徴である学習特徴を用いて予め作成しておく。
すなわち、クラスタは、それに所属する学習特徴とクラスタ重心との距離の総和が最小になるように、かつそのクラスタに所属する学習特徴について、所属するクラスタのクラスタ重心との距離が、他のどのクラスタ重心との距離よりも小さくなるように構成される。
そして、索引付与部3は、索引として、各部分領域特徴に対応する、ベクトル量子化の符号語を出力する(ステップS4)。
Here, the vector quantization uses, for example, a square error as a distance function, assigns a partial region feature to a cluster whose distance from the cluster centroid is smaller than the distance from any other cluster centroid, and codes corresponding to the clusters. This is done by outputting a word.
This cluster is created in advance using, for example, learning features that are prepared in advance for cluster creation and have the same number of dimensions as the partial region features.
That is, a cluster is such that the sum of the distance between the learning feature belonging to it and the cluster centroid is minimized, and the distance from the cluster centroid of the cluster to which the cluster belongs is any other cluster. It is comprised so that it may become smaller than the distance with a gravity center.
Then, the
また、別の実施形態として、例えば、R*-Tree(「The R*-Tree: an efficient and rbust access method for points and rectangles」,(N.Beckman他1名,Proc. of ACM SIGMOD Conference,pp.322-331,1990))やSR-Tree(「SR-Tree: 高次元データに対する最近接探索のためのインデックス構造の提案」(片山紀生 他1名,電子情報通信学会論文誌D-I,Vol.J80-D-I,No.8,pp.703-717,1997年8月))など、多次元インデックスと総称される手法を用いて、特徴の存在する多次元空間内で特徴を包含する領域を階層的に作成し、最下層の領域と特徴とを対応付けることにより索引を付与することも可能である。
特徴を包含する領域は、例えば、R*-Treeであれば、3次元空間における直方体に相当する超直方体、SR-Treeであれば、超直方体と、3次元空間における球に相当する超球との重なりとなる。
そして、索引付与部3は、上述のように求められた、各部分領域特徴に対する索引を出力する。
As another embodiment, for example, R * -Tree (“The R * -Tree: an efficient and rbust access method for points and rectangles”, (N. Beckman et al., Proc. Of ACM SIGMOD Conference, pp .322-331, 1990)) and SR-Tree ("SR-Tree: Proposal of index structure for nearest neighbor search for high-dimensional data" (Natao Katayama et al., IEICE Transactions DI, Vol. J80-DI, No.8, pp.703-717 (August 1997)) and other methods that are collectively referred to as multidimensional indexes It is also possible to create an index and assign an index by associating the lowest layer area with a feature.
The region including the feature is, for example, a super cuboid corresponding to a rectangular parallelepiped in three-dimensional space if R * -Tree, and a super sphere corresponding to a sphere in three-dimensional space if SR-Tree. It becomes an overlap.
Then, the
次に、目的特徴抽出部4は、目的画像を読み込むが(ステップS5)、この目的画像の大きさは、例えば、マージンと第1注目窓の大ききとの和(合計)以上に設定すると、完全に蓄積画像の特徴の抽出を行う範囲を包含するために、検索漏れを生じることがない。
そして、目的特徴抽出部4は、目的画像から特徴の抽出を、上記蓄積特徴抽出部1と同様の手法で行い、目的画像から抽出された特徴である目的特徴の集合を出力する(ステップS6)。
Next, the target
Then, the target
次に、目的部分領域特徴抽出部5は、目的特徴抽出部4の抽出した目的特徴の集合を読み込み、この目的画像のある1つの箇所に、蓄積部分領域特徴抽出部2で用いた注目窓と同様の大きさ(縦×横)の注目窓、すなわち、第1注目窓を用い、この第1注目窓内に含まれる画像の特徴である目的部分領域特徴を抽出する。
また、目的部分領域特徴抽出部5は、上記蓄積部分領域特徴抽出部2と同様の抽出方法を用いて、画像の特徴を抽出して、抽出結果を目的部分領域特徴の集合として出力する(ステップS7)。
Next, the target partial region
The target partial region
ここで、目的部分領域特徴抽出部5は、蓄積部分領域特徴抽出部2における特徴抽出の場合と異なり、上記第1注目窓を、目的画像内に重複することもなく、かつ隙間もない状態に設定し、それらを1ピクセルずつずらしながら、各位置において上記目的部分領域特徴の抽出を行う。
このとき、第1抽出窓は、例えば、少なくともマージンの大きさの分だけずらせば、検索漏れを生じさせることがない。
例えば、目的画像の大きさが「80×80」ピクセル、第1注目窓の大きさが「64×64」ピクセル、マージンが「16×16」ピクセルであるとき、目的画像内に重複することもなく、かつ隙間もない状態に設定できる第1注目窓の数が1つなので、目的画像全体において、「16×16=256」個の第1注目窓が設定される。
そして、目的部分領域特徴抽出部5は、上述した処理により抽出した、目的部分領域特徴の集合を出力する。
Here, unlike the case of the feature extraction in the storage partial region
At this time, for example, if the first extraction window is shifted at least by the size of the margin, no search omission occurs.
For example, when the size of the target image is “80 × 80” pixels, the size of the first target window is “64 × 64” pixels, and the margin is “16 × 16” pixels, the target image may overlap. Since the number of first target windows that can be set in a state without any gap is one, “16 × 16 = 256” first target windows are set in the entire target image.
Then, the target partial region
次に、索引検索部6は、索引付与部3から出力される索引と、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合とを読み込む。
そして、目的代表特徴抽出部15において、目的部分領域特徴から目的代表特徴を抽出する処理を行った場合、索引検索部6は、目的部分領域特徴の集合の代わりに、目的代表特徴抽出部15から出力される目的代表特徴の集合を読み込む。
目的代表特徴抽出部15は、後述する他の実施形態において詳細に説明する。
また、必要に応じて、索引検索部6は、目的部分領域間距離計算部16から出力される目的部分領域間距離を、さらに、読み込む構成もある。目的部分領域間距離計算部16は後述する他の実施形態において、詳細に説明する。
また、検索閾値更新部14が検索閾値及び選択閾値を更新する処理を行った場合、索引検索部6は更新された選択閾値を読み込む。この検索閾値更新部14については後述する他の実施形態において、詳細に説明する。
Next, the
When the target representative
The target representative
In addition, the
Further, when the search
そして、索引検索部6は、読み込んだ索引を用い、目的部分領域特徴の集合に類似する蓄積部分領域特徴を、検索候補特徴として抽出する(ステップS8)。
このとき、索引検索部6は、目的部分領域特徴の集合内におけるいずれかの目的部分領域特徴に対し、該部分領域特徴との距離dt、例えば自乗誤差が、予め定められた閾値である選択閾値θ2を下回るような(以下となるような)蓄積部分領域特徴を、索引により抽出する。
上記選択閾値θ2は後述するパラメータから自動的に決定される値であり、また、この選択閾値の決定方法は後述する。
Then, the
At this time, the
The selection threshold θ 2 is a value that is automatically determined from parameters described later, and a method for determining the selection threshold will be described later.
また、別の実施例として、目的部分領域特徴の集合の代わりに、目的部分領域特徴から代表的な特徴を目的代表特徴として抽出し、この目的代表特徴の集合を用いて、集合内のいずれかの目的代表特徴との距離dtが選択閾値θ2を下回る蓄積部分領域特徴を、上記索引から抽出する構成とすることも可能である(後述)。
さらに、別の実施例として、目的部分領域間距離を用い、各目的代表特徴との距離dtを、該目的代表特徴に対応する目的部分領域間距離の最大値分だけ小さくし、この距離dtの値が選択閾値θ2を下回る蓄積部分領域特徴を索引から抽出する構成とすることも可能である(後述)。
As another example, instead of a set of target sub-region features, a representative feature is extracted from the target sub-region feature as a target representative feature, and this target representative feature set is used to distance dt between objects representative feature is the storage part region feature below a selected threshold theta 2 of, it is also possible to adopt a configuration that extracts from the index (described later).
Further, as another embodiment, the distance between the target partial areas is used by using the distance between the target partial areas, and the distance dt between each target representative area is reduced by the maximum value of the distance between the target partial areas corresponding to the target representative feature. It is also possible to adopt a configuration in which accumulated partial region features whose values are below the selection threshold θ 2 are extracted from the index (described later).
ここで上述した、ある1つの目的部分領域特徴あるいは目的代表特徴との距離が選択閾値を下回る蓄積部分領域特徴を索引から抽出する抽出方法について説明する。
この抽出方法は、上記索引付与部3において用いられた索引の種類によって異なり、上記索引に対応する特許明細書記載の方法あるいは非特許文献記載の方法と同様にして実施することができる。
例えば、「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002−236496)に記載の方法を用いて索引を付与した場合、以下のようにして所望の蓄積部分領域特徴を抽出することができる。
Here, an extraction method for extracting from the index an accumulated partial region feature whose distance from a certain target partial region feature or target representative feature is below the selection threshold will be described.
This extraction method differs depending on the type of index used in the
For example, when an index is assigned using the method described in “Signal Detection Method, Signal Detection Device, Recording Medium, and Program” (Japanese Patent Laid-Open No. 2002-236696), a desired accumulated partial region feature is extracted as follows. be able to.
はじめに、索引検索部6は、目的部分領域特徴あるいは目的代表特徴と、索引付与部3で作成された索引(クラスタ)、及び選択閾値θ2を読み込む。
以下では、簡単のため、目的代表特徴ではなく、本実施例で採用した構成において目的部分領域特徴を読み込んだものとして説明する。
そして、索引検索部6は、読み込んだ目的部分領域特徴と、各クラスタ重心との距離を計算する。
続いて、索引検索部6は、計算された距離dtに基づいて、目的部分領域特徴との距離が選択閾値θ2を下回る蓄積部分領域特徴を含む可能性のあるクラスタを選択する。
First, the
In the following, for the sake of simplicity, the description will be made assuming that the target partial region feature is read in the configuration adopted in this embodiment, not the target representative feature.
Then, the
Subsequently, the
上述したクラスタを選択する原理を以下に説明する。
図4は、点Q,C1,C2の3点が乗るような平面であり、特徴ベクトルが配置される特徴空間を切り出した様子を示している。
ここで、点Qは目的部分領域特徴、C1は部分領域特徴Qが所属しているクラスタのクラスタ重心、C2は他のクラスタのクラスタ重心を表しており、距離dQ1,dQ2,d12はそれぞれ、点Qと点C1との距離、点Qと点C2との距離、点C1と点C2との距離を示している。
The principle of selecting the above-described cluster will be described below.
FIG. 4 is a plane on which three points Q, C1, and C2 are placed, and shows a state in which a feature space in which feature vectors are arranged is cut out.
Here, the point Q is the target partial region feature, C1 is the cluster centroid of the cluster to which the partial region feature Q belongs, C2 is the cluster centroid of the other cluster, and the distances dQ1, dQ2, and d12 are the points. The distance between Q and point C1, the distance between point Q and point C2, and the distance between point C1 and point C2 are shown.
ここで、目的部分領域特徴の座標である点Qからの距離dtが選択閾値θ2以内である蓄積部分領域特徴を抽出しなければならないとすると、点Qを中心とする半径θ2の超球(図4においては半径dθの円)の内部にある蓄積部分領域特徴がそれに該当する。
そして、点Qを中心とする超球の半径が図4におけるdθより大きくなったとき、点C2に対応するクラスタに所属する蓄積部分領域特徴の中に、所望の蓄積部分領域特徴が含まれている可能性がある。
そこで、選択閾値θ2が図4におけるdθより大きくなったとき、そのクラスタを選択する。dθは、以下の(1)式,(2)式を用いて求められる。
Here, if it is necessary to extract an accumulated partial region feature whose distance dt from the point Q that is the coordinates of the target partial region feature is within the selection threshold θ 2 , a hypersphere having a radius θ 2 centered on the point Q storage part region feature in the interior of true thereto (circle of radius d theta in FIG. 4).
Then, when the radius of the hypersphere centered at the point Q becomes larger than dθ in FIG. 4, a desired storage partial region feature is included in the storage partial region features belonging to the cluster corresponding to the point C2. There is a possibility.
Therefore, when the selection threshold θ 2 becomes larger than d θ in FIG. 4, the cluster is selected. dθ is obtained using the following equations (1) and (2).
上記(1)式より、 From the above equation (1),
が求められる。
最終的に、索引検索部6は、以下の(3)式が成り立つとき、点C2に対応するクラスタを選択し、そのクラスタに所属する蓄積部分領域特徴を全て抽出する。
そして、この手順を、目的部分領域特徴Qが所属するクラスタを除く全てのクラスタに対して行い、抽出された蓄積部分領域特徴を、検索候補特徴として出力する。
Is required.
Finally, when the following expression (3) holds, the
Then, this procedure is performed for all clusters except the cluster to which the target partial region feature Q belongs, and the extracted accumulated partial region features are output as search candidate features.
次に、特徴照合部7は、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合と、索引検索部6から出力される検索候補特徴の集合を読み込む。
そして、特徴照合部7は、次目的部分領域特徴選定部12により、次に照合すべき目的部分領域特徴が指定されている場合、該目的部分領域特徴を読み込む。この次目的部分領域特徴選定部12は、本実施形態において後述する。
Next, the
The
また、特徴照合部7は、次検索候補特徴選定部13から、次に照合すべき検索候補特徴が指定されている場合、該検索候補特徴を読み込む。この次検索候補特徴選定部13は、本実施形態において後述する。
次に、特徴照合部7は、次目的部分領域特徴選定部12から読み込んだ目的部分領域特徴と、次検索候補特徴選定部13から読み込んだ検索候補特徴の集合との照合を行う。
このとき、特徴照合部7は、上記目的部分領域特徴と検索候補特徴との距離、例えば、自乗誤差の演算を行う。
Further, when a search candidate feature to be matched next is designated from the next search candidate
Next, the
At this time, the
ここで、特徴照合部7は、指定された目的部分領域特徴がなければ、初期目的部分領域特徴として、例えば、目的画像の左上角の位置に対応する目的部分領域特徴を指定し、上記検索候補特徴と照合処理を行う(ステップS9)。
また、特徴照合部7は、指定された検索候補特徴がなければ、初期の検索候補特徴として、例えば、任意に選択した検索候補特徴を指定し、上記目的部分領域特徴と照合する。
そして、特徴照合部7は、照合計算(検索候補特徴と目的部分領域特徴との間の距離の演算)の結果として、照合した検索候補特徴と目的部分領域特徴との距離値d(ω)を出力する。
Here, if there is no designated target partial region feature, the
Further, if there is no designated search candidate feature, the
Then, the
次に、照合結果判定部12は、特徴照合部7から出力される距離値d(ω)を読み込み、目的画像と類似する部分画像が、現在の照合箇所に存在する可能性があるか否かの判定、すなわち、該距離値d(ω)と、前記選択閾値θ2との比較を行う。
そして、照合結果判定部8は、距離値d(ω)が選択閾値θ2を以下となったとき、目的画像と類似する部分画像が現在の照合箇所に存在する可能性があると判定し、蓄積部分領域特徴を照合箇所として出力し、一方、距離値d(ω)が選択閾値θ2を超えているとき、目的画像と類似する部分画像が現在の照合箇所に存在する可能性がないと判定し、処理をステップS14へ進める(ステップS10)。
Next, the matching
The verification
次に、特徴再照合部9は、蓄積特徴抽出部1から出力される蓄積特徴の集合と、目的特徴抽出部4から出力される目的特徴の集合と、照合結果判定部8から出力される照合箇所とを読み込む。
そして、特徴再照合部9は、読み込んだ蓄積特徴に、目的画像と同じ大きさ(縦×横)の注目窓である第2注目窓を設定する。
Next, the
Then, the
ここで、特徴再照合部9は、第2注目窓の配置箇所を、照合結果判定部8から出力された照合箇所に対応して決定する。
すなわち、特徴再照合部9は、図5の概念図に示すように、第2注目窓の配置箇所に対する蓄積部分領域の相対的な位置が、目的画像における目的部分領域の相対的な位置と同一になるように、つまり、照合箇所における蓄積部分領域と目的部分領域とが重なる位置に、上記第2注目窓を配置する。
Here, the
That is, as shown in the conceptual diagram of FIG. 5, the
次に、特徴再照合部9は、第2注目窓内における蓄積特徴と目的特徴との照合を行う。
ここで、特徴再照合部9は、例えば、第2注目窓内の蓄積特徴と目的特徴との距離値d、例えば、自乗誤差を計算する。
そして、特徴再照合部9は、照合計算結果である距離値dを出力する(ステップS11)。
Next, the
Here, the
Then, the
次に、照合結果再判定部14は、特徴再照合部13から出力される距離値dを読み込み、目的画像と類似する部分画像が現在の照合箇所に存在する可能性があるか否かの判定、すなわち、該距離値dと、前記予め定められた閾値である検索閾値θとの比較を行う。
このとき、照合結果再判定部10は、距離値dが検索閾値θ以下であるとき、目的画像と類似する部分画像が現在の照合箇所に存在すると判定し、蓄積画像における該照合箇所を検出箇所として、この検出箇所の位置及び判定結果(存在したことを示す情報)を出力し、一方、距離値dが検索閾値θを超えたとき、目的画像と類似する部分画像が現在の照合箇所に存在しないと判定し、処理をステップS14へ進める(ステップS12)。
Next, the collation
At this time, when the distance value d is equal to or less than the search threshold θ, the matching
上記選択閾値θ2は、前記検索閾値θから決定され、以下に示す(4)式に示すように、選択閾値θ2を設定すると、検索漏れを生じることがない。 The selection threshold θ 2 is determined from the search threshold θ, and if the selection threshold θ 2 is set as shown in the following equation (4), no search omission occurs.
上記(4)式において、Nは第1注目窓を重複も隙問もなく蓄積画像中に配置したと仮定したとき、任意位置に配置された第2照合窓に含まれる第1照合窓の最小数であり、以下に示す(5)〜(7)式により与えられる。 In the above equation (4), N is the minimum of the first matching window included in the second matching window placed at an arbitrary position when it is assumed that the first window of interest is placed in the stored image without overlapping or gaps. It is a number and is given by the following equations (5) to (7).
ここで、(6)式におけるNxは横方向の第1の照合窓の数であり、(7)式におけるNyは縦方向の第1の照合窓の数である。
ただし、(qx、qy)は目的画像の大きさ、すなわち、第2注目窓の大きさであり、(ωx,ωy)は第1注目窓の大きさである。
次に、検索結果候補選択部11は、照合結果再判定部10から出力される検出箇所と、特徴再照合部9から出力される距離値dを読み込む。
Here, Nx in the equation (6) is the number of first collation windows in the horizontal direction, and Ny in the equation (7) is the number of first collation windows in the vertical direction.
However, (qx, qy) is the size of the target image, that is, the size of the second target window, and (ωx, ωy) is the size of the first target window.
Next, the search result
次に、検索結果候補選択部11は、上記検出箇所と、この検出箇所における距離値dとを、検索結果候補として登録する。
検索結果候補選択部11は、例えば、距離値の大小にかかわらず、読み込んだ検出箇所と距離値dとの組を全て登録する。
また、検索結果候補選択部11は、他の実施形態として、検索結果候補が予め定められた数量以下になるように登録する構成とすることも可能である。
Next, the search result
For example, the search result
In addition, as another embodiment, the search result
すなわち、検索結果候補選択部11は、検索結果候補を該数量までは無条件に検出箇所と距離値との組を登録し、該数量を超過する場合、例えば、すでに読み込まれた検索結果候補の中における最大距離値dmaxと、以降読み込んだ距離値dとを比較し、読み込んだ距離値dが最大距離値dmaxを下回る場合、最大距離値dmaxに対応する候補を削除し、新たに読み込んだ検出箇所と距離値dの組とを候補として登録する。
このように、検索結果候補選択部11は、蓄積画像から上述した方法により検索結果候補を出力する(ステップS13)。
That is, the search result
As described above, the search result
次に、次目的部分領域特徴選定部12は、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合を読み込み、必要に応じて、特徴照合部7から出力される距離値d(ω),検索閾値更新部14から出力される選択閾値θ2,及び周辺距離下限値計算部17から出力される周辺距離下限値を読み込む。
上記検索閾値更新部14及び周辺距離下限値計算部17は、他の実施例において後述する。
そして、次目的部分領域特徴選定部12は、次に照合する目的部分領域特徴の有無の検出を行い、照合箇所がないことを検出すると処理をステップS15へ進め、一方、照合箇所があることを検出すると、次に照合する目的部分領域特徴を選択して、処理をステップS9へ進める(ステップS14)。
Next, the next target partial region
The search
Then, the next target partial region
このとき、次目的部分領域特徴選定部12は、例えば、現在注目している蓄積部分領域特徴に対して、照合が終了していない目的部分領域特徴があるか否かを判定して、終了していない目的部分領域特徴があれば、この中から任意の目的部分領域特徴を1つ選択し、全ての目的部分領域特徴の照合が終了している場合、次の、蓄積部分領域特徴に注目を変更するため、処理をステップS15へ進める。
また、別の実施形態として、次目的部分領域特徴選定部12は、上記周辺距離下限値を読み込んだ場合、この距離下限値が、読み込んだ選択閾値θ2上回る目的部分領域特徴との照合を省略し、この距離下限値が選択閾値θ2以下の目的部分領域特徴から任意に1つ選択する構成とすることも可能である。
そして、次目的部分領域特徴選定部12は、終了していない目的部分領域特徴があれば、照合箇所が選択された目的部分領域特徴と、この目的部分特徴に対応する目的画像内の位置を出力する。
At this time, for example, the next target partial region
As another embodiment, the following objective partial region
Then, if there is an unfinished target partial region feature, the next target partial region
次に、次検索候補特徴選定部13は、索引検索部6から出力される検索候補特徴の集合を読み込み、次に照合すべき検索候補特徴を選択、すなわち次に照合する検索候補特徴の有無の検出を行い、照合する検索候補特徴がないことを検出すると処理を終了させ、一方、照合する検索候補特徴があることを検出すると、次に照合すべき検索候補特徴を選択して、処理をステップS9へ進める(ステップS15)。
このとき、次検索候補特徴選定部13は、例えば、照合する検索候補特徴があることを検出すると、照合が終了していない検索候補特徴から任意に1つ選択する。
これにより、次検索候補特徴選定部13は、選択された検索候補特徴を、特徴照合部7に対して出力する。
Next, the next search candidate
At this time, for example, when detecting that there is a search candidate feature to be collated, the next search candidate
As a result, the next search candidate
<第2の実施例>(請求項3に対応)
図6は、請求項3に記載の方法を適用した第2の実施例による部分画像検索装置の構成例を示すブロック図である。
第2の実施例の部分画像検索装置は、請求項1に記載の方法を適用した第1の実施例による部分画像検索装置に加え、さらに、図6に示すように、検索閾値更新部14を設け、任意の目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される複数の画像である蓄積画像の集合を入力とし、目的画像と類似する画像が含まれている部分画像の蓄積画像内における箇所を出力する。
Second Embodiment (Corresponding to Claim 3)
FIG. 6 is a block diagram showing a configuration example of a partial image retrieval apparatus according to a second embodiment to which the method according to
In addition to the partial image search apparatus according to the first embodiment to which the method of
上記検索閾値更新部14は、上記検索結果候補選択部11から出力された検索結果候補から、上記特徴再照合部9から出力された距離値に基づいて、所定の距離内にある候補を検出し、この検出した候補の距離値に基づいて新たに検索閾値θを設定する。
次に、上述した蓄積特徴抽出部1から検索閾値更新部14における部分画像の検出処理を、図7を用いて具体的に説明する。ここで、図7は、図6に示す部分画像検索装置の動作例を示すフローチャートである。
The search
Next, the partial image detection processing from the accumulated
図7のフローチャートは、図2に示す第1の実施例のフローチャートに対して、ステップS13の「検索結果の候補選択」の処理の次に、ステップS16の「検索閾値更新」の処理が追加されたのみで、他の処理については同様であるため、このステップS16の処理の説明のみを行う。
検索閾値更新部14は、検索結果候補選択部11から出力される検索結果候補を読み込み、この読み込んだ検索結果候補の中から、距離値が最大の検索結果候補を選び出し、選択した検索結果候補の距離値が検索閾値θ以下であるか否かの判定を行い、この距離値が探索結果閾値θ以下であることを検出した場合、検索閾値θをその距離値と同じ値に更新する。
そして、(4)式に基づいて検索閾値θから選択閾値θ2を計算し、更新した検索閾値θと共に出力する(ステップS14)。
これ以降は、この更新された検索閾値θ及び選択閾値θ2が照合結果の判定に用いられる。
In the flowchart of FIG. 7, the “search threshold update” process of step S16 is added to the flowchart of the first embodiment shown in FIG. 2 after the “search result candidate selection” process of step S13. Since the other processes are the same, only the process of step S16 will be described.
The search
Then, (4) the selection threshold theta 2 from the search threshold theta calculated based on equation outputs with updated search threshold theta (step S14).
Thereafter, the updated search threshold θ and selection threshold θ 2 are used for determination of the collation result.
<第3の実施例>(請求項5に対応)
図8は、請求項5に記載の方法を適用した第3の実施例による部分画像検索装置の構成例を示すブロック図である。
この第3の実施例による部分画像検索装置は、第1及び第2の実施例の部分画像検索装置に対して、目的代表特徴抽出部15を加えたものであり、目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される画像である蓄積画像の集合とを入力し、目的画像と類似する画像が含まれてた部分画像の、上記蓄積画像内における箇所を検索し、検索結果を出力する。
この目的代表特徴抽出部15は、上記目的部分領域特徴抽出部5から出力された目的部分領域特徴の集合の中から、各目的部分領域特徴に共通する特徴としての目的代表特徴を抽出する。
<Third embodiment> (corresponding to claim 5)
FIG. 8 is a block diagram showing a configuration example of a partial image search apparatus according to a third embodiment to which the method according to
The partial image search device according to the third embodiment is obtained by adding a target representative
The target representative
次に、上述した蓄積特徴抽出部1から目的代表特徴抽出部15における部分画像の検出処理を、図9を用いて具体的に説明する。ここで、図9は、図8に示す部分画像検索装置の動作例を示すフローチャートである。
図9のフローチャートは、図7に示す第2の実施例のフローチャートに対して、ステップS7の「目的部分領域の抽出」の処理の次に、ステップS17の「目的代表特徴の抽出」の処理が追加されたのみで、他の処理については同様であるため、このステップS17の処理の説明のみを行う。
Next, the partial image detection processing in the above-described accumulated
The flowchart of FIG. 9 is different from the flowchart of the second embodiment shown in FIG. 7 in that the process of “extraction of target representative features” in step S17 is followed by the process of “extraction of target partial area” in step S7. Since only the process is added and the other processes are the same, only the process of step S17 will be described.
目的代表特徴抽出部15は、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合を読み込み、これら複数の目的部分領域特徴に対してクラスタリング処理を行う。
このとき、目的代表特徴抽出部15は、例えば、クラスタを1つだけ用意し(共通の特徴ベクトルを抽出する)、上記集合における全ての目的部分領域特徴をそのクラスタに所属させる(1つの目的代表特徴を出力することになる)。
The target representative
At this time, for example, the target representative
さらに、目的代表特徴抽出部15は、別の実施例として、目的部分領域特徴に対応する目的画像中の位置を、読み込んだ全ての目的部分領域特徴について抽出し、その存在範囲を格子状に区切り、各格子をクラスタと対応させる構成とすることも可能である。
また、さらに、目的代表特徴抽出部15は、別の実施例として、同一クラスタ内の目的部分領域特徴同士の距離の最大値が、予め定められた閾値である分類閾値を上回らないように、クラスタを併合することも可能である。
Further, as another example, the target representative
In addition, as another example, the target representative
このとき、目的代表特徴抽出部15は、クラスタの初期状態として、例えば、読み込んだ目的部分領域特徴の数だけ用意したクラスタに1つずつ目的部分領域を割り当てたものを用いる。
次に、目的代表特徴抽出部15は、上記各クラスタから、該クラスタを代表する部分領域特徴である代表特徴を抽出する。目的代表特徴抽出部15は、例えば、クラスタ内の任意に選択した1つの目的部分領域特徴を代表特徴とする。
At this time, the target representative
Next, the target representative
また、目的代表特徴抽出部15は、別の実施例として、ある特定位置に対応する目的部分領域特徴を代表特徴とすることもできる。
この特定位置とは、例えば、目的画像の左上角の位置などである。
さらに、目的代表特徴抽出部15は、別の実施例として、クラスタ内の目的部分領域特徴の重心にある目的部分特徴を代表特徴とする構成とすることもできる。
そして、目的代表特徴抽出部15は、上述した第3の実施例における各実施例により求めた、代表特徴あるいはその集合を出力する。
次のステップS8において、索引検索部6は、上記目的代表特徴を用いて、蓄積画像の索引との照合処理を行う。
In addition, as another example, the target representative
This specific position is, for example, the position of the upper left corner of the target image.
Further, as another example, the target representative
Then, the target representative
In the next step S8, the
<第4の実施例>(請求項7に対応)
図10は、請求項6に記載の方法を適用した第4の実施例による部分画像検索装置の構成例を示すブロック図である。
この第4の実施例による部分画像検索装置は、第1、第2、第3の実施例の部分画像検索装置に対して、目的部分領域間距離計算部16と、周辺距離下限値計算部17とを加えたものであり、目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される画像である蓄積画像の集合とを入力し、目的画像と類似する画像が含まれてた部分画像の、上記蓄積画像内における箇所を検索し、検索結果を出力する。
<Fourth embodiment> (corresponding to claim 7)
FIG. 10 is a block diagram showing a configuration example of a partial image search apparatus according to a fourth embodiment to which the method according to
The partial image search device according to the fourth embodiment is different from the partial image search devices according to the first, second, and third embodiments in the target partial region
上記目的部分領域間距離計算部16は、上記目的部分領域特徴抽出部5から出力された目的部分領域特徴について、部分領域特徴同士の距離を計算する。
そして、目的代表特徴抽出部15が設けられている場合は、目的部分領域特徴と、それに対応する目的代表特徴との距離を計算する。
上記周辺距離下限値計算部17は、特徴照合部7から出力された距離値と、目的部分領域間距離計算部16から出力された距離値とを用い、特徴照合部7で照合を行った検索候補特徴と、上記目的部分領域特徴抽出部5から出力された各目的部分領域特徴との距離を演算して、この演算結果から下限値を抽出する。
The target inter-region
If the target representative
The peripheral distance lower
次に、上述した蓄積特徴抽出部1から周辺距離下限値計算部17における部分画像の検出処理を、図11を用いて具体的に説明する。ここで、図11は、図10に示す部分画像検索装置の動作例を示すフローチャートである。
図11のフローチャートは、図9に示す第3の実施例のフローチャートに対して、ステップS17の「目的代表特徴の抽出」の処理の次に、ステップS18の「目的部分領域間距離の演算」の処理が追加され、また、ステップS16の「検索閾値の更新」の処理の次に、ステップS19の「周辺距離下限値の演算」の処理が追加されたのみで、他の処理については同様であるため、このステップS18及びステップS19の処理の説明のみを行う。
Next, the partial image detection processing from the accumulated
The flowchart of FIG. 11 is different from the flowchart of the third embodiment shown in FIG. 9 in the “calculation of distance between target partial areas” in step S18 after the process of “extraction of target representative features” in step S17. A process is added, and after the process of “update search threshold” in step S16, only the process of “calculation of lower limit of peripheral distance” in step S19 is added, and the other processes are the same. Therefore, only the processing in steps S18 and S19 will be described.
目的部分領域間距離計算部16は、目的部分領域特徴抽出部5から出力される目的部分領域特徴の集合を読み込み、各目的部分領域特徴同士の距離を計算する。
そして、目的部分領域間距離計算部16は、例えば、全ての目的部分領域特徴の組に対して距離計算を行う。ここで、距離尺度としては、例えば、自乗誤差を用いる。
また、別の実施例として、目的代表特徴抽出部15が設けられている場合には、さらにこの目的代表特徴抽出部15から出力される目的代表特徴の集合を読み込み、各目的部分領域特徴と、それに対応する目的部分領域特徴との距離を計算することも可能である。
上述したように、目的部分領域間距離計算部16は、目的部分領域特徴同士の距離、あるいは目的部分領域特徴と目的代表特徴との距離を出力する。
上述した距離を用いて、ステップS8において、索引による検索が行われる。
The target partial region
Then, the target inter-region
As another example, when the target representative
As described above, the target partial region
Using the distances described above, an index search is performed in step S8.
次に、周辺距離下限値計算部17は、特徴照合部7から出力される距離値と、目的部分領域間距離計算部16から出力される部分領域間距離とを読み込む。
そして、周辺距離下限値計算部17は、読み込んだ距離値と部分領域問距離とから、蓄積部分領域特徴と各目的部分領域特徴との距離下限値を計算する。
このとき、周辺距離下限値計算部17は、蓄積部分領域特徴fD (W)と、目的部分領域特徴fQ2 (W)との距離の下限値d(fD (W),fQ2 (W))は、三角不等式に基づいて、以下の(8)式により求められる。,
Next, the peripheral distance lower limit
Then, the peripheral distance lower limit
At this time, the peripheral distance lower limit
上記(8)式において、d(fD (W),fQ1 (W))は特徴照合部7から読み込んだ距離値であり、d(fQ1 (W),fQ2 (W))は読み込んだ目的部分領域間距離である。
上述したように、周辺距離下限値計算部17は、蓄積部分領域特徴と、目的部分領域特徴との距離の下限値である周辺距離下限値を出力する。
そして、次のステップS14において、次目的部分領域特徴選定部12は、上記周辺距離下限値を入力し、この距離下限値が、読み込んだ選択閾値θ2を上回る目的部分領域特徴との照合を省略し、この距離下限値が選択閾値θ2以下の目的部分領域特徴から任意に1つ選択する。
In the above equation (8), d (f D (W) , f Q1 (W) ) is a distance value read from the
As described above, the peripheral distance lower limit
The omission in the next step S14, the next objective partial region
<実験>
本発明を適用した装置の動作例を以下に示す。
ここで、蓄積画像群として、大きさ384 × 256 ピクセルの画像1000枚を用い、目的画像として、大きさ80×80ピクセルの画像10枚を、上記蓄積画像群中の任意の箇所から切り出して用いた。
また、部分領域は大きさを64×64ピクセルとし、マージンを縦方向及び横方向共に16ピクセルと設定して、部分画像の切り出しを行った。
すなわち、蓄積画像1枚あたりの部分領域の数は273個であり、目的画像の部分領域の数は256個である。
<Experiment>
An example of the operation of the apparatus to which the present invention is applied is shown below.
Here, 1000 images with a size of 384 × 256 pixels are used as the stored image group, and 10 images with a size of 80 × 80 pixels are cut out from any location in the stored image group as the target image. It was.
In addition, the partial image was cut out with a size of 64 × 64 pixels and a margin of 16 pixels in both the vertical and horizontal directions.
That is, the number of partial areas per stored image is 273, and the number of partial areas of the target image is 256.
画像の特徴としては、大きさ8×8ピクセルの小領域におけるRGBの平均値を用いたため、部分領域特徴の次元は192次元となっている。
索引付与部3及び索引検索部6は、「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002-236496)記載の実施例のように、ベクトル量子化に基づく索引付与と索引検索と実施し、クラスタ数を1024とした。
また、距離尺度は自乗誤差を用い、検索閾値は1000とした。
Since the average value of RGB in a small region having a size of 8 × 8 pixels is used as the image feature, the dimension of the partial region feature is 192 dimensions.
The
The distance scale used was a square error, and the search threshold was 1000.
本発明の効果を確認するため、まず、マージンを変化させたときの、索引保持に必要な記憶容量の変化を検討した。
マージンは縦方向及び横方向共に同じ値とした。
本実験の結果を図12に示す。この図において、グラフの横軸はマージンを表し、グラフの縦軸は索引付与に必要な記憶容量をバイト単位で示している。
上記図12からわかるように、マージンの増加にともなって、索引付与に必要な記憶容量が大幅に削減されている。
In order to confirm the effect of the present invention, first, the change in the storage capacity necessary for index holding when the margin was changed was examined.
The margin was set to the same value in both the vertical and horizontal directions.
The result of this experiment is shown in FIG. In this figure, the horizontal axis of the graph represents the margin, and the vertical axis of the graph represents the storage capacity required for indexing in bytes.
As can be seen from FIG. 12, as the margin increases, the storage capacity required for indexing is greatly reduced.
例えば、マージンが16のとき、記憶容量は2.05メガバイトであり、マージンが1のとき、すなわち、あらゆる全ての部分領域に索引を付与するときに124メガバイトであり、マージンを16取った場合が1である場合に比べて、記憶容量が約1/60にまで削減されている。 For example, when the margin is 16, the storage capacity is 2.05 megabytes, and when the margin is 1, that is, when assigning indexes to all the partial areas, it is 124 megabytes, and 16 margins are taken. Compared to the case of 1, the storage capacity is reduced to about 1/60.
次に、マージンを変化させたときにおける、検索所要時間(実線)の変化を検討した。
マージンは上述した実験と同様に縦方向及び横方向共に同じ値とした。
本実験の結果を図13に示す。この図において、グラフの横軸はマージンを表し、グラフの縦軸は検索所要時間を秒単位で示している。
上記図13からわかるように、マージンが12のときに最も検索所要時間が短くなり、5.12秒であり、マージンが1のとき10.49秒であり、もっとも検索時間が長くなった。この図において、破線は検索所要時間に含まれる検索を行う前の前処理の時間を示している。
Next, we examined the change in search time (solid line) when the margin was changed.
The margin was set to the same value in both the vertical direction and the horizontal direction as in the experiment described above.
The results of this experiment are shown in FIG. In this figure, the horizontal axis of the graph represents the margin, and the vertical axis of the graph represents the search time in seconds.
As can be seen from FIG. 13, when the margin is 12, the search time is the shortest, 5.12 seconds, and when the margin is 1, the search time is 10.49 seconds, which is the longest search time. In this figure, the broken line indicates the pre-processing time before the search included in the required search time.
なお、図1,6,8,10における部分画像検索装置の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、部分画像の検索処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 In addition, a program for realizing the function of the partial image search device in FIGS. 1, 6, 8, and 10 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system. By executing this, partial image search processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1…蓄積特徴抽出部 2…蓄積部分領域特徴抽出部 3…索引付与部
4…目的特徴抽出部 5…目的部分領域特徴抽出部 6…索引検索部
7…特徴照合部 8…照合結果判定部 9…特徴再照合部
10…照合結果再判定部 11…検索結果候補選択部
12…次目的部分領域特徴選定部 13…次検索候補特徴選定部
14…検索閾値更新部 15…目的代表特徴抽出部
16…目的部分領域間距離計算部 17…周辺距離下限値計算部
DESCRIPTION OF
Claims (10)
前記蓄積画像群の各画像の特徴である蓄積特徴を抽出する蓄積特徴抽出過程と、
所定の大きさの注目窓を所定の間隔でずらしつつ、各位置における注目窓内の特徴を、蓄積部分領域特徴として抽出する蓄積部分領域特徴抽出過程と、
前記蓄積部分領域特徴各々を標識する索引を付与する索引付与過程と、
前記目的画像の特徴である目的特徴を抽出する目的特徴抽出過程と、
該目的特徴において、所定の大きさの注目窓を設定し、該注目窓をずらしつつ、各位置における注目窓内の特徴を、目的部分領域特徴として抽出する目的部分領域特徴抽出過程と、
前記目的部分領域特徴の集合に類似する蓄積部分領域特徴を、前記索引を用いて検索候補特徴として抽出する索引検索過程と、
該検索候補特徴と前記目的部分領域特徴との距離を計算する特徴照合過程と、
前記距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かを判定する照合結果判定過程と、
前記照合結果判定過程にて、目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴に対し、目的画像と同一の大きさの照合窓を設定し、前記目的特徴との特徴距離を計算する特徴再照合過程と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定過程と、
前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択過程と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定過程と、
前記検索候補特徴の集合の中から、次に照合すべき検索候補特徴を指定する次検索候補特徴選定過程と
を備えることを特徴とする部分画像検索方法。 A partial image search method for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image,
An accumulated feature extraction process for extracting an accumulated feature that is a feature of each image of the accumulated image group;
An accumulation partial area feature extraction process for extracting features in the attention window at each position as accumulation partial area features while shifting the attention window of a predetermined size at a predetermined interval;
An indexing process for providing an index for labeling each of the accumulated subregion features;
A target feature extraction process for extracting a target feature that is a feature of the target image;
In the target feature, a target window of a predetermined size is set, and a target partial region feature extraction process for extracting a feature in the target window at each position as a target partial region feature while shifting the target window;
An index search process for extracting accumulated partial area features similar to the set of target partial area features as search candidate features using the index; and
A feature matching process for calculating a distance between the search candidate feature and the target partial region feature;
Based on the distance, a collation result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists at the location in the accumulated image group;
In the verification result determination process, a verification window having the same size as the target image is provided for the stored feature at a location in the stored image where it is determined that there may be a partial image similar to the target image. A feature rematching process for setting and calculating a feature distance with the target feature;
Based on the feature distance, a verification result redetermination process for determining whether or not a partial image similar to the target image exists at the location in the accumulated image group;
A search result candidate selection process in which the location in the stored image determined to have a partial image similar to the target image in the matching result redetermination process is a search result candidate;
A next target subregion feature selection process for designating a target subregion feature to be matched next from the set of target subregion features;
A partial image search method comprising: a next search candidate feature selection step for designating a search candidate feature to be matched next from the set of search candidate features.
前記目的画像と類似する部分画像が前記蓄積画像中の当該箇所に存在するか否かが判定され、
前記索引探索過程において、前記目的部分領域特徴抽出過程から導かれたいずれかの目的部分領域特徴との距離が、前記検索閾値から決定される選択閾値を下回る蓄積部分領域特徴を、前記索引を用いて抽出し、前記照合結果判定過程において、前記距離と、前記選択閾値とが比較され、前記目的画像と類似する部分画像が前記蓄積画像中の当該箇所に存在する可能性の有無が判定されることを特徴とする請求項1に記載の部分画像検索方法。 In the verification result re-determination process, the feature distance is compared with a search threshold that is a threshold corresponding to the feature distance;
It is determined whether or not a partial image similar to the target image exists at the location in the stored image,
In the index search process, the accumulated sub-region feature whose distance from any target sub-region feature derived from the target sub-region feature extraction step is less than a selection threshold determined from the search threshold is used for the index. In the verification result determination process, the distance is compared with the selection threshold value, and it is determined whether or not there is a possibility that a partial image similar to the target image exists at the location in the accumulated image. The partial image search method according to claim 1, wherein:
該検索結果候補から、前記特徴距離に基づいてある候補を検出し、該候補の距離値を新たに検索閾値として設定する検索閾値更新過程と
を備えることを特徴とする請求項2に記載の部分画像検索方法。 In the search result candidate selection process, locations in the stored image that are determined to have a partial image similar to the target image are selected as a predetermined number in order from the smallest feature distance to be search result candidates,
The search threshold update step of detecting a candidate based on the feature distance from the search result candidate and newly setting the distance value of the candidate as a search threshold. Image search method.
を備え、
前記索引検索過程において、前記目的部分領域特徴に替え、前記目的代表特徴抽出過程により導かれた代表特徴を用いることを特徴とする請求項1から請求項3のいずれかに記載の部分画像検索方法。 A target representative feature extraction process for classifying the target partial region features and extracting representative features that are partial region features representing each classification;
4. The partial image search method according to claim 1, wherein, in the index search process, a representative feature derived by the target representative feature extraction process is used instead of the target partial region feature. .
前記距離と前記部分距離とを用い、前記特徴照合過程で照合を行った蓄積部分領域と、前記目的部分領域特徴抽出過程にて抽出された各目的部分領域特徴との距離の距離下限値を計算する周辺距離下限値計算過程と
を備え、
前記次目的部分領域特徴選定過程において、前記距離下限値と、前記選択閾値とを比較し、距離下限値が選択閾値を下回る目的部分領域特徴の箇所を、次に照合すべき部分領域として指定することを特徴とする請求項6に記載の部分画像検索方法。 A distance calculation process between target partial areas for calculating a partial distance of each of the target partial area features;
Using the distance and the partial distance, the distance lower limit value of the distance between the accumulated partial area collated in the feature matching process and each target partial area feature extracted in the target partial area feature extraction process is calculated. And a surrounding distance lower limit calculation process.
In the next target partial area feature selection process, the distance lower limit value is compared with the selection threshold value, and a location of the target partial area feature whose distance lower limit value is lower than the selection threshold value is designated as a partial area to be collated next. The partial image search method according to claim 6.
前記蓄積画像群の各画像の特徴である蓄積特徴を抽出する蓄積特徴抽出部と、
所定の大きさの注目窓を所定の間隔でずらしつつ、各位置における注目窓内の特徴を、蓄積部分領域特徴として抽出する蓄積部分領域特徴抽出部と、
前記蓄積部分領域特徴各々を標識する索引を付与する索引付与部と、
前記目的画像の特徴である目的特徴を抽出する目的特徴抽出部と、
該目的特徴において、所定の大きさの注目窓を設定し、該注目窓をずらしつつ、各位置における注目窓内の特徴を、目的部分領域特徴として抽出する目的部分領域特徴抽出部と、
前記目的部分領域特徴の集合に類似する蓄積部分領域特徴を、前記索引を用いて検索候補特徴として抽出する索引検索部と、
該検索候補特徴と前記目的部分領域特徴との距離を計算する特徴照合過程と、
前記距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かを判定する照合結果判定部と、
前記照合結果判定過程にて、目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴に対し、目的画像と同一の大きさの照合窓を設定し、前記目的特徴との特徴距離を計算する特徴再照合部と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定部と、
前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択部と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定部と、
前記蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域を指定する次検索候補特徴選定部と
を有することを特徴とする部分画像検索装置。 A partial image search device for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image;
A storage feature extraction unit that extracts a storage feature that is a feature of each image of the storage image group;
A storage partial region feature extraction unit that extracts a feature in the target window at each position as a storage partial region feature while shifting a target window of a predetermined size at a predetermined interval;
An indexing unit for providing an index for labeling each of the accumulated partial region features;
A target feature extraction unit that extracts a target feature that is a feature of the target image;
In the target feature, a target window of a predetermined size is set, and a target partial region feature extraction unit that extracts the feature in the target window at each position as the target partial region feature while shifting the target window;
An index search unit that extracts storage partial region features similar to the set of target partial region features as search candidate features using the index; and
A feature matching process for calculating a distance between the search candidate feature and the target partial region feature;
Based on the distance, a matching result determination unit that determines whether or not there is a possibility that a partial image similar to the target image exists in the location in the stored image group;
In the verification result determination process, a verification window having the same size as the target image is provided for the stored feature at a location in the stored image where it is determined that there may be a partial image similar to the target image. A feature re-matching unit that sets and calculates a feature distance from the target feature;
A matching result re-determination unit that determines whether or not a partial image similar to the target image exists in the portion of the accumulated image group based on the feature distance;
A search result candidate selection unit that sets a location in the stored image determined to have a partial image similar to the target image in the matching result redetermination process as a search result candidate;
A next target partial region feature selection unit for designating a target partial region feature to be matched next from the set of target partial region features;
A partial image search device comprising: a next search candidate feature selection unit that specifies a storage partial region to be collated next from the set of storage partial region features.
前記蓄積画像群の各画像の特徴である蓄積特徴を抽出する蓄積特徴抽出処理と、
所定の大きさの注目窓を所定の間隔でずらしつつ、各位置における注目窓内の特徴を、蓄積部分領域特徴として抽出する蓄積部分領域特徴抽出処理と、
前記蓄積部分領域特徴各々を標識する索引を付与する索引付与処理と、
前記目的画像の特徴である目的特徴を抽出する目的特徴抽出処理と、
該目的特徴において、所定の大きさの注目窓を設定し、該注目窓をずらしつつ、各位置における注目窓内の特徴を、目的部分領域特徴として抽出する目的部分領域特徴抽出処理5と、
前記目的部分領域特徴の集合に類似する蓄積部分領域特徴を、前記索引を用いて検索候補特徴として抽出する索引検索処理と、
該検索候補特徴と前記目的部分領域特徴との距離を計算する特徴照合処理と、
前記距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かを判定する照合結果判定処理と、
前記照合結果判定過程にて、目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴に対し、目的画像と同一の大きさの照合窓を設定し、前記目的特徴との特徴距離を計算する特徴再照合処理と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定処理と、
前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択処理と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定処理と、
前記蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域を指定する次検索候補特徴選定処理と
を有する部分画像検索の処理をコンピュータに実行させるプログラム。 A program for causing a computer to execute a partial image search process for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image,
An accumulated feature extraction process for extracting an accumulated feature that is a feature of each image in the accumulated image group;
A storage partial region feature extraction process for extracting features in the target window at each position as storage partial region features while shifting a target window of a predetermined size at a predetermined interval;
An indexing process for providing an index for labeling each of the accumulated partial region features;
A target feature extraction process for extracting a target feature that is a feature of the target image;
A target partial region feature extraction process 5 for setting a target window of a predetermined size in the target feature and extracting the feature in the target window at each position as a target partial region feature while shifting the target window;
Index search processing for extracting accumulated partial area features similar to the set of target partial area features as search candidate features using the index; and
A feature matching process for calculating a distance between the search candidate feature and the target partial region feature;
Based on the distance, a collation result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists in the location in the accumulated image group;
In the verification result determination process, a verification window having the same size as the target image is provided for the stored feature at a location in the stored image where it is determined that there may be a partial image similar to the target image. A feature rematching process for setting and calculating a feature distance from the target feature;
Based on the feature distance, a collation result re-determination process for determining whether or not a partial image similar to the target image exists in the location in the accumulated image group;
A search result candidate selection process in which a location in the stored image determined to have a partial image similar to the target image in the matching result redetermination process is set as a search result candidate;
A next target partial region feature selection process for designating a target partial region feature to be matched next from the set of target partial region features;
A program for causing a computer to execute a partial image search process including: a next search candidate feature selection process for designating a storage partial area to be collated next from the set of storage partial area features.
A computer-readable recording medium on which the partial image search program according to claim 9 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004175866A JP4425719B2 (en) | 2004-06-14 | 2004-06-14 | Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004175866A JP4425719B2 (en) | 2004-06-14 | 2004-06-14 | Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005352990A true JP2005352990A (en) | 2005-12-22 |
JP4425719B2 JP4425719B2 (en) | 2010-03-03 |
Family
ID=35587401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004175866A Expired - Fee Related JP4425719B2 (en) | 2004-06-14 | 2004-06-14 | Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4425719B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010113569A (en) * | 2008-11-07 | 2010-05-20 | Yahoo Japan Corp | Image retrieval device, image retrieval method and program |
-
2004
- 2004-06-14 JP JP2004175866A patent/JP4425719B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010113569A (en) * | 2008-11-07 | 2010-05-20 | Yahoo Japan Corp | Image retrieval device, image retrieval method and program |
Also Published As
Publication number | Publication date |
---|---|
JP4425719B2 (en) | 2010-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107256262B (en) | Image retrieval method based on object detection | |
Makantasis et al. | In the wild image retrieval and clustering for 3D cultural heritage landmarks reconstruction | |
US8798357B2 (en) | Image-based localization | |
KR101191223B1 (en) | Method, apparatus and computer-readable recording medium by for retrieving image | |
US9251434B2 (en) | Techniques for spatial semantic attribute matching for location identification | |
US20180349735A1 (en) | Method and Device for Comparing Similarities of High Dimensional Features of Images | |
CN106557521B (en) | Object indexing method, object searching method and object indexing system | |
AU2018202767B2 (en) | Data structure and algorithm for tag less search and svg retrieval | |
WO2013129580A1 (en) | Approximate nearest neighbor search device, approximate nearest neighbor search method, and program | |
JP2006338313A (en) | Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium | |
Song et al. | 6-DOF image localization from massive geo-tagged reference images | |
US9569698B2 (en) | Method of classifying a multimodal object | |
CN109522434A (en) | Social image geographic positioning and system based on deep learning image retrieval | |
Mithun et al. | Rgb2lidar: Towards solving large-scale cross-modal visual localization | |
US20150086118A1 (en) | Method for recognizing a visual context of an image and corresponding device | |
JP4421527B2 (en) | Video search apparatus, method and program, and recording medium recording program | |
KR20190124436A (en) | Method for searching building based on image and apparatus for the same | |
JP2012079186A (en) | Image retrieval device, image retrieval method and program | |
CN113868351A (en) | Address clustering method and device, electronic equipment and storage medium | |
CN113254687A (en) | Image retrieval and image quantification model training method, device and storage medium | |
JP4343038B2 (en) | Partial image search system, method and program | |
Sui et al. | An accurate indoor localization approach using cellphone camera | |
JP4425719B2 (en) | Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program | |
JP5819158B2 (en) | Program, method and image search apparatus for extracting feature vector suitable for image search | |
Peng et al. | KISS: Knowing camera prototype system for recognizing and annotating places-of-interest |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090421 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091209 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131218 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |