JP2006011622A - Partial image retrieval system, method and program - Google Patents

Partial image retrieval system, method and program Download PDF

Info

Publication number
JP2006011622A
JP2006011622A JP2004184966A JP2004184966A JP2006011622A JP 2006011622 A JP2006011622 A JP 2006011622A JP 2004184966 A JP2004184966 A JP 2004184966A JP 2004184966 A JP2004184966 A JP 2004184966A JP 2006011622 A JP2006011622 A JP 2006011622A
Authority
JP
Japan
Prior art keywords
feature
target
image
distance
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004184966A
Other languages
Japanese (ja)
Other versions
JP4343038B2 (en
Inventor
Shogo Kimura
昭悟 木村
Takahito Kawanishi
隆仁 川西
Kunio Kayano
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004184966A priority Critical patent/JP4343038B2/en
Publication of JP2006011622A publication Critical patent/JP2006011622A/en
Application granted granted Critical
Publication of JP4343038B2 publication Critical patent/JP4343038B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a partial image retrieval system, method and program, shortening a time taken in retrieval processing when retrieving a partial image similar to a target image from storage images. <P>SOLUTION: In a partial image retrieval system device, a sample characteristic and a distance between the sample characteristics are prepared, an index is attached to a storage partial area characteristic, the storage partial area characteristic similar to a target partial area characteristic is extracted by the index as a retrieval candidate characteristic, a distance between the retrieval candidate characteristic and the target partial area characteristic is calculated by the distance between the sample characteristics corresponding to combination of the retrieval candidate characteristic and the target partial area characteristic, presence of a storage image group of the similar partial image is decided, the same collation window as the target image is set to a storage characteristic inside the storage images decided that the partial image similar to the target image is present, a characteristic distance to a target characteristic is calculated from the distance between the sample characteristics, and presence/absence of the presence of the partial image similar to the target image in a corresponding position inside the storage image group is decided. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、蓄積された複数の画像から、与えられた画像と類似した部分画像を含む画像及びその部分画像が含まれている位置を同定するのに適した部分画像検索システム及び方法並びにプログラムに関する。   The present invention relates to a partial image search system, method, and program suitable for identifying an image including a partial image similar to a given image and a position where the partial image is included from a plurality of stored images. .

デジタルカメラの普及や記録媒体の大容量化・低価格化、さらに大容量ネットワークの普及により、容易に大容量のデジタル画像を取得して保存する環境が整ってきている。
そのため、大量の画像から所望の画像を高速に探し出す高速画像検索技術が必要となってきており、特に画像の部分検索は、検索したい画像が蓄積されている画像の一部分であるため、比較の処理が多くなり、さらに高速性が要求される。
この部分画像検索技術は、膨大な画像データベースの中から、高速に目的の画像をその一部分として含む画像を検索する画像検出技術に用いられる。
With the spread of digital cameras, the increase in capacity and price of recording media, and the spread of large-capacity networks, an environment for easily acquiring and storing large-capacity digital images has been established.
For this reason, high-speed image search technology for quickly searching for a desired image from a large number of images is required. In particular, the partial image search is a part of the image in which the image to be searched is stored. In addition, higher speed is required.
This partial image retrieval technique is used for an image detection technique for retrieving an image including a target image as a part thereof from a huge image database at high speed.

例えば、画像データベースに蓄積された画像の中から、特定人物の顔が撮影されている画像を検出してユーザに提示したり、特定の物体や建造物などが撮影されている画像を含まれるホームページを検索したりする検索技術に用いられる。
従来、上記部分画像検索方法に関しては、見本となる検索したい画像と類似した画像の場所の探索を、より大きなサイズの画像の中から漏れなく正確に、高速に実行するための高速部分画像検出方法として、画像を小領域に分割して抽出した特徴をベクトル量子化し、その結果に基づいて、信号全体から照合のための特徴であるヒストグラムを作成する高速信号照合方法が知られている(例えば、特許文献1及び2参照)。
特開平07−262373号公報 特許第3065314号
For example, a homepage that includes an image in which a face of a specific person is captured from images stored in an image database and presented to the user, or an image in which a specific object or building is captured It is used for search technology that searches for.
Conventionally, with regard to the partial image search method, a high-speed partial image detection method for accurately and rapidly executing a search for an image location similar to an image to be searched as a sample from a larger size image without omission As described above, there is known a high-speed signal matching method that vector-quantizes features extracted by dividing an image into small regions and creates a histogram that is a feature for matching from the entire signal based on the result (for example, (See Patent Documents 1 and 2).
JP 07-262373 A Japanese Patent No. 30653314

しかしながら、上述した従来の部分画像検出方法にあっては、小領域の特徴をベクトル量子化し、その量子化結果からヒストグラムを作成して、比較のためのデータ量を低減しているが、比較演算するデータ量から考えると、データ量の削減が十分ではなく、ヒストグラムによる比較においても計算時間が非常に長く必要となるため、蓄積画像における部分画像の探索の時間を大幅に低減できないという欠点がある。
また、従来の部分画像検出方法にあっては、画像の特徴をベクトル量子化したものを、ヒストグラムに変換してしまうため、照合の際に部分画像内における目的画像の位置関係を正確に考慮することができないという欠点がある。
本発明は、このような事情に鑑みてなされたもので、目的画像と、蓄積画像における目的画像に類似した部分画像との類似を判定する際に、比較するデータ量を低減させ、検索処理にかかる時間を短縮し、かつ照合の際に部分画像内における目的画像の位置関係を、正確に検出する部分画像検索システム及び方法並びにプログラムを提供することを目的とする。
However, in the conventional partial image detection method described above, the feature of a small region is vector-quantized and a histogram is created from the quantization result to reduce the amount of data for comparison. In view of the amount of data to be stored, the amount of data is not sufficiently reduced, and the calculation time is also very long for comparison using histograms. Therefore, there is a disadvantage that the time for searching for a partial image in the stored image cannot be significantly reduced. .
Further, in the conventional partial image detection method, since the vector quantization of the image features is converted into a histogram, the positional relationship of the target image in the partial image is accurately taken into consideration at the time of matching. There is a drawback that you can not.
The present invention has been made in view of such circumstances, and when determining the similarity between a target image and a partial image similar to the target image in the stored image, the amount of data to be compared is reduced and search processing is performed. It is an object of the present invention to provide a partial image search system, method, and program for reducing such time and accurately detecting the positional relationship of target images in a partial image at the time of collation.

本発明の部分画像検索方法は、データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索方法であり、部分画像を検出するとき、見本となる典型的な特徴パターンを有する見本特徴を複数種類作成する見本特徴作成過程と、該見本特徴各々の間の距離である見本特徴間距離を演算する見本特徴間距離計算過程と、蓄積画像群の各画像から複数の少領域を選択し、各小領域における画像の特徴である蓄積特徴を抽出する蓄積特徴抽出過程と、該蓄積特徴と前記見本特徴とを比較し、各蓄積特徴に対して前記見本特徴に対応する符号を割り当てる蓄積特徴量子化過程と、該符号の集合に対して、所定の大きさの注目窓を所定の間隔にて配置して、各注目窓内の符号の集合である蓄積部分領域特徴を抽出する蓄積部分領域特徴抽出過程と、前記蓄積部分領域特徴に索引を付与する索引付与過程と、目的画像から複数の小領域を選択し、この小領域各々の特徴を目的特徴として抽出する目的特徴抽出過程と、該目的特徴と、前記見本特徴とを比較することにより、前記目的特徴に対して、見本特徴に対応する符号を割り当てる目的特徴量子化過程と、前記目的特徴量子化過程で求められた符号の集合に予め定められた所定の大きさの注目窓を設定し、この注目窓をずらしながら各注目窓内の符号の集合である目的部分領域特徴を抽出する目的部分領域特徴抽出過程と、前記索引により、目的部分領域特徴の集合に類似する蓄積部分領域特徴を抽出する索引検索過程と、前記索引検索過程において導かれた蓄積部分領域特徴と前記目的部分領域特徴抽出過程で導かれた目的部分領域特徴との距離を、前記見本特徴間距離に基づいて演算する特徴照合過程と、前記距離に基づいて、目的画像に類似する部分画像が、蓄積画像群中の当該箇所に存在する可能性の有無の判定を行う照合結果判定過程と、前記照合結果判定過程において目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴の符号に目的画像と同一の大きさの照合窓を設定し、該照合窓内の符号の集合と、前記目的特徴の符号の集合との特徴距離を前記見本特徴間距離に基づいて演算する特徴再照合過程と、前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定す
る照合結果再判定過程と、前記照合結果再判定過程において、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択過程と、前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定過程と、記検索候補特徴の集合の中から、次の照合すべき検索候補特徴を指定する次検索候補特徴選定過程とを有することを特徴とする。
The partial image search method of the present invention is a partial image search method for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database, and a position of the partial image in the image. When detecting partial images, a sample feature creating process for creating a plurality of types of sample features having a typical feature pattern as a sample, and a sample feature for calculating a distance between sample features which is a distance between the sample features An inter-distance calculation process, an accumulated feature extraction process of selecting a plurality of small regions from each image of the accumulated image group, and extracting an accumulated feature that is an image feature in each small region, and the accumulated feature and the sample feature In comparison, an accumulated feature quantization process in which a code corresponding to the sample feature is assigned to each accumulated feature, and an attention window of a predetermined size is arranged at a predetermined interval for the set of codes. A storage sub-region feature extraction process for extracting a storage sub-region feature that is a set of codes within each window of interest, an indexing process for assigning an index to the storage sub-region feature, and a plurality of small regions from the target image are selected. A purpose feature extraction process for extracting each feature of each small region as a target feature, and a purpose of assigning a code corresponding to the sample feature to the target feature by comparing the target feature with the sample feature A target window of a predetermined size is set in the feature quantization process and the set of codes obtained in the target feature quantization process, and the set of codes in each target window is shifted while shifting the target window. A target sub-region feature extraction process for extracting a target sub-region feature, an index search process for extracting a stored sub-region feature similar to a set of target sub-region features by the index, and an index search process. Based on the distance, a feature matching process that calculates the distance between the accumulated partial area feature derived and the target partial area feature derived in the target partial area feature extraction process based on the distance between the sample features, A matching result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists at the location in the stored image group, and a partial image similar to the target image may exist in the matching result determination process. At a location in the stored image that is determined to have a characteristic, a collation window having the same size as the target image is set for the code of the stored feature, and a set of codes in the collation window and the code of the target feature A feature re-matching process for calculating a feature distance with a set based on the distance between sample features, and whether or not a partial image similar to a target image exists at the location in the accumulated image group based on the feature distance Determine A collation result redetermination process; a search result candidate selection process in which a location in the stored image that is determined to have a partial image similar to the target image in the collation result redetermination process; and the target partial region The next target subregion feature selection process that specifies the target subregion feature to be matched next from the feature set, and the next search candidate feature to be matched from the set of search candidate features And a search candidate feature selection process.

以上説明したように、本発明によれば、画像の特徴の典型的なパターンである見本特徴の集合を準備し、この見本特徴各々の間の距離を予め計算しておき、目的特徴及び蓄積特徴おのおのに対応する見本特徴を選択して、照合時にこの見本特徴の距離を用いることにより、照合に於ける距離の演算を行わないようにし、かつ照合のための特徴を符号列で表現することにより、従来例に比較して照合処理を高速化することができる。
また、本発明によれば、照合のための特徴を、ヒストグラムを用いた量子化処理を行わなわずに、特徴に対して符号を付して表現することにより、画像内の位置関係を保持することができる。
As described above, according to the present invention, a set of sample features, which is a typical pattern of image features, is prepared, and the distance between each of the sample features is calculated in advance, and the target feature and the stored feature are stored. By selecting the sample feature corresponding to each and using the distance of this sample feature at the time of matching, the calculation of the distance in the matching is not performed, and the feature for matching is expressed by a code string Compared with the conventional example, the collating process can be speeded up.
In addition, according to the present invention, the positional relationship in the image is maintained by expressing the feature for matching by adding a sign to the feature without performing the quantization process using the histogram. be able to.

<第1の実施例>
以下、本発明の第1の実施例による部分画像検索装置を図面を参照して説明する。図1は上記第1の実施例の部分画像検索装置の一構成例を示すブロック図である。
この図において、本実施例の部分画像検索システムは、見本特徴作成部1と、見本特徴間距離計算部2と、蓄積特徴抽出部3と、蓄積特徴量子化部4と、蓄積部分領域特徴抽出部5と、索引付与部6と、目的特徴抽出部7と、目的特徴量子化部8と、目的部分領域特徴抽出部9と、索引検索部10と、特徴照合部11と、照合結果判定部12と、特徴再照合部13と、照合結果再判定部14と、検索結果候補選択部l5と、次目的部分領域特徴選定定部16と、次検索候補特徴選定部17とを有しており、目的画像、すなわち参照している検索したい画像と、データベース等に蓄積されている蓄積画像群、すなわち検索される被検索画像である蓄積画像の集合を入力とし、上記目的画像と類似する部分画像が含まれている蓄積画像内の箇所を出力する。
<First embodiment>
Hereinafter, a partial image search apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of the partial image search apparatus of the first embodiment.
In this figure, the partial image search system according to the present embodiment includes a sample feature creation unit 1, a sample feature distance calculation unit 2, an accumulation feature extraction unit 3, an accumulation feature quantization unit 4, and an accumulation partial region feature extraction. Unit 5, index assignment unit 6, target feature extraction unit 7, target feature quantization unit 8, target partial region feature extraction unit 9, index search unit 10, feature matching unit 11, and matching result determination unit 12, a feature re-collation unit 13, a collation result redetermination unit 14, a search result candidate selection unit 15, a next target partial region feature selection determination unit 16, and a next search candidate feature selection unit 17. A target image, that is, a reference image to be searched and a group of stored images stored in a database or the like, that is, a set of stored images that are searched images to be searched, and a partial image similar to the target image The location in the stored image that contains Forces.

見本特徴作成部1は、画像を検索する際に用いるため、画像の特徴において、見本となる典型的な特徴パターンである見本特徴を、複数の画像パターンに対応して作成する。
見本特徴間距離計算部2は、上述した各見本特徴間の距離である見本特徴間距離を計算する。また、見本特徴間距離計算部2は、データベースにおいて、上記見本特徴間距離を、各見本特徴の組合せに対応して記憶させても良い。
上記見本特徴間距離は、ユークリッド距離,マンハッタン距離,内積,正規化相互相関などを用いることが出来る。
蓄積特徴抽出部3は、蓄積画像群の画像各々において、所定の大きさの小領域を設定して、この小領域単位に画像を切り出し、この複数の小領域の画像各々の特徴を、蓄積特徴として抽出する。
The sample feature creation unit 1 creates sample features corresponding to a plurality of image patterns, which are typical feature patterns that serve as samples, for use in searching for images.
The distance between sample features 2 calculates the distance between sample features, which is the distance between the sample features described above. Further, the distance between sample features 2 may store the distance between the sample features in correspondence with each combination of the sample features in the database.
As the distance between the sample features, Euclidean distance, Manhattan distance, inner product, normalized cross-correlation, or the like can be used.
The accumulated feature extraction unit 3 sets a small area of a predetermined size in each image of the accumulated image group, cuts out an image in units of the small area, and stores the characteristics of the images of the plurality of small areas as accumulated characteristics. Extract as

蓄積特徴量子化部4は、上記蓄積特徴抽出部3の出力する蓄積特徴について、上記見本特徴作成部1から出力される各見本特徴と比較し、この蓄積特徴に近似する見本特徴に対応する所定の符号を割り当てる。
蓄積部分領域特徴抽出部5は、上記蓄積特徴抽出部3から出力された符号の集合に対し、予め定められた所定の大きさの注目窓を、予め定められた所定の間隔で設定し(所定の間隔でずらし)、各注目窓内に含まれる上記符号の集合である蓄積部分領域特徴を抽出する。
索引付与部6は、上記蓄積部分領域特徴抽出部5から出力される各蓄積部分領域特徴を、各々ベクトル量子化し、ベクトル量子化の符号語を、標識のための索引として付与する。
The accumulated feature quantizing unit 4 compares the accumulated feature output from the accumulated feature extracting unit 3 with each sample feature output from the sample feature creating unit 1 and corresponds to a predetermined sample feature that approximates the accumulated feature. Is assigned.
The accumulation partial region feature extraction unit 5 sets a predetermined window of a predetermined size for the set of codes output from the accumulation feature extraction unit 3 at a predetermined interval (predetermined) And the accumulated partial area feature that is a set of the codes included in each window of interest is extracted.
The index assigning unit 6 vector-quantizes each accumulated partial region feature output from the accumulated partial region feature extracting unit 5, and assigns a vector quantization codeword as an index for a sign.

目的特徴抽出部7は、目的画像において、所定の大きさの小領域を設定して、この小領域単位に画像を切り出し、この複数の小領域の画像各々の特徴を、目的特徴として抽出する。
目的特徴量子化部8は、上記目的特徴抽出部7の出力する目的特徴について、上記見本特徴作成部1から出力される各見本特徴と比較し、この蓄積特徴に近似する見本特徴に対応する所定の符号を割り当てる。
目的部分領域特徴抽出部9は、上記目的特徴抽出部4から出力された符号の集合に対し、予め定められた所定の大きさの注目窓を、予め定められた所定の間隔で設定し(所定の間隔でずらし)、各注目窓内に含まれる上記符号の集合である目的部分領域特徴を抽出する。
The target feature extraction unit 7 sets a small region of a predetermined size in the target image, cuts out the image in units of the small region, and extracts the features of the images of the plurality of small regions as target features.
The target feature quantizing unit 8 compares the target feature output from the target feature extracting unit 7 with each sample feature output from the sample feature creating unit 1 and compares the target feature with a predetermined sample feature that approximates the accumulated feature. Is assigned.
The target partial region feature extraction unit 9 sets a predetermined window of a predetermined size with respect to the set of codes output from the target feature extraction unit 4 at predetermined predetermined intervals (predetermined The target partial region feature that is a set of the codes included in each window of interest is extracted.

索引検索部10は、上記索引付与部6から出力される索引を用いて、上記目的部分領域特徴抽出部9から出力される目的部分領域特徴の集合に対して、類似する蓄積部分領域特徴の抽出を行う。
特徴照合部11は、上記索引検索部10の抽出した蓄積部分領域特徴と、目的部分領域特徴抽出部9の抽出した目的部分領域特徴との距離を、各々の符号に対応する見本特徴の組合せにより、上記データベースから対応する見本特徴間距離を抽出することにより演算する。
照合結果判定部12は、上記特徴照合部11の演算した距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在する可能性があるか否かの判定を行う。
The index search unit 10 extracts similar accumulated partial region features to the set of target partial region features output from the target partial region feature extraction unit 9 using the index output from the index assigning unit 6. I do.
The feature matching unit 11 determines the distance between the accumulated partial region feature extracted by the index search unit 10 and the target partial region feature extracted by the target partial region feature extraction unit 9 by a combination of sample features corresponding to the respective codes. The calculation is performed by extracting the distance between the corresponding sample features from the database.
Based on the distance calculated by the feature matching unit 11, the matching result determination unit 12 determines whether or not there is a possibility that a partial image similar to the target image exists in the location in the stored image group.

特徴再照合部13は、上記照合結果判定部12により、目的画像と類似する部分蓄像が存在する可能性があると判定した場合、判定された蓄積画像における箇所において、蓄積特徴抽出部3の抽出した蓄積特徴に対し、目的画像と同じ大きさの照合窓を設定して、この照合窓内に含まれる符号の集合と、前記蓄積特徴量子化部4から出力された符号の集合との特徴距離を、特徴照合部11と同様に前記見本特徴間距離に基づいて演算する。
照合結果再判定部14は、上記照合結果判定部13において用いられた距離に基づいて、目的画像と類似する部分画像が、蓄積画像群中の当該箇所に存在するか否かの判定を行う。
When it is determined by the matching result determination unit 12 that there is a possibility that a partial accumulation similar to the target image exists, the feature re-collation unit 13 determines whether the accumulated feature extraction unit 3 A collation window having the same size as the target image is set for the extracted accumulated feature, and a set of codes included in the collation window and a set of codes output from the accumulated feature quantization unit 4 The distance is calculated based on the distance between the sample features as in the feature matching unit 11.
The collation result re-determination unit 14 determines whether or not a partial image similar to the target image exists at the location in the stored image group based on the distance used in the collation result determination unit 13.

検索結果候補選択部15は、上記照合結果再判定部14において目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を、詳細な類似性の検討を行う検索結果候補とする。
次目的部分領域特徴選定部16は、上記目的部分領域特徴抽出部9において抽出された目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴の指定を行う。
次検索候補特徴選定部17は、上記索引検索部10から検索結果として出力された蓄積部分領域特徴の集合の中から、次に照合すべき蓄積部分領域の指定を行う。
The search result candidate selection unit 15 sets a location in the accumulated image determined as having a partial image similar to the target image by the collation result re-determination unit 14 as a search result candidate for performing detailed similarity examination.
The next target partial region feature selection unit 16 designates a target partial region feature to be collated next from the set of target partial region features extracted by the target partial region feature extraction unit 9.
The next search candidate feature selection unit 17 designates a storage partial region to be collated next from a set of storage partial region features output as a search result from the index search unit 10.

次に、図1及び図2を参照して、上述した部分画像検索装置の動作を説明する。図2は、図1の第1の実施例による部分画像検索システムの一動作例を具体的に示すフローチャートである。
見本特徴作成部1は、学習信号(画像)を読み込み(ステップS1)、この学習信号から見本特徴を抽出しても良いし、後に述べるように学習信号を読み込まずに、蓄積画像から見本特徴を抽出するための画像を選択して、見本特徴を抽出してもよい。
学習信号としては、複数の画像、例えば、1000枚の画像群など、十分に学習可能な多数の画像を用いるのが好ましい。ここで、見本特徴作成部1は、クラスタリングアルゴリズムを用いて、典型的に出現する特徴パターンの学習を行う。
また、これ以降の処理において、見本特徴の抽出に対して、学習信号を用いない場合、学習信号を読み込む必要、すなわち、ステップS1の処理を行う必要はない。
Next, the operation of the partial image search apparatus described above will be described with reference to FIGS. FIG. 2 is a flowchart specifically showing an operation example of the partial image search system according to the first embodiment of FIG.
The sample feature creation unit 1 may read a learning signal (image) (step S1) and extract a sample feature from this learning signal, or may read a sample feature from an accumulated image without reading a learning signal as described later. A sample feature may be extracted by selecting an image to be extracted.
As the learning signal, it is preferable to use a plurality of images that can be sufficiently learned, such as a plurality of images, for example, a group of 1000 images. Here, the sample feature creation unit 1 learns feature patterns that typically appear using a clustering algorithm.
Further, in the subsequent processing, when the learning signal is not used for sample feature extraction, it is not necessary to read the learning signal, that is, it is not necessary to perform the processing of step S1.

次に、見本特徴作成部1は、入力した学習信号の画像から、後に述べる蓄積特徴抽出部3と同様の処理により、この画像を識別できる特徴を抽出する。
ここで、学習信号の画像から抽出した特徴を、以下、学習特徴と呼ぶ。
また、学習信号を用いない場合、このステップS2の処理を行わない。
そして、見本特徴作成部1は、以降の処理に用いる典型的な画像の特徴パターンである見本特徴の抽出を行う(ステップS2)。
このとき、見本特徴作成部1は、学習信号を用いない場合、見本特徴の抽出処理として、予め定められた確率分布、例えば、多次元ガウス分布に従って見本特徴をランダムに発生させることにより行う。
Next, the sample feature creation unit 1 extracts a feature that can identify this image from the input image of the learning signal by the same process as the accumulated feature extraction unit 3 described later.
Here, the feature extracted from the image of the learning signal is hereinafter referred to as a learning feature.
Further, when the learning signal is not used, the process of step S2 is not performed.
Then, the sample feature creation unit 1 extracts a sample feature that is a typical image feature pattern used in the subsequent processing (step S2).
At this time, when no learning signal is used, the sample feature creation unit 1 performs sample feature generation by randomly generating a sample feature according to a predetermined probability distribution, for example, a multidimensional Gaussian distribution.

本実施例の場合は、上述したように見本特徴作成部1に見本特徴を発生させ、学習信号を用いずに見本特徴を作成している。
また、他の実施例として、学習特徴をベクトルとして、そのベクトルに対してベクトル量子化を行いて分類して(クラスタリングを行い)、見本特徴の抽出を行う様にしても良い。例えば、ベクトル量子化の符号の語数が1024個で有れば、学習特徴を1024の集合(以下、クラスタと呼ぶ)のいずれか一つのクラスタに分類することができる。
ここで、各クラスタに所属する学習特徴の重心となる特徴を、見本特徴とする。
そして、見本特徴作成部1は、上述のいずれかの方法により生成した見本特徴の集合を出力する。
In the case of the present embodiment, the sample feature is generated in the sample feature creation unit 1 as described above, and the sample feature is created without using the learning signal.
As another example, the learning feature may be used as a vector, and the vector feature may be subjected to vector quantization and classified (clustering) to extract the sample feature. For example, if the number of words of a vector quantization code is 1024, learning features can be classified into any one of 1024 sets (hereinafter referred to as clusters).
Here, the feature serving as the center of gravity of the learning feature belonging to each cluster is set as a sample feature.
Then, the sample feature creation unit 1 outputs a set of sample features generated by any of the methods described above.

次に、見本特徴間距離計算部2は、上記見本特徴の集合を読み込む(必要に応じて、特徴存在範囲確定部22の出力する、見本特徴に対応した特徴存在範囲を読み込む)。
そして、見本特徴間距離計算部2は、見本特徴の集合において、全ての見本特徴の組合せを選択し、この組合せ毎に見本特徴間の距離である見本特徴間距離の演算を行う。
このとき、見本特徴間距離計算部2は、上記見本特徴間距離として、例えば、見本特徴ベクトル間の自乗誤差を計算し、見本特徴間距離とする(ステップS3)。
他の実施例として、見本特徴に対応した特徴存在範囲を用いて見本特徴間距離を定義することもできる。
例えば、特徴存在範囲を見本特徴を中心とした特徴ベクトル空間内の超球で表現した場合、特徴存在範囲間の最小距離及び最大距離を、見本特徴ベクトル間の距離(自乗誤差)d(fi,fj)と対応する特徴存在範囲の半径ri及びrjを用い、以下の(1)式及び(2)式を用いて計算できる。
Next, the sample feature distance calculation unit 2 reads the set of sample features (reads the feature existence range corresponding to the sample feature output from the feature existence range determination unit 22 as necessary).
The sample feature distance calculation unit 2 selects all combinations of sample features in the set of sample features, and calculates the distance between sample features that is the distance between the sample features for each combination.
At this time, the sample feature distance calculator 2 calculates, for example, a square error between the sample feature vectors as the sample feature distance, and sets it as the sample feature distance (step S3).
As another embodiment, the distance between sample features can be defined using a feature existence range corresponding to the sample feature.
For example, when the feature existence range is represented by a hypersphere in the feature vector space centered on the sample feature, the minimum distance and the maximum distance between the feature existence ranges are expressed as the distance (square error) d (fi, Using the radius ri and rj of the feature existing range corresponding to fj), the following equation (1) and equation (2) can be used.

Figure 2006011622
Figure 2006011622

Figure 2006011622
Figure 2006011622

上記(1)式で求まる特徴存在範囲間の最小距離dmin、または(2)式で求まる特徴存在範囲間の最大距離dmax、もしくはその両方(最小距離及び最大距離)を、見本特徴間距離として定義する。
これにより、見本特徴間距離計算部2は、全見本特徴の組合せ毎に、見本特徴間距離の集合を出力する(データベース等に記憶させることも可能である)。
The minimum distance dmin between the feature existence ranges obtained by the above equation (1), the maximum distance dmax between the feature existence ranges obtained by the equation (2), or both (minimum distance and maximum distance) are defined as the distance between the sample features. To do.
As a result, the sample feature distance calculation unit 2 outputs a set of distances between sample features for each combination of all sample features (can be stored in a database or the like).

次に、蓄積特徴抽出部3は、初めに、蓄積画像群を、図示しないデータベースから読み込む(ステップS4)。
そして、蓄積特徴抽出部3は、読み込んだ蓄積画像群の各画像から、例えば、「8×8」ピクセル程度の大きさの小領域を、縦方向及び横方向に1ピクセルずつずらしながら、画像を切り出し、各小領域に含まれる画像の特徴の抽出を行う(ステップS5)。
ここで、画像の特徴の抽出方法として、例えば、各小領域のRGB値をそのまま用いる。
例えば、蓄積画像の大きさが「384×256」ピクセルであるとき、「8×8×3=192」次元の特徴ベクトルが、1画像あたり、「(384−8+1)×(256−8+1)=93873」個得られる。
Next, the accumulation feature extraction unit 3 first reads an accumulation image group from a database (not shown) (step S4).
Then, the accumulated feature extraction unit 3 shifts an image from each image of the read accumulated image group by shifting a small area having a size of, for example, “8 × 8” pixels by 1 pixel in the vertical and horizontal directions. Cut out and extract the features of the image included in each small area (step S5).
Here, as an image feature extraction method, for example, RGB values of each small region are used as they are.
For example, when the size of the accumulated image is “384 × 256” pixels, a feature vector of “8 × 8 × 3 = 192” dimension is “(384-8 + 1) × (256-8 + 1) = 93873 ”pieces are obtained.

他の実施例として、蓄積特徴抽出部3は、各小領域のRGB値各々に対して、2次元DCT(デジタルコサイン変換)を施し、その係数ベクトルを特徴とすることもできる。
ここで、例えば、蓄積画像の大きさが「384×256」ピクセルであるとすると、「8×8×3=192」次元の特徴ベタトルが、1画像あたり、「(384−8+1)×(256−8+1)=93873」個得られる。
蓄積特徴抽出部3は、上述したいずれかの方法により、蓄積画像から抽出された特徴である蓄積特徴の集合を出力する.
As another embodiment, the accumulated feature extraction unit 3 can perform a two-dimensional DCT (digital cosine transform) on each of the RGB values of each small region, and characterize the coefficient vector.
Here, for example, assuming that the size of the accumulated image is “384 × 256” pixels, the feature vector of “8 × 8 × 3 = 192” dimension is “(384-8 + 1) × (256” per image. −8 + 1) = 93873 ”is obtained.
The accumulated feature extraction unit 3 outputs a set of accumulated features that are features extracted from the accumulated image by any of the methods described above.

次に、蓄積特徴量子化部4は、見本特徴作成部1から出力された見本特徴の集合と、蓄積特徴抽出部3から出力された蓄積特徴の集合とを読み込む。
そして、蓄積特徴量子化部4は、各蓄積特徴毎に、見本特徴の集合の各見本特徴と照合し、蓄積特徴量各々に対して、見本特徴に対応した符号を1つ割り当てる。
このとき、蓄積特徴量子化部4は、蓄積特徴と各見本特徴との距離、例えば自乗誤差を計算し、最も距離が近い見本特徴に対応した符号をこの蓄積特徴に割り当てる(ステップS6)。
例えば、1024個の見本特徴を準備した場合、各見本特徴毎に1から1024までの番号をそれぞれ割り当て、その番号を符号とする。
Next, the accumulated feature quantization unit 4 reads the set of sample features output from the sample feature creating unit 1 and the set of accumulated features output from the accumulated feature extracting unit 3.
Then, the accumulated feature quantization unit 4 collates with each sample feature of the set of sample features for each accumulated feature, and assigns one code corresponding to the sample feature to each accumulated feature amount.
At this time, the accumulated feature quantization unit 4 calculates a distance, for example, a square error, between the accumulated feature and each sample feature, and assigns a code corresponding to the sample feature with the closest distance to the accumulated feature (step S6).
For example, when 1024 sample features are prepared, a number from 1 to 1024 is assigned to each sample feature, and the number is used as a code.

他の実施形態として、蓄積特徴量子化部4は、蓄積特徴と各見本特徴との距離を計算し、最も距離が近い見本特徴との距離が予め定められた閾値である割当閾値を下回る場合、その見本特徴に対応した符号を割り当て、距離が割当閾値を上回る場合、どの見本特徴にも対応しない別の符号、例えば、上述した例においては、 1025等の番号を符号として割り当てる構成としてもよい。
そして、蓄積特徴量子化部4は、上述した方法のいずれかを用い、各蓄積特徴から抽出した符号列の集合を出力する。
As another embodiment, the accumulated feature quantizing unit 4 calculates the distance between the accumulated feature and each sample feature, and when the distance between the nearest sample feature is below an assigned threshold that is a predetermined threshold, When a code corresponding to the sample feature is assigned and the distance exceeds the assignment threshold, another code that does not correspond to any sample feature, for example, in the above-described example, a number such as 1025 may be assigned as the code.
Then, the accumulated feature quantization unit 4 outputs a set of code strings extracted from each accumulated feature using any of the methods described above.

次に、蓄積部分領域特徴抽出部5は、蓄積特徴量子化部4から、符号列の集合を読み込み、蓄積画像のある1つの箇所に、予め定められた所定の大きさの第1注目窓を設定する。
例えば、この第1注目窓は、大きさが64×64ピクセルであり、初期状態として蓄積画像の左上の角に配置される。
そして、蓄積部分領域特徴抽出部5は、設定された上記第1注目窓内に含まれる符号の集合を抽出し、抽出した符号を順に並べてベクトルとしたものを照合のための特徴として用い、以下、この特徴を蓄積部分領域特徴とする(ステップS7)。
ここで、符号の集合の抽出方法として、例えば、第1注目窓内に、重複することも隙間も存在しない状態に、上記小領域を配置して、この各小領域毎に対応する符号を抽出する。
このとき、「(64/8)×(64/8)×3=64」次元の特徴のベクトル、すなわち蓄積部分領域特徴を1つ得る。
Next, the accumulation partial region feature extraction unit 5 reads a set of code strings from the accumulation feature quantization unit 4 and sets a first target window of a predetermined size in a certain location of the accumulation image. Set.
For example, the first window of interest has a size of 64 × 64 pixels, and is arranged in the upper left corner of the stored image as an initial state.
Then, the accumulation partial region feature extraction unit 5 extracts a set of codes included in the set first attention window, uses the extracted codes in order as vectors, and uses them as features for matching. This feature is used as a storage partial region feature (step S7).
Here, as a method for extracting a set of codes, for example, the small areas are arranged in the first target window in a state where there is no overlap and no gap, and a code corresponding to each small area is extracted. To do.
At this time, a feature vector of “(64/8) × (64/8) × 3 = 64” dimension, that is, one accumulated partial region feature is obtained.

上記第1注目窓は、各蓄積画像内において、予め定められた所定の間隔により、複数設定され、各注目窓内の部分領域から蓄積部分領域特徴を抽出する。
すなわち、第1注目窓(横ωxピクセル×縦ωyピクセル)は、各蓄積画像内において、縦及び横方向に、上記所定の間隔(各注目窓の同一の辺同士の間隔であり、例えば左辺同士、上辺同士の間隔として、横方向にmxピクセル,縦方向にmyピクセル)で順次ずらして配置されている。
A plurality of the first attention windows are set at predetermined intervals in each accumulated image, and the accumulated partial area features are extracted from the partial areas in each attention window.
That is, the first window of interest (horizontal ωx pixel × vertical ωy pixel) is the predetermined interval (interval between the same sides of each window of interest) in each accumulated image in the vertical and horizontal directions. , The intervals between the upper sides are sequentially shifted by mx pixels in the horizontal direction and my pixels in the vertical direction.

例えば、第1注目窓を縦横それぞれ16ピクセルの間隔で配置し、蓄積画像の大きさが「384×256」ピクセルであるとすると、第1注目窓が「64×64」ピクセルであるために1画像あたり、「21×13=273」個の第1注目窓が設定されることになる。
また、第1注目窓の配置間隔を、以下マージンと呼ぶことにする。
そして、蓄積部分領域特徴抽出部5は、上記第1注目窓毎に得られた蓄積部分領域特徴の集合を出力する。
For example, if the first window of interest is arranged at intervals of 16 pixels vertically and horizontally, and the size of the accumulated image is “384 × 256” pixels, the first window of interest is “64 × 64” pixels. For each image, “21 × 13 = 273” first attention windows are set.
In addition, the arrangement interval of the first window of interest is hereinafter referred to as a margin.
Then, the storage partial region feature extraction unit 5 outputs a set of storage partial region features obtained for each first window of interest.

次に、索引付与部6は、蓄積部分領域特徴抽出部5の抽出した蓄積部分領域特徴の集合を読み込み、この読み込んだ各部分領域特徴に対して、検索を容易にするための索引を付与する。
このとき、索引付与部6は、必要に応じて、見本特徴作成部1から出力される見本特徴の集合と、見本特徴間距離計算部2から出力される見本特徴間距離を読み込む。
ここで、索引付与部6は、部分領域特徴を構成する符号列に対して、索引を付与する(ステップS8)。
例えば、予め作成された部分領域特徴である蓄積代表特徴の集合を用いて、各部分領域特徴を構成する符号列を量子化し、量子化の符号語を索引とする。
すなわち、上記方法について簡単に説明すると、はじめに、索引付与部6は、蓄積部分領域特徴の集合を読み込む。
Next, the index assigning unit 6 reads the set of accumulated partial region features extracted by the accumulated partial region feature extracting unit 5 and assigns an index for facilitating the search to each read partial region feature. .
At this time, the index assigning unit 6 reads the sample feature set output from the sample feature creation unit 1 and the sample feature distance output from the sample feature distance calculation unit 2 as necessary.
Here, the index assigning unit 6 assigns an index to the code string constituting the partial region feature (step S8).
For example, a set of accumulated representative features, which are partial region features created in advance, is used to quantize a code string constituting each partial region feature, and use the quantized code word as an index.
That is, the above method will be briefly described. First, the index assigning unit 6 reads a set of accumulated partial region features.

次に、索引付与部6は、各部分領域特徴(符号列)のクラスタリングを行う。すなわち、部分領域特徴間の距離を、後述する特徴照合部11と同様に計算することとし、上記蓄積代表特徴の集合から、蓄積部分領域特徴との距離が最も小さくなる蓄積代表特徴を選び出し、該蓄積代表特徴に対応する符号である代表特徴番号を出力することによって行われる。
そして、索引付与部6は、索引として、各部分領域特徴に対応する代表特徴番号を出力する。
他の実施例として、例えば、読み込んだ見本特徴の集合を用いて、部分領域特徴を構成する各符号を、対応する見本特徴ベクトルに展開し、それらを連結したベクトルに対して索引を付与する。
Next, the index assigning unit 6 performs clustering of each partial region feature (code string). That is, the distance between the partial area features is calculated in the same manner as the feature matching unit 11 described later, and an accumulated representative feature having the smallest distance from the accumulated partial area feature is selected from the set of accumulated representative features, This is done by outputting a representative feature number that is a code corresponding to the stored representative feature.
Then, the index assigning unit 6 outputs a representative feature number corresponding to each partial region feature as an index.
As another embodiment, for example, by using a set of read sample features, each code constituting a partial region feature is expanded into a corresponding sample feature vector, and an index is assigned to a vector obtained by connecting them.

例えば、「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002−236496)記載の実施例のように、予め作成されたベクトル量子化符号帳を用いて、各部分領域画像の特徴ベクトルをベクトル量子化し、ベクトル量子化の符号語を索引とする。
すなわち、上記方法について簡単に説明すると、はじめに、索引付与部6は、蓄積部分領域特徴の符号列を展開したベクトルである展開ベクトルの集合を読み込む。
次に、索引付与部6は、各展開ベクトルのクラスタリングを行う。このクラスタリングは、例えば、各展開ベクトルを、ベクトル量子化を用いて符号化することによって行う。
例えば、ベクトル量子化の符号語数が1024個であれば、展開ベクトルは1024個のクラスタのいずれかに分類されることになる。
For example, as in the embodiment described in “Signal Detection Method, Signal Detection Device, Recording Medium, and Program” (Japanese Patent Application Laid-Open No. 2002-236696), a feature of each partial region image is created using a vector quantization codebook created in advance. The vector is vector-quantized, and the codeword of vector quantization is used as an index.
That is, the above method will be briefly described. First, the index assigning unit 6 reads a set of expansion vectors, which are vectors obtained by expanding a code string of accumulated partial region features.
Next, the index assigning unit 6 performs clustering of each expansion vector. This clustering is performed, for example, by encoding each expansion vector using vector quantization.
For example, if the number of code words of vector quantization is 1024, the expansion vector is classified into one of 1024 clusters.

ここで、ベクトル量子化は、例えば、自乗誤差を距離関数として用い、クラスタ重心との距離が他のどのクラスタ重心との距離よりも小さくなるクラスタに展開ベクトルを所属させ、クラスタに対応する符号語を出力することによって行われる。
このクラスタは、例えば、クラスタ作成のために予め容易された、展開ベクトルと同じ次元数のベクトルである学習ベクトルを用いて予め作成しておく。
すなわち、クラスタは、それに所属する学習ベクトルとクラスタ重心との距離の総和が最小になるように、かつそのクラスタに所属する学習ベクトルについて、所属するクラスタのクラスタ重心との距離が、他のどのクラスタ重心との距離よりも小さくなるように構成される。
そして、索引付与部6は、索引として、各展開ベクトルに対応する、ベクトル量子化の符号語を出力する。
Here, the vector quantization uses, for example, the square error as a distance function, assigns the expansion vector to a cluster whose distance from the cluster centroid is smaller than the distance from any other cluster centroid, and codeword corresponding to the cluster This is done by outputting
This cluster is created in advance using, for example, a learning vector that is a vector having the same number of dimensions as the expansion vector, which has been facilitated in advance for creating the cluster.
In other words, a cluster is such that the sum of the distances between the learning vector belonging to it and the cluster centroid is minimized, and the distance from the cluster centroid of the cluster to which the cluster belongs is any other cluster. It is comprised so that it may become smaller than the distance with a gravity center.
Then, the index assigning unit 6 outputs a vector quantization code word corresponding to each expansion vector as an index.

また、別の実施形態として、例えば、R-Tree(「The R-Tree: an efficient and robust access method for points and rectangles」,(N.Beckman他1名,Proc. of ACM SIGMOD Conference,pp.322-331,1990))やSR-Tree(「SR-Tree: 高次元データに対する最近接探索のためのインデックス構造の提案」(片山紀生 他1名,電子情報通信学会論文誌D-I,Vol.J80-D-I,No.8,pp.703-717,1997年8月))など、多次元インデックスと総称される手法を用いて、特徴の存在する多次元空間内で特徴を包含する領域を階層的に作成し、最下層の領域と特徴とを対応付けることにより索引を付与することも可能である。 As another embodiment, for example, R * -Tree (“The R * -Tree: an efficient and robust access method for points and rectangles”, (N. Beckman et al., Proc. Of ACM SIGMOD Conference, pp .322-331, 1990)) and SR-Tree ("SR-Tree: Proposal of index structure for nearest neighbor search for high-dimensional data" (Natao Katayama et al., IEICE Transactions DI, Vol. J80-DI, No.8, pp.703-717 (August 1997)) and other methods that are collectively referred to as multidimensional indexes It is also possible to create an index and assign an index by associating the lowest layer area with a feature.

特徴を包含する領域は、例えば、R-Treeであれば、3次元空間における直方体に相当する超直方体、SR-Treeであれば、超直方体と、3次元空間における球に相当する超球との重なりとなる。
そして、索引付与部6は、上述のように求められた、各部分領域特徴に対する索引を出力する(ステップS8)。
The region including the feature is, for example, a super cuboid corresponding to a rectangular parallelepiped in three-dimensional space if R * -Tree, and a super sphere corresponding to a sphere in three-dimensional space if SR-Tree. It becomes an overlap.
Then, the index assigning unit 6 outputs an index for each partial region feature obtained as described above (step S8).

次に、目的特徴抽出部7は、目的画像を読み込むが(ステップS9)、この目的画像の大きさは、例えば、マージンと第1注目窓の大ききとの和(合計)以上に設定すると、完全に蓄積画像の特徴の抽出を行う範囲を包含するために、検索漏れを生じることがない。
そして、目的特徴抽出部7は、小領域を縦方向及び横方向に1ピクセルずつずらしながら目的画像を切り出し、各小領域に含まれる画像の特徴の抽出を、上記蓄積特徴抽出部3と同様の手法で行い、目的画像から抽出された特徴である目的特徴の集合を出力する(ステップS10)。
Next, the target feature extraction unit 7 reads the target image (step S9). If the size of the target image is set to be equal to or larger than the sum (total) of the margin and the size of the first window of interest, for example, Since the range in which the feature of the stored image is completely extracted is included, no omission of search occurs.
Then, the target feature extraction unit 7 cuts out the target image while shifting the small region by one pixel in the vertical direction and the horizontal direction, and extracts the features of the image included in each small region in the same manner as the accumulated feature extraction unit 3. A set of target features, which are features extracted from the target image, is output (step S10).

次に、目的特徴量子化部8は、見本特徴作成部1から出力される見本特徴の集合と、目的特徴抽出部7から出力される目的特徴の集合を読み込み、各目標特徴毎に見本特徴の集合の各見本特徴と照合し、目標特徴各々に対して見本特徴に対応した符号を1つ割り当てる。ここで、目的特徴量子化部8が符号を割り当てる手順は、蓄積特徴量子化部4と同様である。
そして、目的特徴量子化部8は、目的特徴の集合の各目的特徴から抽出した符号列の集合を出力する(ステップS11)。
Next, the target feature quantization unit 8 reads the set of sample features output from the sample feature creation unit 1 and the set of target features output from the target feature extraction unit 7, and sets the sample features for each target feature. Each sample feature of the set is collated, and one code corresponding to the sample feature is assigned to each target feature. Here, the procedure in which the target feature quantization unit 8 assigns codes is the same as that in the accumulated feature quantization unit 4.
Then, the target feature quantization unit 8 outputs a set of code strings extracted from each target feature of the set of target features (step S11).

次に、目的部分領域特徴抽出部9は、目的特徴量子化部8の抽出した符号列の集合を読み込み、この目的画像のある1つの箇所に、蓄積部分領域特徴抽出部5で用いた注目窓と同様の大きさ(縦×横)の注目窓、すなわち、第1注目窓を用い、この第1注目窓内に含まれる符号の集合を抽出する。
そして、目的部分領域特徴抽出部9は、上記蓄積部分領域特徴抽出部5と同様の抽出方法を用いて、目的画像のある1つの箇所から抽出した符号を順に並べて、ベクトルとしたものを照合に用いる特徴とし、この特徴を目的部分領域特徴の集合として出力する。(ステップS12)。
Next, the target partial region feature extraction unit 9 reads a set of code strings extracted by the target feature quantization unit 8 and uses the attention window used by the storage partial region feature extraction unit 5 at one location of the target image. A window of interest having the same size (vertical × horizontal), that is, a first window of interest is used, and a set of codes included in the first window of interest is extracted.
Then, the target partial region feature extraction unit 9 uses the same extraction method as the above-described storage partial region feature extraction unit 5 to sequentially arrange the codes extracted from one place of the target image and use them as vectors for collation. This feature is output as a set of target partial region features. (Step S12).

ここで、目的部分領域特徴抽出部9は、蓄積部分領域特徴抽出部2における特徴抽出の場合と異なり、上記第1注目窓を、目的画像内に重複することもなく、かつ隙間もない状態に設定し、それらを1ピクセルずつずらしながら、各位置において上記目的部分領域特徴の抽出を行う。
このとき、第1抽出窓は、例えば、少なくともマージンの大きさの分だけずらせば、検索漏れを生じさせることがない。
例えば、目的画像の大きさが「80×80」ピクセル、第1注目窓の大きさが「64×64」ピクセル、マージンが「16×16」ピクセルであるとき、目的画像内に重複することもなく、かつ隙間もない状態に設定できる第1注目窓の数が1つなので、目的画像全体において、「16×16=256」個の第1注目窓が設定される。
そして、目的部分領域特徴抽出部9は、上述した処理により抽出した、目的部分領域特徴の集合を出力する。
Here, unlike the case of the feature extraction in the storage partial region feature extraction unit 2, the target partial region feature extraction unit 9 does not overlap the first target window in the target image and has no gap. The target partial region features are extracted at each position while setting them and shifting them one pixel at a time.
At this time, for example, if the first extraction window is shifted at least by the size of the margin, no search omission occurs.
For example, when the size of the target image is “80 × 80” pixels, the size of the first target window is “64 × 64” pixels, and the margin is “16 × 16” pixels, the target image may overlap. Since the number of first target windows that can be set in a state without any gap is one, “16 × 16 = 256” first target windows are set in the entire target image.
Then, the target partial region feature extraction unit 9 outputs a set of target partial region features extracted by the above-described processing.

次に、索引検索部10は、索引付与部6から出力される索引と、目的部分領域特徴抽出部9から出力される目的部分領域特徴の集合とを読み込む。
そして、目的代表特徴抽出部19において、目的部分領域特徴から目的代表特徴を抽出する処理を行った場合、索引検索部10は、目的部分領域特徴の集合の代わりに、目的代表特徴抽出部19から出力される目的代表特徴の集合を読み込む。
目的代表特徴抽出部19は、後述する他の実施形態において詳細に説明する。
また、必要に応じて、索引検索部10は、目的部分領域間距離計算部16から出力される目的部分領域間距離を読み込む構成もある。
また、検索閾値更新部18が検索閾値及び選択閾値を更新する処理を行った場合、索引検索部10は更新された選択閾値を読み込む。この検索閾値更新部18については後述する他の実施形態において、詳細に説明する。
Next, the index search unit 10 reads the index output from the index assigning unit 6 and the set of target partial region features output from the target partial region feature extraction unit 9.
When the target representative feature extraction unit 19 performs processing for extracting the target representative feature from the target partial region feature, the index search unit 10 uses the target representative feature extraction unit 19 instead of the set of target partial region features. Read a set of target representative features to be output.
The target representative feature extraction unit 19 will be described in detail in another embodiment to be described later.
In addition, the index search unit 10 may read the distance between target partial areas output from the target partial area distance calculation unit 16 as necessary.
Further, when the search threshold update unit 18 performs a process of updating the search threshold and the selection threshold, the index search unit 10 reads the updated selection threshold. The search threshold update unit 18 will be described in detail in another embodiment to be described later.

そして、索引検索部10は、読み込んだ索引を用い、目的部分領域特徴の集合に類似する蓄積部分領域特徴を、検索候補特徴として抽出する(ステップS13)。
このとき、索引検索部10は、目的部分領域特徴の集合内におけるいずれかの目的部分領域特徴に対し、該部分領域特徴との距離dtが、予め定められた閾値である選択閾値θを下回るような(以下となるような)蓄積部分領域特徴を、索引から抽出する。
索引検索部10は、部分領域特徴間の距離を特徴照合部11と同様の処理により計算する(特徴照合部11の構成については後述)。
上記選択閾値θは後述するパラメータから自動的に決定される値であり、また、この選択閾値の決定方法は後述する。
Then, the index search unit 10 uses the read index to extract an accumulated partial area feature similar to the set of target partial area features as a search candidate feature (step S13).
At this time, the index search unit 10 has a distance dt with respect to any target partial region feature in the set of target partial region features less than a selection threshold θ 2 that is a predetermined threshold. Such (below) accumulated subregion features are extracted from the index.
The index search unit 10 calculates the distance between the partial region features by the same processing as the feature matching unit 11 (the configuration of the feature matching unit 11 will be described later).
The selection threshold θ 2 is a value that is automatically determined from parameters described later, and a method for determining the selection threshold will be described later.

また、別の実施例として、目的部分領域特徴の集合の代わりに、目的部分領域特徴から代表的な特徴を目的代表特徴として抽出し、この目的代表特徴の集合を用いて、集合内のいずれかの目的代表特徴との距離dtが選択閾値θを下回る蓄積部分領域特徴を、上記索引から抽出する構成とすることも可能である(後述)。
さらに、別の実施例として、目的部分領域間距離を用い、各目的代表特徴との距離dtを、該目的代表特徴に対応する目的部分領域間距離の最大値分だけ小さくし、この距離dtの値が選択閾値θを下回る蓄積部分領域特徴を索引から抽出する構成とすることも可能である(後述)。
As another example, instead of a set of target sub-region features, a representative feature is extracted from the target sub-region feature as a target representative feature, and this target representative feature set is used to distance dt between objects representative feature is the storage part region feature below a selected threshold theta 2 of, it is also possible to adopt a configuration that extracts from the index (described later).
Further, as another embodiment, the distance between the target partial areas is used by using the distance between the target partial areas, and the distance dt between each target representative area is reduced by the maximum value of the distance between the target partial areas corresponding to the target representative feature. It is also possible to adopt a configuration in which accumulated partial region features whose values are below the selection threshold θ 2 are extracted from the index (described later).

ここで上述した、ある1つの目的部分領域特徴あるいは目的代表特徴との距離が選択閾値を下回る蓄積部分領域特徴を索引から抽出する抽出方法について説明する。
この抽出方法は、上記索引付与部3において用いられた索引の種類によって異なり、上記索引に対応する特許明細書記載の方法あるいは非特許文献記載の方法と同様にして実施することができる。
例えば、上記蓄積代表特徴を用いた量子化によって索引を付与した場合、及び「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002−236496)に記載の方法を用いて索引を付与した場合、以下のようにして所望の蓄積部分領域特徴を抽出することができる。
Here, an extraction method for extracting from the index an accumulated partial region feature whose distance from a certain target partial region feature or target representative feature is below the selection threshold will be described.
This extraction method differs depending on the type of index used in the index assigning unit 3 and can be implemented in the same manner as the method described in the patent specification or the method described in the non-patent document corresponding to the index.
For example, when an index is assigned by quantization using the accumulated representative feature, and an index is assigned using the method described in “Signal detection method, signal detection apparatus, recording medium, and program” (Japanese Patent Laid-Open No. 2002-236696) In this case, a desired accumulated partial region feature can be extracted as follows.

はじめに、索引検索部10は、目的部分領域特徴あるいは目的代表特徴と、索引付与部3で作成された索引(クラスタ)、及び選択閾値θを読み込む。
以下では、簡単のため、目的代表特徴ではなく、本実施例で採用した構成において目的部分領域特徴を読み込んだものとして説明する。目的代表特徴を読み込んだ場合でも、全く同様に行うことができる。
そして、索引検索部10は、読み込んだ目的部分領域特徴と、各クラスタ重心との距離を計算する。
続いて、索引検索部10は、計算された距離dtに基づいて、目的部分領域特徴との距離が選択閾値θを下回る蓄積部分領域特徴を含む可能性のあるクラスタを選択する。
First, the index search unit 10 reads the object partial region feature or objects representative feature, indexes created by the indexing portion 3 (the cluster), and the selection threshold theta 2.
In the following, for the sake of simplicity, the description will be made assuming that the target partial region feature is read in the configuration adopted in this embodiment, not the target representative feature. Even when the target representative feature is read, the same processing can be performed.
Then, the index search unit 10 calculates the distance between the read target partial region feature and each cluster centroid.
Subsequently, index search unit 10, based on the calculated distance dt, selects a potential cluster including storage part region feature where the distance between the objective portion region feature is below a selected threshold theta 2.

上述したクラスタを選択する原理を以下に説明する。
図4は、点Q,C1,C2の3点が乗るような平面であり、特徴ベクトルが配置される特徴空間を切り出した様子を示している。
ここで、点Qは目的部分領域特徴、C1は部分領域特徴Qが所属しているクラスタのクラスタ重心、C2は他のクラスタのクラスタ重心を表しており、距離dQ1,dQ2,d12はそれぞれ、点Qと点C1との距離、点Qと点C2との距離、点C1と点C2との距離を示している。
The principle of selecting the above-described cluster will be described below.
FIG. 4 is a plane on which three points Q, C1, and C2 are placed, and shows a state in which a feature space in which feature vectors are arranged is cut out.
Here, the point Q is the target partial region feature, C1 is the cluster centroid of the cluster to which the partial region feature Q belongs, C2 is the cluster centroid of the other cluster, and the distances dQ1, dQ2, and d12 are the points. The distance between Q and point C1, the distance between point Q and point C2, and the distance between point C1 and point C2 are shown.

ここで、目的部分領域特徴の座標である点Qからの距離dtが選択閾値θ以内である蓄積部分領域特徴を抽出しなければならないとすると、点Qを中心とする半径θの超球(図4においては半径dθの円)の内部にある蓄積部分領域特徴がそれに該当する。
そして、点Qを中心とする超球の半径が図4におけるdθより大きくなったとき、点C2に対応するクラスタに所属する蓄積部分領域特徴の中に、所望の蓄積部分領域特徴が含まれている可能性がある。
そこで、選択閾値θが図4におけるdθより大きくなったとき、そのクラスタを選択する。
θは、以下の(5)式から(4)式を用いて求められる。
Here, if it is necessary to extract an accumulated partial region feature whose distance dt from the point Q that is the coordinates of the target partial region feature is within the selection threshold θ 2 , a hypersphere having a radius θ 2 centered on the point Q storage part region feature in the interior of true thereto (circle of radius d theta in FIG. 4).
Then, when the radius of the hypersphere centered at the point Q becomes larger than in FIG. 4, a desired storage partial region feature is included in the storage partial region features belonging to the cluster corresponding to the point C2. There is a possibility.
Therefore, when the selection threshold θ 2 becomes larger than d θ in FIG. 4, the cluster is selected.
is obtained using the following equations (5) to (4).

Figure 2006011622
Figure 2006011622

上記(3)式より、   From the above equation (3),

Figure 2006011622
Figure 2006011622

が求められる。
最終的に、索引検索部10は、以下の(5)式が成り立つとき、点C2に対応するクラスタを選択し、そのクラスタに所属する蓄積部分領域特徴を全て抽出する。
そして、この手順を、目的部分領域特徴Qが所属するクラスタを除く全てのクラスタに対して行い、抽出された蓄積部分領域特徴を、検索候補特徴として出力する。
Is required.
Finally, when the following expression (5) is established, the index search unit 10 selects a cluster corresponding to the point C2, and extracts all accumulated partial region features belonging to the cluster.
Then, this procedure is performed for all clusters except the cluster to which the target partial region feature Q belongs, and the extracted accumulated partial region features are output as search candidate features.

Figure 2006011622
Figure 2006011622

次に、特徴照合部11は、目的部分領域特徴抽出部9から出力される目的部分領域特徴の集合と、索引検索部10から出力される検索候補特徴の集合を読み込む。
そして、特徴照合部11は、次目的部分領域特徴選定部16により、次に照合すべき目的部分領域特徴が指定されている場合、該目的部分領域特徴を読み込む。この次目的部分領域特徴選定部16は、本実施形態において後述する。
Next, the feature matching unit 11 reads the set of target partial region features output from the target partial region feature extraction unit 9 and the set of search candidate features output from the index search unit 10.
The feature matching unit 11 reads the target partial region feature when the next target partial region feature selection unit 16 specifies the target partial region feature to be verified next. The next target partial region feature selection unit 16 will be described later in this embodiment.

また、特徴照合部11は、次検索候補特徴選定部17から、次に照合すべき検索候補特徴が指定されている場合、該検索候補特徴を読み込む。この次検索候補特徴選定部17は、本実施形態において後述する。
次に、特徴照合部11は、次目的部分領域特徴選定部16から読み込んだ目的部分領域特徴と、次検索候補特徴選定部17から読み込んだ検索候補特徴の集合との照合を行う。
そして、特徴照合部11は、目的部分領域特徴と検索候補特徴との距離を、見本特徴間距離を用いて計算する。
例えば、特徴照合部11は、目的部分領域特徴及び検索候補特徴が単一の符号で構成されている場合、検索候補特徴及び目的部分領域特徴との間の距離を符号間の距離として求め、読み込まれた見本特徴間距離そのものを距離として出力する。
In addition, when a search candidate feature to be matched next is designated from the next search candidate feature selection unit 17, the feature matching unit 11 reads the search candidate feature. The next search candidate feature selection unit 17 will be described later in this embodiment.
Next, the feature collation unit 11 collates the target partial region feature read from the next target partial region feature selection unit 16 with the set of search candidate features read from the next search candidate feature selection unit 17.
Then, the feature matching unit 11 calculates the distance between the target partial region feature and the search candidate feature using the distance between the sample features.
For example, when the target partial region feature and the search candidate feature are composed of a single code, the feature matching unit 11 obtains the distance between the search candidate feature and the target partial region feature as the distance between the codes, and reads it. The distance between the sample features is output as the distance.

また、特徴照合部11は、目的部分領域特徴及び検索候補特徴が符号列で構成されている場合、例えば、符号列の対応する要素である符号同士の距離として、各符号同士の組合せに対応した見本特徴間距離を入力し、要素同士の見本特徴間距離を積算することにより、検索候補特徴及び目的部分領域特徴の間の距離として出力する。
そして、特徴照合部11は、見本特徴の集合において、いずれの見本特徴にも対応しない符号が検出された場合、例えば、符号間の距離を「0」とする。
また、他の実施例として、特徴照合部11は、見本特徴の集合において、いずれの見本特徴にも対応しない符号が検出された場合、符号間の距離を十分大きな値、例えば、全ての見本特徴間距離の中での最大値に設定するよう構成してもよい。
In addition, when the target partial region feature and the search candidate feature are configured by a code string, the feature matching unit 11 corresponds to a combination of codes as a distance between codes that are corresponding elements of the code string, for example. The distance between the sample features is input, and the distance between the sample features of the elements is integrated to output the distance between the search candidate feature and the target partial region feature.
Then, when a code that does not correspond to any sample feature is detected in the set of sample features, the feature matching unit 11 sets the distance between the codes to “0”, for example.
As another example, when a code that does not correspond to any sample feature is detected in the set of sample features, the feature matching unit 11 sets the distance between the codes to a sufficiently large value, for example, all sample features. You may comprise so that it may set to the maximum value in the distance between.

ここで、特徴照合部11は、指定された目的部分領域特徴がなければ、初期目的部分領域特徴として、例えば、目的画像の左上角の位置に対応する目的部分領域特徴を指定し、上記検索候補特徴と照合処理を行う(ステップS14)。
また、特徴照合部11は、指定された検索候補特徴がなければ、初期の検索候補特徴として、例えば、任意に選択した検索候補特徴を指定し、上記目的部分領域特徴と照合する。
そして、特徴照合部11は、照合計算(検索候補特徴と目的部分領域特徴との間の距離の演算)の結果として、照合した検索候補特徴と目的部分領域特徴との距離値d(ω)を出力する。
Here, if there is no specified target partial region feature, the feature matching unit 11 specifies, for example, a target partial region feature corresponding to the position of the upper left corner of the target image as the initial target partial region feature, and the search candidate A feature and matching process is performed (step S14).
Further, if there is no designated search candidate feature, the feature matching unit 11 designates, for example, an arbitrarily selected search candidate feature as an initial search candidate feature, and collates it with the target partial region feature.
Then, as a result of the collation calculation (calculation of the distance between the search candidate feature and the target partial region feature), the feature matching unit 11 calculates the distance value d (ω) between the collated search candidate feature and the target partial region feature. Output.

次に、照合結果判定部12は、特徴照合部11から出力される距離値d(ω)を読み込み、目的画像と類似する部分画像が、現在の照合箇所に存在する可能性があるか否かの判定、すなわち、該距離値d(ω)と、前記選択閾値θとの比較を行う。
そして、照合結果判定部12は、距離値d(ω)が選択閾値θを以下となったとき、目的画像と類似する部分画像が現在の照合箇所に存在する可能性があると判定し、蓄積部分領域特徴を照合箇所として出力し、一方、距離値d(ω)が選択閾値θを超えているとき、目的画像と類似する部分画像が現在の照合箇所に存在する可能性がないと判定し、処理をステップS14へ進める(ステップS15)。
Next, the matching result determination unit 12 reads the distance value d (ω) output from the feature matching unit 11 and determines whether there is a possibility that a partial image similar to the target image exists at the current matching location. That is, the distance value d (ω) is compared with the selection threshold value θ 2 .
The verification result determining section 12, when the distance value d (omega) is equal to or less than the selected threshold theta 2, it determines that there is a possibility that the partial image similar to the target image exists in the current matching point, outputting the stored partial region feature as the matching portion, whereas, when the distance value d (omega) exceeds the selection threshold theta 2, if there is no possibility of partial image similar to the target image is in the current verification point The determination is made and the process proceeds to step S14 (step S15).

次に、特徴再照合部13は、見本特徴間距離計算部2から出力される見本特徴間距離、蓄積特徴量子化部4から出力される符号の集合である蓄積特徴の集合と、目的特徴量子化部8から出力される符号の集合である目的特徴の集合と、照合結果判定部12から出力される照合箇所とを読み込む。
そして、特徴再照合部13は、読み込んだ蓄積画像に、目的画像と同じ大きさ(縦×横)の注目窓である第2注目窓を設定する。
Next, the feature re-collation unit 13 includes a sample feature distance output from the sample feature distance calculation unit 2, a set of accumulated features as a set of codes output from the stored feature quantization unit 4, and a target feature quantum. A set of target features that is a set of codes output from the conversion unit 8 and a verification portion output from the verification result determination unit 12 are read.
Then, the feature re-collation unit 13 sets a second attention window, which is an attention window having the same size (vertical × horizontal) as the target image, in the read accumulated image.

ここで、特徴再照合部13は、第2注目窓の配置箇所を、照合結果判定部12から出力された照合箇所に対応して決定する。
すなわち、特徴再照合部13は、図5の概念図に示すように、第2注目窓の配置箇所に対する蓄積部分領域の相対的な位置が、目的画像における目的部分領域の相対的な位置と同一になるように、つまり、照合箇所における蓄積部分領域と目的部分領域とが重なる位置に、上記第2注目窓を配置する。
Here, the feature re-collation unit 13 determines the location of the second window of interest corresponding to the collation location output from the collation result determination unit 12.
That is, as shown in the conceptual diagram of FIG. 5, the feature re-collation unit 13 has the same relative position of the accumulation partial region with respect to the location of the second target window as the relative position of the target partial region in the target image. In other words, the second window of interest is arranged at a position where the accumulation partial area and the target partial area at the collation location overlap.

このとき、特徴再照合部13は、蓄積部分領域特徴部5と同様な処理を行い、蓄積部分領域と目的部分領域との符号の集合の抽出を行う。
次に、特徴再照合部13は、第2注目窓内において抽出した、蓄積特徴の符号の集合と、目的特徴の符号の集合との照合を行う。
ここで、特徴再照合部13は、例えば、特徴照合部11と同様の計算処理により、第2注目窓内の蓄積特徴と目的特徴との距離値dの演算を行う。
そして、特徴再照合部9は、照合計算結果である距離値dを出力する(ステップS16)。
At this time, the feature re-collation unit 13 performs processing similar to that of the storage partial region feature unit 5 and extracts a set of codes of the storage partial region and the target partial region.
Next, the feature re-collation unit 13 collates the set of accumulated feature codes extracted within the second window of interest with the set of target feature codes.
Here, the feature re-collation unit 13 calculates the distance value d between the accumulated feature in the second window of interest and the target feature, for example, by the same calculation process as the feature collation unit 11.
Then, the feature re-collation unit 9 outputs a distance value d that is a collation calculation result (step S16).

次に、照合結果再判定部14は、特徴再照合部13から出力される距離値dを読み込み、目的画像と類似する部分画像が現在の照合箇所に存在する可能性があるか否かの判定、すなわち、該距離値dと、前記検索閾値θとの比較を行う。
このとき、照合結果再判定部14は、距離値dが検索閾値θ以下であるとき、目的画像と類似する部分画像が現在の照合箇所に存在すると判定し、蓄積画像における該照合箇所を検出箇所として、この検出箇所の位置及び判定結果(存在したことを示す情報)を出力し、一方、距離値dが検索閾値θを超えたとき、目的画像と類似する部分画像が現在の照合箇所に存在しないと判定し、処理をステップS19へ進める(ステップS17)。
Next, the collation result re-determination unit 14 reads the distance value d output from the feature re-collation unit 13, and determines whether or not there is a possibility that a partial image similar to the target image exists in the current collation location. That is, the distance value d is compared with the search threshold value θ.
At this time, when the distance value d is equal to or smaller than the search threshold θ, the matching result re-determination unit 14 determines that a partial image similar to the target image exists at the current matching location, and detects the matching location in the accumulated image as a detected location. The position and determination result (information indicating the presence) of this detection location is output, and when the distance value d exceeds the search threshold θ, a partial image similar to the target image exists at the current verification location It determines with not, and advances a process to step S19 (step S17).

上記選択閾値θは、前記検索閾値θから決定され、以下に示す(6)式に示すように、選択閾値θを設定すると、検索漏れを生じることがない。 The selection threshold θ 2 is determined from the search threshold θ, and if the selection threshold θ 2 is set as shown in the following equation (6), no search omission occurs.

Figure 2006011622
Figure 2006011622

上記(6)式において、Nは第1注目窓を重複も隙間もなく蓄積画像中に配置したと仮定したとき、任意位置に配置された第2照合窓に含まれる第1照合窓の最少数であり、以下に示す(7)〜(9)式により与えられる。   In the above equation (6), N is the minimum number of first collation windows included in the second collation window arranged at an arbitrary position when it is assumed that the first target window is arranged in the accumulated image without overlap or gap. Yes, given by the following equations (7) to (9).

Figure 2006011622
Figure 2006011622

Figure 2006011622
Figure 2006011622

Figure 2006011622
Figure 2006011622

ここで、(8)式におけるNxは横方向の第1の照合窓の数であり、(9)式におけるNyは縦方向の第1の照合窓の数である。
ただし、(qx、qy)は目的画像の大きさ、すなわち、第2注目窓の大きさであり、(ωx,ωy)は第1注目窓の大きさである。
次に、検索結果候補選択部15は、照合結果再判定部14から出力される検出箇所(位置情報を含む)と、特徴再照合部13から出力される距離値dを読み込む。
Here, Nx in equation (8) is the number of first verification windows in the horizontal direction, and Ny in equation (9) is the number of first verification windows in the vertical direction.
However, (qx, qy) is the size of the target image, that is, the size of the second target window, and (ωx, ωy) is the size of the first target window.
Next, the search result candidate selection unit 15 reads the detection location (including position information) output from the collation result re-determination unit 14 and the distance value d output from the feature re-collation unit 13.

次に、検索結果候補選択部15は、上記検出箇所と、この検出箇所における距離値dとを、検索結果候補として登録する。
検索結果候補選択部15は、例えば、距離値の大小にかかわらず、読み込んだ検出箇所と距離値dとの組を全て登録する。
また、検索結果候補選択部15は、他の実施形態として、検索結果候補が予め定められた数量以下になるように登録する構成とすることも可能である。
Next, the search result candidate selection unit 15 registers the detection location and the distance value d at the detection location as search result candidates.
For example, the search result candidate selection unit 15 registers all sets of the read detection locations and the distance value d regardless of the magnitude of the distance value.
In addition, as another embodiment, the search result candidate selection unit 15 may be configured to register the search result candidates so that the number of search result candidates is equal to or less than a predetermined amount.

すなわち、検索結果候補選択部15は、検索結果候補を該数量までは無条件に検出箇所と距離値の組を登録し、該数量を超過する場合、例えば、すでに読み込まれた検索結果候補の中における最大距離値dmaxと、以降読み込んだ距離値dとを比較し、読み込んだ距離値dが最大距離値dmaxを下回る場合、最大距離値dmaxに対応する候補を削除し、新たに読み込んだ検出箇所と距離値dの組とを候補として登録する。
このように、検索結果候補選択部15は、蓄積画像から上述した方法により検索結果候補を出力する(ステップS18)。
That is, the search result candidate selection unit 15 unconditionally registers the search result candidates up to the quantity, and if the number exceeds the quantity, the search result candidate selection unit 15 selects, for example, among the search result candidates already read. The maximum distance value dmax is compared with the distance value d read thereafter, and if the read distance value d falls below the maximum distance value dmax, the candidate corresponding to the maximum distance value dmax is deleted, and a newly read detection location And a set of distance values d are registered as candidates.
As described above, the search result candidate selection unit 15 outputs the search result candidate from the accumulated image by the method described above (step S18).

次に、次目的部分領域特徴選定部16は、目的部分領域特徴抽出部9から出力される目的部分領域特徴の集合を読み込み、必要に応じて、特徴照合部11から出力される距離値d(ω),検索閾値更新部18から出力される選択閾値θ,及び周辺距離下限値計算部21から出力される周辺距離下限値を読み込む。
上記検索閾値更新部18及び周辺距離下限値計算部21は、他の実施例において後述する。
そして、次目的部分領域特徴選定部16は、次に照合すべき目的部分領域特徴の選択、すなわち次に照合する目的部分領域特徴の有無の検出を行い、照合箇所がないことを検出すると処理をステップS20へ進め、一方、照合箇所があることを検出すると、次に照合する目的部分領域特徴を選択して、処理をステップS14へ進める(ステップS19)。
Next, the next target partial region feature selection unit 16 reads the set of target partial region features output from the target partial region feature extraction unit 9 and, if necessary, the distance value d ( ω), the selection threshold θ 2 output from the search threshold update unit 18, and the peripheral distance lower limit value output from the peripheral distance lower limit calculation unit 21 are read.
The search threshold update unit 18 and the peripheral distance lower limit calculation unit 21 will be described later in another embodiment.
Then, the next target partial region feature selection unit 16 selects the target partial region feature to be collated next, that is, detects the presence or absence of the target partial region feature to be collated next. The process proceeds to step S20. On the other hand, when it is detected that there is a collation part, the target partial region feature to be collated next is selected, and the process proceeds to step S14 (step S19).

このとき、次目的部分領域特徴選定部16は、例えば、現在注目している蓄積部分領域特徴に対して、照合が終了していない目的部分領域特徴があるか否かを判定して、終了していない目的部分領域特徴があれば、この中から任意の目的部分領域特徴を1つ選択し、全ての目的部分領域特徴の照合が終了している場合、次の、蓄積部分領域特徴に注目を変更するため、処理をステップS20へ進める。
また、別の実施形態として、次目的部分領域特徴選定部16は、上記周辺距離下限値を読み込んだ場合、この距離下限値が、読み込んだ選択閾値θを上回る目的部分領域特徴との照合を省略し、この距離下限値が選択閾値θ以下の目的部分領域特徴から任意に1つ選択する構成とすることも可能である。
そして、次目的部分領域特徴選定部16は、終了していない目的部分領域特徴があれば、照合箇所が選択された目的部分領域特徴と、この目的部分特徴に対応する目的画像内の位置を出力する。
At this time, the next target partial region feature selection unit 16 determines, for example, whether there is a target partial region feature that has not been collated with respect to the storage partial region feature currently focused on, and ends. If there is a target partial area feature that is not yet selected, one arbitrary target partial area feature is selected from these, and when all target partial area features have been collated, attention is paid to the next storage partial area feature. In order to change, the process proceeds to step S20.
As another embodiment, the following objective partial region feature selection unit 16, if read the peripheral distance limit value, the distance limit value, the collation of an object part region feature above a selected threshold theta 2 read omitted, it is also possible to adopt a configuration in which the distance limit value is any one to choose for the selection threshold theta 2 following purposes partial region feature.
Then, if there is an unfinished target partial region feature, the next target partial region feature selection unit 16 outputs the target partial region feature for which the collation location is selected and the position in the target image corresponding to the target partial feature. To do.

次に、次検索候補特徴選定部17は、索引検索部10から出力される蓄積部分領域特徴の集合を読み込み、次に照合すべき検索候補特徴を選択、すなわち次に照合する検索候補特徴の有無の検出を行い、照合する検索候補特徴がないことを検出すると処理を終了させ、一方、照合する検索候補特徴があることを検出すると、次に照合すべき検索候補特徴を選択して、処理をステップS14へ進める(ステップS20)。
このとき、次検索候補特徴選定部17は、例えば、照合する検索候補特徴があることを検出すると、照合が終了していない検索候補特徴から任意に1つ選択する。
これにより、次検索候補特徴選定部17は、選択された検索候補特徴を、特徴照合部11に対して出力する。
Next, the next search candidate feature selection unit 17 reads the accumulation partial region feature set output from the index search unit 10 and selects a search candidate feature to be matched next, that is, whether or not there is a search candidate feature to be matched next. If there is no search candidate feature to be matched, the process is terminated. On the other hand, if it is detected that there is a search candidate feature to be matched, the search candidate feature to be matched next is selected and the process is performed. The process proceeds to step S14 (step S20).
At this time, for example, when detecting that there is a search candidate feature to be collated, the next search candidate feature selection unit 17 selects one arbitrarily from the search candidate features that have not been collated.
As a result, the next search candidate feature selection unit 17 outputs the selected search candidate feature to the feature matching unit 11.

<第2の実施例>(請求項3に対応)
図6は、請求項3に記載の方法を適用した第2の実施例による部分画像検索システムの構成例を示すブロック図である。
第2の実施例の部分画像検索システムは、請求項1に記載の方法を適用した第1の実施例による部分画像検索システムと同様な構成であり、異なる構成として、図6に示すように、検索閾値更新部18を追加して設け、任意の目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される複数の画像である蓄積画像の集合を入力とし、目的画像と類似する画像が含まれている部分画像の蓄積画像内における箇所を出力する。
Second Embodiment (Corresponding to Claim 3)
FIG. 6 is a block diagram showing a configuration example of a partial image search system according to a second embodiment to which the method according to claim 3 is applied.
The partial image search system according to the second embodiment has the same configuration as the partial image search system according to the first embodiment to which the method according to claim 1 is applied. As a different configuration, as shown in FIG. A search threshold update unit 18 is additionally provided, and an arbitrary target image, that is, an image to be searched as a sample, and a set of stored images, that is, a set of stored images that are a plurality of images to be searched, are input and are similar The location in the stored image of the partial image containing the image to be output is output.

上記検索閾値更新部18は、上記検索結果候補選択部15から出力された検索結果候補から、上記特徴再照合部13から出力された距離値に基づいて、所定の距離内にある候補を検出し、この検出した候補の距離値に基づいて新たに検索閾値θを設定する。
次に、上述した見本特徴作成部1から検索閾値更新部18における部分画像の検出処理を、図7を用いて具体的に説明する。ここで、図7は、図6に示す部分画像検索装置の動作例を示すフローチャートである。
The search threshold update unit 18 detects candidates within a predetermined distance from the search result candidates output from the search result candidate selection unit 15 based on the distance value output from the feature re-collation unit 13. The search threshold θ is newly set based on the detected candidate distance value.
Next, the partial image detection process in the sample feature creation unit 1 to the search threshold update unit 18 described above will be specifically described with reference to FIG. Here, FIG. 7 is a flowchart showing an operation example of the partial image search apparatus shown in FIG.

図7のフローチャートは、図2に示す第1の実施例のフローチャートに対して、ステップS13の「検索結果の候補選択」の処理の次に、ステップS16の「検索閾値更新」の処理が追加されたのみで、他の処理については同様であるため、このステップS16の処理の説明のみを行う。
検索閾値更新部18は、検索結果候補選択部15から出力される検索結果候補を読み込み、この読み込んだ検索結果候補の中から、距離値が最大の検索結果候補を選び出し、選択した検索結果候補の距離値が検索閾値θ以下であるか否かの判定を行い、この距離値が検索閾値θ以下であることを検出した場合、検索閾値θをその距離値と同じ値に更新する。
そして、検索閾値更新部18は、(5)式に基づいて検索閾値θから選択閾値θを計算し、更新した検索閾値θとともに出力する(ステップS21)。これ以降は、この更新された検索閾値θ及び選択閾値θが照合結果の判定に用いられる。
In the flowchart of FIG. 7, the “search threshold update” process of step S16 is added to the flowchart of the first embodiment shown in FIG. 2 after the “search result candidate selection” process of step S13. Since the other processes are the same, only the process of step S16 will be described.
The search threshold update unit 18 reads the search result candidate output from the search result candidate selection unit 15, selects a search result candidate having the maximum distance value from the read search result candidates, and selects the selected search result candidate. It is determined whether or not the distance value is equal to or smaller than the search threshold value θ. When it is detected that the distance value is equal to or smaller than the search threshold value θ, the search threshold value θ is updated to the same value as the distance value.
Then, the search threshold update unit 18 calculates the selection threshold θ 2 from the search threshold θ based on the equation (5), and outputs it together with the updated search threshold θ (step S21). Thereafter, the updated search threshold θ and selection threshold θ 2 are used for determination of the collation result.

<第3の実施例>(請求項5に対応)
図8は、請求項5に記載の方法を適用した第3の実施例による部分画像検索システムの構成例を示すブロック図である。
この第3の実施例による部分画像検索システムは、第2の実施例と同様の構成であり、異なる構成として、第2の実施例の部分画像検索システムに対して、目的代表特徴抽出部19を加えたものであり、目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される画像である蓄積画像の集合とを入力し、目的画像と類似する画像が含まれてた部分画像の、上記蓄積画像内における箇所を検索し、検索結果を出力する。
この目的代表特徴抽出部19は、上記目的部分領域特徴抽出部9から出力された目的部分領域特徴の集合における目的部分領域集合を分類(クラスタリング)して、各目的部分領域特徴に共通する特徴としての目的代表特徴を抽出する。
<Third embodiment> (corresponding to claim 5)
FIG. 8 is a block diagram showing a configuration example of a partial image search system according to the third embodiment to which the method according to claim 5 is applied.
The partial image search system according to the third embodiment has the same configuration as that of the second embodiment. As a different configuration, the target representative feature extraction unit 19 is different from the partial image search system of the second embodiment. In addition, the target image, that is, a sample image to be searched and a stored image group, that is, a set of stored images that are searched images, are input, and a portion that includes an image similar to the target image The location of the image in the stored image is searched, and the search result is output.
The target representative feature extraction unit 19 classifies (clusters) the target partial region set in the set of target partial region features output from the target partial region feature extraction unit 9 and uses them as features common to the target partial region features. Extract target representative features of.

次に、上述した見本特徴作成部1から目的代表特徴抽出部19における部分画像の検出処理を、図9を用いて具体的に説明する。ここで、図9は、図8に示す部分画像検索システムの動作例を示すフローチャートである。
図9のフローチャートは、図7に示す第2の実施例のフローチャートに対して、ステップS12の「目的部分領域特徴の抽出」の処理の次に、ステップS22の「目的代表特徴の抽出」の処理が追加されたのみで、他の処理については同様であるため、このステップS22の処理の説明のみを行う。
Next, partial image detection processing in the sample feature creation unit 1 to the target representative feature extraction unit 19 will be described in detail with reference to FIG. Here, FIG. 9 is a flowchart showing an operation example of the partial image search system shown in FIG.
The flowchart of FIG. 9 is different from the flowchart of the second embodiment shown in FIG. 7 in the process of “extraction of target representative feature” in step S22 after the process of “extraction of target partial area feature” in step S12. Since the other processes are the same, only the process of step S22 will be described.

目的代表特徴抽出部19は、目的部分領域特徴抽出部9から出力される目的部分領域特徴の集合を読み込み、これら複数の目的部分領域特徴に対してクラスタリング処理を行う。
このとき、目的代表特徴抽出部19は、例えば、クラスタを1つだけ用意し(共通の特徴ベクトルを抽出する)、上記集合における全ての目的部分領域特徴をそのクラスタに所属させる(1つの目的代表特徴を出力することになる)。
また、目的代表特徴抽出部19は、別の実施例として、読み込んだ目的部分領域特徴の数だけクラスタを用意し、これら各クラスタに1つずつ目的部分領域特徴を割り当てる構成とすることもできる(目的代表特徴の集合を出力することになる)。
The target representative feature extraction unit 19 reads a set of target partial region features output from the target partial region feature extraction unit 9, and performs clustering processing on the plurality of target partial region features.
At this time, for example, the target representative feature extraction unit 19 prepares only one cluster (extracts a common feature vector), and causes all target partial region features in the set to belong to the cluster (one target representative). Will output features).
Further, as another embodiment, the target representative feature extraction unit 19 can prepare a cluster for the number of read target partial region features and assign a target partial region feature to each cluster one by one ( A set of target representative features will be output).

さらに、目的代表特徴抽出部19は、別の実施例として、目的部分領域特徴に対応する目的画像中の位置を、読み込んだ全ての目的部分領域特徴について抽出し、その存在範囲を格子状に区切り、各格子をクラスタと対応させる構成とすることも可能である。
また、さらに、目的代表特徴抽出部19は、別の実施例として、同一クラスタ内の目的部分領域特徴同士の距離の最大値が、予め定められた閾値である分類閾値を上回らないように、クラスタを併合することも可能である。
Furthermore, as another example, the target representative feature extraction unit 19 extracts the positions in the target image corresponding to the target partial region features for all the read target partial region features, and divides the existence range into a grid pattern. It is also possible to adopt a configuration in which each lattice is associated with a cluster.
In addition, as another example, the target representative feature extraction unit 19 uses a cluster so that the maximum value of the distance between target partial region features in the same cluster does not exceed a predetermined classification threshold. Can also be merged.

このとき、目的代表特徴抽出部19は、クラスタの初期状態として、例えば、読み込んだ目的部分領域特徴の数だけ用意したクラスタに1つずつ目的部分領域を割り当てたものを用いる。
次に、目的代表特徴抽出部19は、上記各クラスタから、該クラスタを代表する部分領域特徴である代表特徴を抽出する。目的代表特徴抽出部19は、例えば、クラスタ内の任意に選択した1つの目的部分領域特徴を代表特徴とする。
At this time, the target representative feature extraction unit 19 uses, as an initial state of the cluster, for example, one in which target partial areas are assigned to clusters prepared for the number of read target partial area features.
Next, the target representative feature extraction unit 19 extracts a representative feature that is a partial region feature representing the cluster from each cluster. The target representative feature extraction unit 19 uses, for example, one arbitrarily selected target partial region feature in the cluster as a representative feature.

また、目的代表特徴抽出部19は、別の実施例として、ある特定位置に対応する目的部分領域特徴を代表特徴とすることもできる。
この特定位置とは、例えば、目的画像の左上角の位置などである。
さらに、目的代表特徴抽出部19は、別の実施例として、クラスタ内の目的部分領域特徴の重心にある目的部分特徴を代表特徴とする構成とすることもできる。
そして、目的代表特徴抽出部19は、上述した第3の実施例における各実施例により求めた、代表特徴あるいはその集合を出力する(ステップS22)。
次のステップS13において、索引検索部10は、上記目的代表特徴を用いて、蓄積画像の索引との照合処理を行う。
In addition, as another example, the target representative feature extraction unit 19 can use a target partial region feature corresponding to a specific position as a representative feature.
This specific position is, for example, the position of the upper left corner of the target image.
Further, as another example, the target representative feature extraction unit 19 may be configured such that the target partial feature at the center of gravity of the target partial region feature in the cluster is a representative feature.
Then, the target representative feature extraction unit 19 outputs the representative feature or a set thereof obtained by each embodiment in the third embodiment described above (step S22).
In the next step S <b> 13, the index search unit 10 performs a matching process with the index of the stored image using the target representative feature.

<第4の実施例>(請求項7に対応)
図10は、請求項7に記載の方法を適用した第4の実施例による部分画像検索システムの構成例を示すブロック図である。
この第4の実施例による部分画像検索システムは、第3の実施例と同様な構成であり、異なる構成として、第3の実施例の部分画像検索システムに対して、目的部分領域間距離計算部20と、周辺距離下限値計算部21とを加えたものであり、目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される画像である蓄積画像の集合とを入力し、目的画像と類似する画像が含まれてた部分画像の、上記蓄積画像内における箇所を検索し、検索結果を出力する。
<Fourth embodiment> (corresponding to claim 7)
FIG. 10 is a block diagram showing a configuration example of a partial image search system according to the fourth embodiment to which the method according to claim 7 is applied.
The partial image search system according to the fourth embodiment has the same configuration as that of the third embodiment. As a different configuration, the partial image search system according to the third embodiment is different from the partial image search system of the third embodiment. 20 and a peripheral distance lower limit calculation unit 21 are added, and a target image, that is, a sample image to be searched, and a stored image group, that is, a set of stored images that are searched images, are input. A location in the stored image of a partial image including an image similar to the target image is searched, and a search result is output.

上記目的部分領域間距離計算部20は、上記目的部分領域特徴抽出部9から出力された目的部分領域特徴について、部分領域特徴同士の距離である距離を計算する。
また、目的代表特徴抽出部15がある場合には、目的部分領域特徴と、それに対応する目的代表特徴との距離を計算する。
上記周辺距離下限値計算部21は、特徴照合部11から出力された距離値と、目的部分領域間距離計算部20から出力された部分領域間距離の数値とを用い、特徴照合部11で照合を行った検索候補特徴と、上記目的部分領域特徴抽出部9から出力された各目的部分領域特徴との距離の下限値を計算する。
The target partial region distance calculation unit 20 calculates a distance that is the distance between the partial region features for the target partial region feature output from the target partial region feature extraction unit 9.
If the target representative feature extraction unit 15 is present, the distance between the target partial region feature and the corresponding target representative feature is calculated.
The peripheral distance lower limit calculation unit 21 uses the distance value output from the feature matching unit 11 and the numerical value of the distance between partial regions output from the target inter-region distance calculation unit 20 to perform matching in the feature matching unit 11. The lower limit value of the distance between the retrieved candidate feature and the target partial region feature output from the target partial region feature extraction unit 9 is calculated.

次に、上述した見本特徴作成部1から周辺距離下限値計算部21における部分画像の検出処理を、図11を用いて具体的に説明する。ここで、図11は、図10に示す部分画像検索システムの動作例を示すフローチャートである。
図11のフローチャートは、図9に示す第3の実施例のフローチャートに対して、ステップS22の「目的代表特徴の抽出」の処理の次に、ステップS23の「目的部分領域間距離の演算」の処理が追加され、また、ステップS21の「検索閾値の更新」の処理の次に、ステップS24の「周辺距離下限値の演算」の処理が追加されたのみで、他の処理については同様であるため、このステップS23及びステップS24の処理の説明のみを行う。
Next, the partial image detection processing from the sample feature creation unit 1 to the peripheral distance lower limit calculation unit 21 will be described in detail with reference to FIG. Here, FIG. 11 is a flowchart showing an operation example of the partial image search system shown in FIG.
The flowchart of FIG. 11 is different from the flowchart of the third embodiment shown in FIG. 9 in the “calculation of distance between target partial areas” in step S23 after the process of “extraction of target representative features” in step S22. A process is added, and after the process of “update search threshold” in step S21, only the process of “calculation of lower limit of peripheral distance” in step S24 is added, and the other processes are the same. Therefore, only the processing in steps S23 and S24 will be described.

目的部分領域間距離計算部20は、目的部分領域特徴抽出部9から出力される目的部分領域特徴の集合を読み込み、各目的部分領域特徴同士の距離を計算する。
そして、目的部分領域間距離計算部20は、例えば、全ての目的部分領域特徴の組に対して距離計算を行う。
また、別の実施例として、目的代表特徴抽出部19が設けられている場合には、さらにこの目的代表特徴抽出部19から出力される目的代表特徴の集合を読み込み、各目的部分領域特徴と、それに対応する目的部分領域特徴との距離を計算することも可能である。
上述したように、目的部分領域間距離計算部20は、目的部分領域特徴同士の距離、あるいは目的部分領域特徴と目的代表特徴との距離を出力する。
上述した距離を用いて、ステップS8において、索引による検索が行われる。
The target partial region distance calculation unit 20 reads a set of target partial region features output from the target partial region feature extraction unit 9 and calculates the distance between the target partial region features.
Then, the target inter-region distance calculation unit 20 performs distance calculation for all sets of target partial region features, for example.
As another example, when the target representative feature extracting unit 19 is provided, a set of target representative features output from the target representative feature extracting unit 19 is further read, and each target partial region feature, It is also possible to calculate the distance to the corresponding target subregion feature.
As described above, the target inter-region distance calculation unit 20 outputs the distance between the target partial region features or the distance between the target partial region feature and the target representative feature.
Using the distances described above, an index search is performed in step S8.

次に、周辺距離下限値計算部21は、特徴照合部11から出力される距離値と、目的部分領域間距離計算部20から出力される部分領域間距離とを読み込む。
そして、周辺距離下限値計算部21は、読み込んだ距離値と部分領域間距離とから、蓄積部分領域特徴と各目的部分領域特徴との距離下限値を計算する。
このとき、周辺距離下限値計算部21は、蓄積部分領域特徴f (W)と、目的部分領域特徴fQ2 (W)との距離の下限値d(f (W),fQ2 (W))は、三角不等式に基づいて、以下の(10)式により求められる。,
Next, the peripheral distance lower limit value calculation unit 21 reads the distance value output from the feature matching unit 11 and the inter-subregion distance output from the target inter-region distance calculation unit 20.
Then, the peripheral distance lower limit value calculation unit 21 calculates a distance lower limit value between the accumulated partial area feature and each target partial area feature from the read distance value and the distance between the partial areas.
At this time, the peripheral distance lower limit value calculation unit 21 sets the lower limit value d (f D (W) , f Q2 (W ) of the distance between the accumulated partial region feature f D (W) and the target partial region feature f Q2 (W). ) ) Is obtained by the following equation (10) based on the triangular inequality. ,

Figure 2006011622
Figure 2006011622

上記(10)式において、d(f (W),fQ1 (W))は特徴照合部11から読み込んだ距離値であり、d(fQ1 (W),fQ2 (W))は読み込んだ目的部分領域間距離である。
上述したように、周辺距離下限値計算部21は、蓄積部分領域特徴と、目的部分領域特徴との距離の下限値である周辺距離下限値を出力する。
そして、次のステップS19において、次目的部分領域特徴選定部16は、上記周辺距離下限値を入力し、この距離下限値が、読み込んだ選択閾値θを上回る目的部分領域特徴との照合を省略し、この距離下限値が選択閾値θ以下の目的部分領域特徴から任意に1つ選択する。
In the above equation (10), d (f D (W) , f Q1 (W) ) is a distance value read from the feature matching unit 11, and d (f Q1 (W) , f Q2 (W) ) is read. This is the distance between the target partial areas.
As described above, the peripheral distance lower limit value calculation unit 21 outputs the peripheral distance lower limit value that is the lower limit value of the distance between the accumulated partial region feature and the target partial region feature.
The omission in the next step S19, the next objective partial region feature selection unit 16, and inputs the near distance limit value, the distance limit value, the collation of an object part region feature above a selected threshold theta 2 read and, this distance limit value is any one to choose for the selection threshold theta 2 following purposes partial region feature.

<第5の実施例>(請求項13に対応)
図12は、請求項13に記載の方法を適用した第5の実施例による部分画像検索システムの構成例を示すブロック図である。
この第5の実施例による部分画像検索システムは、第4の実施例と同様な構成であり、異なる構成として、第4の実施例の部分画像検索システムに対して、特徴存在範囲確定部22を加えたものであり、目的画像、すなわち見本となる検索したい画像と、蓄積画像群、すなわち検索される画像である蓄積画像の集合とを入力し、目的画像と類似する画像が含まれてた部分画像の、上記蓄積画像内における箇所を検索し、検索結果を出力する。
上記特徴存在範囲確定部22は、上記見本特徴作成部1から出力される各見本特徴について、この見本特徴に割り当てられる可能性のある上記蓄積特徴抽出部3及び目的特徴抽出部7から出力される各々の画像の特徴(蓄積特徴,目的特徴)が存在し得る範囲である特徴存在範囲を計算する。
<Fifth Embodiment> (Corresponding to Claim 13)
FIG. 12 is a block diagram showing a configuration example of a partial image search system according to a fifth embodiment to which the method according to claim 13 is applied.
The partial image search system according to the fifth embodiment has the same configuration as that of the fourth embodiment. As a different configuration, the partial image search system according to the fourth embodiment is different from the partial image search system of the fourth embodiment. In addition, the target image, that is, a sample image to be searched and a stored image group, that is, a set of stored images that are searched images, are input, and a portion that includes an image similar to the target image The location of the image in the stored image is searched, and the search result is output.
The feature existence range determination unit 22 outputs, for each sample feature output from the sample feature creation unit 1, the accumulated feature extraction unit 3 and the target feature extraction unit 7 that may be assigned to the sample feature. A feature existence range that is a range in which each image feature (accumulated feature, target feature) can exist is calculated.

次に、上述した見本特徴作成部1から特徴存在範囲確定部22における部分画像の検出処理を、図13を用いて具体的に説明する。ここで、図13は、図12に示す部分画像検索システムの動作例を示すフローチャートである。
図13のフローチャートは、図11に示す第4の実施例のフローチャートに対して、ステップS2の「見本特徴の作成」とステップS3の「見本特徴間距離の計算」のと処理の間に、ステップS25の「特徴存在範囲の確定」の処理が追加されたのみで、他の処理については同様であるため、このステップS25の処理の説明のみを行う。
Next, the detection processing of the partial image in the sample feature creation unit 1 to the feature existence range determination unit 22 described above will be specifically described with reference to FIG. Here, FIG. 13 is a flowchart showing an operation example of the partial image search system shown in FIG.
The flowchart of FIG. 13 is different from the flowchart of the fourth embodiment shown in FIG. 11 between the steps of “creating sample features” in step S2 and “calculating distance between sample features” in step S3. Only the process of “determining the feature existence range” of S25 is added and the other processes are the same, so only the process of step S25 will be described.

特徴存在範囲確定部22は、見本特徴作成部1から出力される見本特徴の集合を読み込み、この集合の各見本特徴に割り当てられる蓄積特徴及び目的特徴が存在する可能性のある特徴空間内の範囲である特徴存在範囲を、上記各々の見本特徴に対して設定する。
このとき、特徴存在範囲確定部22は、例えば、蓄積特徴量子化部4及び目的特徴量子化部8において、割当閾値以下で最も距離の近い見本特徴に対して割り当てを行う場合、見本特徴を中心として、半径が割当閾値に等しい超球を特徴存在範囲として設定する(ステップS25)。
The feature existence range determination unit 22 reads a set of sample features output from the sample feature creation unit 1, and a range in the feature space in which there is a possibility that an accumulated feature and a target feature assigned to each sample feature of this set may exist. Is set for each sample feature.
At this time, for example, when the accumulated feature quantizing unit 4 and the target feature quantizing unit 8 assign the sample feature closest to the distance below the assignment threshold, the feature existence range determining unit 22 focuses on the sample feature. Then, a hypersphere whose radius is equal to the allocation threshold is set as the feature existence range (step S25).

また、特徴存在範囲確定部22は、別の実施例として、蓄積特徴量子化部4及び索引付与部6において、最も距離の近い見本特徴に対して割り当てを行う場合、見本特徴を中心として、半径が見本特徴間の距離の最大値の半分に等しい超球を特徴存在範囲として設定するように構成されても良い。
上述したように、特徴存在範囲確定部22は、上述した方法のいずれかで求めた特徴存在範囲の集合を出力する。
上述した特徴存在範囲を用いて、ステップS3において、見本特徴間の距離が計算される。
As another example, the feature existence range determination unit 22 uses the radius of the sample feature as the center when the accumulated feature quantization unit 4 and the index assigning unit 6 perform assignment to the sample feature with the shortest distance. May be configured to set a hypersphere equal to half the maximum value of the distance between the sample features as the feature existence range.
As described above, the feature existence range determination unit 22 outputs a set of feature existence ranges obtained by any of the methods described above.
In step S3, the distance between the sample features is calculated using the feature existence range described above.

<実験>
本発明を適用した装置の動作例を以下に示す。
ここで、蓄積画像群として、大きさ384×256ピクセルの画像1000枚を用い、目的画像として、大きさ80×80ピクセルの画像10枚を、上記蓄積画像群中の任意の箇所から切り出して用いた。
また、部分領域は大きさを64×64ピクセルとし、マージンを縦方向及び横方向共に16ピクセルと設定して、部分画像の切り出しを行った。
すなわち、蓄積画像1枚あたりの部分領域の数は273個であり、目的画像の部分領域の数は289個である。
<Experiment>
An example of the operation of the apparatus to which the present invention is applied is shown below.
Here, 1000 images with a size of 384 × 256 pixels are used as the stored image group, and 10 images with a size of 80 × 80 pixels are cut out from any location in the stored image group as the target image. It was.
In addition, the partial image was cut out with a size of 64 × 64 pixels and a margin of 16 pixels in both the vertical and horizontal directions.
That is, the number of partial areas per stored image is 273, and the number of partial areas of the target image is 289.

蓄積画像及び目的画像の特徴、すなわち蓄積特徴及び目的特徴としては、大きさ8×8ピクセルの小領域におけるRGB値を用いたため、部分領域特徴の次元は192次元となっている。
代表特徴は、学習信号を用いてベクトル量子化の符号帳を作成することによって、64個生成し、学習信号として蓄積画像群から10枚の画像を選択して取り出して用いた。
索引付与部6及び索引検索部10は、「信号検出方法、信号検出装置、記録媒体及びプログラム」(特開2002-236496)記載の実施例のように、ベクトル量子化に基づく索引付与と索引検索と実施し、クラスタ数を128とした。
また、距離尺度は自乗誤差を用い、検索閾値は2000とした。
Since the RGB values in a small region having a size of 8 × 8 pixels are used as the features of the accumulated image and the target image, that is, the accumulated feature and the target feature, the dimension of the partial region feature is 192 dimensions.
Representative features were generated by creating a vector quantization codebook using a learning signal, and 64 images were selected and used as learning signals by selecting 10 images from the stored image group.
The index assignment unit 6 and the index search unit 10 are provided with index assignment and index search based on vector quantization as in the embodiments described in “Signal detection method, signal detection device, recording medium, and program” (Japanese Patent Application Laid-Open No. 2002-236496). And the number of clusters was set to 128.
The distance scale used was a square error, and the search threshold was 2000.

本発明の効果を確認するため、本発明を適用した場合と、適用しない場合とにおける検索所要時間の比較を行った。
本実験の結果は、図14の表に示すように、従来例(適用しない)においては検索時間として「8.37秒」であったが、本発明(適用した)においては検索時間として「3.17秒」となった。
上記図14からわかるように、見本特徴を用いることにより、予め見本特徴間距離を求めておくことができるので、後の蓄積特徴及び目的特徴間の距離の演算が、上記見本特徴間距離を用いることにより大幅に低減することができるので、検索時間を短縮することが可能となる。
In order to confirm the effect of the present invention, the search required time was compared when the present invention was applied and when it was not applied.
As shown in the table of FIG. 14, the result of this experiment was “8.37 seconds” as the search time in the conventional example (not applied), but “3” as the search time in the present invention (applied). .17 seconds ".
As can be seen from FIG. 14, since the sample feature distance can be obtained in advance by using the sample feature, the calculation of the distance between the accumulated feature and the target feature uses the sample feature distance. Thus, the search time can be shortened.

なお、図1における部分画像検索装置の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、部分画像の検索処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   The program for realizing the function of the partial image search device in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Image search processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system provided with a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

本発明の第1の実施例による部分画像検索システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search system by 1st Example of this invention. 図1の部分画像検索システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the partial image search system of FIG. 蓄積画像において部分画像を設定する際に、配置のマージンについて説明する概念図である。It is a conceptual diagram explaining the margin of arrangement when setting a partial image in an accumulated image. 索引検索部6がクラスタを選択するときの原理を説明する概念図である。It is a conceptual diagram explaining the principle when the index search part 6 selects a cluster. 蓄積画像における照合窓の設定を説明する概念図である。It is a conceptual diagram explaining the setting of the collation window in an accumulation image. 本発明の第2の実施例による部分画像検索システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search system by the 2nd Example of this invention. 図6の部分画像検索システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the partial image search system of FIG. 本発明の第3の実施例による部分画像検索システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search system by the 3rd Example of this invention. 図8の部分画像検索システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the partial image search system of FIG. 本発明の第4の実施例による部分画像検索システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search system by the 4th Example of this invention. 図10の部分画像検索システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the partial image search system of FIG. 本発明の第5の実施例による部分画像検索システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the partial image search system by the 5th Example of this invention. 図12の部分画像検索システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the partial image search system of FIG. 画像を検索する際の、従来例と本発明との検索所要時間の比較を示す表である。It is a table | surface which shows the comparison of the search required time of a prior art example and this invention when searching an image.

符号の説明Explanation of symbols

1…見本特徴作成部 2…見本特徴間距離計算部 3…蓄積特徴抽出部 4…蓄積特徴量子化部 5…蓄積部分領域特徴抽出部 6…索引付与部
7…目的特徴抽出部 8…目的特徴量子化部 9…目的部分領域特徴抽出部
10…索引検索部 11…特徴照合部 12…照合結果判定部 13…特徴再照合部 14…照合結果再判定部 15…検索結果候補選択部
16…次目的部分領域特徴選定部 17…次検索候補特徴選定部 18…検索閾値更新部
19…目的代表特徴抽出部 20…目的部分領域間距離計算部
21…周辺距離下限値計算部 22…特徴存在範囲確定部
DESCRIPTION OF SYMBOLS 1 ... Sample feature creation part 2 ... Sample feature distance calculation part 3 ... Accumulated feature extraction part 4 ... Accumulated feature quantization part 5 ... Accumulated partial area feature extraction part 6 ... Index assignment part 7 ... Objective feature extraction part 8 ... Objective feature Quantization unit 9 ... target partial region feature extraction unit 10 ... index search unit 11 ... feature matching unit 12 ... matching result determination unit 13 ... feature re-matching unit 14 ... matching result re-determination unit 15 ... search result candidate selection unit 16 ... next Target partial region feature selection unit 17 ... Next search candidate feature selection unit 18 ... Search threshold update unit 19 ... Target representative feature extraction unit 20 ... Target partial region distance calculation unit 21 ... Peripheral distance lower limit value calculation unit 22 ... Feature existence range determination Part

Claims (17)

データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索方法であり、
部分画像を検出するとき、見本となる典型的な特徴パターンを有する見本特徴を複数種類作成する見本特徴作成過程と、
該見本特徴各々の間の距離である見本特徴間距離を演算する見本特徴間距離計算過程と、
蓄積画像群の各画像から複数の小領域を選択し、各小領域における画像の特徴である蓄積特徴を抽出する蓄積特徴抽出過程と、
該蓄積特徴と前記見本特徴とを比較し、各蓄積特徴に対して前記見本特徴に対応する符号を割り当てる蓄積特徴量子化過程と、
該符号の集合に対して、所定の大きさの注目窓を所定の間隔にて配置して、各注目窓内の符号の集合である蓄積部分領域特徴を抽出する蓄積部分領域特徴抽出過程と、
前記蓄積部分領域特徴に索引を付与する索引付与過程と、
目的画像から複数の小領域を選択し、この小領域各々の特徴を目的特徴として抽出する目的特徴抽出過程と、
該目的特徴と、前記見本特徴とを比較することにより、前記目的特徴に対して、見本特徴に対応する符号を割り当てる目的特徴量子化過程と、
前記目的特徴量子化過程で求められた符号の集合に予め定められた所定の大きさの注目窓を設定し、この注目窓をずらしながら各注目窓内の符号の集合である目的部分領域特徴を抽出する目的部分領域特徴抽出過程と、
前記索引により、目的部分領域特徴の集合に類似する蓄積部分領域特徴を抽出する索引検索過程と、
前記索引検索過程において導かれた蓄積部分領域特徴と前記目的部分領域特徴抽出過程で導かれた目的部分領域特徴との距離を、前記見本特徴間距離に基づいて演算する特徴照合過程と、
前記距離に基づいて、目的画像に類似する部分画像が、蓄積画像群中の当該箇所に存在する可能性の有無の判定を行う照合結果判定過程と、
前記照合結果判定過程において目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴の符号に目的画像と同一の大きさの照合窓を設定し、該照合窓内の符号の集合と、前記目的特徴の符号の集合との特徴距離を前記見本特徴間距離に基づいて演算する特徴再照合過程と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定過程と、
前記照合結果再判定過程において、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択過程と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定過程と、
前記検索候補特徴の集合の中から、次の照合すべき検索候補特徴を指定する次検索候補特徴選定過程と
を有することを特徴とする部分画像検索方法。
A partial image search method for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image,
A sample feature creation process for creating a plurality of sample features having a typical feature pattern as a sample when detecting a partial image;
A sample feature distance calculation process for calculating a distance between sample features which is a distance between each of the sample features;
An accumulated feature extraction process of selecting a plurality of small regions from each image of the accumulated image group and extracting accumulated features that are image features in each small region;
A stored feature quantization process that compares the stored feature with the sample feature and assigns a code corresponding to the sample feature to each stored feature;
A storage partial region feature extraction process for extracting a storage partial region feature that is a set of codes in each target window by arranging a predetermined size of the target window at a predetermined interval with respect to the set of codes,
An indexing process for indexing the accumulated subregion features;
A target feature extraction process of selecting a plurality of small regions from the target image and extracting features of each of the small regions as a target feature;
A target feature quantization process for assigning a code corresponding to the sample feature to the target feature by comparing the target feature with the sample feature;
A target window having a predetermined size is set in a set of codes obtained in the target feature quantization process, and target subregion features that are sets of codes in each target window are set while shifting the target window. A target partial region feature extraction process to be extracted;
An index search process for extracting accumulated subregion features similar to a set of target subregion features by the index; and
A feature matching process for calculating a distance between the accumulated partial area feature derived in the index search process and the target partial area feature derived in the target partial area feature extraction process based on the distance between the sample features;
Based on the distance, a matching result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists at the location in the accumulated image group;
At a location in the stored image where it is determined that a partial image similar to the target image may exist in the verification result determination process, a verification window having the same size as the target image is set as the code of the stored feature. A feature rematching process for calculating a feature distance between the set of codes in the matching window and the set of codes of the target feature based on the distance between the sample features;
Based on the feature distance, a verification result redetermination process for determining whether or not a partial image similar to the target image exists at the location in the accumulated image group;
A search result candidate selection process in which the location in the stored image determined to have a partial image similar to the target image in the collation result redetermination process is a search result candidate;
A next target subregion feature selection process for designating a target subregion feature to be matched next from the set of target subregion features;
A partial image search method comprising: a next search candidate feature selection step of designating a next search candidate feature to be collated from the set of search candidate features.
前記照合結果再判定過程において、前記特徴距離と、該特徴距離に対応する閾値である検索閾値とが比較され、
前記目的画像と類似する部分画像が前記蓄積画像中の当該箇所に存在するか否かが判定され、
前記索引検索過程において、前記目的部分領域特徴抽出過程から導かれたいずれかの目的部分領域特徴との距離が、前記検索閾値から決定される選択閾値を下回る蓄積部分領域特徴を、前記索引を用いて抽出し、
前記照合結果判定過程において、
前記距離と、前記選択閾値とが比較され、前記目的画像と類似する部分画像が前記蓄積画像中の当該箇所に存在する可能性の有無が判定される
ことを特徴とする請求項1に記載の部分画像検索方法。
In the verification result re-determination process, the feature distance is compared with a search threshold that is a threshold corresponding to the feature distance;
It is determined whether or not a partial image similar to the target image exists at the location in the stored image,
In the index search process, the accumulated sub-region feature whose distance from any target sub-region feature derived from the target sub-region feature extraction step is less than a selection threshold determined from the search threshold is used for the index. Extract
In the verification result determination process,
The distance is compared with the selection threshold value, and it is determined whether or not there is a possibility that a partial image similar to the target image exists in the location in the accumulated image. Partial image search method.
前記検索結果候補選択過程において、
前記照合結果再判定過程にて、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を、前記特徴再照合過程で算出された距離の小さい順に、予め定められた数量だけ選択して検索結果候補とし、
該検索結果候補から、前記特徴距離に基づいて、ある検索結果候補を検出し、その距離値から新たな検索閾値を設定する検索閾値更新過程を備えたことを特徴とする請求項2に記載の部分画像検索方法。
In the search result candidate selection process,
In the collation result re-determination process, a predetermined number of locations in the stored image that are determined to have a partial image similar to the target image are selected in ascending order of the distance calculated in the feature re-collation process. As search result candidates,
The search threshold value update process of detecting a certain search result candidate from the search result candidate based on the feature distance and setting a new search threshold value from the distance value. Partial image search method.
前記索引検索過程において、
前記索引に対して、前記目的部分領域特徴抽出過程で導かれた全ての目的部分領域特徴を用い、検索結果候補を抽出することを特徴とする請求項1から請求項3のいずれかに記載の部分画像検索方法。
In the index search process,
The search result candidate is extracted using all target partial region features derived in the target partial region feature extraction process with respect to the index. Partial image search method.
前記目的部分領域特徴を分類し、この各分類を代表する部分領域特徴である代表特徴を抽出する目的代表特徴抽出過程を備え、
前記索引検索過程において、前記目的部分領域特徴の代わりに、前記代表特徴を用いることを特徴とする請求項1から請求項3のいずれかに記載の部分画像検索方法。
A target representative feature extraction process for classifying the target partial region features and extracting representative features that are partial region features representing each classification;
4. The partial image search method according to claim 1, wherein the representative feature is used instead of the target partial region feature in the index search process.
前記次目的部分領域特徴選定過程において、
前記特徴照合過程で照合を行った蓄積部分領域特徴との距離が前記選択閾値を超えることが検出された、前記目的部分領域特徴抽出過程にて抽出された目的部分領域特徴を、次に照合すべき部分領域特徴として指定せずに、照合を省略することを特徴とする請求項1から請求項5のいずれかに記載の部分画像検索方法。
In the next target partial region feature selection process,
The target partial area feature extracted in the target partial area feature extraction process, in which it is detected that the distance from the accumulated partial area feature that has been verified in the feature verification process exceeds the selection threshold, is then verified. 6. The partial image search method according to claim 1, wherein collation is omitted without specifying as a power partial region feature.
前記目的部分領域特徴の集合において、各目的部分領域特徴間の距離を計算する目的部分領域間距離計算過程と、
前記距離値及び部分領域間距離とを用い、特徴照合過程において照合を行った蓄積部分領域と、前記目的部分領域特徴抽出過程で導かれた各目的部分領域特徴との距離の下限値を計算する周辺距離下限値計算過程と
を備え、
前記次目的部分領域特徴選定過程において、前記距離下限値及び選択閾値とを比較し、距離下限値が選択閾値を下回る蓄積信号中の箇所を、次に照合すべき箇所として指定する
ことを特徴とする請求項6に記載の部分画像検索方法。
In the set of target subregion features, a distance calculation process between target subregions for calculating a distance between each target subregion feature;
Using the distance value and the distance between the partial areas, the lower limit value of the distance between the accumulated partial area collated in the feature matching process and each target partial area feature derived in the target partial area feature extraction process is calculated. And a peripheral distance lower limit calculation process,
In the next target partial region feature selection process, the distance lower limit value and the selection threshold value are compared, and a location in the accumulated signal where the distance lower limit value is lower than the selection threshold value is designated as a location to be checked next. The partial image search method according to claim 6.
前記特徴照合過程及び前記特徴再照合過程において、
部分領域特徴特徴間の距離を、前記見本特徴間距離に基づいて算出された各小領域間の距離各々を加算した積算値とすることを特徴とする請求項1から請求項7のいずれかに記載の部分画像検索方法。
In the feature matching process and the feature rematching process,
The distance between the partial region feature features is an integrated value obtained by adding the distances between the small regions calculated based on the distance between the sample features. The partial image search method described.
前記見本特徴作成過程において、
予め用意された所定の学習信号にて、典型的に出現する特徴パターンを学習することにより見本特徴を生成することを特徴とする請求項1から請求項8のいずれかに記載の部分画像検索方法。
In the sample feature creation process,
The partial image search method according to any one of claims 1 to 8, wherein a sample feature is generated by learning a feature pattern that typically appears with a predetermined learning signal prepared in advance. .
前記見本特徴作成過程において、
クラスタリングアルゴリズムを用い、典型的に出現する特徴パターンを学習することを特徴とする請求項9に記載の部分画像検索方法。
In the sample feature creation process,
The partial image search method according to claim 9, wherein a feature pattern that typically appears is learned using a clustering algorithm.
前記蓄積特徴量子化過程において、
前記蓄積特徴に対して、該蓄積特徴との距離が最も小さい見本特徴に対応する符号を割り当て、
前記目的特徴量子化過程において、
前記目的特徴に対して、該目的特徴との距離が最も小さい見本特徴に対応する符号を割り当てる
ことを特徴とする請求項1から請求項10のいずれかに記載の部分画像検索方法。
In the accumulated feature quantization process,
A code corresponding to the sample feature having the smallest distance from the stored feature is assigned to the stored feature,
In the target feature quantization process,
The partial image search method according to any one of claims 1 to 10, wherein a code corresponding to a sample feature having the smallest distance from the target feature is assigned to the target feature.
前記蓄積特徴量子化過程において、
前記蓄積特徴に対して、該蓄積特徴との距離が、予め定められた割当閾値以下にて最も小さい見本特徴に対応する符号を割り当て、該当する見本特徴が存在しない場合、いずれの見本特徴にも対応しない他の符号を割り当て、
前記目的特徴量子化過程において、
前記目的特徴に対して、該目的特徴との距離が予め定められた割当閾値以下にて最も小さい見本特徴に対応する符号を割り当て、該当する見本特徴が存在しない場合、いずれの見本特徴にも対応しない他の符号を割り当てる
ことを特徴とする請求項1から請求項10のいずれかに記載の部分画像検索方法。
In the accumulated feature quantization process,
A code corresponding to the smallest sample feature whose distance from the accumulated feature is equal to or less than a predetermined allocation threshold is assigned to the accumulated feature, and if there is no corresponding sample feature, Assign other codes that are not supported,
In the target feature quantization process,
A code corresponding to the smallest sample feature whose distance from the target feature is equal to or less than a predetermined allocation threshold is assigned to the target feature, and if there is no corresponding sample feature, any sample feature is supported. The partial code search method according to claim 1, wherein another code that is not to be assigned is assigned.
前記見本特徴各々について、該見本特徴に割り当てられる可能性のある前記蓄積特徴抽出過程及び前記目的特徴抽出過程で導かれる特徴が存在し得る範囲である特徴存在範囲を導く特徴存在範囲確定過程を備え、
前記見本特徴間距離計算過程において、
前記特徴存在範囲を用い、各々の見本特徴間の距離を演算することを特徴とする請求項1から請求項12のいずれかに記載の部分画像検索方法。
For each of the sample features, a feature existence range determination step for deriving a feature existence range that is a range in which the features derived in the accumulated feature extraction process and the target feature extraction process that can be assigned to the sample feature can exist. ,
In the process of calculating the distance between sample features,
The partial image search method according to claim 1, wherein a distance between each sample feature is calculated using the feature existence range.
前記見本特徴間距離計算過程において、
前記特徴存在範囲に基づいて、見本特徴各々に対応する前記特徴存在範囲の間の最大距離、または前記特徴存在範囲の間の最小距離、あるいはその双方を計算し、それらを新たに見本特徴間の距離とすることを特徴とする請求項13に記載の部分画像検索方法。
In the process of calculating the distance between sample features,
Based on the feature existence range, the maximum distance between the feature existence ranges corresponding to each sample feature and / or the minimum distance between the feature existence ranges is calculated, and these are newly calculated between the sample features. The partial image search method according to claim 13, wherein the partial image search method is a distance.
データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索装置であり、
部分画像を検出するとき、見本となる典型的な特徴パターンを有する見本特徴を複数種類作成する見本特徴作成部と、
該見本特徴各々の間の距離である見本特徴間距離を演算する見本特徴間距離計算部と、
蓄積画像群の各画像から複数の小領域を選択し、各小領域における画像の特徴である蓄積特徴を抽出する蓄積特徴抽出部と、
該蓄積特徴と前記見本特徴とを比較し、各蓄積特徴に対して前記見本特徴に対応する符号を割り当てる蓄積特徴量子化部と、
該符号の集合に対して、所定の大きさの注目窓を所定の間隔にて配置して、各注目窓内の符号の集合である蓄積部分領域特徴を抽出する蓄積部分領域特徴抽出部と、
前記蓄積部分領域特徴に索引を付与する索引付与部と、
目的画像から複数の小領域を選択し、この小領域各々の特徴を目的特徴として抽出する目的特徴抽出部と、
該目的特徴と、前記見本特徴とを比較することにより、前記目的特徴に対して、見本特徴に対応する符号を割り当てる目的特徴量子化部と、
前記目的特徴量子化部が求めた符号の集合に予め定められた所定の大きさの注目窓を設定し、この注目窓をずらしながら各注目窓内の符号の集合である目的部分領域特徴を抽出する目的部分領域特徴抽出部と、
前記索引により、目的部分領域特徴の集合に類似する蓄積部分領域特徴を抽出する索引検索部と、
前記索引検索部が導いた蓄積部分領域特徴と、前記目的部分領域特徴抽出部が導いた目的部分領域特徴との距離を、前記見本特徴間距離に基づいて演算する特徴照合部と、
前記距離に基づいて、目的画像に類似する部分画像が、蓄積画像群中の当該箇所に存在する可能性の有無の判定を行う照合結果判定部と、
前記照合結果判定部により目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴の符号に目的画像と同一の大きさの照合窓を設定し、該照合窓内の符号の集合と、前記目的特徴の符号の集合との特徴距離を前記見本特徴間距離に基づいて演算する特徴再照合部と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定部と、
前記照合結果再判定部により目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択部と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定部と、
前記検索候補特徴の集合の中から、次の照合すべき検索候補特徴を指定する次検索候補特徴選定部と
を有することを特徴とする部分画像検索システム。
A partial image search device for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image;
When detecting a partial image, a sample feature creation unit that creates a plurality of types of sample features having a typical feature pattern as a sample;
A distance between sample features that calculates a distance between sample features that is a distance between each of the sample features;
A storage feature extraction unit that selects a plurality of small regions from each image of the storage image group and extracts a storage feature that is a feature of the image in each small region;
An accumulated feature quantization unit that compares the accumulated feature with the sample feature and assigns a code corresponding to the sample feature to each accumulated feature;
A storage partial region feature extracting unit that extracts a storage partial region feature that is a set of codes in each target window by arranging a target window of a predetermined size at a predetermined interval with respect to the set of codes,
An indexing unit for indexing the accumulated partial region features;
A target feature extraction unit that selects a plurality of small regions from the target image and extracts features of each of the small regions as a target feature;
A target feature quantization unit that assigns a code corresponding to the sample feature to the target feature by comparing the target feature with the sample feature;
A target window of a predetermined size is set in the set of codes obtained by the target feature quantization unit, and target partial region features that are sets of codes in each target window are extracted while shifting the target window. A target partial area feature extraction unit,
An index search unit for extracting accumulated partial region features similar to a set of target partial region features by the index;
A feature matching unit that calculates the distance between the storage partial region feature derived by the index retrieval unit and the target partial region feature derived by the target partial region feature extraction unit based on the distance between the sample features;
Based on the distance, a matching result determination unit that determines whether or not there is a possibility that a partial image similar to the target image exists in the portion of the accumulated image group;
A collation window having the same size as the target image is set as the sign of the accumulated feature at a location in the accumulated image where it is determined that the partial image similar to the target image may exist by the collation result determining unit. A feature rematching unit that calculates a feature distance between the set of codes in the matching window and the set of codes of the target feature based on the distance between the sample features;
A matching result re-determination unit that determines whether or not a partial image similar to the target image exists in the portion of the accumulated image group based on the feature distance;
A search result candidate selection unit that sets a location in the stored image determined to have a partial image similar to the target image by the matching result re-determination unit;
A next target partial region feature selection unit for designating a target partial region feature to be matched next from the set of target partial region features;
A partial image search system comprising: a next search candidate feature selection unit for designating a next search candidate feature to be collated from the set of search candidate features.
データベースに登録されている蓄積画像群から、検索対象の目的画像に類似した部分画像を含む画像及び該画像における部分画像の位置を検出する部分画像検索処理をコンピュータに実行させるプログラムであり、
部分画像を検出するとき、見本となる典型的な特徴パターンを有する見本特徴を複数種類作成する見本特徴作成処理と、
該見本特徴各々の間の距離である見本特徴間距離を演算する見本特徴間距離計算処理と、
蓄積画像群の各画像から複数の小領域を選択し、各小領域における画像の特徴である蓄積特徴を抽出する蓄積特徴抽出処理と、
該蓄積特徴と前記見本特徴とを比較し、各蓄積特徴に対して前記見本特徴に対応する符号を割り当てる蓄積特徴量子化処理と、
該符号の集合に対して、所定の大きさの注目窓を所定の間隔にて配置して、各注目窓内の符号の集合である蓄積部分領域特徴を抽出する蓄積部分領域特徴抽出処理と、
前記蓄積部分領域特徴に索引を付与する索引付与処理と、
目的画像から複数の小領域を選択し、この小領域各々の特徴を目的特徴として抽出する目的特徴抽出処理と、
該目的特徴と、前記見本特徴とを比較することにより、前記目的特徴に対して、見本特徴に対応する符号を割り当てる目的特徴量子化過程と、
前記目的特徴量子化処理で求められた符号の集合に予め定められた所定の大きさの注目窓を設定し、この注目窓をずらしながら各注目窓内の符号の集合である目的部分領域特徴を抽出する目的部分領域特徴抽出処理と、
前記索引により、目的部分領域特徴の集合に類似する蓄積部分領域特徴を抽出する索引検索処理と、
前記索引検索処理において導かれた蓄積部分領域特徴と前記目的部分領域特徴抽出過程で導かれた目的部分領域特徴との距離を、前記見本特徴間距離に基づいて演算する特徴照合処理と、
前記距離に基づいて、目的画像に類似する部分画像が、蓄積画像群中の当該箇所に存在する可能性の有無の判定を行う照合結果判定処理と、
前記照合結果判定処理において目的画像と類似する部分画像が存在する可能性があると判定された蓄積画像中の箇所において、前記蓄積特徴の符号に目的画像と同一の大きさの照合窓を設定し、該照合窓内の符号の集合と、前記目的特徴の符号の集合との特徴距離を前記見本特徴間距離に基づいて演算する特徴再照合処理と、
前記特徴距離に基づいて、目的画像と類似する部分画像が蓄積画像群中の当該箇所に存在するか否かを判定する照合結果再判定処理と、
前記照合結果再判定処理において、目的画像と類似する部分画像が存在すると判定された蓄積画像中の箇所を検索結果候補とする検索結果候補選択処理と、
前記目的部分領域特徴の集合の中から、次に照合すべき目的部分領域特徴を指定する次目的部分領域特徴選定処理と、
記検索候補特徴の集合の中から、次の照合すべき検索候補特徴を指定する次検索候補特徴選定処理と
を有する部分画像検索処理をコンピュータに実行させるプログラム。
A program for causing a computer to execute a partial image search process for detecting an image including a partial image similar to a target image to be searched from a stored image group registered in a database and a position of the partial image in the image,
Sample feature creation processing for creating a plurality of types of sample features having a typical feature pattern as a sample when detecting a partial image;
A sample feature distance calculation process for calculating a distance between sample features which is a distance between the sample features;
A storage feature extraction process for selecting a plurality of small regions from each image of the storage image group and extracting a storage feature that is a feature of the image in each small region;
A stored feature quantization process that compares the stored feature with the sample feature and assigns a code corresponding to the sample feature to each stored feature;
A storage partial region feature extraction process for extracting a storage partial region feature that is a set of codes in each target window by arranging a predetermined size of the target window at a predetermined interval with respect to the set of codes,
An indexing process for indexing the accumulated partial region features;
A target feature extraction process for selecting a plurality of small regions from the target image and extracting the features of each of the small regions as a target feature;
A target feature quantization process for assigning a code corresponding to the sample feature to the target feature by comparing the target feature with the sample feature;
A target window having a predetermined size is set in a set of codes obtained by the target feature quantization process, and target subregion features that are sets of codes in each target window are set while shifting the target window. A target partial region feature extraction process to be extracted;
An index search process for extracting stored partial area features similar to a set of target partial area features by the index; and
A feature matching process for calculating the distance between the storage partial area feature derived in the index search process and the target partial area feature derived in the target partial area feature extraction process based on the distance between the sample features;
Based on the distance, a matching result determination process for determining whether or not there is a possibility that a partial image similar to the target image exists in the location in the accumulated image group;
At a location in the stored image where it is determined that there is a possibility that a partial image similar to the target image exists in the verification result determination process, a verification window having the same size as the target image is set as the code of the stored feature. A feature rematching process for calculating a feature distance between a set of codes in the matching window and a set of codes of the target feature based on the distance between the sample features;
Based on the feature distance, a collation result re-determination process for determining whether or not a partial image similar to the target image exists in the location in the accumulated image group;
In the collation result re-determination process, a search result candidate selection process in which a location in the accumulated image determined to have a partial image similar to the target image is a search result candidate;
A next target partial region feature selection process for designating a target partial region feature to be matched next from the set of target partial region features;
A program for causing a computer to execute a partial image search process including: a next search candidate feature selection process for designating a next search candidate feature to be collated from a set of search candidate features.
請求項16に記載の部分画像検索プログラムを記録したコンピュータ読み取り可能な記録媒体。
The computer-readable recording medium which recorded the partial image search program of Claim 16.
JP2004184966A 2004-06-23 2004-06-23 Partial image search system, method and program Expired - Fee Related JP4343038B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004184966A JP4343038B2 (en) 2004-06-23 2004-06-23 Partial image search system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004184966A JP4343038B2 (en) 2004-06-23 2004-06-23 Partial image search system, method and program

Publications (2)

Publication Number Publication Date
JP2006011622A true JP2006011622A (en) 2006-01-12
JP4343038B2 JP4343038B2 (en) 2009-10-14

Family

ID=35778846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004184966A Expired - Fee Related JP4343038B2 (en) 2004-06-23 2004-06-23 Partial image search system, method and program

Country Status (1)

Country Link
JP (1) JP4343038B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334445A (en) * 2006-06-12 2007-12-27 Fuji Xerox Co Ltd Image processor and program
JP5327973B2 (en) * 2007-12-05 2013-10-30 芝浦メカトロニクス株式会社 Feature analyzer
JP2015133085A (en) * 2014-01-15 2015-07-23 キヤノン株式会社 Information processing device and method thereof
JP2016018444A (en) * 2014-07-09 2016-02-01 日本電信電話株式会社 Image retrieval system, method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334445A (en) * 2006-06-12 2007-12-27 Fuji Xerox Co Ltd Image processor and program
JP5327973B2 (en) * 2007-12-05 2013-10-30 芝浦メカトロニクス株式会社 Feature analyzer
JP2015133085A (en) * 2014-01-15 2015-07-23 キヤノン株式会社 Information processing device and method thereof
JP2016018444A (en) * 2014-07-09 2016-02-01 日本電信電話株式会社 Image retrieval system, method, and program

Also Published As

Publication number Publication date
JP4343038B2 (en) 2009-10-14

Similar Documents

Publication Publication Date Title
KR101191223B1 (en) Method, apparatus and computer-readable recording medium by for retrieving image
US9251434B2 (en) Techniques for spatial semantic attribute matching for location identification
JPWO2013129580A1 (en) Approximate nearest neighbor search device, approximate nearest neighbor search method and program thereof
US9569698B2 (en) Method of classifying a multimodal object
JP2006338313A (en) Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium
US10489681B2 (en) Method of clustering digital images, corresponding system, apparatus and computer program product
JP5598925B2 (en) Retrieval device and program for retrieving high-dimensional feature vectors with high accuracy
Zhou et al. Multiple distance-based coding: toward scalable feature matching for large-scale web image search
JP4937395B2 (en) Feature vector generation apparatus, feature vector generation method and program
JP5014479B2 (en) Image search apparatus, image search method and program
CN113657504A (en) Image retrieval method, image retrieval device, computer equipment and storage medium
CN113254687A (en) Image retrieval and image quantification model training method, device and storage medium
CN110209863B (en) Method and equipment for searching similar pictures
Chang et al. Unsupervised video shot detection using clustering ensemble with a color global scale-invariant feature transform descriptor
JP4421527B2 (en) Video search apparatus, method and program, and recording medium recording program
CN111353055A (en) Intelligent tag extended metadata-based cataloging method and system
CN104778272B (en) A kind of picture position method of estimation excavated based on region with space encoding
JP3903613B2 (en) Search device and computer-readable recording medium storing search program
JP4343038B2 (en) Partial image search system, method and program
JP6017277B2 (en) Program, apparatus and method for calculating similarity between contents represented by set of feature vectors
US20170262718A1 (en) Information processing apparatus and method of searching for similar data
JP2013246739A (en) Search device and program for precisely searching content represented by set of high dimensional feature vectors
JP4425719B2 (en) Partial image search method, partial image search device, partial image search program, and computer-readable recording medium recording the partial image search program
JP5819158B2 (en) Program, method and image search apparatus for extracting feature vector suitable for image search
Özkan et al. Visual group binary signature for video copy detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090630

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090708

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees