JP6091217B2 - Image search device, image search method, search source image providing device, search source image providing method, and program - Google Patents

Image search device, image search method, search source image providing device, search source image providing method, and program Download PDF

Info

Publication number
JP6091217B2
JP6091217B2 JP2013001080A JP2013001080A JP6091217B2 JP 6091217 B2 JP6091217 B2 JP 6091217B2 JP 2013001080 A JP2013001080 A JP 2013001080A JP 2013001080 A JP2013001080 A JP 2013001080A JP 6091217 B2 JP6091217 B2 JP 6091217B2
Authority
JP
Japan
Prior art keywords
image
feature
search
features
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013001080A
Other languages
Japanese (ja)
Other versions
JP2014134858A5 (en
JP2014134858A (en
Inventor
椎山 弘隆
弘隆 椎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013001080A priority Critical patent/JP6091217B2/en
Priority to US14/148,300 priority patent/US20140193077A1/en
Publication of JP2014134858A publication Critical patent/JP2014134858A/en
Publication of JP2014134858A5 publication Critical patent/JP2014134858A5/ja
Application granted granted Critical
Publication of JP6091217B2 publication Critical patent/JP6091217B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像の特徴量の抽出技術、特に、類似画像の比較のために利用する局所特徴に係る技術に関するものである。   The present invention relates to an image feature extraction technique, and more particularly to a technique related to local features used for comparison of similar images.

画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法が提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する(非特許文献1)。また、当該局所特徴点とその周辺の画像情報とに基づいて、当該局所特徴点に対応する特徴量(局所特徴量)を計算する技術も知られている(非特許文献2)。画像の検索は、局所特徴量同士のマッチングによって行う。   There has been proposed a method of searching for a similar image using a local feature amount (local feature amount) of an image. In this method, first, characteristic points (local feature points) are extracted from an image (Non-Patent Document 1). A technique for calculating a feature amount (local feature amount) corresponding to the local feature point based on the local feature point and surrounding image information is also known (Non-Patent Document 2). Image retrieval is performed by matching local feature amounts.

局所特徴量を利用する手法においては、局所特徴量を回転不変・拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、検索を可能にする。局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話である。実際のデジタル画像においては、画像の回転や拡大・縮小処理を行う際に計算誤差が発生するため、これらの処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。   In the technique using the local feature quantity, the local feature quantity is defined as information composed of a plurality of elements that are invariant to rotation, enlargement, and reduction. Thereby, even when the image is rotated, enlarged or reduced, the search can be performed. The local feature amount is generally expressed as a vector. However, it is a theoretical story that the local feature quantity is rotation invariant and expansion / reduction invariant. In actual digital images, calculation errors occur when image rotation or enlargement / reduction processing is performed, so there is a slight variation between these local feature values before processing and the corresponding local feature values after processing. Occurs.

回転不変の局所特徴量抽出のために、たとえば非特許文献2では、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量算出時に主方向を基準に局所領域を回転させて方向の正規化を行う。また、拡大・縮小不変の局所特徴量を算出するために、異なるスケールの画像を内部で生成し、各スケールの画像からそれぞれ局所特徴点の抽出と局所特徴量の算出を行う。ここで、内部で生成した一連の異なるスケールの画像集合は一般的にスケールスペースと呼ばれる。   In order to extract the rotation-invariant local feature value, for example, in Non-Patent Document 2, the main direction is calculated from the pixel pattern of the local region around the local feature point, and the local region is rotated based on the main direction when calculating the local feature value. To normalize the direction. Further, in order to calculate the local feature quantity that does not change in size, the image of different scales is generated internally, and local feature points are extracted from the images of the respective scales and the local feature quantities are calculated. Here, a series of image sets of different scales generated internally is generally called a scale space.

特許文献1では、画像データから特徴点を抽出するための画像特徴点抽出方法において、画像を変動させて複数枚の画像データを取得し、安定した特徴点に絞り込んでいる。また、特許文献2では、局所特徴点の再現性を評価し、再現性の高いものから記述し局所特徴量の個数を制御する。   In Patent Document 1, in an image feature point extraction method for extracting feature points from image data, a plurality of pieces of image data are acquired by changing an image, and the feature points are narrowed down to stable feature points. Further, in Patent Document 2, the reproducibility of local feature points is evaluated, and the number of local feature amounts is controlled by describing the features with high reproducibility.

特開2011−43969号JP 2011-43969 A 特願2011−237962号Japanese Patent Application No. 2011-23762

C.Harris and M.J. Stephens,“A combined corner and edge detector,” In Alvey Vision Conference,pages 147−152, 1988.C. Harris and M.M. J. et al. Stephens, “A combined corner and edge detector,” In Album Vision Conference, pages 147-152, 1988. David G. Lowe, “Distinctive Image Features from Scale−Invariant Keypoints,” International Journal of Computer Vision, 60, 2 (2004), pp.91−110.David G. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints,” International Journal of Computer Vision, 60, 2 (2004), pp. 199 91-110.

局所特徴量を用いた画像検索では、1枚の画像から複数の局所特徴点を抽出し、それぞれの局所特徴点から算出した局所特徴量同士の比較を行うことによりマッチングを行う。クエリ画像から多くの局所特徴点が抽出されると、局所特徴量同士の比較回数が増大し検索速度が低下するため、局所特徴点の数は多くなり過ぎないことと、クエリ画像に特有の希少性の高い(判別性能の高い)特徴を持つ特徴点が含まれていることが望ましい。   In an image search using local feature amounts, matching is performed by extracting a plurality of local feature points from one image and comparing the local feature amounts calculated from the respective local feature points. When many local feature points are extracted from the query image, the number of comparisons between local feature amounts increases and the search speed decreases, so the number of local feature points does not increase too much, and the rareness unique to query images It is desirable that feature points having high characteristics (high discrimination performance) are included.

また、撮影機能と通信機能を備えた携帯電話、スマートフォン、デジタルカメラ等の携帯デバイスが増えており、それらの携帯デバイスで撮影した画像をクエリとし、PC/サーバで検索し、検索結果を携帯デバイスで表示するという用途も考えられてきている。その実現方法として、携帯デバイス内で局所特徴量を算出し、その局所特徴量をPC/サーバに送信する方法がある。その場合、携帯デバイス内で算出された局所特徴量が多いと、PC/サーバへの送信に時間を要し、検索結果表示までの時間が長くかかることがあるため、局所特徴点の数は多くなり過ぎないことが望ましい。また、携帯デバイス、PC/サーバ、通信回線などの制限により、局所特徴量のサイズに上限がある場合もある。   In addition, mobile devices such as mobile phones, smartphones, and digital cameras equipped with a photographing function and a communication function are increasing. Images taken with these portable devices are used as queries, searched on a PC / server, and the search results are taken as portable devices. The use of displaying with is also considered. As an implementation method thereof, there is a method of calculating a local feature amount in a portable device and transmitting the local feature amount to a PC / server. In this case, if there are many local feature values calculated in the mobile device, it takes time to transmit to the PC / server, and it may take a long time to display the search results, so the number of local feature points is large. It is desirable not to become too much. In addition, there may be an upper limit on the size of the local feature amount due to restrictions on the mobile device, the PC / server, the communication line, and the like.

これらのことから、抽出された局所特徴点をすべて利用するのではなく、特許文献1や特許文献2のように、一部の局所特徴点のみを利用することが考えられている。しかしながら、これらの方法は、クエリ画像から抽出された局所特徴点の中から安定して抽出される局所特徴点を絞り込む方法である。例えば、ある場所から撮影し得る複数のランドマークが存在する場合で、そのうちの1つをクエリ画像として検索する場合を考える。   For these reasons, it is considered that not all of the extracted local feature points are used, but only some of the local feature points are used as in Patent Document 1 and Patent Document 2. However, these methods are methods for narrowing down local feature points that are stably extracted from local feature points extracted from the query image. For example, consider a case where there are a plurality of landmarks that can be photographed from a certain place and one of them is searched as a query image.

その場合、それらのランドマークに共通して安定して抽出される局所特徴点から算出される局所特徴量が存在する場合、互いのランドマークを区別する事には役に立たない特徴量になってしまい、高い検索精度を得ることはできない。この様な、1枚の画像で閉じた特徴量の最適化には限界が有る。主に1枚の画像から得られる情報を使って特徴量を絞るだけでは、絞られた結果の特徴量が必ずしも、検索において判別性能の高い特徴量となっているとは限らない。   In that case, if there is a local feature amount calculated from the local feature points that are stably extracted in common with those landmarks, the feature amount becomes useless for distinguishing the landmarks from each other. High search accuracy cannot be obtained. There is a limit to the optimization of the feature amount closed by one image like this. If only the feature amount is narrowed down mainly using information obtained from one image, the feature amount as a result of narrowing down does not necessarily become a feature amount with high discrimination performance in the search.

本発明は上記の課題に鑑みてなされたものであり、他の画像との判別性能が高く、検索に有意な局所特徴点および局所特徴量を得る技術を提供しようとするものである。   The present invention has been made in view of the above problems, and intends to provide a technique for obtaining local feature points and local feature quantities that are highly distinguishable from other images and that are significant for search.

本発明の画像検索装置は、画像を入力する入力手段と、前記画像を撮影した際の属性情報を取得する取得手段と、前記画像の画像特徴を抽出する抽出手段と、前記画像と前記属性情報と前記画像特徴を関連付けて記憶する記憶手段と、前記属性情報ごとの前記画像において共起する画像特徴の数に基づいて、前記入力手段で入力された検索元画像について前記抽出手段で抽出した画像特徴のうち検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別する選別手段と、前記検索元画像の検索のために使用すると選別された検索元画像の画像特徴と、前記記憶手段に記憶されている登録画像の画像特徴とを比較する比較手段と、を有する。   The image search apparatus according to the present invention includes an input unit for inputting an image, an acquisition unit for acquiring attribute information when the image is captured, an extraction unit for extracting an image feature of the image, the image and the attribute information. And an image extracted by the extraction unit for a search source image input by the input unit based on the number of image features co-occurring in the image for each attribute information Screening means for selecting image features to be used for searching the search source image and image features to be restricted from being used, and image features of the search source image selected to be used for searching the search source image And comparison means for comparing the image characteristics of the registered image stored in the storage means.

本発明によれば、他の画像との判別性能が高く、検索に有意な局所特徴点および局所特徴量を得ることができる。   According to the present invention, it is possible to obtain local feature points and local feature amounts that are highly distinguishable from other images and that are significant for search.

第1の実施形態における画像検索装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image search device in 1st Embodiment. 第1の実施形態において、画像登録処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of an image registration processing procedure in the first embodiment. 第1の実施形態において、縮小画像生成処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of a reduced image generation process in the first embodiment. 第1の実施形態において、特徴リストの一例を示す図である。In a 1st embodiment, it is a figure showing an example of a feature list. 第1の実施形態において、特徴リストと登録画像が関連付けられて登録されたデータベースの一例を示す図である。In a 1st embodiment, it is a figure showing an example of a database registered so that a feature list and a registered image may be associated with each other. 第1の実施形態において、差別化画像特徴リストの生成処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a differentiated image feature list generation processing procedure in the first embodiment. 特徴量の共起値を計算する処理フローチャートである。It is a processing flowchart which calculates the co-occurrence value of a feature-value. 第1の実施形態において、画像検索処理手順の一例を示すフローチャートある。5 is a flowchart illustrating an example of an image search processing procedure in the first embodiment. 第1の実施形態において、第一特徴抽出リストから差別化画像特徴量を優先して第二特徴抽出リストに追記する処理フローを示すフローチャートである。In the first embodiment, it is a flowchart showing a processing flow for preferentially adding a differentiated image feature amount from the first feature extraction list to the second feature extraction list. 第1の実施形態において、画像特徴比較処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of an image feature comparison processing procedure in the first embodiment. 第2の実施形態における画像検索システムの機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image search system in 2nd Embodiment. 第2の実施形態の画像検索システムにおける画像検索処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the image search process sequence in the image search system of 2nd Embodiment. 第2の実施形態において、差別化画像特徴リストの更新処理の一例を示すフローチャートである。14 is a flowchart illustrating an example of a process for updating a differentiated image feature list in the second embodiment. 第2の実施形態において、差別化画像特徴リストの更新設定のためのユーザインタフェースの一例である。In 2nd Embodiment, it is an example of the user interface for the update setting of a differentiated image feature list. 差別化画像特徴リストの一例Example of differentiated image feature list 画像属性データの一例Example of image attribute data

(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。第1の実施形態は、検索クエリ画像から画像特徴抽出を行い、その画像特徴群を使って検索を行い、検索結果を表示する画像検索システムの例である。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. The first embodiment is an example of an image search system that performs image feature extraction from a search query image, performs a search using the image feature group, and displays a search result.

図1は、本実施形態における画像検索装置の機能構成例を示すブロック図である。図1に示す各構成における動作の詳細については、後述する。   FIG. 1 is a block diagram illustrating a functional configuration example of an image search apparatus according to the present embodiment. Details of the operation in each configuration shown in FIG. 1 will be described later.

図1において、画像入力部101は、登録画像およびクエリ画像(検索元画像)の入力を行う。画像特徴算出部102は、画像入力部101から入力された登録画像およびクエリ画像の画像特徴群を算出する。   In FIG. 1, an image input unit 101 inputs a registered image and a query image (search source image). The image feature calculation unit 102 calculates the image feature group of the registered image and the query image input from the image input unit 101.

差別化画像特徴リスト生成部103は、例えばGPSによる位置情報や、それに加え時間情報、季節などの属性情報に合致した被写体オブジェクト群の画像を予め用意する。そしてそれらの画像に対し、被写体オブジェクト単位での画像特徴の共起性を求める。そして、共起性の低い画像特徴から順に採用する事により、同じ属性情報に対応する画像間で判別性能が高い差別化画像特徴リスト生成を行う。   The differentiated image feature list generation unit 103 prepares, in advance, an image of a subject object group that matches position information by GPS, for example, attribute information such as time information and season. For these images, the co-occurrence of image features in the subject object unit is obtained. Then, by adopting in order from image features having low co-occurrence, a differentiated image feature list having high discrimination performance between images corresponding to the same attribute information is generated.

画像特徴選別部104は、差別化画像特徴リストに有る判別性能が高い画像特徴群を参照し、クエリ画像の画像特徴群のうち差別化画像特徴リストに有る画像特徴群を画像特徴比較部105の処理に優先的に使用するように画像特徴群を選別する。   The image feature selection unit 104 refers to an image feature group having a high discrimination performance in the differentiated image feature list, and selects an image feature group in the differentiated image feature list from the image feature groups of the query image. The image feature group is selected so as to be used preferentially for processing.

画像特徴比較部105は、画像特徴選別部104で選別されたクエリ画像の画像特徴群を用いて画像特徴比較を行う。画像特徴比較結果表示部106は、画像特徴比較部105の画像特徴比較結果を表示する。記憶部107は処理中のデータを記憶する他、画像特徴記憶にも用いるメモリ・HDD等である。   The image feature comparison unit 105 performs image feature comparison using the image feature group of the query image selected by the image feature selection unit 104. The image feature comparison result display unit 106 displays the image feature comparison result of the image feature comparison unit 105. The storage unit 107 is a memory, HDD, or the like used for storing image characteristics in addition to storing data being processed.

なお、これら各構成は、不図示のCPUにより統括的に制御されている。   Each of these components is centrally controlled by a CPU (not shown).

尚、CPUはプログラムを実行することで各種の手段として機能することが可能である。なお、CPUと協調して動作するASICなどの制御回路がこれらの手段として機能してもよい。また、CPUと画像処理装置の動作を制御する制御回路との協調によってこれらの手段が実現されてもよい。また、CPUは単一のものである必要はなく、複数であってもよい。この場合、複数のCPUは分散して処理を実行することが可能である。また、複数のCPUは単一のコンピュータに配置されていてもよいし、物理的に異なる複数のコンピュータに配置されていてもよい。なお、CPUがプログラムを実行することで実現する手段が専用の回路によって実現されてもよい。   The CPU can function as various means by executing a program. Note that a control circuit such as an ASIC that operates in cooperation with the CPU may function as these means. These means may be realized by cooperation between the CPU and a control circuit that controls the operation of the image processing apparatus. Further, the CPU need not be a single one, and may be a plurality. In this case, a plurality of CPUs can perform processing in a distributed manner. The plurality of CPUs may be arranged in a single computer, or may be arranged in a plurality of physically different computers. Note that the means realized by the CPU executing the program may be realized by a dedicated circuit.

[画像登録処理]
図2は、第1の実施形態の画像検索装置における画像登録処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
[Image registration process]
FIG. 2 is a flowchart illustrating an example of an image registration processing procedure in the image search apparatus according to the first embodiment. The flowchart is realized when the CPU executes a control program.

まず、ステップS201において、画像入力部101を介して登録画像が入力される。入力された画像は、記憶部107に保存される。   First, in step S <b> 201, a registered image is input via the image input unit 101. The input image is stored in the storage unit 107.

次に、画像特徴算出部102において、ステップS202からステップS207の処理が行われる。まずステップS202で、入力された登録画像から輝度成分を抽出し、抽出した輝度成分に基づいて輝度成分画像を生成する。   Next, the image feature calculation unit 102 performs the processing from step S202 to step S207. First, in step S202, a luminance component is extracted from the input registered image, and a luminance component image is generated based on the extracted luminance component.

次にステップS203で、輝度成分画像を倍率(縮小率)pに従って順次縮小することを繰り返し、オリジナルのサイズの画像から段階的に縮小した、オリジナルの画像を含めてn枚の縮小画像を生成する。ここで、倍率p及び縮小画像の枚数nは予め決められているものとする。   Next, in step S203, it repeatedly repeats the reduction of the luminance component image in accordance with the magnification (reduction rate) p, and n reduced images including the original image, which are reduced stepwise from the original size image, are generated. . Here, it is assumed that the magnification p and the number n of reduced images are determined in advance.

図3は、縮小画像生成処理の一例を示す図である。図3に示す例は、倍率pが「2の−(1/4)乗」、縮小画像の枚数nが「9」の場合である。もちろん、倍率pは必ずしも「2の−(1/4)乗」で無くとも良い。図3において、符号301はステップS202で生成された輝度成分画像である。符号302は当該輝度成分画像301から倍率pに従って再帰的に4回の縮小処理を行って得られた縮小画像である。そして、符号303は当該輝度成分画像301から倍率pに従って8回縮小された縮小画像である。   FIG. 3 is a diagram illustrating an example of a reduced image generation process. The example shown in FIG. 3 is a case where the magnification p is “2 to the power of − (1/4)” and the number n of reduced images is “9”. Of course, the magnification p is not necessarily "2 to the power of-(1/4)". In FIG. 3, reference numeral 301 denotes the luminance component image generated in step S202. Reference numeral 302 denotes a reduced image obtained by recursively reducing the luminance component image 301 four times according to the magnification p. Reference numeral 303 denotes a reduced image obtained by reducing the luminance component image 301 eight times according to the magnification p.

この例では、縮小画像302は輝度成分画像301が1/2に縮小された画像となり、縮小画像303は輝度成分画像301が1/4に縮小された画像となる。尚、画像を縮小する方法は、第1の実施形態では、線形補間による縮小方法により縮小画像を生成するものとする。画像の縮小をその他の方法で行っても良い。   In this example, the reduced image 302 is an image obtained by reducing the luminance component image 301 to ½, and the reduced image 303 is an image obtained by reducing the luminance component image 301 to ¼. In the first embodiment, the method for reducing an image is to generate a reduced image by a reduction method using linear interpolation. The image may be reduced by other methods.

次に、ステップS204では、n枚の縮小画像の各々に画像の回転があってもロバスト(robust)に抽出されるような局所的な特徴点(局所特徴点)を抽出する。この局所特徴点の抽出方法として、第1の実施形態ではHarris作用素を用いる(非特許文献1:C.Harris and M.J. Stephens, “A combined corner and edge detector,” In Alvey Vision Conference, pages 147−152, 1988.参照)。   Next, in step S204, local feature points (local feature points) that are robustly extracted even if there is image rotation in each of the n reduced images are extracted. As a method for extracting local feature points, a Harris operator is used in the first embodiment (Non-patent Document 1: C. Harris and MJ Stephens, “A combined corner and edge detector,” In Alvery Vision Conference, pages. 147-152, 1988.).

具体的には、Harris作用素を作用させて得られた出力画像H上の画素について、当該画素及び当該画素の8近傍にある画素(合計9画素)の画素値を調べる。そして、当該画素が局所極大になる(当該9画素の中で当該画素の画素値が最大になる)点を局所特徴点として抽出する。ここで、当該画素が局所極大になったときでも、当該画素の値がしきい値以下の場合には局所特徴点として抽出しないようにする。   Specifically, with respect to the pixel on the output image H obtained by applying the Harris operator, the pixel values of the pixel and pixels in the vicinity of the pixel (eight pixels in total) (total nine pixels) are examined. Then, a point at which the pixel becomes a local maximum (a pixel value of the pixel becomes the maximum among the nine pixels) is extracted as a local feature point. Here, even when the pixel reaches a local maximum, it is not extracted as a local feature point if the value of the pixel is less than or equal to the threshold value.

尚、局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法でも適用可能である。   Note that any feature point extraction method is applicable as long as it is a method capable of extracting local feature points, not limited to the feature point extraction method using the Harris operator described above.

次に、ステップS205で、ステップS204で抽出された局所特徴点の各々について、画像の回転があっても不変となるように定義された特徴量(局所特徴量)を算出する。この局所特徴量の算出方法として、第1の実施形態ではLocal Jet及びそれらの導関数の組み合わせを用いる(J.J.Koenderink and A.J.van Doorn, “Representation of local geometry in the visual system,” Riological Cybernetics, vol.55, pp.367−375, 1987.参照)。   Next, in step S205, for each of the local feature points extracted in step S204, a feature quantity (local feature quantity) defined so as to remain unchanged even when the image is rotated is calculated. As a method for calculating this local feature amount, the first embodiment uses a local jet and a combination of derivatives thereof (JJ Koenderink and AJ van Doorn, “Representation of local geometry in the visual system, "Riologic Cybernetics, vol. 55, pp. 367-375, 1987.).

具体的には、以下の式(1)により局所特徴量Vを算出する。   Specifically, the local feature amount V is calculated by the following equation (1).

Figure 0006091217
Figure 0006091217

ただし、式(1)の右辺で用いている記号は、以下に示す式(2)から式(7)で定義される。ここで、式(2)右辺のG(x,y)はガウス関数、I(x,y)は画像の座標(x,y)における画素値であり、“*”は畳み込み演算を表す記号である。また、式(3)は式(2)で定義された変数Lのxに関する偏導関数、式(4)は当該変数Lのyに関する偏導関数である。式(5)は式(3)で定義された変数Lxのyに関する偏導関数、式(6)は式(3)で定義された変数Lxのxに関する偏導関数、式(7)は式(4)で定義されたLyのyに関する偏導関数である。   However, the symbols used on the right side of the equation (1) are defined by the following equations (2) to (7). Here, G (x, y) on the right side of Expression (2) is a Gaussian function, I (x, y) is a pixel value at image coordinates (x, y), and “*” is a symbol representing a convolution operation. is there. Equation (3) is a partial derivative of variable L defined by equation (2) with respect to x, and equation (4) is a partial derivative of variable L with respect to y. Equation (5) is the partial derivative of variable Lx defined in equation (3) with respect to y, equation (6) is the partial derivative of variable Lx defined in equation (3) with respect to x, and equation (7) is the equation. It is a partial derivative with respect to y of Ly defined in (4).

Figure 0006091217
Figure 0006091217

尚、局所特徴量を算出可能な方法であれば、上述したような特徴量算出方法に限らず、どのような特徴量算出方法でも適用可能である。   It should be noted that any feature amount calculation method is applicable as long as it is a method capable of calculating a local feature amount, not limited to the above-described feature amount calculation method.

次に、ステップS206で、ステップS205で算出された局所特徴量の各々について、量子化を行い、ラベル値を付与する。第一の実施形態で使用している局所特徴量、すなわち、Local Jetおよびそれらの導関数の組み合わせにより、1つの局所特徴点からN次元の局所特徴量が算出される。ここでは、各次元について、K個に量子化を行う。ここで、NおよびKはあらかじめ決められているものとする。   Next, in step S206, each local feature amount calculated in step S205 is quantized, and a label value is assigned. An N-dimensional local feature value is calculated from one local feature point by a combination of local feature values used in the first embodiment, that is, Local Jet and their derivatives. Here, K quantization is performed for each dimension. Here, N and K are assumed to be determined in advance.

具体的には以下の式(8)により、量子化を行う。   Specifically, quantization is performed by the following equation (8).

Qn=(Vn*K)/(Vnmax−Vnmin+1) ・・・(8)
ここで、Qnは、N次元のうちのn番目の次元の特徴量Vnを量子化した値である。VnmaxとVnminはそれぞれn番目の次元の特徴量の取りうる値の最大値、および、最小値である。
Qn = (Vn * K) / (Vnmax−Vnmin + 1) (8)
Here, Qn is a value obtained by quantizing the feature quantity Vn of the nth dimension among the N dimensions. Vnmax and Vnmin are the maximum value and the minimum value that can be taken by the feature quantity of the nth dimension, respectively.

各次元についての量子化を行った後、以下の式(9)により、ラベル化を行う。   After quantization for each dimension, labeling is performed by the following equation (9).

Figure 0006091217
Figure 0006091217

尚、量子化、ラベル化可能な算出方法であれば、上述したような算出方法に限らずに、どのような量子化、ラベル化方法でも適用可能である。   Note that any calculation method capable of quantization and labeling is not limited to the calculation method as described above, and any quantization and labeling method can be applied.

次に、ステップS207では、それらの特徴量、および、量子化ラベルを、画像特徴リストとしてまとめる。図4は、画像特徴リストの一例である。量子化ラベルをキーとしてリストを生成する。1つの量子化ラベルに複数の画像特徴リストが関連付けられることもある。   Next, in step S207, those feature amounts and quantization labels are collected as an image feature list. FIG. 4 is an example of an image feature list. A list is generated using the quantization label as a key. A plurality of image feature lists may be associated with one quantization label.

尚、第一の実施形態では、特徴量、および、量子化ラベルを、画像特徴リストとしてまとめているが、量子化ラベルのみを画像特徴リストとしてまとめることも可能である。また、特徴点の座標などのその他の情報を画像特徴リストに含めることも可能である。   In the first embodiment, the feature amounts and the quantization labels are collected as an image feature list. However, only the quantization labels can be collected as an image feature list. Also, other information such as the coordinates of feature points can be included in the image feature list.

最後に、ステップS208で、画像特徴リストを登録画像と関連付けて記憶部107に登録する。図5は、画像特徴リストが登録画像と関連付けて登録されたデータベースの一例である。量子化ラベルをキーとしてデータベースに登録する。また、登録画像には画像IDを割り振り、そのIDをデータベースに登録する。同じ画像を複数回登録した場合、類似する画像を登録した場合など、1つの量子化ラベルに複数の画像IDが関連付けられることもある。また、使用されない量子化ラベルが存在することもある。   Finally, in step S208, the image feature list is registered in the storage unit 107 in association with the registered image. FIG. 5 is an example of a database in which an image feature list is registered in association with a registered image. Register the quantization label as a key in the database. Also, an image ID is assigned to the registered image, and the ID is registered in the database. A plurality of image IDs may be associated with one quantization label, for example, when the same image is registered multiple times or when similar images are registered. There may also be quantization labels that are not used.

[差別化画像特徴リスト生成処理]
図6は、画像検索装置の差別化画像特徴リスト生成部103における差別化画像特徴リスト生成処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
[Different image feature list generation processing]
FIG. 6 is a flowchart illustrating an example of a differentiated image feature list generation processing procedure in the differentiated image feature list generation unit 103 of the image search apparatus. The flowchart is realized when the CPU executes a control program.

差別化画像特徴リストとは、例えばGPSによる位置情報や、それに加え時間情報、季節などの前記属性情報に対応する被写体オブジェクト単位で画像特徴の共起性を求め、共起性の低さをもとにまとめた、判別性能が高く差別化が可能な画像特徴リストである。ステップS207で作成した画像特徴リストに載っている画族特徴群の部分リストである。共起値の低い画像特徴を順にソートしておき、閾値以下の共起値の部分を差別化画像特徴リストとしてもよい。   The differentiated image feature list is, for example, determining the co-occurrence of image features in units of subject objects corresponding to the attribute information such as position information by GPS, time information, season, etc. These are image feature lists that have high discrimination performance and can be differentiated. It is a partial list of group feature groups included in the image feature list created in step S207. Image features with low co-occurrence values may be sorted in order, and the portion of co-occurrence values below the threshold may be used as a differentiated image feature list.

差別化画像特徴リスト生成部103は、それぞれの属性情報に対応する被写体オブジェクト群の画像を予め用意し、被写体オブジェクト単位での画像特徴の共起性を画像特徴の記憶情報を参照して求める。そして、共起性の低い画像特徴から順に採用する事により、同じ属性情報に対応する画像間で判別性能が高い画像特徴リストを生成する。   The differentiated image feature list generation unit 103 prepares in advance an image of the subject object group corresponding to each attribute information, and obtains the co-occurrence of the image feature for each subject object with reference to the storage information of the image feature. Then, by adopting in order from image features having low co-occurrence, an image feature list having high discrimination performance between images corresponding to the same attribute information is generated.

画像特徴選別部104は、差別化画像特徴リストに有る画像特徴群を参照し、クエリ画像の画像特徴群から差別化画像特徴リストに載っている判別性能が高い画像特徴群を選別する。   The image feature selection unit 104 refers to the image feature group in the differentiated image feature list, and selects the image feature group having high discrimination performance included in the differentiated image feature list from the image feature group of the query image.

本実施形態では、撮影環境の情報取得にGPSを用いる例を示す。位置の属性情報を用いている。またこの例では差別化画像特徴リストを生成する対象をランドマークとする。ランドマークが存在する位置のGPS情報とそのランドマーク画像を対にした知識ベースを構築しておく。   In the present embodiment, an example is shown in which GPS is used to acquire information about the shooting environment. Position attribute information is used. In this example, a target for generating a differentiated image feature list is a landmark. A knowledge base is constructed by pairing the GPS information of the position where the landmark exists and the landmark image.

まず、ステップS601において、知識ベースを用いて、クエリ画像のGPS情報に基づき近傍のランドマーク群を推定する。 そして、ステップS602において、近傍のランドマーク群の画像特徴群を得る。ステップS603において、差別化画像特徴を生成する対象である被写体オブジェクトとしてのランドマークの単位で特徴の共起値を算出する。   First, in step S601, a nearby landmark group is estimated based on the GPS information of the query image using the knowledge base. In step S602, image feature groups of neighboring landmark groups are obtained. In step S603, a feature co-occurrence value is calculated in units of landmarks as subject objects that are targets for generating differentiated image features.

図7は、ステップS603の共起値を算出するための処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。   FIG. 7 is a flowchart illustrating an example of a processing procedure for calculating the co-occurrence value in step S603. The flowchart is realized when the CPU executes a control program.

ステップS701にて差別化画像特徴を生成する際の基準となるGPS情報を得る。
このGPS情報は、予め有名なランドマークのあるGPS情報のリストを得て置き、そのそれぞれのGPS情報に対して、図7の処理を行う事で、数多くのランドマークに対応することが可能である。もちろん、GPS情報を適切なインターバルで自動生成しても良い。
ステップS702にて基準となるGPS値の近傍のランドマークを得てその個数をM個とする。予めランドマークとGPS値と画像データと画像特徴群を対応付けた知識ベースを準備しておき、基準となるGPS値との距離が予め定めた値以内のランドマークを求めれば良い。GPS情報は高さ情報も含むが、その項は含んでいても含まなくとも構わない。
In step S701, GPS information serving as a reference when generating differentiated image features is obtained.
This GPS information can correspond to many landmarks by obtaining a list of GPS information with famous landmarks in advance and performing the processing of FIG. 7 for each GPS information. is there. Of course, GPS information may be automatically generated at appropriate intervals.
In step S702, landmarks in the vicinity of the reference GPS value are obtained, and the number thereof is M. A knowledge base in which landmarks, GPS values, image data, and image feature groups are associated in advance is prepared, and landmarks whose distance from a reference GPS value is within a predetermined value may be obtained. The GPS information includes height information, but the term may or may not be included.

ステップS703にてM個のランドマーク画像に対応する画像特徴の個数等の下記の値を上記知識データからメモリへ読み込む。
・各ランドマークiに対応する画像の個数をNumP(i) i=1,…,M
・ランドマークiに対応する画像を Pic[i] [j] j=1,…, NumP(i)
・各画像の特徴の個数をnumFeat[ Pic[i] [j] ]
・各画像のk番目の特徴をFeat[ Pic[i] [j] ] [k] k=1,…, numFeat[ Pic[i] [j] ]
また、i= 1 とし、特徴毎の共起値CO[]=0 で初期化する。
尚、共起値COの配列部[]には、特徴量の量子化ラベルの値が入る。
In step S703, the following values such as the number of image features corresponding to the M landmark images are read from the knowledge data into the memory.
The number of images corresponding to each landmark i is expressed as NumP (i) i = 1,.
An image corresponding to the landmark i is represented by Pic [i] [j] j = 1,... NumP (i)
NumFeat [Pic [i] [j]] for the number of features in each image
The k-th feature of each image is Feat [Pic [i] [j]] [k] k = 1, numFeat [Pic [i] [j]]
Also, i is set to 1 and initialization is performed with a co-occurrence value CO [] = 0 for each feature.
The co-occurrence value CO array portion [] contains the quantization label value of the feature quantity.

ステップS704にて比較基準と成る画像を現すカウンタがM以下であるか、即ち比較基準となるランドマーク画像の残りがあるかどうかを判断し、無いと判断すれば処理を終了する。   In step S704, it is determined whether the counter representing the image serving as the comparison reference is equal to or less than M, that is, whether there is a remaining landmark image serving as the comparison reference.

ステップS704からステップS713の処理は、比較基準のランドマークをM個まで切り替えながら、ランドマークに対する画像群を切り替え、更に画像の特徴量の参照をするための Feat[ Pic[i] [j] ] [k] を生成する。   In the processing from step S704 to step S713, Feat [Pic [i] [j]] for switching the image group for the landmark while referring to M landmarks for comparison, and for referring to the feature amount of the image. [K] is generated.

ランドマークに対応する画像全ての特徴量を基準に、その他の画像がどの位同じ特徴量をランドマーク単位で含んでいるかを求める処理で有る。   This is a process for determining how much the other images contain the same feature quantity in units of landmarks based on the feature quantities of all the images corresponding to the landmarks.

尚、特徴量は全て量子化を行い、量子化ラベルで扱う。(この実施形態では、特徴量の同一性ではなく、量子化ラベルの同一性で共起性を求める)
ステップS705にて、ランドマークiに対応する画像群の何番目の画像であるかを示すjを1に初期化する。
All feature quantities are quantized and handled by quantization labels. (In this embodiment, the co-occurrence is obtained not by the feature quantity identity but by the quantization label identity.)
In step S705, j indicating the number of the image in the image group corresponding to the landmark i is initialized to 1.

ステップS706にてjがランドマークiに対応する画像群の個数を超えていないか判断し、超えていればステップS707にて、次のランドマーク画像にiを1つ増して変更させ、ステップS704に戻る。   In step S706, it is determined whether j does not exceed the number of image groups corresponding to the landmark i. If it exceeds, i is incremented by 1 in the next landmark image and changed in step S704. Return to.

ステップS706にてjがランドマークiに対応する画像群の個数を超えていないと判断したら、ステップS709にて特徴量を参照するためのカウンタkを1に初期化する。   If it is determined in step S706 that j does not exceed the number of image groups corresponding to the landmark i, a counter k for referring to the feature value is initialized to 1 in step S709.

ステップS709ではkがランドマークiの関連するj番目画像の特徴量個数を超えていないか判断する。そして、超えていなければステップS711の比較先のランドマーク画像を表すi2を1に初期化し、ステップS712以降のステップS721までの参照比較先の特徴量Feat[ Pic[i2] [j2] ] [k2] を参照するための処理に移る。   In step S709, it is determined whether k does not exceed the number of feature quantities of the j-th image associated with the landmark i. If not, i2 representing the landmark image of the comparison destination in step S711 is initialized to 1, and the reference comparison target feature amount Feat [Pic [i2] [j2]] [k2] from step S712 to step S721. ] Go to processing to refer to.

ステップS709ではkがランドマークiの関連するj番目画像の特徴量個数を超えたと判断した場合にはステップS710にて関連する画像を表すjを1つ増加させ、再びステップS706に戻る。   If it is determined in step S709 that k has exceeded the number of features of the j-th image associated with the landmark i, j representing the associated image is incremented by 1 in step S710, and the process returns to step S706 again.

ステップS712では、比較するランドマークを表すi2がランドマーク数Mを超えていないか判断する。   In step S712, it is determined whether i2 representing the landmark to be compared does not exceed the number M of landmarks.

超えている場合には、ステップS713にてkを1つ増加させ基準となるランドマークの特徴量を更新する処理に戻る。   If it exceeds, in step S713, k is incremented by 1, and the process returns to the process of updating the reference landmark feature quantity.

もし、ランドマークiの画像特徴群を全て比較し終えた場合には、ステップS713、709、710、706を経てステップS707にて次のランドマークを比較基準に更新する事に成る。   If all the image feature groups of the landmark i have been compared, the next landmark is updated to the comparison reference in step S707 through steps S713, 709, 710, and 706.

ステップS712からステップS724の処理は、比較先となるランドマークをM個まで切り替えながら、ランドマークに対する画像群を切り替え、更に画像の特徴量の参照用の Feat[ Pic[i2] [j2] ] [k2] を生成する。そして参照する特徴量をステップS722で比較処理を行う。   In the processing from step S712 to step S724, the image group for the landmark is switched while switching up to M landmarks as comparison destinations, and Feat [Pic [i2] [j2]] [ k2]. Then, the reference feature quantity is compared in step S722.

ランドマークに対応する画像全ての特徴量を基準に、その他の画像がどの位同じ特徴量をランドマーク単位で含んでいるかを求める処理で有る。   This is a process for determining how much the other images contain the same feature quantity in units of landmarks based on the feature quantities of all the images corresponding to the landmarks.

ステップS714にて、ランドマークi2に対応する画像群の何番目の画像であるかを示すj2を1に初期化し、更にi2にて既にどれかi2に関連する画像で共起値がインクリメントされているかどうかを表すFlagを0(未インクリメント)に初期化する。
ステップS715にてj2がランドマークi2に対応する画像群の個数を超えていないか判断し、超えていればステップS716にてFlagが1に成っているかどうかを判断し、1になっていれば特徴量量子化値に対応する共起値を1つ増加させる。
In step S714, j2 indicating which image in the image group corresponding to the landmark i2 is initialized to 1, and in i2, the co-occurrence value is already incremented in an image related to any i2. Flag indicating whether or not there is initialized to 0 (not incremented).
In step S715, it is determined whether j2 does not exceed the number of image groups corresponding to the landmark i2, and if so, it is determined in step S716 whether Flag is 1, and if it is 1. The co-occurrence value corresponding to the feature quantity quantization value is increased by one.

そして、ステップS718にて次のランドマーク画像にiを1つ増して変更させ、ステップS712に戻る。   In step S718, i is increased by one to the next landmark image, and the process returns to step S712.

ステップS715にてj2がランドマークi2に対応する画像群の個数を超えていないと判断したら、ステップS719にて特徴量を参照するためのカウンタk2を1に初期化する。   If it is determined in step S715 that j2 does not exceed the number of image groups corresponding to the landmark i2, a counter k2 for referring to the feature value is initialized to 1 in step S719.

ステップS720ではk2がランドマークi2の関連するj2番目画像の特徴量個数を超えていないか判断する。そして、超えていなければステップS722で特徴量 Feat[ Pic[i] [j] ] [k] と Feat[ Pic[i2] [j2] ] [k2] が同じで有るか判断する。同じで有ればステップS723にてFlagを1にし既に同じ特徴が有ったとする。ステップS722で同じ特徴でないと判断した場合には、ステップS724にてk2を1つ増加させステップS720へ戻る。
もし、ランドマークi2の画像特徴群を全て比較し終えた場合には、ステップS724、1620を経て1621にて次のランドマークを比較基準に更新する事に成る。
In step S720, it is determined whether k2 exceeds the number of feature quantities of the j2th image related to the landmark i2. If not, it is determined in step S722 whether the feature values Feat [Pic [i] [j]] [k] and Feat [Pic [i2] [j2]] [k2] are the same. If they are the same, Flag is set to 1 in step S723 and it is assumed that the same feature already exists. If it is determined in step S722 that the features are not the same, k2 is incremented by 1 in step S724, and the process returns to step S720.
If all the image feature groups of the landmark i2 have been compared, the next landmark is updated to the comparison reference in 1621 through steps S724 and 1620.

これにより、共起値col[]には、[]で示される特徴量量子化値に対する共起値が0からM*Mの値で格納される。   As a result, the co-occurrence value col [] stores the co-occurrence value for the feature value quantized value indicated by [] as a value from 0 to M * M.

更に、col[]をM*Mで割り、0から1.0までの値に正規化する。   Further, col [] is divided by M * M and normalized to a value from 0 to 1.0.

0は特徴量が現われない事を意味するので、0より大きい共起値を小さい物からソートし、共起値に対応する特徴量量子化値も合わせてソートする。この特徴量量子化値をソートした結果が差別化画像特徴を生成する情報源となる。   Since 0 means that the feature quantity does not appear, the co-occurrence values larger than 0 are sorted from the smallest, and the feature quantity quantized values corresponding to the co-occurrence values are also sorted. The result of sorting the feature quantity quantization values becomes an information source for generating differentiated image features.

この共起値が大きい場合、極端な場合で1.0の場合には、どのランドマークにも必ず共通に存在する特徴であり、ランドマークを弁別するのには役に立ちにくい事を表す。逆に、共起値が小さい場合にはランドマークを弁別するのに役立つ事を意味する。本実施形態では、差別化画像特徴として共起値の小さい特徴を積極的に採用する。   When this co-occurrence value is large, or 1.0 in an extreme case, it is a feature that always exists in all landmarks, which means that it is difficult to distinguish the landmarks. Conversely, when the co-occurrence value is small, it means that it is useful for discriminating landmarks. In this embodiment, a feature with a small co-occurrence value is positively adopted as a differentiated image feature.

そこで、ステップS604において、共起値の低い順、即ち昇順で量子化ラベルをソートする。   Therefore, in step S604, the quantized labels are sorted in ascending order of co-occurrence values, that is, in ascending order.

ステップS605において、閾値未満の共起値の特徴(量子化ラベル)のリストを作成し、ステップS606において、差別化画像特徴リストとして出力・蓄積する。判別性能があると判断できる共起値を閾値に設定している。   In step S605, a list of features (quantization labels) of co-occurrence values less than the threshold is created, and in step S606, a list of differentiated image features is output and accumulated. A co-occurrence value that can be determined to have discrimination performance is set as a threshold value.

図15は、差別化画像特徴リストの一例である。   FIG. 15 is an example of a differentiated image feature list.

もちろん、ステップS605の処理で閾値を使わずに、共起値の小さいものから所定個数を選ぶとしても良い。もちろん、基準となるGPS情報の周辺に多くのランドマークが存在する場合には、少なくともそのランドマークの数以上の個数を用いる事が好ましい。更に、そのランドマークの数から所定個数を変更、例えば有る数を乗じた数とする事も可能である。   Of course, a predetermined number may be selected from those having a small co-occurrence value without using a threshold value in the process of step S605. Of course, when there are many landmarks around the reference GPS information, it is preferable to use at least the number of landmarks. Further, a predetermined number can be changed from the number of landmarks, for example, a number multiplied by a certain number.

差別化画像特徴リスト生成のタイミングとしては、電源がONや撮影モードや画像検索モードになった場合に現在のGPS情報を用いて、オンディマンド生成を行っても良い。   As the timing of generating the differentiated image feature list, on-demand generation may be performed using the current GPS information when the power is turned on, the shooting mode, or the image search mode.

もちろん、予め複数の差別化画像特徴リストを生成しておき、GPS情報に合わせて差別化画像特徴リストを選択する方法もある。撮影位置のGPS情報を、カメラで有る程度の大きさに映る限界を考慮し100m四方の区画で適切に量子化しておき、その量子化単位で差別化画像特徴リストを生成しておく事で可能である。   Of course, there is a method in which a plurality of differentiated image feature lists are generated in advance and the differentiated image feature lists are selected according to GPS information. It is possible by appropriately quantizing the GPS information of the shooting position in a 100 m square considering the limit reflected in the size of the camera, and generating a differentiated image feature list in that quantization unit It is.

更に、差別化画像特徴リストの精度を高め、且つ個々の差別化画像特徴リストのサイズを小さくする方法がある。各ランドマークに対し、撮影される方向ごとに画像を用意しておく。撮影位置のGPS情報と近傍の各ランドマークの位置のGPS情報から、撮影される方角を得て、共起値を算出する画像を切り替える。これにより、撮影位置から写り得るランドマークの構図に即した差別化画像特徴リストを生成可能となる。撮影される可能性の有るランドマークの数も減る事から、個々の差別化画像特徴リストのサイズを小さくする事が可能である。   Further, there is a method for increasing the accuracy of the differentiated image feature list and reducing the size of each differentiated image feature list. For each landmark, an image is prepared for each shooting direction. The direction to be photographed is obtained from the GPS information of the photographing position and the GPS information of the position of each nearby landmark, and the image for calculating the co-occurrence value is switched. This makes it possible to generate a differentiated image feature list in accordance with the composition of landmarks that can be taken from the shooting position. Since the number of landmarks that can be photographed is also reduced, the size of each differentiated image feature list can be reduced.

但し、もし、ランドマークが存在する位置のGPS情報とそのランドマーク画像を用意出来ない場合には、GPS情報とコンパスによる撮影方位情報の組み合わせを代用する。即ち、そのGPS近傍から、全方位360度を例えば45度単位、即ち8方向の撮影画像に分類し、これら分類に対して特徴の共起値を求めても構わない。   However, if the GPS information of the position where the landmark exists and the landmark image cannot be prepared, the combination of the GPS information and the shooting direction information by the compass is used instead. In other words, 360 degrees from all GPS directions may be classified into, for example, 45-degree units, that is, captured images in eight directions, and feature co-occurrence values may be obtained for these classifications.

ステップS603において、ランドマークの単位で特徴の共起値を算出したが、簡易に行う場合には、ランドマーク単位ではなく、ランドマークを含む画像全体での共起値を代用しても良い。但し、この場合は、精度が下がる可能性が有る。   In step S603, the co-occurrence value of the feature is calculated in the unit of the landmark. However, in the case of performing simply, the co-occurrence value in the entire image including the landmark may be used instead. However, in this case, the accuracy may decrease.

また、人にランドマークの画像を提示し、ランドマークの特色のある領域を指定させ、他方、画像特徴抽出処理により特徴点を検出し、人の指定した領域に存在する特徴点のみを用いて図6の処理を行う事でより精度の高い差別化画像特徴量リストを生成可能である。更に、その差別化画像特徴リストに対応する特徴点とその共起値を可視化表示し、人が選別を行う事で、よりコンパクトで人の感覚に近い差別化画像特徴リストを作成する事が可能となる。人が見てランドマークの特色を現す部分に関連する特徴点から算出される画像特徴群と関連付けられている画像の記憶数あるいは画像特徴群の共起値を表示しそれを考慮して差別化画像特徴リストを生成しても良い。   In addition, the image of the landmark is presented to the person, the area having the characteristic color of the landmark is designated, and the feature point is detected by the image feature extraction process, and only the feature point existing in the area designated by the person is used. By performing the processing of FIG. 6, it is possible to generate a differentiated image feature amount list with higher accuracy. In addition, the feature points and their co-occurrence values corresponding to the differentiated image feature list can be visualized and displayed by a person to create a differentiated image feature list that is more compact and close to the human sense. It becomes. Differentiate by displaying the number of stored image or co-occurrence values of image feature groups associated with image feature groups calculated from the feature points related to the parts that show the features of landmarks An image feature list may be generated.

[画像検索処理]
図8は、第1の実施形態の画像検索装置における画像検索処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
[Image search processing]
FIG. 8 is a flowchart illustrating an example of an image search processing procedure in the image search apparatus according to the first embodiment. The flowchart is realized when the CPU executes a control program.

まず、ステップS801において、画像入力部101を介してクエリ(検索元)画像が入力される。入力された画像は、記憶部107に保存される。   First, in step S <b> 801, a query (search source) image is input via the image input unit 101. The input image is stored in the storage unit 107.

次に、画像特徴算出部102において、ステップS802からステップS807の処理が行われる。本処理は、画像登録処理におけるステップS202からステップS207の処理と同等であるため、詳細の説明は省略する。   Next, the image feature calculation unit 102 performs the processing from step S802 to step S807. Since this process is equivalent to the process from step S202 to step S207 in the image registration process, detailed description thereof is omitted.

但し、画像特徴抽出リストに関しては、2種類の画像特徴抽出リストを使用する。クエリ画像から抽出した特徴をそのまま記憶する第一特徴抽出リストと、差別化画像特徴リストと一致する画像特徴を画像特徴比較部105による比較処理に優先して使用するように反映した特徴を記憶する第二特徴抽出リストである。   However, two types of image feature extraction lists are used for the image feature extraction list. A first feature extraction list that stores features extracted from the query image as they are and a feature that reflects the image features that match the differentiated image feature list to be used in preference to the comparison processing by the image feature comparison unit 105 are stored. It is a 2nd feature extraction list.

即ち、画像登録処理における画像特徴抽出リストは、画像検索処理における第一特徴抽出リストに相当する。第二特徴抽出リストは最終的な検索比較処理に用いる特徴を記憶するために使用する。   That is, the image feature extraction list in the image registration process corresponds to the first feature extraction list in the image search process. The second feature extraction list is used for storing features used in the final search comparison process.

次に、ステップS808において、抽出されたクエリ画像の特徴数が、検索時に使用可能な特徴の最大数よりも多い場合、ステップS809に進み、最大数以下の場合は、ステップS814に進む。   Next, in step S808, if the number of features of the extracted query image is larger than the maximum number of features that can be used at the time of search, the process proceeds to step S809, and if it is less than the maximum number, the process proceeds to step S814.

最大数以下としたのは検索に用いる画像特徴の数の上限を制御し検索処理時間のばらつきを少なくすためである。もちろん最大数以下の場合でもステップS809に進んでも良好な結果が得られる場合も有るが、そもそもクエリ画像から取得される特徴自体が非常に少ない場合には特徴数が減りすぎないような注意が必要である。   The reason why the number is not more than the maximum number is to control the upper limit of the number of image features used for the search and reduce the variation in the search processing time. Of course, good results may be obtained even if the number is less than the maximum number or even if the process proceeds to step S809. However, if the number of features acquired from the query image is very small in the first place, care must be taken that the number of features does not decrease too much. It is.

尚、第1の実施形態では、クエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多いかどうかで判定している。しかしながら、画像特徴リストを記憶部に格納する時のサイズが、検索時に使用可能なサイズの最大値よりも多いかどうかで判定するようにしてもよい。   In the first embodiment, the determination is made based on whether or not the number of feature points of the query image is larger than the maximum number of feature points that can be used during the search. However, the determination may be made based on whether or not the size when the image feature list is stored in the storage unit is larger than the maximum size that can be used during the search.

ステップS809では、差別化画像特徴リストに載っている量子化ラベルと同じ量子化ラベルを第二特徴抽出リストに追記する。第一特徴抽出リストから、差別化画像特徴リストに載っていない量子化ラベルを削除して判別性能の高い画像特徴を第一特徴抽出リストに残すように処理しても良い。その他、第一特徴抽出リストに、差別化画像特徴リストに載っている量子化ラベルかどうか識別子を追記しても良い。   In step S809, the same quantization label as that in the differentiated image feature list is added to the second feature extraction list. Processing may be performed so that quantization labels that are not included in the differentiated image feature list are deleted from the first feature extraction list, and image features with high discrimination performance are left in the first feature extraction list. In addition, an identifier may be added to the first feature extraction list as to whether or not the quantization label is on the differentiated image feature list.

ここで、図9は、ステップS809における差別化画像特徴リストに載っている量子化ラベルと同じ量子化ラベルを第二特徴抽出リストに追記する処理の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。本処理は、画像特徴選別部104による処理である。   Here, FIG. 9 is a flowchart illustrating an example of a process of adding the same quantization label as that in the differentiated image feature list in step S809 to the second feature extraction list. The flowchart is realized when the CPU executes a control program. This process is a process performed by the image feature selection unit 104.

まず、ステップS901において、差別化画像特徴リストの1番目の量子化ラベルを処理対象量子化ラベルに設定する。次に、ステップS902において、処理対象量子化ラベルがクエリ画像の画像特徴リストに存在する場合はステップS903に進み、存在しない場合はステップS905に進む。   First, in step S901, the first quantization label in the differentiated image feature list is set as a processing target quantization label. Next, in step S902, if the processing target quantization label exists in the image feature list of the query image, the process proceeds to step S903, and if not, the process proceeds to step S905.

ステップS903では、処理対象量子化ラベルを第二特徴抽出リストに追記する。そして、ステップS904において、クエリ画像の特徴数が、検索時に使用可能な特徴の最大数以下の場合にステップS905に進み、最大数になった場合は処理を終了する。   In step S903, the processing target quantization label is added to the second feature extraction list. In step S904, if the number of features of the query image is equal to or less than the maximum number of features that can be used at the time of search, the process proceeds to step S905, and if it reaches the maximum number, the process ends.

尚、第1の実施形態では、クエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多いかどうかで判定している。しかしながら、ステップS808と同様に、画像特徴リストを記憶部に格納する時のサイズが、検索時に使用可能なサイズの最大値よりも多いかどうかで判定するようにしてもよい。   In the first embodiment, the determination is made based on whether or not the number of feature points of the query image is larger than the maximum number of feature points that can be used during the search. However, as in step S808, the determination may be made based on whether or not the size when the image feature list is stored in the storage unit is larger than the maximum size that can be used during the search.

ステップS905では、差別化画像特徴リストに未処理の量子化ラベルが存在する場合はステップS906に進み、存在しない場合は、処理を終了する。   In step S905, if an unprocessed quantization label exists in the differentiated image feature list, the process proceeds to step S906, and if not, the process ends.

ステップS906では、差別化画像特徴リストの次の量子化ラベルを処理対象量子化ラベルに設定し、ステップS902に戻る。   In step S906, the next quantization label in the differentiated image feature list is set as a processing target quantization label, and the process returns to step S902.

ステップS809の処理終了後、ステップS810において、第二特徴抽出リストの特徴数が検索時に使用可能な特徴の最小数よりも少ない場合、ステップS811に進み、最小数より多い場合は、ステップS812に進む。   After the process of step S809, if the number of features in the second feature extraction list is smaller than the minimum number of features that can be used at the time of search in step S810, the process proceeds to step S811, and if it is greater than the minimum number, the process proceeds to step S812. .

特徴点ベースの画像検索において、図10の様な投票方式のマッチングおいては少なくとも10点ぐらいの特徴点がランドマークの領域にないと情報が不足する事が経験上判っている。そこで、差別化画像特徴リストにより最小数未満となる場合には、ステップS811により画像特徴を補充する。   In image search based on feature points, it has been found from experience that information is insufficient if at least about 10 feature points are not included in the landmark area in voting matching as shown in FIG. Therefore, if the number is less than the minimum number in the differentiated image feature list, the image features are supplemented in step S811.

尚、第1の実施形態では、クエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多いかどうかで判定している。しかしながら、ステップS808と同様に、画像特徴リストを記憶部に格納する時のサイズが、検索時に使用可能なサイズの最大値よりも多いかどうかで判定するようにしてもよい。   In the first embodiment, the determination is made based on whether or not the number of feature points of the query image is larger than the maximum number of feature points that can be used during the search. However, as in step S808, the determination may be made based on whether or not the size when the image feature list is stored in the storage unit is larger than the maximum size that can be used during the search.

ステップS811では、クエリ画像の第一特徴抽出リストのうち、まだ第二特徴抽出リストに入れていない特徴量の安定性を評価する。そして、安定度の高い特徴量を第二特徴抽出リストに追加することにより、クエリ画像の特徴点数を検索時に使用可能な特徴の最大数を超えない数まで補充する。もちろん、第二特徴抽出リストの画像特徴数が最小数を満たさない場合には、その他の画像特徴を用いる。クエリ画像の特徴量の安定性を利用した特徴点数の選別方法については、特許文献2による方法を用いることで可能となる。   In step S811, the stability of feature quantities that have not yet been included in the second feature extraction list in the first feature extraction list of the query image is evaluated. Then, by adding a feature quantity with high stability to the second feature extraction list, the number of feature points of the query image is replenished to a number that does not exceed the maximum number of features that can be used during the search. Of course, when the number of image features in the second feature extraction list does not satisfy the minimum number, other image features are used. A method for selecting the number of feature points using the stability of the feature amount of the query image can be achieved by using the method according to Patent Document 2.

すなわち、解析対象の画像を回転或いは縮小する等の画像処理を行う事による、特徴点の位置および特徴量の特徴間距離を求め、これを安定性の指標とする。特徴点の位置の変動が大きいと明らかに特徴量は変化してしまうため、まず、特徴点の位置が定められた閾値範囲内に収まる特徴点に絞る。そして、回転或いは縮小する等の画像処理の前後での特徴量の変化、即ち特徴量間距離を安定性の指標とする。そして、距離の小さな特徴点ほど安定性の高いものと見なし、これを距離の昇順でソートし、特徴点数が、検索時に使用可能な特徴点数に達するまで、安定度の高い特徴量から優先してクエリ画像の画像特徴リストを作成する。    That is, the position of the feature point and the distance between the features of the feature amount are obtained by performing image processing such as rotating or reducing the image to be analyzed, and this is used as a stability index. If the variation of the position of the feature point is large, the feature amount obviously changes. Therefore, first, the feature point is narrowed down to a feature point that falls within the predetermined threshold range. Then, a change in feature quantity before and after image processing such as rotation or reduction, that is, a distance between feature quantities is used as an index of stability. The feature points with smaller distances are considered to be more stable, and are sorted in ascending order of distance, and the feature points with higher stability are prioritized until the number of feature points reaches the number of feature points that can be used during search. Create an image feature list for the query image.

ステップS812では、第二特徴抽出リストの特徴数が検索時に使用可能な特徴の最大数よりも多い場合にステップS813に進み、最大以下の場合は、ステップS815に進む。   In step S812, if the number of features in the second feature extraction list is greater than the maximum number of features that can be used during the search, the process proceeds to step S813. If the number is less than the maximum, the process proceeds to step S815.

ステップS813では、差別化画像特徴のみからなる第二特徴抽出リストの特徴から、共起値の小さいものから優先して画像特徴比較部105による比較処理で使用可能な最大数までの特徴を選択し、改めて第二特徴抽出リストに格納する。もちろん、性能は低くなるが、ランダムに画像特徴比較部105による比較処理で使用可能な最大数までの特徴を選択しても良い。   In step S813, features from the second feature extraction list including only differentiated image features are selected from features having the smallest co-occurrence value up to the maximum number that can be used in the comparison processing by the image feature comparison unit 105. , It is stored again in the second feature extraction list. Of course, although the performance is lowered, up to the maximum number of features that can be used in the comparison processing by the image feature comparison unit 105 may be selected at random.

ステップS814では、第一特徴抽出リストの特徴数が最大数に足りていないので、全特徴を採用し、第二特徴抽出リストへ全てコピーする。   In step S814, since the number of features in the first feature extraction list is less than the maximum number, all features are adopted and all are copied to the second feature extraction list.

ステップS815では、記憶部107から画像特徴群を読み込み、画像特徴比較処理を行う。図10は、ステップS815における画像特徴比較処理の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。   In step S815, an image feature group is read from the storage unit 107, and image feature comparison processing is performed. FIG. 10 is a flowchart illustrating an example of the image feature comparison process in step S815. The flowchart is realized when the CPU executes a control program.

まず、ステップS1001において、登録画像数分の投票箱を用意し、0でリセットする。次に、ステップS1002において、第二特徴抽出リストの1番目の量子化ラベルを処理対象量子化ラベルに設定する。   First, in step S1001, ballot boxes for the number of registered images are prepared and reset at 0. Next, in step S1002, the first quantization label in the second feature extraction list is set as the processing target quantization label.

次に、ステップS1003において、処理対象量子化ラベルと関連付けて登録されている画像IDがある場合はステップS1004に進み、存在しない場合はステップS1005に進む。 ステップS1004では、処理対象量子化ラベルと関連付けて登録されている画像IDの投票箱に1票投票する。   In step S1003, if there is an image ID registered in association with the processing target quantization label, the process proceeds to step S1004, and if not, the process proceeds to step S1005. In step S1004, one vote is cast in the ballot box of the image ID registered in association with the processing target quantization label.

ステップS1005では、第二特徴抽出リストに未処理の量子化ラベルが存在する場合はステップS1006に進み、存在しない場合は、ステップS1007に進む。   In step S1005, if an unprocessed quantization label exists in the second feature extraction list, the process proceeds to step S1006, and if not, the process proceeds to step S1007.

ステップS1006では、第二特徴抽出リストの次の量子化ラベルを処理対象量子化ラベルに設定し、ステップS1003に戻る。   In step S1006, the next quantization label in the second feature extraction list is set as the processing target quantization label, and the process returns to step S1003.

次に、ステップS1007で投票数の多い順に投票結果をソートし、ステップS1008で投票数の多い方から所定数の画像IDを画像特徴比較結果リストとして出力する。   Next, in step S1007, the voting results are sorted in descending order of the number of votes, and in step S1008, a predetermined number of image IDs from the one with the largest number of votes are output as an image feature comparison result list.

最後にステップS816で画像特徴比較結果を表示する。画像特徴比較結果の表示にあたっては、画像IDと対応する画像を合わせて表示する。   Finally, the image feature comparison result is displayed in step S816. When displaying the image feature comparison result, the image corresponding to the image ID is displayed together.

もし、ランドマークのみを検索する場合には、ランドマークは移動しないのでGPS情報は一意であり、図16の画像属性データを参照し、現在の検索装置のGPS情報から撮影しえる範囲のGPS情報を持つ画像に絞り込む処理をステップS1008で行うと良い。もちろん、ランドマークの様に移動せず、一意のGPS情報と対応づけられるものであれば、同様な処理が可能である。   If only the landmark is searched, the landmark does not move, and therefore the GPS information is unique. With reference to the image attribute data in FIG. 16, GPS information in a range that can be photographed from the GPS information of the current search device. The process of narrowing down to the image having the image may be performed in step S1008. Of course, the same processing is possible as long as it does not move like a landmark and can be associated with unique GPS information.

以上のように第1の実施形態では、検索クエリ画像から抽出した画像特徴群からGPS情報を用いたランドマーク固有の画像特徴を記述した差別化画像特徴リストの差別化度の高い画像特徴を優先して採用した。検索クエリ画像から抽出した画像特徴群のうち差別化画像特徴リストに無く且つ画像特徴の安定度の低い画像特徴ほど使わないようにした。これにより、判別性能の高い特徴量に絞り込む事が可能となった。し、選別した画像特徴群を使って検索を行うようにした。これにより、検索時に使用可能な特徴点の数に制限がある場合であっても、検索精度の劣化を少なく抑えた検索を行うことができる。   As described above, in the first embodiment, priority is given to image features with a high degree of differentiation in the differentiated image feature list in which landmark-specific image features using GPS information are described from the image feature group extracted from the search query image. Adopted. Image features that are not included in the differentiated image feature list and are not stable in the image feature group extracted from the search query image are not used. This makes it possible to narrow down to feature quantities with high discrimination performance. The search is performed using the selected image feature group. Thereby, even when there is a limit to the number of feature points that can be used at the time of search, it is possible to perform a search with reduced deterioration in search accuracy.

(第2の実施形態)
以下、本発明の第2の実施形態について、図面を参照しながら説明する。第2の実施形態は、画像検索端末である検索クライアント(要求元)で撮影することにより検索クエリ画像を生成して画像特徴群を抽出し、その画像特徴群を画像検索サーバに送って画像検索サーバ内で検索を行い、検索クライアントに検索結果を表示する画像検索システムの例である。画像検索クライアントは、検索元画像を提供する検索元画像提供装置である。画像検索サーバへの画像登録処理は、第1の実施形態と同様の方式により行う。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. In the second embodiment, a search query image is generated by photographing with a search client (request source) that is an image search terminal, an image feature group is extracted, and the image feature group is sent to an image search server to perform an image search. It is an example of the image search system which searches in a server and displays a search result on a search client. The image search client is a search source image providing device that provides a search source image. Image registration processing to the image search server is performed by the same method as in the first embodiment.

図11は、本実施形態における画像検索システムの機能構成例を示すブロック図である。図11に示す各構成における動作の詳細については、後述する。   FIG. 11 is a block diagram illustrating a functional configuration example of the image search system according to the present embodiment. Details of the operation in each configuration shown in FIG. 11 will be described later.

図11における画像検索システムは、検索クライアント1101と画像検索サーバ1102からなる。検索クライアント1101と画像検索サーバ1102にはそれぞれ通信部1112、1120があり、該通信部1112、1120の間はネットワーク(有線、無線)で接続されており、該ネットワークを介して、情報通信を行う。   The image search system in FIG. 11 includes a search client 1101 and an image search server 1102. The search client 1101 and the image search server 1102 have communication units 1112 and 1120, respectively. The communication units 1112 and 1120 are connected by a network (wired or wireless), and information communication is performed via the network. .

検索クライアント1101において、画像取得部1103は、カメラ撮影などにより、クエリ(検索元)画像の取得を行う。撮影環境情報送信部1104は、本実施形態ではGPS情報を画像検索サーバ1102へ送信する。   In the search client 1101, the image acquisition unit 1103 acquires a query (search source) image by camera photography or the like. In this embodiment, the shooting environment information transmission unit 1104 transmits GPS information to the image search server 1102.

差別化画像特徴リスト受信部1105は、画像検索サーバ1102で生成した差別化可能な画像特徴リストを通信部1112を介して受信する。   The differentiated image feature list receiving unit 1105 receives the distinguishable image feature list generated by the image search server 1102 via the communication unit 1112.

例えば、現在の撮影場所から写し得る複数のランドマークが有り、それらのランドマークを区別するのに役立つ特徴量を差別化画像特徴リストで受け取る事を考える。そのために、検索クライアント1001はGPS情報を画像検索サーバ1102へ送信し、GPS情報と対応付けられた差別化画像特徴リストを、通信部1112を介して受信する。差別化画像特徴リストには、例えばGPS情報と日時情報を用い、その場所その季節その時刻で写り得る被写体群を想定し、それらの区別に役立つ差別化画像特徴を記述する事で、検索精度を大きく向上可能である。   For example, it is assumed that there are a plurality of landmarks that can be photographed from the current shooting location, and that feature quantities useful for distinguishing these landmarks are received in the differentiated image feature list. For this purpose, the search client 1001 transmits GPS information to the image search server 1102 and receives a differentiated image feature list associated with the GPS information via the communication unit 1112. In the differentiated image feature list, for example, GPS information and date / time information are used, a group of subjects that can be photographed at that location, that season, and at that time are assumed. It can be greatly improved.

画像特徴算出部1106は、画像取得部1103で取得したクエリ画像の画像特徴群を算出する。画像特徴選別部1107は、クエリ画像の画像特徴群から、判別性能が高い画像特徴群を選別する。画像特徴送信部1108は、画像特徴選別部1107で選別された画像特徴群を、通信部1112を介して画像検索サーバ1102に送信する。画像特徴比較結果取得部1109は、画像検索サーバ1102で実行された画像特徴比較結果の受信を、通信部1112を介して行う。画像特徴比較結果表示部1110は、画像特徴比較結果取得部1109で取得した画像特徴比較結果を表示する。記憶部1111は検索クライアントにおいて、処理中のデータを記憶するメモリ・HDD等である。   The image feature calculation unit 1106 calculates an image feature group of the query image acquired by the image acquisition unit 1103. The image feature selection unit 1107 selects an image feature group with high discrimination performance from the image feature group of the query image. The image feature transmission unit 1108 transmits the image feature group selected by the image feature selection unit 1107 to the image search server 1102 via the communication unit 1112. The image feature comparison result acquisition unit 1109 receives the image feature comparison result executed by the image search server 1102 via the communication unit 1112. The image feature comparison result display unit 1110 displays the image feature comparison result acquired by the image feature comparison result acquisition unit 1109. The storage unit 1111 is a memory, HDD, or the like that stores data being processed in the search client.

画像検索サーバ1102において、差別化画像特徴リスト生成部1114は、複数の登録画像から算出された画像特徴群の中から、同じ属性情報に対して出現頻度が低く、同じ撮影環境情報に対応する画像間で判別性能が高い画像特徴リストを生成する。   In the image search server 1102, the differentiated image feature list generation unit 1114 has an appearance frequency that is low with respect to the same attribute information among image feature groups calculated from a plurality of registered images, and corresponds to the same shooting environment information. An image feature list with high discrimination performance is generated.

差別化画像特徴リスト送信部1115は、撮影環境情報受信部1113から得た撮影環境情報に適合する、差別化可能な画像特徴リストの送信を、通信部1120を介して検索クライアント1101に対して行う。画像特徴受信部1116は、検索クライアント1101で算出され、画像特徴選別部1107で優先採用されたクエリ画像の画像特徴群を、通信部1120を介して受信する。画像特徴比較部1117は、画像特徴受信部1116で受信したクエリ画像の画像特徴群を用いて画像特徴比較を行う。画像特徴比較結果送信部1118は、画像特徴比較部1117で実行された画像特徴比較の結果を、通信部1120を介して検索クライアント1101に送信する。記憶部1119は画像検索サーバにおいて、処理中のデータを記憶するメモリ・HDD等である。   The differentiated image feature list transmission unit 1115 transmits to the search client 1101 via the communication unit 1120 a differentiable image feature list that matches the shooting environment information obtained from the shooting environment information reception unit 1113. . The image feature reception unit 1116 receives the image feature group of the query image calculated by the search client 1101 and preferentially adopted by the image feature selection unit 1107 via the communication unit 1120. The image feature comparison unit 1117 performs image feature comparison using the image feature group of the query image received by the image feature reception unit 1116. The image feature comparison result transmission unit 1118 transmits the result of the image feature comparison executed by the image feature comparison unit 1117 to the search client 1101 via the communication unit 1120. The storage unit 1119 is a memory, HDD, or the like that stores data being processed in the image search server.

尚、画像特徴群選別部1107は画像検索サーバ側にあっても良い。その場合、画像特徴抽出部1106で抽出したクエリ画像の画像特徴群を画像特徴群送信部1108が通信部1112を介して画像検索サーバ1102に送信する。そして、画像検索サーバ1102にある画像特徴群選別部1107は、クエリ画像の画像特徴群から、判別性能が高い画像特徴群を選別する。画像特徴群比較部1117は、画像検索サーバ1102側にある画像特徴群選別部1107で選別された画像特徴群を用いて画像特徴群比較を行う。画像検索処理手順のフローチャートでも、画像特徴群選別部1107が画像検索サーバ1102側にある場合の処理を行うことになる。   The image feature group selection unit 1107 may be on the image search server side. In that case, the image feature group transmission unit 1108 transmits the image feature group of the query image extracted by the image feature extraction unit 1106 to the image search server 1102 via the communication unit 1112. Then, an image feature group selection unit 1107 in the image search server 1102 selects an image feature group with high discrimination performance from the image feature group of the query image. The image feature group comparison unit 1117 performs image feature group comparison using the image feature groups selected by the image feature group selection unit 1107 on the image search server 1102 side. Even in the flowchart of the image search processing procedure, the processing when the image feature group selection unit 1107 is on the image search server 1102 side is performed.

なお、これら各構成は、不図示のCPUにより統括的に制御されている。   Each of these components is centrally controlled by a CPU (not shown).

尚、CPUはプログラムを実行することで各種の手段として機能することが可能である。なお、CPUと協調して動作するASICなどの制御回路がこれらの手段として機能してもよい。また、CPUと画像処理装置の動作を制御する制御回路との協調によってこれらの手段が実現されてもよい。また、CPUは単一のものである必要はなく、複数であってもよい。この場合、複数のCPUは分散して処理を実行することが可能である。また、複数のCPUは単一のコンピュータに配置されていてもよいし、物理的に異なる複数のコンピュータに配置されていてもよい。なお、CPUがプログラムを実行することで実現する手段が専用の回路によって実現されてもよい。   The CPU can function as various means by executing a program. Note that a control circuit such as an ASIC that operates in cooperation with the CPU may function as these means. These means may be realized by cooperation between the CPU and a control circuit that controls the operation of the image processing apparatus. Further, the CPU need not be a single one, and may be a plurality. In this case, a plurality of CPUs can perform processing in a distributed manner. The plurality of CPUs may be arranged in a single computer, or may be arranged in a plurality of physically different computers. Note that the means realized by the CPU executing the program may be realized by a dedicated circuit.

[差別化画像特徴リスト生成処理]
第2の実施形態の画像検索システムの画像検索サーバの差別化画像特徴リスト生成部1114における差別化画像特徴リスト生成処理は、第1の実施形態の画像検索装置の差別化画像特徴リスト生成部103における差別化画像特徴リスト生成処理と同等である。従って、詳細の説明は省略する。
[Different image feature list generation processing]
The differentiated image feature list generation processing in the differentiated image feature list generation unit 1114 of the image search server of the image search system of the second embodiment is performed by the differentiated image feature list generation unit 103 of the image search device of the first embodiment. This is equivalent to the differentiated image feature list generation process in FIG. Therefore, detailed description is omitted.

尚、検索するたびに差別化画像特徴リストを受信する事は処理負荷が増すので、同じGPS情報の場合には検索クライアント1101において差別化画像特徴リストをキャッシュする事が好ましい。   Note that receiving a differentiated image feature list each time a search increases the processing load, so it is preferable to cache the differentiated image feature list in the search client 1101 in the case of the same GPS information.

[画像検索処理]
図12は、第2の実施形態の画像検索システムにおける画像検索処理手順の一例を示すフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
[Image search processing]
FIG. 12 is a flowchart illustrating an example of an image search processing procedure in the image search system according to the second embodiment. The flowchart is realized when the CPU executes a control program.

まず、ステップS1201では、検索クライアント1101において、カメラ撮影などにより、画像取得部1103を介してクエリ(検索元)画像を取得する。取得した画像は、記憶部1111に保存される。   First, in step S1201, the search client 1101 acquires a query (search source) image via the image acquisition unit 1103 by camera shooting or the like. The acquired image is stored in the storage unit 1111.

次に、画像特徴算出部1106において、ステップS1202からステップS1207の処理が行われる。本処理は、第1の実施形態の画像登録処理におけるステップS202からステップS207、もしくは、第1の実施形態の画像検索処理におけるステップS802からステップS807の処理と同等であるため、詳細の説明は省略する。   Next, the image feature calculation unit 1106 performs the processing from step S1202 to step S1207. This process is the same as the process from step S202 to step S207 in the image registration process of the first embodiment or the process of step S802 to step S807 in the image search process of the first embodiment, and thus detailed description thereof is omitted. To do.

次に、ステップS1208において、抽出されたクエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多い場合、ステップS1209に進み、最大数以下の場合は、ステップS1213に進む。   Next, in step S1208, if the number of feature points of the extracted query image is larger than the maximum number of feature points that can be used at the time of search, the process proceeds to step S1209, and if it is less than the maximum number, the process proceeds to step S1213.

尚、第2の実施形態では、クエリ画像の特徴点数が、検索時に使用可能な特徴点の最大数よりも多いかどうかで判定している。しかしながら、画像特徴リストを記憶部に格納する時のサイズが、検索時に使用可能なサイズの最大値よりも多いかどうかで判定するようにしてもよい。   In the second embodiment, the determination is made based on whether the number of feature points of the query image is larger than the maximum number of feature points that can be used at the time of search. However, the determination may be made based on whether or not the size when the image feature list is stored in the storage unit is larger than the maximum size that can be used during the search.

ステップS1209では、差別化画像特徴リストの更新処理を行う。   In step S1209, the differentiated image feature list is updated.

ここで、図13は、差別化画像特徴リストの更新処理の一例を示すステップS1209の詳細なフローチャートである。フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。   Here, FIG. 13 is a detailed flowchart of step S1209 showing an example of the update processing of the differentiated image feature list. The flowchart is realized when the CPU executes a control program.

まず、ステップS1301では、検索クライアント1101において、差別化画像特徴リストの更新設定を確認する。この差別化画像特徴リストの更新設定は、検索時に更新するかどうかを設定する。また、検索時に更新する設定の場合は、どのネットワーク接続のときに更新するかを設定する。図14は、差別化画像特徴リストの更新設定のためのユーザインタフェースの一例である。図14のボタン1401では、検索時に更新するかどうかを設定し、ボタン1402では、どのネットワーク接続のときに更新するかを設定する。   First, in step S1301, the search client 1101 confirms the update setting of the differentiated image feature list. The update setting of the differentiated image feature list sets whether to update at the time of search. In addition, in the case of the setting to be updated at the time of search, it is set which network connection is to be updated. FIG. 14 is an example of a user interface for the update setting of the differentiated image feature list. A button 1401 in FIG. 14 sets whether to update at the time of search, and a button 1402 sets which network connection to update.

ステップS1302において、前回検索時とGPS情報に変更がある場合にはステップS1303に進み、変更がない場合は、現在保持している差別化画像特徴リストをキャッシュとしてそのまま使用するとし、更新処理を終了する。   In step S1302, if there is a change in GPS information at the time of the previous search, the process proceeds to step S1303. If there is no change, the differentiated image feature list currently held is used as a cache as it is, and the update process ends. To do.

ステップS1303では、接続中のネットワークの確認を行い、ステップS1304において、更新対象ネットワークである場合はステップS1305に進み、更新対象ネットワークではない場合は、差別化画像特徴リストの更新処理を終了する。   In step S1303, the currently connected network is checked. If it is determined in step S1304 that the network is an update target network, the process proceeds to step S1305. If the network is not an update target network, the differentiated image feature list update process ends.

次に、ステップS1305で、差別化画像特徴リスト受信部1105が、通信部1112を介して画像検索サーバ1102から差別化画像特徴リストを取得する。最後に、ステップS1306において、ステップS1305で受信した差別化画像特徴リストを記憶部1111に保存し、差別化画像特徴リストの更新処理を終了する。   In step S <b> 1305, the differentiated image feature list receiving unit 1105 acquires the differentiated image feature list from the image search server 1102 via the communication unit 1112. Finally, in step S1306, the differentiated image feature list received in step S1305 is stored in the storage unit 1111 and the differentiated image feature list update process is terminated.

ステップS1209の差別化画像特徴リストの更新処理終了後、ステップS1210からステップS1212にかけて、第一特徴抽出リストから安定特徴を優先して第二特徴抽出リストへ補充処理を行う。これらの処理は、第1の実施形態の画像検索処理におけるステップS809からステップS811の処理と同等であるため、詳細の説明は省略する。   After the update processing of the differentiated image feature list in step S1209 is completed, in step S1210 to step S1212, the second feature extraction list is supplemented by giving priority to the stable feature from the first feature extraction list. Since these processes are equivalent to the processes from step S809 to step S811 in the image search process of the first embodiment, detailed description thereof is omitted.

次にステップS1213では、クエリ画像から抽出され選別された画像特徴リストを、通信部1112を介して画像検索サーバ1102に送信する。   In step S1213, the image feature list extracted and selected from the query image is transmitted to the image search server 1102 via the communication unit 1112.

ステップS1217では、画像検索サーバ1102において画像特徴比較処理を行う。本処理は、第1の実施形態の画像検索処理におけるステップS815の処理と同等であるため、詳細の説明は省略する。ステップS1218では、ステップS1212により得られた画像特徴比較結果を、通信部1120を介して検索クライアント1101に送信する。   In step S1217, the image search server 1102 performs image feature comparison processing. Since this process is equivalent to the process of step S815 in the image search process of the first embodiment, detailed description thereof is omitted. In step S1218, the image feature comparison result obtained in step S1212 is transmitted to the search client 1101 via the communication unit 1120.

最後に、ステップS1219で画像特徴比較結果を表示する。本処理は、第1の実施形態の画像検索処理におけるステップS816の処理と同等である。   Finally, an image feature comparison result is displayed in step S1219. This process is equivalent to the process of step S816 in the image search process of the first embodiment.

以上のように第2の実施形態では、検索クライアントにおいて検索クエリ画像から抽出した画像特徴群のうち、差別化画像特徴を優先して画像検索の比較処理に使用するように選別し、選別した画像特徴群を画像検索サーバに送信し、画像検索サーバで検索を行うようにした。これにより、検索時に使用可能な特徴点の数に制限がある場合であっても、検索精度の劣化を少なく抑えた検索を行うことができる。   As described above, in the second embodiment, the image that has been selected from the image feature group extracted from the search query image by the search client so that the differentiated image feature is preferentially used for the comparison process of the image search. The feature group is transmitted to the image search server, and the search is performed by the image search server. Thereby, even when there is a limit to the number of feature points that can be used at the time of search, it is possible to perform a search with reduced deterioration in search accuracy.

(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

GPS情報(撮影場所のカテゴリ)と日時を用いる事で、その場所その時期で撮影され得る動植物などを高精度に検索出来る差別化画像特徴リストを生成する事も可能である。また、天候情報や時間情報などで出現の確率がかわる夜行性の昆虫や動物の差別化画像特徴リストを生成する事も可能である。時間情報はもちろん、ローカルタイムで処理する必要がある。   By using GPS information (category of shooting location) and date and time, it is possible to generate a differentiated image feature list that can accurately search for animals and plants that can be shot at that location and time. It is also possible to generate a differentiated image feature list of nocturnal insects and animals whose appearance probability changes depending on weather information and time information. It is necessary to process not only time information but also local time.

また更に、天気、気温、湿度などにより出現頻度の変わる昆虫や動物の差別化画像特徴リストを生成する事も可能である。   Furthermore, it is also possible to generate a differentiated image feature list of insects and animals whose appearance frequency changes depending on weather, temperature, humidity, and the like.

建物でも、天気により開閉するドームなどの可動物がアピアランスを変える場合にも差別化画像特徴は役に立つ。   Even in buildings, differentiated image features are useful when moving objects such as a dome that opens and closes due to the weather change the appearance.

高山性の動植物などは、GPS情報の撮影高度情報を用いても良いが、気圧をその高度の推定に代用しても良い。   For alpine animals and plants, the shooting altitude information of GPS information may be used, but atmospheric pressure may be used for estimation of the altitude.

またフラッシュの有無、マクロ撮影などのカメラ撮影モードのダイヤル設定を属性情報とし、良く撮影される被写体間で共起性の低い画像特徴群を求める事で、高精度に検索出来る差別化画像特徴リストを生成する事も可能である。   Differentiated image feature list that can be searched with high accuracy by obtaining the image feature group with low co-occurrence between well-captured subjects using attribute settings such as camera shooting mode dial settings such as presence of flash and macro shooting Can also be generated.

望遠撮影では、近づくことの困難な鳥類などを撮影すると仮定して、鳥類同士での共起性の低い画像特徴群を求める事で、高精度に検索出来る差別化画像特徴リストを生成する事も可能である。もちろん、撮影被写体の被写体属性そのものを指定するカメラ撮影モードを指定できる場合には、その属性の有る画像から差別化画像特徴リストを生成する事も可能である。   In telephoto shooting, it is possible to generate a differentiated image feature list that can be searched with high accuracy by obtaining image feature groups with low co-occurrence between birds, assuming that birds that are difficult to approach are shot. Is possible. Of course, when a camera shooting mode for specifying the subject attribute of the shooting subject can be specified, a differentiated image feature list can be generated from an image having the attribute.

101 画像入力部
102 画像特徴算出部
103 差別化画像特徴リスト生成部
104 画像特徴選別部
105 画像特徴比較部
106 画像特徴比較結果表示部
107 記憶部
1101 検索クライアント
1102 画像検索サーバ
1103 画像取得部
1104 撮影環境情報送信部
1105 差別化画像特徴リスト受信部
1106 画像特徴算出部
1107 画像特徴選別部
1108 画像特徴送信部
1109 画像特徴比較結果取得部
1110 画像特徴比較結果表示部
1111 記憶部
1112 通信部
1113 撮影環境情報受信部
1114 差別化画像特徴リスト生成部
1115 差別化画像特徴リスト送信部
1116 画像特徴受信部
1117 画像特徴比較部
1118 画像特徴比較結果送信部
1119 記憶部
1120 通信部
DESCRIPTION OF SYMBOLS 101 Image input part 102 Image feature calculation part 103 Differentiated image feature list generation part 104 Image feature selection part 105 Image feature comparison part 106 Image feature comparison result display part 107 Storage part 1101 Search client 1102 Image search server 1103 Image acquisition part 1104 Photographing Environment information transmission unit 1105 Differentiated image feature list reception unit 1106 Image feature calculation unit 1107 Image feature selection unit 1108 Image feature transmission unit 1109 Image feature comparison result acquisition unit 1110 Image feature comparison result display unit 1111 Storage unit 1112 Communication unit 1113 Imaging environment Information reception unit 1114 Differentiated image feature list generation unit 1115 Differentiated image feature list transmission unit 1116 Image feature reception unit 1117 Image feature comparison unit 1118 Image feature comparison result transmission unit 1119 Storage unit 1120 Communication unit

Claims (20)

画像を入力する入力手段と、
前記画像を撮影した際の属性情報を取得する取得手段と、
前記画像の画像特徴を抽出する抽出手段と、
前記画像と前記属性情報と前記画像特徴を関連付けて記憶する記憶手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に基づいて、前記入力手段で入力された検索元画像について前記抽出手段で抽出した画像特徴のうち検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別する選別手段と、
前記検索元画像の検索のために使用すると選別された検索元画像の画像特徴と、前記記憶手段に記憶されている登録画像の画像特徴とを比較する比較手段と、
を有することを特徴とする画像検索装置。
An input means for inputting an image;
Acquisition means for acquiring attribute information at the time of photographing the image;
Extracting means for extracting image features of the image;
Storage means for storing the image, the attribute information, and the image feature in association with each other;
Based on the number of image features co-occurring in the image for each attribute information, the search source image input by the input unit is used for searching the search source image among the image features extracted by the extraction unit. A sorting means for sorting into image features and image features whose use is restricted;
Comparison means for comparing the image features of the search source image selected for use in searching the search source image with the image features of the registered image stored in the storage means;
An image search apparatus comprising:
前記属性情報ごとの前記画像において共起する画像特徴の数が所定数よりも少ない画像特徴リストを前記属性情報ごとに生成する生成手段を更に有し、
前記選別手段は、前記入力手段で入力された検索元画像について前記抽出手段で抽出した画像特徴のうち、前記取得手段で取得した前記検索元画像の前記属性情報に対応する前記画像特徴リストに存在する画像特徴に基づいて検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別することを特徴とする請求項1に記載の画像検索装置。
Further comprising: generating means for generating, for each attribute information, an image feature list in which the number of image features co-occurring in the image for each attribute information is less than a predetermined number;
The selection unit is present in the image feature list corresponding to the attribute information of the search source image acquired by the acquisition unit among the image features extracted by the extraction unit for the search source image input by the input unit. 2. The image search apparatus according to claim 1, wherein an image feature used for searching a search source image and an image feature whose use is restricted are selected based on the image feature to be searched.
前記比較手段で使用する前記検索元画像の画像特徴の総サイズ或いは画像特徴の個数が予め定められていることを特徴とする請求項1または2に記載の画像検索装置。   3. The image search apparatus according to claim 1, wherein a total size of image features or the number of image features of the search source image used by the comparison unit is predetermined. 前記属性情報は、場所および撮影方位に係る情報、時間に係る情報、天候に係る情報、撮影モードに係る情報の少なくとも1つであることを特徴とする請求項1から3のいずれか1項に記載の画像検索装置。 4. The attribute information according to claim 1, wherein the attribute information is at least one of information related to a place and a shooting direction , information related to time , information related to weather, and information related to a shooting mode. The image search apparatus described. 前記生成手段は、前記属性情報の少なくとも1つが適合した登録画像に対する前記記憶手段に記憶された画像特徴の共起値が閾値よりも小さい或いは共起値が小さい順から定められた個数の画像特徴を画像特徴リストに記述することを特徴とする請求項2に記載の画像検索装置。   The generating means has a number of image features determined from the order in which the co-occurrence values of the image features stored in the storage means with respect to the registered image to which at least one of the attribute information matches is smaller than the threshold or the co-occurrence values are small. The image search device according to claim 2, wherein the image feature list is described in an image feature list. 前記生成手段は、前記属性情報の少なくとも1つが適合した登録画像に対する画像特徴と関連付けられて記憶されている画像の共起値が閾値よりも小さい或いは共起値が小さい順から定められた個数の画像特徴を画像特徴リストに記述することを特徴とする請求項2に記載の画像検索装置。   The generation means has a number of co-occurrence values stored in association with an image feature for a registered image to which at least one of the attribute information is matched is smaller than a threshold value or a predetermined number of co-occurrence values. The image search apparatus according to claim 2, wherein the image feature is described in an image feature list. 前記生成手段は、前記属性情報の少なくとも1つが適合した登録画像に対する画像特徴と関連付けられて記憶されている画像の共起値に基づいて、ユーザが選択した画像特徴を画像特徴リストに記述することを特徴とする請求項2に記載の画像検索装置。   The generation means describes the image feature selected by the user in the image feature list based on the co-occurrence value of the image stored in association with the image feature for the registered image to which at least one of the attribute information is matched. The image search device according to claim 2. 前記生成手段では、前記画像の撮影場所における方向ごとの前記画像において共起する画像特徴の数が所定数よりも少ない画像特徴リストを前記方向ごとに生成することを特徴とする請求項2に記載の画像検索装置。   3. The image generation list according to claim 2, wherein the generation unit generates, for each direction, an image feature list in which the number of image features that co-occur in the image for each direction at the shooting location of the image is smaller than a predetermined number. Image search device. 前記選別手段では、前記検索元画像の画像特徴から前記画像特徴リストと一致する画像特徴を抽出することにより、画像特徴を選別することを特徴とする請求項2に記載の画像検索装置。   3. The image search apparatus according to claim 2, wherein the selecting means selects image features by extracting image features that match the image feature list from image features of the search source image. 前記選別手段では、前記検索元画像の画像特徴から前記画像特徴リストに存在しない画像特徴を削除することにより画像特徴を選別することを特徴とする請求項2に記載の画像検索装置。   3. The image search apparatus according to claim 2, wherein the selecting means selects image features by deleting image features that do not exist in the image feature list from image features of the search source image. 前記選別手段では、前記画像特徴リストと一致する画像特徴を前記検索元画像の画像特徴において識別することにより選別することを特徴とする請求項2に記載の画像検索装置。   3. The image search apparatus according to claim 2, wherein the selecting means selects an image feature that matches the image feature list by identifying the image feature in the image feature of the search source image. 前記場所および撮影方位に係る情報は、GPS情報、方位情報、撮影高度情報の少なくとも1つであることを特徴とする請求項4に記載の画像検索装置。 The image search apparatus according to claim 4, wherein the information related to the location and the shooting direction is at least one of GPS information, direction information, and shooting altitude information. 前記時間に係る情報は、前記撮影場所におけるローカルタイムの情報であることを特徴とする請求項4に記載の画像検索装置。 The image search apparatus according to claim 4, wherein the time- related information is local time information at the shooting location. 前記天候に係る情報は、天気に係る情報、気温に係る情報、湿度に係る情報、気圧に係る情報の少なくとも1つであることを特徴とする請求項4に記載の画像検索装置。 5. The image search apparatus according to claim 4, wherein the weather information is at least one of weather information , temperature information , humidity information , and atmospheric pressure information . 前記撮影モードに係る情報は、カメラ撮影モードのダイヤル設定に係る情報、フラッシュの有無の情報、マクロ撮影であるかの情報、望遠撮影であるかの情報、被写体属性に係る情報の少なくとも1つであることを特徴とする請求項4に記載の画像検索装置。 The information related to the shooting mode is at least one of information related to the dial setting of the camera shooting mode, information on the presence / absence of flash , information on whether to perform macro shooting , information on whether to perform telephoto shooting , or information on subject attributes. The image search apparatus according to claim 4, wherein the image search apparatus is provided. 画像に対応する画像特徴と前記画像を撮影した際の属性情報を記憶する記憶手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報を、要求に応じて要求元に送信する送信手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報に基づいて、検索元画像の検索のために使用する画像特徴として要求元で選別された画像特徴を受信する受信手段と、
前記受信した検索元画像の画像特徴と前記記憶手段に記憶された画像特徴とを比較する比較手段と、
を有することを特徴とする画像検索装置。
Storage means for storing image features corresponding to an image and attribute information when the image is captured;
Transmitting means for transmitting information on the number of image features co-occurring in the image for each attribute information to a request source in response to a request;
Receiving means for receiving an image feature selected by a request source as an image feature to be used for searching a search source image based on information on the number of image features co-occurring in the image for each attribute information;
Comparing means for comparing the image feature of the received search source image with the image feature stored in the storage means;
An image search apparatus comprising:
画像を入力する入力工程と、
前記画像を撮影した際の属性情報を取得する取得工程と、
前記画像の画像特徴を抽出する抽出工程と、
前記画像と前記属性情報と前記画像特徴とを関連付けて記憶手段に記憶させる工程と、前記属性情報ごとの前記画像において共起する画像特徴の数に基づいて、前記入力工程で入力された検索元画像について前記抽出工程で抽出した画像特徴のうち検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別する選別工程と、
前記検索元画像の検索のために使用すると選別された画像特徴と、前記記憶手段に記憶された登録画像の画像特徴とを比較する比較工程と、
を有することを特徴とする画像検索方法。
An input process for inputting an image;
An acquisition step of acquiring attribute information at the time of capturing the image;
An extraction step of extracting image features of the image;
The step of storing the image, the attribute information, and the image feature in association with each other in the storage unit, and the search source input in the input step based on the number of image features that co-occur in the image for each attribute information A selection step of selecting an image feature to be used for search of a search source image and an image feature to be restricted among the image features extracted in the extraction step for the image,
A comparison step of comparing the image features selected to be used for searching the search source image with the image features of the registered image stored in the storage means;
An image search method characterized by comprising:
画像に対応する画像特徴と前記画像を撮影した際の属性情報を記憶手段に記憶させる工程と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報を、要求に応じて要求元に送信する送信工程と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報に基づいて検索元画像の検索のために使用する画像特徴として要求元で選別された画像特徴を受信する受信工程と、
前記受信した検索元画像の画像特徴と前記記憶手段に記憶されている登録画像の画像特徴とを比較する比較工程と、
を有することを特徴とする画像検索方法。
Storing image characteristics corresponding to an image and attribute information at the time of capturing the image in a storage unit;
A transmission step of transmitting information on the number of image features co-occurring in the image for each attribute information to a request source upon request;
A receiving step of receiving an image feature selected by a request source as an image feature to be used for searching a search source image based on information on the number of image features co-occurring in the image for each attribute information;
A comparison step of comparing the image feature of the received search source image with the image feature of the registered image stored in the storage means;
An image search method characterized by comprising:
コンピュータを、
画像を入力する入力手段と、
前記画像を撮影した際の属性情報を取得する取得手段と、
前記画像の画像特徴を抽出する抽出手段と、
前記画像と前記属性情報と前記画像特徴とを関連付けて記憶する記憶手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に基づいて、前記入力手段で入力された検索元画像について前記抽出手段で抽出した画像特徴のうち検索元画像の検索のために使用する画像特徴と使用を制限する画像特徴とに選別する選別手段と、
前記検索元画像の検索のために使用すると選別された検索元画像の画像特徴と、前記記憶手段に記憶されている登録画像の画像特徴とを比較する比較手段と、
として機能させるためのプログラム。
Computer
An input means for inputting an image;
Acquisition means for acquiring attribute information at the time of photographing the image;
Extracting means for extracting image features of the image;
Storage means for storing the image, the attribute information, and the image feature in association with each other;
Based on the number of image features co-occurring in the image for each attribute information, the search source image input by the input unit is used for searching the search source image among the image features extracted by the extraction unit. A sorting means for sorting into image features and image features whose use is restricted;
Comparison means for comparing the image features of the search source image selected for use in searching the search source image with the image features of the registered image stored in the storage means;
Program to function as.
コンピュータを
画像に対応する画像特徴と前記画像を撮影した際の属性情報を記憶する記憶手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報を、要求に応じて要求元に送信する送信手段と、
前記属性情報ごとの前記画像において共起する画像特徴の数に関する情報に基づいて検索元画像の検索のために使用する画像特徴として要求元で選別された画像特徴を受信する受信手段と、
前記受信した検索元画像の画像特徴と前記記憶手段に記憶された画像特徴とを比較する比較手段と、
として機能させるためのプログラム。
Storage means for storing an image feature corresponding to an image and attribute information when the image is captured;
Transmitting means for transmitting information on the number of image features co-occurring in the image for each attribute information to a request source in response to a request;
Receiving means for receiving an image feature selected by a request source as an image feature to be used for searching a search source image based on information on the number of image features co-occurring in the image for each attribute information;
Comparing means for comparing the image feature of the received search source image with the image feature stored in the storage means;
Program to function as.
JP2013001080A 2013-01-08 2013-01-08 Image search device, image search method, search source image providing device, search source image providing method, and program Active JP6091217B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013001080A JP6091217B2 (en) 2013-01-08 2013-01-08 Image search device, image search method, search source image providing device, search source image providing method, and program
US14/148,300 US20140193077A1 (en) 2013-01-08 2014-01-06 Image retrieval apparatus, image retrieval method, query image providing apparatus, query image providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013001080A JP6091217B2 (en) 2013-01-08 2013-01-08 Image search device, image search method, search source image providing device, search source image providing method, and program

Publications (3)

Publication Number Publication Date
JP2014134858A JP2014134858A (en) 2014-07-24
JP2014134858A5 JP2014134858A5 (en) 2016-02-25
JP6091217B2 true JP6091217B2 (en) 2017-03-08

Family

ID=51413092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013001080A Active JP6091217B2 (en) 2013-01-08 2013-01-08 Image search device, image search method, search source image providing device, search source image providing method, and program

Country Status (1)

Country Link
JP (1) JP6091217B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004023656A (en) * 2002-06-19 2004-01-22 Canon Inc Image processing device, image processing method, and program
WO2004047026A1 (en) * 2002-11-20 2004-06-03 Fujitsu Limited Image search program

Also Published As

Publication number Publication date
JP2014134858A (en) 2014-07-24

Similar Documents

Publication Publication Date Title
US20140193077A1 (en) Image retrieval apparatus, image retrieval method, query image providing apparatus, query image providing method, and program
Zamir et al. Image geo-localization based on multiplenearest neighbor feature matching usinggeneralized graphs
KR101417548B1 (en) Method and system for generating and labeling events in photo collections
CN102591868A (en) System and method for automatic generation of photograph guide
JP4457988B2 (en) Image management apparatus, image management method, and computer program
JP5608680B2 (en) Mobile image retrieval and indexing system and method
JP6211407B2 (en) Image search system, image search device, search server device, image search method, and image search program
JP2007259415A (en) Image processing apparatus and image processing method, server and control method of the same, and program and storage medium
JP5467177B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, INFORMATION PROVIDING PROCESSING PROGRAM, RECORDING MEDIUM CONTAINING INFORMATION PROVIDING PROCESSING PROGRAM, AND INFORMATION PROVIDING SYSTEM
US10810466B2 (en) Method for location inference from map images
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
US20210326376A1 (en) Navigating through a set of images
JP2017004252A (en) Image information processing system
JP5671224B2 (en) Image processing apparatus and image processing method
JP6034229B2 (en) Position information processing apparatus and position information processing method
JP6143462B2 (en) Image search device, image search method, search source image providing device, search source image providing method, and program
JP6764992B2 (en) Search system, search method, and program
CN111191065B (en) Homologous image determining method and device
JP6091217B2 (en) Image search device, image search method, search source image providing device, search source image providing method, and program
JP5272107B2 (en) Information providing apparatus, information providing processing program, recording medium on which information providing processing program is recorded, and information providing method
KR101720685B1 (en) Apparatus and Method for Web Data based Identification System for Object Identification Performance Enhancement
Peng et al. KISS: Knowing camera prototype system for recognizing and annotating places-of-interest
JP5708868B1 (en) Program, information processing apparatus and method
Kit et al. Efficient image geotagging using large databases
JP2016075992A (en) Imaging device, information processing device and information processing method thereof, and information processing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R151 Written notification of patent or utility model registration

Ref document number: 6091217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151