JP5836728B2 - Image search apparatus, image search method and program - Google Patents

Image search apparatus, image search method and program Download PDF

Info

Publication number
JP5836728B2
JP5836728B2 JP2011207333A JP2011207333A JP5836728B2 JP 5836728 B2 JP5836728 B2 JP 5836728B2 JP 2011207333 A JP2011207333 A JP 2011207333A JP 2011207333 A JP2011207333 A JP 2011207333A JP 5836728 B2 JP5836728 B2 JP 5836728B2
Authority
JP
Japan
Prior art keywords
image
rotation angle
comparison image
local feature
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011207333A
Other languages
Japanese (ja)
Other versions
JP2013069125A (en
Inventor
浩一 馬養
浩一 馬養
椎山 弘隆
弘隆 椎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011207333A priority Critical patent/JP5836728B2/en
Publication of JP2013069125A publication Critical patent/JP2013069125A/en
Application granted granted Critical
Publication of JP5836728B2 publication Critical patent/JP5836728B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば、局所特徴点及び局所特徴量に基づく検索を行うために用いて好適な技術に関する。   The present invention relates to a technique suitable for use for performing a search based on local feature points and local feature amounts, for example.

従来、画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法が提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する。抽出方法については例えば非特許文献1に開示されている方法が挙げられる。そして、当該特徴点とその周辺の画像情報とに基づいて、当該特徴点に対応する特徴量(局所特徴量)を計算する。局所特徴量については例えば非特許文献2に開示されている方法によって計算することができる。このように画像の検索は、局所特徴量同士のマッチングによって行われる。   Conventionally, a method of searching for a similar image using a local feature amount (local feature amount) of an image has been proposed. In this method, first, characteristic points (local feature points) are extracted from an image. Examples of the extraction method include the method disclosed in Non-Patent Document 1. Then, based on the feature point and the surrounding image information, a feature amount (local feature amount) corresponding to the feature point is calculated. The local feature amount can be calculated by a method disclosed in Non-Patent Document 2, for example. In this way, the image search is performed by matching local feature amounts.

局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、画像を検索することができる。また、局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話であり、実際のデジタル画像においては、画像の回転や拡大・縮小処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。   In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thereby, even when the image is rotated, enlarged or reduced, the image can be searched. Further, the local feature amount is generally expressed as a vector. However, it is a theoretical story that the local feature is invariant to rotation and enlargement / reduction. In an actual digital image, the local feature before image rotation and enlargement / reduction processing corresponds to that after processing. Some variation occurs between the local feature amount.

例えば非特許文献2に記載の方法では、回転不変の局所特徴量を算出するために、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量の算出時に主方向を基準に局所領域を回転させて方向を正規化する。また、拡大・縮小不変の局所特徴量を算出するために、異なる解像度の画像を内部で生成し、各解像度の画像からそれぞれ局所特徴点を抽出し、局所特徴量を算出する。ここで、内部で生成した一連の異なる解像度の画像集合は一般的にスケールスペースと呼ばれる。   For example, in the method described in Non-Patent Document 2, in order to calculate a rotation-invariant local feature amount, a main direction is calculated from a pixel pattern of a local region around a local feature point, and the main direction is used as a reference when calculating the local feature amount. Rotate the local region to normalize the direction. In addition, in order to calculate the local feature amount that does not change in size, the image is generated internally with different resolutions, local feature points are extracted from each resolution image, and the local feature amount is calculated. Here, a series of images having different resolutions generated inside is generally called a scale space.

また、従来の検索結果の表示方法では、多くの場合、クエリ画像と検索先画像(サンプル画像)との間の類似度を局所特徴量のマッチングにより算出し、類似度順にサムネール画像を表示する。   Further, in the conventional search result display method, the similarity between the query image and the search destination image (sample image) is calculated by matching local feature amounts, and the thumbnail images are displayed in the order of similarity.

一方、このように検索結果が表示され、回転しているオブジェクトが同一であることを知覚する際には、頭の中で回転したイメージを作ってからマッチングしているという定説がある。以下、このような感覚を心的回転と呼ぶ。非特許文献3には、心的回転を伴う知覚時間は、対象オブジェクトの回転角度に比例し、180度回転の場合には、回転なしの場合に比べて約2倍の時間を要することが記載されている。   On the other hand, when the search result is displayed in this way and it is perceived that the rotating objects are the same, there is an established theory that matching is performed after creating a rotated image in the head. Hereinafter, such a feeling is called mental rotation. Non-Patent Document 3 describes that the perception time accompanied by mental rotation is proportional to the rotation angle of the target object, and in the case of 180 ° rotation, it takes about twice as long as in the case of no rotation. Has been.

検索結果として表示される多数の画像を確認するとき、この心的回転を伴うことにより知覚時間が増加し、ユーザの負担が大きくなってしまう場合がある。そこで、オブジェクトを囲む矩形を回転表示する例が知られているが、知覚対象オブジェクト(検索結果)が回転している場合に、オブジェクトを矩形で囲むだけではユーザの負担を考慮した処理とは言えない。   When confirming a large number of images displayed as search results, this mental rotation may increase the perception time and increase the burden on the user. Therefore, an example of rotating and displaying a rectangle surrounding an object is known. However, when the perceived object (search result) is rotating, it can be said that the processing in consideration of the burden on the user is simply surrounded by the rectangle. Absent.

また、画像を回転処理する他の例として、人物画像が含まれる画像の天地方向を判別し、その判別結果に基づいて前記画像を実際の天地方向に修正した後、画像中の人物像が存在する領域を抽出する方法が提案されている(例えば、特許文献1参照)。   As another example of rotating the image, after determining the top / bottom direction of the image including the person image and correcting the image to the actual top / bottom direction based on the determination result, there is a human image in the image. A method for extracting a region to be performed has been proposed (see, for example, Patent Document 1).

さらには、動画像のフレームの傾きを補正する方法も提案されている(例えば、特許文献2参照)。この方法では、まず、動きベクトルを利用して、フレーム画像を構成する領域を動き量が相対的に大きな領域と小さな領域とに分割する。次に、動き量が相対的に小さな領域から補正パラメータを検出する。最後にフレーム画像に対して動き補正を施す。この方法では、傾きの程度に関わらず必ず傾き判定処理を行うように構成している。   Furthermore, a method for correcting the inclination of a moving image frame has also been proposed (see, for example, Patent Document 2). In this method, first, using a motion vector, a region constituting a frame image is divided into a region having a relatively large amount of motion and a region having a relatively small amount of motion. Next, a correction parameter is detected from a region where the amount of motion is relatively small. Finally, motion correction is performed on the frame image. In this method, the inclination determination process is always performed regardless of the degree of inclination.

特開2005−215760号公報JP 2005-215760 A 国際公開第2009/001510号International Publication No. 2009/001510

C.Harris and M.J. Stephens,"A combined corner and edge detector," In Alvey Vision Conference,pages 147-152, 1988.C. Harris and M.J. Stephens, "A combined corner and edge detector," In Alvey Vision Conference, pages 147-152, 1988. David G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, 60, 2 (2004), pp.91-110.David G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, 60, 2 (2004), pp.91-110. Jacques Vauclair, Joel Fagot, William D Hopkins, "Rotation of mental images in baboons when the visual input is directed to the left cerebral hemisphere," Psychological Science, Vol. 4(2), pp.99-103, 1993.Jacques Vauclair, Joel Fagot, William D Hopkins, "Rotation of mental images in baboons when the visual input is directed to the left cerebral hemisphere," Psychological Science, Vol. 4 (2), pp.99-103, 1993. J.J.Koenderink and A.J.van Doorn, "Representation of local geometry in the visual system," Riological Cybernetics, vol.55, pp.367-375, 1987.J.J.Koenderink and A.J.van Doorn, "Representation of local geometry in the visual system," Riological Cybernetics, vol.55, pp.367-375, 1987. M. A. Fischler and R. C. Bollers, "Random sample consensus: A paradigm formodel fitting with applications to image analysis and automated cartography," Commum. ACM, no.24, vol.6, pp.381-395, June 1981.M. A. Fischler and R. C. Bollers, "Random sample consensus: A paradigm formodel fitting with applications to image analysis and automated cartography," Commum. ACM, no.24, vol.6, pp.381-395, June 1981.

しかしながら、特許文献1に記載の方法では、人物が含まれる画像の天地方向を判別し、その判別結果を用いて画像を90度単位で回転させている。このため、画像の回転角度によっては、心的回転による負荷を軽減することができない。   However, in the method described in Patent Document 1, the top-and-bottom direction of an image including a person is determined, and the image is rotated in units of 90 degrees using the determination result. For this reason, the load caused by mental rotation cannot be reduced depending on the rotation angle of the image.

また、特許文献2に記載の方法では、傾き判定処理を独立した別処理として構成しているので、その分だけ計算量が増大する。また、傾きの程度に関わらず必ず傾き判定処理を行うように構成しているので、実装機器の計算リソースに合わせて処理の負荷が大きくなる。   Further, in the method described in Patent Document 2, since the tilt determination process is configured as an independent process, the calculation amount increases accordingly. In addition, since the inclination determination process is always performed regardless of the degree of inclination, the processing load increases in accordance with the calculation resource of the mounted device.

本発明は前述の問題点に鑑み、ユーザにとって心的な負荷が軽減される検索結果を簡単な処理により得ることができるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and an object of the present invention is to make it possible to obtain search results that reduce the mental load on the user by simple processing.

本発明の画像検索装置は、入力画像及び比較画像から局所的な局所特徴を抽出する局所特徴抽出手段と、前記局所特徴抽出手段によって抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合手段と、前記照合手段によって類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出手段と、前記回転角度算出手段によって算出された前記比較画像の回転角度が所定の値よりも大きい場合に、前記回転角度算出手段によって算出された回転角度に基づいて前記比較画像を回転させる回転手段と、前記照合手段によって算出された類似度に応じて、前記回転手段によって回転された比較画像を出力する出力手段とを有することを特徴とする。 The image search apparatus of the present invention collates local feature extraction means for extracting local local features from an input image and a comparison image, and local features of the input image and comparison image extracted by the local feature extraction means. Collation means for calculating similarity, rotation angle calculation means for calculating a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated by the collation means, and the rotation angle A rotation unit that rotates the comparison image based on the rotation angle calculated by the rotation angle calculation unit when the rotation angle of the comparison image calculated by the calculation unit is larger than a predetermined value ; Output means for outputting a comparison image rotated by the rotation means in accordance with the calculated similarity.

本発明によれば、検索結果を確認する時に、心的回転による負荷を軽減するとともに、計算量を抑えて検索結果を得ることができる。   According to the present invention, when a search result is confirmed, the load due to mental rotation can be reduced, and the search result can be obtained with a reduced amount of calculation.

実施形態における画像検索装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of an image search device in an embodiment. 実施形態において、画像の局所特徴点及び局所特徴量を抽出する処理手順の一例を示すフローチャートである。In an embodiment, it is a flow chart which shows an example of a processing procedure which extracts a local feature point and local feature-value of an image. 図2のステップS204における縮小画像の生成処理の概要を説明する図である。It is a figure explaining the outline | summary of the production | generation process of the reduction image in step S204 of FIG. 第1の実施形態において、検索結果を出力する処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure for outputting a search result in the first embodiment. 第1〜第3の実施形態において、類似度及び回転角度を算出する処理手順の一例を示すフローチャートである。In the 1st-3rd embodiment, it is a flowchart which shows an example of the process sequence which calculates a similarity and a rotation angle. 第2の実施形態において、検索結果を出力する処理手順の一例を示すフローチャートである。10 is a flowchart illustrating an example of a processing procedure for outputting a search result in the second embodiment. 第2の実施形態において、表示結果がクリックされた時の回転正規化の処理手順の一例を示すフローチャートである。In 2nd Embodiment, it is a flowchart which shows an example of the process sequence of rotation normalization when the display result is clicked. 第4の実施形態において、検索結果を出力する処理手順の一例を示すフローチャートである。14 is a flowchart illustrating an example of a processing procedure for outputting a search result in the fourth embodiment. 第4の実施形態において、類似度及び変形パラメータを算出する処理手順の一例を示すフローチャートである。In a 4th embodiment, it is a flow chart which shows an example of a processing procedure which computes a similarity and modification parameters.

(第1の実施形態)
以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態における画像検索装置100の構成例を示すブロック図である。
図1において、画像検索装置100は、クエリ画像入力部102、比較先画像入力部105、第1の局所特徴点/局所特徴量抽出部103、第2の局所特徴点/局所特徴量抽出部106、及び局所特徴点/局所特徴量比較部107から構成されている。
(First embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of an image search apparatus 100 according to the present embodiment.
In FIG. 1, an image search apparatus 100 includes a query image input unit 102, a comparison target image input unit 105, a first local feature point / local feature amount extraction unit 103, and a second local feature point / local feature amount extraction unit 106. , And a local feature point / local feature quantity comparison unit 107.

画像検索装置100では、入力画像であるクエリ画像101がクエリ画像入力部102に入力されると、第1の局所特徴点/局所特徴量抽出部103は、クエリ画像101から局所特徴として局所特徴点とその局所特徴量とを抽出する。同様に、比較対象となる比較先画像列104が比較先画像入力部105に入力されると、第2の局所特徴点/局所特徴量抽出部106は、比較先画像列104から局所特徴として局所特徴点とその局所特徴量とを抽出する。なお、局所特徴点とその局所特徴量とを抽出する処理の詳細については後述する。   In the image search apparatus 100, when the query image 101 that is an input image is input to the query image input unit 102, the first local feature point / local feature quantity extraction unit 103 extracts a local feature point from the query image 101 as a local feature. And its local features. Similarly, when the comparison target image sequence 104 to be compared is input to the comparison target image input unit 105, the second local feature point / local feature quantity extraction unit 106 outputs a local feature as a local feature from the comparison target image sequence 104. Feature points and their local features are extracted. Details of the process of extracting the local feature points and the local feature amounts will be described later.

局所特徴点/局所特徴量比較部107は、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106で抽出されたそれぞれの局所特徴点及び局所特徴量同士を比較する。そして、画像表示順序として比較結果108を不図示の表示装置等に出力する。この局所特徴点及び局所特徴量の比較処理の詳細についても後述する。操作部109は、ユーザからの入力を受け付けるためのものである。   The local feature point / local feature amount comparison unit 107 includes the local feature points / local features extracted by the first local feature point / local feature amount extraction unit 103 and the second local feature point / local feature amount extraction unit 106. Compare feature quantities. Then, the comparison result 108 is output to a display device (not shown) as an image display order. Details of the comparison processing of the local feature points and the local feature amounts will be described later. The operation unit 109 is for receiving input from the user.

まず、図1におけるクエリ画像入力部102、比較先画像入力部105、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106の処理を説明する。画像からの局所特徴抽出処理は、画像データを読み出すステップ、輝度成分の抽出ステップ、縮小画像の作成ステップ、局所特徴点の抽出ステップ、及び局所特徴量の算出ステップからなる。   First, processing of the query image input unit 102, the comparison destination image input unit 105, the first local feature point / local feature amount extraction unit 103, and the second local feature point / local feature amount extraction unit 106 in FIG. 1 will be described. . The local feature extraction process from an image includes a step of reading image data, a luminance component extraction step, a reduced image creation step, a local feature point extraction step, and a local feature amount calculation step.

図2は、本実施形態において、画像の局所特徴点及び局所特徴量を抽出する処理手順の一例を示すフローチャートである。
まず、ステップS201により処理を開始し、ステップS202において、クエリ画像入力部102及び比較先画像入力部105は、それぞれの画像データを読み出す。そして、ステップS203において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106はそれぞれ、画像データから輝度成分を抽出し、輝度成分画像を生成する。
FIG. 2 is a flowchart illustrating an example of a processing procedure for extracting local feature points and local feature amounts of an image in the present embodiment.
First, processing is started in step S201, and in step S202, the query image input unit 102 and the comparison destination image input unit 105 read out the respective image data. In step S203, the first local feature point / local feature amount extraction unit 103 and the second local feature point / local feature amount extraction unit 106 each extract a luminance component from the image data to generate a luminance component image. To do.

次に、ステップS204において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106はそれぞれ、ステップS203で作成した当該輝度成分画像を倍率pに従って順次縮小し、縮小画像をn枚生成する。ただし、倍率p及び縮小画像の枚数nは予め決められているものとする。   Next, in step S204, each of the first local feature point / local feature quantity extraction unit 103 and the second local feature point / local feature quantity extraction unit 106 uses the luminance component image created in step S203 according to the magnification p. The image is sequentially reduced to generate n reduced images. However, the magnification p and the number n of reduced images are determined in advance.

図3は、図2のステップS204における縮小画像の生成処理の概要を説明する図である。なお、図3では、倍率pを2の−(1/4)乗とし、縮小画像の枚数nを9とした場合の例を示している。また、図3に示す例では、倍率pを面積比ではなく辺の長さの比としている。   FIG. 3 is a diagram for explaining the outline of the reduced image generation process in step S204 of FIG. FIG. 3 shows an example where the magnification p is 2 to the power of − (1/4) and the number n of reduced images is 9. Further, in the example shown in FIG. 3, the magnification p is not the area ratio but the side length ratio.

図3において、301はステップS203で作成した輝度成分画像である。302は輝度成分画像301から倍率pに従って4回縮小された縮小画像であり、輝度成分画像301を1/2に縮小した画像に相当する。また、303は輝度成分画像301から倍率pに従って8回縮小された縮小画像であり、輝度成分画像301を1/4に縮小した画像に相当する。なお、画像を縮小する方法は単純に画素を間引く方法、線形補間を用いる方法、低域フィルタ適用後にサンプリングする方法などを用いることができるが、何れの方法でもよい。本実施形態では、線形補間による縮小方法を用いて画像を縮小するものとする。   In FIG. 3, reference numeral 301 denotes the luminance component image created in step S203. Reference numeral 302 denotes a reduced image obtained by reducing the luminance component image 301 four times in accordance with the magnification p, and corresponds to an image obtained by reducing the luminance component image 301 to ½. Reference numeral 303 denotes a reduced image obtained by reducing the luminance component image 301 eight times according to the magnification p, and corresponds to an image obtained by reducing the luminance component image 301 to ¼. Note that, as a method for reducing an image, a method of simply thinning out pixels, a method using linear interpolation, a method of sampling after applying a low-pass filter, or the like can be used. Any method may be used. In this embodiment, it is assumed that an image is reduced using a reduction method based on linear interpolation.

304はスケール番号であり、縮小画像のサイズが大きい方から順に解像度に応じて付与される番号である。本実施形態では、スケール番号は1から始まるようにしているが、0から始まるようにしてもよい。   Reference numeral 304 denotes a scale number, which is a number assigned according to the resolution in order from the larger reduced image size. In this embodiment, the scale number starts from 1. However, the scale number may start from 0.

図2の説明に戻り、次に、ステップS205において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106は、ステップS204で得られたn枚の縮小画像のそれぞれから局所的な特徴点(局所特徴点)を抽出する。ここで抽出する局所特徴点は、画像に回転や縮小などの画像処理を施しても同じ場所から安定的に抽出されるようなロバストな局所特徴点である。このような局所特徴点を抽出する方法として、本実施形態では、非特許文献1に記載されているHarris作用素を用いる。   Returning to the description of FIG. 2, next, in step S205, the first local feature point / local feature quantity extraction unit 103 and the second local feature point / local feature quantity extraction unit 106 obtain the n obtained in step S204. Local feature points (local feature points) are extracted from each of the reduced images. The local feature points extracted here are robust local feature points that can be stably extracted from the same place even if image processing such as rotation or reduction is performed on the image. As a method for extracting such local feature points, the Harris operator described in Non-Patent Document 1 is used in the present embodiment.

具体的には、Harris作用素を作用させて得られた画像の画素それぞれについて、着目画素とその周辺にある8つの画素との合計9画素の画素値を調べる。そして、着目画素の画素値が予め定めた値以上であり、かつ局所極大になる(当該9画素の中で当該画素の画素値が最大になる)場合に、その着目画素が位置する点を局所特徴点として抽出する。なお、ロバストな局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法でも適用可能である。   Specifically, for each pixel of the image obtained by applying the Harris operator, the pixel value of a total of nine pixels including the pixel of interest and the eight pixels around it is examined. When the pixel value of the pixel of interest is equal to or greater than a predetermined value and has a local maximum (the pixel value of the pixel is the maximum among the nine pixels), the point where the pixel of interest is located is locally Extract as feature points. Note that any feature point extraction method is applicable as long as it is a method capable of extracting a robust local feature point, not limited to the above-described feature point extraction method using the Harris operator.

次に、ステップS206において、ステップS205で得られた局所特徴点それぞれについて、画像の回転があっても不変となるように定義された特徴量(局所特徴量)を算出する。この局所特徴量の算出方法として、本実施形態では非特許文献4に記載されているLocal Jet及びそれらの導関数の組み合わせを用いる。この方法により算出される局所特徴量は、拡大縮小、回転に対して、比較的高い耐性を持つような特性を持たせることができる。具体的には、以下の式(1)により局所特徴量を算出する。   Next, in step S206, for each local feature point obtained in step S205, a feature quantity (local feature quantity) defined so as to remain unchanged even when the image is rotated is calculated. As a method for calculating the local feature amount, in this embodiment, a combination of Local Jet and derivatives thereof described in Non-Patent Document 4 is used. The local feature amount calculated by this method can have characteristics that have a relatively high resistance to enlargement / reduction and rotation. Specifically, the local feature amount is calculated by the following equation (1).

Figure 0005836728
Figure 0005836728

ただし、式(1)の右辺で用いている記号は、以下の式(2)から式(7)に示すように定義される。   However, the symbols used on the right side of Expression (1) are defined as shown in Expression (2) to Expression (7) below.

Figure 0005836728
Figure 0005836728

ここで、式(2)右辺のG(x,y)はガウス関数であり、I(x,y)は画像の座標(x,y)における画素値であり、"*"は畳み込み演算を表す記号である。また、式(3)は式(2)で定義された変数Lのxに関する偏導関数であり、式(4)は当該変数Lのyに関する偏導関数である。式(5)は式(3)で定義された変数Lxのyに関する偏導関数である。式(6)は式(3)で定義された変数Lxのxに関する偏導関数であり、式(7)は式(4)で定義されたLyのyに関する偏導関数である。 Here, G (x, y) on the right side of Expression (2) is a Gaussian function, I (x, y) is a pixel value at image coordinates (x, y), and “*” represents a convolution operation. It is a symbol. Equation (3) is a partial derivative of variable L defined in equation (2) with respect to x, and Equation (4) is a partial derivative of variable L with respect to y. Equation (5) is a partial derivative with respect to y of the variable L x defined in Equation (3). Equation (6) is a partial derivative of variable L x defined in equation (3) with respect to x, and equation (7) is a partial derivative of L y defined in equation (4) with respect to y.

なお、局所特徴量の算出方法は、上述の方法に限らず他の局所特徴量の算出方法も適用可能である。他の局所特徴量の算出方法として、例えば非特許文献2に記載されている方法がある。この方法では、局所特徴点周辺の局所領域内の各画素に対して画素値の勾配方向を算出し、そのヒストグラムを局所特徴量としている。   In addition, the calculation method of a local feature-value is not restricted to the above-mentioned method, The calculation method of another local feature-value is applicable. As another local feature amount calculation method, for example, there is a method described in Non-Patent Document 2. In this method, the gradient direction of the pixel value is calculated for each pixel in the local region around the local feature point, and the histogram is used as the local feature amount.

次に、局所特徴点/局所特徴量比較部107の動作について説明する。局所特徴点及び局所特徴量の比較に基づいて画像を照合する方法にはいろいろあるが、本実施形態では、非特許文献5に記載されているRANSACを利用した方法について説明する。   Next, the operation of the local feature point / local feature amount comparison unit 107 will be described. There are various methods for collating images based on the comparison of local feature points and local feature amounts. In this embodiment, a method using RANSAC described in Non-Patent Document 5 will be described.

図4は、本実施形態において、局所特徴点/局所特徴量比較部107により検索結果を出力する処理手順の一例を示すフローチャートである。
まず、図4のステップS401において処理を開始し、ステップS402において、比較先画像入力部105に入力された比較先画像列104から比較対象とするサンプル画像を1枚抽出する。
FIG. 4 is a flowchart illustrating an example of a processing procedure for outputting a search result by the local feature point / local feature amount comparison unit 107 in the present embodiment.
First, processing is started in step S401 in FIG. 4, and one sample image to be compared is extracted from the comparison destination image sequence 104 input to the comparison destination image input unit 105 in step S402.

次に、ステップS403において、クエリ画像入力部102に入力されたクエリ画像101と前記サンプル画像との類似度を算出する。さらに、この類似度を算出する過程で生成される値を用いて前記サンプル画像の前記クエリ画像に対する回転角度を推定する。なお、このステップS403の処理の詳細については後述する。また、このときに算出する類似度及び回転角度はサンプル画像と紐付けておく。   In step S403, the similarity between the query image 101 input to the query image input unit 102 and the sample image is calculated. Further, a rotation angle of the sample image with respect to the query image is estimated using a value generated in the process of calculating the similarity. Details of the processing in step S403 will be described later. The similarity and rotation angle calculated at this time are linked to the sample image.

次に、ステップS404において、比較先画像列104において、まだサンプル画像として抽出されていない画像が残っているか否かを判定する。この判定の結果、画像が残っている場合はステップS402に戻り、新たなサンプル画像を抽出し、上記と同様の処理を行う。一方、画像が残っていない場合はステップS405に進む。そして、ステップS405において、ステップS403で算出したクエリ画像に対する各サンプル画像の類似度を用いて、各サンプル画像を類似度順にソートする。   Next, in step S404, it is determined whether or not there is an image that has not yet been extracted as a sample image in the comparison target image sequence 104. As a result of this determination, if an image remains, the process returns to step S402, a new sample image is extracted, and the same processing as described above is performed. On the other hand, if no image remains, the process proceeds to step S405. In step S405, the sample images are sorted in the order of similarity using the similarity of each sample image to the query image calculated in step S403.

次に、ステップS406において、クエリ画像に対するサンプル画像の回転正規化が必要か否かを判定する。この判定の結果、回転正規化が必要である場合はステップS407に進み、回転正規化が不要である場合はステップS408に進む。ここで、回転正規化の判定基準としてはいろいろな基準が考えられるが、本実施形態では推定回転角度が±60°以上の場合に回転正規化が必要であると判定する。これは、非特許文献3に記載されている実験において、回転角度が±60°の範囲内では心的回転による処理時間の増加がそれほど大きくないという結果が示されていることに基づいている。   Next, in step S406, it is determined whether rotation normalization of the sample image with respect to the query image is necessary. As a result of the determination, if rotation normalization is necessary, the process proceeds to step S407, and if rotation normalization is not necessary, the process proceeds to step S408. Here, various criteria can be considered as the rotation normalization determination criteria. In this embodiment, it is determined that rotation normalization is required when the estimated rotation angle is ± 60 ° or more. This is based on the fact that the experiment described in Non-Patent Document 3 shows that the increase in processing time due to mental rotation is not so large within the range of the rotation angle of ± 60 °.

また、ステップS406での判定基準は合理的な基準であれば、本実施形態の基準以外の基準を採用してもよい。例えば、類似度の上位から順に特定の数の画像にすべて回転正規化処理を施すように構成してもよい。また、予め定めた類似度の値を基準に回転正規化要否を判定するように構成してもよいし、あるいは類似度の値の分布を求めることにより、回転正規化要否を判定するための類似度の閾値を相対的に決定するように構成してもよい。さらには、機器のリソースに応じて動的に閾値を定めるように構成してもよい。   Further, if the determination criterion in step S406 is a reasonable criterion, a criterion other than the criterion of the present embodiment may be adopted. For example, a rotation normalization process may be performed on all of a specific number of images in order from the highest similarity. Further, it may be configured to determine whether rotation normalization is necessary based on a predetermined similarity value, or to determine whether rotation normalization is required by obtaining a distribution of similarity values. The similarity threshold may be relatively determined. Furthermore, the threshold value may be dynamically determined according to the resource of the device.

さらには、ユーザの認知能力を判定する機能を設けて、その判定結果に基づいて予めあるいは動的に閾値を定めるように構成してもよい。認知能力の判定基準としては、例えば年齢、反応時間、視力などが挙げられる。年齢の判別方法としては、例えば既存の顔画像からの年齢推定技術を用いることができる。反応時間の計測方法としては、例えば別途用意した反応時間テストプログラムの結果を用いてもよいし、マウスやキーボードからのユーザによる入力データを解析する方法を用いてもよい。視力測定方法についても、例えば別途用意した視力測定テストプログラムの結果を用いてもよいし、ユーザ自身に視力の数値を入力してもらってもよい。   Furthermore, a function for determining the user's cognitive ability may be provided, and a threshold value may be determined in advance or dynamically based on the determination result. As a judgment standard of cognitive ability, age, reaction time, visual acuity, etc. are mentioned, for example. As an age discrimination method, for example, an age estimation technique from an existing face image can be used. As a method for measuring the reaction time, for example, a result of a separately prepared reaction time test program may be used, or a method of analyzing user input data from a mouse or keyboard may be used. As for the visual acuity measurement method, for example, a result of a separately prepared visual acuity measurement test program may be used, or the user himself / herself may input a numerical value of visual acuity.

ステップS407においては、ステップS403で推定した回転角度を用いて、クエリ画像を基準にした回転正規化処理をサンプル画像に施す。そして、ステップS408において、類似度順にソートされ、必要に応じて回転正規化処理が施された比較先画像列を比較結果108として出力する。   In step S407, the rotation normalization process based on the query image is performed on the sample image using the rotation angle estimated in step S403. In step S408, the comparison target image sequence sorted in the order of similarity and subjected to the rotation normalization process as necessary is output as the comparison result 108.

次に、ステップ403の処理の詳細について説明する。ここで、クエリ画像101から抽出された局所特徴点をQとし、その座標をQ(x',y')とし、その局所特徴点Qの局所特徴量をVqとする。また、比較先画像列104に属するある1枚の画像(サンプル画像)上の局所特徴点をSとし、その座標をS(x,y)とし、その局所特徴点Sの局所特徴量をVsとする。 Next, details of the processing in step 403 will be described. Here, the local feature point extracted from the query image 101 is Q, its coordinates are Q (x ′, y ′), and the local feature amount of the local feature point Q is V q . In addition, the local feature point on one image (sample image) belonging to the comparison target image sequence 104 is set as S, the coordinates thereof are set as S (x, y), and the local feature amount of the local feature point S is set as V s. And

図5は、ステップS403の詳細な処理であって、局所特徴点/局所特徴量比較部107により類似度及び回転角度を算出する処理手順の一例を示すフローチャートである。
ステップS501で処理を開始すると、ステップS502において、局所特徴量Vqと局所特徴量Vsとを照合して最小距離対応点リストを作成する。具体的には、まず、局所特徴量Vqと局所特徴量Vsとの全ての組み合わせについて局所特徴量間の距離を計算する。次に、計算した局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)を抽出する。これらの対応点を最小距離対応点リストに登録することにより、最小距離対応点リストを作成する。
FIG. 5 is a flowchart showing an example of a processing procedure for calculating the similarity and the rotation angle by the local feature point / local feature amount comparison unit 107, which is the detailed processing of step S403.
Upon starting the processing step S501, in step S502, to create a minimum distance correspondence point list by matching the local feature quantity V q and the local feature amount V s. Specifically, first, distances between local feature quantities are calculated for all combinations of the local feature quantity V q and the local feature quantity V s . Next, a combination (corresponding point) of the local feature quantity V q and the local feature quantity V s is extracted so that the calculated distance between the local feature quantities is equal to or less than the threshold value Tv and is the minimum distance. By registering these corresponding points in the minimum distance corresponding point list, a minimum distance corresponding point list is created.

ここで、最小距離対応点リストには、例えばk番目の最小距離対応点をそれぞれQk、Skと表わし、これらの座標をQk(xk',yk')、Sk(xk,yk)とし、添え字を合わせて記載する。なお、1つの局所特徴点に対応付けられる局所特徴量は2つ以上あってもよいが、以下の説明では説明を簡略化するため、1つの局所特徴点に対応付けられる局所特徴量は1つだけとする。そして、前記Qk、Skの局所特徴量をそれぞれVq(k)、Vs(k)とする。また、ステップS502では、m組の対応点が最小距離対応点リストに登録されるものとする。 Here, in the minimum distance corresponding point list, for example, the kth minimum distance corresponding point is represented as Q k and S k , respectively, and these coordinates are represented as Q k (x k ′, y k ′) and S k (x k ). , Y k ) and include the subscript. Note that there may be two or more local feature amounts associated with one local feature point, but in the following description, one local feature amount is associated with one local feature point in order to simplify the description. Only. The local feature values of Q k and S k are V q (k) and V s (k), respectively. In step S502, m sets of corresponding points are registered in the minimum distance corresponding point list.

次に、ステップS521において、mが3以上であるか否かを判定する。この判定の結果、mが3未満である場合は、類似度を算出できないため、ステップS522に進み、処理を終了する。   Next, in step S521, it is determined whether m is 3 or more. As a result of this determination, if m is less than 3, the similarity cannot be calculated, so the process proceeds to step S522, and the process ends.

一方、ステップS521の判定の結果、mが3以上である場合は、ステップS503において、最終投票数を表す変数VoteMaxを0に初期化する。そして、ステップS504において、類似度算出処理の反復カウント数を表す変数Countを0に初期化する。   On the other hand, if m is 3 or more as a result of the determination in step S521, a variable VoteMax representing the final number of votes is initialized to 0 in step S503. In step S504, a variable Count indicating the number of iterations of the similarity calculation process is initialized to zero.

次に、ステップS505において、反復カウント数Countが予め定められた最大反復処理回数Rnを超えていないか否かを判定する。この判定の結果、反復カウント数Countが最大反復処理回数Rnを超えていない場合はステップS506へ進み、投票数を表す変数Voteを0に初期化する。一方、ステップS505の判定の結果、反復カウント数Countが最大反復処理回数Rnを超えている場合には、ステップS519へ進み、最終投票数VoteMaxを類似度と設定するとともに、回転角度を設定し、ステップS520において処理を終了する。   Next, in step S505, it is determined whether or not the iteration count number Count has exceeded a predetermined maximum number of iterations Rn. As a result of this determination, if the iteration count number Count does not exceed the maximum number of iterations Rn, the process proceeds to step S506, and a variable Vote representing the number of votes is initialized to zero. On the other hand, if it is determined in step S505 that the iteration count Count exceeds the maximum number of iterations Rn, the process proceeds to step S519, the final vote number VoteMax is set as the similarity, and the rotation angle is set. In step S520, the process ends.

次に、ステップS507において、最小距離対応点リストから対応点の組の座標をランダムに2組抽出する。ここで、抽出した2組の座標をQ1(x1',y1')、S1(x1,y1)及びQ2(x2',y2')、S2(x2,y2)と定義する。そして、ステップS508において、変換行列M、Tを計算する。ここで、行列Mは、以下の式(8)において変数a〜dで構成される行列であり、行列Tは変数e〜fで構成される行列である。 Next, in step S507, two sets of coordinates of corresponding point pairs are randomly extracted from the minimum distance corresponding point list. Here, the extracted two sets of coordinates are Q 1 (x 1 ′, y 1 ′), S 1 (x 1 , y 1 ) and Q 2 (x 2 ′, y 2 ′), S 2 (x 2 , y 2 ). In step S508, conversion matrices M and T are calculated. Here, the matrix M is a matrix composed of variables a to d in the following equation (8), and the matrix T is a matrix composed of variables ef.

Figure 0005836728
Figure 0005836728

ここで、以下の説明では、説明を簡略化するため、相似変換だけを考える。この場合には、上記式(8)は以下の式(9)のように書き換えられる。   Here, in the following description, only the similarity transformation is considered in order to simplify the description. In this case, the above equation (8) is rewritten as the following equation (9).

Figure 0005836728
Figure 0005836728

また、式(9)における変数a、b、e、fは、座標Q1(x1',y1')、S1(x1,y1)及びQ2(x2',y2')、S2(x2,y2)の座標値を用いて以下の式(10)〜式(13)で表すことができる。 Further, the variables a, b, e, and f in the equation (9) are represented by coordinates Q 1 (x 1 ′, y 1 ′), S 1 (x 1 , y 1 ), and Q 2 (x 2 ′, y 2 ′). ), S 2 (x 2 , y 2 ) can be used to express the following equations (10) to (13).

Figure 0005836728
Figure 0005836728

次に、ステップS509において、ステップS507で最短距離対応点リストからランダムに抽出された2組の点以外の点を選択するために、対応点選択変数kを3に初期化する。そして、ステップS510において、対応点選択変数kが当該最短距離対応点リストに登録されている対応点の組数mを超えていないか否かを判定する。この判定の結果、組数mを超えている場合はステップS516へ進む。ステップS516の処理については後述する。   Next, in step S509, the corresponding point selection variable k is initialized to 3 in order to select a point other than the two sets of points randomly extracted from the shortest distance corresponding point list in step S507. Then, in step S510, it is determined whether or not the corresponding point selection variable k exceeds the number m of corresponding points registered in the shortest distance corresponding point list. As a result of the determination, if the number of sets m is exceeded, the process proceeds to step S516. The process of step S516 will be described later.

一方、ステップS510の判定の結果、組数mを超えていない場合は、ステップS511において、最小距離対応点リストから新たな対応点の組を1組抽出する。ここでは、抽出した座標をSk(xk,yk)、Qk(xk',yk')と定義する。なお、抽出する際にはステップS507と同様に付加情報を利用する。 On the other hand, if the result of determination in step S510 is that the number m of pairs has not been exceeded, one set of new corresponding points is extracted from the minimum distance corresponding point list in step S511. Here, the extracted coordinates are defined as S k (x k , y k ) and Q k (x k ′, y k ′). When extracting, the additional information is used in the same manner as in step S507.

次に、ステップS512において、式(9)によりSk(xk,yk)を変換して座標Sk'(xk",yk")を求める。その後、ステップS513において、座標Sk'(xk",yk")と座標Qk(xk',yk')との幾何学的距離をユークリッド距離で計算し、当該ユークリッド距離が閾値Td以下であるか否かを判定する。この判定の結果、当該ユークリッド距離が閾値Td以下の場合はステップS514へ進み、投票数Voteをインクリメントした後、ステップS515へ進む。一方、ステップS513の判定の結果、当該ユークリッド距離が閾値Tdより大きい場合は、何もせずにステップS515へ進む。 Next, in step S512, S k (x k , y k ) is converted by equation (9) to obtain coordinates S k ′ (x k ″, y k ”). Thereafter, in step S513, the geometric distance between the coordinates S k ′ (x k ″, y k ″) and the coordinates Q k (x k ′, y k ′) is calculated as the Euclidean distance, and the Euclidean distance is a threshold value. It is determined whether or not Td or less. If the result of this determination is that the Euclidean distance is less than or equal to the threshold Td, the process proceeds to step S514, and after the vote number Vote is incremented, the process proceeds to step S515. On the other hand, if the result of the determination in step S513 is that the Euclidean distance is greater than the threshold Td, the process proceeds to step S515 without doing anything.

次に、ステップS515において、対応点選択変数kをインクリメントし、ステップS510に戻り、対応点選択変数kが最短距離対応点リストに登録されている対応点の組数mを超えるまで、上述の処理を繰り返す。   Next, in step S515, the corresponding point selection variable k is incremented, and the process returns to step S510, and the above processing is performed until the corresponding point selection variable k exceeds the number m of corresponding points registered in the shortest distance corresponding point list. repeat.

次に、ステップS510で、対応点選択変数kが当該対応点リストに登録されている対応点の組数mを超えた場合について説明する。ステップS516においては、投票数Voteの値と最終投票数VoteMaxの値とを比較し、投票数Voteの値が最終投票数VoteMaxの値よりも大きいか否かを判定する。この判定の結果、投票数Voteの値が最終投票数VoteMaxの値より大きい場合にはステップS517へ進む。   Next, the case where the corresponding point selection variable k exceeds the number m of corresponding points registered in the corresponding point list in step S510 will be described. In step S516, the value of the vote number Vote and the value of the final vote number VoteMax are compared, and it is determined whether or not the value of the vote number Vote is larger than the value of the final vote number VoteMax. As a result of this determination, if the value of the vote number Vote is larger than the value of the final vote number VoteMax, the process proceeds to step S517.

ステップS517においては、最終投票数VoteMaxの値を投票数Voteの値で置き換えるとともに、その時の変換行列Mを変数Mmaxで置き換える。このように類似度の算出過程で得られる変換行列Mの変数Mmaxから回転角度が決定される。そして、ステップS518において反復カウント数Countをインクリメントし、ステップS505に戻る。一方、ステップS516の判定の結果、投票数Voteの値が最終投票数VoteMaxの値以下の場合にはステップS518へ処理を移し、反復カウント数Countをインクリメントして、ステップS505に処理を戻す。 In step S517, it is replaced with the value of the final vote number VoteMax in value of the number of votes Vote, replacing the transformation matrix M at that time in the variable M max. Thus, the rotation angle is determined from the variable M max of the transformation matrix M obtained in the similarity calculation process. In step S518, the iteration count Count is incremented, and the process returns to step S505. On the other hand, as a result of the determination in step S516, if the value of the vote number Vote is equal to or less than the value of the final vote number VoteMax, the process proceeds to step S518, the repeat count number Count is incremented, and the process returns to step S505.

なお、図5の説明では、相似変換だけを考慮して説明したが、アフィン変換などその他の幾何学変換についても、ステップS508でそれぞれに応じた変換行列を求めることにより、対応可能である。例えば、アフィン変換の場合には、まずステップS507で、ランダムに選択する対応点の組の座標数を3とする。次に、ステップS508で、式(9)ではなく式(8)を用い、ステップS507で選択した3組の対応点(合計6点)を用いて変数a〜fを求めればよい。   In the description of FIG. 5, only the similarity transformation is considered. However, other geometric transformations such as affine transformation can be dealt with by obtaining a transformation matrix corresponding to each in step S508. For example, in the case of affine transformation, first, in step S507, the number of coordinates of a pair of corresponding points selected at random is set to 3. Next, in Step S508, using Equation (8) instead of Equation (9), the variables a to f may be obtained using the three corresponding points selected in Step S507 (6 points in total).

また、図5の説明では、ステップS519で類似度として最終投票数VoteMaxを出力する例について説明したが、他の類似度を計算するようにしてもよい。例えば、ステップS504以降の処理を行わずに、ステップS502で作成された最小距離対応点リストに登録された対応点の組数mを類似度として出力する方法がある。   In the description of FIG. 5, the example in which the final vote number VoteMax is output as the similarity in step S519 has been described, but other similarities may be calculated. For example, there is a method in which the number m of pairs of corresponding points registered in the minimum distance corresponding point list created in step S502 is output as the similarity without performing the processing after step S504.

また、本実施形態では、局所特徴量として非特許文献4に記載されている方法を用い、局所特徴点及び局所特徴量の比較に基づいて画像を照合する方法として非特許文献5に記載されているRANSACを利用した方法を説明した。しかしながら、2つの画像間の類似度が算出でき、類似度算出の過程において処理負荷の低い方法の回転角度算出方法であれば、他の方法を利用してもよい。   Further, in this embodiment, the method described in Non-Patent Document 4 is used as the local feature amount, and the method described in Non-Patent Document 5 is a method for collating images based on the comparison of local feature points and local feature amounts. A method using RANSAC has been described. However, other methods may be used as long as the degree of rotation between the two images can be calculated and the method of calculating the rotation angle has a low processing load in the process of calculating the degree of similarity.

例えば、局所特徴量として非特許文献2に記載されているものを採用する場合には、局所特徴量ごとに局所領域の方向を正規化するための値(ここでは「主方向」と呼ぶ)が得られる。この場合、ステップS403では、ステップS502と同様に最小距離対応点リストを作成する時に対応点の主方向の差を計算し、その後その主方向の差に簡単な統計分析を施すことにより処理の負荷を高めることなく回転角度を推定することができる。   For example, when adopting what is described in Non-Patent Document 2 as a local feature amount, a value for normalizing the direction of the local region for each local feature amount (herein referred to as “main direction”) is used. can get. In this case, in step S403, as in step S502, the difference in the main direction of the corresponding points is calculated when the minimum distance corresponding point list is created, and then a simple statistical analysis is performed on the difference in the main direction. The rotation angle can be estimated without increasing the angle.

なお、統計分析の方法としては、例えばヒストグラムのピーク検出や平均値算出などがある。この場合の類似度算出方法としては、例えば最小距離対応点リストに登録された対応点の組数mを類似度とする方法がある。もちろん前述のRANSACを利用した方法を用いてもよい。   Note that statistical analysis methods include, for example, histogram peak detection and average value calculation. As a similarity calculation method in this case, for example, there is a method in which the number m of pairs of corresponding points registered in the minimum distance corresponding point list is used as the similarity. Of course, the above-described method using RANSAC may be used.

このように本実施形態では、検索結果として画像を表示する際に、クエリ画像を基準にしてサンプル画像を回転正規化した後に表示するように構成した。これにより、検索結果を確認する時に心的回転によるユーザの負荷を軽減することが可能になる。また、検索に必要な局所特徴量の算出の過程で回転角度が算出されるので、計算量が大幅に増加しないようにしてクエリ画像を基準とした回転正規化が可能になる。   As described above, in this embodiment, when an image is displayed as a search result, the sample image is displayed after being rotationally normalized with reference to the query image. As a result, it is possible to reduce the load on the user due to mental rotation when checking the search result. In addition, since the rotation angle is calculated in the process of calculating the local feature amount necessary for the search, the rotation normalization based on the query image can be performed without significantly increasing the calculation amount.

さらに、推定された回転角度が所定の値を超えるか否かによって回転正規化の要否を判定するようにしたので、機器のリソースに応じて動的に判定基準を調整し、機器の処理速度とユーザの心的回転による負荷の軽減度とのバランスを取ることが容易になる。   Furthermore, since the necessity of rotation normalization is determined based on whether or not the estimated rotation angle exceeds a predetermined value, the determination criterion is dynamically adjusted according to the resource of the device, and the processing speed of the device It is easy to balance the load reduction due to mental rotation of the user.

また、本実施形態では、ステップS408において、類似度順にソートされ必要に応じて回転正規化処理が施された比較先画像列を比較結果として出力するように構成した。一方、比較先画像列におけるクエリ画像に対応する領域だけを出力するように構成してもよい。あるいは、回転正規化前の比較先画像列を合わせて出力するように構成してもよい。このとき、例えば、回転正規化画像をサブウインドウに表示するようにする。   In this embodiment, in step S408, the comparison target image sequence sorted in the order of similarity and subjected to the rotation normalization processing as necessary is output as a comparison result. On the other hand, only the region corresponding to the query image in the comparison target image sequence may be output. Or you may comprise so that the comparison destination image sequence before rotation normalization may be output collectively. At this time, for example, the rotation normalized image is displayed in the sub window.

(第2の実施形態)
第1の実施形態では、ステップS407において回転正規化処理を実施するように構成したが、ユーザの心的回転を伴う知覚時間の軽減を実現できるなら他のタイミングで回転正規化を施すように構成してもよい。本実施形態では、異なるタイミングで回転正規化を施す例について説明する。以下、このような場合の構成例について図6及び図7を参照しながら説明する。なお、本実施形態における画像検索装置の構成については図1と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点についてのみ説明する。
(Second Embodiment)
In the first embodiment, the rotation normalization process is performed in step S407. However, the rotation normalization process may be performed at another timing if the reduction of the perceptual time accompanying the mental rotation of the user can be realized. May be. In this embodiment, an example in which rotation normalization is performed at different timings will be described. Hereinafter, a configuration example in such a case will be described with reference to FIGS. 6 and 7. Note that the configuration of the image search apparatus according to the present embodiment is the same as that shown in FIG. In the present embodiment, only differences from the first embodiment will be described.

図6は、本実施形態において、局所特徴点/局所特徴量比較部107により検索結果を出力する処理手順の一例を示すフローチャートである。なお、本実施形態では、図4のステップS401〜S405までの処理は第1の実施形態と同様であるため、説明は省略する。本実施形態では、回転正規化の要否判定とサンプル画像の回転正規化とを行わない。
ステップS601においては、回転正規化されていない比較結果108を出力する。本実施形態では、ユーザの指示に応じて回転正規化の要否判定とサンプル画像の回転正規化とを行う。
FIG. 6 is a flowchart illustrating an example of a processing procedure for outputting a search result by the local feature point / local feature amount comparison unit 107 in the present embodiment. In the present embodiment, the processing from steps S401 to S405 in FIG. 4 is the same as that in the first embodiment, and a description thereof will be omitted. In the present embodiment, the necessity of rotation normalization and the rotation normalization of the sample image are not performed.
In step S601, the comparison result 108 that is not rotationally normalized is output. In the present embodiment, the necessity of rotation normalization is determined and the rotation normalization of the sample image is performed according to a user instruction.

次に、比較結果108を表示するGUI上でユーザによるクリック動作が行われた場合を例に説明する。以下、ユーザがクリックした画像をクリック画像と呼ぶことにする。   Next, a case where the user performs a click operation on the GUI displaying the comparison result 108 will be described as an example. Hereinafter, an image clicked by the user is referred to as a click image.

図7は、局所特徴点/局所特徴量比較部107による、表示結果がクリックされた時の回転正規化の処理手順の一例を示すフローチャートである。
まず、操作部109からクリック動作による入力を受け付けると処理を開始し、ステップS701において、クエリ画像に対するサンプル画像の回転正規化が必要か否かを判定する。この判定の結果、回転正規化が必要である場合はステップS702に進み、回転正規化が不要である場合はステップS703に進む。
FIG. 7 is a flowchart illustrating an example of a rotation normalization processing procedure when the display result is clicked by the local feature point / local feature amount comparison unit 107.
First, when an input by a click operation is received from the operation unit 109, the process is started. In step S701, it is determined whether or not rotation normalization of the sample image with respect to the query image is necessary. As a result of the determination, if rotation normalization is necessary, the process proceeds to step S702, and if rotation normalization is not necessary, the process proceeds to step S703.

ここで、回転正規化の判定基準としては第1の実施形態と同様の判定基準を用いることにする。すなわち、推定回転角度が±60°以上の場合に回転正規化が必要であると判定する。ただし、判定基準についても、合理的な基準であれば、本実施形態の基準以外の判定基準を採用してもよい。   Here, the determination criterion similar to that of the first embodiment is used as the rotation normalization criterion. That is, it is determined that rotation normalization is necessary when the estimated rotation angle is ± 60 ° or more. However, a determination criterion other than the criterion of the present embodiment may be adopted as long as it is a reasonable criterion.

ステップS702においては、ステップS403で推定した回転角度を用いて、クエリ画像を基準にした回転正規化処理をサンプル画像に施す。そして、ステップS703においては、必要に応じて回転正規化処理が施されたサンプル画像(クリック画像)を比較結果として出力する。   In step S702, the rotation normalization process based on the query image is performed on the sample image using the rotation angle estimated in step S403. In step S703, a sample image (click image) subjected to rotation normalization processing as necessary is output as a comparison result.

以上のように本実施形態によれば、ユーザのクリック動作をトリガにしてクエリ画像を基準に回転正規化したサンプル画像を表示するようにした。これにより、検索結果を確認する時に、ユーザの指示により心的回転によるユーザの負荷を軽減することが可能になる。また、検索に必要な局所特徴量の算出の過程で回転か独活が算出されるので、計算量が大幅に増加しないようにしてクエリ画像を基準とした回転正規化が可能になる。   As described above, according to the present embodiment, the sample image that is rotationally normalized based on the query image with the user's click operation as a trigger is displayed. Thereby, when confirming a search result, it becomes possible to reduce a user's load by mental rotation by a user's instruction. In addition, since rotation or independent activity is calculated in the process of calculating the local feature amount necessary for the search, rotation normalization based on the query image can be performed without significantly increasing the calculation amount.

さらに、推定した回転角度に基づいて回転正規化の要否を判定できるように構成したので、機器のリソースに応じて判定基準を調整し、機器の処理速度とユーザの心的回転による負荷の軽減度とのバランスを取ることが容易になる。   Furthermore, since it is configured so that the necessity of rotation normalization can be determined based on the estimated rotation angle, the determination criteria are adjusted according to the resource of the device to reduce the load due to the processing speed of the device and the mental rotation of the user It becomes easy to balance with the degree.

なお、クリックの方法としては、例えばマウスの右ボタンクリック時に前記回転正規化処理を実行し、マウスの左ボタンクリック時には通常用いられる拡大・原寸表示を行うように構成してもよい。   As a click method, for example, the rotation normalization process may be executed when the right button of the mouse is clicked, and the enlargement / full size display that is normally used may be performed when the left button of the mouse is clicked.

また、本実施形態では、ユーザの指示動作としてクリック動作を例に説明したが、ユーザの動作指示に応じて回転正規化の要否判定とサンプル画像の回転正規化とを行うのであれば、他の指示動作を採用してもよい。例えば、指示動作として画像名を入力する方法を用いてもよい。あるいは、既存の視線検出を用い、ユーザが視線を一定時間当てた画像に対して回転正規化処理を実行するように構成してもよい。   Further, in this embodiment, the click operation is described as an example of the user instruction operation. However, if the rotation normalization necessity determination and the rotation normalization of the sample image are performed according to the user operation instruction, other operations may be performed. The instruction operation may be adopted. For example, a method of inputting an image name as the instruction operation may be used. Or you may comprise so that a rotation normalization process may be performed with respect to the image which the user applied the eyes | visual_axis for the fixed time using the existing eyes | visual_axis detection.

(第3の実施形態)
前述の第1及び第2の実施形態では、クエリ画像を基準にしたサンプル画像の回転角度に基づいて、表示するサンプル画像の回転正規化の要否を判定するように構成した。本実施形態では、回転正規化の要否の判定時に、クエリ画像を基準にしたサンプル画像の推定解像度の差を解像度情報として判定基準に用いる例について説明する。すなわち、本実施形態では、図3のスケール番号304に着目することにより比較対象画像間の解像度の差を推定する。以下、その具体的な推定方法について説明する。なお、本実施形態における画像検索装置の構成については図1と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点についてのみ説明する。
(Third embodiment)
In the first and second embodiments described above, it is configured to determine whether or not the rotation normalization of the sample image to be displayed is necessary based on the rotation angle of the sample image based on the query image. In the present embodiment, an example will be described in which the difference between the estimated resolutions of the sample images based on the query image is used as the determination information as the determination criterion when determining whether rotation normalization is necessary. That is, in this embodiment, the difference in resolution between comparison target images is estimated by paying attention to the scale number 304 in FIG. The specific estimation method will be described below. Note that the configuration of the image search apparatus according to the present embodiment is the same as that shown in FIG. In the present embodiment, only differences from the first embodiment will be described.

前述した手順では、まず、ステップS502で、局所特徴量Vqと局所特徴量Vsとの全ての組み合わせについて局所特徴量間の距離を計算する。次に、計算した局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)を抽出し、これらの対応点を登録することにより最小距離対応点リストを作成する。 In the above-described procedure, first, in step S502, distances between local feature amounts are calculated for all combinations of the local feature amount V q and the local feature amount V s . Next, a combination (corresponding point) of the local feature quantity V q and the local feature quantity V s so that the calculated distance between the local feature quantities is equal to or smaller than the threshold Tv and becomes the minimum distance is extracted, and the correspondence between them is extracted. A list of points corresponding to the minimum distance is created by registering the points.

ここで、局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)があった場合に、それぞれのスケール番号をSq、Ssとする。また、局所特徴量Vqが属する画像をクエリ画像とした場合に、局所特徴量Vsが属する画像の類似度を算出する場合を想定する。 Here, when there is a combination (corresponding point) of the local feature quantity V q and the local feature quantity V s such that the distance between the local feature quantities is equal to or less than the threshold value Tv and the minimum distance, the respective scales are obtained. The numbers are S q and S s . Further, it is assumed that when the image to which the local feature value V q belongs is used as a query image, the similarity of the image to which the local feature value V s belongs is calculated.

解像度の差をΔS=Ss−Sqとしたとき、局所特徴量Vqと局所特徴量Vsが正しい対応点(正対応点)である場合には、解像度の差ΔSは一定値となる。一方、対応が誤っている点(誤対応点)の解像度の差ΔSは正対応点の解像度の差ΔSと一致しないことが多い。つまり、局所特徴量間の距離で抽出した対応点すべてに対して解像度の差ΔSを算出し、解像度の差ΔSの最頻値ΔSmodを求めることにより、最頻値ΔSmodを持つ対応点を正対応点と推定できる。 When the difference in resolution is ΔS = S s −S q , if the local feature amount V q and the local feature amount V s are correct corresponding points (positive corresponding points), the resolution difference ΔS becomes a constant value. . On the other hand, the resolution difference ΔS at the point where the correspondence is incorrect (miscorresponding point) often does not coincide with the resolution difference ΔS at the positive corresponding point. That is, the resolution difference ΔS is calculated for all corresponding points extracted by the distance between the local feature amounts, and the mode value ΔS mod of the resolution difference ΔS is obtained, so that the corresponding point having the mode value ΔS mod is obtained. It can be estimated as a positive corresponding point.

また、最頻値ΔSmodは比較画像間の解像度差を表わし、ΔSmod>0の場合は局所特徴点Vsが属する画像の解像度の方が大きいことを示す。ΔSmod=0の場合は比較画像間に解像度の差がなく、ΔSmod<0の場合は、局所特徴点Vsが属する画像の解像度の方が小さいことを示す。 The mode value ΔS mod represents the resolution difference between the comparative images. When ΔS mod > 0, the resolution of the image to which the local feature point V s belongs is larger. When ΔS mod = 0, there is no difference in resolution between the comparative images, and when ΔS mod <0, the resolution of the image to which the local feature point V s belongs is smaller.

本実施形態では、回転正規化の要否判定に解像度の差を用いる。ここで、回転正規化の判定基準としてはいろいろな基準が考えられるが、本実施形態では解像度の差の最頻値ΔSmod≧4の場合に回転正規化が不要と判定する。すなわち、サンプル画像のクエリ画像に対する解像度比が4倍以上ある場合には回転正規化しない。ただし、判定基準は合理的な基準であれば、本実施形態の基準以外の基準を採用してもよい。また、第1及び第2の実施形態で説明した回転角度等を用いた回転正規化判定基準と組み合わせてもよい。判定の組み合わせ方法は論理積を用いてもよいし論理和を用いてもよい。 In this embodiment, the difference in resolution is used for determining whether rotation normalization is necessary. Here, various criteria can be considered as the rotation normalization determination criteria. In the present embodiment, it is determined that the rotation normalization is unnecessary when the mode value ΔS mod ≧ 4 of the resolution difference. That is, when the resolution ratio of the sample image to the query image is 4 times or more, rotation normalization is not performed. However, a criterion other than the criterion of the present embodiment may be adopted as long as the criterion is a reasonable criterion. Moreover, you may combine with the rotation normalization criteria using the rotation angle etc. which were demonstrated by 1st and 2nd embodiment. As a combination method of determination, logical product or logical sum may be used.

さらに、回転角度に応じて解像度の差を判定基準に用いるか否かを決定してもよい。例えば、回転角度が±30°以内の場合にだけ解像度の差を判定基準に加え、それ以外の場合には解像度の差を判定基準に加えないように構成する。この場合、回転角度が±30°以内であって、解像度の差の最頻値ΔSmod≧4である場合には回転正規化を行わないようにする。一方で、回転角度が±30°より大きいときには、サンプル画像のクエリ画像に対する解像度の差に関わらず必ず回転正規化を行うようにする。 Further, it may be determined whether or not to use the difference in resolution as a criterion according to the rotation angle. For example, the difference in resolution is added to the criterion only when the rotation angle is within ± 30 °, and the difference in resolution is not added to the criterion in other cases. In this case, when the rotation angle is within ± 30 ° and the mode value ΔS mod ≧ 4 of the resolution difference, rotation normalization is not performed. On the other hand, when the rotation angle is larger than ± 30 °, rotation normalization is always performed regardless of the difference in resolution of the sample image with respect to the query image.

以上のように本実施形態によれば、回転正規化要否の判定時にクエリ画像を基準にしたサンプル画像の解像度の差が所定値よりも小さいか否かという判定基準に用いるように構成した。これにより、機器のリソースに応じて判定基準を調整し、機器の処理速度とユーザの心的回転による負荷の軽減度とのバランスを取ることが容易になる。   As described above, according to the present embodiment, when determining whether rotation normalization is necessary or not, it is configured to be used as a criterion for determining whether or not the difference in resolution between sample images based on a query image is smaller than a predetermined value. This makes it easy to adjust the determination criteria according to the resource of the device and balance the processing speed of the device and the degree of load reduction due to the mental rotation of the user.

(第4の実施形態)
第1の実施形態では、検索結果の画像を表示する際に、クエリ画像を基準に回転正規化した画像で表示するように構成した。一方、ユーザの心的回転を伴う知覚時間の軽減を実現できる場合には検索結果の画像を回転正規化する方法以外の方法を用いてもよい。
(Fourth embodiment)
In the first embodiment, when the search result image is displayed, the image is displayed as a rotation-normalized image based on the query image. On the other hand, when it is possible to reduce the perceived time associated with the mental rotation of the user, a method other than the method of rotationally normalizing the search result image may be used.

本実施形態では、クエリ画像と検索結果の画像との対応領域が画像の中でどのように存在するかを補助画像で明示すること、特に回転方向を明示することによりユーザの心的回転を伴う知覚時間を軽減する方法を説明する。なお、本実施形態における画像検索装置の構成については図1と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点についてのみ説明する。また、本実施形態では、補助画像として矩形を用いる場合について説明する。   In the present embodiment, the auxiliary image clearly indicates how the corresponding region between the query image and the search result image exists in the image, and in particular, the user is mentally rotated by clearly indicating the rotation direction. A method for reducing the perception time will be described. Note that the configuration of the image search apparatus according to the present embodiment is the same as that shown in FIG. In the present embodiment, only differences from the first embodiment will be described. In the present embodiment, a case where a rectangle is used as an auxiliary image will be described.

図8は、本実施形態において、局所特徴点/局所特徴量比較部107により検索結果を出力する処理手順の一例を示すフローチャートである。図4と異なる点は、ステップS403の処理の代わりにステップS801の処理を行い、ステップS406及びS407の処理の代わりにステップS802の処理を行う点である。それ以外の処理については図4と同様である。   FIG. 8 is a flowchart illustrating an example of a processing procedure for outputting a search result by the local feature point / local feature amount comparison unit 107 in the present embodiment. The difference from FIG. 4 is that the process of step S801 is performed instead of the process of step S403, and the process of step S802 is performed instead of the processes of steps S406 and S407. Other processes are the same as those in FIG.

ステップS801においては、クエリ画像入力部102に入力されたクエリ画像101と比較先画像列104のサンプル画像との類似度を算出する。このとき、類似度の算出の過程で生成される値を用いて、サンプル画像とクエリ画像との対応領域に対する変形パラメータを推定する。なお、このステップS801の処理の詳細については後述する。また、クエリ画像との対応領域情報と変形パラメータについては、該当するサンプル画像と紐付けておく。   In step S <b> 801, the similarity between the query image 101 input to the query image input unit 102 and the sample image in the comparison target image sequence 104 is calculated. At this time, a deformation parameter for a corresponding region between the sample image and the query image is estimated using a value generated in the process of calculating the similarity. Details of the process in step S801 will be described later. In addition, the corresponding region information and the deformation parameter with the query image are associated with the corresponding sample image.

ステップS802においては、サンプル画像上にクエリ画像の対応する領域を矩形で描画する。描画にはステップS801の処理で得られるクエリ画像との対応領域情報及び変形パラメータを用いる。なお、本実施形態では、クエリ画像との対応領域情報をステップS513の条件を満たす対応点の組とする。また、前記矩形は、クエリ画像上で対応点をすべて含む最外接矩形を生成し、その最外接矩形を変形パラメータによりサンプル画像上に写像したものとする。   In step S802, the corresponding region of the query image is drawn as a rectangle on the sample image. The drawing uses the corresponding region information and the deformation parameter with the query image obtained by the processing in step S801. In the present embodiment, the corresponding area information with the query image is a set of corresponding points that satisfy the condition of step S513. The rectangle is a circumscribed rectangle that includes all corresponding points on the query image, and is mapped onto the sample image using a deformation parameter.

ここで、前記矩形のデザインとしてクエリ画像上で生成する矩形底辺の色を他の辺の色とは異なる色に設定し、その後その矩形を写像することとする。これにより、前記矩形の上下左右方向を認識しやすくする。   Here, as the rectangular design, the color of the rectangle base generated on the query image is set to a color different from the colors of the other sides, and then the rectangle is mapped. This makes it easy to recognize the vertical and horizontal directions of the rectangle.

次に、ステップS801の処理の詳細について説明する。
図9は、ステップS801の詳細な処理であって、局所特徴点/局所特徴量比較部107により類似度及び変形パラメータを算出する処理手順の一例を示すフローチャートである。図5と異なる点は、ステップS517の代わりにステップS901の処理が行われ、ステップS519の代わりにステップS902の処理が行われる点である。それ以外の処理については、図5と同様である。
Next, details of the processing in step S801 will be described.
FIG. 9 is a flowchart showing an example of a processing procedure for calculating the similarity and the deformation parameter by the local feature point / local feature amount comparison unit 107, which is the detailed processing in step S801. The difference from FIG. 5 is that the process of step S901 is performed instead of step S517, and the process of step S902 is performed instead of step S519. Other processes are the same as those in FIG.

ステップS901では、最終投票数VoteMaxの値を投票数Voteの値で置き換えるとともに、変数Mmax、Tmaxを、その時の変換行列M、Tに置き換える。また、ステップS902では、クエリ画像との対応領域情報、最終投票数VoteMax、及びその時の変形パラメータとして変換行列Mmax、Tmaxを設定する。 In step S901, the value of the final vote number VoteMax is replaced with the value of the vote number Vote, and the variables M max and T max are replaced with the conversion matrices M and T at that time. In step S902, the corresponding region information with the query image, the final vote number VoteMax, and the transformation matrices M max and T max are set as the deformation parameters at that time.

このように本実施形態では、検索結果として画像を表示する際に、サンプル画像上にクエリ画像の対応する領域を矩形で描画するように構成した。これにより、ユーザは矩形の上下左右方向を認識しやすくなり、検索結果を確認する時に心的回転によるユーザの負荷を軽減することが可能になる。   As described above, in the present embodiment, when an image is displayed as a search result, the corresponding region of the query image is drawn as a rectangle on the sample image. As a result, the user can easily recognize the up / down / left / right directions of the rectangle, and the user's load due to mental rotation can be reduced when checking the search result.

なお、本実施形態では、矩形底辺の色を他の辺の色とは異なる色に設定するようにしたが、ユーザによる矩形の上下左右方向の認識を容易にする方法であれば、上記の方法に限らず他の方法を用いてもよい。例えば、矩形の上下左右すべての辺の色を異なる色に設定するようにしてもよい。あるいは、色を変更するのではなく、異なる線幅や線種を用いるようにしてもよい。   In the present embodiment, the color of the bottom of the rectangle is set to a color different from the colors of the other sides. However, the above method can be used as long as it is a method that facilitates recognition of the rectangle in the vertical and horizontal directions by the user. However, other methods may be used. For example, the colors of all sides of the rectangle may be set to different colors. Alternatively, instead of changing the color, a different line width or line type may be used.

また、矩形の辺のデザインを変化させるのではなく、矩形を描画した上で変形パラメータをテキスト表示するようにしてもよい。さらに、変形度合いに応じてテキストの色や線幅、フォントを変更するようにしてもよい。これにより、ユーザはクエリ画像に対するサンプル画像の変形度合いを認識しやすくなり、検索結果を確認する時に心的回転を補助することが可能になる。そのため、ユーザの負荷を軽減することが可能になる。   Further, instead of changing the design of the sides of the rectangle, the deformation parameters may be displayed as text after drawing the rectangle. Furthermore, the text color, line width, and font may be changed according to the degree of deformation. As a result, the user can easily recognize the degree of deformation of the sample image with respect to the query image, and can assist mental rotation when checking the search result. Therefore, it becomes possible to reduce a user's load.

また、本実施形態では、検索結果を表示する際にサンプル画像上にクエリ画像の対応する領域を矩形で描画するようにしたが、サンプル画像上でのクエリ画像に対応する領域を容易に確認できれば他の補助画像を用いて描画するように構成してもよい。例えば、矩形ではなく、クエリ画像上での対応点をすべて含むような円あるいは楕円としてよく、任意の多角形としてもよい。さらには、矢印を用いてもよい。ただし、その場合は、前述の上下左右方向の認識を容易にする方法を適用するために、補助画像では、上下左右を表す範囲を設定する必要がある。さらに、クエリ画像上においても、対応する領域をサンプル画像上の補助画像と同じあるいは近いデザインの補助画像で示すようにしてもよい。   In this embodiment, when displaying the search result, the region corresponding to the query image is drawn in a rectangle on the sample image. However, if the region corresponding to the query image on the sample image can be easily confirmed, You may comprise so that it may draw using another auxiliary image. For example, instead of a rectangle, a circle or an ellipse including all corresponding points on the query image may be used, or an arbitrary polygon may be used. Furthermore, an arrow may be used. However, in that case, in order to apply the above-described method for facilitating the recognition in the vertical and horizontal directions, it is necessary to set a range representing the vertical and horizontal directions in the auxiliary image. Furthermore, on the query image, the corresponding region may be indicated by an auxiliary image having the same or similar design as the auxiliary image on the sample image.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

103 第1の局所特徴点/局所特徴量抽出部
106 第2の局所特徴点/局所特徴量抽出部
107 局所特徴点/局所特徴量比較部
103 First local feature point / local feature quantity extraction unit 106 Second local feature point / local feature quantity extraction unit 107 Local feature point / local feature quantity comparison unit

Claims (9)

入力画像及び比較画像から局所的な局所特徴を抽出する局所特徴抽出手段と、
前記局所特徴抽出手段によって抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合手段と、
前記照合手段によって類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出手段と、
前記回転角度算出手段によって算出された前記比較画像の回転角度が所定の値よりも大きい場合に、前記回転角度算出手段によって算出された回転角度に基づいて前記比較画像を回転させる回転手段と、
前記照合手段によって算出された類似度に応じて、前記回転手段によって回転された比較画像を出力する出力手段とを有することを特徴とする画像検索装置。
Local feature extraction means for extracting local local features from the input image and the comparison image;
Collation means for collating local features of the input image and comparison image extracted by the local feature extraction means to calculate a similarity;
A rotation angle calculation unit that calculates a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated by the matching unit;
A rotation unit that rotates the comparison image based on the rotation angle calculated by the rotation angle calculation unit when the rotation angle of the comparison image calculated by the rotation angle calculation unit is larger than a predetermined value ;
An image search apparatus comprising: output means for outputting a comparison image rotated by the rotating means in accordance with the similarity calculated by the collating means.
入力画像及び比較画像から局所的な局所特徴を抽出する局所特徴抽出手段と、
前記局所特徴抽出手段によって抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合手段と、
前記照合手段によって類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出手段と、
前記照合手段によって算出された類似度に応じて、前記比較画像を出力する出力手段と、
前記出力手段により出力された比較画像に対して指示がなされ、かつ前記回転角度算出手段によって算出された前記比較画像の回転角度が所定の値よりも大きい場合に、前記回転角度算出手段によって算出された回転角度に基づいて前記比較画像を回転させる回転手段とを有することを特徴とする画像検索装置。
Local feature extraction means for extracting local local features from the input image and the comparison image;
Collation means for collating local features of the input image and comparison image extracted by the local feature extraction means to calculate a similarity;
A rotation angle calculation unit that calculates a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated by the matching unit;
Output means for outputting the comparison image in accordance with the similarity calculated by the matching means;
When the comparison image output by the output unit is instructed and the rotation angle of the comparison image calculated by the rotation angle calculation unit is larger than a predetermined value, it is calculated by the rotation angle calculation unit. An image search apparatus comprising: a rotation unit that rotates the comparison image based on the rotation angle .
入力画像及び比較画像から局所的な局所特徴と解像度とを抽出する局所特徴抽出手段と、
前記局所特徴抽出手段によって抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合手段と、
前記照合手段によって類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出手段と、
前記入力画像及び比較画像の解像度の差が所定値よりも小さい場合に、前記回転角度算出手段によって算出された回転角度に基づいて前記比較画像を回転させる回転手段と、
前記照合手段によって算出された類似度に応じて、前記回転手段によって回転された比較画像を出力する出力手段とを有することを特徴とする画像検索装置。
Local feature extraction means for extracting local local features and resolution from the input image and the comparison image;
Collation means for collating local features of the input image and comparison image extracted by the local feature extraction means to calculate a similarity;
A rotation angle calculation unit that calculates a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated by the matching unit;
A rotation unit that rotates the comparison image based on the rotation angle calculated by the rotation angle calculation unit when a difference in resolution between the input image and the comparison image is smaller than a predetermined value ;
An image search apparatus comprising: output means for outputting a comparison image rotated by the rotating means in accordance with the similarity calculated by the collating means.
入力画像及び比較画像から局所的な局所特徴と解像度とを抽出する局所特徴抽出手段と、
前記局所特徴抽出手段によって抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合手段と、
前記照合手段によって類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出手段と、
前記回転角度が所定の値より大きい場合、または前記回転角度が前記所定の値以下であり、かつ前記入力画像及び比較画像の解像度の差が所定値よりも小さい場合に、前記回転角度算出手段によって算出された回転角度に基づいて前記比較画像を回転させる回転手段と、
前記照合手段によって算出された類似度に応じて、前記回転手段によって回転された比較画像を出力する出力手段とを有することを特徴とする画像検索装置。
Local feature extraction means for extracting local local features and resolution from the input image and the comparison image;
Collation means for collating local features of the input image and comparison image extracted by the local feature extraction means to calculate a similarity;
A rotation angle calculation unit that calculates a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated by the matching unit;
When the rotation angle is larger than a predetermined value, or when the rotation angle is less than or equal to the predetermined value and the difference in resolution between the input image and the comparison image is smaller than a predetermined value, the rotation angle calculation unit A rotating means for rotating the comparison image based on the calculated rotation angle ;
An image search apparatus comprising: output means for outputting a comparison image rotated by the rotating means in accordance with the similarity calculated by the collating means.
前記出力手段は、前記比較画像のうち、前記入力画像に対応する領域を出力することを特徴とする請求項1〜の何れか1項に記載の画像検索装置。 Said output means of said comparison image, the image retrieval apparatus according to any one of claims 1-4, characterized by outputting a region corresponding to the input image. 入力画像及び比較画像から局所的な局所特徴を抽出する局所特徴抽出工程と、
前記局所特徴抽出工程において抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合工程と、
前記照合工程において類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出工程と、
前記回転角度算出工程において算出された前記比較画像の回転角度が所定の値よりも大きい場合に、前記回転角度算出工程において算出された回転角度に基づいて前記比較画像を回転させる回転工程と、
前記照合工程において算出された類似度に応じて、前記回転工程において回転された比較画像を出力する出力工程とを有することを特徴とする画像検索方法。
A local feature extraction step of extracting local local features from the input image and the comparison image;
A collation step of calculating a similarity by collating local features of the input image and the comparison image extracted in the local feature extraction step;
A rotation angle calculation step of calculating a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated in the collation step;
A rotation step of rotating the comparison image based on the rotation angle calculated in the rotation angle calculation step when the rotation angle of the comparison image calculated in the rotation angle calculation step is larger than a predetermined value ;
And an output step of outputting the comparison image rotated in the rotation step according to the similarity calculated in the collation step.
入力画像及び比較画像から局所的な局所特徴と解像度とを抽出する局所特徴抽出工程と、
前記局所特徴抽出工程において抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合工程と、
前記照合工程において類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出工程と、
前記入力画像及び比較画像の解像度の差が所定値よりも小さい場合に、前記回転角度算出工程において算出された回転角度に基づいて前記比較画像を回転させる回転工程と、
前記照合工程において算出された類似度に応じて、前記回転工程において回転された比較画像を出力する出力工程とを有することを特徴とする画像検索方法。
A local feature extraction step of extracting local local features and resolution from the input image and the comparison image;
A collation step of calculating a similarity by collating local features of the input image and the comparison image extracted in the local feature extraction step;
A rotation angle calculation step of calculating a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated in the collation step;
A rotation step of rotating the comparison image based on the rotation angle calculated in the rotation angle calculation step when a difference in resolution between the input image and the comparison image is smaller than a predetermined value ;
And an output step of outputting the comparison image rotated in the rotation step according to the similarity calculated in the collation step.
入力画像及び比較画像から局所的な局所特徴を抽出する局所特徴抽出工程と、
前記局所特徴抽出工程において抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合工程と、
前記照合工程において類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出工程と、
前記回転角度算出工程において算出された前記比較画像の回転角度が所定の値よりも大きい場合に、前記回転角度算出工程において算出された回転角度に基づいて前記比較画像を回転させる回転工程と、
前記照合工程において算出された類似度に応じて、前記回転工程において回転された比較画像を出力する出力工程とをコンピュータに実行させることを特徴とするプログラム。
A local feature extraction step of extracting local local features from the input image and the comparison image;
A collation step of calculating a similarity by collating local features of the input image and the comparison image extracted in the local feature extraction step;
A rotation angle calculation step of calculating a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated in the collation step;
A rotation step of rotating the comparison image based on the rotation angle calculated in the rotation angle calculation step when the rotation angle of the comparison image calculated in the rotation angle calculation step is larger than a predetermined value ;
A program for causing a computer to execute an output step of outputting a comparison image rotated in the rotation step according to the similarity calculated in the collation step.
入力画像及び比較画像から局所的な局所特徴と解像度とを抽出する局所特徴抽出工程と、
前記局所特徴抽出工程において抽出された前記入力画像及び比較画像の局所特徴を照合して類似度を算出する照合工程と、
前記照合工程において類似度が算出される際に得られる値に基づいて、前記入力画像に対する前記比較画像の回転角度を算出する回転角度算出工程と、
前記入力画像及び比較画像の解像度の差が所定値よりも小さい場合に、前記回転角度算出工程において算出された回転角度に基づいて前記比較画像を回転させる回転工程と、
前記照合工程において算出された類似度に応じて、前記回転工程において回転された比較画像を出力する出力工程とをコンピュータに実行させることを特徴とするプログラム。
A local feature extraction step of extracting local local features and resolution from the input image and the comparison image;
A collation step of calculating a similarity by collating local features of the input image and the comparison image extracted in the local feature extraction step;
A rotation angle calculation step of calculating a rotation angle of the comparison image with respect to the input image based on a value obtained when the similarity is calculated in the collation step;
A rotation step of rotating the comparison image based on the rotation angle calculated in the rotation angle calculation step when a difference in resolution between the input image and the comparison image is smaller than a predetermined value ;
A program for causing a computer to execute an output step of outputting a comparison image rotated in the rotation step according to the similarity calculated in the collation step.
JP2011207333A 2011-09-22 2011-09-22 Image search apparatus, image search method and program Active JP5836728B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011207333A JP5836728B2 (en) 2011-09-22 2011-09-22 Image search apparatus, image search method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011207333A JP5836728B2 (en) 2011-09-22 2011-09-22 Image search apparatus, image search method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015216496A Division JP6017005B2 (en) 2015-11-04 2015-11-04 Image search apparatus, image search method and program

Publications (2)

Publication Number Publication Date
JP2013069125A JP2013069125A (en) 2013-04-18
JP5836728B2 true JP5836728B2 (en) 2015-12-24

Family

ID=48474767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011207333A Active JP5836728B2 (en) 2011-09-22 2011-09-22 Image search apparatus, image search method and program

Country Status (1)

Country Link
JP (1) JP5836728B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020190861A (en) * 2019-05-21 2020-11-26 株式会社日立製作所 Image search apparatus and image search method

Also Published As

Publication number Publication date
JP2013069125A (en) 2013-04-18

Similar Documents

Publication Publication Date Title
US10891476B2 (en) Method, system, and neural network for identifying direction of a document
JP7094702B2 (en) Image processing device and its method, program
CN108304820B (en) Face detection method and device and terminal equipment
US8842906B2 (en) Body measurement
CN109858333B (en) Image processing method, image processing device, electronic equipment and computer readable medium
JP6292911B2 (en) Image processing method, image processing program, and image processing apparatus
EP2323069A2 (en) Method, device and system for content based image categorization field
EP2879080A2 (en) Image processing device and method, and computer readable medium
WO2020233427A1 (en) Method and apparatus for determining features of target
JP6410450B2 (en) Object identification device, object identification method, and program
JP6937508B2 (en) Image processing system, evaluation model construction method, image processing method and program
JP2017033197A (en) Change area detection device, method, and program
EP3300025A1 (en) Image processing device and image processing method
CN110807110A (en) Image searching method and device combining local and global features and electronic equipment
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP6017005B2 (en) Image search apparatus, image search method and program
CN109583341B (en) Method and device for detecting multi-person skeleton key points of image containing portrait
JP5201184B2 (en) Image processing apparatus and program
JP6202938B2 (en) Image recognition apparatus and image recognition method
Lindblad et al. Coverage segmentation based on linear unmixing and minimization of perimeter and boundary thickness
JP5836728B2 (en) Image search apparatus, image search method and program
JP5893318B2 (en) Image search apparatus, image search method and program
Gedkhaw et al. Superresolution Reconstruction in Automatic Thai Sign Language Feature Extraction Using Adaptive Triangulation Interpolation.
JP6717049B2 (en) Image analysis apparatus, image analysis method and program
JP6059686B2 (en) Image classification preprocessing device, image classification device, image classification preprocessing method, image classification method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151104

R151 Written notification of patent or utility model registration

Ref document number: 5836728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151