JP2011257963A - Image processing device, and processing method and program thereof - Google Patents

Image processing device, and processing method and program thereof Download PDF

Info

Publication number
JP2011257963A
JP2011257963A JP2010131505A JP2010131505A JP2011257963A JP 2011257963 A JP2011257963 A JP 2011257963A JP 2010131505 A JP2010131505 A JP 2010131505A JP 2010131505 A JP2010131505 A JP 2010131505A JP 2011257963 A JP2011257963 A JP 2011257963A
Authority
JP
Japan
Prior art keywords
local feature
image
feature points
density
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010131505A
Other languages
Japanese (ja)
Inventor
Koichi Umakai
浩一 馬養
Hirotaka Shiiyama
弘隆 椎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010131505A priority Critical patent/JP2011257963A/en
Publication of JP2011257963A publication Critical patent/JP2011257963A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of more accurately removing an unneeded local feature amount than a conventional technology.SOLUTION: An image processing device comprises detection means for detecting a plurality of local feature points from an image; selection means for calculating local feature point density at a plurality of areas of the image and for selecting the local feature point which belongs to an area in which the density exceeds a predetermined threshold among the plurality of local feature points; and local feature amount calculation means for calculating the local feature amount corresponding to each selected local feature point.

Description

本発明は、画像処理装置、その処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, a processing method thereof, and a program.

類似画像を検索する技術が種々提案されている。例えば、画像の全体的な特徴(全体特徴量)を用いて類似画像を検索する方法が知られている。このような技術に関連して、例えば、画像を複数のブロックに分け、それぞれの代表色を用いてパターンマッチングし、色の位置情報を利用して類似画像を検索する方法が提案されている(特許文献1)。   Various techniques for retrieving similar images have been proposed. For example, a method of searching for a similar image using the overall feature (overall feature amount) of the image is known. In connection with such a technique, for example, a method has been proposed in which an image is divided into a plurality of blocks, pattern matching is performed using each representative color, and similar images are searched using color position information ( Patent Document 1).

また、画像を複数のブロックに分割して各ブロックの特徴量を算出し、当該特徴量に応じたラベルを付与したラベル行列を生成し、それを全体特徴量とし、当該全体特徴量を用いて検索する方法も知られている(特許文献2)。   In addition, the feature amount of each block is calculated by dividing the image into a plurality of blocks, a label matrix with a label according to the feature amount is generated, and this is used as the overall feature amount. A search method is also known (Patent Document 2).

画像全体ではなく、画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法も提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を検出する(非特許文献1)。そして、当該特徴点とその周辺の画像情報とに基づいて、当該特徴点に対応する特徴量(局所特徴量)を計算する(非特許文献2)。画像の検索は、局所特徴量同士のマッチングによって行なう。   There has also been proposed a method for searching for a similar image using not a whole image but a local feature amount (local feature amount) of the image. In this method, first, a characteristic point (local feature point) is detected from an image (Non-Patent Document 1). And based on the said feature point and the image information of its periphery, the feature-value (local feature-value) corresponding to the said feature point is calculated (nonpatent literature 2). Image retrieval is performed by matching local feature quantities.

局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、検索を可能にする技術が提案されている(非特許文献3)。   In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thus, a technique has been proposed that enables a search even when an image is rotated or enlarged or reduced (Non-Patent Document 3).

特開平8−249349号公報JP-A-8-249349 特開平10−260983号公報Japanese Patent Laid-Open No. 10-260983 特開2006−190201号公報JP 2006-190201 A 特開2008−257469号公報JP 2008-257469 A

C.Harris and M.J. Stephens,“A combined corner and edge detector," In Alvey Vision Conference,pages 147-152, 1988.C. Harris and M.J. Stephens, “A combined corner and edge detector,” In Alvey Vision Conference, pages 147-152, 1988. David G. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, 60, 2 (2004), pp.91-110.David G. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints,” International Journal of Computer Vision, 60, 2 (2004), pp.91-110. C. Schmid and R. Mohr, “Localgray value invariants for image retrieval," IEEE Trans. PAMI., Vol.19, No.5, pp530-534, 1997.C. Schmid and R. Mohr, “Localgray value invariants for image retrieval,” IEEE Trans. PAMI., Vol.19, No.5, pp530-534, 1997.

局所特徴量を用いて画像の検索や画像の認識を行なう場合、局所特徴量をデータベース(DB)に格納しておく必要がある。局所特徴量の数は膨大な量であり、データ容量の削減が重要な問題となる。   When searching for an image or recognizing an image using local feature values, the local feature values must be stored in a database (DB). The number of local feature amounts is enormous, and reducing the data capacity is an important issue.

ここで、検出した局所特徴点の中には、画像を少し回転させたり、拡大又は縮小させたりしただけで消えてしまうような再現性の低い不安定な局所特徴点もある。このような不安定な局所特徴点(以下、ノイズ特徴点と呼ぶ)は、画像の検索時等(その他、例えば、位置合わせ時)に利用することができない。   Here, among the detected local feature points, there are also unstable local feature points with low reproducibility that disappear when the image is slightly rotated, enlarged or reduced. Such unstable local feature points (hereinafter referred to as noise feature points) cannot be used when searching for an image (otherwise, for example, when positioning).

また、ノイズ特徴点は、局所特徴点又は局所特徴量間の誤対応を発生させる原因にもなり、画像の検索時には、検索精度の低下を引き起こしてしまう。また更に、このようなノイズ特徴点は、データベースの容量を浪費する大きな原因の1つである。   In addition, the noise feature point also causes an erroneous correspondence between local feature points or local feature amounts, and causes a reduction in search accuracy when searching for an image. Still further, such noise feature points are one of the major causes of wasting database capacity.

ここで、上述した非特許文献3においては、局所特徴点の検出に用いる関数値の出力に閾値を設け、当該閾値以下となる局所特徴点を廃棄し、局所特徴点の取捨選択を行なう技術についても言及されている。しかし、このような構成だけでは、ノイズ特徴点を十分に除去することはできない。   Here, in Non-Patent Document 3 described above, a technique is provided in which a threshold is provided for the output of a function value used for detection of local feature points, and local feature points that are equal to or lower than the threshold are discarded, and local feature points are selected. Has also been mentioned. However, noise feature points cannot be sufficiently removed with such a configuration alone.

この問題を解決するため、特許文献3においては、画像認識に適した局所特徴点及び局所特徴量を選択する技術について言及されている。具体的には、まず、学習用モデル画像から得た局所特徴点(及び局所特徴量)と、学習用モデル画像に含まれるモデル物体を含む学習用入力画像から得た局所特徴点(及び局所特徴量)とを比較する。比較の結果、対になった回数が多い局所特徴点(及び局所特徴量)のみを認識処理に用いる局所特徴点(及び局所特徴量)としてモデル辞書に登録する。これにより、局所特徴点の取捨選択を行なっている。   In order to solve this problem, Patent Document 3 mentions a technique for selecting local feature points and local feature quantities suitable for image recognition. Specifically, first, local feature points (and local feature amounts) obtained from the learning model image and local feature points (and local features) obtained from the learning input image including the model object included in the learning model image. The amount). As a result of comparison, only local feature points (and local feature amounts) that are frequently paired are registered in the model dictionary as local feature points (and local feature amounts) that are used for recognition processing. Thus, selection of local feature points is performed.

しかし、特許文献3に開示された技術では、認識対象毎に学習用モデル画像と複数の学習用入力画像とを準備する必要がある。そのため、例えば、数万個の画像等を格納するデータベースから画像を検索するシステムへの適用を考えた場合、作業量の観点から見て現実的ではない。   However, in the technique disclosed in Patent Document 3, it is necessary to prepare a learning model image and a plurality of learning input images for each recognition target. Therefore, for example, when considering application to a system that retrieves images from a database that stores tens of thousands of images, it is not realistic from the viewpoint of the amount of work.

また、ノイズ特徴点を除去するための他の技術として、画像の幾何学的な変動に基づく局所特徴量の変動を検定する技術が提案されている(特許文献4)。この方法では、再現性のある特徴点について局所特徴量を検定し、当該検定に合格した特徴点のみを採用するこ。   In addition, as another technique for removing noise feature points, a technique for examining a variation of a local feature amount based on a geometric variation of an image has been proposed (Patent Document 4). In this method, local feature values are tested for reproducible feature points, and only feature points that pass the test are adopted.

しかし、この方式により検定に合格した局所特徴点(局所特徴量)は、低域成分から検出された局所特徴点(局所特徴量)に偏る傾向がある。そのため、検定に合格した局所特徴点を用いて検索を行なった場合、検索漏れが生じる可能性がある。   However, local feature points (local feature amounts) that have passed the test by this method tend to be biased toward local feature points (local feature amounts) detected from low-frequency components. Therefore, when a search is performed using local feature points that have passed the test, there is a possibility that a search omission may occur.

本発明は、上記課題に鑑みてなされたものであり、従来よりも、不要な局所特徴量を的確に取り除けるようにした技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that can remove unnecessary local features more accurately than in the past.

上記課題を解決するため、本発明の一態様による画像処理装置は、画像から複数の局所特徴点を検出する検出手段と、前記画像の複数の領域において前記局所特徴点の密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する選択手段と、前記選択された各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段とを具備する。   In order to solve the above problem, an image processing apparatus according to an aspect of the present invention includes a detection unit that detects a plurality of local feature points from an image, calculates a density of the local feature points in a plurality of regions of the image, and Selection means for selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from a plurality of local feature points, and local feature amount calculation for calculating a local feature amount corresponding to each selected local feature point Means.

本発明によれば、本構成を有さない場合よりも、不要な局所特徴量を的確に取り除ける。これにより、例えば、データベースに不要な画像特徴(局所特徴量)が登録されずに済むため、データベースの容量の削減を図れるとともに、また、当該データベースからの画像特徴の検索時には、その検索精度を向上させられる。   According to the present invention, unnecessary local feature amounts can be accurately removed as compared with the case without this configuration. As a result, for example, unnecessary image features (local feature quantities) need not be registered in the database, so the capacity of the database can be reduced, and the search accuracy is improved when searching for image features from the database. Be made.

本発明の一実施の形態に係わる検索システムの構成の一例を示す図。The figure which shows an example of a structure of the search system concerning one embodiment of this invention. 図1に示す画像登録装置10の処理の流れの一例を示すフローチャート。3 is a flowchart illustrating an example of a processing flow of the image registration apparatus 10 illustrated in FIG. 1. 特徴点取捨選択部13における特徴点の取捨選択処理の概要の一例を示す図。The figure which shows an example of the outline | summary of the selection process of the feature point in the feature point selection part. 実施形態2に係わる検索システムの構成の一例を示す図。FIG. 4 is a diagram illustrating an example of a configuration of a search system according to a second embodiment. 実施形態2に係わる画像登録装置10の処理の流れの一例を示すフローチャート。9 is a flowchart illustrating an example of a processing flow of the image registration apparatus according to the second embodiment. 実施形態3に係わる検索システムの構成の一例を示す図。FIG. 10 is a diagram illustrating an example of a configuration of a search system according to a third embodiment. 実施形態4に係わる検索システムの構成の一例を示す図。FIG. 10 is a diagram illustrating an example of a configuration of a search system according to a fourth embodiment. 実施形態4に係わる画像登録装置10の処理の流れの一例を示すフローチャート。10 is a flowchart illustrating an example of a processing flow of the image registration apparatus according to the fourth embodiment.

以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

なお、以下に示す実施形態においては、局所的な特徴量の算出に際しては、局所特徴点を検出し、当該局所特徴点周辺の画素値から局所特徴量を算出する場合について説明する。ここで、以下に示す実施形態においては、局所特徴点の検出には、例えば、非特許文献1に記載された技術を用いる場合について説明する。但し、ノイズの影響を受けにくい方法であれば良く、必ずしも、非特許文献1に記載された技術を用いる必要はない。   In the following embodiment, a description will be given of a case where a local feature point is detected and a local feature amount is calculated from pixel values around the local feature point when calculating a local feature amount. Here, in the embodiment shown below, the case where the technique described in the nonpatent literature 1 is used for the detection of a local feature point is demonstrated, for example. However, any method that is not easily affected by noise may be used, and the technique described in Non-Patent Document 1 is not necessarily used.

また、以下に示す実施形態においては、局所特徴量として非特許文献2に記載された技術を用いる場合について説明する。この場合にも、ノイズの影響を受けにくい局所特徴量であれば良く、必ずしも、非特許文献2に記載された技術を用いる必要はない。   In the embodiment described below, a case where the technique described in Non-Patent Document 2 is used as the local feature amount will be described. In this case as well, the local feature amount that is hardly affected by noise may be used, and the technique described in Non-Patent Document 2 is not necessarily used.

(実施形態1)
図1は、本発明の一実施の形態に係わる検索システムの構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of the configuration of a search system according to an embodiment of the present invention.

検索システムは、画像登録装置10と、画像検索装置40と、画像特徴データベース30とを具備して構成される。画像登録装置10及び画像検索装置40は、画像特徴データベース30と接続されている。なお、画像登録装置10と、画像検索装置40との間は、接続されていても良いし、そうでなくても良い。   The search system includes an image registration device 10, an image search device 40, and an image feature database 30. The image registration device 10 and the image search device 40 are connected to the image feature database 30. The image registration device 10 and the image search device 40 may be connected or may not be connected.

画像特徴データベース30は、画像特徴を格納するデータベースである。画像登録装置10により入力画像(登録画像)31から検出された画像特徴(画像の局所特徴量の集合と付随情報(例えば、登録画像や局所特徴点))が登録される。   The image feature database 30 is a database that stores image features. Image features (a set of local feature amounts of the image and accompanying information (for example, registered images and local feature points)) detected from the input image (registered image) 31 by the image registration device 10 are registered.

画像登録装置10は、画像特徴データベース30への登録対象となる画像(登録画像)に基づいて当該画像における各局所領域についての画像特徴を求め、その結果を画像特徴データベース30に登録する。   The image registration device 10 obtains an image feature for each local region in the image based on an image to be registered in the image feature database 30 (registered image), and registers the result in the image feature database 30.

画像検索装置40は、画像特徴データベース30からの検索対象となる画像(クエリ画像)に基づいて当該画像における各局所領域についての画像特徴を求め、当該求めた画像特徴に基づいて画像特徴データベース30から画像検索を行なう。   The image search device 40 obtains an image feature for each local region in the image based on an image (query image) to be searched from the image feature database 30, and from the image feature database 30 based on the obtained image feature. Perform an image search.

なお、画像登録装置10及び画像検索装置40には、コンピュータが内蔵されている。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、ボタンやディスプレイ又はタッチパネル等の入出力手段、ネットワークカード等の通信手段等も具備されていても良い。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。例えば、画像登録装置10及び画像検索装置40各々において実現される機能的な構成は、CPUがROM等に格納されたプログラムを読み出し実行することで実現される。   The image registration device 10 and the image search device 40 have a built-in computer. The computer includes main control means such as a CPU, and storage means such as ROM (Read Only Memory), RAM (Random Access Memory), and HDD (Hard Disk Drive). In addition, the computer may include other input / output means such as buttons, a display, or a touch panel, and communication means such as a network card. These components are connected by a bus or the like, and are controlled by the main control unit executing a program stored in the storage unit. For example, the functional configuration realized in each of the image registration device 10 and the image search device 40 is realized by the CPU reading and executing a program stored in the ROM or the like.

ここで、画像登録装置10は、画像入力部11と、局所特徴点検出部12と、特徴点取捨選択部13と、局所特徴量算出部14と、特徴量登録部15とを具備して構成される。   Here, the image registration device 10 includes an image input unit 11, a local feature point detection unit 12, a feature point selection / selection unit 13, a local feature amount calculation unit 14, and a feature amount registration unit 15. Is done.

画像入力部11は、装置(画像登録装置10)内に登録画像を入力する。   The image input unit 11 inputs a registered image in the apparatus (image registration apparatus 10).

局所特徴点検出部12は、画像入力部11により入力された画像から局所的な特徴点(局所特徴点)を検出する。特徴点は、局所特徴量(局所的な特徴量)の算出位置を示す。なお、特徴点の検出方法の詳細については後述する。簡単に説明すると、局所特徴点検出部12は、登録画像31から輝度成分画像を生成し、当該画像を段階的に縮小するとともに、各縮小画像に対してぼかし処理を施す。そして、当該生成したぼかし画像から特徴点を検出する。   The local feature point detection unit 12 detects a local feature point (local feature point) from the image input by the image input unit 11. The feature point indicates the calculation position of the local feature amount (local feature amount). Details of the feature point detection method will be described later. In brief, the local feature point detection unit 12 generates a luminance component image from the registered image 31, reduces the image in stages, and performs a blurring process on each reduced image. Then, feature points are detected from the generated blurred image.

特徴点取捨選択部13は、局所特徴点検出部12により検出された複数の特徴点のうち、有用性の高い特徴点を選択し、それを出力する役割を果たす。特徴点取捨選択部13は、ノイズ特徴点判定部21と、ブロック分割部22と、空間密度算出部23と、局所特徴点選択部24とを具備して構成される。   The feature point selection unit 13 plays a role of selecting a highly useful feature point from among a plurality of feature points detected by the local feature point detection unit 12 and outputting it. The feature point sorting and selection unit 13 includes a noise feature point determination unit 21, a block division unit 22, a spatial density calculation unit 23, and a local feature point selection unit 24.

ノイズ特徴点判定部21は、局所特徴点検出部12により検出された複数の特徴点の中から所定の条件を満たない局所特徴点をノイズ特徴点として判定する。これにより、ノイズ特徴点が取り除かれる。なお、ノイズ特徴点とは、画像の検索時等に利用することができない特徴点であり、例えば、画像を少し回転させたり、拡大又は縮小させたり等しただけで消えてしまうような再現性の低い不安定な局所特徴点を指す。なお、このノイズ特徴点の判定方法については後述する。   The noise feature point determination unit 21 determines a local feature point that does not satisfy a predetermined condition from among a plurality of feature points detected by the local feature point detection unit 12 as a noise feature point. Thereby, noise feature points are removed. Note that the noise feature point is a feature point that cannot be used when searching for an image. For example, the noise feature point has a reproducibility that disappears when the image is slightly rotated, enlarged, or reduced. Refers to low unstable local feature points. A method for determining this noise feature point will be described later.

ブロック分割部22は、局所特徴点検出部12により生成されたぼかし画像の領域全体を所定サイズのブロックに分割する。   The block division unit 22 divides the entire area of the blurred image generated by the local feature point detection unit 12 into blocks of a predetermined size.

空間密度算出部23は、ブロック分割部22により分割されたブロック毎に局所特徴点の密度を算出する。すなわち、各ブロック内に属する局所特徴点の密度を算出する。局所特徴点選択部24は、空間密度算出部23により算出された各ブロックの密度と、所定の閾値とを比較し、当該閾値を越える密度のブロックを選択ブロックとして選択する。これにより、当該選択ブロック内に属する局所特徴点を取捨選択処理後の局所特徴点として選択する。この局所特徴点の選択結果は、局所特徴量算出部14に出力される。   The spatial density calculation unit 23 calculates the density of local feature points for each block divided by the block division unit 22. That is, the density of local feature points belonging to each block is calculated. The local feature point selection unit 24 compares the density of each block calculated by the spatial density calculation unit 23 with a predetermined threshold, and selects a block having a density exceeding the threshold as a selected block. Thereby, the local feature points belonging to the selected block are selected as the local feature points after the selection process. The selection result of the local feature points is output to the local feature amount calculation unit 14.

局所特徴量算出部14は、局所特徴点選択部24からの出力結果に基づいて各局所特徴点に対応した局所特徴量を算出する。より具体的には、選択ブロックに属する局所特徴点と、画像上(登録画像31)で当該局所特徴点から所定範囲にある画像情報とに基づいて、各局所特徴点に対応した局所特徴量を算出する。   The local feature amount calculation unit 14 calculates a local feature amount corresponding to each local feature point based on the output result from the local feature point selection unit 24. More specifically, based on local feature points belonging to the selected block and image information within a predetermined range from the local feature points on the image (registered image 31), local feature amounts corresponding to the local feature points are calculated. calculate.

特徴量登録部15は、局所特徴量算出部14により算出された局所特徴量を画像特徴として、登録画像31と対応付けて画像特徴データベース30に登録する。   The feature amount registration unit 15 registers the local feature amount calculated by the local feature amount calculation unit 14 as an image feature in the image feature database 30 in association with the registered image 31.

次に、画像検索装置40における構成の一例について説明する。画像検索装置40は、画像入力部41と、局所特徴点検出部42と、特徴点取捨選択部43と、局所特徴量算出部44と、特徴比較部45とを具備して構成される。画像検索装置40における符号41〜44の構成は、上述した画像登録装置10における符号11〜符号14と同様の構成を果たすため、ここではその説明については省略する。   Next, an example of the configuration of the image search device 40 will be described. The image search device 40 includes an image input unit 41, a local feature point detection unit 42, a feature point selection / selection unit 43, a local feature amount calculation unit 44, and a feature comparison unit 45. Since the configurations of reference numerals 41 to 44 in the image search apparatus 40 are the same as the reference numerals 11 to 14 in the image registration apparatus 10 described above, description thereof is omitted here.

ここで、特徴比較部45は、局所特徴量算出部44により算出された局所特徴量を画像特徴として、画像特徴データベース30に格納された各登録画像の局所特徴量と比較を行なう。比較の結果、クエリ画像32に最も類似している画像を検索結果33として出力する。   Here, the feature comparison unit 45 uses the local feature amount calculated by the local feature amount calculation unit 44 as an image feature and compares it with the local feature amount of each registered image stored in the image feature database 30. As a result of the comparison, an image most similar to the query image 32 is output as the search result 33.

以上が、本実施形態に係わる検索システムを構成する装置の構成についての説明である。なお、これら各装置(画像登録装置10、画像検索装置40)に設けられる機能的な構成は、必ずしも図示した通りに実現される必要はなく、システム内におけるいずれかの装置にその全部若しくは一部が実現されていれば良い。例えば、画像登録装置10と画像検索装置40とが一つの装置として実現されても良い。   The above is the description of the configuration of the devices that configure the search system according to the present embodiment. Note that the functional configuration provided in each of these devices (the image registration device 10 and the image search device 40) does not necessarily have to be realized as shown in the figure. Should just be realized. For example, the image registration device 10 and the image search device 40 may be realized as one device.

次に、図2を用いて、画像登録装置10における各構成の動作について説明する。ここでは、登録画像31に基づいて画像特徴を画像特徴データベース30に登録する際の処理の流れの一例について説明する。S110の処理を除いては、画像検索装置40における処理も同様の流れで行なわれるため、画像検索装置40についての説明は省略する。なお、画像検索装置40の場合は、S110の処理において、S109で算出された局所特徴量を用いた検索を行なう。   Next, the operation of each component in the image registration apparatus 10 will be described with reference to FIG. Here, an example of a processing flow when registering an image feature in the image feature database 30 based on the registered image 31 will be described. Except for the processing of S110, the processing in the image search device 40 is performed in the same flow, and therefore the description of the image search device 40 is omitted. In the case of the image search device 40, a search using the local feature amount calculated in S109 is performed in the process of S110.

この処理が開始すると、画像登録装置10は、まず、画像入力部11において、登録対象となる画像(登録画像)31を装置内に入力する(S101)。そして、局所特徴点検出部12において、S102〜S104の処理を実施し、当該登録画像31から局所特徴点を検出する。   When this process is started, the image registration apparatus 10 first inputs an image (registered image) 31 to be registered in the image input unit 11 (S101). Then, the local feature point detection unit 12 performs the processing of S102 to S104 to detect local feature points from the registered image 31.

具体的には、局所特徴点検出部12は、まず、登録画像31から輝度成分を検出して輝度成分画像を生成する(S102)。次に、局所特徴点検出部12は、当該生成した輝度成分画像から解像度が段階的に異なるスケールスペース画像を生成する。このとき、輝度成分画像を段階的に縮小するとともに、各縮小画像に対してぼかし処理を施す。これにより、複数のぼかし画像が生成される(S103)。なお、ぼかし処理は、画像とぼかしフィルタとのコンボリューション処理で実現される。本実施形態では、ぼかしフィルタとしてガウスフィルタを採用し、パラメータをσ=1.5として、3σの範囲のフィルタを生成する。   Specifically, the local feature point detection unit 12 first detects a luminance component from the registered image 31 and generates a luminance component image (S102). Next, the local feature point detection unit 12 generates scale space images having different resolutions stepwise from the generated luminance component image. At this time, the luminance component image is reduced stepwise and blurring processing is performed on each reduced image. Thereby, a plurality of blurred images are generated (S103). Note that the blurring process is realized by a convolution process between an image and a blurring filter. In the present embodiment, a Gaussian filter is employed as the blur filter, a parameter in the range of 3σ is generated with σ = 1.5 as a parameter.

その後、局所特徴点検出部12は、各ぼかし画像から特徴点(局所特徴点)を検出する(S104)。なお、特徴点の検出には、例えば、Harris作用素を用いれば良い(非特許文献1参照)。   Thereafter, the local feature point detection unit 12 detects a feature point (local feature point) from each blurred image (S104). For example, a Harris operator may be used to detect the feature points (see Non-Patent Document 1).

局所特徴点が得られると、画像登録装置10は、特徴点取捨選択部13において、S105〜S108の処理を実施し、特徴点の取捨選択を行なう。ここで、図3を参照しながらこの特徴点取捨選択部13における特徴点の取捨選択処理について説明する。   When the local feature points are obtained, the image registration apparatus 10 performs the processes of S105 to S108 in the feature point sorting selection unit 13 to select the feature points. Here, the feature point sorting process in the feature point sorting unit 13 will be described with reference to FIG.

図3に示す画像61は、局所特徴点検出部12により生成されたぼかし画像であり、画像62は、局所特徴点検出部12により検出された局所特徴点が設定されたぼかし画像である。この場合、ぼかし画像62には、ノイズ特徴点(図中丸印)と、ノイズ特徴点でない局所特徴点(図中罰印)との両方が示されている。   An image 61 shown in FIG. 3 is a blurred image generated by the local feature point detection unit 12, and an image 62 is a blurred image in which the local feature points detected by the local feature point detection unit 12 are set. In this case, the blurred image 62 shows both noise feature points (circles in the figure) and local feature points that are not noise feature points (punishment marks in the figure).

ここで、特徴点の取捨選択処理が開始すると、特徴点取捨選択部13は、まず、ノイズ特徴点判定部21において、局所特徴点検出部12により検出された複数の局所特徴点のうち、ノイズ特徴点となる局所特徴点を判定する(S105)。この判定に際して、ノイズ特徴点判定部21は、まず、ぼかし画像61からエッジ画像を生成し、当該エッジ画像の画素値の絶対値が所定の閾値以下(エッジ用閾値以下)のエッジを消去する。そして、残ったエッジを太線化してエッジマスクを生成する。これは、残ったエッジの近傍(所定範囲内)から検出された局所特徴点のみを選択するためである。最後に、エッジマスクの領域外にある局所特徴点をノイズ特徴点としてラベル付けするとともに、エッジマスク内の局所特徴点をノイズでない特徴点としてラベル付けする。これにより、ノイズ特徴点を判定でき、図3の画像63に示すように、ノイズ特徴点を取り除いた画像が得られる。   Here, when the feature point sorting process starts, the feature point sorting unit 13 first selects a noise from among a plurality of local feature points detected by the local feature point detection unit 12 in the noise feature point determination unit 21. A local feature point to be a feature point is determined (S105). In this determination, the noise feature point determination unit 21 first generates an edge image from the blurred image 61 and deletes edges whose pixel values of the edge image are equal to or less than a predetermined threshold (less than the threshold for edge). Then, the remaining edges are bolded to generate an edge mask. This is to select only local feature points detected from the vicinity of the remaining edge (within a predetermined range). Finally, the local feature points outside the edge mask region are labeled as noise feature points, and the local feature points in the edge mask are labeled as non-noise feature points. Thereby, the noise feature point can be determined, and an image from which the noise feature point is removed is obtained as shown in an image 63 in FIG.

次に、特徴点取捨選択部13は、ブロック分割部22において、ぼかし画像63の領域全体を所定サイズ(例えば、32画素×32画素)のブロックに分割する(S106)。本実施形態においては、ぼかし画像63の中心を基準にして、当該基準位置から順に設定する場合について説明するが、これに限られず、例えば、ぼかし画像63の左上を基準にして、当該基準位置から順に設定するようにしても良い。   Next, the feature point selection unit 13 divides the entire area of the blurred image 63 into blocks of a predetermined size (for example, 32 pixels × 32 pixels) in the block dividing unit 22 (S106). In the present embodiment, a case where the center of the blurred image 63 is set as a reference will be described in order from the reference position. However, the present invention is not limited to this. For example, the upper left of the blurred image 63 is used as a reference from the reference position. You may make it set in order.

ここで、例えば、ぼかし画像63のサイズが横×縦=320画素×240画素であり、ブロックサイズが32画素×32画素であると仮定する。この場合、横方向については10個のブロックを設定できる。縦方向については画像上部の8画素と画像下部の8画素を除いた224画素の範囲に7個のブロックを設定できる。これにより、ぼかし画像63に対して70個のブロックを設定したぼかし画像64が得られる。   Here, for example, it is assumed that the size of the blurred image 63 is horizontal × vertical = 320 pixels × 240 pixels and the block size is 32 pixels × 32 pixels. In this case, 10 blocks can be set in the horizontal direction. In the vertical direction, seven blocks can be set in a range of 224 pixels excluding the upper 8 pixels and the lower 8 pixels. As a result, a blurred image 64 in which 70 blocks are set for the blurred image 63 is obtained.

次に、特徴点取捨選択部13は、空間密度算出部23において、ブロック分割部22により分割されたブロック毎に局所特徴点の密度を算出する(S107)。空間密度の算出に際して、空間密度算出部23は、まず、S103の処理で得られた各縮小画像から検出された局所特徴点のうち、ノイズ特徴点のラベルが付けられていない局所特徴点の座標を登録画像31上の対応座標にマッピングする。次に、ブロック毎にブロック内部にマッピングされた局所特徴点の数をカウントし、各カウント数をブロック内の画素数で割算する。これにより、各ブロックの局所特徴点の密度を算出する。   Next, the feature point sorting and selection unit 13 calculates the density of local feature points for each block divided by the block dividing unit 22 in the spatial density calculating unit 23 (S107). When calculating the spatial density, the spatial density calculation unit 23 firstly coordinates the local feature points that are not labeled with the noise feature points among the local feature points detected from each reduced image obtained in the process of S103. Are mapped to corresponding coordinates on the registered image 31. Next, the number of local feature points mapped inside the block is counted for each block, and each count is divided by the number of pixels in the block. Thereby, the density of local feature points of each block is calculated.

ここで、特徴点取捨選択部13は、局所特徴点選択部24において、S107の処理で算出された密度と、所定の閾値とを比較し、当該閾値を越える密度のブロックを選択する(S108)。これにより、画像65が得られる。なお、選択したブロック内のノイズ局所特徴点については、ノイズ特徴点判定部21により付与されたノイズ特徴点ラベルを除去する。また、選択したブロック以外のブロックに属する全ての局所特徴点を取り除く。これにより、画像66が得られる。なお、図3に示す画像66においては、説明を分かり易くするため、ブロック内に1つでも局所特徴点が属するブロックをも選択しているが、必ずしもこのように構成する必要はない。例えば、所定の閾値を越える局所特徴点が属するブロックのみを選択するようにしても良い。   Here, the feature point sorting and selection unit 13 compares the density calculated in S107 with the predetermined threshold in the local feature point selection unit 24, and selects a block having a density exceeding the threshold (S108). . Thereby, the image 65 is obtained. For the noise local feature points in the selected block, the noise feature point label given by the noise feature point determination unit 21 is removed. Also, all local feature points belonging to blocks other than the selected block are removed. Thereby, an image 66 is obtained. In the image 66 shown in FIG. 3, for the sake of easy understanding, at least one block to which local feature points belong is selected in the block, but it is not always necessary to configure in this way. For example, only blocks to which local feature points exceeding a predetermined threshold belong may be selected.

ここで、図3に示す画像67は、図3に示す画像66からブロックの描画を取り除いた画像である。ここで、残った局所特徴点が局所特徴量算出部14に向けて出力される。   Here, the image 67 shown in FIG. 3 is an image obtained by removing the drawing of the block from the image 66 shown in FIG. Here, the remaining local feature points are output to the local feature amount calculation unit 14.

次に、局所特徴量算出部14は、局所特徴点選択部24から出力を受けた各局所特徴点に対応した局所特徴量を算出する(S109)。そして、画像登録装置10は、特徴量登録部15において、当該算出された局所特徴量を画像特徴として、登録画像31と対応付けて画像特徴データベース30に登録する(S110)。これにより、画像登録装置10における画像特徴の登録処理が終了する。   Next, the local feature quantity calculation unit 14 calculates a local feature quantity corresponding to each local feature point received from the local feature point selection unit 24 (S109). Then, the image registration device 10 registers the calculated local feature amount as an image feature in the feature amount registration unit 15 in association with the registered image 31 in the image feature database 30 (S110). Thus, the image feature registration process in the image registration apparatus 10 is completed.

以上説明したように本実施形態によれば、複数の局所特徴点の中からノイズ特徴点を取り除いた後、当該画像を複数のブロックに分割する。そして、各ブロックにおける局所特徴点の密度を算出し、当該密度が所定の閾値を越えるブロックを選択する。最後に、当該選択されたブロック内に属する各局所特徴点に対応して局所特徴量を算出する。   As described above, according to this embodiment, after removing noise feature points from a plurality of local feature points, the image is divided into a plurality of blocks. Then, the density of local feature points in each block is calculated, and a block whose density exceeds a predetermined threshold is selected. Finally, a local feature amount is calculated corresponding to each local feature point belonging to the selected block.

これにより、本構成を有さない場合よりも、ノイズ特徴点が的確に除去されるため、データベース(画像特徴データベース30)に不要な画像特徴が登録されずに済む。そのため、データベースの容量を削減できるとともに、また、当該データベースからの画像特徴の検索時には、その検索精度を向上させられる。   As a result, noise feature points are more accurately removed than in the case without this configuration, and unnecessary image features need not be registered in the database (image feature database 30). Therefore, the capacity of the database can be reduced, and the search accuracy can be improved when searching for image features from the database.

(実施形態2)
次に、実施形態2について説明する。実施形態1においては、ノイズ特徴点の判定時に生成したエッジマスク領域の領域外にある局所特徴点をノイズ特徴点と判定する場合について説明した。これに対して、実施形態2においては、これ以外の手法でノイズ特徴点を判定する構成について説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the first embodiment, the case has been described in which local feature points outside the edge mask region generated when determining the noise feature points are determined as noise feature points. On the other hand, in the second embodiment, a configuration for determining a noise feature point by a method other than this will be described.

具体的には、まず、検索対象から除外する画像を用いた事前学習によりノイズとして作用する特徴量を決め、それをノイズ特徴量としてデータベースに登録しておく。画像の登録時(又は検索時等)等には、登録画像31に基づいて算出した局所特徴量を当該登録されたノイズ特徴量と照合することでノイズ特徴量を判定する。   Specifically, first, a feature amount that acts as noise is determined by prior learning using an image excluded from the search target, and is registered in the database as a noise feature amount. At the time of image registration (or at the time of search, etc.), the noise feature value is determined by comparing the local feature value calculated based on the registered image 31 with the registered noise feature value.

図4は、実施形態2に係わる検索システムの構成の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a configuration of a search system according to the second embodiment.

検索システムは、実施形態1の構成に加えて、ノイズ特徴データベース34が設けられる。ノイズ特徴データベース34は、ノイズ特徴量を格納する。このデータベース34には、ノイズとして作用する特徴量(ノイズ特徴量)が予め登録されている。   The search system is provided with a noise feature database 34 in addition to the configuration of the first embodiment. The noise feature database 34 stores noise feature amounts. In this database 34, feature quantities (noise feature quantities) that act as noise are registered in advance.

ここで、実施形態1に係わる画像登録装置10及び画像検索装置40との構成の相違点としては、局所特徴量算出部14及び44における処理の順序にある。すなわち、特徴点取捨選択部13及び43により特徴点の取捨選択処理を行なう前に、局所特徴量算出部14及び44により局所特徴量の算出を行なう。   Here, the difference between the configuration of the image registration device 10 and the image search device 40 according to the first embodiment is the order of processing in the local feature amount calculation units 14 and 44. That is, before the feature point sorting and selection units 13 and 43 perform the feature point sorting process, the local feature amount calculation units 14 and 44 calculate the local feature amount.

次に、図5を用いて、実施形態2に係わる画像登録装置10における各構成の動作について説明する。ここでは、登録画像31に基づいて画像特徴を画像特徴データベース30に登録する際の処理の流れの一例について説明する。S210の処理を除いては、画像検索装置40における処理も同様の流れで行なわれるため、画像検索装置40についての説明は省略する。なお、画像検索装置40の場合は、S210の処理において、S209で算出された局所特徴量を用いた検索を行なう。   Next, the operation of each component in the image registration apparatus 10 according to the second embodiment will be described with reference to FIG. Here, an example of a processing flow when registering an image feature in the image feature database 30 based on the registered image 31 will be described. Except for the processing of S210, the processing in the image search device 40 is performed in the same flow, and therefore the description of the image search device 40 is omitted. In the case of the image search device 40, a search using the local feature amount calculated in S209 is performed in the process of S210.

この処理が開始すると、画像登録装置10は、まず、実施形態1を説明したS101〜104と同様の処理を実施する。具体的には、まず、登録画像31を装置内に入力する。そして、当該登録画像31から輝度成分画像を生成し、当該画像を段階的に縮小するとともに、各縮小画像に対してぼかし処理を施す。最後に、当該生成したぼかし画像から特徴点を検出する(S201〜S204)。   When this processing starts, the image registration apparatus 10 first performs the same processing as S101 to S104 described in the first embodiment. Specifically, first, the registered image 31 is input into the apparatus. Then, a luminance component image is generated from the registered image 31, the image is reduced in stages, and a blurring process is performed on each reduced image. Finally, feature points are detected from the generated blurred image (S201 to S204).

次に、画像登録装置10は、局所特徴量算出部14において、局所特徴点検出部12により検出された各局所特徴点に対応して局所特徴量を算出する(S205)。そして、ノイズ特徴点判定部21において、ノイズ特徴点の判定を行なう。具体的には、局所特徴量算出部14により算出された局所特徴量と、ノイズ特徴データベース34内のノイズ特徴量とを照合(比較)し、一致する局所特徴量に対応する局所特徴点をノイズ特徴点と判定する。ノイズ特徴点判定部21は、この判定結果に基づいて、ノイズ特徴点と判定された局所特徴点を取り除く(S206)。   Next, the image registration apparatus 10 calculates a local feature amount corresponding to each local feature point detected by the local feature point detection unit 12 in the local feature amount calculation unit 14 (S205). Then, the noise feature point determination unit 21 determines the noise feature point. Specifically, the local feature amount calculated by the local feature amount calculation unit 14 and the noise feature amount in the noise feature database 34 are collated (compared), and the local feature point corresponding to the matching local feature amount is determined as noise. Judged as a feature point. The noise feature point determination unit 21 removes local feature points determined as noise feature points based on the determination result (S206).

ここで、ノイズ特徴データベース34の作成方法及びノイズ特徴量(局所特徴量)の照合方法について簡単に説明する。まず、検索対象から除外すべき画像(例えば、背景画像等)を複数用いて、局所特徴点の検出と局所特徴量の算出とを実施する。次に、算出した局所特徴量をクラスタリングする。クラスタリングには、例えば、k−means法を用いれば良い。最後に、クラスタリング中心(複数)をノイズ特徴量としてノイズ特徴データベース34に登録する。照合時には、S203の処理で生成されたぼかし画像から算出された各局所特徴量とノイズ特徴データベース34に登録された各ノイズ特徴量とにおける局所特徴量間の距離を計算する。局所特徴量間の距離が、所定の閾値以下になれば、ノイズ特徴点判定部21は、そのときの局所特徴量が属する局所特徴点をノイズ特徴点である旨の判定を行なう。なお、ノイズ特徴データベース34の作成やノイズ特徴量(局所特徴量)の照合は、勿論、これ以外の方法を用いて行なっても良い。   Here, a method for creating the noise feature database 34 and a method for collating noise feature amounts (local feature amounts) will be briefly described. First, local feature points are detected and local feature amounts are calculated using a plurality of images (for example, background images) to be excluded from the search target. Next, the calculated local feature is clustered. For clustering, for example, a k-means method may be used. Finally, the clustering center (plurality) is registered in the noise feature database 34 as a noise feature amount. At the time of collation, the distance between the local feature amounts in each local feature amount calculated from the blurred image generated in the process of S203 and each noise feature amount registered in the noise feature database 34 is calculated. When the distance between the local feature amounts is equal to or less than a predetermined threshold, the noise feature point determination unit 21 determines that the local feature point to which the local feature amount at that time belongs is a noise feature point. The creation of the noise feature database 34 and the comparison of noise feature amounts (local feature amounts) may of course be performed using other methods.

次に、画像登録装置10は、ブロック分割部22において、実施形態1と同様にして、S203の処理で生成されたぼかし画像の領域全体を所定サイズ(例えば、32画素×32画素)のブロックに分割する(S207)。そして、空間密度算出部23において、ブロック分割部22により分割されたブロック毎に局所特徴点の密度を算出する(S208)。   Next, the image registration apparatus 10 uses the block dividing unit 22 to convert the entire area of the blurred image generated by the processing of S203 into a block of a predetermined size (for example, 32 pixels × 32 pixels), as in the first embodiment. Divide (S207). Then, the spatial density calculation unit 23 calculates the density of local feature points for each block divided by the block division unit 22 (S208).

密度の算出後、画像登録装置10は、局所特徴点選択部24において、S208の処理で算出された密度と、所定の閾値とを比較し、当該閾値を越える密度のブロックを選択する(S208)。なお、選択したブロック内の局所特徴点については、ノイズ特徴点判定部21による判定によりノイズ特徴点と判定された局所特徴点と当該特徴点に属する局所特徴量とを復帰させる。また、選択したブロック以外のブロックに属する全ての局所特徴点と当該局所特徴点に属する局所特徴量は全て取り除く。   After calculating the density, the image registration apparatus 10 compares the density calculated in S208 with the predetermined threshold in the local feature point selection unit 24, and selects a block having a density exceeding the threshold (S208). . For the local feature points in the selected block, the local feature points determined as noise feature points by the determination by the noise feature point determination unit 21 and the local feature amounts belonging to the feature points are restored. Further, all local feature points belonging to blocks other than the selected block and all local feature amounts belonging to the local feature points are removed.

最後に、画像登録装置10は、特徴量登録部15において、当該算出された局所特徴量を画像特徴として、登録画像31と対応付けて画像特徴データベース30に登録する(S210)。これにより、画像登録装置10における画像特徴の登録処理が終了する。

以上説明したように実施形態2によれば、ノイズとして作用する特徴量(ノイズ特徴量)をデータベース(ノイズ特徴データベース34)に予め登録しておき、その登録情報に基づいてノイズ特徴点を除去し、また、必要に応じて当該除去した特徴点を復帰させる。この場合にも、実施形態1と同様に、データベース(画像特徴データベース30)の容量を削減できるとともに、また、当該データベース30からの画像特徴の検索時には、その検索精度を向上させられる。
Finally, the image registration apparatus 10 causes the feature amount registration unit 15 to register the calculated local feature amount as an image feature in the image feature database 30 in association with the registered image 31 (S210). Thus, the image feature registration process in the image registration apparatus 10 is completed.

As described above, according to the second embodiment, a feature amount (noise feature amount) that acts as noise is registered in advance in a database (noise feature database 34), and noise feature points are removed based on the registered information. In addition, the removed feature points are restored as necessary. Also in this case, as in the first embodiment, the capacity of the database (image feature database 30) can be reduced, and the search accuracy can be improved when searching for image features from the database 30.

(実施形態3)
次に、実施形態3について説明する。実施形態2においては、登録画像31に基づいて算出した局所特徴量を、ノイズ特徴データベース34に登録されたノイズ特徴量と照合させることでノイズ特徴量を判定し、これにより、ノイズ特徴点を判定する場合について説明した。これに対して、実施形態3においては、ノイズ特徴点を判定するのではなく、予め定めた重要な局所特徴点を判定する場合について説明する。
(Embodiment 3)
Next, Embodiment 3 will be described. In the second embodiment, the noise feature amount is determined by collating the local feature amount calculated based on the registered image 31 with the noise feature amount registered in the noise feature database 34, thereby determining the noise feature point. Explained when to do. On the other hand, in the third embodiment, a case will be described in which a predetermined important local feature point is determined instead of determining a noise feature point.

図6は、実施形態3に係わる検索システムの構成の一例を示す図である。   FIG. 6 is a diagram illustrating an example of a configuration of a search system according to the third embodiment.

検索システムは、実施形態1の構成に加えて、重要特徴データベース35が設けられる。重要特徴データベース35は、予め決められた重要な特徴(局所特徴量)を格納する。すなわち、重要特徴データベース35には、重要局所特徴点(以下、重要特徴点と呼ぶ)が登録される。なお、重要特徴点とは、検索対象等となるオブジェクトの特徴点(すなわち、背景画像等の特徴点でない)であり、検索時等に有用な局所特徴量を指す。   The search system is provided with an important feature database 35 in addition to the configuration of the first embodiment. The important feature database 35 stores important features (local feature amounts) determined in advance. That is, important local feature points (hereinafter referred to as important feature points) are registered in the important feature database 35. An important feature point is a feature point of an object to be searched (ie, not a feature point such as a background image), and refers to a local feature amount useful at the time of searching.

ここで、実施形態2に係わる画像登録装置10及び画像検索装置40との構成の相違点としては、実施形態3においては、ノイズ特徴量ではなく、重要な特徴量を判定する点にある。すなわち、実施形態2におけるノイズ特徴点判定部21及び51の代わりに、重要特徴点判定部25及び55が設けられる。   Here, the difference between the configuration of the image registration apparatus 10 and the image search apparatus 40 according to the second embodiment is that, in the third embodiment, an important feature quantity is determined instead of a noise feature quantity. That is, important feature point determination units 25 and 55 are provided instead of the noise feature point determination units 21 and 51 in the second embodiment.

この場合、局所特徴量算出部14及び44に各局所特徴点に対応した局所特徴量が算出されると、重要特徴点判定部25及び55において、重要特徴点の判定を行なう。具体的には、当該局所特徴量と重要特徴データベース35内の局所特徴量とを照合(比較)し、一致する局所特徴量に対応する局所特徴点を重要特徴点と判定する。その後、重要特徴点判定部25及び55は、重要特徴点と判定した局所特徴点以外の局所特徴点を取り除く。   In this case, when the local feature amount corresponding to each local feature point is calculated by the local feature amount calculating units 14 and 44, the important feature point determining units 25 and 55 determine the important feature point. Specifically, the local feature amount and the local feature amount in the important feature database 35 are collated (compared), and a local feature point corresponding to the matching local feature amount is determined as an important feature point. Thereafter, the important feature point determination units 25 and 55 remove local feature points other than the local feature points determined to be important feature points.

ここで、実施形態3に係わる画像登録装置10及び画像検索装置40における処理の流れは、実施形態2と同様となるため(図5参照)、ここでは相違点について簡単に説明する。   Here, since the processing flow in the image registration apparatus 10 and the image search apparatus 40 according to the third embodiment is the same as that in the second embodiment (see FIG. 5), the differences will be briefly described here.

まず、重要特徴データベース35の作成方法及び重要特徴量(局所特徴量)の照合方法について簡単に説明する。重要特徴データベース35の作成に際しては、まず、検索対象オブジェクトのみを含む画像を複数用いて、局所特徴点の検出と局所特徴量の算出とを実施する。次に、算出した局所特徴量をクラスタリングする。クラスタリングには、例えば、k−means法を用いれば良い。最後に、クラスタリング中心(複数)を重要局所特徴量として重要特徴データベース35に登録する。照合時には、特徴点の検出時(S203の処理)に生成されたぼかし画像から算出された各局所特徴量と、重要特徴データベース35に登録された各重要局所特徴量とにおける局所特徴量間の距離を計算する。局所特徴量間の距離が、所定の閾値以下になれば、重要特徴点判定部25及び55は、そのときの局所特徴量が属する局所特徴点を重用特徴点である旨の判定を行なう。なお、重要特徴データベース35の作成や重要特徴量(局所特徴量)の照合は、勿論、これ以外の方法を用いて行なっても良い。   First, a method for creating the important feature database 35 and a method for collating important feature amounts (local feature amounts) will be briefly described. When creating the important feature database 35, first, a local feature point is detected and a local feature amount is calculated using a plurality of images including only the search target object. Next, the calculated local feature is clustered. For clustering, for example, a k-means method may be used. Finally, the clustering center (plurality) is registered in the important feature database 35 as an important local feature amount. At the time of collation, the distance between the local feature amounts in each local feature amount calculated from the blurred image generated when the feature point is detected (processing in S203) and each important local feature amount registered in the important feature database 35 Calculate If the distance between the local feature amounts is equal to or smaller than a predetermined threshold value, the important feature point determination units 25 and 55 determine that the local feature point to which the local feature amount at that time belongs is an important feature point. Of course, the creation of the important feature database 35 and the collation of the important feature amount (local feature amount) may be performed using other methods.

また、局所特徴点選択部24及び54においては、空間密度算出部23及び53により算出された密度が、所定の閾値を越えるブロックを選択ブロックとして選択する。選択ブロック内の局所特徴点については、重要特徴点判定部25及び55により重要特徴点と判定されなかった局所特徴点と当該局所特徴点に属する局所特徴量とを復帰させる。また、選択ブロック以外のブロックに属する全ての局所特徴点と当該局所特徴点に属する局所特徴量とを全て取り除くことになる。   Further, the local feature point selection units 24 and 54 select a block whose density calculated by the spatial density calculation units 23 and 53 exceeds a predetermined threshold as a selection block. For the local feature points in the selected block, the local feature points that have not been determined as important feature points by the important feature point determination units 25 and 55 and the local feature values belonging to the local feature points are restored. Also, all local feature points belonging to blocks other than the selected block and all local feature points belonging to the local feature points are removed.

以上説明したように実施形態3によれば、重要特徴量をデータベース(重要特徴データベース35)に予め登録しておき、その登録情報に基づいて重要でない特徴量(すなわち、ノイズ特徴点)を除去し、また、必要に応じて当該除去した特徴点を復帰させる。この場合にも、実施形態1と同様に、データベース(画像特徴データベース30)の容量を削減できるとともに、また、当該データベース30からの画像特徴の検索時には、その検索精度を向上させられる。   As described above, according to the third embodiment, important feature amounts are registered in the database (important feature database 35) in advance, and unimportant feature amounts (that is, noise feature points) are removed based on the registered information. In addition, the removed feature points are restored as necessary. Also in this case, as in the first embodiment, the capacity of the database (image feature database 30) can be reduced, and the search accuracy can be improved when searching for image features from the database 30.

(実施形態4)
次に、実施形態4について説明する。実施形態1においては、登録画像31に基づいて算出した局所特徴点の空間的な密度を求め、密度の高い部分領域に属する局所特徴点と局所特徴量とを画像特徴データベース30に登録する場合について説明した。これに対して、実施形態4においては、登録画像31からエッジを検出し、当該検出したエッジの空間的な密度を求め、エッジ密度が高い部分領域に属する局所特徴点と局所特徴量とを画像特徴データベース30に登録する場合について説明する。
(Embodiment 4)
Next, Embodiment 4 will be described. In the first embodiment, the spatial density of local feature points calculated based on the registered image 31 is obtained, and local feature points and local feature quantities belonging to a high-density partial region are registered in the image feature database 30. explained. On the other hand, in the fourth embodiment, an edge is detected from the registered image 31, the spatial density of the detected edge is obtained, and local feature points and local feature quantities belonging to a partial region having a high edge density are imaged. A case of registration in the feature database 30 will be described.

図7は、実施形態4に係わる検索システムの構成の一例を示す図である。   FIG. 7 is a diagram illustrating an example of a configuration of a search system according to the fourth embodiment.

ここで、実施形態1に係わる画像登録装置10及び画像検索装置40との構成の相違点としては、登録画像31(又はクエリ画像32)からエッジの検出を行なうエッジ検出部26及び56が設けられている。   Here, as a difference in configuration between the image registration apparatus 10 and the image search apparatus 40 according to the first embodiment, edge detection units 26 and 56 that detect edges from the registered image 31 (or the query image 32) are provided. ing.

次に、図8を用いて、実施形態4に係わる画像登録装置10における各構成の動作について説明する。ここでは、登録画像31に基づいて画像特徴を画像特徴データベース30に登録する際の処理の流れの一例について説明する。S310の処理を除いては、画像検索装置40における処理も同様の流れで行なわれるため、画像検索装置40についての説明は省略する。なお、画像検索装置40の場合は、S310の処理において、S309で算出された局所特徴量を用いた検索を行なう。   Next, the operation of each component in the image registration apparatus 10 according to the fourth embodiment will be described with reference to FIG. Here, an example of a processing flow when registering an image feature in the image feature database 30 based on the registered image 31 will be described. Except for the processing of S310, the processing in the image search device 40 is performed in the same flow, and thus the description of the image search device 40 is omitted. In the case of the image search device 40, the search using the local feature amount calculated in S309 is performed in the process of S310.

この処理が開始すると、画像登録装置10は、まず、実施形態1を説明したS101〜104と同様の処理を実施する。具体的には、まず、登録画像31を装置内に入力する。そして、当該登録画像31から輝度成分画像を生成し、当該画像を段階的に縮小するとともに、各縮小画像に対してぼかし処理を施す。最後に、当該生成したぼかし画像から特徴点を検出する(S301〜S304)。   When this processing starts, the image registration apparatus 10 first performs the same processing as S101 to S104 described in the first embodiment. Specifically, first, the registered image 31 is input into the apparatus. Then, a luminance component image is generated from the registered image 31, the image is reduced in stages, and a blurring process is performed on each reduced image. Finally, feature points are detected from the generated blurred image (S301 to S304).

次に、画像登録装置10は、特徴点取捨選択部13において、S305〜S308の処理を実施し、特徴点の取捨選択を行なう。具体的には、まず、エッジ検出部26において、S303の処理で得られたぼかし画像からエッジを検出し、エッジ画像を生成する。そして、当該エッジ画像の画素値の絶対値が、所定の閾値(エッジ用閾値)を越える画素に対してエッジラベルを付与する(S305)。   Next, the image registration apparatus 10 performs the processing of S305 to S308 in the feature point sorting selection unit 13 to select the feature points. Specifically, first, the edge detection unit 26 detects an edge from the blurred image obtained by the process of S303, and generates an edge image. Then, an edge label is given to a pixel whose absolute value of the pixel value of the edge image exceeds a predetermined threshold (edge threshold) (S305).

次に、画像登録装置10は、ブロック分割部22において、実施形態1同様にして、S303の処理で得られたぼかし画像の領域全体を所定サイズ(例えば、32画素×32画素)のブロックに分割する(S306)。   Next, the image registration apparatus 10 divides the entire area of the blurred image obtained by the processing of S303 into blocks of a predetermined size (for example, 32 pixels × 32 pixels) in the block dividing unit 22 as in the first embodiment. (S306).

ブロック分割が済むと、画像登録装置10は、空間密度算出部23において、ブロック分割部22により分割されたブロック毎にエッジの密度を算出する(S307)。エッジ密度の算出では、まず、エッジラベルを付与された画素(エッジ画素)の座標を登録画像31上の対応座標にマッピングする。そして、ブロック毎にブロック内部にマッピングされたエッジ画素の数をカウントする。最後に、各カウント数をブロック内の画素数で割算する。これにより、各ブロックのエッジ画素の密度を算出する。   After the block division, the image registration apparatus 10 calculates the edge density for each block divided by the block division unit 22 in the spatial density calculation unit 23 (S307). In calculating the edge density, first, the coordinates of a pixel (edge pixel) to which an edge label is assigned are mapped to corresponding coordinates on the registered image 31. Then, the number of edge pixels mapped inside the block is counted for each block. Finally, each count number is divided by the number of pixels in the block. Thereby, the density of the edge pixels of each block is calculated.

エッジ密度の算出が済むと、画像登録装置10は、局所特徴点選択部24において、S307の処理で算出された密度と、所定の閾値とを比較し、当該閾値を越える密度のブロックを選択する(S308)。そして、S304の処理で検出された局所特徴点のうち、選択ブロック以外のブロックに属する全ての局所特徴点を取り除く。残った局所特徴点は、局所特徴量算出部14に向けて出力される。   When the edge density is calculated, the image registration apparatus 10 compares the density calculated in S307 with a predetermined threshold in the local feature point selection unit 24, and selects a block having a density exceeding the threshold. (S308). Then, all local feature points belonging to blocks other than the selected block are removed from the local feature points detected in the process of S304. The remaining local feature points are output toward the local feature amount calculation unit 14.

次に、画像登録装置10は、局所特徴量算出部14において、局所特徴点選択部24から出力を受けた各局所特徴点に対応した局所特徴量を算出する(S309)。そして、画像登録装置10は、特徴量登録部15において、当該算出された局所特徴量を画像特徴として、登録画像31と対応付けて画像特徴データベース30に登録する(S310)。これにより、画像登録装置10における画像特徴の登録処理が終了する。   Next, in the image registration apparatus 10, the local feature amount calculation unit 14 calculates a local feature amount corresponding to each local feature point received from the local feature point selection unit 24 (S309). Then, the image registration apparatus 10 registers the calculated local feature amount as an image feature in the feature amount registration unit 15 in association with the registered image 31 in the image feature database 30 (S310). Thus, the image feature registration process in the image registration apparatus 10 is completed.

以上説明したように実施形態4によれば、画像から検出したエッジに基づいて局所特徴点を取捨選択することによりノイズ特徴点を除去する。この場合にも、実施形態1と同様に、データベース(画像特徴データベース30)の容量を削減できるとともに、また、当該データベース30からの画像特徴の検索時には、その検索精度を向上させられる。   As described above, according to the fourth embodiment, noise feature points are removed by selecting local feature points based on edges detected from an image. Also in this case, as in the first embodiment, the capacity of the database (image feature database 30) can be reduced, and the search accuracy can be improved when searching for image features from the database 30.

以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。ここでいくつか変形例について列挙する。   The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. . Here, some modifications are listed.

(変形実施形態1)
例えば、上述した説明では、ブロック分割部22及び42によるブロック分割時に画像を固定サイズのブロックに分割する場合を例に挙げて説明したが、これに限られない。例えば、分割後のブロック数(所定数のブロック)を固定し、それに応じてブロックサイズを変動させるように構成しても良い。また、ブロック同士の重なりを許容するように構成しても良い。
(Modified Embodiment 1)
For example, in the above description, the case where an image is divided into fixed-size blocks at the time of block division by the block division units 22 and 42 has been described as an example, but the present invention is not limited thereto. For example, the number of blocks after division (predetermined number of blocks) may be fixed, and the block size may be changed accordingly. Moreover, you may comprise so that the overlap of blocks may be accept | permitted.

(変形実施形態2)
また、上述した説明では、局所特徴点選択部24及び54において、空間密度算出部23及び53により算出された密度(局所特徴点、又はエッジ)が所定の閾値を越えるブロックを選択ブロックとして選択する場合を例に挙げて説明したが、これに限られない。例えば、選択ブロック内の局所特徴点(又はエッジ画素)を利用して選択ブロックを再配置し、当該再配置後に、再度、ブロックを選択するようにしても良い。このとき、再配置するブロックについては、再配置前の選択ブロックに対して、位置、サイズ、形状、個数の少なくともいずれかを変更しても良い。この手法について簡単に説明すると、まず、再配置前の選択ブロックにおいて互いに隣接しているブロックを隣接ブロックとして統合する。隣接の定義は、4近傍隣接としても良いし、8近傍隣接としても良い。次に、当該隣接ブロック内の局所特徴点(又はエッジ画素)について空間的な重心を求める。そして、当該重心を中心とし、また、半径の長さを当該重心から最も遠い隣接ブロック内の局所特徴点(又はエッジ画素)までの距離とした円形領域を定める。これにより、当該円形領域を再配置後の選択ブロックとする。
(Modified Embodiment 2)
In the above description, the local feature point selection units 24 and 54 select, as selection blocks, blocks whose densities (local feature points or edges) calculated by the spatial density calculation units 23 and 53 exceed a predetermined threshold. Although the case has been described as an example, the present invention is not limited to this. For example, the selected block may be rearranged using local feature points (or edge pixels) in the selected block, and the block may be selected again after the rearrangement. At this time, for the blocks to be rearranged, at least one of position, size, shape, and number may be changed with respect to the selected block before rearrangement. This method will be briefly described. First, blocks adjacent to each other in the selected block before rearrangement are integrated as adjacent blocks. The definition of the adjacency may be 4 neighbors or 8 neighbors. Next, a spatial centroid is obtained for local feature points (or edge pixels) in the adjacent block. Then, a circular area is determined with the center of gravity as the center and the length of the radius as the distance to the local feature point (or edge pixel) in the adjacent block farthest from the center of gravity. As a result, the circular area becomes the selected block after rearrangement.

ここで、再配置後の選択ブロック内の局所特徴点については、ノイズ特徴点(重要特徴点以外の局所特徴点)を復帰させる。また、再配置後の選択ブロック以外のブロックに属する全ての局所特徴点を取り除く。   Here, with respect to local feature points in the selected block after rearrangement, noise feature points (local feature points other than important feature points) are restored. Also, all local feature points belonging to blocks other than the selected block after rearrangement are removed.

(変形実施形態3)
また、上述した説明では、空間密度算出部23及び53による局所特徴点(又はエッジ画素)の空間的密度の算出に際してブロック分割する場合を例に挙げて説明したが、これに限られない。すなわち、局所特徴点(又はエッジ画素)の画像上の空間的な密度を算出できれば良く、必ずしも、このようなブロック分割を行なう必要はない。例えば、局所特徴点(又はエッジ画素)を画像上で空間的にクラスタリングし、クラスタを生成する。そして、クラスタに属する局所特徴点により形成される各領域において局所特徴点(又はエッジ画素)の密度を求めるように構成しても良い。クラスタ毎に密度を算出する方法としては、例えば、「着目クラスタに属する局所特徴点(又はエッジ画素)の数」/「クラスタ中心と各局所特徴点(又はエッジ画素)との座標間距離の合計」などとして算出すれば良い。この場合、局所特徴点選択部24及び54においては、局所特徴点(又はエッジ画素)の空間的な密度が、所定の閾値(クラスタ統合用閾値)を越えるクラスタを選択する。局所特徴量算出部14及び44では、当該選択されたクラスタ内の各局所特徴点に対応して局所特徴量を算出する。
(Modified Embodiment 3)
In the above description, the case where block division is performed when calculating the spatial density of local feature points (or edge pixels) by the spatial density calculation units 23 and 53 has been described as an example, but the present invention is not limited thereto. That is, it is only necessary to calculate the spatial density of local feature points (or edge pixels) on the image, and it is not always necessary to perform such block division. For example, local feature points (or edge pixels) are spatially clustered on the image to generate a cluster. Then, the density of local feature points (or edge pixels) may be obtained in each region formed by local feature points belonging to a cluster. As a method for calculating the density for each cluster, for example, “the number of local feature points (or edge pixels) belonging to the cluster of interest” / “total distance between coordinates between the cluster center and each local feature point (or edge pixel)” Or the like. In this case, the local feature point selection units 24 and 54 select clusters in which the spatial density of local feature points (or edge pixels) exceeds a predetermined threshold value (cluster integration threshold value). The local feature amount calculation units 14 and 44 calculate a local feature amount corresponding to each local feature point in the selected cluster.

なお、局所特徴点(又はエッジ画素)を空間的にクラスタリングする場合、クラスタに属する局所特徴点により形成される領域の中心座標の座標間距離が、所定の閾値以下(クラスタ用閾値以下)の距離となるクラスタが存在する場合がある。このような場合には、当該クラスタ同士を統合するように構成しても良い。これにより、単一クラスタで画像内オブジェクトを包含できるようになる可能性が向上する。また、局所特徴点(又はエッジ画素)を空間的にクラスタリングする場合、あるクラスタに属する局所特徴点(又はエッジ画素)の数が、所定数以下のクラスタのみに対して密度計算等(それ以降に続く処理)を実施するように構成しても良い。これにより、ノイズ特徴点等を多く含むクラスタを取り除くことができる。   When spatially clustering local feature points (or edge pixels), the distance between the coordinates of the center coordinates of the area formed by the local feature points belonging to the cluster is equal to or less than a predetermined threshold (less than the cluster threshold). There may be a cluster. In such a case, the clusters may be integrated. This improves the possibility that an object in the image can be included in a single cluster. In addition, when spatially clustering local feature points (or edge pixels), density calculation or the like is performed only for clusters in which the number of local feature points (or edge pixels) belonging to a certain cluster is a predetermined number or less (after that) The following process may be performed. As a result, clusters including many noise feature points and the like can be removed.

(変形実施形態4)
また、上述した説明では、空間密度算出部23及び53においてブロック毎に局所特徴点(又はエッジ画素)の密度を算出し、当該密度に対する閾値に基づいて選択ブロックを決めていたが、これに限られない。例えば、密度ではなく、ブロック内の局所特徴点(又はエッジ画素)の数をカウントし、局所特徴点(又はエッジ画素)の数に対する閾値に基づいて選択ブロックを決定するように構成しても良い。これにより、計算を簡略化できる。
(Modified Embodiment 4)
In the above description, the density of local feature points (or edge pixels) is calculated for each block in the spatial density calculators 23 and 53, and the selected block is determined based on the threshold value for the density. I can't. For example, instead of the density, the number of local feature points (or edge pixels) in the block may be counted, and the selected block may be determined based on a threshold for the number of local feature points (or edge pixels). . Thereby, calculation can be simplified.

(変形実施形態5)
また、上述した説明では、局所特徴点検出部12及び42において、輝度成分画像を生成し、それを段階的に縮小するとともに、各縮小画像に対してぼかし処理を施すことでスケールスペース画像を生成する場合を例に挙げて説明したが、これに限られない。すなわち、スケールスペース画像として解像度が段階的に異なる画像を生成できれば良い。例えば、輝度成分画像から段階的にぼかし度を大きくして生成したぼかし画像を生成し、当該ぼかし画像の集合をスケールスペース画像としても良い。これにより、拡大及び縮小処理が施された画像の検索にも対応できる。
(Modified Embodiment 5)
In the above description, the local feature point detection units 12 and 42 generate a luminance component image, reduce it stepwise, and generate a scale space image by blurring each reduced image. However, the present invention is not limited to this. That is, it is only necessary to generate images having different resolutions in stages as scale space images. For example, a blurred image generated by gradually increasing the blurring degree from the luminance component image may be generated, and the set of the blurred images may be a scale space image. Thereby, it is possible to cope with a search for an image subjected to enlargement and reduction processing.

(変形実施形態6)
また、上述した実施形態4の説明では、エッジ検出部26及び56において、エッジ画素の画素値の絶対値が、所定の閾値を越える画素に同一のエッジラベルを付与する場合について説明したが、これに限られない。例えば、エッジ画素の画素値の絶対値が、所定の閾値を越える画素の連結関係を調べ、連結しているエッジ画素の集合をエッジセグメントとし、エッジセグメント毎に異なるラベルを付与するように構成しても良い。この場合、空間密度算出部23及び53においては、各ブロックにおいて、同一のエッジラベルを持つエッジ毎に密度を算出する。これにより、ノイズエッジの影響を抑えることができる。
(Modified Embodiment 6)
In the description of the fourth embodiment described above, the edge detection units 26 and 56 have described the case where the same edge label is assigned to pixels whose edge pixel absolute value exceeds a predetermined threshold value. Not limited to. For example, the connection relationship of pixels whose edge pixel absolute value exceeds a predetermined threshold is examined, a set of connected edge pixels is set as an edge segment, and a different label is assigned to each edge segment. May be. In this case, the spatial density calculators 23 and 53 calculate the density for each edge having the same edge label in each block. Thereby, the influence of a noise edge can be suppressed.

(変形実施形態7)
また、上述した説明では、局所特徴点検出部12及び42により生成された全てのぼかし画像に対して特徴点の取捨選択処理を実施する場合を例に挙げて説明したが、これに限られない。例えば、ぼかし画像(スケールスペース画像)の解像度が所定の解像度を越えるぼかし画像から検出された局所特徴量と、所定の解像度以下となるぼかし画像から検出された局所特徴量とに対して異なる処理を実施しても良い。具体的には、解像度を画像サイズで定義し、ぼかし画像のサイズが所定サイズ(横×縦=320画素×240画素)を越える場合、上記実施形態で説明した処理(ブロック分割〜密度の算出結果に基づいて選択された局所特徴点に対応した特徴量の算出)を実施する。ぼかし画像のサイズが所定サイズ以下となる場合には、残った局所特徴点全てに対して局所特徴量を算出するか、又はノイズ特徴点を取り除いた後、残った局所特徴点全てに対して局所特徴量を算出する。この方法は、特に、エッジマスクを使ったノイズ特徴点除去との組み合わせにおいて有用である。すなわち、ぼかし画像の解像度が高くなるにつれ、オブジェクトの細かいエッジが残ってしまうため、エッジマスク適用後でも検索に寄与しない局所特徴点(ノイズ特徴点)が多数残る可能性が高くなる。
(Modified Embodiment 7)
In the above description, the case where the feature point selection process is performed on all the blurred images generated by the local feature point detection units 12 and 42 has been described as an example. However, the present invention is not limited thereto. . For example, different processing is performed on a local feature amount detected from a blurred image in which the resolution of a blurred image (scale space image) exceeds a predetermined resolution and a local feature amount detected from a blurred image having a predetermined resolution or less. You may carry out. Specifically, when the resolution is defined by the image size and the size of the blurred image exceeds a predetermined size (horizontal × vertical = 320 pixels × 240 pixels), the processing described in the above embodiment (block division to density calculation result) (Calculation of feature amount corresponding to the local feature point selected based on). If the size of the blurred image is equal to or smaller than the predetermined size, either calculate the local feature amount for all the remaining local feature points, or remove the noise feature point and then apply the local feature amount to all the remaining local feature points. The feature amount is calculated. This method is particularly useful in combination with noise feature point removal using an edge mask. That is, as the resolution of the blurred image increases, the fine edges of the object remain, so that there is a high possibility that many local feature points (noise feature points) that do not contribute to the search remain after the application of the edge mask.

そのため、解像度が高いぼかし画像において本手法を適用することにより、検索に寄与しない局所特徴点を取り除くことができる。これにより、登録データ量を抑えることができる。また、検索時には、局所特徴量における比較時の誤対応を抑えることができるため、検索精度を向上させることができる。   Therefore, by applying this method to a blurred image with high resolution, it is possible to remove local feature points that do not contribute to the search. Thereby, the amount of registered data can be suppressed. In addition, at the time of search, it is possible to suppress erroneous correspondence at the time of comparison in local feature amounts, so that the search accuracy can be improved.

一方、ぼかし画像の解像度が低くなるにつれ、オブジェクトの細かいエッジは残り難くなり、エッジマスクで抽出されるエッジは、オブジェクトを構成する重要なエッジである可能性が高くなる。そのため、解像度が低いぼかし画像に対して本手法を適用した場合、検索に必要な特徴点まで取り除かれてしまう可能性がある。   On the other hand, as the resolution of the blurred image is lowered, the fine edges of the object are less likely to remain, and the edges extracted by the edge mask are more likely to be important edges that constitute the object. Therefore, when this method is applied to a blurred image with a low resolution, there is a possibility that feature points necessary for the search are removed.

(変形実施形態8)
また、上述した説明では、画像登録装置10及び画像検索装置40において、局所特徴点の算出や局所特徴量の取捨選択処理を実施する場合を例に挙げて説明したが、これに限られない。例えば、単なる画像処理装置において、このような処理を実施するように構成しても良い。
(Modified Embodiment 8)
In the above description, the case where the image registration device 10 and the image search device 40 perform the calculation of the local feature points and the selection processing of the local feature values is described as an example, but the present invention is not limited thereto. For example, a simple image processing apparatus may be configured to perform such processing.

(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (18)

画像から複数の局所特徴点を検出する検出手段と、
前記画像の複数の領域において前記局所特徴点の密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する選択手段と、
前記選択された各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段と
を具備することを特徴とする画像処理装置。
Detecting means for detecting a plurality of local feature points from the image;
Selection means for calculating a density of the local feature points in a plurality of regions of the image, and selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from the plurality of local feature points;
An image processing apparatus comprising: a local feature amount calculating unit that calculates a local feature amount corresponding to each selected local feature point.
前記選択手段は、
前記画像における各画素の画素値に基づいてノイズ特徴点となる局所特徴点を判定するノイズ特徴点判定手段
を具備し、
前記検出手段により検出された複数の局所特徴点の中から前記ノイズ特徴点であると判定された局所特徴点を除いた後、残った局所特徴点を用いて前記密度の算出を行なうとともに前記局所特徴点の選択を行なう
ことを特徴とする請求項1記載の画像処理装置。
The selection means includes
Noise feature point determination means for determining a local feature point to be a noise feature point based on a pixel value of each pixel in the image,
After removing the local feature point determined to be the noise feature point from the plurality of local feature points detected by the detection means, the density is calculated using the remaining local feature points and the local feature points The image processing apparatus according to claim 1, wherein a feature point is selected.
前記ノイズ特徴点判定手段は、
前記画像からエッジを検出し、該検出されたエッジの画素値がエッジ用閾値を越えるエッジから所定範囲内にない局所特徴点をノイズ特徴点と判定する
ことを特徴とする請求項2記載の画像処理装置。
The noise feature point determination means includes:
The image according to claim 2, wherein an edge is detected from the image, and a local feature point that is not within a predetermined range from an edge whose pixel value of the detected edge exceeds an edge threshold value is determined as a noise feature point. Processing equipment.
前記選択手段は、
ブロックを用いて前記画像を前記複数の領域に分割するブロック分割手段と、
前記ブロック毎に局所特徴点の密度を算出する空間密度算出手段と、
前記局所特徴点の密度が前記所定の閾値を越えるブロックを選択し、当該選択したブロックに属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする請求項1記載の画像処理装置。
The selection means includes
Block dividing means for dividing the image into the plurality of regions using blocks;
Spatial density calculating means for calculating the density of local feature points for each block;
2. The image according to claim 1, further comprising: a local feature point selecting unit that selects a block having a density of the local feature points exceeding the predetermined threshold and selects a local feature point belonging to the selected block. Processing equipment.
前記ブロック分割手段は、
前記ブロックの重なりを許容して前記分割を行なう
ことを特徴とする請求項4記載の画像処理装置。
The block dividing means includes
The image processing apparatus according to claim 4, wherein the division is performed while allowing the blocks to overlap.
前記ブロック分割手段は、
前記局所特徴点選択手段によりブロックが選択された後、再度、当該選択されたブロックに対して位置、サイズ、形状、個数の少なくともいずれかを変更してブロックを再配置し、
前記局所特徴点選択手段は、
前記空間密度算出手段により前記再配置されたブロック毎に算出された密度が前記所定の閾値を越えるブロックを選択し、当該選択したブロックに属する局所特徴点を選択する
ことを特徴とする請求項4記載の画像処理装置。
The block dividing means includes
After the block is selected by the local feature point selection unit, again, the block is rearranged by changing at least one of the position, size, shape, and number of the selected block,
The local feature point selection means includes:
5. The block of which density calculated for each of the rearranged blocks by the spatial density calculating unit exceeds the predetermined threshold is selected, and local feature points belonging to the selected block are selected. The image processing apparatus described.
前記検出手段は、
前記画像から解像度が段階的に異なるスケールスペース画像を生成するとともに、該スケールスペース画像の各解像度の画像から局所特徴点を検出し、
前記選択手段は、
前記解像度が所定の解像度以下となる前記スケールスペース画像から検出された局所特徴点に対しては前記密度の算出を行なわずに、前記画像の画素値に基づいてノイズ特徴点となる局所特徴点を除いた後、前記局所特徴点の選択を行なう
ことを特徴とする請求項1記載の画像処理装置。
The detection means includes
Generating scale space images with different resolutions from the image in stages, and detecting local feature points from images of each resolution of the scale space image;
The selection means includes
The local feature points that are noise feature points based on the pixel values of the image are calculated without calculating the density for the local feature points detected from the scale space image whose resolution is equal to or lower than a predetermined resolution. The image processing apparatus according to claim 1, wherein the local feature point is selected after removal.
前記選択手段は、
前記検出手段により検出された局所特徴点を画像上でクラスタリングして複数のクラスタを生成するクラスタリング手段と、
クラスタに属する局所特徴点により形成される各領域において局所特徴点の密度を算出する空間密度算出手段と、
前記局所特徴点の密度が前記所定の閾値を越えるクラスタを選択し、当該選択したクラスタに属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする請求項1記載の画像処理装置。
The selection means includes
Clustering means for clustering local feature points detected by the detection means on an image to generate a plurality of clusters;
Spatial density calculation means for calculating the density of local feature points in each region formed by local feature points belonging to a cluster;
2. The image according to claim 1, further comprising: a local feature point selecting unit that selects a cluster in which the density of the local feature points exceeds the predetermined threshold and selects a local feature point belonging to the selected cluster. Processing equipment.
前記クラスタリング手段は、
前記クラスタの生成に際して、前記クラスタに属する局所特徴点により形成される領域の中心座標の座標間距離がクラスタ用閾値以下の距離にあるクラスタ同士を統合する
ことを特徴とする請求項8記載の画像処理装置。
The clustering means includes
9. The image according to claim 8, wherein, when generating the clusters, the clusters in which the distance between the coordinates of the central coordinates of the region formed by the local feature points belonging to the clusters is a distance equal to or less than a cluster threshold value are integrated. Processing equipment.
前記空間密度算出手段は、
前記複数のクラスタのうち、クラスタに属する局所特徴点の数が所定数以下となるクラスタに対してのみ前記密度を算出し、
前記局所特徴点選択手段は、
前記密度が算出されていないクラスタを前記局所特徴点の選択の対象から除く
ことを特徴とする請求項8記載の画像処理装置。
The spatial density calculating means includes
Of the plurality of clusters, the density is calculated only for clusters in which the number of local feature points belonging to the cluster is a predetermined number or less,
The local feature point selection means includes:
The image processing apparatus according to claim 8, wherein the cluster whose density has not been calculated is excluded from the selection target of the local feature points.
画像から複数の局所特徴点を検出する検出手段と、
各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段と、
前記画像上で局所特徴量の算出を行なわない領域の画像を用いた事前学習により求められた局所特徴量をノイズ特徴量として登録するデータベースを参照し、該ノイズ特徴量と前記検出された複数の局所特徴量とを照合することにより該ノイズ特徴量を持つ局所特徴点を判定するノイズ特徴点判定手段と、
前記検出された局所特徴量の中から前記ノイズ特徴量を持つ局所特徴点を除いた後、前記画像の複数の領域において残った局所特徴点の密度を算出する空間密度算出手段と、
前記残った局所特徴点の中から前記算出された密度が所定の閾値を越える領域に属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする画像処理装置。
Detecting means for detecting a plurality of local feature points from the image;
Local feature amount calculating means for calculating a local feature amount corresponding to each local feature point;
A reference is made to a database that registers, as noise feature quantities, local feature quantities obtained by pre-learning using an image of a region where local feature quantities are not calculated on the image, and the noise feature quantities and the detected plurality of detected feature quantities Noise feature point determination means for determining a local feature point having the noise feature amount by collating with a local feature amount;
Spatial density calculation means for calculating the density of local feature points remaining in a plurality of regions of the image after removing the local feature points having the noise feature amount from the detected local feature amounts;
An image processing apparatus comprising: a local feature point selecting unit that selects a local feature point belonging to a region where the calculated density exceeds a predetermined threshold value from the remaining local feature points.
画像から複数の局所特徴点を検出する検出手段と、
各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段と、
前記画像上で局所特徴量の算出を行なうべき領域を用いた事前学習により求められた局所特徴量を重要特徴量として登録するデータベースを参照し、該重要特徴量と前記検出された複数の局所特徴量とを照合することにより該重要特徴量を持つ局所特徴点を判定する重要特徴点判定手段と、
前記検出された局所特徴量の中から前記重要特徴量を持つ局所特徴点以外の局所特徴点を除いた後、前記画像の複数の領域において残った局所特徴点の密度を算出する空間密度算出手段と、
前記残った局所特徴点の中から前記算出された密度が所定の閾値を越える領域に属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする画像処理装置。
Detecting means for detecting a plurality of local feature points from the image;
Local feature amount calculating means for calculating a local feature amount corresponding to each local feature point;
Refer to a database that registers, as an important feature amount, a local feature amount obtained by pre-learning using a region on which the local feature amount should be calculated on the image, and the important feature amount and the plurality of detected local features An important feature point determination means for determining a local feature point having the important feature amount by checking the amount;
Spatial density calculation means for calculating the density of local feature points remaining in a plurality of regions of the image after excluding local feature points other than the local feature points having the important feature amount from the detected local feature amounts When,
An image processing apparatus comprising: a local feature point selecting unit that selects a local feature point belonging to a region where the calculated density exceeds a predetermined threshold value from the remaining local feature points.
画像から複数の局所特徴点を検出する検出手段と、
前記画像からエッジを検出するエッジ検出手段と、
前記画像の複数の領域において前記エッジの密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する選択手段と、
前記選択された各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段と
を具備することを特徴とする画像処理装置。
Detecting means for detecting a plurality of local feature points from the image;
Edge detection means for detecting an edge from the image;
Selecting means for calculating the density of the edge in a plurality of regions of the image and selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from the plurality of local feature points;
An image processing apparatus comprising: a local feature amount calculating unit that calculates a local feature amount corresponding to each selected local feature point.
前記選択手段は、
ブロックを用いて前記画像を前記複数の領域に分割するブロック分割手段と、
前記ブロック毎にエッジの密度を算出する空間密度算出手段と、
前記エッジの密度が前記所定の閾値を越えるブロックを選択し、当該選択したブロックに属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする請求項13記載の画像処理装置。
The selection means includes
Block dividing means for dividing the image into the plurality of regions using blocks;
Spatial density calculating means for calculating the density of edges for each block;
The image processing apparatus according to claim 13, further comprising: a local feature point selecting unit that selects a block in which the edge density exceeds the predetermined threshold and selects a local feature point belonging to the selected block. .
前記空間密度算出手段は、
前記検出手段により検出されたエッジのうち、エッジの画素値がエッジ用閾値を越える画素を用いて前記エッジの密度を算出する
ことを特徴とする請求項14記載の画像処理装置。
The spatial density calculating means includes
The image processing apparatus according to claim 14, wherein the density of the edge is calculated using a pixel whose edge pixel value exceeds an edge threshold value among edges detected by the detection unit.
前記エッジ検出手段は、
前記画像からのエッジの検出に際して、エッジの連結関係を調べ、連結しているエッジをそれぞれエッジセグメントとしてエッジラベルを付与し、
前記空間密度算出手段は、
同一のエッジラベルを持つエッジ毎に各ブロックにおけるエッジの密度を算出する
ことを特徴とする請求項14記載の画像処理装置。
The edge detection means includes
Upon detection of edges from the image, the edge connection relationship is examined, and edge labels are assigned to each connected edge as an edge segment,
The spatial density calculating means includes
The image processing apparatus according to claim 14, wherein the density of edges in each block is calculated for each edge having the same edge label.
画像処理装置の処理方法であって、
検出手段が、画像から複数の局所特徴点を検出する工程と、
選択手段が、前記画像の複数の領域において前記局所特徴点の密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する工程と、
局所特徴量算出手段が、前記選択された各局所特徴点に対応した局所特徴量を算出する工程と
を含むことを特徴とする処理方法。
A processing method of an image processing apparatus,
A step of detecting a plurality of local feature points from the image;
Selecting means for calculating a density of the local feature points in a plurality of regions of the image, and selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from the plurality of local feature points;
A local feature amount calculating means including a step of calculating a local feature amount corresponding to each of the selected local feature points.
コンピュータを、
画像から複数の局所特徴点を検出する検出手段、
前記画像の複数の領域において前記局所特徴点の密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する選択手段、
前記選択された各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段
として機能されるためのプログラム。
Computer
Detecting means for detecting a plurality of local feature points from the image;
Selecting means for calculating a density of the local feature points in a plurality of regions of the image and selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from the plurality of local feature points;
A program for functioning as a local feature amount calculating means for calculating a local feature amount corresponding to each selected local feature point.
JP2010131505A 2010-06-08 2010-06-08 Image processing device, and processing method and program thereof Withdrawn JP2011257963A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010131505A JP2011257963A (en) 2010-06-08 2010-06-08 Image processing device, and processing method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010131505A JP2011257963A (en) 2010-06-08 2010-06-08 Image processing device, and processing method and program thereof

Publications (1)

Publication Number Publication Date
JP2011257963A true JP2011257963A (en) 2011-12-22

Family

ID=45474080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010131505A Withdrawn JP2011257963A (en) 2010-06-08 2010-06-08 Image processing device, and processing method and program thereof

Country Status (1)

Country Link
JP (1) JP2011257963A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101310886B1 (en) 2012-08-09 2013-09-25 주식회사 에스원 Method for extracting face characteristic and apparatus thereof
JP2014164483A (en) * 2013-02-25 2014-09-08 Kddi Corp Database generation device, camera attitude estimation device, database generation method, camera attitude estimation method and program
JP2015503800A (en) * 2012-01-02 2015-02-02 テレコム・イタリア・エッセ・ピー・アー Image analysis
JP2016162414A (en) * 2015-03-05 2016-09-05 株式会社日立製作所 Image processing device
JP2018160165A (en) * 2017-03-23 2018-10-11 Necソリューションイノベータ株式会社 Image processor, image processing method and program
JP2019046184A (en) * 2017-09-01 2019-03-22 日本電信電話株式会社 Image processing apparatus, training image processing apparatus, image identification apparatus, training image processing method, image identification method, and program
US10445570B2 (en) 2017-03-21 2019-10-15 Fuji Xerox Co., Ltd. Information processing apparatus
US10636168B2 (en) 2015-06-12 2020-04-28 Sony Corporation Image processing apparatus, method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015503800A (en) * 2012-01-02 2015-02-02 テレコム・イタリア・エッセ・ピー・アー Image analysis
KR101310886B1 (en) 2012-08-09 2013-09-25 주식회사 에스원 Method for extracting face characteristic and apparatus thereof
JP2014164483A (en) * 2013-02-25 2014-09-08 Kddi Corp Database generation device, camera attitude estimation device, database generation method, camera attitude estimation method and program
JP2016162414A (en) * 2015-03-05 2016-09-05 株式会社日立製作所 Image processing device
US10636168B2 (en) 2015-06-12 2020-04-28 Sony Corporation Image processing apparatus, method, and program
US10445570B2 (en) 2017-03-21 2019-10-15 Fuji Xerox Co., Ltd. Information processing apparatus
JP2018160165A (en) * 2017-03-23 2018-10-11 Necソリューションイノベータ株式会社 Image processor, image processing method and program
JP2019046184A (en) * 2017-09-01 2019-03-22 日本電信電話株式会社 Image processing apparatus, training image processing apparatus, image identification apparatus, training image processing method, image identification method, and program

Similar Documents

Publication Publication Date Title
JP2011257963A (en) Image processing device, and processing method and program thereof
AU2012261715B2 (en) Method, apparatus and system for generating a feature vector
US8027978B2 (en) Image search method, apparatus, and program
JP2019102061A (en) Text line segmentation method
US8417038B2 (en) Image processing apparatus, processing method therefor, and non-transitory computer-readable storage medium
JP2018142189A (en) Program, distance measuring method, and distance measuring device
JP2005148987A (en) Object identifying method and device, program and recording medium
CN106709490B (en) Character recognition method and device
JP2014010633A (en) Image recognition device, image recognition method, and image recognition program
JP2016053763A (en) Image processor, image processing method and program
EP3291179B1 (en) Image processing device, image processing method, and image processing program
CN110704667A (en) Semantic information-based rapid similarity graph detection algorithm
US20220392107A1 (en) Image processing apparatus, image processing method, image capturing apparatus, and non-transitory computer-readable storage medium
CN113537158B (en) Image target detection method, device, equipment and storage medium
KR102492230B1 (en) License plate detection apparatus and method using image warping
CN115546762A (en) Image clustering method, device, storage medium and server
JP2016018421A (en) Image classification device, number plate reading device, number plate reading system, and image classification method
CN114783042A (en) Face recognition method, device, equipment and storage medium based on multiple moving targets
KR102102394B1 (en) Method and apparatus for preprocessing image for recognition of character
JP3792759B2 (en) Character recognition method and apparatus
CN112084364A (en) Object analysis method, local image search method, device, and storage medium
US9202097B2 (en) Information processing apparatus, information processing method, and computer program product
TW201939354A (en) License plate recognition methods and systems thereof
CN115082919B (en) Address recognition method, electronic device and storage medium
CN112101139B (en) Human shape detection method, device, equipment and storage medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903