JP2011257963A - Image processing device, and processing method and program thereof - Google Patents
Image processing device, and processing method and program thereof Download PDFInfo
- Publication number
- JP2011257963A JP2011257963A JP2010131505A JP2010131505A JP2011257963A JP 2011257963 A JP2011257963 A JP 2011257963A JP 2010131505 A JP2010131505 A JP 2010131505A JP 2010131505 A JP2010131505 A JP 2010131505A JP 2011257963 A JP2011257963 A JP 2011257963A
- Authority
- JP
- Japan
- Prior art keywords
- local feature
- image
- feature points
- density
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、画像処理装置、その処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, a processing method thereof, and a program.
類似画像を検索する技術が種々提案されている。例えば、画像の全体的な特徴(全体特徴量)を用いて類似画像を検索する方法が知られている。このような技術に関連して、例えば、画像を複数のブロックに分け、それぞれの代表色を用いてパターンマッチングし、色の位置情報を利用して類似画像を検索する方法が提案されている(特許文献1)。 Various techniques for retrieving similar images have been proposed. For example, a method of searching for a similar image using the overall feature (overall feature amount) of the image is known. In connection with such a technique, for example, a method has been proposed in which an image is divided into a plurality of blocks, pattern matching is performed using each representative color, and similar images are searched using color position information ( Patent Document 1).
また、画像を複数のブロックに分割して各ブロックの特徴量を算出し、当該特徴量に応じたラベルを付与したラベル行列を生成し、それを全体特徴量とし、当該全体特徴量を用いて検索する方法も知られている(特許文献2)。 In addition, the feature amount of each block is calculated by dividing the image into a plurality of blocks, a label matrix with a label according to the feature amount is generated, and this is used as the overall feature amount. A search method is also known (Patent Document 2).
画像全体ではなく、画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法も提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を検出する(非特許文献1)。そして、当該特徴点とその周辺の画像情報とに基づいて、当該特徴点に対応する特徴量(局所特徴量)を計算する(非特許文献2)。画像の検索は、局所特徴量同士のマッチングによって行なう。 There has also been proposed a method for searching for a similar image using not a whole image but a local feature amount (local feature amount) of the image. In this method, first, a characteristic point (local feature point) is detected from an image (Non-Patent Document 1). And based on the said feature point and the image information of its periphery, the feature-value (local feature-value) corresponding to the said feature point is calculated (nonpatent literature 2). Image retrieval is performed by matching local feature quantities.
局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、検索を可能にする技術が提案されている(非特許文献3)。 In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thus, a technique has been proposed that enables a search even when an image is rotated or enlarged or reduced (Non-Patent Document 3).
局所特徴量を用いて画像の検索や画像の認識を行なう場合、局所特徴量をデータベース(DB)に格納しておく必要がある。局所特徴量の数は膨大な量であり、データ容量の削減が重要な問題となる。 When searching for an image or recognizing an image using local feature values, the local feature values must be stored in a database (DB). The number of local feature amounts is enormous, and reducing the data capacity is an important issue.
ここで、検出した局所特徴点の中には、画像を少し回転させたり、拡大又は縮小させたりしただけで消えてしまうような再現性の低い不安定な局所特徴点もある。このような不安定な局所特徴点(以下、ノイズ特徴点と呼ぶ)は、画像の検索時等(その他、例えば、位置合わせ時)に利用することができない。 Here, among the detected local feature points, there are also unstable local feature points with low reproducibility that disappear when the image is slightly rotated, enlarged or reduced. Such unstable local feature points (hereinafter referred to as noise feature points) cannot be used when searching for an image (otherwise, for example, when positioning).
また、ノイズ特徴点は、局所特徴点又は局所特徴量間の誤対応を発生させる原因にもなり、画像の検索時には、検索精度の低下を引き起こしてしまう。また更に、このようなノイズ特徴点は、データベースの容量を浪費する大きな原因の1つである。 In addition, the noise feature point also causes an erroneous correspondence between local feature points or local feature amounts, and causes a reduction in search accuracy when searching for an image. Still further, such noise feature points are one of the major causes of wasting database capacity.
ここで、上述した非特許文献3においては、局所特徴点の検出に用いる関数値の出力に閾値を設け、当該閾値以下となる局所特徴点を廃棄し、局所特徴点の取捨選択を行なう技術についても言及されている。しかし、このような構成だけでは、ノイズ特徴点を十分に除去することはできない。 Here, in Non-Patent Document 3 described above, a technique is provided in which a threshold is provided for the output of a function value used for detection of local feature points, and local feature points that are equal to or lower than the threshold are discarded, and local feature points are selected. Has also been mentioned. However, noise feature points cannot be sufficiently removed with such a configuration alone.
この問題を解決するため、特許文献3においては、画像認識に適した局所特徴点及び局所特徴量を選択する技術について言及されている。具体的には、まず、学習用モデル画像から得た局所特徴点(及び局所特徴量)と、学習用モデル画像に含まれるモデル物体を含む学習用入力画像から得た局所特徴点(及び局所特徴量)とを比較する。比較の結果、対になった回数が多い局所特徴点(及び局所特徴量)のみを認識処理に用いる局所特徴点(及び局所特徴量)としてモデル辞書に登録する。これにより、局所特徴点の取捨選択を行なっている。 In order to solve this problem, Patent Document 3 mentions a technique for selecting local feature points and local feature quantities suitable for image recognition. Specifically, first, local feature points (and local feature amounts) obtained from the learning model image and local feature points (and local features) obtained from the learning input image including the model object included in the learning model image. The amount). As a result of comparison, only local feature points (and local feature amounts) that are frequently paired are registered in the model dictionary as local feature points (and local feature amounts) that are used for recognition processing. Thus, selection of local feature points is performed.
しかし、特許文献3に開示された技術では、認識対象毎に学習用モデル画像と複数の学習用入力画像とを準備する必要がある。そのため、例えば、数万個の画像等を格納するデータベースから画像を検索するシステムへの適用を考えた場合、作業量の観点から見て現実的ではない。 However, in the technique disclosed in Patent Document 3, it is necessary to prepare a learning model image and a plurality of learning input images for each recognition target. Therefore, for example, when considering application to a system that retrieves images from a database that stores tens of thousands of images, it is not realistic from the viewpoint of the amount of work.
また、ノイズ特徴点を除去するための他の技術として、画像の幾何学的な変動に基づく局所特徴量の変動を検定する技術が提案されている(特許文献4)。この方法では、再現性のある特徴点について局所特徴量を検定し、当該検定に合格した特徴点のみを採用するこ。 In addition, as another technique for removing noise feature points, a technique for examining a variation of a local feature amount based on a geometric variation of an image has been proposed (Patent Document 4). In this method, local feature values are tested for reproducible feature points, and only feature points that pass the test are adopted.
しかし、この方式により検定に合格した局所特徴点(局所特徴量)は、低域成分から検出された局所特徴点(局所特徴量)に偏る傾向がある。そのため、検定に合格した局所特徴点を用いて検索を行なった場合、検索漏れが生じる可能性がある。 However, local feature points (local feature amounts) that have passed the test by this method tend to be biased toward local feature points (local feature amounts) detected from low-frequency components. Therefore, when a search is performed using local feature points that have passed the test, there is a possibility that a search omission may occur.
本発明は、上記課題に鑑みてなされたものであり、従来よりも、不要な局所特徴量を的確に取り除けるようにした技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that can remove unnecessary local features more accurately than in the past.
上記課題を解決するため、本発明の一態様による画像処理装置は、画像から複数の局所特徴点を検出する検出手段と、前記画像の複数の領域において前記局所特徴点の密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する選択手段と、前記選択された各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段とを具備する。 In order to solve the above problem, an image processing apparatus according to an aspect of the present invention includes a detection unit that detects a plurality of local feature points from an image, calculates a density of the local feature points in a plurality of regions of the image, and Selection means for selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from a plurality of local feature points, and local feature amount calculation for calculating a local feature amount corresponding to each selected local feature point Means.
本発明によれば、本構成を有さない場合よりも、不要な局所特徴量を的確に取り除ける。これにより、例えば、データベースに不要な画像特徴(局所特徴量)が登録されずに済むため、データベースの容量の削減を図れるとともに、また、当該データベースからの画像特徴の検索時には、その検索精度を向上させられる。 According to the present invention, unnecessary local feature amounts can be accurately removed as compared with the case without this configuration. As a result, for example, unnecessary image features (local feature quantities) need not be registered in the database, so the capacity of the database can be reduced, and the search accuracy is improved when searching for image features from the database. Be made.
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
なお、以下に示す実施形態においては、局所的な特徴量の算出に際しては、局所特徴点を検出し、当該局所特徴点周辺の画素値から局所特徴量を算出する場合について説明する。ここで、以下に示す実施形態においては、局所特徴点の検出には、例えば、非特許文献1に記載された技術を用いる場合について説明する。但し、ノイズの影響を受けにくい方法であれば良く、必ずしも、非特許文献1に記載された技術を用いる必要はない。 In the following embodiment, a description will be given of a case where a local feature point is detected and a local feature amount is calculated from pixel values around the local feature point when calculating a local feature amount. Here, in the embodiment shown below, the case where the technique described in the nonpatent literature 1 is used for the detection of a local feature point is demonstrated, for example. However, any method that is not easily affected by noise may be used, and the technique described in Non-Patent Document 1 is not necessarily used.
また、以下に示す実施形態においては、局所特徴量として非特許文献2に記載された技術を用いる場合について説明する。この場合にも、ノイズの影響を受けにくい局所特徴量であれば良く、必ずしも、非特許文献2に記載された技術を用いる必要はない。 In the embodiment described below, a case where the technique described in Non-Patent Document 2 is used as the local feature amount will be described. In this case as well, the local feature amount that is hardly affected by noise may be used, and the technique described in Non-Patent Document 2 is not necessarily used.
(実施形態1)
図1は、本発明の一実施の形態に係わる検索システムの構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of the configuration of a search system according to an embodiment of the present invention.
検索システムは、画像登録装置10と、画像検索装置40と、画像特徴データベース30とを具備して構成される。画像登録装置10及び画像検索装置40は、画像特徴データベース30と接続されている。なお、画像登録装置10と、画像検索装置40との間は、接続されていても良いし、そうでなくても良い。
The search system includes an
画像特徴データベース30は、画像特徴を格納するデータベースである。画像登録装置10により入力画像(登録画像)31から検出された画像特徴(画像の局所特徴量の集合と付随情報(例えば、登録画像や局所特徴点))が登録される。
The
画像登録装置10は、画像特徴データベース30への登録対象となる画像(登録画像)に基づいて当該画像における各局所領域についての画像特徴を求め、その結果を画像特徴データベース30に登録する。
The
画像検索装置40は、画像特徴データベース30からの検索対象となる画像(クエリ画像)に基づいて当該画像における各局所領域についての画像特徴を求め、当該求めた画像特徴に基づいて画像特徴データベース30から画像検索を行なう。
The
なお、画像登録装置10及び画像検索装置40には、コンピュータが内蔵されている。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、ボタンやディスプレイ又はタッチパネル等の入出力手段、ネットワークカード等の通信手段等も具備されていても良い。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。例えば、画像登録装置10及び画像検索装置40各々において実現される機能的な構成は、CPUがROM等に格納されたプログラムを読み出し実行することで実現される。
The
ここで、画像登録装置10は、画像入力部11と、局所特徴点検出部12と、特徴点取捨選択部13と、局所特徴量算出部14と、特徴量登録部15とを具備して構成される。
Here, the
画像入力部11は、装置(画像登録装置10)内に登録画像を入力する。 The image input unit 11 inputs a registered image in the apparatus (image registration apparatus 10).
局所特徴点検出部12は、画像入力部11により入力された画像から局所的な特徴点(局所特徴点)を検出する。特徴点は、局所特徴量(局所的な特徴量)の算出位置を示す。なお、特徴点の検出方法の詳細については後述する。簡単に説明すると、局所特徴点検出部12は、登録画像31から輝度成分画像を生成し、当該画像を段階的に縮小するとともに、各縮小画像に対してぼかし処理を施す。そして、当該生成したぼかし画像から特徴点を検出する。
The local feature
特徴点取捨選択部13は、局所特徴点検出部12により検出された複数の特徴点のうち、有用性の高い特徴点を選択し、それを出力する役割を果たす。特徴点取捨選択部13は、ノイズ特徴点判定部21と、ブロック分割部22と、空間密度算出部23と、局所特徴点選択部24とを具備して構成される。
The feature
ノイズ特徴点判定部21は、局所特徴点検出部12により検出された複数の特徴点の中から所定の条件を満たない局所特徴点をノイズ特徴点として判定する。これにより、ノイズ特徴点が取り除かれる。なお、ノイズ特徴点とは、画像の検索時等に利用することができない特徴点であり、例えば、画像を少し回転させたり、拡大又は縮小させたり等しただけで消えてしまうような再現性の低い不安定な局所特徴点を指す。なお、このノイズ特徴点の判定方法については後述する。
The noise feature
ブロック分割部22は、局所特徴点検出部12により生成されたぼかし画像の領域全体を所定サイズのブロックに分割する。
The
空間密度算出部23は、ブロック分割部22により分割されたブロック毎に局所特徴点の密度を算出する。すなわち、各ブロック内に属する局所特徴点の密度を算出する。局所特徴点選択部24は、空間密度算出部23により算出された各ブロックの密度と、所定の閾値とを比較し、当該閾値を越える密度のブロックを選択ブロックとして選択する。これにより、当該選択ブロック内に属する局所特徴点を取捨選択処理後の局所特徴点として選択する。この局所特徴点の選択結果は、局所特徴量算出部14に出力される。
The spatial
局所特徴量算出部14は、局所特徴点選択部24からの出力結果に基づいて各局所特徴点に対応した局所特徴量を算出する。より具体的には、選択ブロックに属する局所特徴点と、画像上(登録画像31)で当該局所特徴点から所定範囲にある画像情報とに基づいて、各局所特徴点に対応した局所特徴量を算出する。
The local feature
特徴量登録部15は、局所特徴量算出部14により算出された局所特徴量を画像特徴として、登録画像31と対応付けて画像特徴データベース30に登録する。
The feature
次に、画像検索装置40における構成の一例について説明する。画像検索装置40は、画像入力部41と、局所特徴点検出部42と、特徴点取捨選択部43と、局所特徴量算出部44と、特徴比較部45とを具備して構成される。画像検索装置40における符号41〜44の構成は、上述した画像登録装置10における符号11〜符号14と同様の構成を果たすため、ここではその説明については省略する。
Next, an example of the configuration of the
ここで、特徴比較部45は、局所特徴量算出部44により算出された局所特徴量を画像特徴として、画像特徴データベース30に格納された各登録画像の局所特徴量と比較を行なう。比較の結果、クエリ画像32に最も類似している画像を検索結果33として出力する。
Here, the
以上が、本実施形態に係わる検索システムを構成する装置の構成についての説明である。なお、これら各装置(画像登録装置10、画像検索装置40)に設けられる機能的な構成は、必ずしも図示した通りに実現される必要はなく、システム内におけるいずれかの装置にその全部若しくは一部が実現されていれば良い。例えば、画像登録装置10と画像検索装置40とが一つの装置として実現されても良い。
The above is the description of the configuration of the devices that configure the search system according to the present embodiment. Note that the functional configuration provided in each of these devices (the
次に、図2を用いて、画像登録装置10における各構成の動作について説明する。ここでは、登録画像31に基づいて画像特徴を画像特徴データベース30に登録する際の処理の流れの一例について説明する。S110の処理を除いては、画像検索装置40における処理も同様の流れで行なわれるため、画像検索装置40についての説明は省略する。なお、画像検索装置40の場合は、S110の処理において、S109で算出された局所特徴量を用いた検索を行なう。
Next, the operation of each component in the
この処理が開始すると、画像登録装置10は、まず、画像入力部11において、登録対象となる画像(登録画像)31を装置内に入力する(S101)。そして、局所特徴点検出部12において、S102〜S104の処理を実施し、当該登録画像31から局所特徴点を検出する。
When this process is started, the
具体的には、局所特徴点検出部12は、まず、登録画像31から輝度成分を検出して輝度成分画像を生成する(S102)。次に、局所特徴点検出部12は、当該生成した輝度成分画像から解像度が段階的に異なるスケールスペース画像を生成する。このとき、輝度成分画像を段階的に縮小するとともに、各縮小画像に対してぼかし処理を施す。これにより、複数のぼかし画像が生成される(S103)。なお、ぼかし処理は、画像とぼかしフィルタとのコンボリューション処理で実現される。本実施形態では、ぼかしフィルタとしてガウスフィルタを採用し、パラメータをσ=1.5として、3σの範囲のフィルタを生成する。
Specifically, the local feature
その後、局所特徴点検出部12は、各ぼかし画像から特徴点(局所特徴点)を検出する(S104)。なお、特徴点の検出には、例えば、Harris作用素を用いれば良い(非特許文献1参照)。
Thereafter, the local feature
局所特徴点が得られると、画像登録装置10は、特徴点取捨選択部13において、S105〜S108の処理を実施し、特徴点の取捨選択を行なう。ここで、図3を参照しながらこの特徴点取捨選択部13における特徴点の取捨選択処理について説明する。
When the local feature points are obtained, the
図3に示す画像61は、局所特徴点検出部12により生成されたぼかし画像であり、画像62は、局所特徴点検出部12により検出された局所特徴点が設定されたぼかし画像である。この場合、ぼかし画像62には、ノイズ特徴点(図中丸印)と、ノイズ特徴点でない局所特徴点(図中罰印)との両方が示されている。
An
ここで、特徴点の取捨選択処理が開始すると、特徴点取捨選択部13は、まず、ノイズ特徴点判定部21において、局所特徴点検出部12により検出された複数の局所特徴点のうち、ノイズ特徴点となる局所特徴点を判定する(S105)。この判定に際して、ノイズ特徴点判定部21は、まず、ぼかし画像61からエッジ画像を生成し、当該エッジ画像の画素値の絶対値が所定の閾値以下(エッジ用閾値以下)のエッジを消去する。そして、残ったエッジを太線化してエッジマスクを生成する。これは、残ったエッジの近傍(所定範囲内)から検出された局所特徴点のみを選択するためである。最後に、エッジマスクの領域外にある局所特徴点をノイズ特徴点としてラベル付けするとともに、エッジマスク内の局所特徴点をノイズでない特徴点としてラベル付けする。これにより、ノイズ特徴点を判定でき、図3の画像63に示すように、ノイズ特徴点を取り除いた画像が得られる。
Here, when the feature point sorting process starts, the feature
次に、特徴点取捨選択部13は、ブロック分割部22において、ぼかし画像63の領域全体を所定サイズ(例えば、32画素×32画素)のブロックに分割する(S106)。本実施形態においては、ぼかし画像63の中心を基準にして、当該基準位置から順に設定する場合について説明するが、これに限られず、例えば、ぼかし画像63の左上を基準にして、当該基準位置から順に設定するようにしても良い。
Next, the feature
ここで、例えば、ぼかし画像63のサイズが横×縦=320画素×240画素であり、ブロックサイズが32画素×32画素であると仮定する。この場合、横方向については10個のブロックを設定できる。縦方向については画像上部の8画素と画像下部の8画素を除いた224画素の範囲に7個のブロックを設定できる。これにより、ぼかし画像63に対して70個のブロックを設定したぼかし画像64が得られる。
Here, for example, it is assumed that the size of the
次に、特徴点取捨選択部13は、空間密度算出部23において、ブロック分割部22により分割されたブロック毎に局所特徴点の密度を算出する(S107)。空間密度の算出に際して、空間密度算出部23は、まず、S103の処理で得られた各縮小画像から検出された局所特徴点のうち、ノイズ特徴点のラベルが付けられていない局所特徴点の座標を登録画像31上の対応座標にマッピングする。次に、ブロック毎にブロック内部にマッピングされた局所特徴点の数をカウントし、各カウント数をブロック内の画素数で割算する。これにより、各ブロックの局所特徴点の密度を算出する。
Next, the feature point sorting and
ここで、特徴点取捨選択部13は、局所特徴点選択部24において、S107の処理で算出された密度と、所定の閾値とを比較し、当該閾値を越える密度のブロックを選択する(S108)。これにより、画像65が得られる。なお、選択したブロック内のノイズ局所特徴点については、ノイズ特徴点判定部21により付与されたノイズ特徴点ラベルを除去する。また、選択したブロック以外のブロックに属する全ての局所特徴点を取り除く。これにより、画像66が得られる。なお、図3に示す画像66においては、説明を分かり易くするため、ブロック内に1つでも局所特徴点が属するブロックをも選択しているが、必ずしもこのように構成する必要はない。例えば、所定の閾値を越える局所特徴点が属するブロックのみを選択するようにしても良い。
Here, the feature point sorting and
ここで、図3に示す画像67は、図3に示す画像66からブロックの描画を取り除いた画像である。ここで、残った局所特徴点が局所特徴量算出部14に向けて出力される。
Here, the
次に、局所特徴量算出部14は、局所特徴点選択部24から出力を受けた各局所特徴点に対応した局所特徴量を算出する(S109)。そして、画像登録装置10は、特徴量登録部15において、当該算出された局所特徴量を画像特徴として、登録画像31と対応付けて画像特徴データベース30に登録する(S110)。これにより、画像登録装置10における画像特徴の登録処理が終了する。
Next, the local feature
以上説明したように本実施形態によれば、複数の局所特徴点の中からノイズ特徴点を取り除いた後、当該画像を複数のブロックに分割する。そして、各ブロックにおける局所特徴点の密度を算出し、当該密度が所定の閾値を越えるブロックを選択する。最後に、当該選択されたブロック内に属する各局所特徴点に対応して局所特徴量を算出する。 As described above, according to this embodiment, after removing noise feature points from a plurality of local feature points, the image is divided into a plurality of blocks. Then, the density of local feature points in each block is calculated, and a block whose density exceeds a predetermined threshold is selected. Finally, a local feature amount is calculated corresponding to each local feature point belonging to the selected block.
これにより、本構成を有さない場合よりも、ノイズ特徴点が的確に除去されるため、データベース(画像特徴データベース30)に不要な画像特徴が登録されずに済む。そのため、データベースの容量を削減できるとともに、また、当該データベースからの画像特徴の検索時には、その検索精度を向上させられる。 As a result, noise feature points are more accurately removed than in the case without this configuration, and unnecessary image features need not be registered in the database (image feature database 30). Therefore, the capacity of the database can be reduced, and the search accuracy can be improved when searching for image features from the database.
(実施形態2)
次に、実施形態2について説明する。実施形態1においては、ノイズ特徴点の判定時に生成したエッジマスク領域の領域外にある局所特徴点をノイズ特徴点と判定する場合について説明した。これに対して、実施形態2においては、これ以外の手法でノイズ特徴点を判定する構成について説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the first embodiment, the case has been described in which local feature points outside the edge mask region generated when determining the noise feature points are determined as noise feature points. On the other hand, in the second embodiment, a configuration for determining a noise feature point by a method other than this will be described.
具体的には、まず、検索対象から除外する画像を用いた事前学習によりノイズとして作用する特徴量を決め、それをノイズ特徴量としてデータベースに登録しておく。画像の登録時(又は検索時等)等には、登録画像31に基づいて算出した局所特徴量を当該登録されたノイズ特徴量と照合することでノイズ特徴量を判定する。
Specifically, first, a feature amount that acts as noise is determined by prior learning using an image excluded from the search target, and is registered in the database as a noise feature amount. At the time of image registration (or at the time of search, etc.), the noise feature value is determined by comparing the local feature value calculated based on the registered
図4は、実施形態2に係わる検索システムの構成の一例を示す図である。 FIG. 4 is a diagram illustrating an example of a configuration of a search system according to the second embodiment.
検索システムは、実施形態1の構成に加えて、ノイズ特徴データベース34が設けられる。ノイズ特徴データベース34は、ノイズ特徴量を格納する。このデータベース34には、ノイズとして作用する特徴量(ノイズ特徴量)が予め登録されている。
The search system is provided with a
ここで、実施形態1に係わる画像登録装置10及び画像検索装置40との構成の相違点としては、局所特徴量算出部14及び44における処理の順序にある。すなわち、特徴点取捨選択部13及び43により特徴点の取捨選択処理を行なう前に、局所特徴量算出部14及び44により局所特徴量の算出を行なう。
Here, the difference between the configuration of the
次に、図5を用いて、実施形態2に係わる画像登録装置10における各構成の動作について説明する。ここでは、登録画像31に基づいて画像特徴を画像特徴データベース30に登録する際の処理の流れの一例について説明する。S210の処理を除いては、画像検索装置40における処理も同様の流れで行なわれるため、画像検索装置40についての説明は省略する。なお、画像検索装置40の場合は、S210の処理において、S209で算出された局所特徴量を用いた検索を行なう。
Next, the operation of each component in the
この処理が開始すると、画像登録装置10は、まず、実施形態1を説明したS101〜104と同様の処理を実施する。具体的には、まず、登録画像31を装置内に入力する。そして、当該登録画像31から輝度成分画像を生成し、当該画像を段階的に縮小するとともに、各縮小画像に対してぼかし処理を施す。最後に、当該生成したぼかし画像から特徴点を検出する(S201〜S204)。
When this processing starts, the
次に、画像登録装置10は、局所特徴量算出部14において、局所特徴点検出部12により検出された各局所特徴点に対応して局所特徴量を算出する(S205)。そして、ノイズ特徴点判定部21において、ノイズ特徴点の判定を行なう。具体的には、局所特徴量算出部14により算出された局所特徴量と、ノイズ特徴データベース34内のノイズ特徴量とを照合(比較)し、一致する局所特徴量に対応する局所特徴点をノイズ特徴点と判定する。ノイズ特徴点判定部21は、この判定結果に基づいて、ノイズ特徴点と判定された局所特徴点を取り除く(S206)。
Next, the
ここで、ノイズ特徴データベース34の作成方法及びノイズ特徴量(局所特徴量)の照合方法について簡単に説明する。まず、検索対象から除外すべき画像(例えば、背景画像等)を複数用いて、局所特徴点の検出と局所特徴量の算出とを実施する。次に、算出した局所特徴量をクラスタリングする。クラスタリングには、例えば、k−means法を用いれば良い。最後に、クラスタリング中心(複数)をノイズ特徴量としてノイズ特徴データベース34に登録する。照合時には、S203の処理で生成されたぼかし画像から算出された各局所特徴量とノイズ特徴データベース34に登録された各ノイズ特徴量とにおける局所特徴量間の距離を計算する。局所特徴量間の距離が、所定の閾値以下になれば、ノイズ特徴点判定部21は、そのときの局所特徴量が属する局所特徴点をノイズ特徴点である旨の判定を行なう。なお、ノイズ特徴データベース34の作成やノイズ特徴量(局所特徴量)の照合は、勿論、これ以外の方法を用いて行なっても良い。
Here, a method for creating the
次に、画像登録装置10は、ブロック分割部22において、実施形態1と同様にして、S203の処理で生成されたぼかし画像の領域全体を所定サイズ(例えば、32画素×32画素)のブロックに分割する(S207)。そして、空間密度算出部23において、ブロック分割部22により分割されたブロック毎に局所特徴点の密度を算出する(S208)。
Next, the
密度の算出後、画像登録装置10は、局所特徴点選択部24において、S208の処理で算出された密度と、所定の閾値とを比較し、当該閾値を越える密度のブロックを選択する(S208)。なお、選択したブロック内の局所特徴点については、ノイズ特徴点判定部21による判定によりノイズ特徴点と判定された局所特徴点と当該特徴点に属する局所特徴量とを復帰させる。また、選択したブロック以外のブロックに属する全ての局所特徴点と当該局所特徴点に属する局所特徴量は全て取り除く。
After calculating the density, the
最後に、画像登録装置10は、特徴量登録部15において、当該算出された局所特徴量を画像特徴として、登録画像31と対応付けて画像特徴データベース30に登録する(S210)。これにより、画像登録装置10における画像特徴の登録処理が終了する。
以上説明したように実施形態2によれば、ノイズとして作用する特徴量(ノイズ特徴量)をデータベース(ノイズ特徴データベース34)に予め登録しておき、その登録情報に基づいてノイズ特徴点を除去し、また、必要に応じて当該除去した特徴点を復帰させる。この場合にも、実施形態1と同様に、データベース(画像特徴データベース30)の容量を削減できるとともに、また、当該データベース30からの画像特徴の検索時には、その検索精度を向上させられる。
Finally, the
As described above, according to the second embodiment, a feature amount (noise feature amount) that acts as noise is registered in advance in a database (noise feature database 34), and noise feature points are removed based on the registered information. In addition, the removed feature points are restored as necessary. Also in this case, as in the first embodiment, the capacity of the database (image feature database 30) can be reduced, and the search accuracy can be improved when searching for image features from the
(実施形態3)
次に、実施形態3について説明する。実施形態2においては、登録画像31に基づいて算出した局所特徴量を、ノイズ特徴データベース34に登録されたノイズ特徴量と照合させることでノイズ特徴量を判定し、これにより、ノイズ特徴点を判定する場合について説明した。これに対して、実施形態3においては、ノイズ特徴点を判定するのではなく、予め定めた重要な局所特徴点を判定する場合について説明する。
(Embodiment 3)
Next, Embodiment 3 will be described. In the second embodiment, the noise feature amount is determined by collating the local feature amount calculated based on the registered
図6は、実施形態3に係わる検索システムの構成の一例を示す図である。 FIG. 6 is a diagram illustrating an example of a configuration of a search system according to the third embodiment.
検索システムは、実施形態1の構成に加えて、重要特徴データベース35が設けられる。重要特徴データベース35は、予め決められた重要な特徴(局所特徴量)を格納する。すなわち、重要特徴データベース35には、重要局所特徴点(以下、重要特徴点と呼ぶ)が登録される。なお、重要特徴点とは、検索対象等となるオブジェクトの特徴点(すなわち、背景画像等の特徴点でない)であり、検索時等に有用な局所特徴量を指す。
The search system is provided with an
ここで、実施形態2に係わる画像登録装置10及び画像検索装置40との構成の相違点としては、実施形態3においては、ノイズ特徴量ではなく、重要な特徴量を判定する点にある。すなわち、実施形態2におけるノイズ特徴点判定部21及び51の代わりに、重要特徴点判定部25及び55が設けられる。
Here, the difference between the configuration of the
この場合、局所特徴量算出部14及び44に各局所特徴点に対応した局所特徴量が算出されると、重要特徴点判定部25及び55において、重要特徴点の判定を行なう。具体的には、当該局所特徴量と重要特徴データベース35内の局所特徴量とを照合(比較)し、一致する局所特徴量に対応する局所特徴点を重要特徴点と判定する。その後、重要特徴点判定部25及び55は、重要特徴点と判定した局所特徴点以外の局所特徴点を取り除く。
In this case, when the local feature amount corresponding to each local feature point is calculated by the local feature
ここで、実施形態3に係わる画像登録装置10及び画像検索装置40における処理の流れは、実施形態2と同様となるため(図5参照)、ここでは相違点について簡単に説明する。
Here, since the processing flow in the
まず、重要特徴データベース35の作成方法及び重要特徴量(局所特徴量)の照合方法について簡単に説明する。重要特徴データベース35の作成に際しては、まず、検索対象オブジェクトのみを含む画像を複数用いて、局所特徴点の検出と局所特徴量の算出とを実施する。次に、算出した局所特徴量をクラスタリングする。クラスタリングには、例えば、k−means法を用いれば良い。最後に、クラスタリング中心(複数)を重要局所特徴量として重要特徴データベース35に登録する。照合時には、特徴点の検出時(S203の処理)に生成されたぼかし画像から算出された各局所特徴量と、重要特徴データベース35に登録された各重要局所特徴量とにおける局所特徴量間の距離を計算する。局所特徴量間の距離が、所定の閾値以下になれば、重要特徴点判定部25及び55は、そのときの局所特徴量が属する局所特徴点を重用特徴点である旨の判定を行なう。なお、重要特徴データベース35の作成や重要特徴量(局所特徴量)の照合は、勿論、これ以外の方法を用いて行なっても良い。
First, a method for creating the
また、局所特徴点選択部24及び54においては、空間密度算出部23及び53により算出された密度が、所定の閾値を越えるブロックを選択ブロックとして選択する。選択ブロック内の局所特徴点については、重要特徴点判定部25及び55により重要特徴点と判定されなかった局所特徴点と当該局所特徴点に属する局所特徴量とを復帰させる。また、選択ブロック以外のブロックに属する全ての局所特徴点と当該局所特徴点に属する局所特徴量とを全て取り除くことになる。
Further, the local feature
以上説明したように実施形態3によれば、重要特徴量をデータベース(重要特徴データベース35)に予め登録しておき、その登録情報に基づいて重要でない特徴量(すなわち、ノイズ特徴点)を除去し、また、必要に応じて当該除去した特徴点を復帰させる。この場合にも、実施形態1と同様に、データベース(画像特徴データベース30)の容量を削減できるとともに、また、当該データベース30からの画像特徴の検索時には、その検索精度を向上させられる。
As described above, according to the third embodiment, important feature amounts are registered in the database (important feature database 35) in advance, and unimportant feature amounts (that is, noise feature points) are removed based on the registered information. In addition, the removed feature points are restored as necessary. Also in this case, as in the first embodiment, the capacity of the database (image feature database 30) can be reduced, and the search accuracy can be improved when searching for image features from the
(実施形態4)
次に、実施形態4について説明する。実施形態1においては、登録画像31に基づいて算出した局所特徴点の空間的な密度を求め、密度の高い部分領域に属する局所特徴点と局所特徴量とを画像特徴データベース30に登録する場合について説明した。これに対して、実施形態4においては、登録画像31からエッジを検出し、当該検出したエッジの空間的な密度を求め、エッジ密度が高い部分領域に属する局所特徴点と局所特徴量とを画像特徴データベース30に登録する場合について説明する。
(Embodiment 4)
Next, Embodiment 4 will be described. In the first embodiment, the spatial density of local feature points calculated based on the registered
図7は、実施形態4に係わる検索システムの構成の一例を示す図である。 FIG. 7 is a diagram illustrating an example of a configuration of a search system according to the fourth embodiment.
ここで、実施形態1に係わる画像登録装置10及び画像検索装置40との構成の相違点としては、登録画像31(又はクエリ画像32)からエッジの検出を行なうエッジ検出部26及び56が設けられている。
Here, as a difference in configuration between the
次に、図8を用いて、実施形態4に係わる画像登録装置10における各構成の動作について説明する。ここでは、登録画像31に基づいて画像特徴を画像特徴データベース30に登録する際の処理の流れの一例について説明する。S310の処理を除いては、画像検索装置40における処理も同様の流れで行なわれるため、画像検索装置40についての説明は省略する。なお、画像検索装置40の場合は、S310の処理において、S309で算出された局所特徴量を用いた検索を行なう。
Next, the operation of each component in the
この処理が開始すると、画像登録装置10は、まず、実施形態1を説明したS101〜104と同様の処理を実施する。具体的には、まず、登録画像31を装置内に入力する。そして、当該登録画像31から輝度成分画像を生成し、当該画像を段階的に縮小するとともに、各縮小画像に対してぼかし処理を施す。最後に、当該生成したぼかし画像から特徴点を検出する(S301〜S304)。
When this processing starts, the
次に、画像登録装置10は、特徴点取捨選択部13において、S305〜S308の処理を実施し、特徴点の取捨選択を行なう。具体的には、まず、エッジ検出部26において、S303の処理で得られたぼかし画像からエッジを検出し、エッジ画像を生成する。そして、当該エッジ画像の画素値の絶対値が、所定の閾値(エッジ用閾値)を越える画素に対してエッジラベルを付与する(S305)。
Next, the
次に、画像登録装置10は、ブロック分割部22において、実施形態1同様にして、S303の処理で得られたぼかし画像の領域全体を所定サイズ(例えば、32画素×32画素)のブロックに分割する(S306)。
Next, the
ブロック分割が済むと、画像登録装置10は、空間密度算出部23において、ブロック分割部22により分割されたブロック毎にエッジの密度を算出する(S307)。エッジ密度の算出では、まず、エッジラベルを付与された画素(エッジ画素)の座標を登録画像31上の対応座標にマッピングする。そして、ブロック毎にブロック内部にマッピングされたエッジ画素の数をカウントする。最後に、各カウント数をブロック内の画素数で割算する。これにより、各ブロックのエッジ画素の密度を算出する。
After the block division, the
エッジ密度の算出が済むと、画像登録装置10は、局所特徴点選択部24において、S307の処理で算出された密度と、所定の閾値とを比較し、当該閾値を越える密度のブロックを選択する(S308)。そして、S304の処理で検出された局所特徴点のうち、選択ブロック以外のブロックに属する全ての局所特徴点を取り除く。残った局所特徴点は、局所特徴量算出部14に向けて出力される。
When the edge density is calculated, the
次に、画像登録装置10は、局所特徴量算出部14において、局所特徴点選択部24から出力を受けた各局所特徴点に対応した局所特徴量を算出する(S309)。そして、画像登録装置10は、特徴量登録部15において、当該算出された局所特徴量を画像特徴として、登録画像31と対応付けて画像特徴データベース30に登録する(S310)。これにより、画像登録装置10における画像特徴の登録処理が終了する。
Next, in the
以上説明したように実施形態4によれば、画像から検出したエッジに基づいて局所特徴点を取捨選択することによりノイズ特徴点を除去する。この場合にも、実施形態1と同様に、データベース(画像特徴データベース30)の容量を削減できるとともに、また、当該データベース30からの画像特徴の検索時には、その検索精度を向上させられる。
As described above, according to the fourth embodiment, noise feature points are removed by selecting local feature points based on edges detected from an image. Also in this case, as in the first embodiment, the capacity of the database (image feature database 30) can be reduced, and the search accuracy can be improved when searching for image features from the
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。ここでいくつか変形例について列挙する。 The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. . Here, some modifications are listed.
(変形実施形態1)
例えば、上述した説明では、ブロック分割部22及び42によるブロック分割時に画像を固定サイズのブロックに分割する場合を例に挙げて説明したが、これに限られない。例えば、分割後のブロック数(所定数のブロック)を固定し、それに応じてブロックサイズを変動させるように構成しても良い。また、ブロック同士の重なりを許容するように構成しても良い。
(Modified Embodiment 1)
For example, in the above description, the case where an image is divided into fixed-size blocks at the time of block division by the
(変形実施形態2)
また、上述した説明では、局所特徴点選択部24及び54において、空間密度算出部23及び53により算出された密度(局所特徴点、又はエッジ)が所定の閾値を越えるブロックを選択ブロックとして選択する場合を例に挙げて説明したが、これに限られない。例えば、選択ブロック内の局所特徴点(又はエッジ画素)を利用して選択ブロックを再配置し、当該再配置後に、再度、ブロックを選択するようにしても良い。このとき、再配置するブロックについては、再配置前の選択ブロックに対して、位置、サイズ、形状、個数の少なくともいずれかを変更しても良い。この手法について簡単に説明すると、まず、再配置前の選択ブロックにおいて互いに隣接しているブロックを隣接ブロックとして統合する。隣接の定義は、4近傍隣接としても良いし、8近傍隣接としても良い。次に、当該隣接ブロック内の局所特徴点(又はエッジ画素)について空間的な重心を求める。そして、当該重心を中心とし、また、半径の長さを当該重心から最も遠い隣接ブロック内の局所特徴点(又はエッジ画素)までの距離とした円形領域を定める。これにより、当該円形領域を再配置後の選択ブロックとする。
(Modified Embodiment 2)
In the above description, the local feature
ここで、再配置後の選択ブロック内の局所特徴点については、ノイズ特徴点(重要特徴点以外の局所特徴点)を復帰させる。また、再配置後の選択ブロック以外のブロックに属する全ての局所特徴点を取り除く。 Here, with respect to local feature points in the selected block after rearrangement, noise feature points (local feature points other than important feature points) are restored. Also, all local feature points belonging to blocks other than the selected block after rearrangement are removed.
(変形実施形態3)
また、上述した説明では、空間密度算出部23及び53による局所特徴点(又はエッジ画素)の空間的密度の算出に際してブロック分割する場合を例に挙げて説明したが、これに限られない。すなわち、局所特徴点(又はエッジ画素)の画像上の空間的な密度を算出できれば良く、必ずしも、このようなブロック分割を行なう必要はない。例えば、局所特徴点(又はエッジ画素)を画像上で空間的にクラスタリングし、クラスタを生成する。そして、クラスタに属する局所特徴点により形成される各領域において局所特徴点(又はエッジ画素)の密度を求めるように構成しても良い。クラスタ毎に密度を算出する方法としては、例えば、「着目クラスタに属する局所特徴点(又はエッジ画素)の数」/「クラスタ中心と各局所特徴点(又はエッジ画素)との座標間距離の合計」などとして算出すれば良い。この場合、局所特徴点選択部24及び54においては、局所特徴点(又はエッジ画素)の空間的な密度が、所定の閾値(クラスタ統合用閾値)を越えるクラスタを選択する。局所特徴量算出部14及び44では、当該選択されたクラスタ内の各局所特徴点に対応して局所特徴量を算出する。
(Modified Embodiment 3)
In the above description, the case where block division is performed when calculating the spatial density of local feature points (or edge pixels) by the spatial
なお、局所特徴点(又はエッジ画素)を空間的にクラスタリングする場合、クラスタに属する局所特徴点により形成される領域の中心座標の座標間距離が、所定の閾値以下(クラスタ用閾値以下)の距離となるクラスタが存在する場合がある。このような場合には、当該クラスタ同士を統合するように構成しても良い。これにより、単一クラスタで画像内オブジェクトを包含できるようになる可能性が向上する。また、局所特徴点(又はエッジ画素)を空間的にクラスタリングする場合、あるクラスタに属する局所特徴点(又はエッジ画素)の数が、所定数以下のクラスタのみに対して密度計算等(それ以降に続く処理)を実施するように構成しても良い。これにより、ノイズ特徴点等を多く含むクラスタを取り除くことができる。 When spatially clustering local feature points (or edge pixels), the distance between the coordinates of the center coordinates of the area formed by the local feature points belonging to the cluster is equal to or less than a predetermined threshold (less than the cluster threshold). There may be a cluster. In such a case, the clusters may be integrated. This improves the possibility that an object in the image can be included in a single cluster. In addition, when spatially clustering local feature points (or edge pixels), density calculation or the like is performed only for clusters in which the number of local feature points (or edge pixels) belonging to a certain cluster is a predetermined number or less (after that) The following process may be performed. As a result, clusters including many noise feature points and the like can be removed.
(変形実施形態4)
また、上述した説明では、空間密度算出部23及び53においてブロック毎に局所特徴点(又はエッジ画素)の密度を算出し、当該密度に対する閾値に基づいて選択ブロックを決めていたが、これに限られない。例えば、密度ではなく、ブロック内の局所特徴点(又はエッジ画素)の数をカウントし、局所特徴点(又はエッジ画素)の数に対する閾値に基づいて選択ブロックを決定するように構成しても良い。これにより、計算を簡略化できる。
(Modified Embodiment 4)
In the above description, the density of local feature points (or edge pixels) is calculated for each block in the
(変形実施形態5)
また、上述した説明では、局所特徴点検出部12及び42において、輝度成分画像を生成し、それを段階的に縮小するとともに、各縮小画像に対してぼかし処理を施すことでスケールスペース画像を生成する場合を例に挙げて説明したが、これに限られない。すなわち、スケールスペース画像として解像度が段階的に異なる画像を生成できれば良い。例えば、輝度成分画像から段階的にぼかし度を大きくして生成したぼかし画像を生成し、当該ぼかし画像の集合をスケールスペース画像としても良い。これにより、拡大及び縮小処理が施された画像の検索にも対応できる。
(Modified Embodiment 5)
In the above description, the local feature
(変形実施形態6)
また、上述した実施形態4の説明では、エッジ検出部26及び56において、エッジ画素の画素値の絶対値が、所定の閾値を越える画素に同一のエッジラベルを付与する場合について説明したが、これに限られない。例えば、エッジ画素の画素値の絶対値が、所定の閾値を越える画素の連結関係を調べ、連結しているエッジ画素の集合をエッジセグメントとし、エッジセグメント毎に異なるラベルを付与するように構成しても良い。この場合、空間密度算出部23及び53においては、各ブロックにおいて、同一のエッジラベルを持つエッジ毎に密度を算出する。これにより、ノイズエッジの影響を抑えることができる。
(Modified Embodiment 6)
In the description of the fourth embodiment described above, the
(変形実施形態7)
また、上述した説明では、局所特徴点検出部12及び42により生成された全てのぼかし画像に対して特徴点の取捨選択処理を実施する場合を例に挙げて説明したが、これに限られない。例えば、ぼかし画像(スケールスペース画像)の解像度が所定の解像度を越えるぼかし画像から検出された局所特徴量と、所定の解像度以下となるぼかし画像から検出された局所特徴量とに対して異なる処理を実施しても良い。具体的には、解像度を画像サイズで定義し、ぼかし画像のサイズが所定サイズ(横×縦=320画素×240画素)を越える場合、上記実施形態で説明した処理(ブロック分割〜密度の算出結果に基づいて選択された局所特徴点に対応した特徴量の算出)を実施する。ぼかし画像のサイズが所定サイズ以下となる場合には、残った局所特徴点全てに対して局所特徴量を算出するか、又はノイズ特徴点を取り除いた後、残った局所特徴点全てに対して局所特徴量を算出する。この方法は、特に、エッジマスクを使ったノイズ特徴点除去との組み合わせにおいて有用である。すなわち、ぼかし画像の解像度が高くなるにつれ、オブジェクトの細かいエッジが残ってしまうため、エッジマスク適用後でも検索に寄与しない局所特徴点(ノイズ特徴点)が多数残る可能性が高くなる。
(Modified Embodiment 7)
In the above description, the case where the feature point selection process is performed on all the blurred images generated by the local feature
そのため、解像度が高いぼかし画像において本手法を適用することにより、検索に寄与しない局所特徴点を取り除くことができる。これにより、登録データ量を抑えることができる。また、検索時には、局所特徴量における比較時の誤対応を抑えることができるため、検索精度を向上させることができる。 Therefore, by applying this method to a blurred image with high resolution, it is possible to remove local feature points that do not contribute to the search. Thereby, the amount of registered data can be suppressed. In addition, at the time of search, it is possible to suppress erroneous correspondence at the time of comparison in local feature amounts, so that the search accuracy can be improved.
一方、ぼかし画像の解像度が低くなるにつれ、オブジェクトの細かいエッジは残り難くなり、エッジマスクで抽出されるエッジは、オブジェクトを構成する重要なエッジである可能性が高くなる。そのため、解像度が低いぼかし画像に対して本手法を適用した場合、検索に必要な特徴点まで取り除かれてしまう可能性がある。 On the other hand, as the resolution of the blurred image is lowered, the fine edges of the object are less likely to remain, and the edges extracted by the edge mask are more likely to be important edges that constitute the object. Therefore, when this method is applied to a blurred image with a low resolution, there is a possibility that feature points necessary for the search are removed.
(変形実施形態8)
また、上述した説明では、画像登録装置10及び画像検索装置40において、局所特徴点の算出や局所特徴量の取捨選択処理を実施する場合を例に挙げて説明したが、これに限られない。例えば、単なる画像処理装置において、このような処理を実施するように構成しても良い。
(Modified Embodiment 8)
In the above description, the case where the
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (18)
前記画像の複数の領域において前記局所特徴点の密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する選択手段と、
前記選択された各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段と
を具備することを特徴とする画像処理装置。 Detecting means for detecting a plurality of local feature points from the image;
Selection means for calculating a density of the local feature points in a plurality of regions of the image, and selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from the plurality of local feature points;
An image processing apparatus comprising: a local feature amount calculating unit that calculates a local feature amount corresponding to each selected local feature point.
前記画像における各画素の画素値に基づいてノイズ特徴点となる局所特徴点を判定するノイズ特徴点判定手段
を具備し、
前記検出手段により検出された複数の局所特徴点の中から前記ノイズ特徴点であると判定された局所特徴点を除いた後、残った局所特徴点を用いて前記密度の算出を行なうとともに前記局所特徴点の選択を行なう
ことを特徴とする請求項1記載の画像処理装置。 The selection means includes
Noise feature point determination means for determining a local feature point to be a noise feature point based on a pixel value of each pixel in the image,
After removing the local feature point determined to be the noise feature point from the plurality of local feature points detected by the detection means, the density is calculated using the remaining local feature points and the local feature points The image processing apparatus according to claim 1, wherein a feature point is selected.
前記画像からエッジを検出し、該検出されたエッジの画素値がエッジ用閾値を越えるエッジから所定範囲内にない局所特徴点をノイズ特徴点と判定する
ことを特徴とする請求項2記載の画像処理装置。 The noise feature point determination means includes:
The image according to claim 2, wherein an edge is detected from the image, and a local feature point that is not within a predetermined range from an edge whose pixel value of the detected edge exceeds an edge threshold value is determined as a noise feature point. Processing equipment.
ブロックを用いて前記画像を前記複数の領域に分割するブロック分割手段と、
前記ブロック毎に局所特徴点の密度を算出する空間密度算出手段と、
前記局所特徴点の密度が前記所定の閾値を越えるブロックを選択し、当該選択したブロックに属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする請求項1記載の画像処理装置。 The selection means includes
Block dividing means for dividing the image into the plurality of regions using blocks;
Spatial density calculating means for calculating the density of local feature points for each block;
2. The image according to claim 1, further comprising: a local feature point selecting unit that selects a block having a density of the local feature points exceeding the predetermined threshold and selects a local feature point belonging to the selected block. Processing equipment.
前記ブロックの重なりを許容して前記分割を行なう
ことを特徴とする請求項4記載の画像処理装置。 The block dividing means includes
The image processing apparatus according to claim 4, wherein the division is performed while allowing the blocks to overlap.
前記局所特徴点選択手段によりブロックが選択された後、再度、当該選択されたブロックに対して位置、サイズ、形状、個数の少なくともいずれかを変更してブロックを再配置し、
前記局所特徴点選択手段は、
前記空間密度算出手段により前記再配置されたブロック毎に算出された密度が前記所定の閾値を越えるブロックを選択し、当該選択したブロックに属する局所特徴点を選択する
ことを特徴とする請求項4記載の画像処理装置。 The block dividing means includes
After the block is selected by the local feature point selection unit, again, the block is rearranged by changing at least one of the position, size, shape, and number of the selected block,
The local feature point selection means includes:
5. The block of which density calculated for each of the rearranged blocks by the spatial density calculating unit exceeds the predetermined threshold is selected, and local feature points belonging to the selected block are selected. The image processing apparatus described.
前記画像から解像度が段階的に異なるスケールスペース画像を生成するとともに、該スケールスペース画像の各解像度の画像から局所特徴点を検出し、
前記選択手段は、
前記解像度が所定の解像度以下となる前記スケールスペース画像から検出された局所特徴点に対しては前記密度の算出を行なわずに、前記画像の画素値に基づいてノイズ特徴点となる局所特徴点を除いた後、前記局所特徴点の選択を行なう
ことを特徴とする請求項1記載の画像処理装置。 The detection means includes
Generating scale space images with different resolutions from the image in stages, and detecting local feature points from images of each resolution of the scale space image;
The selection means includes
The local feature points that are noise feature points based on the pixel values of the image are calculated without calculating the density for the local feature points detected from the scale space image whose resolution is equal to or lower than a predetermined resolution. The image processing apparatus according to claim 1, wherein the local feature point is selected after removal.
前記検出手段により検出された局所特徴点を画像上でクラスタリングして複数のクラスタを生成するクラスタリング手段と、
クラスタに属する局所特徴点により形成される各領域において局所特徴点の密度を算出する空間密度算出手段と、
前記局所特徴点の密度が前記所定の閾値を越えるクラスタを選択し、当該選択したクラスタに属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする請求項1記載の画像処理装置。 The selection means includes
Clustering means for clustering local feature points detected by the detection means on an image to generate a plurality of clusters;
Spatial density calculation means for calculating the density of local feature points in each region formed by local feature points belonging to a cluster;
2. The image according to claim 1, further comprising: a local feature point selecting unit that selects a cluster in which the density of the local feature points exceeds the predetermined threshold and selects a local feature point belonging to the selected cluster. Processing equipment.
前記クラスタの生成に際して、前記クラスタに属する局所特徴点により形成される領域の中心座標の座標間距離がクラスタ用閾値以下の距離にあるクラスタ同士を統合する
ことを特徴とする請求項8記載の画像処理装置。 The clustering means includes
9. The image according to claim 8, wherein, when generating the clusters, the clusters in which the distance between the coordinates of the central coordinates of the region formed by the local feature points belonging to the clusters is a distance equal to or less than a cluster threshold value are integrated. Processing equipment.
前記複数のクラスタのうち、クラスタに属する局所特徴点の数が所定数以下となるクラスタに対してのみ前記密度を算出し、
前記局所特徴点選択手段は、
前記密度が算出されていないクラスタを前記局所特徴点の選択の対象から除く
ことを特徴とする請求項8記載の画像処理装置。 The spatial density calculating means includes
Of the plurality of clusters, the density is calculated only for clusters in which the number of local feature points belonging to the cluster is a predetermined number or less,
The local feature point selection means includes:
The image processing apparatus according to claim 8, wherein the cluster whose density has not been calculated is excluded from the selection target of the local feature points.
各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段と、
前記画像上で局所特徴量の算出を行なわない領域の画像を用いた事前学習により求められた局所特徴量をノイズ特徴量として登録するデータベースを参照し、該ノイズ特徴量と前記検出された複数の局所特徴量とを照合することにより該ノイズ特徴量を持つ局所特徴点を判定するノイズ特徴点判定手段と、
前記検出された局所特徴量の中から前記ノイズ特徴量を持つ局所特徴点を除いた後、前記画像の複数の領域において残った局所特徴点の密度を算出する空間密度算出手段と、
前記残った局所特徴点の中から前記算出された密度が所定の閾値を越える領域に属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする画像処理装置。 Detecting means for detecting a plurality of local feature points from the image;
Local feature amount calculating means for calculating a local feature amount corresponding to each local feature point;
A reference is made to a database that registers, as noise feature quantities, local feature quantities obtained by pre-learning using an image of a region where local feature quantities are not calculated on the image, and the noise feature quantities and the detected plurality of detected feature quantities Noise feature point determination means for determining a local feature point having the noise feature amount by collating with a local feature amount;
Spatial density calculation means for calculating the density of local feature points remaining in a plurality of regions of the image after removing the local feature points having the noise feature amount from the detected local feature amounts;
An image processing apparatus comprising: a local feature point selecting unit that selects a local feature point belonging to a region where the calculated density exceeds a predetermined threshold value from the remaining local feature points.
各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段と、
前記画像上で局所特徴量の算出を行なうべき領域を用いた事前学習により求められた局所特徴量を重要特徴量として登録するデータベースを参照し、該重要特徴量と前記検出された複数の局所特徴量とを照合することにより該重要特徴量を持つ局所特徴点を判定する重要特徴点判定手段と、
前記検出された局所特徴量の中から前記重要特徴量を持つ局所特徴点以外の局所特徴点を除いた後、前記画像の複数の領域において残った局所特徴点の密度を算出する空間密度算出手段と、
前記残った局所特徴点の中から前記算出された密度が所定の閾値を越える領域に属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする画像処理装置。 Detecting means for detecting a plurality of local feature points from the image;
Local feature amount calculating means for calculating a local feature amount corresponding to each local feature point;
Refer to a database that registers, as an important feature amount, a local feature amount obtained by pre-learning using a region on which the local feature amount should be calculated on the image, and the important feature amount and the plurality of detected local features An important feature point determination means for determining a local feature point having the important feature amount by checking the amount;
Spatial density calculation means for calculating the density of local feature points remaining in a plurality of regions of the image after excluding local feature points other than the local feature points having the important feature amount from the detected local feature amounts When,
An image processing apparatus comprising: a local feature point selecting unit that selects a local feature point belonging to a region where the calculated density exceeds a predetermined threshold value from the remaining local feature points.
前記画像からエッジを検出するエッジ検出手段と、
前記画像の複数の領域において前記エッジの密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する選択手段と、
前記選択された各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段と
を具備することを特徴とする画像処理装置。 Detecting means for detecting a plurality of local feature points from the image;
Edge detection means for detecting an edge from the image;
Selecting means for calculating the density of the edge in a plurality of regions of the image and selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from the plurality of local feature points;
An image processing apparatus comprising: a local feature amount calculating unit that calculates a local feature amount corresponding to each selected local feature point.
ブロックを用いて前記画像を前記複数の領域に分割するブロック分割手段と、
前記ブロック毎にエッジの密度を算出する空間密度算出手段と、
前記エッジの密度が前記所定の閾値を越えるブロックを選択し、当該選択したブロックに属する局所特徴点を選択する局所特徴点選択手段と
を具備することを特徴とする請求項13記載の画像処理装置。 The selection means includes
Block dividing means for dividing the image into the plurality of regions using blocks;
Spatial density calculating means for calculating the density of edges for each block;
The image processing apparatus according to claim 13, further comprising: a local feature point selecting unit that selects a block in which the edge density exceeds the predetermined threshold and selects a local feature point belonging to the selected block. .
前記検出手段により検出されたエッジのうち、エッジの画素値がエッジ用閾値を越える画素を用いて前記エッジの密度を算出する
ことを特徴とする請求項14記載の画像処理装置。 The spatial density calculating means includes
The image processing apparatus according to claim 14, wherein the density of the edge is calculated using a pixel whose edge pixel value exceeds an edge threshold value among edges detected by the detection unit.
前記画像からのエッジの検出に際して、エッジの連結関係を調べ、連結しているエッジをそれぞれエッジセグメントとしてエッジラベルを付与し、
前記空間密度算出手段は、
同一のエッジラベルを持つエッジ毎に各ブロックにおけるエッジの密度を算出する
ことを特徴とする請求項14記載の画像処理装置。 The edge detection means includes
Upon detection of edges from the image, the edge connection relationship is examined, and edge labels are assigned to each connected edge as an edge segment,
The spatial density calculating means includes
The image processing apparatus according to claim 14, wherein the density of edges in each block is calculated for each edge having the same edge label.
検出手段が、画像から複数の局所特徴点を検出する工程と、
選択手段が、前記画像の複数の領域において前記局所特徴点の密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する工程と、
局所特徴量算出手段が、前記選択された各局所特徴点に対応した局所特徴量を算出する工程と
を含むことを特徴とする処理方法。 A processing method of an image processing apparatus,
A step of detecting a plurality of local feature points from the image;
Selecting means for calculating a density of the local feature points in a plurality of regions of the image, and selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from the plurality of local feature points;
A local feature amount calculating means including a step of calculating a local feature amount corresponding to each of the selected local feature points.
画像から複数の局所特徴点を検出する検出手段、
前記画像の複数の領域において前記局所特徴点の密度を算出し、前記複数の局所特徴点の中から該密度が所定の閾値を越える領域に属する局所特徴点を選択する選択手段、
前記選択された各局所特徴点に対応した局所特徴量を算出する局所特徴量算出手段
として機能されるためのプログラム。 Computer
Detecting means for detecting a plurality of local feature points from the image;
Selecting means for calculating a density of the local feature points in a plurality of regions of the image and selecting a local feature point belonging to a region where the density exceeds a predetermined threshold from the plurality of local feature points;
A program for functioning as a local feature amount calculating means for calculating a local feature amount corresponding to each selected local feature point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010131505A JP2011257963A (en) | 2010-06-08 | 2010-06-08 | Image processing device, and processing method and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010131505A JP2011257963A (en) | 2010-06-08 | 2010-06-08 | Image processing device, and processing method and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011257963A true JP2011257963A (en) | 2011-12-22 |
Family
ID=45474080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010131505A Withdrawn JP2011257963A (en) | 2010-06-08 | 2010-06-08 | Image processing device, and processing method and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011257963A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101310886B1 (en) | 2012-08-09 | 2013-09-25 | 주식회사 에스원 | Method for extracting face characteristic and apparatus thereof |
JP2014164483A (en) * | 2013-02-25 | 2014-09-08 | Kddi Corp | Database generation device, camera attitude estimation device, database generation method, camera attitude estimation method and program |
JP2015503800A (en) * | 2012-01-02 | 2015-02-02 | テレコム・イタリア・エッセ・ピー・アー | Image analysis |
JP2016162414A (en) * | 2015-03-05 | 2016-09-05 | 株式会社日立製作所 | Image processing device |
JP2018160165A (en) * | 2017-03-23 | 2018-10-11 | Necソリューションイノベータ株式会社 | Image processor, image processing method and program |
JP2019046184A (en) * | 2017-09-01 | 2019-03-22 | 日本電信電話株式会社 | Image processing apparatus, training image processing apparatus, image identification apparatus, training image processing method, image identification method, and program |
US10445570B2 (en) | 2017-03-21 | 2019-10-15 | Fuji Xerox Co., Ltd. | Information processing apparatus |
US10636168B2 (en) | 2015-06-12 | 2020-04-28 | Sony Corporation | Image processing apparatus, method, and program |
-
2010
- 2010-06-08 JP JP2010131505A patent/JP2011257963A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015503800A (en) * | 2012-01-02 | 2015-02-02 | テレコム・イタリア・エッセ・ピー・アー | Image analysis |
KR101310886B1 (en) | 2012-08-09 | 2013-09-25 | 주식회사 에스원 | Method for extracting face characteristic and apparatus thereof |
JP2014164483A (en) * | 2013-02-25 | 2014-09-08 | Kddi Corp | Database generation device, camera attitude estimation device, database generation method, camera attitude estimation method and program |
JP2016162414A (en) * | 2015-03-05 | 2016-09-05 | 株式会社日立製作所 | Image processing device |
US10636168B2 (en) | 2015-06-12 | 2020-04-28 | Sony Corporation | Image processing apparatus, method, and program |
US10445570B2 (en) | 2017-03-21 | 2019-10-15 | Fuji Xerox Co., Ltd. | Information processing apparatus |
JP2018160165A (en) * | 2017-03-23 | 2018-10-11 | Necソリューションイノベータ株式会社 | Image processor, image processing method and program |
JP2019046184A (en) * | 2017-09-01 | 2019-03-22 | 日本電信電話株式会社 | Image processing apparatus, training image processing apparatus, image identification apparatus, training image processing method, image identification method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011257963A (en) | Image processing device, and processing method and program thereof | |
AU2012261715B2 (en) | Method, apparatus and system for generating a feature vector | |
US8027978B2 (en) | Image search method, apparatus, and program | |
JP2019102061A (en) | Text line segmentation method | |
US8417038B2 (en) | Image processing apparatus, processing method therefor, and non-transitory computer-readable storage medium | |
JP2018142189A (en) | Program, distance measuring method, and distance measuring device | |
JP2005148987A (en) | Object identifying method and device, program and recording medium | |
CN106709490B (en) | Character recognition method and device | |
JP2014010633A (en) | Image recognition device, image recognition method, and image recognition program | |
JP2016053763A (en) | Image processor, image processing method and program | |
EP3291179B1 (en) | Image processing device, image processing method, and image processing program | |
CN110704667A (en) | Semantic information-based rapid similarity graph detection algorithm | |
US20220392107A1 (en) | Image processing apparatus, image processing method, image capturing apparatus, and non-transitory computer-readable storage medium | |
CN113537158B (en) | Image target detection method, device, equipment and storage medium | |
KR102492230B1 (en) | License plate detection apparatus and method using image warping | |
CN115546762A (en) | Image clustering method, device, storage medium and server | |
JP2016018421A (en) | Image classification device, number plate reading device, number plate reading system, and image classification method | |
CN114783042A (en) | Face recognition method, device, equipment and storage medium based on multiple moving targets | |
KR102102394B1 (en) | Method and apparatus for preprocessing image for recognition of character | |
JP3792759B2 (en) | Character recognition method and apparatus | |
CN112084364A (en) | Object analysis method, local image search method, device, and storage medium | |
US9202097B2 (en) | Information processing apparatus, information processing method, and computer program product | |
TW201939354A (en) | License plate recognition methods and systems thereof | |
CN115082919B (en) | Address recognition method, electronic device and storage medium | |
CN112101139B (en) | Human shape detection method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130903 |