JP6598480B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6598480B2 JP6598480B2 JP2015061682A JP2015061682A JP6598480B2 JP 6598480 B2 JP6598480 B2 JP 6598480B2 JP 2015061682 A JP2015061682 A JP 2015061682A JP 2015061682 A JP2015061682 A JP 2015061682A JP 6598480 B2 JP6598480 B2 JP 6598480B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- local feature
- similarity
- local
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は画像の局所特徴量を比較する技術に関するものである。 The present invention relates to a technique for comparing local feature amounts of images.
画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法が提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する。次に、当該局所特徴点とその周辺の画像情報とに基づいて、当該局所特徴点に対応する特徴量(局所特徴量)を計算する。 There has been proposed a method of searching for a similar image using a local feature amount (local feature amount) of an image. In this method, first, characteristic points (local feature points) are extracted from an image. Next, a feature amount (local feature amount) corresponding to the local feature point is calculated based on the local feature point and surrounding image information.
局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、検索を可能にする。局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話であり、実際のデジタル画像においては、画像の回転や拡大・縮小処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。 In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thereby, even when the image is rotated, enlarged or reduced, the search can be performed. The local feature amount is generally expressed as a vector. However, it is a theoretical story that the local feature is invariant to rotation and enlargement / reduction. In an actual digital image, the local feature before image rotation and enlargement / reduction processing corresponds to that after processing. Some variation occurs between the local feature amount.
回転不変の局所特徴量抽出のために、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量算出時に主方向を基準に局所領域を回転させて方向の正規化を行う。また、拡大・縮小不変の局所特徴量を算出するために、異なるスケールの画像を内部で生成し、各スケールの画像からそれぞれ局所特徴点の抽出と局所特徴量の算出を行う。ここで、内部で生成した一連の異なるスケールの画像集合は一般的にスケールスペースと呼ばれる。 In order to extract rotation-invariant local feature values, the main direction is calculated from the pixel pattern of the local region around the local feature point, and the local region is rotated based on the main direction when the local feature value is calculated to normalize the direction. . Further, in order to calculate the local feature quantity that does not change in size, the image of different scales is generated internally, and local feature points are extracted from the images of the respective scales and the local feature quantities are calculated. Here, a series of image sets of different scales generated internally is generally called a scale space.
上述の方式により、1枚の画像から複数の局所特徴点が抽出される。局所特徴量を用いた画像検索では、それぞれの局所特徴点から算出した局所特徴量同士の比較を行うことによりマッチングを行う。多く利用されている投票方式(特許文献1)では、入力画像から抽出された、各特徴点の局所特徴量に類似する特徴量を持つ特徴点が登録画像に存在すれば、その比較先の登録画像に対して1票を投票する。その投票数の多い登録画像ほど比較元画像と類似するとするものである。なお、入力画像は、比較元画像、クエリ画像または検索元画像とも言う。登録画像は、比較先画像または検索先画像とも言う。 With the above-described method, a plurality of local feature points are extracted from one image. In image retrieval using local feature amounts, matching is performed by comparing local feature amounts calculated from respective local feature points. In a widely used voting method (Patent Document 1), if a feature point having a feature amount similar to a local feature amount of each feature point extracted from an input image exists in the registered image, the comparison destination is registered. Vote for an image. It is assumed that a registered image having a larger number of votes is more similar to the comparison source image. The input image is also referred to as a comparison source image, a query image, or a search source image. The registered image is also referred to as a comparison destination image or a search destination image.
また、画像照合処理又は画像検索処理を高精度に行うために、事前に画像から検索したい対象オブジェクトを切り出す方法がある(特許文献2)。この方法では、ユーザがペン入力部を介して画像上の対象オブジェクトの輪郭情報を入力し、背景を取り除いた部分のオブジェクト画像を抽出している。 In addition, there is a method of cutting out a target object to be searched from an image in advance in order to perform image collation processing or image search processing with high accuracy (Patent Document 2). In this method, the user inputs the contour information of the target object on the image via the pen input unit, and extracts the object image of the part from which the background is removed.
しかし、特許文献1の投票方式では、撮像位置からの距離が異なる前景と背景の特徴量が混在した画像について、前景から抽出される特徴量と背景から抽出される特徴量について区別せずに、他の画像との類似度が決定されていた。例えば、図1に示すような前景よりも背景の特徴点が多い画像との類似度を求める場合は、背景にある特徴点の局所特徴量が所定値以上の類似度を持ってしまう可能性がある。この場合に、背景にある特徴量が投票値に影響し、得られた投票値がより大きくなることがあった。そのため、画像間の適正な類似度が得られないことがあり、照合精度を低下させていた。また、画像検索に適用して、複数の類似画像を類似度でソートして検索結果を作成する場合などに、適正な類似度が得られないので、検索精度を低下させていた。
However, in the voting method of
また、特許文献2の方式では、ユーザが画像にあるすべての対象オブジェクトに対してユーザがペン入力による抽出処理のような特別な処理を行わなければならないので、ユーザの処理負荷が高い問題があった。
In the method of
本発明は、上記の問題に鑑みてなされたものであり、ユーザが特別な処理をしなくても、比較対象の特徴点に絞って、画像照合又は画像検索を行うことを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to perform image matching or image search by focusing on feature points to be compared without requiring a user to perform special processing.
上記の課題を解決するために、本発明の画像処理装置は、第一画像の複数の特徴点ごとの第一局所特徴量と、撮像対象を撮像して得られた第二画像の複数の特徴点ごとの第二局所特徴量と、を抽出する抽出手段と、前記第二画像のそれぞれの前記特徴点に対応する前記撮像対象の奥行情報を保持する保持手段と、前記奥行情報に基づいて、少なくとも1つの距離範囲を特定する特定手段と、前記距離範囲について得られた、前記第二局所特徴量と前記第一局所特徴量との類似度が、所定値以上であれば、前記第二画像が前記第一画像と類似すると判定する判定手段と、を備え、前記判定手段は、複数の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の少なくとも二つ以上が、前記所定値以上であれば、前記所定値以上の前記類似度の合計に基づいて、前記第二画像が前記第一画像と類似するかを判定することを特徴とする。 In order to solve the above problems, an image processing apparatus according to the present invention includes a first local feature amount for each of a plurality of feature points of a first image and a plurality of features of a second image obtained by imaging an imaging target. Based on the depth information, extraction means for extracting a second local feature amount for each point, holding means for holding depth information of the imaging target corresponding to each of the feature points of the second image, If the similarity between the specifying means for specifying at least one distance range and the second local feature value and the first local feature value obtained for the distance range is equal to or greater than a predetermined value, the second image Determining means that is similar to the first image, and the determining means obtains the similarity between the second local feature quantity and the first local feature quantity obtained for each of the plurality of distance ranges. time of at least two or more, if the predetermined value or more Based on the sum of the similarity of the above predetermined value, the second image and judging whether similar to the first image.
本発明によれば、比較先画像の奥行情報を用いて、比較先画像の特徴量を距離範囲ごとに特定することによって、ユーザが特別な処理をしなくても、比較対象の特徴点に絞って、画像照合処理又は画像検索処理を行うことができる。 According to the present invention, by using the depth information of the comparison destination image, the feature amount of the comparison destination image is specified for each distance range, so that the user can focus on the feature points to be compared without performing any special processing. Thus, image collation processing or image retrieval processing can be performed.
[第1の実施形態]
本実施形態のサーバ装置やクライアント装置を構成するコンピュータ装置の構成について、図2のブロック図を参照して説明する。サーバ装置やクライアント装置はそれぞれ単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続されている。コンピュータ装置は、パーソナルコンピュータ(PC)やワークステーション(WS)等の情報処理装置によって実現することができる。
[First Embodiment]
The configuration of the computer device that constitutes the server device and the client device of this embodiment will be described with reference to the block diagram of FIG. Each of the server device and the client device may be realized by a single computer device, or may be realized by distributing each function to a plurality of computer devices as necessary. When configured by a plurality of computer devices, they are connected by a local area network (LAN) or the like so that they can communicate with each other. The computer device can be realized by an information processing device such as a personal computer (PC) or a workstation (WS).
図2において、CPU201はコンピュータ装置200全体を制御するCentral Processing Unitである。ROM202は変更を必要としないプログラムやパラメータを格納するRead Only Memoryである。RAM203は外部装置などから供給されるプログラムやデータを一時記憶するRandom Access Memoryである。記憶装置204はコンピュータ装置200に固定して設置されたハードディスクやメモリカードなどの記憶装置である。なお、記憶装置204は、コンピュータ装置200内部にあるハードディスクでもよい、コンピュータ装置200から着脱可能なフレキシブルディスク(FD)やCD等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含んでもよい。入力デバイスインターフェイス205はユーザの操作を受け、データを入力するポインティングデバイスやキーボードなどの入力デバイス209とのインターフェイスである。出力デバイスインターフェイス206はコンピュータ装置200の保持するデータや供給されたデータを表示するためのモニタ210とのインターフェイスである。通信インターフェイス207はインターネットなどのネットワーク回線211や、デジタルカメラ212、デジタルビデオカメラ213、スマートフォン214などの撮像装置に接続するための通信インターフェイスである。システムバス208は各ユニット201〜207を通信可能に接続する伝送路である。
In FIG. 2, a
本実施形態で用いる撮像装置に、撮像対象の奥行情報を生成する生成手段(非図示)が含まれる。撮像対象の奥行情報は、生成手段から撮像対象までの距離を示す奥行値又は距離情報である。 The imaging device used in the present embodiment includes a generation unit (not shown) that generates depth information of an imaging target. The depth information of the imaging target is a depth value or distance information indicating a distance from the generation unit to the imaging target.
後述する各動作は、ROM202等のコンピュータ読み取り可能な記憶媒体に格納されたプログラムをCPU201が実行することにより実行される。
Each operation described below is executed by the
[画像照合装置の構成]
本実施形態の画像処理装置を画像照合装置として用いた例を説明する。画像照合装置では、2枚の画像が類似するか否かを判定する。本実施形態では、画像照合装置が処理する2枚の画像を比較元画像と比較先画像として説明する。以下、本実施形態の画像照合装置の構成について図3を用いて説明する。画像照合装置が、画像入力部301、特徴量抽出部302、データ保持部303、特徴量特定部305、特徴量比較部306、類似判定部307及び照合結果出力部308を含む。
[Configuration of image verification device]
An example in which the image processing apparatus of this embodiment is used as an image collation apparatus will be described. In the image collation device, it is determined whether or not the two images are similar. In the present embodiment, two images processed by the image collating apparatus will be described as a comparison source image and a comparison destination image. Hereinafter, the configuration of the image collating apparatus of the present embodiment will be described with reference to FIG. The image collation apparatus includes an
画像入力部301は、入力デバイス209などを介して、画像照合装置の外部から比較元画像(クエリ画像)を入力する。なお、比較先画像(登録画像)が記憶装置204に記憶されているので、入力する必要はない。
The
特徴量抽出部302は、比較元画像及び比較先画像から特徴的な点(局所特徴点)を抽出し、抽出された局所特徴点とその周辺の画像情報とに基づいて、局所特徴点に対応する特徴量(局所特徴量)を計算する。局所特徴量抽出処理の詳細については、図6と図7を用いて後ほど説明する。
The feature
データ保持部303は撮像対象の奥行情報を保持しているので、データ保持部303から特徴量の算出領域の奥行情報を取得する。また、奥行値を保持している時は、画像における特徴点の位置に対応する撮像対象の奥行値を取得する。あるいは、撮像画像と距離画像が別々のデータとしてあるとき、撮像画像の画素と距離画像のマッピングを予め保持しておき、そのマッピングに従って特徴点の位置に対応する撮像対象の奥行値を取得する。また、距離画像にノイズが多い場合などは、予め距離画像に平滑化処理を行ってノイズを低減するなどしてから、奥行値を取得するようにしてもよい。なお、本実施形態における奥行情報の取得方法は、これらの方法に限定されるものではない。
Since the
特徴量特定部305は、まず、特徴点の位置に対応する撮像対象の奥行値に基づいて、複数の距離範囲を特定する。例えば、撮像対象の奥行値は10〜100メールの距離範囲に分布する場合は、10〜100メールの距離範囲を10〜20メール、20〜30メートル、30〜40メールなどの複数の10メートル間隔の距離範囲に分ける。本実施形態では、この処理を奥行値の階調化と呼ぶ。奥行値を階調化した後に、奥行値に基づいて特徴量をクラスタリングする。具体的には、特徴量抽出部302で得た特徴量ごとに、奥行情報保持部303で奥行値を得る。そして、奥行値を階調化することで特徴量をクラスタリングする。例えば、予め階調化の幅を決めておき、この階調幅で特徴量の奥行値を割ったときの商を求める。この階調の幅は一定間隔を示す距離であり、先の例では10メートルの間隔を示す距離である。そして、商が同じ特徴量を同じクラスタに割り当てることでクラスタリングを行う。これによって、所定の奥行値の幅(距離範囲)ごとに特徴量を特定して分離することができるため、前景にある撮像対象と背景にある撮像対象とに対応する画像の特徴量を分離することができる。
The feature
また、クラスタリングの一例として、画像の2値化処理などに使われる判別分析法等を用いてクラスタを決定してもよい。これによって、2つのクラスタに特徴量を分けることができるため、前景と背景に特徴量を分けることができる。 Further, as an example of clustering, a cluster may be determined using a discriminant analysis method used for image binarization processing or the like. Thereby, since the feature amount can be divided into two clusters, the feature amount can be divided into the foreground and the background.
さらに、階層的クラスタリングなどを用いてクラスタリングしてもよい。本実施形態の階層的クラスタリングは、複数の連続した距離範囲に対応して特徴量をクラスタリングして複数のクラスタが得られた場合に行う。この場合に、隣り合う二つの距離範囲に対応する二つのクラスタに割り当てられた特徴量の数がそれぞれ所定値以上であれば、この二つのクラスタを一つのクラスタに統合する。この処理を繰り返すと、奥行値の異なる複数の撮像対象のそれぞれに対応した特徴量のクラスタが得られる。これによって、奥行値の異なる複数のオブジェクトが前景として存在するとき、複数のオブジェクトのそれぞれに対応した特徴量のクラスタを得ることができる。 Further, clustering may be performed using hierarchical clustering or the like. The hierarchical clustering of the present embodiment is performed when a plurality of clusters are obtained by clustering feature amounts corresponding to a plurality of continuous distance ranges. In this case, if the number of feature amounts assigned to two clusters corresponding to two adjacent distance ranges is equal to or greater than a predetermined value, the two clusters are integrated into one cluster. When this process is repeated, a cluster of feature amounts corresponding to each of a plurality of imaging targets having different depth values is obtained. Accordingly, when a plurality of objects having different depth values exist as the foreground, a cluster of feature amounts corresponding to each of the plurality of objects can be obtained.
なお、本実施形態では、奥行値の小さい撮像対象(オブジェクト)は撮像時の視点から見た前景部分であり、奥行値の大きい撮像対象(オブジェクト)は撮像時の視点から見た撮像対象の背景部分である。 In the present embodiment, the imaging target (object) with a small depth value is a foreground portion viewed from the viewpoint at the time of imaging, and the imaging target (object) with a large depth value is the background of the imaging target viewed from the viewpoint at the time of imaging. Part.
また、本実施形態における奥行値を用いた特徴量のクラスタリング方法は、これらの方法に限定されるものではない。 In addition, the clustering method of the feature amount using the depth value in the present embodiment is not limited to these methods.
特徴量比較部306は、比較元画像の特徴量と比較先画像の特徴量とを比較し、比較元画像の特徴量と類似する比較先画像の特徴量をペアとして求める。具体的には、特徴量抽出部302で抽出された比較元画像の特徴量と比較先画像の特徴量とのベクトル間のユークリッド距離を算出する。算出された二つの特徴量のベクトル間のユークリッド距離が所定値以下の場合、二つの特徴量が類似していると判断し、この比較元画像の特徴量と比較先画像の特徴量とをペアとして求める。
The feature
類似判定部307は、比較先画像のクラスタごとに、ペア数を数え上げる。具体的には、ペアをなした特徴量に対応する「クラスタ」に対して1票を投票していく。これによって、クラスタごとにペアの数を数え上げていく。
The
概念的には、図4に示すように、クラスタIDごとに投票値が生成されることになる。なお、ペア数401はクラスタID:002の投票値を表している。ペア数402はクラスタID:005の投票値を表している。この図では、クラスタIDが小さい方が、奥行きが手前にあるクラスタを表している。そのため、前景にあたるクラスタのペア数401と背景にあたるクラスタのペア数402が分かれて求まることが分かる。このように、所定距離範囲ごとにペア数を数え上げることがなされる。
Conceptually, as shown in FIG. 4, a vote value is generated for each cluster ID. The number of
類似判定部307は、比較先画像のクラスタをもとに、所定のペア数を有するクラスタを特定して、該クラスタのペア数から比較元画像と比較先画像の類似度を生成する。具体的には、最大のペア数を有するクラスタを特定して、該クラスタのペア数を類似度とする。あるいは、該最大値の80%に相当する値以上のペア数を有するクラスタを特定して、特定されたクラスタのペア数を和算したものを類似度としてもよい。あるいは、予め定めた閾値以上のペア数を有するクラスタを特定して、特定されたクラスタのペア数を和算したものを用いてもよい。類似度が所定値以上であれば、類似判定部307は、比較先画像と比較元画像とが類似すると判定する。
The
また、確認したい対象オブジェクトの奥行値がどの距離範囲にあるのかを事前に分かっている場合は、類似判定部307は、クラスタIDごとに投票値を生成する必要はなく、特定の距離範囲に対応するクラスタIDだけに投票値を生成することもできる。図4の例では、距離範囲が正確に分かる場合は、クラスタID:002の投票値だけを生成すればよい。距離範囲が正確に分からないが、対象オブジェクトが前景にあると分かっている場合は、クラスタID:001〜003の投票値だけを生成すればよい。
In addition, when it is known in advance which distance range the depth value of the target object to be confirmed is, the
なお、本実施形態で求めた画像間の類似度は、特定されたクラスタのペア数又はペア数を和算したものであるが、これに限らない。例えば、ペア数を数えないで、所定値以下の二つの特徴量のベクトル間のユークリッド距離をパラメータとして用いて画像間の類似度を求めてもよい。 In addition, although the similarity between the images calculated | required by this embodiment is the sum of the number of pairs or the number of pairs of the identified cluster, it is not restricted to this. For example, instead of counting the number of pairs, the similarity between images may be obtained using the Euclidean distance between two feature quantity vectors equal to or less than a predetermined value as a parameter.
照合結果出力部308は、類似判定部307の判定した結果をモニタ210などに出力する。
The collation
本実施形態の画像照合処理の流れを図5に示すフローチャートを用いて説明する。 The flow of the image matching process of the present embodiment will be described using the flowchart shown in FIG.
ステップS501では、比較元画像と比較先画像から局所特徴量を抽出する。詳細な処理内容については、局所特徴量抽出処理として図6、図7を用いて別途説明する。 In step S501, local feature amounts are extracted from the comparison source image and the comparison destination image. Detailed processing contents will be separately described with reference to FIGS. 6 and 7 as local feature amount extraction processing.
ステップS502では、比較先画像(登録画像)の特徴量をクラスタリングする。具体的には、データ保持部303から画像における各特徴点の位置に対応する撮像対象の奥行き値を得る。そして、奥行値に基づいて、特徴量特定部305によって各特徴点に対応する特徴量はクラスタに分ける。
In step S502, the feature quantities of the comparison target image (registered image) are clustered. Specifically, the depth value of the imaging target corresponding to the position of each feature point in the image is obtained from the
ステップS503〜ステップS506では、比較元画像から抽出された局所特徴量に類似する比較先画像の特徴量を見つけ、見つけた特徴量に対応する「クラスタ」に対して1票を投票する処理を行う。概念的には、図4に示すように、クラスタIDごとに投票値を生成することを行う。以下はステップごとに説明する。 In steps S503 to S506, a feature amount of the comparison target image similar to the local feature amount extracted from the comparison source image is found, and a process of voting one vote for the “cluster” corresponding to the found feature amount is performed. . Conceptually, as shown in FIG. 4, a vote value is generated for each cluster ID. The following will be described step by step.
ステップS503では、ステップS502で得た比較元画像の局所特徴量を順に処理するためのループであり、特徴量には1から順に番号が割り当てられているものとする。これを変数iとして用いて参照するため、はじめにiを1に初期化する。さらに、iが局所特徴量の個数以下であるときステップS504へ移り、これを満たさないときループを抜けてステップS507へ移る。 Step S503 is a loop for sequentially processing the local feature values of the comparison source image obtained in Step S502, and numbers are assigned to the feature values in order from 1. In order to refer to this using variable i, first, i is initialized to 1. Further, when i is equal to or smaller than the number of local feature values, the process proceeds to step S504. When i is not satisfied, the process exits the loop and proceeds to step S507.
ステップS504では、特徴量比較部306によって、比較元画像の特徴量iと類似する比較先画像の特徴量を見つける。具体的には、比較元画像の特徴量iと、比較先画像の全ての特徴量との間でユークリッド距離を求めて、所定閾値以下のユークリッド距離にある比較先画像の特徴量を特定する。
In step S504, the feature
ステップS505では、類似判定部307によって、「クラスタ」に対してペア数を加算することが行われる。具体的には、図4に示すような情報を保持するために、クラスタIDと投票値を保持するリストなどを予め用意しておく。そして、ステップS504で得た類似する特徴量に対応するクラスタIDの投票値に1加算する。これをステップS504で見つけた全ての特徴量に対して行う。
In step S <b> 505, the
ステップS506は、ループの終端であり、iに1を加算してステップS503へ戻る。 Step S506 is the end of the loop, 1 is added to i, and the flow returns to step S503.
ステップS507では、類似判定部307によって、画像間の類似度が生成される。具体的には、最大の投票値を持つクラスタを特定して、このクラスタの投票値を類似度とする。これによって、比較元画像と比較先画像の類似度が生成される。類似度が所定値以上であれば、類似判定部307は、比較元画像と比較先画像とが類似すると判定する。
In step S507, the
以下では、本実施例で用いた「局所特徴量抽出処理」の一例について説明を行う。 Hereinafter, an example of “local feature extraction processing” used in the present embodiment will be described.
[局所特徴量抽出処理]
画像から局所特徴量を抽出する方法の一例について、図6を用いて説明する。
[Local feature extraction processing]
An example of a method for extracting a local feature amount from an image will be described with reference to FIG.
ステップS601で、入力された画像から輝度成分を抽出し、抽出した輝度成分に基づいて輝度成分画像を生成する。 In step S601, a luminance component is extracted from the input image, and a luminance component image is generated based on the extracted luminance component.
次にステップS602で、輝度成分画像を倍率(縮小率)pに従って順次縮小することを繰り返し、オリジナルのサイズの画像から段階的に縮小した、オリジナルの画像を含めてn枚の縮小画像を生成する。ここで、倍率p及び縮小画像の枚数nは予め決められているものとする。 In step S602, the luminance component image is sequentially reduced in accordance with the magnification (reduction rate) p, and n reduced images including the original image, which are reduced stepwise from the original size image, are generated. . Here, it is assumed that the magnification p and the number n of reduced images are determined in advance.
図7は、縮小画像生成処理で得られた縮小画像の一例を示す図である。図7に示す例は、倍率pが「2の−(1/4)乗」、縮小画像の枚数nが「9」の場合である。もちろん、倍率pは必ずしも「2の−(1/4)乗」で無くとも良い。図7において、画像701はステップS601で生成された輝度成分画像である。縮小画像702は当該輝度成分画像701から倍率pに従って再帰的に4回の縮小処理を行って得られた縮小画像である。そして、縮小画像703は当該輝度成分画像701から倍率pに従って8回縮小された縮小画像である。
FIG. 7 is a diagram illustrating an example of a reduced image obtained by the reduced image generation process. The example shown in FIG. 7 is a case where the magnification p is “2 to the power of − (1/4)” and the number n of reduced images is “9”. Of course, the magnification p is not necessarily "2 to the power of-(1/4)". In FIG. 7, an
この例では、縮小画像702は輝度成分画像701が1/2に縮小された画像となり、縮小画像703は輝度成分画像701が1/4に縮小された画像となる。尚、画像を縮小する方法は何れの方法でも良く、本実施形態では、線形補間による縮小方法により縮小画像を生成するものとする。
In this example, the reduced
次に、ステップS603では、n枚の縮小画像の各々に画像の回転があってもロバスト(robust)に抽出されるような局所的な特徴点(局所特徴点)を抽出する。この局所特徴点の抽出方法として、本実施形態ではHarris作用素を用いる。 Next, in step S603, local feature points (local feature points) that are robustly extracted even if there is image rotation in each of the n reduced images are extracted. As a method for extracting local feature points, a Harris operator is used in the present embodiment.
具体的には、Harris作用素を作用させて得られた出力画像H上の画素について、当該画素及び当該画素の8近傍にある画素(合計9画素)の画素値を調べる。そして、当該画素が局所極大になる(当該9画素の中で当該画素の画素値が最大になる)点を局所特徴点として抽出する。ここで、当該画素が局所極大になったときでも、当該画素の値がしきい値以下の場合には局所特徴点として抽出しないようにする。 Specifically, with respect to the pixel on the output image H obtained by applying the Harris operator, the pixel values of the pixel and pixels in the vicinity of the pixel (eight pixels in total) (total nine pixels) are examined. Then, a point at which the pixel becomes a local maximum (a pixel value of the pixel becomes the maximum among the nine pixels) is extracted as a local feature point. Here, even when the pixel reaches a local maximum, it is not extracted as a local feature point if the value of the pixel is less than or equal to the threshold value.
なお、局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法を用いてもよい。 Note that any feature point extraction method may be used as long as it is a method capable of extracting local feature points, without being limited to the feature point extraction method using the above Harris operator.
次に、ステップS604で、ステップS603で抽出された局所特徴点の各々について、画像の回転があっても不変となるように定義された特徴量(局所特徴量)を算出する。この局所特徴量の算出方法として、本実施形態ではLocal Jet及びそれらの導関数の組み合わせを用いる。 Next, in step S604, for each of the local feature points extracted in step S603, a feature quantity (local feature quantity) defined so as to be unchanged even when the image is rotated is calculated. As a method for calculating the local feature amount, in this embodiment, a local jet and a combination of derivatives thereof are used.
具体的には、以下の式(1)により局所特徴量Vを算出する。 Specifically, the local feature amount V is calculated by the following equation (1).
ただし、式(1)の右辺で用いている記号は、以下に示す式(2)から式(7)で定義される。ここで、式(2)右辺のG(x,y)はガウス関数、I(x,y)は画像の座標(x,y)における画素値であり、“*”は畳み込み演算を表す記号である。また、式(3)は式(2)で定義された変数Lのxに関する偏導関数、式(4)は当該変数Lのyに関する偏導関数である。式(5)は式(3)で定義された変数Lxのyに関する偏導関数、式(6)は式(3)で定義された変数Lxのxに関する偏導関数、式(7)は式(4)で定義されたLyのyに関する偏導関数である。 However, the symbols used on the right side of the equation (1) are defined by the following equations (2) to (7). Here, G (x, y) on the right side of Expression (2) is a Gaussian function, I (x, y) is a pixel value at image coordinates (x, y), and “*” is a symbol representing a convolution operation. is there. Equation (3) is a partial derivative of variable L defined by equation (2) with respect to x, and equation (4) is a partial derivative of variable L with respect to y. Equation (5) is the partial derivative of variable Lx defined in equation (3) with respect to y, equation (6) is the partial derivative of variable Lx defined in equation (3) with respect to x, and equation (7) is the equation. It is a partial derivative with respect to y of Ly defined in (4).
なお、局所特徴量を算出可能な方法であれば、上述したような特徴量算出方法に限らず、どのような特徴量算出方法を用いてもよい。 In addition, as long as a local feature value can be calculated, the feature value calculation method is not limited to the above-described feature value calculation method, and any feature value calculation method may be used.
以上によって、対象画像から局所特徴量を抽出することができる。 As described above, the local feature amount can be extracted from the target image.
本実施形態の画像処理装置は、2画像間の類似度を求め、2画像間の類似判定の結果を出力する画像照合装置として構成される。本実施形態の構成により、比較先画像における撮像対象の奥行値に基づいて、撮像対象に対応した特徴量のクラスタを生成することができるので、距離範囲の異なる特徴量を区別して、照合精度を向上させることができる。なお、照合精度は比較元画像と比較先画像との2枚の画像が類似するか否かを判定した際の判定精度である。 The image processing apparatus according to the present embodiment is configured as an image collation apparatus that obtains a similarity between two images and outputs a result of similarity determination between the two images. With the configuration of the present embodiment, it is possible to generate a cluster of feature quantities corresponding to the imaging target based on the depth value of the imaging target in the comparison target image. Can be improved. The collation accuracy is a determination accuracy when it is determined whether or not the two images of the comparison source image and the comparison destination image are similar.
[第2の実施形態]
本実施形態の画像処理装置を画像検索装置として用いた例を説明する。画像処理装置は、奥行情報をもつ画像を登録画像又は検索先画像として登録して、登録された複数枚の登録画像又は検索先画像から、クエリ画像又は検索元画像に類似する画像を検索する装置である。第1の実施形態の画像照合装置の比較先画像は一枚であるが、本実施形態の画像検索装置の登録画像又は検索先画像が複数ある。ここでは、本実施形態の画像検索装置と第1の実施形態の画像照合装置との共通部分について説明を省略するが、異なる部分について以下に説明する。
[Second Embodiment]
An example in which the image processing apparatus of this embodiment is used as an image search apparatus will be described. An image processing apparatus registers an image having depth information as a registered image or a search destination image, and searches for an image similar to a query image or a search source image from a plurality of registered images or search destination images. It is. The image collation device of the first embodiment has one comparison destination image, but there are a plurality of registered images or search destination images of the image retrieval device of the present embodiment. Here, description of the common parts of the image search apparatus of the present embodiment and the image collation apparatus of the first embodiment is omitted, but different parts will be described below.
具体的には、登録画像又は検索先画像の登録の際に、奥行情報(奥行値)を用いて登録画像の特徴量をクラスタリングして、クラスタごとに特徴量を記憶する。検索の際には、クエリ画像の特徴量とペアをなす登録画像の特徴量の個数をクラスタごとに数え上げる。次に、所定のペア数を有するクラスタを求めて、求めたクラスタのペア数を用いて画像同士の類似度を生成する。画像同士の類似度の降順に登録画像の一覧を出力することで、クエリ画像に対する画像の検索を実現する。 Specifically, when registering a registered image or a search destination image, the feature amount of the registered image is clustered using depth information (depth value), and the feature amount is stored for each cluster. At the time of search, the number of feature values of registered images that are paired with feature values of query images is counted for each cluster. Next, a cluster having a predetermined number of pairs is obtained, and similarity between images is generated using the obtained number of pairs of clusters. By outputting a list of registered images in descending order of similarity between images, an image search for a query image is realized.
本実施形態では、登録画像は奥行情報を有する画像を利用するが、クエリ画像は奥行情報を有していなくてもよい。 In the present embodiment, the registered image uses an image having depth information, but the query image may not have depth information.
[画像検索装置の構成]
以下、本実施形態の画像検索装置の構成について図8を用いて説明する。
[Configuration of image search device]
Hereinafter, the configuration of the image search apparatus of the present embodiment will be described with reference to FIG.
図8の画像検索装置の画像入力部801、特徴量抽出部802及びデータ保持部803の処理は、図3の画像照合装置の画像入力部301、特徴量抽出部302及びデータ保持部303の処理と同じである。また、図8の特徴量特定部805、特徴量比較部806、類似判定部807及び処理結果出力部808の処理は、図3の特徴量特定部305、特徴量比較部306、類似判定部307及び処理結果出力部308の処理と同じである。本実施形態では、これらの構成部分の説明を省略する。画像インデックス部804について説明する。
The processing of the
画像インデックス部804は、登録された画像の特徴量と画像IDとクラスタIDを関連付けて管理する。
The
本実施形態の画像インデックス部804が管理するデータのデータ構造の一例を図9(a)に示す。量子化特徴量と対応づけて、画像IDとクラスタIDを管理している。量子化特徴量は、後述する「局所特徴量量子化処理」によって生成される。この量子化値が同じとき、局所特徴量は所定以上の類似度があると判定することができる。なお、以降の説明において、図9(a)に示す1行をレコードと呼ぶことにする。
An example of the data structure of the data managed by the
なお、本実施形態の画像インデックス部804が管理するデータのデータ構造では、同じ量子化値を持つレコードが複数作成されるが、これを避けるために、量子化値に対して「画像IDとクラスタIDの組」のリストを対応づけてもよい。さらに、同じ量子化値を持つ特徴量が同じ画像の同じクラスタ内に複数あるとき、複数回同じ組が出現する。これを避けるために、「画像IDとクラスタIDと個数の組」のリストを量子化値に対応づけるデータ構造にしてもよい。画像インデックス部804が管理するデータのデータ構造はこれらに限定されるのではない。例えば、量子化特徴量のクラスタIDは、さらに奥行値の属する複数の距離範囲のそれぞれに対応づけて管理することができる。
In the data structure of the data managed by the
なお、画像インデックス部804が管理するデータは、データ保持部803に保持されるので、画像インデックス部804がデータ保持部803の一部として構成することができる。
Note that the data managed by the
特徴量比較部806は、クエリ画像の特徴量と類似する登録画像の特徴量をペアとして求める。具体的には、クエリ画像の特徴量を量子化して、画像インデックス部804から同じ量子化値を有するレコードを特定する。これによって、クエリ画像の特徴量に類似する特徴量を含む登録画像のクラスタが特定される。
The feature
類似判定部807は、画像IDとクラスタIDの組ごとに、特徴量比較部806によって得たペアの数を数え上げる。具体的には、特徴量比較部806を用いて、クエリ画像から抽出された局所特徴量に類似する特徴量を画像インデックス部804から見つける。次に、見つけた特徴量に対応する「画像とクラスタの組」に対して1票を投票していく。これによって、画像IDとクラスタIDの組ごとにペアの数を数え上げていく。
The
概念的には、図9(b)に示すように、画像IDとクラスタIDごとに投票値が生成されることになる。なお、ペア数901は画像ID:001のクラスタID:002の投票値を表している。ペア数902は画像ID:001のクラスタID:005の投票値を表している。この図では、クラスタIDが小さい方が、奥行値が小さい(撮像対象が手前にある)クラスタを表している。そのため、図9の例では、前景にあたるクラスタのペア数901と背景にあたるクラスタのペア数902が分かれて求まることが分かる。このように、所定の距離範囲ごとにペア数を数え上げることがなされる。
Conceptually, as shown in FIG. 9B, a vote value is generated for each image ID and cluster ID. The number of
類似判定部807は、画像IDごとに所定のペア数を有するクラスタを特定して、特定されたクラスタのペア数をクエリ画像と登録画像の類似度として生成する。具体的には、最大のペア数を有するクラスタを特定して、特定されたクラスタのペア数を類似度とする。例えば、類似判定部807によって図9(b)に示すようにクラスタごとにペア数が得られたとき、図9(c)に示すように画像IDごとにペア数の最大値が類似度として生成される。
The
あるいは、ペア数の最大値の80%に相当する値以上のペア数を有するクラスタを特定して、特定されたクラスタのペア数を和算したものを類似度としてもよい。あるいは、予め定めた閾値以上のペア数を有するクラスタを特定して、特定されたクラスタのペア数を和算したものを用いてもよい。 Or it is good also considering the cluster which has the number of pairs more than the value equivalent to 80% of the maximum value of the number of pairs, and adding the number of pairs of the identified cluster as a similarity. Alternatively, a cluster having the number of pairs equal to or greater than a predetermined threshold value may be specified, and the sum of the specified number of pairs of clusters may be used.
処理結果出力部808は、類似判定部807が画像IDの全てに上記処理を適用することで、画像IDごとに得られた類似度を出力することができる。あるいは、処理結果出力部808は、類似度の降順に画像又は画像IDを出力してもよい。
The processing
[画像登録処理]
次に、画像登録処理についてフローチャート図10を用いて説明する。本処理の実行時には登録画像および登録画像の画像IDが与えられる。そして、登録画像から抽出した局所特徴量をクラスタに分けて画像インデックス部804に保存する。具体的な制御内容について図10を用いて説明する。
[Image registration process]
Next, the image registration process will be described with reference to the flowchart of FIG. When this process is executed, a registered image and an image ID of the registered image are given. Then, the local feature amount extracted from the registered image is divided into clusters and stored in the
ステップS1001では、登録画像から局所特徴量を抽出する。画像から特徴的な点(局所特徴点)を抽出する。次に、当該局所特徴点とその周辺の画像情報とに基づいて、当該局所特徴点に対応する特徴量(局所特徴量)を計算する。局所特徴量抽出処理は、第1の実施形態と同じである。 In step S1001, a local feature amount is extracted from the registered image. Characteristic points (local feature points) are extracted from the image. Next, a feature amount (local feature amount) corresponding to the local feature point is calculated based on the local feature point and surrounding image information. The local feature amount extraction process is the same as that in the first embodiment.
ステップS1002では、局所特徴量を量子化する。類似する特徴量は同じ量子化値を持つように量子化が行われる。具体的な処理内容については、局所特徴量量子化処理として後ほど図12を用いて説明する。 In step S1002, the local feature is quantized. Quantization is performed so that similar feature quantities have the same quantization value. Specific processing contents will be described later with reference to FIG. 12 as local feature quantization processing.
ステップS1003では、特徴量をクラスタリングする。具体的には、距離情報取得部702によって各特徴点の位置の奥行値を得る。そして、奥行値を用いて、特徴量特定部805によって特徴量はクラスタに分けられる。
In step S1003, feature quantities are clustered. Specifically, the depth information of the position of each feature point is obtained by the distance
ステップS1004では、特徴量が画像インデックス部804に登録される。具体的には、ステップS1003で得たクラスタに対してIDを割り当てる。例えば、奥行値が小さい(撮像対象が手前にある)距離範囲に対応する特徴量のクラスタから順に1から1ずつ加算して連続した整数をクラスタIDとして割り当てる。そして、各特徴量の量子化値と画像IDとクラスタIDを対応付けた組にして画像インデックス部804に保存する。
In step S1004, the feature amount is registered in the
[画像検索処理]
次に、画像検索処理についてフローチャート図11を用いて説明する。本処理の実行時にはクエリ画像が与えられる。そして、クエリ画像から局所特徴量を抽出して、クエリ画像の特徴量とペアをなす登録画像の特徴量の個数をクラスタごとに数え上げる。次に、所定のペア数を有するクラスタを求めて、該クラスタのペア数を用いて画像同士の類似度を生成する。各画像の類似度と画像IDの組の一覧を検索結果として生成する。具体的な制御内容については図11を用いて説明する。
[Image search processing]
Next, image search processing will be described with reference to the flowchart of FIG. A query image is given when this process is executed. Then, local feature amounts are extracted from the query image, and the number of registered image feature amounts paired with the query image feature amount is counted for each cluster. Next, a cluster having a predetermined number of pairs is obtained, and similarity between images is generated using the number of pairs of the clusters. A list of combinations of similarity and image ID of each image is generated as a search result. Specific control contents will be described with reference to FIG.
ステップS1101では、クエリ画像から局所特徴量を抽出する。局所特徴量抽出処理は、第1の実施形態と同じである。 In step S1101, a local feature amount is extracted from the query image. The local feature amount extraction process is the same as that in the first embodiment.
ステップS1102では、局所特徴量を量子化する。具体的な処理内容については、局所特徴量量子化処理として後ほど図12を用いて説明する。 In step S1102, the local feature is quantized. Specific processing contents will be described later with reference to FIG. 12 as local feature quantization processing.
ステップS1103〜ステップS1106では、クエリ画像から抽出された局所特徴量に類似する特徴量を画像インデックス部804から見つけ、見つけた特徴量に対応する「画像とクラスタの組」に対して1票を投票する処理を行う。概念的には、図9(b)に示すように、画像IDとクラスタIDごとに投票値を生成することを行う。以下ステップごとに説明する。
In step S1103 to step S1106, a feature amount similar to the local feature amount extracted from the query image is found from the
ステップS1103では、ステップS1102で得たクエリの量子化した局所特徴量を順に処理するためのループであり、特徴量には1から順に番号が割り当てられているものとする。これを変数iを用いて参照するため、はじめにiを1に初期化する。さらに、iが局所特徴量の個数以下であるときステップS504へ移り、これを満たさないときループを抜けてステップS1107へ移る。 Step S1103 is a loop for sequentially processing the quantized local feature quantities of the query obtained in step S1102, and numbers are assigned to the feature quantities in order from 1. In order to refer to this using the variable i, first, i is initialized to 1. Further, when i is equal to or smaller than the number of local feature values, the process proceeds to step S504. When i is not satisfied, the process exits the loop and proceeds to step S1107.
ステップS1104では、特徴量比較部806によって、クエリ画像の特徴量iと類似する登録画像の特徴量を見つける。具体的には、図9(a)に示す画像インデックス部804の量子化特徴量を走査して、クエリの量子化特徴量iに一致するレコードを特定する。同じ量子化値をもつレコードが複数あるとき、複数のレコードが得られることになる。
In step S1104, the feature
ステップS1105では、類似判定部807によって、「画像とクラスタの組」に対してペア数を加算することが行われる。具体的には、図9(b)に示すような情報を保持するために、画像IDとクラスタIDと投票値を保持するリストなどを予め用意しておく。そして、ステップS1104で得たレコードの画像IDとクラスタIDの組の投票値に1加算する。これをステップS1104で見つけたレコード全てに対して行う。
In step S <b> 1105, the
ステップS1106は、ループの終端であり、iに1を加算してステップS503へ戻る。 Step S1106 is the end of the loop, 1 is added to i, and the flow returns to step S503.
ステップS1107〜ステップS1109の処理は、類似判定部706によって行われ、クエリ画像との類似度を生成する処理である。概念的には、図9(c)に示すように、所定の投票値を有するクラスタを特定して、該クラスタの投票値を用いて類似度を生成する。以下ステップごとに説明する。 The processes in steps S1107 to S1109 are performed by the similarity determination unit 706 and generate a similarity with the query image. Conceptually, as shown in FIG. 9C, a cluster having a predetermined vote value is specified, and the similarity is generated using the vote value of the cluster. Each step will be described below.
ステップS1107は、ステップS1103〜ステップS1106で得た画像IDを順に処理するためのループである。ステップS1103〜ステップS1106で得た画像IDは1から順番に番号が割り当てられているものとする。これを変数iを用いて参照するため、はじめにiを1に初期化する。さらに、iがステップS1103〜ステップS1106で得た画像IDの個数以下であるときステップS1108へ移り、これを満たさないときループを抜けてステップS1110へ移る。 Step S1107 is a loop for sequentially processing the image IDs obtained in steps S1103 to S1106. Assume that numbers are assigned in order from 1 to the image IDs obtained in steps S1103 to S1106. In order to refer to this using the variable i, first, i is initialized to 1. Furthermore, when i is equal to or less than the number of image IDs obtained in steps S1103 to S1106, the process proceeds to step S1108, and when this is not satisfied, the process exits the loop and proceeds to step S1110.
ステップS1108では、類似判定部706によって、i番目の画像IDの類似度が生成される。具体的には、i番目の画像IDの中にあって、最大の投票値を持つクラスタを特定して、該クラスタの投票値を類似度とする。この類似度を画像IDと対応づけて記憶する。 In step S1108, the similarity determination unit 706 generates the similarity of the i-th image ID. Specifically, a cluster having the largest vote value in the i-th image ID is specified, and the vote value of the cluster is set as the similarity. This similarity is stored in association with the image ID.
ステップS1109は、ループの終端であり、iに1を加算してステップS1107へ戻る。 Step S1109 is the end of the loop, 1 is added to i, and the flow returns to step S1107.
ステップS1110では、ステップS1108で記憶していた画像IDを類似度に基づいて降順にソートして、処理結果出力部808がソートされた画像又は画像を特定する情報(画像ID又はファイル名)の一覧を処理結果としてモニタ210などに出力する。これによって、クエリ画像に類似する登録画像の画像IDを類似する順に得ることができる。なお、処理結果出力部808は、ステップS1108で記憶していた画像IDで特定される全ての画像ではなく、類似度が所定値以上の登録画像だけを処理結果として出力してもよい。
In step S1110, the image IDs stored in step S1108 are sorted in descending order based on the similarity, and the processing
なお、ステップS1108において、最大の投票値を持つクラスタを特定して、該クラスタの投票値を類似度としていた。しかし、クエリに映るオブジェクトが、登録画像側で撮像対象の奥行値が異なる距離範囲(例えば、前景と背景)にそれぞれ存在していることもある。このとき、最大の投票値をとるだけだと、前景又は背景の何れか一方のオブジェクトとの一致で類似度が決定してしまう。そこで、所定数以上の投票値を有するクラスタを特定して、該クラスタの投票値の和を類似度としてもよい。例えば、最大値の80%に相当する値以上の投票値のクラスタを特定して、特定されたクラスタの投票値の和を類似度とすることができる。 In step S1108, the cluster having the maximum vote value is specified, and the vote value of the cluster is set as the similarity. However, the object shown in the query may exist in a distance range (for example, foreground and background) in which the depth value of the imaging target is different on the registered image side. At this time, if only the maximum voting value is taken, the similarity is determined by matching with either the foreground object or the background object. Therefore, a cluster having a predetermined number or more of voting values may be specified, and the sum of the voting values of the clusters may be used as the similarity. For example, a cluster having a vote value equal to or greater than a value corresponding to 80% of the maximum value can be specified, and the sum of the vote values of the specified cluster can be used as the similarity.
これによって、類似する複数のオブジェクトが前景と背景のそれぞれに写る画像を検索したい場合にも適切な類似度が得られるようになる。 As a result, an appropriate similarity can be obtained even when it is desired to search for an image in which a plurality of similar objects appear in each of the foreground and the background.
また、図9(b)では投票値が0の画像IDとクラスタIDの組も図示されている。しかし、ステップS1105で用いる画像IDとクラスタIDと投票値を保持するリストでは、投票値が0のときはリスト上で保持しないようにしてもよい。このようにすることで、メモリの使用量を少なくすることができる。反対に、画像IDとクラスタIDの全ての組み合わせに対して投票値を参照可能にする連想配列を予め構成しておいてもよい。このとき、高速に投票値を特定することができ、投票処理の高速化が期待できる。なお、この場合は画像ごとにクラスタ数が分かる必要があるため、画像インデックス部804にてクラスタ数を同時に管理するようにしてもよい。あるいは別の手段によってクラスタ数を管理するようにしてもよい。
FIG. 9B also shows a set of an image ID and a cluster ID with a vote value of 0. However, the list that holds the image ID, the cluster ID, and the vote value used in step S1105 may not be held on the list when the vote value is 0. In this way, the memory usage can be reduced. Conversely, an associative array that enables referencing of vote values for all combinations of image IDs and cluster IDs may be configured in advance. At this time, the voting value can be specified at high speed, and speeding up of the voting process can be expected. In this case, since the number of clusters needs to be known for each image, the
以下では、本実施例で用いた「局所特徴量量子化処理」の一例について説明を行う。 In the following, an example of “local feature quantization processing” used in the present embodiment will be described.
[局所特徴量量子化処理]
局所特徴量同士のマッチングを行いやすくするために、上記の局所特徴量を量子化する。
[Local feature quantization]
In order to facilitate matching between local feature quantities, the local feature quantities are quantized.
例えば、局所特徴量をN次元ベクトルVとし、各次元をVnと表記する。このとき、n番目の次元の特徴量について、Kn階調の量子化は、以下の式(8)により行うことができる。なお、NおよびKnは予め決められた値である。
Qn=(Vn*Kn)/(Vn_max−Vn_min+1) ・・・(8)
ここで、Qnは、N次元のうちのn番目の次元の特徴量Vnを量子化した値である。Vn_maxとVn_minはそれぞれn番目の次元の特徴量の取りうる値の最大値、および、最小値である。
For example, the local feature amount is represented as an N-dimensional vector V, and each dimension is represented as Vn. At this time, the quantization of the Kn gradation can be performed by the following formula (8) for the feature quantity of the nth dimension. N and Kn are predetermined values.
Qn = (Vn * Kn) / (Vn_max−Vn_min + 1) (8)
Here, Qn is a value obtained by quantizing the feature quantity Vn of the nth dimension among the N dimensions. Vn_max and Vn_min are a maximum value and a minimum value that can be taken by the feature quantity of the nth dimension, respectively.
なお、上記の量子化では、次元ごとに量子化階調数を定めているが、全次元で共通の階調数を用いてもよい。この量子化方法は、図12に示すように、特徴量空間を格子状に分割する方法である。この図で、格子1201は特徴量空間における量子化領域、点1202は各特徴を表している。図12は二次元の特徴量空間を量子化分割している例であるが、これを局所特徴量の次元数分の多次元に拡張した分割を行う。
In the above quantization, the number of quantization gradations is determined for each dimension, but a common number of gradations may be used in all dimensions. As shown in FIG. 12, this quantization method is a method of dividing the feature amount space into a lattice pattern. In this figure, a
また、特徴量空間を分割可能な方法であれば、上述したような規則に基づいて量子化する方法に限らずに、どのような分割方法でも適用可能である。例えば、複数の画像を機械学習させることによりクラスタリングのルールを作成し、そのルールに則って特徴量空間を分割し、量子化するようにしてもよい。 Further, as long as it is a method that can divide the feature amount space, any division method can be applied without being limited to the method of quantizing based on the rules as described above. For example, a clustering rule may be created by machine learning of a plurality of images, and the feature amount space may be divided and quantized according to the rule.
また、各次元についての量子化を行った後、以下の式(9)により、量子化値群のラベル化を行うことで、実質的に一次元の特徴量と同等に扱うことも可能である。
IDX=Q1+Q2*K1+Q3*K1*K2+・・・+Qn*K1*K2*・・・*Kn−1 ・・・(9)
また、全次元の階調数が共通の場合は、以下の式(10)により、量子化値群のラベル化が可能である。ここで、Kは階調数である。
In addition, after performing quantization for each dimension, the quantization value group is labeled according to the following equation (9), so that it can be handled substantially equivalent to a one-dimensional feature amount. .
IDX = Q 1 + Q 2 * K 1 + Q 3 * K 1 * K 2 + ... + Q n * K 1 * K 2 * ... * K n-1 (9)
Further, when the number of gradations of all dimensions is common, the quantization value group can be labeled by the following equation (10). Here, K is the number of gradations.
なお、ラベル化可能な算出方法であれば、上述したような算出方法に限らずに、どのようなラベル化方法を用いてもよい。 Note that any labeling method may be used as long as the calculation method allows labeling, without being limited to the above-described calculation method.
量子化値をキーとして画像IDなどを検索可能とするデータベースなどを構成することで、局所特徴量同士のマッチングを高速に行うことが可能になる。これを画像インデックスと呼ぶ。 By configuring a database or the like that can search for an image ID or the like using a quantized value as a key, matching between local feature quantities can be performed at high speed. This is called an image index.
本実施形態の画像検索装置によって、図9(c)に示すようにペア数の投票値を奥行方向の複数の距離範囲に対応する複数のクラスタごとに分けて得る。そのため、登録画像の前景にあるオブジェクトを写した画像がクエリ画像であるとき、「前景の特徴量との一致数(ペア数)」と「背景の特徴量との偶然の一致数」が分けて得られる。そして、偶然の一致は正しい一致に比べて少ないため、最大値を有するクラスタを特定することで、正しい一致により得られた投票値を得ることを可能としている。従って、登録画像又は検索先画像から、クエリ画像又は検索元画像に類似する画像を検索する検索精度を高めることができる。 With the image search device of the present embodiment, as shown in FIG. 9C, the vote value of the number of pairs is obtained separately for each of a plurality of clusters corresponding to a plurality of distance ranges in the depth direction. Therefore, when the image of the object in the foreground of the registered image is a query image, the “number of matches with the foreground feature quantity (number of pairs)” and “number of coincidence with the background feature quantity” are separated. can get. Since the chance coincidence is smaller than the correct coincidence, it is possible to obtain the vote value obtained by the correct coincidence by specifying the cluster having the maximum value. Accordingly, it is possible to improve the search accuracy for searching for an image similar to the query image or the search source image from the registered image or the search destination image.
例えば、図9(c)に示す例では、従来は画像ID001と画像ID002の類似度はともに260で同じであった。しかし、本実施形態の画像検索装置では、画像ID001と画像ID002の類似度は200と180と異なり、画像ID001の方がより類似していることが分かるようになる。
For example, in the example shown in FIG. 9C, conventionally, the similarity between the
[第3の実施形態]
第1の実施形態又は第2の実施形態において、奥行値を階調化して特徴量をクラスタリングすると、一つのクラスタにオブジェクトの特徴量がおさまらないことがありえる。例えば、クエリ画像に車のような奥行のあるオブジェクトが写っている場合は、車の特徴量は二つ以上の距離範囲に対応する複数のクラスタに割り当てられてしまう可能性がある。そこで、近傍のクラスタの投票値を加算して得られた投票値が所定値以上のクラスタを特定して、該クラスタからクエリ画像と登録画像の類似度を生成する画像検索装置について述べる。なお、第1の実施形態又は第2の実施形態と同様に、特徴量の複数のクラスタはそれぞれ距離範囲と対応する。
[Third Embodiment]
In the first embodiment or the second embodiment, if the depth values are gradationized and the feature amounts are clustered, the feature amounts of the object may not be contained in one cluster. For example, when an object having a depth such as a car is shown in the query image, there is a possibility that the feature amount of the car is assigned to a plurality of clusters corresponding to two or more distance ranges. Therefore, an image search apparatus that identifies clusters whose vote values obtained by adding the vote values of neighboring clusters to a predetermined value or more and generates the similarity between the query image and the registered image will be described. Note that, as in the first embodiment or the second embodiment, each of the plurality of clusters of feature amounts corresponds to a distance range.
本実施形態の画像検索装置の構成は、第2の実施形態で示した図8の構成と同じである。ただし、類似判定部807の動作が異なる。本実施形態の類似判定部807は、画像IDごとに近傍のクラスタの投票値を加算する。次に、所定値以上の投票値を有するクラスタを特定して、該クラスタからクエリ画像と登録画像の類似度を生成する。
The configuration of the image search apparatus of the present embodiment is the same as the configuration of FIG. 8 shown in the second embodiment. However, the operation of the
例えば、類似判定部807によって図14の上側に記載の画像とクラスタの組に対しての投票値が求まったとき、図14の下側に示すように近傍のクラスタの投票値を加算する。この例では、左右あわせて3つのクラスタの投票値を足し合わせている。ただし、クラスタID:001のように左にクラスタがないときは、その方向の投票値は無視して存在するクラスタの投票値のみを足し合わせている。このようにして、近傍のクラスタの投票値を足し合わせる。その後、第1の実施形態と同様に、所定以上の投票値を有するクラスタを特定して、該クラスタからクエリ画像と登録画像の類似度を生成する。具体的には、第1の実施形態と同様に、特定したクラスタの最大値を類似度として用いる。あるいは、最大値の80%に相当する値以上のペア数を有するクラスタを特定して、該クラスタのペア数を和算したものを類似度としてもよい。あるいは、所定の閾値以上のペア数を有するクラスタを特定して、該クラスタのペア数を和算したものを用いてもよい。
For example, when the
次に、本実施形態の画像検索処理についてフローチャート図13を用いて説明する。フローチャート図13は、第1の実施形態のフローチャート図11のステップS1106とステップS1107の間に処理が追加されたところが異なる点である。そのため、ステップS1301〜ステップS1306はステップS1101〜ステップS1106と同じである。同様にステップS1312〜ステップS1315も、ステップS1107〜ステップS1110と同じである。以下、新たに追加された処理ステップS1307〜ステップS1311について、ステップごとに説明する。 Next, image search processing according to the present embodiment will be described with reference to a flowchart of FIG. The flowchart of FIG. 13 is different in that processing is added between step S1106 and step S1107 of the flowchart of FIG. 11 of the first embodiment. Therefore, step S1301 to step S1306 are the same as step S1101 to step S1106. Similarly, steps S1312-S1315 are the same as steps S1107-S1110. Hereinafter, newly added processing steps S1307 to S1311 will be described step by step.
ステップS1307〜ステップS1311は、画像IDごとに近傍のクラスタの投票値を加算することを行う。なお、近傍の数は予め与えられているものとする。この例では前後含めて3つのクラスタを近傍とする。以下ステップごとに説明する。 Steps S1307 to S1311 add the voting values of neighboring clusters for each image ID. It is assumed that the number of neighbors is given in advance. In this example, three clusters including the front and rear are assumed to be neighbors. Each step will be described below.
ステップS1307は、ステップS1303〜ステップS1306で得た画像IDを順に処理するためのループである。ステップS1303〜ステップS1306で得た画像IDは1から順番に番号が割り当てられているものとする。これを変数iを用いて参照するため、はじめにiを1に初期化する。さらに、iがステップS1303〜ステップS1306で得た画像IDの個数以下であるときステップS1308へ移り、これを満たさないときループを抜けてステップS1312へ移る。 Step S1307 is a loop for sequentially processing the image IDs obtained in steps S1303 to S1306. Assume that the image IDs obtained in steps S1303 to S1306 are assigned numbers in order from 1. In order to refer to this using the variable i, first, i is initialized to 1. Further, when i is equal to or less than the number of image IDs obtained in steps S1303 to S1306, the process proceeds to step S1308, and when this is not satisfied, the process exits the loop and proceeds to step S1312.
ステップS1308では、画像iのクラスタを順に処理するためのループである。クラスタIDは1から順番に番号が割り当てられているものとする。これを変数jを用いて参照するため、はじめにjを1に初期化する。さらに、jがクラスタの個数以下であるときステップS1309へ移り、これを満たさないときループを抜けてステップS1311へ移る。 Step S1308 is a loop for sequentially processing the cluster of the image i. Assume that the cluster IDs are assigned numbers in order from 1. In order to refer to this using the variable j, j is first initialized to 1. Further, when j is equal to or less than the number of clusters, the process proceeds to step S1309, and when this is not satisfied, the process exits the loop and proceeds to step S1311.
ステップS1309では、画像iのクラスタjの近傍のペア数を足し合わせる。例えば、前述した図14の例の通り、クラスタjがクラスタID:002であるとき、前後あわせた近傍3つのクラスタのペア数を足し合わせるため、クラスタID:001〜003のペア数を足し合わせる。これを別途用意した画像IDとクラスタIDとペア数を記憶するリストに保存する。このリストは後段のステップS1312以降で使用される。 In step S1309, the number of pairs in the vicinity of cluster j of image i is added. For example, as shown in the example of FIG. 14 described above, when the cluster j is the cluster ID: 002, the number of pairs of the cluster IDs: 001 to 003 is added in order to add up the number of pairs of neighboring three clusters. This is stored in a list that stores separately prepared image IDs, cluster IDs, and the number of pairs. This list is used in step S1312 and subsequent steps.
ステップS1310は、クラスタのループの終端であり、jに1を加算してステップS1308へ戻る。 Step S1310 is the end of the loop of the cluster, and 1 is added to j, and the process returns to step S1308.
ステップS1311は、画像のループの終端であり、iに1を加算してステップS1307へ戻る。 Step S1311 is the end of the image loop, and 1 is added to i, and the flow returns to step S1307.
なお、本実施形態では、近傍数は予め与えられることを想定していた。しかしながら、これをクエリ画像から求めてもよい。例えば、クエリ画像も奥行値を有するとき、奥行値をクラスタリングするなどして、クエリ画像に写っているオブジェクトの特徴量群のクラスタに対応する距離範囲からオブジェクトの厚みを得る。あるいは、最大の特徴量数を有するクラスタの厚みを得る。これによって得たクエリ画像にあるオブジェクトの厚みを、階調幅で割ることで、近傍数を求めることができる。例えば、クエリ画像に車が写っており、クラスタリングで得たオブジェクトの厚みが3mであったとき、さらに階調幅が1mであったとき、近傍数は3と求めることができる。 In the present embodiment, it is assumed that the number of neighbors is given in advance. However, this may be obtained from the query image. For example, when the query image also has a depth value, the depth value is clustered to obtain the thickness of the object from the distance range corresponding to the cluster of the feature amount group of the object shown in the query image. Alternatively, the thickness of the cluster having the maximum number of features is obtained. The number of neighbors can be obtained by dividing the thickness of the object in the obtained query image by the gradation width. For example, when the car is shown in the query image, the thickness of the object obtained by clustering is 3 m, and the gradation width is 1 m, the number of neighbors can be calculated as 3.
あるいは、画像認識などの技術によって、クエリ画像のオブジェクト種別を得て、そのオブジェクト種別にあった厚みを用いて近傍数を得てもよい。例えば、人体検出等を適用した結果、クエリ画像から人物が検出されたとき、予め用意した一般的な人物の厚みを用いることが考えられる。あるいは単純に、クエリ画像とともにユーザ入力で得るようにしてもよい。本実施形態におけるオブジェクトの厚みの特定方法はこれらに限定されない。 Alternatively, the object type of the query image may be obtained by a technique such as image recognition, and the number of neighbors may be obtained using the thickness suitable for the object type. For example, when a person is detected from a query image as a result of applying human body detection or the like, it is conceivable to use a general person thickness prepared in advance. Or you may make it obtain simply by a user input with a query image. The method for specifying the thickness of the object in the present embodiment is not limited to these.
本実施形態の画像検索装置によって、奥行値を階調化する際の階調幅がオブジェクトの厚みより小さく、同じオブジェクトの特徴量を分断して異なるクラスタに登録してしまう場合に対応する。このときは、近傍のクラスタのペア数を足し合わせることで、適切に求めたペア数をもとに類似度を生成できる。例えば、画像インデックス部804に登録されるクラスタに対応する距離範囲の間隔(階調幅)が1mであるとする。このとき、車などのオブジェクトは奥行き方向に3m程度の幅がある。そのため、いくつかのクラスタに車の特徴量が分けて登録されてしまう。第1の実施形態又は第2の実施形態では、この分かれたクラスタの1つから類似度が決定されてしまう。しかしながら、本実施形態では、近傍のクラスタのペア数を足し合わせる。そのため、近傍数を3つとすれば、およそ3m程度の奥行き幅でペア数を求めることができるようになる。そのため、正しく車全体の特徴量と一致したペア数が求められることになる。
This corresponds to the case where the image search apparatus of the present embodiment has a gradation width when gradation of depth values is smaller than the thickness of the object, and the feature amount of the same object is divided and registered in different clusters. At this time, by adding the number of pairs of neighboring clusters, the similarity can be generated based on the number of pairs obtained appropriately. For example, it is assumed that the distance (gradation width) of the distance range corresponding to the cluster registered in the
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
301 画像入力部
302 特徴量抽出部
303 データ保持部
305 特徴量特定部
306 特徴量比較部
307 類似判定部
308 処理結果出力部
DESCRIPTION OF
Claims (13)
前記第二画像のそれぞれの前記特徴点に対応する前記撮像対象の奥行情報を保持する保持手段と、
前記奥行情報に基づいて、少なくとも1つの距離範囲を特定する特定手段と、
前記距離範囲について得られた、前記第二局所特徴量と前記第一局所特徴量との類似度が、所定値以上であれば、前記第二画像が前記第一画像と類似すると判定する判定手段と、
を備え、複数の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の少なくとも二つ以上が、前記所定値以上であれば、前記判定手段は、前記所定値以上の前記類似度の合計に基づいて、前記第二画像が前記第一画像と類似するかを判定することを特徴とする画像処理装置。 Extraction means for extracting a first local feature amount for each of a plurality of feature points of the first image and a second local feature amount of each of a plurality of feature points of the second image obtained by imaging the imaging target;
Holding means for holding depth information of the imaging target corresponding to each feature point of the second image;
A specifying means for specifying at least one distance range based on the depth information;
A determination unit that determines that the second image is similar to the first image if the similarity between the second local feature and the first local feature obtained for the distance range is equal to or greater than a predetermined value. When,
If at least two or more of the similarities between the second local feature quantity and the first local feature quantity obtained for each of the plurality of distance ranges are equal to or greater than the predetermined value, the determination unit Determines whether the second image is similar to the first image based on a total of the similarities equal to or greater than the predetermined value .
前記第二画像のそれぞれの前記特徴点に対応する前記撮像対象の奥行情報を保持する保持手段と、
前記奥行情報に基づいて、少なくとも1つの距離範囲を特定する特定手段と、前記距離範囲について得られた、前記第二局所特徴量と前記第一局所特徴量との類似度が、所定値以上であれば、前記第二画像が前記第一画像と類似すると判定する判定手段と、
を備え、
複数の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の少なくとも二つ以上が、前記所定値以上であれば、前記判定手段は、隣り合う二つ以上の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の合計に基づいて、前記第二画像が前記第一画像と類似するかを判定することを特徴とする画像処理装置。 Extraction means for extracting a first local feature amount for each of a plurality of feature points of the first image and a second local feature amount of each of a plurality of feature points of the second image obtained by imaging the imaging target;
Holding means for holding depth information of the imaging target corresponding to each feature point of the second image;
Based on the depth information, the specifying means for specifying at least one distance range, and the similarity between the second local feature and the first local feature obtained for the distance range is a predetermined value or more. If there is a determination unit that determines that the second image is similar to the first image,
With
If at least two or more of the similarities between the second local feature quantity and the first local feature quantity obtained for each of the plurality of distance ranges are equal to or greater than the predetermined value, the determination means obtained for each two or more of the distance range to fit, on the basis of the sum of the similarity between the first local feature quantity and the second local features, the second image is similar to the first image An image processing apparatus characterized by determining whether or not.
前記第二画像のそれぞれの前記特徴点に対応する前記撮像対象の奥行情報を保持手段に保持させる工程と、
前記奥行情報に基づいて、少なくとも1つの距離範囲を特定する特定工程と、
前記距離範囲について得られた、前記第二局所特徴量と前記第一局所特徴量との類似度が、所定値以上であれば、前記第二画像が前記第一画像と類似すると判定する判定工程と、
を備え、
複数の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の少なくとも二つ以上が、前記所定値以上であれば、前記判定工程では、前記所定値以上の前記類似度の合計に基づいて、前記第二画像が前記第一画像と類似するかを判定することを特徴とする画像処理方法。 An extraction step of extracting a first local feature amount for each of a plurality of feature points of the first image and a second local feature amount of each of a plurality of feature points of the second image obtained by imaging the imaging target;
Holding the depth information of the imaging target corresponding to each feature point of the second image in a holding unit;
A specific step of identifying at least one distance range based on the depth information;
A determination step of determining that the second image is similar to the first image if the similarity between the second local feature value and the first local feature value obtained for the distance range is equal to or greater than a predetermined value. When,
With
If at least two or more of the similarities between the second local feature quantity and the first local feature quantity obtained for each of the plurality of distance ranges are greater than or equal to the predetermined value, in the determination step, An image processing method comprising: determining whether the second image is similar to the first image based on a sum of the similarities equal to or greater than a predetermined value .
前記第二画像のそれぞれの前記特徴点に対応する前記撮像対象の奥行情報を保持手段に保持させる工程と、
前記奥行情報に基づいて、少なくとも1つの距離範囲を特定する特定工程と、前記距離範囲について得られた、前記第二局所特徴量と前記第一局所特徴量との類似度が、所定値以上であれば、前記第二画像が前記第一画像と類似すると判定する判定工程と、
を備え、
複数の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の少なくとも二つ以上が、前記所定値以上であれば、前記判定工程では、隣り合う二つ以上の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の合計に基づいて、前記第二画像が前記第一画像と類似するかを判定することを特徴とする画像処理方法。 An extraction step of extracting a first local feature amount for each of a plurality of feature points of the first image and a second local feature amount of each of a plurality of feature points of the second image obtained by imaging the imaging target;
Holding the depth information of the imaging target corresponding to each feature point of the second image in a holding unit;
Based on the depth information, the specific step of specifying at least one distance range, and the similarity between the second local feature amount and the first local feature amount obtained for the distance range is a predetermined value or more. If there is a determination step for determining that the second image is similar to the first image;
With
If at least two or more of the similarities between the second local feature quantity and the first local feature quantity obtained for each of the plurality of distance ranges are equal to or greater than the predetermined value, in the determination step, obtained for each two or more of the distance range to fit, on the basis of the sum of the similarity between the first local feature quantity and the second local features, the second image is similar to the first image An image processing method characterized by determining whether or not.
前記第二画像のそれぞれの前記特徴点に対応する前記撮像対象の奥行情報を保持手段に保持させるステップと、
前記奥行情報に基づいて、少なくとも1つの距離範囲を特定する特定ステップと、
前記距離範囲について得られた、前記第二局所特徴量と前記第一局所特徴量との類似度が、所定値以上であれば、前記第二画像が前記第一画像と類似すると判定する判定ステップと、
をコンピュータに実行させ、
前記判定ステップでは、複数の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の少なくとも二つ以上が、前記所定値以上であれば、前記所定値以上の前記類似度の合計に基づいて、前記第二画像が前記第一画像と類似するかを判定することを特徴とするプログラム。 An extraction step of extracting a first local feature amount for each of a plurality of feature points of the first image and a second local feature amount of each of a plurality of feature points of the second image obtained by imaging the imaging target;
Holding the depth information of the imaging target corresponding to each feature point of the second image in a holding unit;
A specific step of identifying at least one distance range based on the depth information;
Determination step of determining that the second image is similar to the first image if the similarity between the second local feature value and the first local feature value obtained for the distance range is equal to or greater than a predetermined value. When,
To the computer,
Wherein in the determination step, was obtained for each of a plurality of said distance range, said second local characteristic amount and the first local feature quantity and the similarity of at least two of, if the predetermined value or more, the A program for determining whether the second image is similar to the first image based on a sum of the similarities equal to or greater than a predetermined value .
前記第二画像のそれぞれの前記特徴点に対応する前記撮像対象の奥行情報を保持手段に保持させるステップと、
前記奥行情報に基づいて、少なくとも1つの距離範囲を特定する特定ステップと、前記距離範囲について得られた、前記第二局所特徴量と前記第一局所特徴量との類似度が、所定値以上であれば、前記第二画像が前記第一画像と類似すると判定する判定ステップと、
をコンピュータに実行させ、
前記判定ステップでは、複数の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の少なくとも二つ以上が、前記所定値以上であれば、隣り合う二つ以上の前記距離範囲ごとに得られた、前記第二局所特徴量と前記第一局所特徴量との前記類似度の合計に基づいて、前記第二画像が前記第一画像と類似するかを判定することを特徴とするプログラム。 An extraction step of extracting a first local feature amount for each of a plurality of feature points of the first image and a second local feature amount of each of a plurality of feature points of the second image obtained by imaging the imaging target;
Holding the depth information of the imaging target corresponding to each feature point of the second image in a holding unit;
Based on the depth information, the specifying step for specifying at least one distance range, and the similarity between the second local feature and the first local feature obtained for the distance range is a predetermined value or more. If there is a determination step for determining that the second image is similar to the first image;
To the computer,
In the determination step , if at least two or more of the similarities between the second local feature quantity and the first local feature quantity obtained for each of the plurality of distance ranges are equal to or greater than the predetermined value, obtained for each two or more of the distance range to fit, on the basis of the sum of the similarity between the first local feature quantity and the second local features, the second image is similar to the first image A program characterized by determining whether or not.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015061682A JP6598480B2 (en) | 2015-03-24 | 2015-03-24 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015061682A JP6598480B2 (en) | 2015-03-24 | 2015-03-24 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016181181A JP2016181181A (en) | 2016-10-13 |
JP6598480B2 true JP6598480B2 (en) | 2019-10-30 |
Family
ID=57131874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015061682A Active JP6598480B2 (en) | 2015-03-24 | 2015-03-24 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6598480B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6717769B2 (en) * | 2017-03-21 | 2020-07-01 | Kddi株式会社 | Information processing device and program |
CN109472825B (en) * | 2018-10-16 | 2021-06-25 | 维沃移动通信有限公司 | Object searching method and terminal equipment |
CN111401463A (en) * | 2020-03-25 | 2020-07-10 | 维沃移动通信有限公司 | Method for outputting detection result, electronic device, and medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3785456B2 (en) * | 2002-07-25 | 2006-06-14 | 独立行政法人産業技術総合研究所 | Safety monitoring device at station platform |
JP2005057623A (en) * | 2003-08-07 | 2005-03-03 | Casio Comput Co Ltd | Image data processor |
KR20130091918A (en) * | 2012-02-09 | 2013-08-20 | 한국전자통신연구원 | Apparatus and method for recognizing object |
JP2015045921A (en) * | 2013-08-27 | 2015-03-12 | 日本電信電話株式会社 | Subject recognition device, subject recognition method, and subject recognition program |
-
2015
- 2015-03-24 JP JP2015061682A patent/JP6598480B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016181181A (en) | 2016-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107944020B (en) | Face image searching method and device, computer device and storage medium | |
JP5096776B2 (en) | Image processing apparatus and image search method | |
CN105144239B (en) | Image processing apparatus, image processing method | |
JP6431302B2 (en) | Image processing apparatus, image processing method, and program | |
JP2015103088A (en) | Image processing apparatus, image processing method, and program | |
JP6211407B2 (en) | Image search system, image search device, search server device, image search method, and image search program | |
US20120287304A1 (en) | Image recognition system | |
JP2006338313A (en) | Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium | |
JP2016181051A (en) | Image processing apparatus and image processing method | |
CN107577758B (en) | Image convolution characteristic generation method based on multi-region cross weight | |
CN110598019A (en) | Repeated image identification method and device | |
JP6598480B2 (en) | Image processing apparatus, image processing method, and program | |
CN110956213A (en) | Method and device for generating remote sensing image feature library and method and device for retrieving remote sensing image | |
Obaidullah et al. | Indic script identification from handwritten document images—an unconstrained block-level approach | |
JP2011100293A (en) | Information processing device, method for controlling the same, and program | |
CN107480628B (en) | Face recognition method and device | |
Cuffaro et al. | Segmentation free object discovery in video | |
Guo et al. | Substation equipment 3D identification based on KNN classification of subspace feature vector | |
Lu et al. | Portrait sculptures of augustus: Categorization via local shape comparison | |
JP6341843B2 (en) | Image search apparatus and image search system | |
Zhang et al. | Edge detection from RGB-D image based on structured forests | |
JP2017215784A (en) | Object detection device, method, and program | |
Wang et al. | Multi-DS strategy for source camera identification in few-shot sample data sets | |
CN113128278A (en) | Image identification method and device | |
Mary et al. | An optimized feature selection CBIR technique using ANN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190625 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191001 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6598480 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |