JP6014008B2 - Geometric verification apparatus, geometric verification method and program - Google Patents

Geometric verification apparatus, geometric verification method and program Download PDF

Info

Publication number
JP6014008B2
JP6014008B2 JP2013235019A JP2013235019A JP6014008B2 JP 6014008 B2 JP6014008 B2 JP 6014008B2 JP 2013235019 A JP2013235019 A JP 2013235019A JP 2013235019 A JP2013235019 A JP 2013235019A JP 6014008 B2 JP6014008 B2 JP 6014008B2
Authority
JP
Japan
Prior art keywords
observation direction
voting
observation
key point
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013235019A
Other languages
Japanese (ja)
Other versions
JP2015095156A (en
Inventor
島村 潤
潤 島村
大我 吉田
大我 吉田
行信 谷口
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013235019A priority Critical patent/JP6014008B2/en
Publication of JP2015095156A publication Critical patent/JP2015095156A/en
Application granted granted Critical
Publication of JP6014008B2 publication Critical patent/JP6014008B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、同一被写体を撮影した2枚以上の画像から、空間中の同一点を示す対応点の整合性を検証する幾何検証装置、幾何検証方法及びプログラムに関する。   The present invention relates to a geometric verification apparatus, a geometric verification method, and a program for verifying the consistency of corresponding points indicating the same point in space from two or more images obtained by photographing the same subject.

実空間を撮影したカメラにより入力された少なくとも2枚以上の画像において、空間中の同一点を示す対応点を検出する技術は、被写体の三次元復元や物体認識を可能としている。   The technique of detecting corresponding points indicating the same point in the space in at least two or more images input by a camera that captures a real space enables three-dimensional reconstruction of the subject and object recognition.

例えば非特許文献1に記載されている方法では、各画像からコーナーなどの特徴的な点であるキーポイントを決定し、当該特徴点の近傍領域を用いて特徴量を抽出し、両画像間で最も類似する特徴量を有す特徴点同士を対応点とし、物体認識を行う方法が記述されている。ただし、両画像には被写体とは異なる背景や、他物体の存在や、カメラの熱雑音や画像圧縮誤差によるノイズなどの影響を受け、誤対応が生じる。   For example, in the method described in Non-Patent Document 1, a key point that is a characteristic point such as a corner is determined from each image, a feature amount is extracted using a neighborhood region of the feature point, and between the two images. A method of performing object recognition using feature points having the most similar feature amounts as corresponding points is described. However, both images are affected by a background different from that of the subject, the presence of other objects, camera thermal noise, noise due to image compression error, and the like, resulting in erroneous correspondence.

そのため、点と点の対応に加えて、点群と点群の対応が幾何的に整合性を持つかどうかを検証する幾何検証によって誤対応の除去を行うことが通常である。非特許文献1に記載されている方法では、キーポイントのx座標、y座標、スケールや局所領域の回転を含む属性情報を用いて、両画像におけるキーポイント間での変化量を決定し、x座標、y座標、スケール、局所領域の回転量それぞれの変化量で定められる4次元空間に投票し、一定数以上の票を得た対応点のみを採用することで画像間での主要な二次元アフィン変換を算出して誤対応を除去する幾何検証を実現している。   Therefore, in addition to point-to-point correspondence, it is common to remove erroneous correspondence by geometric verification that verifies whether the point group-to-point group correspondence is geometrically consistent. In the method described in Non-Patent Document 1, the amount of change between key points in both images is determined using attribute information including the x-coordinate and y-coordinate of the key point, the scale, and the rotation of the local region. Voting on a four-dimensional space defined by the amount of change in coordinates, y-coordinate, scale, and rotation amount of the local area, and adopting only the corresponding points that have obtained a certain number of votes, the main two-dimensional between images It implements geometric verification that calculates the affine transformation and eliminates miscorrespondence.

図12は、2つの画像間において検出されたキーポイントから誤対応を除去する処理の概要を示す図である。図12(A)は、2つの画像(画像1、画像2)において検出したキーポイントの対応例を示す図である。図12(A)には、画像1において検出されたキーポイントが、画像2において検出されたキーポイントに誤って対応付けられている例が示されている。図12(B)は、両画像におけるキーポイント間での変化量(Δx:x座標の変化量、Δy:y座標の変化量、Δs:キーポイントを含む局所領域のスケールの変化量、Δr:局所領域の回転の変化量)で定められる4次元空間の一例を示す図である。   FIG. 12 is a diagram showing an outline of processing for removing a false correspondence from a key point detected between two images. FIG. 12A is a diagram illustrating a correspondence example of key points detected in two images (image 1 and image 2). FIG. 12A shows an example in which the key points detected in the image 1 are erroneously associated with the key points detected in the image 2. FIG. 12B shows the amount of change between key points in both images (Δx: amount of change in x-coordinate, Δy: amount of change in y-coordinate, Δs: amount of change in scale of the local region including key points, Δr: It is a figure which shows an example of the four-dimensional space defined by the variation | change_quantity of rotation of a local region.

図12(C)は、両画像におけるキーポイント間での変化量に基づいて得られる二次元アフィン変換の概要を示す図である。図12(C)では、両画像におけるキーポイント間での変化量に基づいてハート形状の図形に対する二次元アフィン変換が得られた場合が示されている。図12(D)では、図12(C)で得られた二次元アフィン変換によって、誤対応が除去された結果が示されている。図12において例示したように、非特許文献1に記載されている方法では、主要な二次元アフィン変換を算出して誤対応を除去している。   FIG. 12C is a diagram showing an outline of two-dimensional affine transformation obtained based on the amount of change between key points in both images. FIG. 12C shows a case where a two-dimensional affine transformation is obtained for a heart-shaped figure based on the amount of change between key points in both images. FIG. 12D shows a result of removing the false correspondence by the two-dimensional affine transformation obtained in FIG. As illustrated in FIG. 12, in the method described in Non-Patent Document 1, a main two-dimensional affine transformation is calculated to eliminate an erroneous correspondence.

David G. Lowe, "Distinctive Image Features from Scale-Invariant Key points", International Journal of Computer Vision, Vol.60, Issue 2, pp.91-110, November 2004David G. Lowe, "Distinctive Image Features from Scale-Invariant Key points", International Journal of Computer Vision, Vol.60, Issue 2, pp.91-110, November 2004

前述した方法では、被写体が二次元物体であるという仮定のもと、一方の画像の被写体該当部(キーポイント)と他方の画像の被写体該当部との間において、x座標、y座標、スケール及び局所領域の回転量の変化量がキーポイント間で一定になることを用いて幾何検証を実現している。そのため、被写体が三次元物体である場合、画像上では三次元的な歪みが生じるためにx座標、y座標、スケール及び局所領域の回転量の変化量がキーポイント間で一定にならず、幾何的な整合性が検証できなくなるという問題がある。   In the above-described method, the x-coordinate, y-coordinate, scale, and scale between the subject corresponding portion (key point) of one image and the subject corresponding portion of the other image are assumed on the assumption that the subject is a two-dimensional object. Geometric verification is realized using the fact that the amount of change in the rotation amount of the local region is constant between key points. Therefore, when the subject is a three-dimensional object, three-dimensional distortion occurs on the image, so that the amount of change in the x-coordinate, y-coordinate, scale, and rotation amount of the local region is not constant between key points. There is a problem in that it is impossible to verify the integrity of the image.

本発明は、上記問題を解決すべくなされたものであり、被写体が三次元物体である場合においても、同一被写体を撮影した複数の画像から得られる対応点の整合性を検証することができる幾何検証装置、幾何検証方法及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problem. Even when the subject is a three-dimensional object, the geometry that can verify the consistency of corresponding points obtained from a plurality of images obtained by photographing the same subject. An object is to provide a verification apparatus, a geometric verification method, and a program.

本発明の一態様は、同一被写体を撮影して得られた複数の画像を入力し、入力した前記画像それぞれにおいて抽出したアフィン不変キーポイントの観測方向を前記画像に基づいて決定し、前記画像間でアフィン不変キーポイントを対応付けて対応点とするアフィン変換キーポイント抽出・対応点決定部と、前記対応点それぞれにおけるアフィン不変キーポイントの観測方向の差を観測方向の変化量として推定する観測方向変化量推定部と、観測方向の次元数に対応する投票空間を所定のサイズで区切って得られるセルに含まれる観測方向の変化量の数を票数として算出し、セルに含まれる観測方向の変化量に対応する対応点を当該セルに関連付ける観測空間投票部と、票数が所定の閾値より大きいセルに関連付けられた対応点を出力する開票部とを備えることを特徴とする幾何検証装置である。   One embodiment of the present invention inputs a plurality of images obtained by photographing the same subject, determines an observation direction of affine-invariant key points extracted in each of the input images based on the images, and An affine transformation keypoint extraction / corresponding point determination unit that associates affine invariant keypoints as corresponding points, and an observation direction that estimates a difference in observation direction of the affine invariant keypoints at each of the corresponding points as an observation direction change amount Changes in the observation direction included in the cell are calculated as the number of changes in the observation direction included in the cell obtained by dividing the voting space corresponding to the number of dimensions in the observation direction and the change amount estimation unit with a predetermined size. An observation space voting unit for associating corresponding points corresponding to the quantity with the cell, and vote counting for outputting corresponding points associated with the cell whose number of votes is larger than a predetermined threshold The geometric verification device, characterized in that it comprises and.

また、本発明の一態様は、上記に記載の幾何検証装置において、前記アフィン変換キーポイント抽出・対応点決定部は、前記画像を撮影したときのカメラ姿勢であってアフィン不変キーポイントを基準とした三次元のカメラ姿勢を前記観測方向として決定し、前記観測空間投票部は、三次元の投票空間における各セルに対して観測方向の変化量に基づいた投票を行うことを特徴とする。   Further, according to one aspect of the present invention, in the geometric verification device described above, the affine transformation key point extraction / corresponding point determination unit is a camera posture when the image is captured, and is based on an affine invariant key point. The observed three-dimensional camera posture is determined as the observation direction, and the observation space voting unit performs voting on each cell in the three-dimensional voting space based on the amount of change in the observation direction.

また、本発明の一態様は、上記に記載の幾何検証装置において、前記アフィン変換キーポイント抽出・対応点決定部は、前記画像を撮影したときのカメラ姿勢であってアフィン不変キーポイントを基準とした三次元のカメラ姿勢と、前記画像を撮影したときのカメラとアフィン不変キーポイントとの距離に応じて定められるスケールとを前記観測方向として決定し、前記観測空間投票部は、四次元の空間における各セルに対して観測方向の変化量に基づいた投票を行うことを特徴とする。   Further, according to one aspect of the present invention, in the geometric verification device described above, the affine transformation key point extraction / corresponding point determination unit is a camera posture when the image is captured, and is based on an affine invariant key point. A three-dimensional camera posture and a scale determined according to the distance between the camera and the affine invariant key point when the image is taken as the observation direction, and the observation space voting unit Voting based on the amount of change in the observation direction is performed for each cell.

また、本発明の一態様は、上記に記載の幾何検証装置において、前記アフィン変換キーポイント抽出・対応点決定部は、前記画像を撮影したときのカメラ姿勢であってアフィン不変キーポイントを基準とした三次元のカメラ姿勢と、前記画像を撮影したときのカメラとアフィン不変キーポイントとの距離に応じて定められるスケールとを前記観測方向として決定し、前記観測方向変化量推定部は、アフィン不変キーポイントの観測方向の差と、前記画像におけるアフィン不変キーポイントの座標の差とを前記観測方向の変化量として推定し、前記観測空間投票部は、六次元の空間における各セルに対して観測方向の変化量に基づいた投票を行うことを特徴とする。   Further, according to one aspect of the present invention, in the geometric verification device described above, the affine transformation key point extraction / corresponding point determination unit is a camera posture when the image is captured, and is based on an affine invariant key point. A three-dimensional camera posture and a scale determined according to the distance between the camera and the affine invariant key point when the image is taken as the observation direction, and the observation direction change amount estimation unit is affine invariant The difference in the observation direction of the key point and the difference in the coordinates of the affine invariant key point in the image are estimated as the amount of change in the observation direction, and the observation space voting unit observes each cell in the six-dimensional space. Voting is performed based on the amount of change in direction.

また、本発明の一態様は、同一被写体を撮影して得られた複数の画像を入力する幾何検証装置が行う幾何検証方法であって、入力した前記画像それぞれにおいて抽出したアフィン不変キーポイントの観測方向を前記画像に基づいて決定し、前記画像間でアフィン不変キーポイントを対応付けて対応点とするアフィン変換キーポイント抽出・対応点決定ステップと、前記対応点それぞれにおけるアフィン不変キーポイントの観測方向の差を観測方向の変化量として推定する観測方向変化量推定ステップと、観測方向の次元数に対応する投票空間を所定のサイズで区切って得られるセルに含まれる観測方向の変化量の数を票数として算出し、セルに含まれる観測方向の変化量に対応する対応点を当該セルに関連付ける観測空間投票ステップと、票数が所定の閾値より大きいセルに関連付けられた対応点を出力する開票ステップとを有することを特徴とする幾何検証方法である。   Another embodiment of the present invention is a geometric verification method performed by a geometric verification apparatus that inputs a plurality of images obtained by photographing the same subject, and observes affine invariant key points extracted in each of the input images. An affine transformation key point extraction / corresponding point determination step that determines a direction based on the image and associates an affine invariant key point between the images to be a corresponding point, and an observation direction of the affine invariant key point at each of the corresponding points The observation direction change estimation step that estimates the difference between the observation directions as the amount of change in the observation direction, and the number of changes in the observation direction included in the cell obtained by dividing the voting space corresponding to the number of dimensions in the observation direction by a predetermined size An observation space voting step that calculates the number of votes and associates a corresponding point corresponding to the amount of change in the observation direction included in the cell with the cell, and a vote There is a geometric verification method characterized by having a vote counting step of outputting the corresponding points associated with larger cell than a predetermined threshold.

また、本発明の一態様は、上記に記載の幾何検証装置としてコンピュータを機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as the geometric verification apparatus described above.

本発明によれば、被写体が存在する三次元空間内で画像を撮影した際のアフィン不変キーポイントに対する観測方向の差を変化量として推定し、観測方向に応じて定められる投票空間において変化量を用いた投票を行うことにより、変化量が他の変化量と異なる対応点を除去することができ、被写体が三次元物体である場合においても同一被写体を撮影した複数の画像から得られる対応点の幾何的な整合性を検証することができる。   According to the present invention, the difference in the observation direction with respect to the affine invariant key point when an image is captured in the three-dimensional space in which the subject exists is estimated as the amount of change, and the amount of change is determined in the voting space determined according to the observation direction. By using the voting used, it is possible to remove corresponding points whose change amount is different from other change amounts, and even when the subject is a three-dimensional object, the corresponding points obtained from a plurality of images obtained by photographing the same subject The geometric consistency can be verified.

本実施形態における幾何検証装置1の構成例を示すブロック図である。It is a block diagram which shows the structural example of the geometric verification apparatus 1 in this embodiment. 本実施形態におけるアフィン変換キーポイント抽出・対応点決定部11が行う処理を示すフローチャートである。It is a flowchart which shows the process which the affine transformation key point extraction and corresponding point determination part 11 in this embodiment performs. 本実施形態における観測方向を定める座標系を示す図である。It is a figure which shows the coordinate system which determines the observation direction in this embodiment. 本実施形態における対応点属性情報記憶部12が記憶する対応点属性テーブルの例を示す図である。It is a figure which shows the example of the corresponding point attribute table which the corresponding point attribute information storage part 12 in this embodiment memorize | stores. 本実施形態における観測方向変化量推定部21が行う処理を示すフローチャートである。It is a flowchart which shows the process which the observation direction variation | change_quantity estimation part 21 in this embodiment performs. 本実施形態における観測方向変化量推定部21が算出する観測方向の変化量の概要を示す図である。It is a figure which shows the outline | summary of the variation | change_quantity of the observation direction which the observation direction variation | change_quantity estimation part 21 in this embodiment calculates. 本実施形態における観測方向変化量記憶部22が記憶する観測方向変化量テーブルの例を示す図である。It is a figure which shows the example of the observation direction change amount table which the observation direction change amount memory | storage part 22 in this embodiment memorize | stores. 本実施形態における観測空間投票部31が行う処理を示すフローチャートである。It is a flowchart which shows the process which the observation space vote part 31 in this embodiment performs. 本実施形態における観測空間投票部31が生成する投票空間の一例を示す図である。It is a figure which shows an example of the voting space which the observation space voting part 31 in this embodiment produces | generates. 本実施形態における開票部41が行う処理を示すフローチャートである。It is a flowchart which shows the process which the vote counting part 41 in this embodiment performs. 本実施形態における幾何検証装置1による処理の一例を示す図である。It is a figure which shows an example of the process by the geometric verification apparatus 1 in this embodiment. 2つの画像間において検出されたキーポイントから誤対応を除去する処理の概要を示す図である。It is a figure which shows the outline | summary of the process which removes a miscorrespondence from the key point detected between two images.

以下、図面を参照して、本発明の実施形態における幾何検証装置、幾何検証方法及びプログラムを説明する。図1は、本実施形態における幾何検証装置1の構成例を示すブロック図である。同図に示すように、幾何検証装置1は、アフィン変換キーポイント抽出・対応点決定部11、対応点属性情報記憶部12、観測方向変化量推定部21、観測方向変化量記憶部22、観測空間投票部31、投票空間情報記憶部32、開票部41、及び、開票結果記憶部42を備えている。   Hereinafter, a geometric verification apparatus, a geometric verification method, and a program according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of the geometric verification apparatus 1 according to the present embodiment. As shown in the figure, the geometric verification device 1 includes an affine transformation key point extraction / corresponding point determination unit 11, a corresponding point attribute information storage unit 12, an observation direction change amount estimation unit 21, an observation direction change amount storage unit 22, an observation. A space voting unit 31, a voting space information storage unit 32, a vote counting unit 41, and a vote counting result storage unit 42 are provided.

アフィン変換キーポイント抽出・対応点決定部11は、少なくとも2枚の画像が入力される。アフィン変換キーポイント抽出・対応点決定部11は、アフィン変換キーポイント検出器により、入力された各画像におけるキーポイントの検出し、検出したキーポイントの特徴量を抽出する。アフィン変換キーポイント抽出・対応点決定部11は、検出したキーポイントごとに、観測方向(θ,φ,ψ)を含む属性情報を決定する。   The affine transformation key point extraction / corresponding point determination unit 11 receives at least two images. The affine transformation key point extraction / corresponding point determination unit 11 detects a key point in each input image using an affine transformation key point detector, and extracts a feature amount of the detected key point. The affine transformation key point extraction / corresponding point determination unit 11 determines attribute information including the observation direction (θ, φ, ψ) for each detected key point.

また、アフィン変換キーポイント抽出・対応点決定部11は、各キーポイントの特徴量を用いて画像間の対応点を決定し、対応点を識別する対応点IDと対応点の属性情報とを関連付けて対応点属性情報記憶部12に記憶させる。アフィン変換キーポイント抽出・対応点決定部11は、各キーポイントの画像間における対応付けを行った後に、対応点属性情報記憶部12に記憶させた対応点IDと対応点の属性情報とを観測方向変化量推定部21に出力する。   Also, the affine transformation key point extraction / corresponding point determination unit 11 determines the corresponding points between the images using the feature quantities of the key points, and associates the corresponding point IDs for identifying the corresponding points with the attribute information of the corresponding points. And stored in the corresponding point attribute information storage unit 12. The affine transformation key point extraction / corresponding point determination unit 11 observes the corresponding point ID and the corresponding point attribute information stored in the corresponding point attribute information storage unit 12 after associating each key point between images. It outputs to the direction change amount estimation part 21. FIG.

対応点属性情報記憶部12は、アフィン変換キーポイント抽出・対応点決定部11が決定した対応点の対応点IDと対応点の属性情報とを関連付けて記憶する。   The corresponding point attribute information storage unit 12 stores the corresponding point ID of the corresponding point determined by the affine transformation key point extraction / corresponding point determination unit 11 and the attribute information of the corresponding point in association with each other.

観測方向変化量推定部21は、対応点IDと対応点の属性情報とをアフィン変換キーポイント抽出・対応点決定部11から入力する。観測方向変化量推定部21は、対応点を成すキーポイント間の3自由度の観測方向(θ,φ,ψ)を含む属性情報からキーポイントの観測方向の変化量を対応点ごとに算出し、対応点IDと対応点の属性情報と観測方向の変化量とを関連付けて観測方向変化量記憶部22に記憶させる。観測方向変化量推定部21は、入力した対応点IDすべてに対する観測方向の変化量を算出すると、対応点IDと属性情報及び観測方向の変化量とを関連付けて観測空間投票部31に出力する。   The observation direction change amount estimation unit 21 inputs the corresponding point ID and the attribute information of the corresponding point from the affine transformation key point extraction / corresponding point determination unit 11. The observation direction change amount estimation unit 21 calculates the change amount of the key point observation direction for each corresponding point from the attribute information including the observation directions (θ, φ, ψ) of three degrees of freedom between the key points forming the corresponding point. The corresponding point ID, the attribute information of the corresponding point, and the change amount of the observation direction are associated with each other and stored in the observation direction change amount storage unit 22. When the observation direction change amount estimation unit 21 calculates the change amount of the observation direction with respect to all the input corresponding point IDs, the observation direction change amount estimation unit 21 associates the corresponding point ID with the attribute information and the change amount of the observation direction and outputs them to the observation space voting unit 31.

観測方向変化量記憶部22は、観測方向変化量推定部21が算出する観測方向の変化量と、対応点IDと対応点の属性情報とを関連付けて記憶する。   The observation direction change amount storage unit 22 stores the observation direction change amount calculated by the observation direction change amount estimation unit 21, the corresponding point ID, and the corresponding point attribute information in association with each other.

観測空間投票部31は、対応点IDに関連付けられた属性情報及び観測方向の変化量を観測方向変化量推定部21から入力する。観測空間投票部31は、観測方向に基づいた投票空間を示す投票空間情報を投票空間情報記憶部32に生成し、当該投票空間において観測方向の変化量に基づいた投票を行って投票空間情報を更新する。観測空間投票部31は、観測方向の変化量に基づいた投票を行う際に、当該変化量に関連付けられている対応点IDを投票空間のセルに関連付ける。観測空間投票部31は、入力した観測方向の変化量すべてを用いた投票を行うと、投票空間情報を開票部41に出力する。   The observation space voting unit 31 inputs the attribute information associated with the corresponding point ID and the change amount of the observation direction from the observation direction change amount estimation unit 21. The observation space voting unit 31 generates voting space information indicating the voting space based on the observation direction in the voting space information storage unit 32, and performs voting based on the change amount of the observation direction in the voting space to obtain the voting space information. Update. The observation space voting unit 31 associates the corresponding point ID associated with the change amount with a cell in the voting space when voting based on the change amount of the observation direction. The observation space voting unit 31 outputs the voting space information to the vote counting unit 41 when voting is performed using all the input change amounts of the observation direction.

投票空間情報記憶部32は、観測空間投票部31が生成する投票空間情報を記憶する。投票空間情報は、例えば観測方向を示す次元で定められる空間を一定のサイズで得られるセルごとに、投票数及び対応点IDを記憶する領域を割り当てた配列として構成される。   The voting space information storage unit 32 stores voting space information generated by the observation space voting unit 31. The voting space information is configured, for example, as an array in which an area for storing the number of votes and the corresponding point ID is assigned to each cell obtained with a fixed size in a space defined by a dimension indicating the observation direction.

開票部41は、投票空間情報を観測空間投票部31から入力する。開票部41は、入力した投票空間情報における各セルに関連付けられた票数を読み出す。開票部41は、読み出した票数が所定の閾値より大きい場合に、対応するセルに関連付けられている対応点IDと読み出した票数とを関連付けて開票結果記憶部42に記憶させる。開票部41は、すべてのセルの票数を読み出した後に、開票結果記憶部42に記憶されている対応点IDに関連付けられている対応点を検証済みの対応点として出力するとともに、当該対応点の票数を出力する。
開票結果記憶部42は、閾値より多い投票がなされたセルに対応付けられた対応点IDと、当該セルの投票数とを関連付けて記憶する。
The vote counting unit 41 inputs the voting space information from the observation space voting unit 31. The vote counting unit 41 reads the number of votes associated with each cell in the input voting space information. When the number of votes read out is larger than a predetermined threshold value, the vote counting unit 41 associates the corresponding point ID associated with the corresponding cell with the number of read votes and stores it in the vote counting result storage unit 42. After reading the number of votes of all cells, the vote-tick unit 41 outputs the corresponding points associated with the corresponding point IDs stored in the vote-tick result storage unit 42 as verified corresponding points, and Output the number of votes.
The vote counting result storage unit 42 stores the corresponding point ID associated with the cell in which more votes than the threshold have been made and the number of votes of the cell in association with each other.

以下、幾何検証装置1が備える各部における処理の詳細について説明する。図2は、本実施形態におけるアフィン変換キーポイント抽出・対応点決定部11が行う処理を示すフローチャートである。アフィン変換キーポイント抽出・対応点決定部11は、処理を開始すると、少なくとも2枚以上の画像を入力する(ステップS11)。   Hereinafter, details of processing in each unit included in the geometric verification apparatus 1 will be described. FIG. 2 is a flowchart showing processing performed by the affine transformation key point extraction / corresponding point determination unit 11 in the present embodiment. When the processing is started, the affine transformation key point extraction / corresponding point determination unit 11 inputs at least two images (step S11).

アフィン変換キーポイント抽出・対応点決定部11は、入力した各画像からアフィン不変キーポイント及び特徴量を抽出する(ステップS12)。ここで、アフィン不変キーポイントは、画像に含まれている局所特徴であってアフィン変換に対する不変性を有する局所特徴である。アフィン不変キーポイントは、例えば、次の参考文献1に記載されている方法を用いることにより画像から抽出できる。また、参考文献に記載されている方法に代えてMSER、Harris−Affine、Hessian−Affineなどの公知の方法を用いてアフィン不変キーポイントを画像から抽出してもよい。
[参考文献1]Jean-Michel Morel, Guoshen Yu, "ASIFT: A New Framework for Fully Affine Invariant Image Comparison", Journal SIAM Journal on Imaging Sciences, Volume 2, Issue 2, pp.438-469, April 2009
The affine transformation key point extraction / corresponding point determination unit 11 extracts affine invariant key points and feature amounts from the input images (step S12). Here, the affine invariant key points are local features included in the image and have invariance to the affine transformation. The affine invariant key points can be extracted from the image by using the method described in Reference Document 1 below, for example. Moreover, you may extract an affine invariant key point from an image using well-known methods, such as MSER, Harris-Affine, and Hessian-Affine, instead of the method described in the reference literature.
[Reference 1] Jean-Michel Morel, Guoshen Yu, "ASIFT: A New Framework for Fully Affine Invariant Image Comparison", Journal SIAM Journal on Imaging Sciences, Volume 2, Issue 2, pp.438-469, April 2009

アフィン変換キーポイント抽出・対応点決定部11は、抽出したアフィン不変キーポイントごとに少なくとも観測方向(θ,φ,ψ)を決定し、決定した観測方向(θ,φ,ψ)を含む属性情報をキーポイントに関連付けて対応点属性情報記憶部12に記憶させる(ステップS13)。図3は、本実施形態における観測方向を定める座標系を示す図である。同図に示すように、任意の点(例えばアフィン不変キーポイント)を原点としたときに、原点を観測する方向が観測方向(θ,φ,ψ)となる。原点を中心とした球面を仮定したとき、観測点から原点を観測した際に観測点と原点とを結ぶ直線が球面と交わる位置に対する経度がθであり、緯度がφである。ψは観測点と原点を結ぶ直線を軸にした回転量である。観測方向(θ,φ,ψ)は、アフィン不変キーポイント(特徴点)を基準にしたカメラ姿勢になる。なお、画像を撮影したときのアフィン不変キーポイントを基準にしたカメラ姿勢を特定できる座標系であれば図3に示した座標系以外の座標系であってもよい。   The affine transformation key point extraction / corresponding point determination unit 11 determines at least an observation direction (θ, φ, ψ) for each extracted affine invariant key point, and includes attribute information including the determined observation direction (θ, φ, ψ). Is associated with the key point and stored in the corresponding point attribute information storage unit 12 (step S13). FIG. 3 is a diagram showing a coordinate system for determining the observation direction in the present embodiment. As shown in the figure, when an arbitrary point (for example, an affine invariant key point) is set as the origin, the direction in which the origin is observed becomes the observation direction (θ, φ, ψ). Assuming a spherical surface centered on the origin, when the origin is observed from the observation point, the longitude with respect to the position where the straight line connecting the observation point and the origin intersects the spherical surface is θ, and the latitude is φ. ψ is the amount of rotation about a straight line connecting the observation point and the origin. The observation direction (θ, φ, ψ) is a camera posture based on affine invariant key points (feature points). Note that a coordinate system other than the coordinate system shown in FIG. 3 may be used as long as the coordinate system can specify the camera posture based on the affine invariant key point when the image is captured.

観測方向(θ,φ,ψ)は、画像間におけるアフィン不変キーポイントの(x,y)座標変換を示す次式(1)の変換行列Aを分解することで、観測点に位置するカメラの動きとして次式(2)におけるθ、φ及びψとして得ることができる。なお、式(2)におけるsは、変換行列Aの行列式(determinant)である。   The observation direction (θ, φ, ψ) is obtained by decomposing the transformation matrix A of the following equation (1) indicating the (x, y) coordinate transformation of the affine invariant key points between the images, so that the camera located at the observation point is analyzed. The motion can be obtained as θ, φ, and ψ in the following equation (2). Note that s in Expression (2) is a determinant of the transformation matrix A.

Figure 0006014008
Figure 0006014008

Figure 0006014008
Figure 0006014008

θ、φ及びψの決定は、アフィン不変キーポイントの決定において参考文献1に記載されているように、原画像の回転や縦方向もしくは横方向の縮小によりθ及びφをシミュレートした画像を生成し、生成した画像からスケールsとψ周りの回転に不変なSIFT、SURFなどの局所特徴を抽出する場合は、抽出したψ周りの属性情報込みのキーポイントにシミュレート画像生成時に用いたθ及びφを関連付けることで実現できる。また、MSER、Harris−Affine、Hessian−Affine、Salient Regionなど、アフィン領域を検出すタイプのアフィン不変キーポイント検出器を用いる場合は、検出されたアフィン領域(楕円領域)の長軸と短軸との向き、長さの比からθ、φ及びψを算出することで実現できる。なお、スケールsは、画像を撮影したときのアフィン不変キーポイントとカメラとの距離に応じた値となる。   The determination of θ, φ, and ψ generates an image that simulates θ and φ by rotating the original image or reducing it in the vertical or horizontal direction, as described in Reference 1 in determining affine invariant key points. When extracting local features such as SIFT and SURF that are invariant to rotation around the scale s and ψ from the generated image, the key points including attribute information around the extracted ψ are θ and This can be realized by associating φ. In addition, when using an affine invariant key point detector of a type that detects an affine region, such as MSER, Harris-Affine, Hessian-Affine, and Salient Region, the major axis and minor axis of the detected affine region (elliptical region) This can be realized by calculating θ, φ, and ψ from the ratio of the direction and length. The scale s is a value corresponding to the distance between the affine invariant key point and the camera when the image is captured.

なお、アフィン変換キーポイント抽出・対応点決定部11は、属性情報をキーポイントに関連付けて対応点属性情報記憶部12に記憶させる際に、アフィン不変キーポイント検出時に算出したスケールsも属性情報に含めるようにしてもよい。以下、スケールsも属性情報に含める場合について説明する。   When the affine transformation key point extraction / corresponding point determination unit 11 associates the attribute information with the key point and stores it in the corresponding point attribute information storage unit 12, the scale s calculated when the affine invariant key point is detected is also included in the attribute information. It may be included. Hereinafter, a case where the scale s is also included in the attribute information will be described.

アフィン変換キーポイント抽出・対応点決定部11は、入力された画像間でアフィン不変キーポイントの特徴量を用いて対応点(画像間で組み合わされるアフィン不変キーポイント)を決定し、対応点属性情報記憶部12に記憶させる(ステップS14)。対応点を決定する処理は、非特許文献1に記載の方法や参考文献1に記載の方法などの公知の方法を用いて行うことができる。   The affine transformation key point extraction / corresponding point determination unit 11 determines corresponding points (affine invariant key points combined between images) using the feature quantities of the affine invariant key points between the input images, and corresponding point attribute information. It memorize | stores in the memory | storage part 12 (step S14). The process of determining the corresponding points can be performed using a known method such as the method described in Non-Patent Document 1 or the method described in Reference Document 1.

アフィン変換キーポイント抽出・対応点決定部11は、対応点属性情報記憶部12が記憶している対応点IDに関連付けられた対応点の属性情報を観測方向変化量推定部21に出力し(ステップS15)、処理を終了する。   The affine transformation key point extraction / corresponding point determination unit 11 outputs the attribute information of the corresponding point associated with the corresponding point ID stored in the corresponding point attribute information storage unit 12 to the observation direction change amount estimation unit 21 (step S15), the process is terminated.

図4は、本実施形態における対応点属性情報記憶部12が記憶する対応点属性テーブルの例を示す図である。同図には、2枚の画像がアフィン変換キーポイント抽出・対応点決定部11に入力された場合の例が示されている。対応点属性テーブルは、対応点IDと、対応点の座標(x,y)、s、θ、φ、及びψを含む属性情報との各項目の列を有している。対応点の座標(x,y)は画像上におけるアフィン不変キーポイント(対応点)の座標である。sは前述のスケールsであり、θ、φ及びψは観測方向(θ,φ,ψ)である。対応点属性テーブルの行は対応点ごとに存在し、入力された2つの画像のうち一方の画像の対応点の属性情報と、他方の画像の対応点の属性情報とが1つの対応点IDに関連付けられている。例えば、対応点ID「2」には、一方の画像の対応点の属性情報(x,y,s,θ,φ,ψ)=(40,40,2,40,70,30)と、他方の画像の対応点の属性情報(x’,y’,s,θ,φ,ψ)=(15,20,3,60,100,90)とが関連付けられている。   FIG. 4 is a diagram illustrating an example of a corresponding point attribute table stored in the corresponding point attribute information storage unit 12 according to the present embodiment. The figure shows an example in which two images are input to the affine transformation key point extraction / corresponding point determination unit 11. The corresponding point attribute table has columns of items of corresponding point IDs and attribute information including the coordinates (x, y), s, θ, φ, and ψ of the corresponding points. The coordinates (x, y) of the corresponding points are the coordinates of the affine invariant key points (corresponding points) on the image. s is the above-described scale s, and θ, φ, and ψ are observation directions (θ, φ, ψ). A corresponding point attribute table row exists for each corresponding point, and the attribute information of the corresponding point of one of the two input images and the attribute information of the corresponding point of the other image form one corresponding point ID. Associated. For example, the corresponding point ID “2” includes attribute information (x, y, s, θ, φ, ψ) = (40, 40, 2, 40, 70, 30) of one image and the other. Is associated with attribute information (x ′, y ′, s, θ, φ, ψ) = (15, 20, 3, 60, 100, 90) of the corresponding image.

図5は、本実施形態における観測方向変化量推定部21が行う処理を示すフローチャートである。観測方向変化量推定部21は、アフィン変換キーポイント抽出・対応点決定部11が検出した対応点の対応点IDと各対応点の属性情報を入力し(ステップS21)、対応点IDと各対応点の属性情報を関連付けて観測方向変化量記憶部22に記憶させる。   FIG. 5 is a flowchart showing processing performed by the observation direction change amount estimation unit 21 in the present embodiment. The observation direction change amount estimation unit 21 inputs the corresponding point ID of the corresponding point detected by the affine transformation key point extraction / corresponding point determination unit 11 and the attribute information of each corresponding point (step S21), and the corresponding point ID and each corresponding point. The point attribute information is associated and stored in the observation direction change amount storage unit 22.

観測方向変化量推定部21は、観測方向変化量記憶部22が記憶している対応点IDすべてに対して観測方向の変化量を算出する処理を終えたか否かを判定する(ステップS22)。
対応点IDすべてに対して処理を終えていない場合(ステップS22:NO)、観測方向変化量推定部21は、観測方向の変化量を算出していない対応点を選択する(ステップS23)。
観測方向変化量推定部21は、ステップS23で選択した対応点の属性情報から、少なくとも観測方向(θ,φ,ψ)の3自由度の差分を含む観測方向の変化量を算出する(ステップS24)。
The observation direction change amount estimation unit 21 determines whether or not the process of calculating the observation direction change amount has been completed for all the corresponding point IDs stored in the observation direction change amount storage unit 22 (step S22).
If the processing has not been completed for all corresponding point IDs (step S22: NO), the observation direction change amount estimation unit 21 selects a corresponding point for which the observation direction change amount is not calculated (step S23).
The observation direction change amount estimation unit 21 calculates an observation direction change amount including at least a difference of three degrees of freedom of the observation directions (θ, φ, ψ) from the attribute information of the corresponding points selected in step S23 (step S24). ).

図6は、本実施形態における観測方向変化量推定部21が算出する観測方向の変化量の概要を示す図である。ここでは、同一被写体を異なる方向から撮影した画像1と画像2との間で既にアフィン不変キーポイントとその属性情報とが抽出されているものとする。まず、アフィン変換キーポイントが抽出された三次元空間中の被写体上の一点aについて考える。点aに該当する対応点のうち画像1上での点aの属性情報が(θ1a,φ1a,ψ1a)であり、画像2上での点aの属性情報が(θ2a,φ2a,ψ2a)であった場合、図6に示す被写体を観測する3自由度の観測球上では観測方向#1a及び観測方向#2aが画像1及び画像2に対応する。 FIG. 6 is a diagram showing an overview of the change amount in the observation direction calculated by the observation direction change amount estimation unit 21 in the present embodiment. Here, it is assumed that an affine invariant key point and its attribute information have already been extracted between image 1 and image 2 obtained by photographing the same subject from different directions. First, consider a point a on a subject in a three-dimensional space from which affine transformation key points are extracted. Among the corresponding points corresponding to the point a, the attribute information of the point a on the image 1 is (θ 1a , φ 1a , ψ 1a ), and the attribute information of the point a on the image 2 is (θ 2a , φ 2a , Ψ 2a ), the observation direction # 1a and the observation direction # 2a correspond to the image 1 and the image 2 on the observation sphere having three degrees of freedom for observing the subject shown in FIG.

なお、三次元空間中の被写体上の点aと異なる点bについては、三次元空間から画像(二次元空間)への射影変換歪みの影響を受けて、観測方向#1a及び観測方向#2aとは異なる観測方向#1bや観測方向#2bが得られる。しかし、画像1と画像2とを撮影したカメラの動きは一意であり、そのためアフィン変換キーポイントの観測方向の変化量は一定となる。すなわち、2枚の画像間での対応点は、その対応が正確であれば対応点の属性情報から算出される観測方向の変化量は常に同じ値となる。逆に対応が不正確であれば、変化量が異なることになる。   Note that a point b different from the point a on the subject in the three-dimensional space is affected by the projection transformation distortion from the three-dimensional space to the image (two-dimensional space), and the observation direction # 1a and the observation direction # 2a Obtain different observation directions # 1b and # 2b. However, the movement of the camera that captured the image 1 and the image 2 is unique, and therefore the amount of change in the observation direction of the affine transformation key point is constant. That is, if the correspondence between two images is accurate, the amount of change in the observation direction calculated from the attribute information of the corresponding point is always the same value. Conversely, if the correspondence is inaccurate, the amount of change will be different.

観測方向の変化量(Δθ,Δφ,Δψ)は、画像2を基準にした場合は(Δθ=θ2a−θ1a,Δφ=φ2a−φ1a,Δψ=ψ2a−ψ1a)として算出できる。画像1を基準にした場合は(Δθ=θ1a−θ2a,Δφ=φ1a−φ2a,Δψ=ψ1a−ψ2a)として算出できる。なお、スケールの変化量を考慮した幾何検証を行うために、スケールの変化量Δs=s−s又はΔs=s−sを算出し、観測方向の変化量に含めるようにしてもよい。また、画像上における対応点の座標(x,y)の変化量(Δx,Δy)を同様に算出し、観測方向の変化量に含める様にしてもよい。 The amount of change in viewing direction (Δθ, Δφ, Δψ), the case where the image 2 as a reference can be calculated as (Δθ = θ 2a -θ 1a, Δφ = φ 2a -φ 1a, Δψ = ψ 2a -ψ 1a) . If the image 1 as a reference can be calculated as (Δθ = θ 1a -θ 2a, Δφ = φ 1a -φ 2a, Δψ = ψ 1a -ψ 2a). In order to perform geometric verification in consideration of the change amount of the scale, the change amount Δs = s 1 −s 2 or Δs = s 2 −s 1 of the scale is calculated and included in the change amount in the observation direction. Good. Further, the change amount (Δx, Δy) of the coordinates (x, y) of the corresponding point on the image may be calculated in the same manner and included in the change amount in the observation direction.

観測方向変化量推定部21は、算出した観測方向の変化量を対応点IDに関連付けて観測方向変化量記憶部22に記憶させ、当該対応点IDに対して処理済みのフラグを設定し(ステップS25)、処理をステップS22に戻す。   The observation direction change amount estimation unit 21 stores the calculated observation direction change amount in the observation direction change amount storage unit 22 in association with the corresponding point ID, and sets a processed flag for the corresponding point ID (step S21). S25), the process returns to step S22.

ステップS22における判定で、対応点IDすべてに対して処理を終えていた場合(ステップS22:YES)、観測方向変化量推定部21は、観測方向変化量記憶部22に記憶されている対応点IDすべてとそれらの属性情報及び観測方向の変化量とを関連付けて、観測空間投票部31に出力し(ステップS26)、処理を終了する。   When it is determined in step S22 that all the corresponding point IDs have been processed (step S22: YES), the observation direction change amount estimation unit 21 stores the corresponding point IDs stored in the observation direction change amount storage unit 22. All of them are associated with their attribute information and the amount of change in the observation direction and output to the observation space voting unit 31 (step S26), and the process is terminated.

図7は、本実施形態における観測方向変化量記憶部22が記憶する観測方向変化量テーブルの例を示す図である。観測方向変化量テーブルは、対応点IDと、対応点の座標(x,y)、s、θ、φ及びψを含む属性情報と、Δs、Δθ、Δφ及びΔψを含む観測方向の変化量との各項目の列を有している。観測方向変化量テーブルの行は対応点IDごとに存在する。対応点IDには、対応点を成すアフィン不変キーポイントそれぞれの属性情報と、観測方向の変化量とが関連付けられている。例えば、対応点ID「2」には、対応点を成す一方のキーポイントの属性情報(x,y,s,θ,φ,ψ)=(40,40,2,40,70,30)と、他方のキーポイントの属性情報(x’,y’,s,θ,φ,ψ)=(15,20,3,60,100,90)と、観測方向の変化量(Δs,Δθ,Δφ,Δψ)=(1,20,30,60)とが関連付けられている。   FIG. 7 is a diagram illustrating an example of an observation direction change amount table stored in the observation direction change amount storage unit 22 according to the present embodiment. The observation direction change amount table includes the corresponding point ID, the attribute information including the coordinates (x, y) of the corresponding point, s, θ, φ, and ψ, and the change amount of the observation direction including Δs, Δθ, Δφ, and Δψ. It has a column of each item. A row of the observation direction change amount table exists for each corresponding point ID. The corresponding point ID is associated with attribute information of each affine invariant key point that forms the corresponding point and the amount of change in the observation direction. For example, the corresponding point ID “2” includes attribute information (x, y, s, θ, φ, ψ) = (40, 40, 2, 40, 70, 30) of one key point forming the corresponding point. , Attribute information (x ′, y ′, s, θ, φ, ψ) of the other key point = (15, 20, 3, 60, 100, 90) and the change amount (Δs, Δθ, Δφ in the observation direction) , Δψ) = (1, 20, 30, 60).

図8は、本実施形態における観測空間投票部31が行う処理を示すフローチャートである。観測空間投票部31は、各対応点IDに関連付けられた属性情報及び観測方向の変化量を観測方向変化量推定部21から入力する(ステップS31)。
観測空間投票部31は、少なくとも観測方向の変化量(Δθ,Δφ,Δψ)から成る投票空間を示す投票空間情報を投票空間情報記憶部32に生成し、当該投票空間における各セルに対応する情報を初期化する(ステップS32)。
FIG. 8 is a flowchart showing processing performed by the observation space voting unit 31 in the present embodiment. The observation space voting unit 31 inputs the attribute information associated with each corresponding point ID and the amount of change in the observation direction from the observation direction change amount estimation unit 21 (step S31).
The observation space voting unit 31 generates, in the voting space information storage unit 32, voting space information indicating a voting space including at least the amount of change (Δθ, Δφ, Δψ) in the observation direction, and information corresponding to each cell in the voting space. Is initialized (step S32).

図9は、本実施形態における観測空間投票部31が生成する投票空間の一例を示す図である。同図に示す投票空間は、3自由度の観測方向から成る三次元空間である。観測空間投票部31は、投票空間をΔθ、Δφ、Δψの三次元空間を一定サイズで区切って得られる複数のセルごとに対応する記憶領域を投票空間情報記憶部32に確保して投票空間情報を生成する。すなわち、投票空間情報は投票空間の次元数に応じて定められる配列をデータ構造する情報である。なお、観測空間投票部31は、Δsを更に加えた四次元空間で投票空間を生成してもよい。また、Δx及びΔyを更に加えた六次元空間で投票空間を生成してもよい。あるいは、観測空間投票部31は、ΔθとΔφとの二次元空間で投票空間を生成してもよい。各セルに対応する情報の初期化は、例えば各セルに対応する記憶領域に記憶させる票数を0(ゼロ)にすることである。   FIG. 9 is a diagram illustrating an example of a voting space generated by the observation space voting unit 31 in the present embodiment. The voting space shown in the figure is a three-dimensional space composed of observation directions with three degrees of freedom. The observation space voting unit 31 secures a storage area corresponding to each of a plurality of cells obtained by dividing the three-dimensional space of Δθ, Δφ, and Δψ into a certain size in the voting space information storage unit 32 and voting space information. Is generated. In other words, the voting space information is information that data structures an array determined according to the number of dimensions of the voting space. The observation space voting unit 31 may generate a voting space in a four-dimensional space to which Δs is further added. Further, the voting space may be generated in a six-dimensional space to which Δx and Δy are further added. Alternatively, the observation space voting unit 31 may generate a voting space in a two-dimensional space of Δθ and Δφ. The initialization of the information corresponding to each cell is, for example, to set the number of votes stored in the storage area corresponding to each cell to 0 (zero).

観測空間投票部31は、入力されたすべての対応点に関連付けられた観測方向の変化量を用いて処理を終えたか否かを判定する(ステップS33)。
すべての対応点に対して処理を終えていない場合(ステップS33:NO)、観測空間投票部31は、処理を行っていない対応点を選択し(ステップS34)、選択した対応点に関連付けられた観測方向の変化量に対応するセルの票数に「1」を加算する(ステップS35)。
The observation space voting unit 31 determines whether or not the processing has been completed using the amount of change in the observation direction associated with all the input corresponding points (step S33).
When processing has not been completed for all corresponding points (step S33: NO), the observation space voting unit 31 selects a corresponding point that has not been processed (step S34), and is associated with the selected corresponding point. “1” is added to the number of votes of the cell corresponding to the amount of change in the observation direction (step S35).

観測空間投票部31は、ステップS35において票を加算したセルに対して、ステップS34において選択した対応点の対応点IDを関連付ける(ステップS36)。具体的には、観測空間投票部31は、票を加算したセルに対応する記憶領域に対応点IDを記憶させる。
観測空間投票部31は、選択した対応点に対して処理済みのフラグを設定し(ステップS37)、処理をステップS33に戻す。
The observation space voting unit 31 associates the corresponding point ID of the corresponding point selected in step S34 with the cell to which the vote has been added in step S35 (step S36). Specifically, the observation space voting unit 31 stores the corresponding point ID in the storage area corresponding to the cell to which the vote is added.
The observation space voting unit 31 sets a processed flag for the selected corresponding point (step S37), and returns the process to step S33.

ステップS33における判定で、すべての対応点に対して処理を終えていた場合(ステップS33:YES)、観測空間投票部31は、投票空間情報記憶部32に記憶されている投票空間情報と、各対応点IDに関連付けられた属性情報とを開票部41に出力し(ステップS38)、処理を終了する。   In the determination in step S33, when the processing has been completed for all corresponding points (step S33: YES), the observation space voting unit 31 includes the voting space information stored in the voting space information storage unit 32, The attribute information associated with the corresponding point ID is output to the vote counting unit 41 (step S38), and the process ends.

図10は、本実施形態における開票部41が行う処理を示すフローチャートである。開票部41は、投票空間情報と、各対応点IDに関連付けられた属性情報とを観測空間投票部31から入力する(ステップS41)。
開票部41は、入力した投票空間情報に含まれるセルであって票が存在するセルすべてについて処理を終えたか否かを判定する(ステップS42)。
FIG. 10 is a flowchart showing the processing performed by the vote-tapping unit 41 in the present embodiment. The vote counting unit 41 inputs the voting space information and the attribute information associated with each corresponding point ID from the observation space voting unit 31 (step S41).
The vote-voting unit 41 determines whether or not the processing has been completed for all cells that are included in the input voting space information and that have a vote (step S42).

セルすべてについて処理を終えていない場合(ステップS42:NO)、開票部41は、処理を終えていないセルを処理の対象に選択して当該セルに対応する記憶領域から票数を読み出す(ステップS43)。
開票部41は、読み出した票数が所定の閾値より大きいか否かを判定し(ステップS44)、読み出した票数が閾値以下である場合(ステップS44:NO)、処理をステップS47に進める。なお、閾値は例えばアフィン変換キーポイント抽出・対応点決定部11において検出されたアフィン不変キーポイントの数に応じて定めるようにしてもよい。具体的には、検出された対応点数の半数や8割に対応する値を閾値としてもよい。
If the processing has not been completed for all the cells (step S42: NO), the vote-opening unit 41 selects a cell that has not been processed as a processing target and reads out the number of votes from the storage area corresponding to the cell (step S43). .
The vote opening part 41 determines whether or not the read number of votes is larger than a predetermined threshold (step S44), and if the read number of votes is equal to or less than the threshold (step S44: NO), the process proceeds to step S47. The threshold value may be determined according to the number of affine invariant key points detected by the affine transformation key point extraction / corresponding point determination unit 11, for example. Specifically, half of the detected number of corresponding points or a value corresponding to 80% may be used as the threshold value.

ステップS44における判定で、読み出した票数が閾値より大きい場合(ステップS44:YES)、開票部41は、処理の対象に選択しているセルに関連付けられている対応点IDすべてを投票空間情報から読み出す(ステップS45)。
開票部41は、読み出した対応点IDごとに、処理の対象に選択しているセルの票数を関連付けて開票結果記憶部42に記憶させる(ステップS46)。
開票部41は、処理の対象に選択しているセルに対して処理済みのフラグを設定し(ステップS47)、処理をステップS42に戻す。
If it is determined in step S44 that the number of votes read is larger than the threshold (step S44: YES), the vote-voting unit 41 reads all the corresponding point IDs associated with the cell selected as the processing target from the voting space information. (Step S45).
For each corresponding point ID that has been read, the vote-tick unit 41 associates the number of votes of the selected cell with the processing target and stores it in the vote-tick result storage unit 42 (step S46).
The vote-tick part 41 sets a processed flag for the cell selected as the processing target (step S47), and returns the process to step S42.

ステップS42における判定で、セルすべてについて処理を終えていた場合(ステップS42:YES)、開票部41は、開票結果記憶部42に記憶されている対応点IDに関連付けられている対応点の属性情報に含まれる座標を検証済み対応点として出力するとともに、当該対応点IDに関連付けられている票数を出力し(ステップS48)、処理を終了する。   If it is determined in step S42 that the processing has been completed for all the cells (step S42: YES), the vote-voting unit 41 has attribute information of the corresponding points associated with the corresponding point IDs stored in the vote-voting result storage unit 42. Are output as verified corresponding points, and the number of votes associated with the corresponding point ID is output (step S48), and the process is terminated.

上述の処理を開票部41が行うことにより、幾何検証装置1に入力した複数の画像それぞれにおいて検出されたアフィン不変キーポイントの画像上における座標の組み合わせが、検証済み対応点として得られることになる。   By performing the above-described processing by the vote counting unit 41, a combination of coordinates on the image of the affine invariant key points detected in each of the plurality of images input to the geometric verification device 1 can be obtained as verified corresponding points. .

本実施形態の幾何検証装置1によれば、観測方向の変化量に基づいた投票と投票結果に基づく観測方向の変化量の選択とにより、観測方向の変化量が他の観測方向の変化量と異なるもの、すなわち不正確な対応点の組み合わせを除外することができる。   According to the geometric verification device 1 of the present embodiment, the change in the observation direction is changed from the change in the other observation direction by voting based on the change in the observation direction and selecting the change in the observation direction based on the voting result. Different, i.e. inaccurate combinations of corresponding points can be excluded.

図11は、本実施形態における幾何検証装置1による処理の一例を示す図である。同図には、(A)幾何検証前の対応点の例、すなわちアフィン変換キーポイント抽出・対応点決定部11の処理結果と、(B)幾何検証後の対応点の例、すなわち開票部41の処理結果とが示されている。同図に示すように、対応点に関連付けられている観測方向の変化量が他の観測方向の変化量と異なるものが除去され、適切な対応点のみが幾何検証装置1の出力として得られることが分かる。   FIG. 11 is a diagram illustrating an example of processing performed by the geometric verification apparatus 1 according to the present embodiment. The figure shows (A) an example of corresponding points before geometric verification, that is, the processing result of the affine transformation key point extraction / corresponding point determination unit 11, and (B) an example of corresponding points after geometric verification, that is, the vote counting unit 41. The processing result is shown. As shown in the figure, the change in the observation direction associated with the corresponding point is different from the change in the other observation direction, and only an appropriate corresponding point is obtained as the output of the geometric verification device 1. I understand.

上述した実施形態における幾何検証装置1をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。更に「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、更に前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve the geometric verification apparatus 1 in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” is a program that dynamically holds a program for a short time, like a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、本発明を実施形態の例に基づき具体的に説明したが、上述の実施形態の説明は、本発明を説明するためのものであって、特許請求の範囲に記載の発明を限定しあるいは範囲を減縮するように解すべきではない。また、本発明の各手段構成は上述の実施形態に限らず、特許請求の範囲に記載の技術的範囲内で種々の変形が可能であることは勿論である。   The present invention has been specifically described above based on the example of the embodiment. However, the above description of the embodiment is for explaining the present invention, and limits the invention described in the claims. It should not be construed as reducing the scope. Moreover, each means structure of this invention is not restricted to the above-mentioned embodiment, Of course, various deformation | transformation are possible within the technical scope as described in a claim.

画像処理などによって、同一被写体を撮影した複数の画像から得られる対応点の整合性を検証するが不可欠な用途にも適用できる。   Although it is possible to verify the consistency of corresponding points obtained from a plurality of images obtained by photographing the same subject by image processing or the like, it can also be applied to indispensable uses.

1…幾何検証装置
11…アフィン変換キーポイント抽出・対応点決定部
12…対応点属性情報記憶部
21…観測方向変化量推定部
22…観測方向変化量記憶部
31…観測空間投票部
32…投票空間情報記憶部
41…開票部
42…開票結果記憶部
DESCRIPTION OF SYMBOLS 1 ... Geometric verification apparatus 11 ... Affine transformation key point extraction and corresponding point determination part 12 ... Corresponding point attribute information storage part 21 ... Observation direction change amount estimation part 22 ... Observation direction change amount storage part 31 ... Observation space voting part 32 ... Vote Spatial information storage unit 41 ... voting unit 42 ... voting result storage unit

Claims (6)

同一被写体を撮影して得られた複数の画像を入力し、入力した前記画像それぞれにおいて抽出したアフィン不変キーポイントの観測方向を前記画像に基づいて決定し、前記画像間でアフィン不変キーポイントを対応付けて対応点とするアフィン変換キーポイント抽出・対応点決定部と、
前記対応点それぞれにおけるアフィン不変キーポイントの観測方向の差を観測方向の変化量として推定する観測方向変化量推定部と、
観測方向の次元数に対応する投票空間を所定のサイズで区切って得られるセルに含まれる観測方向の変化量の数を票数として算出し、セルに含まれる観測方向の変化量に対応する対応点を当該セルに関連付ける観測空間投票部と、
票数が所定の閾値より大きいセルに関連付けられた対応点を出力する開票部と
を備えることを特徴とする幾何検証装置。
Input multiple images obtained by photographing the same subject, determine the observation direction of affine invariant key points extracted in each of the input images based on the images, and correspond affine invariant key points between the images Affine transformation key point extraction / corresponding point determination unit to be used as corresponding points,
An observation direction change amount estimation unit that estimates a difference in observation direction of an affine invariant keypoint at each of the corresponding points as a change amount in the observation direction;
The number of changes in the observation direction contained in the cell obtained by dividing the voting space corresponding to the number of dimensions in the observation direction by a predetermined size is calculated as the number of votes, and the corresponding points corresponding to the change in the observation direction contained in the cell An observation space voting unit that associates
A geometric verification device comprising: a vote-opening unit that outputs a corresponding point associated with a cell whose number of votes is greater than a predetermined threshold.
請求項1に記載の幾何検証装置であって、
前記アフィン変換キーポイント抽出・対応点決定部は、
前記画像を撮影したときのカメラ姿勢であってアフィン不変キーポイントを基準とした三次元のカメラ姿勢を前記観測方向として決定し、
前記観測空間投票部は、
三次元の投票空間における各セルに対して観測方向の変化量に基づいた投票を行う
ことを特徴とする幾何検証装置。
The geometric verification device according to claim 1,
The affine transformation key point extraction / corresponding point determination unit
Determining the three-dimensional camera posture as the observation direction, which is a camera posture when the image is taken and is based on an affine invariant keypoint;
The observation space voting unit
A geometric verification device that performs voting on each cell in a three-dimensional voting space based on the amount of change in observation direction.
請求項1に記載の幾何検証装置であって、
前記アフィン変換キーポイント抽出・対応点決定部は、
前記画像を撮影したときのカメラ姿勢であってアフィン不変キーポイントを基準とした三次元のカメラ姿勢と、前記画像を撮影したときのカメラとアフィン不変キーポイントとの距離に応じて定められるスケールとを前記観測方向として決定し、
前記観測空間投票部は、
四次元の空間における各セルに対して観測方向の変化量に基づいた投票を行う
ことを特徴とする幾何検証装置。
The geometric verification device according to claim 1,
The affine transformation key point extraction / corresponding point determination unit
A camera posture when the image is taken and a three-dimensional camera posture based on an affine invariant key point, and a scale determined according to a distance between the camera and the affine invariant key point when the image is taken Is determined as the observation direction,
The observation space voting unit
A geometric verification device that performs voting on each cell in a four-dimensional space based on the amount of change in observation direction.
請求項1に記載の幾何検証装置であって、
前記アフィン変換キーポイント抽出・対応点決定部は、
前記画像を撮影したときのカメラ姿勢であってアフィン不変キーポイントを基準とした三次元のカメラ姿勢と、前記画像を撮影したときのカメラとアフィン不変キーポイントとの距離に応じて定められるスケールとを前記観測方向として決定し、
前記観測方向変化量推定部は、
アフィン不変キーポイントの観測方向の差と、前記画像におけるアフィン不変キーポイントの座標の差とを前記観測方向の変化量として推定し、
前記観測空間投票部は、
六次元の空間における各セルに対して観測方向の変化量に基づいた投票を行う
ことを特徴とする幾何検証装置。
The geometric verification device according to claim 1,
The affine transformation key point extraction / corresponding point determination unit
A camera posture when the image is taken and a three-dimensional camera posture based on an affine invariant key point, and a scale determined according to a distance between the camera and the affine invariant key point when the image is taken Is determined as the observation direction,
The observation direction change amount estimation unit
Estimating the difference in the observation direction of the affine invariant key point and the difference in the coordinates of the affine invariant key point in the image as the amount of change in the observation direction,
The observation space voting unit
A geometric verification device that performs voting on each cell in a six-dimensional space based on the amount of change in observation direction.
同一被写体を撮影して得られた複数の画像を入力する幾何検証装置が行う幾何検証方法であって、
入力した前記画像それぞれにおいて抽出したアフィン不変キーポイントの観測方向を前記画像に基づいて決定し、前記画像間でアフィン不変キーポイントを対応付けて対応点とするアフィン変換キーポイント抽出・対応点決定ステップと、
前記対応点それぞれにおけるアフィン不変キーポイントの観測方向の差を観測方向の変化量として推定する観測方向変化量推定ステップと、
観測方向の次元数に対応する投票空間を所定のサイズで区切って得られるセルに含まれる観測方向の変化量の数を票数として算出し、セルに含まれる観測方向の変化量に対応する対応点を当該セルに関連付ける観測空間投票ステップと、
票数が所定の閾値より大きいセルに関連付けられた対応点を出力する開票ステップと
を有することを特徴とする幾何検証方法。
A geometric verification method performed by a geometric verification apparatus that inputs a plurality of images obtained by photographing the same subject,
An affine transformation key point extraction / corresponding point determination step that determines an observation direction of an affine invariant key point extracted in each of the input images based on the image, and associates an affine invariant key point between the images as a corresponding point. When,
An observation direction change amount estimation step for estimating a difference in observation direction of an affine invariant key point at each of the corresponding points as a change amount in the observation direction;
The number of changes in the observation direction contained in the cell obtained by dividing the voting space corresponding to the number of dimensions in the observation direction by a predetermined size is calculated as the number of votes, and the corresponding points corresponding to the change in the observation direction contained in the cell An observation space voting step that associates
And a vote-voting step for outputting corresponding points associated with cells whose number of votes is greater than a predetermined threshold.
請求項1から請求項4のいずれか一項に記載の幾何検証装置としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as a geometric verification apparatus as described in any one of Claims 1-4.
JP2013235019A 2013-11-13 2013-11-13 Geometric verification apparatus, geometric verification method and program Active JP6014008B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013235019A JP6014008B2 (en) 2013-11-13 2013-11-13 Geometric verification apparatus, geometric verification method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013235019A JP6014008B2 (en) 2013-11-13 2013-11-13 Geometric verification apparatus, geometric verification method and program

Publications (2)

Publication Number Publication Date
JP2015095156A JP2015095156A (en) 2015-05-18
JP6014008B2 true JP6014008B2 (en) 2016-10-25

Family

ID=53197503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013235019A Active JP6014008B2 (en) 2013-11-13 2013-11-13 Geometric verification apparatus, geometric verification method and program

Country Status (1)

Country Link
JP (1) JP6014008B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115331263B (en) * 2022-09-19 2023-11-07 北京航空航天大学 Robust attitude estimation method, application of robust attitude estimation method in direction judgment and related method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4943034B2 (en) * 2006-03-23 2012-05-30 株式会社デンソーアイティーラボラトリ Stereo image processing device
JP4205760B1 (en) * 2007-12-27 2009-01-07 株式会社ファースト Image matching method, program and application apparatus
FR2931277B1 (en) * 2008-05-19 2010-12-31 Ecole Polytech METHOD AND DEVICE FOR INVARIANT-AFFINE RECOGNITION OF FORMS

Also Published As

Publication number Publication date
JP2015095156A (en) 2015-05-18

Similar Documents

Publication Publication Date Title
US9177381B2 (en) Depth estimate determination, systems and methods
JP6464934B2 (en) Camera posture estimation apparatus, camera posture estimation method, and camera posture estimation program
JP6055435B2 (en) Subject recognition apparatus, subject recognition method, and subject recognition program
EP3093822B1 (en) Displaying a target object imaged in a moving picture
EP3309743B1 (en) Registration of multiple laser scans
CN112560832B (en) Video fingerprint generation method, video matching method, video fingerprint generation device and video matching device and computer equipment
WO2021218568A1 (en) Image depth determination method, living body recognition method, circuit, device, and medium
JP2019114103A (en) Object recognition processing device, object recognition processing method and program
JP6017343B2 (en) Database generation device, camera posture estimation device, database generation method, camera posture estimation method, and program
JP5746550B2 (en) Image processing apparatus and image processing method
JP2014102746A (en) Subject recognition device and subject recognition program
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
JP6014008B2 (en) Geometric verification apparatus, geometric verification method and program
JP5848665B2 (en) Moving object motion vector detection apparatus, moving object motion vector detection method, and program
GB2561525A (en) Method and corresponding device for digital 3D reconstruction
JP2006113832A (en) Stereoscopic image processor and program
JP2016218849A (en) Planar conversion parameter estimation device, method and program
JP6544482B2 (en) Object recognition apparatus, object recognition method and storage medium
JP7265143B2 (en) Display control method, display control program and information processing device
JP6946912B2 (en) Estimator program, estimator, and estimation method
JP5723301B2 (en) Subject recognition device and subject recognition program
JP4687579B2 (en) Image processing apparatus and image processing program
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor
Al-Nuaimi et al. Towards location recognition using range images
JP5636966B2 (en) Error detection apparatus and error detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160923

R150 Certificate of patent or registration of utility model

Ref document number: 6014008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150