JP2017151797A - Geometry verification device, program and method - Google Patents

Geometry verification device, program and method Download PDF

Info

Publication number
JP2017151797A
JP2017151797A JP2016034625A JP2016034625A JP2017151797A JP 2017151797 A JP2017151797 A JP 2017151797A JP 2016034625 A JP2016034625 A JP 2016034625A JP 2016034625 A JP2016034625 A JP 2016034625A JP 2017151797 A JP2017151797 A JP 2017151797A
Authority
JP
Japan
Prior art keywords
camera
image
geometric
local feature
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016034625A
Other languages
Japanese (ja)
Other versions
JP6482130B2 (en
Inventor
康平 松▲崎▼
Kohei Matsuzaki
康平 松▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016034625A priority Critical patent/JP6482130B2/en
Publication of JP2017151797A publication Critical patent/JP2017151797A/en
Application granted granted Critical
Publication of JP6482130B2 publication Critical patent/JP6482130B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a geometry verification device capable of taking validity of a generated sample into account for geometry verification of an epipolar geometry model.SOLUTION: A geometry verification device 10 includes a geometry model generation part 22 which generates a matrix as an epipolar geometry model based on a main point of a first camera and a second camera based on a local characteristic correspondence of a given correspondence between a local characteristic extracted from a first image that is generated by the first camera and a local characteristic extracted from a second image that is generated with the second camera, a parameter extraction part 23 for extracting a parameter related to the first camera and the second camera from the matrix, and an evaluation part 24 which evaluates validity of the matrix as the epipolar geometry model based on the parameter.SELECTED DRAWING: Figure 1

Description

本発明は、同一立体物の写る2枚の画像間でのエピポーラ幾何をモデルとした幾何検証を行う幾何検証装置、プログラム及び方法に関する。   The present invention relates to a geometric verification apparatus, program, and method for performing geometric verification using epipolar geometry as a model between two images of the same three-dimensional object.

従来、例えば非特許文献1に開示されるように、画像から抽出された局所特徴を用いて物体を検索する技術がある。この技術によれば、物体をカメラで撮影し、その物体が写る撮影画像(質問(クエリ)画像)から局所特徴を抽出する。そして、質問画像の局所特徴と、予め登録された物体が写る画像(参照(リファレンス)画像)の局所特徴とを比較することによって、物体を検索する。また、非特許文献2等に開示されるように、類似度が上位N件(Nは所定数)の参照画像と質問画像との間で、幾何検証(Geometric verification)を実行することによって、検索精度を高めている。そして、幾何検証における条件を満たした特徴点対応組(インライア)の数を、新たな画像間類似度とする。   Conventionally, as disclosed in Non-Patent Document 1, for example, there is a technique for searching for an object using local features extracted from an image. According to this technique, an object is photographed by a camera, and local features are extracted from a photographed image (question (query) image) in which the object is photographed. Then, the object is searched by comparing the local feature of the question image with the local feature of an image (reference (reference) image) in which an object registered in advance is captured. In addition, as disclosed in Non-Patent Document 2 and the like, a search is performed by performing geometric verification between a reference image and a query image having the highest N similarity (N is a predetermined number). Increases accuracy. Then, the number of feature point correspondence groups (inliers) satisfying the conditions in the geometric verification is set as a new inter-image similarity.

これに対して、参照画像と質問画像との両方に同一の物体が含まれているか否かを、類似度に基づいて閾値で判定したい場合もある。画像間類似度の閾値が大きいほど、認識の適合率が高くなるためである。   On the other hand, there is a case where it is desired to determine whether or not the same object is included in both the reference image and the question image using a threshold value based on the similarity. This is because the higher the threshold of similarity between images, the higher the recognition precision.

幾何検証において利用可能な幾何的な拘束条件のモデルは、対象となる物体によって異なる。すなわち、平面物、もしくは部分的に平面の形状を持つ立体物に対しては、平面の射影関係を表すホモグラフィ行列(Homography matrix)を利用することができる。一方、立体物に対する幾何的な拘束条件のモデルには、エピポーラ幾何、すなわち基礎行列(Fundamental matrix)もしくは基本行列(Essential matrix)が利用される。   The geometric constraint model that can be used in geometric verification differs depending on the target object. That is, for a planar object or a three-dimensional object having a partially planar shape, a homography matrix (Homography matrix) representing a planar projection relationship can be used. On the other hand, epipolar geometry, that is, a fundamental matrix or an essential matrix is used as a geometric constraint model for a three-dimensional object.

ここで、エピポーラ幾何は2つの画像を写すカメラ間の相対的な姿勢を表す幾何である。基本行列はカメラが校正済みの場合に利用することができ、基礎行列はカメラが未校正の場合にも利用することができる。例えば特許文献1では、未校正のカメラで撮影された立体物に対する幾何検証のために、基礎行列を利用している。   Here, the epipolar geometry is a geometry that represents a relative posture between cameras that capture two images. The base matrix can be used when the camera is calibrated, and the base matrix can be used even when the camera is uncalibrated. For example, in Patent Document 1, a basic matrix is used for geometric verification of a three-dimensional object photographed by an uncalibrated camera.

局所特徴の点対応集合に外れ値(アウトライア)が含まれている場合は、ロバスト推定法を用いて幾何検証が行われる。これは、測定値の中に外れ値が含まれている場合であっても、外れ値の影響が最小となるように推定を行う方法である。例えば非特許文献1では、RANSAC(RANdom SAmple Consensus)アルゴリズムが利用されている。   When an outlier is included in the point correspondence set of local features, geometric verification is performed using a robust estimation method. This is a method of performing estimation so that the influence of the outlier is minimized even when the outlier is included in the measured value. For example, in Non-Patent Document 1, a RANSAC (RANdom SAmple Consensus) algorithm is used.

RASNACアルゴリズムを用いた幾何検証では、全ての点対応集合の中からランダムにサンプルが抽出され、そのサンプルから仮の幾何モデルを生成し、その幾何モデルに沿う点対応(インライア)の数を繰り返し求める。そして、全ての繰り返しの中で得られた最大のインライア数が、幾何検証のスコアとなる。   In geometric verification using the RASNAC algorithm, samples are randomly extracted from all point correspondence sets, a temporary geometric model is generated from the samples, and the number of point correspondences (inliers) along the geometric model is repeatedly determined. . The maximum number of inliers obtained in all iterations is the geometric verification score.

特開2015−201123号公報JP-A-2015-201123

Philbin. J, Chum. O, Isard. M, Sivic. J, and Zisserman. A, "Object retrieval with large vocabularies and fast spatial matching," In Computer Vision and Pattern Recognition, pp. 1-8, 2007.Philbin. J, Chum. O, Isard. M, Sivic. J, and Zisserman. A, "Object retrieval with large vocabularies and fast spatial matching," In Computer Vision and Pattern Recognition, pp. 1-8, 2007. Jegou, Herve, Matthijs Douze, and Cordelia Schmid. "Hamming embedding and weak geometric consistency for large scale image search." Computer Vision-ECCV 2008. Springer Berlin Heidelberg, 2008. 304-317.Jegou, Herve, Matthijs Douze, and Cordelia Schmid. "Hamming embedding and weak geometric consistency for large scale image search." Computer Vision-ECCV 2008. Springer Berlin Heidelberg, 2008. 304-317. 山田健人, et al. "画像からの3次元復元の最新アルゴリズム." 情報処理学会研究報告 (2009):1-8.Kento Yamada, et al. "Latest algorithm for 3D reconstruction from images." IPSJ SIG (2009): 1-8.

しかしながら、上述した従来の技術では、エピポーラ幾何を生成したサンプルの妥当性について考慮されていなかった。   However, in the conventional technique described above, the validity of the sample that generated the epipolar geometry has not been considered.

幾何検証で求めたいインライアとは、物体の同一位置にある点の対応である。エピポーラ拘束はエピポーラ線と点の距離による拘束、すなわち直線と点の拘束であるため、曖昧性を持っている。そのため、物体の同一位置に無い点の対応(アウトライア)であっても、偶然拘束条件を満たし、インライアと誤判定されてしまうことがあり得る。その結果、従来技術においては間違った画像ペアに対して、高い幾何検証スコアを与えてしまう可能性があった。   An inlier to be obtained by geometric verification is a correspondence between points at the same position of an object. Epipolar constraints are ambiguous because they are constraints based on the distance between epipolar lines and points, that is, constraints between straight lines and points. Therefore, even a correspondence (outlier) of a point that is not at the same position of the object may meet the constraint condition by chance and be erroneously determined as an inlier. As a result, in the prior art, a high geometric verification score may be given to an incorrect image pair.

本発明は、上記従来技術の課題を解決し、エピポーラ幾何を生成したサンプルの妥当性を考慮できる幾何検証装置、プログラム及び方法を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a geometric verification apparatus, program, and method that can solve the above-described problems of the prior art and can consider the validity of a sample that has generated epipolar geometry.

前記目的を達成するため、本発明は、幾何検証装置であって、第1カメラより生成された第1画像より抽出された局所特徴と第2カメラより生成された第2画像より抽出された局所特徴との間で対応が与えられた局所特徴対応より、当該第1カメラ及び当該第2カメラの主点に基づくエピポーラ幾何モデルとしての行列を生成する幾何モデル生成部と、前記行列より前記第1カメラ及び前記第2カメラに関連するパラメータを抽出するパラメータ抽出部と、前記パラメータに基づき前記エピポーラ幾何モデルとしての行列の妥当性を評価する評価部と、を備えることを特徴とする。   In order to achieve the above object, the present invention provides a geometric verification device, which comprises a local feature extracted from a first image generated from a first camera and a local feature extracted from a second image generated from a second camera. A geometric model generation unit that generates a matrix as an epipolar geometric model based on the principal points of the first camera and the second camera based on local feature correspondence to which correspondence is given between the features, and the first from the matrix A parameter extraction unit that extracts parameters related to the camera and the second camera, and an evaluation unit that evaluates the validity of the matrix as the epipolar geometric model based on the parameters.

また、本発明は、コンピュータを前記幾何検証装置として機能させるプログラムであることを特徴とする。   Further, the present invention is a program for causing a computer to function as the geometric verification device.

さらに、本発明は、幾何検証方法であって、第1カメラより生成された第1画像より抽出された局所特徴と第2カメラより生成された第2画像より抽出された局所特徴との間で対応が与えられた局所特徴対応より、当該第1カメラ及び当該第2カメラの主点に基づくエピポーラ幾何モデルとしての行列を生成する幾何モデル生成段階と、前記行列より前記第1カメラ及び前記第2カメラに関連するパラメータを抽出するパラメータ抽出段階と、前記パラメータに基づき前記エピポーラ幾何モデルとしての行列の妥当性を評価する評価段階と、を備えることを特徴とする。   Further, the present invention is a geometric verification method, wherein a local feature extracted from a first image generated from a first camera and a local feature extracted from a second image generated from a second camera are used. A geometric model generation step of generating a matrix as an epipolar geometric model based on principal points of the first camera and the second camera from the local feature correspondence to which the correspondence is given, and the first camera and the second from the matrix A parameter extracting step of extracting a parameter related to the camera; and an evaluation step of evaluating the validity of the matrix as the epipolar geometric model based on the parameter.

本発明によれば、抽出した第1カメラ及び第2カメラに関連するパラメータに基づく評価によって、エピポーラ幾何モデルとしての行列の妥当性を評価することができる。   According to the present invention, the validity of a matrix as an epipolar geometric model can be evaluated by evaluation based on the extracted parameters relating to the first camera and the second camera.

一実施形態に係る幾何検証装置の機能ブロック図である。It is a functional block diagram of the geometric verification apparatus which concerns on one Embodiment. 一実施形態に係る幾何検証装置の動作のフローチャートである。It is a flowchart of operation | movement of the geometric verification apparatus which concerns on one Embodiment. エピポーラ幾何を説明するための図である。It is a figure for demonstrating epipolar geometry. 焦点距離評価部を説明するためのピンホールカメラモデルを示す図である。It is a figure which shows the pinhole camera model for demonstrating a focal distance evaluation part. 位置関係評価部を説明するための、2つのカメラの光軸のなす角を場合分けして示す図である。It is a figure which classifies and shows the angle which the optical axis of two cameras makes for explaining a positional relationship evaluation part. 復元性評価部を説明するための、3次元復元点の奥行きの正負の区別の例を示す図である。It is a figure which shows the example of the positive / negative distinction of the depth of a three-dimensional restoration point for demonstrating a restoring property evaluation part. 一実施形態に係る幾何検証装置の動作のフローチャートである。It is a flowchart of operation | movement of the geometric verification apparatus which concerns on one Embodiment. 一実施形態に係る幾何検証装置の機能ブロック図である。It is a functional block diagram of the geometric verification apparatus which concerns on one Embodiment. 一実施形態に係る幾何検証装置の動作のフローチャートである。It is a flowchart of operation | movement of the geometric verification apparatus which concerns on one Embodiment.

図1は、一実施形態に係る幾何検証装置の機能ブロック図である。図示するように、幾何検証装置10は、局所特徴抽出部11、対応取得部12、弱幾何検証部13、反復処理部20及び追加処理部31を備える。また、反復処理部20は、選択部21、幾何モデル生成部22、パラメータ抽出部23、評価部24、検証部25を備える。さらに、評価部24は、焦点距離評価部1、位置関係評価部2、一貫性評価部3及び復元性評価部4を備える。   FIG. 1 is a functional block diagram of a geometric verification apparatus according to an embodiment. As illustrated, the geometric verification apparatus 10 includes a local feature extraction unit 11, a correspondence acquisition unit 12, a weak geometric verification unit 13, an iterative processing unit 20, and an additional processing unit 31. The iterative processing unit 20 includes a selection unit 21, a geometric model generation unit 22, a parameter extraction unit 23, an evaluation unit 24, and a verification unit 25. Further, the evaluation unit 24 includes a focal length evaluation unit 1, a positional relationship evaluation unit 2, a consistency evaluation unit 3, and a restoration property evaluation unit 4.

図2は、一実施形態に係る幾何検証装置10の動作のフローチャートである。以下、図2の各ステップを説明しながら、図1の各機能部の処理内容を説明する。   FIG. 2 is a flowchart of the operation of the geometric verification apparatus 10 according to an embodiment. Hereinafter, the processing content of each functional unit in FIG. 1 will be described while explaining each step in FIG. 2.

[ステップS1:局所特徴対応を用意]
ステップS1では、局所特徴抽出部11、対応取得部12及び弱幾何検証部13がこの順番で各処理を行うことにより、入力された質問画像及び参照画像から出力として当該両画像の局所特徴の対応(質問画像の各局所特徴と参照画像の各局所特徴との間で対応関係を取得したもの)を得てから、ステップS2へと進む。このため、ステップS1では具体的には、各機能部11〜13がこの順番に以下のような処理を行う。
[Step S1: Prepare for local features]
In step S1, the local feature extraction unit 11, the correspondence acquisition unit 12, and the weak geometry verification unit 13 perform each process in this order, so that the correspondence between the local features of both images as an output from the input question image and the reference image After obtaining (corresponding relationship between each local feature of the query image and each local feature of the reference image), the process proceeds to step S2. Therefore, specifically, in step S1, each of the functional units 11 to 13 performs the following processing in this order.

ステップS1ではまず、局所特徴抽出部11が、入力された質問画像及び参照画像からそれぞれの局所特徴を抽出して、対応取得部12へと出力する。当該局所特徴の抽出処理は質問画像及び参照画像について共通であり、以下のような特徴点検出処理及び局所特徴抽出処理がこの順番で実施される。   In step S1, the local feature extraction unit 11 first extracts local features from the input question image and reference image, and outputs them to the correspondence acquisition unit 12. The local feature extraction processing is common to the question image and the reference image, and the following feature point detection processing and local feature extraction processing are performed in this order.

すなわち、まず、入力された画像(参照画像及び質問画像のそれぞれ)から特徴点検出器を用いて特徴点(エッジ等の点)を検出する。さらに、特徴量検出器を用いて検出した特徴点位置における画像の局所的な特徴を局所特徴と呼ばれるベクトル形式で抽出する。局所特徴抽出アルゴリズムには、一般的に知られているSIFT(スケール不変特徴量変換;Scale invariant feature transform)やSURF(Speeded Up Robust Features)、ORB(oriented BRIEF)、FREAK(Fast Retina Keypoint)等を利用することができる。これらの局所特徴は、画像における座標x=(u,v),方向θ,スケールs,及び特徴ベクトルfにより特徴付けられるものとなる。なお、通常では、一枚の画像から検出された特徴群は、プログラム(局所特徴抽出部11を含む幾何検証装置10を実現するプログラム)上では配列に格納され,その配列の添え字を特徴点IDとして識別することができる。   That is, first, feature points (points such as edges) are detected from the input images (each of the reference image and question image) using a feature point detector. Furthermore, the local feature of the image at the feature point position detected using the feature quantity detector is extracted in a vector format called a local feature. Local feature extraction algorithms include commonly known SIFT (Scale invariant feature transform), SURF (Speeded Up Robust Features), ORB (oriented BRIEF), FREAK (Fast Retina Keypoint), etc. Can be used. These local features are characterized by coordinates x = (u, v), direction θ, scale s, and feature vector f in the image. Normally, a feature group detected from one image is stored in an array on a program (a program for realizing the geometric verification device 10 including the local feature extraction unit 11), and the subscript of the array is used as a feature point. It can be identified as an ID.

なお、本発明においては質問画像と当該質問画像に対して正解となる参照画像との間には、当該両画像は同一立体物を別のカメラ配置で撮影したものであるという関係があるものとする。従って、当該両画像よりそれぞれ抽出された同一立体物の同一点に対応する特徴点同士の間には、エピポーラ幾何で与えられる関係があるものとする。ここで、図3を参照して、本発明にて想定している質問画像と対応する正解の参照画像との間にある関係としての、周知のエピポーラ幾何を簡単に説明する。   In the present invention, there is a relationship between the question image and the reference image that is the correct answer to the question image, in which both images are obtained by photographing the same three-dimensional object with different camera arrangements. To do. Therefore, it is assumed that there is a relationship given by epipolar geometry between feature points corresponding to the same point of the same three-dimensional object extracted from both the images. Here, with reference to FIG. 3, the well-known epipolar geometry as a relationship between the question image assumed in the present invention and the corresponding correct reference image will be briefly described.

図3は、質問画像G1と正解の参照画像G2とが、3次元空間にある同一の立体物としての対象物OB(例えば家屋)を別のカメラ配置で撮影している際に、対象物OBの複数の特徴点のうち任意の1つの特徴点Pについて、画像G1上の対応点P1と画像G2上の対応点P2とがエピポーラ幾何で説明される関係にあることを示している。ここで、画像G1,G2を互いに別配置で撮影しているカメラのレンズ主点がそれぞれ図示するような点C1,C2である。三角形C1-C2-Pが乗る平面としてエピポーラ平面EPが形成され、直線C1-C2と画像G1,G2との交点がそれぞれエピポーラ点E1,E2であり、特徴点P1,P2はそれぞれ、直線C1-Pと画像G1の交点及び直線C2-Pと画像G2の交点となる。直線E1-P1及び直線E2-P2をエピポーラ線といい、前述の通り物体認識等に適用する場合を考えると、当該エピポーラ線上の曖昧性が存在する。   FIG. 3 shows the case where the question image G1 and the correct reference image G2 are taken from the object OB (for example, a house) as the same three-dimensional object in the three-dimensional space with different camera arrangements. For any one feature point P of the plurality of feature points, the corresponding point P1 on the image G1 and the corresponding point P2 on the image G2 are in a relationship described by epipolar geometry. Here, the lens principal points of the cameras that photograph the images G1 and G2 in different positions are the points C1 and C2, respectively, as shown in the figure. An epipolar plane EP is formed as a plane on which the triangle C1-C2-P rides, the intersections of the straight line C1-C2 and the images G1, G2 are the epipolar points E1, E2, respectively, and the feature points P1, P2 are the straight lines C1- It is the intersection of P and image G1, and the intersection of straight line C2-P and image G2. The straight line E1-P1 and the straight line E2-P2 are referred to as epipolar lines, and there is an ambiguity on the epipolar line when applied to object recognition or the like as described above.

このようなエピポーラ幾何の関係にある特徴点P1,P2の同次座標をサイズ3×1の行列(縦ベクトル)で表記してx1=(u1,v1,1)T,x2=(u2,v2,1)Tとする(Tは転置演算を表す)と、周知のように、同一点Pに対応する点P1,P2に関して、サイズ3×3の基礎行列F=(Fij)(1≦i,j≦3)を用いてエピポーラ方程式(以下の式(1))が成立する。 The homogeneous coordinates of the feature points P1 and P2 having such an epipolar geometry relationship are expressed as a 3 × 1 matrix (vertical vector), and x1 = (u 1 , v 1 , 1) T , x2 = (u 2 , v 2 , 1) As T (T represents a transpose operation), as is well known, with respect to points P1 and P2 corresponding to the same point P, a basic matrix F = (F ij ) of size 3 × 3 The epipolar equation (the following equation (1)) is established using (1 ≦ i, j ≦ 3).

また、周知のように、上記の基礎行列Fを具体的に算出するには、同一点Pに対応する点P1,P2の対応組が7組又は8組必要(立体物の点Pとして異なるものが7個又は8個必要)であり、周知の7-pointアルゴリズムや8-pointアルゴリズムを用いて算出することが可能である。以下、図2のステップS1の説明に戻る。   In addition, as is well known, in order to calculate the basic matrix F specifically, seven or eight corresponding pairs of points P1 and P2 corresponding to the same point P are required (different as the point P of the three-dimensional object) 7 or 8 is necessary), and can be calculated using a well-known 7-point algorithm or 8-point algorithm. Hereinafter, the description returns to step S1 in FIG.

ステップS1では次に、局所特徴抽出部11にて上記のように得られた質問画像及び参照画像の局所特徴から、対応取得部12が当該両画像における局所特徴の対応を取得して、弱幾何検証部13へと出力する。具体的には、質問画像の各局所特徴と参照画像の各局所特徴との間で、当該局所特徴の構成データである前述の座標x、方向θ、スケールs及び特徴ベクトルfのうち、特徴ベクトルf同士の距離が最小となるようなもの同士に対応関係を設定するようにすればよい。特徴ベクトルf同士の距離にはユークリッド距離その他任意種類の距離の中から、所定種類の距離を用いてよい。最小となった距離が閾値判定で大きいと判定される場合は、当該局所特徴に関して、対応関係は設定しないようにしてもよい。   Next, in step S1, the correspondence acquisition unit 12 acquires the correspondence between the local features in both images from the local features of the question image and the reference image obtained as described above in the local feature extraction unit 11, and weak geometry Output to the verification unit 13. Specifically, between each local feature of the query image and each local feature of the reference image, a feature vector among the above-mentioned coordinates x, direction θ, scale s, and feature vector f, which is the constituent data of the local feature Corresponding relations may be set for those having the smallest distance between f. As the distance between the feature vectors f, a predetermined type of distance among Euclidean distance and other arbitrary types of distances may be used. When it is determined that the minimum distance is large in the threshold determination, the correspondence relationship may not be set for the local feature.

ステップS1では最後に、対応取得部12にて上記のように得られた局所特徴対応に対して弱幾何検証部13が弱幾何検証を行い、当該検証をパスした局所特徴対応を反復処理部20の選択部21へと出力する。すなわち、弱幾何検証部13は対応取得部12で取得した局所特徴対応を弱幾何検証によって選別する機能を担い、当該選別されなかった局所特徴対応は選択部21へは出力されない。   Finally, in step S1, the weak geometric verification unit 13 performs weak geometric verification on the local feature correspondence obtained as described above in the correspondence acquisition unit 12, and the local feature correspondence that passed the verification is repetitively processed 20 To the selection unit 21. That is, the weak geometric verification unit 13 has a function of selecting the local feature correspondence acquired by the correspondence acquisition unit 12 by weak geometric verification, and the local feature correspondence that has not been selected is not output to the selection unit 21.

当該弱幾何検証の処理には、前掲の非特許文献2等に開示されているような周知の処理を採用することができ、上記の対応取得部12では考慮しなかった局所特徴における方向θ及びスケールsに基づいて選別を実施することができる。具体的には、次の通りである。   For the weak geometric verification process, a well-known process such as that disclosed in Non-Patent Document 2 and the like described above can be adopted, and the direction θ in the local feature not considered in the correspondence acquisition unit 12 and Sorting can be performed based on the scale s. Specifically, it is as follows.

まず、説明のための前提として、対応取得部12において、質問画像G1の局所特徴FG1i(i=1,2,…,N)と参照画像G2の局所特徴FG2i(i=1,2,…,N)との間に対応関係が設定されているものとする。すなわち、対応する特徴ベクトルf1i(i=1,2,…,N)と特徴ベクトルf2i(i=1,2,…,N)との距離が最小であったものとする。なお、iは対応関係の設定された局所特徴の識別インデクスであり、合計でN個の対応関係が設定されたものとする。 First, as a premise for explanation, in the correspondence acquisition unit 12, the local feature FG1 i (i = 1, 2,..., N) of the question image G1 and the local feature FG2 i (i = 1, 2, ..., N) is assumed to have a corresponding relationship. That is, it is assumed that the distance between the corresponding feature vector f1 i (i = 1, 2,..., N) and the feature vector f2 i (i = 1, 2,..., N) is minimum. Note that i is an identification index of local features for which correspondence relations are set, and it is assumed that N correspondence relations are set in total.

弱幾何検証では第1手順として、当該対応関係が設定された質問画像G1及び参照画像G2の局所特徴におけるそれぞれの方向θ1i(i=1,2,…,N)及び方向θ2i(i=1,2,…,N)と、スケールs1i(i=1,2,…,N)及びスケールs2i(i=1,2,…,N)とを参照することで、方向の差Δθi=θ1i-θ2i(i=1,2,…,N)とスケールの比Δsi= s1i/s2i(i=1,2,…,N)を求める。さらに第2手順として、当該求めた方向の差の集合{Δθi|i=1,2,…,N}及びスケール比の集合{Δsi|i=1,2,…,N }に関してそれぞれ、所定のビンを用いてヒストグラムを取り、あるいは所定関数で値の分布をフィッティングする等により、方向差のピーク値Δθpeak及びスケール比のピーク値Δspeakを求める。なお、これらピーク値Δθpeak及びΔspeakを弱幾何パラメータと呼ぶものとする。 In the weak geometric verification, as the first procedure, the respective directions θ1 i (i = 1, 2,..., N) and the directions θ2 i (i = i ) in the local features of the query image G1 and the reference image G2 for which the corresponding relationship is set. 1,2, ..., N), scale s1 i (i = 1,2, ..., N) and scale s2 i (i = 1,2, ..., N) i = θ1 i -θ2 i (i = 1, 2,..., N) and scale ratio Δs i = s1 i / s2 i (i = 1, 2,..., N) are obtained. Further, as a second procedure, regarding the set of difference of the obtained direction {Δθ i | i = 1,2, ..., N} and the set of scale ratio {Δs i | i = 1,2, ..., N}, respectively. The peak value Δθ peak of the direction difference and the peak value Δs peak of the scale ratio are obtained by taking a histogram using a predetermined bin or fitting a value distribution with a predetermined function. These peak values Δθ peak and Δs peak are called weak geometric parameters.

弱幾何検証では最後に第3手順として、対応関係が設定された局所特徴ペアFG1i及びFG2i(i=1,2,…,N)のうち、その方向差Δθiがピーク値Δθpeakと比べて閾値範囲内にあり(すなわち、閾値THθにより|Δθi-Δθpeak|<THθであり)、且つ、そのスケール比Δsiがピーク値Δspeakと比べて閾値範囲内にある(すなわち、閾値THsにより|Δsi-Δspeak|<THsである)ものを、弱幾何検証をパスしたものとして判定し、選択部21へと出力する。 In the weak geometric verification, as a third procedure, the direction difference Δθ i of the local feature pairs FG1 i and FG2 i (i = 1, 2,..., N) for which the correspondence relationship is set is the peak value Δθ peak . Is within the threshold range (ie, | Δθ i −Δθ peak | <THθ due to the threshold THθ), and the scale ratio Δs i is within the threshold range compared to the peak value Δs peak (ie, the threshold It is determined by THs that | Δs i −Δs peak | <THs) that passed the weak geometric verification, and is output to the selection unit 21.

以上のような弱幾何検証の意義は次の通りであり、後述するステップS2において行われるインライア判定に関し、事前に、インライアではなくアウトライアである可能性の高いものを排除しておくという効果がある。すなわち、局所特徴の対応がインライア同士の対応であった場合、方向の差は画像中に写る物体の局所領域の回転角を、スケール比はスケールの変化を表してといると考えられる。従って、正解画像ペアにおけるインライアから抽出された方向差及びスケール比はそれぞれ、当該画像ペア間における物体全体の回転角及びスケール変化を表しているため、概ね一定範囲内にその値が収まるものと考えられる。すなわち、前述の弱幾何パラメータΔθpeak及びΔspeakはこのような物体全体の回転角及びスケール変化を反映するものであると考えられる。逆に、局所特徴の対応がアウトライア同士の対応であった場合、それらの値はランダムになると考えられ、当該一定範囲内には収まらない可能性が高いものと考えられる。このような考察より、弱幾何検証はインライアの事前選別に効果を奏する。 The significance of the weak geometry verification as described above is as follows, and with regard to the inlier determination performed in step S2 described later, there is an effect of excluding those that are likely to be outliers instead of inliers in advance. is there. That is, when the correspondence of the local features is the correspondence between the inliers, it is considered that the difference in the direction represents the rotation angle of the local region of the object shown in the image, and the scale ratio represents the change in the scale. Therefore, the direction difference and scale ratio extracted from the inliers in the correct image pair represent the rotation angle and scale change of the entire object between the image pairs, respectively, and thus are considered to be within a certain range. It is done. That is, the weak geometric parameters Δθ peak and Δs peak described above are considered to reflect such a rotation angle and scale change of the entire object. On the contrary, when the correspondence of the local features is the correspondence between the outliers, the values are considered to be random, and it is highly likely that the values do not fall within the certain range. From these considerations, weak geometry verification is effective for preselection of inliers.

なお、以上の説明では方向差Δθi及びピーク比Δsiの両方を用いて弱幾何検証による選別を行うものとしたが、方向差Δθi又はピーク比Δsiのいずれか片方のみを用いて弱幾何検証を行うようにしてもよい。 In the above description, selection by weak geometric verification is performed using both the direction difference Δθ i and the peak ratio Δs i , but weakness using only one of the direction difference Δθ i and the peak ratio Δs i. Geometric verification may be performed.

以上、図2のステップS1を説明した。続くステップS2〜S7は、繰り返し制御を意味するステップS2,S7で囲まれている通り、反復処理部20によって繰り返し処理が行われる。ここで、当該繰り返し処理の枠組みそのものは、周知のRANSACアルゴリズムに即した繰り返し処理であるが、本発明においては特に、当該繰り返し処理内にステップS4及びS5等が織り込まれることにより、エピポーラ幾何をRANSACで用いるパラメータフィッティングのモデルとして用いる際に高精度な幾何検証を実現することができる。以下、各ステップの詳細を説明する。   In the above, step S1 of FIG. 2 was demonstrated. Subsequent steps S2 to S7 are repeatedly performed by the iterative processing unit 20 as surrounded by steps S2 and S7 which mean repeated control. Here, the framework of the iterative process itself is an iterative process in accordance with the well-known RANSAC algorithm, but in the present invention, in particular, the steps S4 and S5 etc. are woven into the iterative process to change the epipolar geometry to the RANSAC geometry. It is possible to realize highly accurate geometric verification when used as a parameter fitting model used in the above. Details of each step will be described below.

[ステップS2:選択部21]
ステップS2では、弱幾何検証部13によりステップS1で得られた質問画像と参照画像との間の局所特徴対応(1つの質問画像と1つの参照画像との間で複数の局所特徴対応が存在する)の中から、選択部21がランダムに所定数の局所特徴対応を選択して幾何モデル生成部22へと出力してから、ステップS3へ進む。
[Step S2: Selection unit 21]
In step S2, local feature correspondence between the question image obtained in step S1 by the weak geometry verification unit 13 and the reference image (a plurality of local feature correspondences exist between one question image and one reference image). The selection unit 21 randomly selects a predetermined number of local feature correspondences and outputs them to the geometric model generation unit 22 before proceeding to step S3.

なお、局所特徴対応が多数存在する場合その確率は低いが、ステップS2では次のようにしてもよい。すなわち、現在のステップS2が繰り返しステップS2〜S7(ループ処理)の繰り返し回数m回目に該当するものであり、いずれかの過去のn回目(n<m)のステップS2において選択部21が既に選択したのと同一の選択結果が現在のn回目において得られた場合、当該同一結果は破棄し、過去に一度も選択されていない結果が得られるまで選択部21は選択を繰り返すようにしてもよい。この場合、選択部21ではループ処理の各回における選択結果を記憶しておくことで、現在の選択結果が過去の選択結果のいずれかに一致していないか判定すればよい。   Note that when there are many local feature correspondences, the probability is low, but the following may be performed in step S2. That is, the current step S2 corresponds to the mth repetition of steps S2 to S7 (loop processing), and the selection unit 21 has already selected in any past nth (n <m) step S2. If the same selection result is obtained at the current nth time, the same result is discarded, and the selection unit 21 may repeat the selection until a result that has never been selected in the past is obtained. . In this case, the selection unit 21 may determine whether the current selection result does not match any of the past selection results by storing the selection result at each time of the loop processing.

[ステップS3:幾何モデル生成部22]
ステップS3では、ステップS2で選択部21により選択された所定数の局所特徴対応を用いて、幾何モデル生成部22が仮の幾何モデルを生成し、当該モデルをパラメータ抽出部23へと出力してから、ステップS4へと進む。
[Step S3: Geometric model generator 22]
In step S3, the geometric model generation unit 22 generates a temporary geometric model using the predetermined number of local feature correspondences selected by the selection unit 21 in step S2, and outputs the model to the parameter extraction unit 23. To step S4.

当該生成する仮の幾何モデルは具体的には、図3で説明したようなエピポーラ幾何モデルにおける基礎行列Fである。すなわち、選択された所定数の互いに対応する質問画像G1の局所特徴における座標x1i=(u1i,v1i)(i=1,2,…,k:kは選択された所定数)と参照画像G2の局所特徴における座標x2i=(u2i,v2i) (i=1,2,…,k)とが、同一対象であると想定している立体物の各特徴点P(i)を各画像において撮影したものであるという仮定のもとで、エピポーラ方程式(前述の式(1))に現れる基礎行列Fである。 Specifically, the temporary geometric model to be generated is the basic matrix F in the epipolar geometric model as described with reference to FIG. That is, the coordinates x1i = (u 1i , v 1i ) (i = 1, 2,..., K: k is the selected predetermined number) and the reference image in the selected predetermined number of mutually corresponding question images G1 Coordinate x2i = (u 2i , v 2i ) (i = 1,2, ..., k) in the local feature of G2 This is the basic matrix F that appears in the epipolar equation (formula (1) above) under the assumption that it was taken in the image.

ここで、「仮の」幾何モデル(基礎行列F)と称しているのは、最終的に最適な幾何モデルとして得られるものの候補であるためである。すなわち、RANSACアルゴリズムの枠組みにおける当該ループ処理S2〜S7の各回(m=1,2,…)において「仮の」幾何モデルF(m)が算出され、当該算出された一連の幾何モデルF(m)の中から最適と判定されるものが後述するステップS8で検証部25により決定される。   Here, the “temporary” geometric model (basic matrix F) is referred to because it is a candidate for what is finally obtained as an optimal geometric model. That is, a “temporary” geometric model F (m) is calculated at each of the loop processes S2 to S7 (m = 1, 2,...) In the framework of the RANSAC algorithm, and the calculated series of geometric models F (m ) Determined to be optimal is determined by the verification unit 25 in step S8 described later.

ステップS3にて幾何モデル生成部22は、前述の通り周知の7-pointアルゴリズムや8-pointアルゴリズムを用いて基礎行列Fを算出すればよい。なお、前述のステップS2において選択部21は、局所特徴対応を選択する所定数kとして、幾何モデル生成部22が基礎行列Fを算出するのに必要な最小数を採用すればよい。すなわち、7-pointアルゴリズムを使う場合であれば7個の、8-pointアルゴリズムを使う場合であれば8個の、局所特徴対応を選択すればよい。   In step S3, the geometric model generation unit 22 may calculate the basic matrix F using a known 7-point algorithm or 8-point algorithm as described above. In step S2, the selection unit 21 may adopt the minimum number necessary for the geometric model generation unit 22 to calculate the basic matrix F as the predetermined number k for selecting the local feature correspondence. That is, seven local feature correspondences may be selected when the 7-point algorithm is used and eight when the 8-point algorithm is used.

[ステップS4:パラメータ抽出部23]
ステップS4では、ステップS3で幾何モデル生成部22により求められた幾何モデル(基礎行列F)から、パラメータ抽出部23が各種のパラメータを抽出して評価部24へと出力してから、ステップS5へと進む。
[Step S4: Parameter extraction unit 23]
In step S4, the parameter extraction unit 23 extracts various parameters from the geometric model (fundamental matrix F) obtained by the geometric model generation unit 22 in step S3 and outputs the various parameters to the evaluation unit 24, and then proceeds to step S5. Proceed with

パラメータ抽出部23による当該各種のパラメータ抽出処理を列挙すると以下(1)〜(4)の通りである。
(1)基礎行列Fから、質問画像G1を撮影したカメラの焦点距離f1と、参照画像G2を撮影したカメラの焦点距離f2と、を抽出する。
(2)基礎行列Fと上記抽出された焦点距離f1及びf2とから、基本行列Eを抽出する。
(3)上記抽出された基本行列Eを分解することで、質問画像G1のカメラ配置を参照画像G2のカメラ配置へ3次元座標変換するためのカメラの回転行列R及び並進ベクトルTを抽出する。(あるいは同様にその逆変換に対応する回転行列及び並進ベクトルを抽出する。)
(4)上記抽出された回転行列Rを例えば以下の式(2)のように分解することで、X軸周りの回転角θX、Y軸周りの回転角θY及びZ軸周りの回転角θZを抽出する。ここで、Z軸をカメラ軸(図3であれば、主点C1を通り画像G1に垂直な軸又は主点C2を通り画像G2に垂直な軸)として取る。
The various parameter extraction processes by the parameter extraction unit 23 are listed as follows (1) to (4).
(1) Extract from the basic matrix F the focal length f1 of the camera that captured the query image G1 and the focal length f2 of the camera that captured the reference image G2.
(2) The basic matrix E is extracted from the basic matrix F and the extracted focal lengths f1 and f2.
(3) By decomposing the extracted basic matrix E, a camera rotation matrix R and a translation vector T for three-dimensional coordinate transformation from the camera arrangement of the query image G1 to the camera arrangement of the reference image G2 are extracted. (Or similarly, a rotation matrix and a translation vector corresponding to the inverse transformation are extracted.)
(4) to decompose as the extracted rotation matrix R for example, the following equation (2), the rotation angle around the rotation angle theta Y and Z-axis about the rotation angle theta X, Y-axis around the X axis to extract the θ Z. Here, the Z axis is taken as the camera axis (in FIG. 3, the axis passing through the principal point C1 and perpendicular to the image G1 or the axis passing through the principal point C2 and perpendicular to the image G2).

なお、以上の(1)〜(4)のような抽出が可能であることは、エピポーラ幾何と同様に周知である。また、当該抽出するための具体的な計算方法についても、前掲の非特許文献3等に開示されている。   In addition, it is well-known that extraction like the above (1)-(4) is possible similarly to epipolar geometry. A specific calculation method for the extraction is also disclosed in Non-Patent Document 3 and the like described above.

[ステップS5:評価部24]
ステップS5では、パラメータ抽出部23によりステップS4で抽出されたパラメータを用いることで、幾何モデル生成部22によりステップS3で生成された仮のモデル(基礎行列F)の妥当性を、評価部24が評価し、当該評価結果を検証部25へと出力してから、ステップS6へと進む。
[Step S5: Evaluation unit 24]
In step S5, the evaluation unit 24 uses the parameters extracted in step S4 by the parameter extraction unit 23 to determine the validity of the temporary model (basic matrix F) generated in step S3 by the geometric model generation unit 22. After evaluating and outputting the evaluation result to the verification unit 25, the process proceeds to step S6.

当該評価の各実施形態を担うのが評価部24の各部1〜4であり、詳細については後述する。   It is each part 1-4 of the evaluation part 24 that bears each embodiment of the said evaluation, and it mentions later for details.

評価結果に関しては、妥当性を数値化したものとして与えてもよいし、当該数値に対して閾値判定を行うことで、妥当である又は妥当でない(モデルとして不適切である)といった2値判定として与えてもよい。   As for the evaluation result, the validity may be given as a numerical value, or by performing a threshold determination on the numerical value, as a binary determination that is valid or invalid (inappropriate as a model) May be given.

[ステップS6:検証部25]
ステップS6では、ステップS3で幾何モデル生成部22に生成された仮の幾何モデル(基礎行列F)を、ステップS5で評価部24により評価された妥当性を考慮したうえで、検証部25が検証し、当該検証結果をループ処理S2〜S7の当該m回目における結果として、検証部25自身において記録してから、ステップS7へと進む。
[Step S6: Verification unit 25]
In step S6, the verification unit 25 verifies the temporary geometric model (basic matrix F) generated in the geometric model generation unit 22 in step S3 after considering the validity evaluated by the evaluation unit 24 in step S5. Then, the verification result is recorded in the verification unit 25 itself as a result of the loop processing S2 to S7 in the m-th time, and then the process proceeds to step S7.

検証部25では当該検証処理として次の第1処理及び第2処理を行う。第1処理では、通常のRANSACアルゴリズム枠組みにおいて行われているのと同様の、生成された仮の幾何モデル(基礎行列F)に対するインライア数のカウントを行う。すなわち、ステップS1で得られた質問画像と参照画像との間の局所特徴対応の全体のうち、ステップS3で求まった基礎行列F(当該繰り返し回数m回目における基礎行列F(m))によって、以下の式(3)を満たすような局所特徴対応をインライアと判定し、その数をカウントする。   The verification unit 25 performs the following first process and second process as the verification process. In the first process, the number of inliers for the generated temporary geometric model (fundamental matrix F) is counted in the same manner as in the normal RANSAC algorithm framework. That is, among the entire local feature correspondence between the query image and the reference image obtained in step S1, the basic matrix F obtained in step S3 (basic matrix F (m) at the mth iteration) is The local feature correspondence that satisfies Equation (3) is determined as an inlier, and the number is counted.

上記において、ベクトルx1及びx2はそれぞれ、質問画像G1と参照画像G2との間の局所特徴対応における、画像G1の特徴点の座標(u1,v1)及び画像G2の特徴点の座標(u2,v2)を同次座標表現したものであり、THは判定用の閾値である。なお、エピポーラ幾何において周知のように上記の式の左辺「x1 TF x2」はエピポーラ線と点(u1,v1),(u2,v2)との距離を意味するものである。すなわち、上記の式は基礎行列Fに対応するエピポーラ平面のエピポーラ線と2つの特徴点座標(u1,v1),(u2,v2)の一方との距離が閾値TH以下であることを判定するものである。 In the above, the vectors x 1 and x 2 are the coordinates (u 1 , v 1 ) of the feature point of the image G1 and the coordinates of the feature point of the image G2, respectively, in the local feature correspondence between the query image G1 and the reference image G2. (U 2 , v 2 ) is expressed in homogeneous coordinates, and TH is a threshold value for determination. As is well known in epipolar geometry, the left side of the above equation “x 1 T F x 2 ” means the distance between the epipolar line and the points (u 1 , v 1 ), (u 2 , v 2 ). is there. In other words, the above formula indicates that the distance between the epipolar line of the epipolar plane corresponding to the basic matrix F and one of the two feature point coordinates (u 1 , v 1 ), (u 2 , v 2 ) is less than the threshold TH. Is determined.

第2処理では、当該繰り返し処理m回目における仮の幾何モデル(基礎行列F(m))に対する総合スコアscore(m)を、上記第1処理で得られたインライア数を当該繰り返し処理m回目におけるインライア数INL(m)及び当該m回目におけるステップS5の評価スコアEVAL(m)の関数F(INL(m),EVAL(m))として求め、当該m回目の検証結果として記録する。当該関数Fは、インライア数INL(m)及び評価スコアEVAL(m)の両方についての増加関数として所定のものを用意しておけばよい。   In the second process, the total score score (m) for the temporary geometric model (basic matrix F (m)) at the mth iteration is calculated, the number of inliers obtained in the first process is the inlier at the mth iteration. It is obtained as a function F (INL (m), EVAL (m)) of the evaluation score EVAL (m) of step S5 in the number INL (m) and the m-th time, and is recorded as the m-th verification result. As the function F, a predetermined function may be prepared as an increase function for both the inlier number INL (m) and the evaluation score EVAL (m).

なお、ステップS5の評価スコアEVAL(m)を閾値判定により妥当である又は妥当でないという2値の形式で与える実施形態において、妥当でないという評価結果である場合、総合スコアF(INL(m),EVAL(m))を所定の最低値として出力するようにしてもよい。あるいは、前述の第1処理自体を省略して、インライア数をカウントすることなく、当該幾何モデル(基礎行列F(m))は不適切であり破棄すべきものであるという検証結果を与えるようにしてもよい。当該インライア数をカウントすることなく破棄するという検証結果を与えることで、RANSACの枠組みにおける繰り返し処理の高速化を図ることができる。このような高速化を達成する具体例については、図7を参照して後述する。   Note that, in the embodiment in which the evaluation score EVAL (m) in step S5 is given in a binary format that is valid or not valid by the threshold determination, if the evaluation result is not valid, the overall score F (INL (m), EVAL (m)) may be output as a predetermined minimum value. Alternatively, the above first process itself may be omitted, and the verification result that the geometric model (fundamental matrix F (m)) is inappropriate and should be discarded without counting the number of inliers is provided. Also good. By giving a verification result that the number of inliers is discarded without counting, it is possible to speed up the iterative processing in the RANSAC framework. A specific example of achieving such high speed will be described later with reference to FIG.

[ステップS7:検証部25]
ステップS7では、検証部25が、当該m回目までの繰り返し処理によって、RANSACアルゴリズムにおける繰り返し処理の所定の終了条件(繰り返し回数mが所定値に到達している等の条件)が満たされているか否かを判定し、満たしていればステップS8へ進み、満たしていなければ、選択部21に対して次のm+1回目の処理を継続するよう指示したうえでステップS2に戻り、ステップS2において選択部21が前述の通りのランダムサンプル選択をm+1回目のものとして実施する。
[Step S7: Verification unit 25]
In step S7, whether or not the verification unit 25 satisfies a predetermined end condition of the repetitive process in the RANSAC algorithm (conditions such that the repetitive number m has reached a predetermined value) is satisfied by the m-th repetitive process. If it is satisfied, the process proceeds to step S8, and if not satisfied, the selection unit 21 is instructed to continue the next m + 1-th processing, and then the process returns to step S2 and selected in step S2. The unit 21 performs the random sample selection as described above as the m + 1th time.

[ステップS8:検証部25]
ステップS8では、検証部25が、以上繰り返されたループ処理において得られ記録されている総合スコアscore(m)=F(INL(m),EVAL(m))(m=1,2,…)に基づき、一連の仮の幾何モデル(基礎行列F(m))の中から最適な幾何モデルを決定して追加処理部31へと出力し、ステップS9へと進む。
[Step S8: Verification unit 25]
In step S8, the verification unit 25 obtains and records the total score score (m) = F (INL (m), EVAL (m)) (m = 1, 2,...) Based on the above, an optimal geometric model is determined from a series of temporary geometric models (basic matrix F (m)), and is output to the additional processing unit 31, and the process proceeds to step S9.

当該決定は、一実施形態では、総合スコアscore(m)が最大値となるようなものを最適なものとして決定することができる。別の一実施形態では、インライア数INL(m)が最大のもののうち、評価値EVAL(m)が最大のものに決定するようにしてもよい。この場合、前述のステップS6では総合スコアscore(m)の算出処理(第2処理)は省略して第1処理のみを行い、インライア数INL(m)及び評価値EVAL(m)を検証部25において記録しておくようにしてもよい。   In one embodiment, the determination can be made such that the total score score (m) is the maximum value. In another embodiment, the evaluation value EVAL (m) may be determined to be the largest among the largest inlier numbers INL (m). In this case, in the above-described step S6, the calculation process (second process) of the total score score (m) is omitted and only the first process is performed, and the inlier number INL (m) and the evaluation value EVAL (m) are obtained from the verification unit 25. You may make it record in.

ステップS9では、ステップS8での検証部25による検証結果に基づき、追加処理部31が追加処理を実施し、結果を出力してから、図2のフローは終了する。追加処理としては各種のものが可能であり、最適と判定された幾何モデルがループ処理回数m=mmaxにおけるものであったとすると、その総合スコアscore(mmax)又はインライア数INL(mmax)に基づいて、質問画像と参照画像とが同一対象物を写しているものであるか否かを判定するようにしてもよいし、質問画像と参照画像との類似度を出力するようにしてもよい。 In step S9, based on the verification result by the verification unit 25 in step S8, the additional processing unit 31 performs the additional processing and outputs the result, and then the flow of FIG. 2 ends. Various types of additional processing are possible, and if the geometric model determined to be optimal is at the number of loop processings m = m max , its total score score (m max ) or inlier number INL (m max ) Based on the above, it may be determined whether or not the question image and the reference image represent the same object, or the similarity between the question image and the reference image may be output. Good.

また、参照画像が複数存在する場合には、以上のステップS1〜S8を参照画像ごとに実施したうえで、ステップS9において追加処理部31が、質問画像(1枚)は複数の参照画像のうちのいずれに該当するかを、参照画像ごとの総合スコア又はインライア数に基づいて判断するようにしてもよい。   In addition, when there are a plurality of reference images, the above steps S1 to S8 are performed for each reference image, and in step S9, the additional processing unit 31 determines that the question image (one) is a plurality of reference images. It may be determined based on the total score or the number of inliers for each reference image.

上記のように、ステップS9における追加処理部31の処理を含む(図1の線L2及びL3の流れで処理する)ことで、幾何検証装置10は幾何検証に加えてさらに、類似度算出等の機能を担うことができる。また、ステップS9及び追加処理部31を省略する(図1の線L1の流れで処理する)ことで、幾何検証装置10では最終的な出力として幾何検証結果のみを出力することもできる。逆に、ステップS9及び追加処理部31を用いる場合、類似度算出等に限らず、最適判定された幾何検証結果に基づく任意出力を幾何検証装置10の出力とすることができる。例えば、質問画像G1のカメラ座標と参照画像G2のカメラ座標との関係(前述のパラメータ抽出部23における回転行列R及び並進ベクトルT)等を、当該最適と判定された幾何検証結果におけるものとして出力してもよい。   As described above, by including the processing of the additional processing unit 31 in step S9 (processing in the flow of lines L2 and L3 in FIG. 1), the geometric verification device 10 further performs similarity calculation and the like in addition to the geometric verification. Can take on the function. Further, by omitting step S9 and the additional processing unit 31 (processing in the flow of the line L1 in FIG. 1), the geometric verification apparatus 10 can output only the geometric verification result as the final output. Conversely, when step S9 and the additional processing unit 31 are used, not only similarity calculation and the like, but an arbitrary output based on the optimally determined geometric verification result can be used as the output of the geometric verification device 10. For example, the relationship between the camera coordinates of the query image G1 and the camera coordinates of the reference image G2 (the rotation matrix R and the translation vector T in the parameter extraction unit 23 described above) is output as the result of the geometric verification determined to be optimal. May be.

以上、図2のフロー全体を説明した。以下、図2のフローにおけるステップS5の評価部24の詳細として、前述の通りの各実施形態を担う各部1〜4を説明する。   The overall flow of FIG. 2 has been described above. Hereinafter, as the details of the evaluation unit 24 in step S5 in the flow of FIG. 2, the units 1 to 4 responsible for the respective embodiments as described above will be described.

[焦点距離評価部1について]
焦点距離評価部1では、抽出されたパラメータである質問画像G1の焦点距離f1及び参照画像G2の焦点距離f2が、以下のような考察から得られる現実的な範囲にあるかを調べ、当該範囲内にあれば妥当であり、当該範囲から逸脱するほど妥当ではないという形で、評価値を数値化した形又は2値判定の形で与える。以下、考察及び当該考察から導出される現実的な範囲の詳細を説明する。
[About focal length evaluation unit 1]
In the focal length evaluation unit 1, the focal length f1 of the query image G1 and the focal length f2 of the reference image G2, which are the extracted parameters, are checked to determine whether they are in a realistic range obtained from the following consideration. The evaluation value is given in the form of a numerical value or a binary decision in a form that is appropriate if it is within the range and not appropriate enough to deviate from the range. Hereinafter, the details of the practical range derived from the consideration and the consideration will be described.

まず、抽出された焦点距離f1,f2は画像座標より抽出していることから明らかなように、ピクセル単位での焦点距離を表したものであり、mm単位(ピクセル単位とは区別される現実世界の長さ単位であることを明示する例としてミリメートル(mm)を用いる。以下同様。)での焦点距離とは、以下の式(4-1)のような関係がある。   First, the extracted focal lengths f1 and f2 represent the focal length in pixel units, as is apparent from the image coordinates, and are expressed in mm units (the real world distinguished from pixel units). The focal length in millimeters (mm) is used as an example to clearly indicate that the unit is the length unit of the following.

ここで、fpixelはピクセル単位の焦点距離(=f1,f2)である。焦点距離f1,f2のいずれもがそれぞれのカメラにおける画像G1,G2において上記を満たすので、その両者の代表としてfpixelを用いるものとする。また、wpixel及びhpixelはそれぞれピクセル単位の画像(G1又はG2)の横幅及び縦幅であり、fmmはmm単位の焦点距離であり、SSmmはmm単位のセンササイズ(前記横幅又は縦幅のうち、大きい側に対応するセンササイズ)である。 Here, f pixel is a focal length (= f1, f2) in units of pixels. Since both the focal lengths f1 and f2 satisfy the above in the images G1 and G2 in the respective cameras, f pixel is used as a representative of both of them. Further, w pixel and h pixel are the horizontal width and vertical width of the image (G1 or G2) in pixel units, f mm is the focal length in mm units, and SS mm is the sensor size in mm units (the horizontal width or vertical length). The sensor size corresponding to the larger side of the width).

また、ピンホールカメラモデルにおいては、カメラが物体に対してピントを合わせている場合に、図4に示すような関係が成り立つ。当該関係により、WDmmをmm単位での作動距離(Working Distance)とし、FoVmmをmm単位での視野(Field of View)として、次の式(4-2)が成り立つ。 In the pinhole camera model, the relationship shown in FIG. 4 is established when the camera focuses on the object. Based on this relationship, the following equation (4-2) is established, where WD mm is the working distance in mm and FoV mm is the field of view in mm.

図4では、ピンホールカメラモデルにおける視野FからレンズLを通ってセンサSへと至る光線として、視野Fの上端点FE1からレンズLの中心Cを通ってセンサSの下端点SE2へと直進する光線と、視野Fの下端点FE2からレンズLの中心Cを通ってセンサSの上端点SE1へと直進する光線とが描かれている。センサSとレンズLと視野Fとが平行であるものとして、当該2本の光線の線分FE1-C-SE2及びFE2-C-SE1によって2つの三角形C-FE1-FE2及び三角形C-SE1-SE2が相似となるため、上記の式(4-2)が成立する。図示する通り、焦点距離fmmはレンズLとセンサSとの距離であり、差動距離WDmmはレンズLと視野Fとの距離である。 In FIG. 4, as a ray reaching from the field of view F to the sensor S through the lens L in the pinhole camera model, it goes straight from the upper end point FE1 of the field of view F to the lower end point SE2 of the sensor S through the center C of the lens L. A ray and a ray traveling straight from the lower end point FE2 of the field of view F through the center C of the lens L to the upper end point SE1 of the sensor S are drawn. Assuming that sensor S, lens L, and field of view F are parallel, two triangles C-FE1-FE2 and triangle C-SE1- are represented by line segments FE1-C-SE2 and FE2-C-SE1 of the two rays. Since SE2 is similar, the above equation (4-2) is established. As shown, the focal length f mm is the distance between the lens L and the sensor S, and the differential distance WD mm is the distance between the lens L and the field of view F.

なお、上記では図4が画像の縦(垂直方向)の前提で説明したが、画像の横方向であってもよく、式(4-1)の右辺で示される通り、縦又は横のうち長い側を想定したのが図4である。   In the above description, FIG. 4 is described based on the premise of the vertical (vertical direction) of the image. However, the horizontal direction of the image may be used. FIG. 4 assumes the side.

さらに、図4に示すようにカメラの画角をθAoVとおく(画角θAoV=∠FE1-C-FE2又は∠SE1-C-SE2)と、以下の式(4-3)が成り立つ。 Furthermore, as shown in FIG. 4, the angle of view of the camera is set to θ AoV (view angle θ AoV = ∠FE1-C-FE2 or ∠SE1-C-SE2), and the following equation (4-3) holds.

従って、以上の式(4-1)〜(4-3)により、カメラが物体にピントを合わせている場合、以下の式(4-4)が成り立つ。   Therefore, when the camera focuses on the object by the above formulas (4-1) to (4-3), the following formula (4-4) is established.

上記式(4-4)の関係を用いて、抽出したf1,f2(=fpixel)をmax{wpixel,hpixel}で除算した値(左辺の値)が、カメラの画角として想定される所定範囲θminAoVmaxにおいて上記の式の右辺の値(2tan(θAoV/2)の逆数)が取りうる所定範囲に収まるか否かを判定(2値判定)すればよい。また、2値判定ではなく連続値的な評価値として求める場合は、当該範囲から逸脱するほど評価値を下げるようにするような所定関数を用いればよい。 The value obtained by dividing the extracted f1, f2 (= f pixel ) by max {w pixel , h pixel } using the relationship of the above equation (4-4) (value on the left side) is assumed as the angle of view of the camera. In the predetermined range θ minAoVmax , it is only necessary to determine (binary determination) whether the value on the right side of the above formula (the reciprocal of 2 tan (θ AoV / 2)) is within a possible range. . Further, when obtaining a continuous evaluation value rather than a binary determination, a predetermined function may be used that lowers the evaluation value as the value deviates from the range.

2値判定する場合の数値例を挙げると、次の通りである。例えば、仮に利用されるカメラの画角の範囲をθmin=10°からθmax=100°の範囲と想定し、式(4-4)を適用する所定範囲として設定する。この場合、式(4-4)の右辺(及びこれに等しい左辺)の値の範囲はおよそ0.42から5.72の範囲に収まるはずである。逆に、この範囲に収まらないような焦点距離f1,f2の値が抽出された場合、現在の仮の幾何モデルが妥当ではないと判定することができる。このように,予め想定されるf1,f2を上限の閾値および下限の閾値で判定することによって,仮の幾何モデルの妥当性を評価することができる。 Examples of numerical values for binary determination are as follows. For example, assuming that the range of the angle of view of the camera to be used is a range of θ min = 10 ° to θ max = 100 °, the range is set as a predetermined range to which Expression (4-4) is applied. In this case, the value range of the right side (and the left side that is equal to this) in Equation (4-4) should be in the range of about 0.42 to 5.72. Conversely, if the values of the focal lengths f1 and f2 that do not fall within this range are extracted, it can be determined that the current temporary geometric model is not valid. In this way, the validity of the provisional geometric model can be evaluated by determining f1 and f2 assumed in advance using the upper threshold and the lower threshold.

なお、以上の焦点距離評価部1による評価は、質問画像G1より抽出される焦点距離f1及び参照画像G2より抽出される焦点距離f2の両者に対して実施する。除算する値であるmax{wpixel,hpixel}も、質問画像G1及び参照画像G2におけるそれぞれの値を利用する。当該両者において評価値が得られるので、焦点距離評価部1による最終出力としては、所定関数を用いて当該2つの評価値の総合スコアの形で出力すればよい。2値判定で評価する場合であれば例えば、当該両者において妥当と判定される場合にのみ、総合評価結果として妥当であるという評価を下し、少なくともいずれか一方が妥当でないと判定された場合は、総合評価結果として妥当ではないという評価を下すようにしてもよい。 Note that the above evaluation by the focal length evaluation unit 1 is performed on both the focal length f1 extracted from the query image G1 and the focal length f2 extracted from the reference image G2. As the values to be divided, max {w pixel , h pixel } also use the respective values in the question image G1 and the reference image G2. Since an evaluation value is obtained in both cases, the final output by the focal length evaluation unit 1 may be output in the form of a total score of the two evaluation values using a predetermined function. If the evaluation is based on binary evaluation, for example, only if it is determined to be appropriate in both cases, the overall evaluation result is evaluated as appropriate, and if at least one of them is determined to be invalid The evaluation may not be valid as a comprehensive evaluation result.

[位置関係評価部2について]
位置関係評価部2は、抽出されたパラメータである回転行列R及び並進ベクトルTが現実的な範囲にあるかを評価し、現実的な範囲内から逸脱するほど評価値を下げるようにする形で、評価値を得る。2値判定を行う場合であれば、閾値判定で現実的な範囲内にあるか否かを評価すればよい。
[About Position Evaluation 2]
The positional relationship evaluation unit 2 evaluates whether the extracted rotation matrix R and translation vector T are in a realistic range, and lowers the evaluation value as it deviates from the realistic range. Get an evaluation value. In the case of performing binary determination, it is sufficient to evaluate whether or not it is within a realistic range by threshold determination.

具体的には、回転行列R及び並進ベクトルTから質問画像G1のカメラの光軸と参照画像G2のカメラの光軸とのなす角θoptを求め、当該光軸同士のなす角θoptが現実的な範囲に収まっているかを評価するようにすればよい。現実的な範囲は、次のような考察に基づいて所定範囲として設定すればよい。 Specifically, determine the angle theta opt between the optical axis of the rotation matrix R and the translation from the vector T and the optical axis of the query image G1 camera reference image G2 camera, angle theta opt between the optical axis of the reality It is only necessary to evaluate whether it is within a certain range. The realistic range may be set as the predetermined range based on the following consideration.

局所特徴に基づいて幾何検証を行う場合、2つのカメラの両方で物体の同一部分を写さなければ、そもそも局所特徴をマッチングすることができない。すなわち,ある程度角θoptが小さくなければ、物体の同一部分を写すことができず、正しい幾何モデルを推定することができない。そのため、角θoptが予め想定される上限の閾値に収まっているかで、仮の幾何モデルの妥当性を評価することができる。このため、角θoptは正面の場合(カメラの光軸の方向に変化がない場合)を0°と定義し、正面からずれるに従い、値が大きくなるように求めるものとする。 When performing geometric verification based on local features, local features cannot be matched in the first place unless the same part of the object is captured by both two cameras. That is, unless the angle θ opt is small to some extent, the same part of the object cannot be copied, and a correct geometric model cannot be estimated. Therefore, it is possible to evaluate the validity of the temporary geometric model depending on whether the angle θ opt is within the upper limit threshold assumed in advance. For this reason, the angle θ opt is defined as 0 ° in the case of the front (when there is no change in the direction of the optical axis of the camera), and the angle θ opt is determined so as to increase as it deviates from the front.

なお、図5に[ケース1]及び[ケース2]と場合分けして示すように、角θoptは[ケース1]のように質問画像G1のカメラの光軸A1と参照画像G2のカメラの光軸A2とが内向きになる場合と、[ケース2]のように質問画像G1のカメラの光軸A1と参照画像G2のカメラの光軸A2とが外向きになる場合と、の区別が存在するので、当該内向きの場合と外向きの場合とで角θoptが現実的な範囲であるかを判断する範囲を変えて設定するようにしてもよい。 In addition, as shown separately in [Case 1] and [Case 2] in FIG. 5, the angle θ opt is the optical axis A1 of the camera of the query image G1 and the camera of the reference image G2 as in [Case 1]. There is a distinction between the case where the optical axis A2 is inward and the case where the optical axis A1 of the question image G1 camera and the optical axis A2 of the reference image G2 are outward as in [Case 2]. Therefore, the range for determining whether the angle θ opt is a realistic range may be changed between the inward and outward directions.

なお、図5では[ケース1]及び[ケース2]の両者において、並進Tを参照画像G2の光軸A2に適用することで光軸A2の起点を参照画像G2の主点C2から質問画像G1の主点C1に移動したものを点線で光軸A20として描いている。角θoptはこのように主点が並進Tによって一致した光軸A1と光軸A20との角度となる。 In FIG. 5, in both [Case 1] and [Case 2], the translation T is applied to the optical axis A2 of the reference image G2, so that the origin of the optical axis A2 is changed from the principal point C2 of the reference image G2 to the question image G1. The object moved to the principal point C1 is drawn as an optical axis A20 by a dotted line. The angle θ opt is thus the angle between the optical axis A1 and the optical axis A20 whose principal points coincide with each other by the translation T.

また、位置関係評価部2では以上の評価を行うために、以下の(5)の周知の抽出処理を行うが、当該処理(5)は前述の(1)〜(4)の処理と合わせてパラメータ抽出部23において実施しておいてもよい。
(5)抽出された回転行列R及び並進ベクトルTより、光軸A1及び光軸A2のなす角θoptを抽出する。また、当該回転行列R及び並進ベクトルTに基づき、光軸A1及び光軸A2が図5に示したような内向き又は外向きのいずれの関係にあるかを判断する。
Further, in order to perform the above evaluation, the positional relationship evaluation unit 2 performs the following well-known extraction process (5). The process (5) is combined with the processes (1) to (4) described above. The parameter extraction unit 23 may perform this.
(5) Extract the angle θ opt between the optical axis A1 and the optical axis A2 from the extracted rotation matrix R and translation vector T. Further, based on the rotation matrix R and the translation vector T, it is determined whether the optical axis A1 and the optical axis A2 have an inward or outward relationship as shown in FIG.

[一貫性評価部3について]
一貫性評価部3では、抽出された各パラメータが局所特徴対応における局所特徴と一貫性を持つかを評価し、一貫性が高いほど評価値が高いような評価値を出力する、あるいは、一貫性の高さに対する閾値判定により妥当であるか否かを2値判定することができる。具体的に、抽出したパラメータのうちいずれの量と局所特徴のうちいずれの量との間でどのようにして一貫性を評価するかの区別により、一貫性評価部3では以下の第1及び/又は第2実施形態が可能である。
[About consistency assessment section 3]
The consistency evaluation unit 3 evaluates whether each extracted parameter is consistent with the local feature in the local feature correspondence, and outputs an evaluation value such that the higher the consistency is, the higher the evaluation value is. It is possible to make a binary determination as to whether or not it is appropriate by determining the threshold value for the height of the. Specifically, the consistency evaluation unit 3 determines whether the consistency is evaluated between which quantity of the extracted parameters and which quantity of the local features. Or a second embodiment is possible.

第1実施形態では、抽出した焦点距離f1,f2の比f1/f2の逆数(f1/f2)-1が、前述の弱幾何検証部13で求めた弱幾何パラメータのうちのスケール比のピーク値Δspeakに近い値であるか否かを以下の式(5-1)又は(5-2)のような閾値判定で判断し、近いと判断された場合に妥当であるとの評価結果を得ることができる。
|(f1/f2)-1-Δspeak|<THp1 …(5-1)
|log(f1/f2)-1-logΔspeak|<THp1 …(5-2)
In the first embodiment, the reciprocal (f1 / f2) −1 of the ratio f1 / f2 of the extracted focal lengths f1, f2 is the peak value of the scale ratio among the weak geometric parameters obtained by the weak geometric verification unit 13 described above. Whether the value is close to Δs peak is determined by threshold judgment such as the following formula (5-1) or (5-2), and when it is determined that it is close, an evaluation result is obtained that is appropriate. be able to.
| (f1 / f2) -1 -Δs peak | <THp1… (5-1)
| log (f1 / f2) -1 -logΔs peak | <THp1… (5-2)

上記において、THp1,THp2は判定用の閾値である。式(5-1)は差を直接取ることで、また、式(5-2)は対数を取ってから差を取ることで、スケール比のピーク値Δspeakに近い値であるか否かを判定しているが、考え方は同じである。なお、スケール比のピーク値Δspeakに関しては、弱幾何検証部13の説明において前述のように、対応関係が設定された質問画像G1及び参照画像G2の局所特徴におけるそれぞれのスケールs1i(i=1,2,…,N)及びスケールs2i(i=1,2,…,N)とを参照することで、画像G1の画像G2に対するスケールの比Δsi= s1i/s2i(i=1,2,…,N)を求めて既に集計済みである結果としてのピーク値Δspeakを用いればよい。 In the above, THp1 and THp2 are determination thresholds. In equation (5-1), the difference is taken directly, and in equation (5-2), the logarithm is taken and then the difference is taken to determine whether the value is close to the peak value Δs peak of the scale ratio. Although it is judged, the way of thinking is the same. Regarding the peak value Δs peak of the scale ratio, as described above in the description of the weak geometric verification unit 13, the respective scales s1 i (i = i = i) in the local features of the question image G1 and the reference image G2 for which the correspondence relationship is set. 1,2, ..., N) and scale s2 i (i = 1,2, ..., N), the ratio of the scale of image G1 to image G2 Δs i = s1 i / s2 i (i = 1,2,..., N) may be obtained and the peak value Δs peak as a result that has already been aggregated may be used.

また、上記の式(5-1)又は(5-2)は2値判定するための条件を示しているが、数値として評価値を与える場合、式(5-1)の左辺である「|(f1/f2)-1-Δspeak|」の値又は式(5-2)の左辺である|log(f1/f2)-1-logΔspeak|の値が小さいほど、より妥当であり高い評価値を与えるような所定関数を用いることで、評価値を計算すればよい。 In addition, the above formula (5-1) or (5-2) shows the condition for binary judgment, but when an evaluation value is given as a numerical value, “|| The smaller the value of (f1 / f2) -1 -Δs peak | or the value of | log (f1 / f2) -1 -log Δs peak | The evaluation value may be calculated by using a predetermined function that gives a value.

第1実施形態はすなわち、比f1/f2の逆数(f1/f2)-1が、質問画像G1に写っている対象物のサイズと(正解画像である場合の)参照画像G2に映っている(同一)対象物のサイズとの比に概ね一致する、という考察に基づくものである。当該考察は以下のように導かれるものである。 That is, in the first embodiment, the reciprocal (f1 / f2) −1 of the ratio f1 / f2 is reflected in the size of the object shown in the question image G1 and the reference image G2 (in the case of a correct image) ( It is based on the consideration that it substantially matches the ratio to the size of the object. This consideration is derived as follows.

すなわち、式(4-4)の1行目より、抽出された2つのカメラの焦点距離の比は、(2つの画像サイズが概ね一致している前提で)各カメラの撮影時のWDmm/FoVmmの比に等しい。図4及び数式(4-2)より、SSmmとFoVmmとは比例関係にあるため、2つのカメラのSSmmの比はFoVmmの比と一致すると考えられる。カメラのSSmmは変化しないため、2つのカメラの焦点距離の比はWDmmの比に比例すると考えられる。そのため、同一サイズの物体を撮影した際のWDmmの比の逆数は、局所特徴集合におけるスケール比のピーク値Δspeak(弱幾何検証部13で求めたもの)と一貫性を持つと考えられる。従って、上記のような評価が可能となる。なお、2つのカメラのSSmmが既知である場合、その比を用いることによってFoVmmの影響を打ち消すようにしてもよい。 In other words, from the first line of Equation (4-4), the ratio of the focal lengths of the two extracted cameras is the WD mm / at the time of shooting of each camera (assuming that the two image sizes are almost the same). Equal to the ratio of FoV mm . From FIG. 4 and Formula (4-2), since SS mm and FoV mm are in a proportional relationship, it is considered that the ratio of SS mm of the two cameras matches the ratio of FoV mm . Since the SS mm of the camera does not change, the ratio of the focal lengths of the two cameras is considered to be proportional to the ratio of WD mm . Therefore, it is considered that the reciprocal of the ratio of WD mm when photographing objects of the same size is consistent with the peak value Δs peak of the scale ratio in the local feature set (obtained by the weak geometric verification unit 13). Therefore, the above evaluation is possible. When the SS mm of the two cameras is known, the influence of FoV mm may be canceled by using the ratio.

第2実施形態では、前述の処理(4)において回転行列Rより抽出されたZ軸すなわちカメラの光軸周りの回転角θZが、前述の弱幾何検証部13で既に求めている弱幾何パラメータのうちの方向差のピーク値Δθpeakに(質問画像G1に対して参照画像G2が正解画像である場合には)概ね一致するはずであるという考察に基づき、以下の式(5-3)が満たされる場合に、妥当であるとの評価結果を得ることができる。ここで、THθ3は判定用の閾値である。
Z-Δθpeak|<THθ3 …(5-3)
In the second embodiment, the Z-axis extracted from the rotation matrix R in the process (4), that is, the rotation angle θ Z around the optical axis of the camera is the weak geometric parameter already determined by the weak geometry verification unit 13 described above. The following formula (5-3) is based on the consideration that the peak value Δθ peak of the difference in direction should substantially match (when the reference image G2 is a correct image with respect to the question image G1). When it is satisfied, an evaluation result that is appropriate can be obtained. Here, THθ3 is a threshold value for determination.
| θ Z -Δθ peak | <THθ3… (5-3)

なお、上記の計算時には、差分の絶対値が最小になるように換算するものとする。例えば、5°と355°との差分の絶対値は10°として計算するものとする。   In the above calculation, conversion is performed so that the absolute value of the difference is minimized. For example, the absolute value of the difference between 5 ° and 355 ° is calculated as 10 °.

また、上記の式(5-3)は評価値を妥当か否かの2値判定する場合を表しているが、同式の左辺「|θZ-Δθpeak|」の値が小さいほどより評価値が高くなるような所定関数を用いることで、連続値として評価値を得るようにしてもよい。この場合も上記のように「差分の絶対値が最小になるように換算」するものとする。 In addition, the above formula (5-3) represents the case where the evaluation value is determined as a binary value. However, the smaller the value of “| θ Z -Δθ peak |” on the left side of the formula, the more evaluation is performed. The evaluation value may be obtained as a continuous value by using a predetermined function that increases the value. Also in this case, as described above, “converted so that the absolute value of the difference is minimized”.

なお、前述のカメラの光軸周りの回転角θZとは次を意味する。すなわち、並進ベクトルTの適用により質問画像G1の主点C1を参照画像G2の主点C2に一致させたうえで、前述の式(2)における3つの回転のうち前半側の2つの回転RYY)RXX)を適用すると、質問画像G1と参照画像G2とが同一平面に乗った状態となる。当該状態から回転角θZだけ回転する(すなわち、式(2)の3つの回転のうち最後の1つの回転RZZ)を適用する)と、質問画像G1と参照画像G2との向き(縦横の向き)が一致する。 The rotation angle θ Z around the optical axis of the above-mentioned camera means the following. That is, after making the principal point C1 of the query image G1 coincide with the principal point C2 of the reference image G2 by applying the translation vector T, two rotations R Y on the first half side among the three rotations in the above-described equation (2) When (θ Y ) R XX ) is applied, the question image G1 and the reference image G2 are on the same plane. When rotating from the state by the rotation angle θ Z (that is, applying the last rotation R ZZ ) among the three rotations of the expression (2)), the orientation of the question image G1 and the reference image G2 (Vertical and horizontal orientations) match.

[復元性評価部4について]
復元性評価部4では、抽出されたパラメータとしての基礎行列Fそのものを用いて、正しく3次元復元できるか否かを次のように評価する。すなわち、復元された点が両方の座標系で奥行き(Z座標)が正となるかを判定し、全て奥行きが正である場合には妥当であるとの評価結果を得るようにし、一つでも奥行きが負となるものがある場合には妥当でないとの評価結果を得る。
[Restorability evaluation unit 4]
The restorability evaluation unit 4 uses the basic matrix F itself as the extracted parameter to evaluate whether or not correct three-dimensional restoration can be performed as follows. That is, it is determined whether the restored point has a positive depth (Z coordinate) in both coordinate systems, and if all the depths are positive, an evaluation result is obtained that is valid, If there is a negative depth, an evaluation result is obtained that is not valid.

図6は、当該計算する奥行きを模式的に説明するための図であり、点P[計算]は求めた基礎行列Fによって特定される計算上のある任意の1つの特徴点の3次元位置を表している。従って、当該点P[計算]を質問画像G1及び参照画像G2のそれぞれのカメラ座標系に変換することで、それぞれのカメラ座標系での奥行きが得られる。図6では、[ケース1]として両画像G1,G2における奥行きが共に正となる場合が、[ケース2]として両画像G1,G2における奥行きが負となる場合が、[ケース3]として画像G1における奥行きが正となり画像G2における奥行きが負となる場合が、それぞれ示されている。当該各画像の各点に関してその3次元位置の奥行きの正負の区別は図中にも記されている通りである。 FIG. 6 is a diagram for schematically explaining the depth to be calculated. A point P [calculation] is a three-dimensional position of one arbitrary feature point in the calculation specified by the obtained basic matrix F. Represents. Therefore, by converting the point P [calculation] into the respective camera coordinate systems of the question image G1 and the reference image G2, the depths in the respective camera coordinate systems can be obtained. In FIG. 6, the case where the depths in both the images G1 and G2 are both positive as [Case 1], and the case where the depths in both the images G1 and G2 are negative as [Case 2] is the image G1 as [Case 3]. The case where the depth at is positive and the depth at image G2 is negative is shown. The positive / negative distinction of the depth of the three-dimensional position with respect to each point of each image is as described in the figure.

ここで、[ケース1]〜[ケース3]のそれぞれにおいて、P1[画像]及びP2[画像]は、画像G1,G2よりそれぞれ局所特徴における特徴点として局所特徴抽出部11において検出された点の当該画像G1,G2上の位置座標であり、点P[計算]を算出するのに用いた点である。また、点C1,C2は図2で説明したのと同じく、各画像G1,G2のカメラ(レンズ等を含む撮像系をいう)の主点である。図6の模式例にも示されているように、点P[計算]の奥行きの正負はすなわち、1つの直線上にある(1)カメラの主点(C1又はC2)、(2)画像上の位置座標で特定される画像上の点(P1[画像]又はP2[画像])及び(3)当該画像上の点を用いて求めた基礎行列Fによって復元された3次元位置(P[計算])、という3つの点の、当該1つの直線上の並び順に対応するものである。そして具体的には、当該(1)カメラの主点と(3)復元された3次元位置とが、当該画像(G1又はG2)の平面で3次元空間を2つのサイド(部分)に区切った場合に、異なるサイドに属していれば点P[計算]の奥行き値は正となり、逆に、同じサイドに属していれば点P[計算]の奥行き値は負となる。 Here, in each of [Case 1] to [Case 3], P1 [Image] and P2 [Image] are the points detected by the local feature extraction unit 11 as feature points in the local features from the images G1 and G2, respectively. These are the position coordinates on the images G1, G2, and are the points used to calculate the point P [calculation] . Points C1 and C2 are the main points of the cameras (referred to as imaging systems including lenses and the like) of the images G1 and G2, as described with reference to FIG. As shown in the schematic example of FIG. 6, the positive or negative of the depth of the point P [calculation] is on one straight line (1) the main point (C1 or C2) of the camera, (2) on the image The point (P1 [Image] or P2 [Image] ) on the image specified by the position coordinates of, and (3) the three-dimensional position (P [Calculation] restored by the basic matrix F obtained using the point on the image ] ), Which corresponds to the arrangement order of the three points on the one straight line. Specifically, (1) the main point of the camera and (3) the restored three-dimensional position divide the three-dimensional space into two sides (parts) on the plane of the image (G1 or G2). In this case, the depth value of the point P [calculation] is positive if it belongs to different sides, and conversely the depth value of the point P [calculation] is negative if it belongs to the same side.

すなわち、当該正負を判定する対象となるZ軸方向の奥行きとは、カメラにおける主点から、画像平面に垂直な方向(光軸方向)で3次元復元点を「見る」際の、当該垂直な方向における奥行きである。その正負は、主点から出発して画像平面上の位置座標を通過して3次元位置に到達するのであれば(上記の異なるサイドに属する場合に該当して)正の奥行き値となり、画像平面上の位置座標から出発して主点を通過して3次元位置座標に到達するのであれば(上記の同じサイドに属する場合に該当して)負の奥行き値となる。   In other words, the depth in the Z-axis direction that is a target for determining the positive / negative is the vertical when the 3D restoration point is “seen” from the principal point on the camera in the direction perpendicular to the image plane (optical axis direction). Depth in direction. If it starts from the principal point and passes through the position coordinates on the image plane to reach the three-dimensional position (corresponding to the case of belonging to the above different side), it becomes a positive depth value, and the image plane If it starts from the upper position coordinate and passes through the principal point to reach the three-dimensional position coordinate (corresponding to the case of belonging to the same side as described above), it becomes a negative depth value.

例えば、[ケース1]では画像G1の点P1[画像]に関して、「主点C1→画像G1上の点P1[画像]→3次元位置P[計算]」という順番で並んでおり、主点C1と復元された3次元座標P[計算]とが画像G1の定める平面で区切られる3次元空間上において互いに別サイドに属する関係にある。従って、Z軸の正方向を主点C1から画像G1へ向かうようなカメラ光軸方向として定める約束のもと、点P1[画像]の復元された3次元位置P[計算]の奥行き(Z座標値)は正となる。逆に、[ケース2]の画像G1の点P1[画像]では、主点C1と3次元位置P[計算]とが画像G1の平面で空間を区切った際に同サイドに属しているので、点P1[画像]の復元された3次元位置P[計算]の奥行き(Z座標値)は負となる。その他の各点についても同様に、奥行き値の正負は前述及び図中に記す通りとなる。 For example, in [Case 1], the point P1 [image] of the image G1 is arranged in the order of “the main point C1 → the point P1 [image] on the image G1 → the three-dimensional position P [calculation] ”, and the main point C1 And the restored three-dimensional coordinate P [calculation] belong to different sides in a three-dimensional space partitioned by a plane defined by the image G1. Therefore, with the promise to define the positive direction of the Z axis as the camera optical axis direction from the principal point C1 to the image G1, the depth (Z coordinate ) of the restored three-dimensional position P [calculation] of the point P1 [image] Value) is positive. Conversely, at the point P1 [image ] of the image G1 in [Case 2], the principal point C1 and the three-dimensional position P [calculation] belong to the same side when the space is divided by the plane of the image G1, The depth (Z coordinate value) of the restored three-dimensional position P [calculation] of the point P1 [image] is negative. Similarly, regarding other points, the positive and negative depth values are as described above and in the drawings.

なお、復元性評価部4において上記のような奥行きを計算する全ての点P[計算]とは、選択部21によりステップS2で選択された局所特徴対応における全ての点P[計算]である。 Note that the P [Calculation all points depth calculating the above-mentioned in restoring evaluation unit 4, which is all points P in local feature correspondence selected in step S2 by the selector 21 [Calculation.

前述の式(1)のエピポーラ方程式が単にエピポーラ線上に点が位置することを保証するものであるに過ぎず、必ずしも正しく3次元復元できることを保証するものではないのに対し、復元された点の奥行きを用いた評価により、より確実に仮の幾何モデルの妥当性を評価することができる。選択された点対応が全てインライアである場合、それらは正しく3次元復元できるはずだからである。特に、奥行きが1つでも負となるような図6の[ケース2]や[ケース3]は、質問画像G1と参照画像G2とが同一立体物を撮影している状況としては実現不可能(あるいは困難)な状況であり、正しく3次元復元できていない状況であるが、復元性評価部4によればこのような場合をアウトライアに該当するものとして排除する(あるいは妥当性が低いものと評価する)ことが可能である。なお、選択された点対応の中にアウトライアが含まれていた場合であっても、偶然正しく3次元復元されてしまう可能性はある。なぜならば、たとえアウトライアであっても、カメラの相対姿勢に矛盾しない配置である可能性があるためである。   The above-mentioned epipolar equation of equation (1) merely guarantees that the point is located on the epipolar line, and does not necessarily guarantee that the three-dimensional reconstruction can be performed correctly, whereas By the evaluation using the depth, the validity of the temporary geometric model can be more reliably evaluated. This is because if all the selected point correspondences are inliers, they should be able to be restored correctly in 3D. In particular, [Case 2] and [Case 3] in FIG. 6 where even one depth is negative is not feasible as a situation where the query image G1 and the reference image G2 are photographing the same three-dimensional object ( However, according to the restorability evaluation unit 4, such a case is excluded as being an outlier (or has a low relevance). Can be evaluated). Even if the outlier is included in the selected point correspondence, there is a possibility that the three-dimensional restoration is accidentally correct. This is because even an outlier may have an arrangement consistent with the relative posture of the camera.

なお、上記では全ての点P[計算]について復元された点の奥行きを判定して評価値を妥当であるか否かの2値判定で与える場合を説明したが、復元性評価部4では同様に、評価値を連続値として得ることもできる。例えば、全ての点P[計算]に対し,両方の座標系で奥行きが正となるものを計数(カウント)することで、当該計数が大きいほど評価値が高いような所定関数として、評価値を与えるようにすることもできる。 In the above description, the depth of the restored points is determined for all the points P [calculation] , and the evaluation value is given by binary determination as to whether it is valid or not. In addition, the evaluation value can be obtained as a continuous value. For example, for all points P [calculation] , by counting (counting) those whose depths are positive in both coordinate systems, the evaluation value is set as a predetermined function such that the evaluation value increases as the count increases. It can also be given.

[以上の各部1〜4の組み合わせについて]
以上、評価部24の各実施形態を担う各部1〜4をそれぞれ説明したが、当該各部1〜4はいずれか1つのみを用いてもよいし、任意の複数を組み合わせて用いてもよい。複数を組み合わせて利用する場合は、各部1〜4のうち利用したものにおける各評価値の総合スコアとして、評価部24は最終的な評価値・評価結果を出力すればよい。当該総合スコアの算出においては所定関数や所定のルールベース手法を用いればよい。
[About the combination of parts 1 to 4 above]
As mentioned above, although each part 1-4 which bears each embodiment of the evaluation part 24 was each demonstrated, the said each part 1-4 may use only any one, and may use it combining arbitrary multiple. When using a plurality of combinations, the evaluation unit 24 may output a final evaluation value / evaluation result as an overall score of each evaluation value of the units 1 to 4 used. In calculating the total score, a predetermined function or a predetermined rule-based method may be used.

図7は一実施形態に係る幾何検証装置10の動作のフローチャートである。当該位置実施形態は、評価部24において各部1〜4の全てを利用し、各部1〜4では妥当である又は妥当でないという2値判定で評価結果を得るようにし、各部1〜4の少なくともいずれか1つにおいて妥当でないという結果が得られた場合には、評価部24において当該RANSACの繰り返し処理において選択されたランダムサンプルとしての局所特徴対応は妥当でないと判断して破棄するようにするものである。当該破棄によりRANSAC処理の高速化を図ることができる。   FIG. 7 is a flowchart of the operation of the geometric verification apparatus 10 according to an embodiment. The position embodiment uses all of the parts 1 to 4 in the evaluation unit 24, and obtains an evaluation result by binary determination that each part 1 to 4 is valid or invalid, and at least any of the parts 1 to 4 If one of the results shows that the result is not valid, the evaluation unit 24 determines that the local feature correspondence as the random sample selected in the repetitive processing of the RANSAC is not valid, and discards it. is there. The discard can speed up the RANSAC process.

図7の一実施形態は図2の一実施形態におけるステップS5の一つの具体例を示すものとなっており、図2のステップS5を具体化したものが図7のステップS51からS59までの部分に該当する。   One embodiment of FIG. 7 shows one specific example of step S5 in one embodiment of FIG. 2, and a specific example of step S5 of FIG. 2 is a portion from steps S51 to S59 of FIG. It corresponds to.

上記以外の図7のステップS11〜S14及びS16〜S19はそれぞれ対応するステップ番号を付している図2のステップS1〜S4及びS6〜S9と同一であるので、重複する説明は省略する。以下、図7独自のステップであるステップS51からS59までの部分を説明する。   Steps S11 to S14 and S16 to S19 in FIG. 7 other than those described above are the same as steps S1 to S4 and S6 to S9 in FIG. Hereinafter, steps S51 to S59, which are steps unique to FIG. 7, will be described.

ステップS14(図2のステップS4と同様)を終えてステップS51に至ると、焦点距離評価部1が前述の2値評価により当該幾何モデルが妥当か否かを評価してからステップS52へ進む。ステップS52では、ステップS51の評価結果が妥当であったか否かが判定され、妥当であればステップS53へ進み、妥当でなければステップS59へ進む。   When step S14 (similar to step S4 in FIG. 2) is finished and step S51 is reached, the focal length evaluation unit 1 evaluates whether or not the geometric model is valid by the binary evaluation described above, and then proceeds to step S52. In step S52, it is determined whether or not the evaluation result in step S51 is valid. If valid, the process proceeds to step S53, and if not valid, the process proceeds to step S59.

ステップS53では、位置関係評価部2が前述の2値評価により当該幾何モデルが妥当か否かを評価してからステップS54へ進む。ステップS54では、ステップS53の評価結果が妥当であったか否かが判定され、妥当であればステップS55へ進み、妥当でなければステップS59へ進む。   In step S53, the positional relationship evaluation unit 2 evaluates whether or not the geometric model is valid by the binary evaluation described above, and then proceeds to step S54. In step S54, it is determined whether or not the evaluation result in step S53 is valid. If valid, the process proceeds to step S55, and if not valid, the process proceeds to step S59.

ステップS55では、一貫性評価部3が前述の2値評価により当該幾何モデルが妥当か否かを評価してからステップS56へ進む。ステップS56では、ステップS55の評価結果が妥当であったか否かが判定され、妥当であればステップS57へ進み、妥当でなければステップS59へ進む。   In step S55, the consistency evaluation unit 3 evaluates whether or not the geometric model is valid by the binary evaluation described above, and then proceeds to step S56. In step S56, it is determined whether or not the evaluation result in step S55 is valid. If valid, the process proceeds to step S57, and if not valid, the process proceeds to step S59.

ステップS57では、復元性評価部4が前述の2値評価により当該幾何モデルが妥当か否かを評価してからステップS58へ進む。ステップS58では、ステップS57の評価結果が妥当であったか否かが判定され、妥当であればステップS16(図2のステップS6と同様のステップ)へ進み、妥当でなければステップS59へ進む。   In step S57, the restorability evaluating unit 4 evaluates whether or not the geometric model is valid by the binary evaluation described above, and then proceeds to step S58. In step S58, it is determined whether or not the evaluation result in step S57 is valid. If valid, the process proceeds to step S16 (the same step as step S6 in FIG. 2), and if not valid, the process proceeds to step S59.

以上のステップS52,S54,S56,S58のいずれかで妥当でないと判断された場合に至るステップS59では、評価部24において当該繰り返し処理のm回目における幾何モデル(基礎行列F(m))を破棄すべきものであるとの判断を得たうえで、ステップS17(図2のステップS7と同様のステップ)に進む。   In step S59, which is reached when any of the above steps S52, S54, S56, S58 is determined to be invalid, the evaluation unit 24 discards the geometric model (basic matrix F (m)) at the m-th iteration. After obtaining the judgment that it should be, the process proceeds to step S17 (the same step as step S7 in FIG. 2).

当該ステップS59に至り破棄すべきものと判断された幾何モデル(基礎行列F(m))に関しては、ステップS18で検証部25において最適な幾何モデルとして決定する対象からは除外される。   The geometric model (basic matrix F (m)) determined to be discarded at Step S59 is excluded from the objects to be determined as the optimum geometric model by the verification unit 25 at Step S18.

以上、図7のフローでは各部1〜4による評価をこの順番で適用するものとしたが、その他の任意の順番でもよい。また、各部1〜4の一部分のみを用いて図7のフローと同様にすることもできる。   As described above, in the flow of FIG. 7, the evaluations by the units 1 to 4 are applied in this order, but any other order may be used. Moreover, it can also be made to be the same as that of the flow of FIG. 7 using only a part of each part 1-4.

[RANSAC処理の途中ではなく、通常のRANSAC処理を終えた結果に対して、パラメータ抽出部23及び評価部24を適用する実施形態について]
以上の実施形態においては、RANSACの枠組みの繰り返し処理の途中において、選択されたランダムサンプルとしての局所特徴対応から生成された仮の幾何モデル(基礎行列F)に対してパラメータ抽出部23及び評価部24を適用していた。別の実施形態として、通常のRANSACの繰り返し処理によって最適なものとして得られた局所特徴対応における幾何モデルに対しても全く同様に、パラメータ抽出部23及び評価部24を適用して、当該最適と判定された幾何モデルの妥当性を評価することが可能である。
[Regarding an embodiment in which the parameter extraction unit 23 and the evaluation unit 24 are applied to the result of finishing the normal RANSAC process, not in the middle of the RANSAC process]
In the above embodiment, the parameter extraction unit 23 and the evaluation unit are applied to the temporary geometric model (basic matrix F) generated from the local feature correspondence as the selected random sample in the middle of the iterative process of the RANSAC framework. 24 was applied. As another embodiment, the parameter extraction unit 23 and the evaluation unit 24 are applied in the same manner to the geometric model in the local feature correspondence obtained as the optimum by the normal RANSAC iteration process, and the optimum and It is possible to evaluate the validity of the determined geometric model.

図8は当該一実施形態に係る幾何検証装置10の機能ブロック図であり、図9は当該一実施形態に係る幾何検証装置10の動作のフローチャートである。   FIG. 8 is a functional block diagram of the geometric verification apparatus 10 according to the embodiment, and FIG. 9 is a flowchart of the operation of the geometric verification apparatus 10 according to the embodiment.

図8の機能ブロック図では幾何検証装置10の備える各部は図1のものと共通であるが、図1ではRANSAC枠組みでの繰り返し処理を行う反復処理部20内にあったパラメータ抽出部23及び評価部24が反復処理部20の外部にあるという点で異なる。このため図8に示すように、幾何モデル生成部22の生成した幾何モデルは直接、検証部25に出力され、検証部25より反復処理部20の繰り返し処理の結果として得られる最適な幾何モデル(基礎行列F)が、パラメータ抽出部23及び評価部24に出力される。   In the functional block diagram of FIG. 8, each unit included in the geometric verification device 10 is the same as that in FIG. 1, but in FIG. 1, the parameter extraction unit 23 and the evaluation included in the iterative processing unit 20 that performs the iterative processing in the RANSAC framework. The difference is that the unit 24 is outside the iterative processing unit 20. Therefore, as shown in FIG. 8, the geometric model generated by the geometric model generation unit 22 is directly output to the verification unit 25, and the optimal geometric model (as a result of the iterative processing of the iterative processing unit 20 from the verification unit 25 ( The basic matrix F) is output to the parameter extraction unit 23 and the evaluation unit 24.

上記のように、図1の実施形態と図8の実施形態とでは幾何検証装置10の各部の個別の動作は共通であり、各部間のデータの流れのみが異なっている。共通動作であるため図8の各部の動作に関しての説明は省略する。   As described above, the individual operation of each part of the geometric verification apparatus 10 is common between the embodiment of FIG. 1 and the embodiment of FIG. 8, and only the data flow between the parts is different. Since this is a common operation, a description of the operation of each unit in FIG. 8 is omitted.

次に、当該図8の構成の一実施形態における幾何検証装置10の動作を示す図9のフローチャートについて説明する。図9のフローチャートは、図2のフローチャートにおけるステップS4及びS5を、RANSAC枠組みのループ処理の終えた後に配置変えしたものに相当する。当該配置変えされた図2のステップS4及びS5に対応するのは、対応する番号を付している図9のステップS24及びS25である。その他のステップも図2と図9とで対応番号を付しているように、対応関係にあり、個別動作としては共通であるため重複する説明は省略する。すなわち、図9のステップS21,S22,S23,S26〜S29はそれぞれ、図2のステップS1,S2,S3,S6〜S9と共通である。   Next, the flowchart of FIG. 9 showing the operation of the geometric verification apparatus 10 in the embodiment of the configuration of FIG. 8 will be described. The flowchart in FIG. 9 corresponds to a step in which steps S4 and S5 in the flowchart in FIG. 2 are rearranged after the loop processing of the RANSAC framework is completed. The steps S4 and S5 in FIG. 2 that have been rearranged correspond to steps S24 and S25 in FIG. 9 that are assigned corresponding numbers. The other steps are also in correspondence as indicated by the corresponding numbers in FIG. 2 and FIG. 9 and are common as individual operations, and redundant description is omitted. That is, steps S21, S22, S23, and S26 to S29 in FIG. 9 are common to steps S1, S2, S3, and S6 to S9 in FIG.

従って、図9のフローにおいては、ステップS21を終えてステップS22に至ると、パラメータ抽出部23及び評価部24を適用しない通常のRANSAC処理の枠組みで、ループ処理S22,S23,S26,S27が実行され、ステップS27において終了条件が満たされた時点でステップS28へと移り、検証部25が最適な幾何モデルを出力する。従って、当該ループ処理内のステップS26において検証部25は、(図2のステップS6とは異なり、)前述の第1処理のみを行うことで検証を実施すればよい。   Therefore, in the flow of FIG. 9, when step S21 is completed and step S22 is reached, loop processing S22, S23, S26, and S27 are executed in a normal RANSAC processing framework in which the parameter extraction unit 23 and the evaluation unit 24 are not applied. Then, when the end condition is satisfied in step S27, the process proceeds to step S28, and the verification unit 25 outputs an optimal geometric model. Therefore, in step S26 in the loop process, the verification unit 25 may perform verification by performing only the first process described above (unlike step S6 in FIG. 2).

ステップS24及びS25において、パラメータ抽出部23及び評価部24はパラメータ抽出及び幾何モデルの評価を行うが、当該抽出及び評価はRANSACのループ処理S22,S23,S26,S27において最適結果とされた幾何モデルを対象として、図1及び図2の実施形態で仮の幾何モデルに対して行っていたのと同様の処理を行えばよい。   In steps S24 and S25, the parameter extraction unit 23 and the evaluation unit 24 perform parameter extraction and evaluation of the geometric model, and the extraction and evaluation are geometric models obtained as the optimum results in the RANSAC loop processing S22, S23, S26, and S27. The same processing as that performed on the temporary geometric model in the embodiment of FIGS. 1 and 2 may be performed.

以上のように、本発明の幾何検証装置10による幾何検証は、RANSAC処理の内外に限らず任意の局所特徴対応に対して適用可能である。また、RANSAC処理の枠組みを前提とせずとも、任意の局所特徴対応に対して適用可能である。   As described above, the geometric verification by the geometric verification apparatus 10 of the present invention is applicable not only to the inside and outside of the RANSAC process but also to any local feature correspondence. Further, the present invention can be applied to any local feature correspondence without assuming the framework of RANSAC processing.

以下、本発明における補足的事項を述べる。   Hereinafter, supplementary matters in the present invention will be described.

(補足1)図1及び図8の両実施形態において、弱幾何検証部13は省略されてもよい。この場合、対応取得部12において取得した両画像の局所特徴対応を全て、選択部21へと出力すればよい。図2のステップS1、図7のステップS11、図9のステップS21も同様に、弱幾何検証部13の処理を省略したものとしてよい。   (Supplement 1) In both the embodiments of FIGS. 1 and 8, the weak geometric verification unit 13 may be omitted. In this case, all the local feature correspondences of both images acquired by the correspondence acquisition unit 12 may be output to the selection unit 21. Similarly, in step S1 in FIG. 2, step S11 in FIG. 7, and step S21 in FIG. 9, the process of the weak geometric verification unit 13 may be omitted.

(補足2)図2、図7及び図9のフローにおいては、繰り返し処理の枠組みはRANSACに即したものであるとして説明したが、他の枠組みを用いてもよい。例えばPROSAC(PROgressive SAmple Consensus)アルゴリズムやARRSAC(Adaptive Real-Time Random Sample Consensus)アルゴリズム等のような、RANSACアルゴリズムの発展系を枠組みとして用いてもよいし、他のロバスト推定法を用いてもよい。この場合、ステップS2,S12,S22における選択部21の選択処理や、ステップS7,S17,S27における検証部25の終了判定処理等を、当該他のアルゴリズムに即したものへと変更すればよい。   (Supplement 2) In the flow of FIG. 2, FIG. 7 and FIG. 9, it has been described that the framework of the iterative process is in accordance with RANSAC, but other frameworks may be used. For example, a development system of the RANSAC algorithm such as a PROSAC (PROgressive SAmple Consensus) algorithm or an ARRSAC (Adaptive Real-Time Random Sample Consensus) algorithm may be used as a framework, or another robust estimation method may be used. In this case, the selection processing of the selection unit 21 in steps S2, S12, and S22, the end determination processing of the verification unit 25 in steps S7, S17, and S27, etc. may be changed to those according to the other algorithms.

なお、RANSAC系の処理は、次のような共通の枠組みを有する。すなわち、所与のサンプル全体(本発明では対応取得部12又は弱幾何検証部13の出力した局所特徴対応の全体)からランダムサンプルの取得(本発明では選択部21による選択)を行い、当該取得されたランダムサンプルに対して所与のフィッティングモデル(本発明ではエピポーラ幾何モデル)を適用した際のパラメータを求め(本発明では幾何モデル生成部22が基礎行列Fを求め)、当該パラメータのもとでのモデルによって前述の所与のサンプル全体のうちいずれがインライアでいずれがアウトライアかを判定する(本発明では検証部25による検証を行う)ということを繰り返す。当該繰り返した一連の結果の中から、最適なパラメータを、インライア数が最大のものとして決定(本発明では検証部25が最適結果を決定)する。   Note that the RANSAC processing has the following common framework. That is, a random sample is acquired (selected by the selection unit 21 in the present invention) from a given sample (in the present invention, the entire local feature correspondence output from the correspondence acquisition unit 12 or the weak geometry verification unit 13), and the acquisition is performed. A parameter when a given fitting model (in the present invention, an epipolar geometric model) is applied to the random sample obtained is obtained (in the present invention, the geometric model generation unit 22 obtains the basic matrix F), and based on the parameter The above-described model is repeatedly used to determine which of the given samples is inlier and which is outlier (in the present invention, verification is performed by the verification unit 25). From the series of repeated results, the optimum parameter is determined with the maximum number of inliers (in the present invention, the verification unit 25 determines the optimum result).

(補足3)パラメータ抽出部23(図2等のステップS4等)では、(1)〜(4)等として説明したような各種のパラメータを抽出するが、必ずしもこれら全てを抽出する必要はなく、評価部24(図2等のステップS5等)の各実施形態において利用されるパラメータのみを抽出すればよい。   (Supplement 3) The parameter extraction unit 23 (step S4 in FIG. 2 and the like) extracts various parameters as described in (1) to (4) and the like, but it is not always necessary to extract all of them. Only the parameters used in each embodiment of the evaluation unit 24 (step S5 in FIG. 2, etc.) need be extracted.

(補足4)本発明においてはエピポーラ幾何モデルを適用するために、図3で説明したような配置関係にある2つのカメラにより質問画像G1及び(これに対する正解画像である)参照画像G2が撮影されていることを想定しているが、当該カメラによる撮影は、実際の物理的なカメラによる物理的な撮影に限定されない。例えば、3次元コンピュータグラフィックとしての画像G1,G2が図3のような2つのカメラ配置を想定して生成されている場合であっても、本発明は適用可能である。   (Supplement 4) In the present invention, in order to apply the epipolar geometric model, the question image G1 and the reference image G2 (which is a correct image) are taken by the two cameras having the arrangement relationship as described in FIG. However, shooting with the camera is not limited to physical shooting with an actual physical camera. For example, the present invention is applicable even when the images G1 and G2 as three-dimensional computer graphics are generated assuming two camera arrangements as shown in FIG.

上記と同様に、本発明は、物体認識等の用途における質問画像G1及び参照画像G2における局所特徴対応に限定されず、一般の画像G1及び画像G2における局所特徴対応に対して適用可能である。   Similarly to the above, the present invention is not limited to the local feature correspondence in the query image G1 and the reference image G2 in applications such as object recognition, and can be applied to the local feature correspondence in the general images G1 and G2.

(補足5)本発明においてエピポーラ幾何モデルを表現しているのは基礎行列Fであるものとして、幾何モデル生成部22で求めるものとして説明してきたが、これに代えて、エピポーラ幾何モデルを表現しているのは基本行列Eであるものとして、幾何モデル生成部22で求めてもよい。周知の通り、前述の式(1)のエピポーラ方程式は基本行列Eにおいても同様に、以下の式(6)のように成立する。ここで、点x1及びx2は、各カメラの内部パラメータの行列K1及びK2の逆行列が乗算されたものである。式(3)のようなエピポーラ線との距離の閾値判定も同様に可能である。
x1 TEx2=0 …(6)
(Supplement 5) In the present invention, the epipolar geometric model is described as being obtained by the geometric model generation unit 22 assuming that it is the basic matrix F, but instead, an epipolar geometric model is expressed. However, the geometric model generation unit 22 may obtain the basic matrix E. As is well known, the epipolar equation of the above equation (1) is also established in the basic matrix E as in the following equation (6). Here, the points x 1 and x 2 are multiplied by the inverse matrix of the matrix K 1 and K 2 of the internal parameters of each camera. The threshold value determination of the distance from the epipolar line as in equation (3) is also possible.
x 1 T Ex 2 = 0… (6)

なお、基本行列Eに関しては、前述の通り基礎行列Fから算出することが可能であるほか、周知の5-pointアルゴリズムによって局所特徴対応から算出することも可能である。   The basic matrix E can be calculated from the basic matrix F as described above, and can also be calculated from local feature correspondence by a well-known 5-point algorithm.

(補足6)本発明は、コンピュータを幾何検証装置10の各部の全て又はその任意の一部分として機能させるプログラムとしても提供可能である。当該コンピュータには、CPU(中央演算装置)、メモリ及び各種I/Fといった周知のハードウェア構成のものを採用することができ、CPUが幾何検証装置10の各部の機能に対応する命令を実行することとなる。   (Supplement 6) The present invention can also be provided as a program that causes a computer to function as all of each part of the geometric verification device 10 or any part thereof. The computer can adopt a known hardware configuration such as a CPU (Central Processing Unit), a memory, and various I / Fs, and the CPU executes instructions corresponding to the functions of the respective units of the geometric verification device 10. It will be.

10…幾何検証装置、22…幾何モデル生成部、23…パラメータ抽出部、24…評価部   10 ... Geometric verification device, 22 ... Geometric model generation unit, 23 ... Parameter extraction unit, 24 ... Evaluation unit

Claims (12)

第1カメラより生成された第1画像より抽出された局所特徴と第2カメラより生成された第2画像より抽出された局所特徴との間で対応が与えられた局所特徴対応より、当該第1カメラ及び当該第2カメラの主点に基づくエピポーラ幾何モデルとしての行列を生成する幾何モデル生成部と、
前記行列より前記第1カメラ及び前記第2カメラに関連するパラメータを抽出するパラメータ抽出部と、
前記パラメータに基づき前記エピポーラ幾何モデルとしての行列の妥当性を評価する評価部と、を備えることを特徴とする幾何検証装置。
From the local feature correspondence in which correspondence is given between the local feature extracted from the first image generated from the first camera and the local feature extracted from the second image generated from the second camera, the first A geometric model generation unit that generates a matrix as an epipolar geometric model based on a principal point of the camera and the second camera;
A parameter extraction unit for extracting parameters related to the first camera and the second camera from the matrix;
An evaluation unit that evaluates the validity of the matrix as the epipolar geometric model based on the parameters.
前記パラメータ抽出部は、前記パラメータとして前記第1カメラの第1焦点距離及び/又は前記第2カメラの第2焦点距離を抽出し、
前記評価部は、前記妥当性を評価するための構成として、
前記第1焦点距離及び/又は前記第2焦点距離が所定の妥当な範囲にあるかを調べることにより前記妥当性を評価する焦点距離評価部を備えることを特徴とする請求項1に記載の幾何検証装置。
The parameter extraction unit extracts the first focal length of the first camera and / or the second focal length of the second camera as the parameter,
The evaluation unit, as a configuration for evaluating the validity,
2. The geometry according to claim 1, further comprising a focal length evaluation unit that evaluates the validity by checking whether the first focal length and / or the second focal length is within a predetermined reasonable range. Verification device.
前記焦点距離評価部は、
前記第1画像において前記第1カメラのピントが合っている際の第1画角と、前記第1焦点距離及び前記第1画像のサイズと、の間の所定関係に基づき、前記第1画角の所定の妥当な範囲から前記第1焦点距離の所定の妥当な範囲を定め、且つ/又は、
前記第2画像において前記第2カメラのピントが合っている際の第2画角と、前記第2焦点距離及び前記第2画像のサイズと、の間の所定関係に基づき、前記第2画角の所定の妥当な範囲から前記第2焦点距離の所定の妥当な範囲を定めることを特徴とする請求項2に記載の幾何検証装置。
The focal length evaluation unit
The first angle of view is based on a predetermined relationship between a first angle of view when the first camera is in focus in the first image, and the first focal length and the size of the first image. A predetermined reasonable range of the first focal length from a predetermined reasonable range of and / or
Based on a predetermined relationship between the second angle of view when the second camera is in focus in the second image, and the second focal length and the size of the second image, the second angle of view. 3. The geometric verification device according to claim 2, wherein a predetermined reasonable range of the second focal length is determined from a predetermined reasonable range of the second focal length.
前記パラメータ抽出部は、前記パラメータとして前記第1カメラの第1光軸及び前記第2カメラの第2光軸のなす角を抽出し、
前記評価部は、前記妥当性を評価するための構成として、
前記角が所定の妥当な範囲にあるかを調べることにより前記妥当性を評価する位置関係評価部を備えることを特徴とする請求項1に記載の幾何検証装置。
The parameter extraction unit extracts an angle formed by the first optical axis of the first camera and the second optical axis of the second camera as the parameter,
The evaluation unit, as a configuration for evaluating the validity,
The geometric verification apparatus according to claim 1, further comprising a positional relationship evaluation unit that evaluates the validity by examining whether the corner is in a predetermined reasonable range.
前記パラメータ抽出部は、前記角を抽出し、且つ、前記行列を分解して得られる回転行列及び並進ベクトルに基づき、当該抽出した角において、前記第1光軸及び前記第2光軸が互いに外向きであるか内向きであるかを区別し、
前記位置関係評価部は、前記角が所定の妥当な範囲にあるかを、前記外向きの場合と前記内向きの場合とで区別して調べることを特徴とする請求項4に記載の幾何検証装置。
The parameter extraction unit extracts the angle, and based on a rotation matrix and a translation vector obtained by decomposing the matrix, the first optical axis and the second optical axis are outside each other at the extracted angle. Distinguish between orientation and inward,
5. The geometric verification device according to claim 4, wherein the positional relationship evaluation unit examines whether the angle is in a predetermined reasonable range by distinguishing between the outward direction and the inward direction. .
前記幾何モデル生成部で前記行列を生成するのに用いた局所特徴対応は、予め弱幾何検証処理を施されることにより、局所特徴対応の各局所特徴におけるスケール比が最多数のピーク値の付近にあり、当該局所特徴対応全体の集合において概ね一致することが確認されたものの中から所定数を選択されたものであり、
前記パラメータ抽出部は、前記パラメータとして、前記第1カメラの第1焦点距離と前記第2カメラの第2焦点距離とを抽出し、
前記評価部は、前記妥当性を評価するための構成として、
前記第1焦点距離と前記第2焦点距離との比の逆数が前記最多数のスケール比のピーク値に近いかを調べることにより、前記妥当性を評価する一貫性評価部を備えることを特徴とする請求項1に記載の幾何検証装置。
The local feature correspondence used to generate the matrix in the geometric model generation unit is subjected to weak geometric verification processing in advance, so that the scale ratio of each local feature correspondence is near the maximum number of peak values. And a predetermined number has been selected from those that have been confirmed to generally match in the entire set of local feature correspondences,
The parameter extraction unit extracts a first focal length of the first camera and a second focal length of the second camera as the parameters,
The evaluation unit, as a configuration for evaluating the validity,
A consistency evaluation unit that evaluates the validity by examining whether an inverse of a ratio between the first focal length and the second focal length is close to a peak value of the most numerous scale ratios; The geometric verification device according to claim 1.
前記幾何モデル生成部で前記行列を生成するのに用いた局所特徴対応は、予め弱幾何検証処理を施されることにより、局所特徴対応の各局所特徴における方向差が最多数のピーク値の付近にあり、当該局所特徴対応全体の集合において概ね一致することが確認されたものの中から所定数を選択されたものであり、
前記パラメータ抽出部は、前記パラメータとして、前記第1カメラの第1光軸と前記第2カメラの第2光軸との間の回転角を抽出し、
前記評価部は、前記妥当性を評価するための構成として、
前記回転角が前記最多数の方向差のピーク値に近いかを調べることにより、前記妥当性を評価する一貫性評価部を備えることを特徴とする請求項1に記載の幾何検証装置。
The local feature correspondence used to generate the matrix by the geometric model generation unit is subjected to weak geometric verification processing in advance, so that the direction difference in each local feature correspondence is near the maximum number of peak values. And a predetermined number has been selected from those that have been confirmed to generally match in the entire set of local feature correspondences,
The parameter extraction unit extracts a rotation angle between a first optical axis of the first camera and a second optical axis of the second camera as the parameter,
The evaluation unit, as a configuration for evaluating the validity,
The geometric verification apparatus according to claim 1, further comprising: a consistency evaluation unit that evaluates the validity by examining whether the rotation angle is close to a peak value of the largest number of direction differences.
前記パラメータ抽出部で抽出するパラメータは、前記生成された行列そのものであり、
前記評価部は、前記妥当性を評価するための構成として、
前記行列より、前記局所特徴対応における同一特徴点の3次元上復元点を前記第1カメラの第1主点から見た際の前記第1画像に垂直な方向での第1奥行き及び/又は当該3次元上復元点を前記第2カメラの第2主点から見た際の前記第2画像に垂直な方向での第2奥行きを求め、当該第1奥行き及び/又は第2奥行きに基づいて前記妥当性を評価する復元性評価部を備えることを特徴とする請求項1に記載の幾何検証装置。
The parameter extracted by the parameter extraction unit is the generated matrix itself,
The evaluation unit, as a configuration for evaluating the validity,
From the matrix, the first depth in the direction perpendicular to the first image when the three-dimensional restoration point of the same feature point corresponding to the local feature is viewed from the first principal point of the first camera and / or the A second depth in a direction perpendicular to the second image when the three-dimensional restoration point is viewed from the second principal point of the second camera is obtained, and the second depth is obtained based on the first depth and / or the second depth. The geometric verification apparatus according to claim 1, further comprising a restoration property evaluation unit that evaluates validity.
前記幾何モデル生成部で前記行列を生成するのに用いた局所特徴対応は、RANSAC系の処理の途中におけるランダムサンプルとして選出されたものである、又は、RANSAC系の処理を終えて一連のランダムサンプルの中から最適であると判定されたものである、ことを特徴とする請求項1ないし8のいずれかに記載の幾何検証装置。   The local feature correspondence used to generate the matrix in the geometric model generation unit is selected as a random sample in the middle of the RANSAC system processing, or a series of random samples after the RANSAC system processing is completed. The geometric verification device according to claim 1, wherein the geometric verification device is determined to be optimal from the above. 前記幾何モデル生成部で前記行列を生成するのに用いた局所特徴対応は、RANSAC系の処理の途中におけるランダムサンプルとして選出されたものであり、
前記評価部によって評価された妥当性において妥当でないとの判定結果が得られた場合、当該ランダムサンプルとしての局所特徴対応を破棄するように判断することを特徴とする請求項1ないし9のいずれかに記載の幾何検証装置。
The local feature correspondence used to generate the matrix in the geometric model generation unit is selected as a random sample in the middle of the RANSAC system processing,
The determination according to any one of claims 1 to 9, wherein when a determination result that is not valid in the validity evaluated by the evaluation unit is obtained, it is determined to discard the local feature correspondence as the random sample. The geometric verification device described in 1.
コンピュータを請求項1ないし10のいずれかに記載の幾何検証装置として機能させることを特徴とする幾何検証プログラム。   A geometric verification program for causing a computer to function as the geometric verification device according to claim 1. 第1カメラより生成された第1画像より抽出された局所特徴と第2カメラより生成された第2画像より抽出された局所特徴との間で対応が与えられた局所特徴対応より、当該第1カメラ及び当該第2カメラの主点に基づくエピポーラ幾何モデルとしての行列を生成する幾何モデル生成段階と、
前記行列より前記第1カメラ及び前記第2カメラに関連するパラメータを抽出するパラメータ抽出段階と、
前記パラメータに基づき前記エピポーラ幾何モデルとしての行列の妥当性を評価する評価段階と、を備えることを特徴とする幾何検証方法。
From the local feature correspondence in which correspondence is given between the local feature extracted from the first image generated from the first camera and the local feature extracted from the second image generated from the second camera, the first A geometric model generation stage for generating a matrix as an epipolar geometric model based on a principal point of the camera and the second camera;
A parameter extraction step of extracting parameters related to the first camera and the second camera from the matrix;
An evaluation stage for evaluating the validity of the matrix as the epipolar geometric model based on the parameter.
JP2016034625A 2016-02-25 2016-02-25 Geometric verification apparatus, program and method Active JP6482130B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016034625A JP6482130B2 (en) 2016-02-25 2016-02-25 Geometric verification apparatus, program and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016034625A JP6482130B2 (en) 2016-02-25 2016-02-25 Geometric verification apparatus, program and method

Publications (2)

Publication Number Publication Date
JP2017151797A true JP2017151797A (en) 2017-08-31
JP6482130B2 JP6482130B2 (en) 2019-03-13

Family

ID=59741822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016034625A Active JP6482130B2 (en) 2016-02-25 2016-02-25 Geometric verification apparatus, program and method

Country Status (1)

Country Link
JP (1) JP6482130B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019070974A (en) * 2017-10-10 2019-05-09 株式会社アクセル Image processing apparatus, image processing method, and image processing program
JPWO2019065784A1 (en) * 2017-09-29 2020-08-06 Necソリューションイノベータ株式会社 Image processing apparatus, image processing method, and program
CN112381864A (en) * 2020-12-08 2021-02-19 兰州交通大学 Multi-source multi-scale high-resolution remote sensing image automatic registration technology based on antipodal geometry
CN113686264A (en) * 2021-08-02 2021-11-23 中国科学院长春光学精密机械与物理研究所 Three-dimensional measurement method and system based on polar line geometry
CN116204974A (en) * 2022-12-22 2023-06-02 中国航空综合技术研究所 Method for evaluating geometric consistency of CAD model of aeroengine blade part

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186659A (en) * 2013-03-25 2014-10-02 Hitachi Omron Terminal Solutions Corp Image collation device, image collation method, and image collation program
JP2015111822A (en) * 2013-10-30 2015-06-18 株式会社モルフォ Image processing apparatus, image processing method, and program thereof
JP2016009391A (en) * 2014-06-25 2016-01-18 Kddi株式会社 Information processor, feature point selection method, device and program of the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186659A (en) * 2013-03-25 2014-10-02 Hitachi Omron Terminal Solutions Corp Image collation device, image collation method, and image collation program
JP2015111822A (en) * 2013-10-30 2015-06-18 株式会社モルフォ Image processing apparatus, image processing method, and program thereof
JP2016009391A (en) * 2014-06-25 2016-01-18 Kddi株式会社 Information processor, feature point selection method, device and program of the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
松▲崎▼ 康平, 外2名: "画像検索における幾何検証のためのデータ量削減に関する一検討", 電子情報通信学会2014年総合大会講演論文集, JPN6018049660, 21 February 2014 (2014-02-21), ISSN: 0003971615 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019065784A1 (en) * 2017-09-29 2020-08-06 Necソリューションイノベータ株式会社 Image processing apparatus, image processing method, and program
JP2019070974A (en) * 2017-10-10 2019-05-09 株式会社アクセル Image processing apparatus, image processing method, and image processing program
CN112381864A (en) * 2020-12-08 2021-02-19 兰州交通大学 Multi-source multi-scale high-resolution remote sensing image automatic registration technology based on antipodal geometry
CN113686264A (en) * 2021-08-02 2021-11-23 中国科学院长春光学精密机械与物理研究所 Three-dimensional measurement method and system based on polar line geometry
CN113686264B (en) * 2021-08-02 2022-08-02 中国科学院长春光学精密机械与物理研究所 Three-dimensional measurement method and system based on polar line geometry
CN116204974A (en) * 2022-12-22 2023-06-02 中国航空综合技术研究所 Method for evaluating geometric consistency of CAD model of aeroengine blade part
CN116204974B (en) * 2022-12-22 2024-01-09 中国航空综合技术研究所 Method for evaluating geometric consistency of CAD model of aeroengine blade part

Also Published As

Publication number Publication date
JP6482130B2 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
Dong et al. Fast and robust multi-person 3d pose estimation from multiple views
CN111063021B (en) Method and device for establishing three-dimensional reconstruction model of space moving target
JP6482130B2 (en) Geometric verification apparatus, program and method
Kamencay et al. Improved Depth Map Estimation from Stereo Images Based on Hybrid Method.
Sinha et al. Camera network calibration and synchronization from silhouettes in archived video
JP2014081347A (en) Method for recognition and pose determination of 3d object in 3d scene
JP5631086B2 (en) Information processing apparatus, control method therefor, and program
JP2011238204A (en) Method for recognition and position attitude determination of three-dimensional object at three-dimensional scene
JP2008112211A (en) Attitude estimation apparatus and method
WO2005081178A1 (en) Method and apparatus for matching portions of input images
US20140300597A1 (en) Method for the automated identification of real world objects
JP2007249592A (en) Three-dimensional object recognition system
JP6558803B2 (en) Geometric verification apparatus and program
Song et al. Volumetric stereo and silhouette fusion for image-based modeling
JP3914864B2 (en) Pattern recognition apparatus and method
Fu et al. Learning to reduce scale differences for large-scale invariant image matching
JP5503510B2 (en) Posture estimation apparatus and posture estimation program
CN105074729B (en) Method, system and medium for luminosity edge-description
CN113610969B (en) Three-dimensional human body model generation method and device, electronic equipment and storage medium
Song et al. ConcatNet: A deep architecture of concatenation-assisted network for dense facial landmark alignment
JP2007140729A (en) Method and device detecting position and attitude of article
Boukamcha et al. A real-time auto calibration technique for stereo camera
CN112529960A (en) Target object positioning method and device, processor and electronic device
Zhang et al. A Robust Multi‐View System for High‐Fidelity Human Body Shape Reconstruction
Yang et al. Stereo Matching Algorithm Based on Improved Census Transform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190208

R150 Certificate of patent or registration of utility model

Ref document number: 6482130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150