JP5973767B2 - Corresponding point search device, program thereof, and camera parameter estimation device - Google Patents

Corresponding point search device, program thereof, and camera parameter estimation device Download PDF

Info

Publication number
JP5973767B2
JP5973767B2 JP2012086200A JP2012086200A JP5973767B2 JP 5973767 B2 JP5973767 B2 JP 5973767B2 JP 2012086200 A JP2012086200 A JP 2012086200A JP 2012086200 A JP2012086200 A JP 2012086200A JP 5973767 B2 JP5973767 B2 JP 5973767B2
Authority
JP
Japan
Prior art keywords
feature
point
current image
image
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012086200A
Other languages
Japanese (ja)
Other versions
JP2013218396A (en
Inventor
秀樹 三ツ峰
秀樹 三ツ峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012086200A priority Critical patent/JP5973767B2/en
Publication of JP2013218396A publication Critical patent/JP2013218396A/en
Application granted granted Critical
Publication of JP5973767B2 publication Critical patent/JP5973767B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、被写体を撮影した現在画像と、現在画像より前の過去画像との間で対応点探索を行う対応点探索装置及びそのプログラム、並びに、カメラパラメータを推定するカメラパラメータ推定装置に関する。   The present invention relates to a corresponding point search device that performs a corresponding point search between a current image obtained by photographing a subject and a past image before the current image, a program thereof, and a camera parameter estimation device that estimates camera parameters.

カメラパラメータ推定や被写体の認識、追跡等の画像処理を行う際、SIFT(Scale Invariant Feature Transform)等の特徴量により各画像から特徴点を検出し(非特許文献1)、画像間での対応点探索が行われている。このとき、対応点の誤対応を防ぐための従来技術が提案されている。   When performing image processing such as camera parameter estimation, subject recognition, and tracking, feature points are detected from each image using feature quantities such as SIFT (Scale Invariant Feature Transform) (Non-Patent Document 1), and corresponding points between images A search is underway. At this time, a conventional technique for preventing an incorrect correspondence between corresponding points has been proposed.

例えば、従来技術として、特徴点を比較する際に、各特徴点の特徴ベクトルからユークリッド距離を算出し、そのユークリッド距離に対する閾値を設定し、ユークリッド距離が閾値以上で対応点でないと評価する誤対応防止手法が知られている。
この他、従来技術として、RANSACのように、対応点の外れ値を除外する対応点誤対応除外手法も知られている(非特許文献2)。
For example, as a conventional technique, when comparing feature points, the Euclidean distance is calculated from the feature vector of each feature point, a threshold for the Euclidean distance is set, and the Euclidean distance is equal to or greater than the threshold and is evaluated as not a corresponding point Prevention techniques are known.
In addition, as a conventional technique, a corresponding point erroneous correspondence exclusion method that excludes outliers of corresponding points, such as RANSAC, is also known (Non-Patent Document 2).

“Gradientベースの特徴抽出-SIFTとHOG-”、藤吉他、情報処理学会 研究報告CVIM 160、pp.211-224,2007.“Gradient-based feature extraction -SIFT and HOG-”, Fujiyoshi et al., Information Processing Society of Japan Research Report CVIM 160, pp.211-224, 2007. “Random Sample Consensus:A Paradigm for Model Fitting with Applicationsto Image Analysis and Automated Cartography”,M.A Fischler and R.C.Bolles,Communications of the ACM,Vol.24,pp.381-395,1981.“Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography”, M.A Fischler and R.C.Bolles, Communications of the ACM, Vol. 24, pp. 381-395, 1981.

しかし、前記した従来技術では、SIFT等で用いられるオリエンテーション(特徴点の方向)が誤差を含む場合、この誤差を補償することができない。
図8を参照して、SIFTにおけるオリエンテーションの誤差について、説明する。
例えば、図8(a)に示すように、SIFTにより、被写体90の撮影画像から、3つの特徴点K,K,Kが検出されたこととする。この場合、SIFTでは、特徴点K,K,Kのそれぞれで、オリエンテーションO,O,Oを算出する。
However, in the above-described conventional technology, when the orientation (direction of the feature point) used in SIFT or the like includes an error, this error cannot be compensated.
The orientation error in SIFT will be described with reference to FIG.
For example, as shown in FIG. 8A, it is assumed that three feature points K 1 , K 2 , and K 3 are detected from the captured image of the subject 90 by SIFT. In this case, in SIFT, orientations O 1 , O 2 , and O 3 are calculated at the feature points K 1 , K 2 , and K 3 , respectively.

ここで、図8(b)に示すように、撮影画像で被写体90が回転した場合、正しいオリエンテーションO,O,Oが算出されず、オリエンテーションOa1,Oa2,Oa3のように誤差が含まれることがある。このとき、オリエンテーションOa1,Oa2,Oa3の誤差が特徴ベクトルに反映され、図8(a)及び図8(b)の画像間において、対応点探索が行えないことや対応点の誤対応を招く。その結果、カメラパラメータ推定の正確性が低下することになる。 Here, as shown in FIG. 8B, when the subject 90 rotates in the captured image, the correct orientations O 1 , O 2 , and O 3 are not calculated, and the orientations O a1 , O a2 , and O a3 are obtained. Errors may be included. At this time, errors in the orientations O a1 , O a2 , and O a3 are reflected in the feature vector, and corresponding point search cannot be performed between the images in FIGS. Invite. As a result, the accuracy of camera parameter estimation is reduced.

なお、図8(b)では、正しいオリエンテーションO,O,Oを実線で図示し、誤差を有するオリエンテーションOa1,Oa2,Oa3を破線で図示した。
また、図8(b)では、被写体90を撮影したカメラ(不図示)の光軸を回転中心として、被写体90又はカメラ(不図示)の何れかが回転した状態を図示している。
In FIG. 8B, the correct orientations O 1 , O 2 , and O 3 are indicated by solid lines , and the orientations O a1 , O a2 , and O a3 having errors are indicated by broken lines .
FIG. 8B shows a state in which either the subject 90 or the camera (not shown) is rotated around the optical axis of the camera (not shown) that has photographed the subject 90 as the rotation center.

そこで、本発明は、前記した問題を解決し、対応点を正確に探索できる対応点探索装置及びそのプログラム、並びに、カメラパラメータを正確に推定できるカメラパラメータ推定装置を提供することを課題とする。   Accordingly, an object of the present invention is to solve the above-described problems and provide a corresponding point search device and a program thereof that can accurately search corresponding points, and a camera parameter estimation device that can accurately estimate camera parameters.

本願発明者は、画像内の特徴点が同じように回転する傾向に着目し、画像内の各特徴点でオリエンテーションを個別に算出する代わりに、画像回転量を画像内の全特徴点で共通するオリエンテーションとして算出することで、前記課題を解決できることを見出し、本発明を完成させた。   The inventor of the present application pays attention to the tendency of the feature points in the image to rotate in the same way, and instead of calculating the orientation individually at each feature point in the image, the image rotation amount is common to all feature points in the image. The inventors have found that the above-mentioned problems can be solved by calculating the orientation, and have completed the present invention.

具体的には、本願第1発明に係る対応点探索装置は、被写体を撮影した現在画像と、前記現在画像より前の過去画像との間で対応点探索を行う対応点探索装置であって、データベースと、第1特徴ベクトル算出手段と、第1対応点探索手段と、画像回転量算出手段と、第2特徴ベクトル算出手段と、第2対応点探索手段と、対応点出力手段と、データベース書込手段とを備えることを特徴とする。   Specifically, the corresponding point search device according to the first invention of the present application is a corresponding point search device that performs a corresponding point search between a current image obtained by photographing a subject and a past image before the current image, Database, first feature vector calculating means, first corresponding point searching means, image rotation amount calculating means, second feature vector calculating means, second corresponding point searching means, corresponding point output means, database document And an insertion means.

かかる構成によれば、対応点探索装置は、データベースによって、被写体の特徴点として予め検出された初期特徴点の特徴ベクトルと、初期特徴点の3次元座標とを予め記憶する。また、データベースは、過去画像から検出された特徴点である過去画像特徴点の近似特徴ベクトルと、過去画像の算出済回転特徴ベクトルと、過去画像特徴点の算出済特徴ベクトルとが書き込まれる。   According to such a configuration, the corresponding point search device stores in advance the feature vector of the initial feature point detected in advance as the feature point of the subject and the three-dimensional coordinates of the initial feature point using the database. The database also stores approximate feature vectors of past image feature points, which are feature points detected from past images, calculated rotation feature vectors of past images, and calculated feature vectors of past image feature points.

また、対応点探索装置は、第1特徴ベクトル算出手段によって、SIFT、SURF(Speeded Up Robust Features)等の局所特徴量算出手法により、現在画像の特徴点である現在画像特徴点を検出して特徴ベクトルを算出する。そして、第1特徴ベクトル算出手段は、算出した現在画像特徴点の特徴ベクトルを、現在画像より後の画像で対応点探索を行うときの過去画像特徴点の算出済特徴ベクトルとしてデータベースに書き込む。   Further, the corresponding point search device detects the current image feature point, which is a feature point of the current image, by the first feature vector calculation means by using a local feature amount calculation method such as SIFT, SURF (Speeded Up Robust Features). Calculate the vector. Then, the first feature vector calculating means writes the calculated feature vector of the current image feature point in the database as a calculated feature vector of the past image feature point when the corresponding point search is performed on an image after the current image.

また、対応点探索装置は、第1対応点探索手段によって、データベースを参照して、現在画像特徴点と初期特徴点との特徴ベクトル、及び、現在画像特徴点の特徴ベクトルと過去画像特徴点の近似特徴ベクトルとについて、最短距離と当該最短距離の次に短い距離との比である第1評価値を算出し、算出した第1評価値が最小になる特徴点の対を、現在画像−データベース対応点として探索する。つまり、第1対応点探索手段は、データベースに記憶された特徴点と、現在画像から検出された特徴点との対応点を求める。   Further, the corresponding point search device refers to the database by the first corresponding point search means, and the feature vector of the current image feature point and the initial feature point, and the feature vector of the current image feature point and the past image feature point. For the approximate feature vector, a first evaluation value that is a ratio between the shortest distance and the shortest distance after the shortest distance is calculated, and a pair of feature points at which the calculated first evaluation value is minimized is determined as a current image-database. Search as a corresponding point. That is, the first corresponding point search means obtains a corresponding point between the feature point stored in the database and the feature point detected from the current image.

また、対応点探索装置は、画像回転量算出手段によって、現在画像内の全特徴点が同じように回転するとみなし、位相限定相関法又はオリエンテーション算出法により、過去画像に対する現在画像の画像回転量を算出する。そして、対応点探索装置は、第2特徴ベクトル算出手段によって、局所特徴量算出手法を用いて、予め設定された基準角度を基準に画像回転量が現在画像から検出された全特徴点で共通するオリエンテーションとして反映されるように、現在画像特徴点の回転特徴ベクトルを算出する。さらに、第2特徴ベクトル算出手段は、算出した現在画像特徴点の回転特徴ベクトルを、現在画像より後の画像で対応点探索を行うときの過去画像の算出済回転特徴ベクトルとしてデータベースに書き込む。   Further, the corresponding point search device assumes that all feature points in the current image rotate in the same way by the image rotation amount calculation means, and calculates the image rotation amount of the current image with respect to the past image by the phase only correlation method or the orientation calculation method. calculate. In the corresponding point search device, the second feature vector calculation means uses the local feature amount calculation method, and the image rotation amount is common to all feature points detected from the current image with reference to a preset reference angle. The rotation feature vector of the current image feature point is calculated so as to be reflected as the orientation. Further, the second feature vector calculating means writes the calculated rotation feature vector of the current image feature point in the database as the calculated rotation feature vector of the past image when the corresponding point search is performed on the image after the current image.

また、対応点探索装置は、第2対応点探索手段によって、データベースを参照して、現在画像特徴点の回転特徴ベクトルと過去画像特徴点の算出済回転特徴ベクトルとについて、第1評価値を算出し、算出した第1評価値が最小になる特徴点の対を、現在画像−過去画像対応点として探索する。つまり、第2対応点探索手段は、過去画像から検出された特徴点と、現在画像の特徴点との対応点を求める。   Further, the corresponding point search device calculates a first evaluation value for the rotation feature vector of the current image feature point and the calculated rotation feature vector of the past image feature point by referring to the database by the second corresponding point search means. Then, the feature point pair that minimizes the calculated first evaluation value is searched for as the current image-past image correspondence point. That is, the second corresponding point search means obtains a corresponding point between the feature point detected from the past image and the feature point of the current image.

また、対応点探索装置は、対応点出力手段によって、現在画像−過去画像対応点に含まれ、かつ、現在画像−データベース対応点に含まれる現在画像特徴点について、現在画像特徴点の特徴ベクトル及び過去画像特徴点の算出済特徴ベクトルの距離と、現在画像特徴点及び初期特徴点の特徴ベクトルの距離との比である第2評価値が予め設定された第1閾値を超えるか否かを判定する。そして、対応点出力手段は、誤対応の可能性が低い方を正解の対応点とするために、第2評価値が第1閾値を超えるときに現在画像−データベース対応点を対応点として出力し、第2評価値が第1閾値を超えないときに現在画像−過去画像対応点を対応点として出力する。   In addition, the corresponding point search device uses the corresponding point output unit to calculate the current image feature point feature vector and the current image feature point corresponding to the current image-past image corresponding point and the current image-database corresponding point. It is determined whether or not the second evaluation value, which is the ratio of the distance between the calculated feature vector of the past image feature point and the feature vector distance between the current image feature point and the initial feature point, exceeds a preset first threshold value. To do. Then, the corresponding point output means outputs the current image-database corresponding point as the corresponding point when the second evaluation value exceeds the first threshold value, in order to make the one with the lower possibility of erroneous correspondence as the correct corresponding point. When the second evaluation value does not exceed the first threshold, the current image-past image corresponding point is output as the corresponding point.

ここで、撮影環境(例えば、カメラ位置・姿勢や照明の明暗)は、時間の経過と共に、徐々に変化する。そして、第2評価値が予め設定された第2閾値を超えるときに、データベースに予め記憶した初期特徴点の特徴ベクトルより、現在画像から検出した特徴点の特徴ベクトルの方が、撮影環境により近い状態で求められたものと言える。そこで、対応点探索装置は、データベース書込手段によって、撮影環境により近い状態で求められた現在画像特徴点の特徴ベクトルを、次の現在画像で対応点探索を行うときの過去画像特徴点の特徴ベクトルとしてデータベースに書き込む。   Here, the shooting environment (for example, the camera position / posture and the brightness of the illumination) gradually changes with time. When the second evaluation value exceeds the preset second threshold, the feature vector of the feature point detected from the current image is closer to the shooting environment than the feature vector of the initial feature point stored in advance in the database. It can be said that it was sought in the state. Therefore, the corresponding point search device uses the feature of the past image feature point when searching the corresponding point in the next current image for the feature vector of the current image feature point obtained in the state closer to the shooting environment by the database writing means. Write to the database as a vector.

また、本願第2発明に係る対応点探索装置は、対応点追加手段によって、現在画像特徴点と初期特徴点との特徴ベクトル、及び、現在画像特徴点の特徴ベクトルと過去画像特徴点の算出済特徴ベクトルとについて、第1評価値が予め設定された第3閾値未満であるか否かを判定し、第1評価値が第3閾値未満である特徴点の対を、対応点に追加する。
かかる構成によれば、対応点探索装置は、算出した画像回転量と異なる回転の特徴点が存在する場合でも、この特徴点が含まれる対応点を拾い上げることができる。
Further, the corresponding point search device according to the second invention of the present application has already calculated the feature vector of the current image feature point and the initial feature point and the feature vector of the current image feature point and the past image feature point by the corresponding point adding means. For the feature vector, it is determined whether or not the first evaluation value is less than a preset third threshold value, and a feature point pair whose first evaluation value is less than the third threshold value is added to the corresponding point.
According to such a configuration, the corresponding point search device can pick up the corresponding point including the feature point even when there is a feature point of rotation different from the calculated image rotation amount.

また、本願第3発明に係る対応点探索装置は、対応点出力手段が、第2評価値が第1閾値を超えるとき、現在画像−データベース対応点と共に、初期特徴点を出力することを特徴とする。
かかる構成によれば、対応点探索装置が初期特徴点を出力することで、被写体の認識や追跡等の画像処理が行い易くなり、対応点探索装置の利便性が向上する。
Further, the present third invention corresponding point searching apparatus according to the corresponding point output means, comes the second evaluation value exceeds the first threshold value, the current image - with the database corresponding point, to output the initial feature points Features.
According to such a configuration, the corresponding point search device outputs the initial feature points, so that it is easy to perform image processing such as subject recognition and tracking, and the convenience of the corresponding point search device is improved.

また、本願第4発明に係る対応点探索装置は、第1対応点探索手段が、算出した第1評価値が最小になり、かつ、予め設定された第4閾値を超える特徴点の対を、現在画像−データベース対応点として探索し、第2対応点探索手段が、算出した第1評価値が最小になり、かつ、予め設定された第5閾値を超える特徴点の対を、現在画像−過去画像対応点として探索することを特徴とする。
かかる構成によれば、対応点探索装置は、誤対応の可能性が高い特徴点の対を閾値処理で除外できるため、対応点を正確に探索することができる。
Further, in the corresponding point search device according to the fourth invention of the present application, the first corresponding point search means calculates a pair of feature points in which the calculated first evaluation value is minimum and exceeds a preset fourth threshold value. A search is made as a current image-database corresponding point, and the second corresponding point search means calculates a pair of feature points having the calculated first evaluation value minimum and exceeding a preset fifth threshold value as the current image-past. It is characterized by searching as an image corresponding point.
According to such a configuration, the corresponding point search device can exclude a pair of feature points that have a high possibility of erroneous correspondence by threshold processing, and therefore can search for a corresponding point accurately.

また、前記した課題に鑑みて、本願第5発明に係るカメラパラメータ推定装置は、本願第4発明に係る対応点探索装置を備え、カメラパラメータを推定するカメラパラメータ推定装置であって、3次元座標抽出手段と、カメラパラメータ推定手段とを備えることを特徴とする。   In view of the above-described problems, a camera parameter estimation device according to a fifth invention of the present application is a camera parameter estimation device that includes the corresponding point search device according to the fourth invention of the present application and estimates a camera parameter, and is a three-dimensional coordinate An extraction unit and a camera parameter estimation unit are provided.

かかる構成によれば、カメラパラメータ推定装置は、対応点探索装置の第1対応点探索手段によって、探索した前記現在画像−データベース対応点を、次の現在画像で対応点探索を行うときの過去画像−データベース対応点として一時記憶する。   According to such a configuration, the camera parameter estimation device uses the first corresponding point searching unit of the corresponding point searching device to search the current image-database corresponding point searched for the corresponding image in the next current image. -Temporarily store as database corresponding points.

また、カメラパラメータ推定装置は、3次元座標抽出手段によって、現在画像−過去画像対応点に含まれ、かつ、現在画像−データベース対応点に含まれない現在画像特徴点について、現在画像−過去画像対応点及び前記過去画像−データベース対応点に基づいて、データベースに記憶された初期特徴点の3次元座標を、現在画像特徴点の3次元座標として抽出する。そして、カメラパラメータ推定装置は、カメラパラメータ推定手段によって、対応点探索装置で探索された対応点と、3次元座標抽出手段で抽出された3次元座標とを用いて、カメラパラメータを推定する。   Further, the camera parameter estimation device uses a three-dimensional coordinate extraction unit to match a current image-past image corresponding to a current image-past image corresponding point that is included in the current image-past image corresponding point and not included in the current image-database corresponding point. Based on the points and the past image-database correspondence points, the three-dimensional coordinates of the initial feature points stored in the database are extracted as the three-dimensional coordinates of the current image feature points. Then, the camera parameter estimation device estimates the camera parameter by using the corresponding point searched by the corresponding point search device and the three-dimensional coordinate extracted by the three-dimensional coordinate extraction unit by the camera parameter estimation unit.

これによって、カメラパラメータ推定装置は、現在画像特徴点がデータベースの特徴点に対応せずに、現在画像特徴点の3次元座標が求められない場合でも、過去画像特徴点に紐付けて、データベースから3次元座標を抽出して、カメラパラメータを推定することができる。   Thus, the camera parameter estimation device associates the current image feature point with the past image feature point even if the current image feature point does not correspond to the feature point of the database and the three-dimensional coordinates of the current image feature point cannot be obtained. Camera parameters can be estimated by extracting three-dimensional coordinates.

なお、本願第1発明に係る対応点探索装置は、CPU、データベース等のハードウェア資源を備える一般的なコンピュータを、前記した各手段として協調動作させる対応点探索プログラムによって実現することもできる。この対応点探索プログラムは、通信回線を介して配布しても良く、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   Note that the corresponding point search device according to the first invention of the present application can also be realized by a corresponding point search program that causes a general computer having hardware resources such as a CPU and a database to operate in cooperation with each other as described above. This corresponding point search program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

本発明によれば、以下のような優れた効果を奏する。
本願第1発明によれば、画像内の全特徴点が同じように回転するとみなし、全特徴点で共通するオリエンテーションを算出するため、各特徴点でオリエンテーションを個別に算出した場合に比べて、オリエンテーションの誤差が少なく、対応点を正確に探索することができる。
According to the present invention, the following excellent effects can be obtained.
According to the first invention of this application, since all the feature points in the image are assumed to rotate in the same way, and the orientation common to all the feature points is calculated, the orientation is compared with the case where the orientation is calculated individually for each feature point. Therefore, the corresponding points can be searched accurately.

本願第2発明によれば、算出した画像回転量と異なる回転の特徴点が存在する場合でも、この特徴点が含まれる対応点を拾い上げるため、対応点の数が減少し過ぎることで対応点探索が行えない事態を防止することができる。
本願第3発明によれば、現在画像−データベース対応点と共に初期特徴点を出力するため、被写体の認識や追跡等の画像処理が行い易くなり、対応点探索装置の利便性が向上する。
According to the second invention of the present application, even when a feature point of rotation different from the calculated image rotation amount exists, the corresponding point search is performed because the corresponding point including the feature point is picked up. It is possible to prevent the situation that cannot be performed.
According to the third aspect of the present invention, since the initial feature point is output together with the current image- database correspondence point, it is easy to perform image processing such as subject recognition and tracking, and the convenience of the corresponding point search device is improved.

本願第4発明によれば、誤対応の可能性が高い特徴点の組み合わせを閾値処理で除外するため、対応点をより正確に探索することができる。
本願第5発明によれば、データベースから現在画像の特徴点における3次元座標が抽出できない場合でも、過去画像の特徴点に紐付けて、データベースから3次元座標を取得できるため、カメラパラメータをより正確に推定することができる。
According to the fourth aspect of the present invention, combinations of feature points that have a high possibility of miscorresponding are excluded by threshold processing, so that corresponding points can be searched more accurately.
According to the fifth invention of the present application, even when the three-dimensional coordinates at the feature point of the current image cannot be extracted from the database, the three-dimensional coordinates can be obtained from the database by associating with the feature point of the past image. Can be estimated.

本発明の実施形態において、カメラの移動と画像の回転との関係を説明する図である。In an embodiment of the present invention, it is a figure explaining relation between movement of a camera and rotation of an image. 本発明の実施形態において、対応点の探索を説明する図である。In an embodiment of the present invention, it is a figure explaining search of a corresponding point. 本発明の実施形態に係るカメラパラメータ推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera parameter estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態において画像回転量の算出を説明する図であり、(a)は特徴点の周辺領域での輝度勾配方向を示し、(b)は輝度勾配方向のヒストグラムを示す。It is a figure explaining calculation of the amount of image rotation in the embodiment of the present invention, (a) shows a luminance gradient direction in the peripheral region of a feature point, and (b) shows a histogram of the luminance gradient direction. 本発明の実施形態において、回転特徴ベクトルの記述を説明する図である。In an embodiment of the present invention, it is a figure explaining description of a rotation feature vector. 図3のカメラパラメータ推定装置が、先頭のフレーム画像からカメラパラメータを推定する動作を示すフローチャートである。FIG. 4 is a flowchart illustrating an operation in which the camera parameter estimation apparatus in FIG. 3 estimates camera parameters from a leading frame image. 図3のカメラパラメータ推定装置が、2番目以降のフレーム画像からカメラパラメータを推定する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which the camera parameter estimation apparatus of FIG. 3 estimates a camera parameter from the 2nd or subsequent frame image. 従来技術において、画像の回転を説明する図である。It is a figure explaining rotation of an image in conventional technology.

[本発明の概略]
図1,図2を参照して、本発明の実施形態に係る対応点探索装置1及びカメラパラメータ推定装置2の概略について、説明する(適宜図3参照)。
図1に示すように、動画像を撮影する一般的なカメラCが、立方体状の物体である被写体90を撮影する場合を考える。まず、カメラCが、現在のフレームtからnフレーム前(0<n<t)、図1の符号Ct−nで図示したように、被写体90に対して斜めに位置している。次に、カメラCが、フレームtにおいて、図1の符号Cで図示したように、被写体90の正面まで移動したとする。この場合、時刻t−nの画像91t−nと、時刻tの画像91とを比較すると、被写体90は、カメラCの移動に伴って画像内で回転することになる。
[Outline of the Invention]
With reference to FIG. 1 and FIG. 2, the outline of the corresponding point search apparatus 1 and the camera parameter estimation apparatus 2 which concern on embodiment of this invention is demonstrated (refer FIG. 3 suitably).
As shown in FIG. 1, a case where a general camera C that captures a moving image captures a subject 90 that is a cubic object is considered. First, the camera C is positioned at an angle with respect to the subject 90, as indicated by the symbol C tn in FIG. 1, n frames before the current frame t (0 <n <t). Next, the camera C is in frame t, as shown by reference numeral C t in FIG. 1, and moved to the front of the object 90. In this case, when the image 91 t-n at time t−n is compared with the image 91 t at time t, the subject 90 rotates in the image as the camera C moves.

以後、時刻tの画像91を現在画像と呼び、時刻t−nの画像91t−nを過去画像と呼ぶ。
また、本実施形態では、n=1、つまり、過去画像が現在画像の1フレーム前の画像であることとする。
Hereinafter, the image 91 t at time t is referred to as a current image, and the image 91 t-n at time t−n is referred to as a past image.
In the present embodiment, n = 1, that is, the past image is an image one frame before the current image.

図2に示すように、対応点探索装置1は、現在画像91と、過去画像91t−nと、データベース10との間で対応点探索を行う。
この図2では、説明を簡易にするため、特徴点が2個であることとする(“●”、“▲”で図示)。
As illustrated in FIG. 2, the corresponding point search device 1 performs a corresponding point search between the current image 91 t , the past image 91 t-n, and the database 10.
In FIG. 2, it is assumed that there are two feature points (illustrated by “●” and “▲”) in order to simplify the description.

対応点探索装置1が備えるデータベース10には、初期特徴点K,Kの特徴ベクトル(“●の特徴記述子A”、“▲の特徴記述子A”)と、初期特徴点K,Kの3次元座標とが予め記憶されている。
なお、データベース10は、特徴記述子A以外も記憶するが、説明を簡易にするため、図2では省略した。
The database 10 included in the corresponding point search apparatus 1 includes feature vectors of initial feature points K 4 and K 5 (“● feature descriptor A”, “▲ feature descriptor A”), and initial feature points K 4 , and three-dimensional coordinates of K 5 are stored in advance.
Although the database 10 stores other than the feature descriptor A, it is omitted in FIG. 2 for simplicity of explanation.

まず、対応点探索装置1は、過去画像91t−nと、データベース10との間で、対応点探索を行う。ここでは、初期特徴点Kと特徴点K4t−nとの対、及び、初期特徴点Kと特徴点K5t−nとの対が、対応点として探索されたこととする(実線矢印で図示)。 First, the corresponding point search device 1 performs a corresponding point search between the past image 91 t-n and the database 10. Here, the pair of the initial feature point K 4 and the feature point K 4t-n, and a pair of the initial feature point K 5 and the feature point K 5t-n is, it is assumed that is searched as the corresponding points (solid arrows ).

また、対応点探索装置1は、現在画像91と、データベース10との間で、対応点探索を行う。ここでは、初期特徴点Kと特徴点K4tとの対が、対応点として探索されたこととする。一方、初期特徴点Kと特徴点K5tとの対が、対応点として探索されなかったこととする(破線矢印で図示)。 In addition, the corresponding point search device 1 performs a corresponding point search between the current image 91 t and the database 10. Here, the pair of the initial feature point K 4 and the feature point K 4t is, and it is searched as the corresponding point. On the other hand, a pair of the initial feature point K 5 and the feature point K 5t is, and that has not been searched for as a corresponding point (illustrated by dashed arrows).

そして、対応点探索装置1は、現在画像91と、過去画像91t−nとの間で、対応点探索を行う。このとき、各特徴点でオリエンテーションを個別に算出すると、オリエンテーションの誤差により、対応点探索の正確性が低下する。従って、対応点探索装置1は、過去画像91t−nの全特徴点K4t−n,K5t−nで共通するオリエンテーションを算出する。また、対応点探索装置1は、現在画像91の全特徴点K4t,K5tで共通するオリエンテーションを算出する。そして、対応点探索装置1は、過去画像91t−nと現在画像91とのオリエンテーションの差分を画像回転量として算出し、この画像回転量が反映された回転特徴ベクトルを記述する。その後、対応点探索装置1は、記述した回転特徴ベクトルを用いて、対応点探索を行う。ここでは、特徴点K4tと特徴点K4t−nとの対、及び、特徴点K5tと特徴点K5t−nとの対が、対応点として探索されたこととする。 Then, the corresponding point search device 1 performs a corresponding point search between the current image 91 t and the past image 91 t−n . At this time, if the orientation is calculated individually for each feature point, the accuracy of the corresponding point search is reduced due to the orientation error. Therefore, the corresponding point search device 1 calculates an orientation common to all feature points K 4t-n and K 5t-n of the past image 91 t-n . In addition, the corresponding point search device 1 calculates an orientation common to all the feature points K 4t and K 5t of the current image 91 t . Then, the corresponding point search device 1 calculates a difference in orientation between the past image 91 t-n and the current image 91 t as an image rotation amount, and describes a rotation feature vector reflecting this image rotation amount. Thereafter, the corresponding point search device 1 performs a corresponding point search using the described rotation feature vector. Here, it is assumed that a pair of the feature point K 4t and the feature point K 4t-n and a pair of the feature point K 5t and the feature point K 5t-n are searched as corresponding points.

特徴点K4tは、現在画像91と過去画像91t−nとの間、及び、現在画像91とデータベース10との間の両方で対応している。この場合、対応点探索装置1は、現在画像91と過去画像91t−nとの対応点、又は、現在画像91とデータベース10との対応点の何れかを正解の対応点として出力する。 The feature point K 4t corresponds both between the current image 91 t and the past image 91 t-n and between the current image 91 t and the database 10. In this case, the corresponding point search device 1 outputs either a corresponding point between the current image 91 t and the past image 91 t-n or a corresponding point between the current image 91 t and the database 10 as a correct corresponding point. .

一方、特徴点K5tは、現在画像91とデータベース10との間で対応していないため、データベース10から特徴点K5tの3次元座標を抽出できず、カメラパラメータの推定に好ましくない。そこで、カメラパラメータ推定装置2は、現在画像91と過去画像91t−nとの対応点を遡って、現在画像91の特徴点K5tに対応する過去画像91t−nの特徴点K5t−nを求める。さらに、カメラパラメータ推定装置2は、過去画像91t−nとデータベース10との対応点を遡って、過去画像91t−nの特徴点K5t−nに対応するデータベース10の初期特徴点Kを求める。さらに、カメラパラメータ推定装置2は、データベース10から初期特徴点Kの3次元座標を、特徴点K5tの3次元座標として抽出する。 On the other hand, since the feature point K 5t does not correspond between the current image 91 t and the database 10, the three-dimensional coordinates of the feature point K 5 t cannot be extracted from the database 10, which is not preferable for camera parameter estimation. Therefore, the camera parameter estimation device 2 goes back to the corresponding point between the current image 91 t and the past image 91 t-n, and the feature point K of the past image 91 t-n corresponding to the feature point K 5t of the current image 91 t. 5t-n is obtained. Further, the camera parameter estimation device 2 goes back to the corresponding point between the past image 91 t-n and the database 10, and the initial feature point K 5 of the database 10 corresponding to the feature point K 5t-n of the past image 91 t-n. Ask for. Further, the camera parameter estimation device 2, the three-dimensional coordinates of the initial feature point K 5 from the database 10, and extracts the three-dimensional coordinates of the feature point K 5t.

その後、カメラパラメータ推定装置2は、対応点探索装置1で探索された対応点(K4t,K4t−n),(K5t,K5t−n)と、抽出した3次元座標とを用いて、カメラパラメータを推定する Thereafter, the camera parameter estimation device 2 uses the corresponding points (K 4t , K 4t−n ) and (K 5t , K 5t−n ) searched by the corresponding point search device 1 and the extracted three-dimensional coordinates. Estimate camera parameters

[カメラパラメータ推定装置の構成]
図3を参照して、カメラパラメータ推定装置2の構成について、説明する。
図3に示すように、カメラパラメータ推定装置2は、カメラCのカメラパラメータを推定するものであり、対応点探索装置1と、3次元座標抽出手段21と、カメラパラメータ推定手段22とを備える。
[Configuration of Camera Parameter Estimation Device]
The configuration of the camera parameter estimation device 2 will be described with reference to FIG.
As shown in FIG. 3, the camera parameter estimation device 2 estimates the camera parameters of the camera C, and includes a corresponding point search device 1, a three-dimensional coordinate extraction unit 21, and a camera parameter estimation unit 22.

対応点探索装置1は、現在画像と、過去画像と、データベース10との間で対応点探索を行うものであって、データベース10と、SIFT特徴ベクトル記述手段(第1特徴ベクトル算出手段)11と、画像回転量算出手段12と、回転特徴ベクトル記述手段(第2特徴ベクトル算出手段)13と、対応点探索手段14と、対応点出力手段15と、対応点追加手段16と、特徴記述子B書込手段(データベース書込手段)17とを備える。   Corresponding point search apparatus 1 performs corresponding point search among a current image, a past image, and a database 10, and includes a database 10, SIFT feature vector description means (first feature vector calculation means) 11, , Image rotation amount calculation means 12, rotation feature vector description means (second feature vector calculation means) 13, corresponding point search means 14, corresponding point output means 15, corresponding point addition means 16, and feature descriptor B Writing means (database writing means) 17.

データベース10は、外部から、被写体90の特徴点として予め検出された初期特徴点の特徴ベクトルと、初期特徴点の3次元座標とが入力され、入力された初期特徴点及び3次元座標を対応付けて予め記憶するものである。   The database 10 receives a feature vector of an initial feature point detected in advance as a feature point of the subject 90 and a three-dimensional coordinate of the initial feature point from the outside, and associates the input initial feature point with the three-dimensional coordinate. Is stored in advance.

この初期特徴点の特徴ベクトルは、SIFT等の局所特徴量算出手法により、被写体90の撮影画像から特徴点を検出して、特徴ベクトルを記述したものである。この初期特徴点及び初期特徴点の特徴ベクトルは、それぞれ、特徴点及び特徴ベクトルの初期値として扱われる。   The feature vector of the initial feature point is a feature vector described by detecting a feature point from a captured image of the subject 90 by a local feature amount calculation method such as SIFT. The initial feature point and the feature vector of the initial feature point are treated as initial values of the feature point and the feature vector, respectively.

初期特徴点は、図3のカメラCの撮影画像から求めてもよく、図示を省略した他のカメラの撮影画像から求めてもよい。また、初期特徴点の特徴ベクトルは、特徴記述子Aと呼ばれることがある。   The initial feature point may be obtained from a photographed image of the camera C in FIG. 3 or may be obtained from a photographed image of another camera not shown. In addition, the feature vector of the initial feature point may be referred to as a feature descriptor A.

初期特徴点の3次元座標は、例えば、位置関係が既知のステレオカメラで三角測量を行うことにより、初期特徴点の位置(座標)を求めたものである。また、初期特徴点の3次元座標は、被写体90を撮影した大量の画像からSIFTで特徴ベクトルを求め、各画像間で対応点を探索し、その探索結果にバンドルアジャストメント等の最適化手法を適用し、求めてもよい。   The three-dimensional coordinates of the initial feature points are obtained by, for example, performing triangulation with a stereo camera whose positional relationship is known, thereby obtaining the positions (coordinates) of the initial feature points. The three-dimensional coordinates of the initial feature points are obtained from SIFT to obtain feature vectors from a large number of images obtained by photographing the subject 90, corresponding points are searched between the images, and an optimization method such as bundle adjustment is used for the search results. Apply and seek.

なお、バンドルアジャストメントは、例えば、ホームページ「http://phototour.cs.washington.edu/bundler/」に詳細に記載されている。
また、データベース10に記憶させる初期特徴点の数は任意であり、対応点探索の正確性を向上させるために、初期特徴点の数を多くすることが好ましい。
The bundle adjustment is described in detail on the homepage “http://phototour.cs.washington.edu/bundler/”, for example.
The number of initial feature points stored in the database 10 is arbitrary, and it is preferable to increase the number of initial feature points in order to improve the accuracy of the corresponding point search.

また、データベース10は、後記する特徴記述子B書込手段17から、初期特徴点の特徴ベクトルに対応付けて、過去画像特徴点の近似特徴ベクトルが書き込まれる。
この近似特徴ベクトルは、初期特徴点の特徴ベクトルよりも撮影環境により近似した状態で求められた特徴ベクトルであり、特徴記述子Bと呼ばれることがある。
また、過去画像特徴点とは、過去画像から検出された特徴点のことである。
Further, the approximate feature vector of the past image feature point is written in the database 10 in association with the feature vector of the initial feature point from the feature descriptor B writing unit 17 described later.
This approximate feature vector is a feature vector obtained in a state approximated by the shooting environment rather than the feature vector of the initial feature point, and may be referred to as a feature descriptor B.
The past image feature point is a feature point detected from the past image.

また、データベース10は、後記する回転特徴ベクトル記述手段13から、現在画像特徴点の回転特徴ベクトルと、過去画像特徴点の算出済回転特徴ベクトルとが書き込まれる。
この回転特徴ベクトルは、後記する画像回転量算出手段12で算出された画像回転量がオリエンテーションとして反映された特徴ベクトルであり、特徴記述子Cと呼ばれることがある。
この算出済回転特徴ベクトルは、過去画像から繰り返し回転特徴ベクトルを算出することを防止するための回転特徴ベクトルであり、特徴記述子C’と呼ばれることがある。
In addition, the rotation feature vector of the current image feature point and the calculated rotation feature vector of the past image feature point are written in the database 10 from the rotation feature vector description means 13 described later.
This rotation feature vector is a feature vector in which the image rotation amount calculated by the image rotation amount calculation means 12 described later is reflected as an orientation, and is sometimes referred to as a feature descriptor C.
This calculated rotation feature vector is a rotation feature vector for preventing repeated calculation of a rotation feature vector from a past image, and may be referred to as a feature descriptor C ′.

また、データベース10は、後記するSIFT特徴ベクトル記述手段11から、過去画像特徴点の算出済特徴ベクトルが書き込まれる。
この算出済特徴ベクトルは、過去画像から繰り返し特徴ベクトルを算出することを防止するための特徴ベクトルであり、特徴記述子Tとよばれることがある。
Also, the database 10 is written with the feature vectors already calculated for past image feature points from the SIFT feature vector description means 11 described later.
This calculated feature vector is a feature vector for preventing repeated calculation of feature vectors from past images, and is sometimes referred to as a feature descriptor T.

なお、データベース10は、現在画像が先頭のフレーム画像の場合、特徴記述子B〜Tが書き込まれていない。
また、図3では、特徴記述子A〜Tを記述子A〜Tと略記した。
In the database 10, the feature descriptors B to T are not written when the current image is the first frame image.
In FIG. 3, the feature descriptors A to T are abbreviated as descriptors A to T.

SIFT特徴ベクトル記述手段11は、カメラCから現在画像が入力され、SIFT等の局所特徴量算出手法により、入力された現在画像から特徴点を検出して、特徴ベクトルを記述(算出)するものである。
以後、現在画像から検出された特徴点を現在画像特徴点と呼ぶ。
The SIFT feature vector description means 11 is for inputting a current image from the camera C, detecting a feature point from the input current image by a local feature amount calculation method such as SIFT, and describing (calculating) a feature vector. is there.
Hereinafter, the feature points detected from the current image are referred to as current image feature points.

そして、SIFT特徴ベクトル記述手段11は、記述した現在画像特徴点の特徴ベクトルを、画像回転量算出手段12と、対応点探索手段14と、対応点出力手段15と、対応点追加手段16と、特徴記述子B書込手段17と、3次元座標抽出手段21とに出力する。
さらに、SIFT特徴ベクトル記述手段11は、記述した現在画像特徴点の特徴ベクトルを、次の現在画像で対応点探索を行うときの過去画像特徴点の算出済特徴ベクトルとして、データベース10に書き込む。
Then, the SIFT feature vector description unit 11 outputs the described feature vector of the current image feature point, the image rotation amount calculation unit 12, the corresponding point search unit 14, the corresponding point output unit 15, the corresponding point addition unit 16, The data is output to the feature descriptor B writing unit 17 and the three-dimensional coordinate extracting unit 21.
Furthermore, the SIFT feature vector description unit 11 writes the feature vector of the described current image feature point in the database 10 as a calculated feature vector of the past image feature point when the corresponding point search is performed on the next current image.

画像回転量算出手段12は、SIFT特徴ベクトル記述手段11から、現在画像特徴点の特徴ベクトルが入力され、データベース10から過去画像特徴点の算出済特徴ベクトルを読み出す。そして、画像回転量算出手段12は、入力された現在画像特徴点の特徴ベクトル及び過去画像特徴点の算出済特徴ベクトルを用いて、SIFTのオリエンテーション算出法により、過去画像に対する現在画像の画像回転量を算出するものである。   The image rotation amount calculation means 12 receives the feature vector of the current image feature point from the SIFT feature vector description means 11 and reads the calculated feature vector of the past image feature point from the database 10. Then, the image rotation amount calculation means 12 uses the input feature vector of the current image feature point and the calculated feature vector of the past image feature point to perform the image rotation amount of the current image with respect to the past image by the SIFT orientation calculation method. Is calculated.

<画像回転量の算出>
図4を参照して、画像回転量算出手段12による画像回転量の算出について、具体的に説明する(適宜図3参照)。
画像回転量算出手段12は、後記する現在画像−DB対応点探索手段14aと同様の手法で、現在画像特徴点の特徴ベクトルと過去画像特徴点の算出済特徴ベクトル(つまり、通常のSIFTで記述された特徴記述子T)との評価値T1を算出し、現在画像と過去画像との対応点に含まれる現在画像特徴点及び過去画像特徴点を全て求める。
<Calculation of image rotation amount>
With reference to FIG. 4, the calculation of the image rotation amount by the image rotation amount calculation means 12 will be specifically described (see FIG. 3 as appropriate).
The image rotation amount calculation means 12 is the same method as the current image-DB corresponding point search means 14a described later, and the feature vector of the current image feature point and the calculated feature vector of the past image feature point (that is, described by normal SIFT). The evaluation value T1 of the feature descriptor T) is calculated, and all current image feature points and past image feature points included in corresponding points between the current image and the past image are obtained.

そして、画像回転量算出手段12は、図4(a)に示すように、対応点に含まれる過去画像特徴点Kt−nについて、その周辺領域を8×8の小領域に分割し、各小領域の輝度勾配方向を求める。この図4(a)では、矢印の向きが輝度勾配方向を示し、矢印の大きさが輝度勾配強度を示す。そして、図4(b)に示すように、画像回転量算出手段12は、輝度勾配方向を36ビンのヒストグラムで表現し、そのピーク(最高値)を過去画像特徴点Kt−nのオリエンテーションOとして算出する。さらに、画像回転量算出手段12は、過去画像特徴点Kt−nと同様、対応点に含まれる現在画像特徴点KのオリエンテーションOを算出する。 Then, as shown in FIG. 4A, the image rotation amount calculation means 12 divides the peripheral area of the past image feature points Kt-n included in the corresponding points into 8 × 8 small areas, The luminance gradient direction of the small area is obtained. In FIG. 4A, the direction of the arrow indicates the luminance gradient direction, and the size of the arrow indicates the luminance gradient intensity. Then, as shown in FIG. 4B, the image rotation amount calculation means 12 expresses the luminance gradient direction as a 36-bin histogram, and the peak (highest value) is the orientation O of the past image feature points K t−n . Calculate as Further, the image rotation amount calculation means 12 calculates the orientation O of the current image feature point K t included in the corresponding point, like the past image feature point K t−n .

そして、画像回転量算出手段12は、対応点に含まれる過去画像特徴点Kt−nと現在画像特徴点Kとの全てについて、過去画像特徴点Kt−nのオリエンテーションと、現在画像特徴点Kのオリエンテーションとの差分平均値を画像回転量として算出する。その後、画像回転量算出手段12は、算出した画像回転量を回転特徴ベクトル記述手段13に出力する。
なお、画像回転量算出手段12は、現在画像が先頭のフレーム画像の場合、何の処理を行わなくともよい。
Then, the image rotation amount calculation means 12 performs the orientation of the past image feature point K t-n and the current image feature for all of the past image feature point K t-n and the current image feature point K t included in the corresponding points. calculating a difference average value of the orientation of the point K t as image rotation amount. Thereafter, the image rotation amount calculation unit 12 outputs the calculated image rotation amount to the rotation feature vector description unit 13.
Note that the image rotation amount calculation means 12 does not need to perform any processing when the current image is the first frame image.

図3に戻り、対応点探索装置1の構成について、説明を続ける。
回転特徴ベクトル記述手段13は、画像回転量算出手段12から画像回転量が入力される。そして、回転特徴ベクトル記述手段13は、SIFT等の局所特徴量算出手法によって、入力された画像回転量が全ての現在画像特徴点のオリエンテーションとして反映されるように、現在画像特徴点の回転特徴ベクトルを記述(算出)するものである。
Returning to FIG. 3, the description of the configuration of the corresponding point search device 1 will be continued.
The rotation feature vector description unit 13 receives the image rotation amount from the image rotation amount calculation unit 12. Then, the rotation feature vector description means 13 uses the local feature amount calculation method such as SIFT so that the input image rotation amount is reflected as the orientation of all the current image feature points. Is described (calculated).

<回転特徴ベクトルの記述>
図5を参照して、回転特徴ベクトル記述手段13による回転特徴ベクトルの記述について、具体的に説明する。(適宜図3参照)。
回転特徴ベクトル記述手段13は、予め設定された基準角度(例えば、水平を示す0°)を基準として、全ての現在画像特徴点について、現在画像特徴点の周辺領域を算出したオリエンテーションだけ、予め設定された回転方向(例えば、右回り)に回転させる。
<Description of rotation feature vector>
With reference to FIG. 5, the description of the rotation feature vector by the rotation feature vector description means 13 is demonstrated concretely. (See FIG. 3 as appropriate).
The rotation feature vector description means 13 sets in advance only the orientation in which the peripheral area of the current image feature point is calculated for all the current image feature points with reference to a preset reference angle (for example, 0 ° indicating horizontal). Rotate in the rotated direction (for example, clockwise).

そして、回転特徴ベクトル記述手段13は、図5に示すように、回転後の周辺領域を4×4の合計16ブロックに分割し、ブロックごとに、45度間隔の8方向での輝度勾配方向のヒストグラムを作成する。このとき、回転特徴ベクトル記述手段13は、8方向で16ブロックのヒストグラムを作成したため、16×8=128次元の特徴ベクトルとして、現在画像特徴点の回転特徴ベクトルを記述する。その後、回転特徴ベクトル記述手段13は、記述した現在画像特徴点の回転特徴ベクトルを、データベース10に書き込む。
さらに、回転特徴ベクトル記述手段13は、記述した現在画像特徴点の回転特徴ベクトルを、次の現在画像で対応点探索を行うときの過去画像特徴点の算出済回転特徴ベクトルとして、データベース10に書き込む。
Then, as shown in FIG. 5, the rotation feature vector description means 13 divides the peripheral area after rotation into a total of 16 blocks of 4 × 4, and each block has a luminance gradient direction in 8 directions at 45 degree intervals. Create a histogram. At this time, since the rotation feature vector description means 13 created a histogram of 16 blocks in 8 directions, the rotation feature vector of the current image feature point is described as a feature vector of 16 × 8 = 128 dimensions. Thereafter, the rotation feature vector description means 13 writes the rotation feature vector of the described current image feature point in the database 10.
Further, the rotation feature vector description means 13 writes the rotation feature vector of the described current image feature point in the database 10 as the calculated rotation feature vector of the past image feature point when the corresponding point search is performed on the next current image. .

なお、回転特徴ベクトル記述手段13は、現在画像が先頭のフレーム画像の場合、何の処理を行わなくともよい。
また、SIFTによるオリエンテーション算出及び回転特徴ベクトルの記述は、例えば、文献「“Gradientベースの特徴抽出-SIFTとHOG-”、藤吉他、情報処理学会 研究報告CVIM 160、pp.211-224,2007.」に詳細に記載されている。
The rotation feature vector description unit 13 does not need to perform any processing when the current image is the first frame image.
Also, the orientation calculation by SIFT and the description of the rotation feature vector are described in, for example, the document ““ Gradient-based feature extraction-SIFT and HOG- ”, Fujiyoshi et al., Information Processing Society of Japan Research Report CVIM 160, pp.211-224, 2007. Is described in detail.

図3に戻り、対応点探索装置1の構成について、説明を続ける。
対応点探索手段14は、対応点探索を行うものであり、現在画像−DB対応点探索手段(第1対応点探索手段)14aと、現在画像−過去画像対応点探索手段(第2対応点探索手段)14bとを備える。
Returning to FIG. 3, the description of the configuration of the corresponding point search device 1 will be continued.
Corresponding point search means 14 performs corresponding point search, and present image-DB corresponding point searching means (first corresponding point searching means) 14a and current image-past image corresponding point searching means (second corresponding point searching). Means) 14b.

ここで、対応点探索手段14は、SIFT特徴ベクトル記述手段11から現在画像特徴点の特徴ベクトルが入力される。また、対応点探索手段14は、データベース10から、初期特徴点の特徴ベクトル(特徴記述子A)と、過去画像特徴点の近似特徴ベクトル(特徴記述子B)と、現在画像特徴点の回転特徴ベクトル(特徴記述子C)と、過去画像特徴点の算出済特徴ベクトル(特徴記述子T)とを読み出す。   Here, the corresponding point search means 14 receives the feature vector of the current image feature point from the SIFT feature vector description means 11. Corresponding point search means 14 also retrieves from the database 10 a feature vector of initial feature points (feature descriptor A), an approximate feature vector of past image feature points (feature descriptor B), and a rotation feature of the current image feature point. A vector (feature descriptor C) and a calculated feature vector (feature descriptor T) of past image feature points are read out.

<対応点の探索>
対応点探索手段14による対応点探索について、具体的に説明する。
現在画像−DB対応点探索手段14aは、現在画像特徴点と初期特徴点との特徴ベクトル、及び、現在画像特徴点の特徴ベクトルと過去画像特徴点の近似特徴ベクトルとについて、後記する評価値T1(第1評価値)を算出し、算出した評価値T1が最小になる特徴点の対を、現在画像−データベース対応点として探索するものである。
<Search for corresponding points>
The corresponding point search by the corresponding point searching means 14 will be specifically described.
The current image-DB correspondence point searching unit 14a evaluates a feature vector of the current image feature point and the initial feature point, and an evaluation value T1 described later for the feature vector of the current image feature point and the approximate feature vector of the past image feature point. (First evaluation value) is calculated, and a pair of feature points at which the calculated evaluation value T1 is minimized is searched for as a current image-database correspondence point.

まず、現在画像−DB対応点探索手段14aは、現在画像特徴点の特徴ベクトルと、初期特徴点の特徴ベクトルとについて、以下の式(1)により、評価値T1を算出する。
T1=l1/l2 ・・・式(1)
First, the current image-DB corresponding point searching unit 14a calculates an evaluation value T1 for the feature vector of the current image feature point and the feature vector of the initial feature point by the following equation (1).
T1 = l1 / l2 (1)

具体的には、現在画像−DB対応点探索手段14aは、現在画像特徴点ごとに、この現在画像特徴点の特徴ベクトルと、初期特徴点の特徴ベクトルとの全組み合わせのうち、最短のユークリッド距離l1を算出する。また、現在画像−DB対応点探索手段14aは、現在画像特徴点ごとに、この現在画像特徴点の特徴ベクトルと、初期特徴点の特徴ベクトルと全組み合わせのうち、ユークリッド距離l1の次に短いユークリッド距離l2を算出する。そして、現在画像−DB対応点探索手段14aは、現在画像特徴点ごとに、最短のユークリッド距離l1と、次に短いユークリッド距離l2との比である評価値T1を算出する。   Specifically, the current image-DB correspondence point search means 14a, for each current image feature point, of the shortest Euclidean distance among all combinations of the feature vector of the current image feature point and the feature vector of the initial feature point. l1 is calculated. Further, the current image-DB correspondence point searching means 14a, for each current image feature point, among the combinations of the feature vector of the current image feature point and the feature vector of the initial feature point, the Euclidean next shortest after the Euclidean distance l1. The distance l2 is calculated. Then, the current image-DB corresponding point searching unit 14a calculates an evaluation value T1 that is a ratio of the shortest Euclidean distance l1 to the next shortest Euclidean distance l2 for each current image feature point.

つまり、評価値T1は、現在画像特徴点の特徴ベクトルが、データベース10に記憶された何れの特徴点ベクトルに近いかを評価するものである。また、この評価値T1は、最短のユークリッド距離l1と、次に短いユークリッド距離l2とが一定の値でならなければ、正解の対応点でなく、誤対応の可能性が高いことを示す。   That is, the evaluation value T1 evaluates which feature point vector stored in the database 10 is close to the feature vector of the current image feature point. Further, this evaluation value T1 indicates that if the shortest Euclidean distance l1 and the next shortest Euclidean distance l2 are not constant values, it is not a correct corresponding point but a high possibility of erroneous correspondence.

次に、現在画像−DB対応点探索手段14aは、現在画像特徴点の特徴ベクトルと過去画像特徴点の近似特徴ベクトルとについて、前記した式(1)で評価値T1を算出する。
なお、初期特徴点の特徴ベクトルの代わりに、過去画像特徴点の近似特徴ベクトルを用いる以外、評価値1を同様に算出できるため、説明を省略する。
Next, the current image-DB correspondence point searching unit 14a calculates the evaluation value T1 by the above-described equation (1) for the feature vector of the current image feature point and the approximate feature vector of the past image feature point.
Since the evaluation value 1 can be calculated in the same manner except that the approximate feature vector of the past image feature point is used instead of the feature vector of the initial feature point, the description is omitted.

そして、現在画像−DB対応点探索手段14aは、現在画像特徴点ごとに、現在画像特徴点と初期特徴点との全組み合わせ、及び、現在画像特徴点と過去画像特徴点との全組み合わせのうち、算出した評価値T1が最小になる特徴点の対を、現在画像−データベース対応点として探索する。このとき、現在画像−DB対応点探索手段14aは、誤対応を低減するため、評価値T1が最小になり、かつ、閾値α(第4閾値)を超える特徴点の対を、現在画像−データベース対応点として探索することが好ましい。この閾値αは、任意の値(例えば、0.5)で予め設定される。   Then, for each current image feature point, the current image-DB corresponding point searching unit 14a includes all combinations of the current image feature point and the initial feature point, and all combinations of the current image feature point and the past image feature point. A pair of feature points at which the calculated evaluation value T1 is minimized is searched for as a current image-database correspondence point. At this time, the current image-DB corresponding point searching unit 14a determines a pair of feature points having a minimum evaluation value T1 and exceeding a threshold value α (fourth threshold value) as a current image-database in order to reduce erroneous correspondence. It is preferable to search for corresponding points. This threshold value α is preset with an arbitrary value (for example, 0.5).

なお、現在画像−DB対応点探索手段14aは、現在画像が先頭のフレーム画像の場合、過去画像特徴点の近似特徴ベクトルがデータベース10に記憶されていないため、初期特徴点のみを探索対象とすればよい。   Note that the current image-DB correspondence point searching unit 14a searches only the initial feature point because the approximate feature vector of the past image feature point is not stored in the database 10 when the current image is the first frame image. That's fine.

現在画像−過去画像対応点探索手段14bは、現在画像特徴点の回転特徴ベクトルと過去画像特徴点の算出済回転特徴ベクトルとについて、前記した式(1)で評価値T1を算出し、算出した評価値T1が最小になる特徴点の対を、現在画像−過去画像対応点として探索するものである。
なお、現在画像−過去画像対応点探索手段14bは、現在画像−DB対応点探索手段14aと同様に評価値T1を算出できるため、説明を省略する。
The current image-past image corresponding point searching unit 14b calculates the evaluation value T1 by the above-described equation (1) for the rotation feature vector of the current image feature point and the calculated rotation feature vector of the past image feature point. A pair of feature points with the smallest evaluation value T1 is searched for as a current image-past image correspondence point.
Since the current image-past image corresponding point searching unit 14b can calculate the evaluation value T1 in the same manner as the current image-DB corresponding point searching unit 14a, the description thereof is omitted.

そして、現在画像−過去画像対応点探索手段14bは、現在画像特徴点と、過去画像特徴点との全組み合わせのうち、算出した評価値T1が最小になる特徴点の対を現在画像−過去画像対応点として探索する。このとき、現在画像−過去画像対応点探索手段14bは、誤対応を低減するため、評価値T1が最小になり、かつ、閾値α’(第5閾値)を超える特徴点の対を、現在画像−過去画像対応点として探索することが好ましい。この閾値α’は、閾値α以下の任意の値(例えば、0.1)で予め設定される。   Then, the current image-past image corresponding point searching unit 14b selects a pair of feature points having the smallest calculated evaluation value T1 among all combinations of the current image feature points and the past image feature points as the current image-past image. Search as a corresponding point. At this time, the current image-past image corresponding point searching unit 14b determines a pair of feature points having a minimum evaluation value T1 and exceeding a threshold value α ′ (fifth threshold value) in order to reduce erroneous correspondence. -It is preferable to search as a past image corresponding point. This threshold value α ′ is preset with an arbitrary value (for example, 0.1) that is equal to or less than the threshold value α.

その後、対応点探索手段14は、現在画像−データベース対応点と、現在画像−過去画像対応点とを、対応点出力手段15と、3次元座標抽出手段21とに出力する。
また、対応点探索手段14は、現在画像−過去画像対応点探索手段14bで探索された現在画像−データベース対応点を一時記憶メモリ(不図示)に記憶する。そして、対応点探索手段14は、現在画像より後の画像で対応点探索を行うとき、一時記憶メモリに一時記憶された現在画像−データベース対応点を、過去画像−データベース対応点として対応点出力手段15に出力する。
Thereafter, the corresponding point search unit 14 outputs the current image-database corresponding point and the current image-past image corresponding point to the corresponding point output unit 15 and the three-dimensional coordinate extraction unit 21.
The corresponding point searching means 14 stores the current image-database corresponding points searched by the current image-past image corresponding point searching means 14b in a temporary storage memory (not shown). When the corresponding point search unit 14 searches for the corresponding point in the image after the current image, the corresponding point output unit stores the current image-database corresponding point temporarily stored in the temporary storage memory as the past image-database corresponding point. 15 is output.

対応点出力手段15は、SIFT特徴ベクトル記述手段11から、現在画像特徴点の特徴ベクトルが入力される。また、対応点出力手段15は、対応点探索手段14から、現在画像−データベース対応点と、現在画像−過去画像対応点と、過去画像−データベース対応点とが入力される。さらに、対応点出力手段15は、データベース10から、過去画像特徴点の算出済特徴ベクトル(特徴記述子T)を読み出す。   The corresponding point output unit 15 receives the feature vector of the current image feature point from the SIFT feature vector description unit 11. Corresponding point output means 15 receives current image-database corresponding points, current image-past image corresponding points, and past image-database corresponding points from corresponding point search means 14. Further, the corresponding point output unit 15 reads the calculated feature vector (feature descriptor T) of the past image feature point from the database 10.

この対応点出力手段15は、入力された現在画像特徴点のそれぞれが、現在画像−過去画像対応点に含まれ、かつ、現在画像−データベース対応点に含まれるか否かを判定するものである。そして、対応点出力手段15は、両対応点に含まれると判定された現在画像特徴点について、以下の式(2)により評価値τ(第2評価値)を算出する。
τ=L1/L2 ・・・式(2)
The corresponding point output unit 15 determines whether each of the input current image feature points is included in the current image-past image corresponding point and whether it is included in the current image-database corresponding point. . Then, the corresponding point output unit 15 calculates an evaluation value τ (second evaluation value) by the following equation (2) for the current image feature point determined to be included in both corresponding points.
τ = L1 / L2 Expression (2)

この距離比τは、その値が“1”で分母側と分子側の特徴ベクトル同士の類似度が等しいことを示し、“1”より増加するほど分母側の特徴ベクトル同士の類似度が高いことを示し、“1”から減少するほど分子側の特徴ベクトル同士の類似度が高いことを示す。   This distance ratio τ indicates that the value is “1” and the similarity between the denominator side and numerator side feature vectors is the same, and the degree of similarity between the denominator side feature vectors increases as the value increases from “1”. And the degree of similarity between the molecular side feature vectors increases as the value decreases from “1”.

具体的には、対応点出力手段15は、現在画像−過去画像対応点に含まれる現在画像特徴点及び過去画像特徴点について、この現在画像特徴点の特徴ベクトルと、この過去画像特徴点の算出済特徴ベクトルとのユークリッド距離L1を算出する。また、対応点出力手段15は、現在画像−データベース対応点に含まれる現在画像特徴点と初期特徴点とについて、特徴ベクトル同士のユークリッド距離L2を算出する。そして、対応点出力手段15は、ユークリッド距離L1,L2の比を示す評価値τを算出する。   Specifically, the corresponding point output unit 15 calculates the feature vector of the current image feature point and the past image feature point for the current image feature point and the past image feature point included in the current image-past image corresponding point. The Euclidean distance L1 with the completed feature vector is calculated. The corresponding point output unit 15 calculates the Euclidean distance L2 between the feature vectors for the current image feature point and the initial feature point included in the current image-database corresponding point. Then, the corresponding point output unit 15 calculates an evaluation value τ indicating the ratio of the Euclidean distances L1 and L2.

さらに、対応点出力手段15は、算出した評価値τが閾値β(第1閾値)を超えるか否かを判定する。
この閾値βは、被写体の絵柄や撮影環境を考慮して、任意の値(例えば、2)で予め設定される。
Further, the corresponding point output unit 15 determines whether or not the calculated evaluation value τ exceeds the threshold value β (first threshold value).
This threshold value β is set in advance as an arbitrary value (for example, 2) in consideration of the pattern of the subject and the shooting environment.

評価値τが閾値βを超える場合、対応点出力手段15は、現在画像−データベース対応点を、正解の対応点として対応点追加手段16に出力する。このとき、対応点出力手段15は、被写体の認識や追跡等の画像処理が行い易くするため、現在画像−データベース対応点と共に、初期特徴点を出力することが好ましい。
一方、評価値τが閾値β以下の場合、対応点出力手段15は、現在画像−過去画像対応点を、正解の対応点として対応点追加手段16に出力する。
When the evaluation value τ exceeds the threshold value β, the corresponding point output unit 15 outputs the current image-database corresponding point to the corresponding point adding unit 16 as a correct corresponding point. At this time, it is preferable that the corresponding point output means 15 outputs the initial feature point together with the current image-database corresponding point in order to facilitate image processing such as subject recognition and tracking.
On the other hand, when the evaluation value τ is equal to or less than the threshold value β, the corresponding point output unit 15 outputs the current image-past image corresponding point to the corresponding point adding unit 16 as a correct corresponding point.

対応点追加手段16は、SIFT特徴ベクトル記述手段11から、現在画像特徴点の特徴ベクトルが入力され、対応点出力手段15から、正解の対応点が入力される。また、対応点追加手段16は、データベース10から、初期特徴点の特徴ベクトル(特徴記述子A)と、過去画像特徴点の算出済特徴ベクトル(特徴記述子T)とを読み出す。   Corresponding point adding means 16 receives the feature vector of the current image feature point from SIFT feature vector description means 11, and receives the correct corresponding point from corresponding point output means 15. Corresponding point adding means 16 reads the feature vector (feature descriptor A) of the initial feature point and the calculated feature vector (feature descriptor T) of the past image feature point from the database 10.

この対応点追加手段16は、現在画像−DB対応点探索手段14aと同様、現在画像特徴点と初期特徴点との特徴ベクトル、及び、現在画像特徴点の特徴ベクトルと過去画像特徴点の近似特徴ベクトルとについて、前記した式(1)で評価値T1を算出する。   This corresponding point adding means 16 is similar to the current image-DB corresponding point searching means 14a, and the feature vector of the current image feature point and the initial feature point, and the approximate feature of the feature vector of the current image feature point and the past image feature point. For the vector, the evaluation value T1 is calculated by the above-described equation (1).

また、対応点追加手段16は、現在画像特徴点と初期特徴点との対について、算出した評価値T1が閾値γ(第3閾値)未満であるか否かを判定する。そして、評価値T1が閾値γ未満の場合、対応点追加手段16は、現在画像特徴点と初期特徴点との対を、正解の対応点として追加する。
この閾値γは、閾値α以下の任意の値(例えば、0.1)で予め設定される。
The corresponding point adding means 16 determines whether or not the calculated evaluation value T1 is less than the threshold γ (third threshold) for the pair of the current image feature point and the initial feature point. When the evaluation value T1 is less than the threshold value γ, the corresponding point adding unit 16 adds a pair of the current image feature point and the initial feature point as a corresponding point of the correct answer.
This threshold value γ is preset with an arbitrary value (for example, 0.1) that is equal to or smaller than the threshold value α.

さらに、対応点追加手段16は、現在画像特徴点と過去画像特徴点との対についても、算出した評価値T1が閾値γ未満であるか否かを判定する。そして、評価値T1が閾値γ未満の場合、対応点追加手段16は、現在画像特徴点と過去画像特徴点との対を、正解の対応点として追加する。   Further, the corresponding point adding means 16 determines whether or not the calculated evaluation value T1 is less than the threshold γ for the pair of the current image feature point and the past image feature point. When the evaluation value T1 is less than the threshold value γ, the corresponding point adding unit 16 adds a pair of the current image feature point and the past image feature point as a correct corresponding point.

その後、対応点追加手段16は、追加した対応点をカメラパラメータ推定手段22に出力する。これによって、対応点探索装置1は、画像回転量算出手段12が算出した画像回転量と異なる回転の特徴点の対が存在する場合でも、この特徴点の対を対応点として拾うことができる。
なお、対応点追加手段16は、追加しようとする対応点が、対応点出力手段15から入力された対応点に既に含まれている場合、追加しなくともよい。
Thereafter, the corresponding point adding unit 16 outputs the added corresponding point to the camera parameter estimating unit 22. Accordingly, the corresponding point search device 1 can pick up the feature point pair as a corresponding point even when there is a pair of feature points whose rotation is different from the image rotation amount calculated by the image rotation amount calculation unit 12.
Note that the corresponding point adding unit 16 does not need to add the corresponding point to be added when the corresponding point to be added is already included in the corresponding point input from the corresponding point output unit 15.

特徴記述子B書込手段17は、SIFT特徴ベクトル記述手段11から、現在画像特徴点の特徴ベクトルが入力される。また、特徴記述子B書込手段17は、対応点探索手段14から、現在画像−データベース対応点と、現在画像−過去画像対応点とが入力される。さらに、特徴記述子B書込手段17は、データベース10から、初期特徴点の特徴ベクトル(特徴記述子A)を読み出す。   The feature descriptor B writing unit 17 receives the feature vector of the current image feature point from the SIFT feature vector description unit 11. The feature descriptor B writing unit 17 receives the current image-database corresponding point and the current image-past image corresponding point from the corresponding point searching unit 14. Further, the feature descriptor B writing means 17 reads the feature vector (feature descriptor A) of the initial feature point from the database 10.

この特徴記述子B書込手段17は、対応点出力手段15と同様、入力された現在画像特徴点のそれぞれが、現在画像−過去画像対応点に含まれ、かつ、現在画像−データベース対応点に含まれるか否かを判定する。そして、特徴記述子B書込手段17は、対応点出力手段15と同様、両対応点に含まれると判定された現在画像特徴点について、前記した式(2)で評価値τを算出し、算出した評価値τが閾値δ(第2閾値)を超えるか否かを判定するものである。
この閾値δは、閾値α以下で任意の値(例えば、0.1)に設定することができる。
Similar to the corresponding point output unit 15, the feature descriptor B writing unit 17 includes each of the input current image feature points included in the current image-past image corresponding point and the current image-database corresponding point. It is determined whether or not it is included. Then, the feature descriptor B writing unit 17 calculates the evaluation value τ by the above-described equation (2) for the current image feature point determined to be included in both corresponding points, like the corresponding point output unit 15, It is determined whether or not the calculated evaluation value τ exceeds a threshold δ (second threshold).
The threshold δ can be set to an arbitrary value (for example, 0.1) that is equal to or less than the threshold α.

ここで、評価値τが閾値δを超える場合、特徴記述子B書込手段17は、入力された現在画像特徴点の特徴ベクトルを、初期特徴点の特徴ベクトルに対応付けて、過去画像特徴点の近似特徴ベクトル(特徴記述子B)として、データベース10に書き込む。   Here, when the evaluation value τ exceeds the threshold δ, the feature descriptor B writing unit 17 associates the input feature vector of the current image feature point with the feature vector of the initial feature point, and stores the past image feature point. Is written in the database 10 as an approximate feature vector (feature descriptor B).

このように、対応点探索装置1は、過去画像特徴点の近似特徴ベクトルを利用することで、撮影環境が変化した場合でも、正確に対応点を探索できる。さらに、対応点探索装置1は、撮影環境が初期状態に急峻に戻った場合でも、初期特徴点の特徴ベクトルを利用することで、対応点探索の正確性を維持できる。   As described above, the corresponding point search device 1 can search for a corresponding point accurately even when the shooting environment changes by using the approximate feature vector of the past image feature point. Furthermore, the corresponding point search apparatus 1 can maintain the accuracy of the corresponding point search by using the feature vector of the initial feature point even when the shooting environment is sharply returned to the initial state.

3次元座標抽出手段21は、SIFT特徴ベクトル記述手段11から、現在画像特徴点の特徴ベクトルが入力される。また、3次元座標抽出手段21は、対応点探索手段14から、現在画像−データベース対応点と、現在画像−過去画像対応点と、過去画像−データベース対応点とが入力される。さらに、3次元座標抽出手段21は、データベース10から、初期特徴点の特徴ベクトル(特徴記述子A)と、3次元座標とを読み出す。   The three-dimensional coordinate extraction unit 21 receives the feature vector of the current image feature point from the SIFT feature vector description unit 11. The three-dimensional coordinate extracting unit 21 receives the current image-database corresponding point, the current image-past image corresponding point, and the past image-database corresponding point from the corresponding point searching unit 14. Further, the three-dimensional coordinate extraction unit 21 reads out the feature vector (feature descriptor A) of the initial feature point and the three-dimensional coordinates from the database 10.

この3次元座標抽出手段21は、入力された現在画像特徴点が、現在画像−過去画像対応点に含まれ、かつ、現在画像−データベース対応点に含まれる判定条件を満たすか否かを判定する。そして、3次元座標抽出手段21は、この判定条件を満たす現在画像特徴点について、現在画像−過去画像対応点及び過去画像−データベース対応点に基づいて、初期特徴点に対応付けられた3次元座標を、現在画像特徴点の3次元座標として抽出するものである。   The three-dimensional coordinate extraction unit 21 determines whether or not the input current image feature point is included in the current image-past image corresponding point and satisfies the determination condition included in the current image-database corresponding point. . Then, the three-dimensional coordinate extraction unit 21 determines the three-dimensional coordinates associated with the initial feature point based on the current image-past image corresponding point and the past image-database corresponding point for the current image feature point satisfying this determination condition. Are extracted as three-dimensional coordinates of the current image feature point.

具体的には、3次元座標抽出手段21は、現在画像−過去画像対応点を遡って、現在画像特徴点に対応する過去画像特徴点を求める。次に、3次元座標抽出手段21は、過去画像−データベース対応点を遡って、過去画像特徴点に対応する初期特徴点を求める。最後に、3次元座標抽出手段21は、データベース10から、求めた初期特徴点の3次元座標を、現在画像特徴点の3次元座標として抽出する。その後、3次元座標抽出手段21は、抽出した現在画像特徴点の3次元座標をカメラパラメータ推定手段22に出力する。   Specifically, the three-dimensional coordinate extraction unit 21 obtains a past image feature point corresponding to the current image feature point by tracing back the current image-past image correspondence point. Next, the three-dimensional coordinate extraction unit 21 obtains initial feature points corresponding to past image feature points by tracing back the past image-database correspondence points. Finally, the three-dimensional coordinate extracting unit 21 extracts the obtained three-dimensional coordinates of the initial feature point from the database 10 as the three-dimensional coordinates of the current image feature point. Thereafter, the three-dimensional coordinate extraction unit 21 outputs the extracted three-dimensional coordinates of the current image feature point to the camera parameter estimation unit 22.

なお、3次元座標抽出手段21は、現在画像−データベース対応点に含まれる現在画像特徴点について、この現在画像−データベース対応点を遡って、現在画像特徴点に対応する初期特徴点を求める。そして、3次元座標抽出手段21は、求めた初期特徴点の3次元座標を、現在画像特徴点の3次元座標として抽出してもよい。   Note that the three-dimensional coordinate extraction unit 21 obtains an initial feature point corresponding to the current image feature point by tracing back the current image-database correspondence point with respect to the current image feature point included in the current image-database correspondence point. Then, the three-dimensional coordinate extraction unit 21 may extract the obtained three-dimensional coordinates of the initial feature points as the three-dimensional coordinates of the current image feature points.

カメラパラメータ推定手段22は、対応点追加手段16から対応点が入力され、3次元座標抽出手段21から3次元座標が入力され、入力された対応点及び3次元座標を用いて、カメラパラメータ(例えば、カメラの位置、姿勢等の外部パラメータと、光学中心、レンズ歪等の内部パラメータ)を推定するものである。   The camera parameter estimation unit 22 receives a corresponding point from the corresponding point addition unit 16, receives a three-dimensional coordinate from the three-dimensional coordinate extraction unit 21, and uses the input corresponding point and the three-dimensional coordinate to set a camera parameter (for example, , External parameters such as camera position and orientation, and internal parameters such as optical center and lens distortion).

例えば、カメラパラメータ推定手段22は、3個以上の対応点からカメラパラメータを推定する。このとき、カメラパラメータ推定手段22は、対応点に外れ値と呼ばれる誤対応点が含まれる場合があるため、RANSAC、LMedS等のロバスト推定により外れ値を除外し、最適化によりカメラパラメータを推定する。このとき、カメラパラメータ推定手段22は、最適化の評価関数として、仮定したカメラパラメータで特徴記述子Aの3次元座標を画像に投影した座標と、対応点の座標との距離差の総和を用いることができる。この場合、カメラパラメータ推定手段22は、最適化の評価関数の計算値が最小になるカメラパラメータを繰り返し処理で推定する。その後、カメラパラメータ推定手段22は、推定したカメラパラメータを外部に出力する。
この他、カメラパラメータ推定手段22は、OpenCV(http://opencv.jp/)を用いて、カメラパラメータを推定することもできる。
For example, the camera parameter estimation unit 22 estimates camera parameters from three or more corresponding points. At this time, the camera parameter estimation unit 22 may include an erroneous corresponding point called an outlier in the corresponding point, so that the outlier is excluded by robust estimation such as RANSAC or LMedS, and the camera parameter is estimated by optimization. . At this time, the camera parameter estimation means 22 uses, as an optimization evaluation function, the sum of distance differences between the coordinates obtained by projecting the three-dimensional coordinates of the feature descriptor A on the image with the assumed camera parameters and the coordinates of the corresponding points. be able to. In this case, the camera parameter estimation means 22 estimates the camera parameter that minimizes the calculation value of the optimization evaluation function by iterative processing. Thereafter, the camera parameter estimation means 22 outputs the estimated camera parameters to the outside.
In addition, the camera parameter estimation means 22 can also estimate the camera parameters using OpenCV (http://opencv.jp/).

[カメラパラメータ推定装置の動作:先頭のフレーム画像]
図6,図7を参照して、カメラパラメータ推定装置2の動作について、説明する(適宜図3参照)。
なお、カメラパラメータ推定装置2は、現在画像が先頭のフレーム画像の場合と、2番目以降のフレーム画像の場合で動作が異なるため、それぞれ説明する。
また、カメラパラメータ推定装置2は、データベース10に初期特徴点の特徴ベクトルと、初期特徴点の3次元座標とを記憶していることとする。
[Operation of Camera Parameter Estimation Device: First Frame Image]
The operation of the camera parameter estimation device 2 will be described with reference to FIGS. 6 and 7 (see FIG. 3 as appropriate).
The operation of the camera parameter estimation device 2 will be described because the operation differs depending on whether the current image is the first frame image or the second or subsequent frame image.
The camera parameter estimation device 2 is assumed to store the feature vector of the initial feature point and the three-dimensional coordinates of the initial feature point in the database 10.

図6に示すように、カメラパラメータ推定装置2は、カメラCから、現在画像(先頭のフレーム画像)が入力される(ステップS1)。
SIFT特徴ベクトル記述手段11は、SIFT等の局所特徴量算出手法により、現在画像から特徴点を検出して、特徴ベクトルを記述する(ステップS2)。
As shown in FIG. 6, the camera parameter estimation device 2 receives the current image (first frame image) from the camera C (step S1).
The SIFT feature vector description means 11 detects a feature point from the current image by a local feature amount calculation method such as SIFT, and describes the feature vector (step S2).

現在画像−DB対応点探索手段14aは、データベース10から初期特徴点(特徴記述子A)を読み出して、現在画像特徴点と初期特徴点との特徴ベクトルについて、評価値T1を算出する(ステップS3)。
現在画像−DB対応点探索手段14aは、算出した評価値T1が最小になり、かつ、閾値αを超える特徴点の対を、現在画像−データベース対応点として探索する(ステップS4)。
The current image-DB correspondence point searching unit 14a reads the initial feature point (feature descriptor A) from the database 10, and calculates the evaluation value T1 for the feature vector between the current image feature point and the initial feature point (step S3). ).
The current image-DB corresponding point searching unit 14a searches for a pair of feature points having the calculated evaluation value T1 that is minimum and exceeding the threshold value α as a current image-database corresponding point (step S4).

3次元座標抽出手段21は、現在画像−データベース対応点から、現在画像特徴点に対応する初期特徴点を求め、データベース10から、求めた初期特徴点の3次元座標を抽出する。そして、カメラパラメータ推定手段22は、現在画像−データベース対応点及び3次元座標を用いて、カメラパラメータを推定する(ステップS5)。   The three-dimensional coordinate extraction means 21 obtains an initial feature point corresponding to the current image feature point from the current image-database correspondence point, and extracts the obtained three-dimensional coordinate of the initial feature point from the database 10. Then, the camera parameter estimation means 22 estimates camera parameters using the current image-database correspondence point and the three-dimensional coordinates (step S5).

SIFT特徴ベクトル記述手段11は、記述した現在画像特徴点の特徴ベクトルを、次の現在画像で対応点探索を行うときの過去画像特徴点の算出済特徴ベクトル(特徴記述子T)として、データベース10に書き込む。
特徴記述子B書込手段17は、評価値τが閾値δを超える場合、現在画像特徴点の特徴ベクトルを、初期特徴点の特徴ベクトルに対応付けて、過去画像特徴点の近似特徴ベクトル(特徴記述子B)として、データベース10に書き込む(ステップS6)。
以上のように、カメラパラメータ推定装置2は、現在画像が先頭のフレームの場合、従来技術と同様の手法で対応点探索を行い、カメラパラメータを推定する。
The SIFT feature vector description unit 11 uses the feature vector of the described current image feature point as the calculated feature vector (feature descriptor T) of the past image feature point when the corresponding point search is performed on the next current image. Write to.
When the evaluation value τ exceeds the threshold δ, the feature descriptor B writing unit 17 associates the feature vector of the current image feature point with the feature vector of the initial feature point, and approximates the feature vector of the past image feature point (feature As the descriptor B), it is written in the database 10 (step S6).
As described above, when the current image is the first frame, the camera parameter estimation device 2 searches for corresponding points by a method similar to the conventional technique, and estimates camera parameters.

[カメラパラメータ推定装置の動作:2番目以降のフレーム画像]
図7に示すように、カメラパラメータ推定装置2は、カメラCから現在画像(2番目以降のフレーム画像)が入力される(ステップS11)。
SIFT特徴ベクトル記述手段11は、SIFT等の局所特徴量算出手法により、現在画像から特徴点を検出して、特徴ベクトルを記述する(ステップS12)。
[Operation of camera parameter estimation device: second and subsequent frame images]
As shown in FIG. 7, the camera parameter estimation device 2 receives the current image (second and subsequent frame images) from the camera C (step S11).
The SIFT feature vector description means 11 detects a feature point from the current image by a local feature amount calculation method such as SIFT, and describes the feature vector (step S12).

現在画像−DB対応点探索手段14aは、データベース10から初期特徴点(特徴記述子A)と近似特徴ベクトル(特徴記述子B)とを読み出して、現在画像特徴点と初期特徴点との特徴ベクトル、及び、現在画像特徴点の特徴ベクトルと過去画像特徴点の近似特徴ベクトルとについて、評価値T1を算出する(ステップS13)。   The current image-DB correspondence point searching unit 14a reads the initial feature point (feature descriptor A) and the approximate feature vector (feature descriptor B) from the database 10, and the feature vector of the current image feature point and the initial feature point. The evaluation value T1 is calculated for the feature vector of the current image feature point and the approximate feature vector of the past image feature point (step S13).

現在画像−DB対応点探索手段14aは、算出した評価値T1が最小になり、かつ、閾値αを超える特徴点の対を、現在画像−データベース対応点として探索する(ステップS14)。   The current image-DB corresponding point searching unit 14a searches for a pair of feature points having the calculated evaluation value T1 that is minimum and exceeding the threshold value α as a current image-database corresponding point (step S14).

画像回転量算出手段12は、現在画像特徴点の特徴ベクトル及び過去画像特徴点の算出済特徴ベクトルを用いて、SIFTのオリエンテーション算出法により、過去画像に対する現在画像の画像回転量を算出する(ステップS15)。
回転特徴ベクトル記述手段13は、SIFT等の局所特徴量算出手法によって、予め設定された基準角度を基準として、画像回転量が全ての現在画像特徴点のオリエンテーションとして反映されるように、現在画像特徴点の回転特徴ベクトル(特徴記述子C)を記述する(ステップS16)。
The image rotation amount calculation means 12 calculates the image rotation amount of the current image with respect to the past image by the SIFT orientation calculation method using the feature vector of the current image feature point and the calculated feature vector of the past image feature point (step S15).
The rotation feature vector description means 13 uses a local feature amount calculation method such as SIFT so that the image rotation amount is reflected as the orientation of all current image feature points with reference to a preset reference angle. A point rotation feature vector (feature descriptor C) is described (step S16).

現在画像−過去画像対応点探索手段14bは、データベース10から算出済初期特徴点(特徴記述子T)を読み出して、現在画像特徴点の回転特徴ベクトルと過去画像特徴点の算出済特徴ベクトルとについて、評価値T1を算出する(ステップS17)。
現在画像−過去画像対応点探索手段14bは、算出した評価値T1が最小になり、かつ、閾値αを超える特徴点の対を、現在画像−過去画像対応点として探索する(ステップS18)。
The current image-past image corresponding point searching unit 14b reads the calculated initial feature point (feature descriptor T) from the database 10 and calculates the rotation feature vector of the current image feature point and the calculated feature vector of the past image feature point. The evaluation value T1 is calculated (step S17).
The current image-past image corresponding point searching unit 14b searches for a pair of feature points having the calculated evaluation value T1 that is minimum and exceeding the threshold value α as a current image-past image corresponding point (step S18).

対応点出力手段15は、現在画像特徴点が、現在画像−過去画像対応点に含まれ、かつ、現在画像−データベース対応点に含まれるか否かを判定する。そして、対応点出力手段15は、両対応点に含まれると判定された現在画像特徴点について、評価値τを算出する(ステップS19)。
対応点出力手段15は、評価値τが閾値βを超えるか否かにより、現在画像−データベース対応点、又は、現在画像−過去画像対応点を、正解の対応点として出力する(ステップS20)。
The corresponding point output means 15 determines whether or not the current image feature point is included in the current image-past image corresponding point and included in the current image-database corresponding point. Then, the corresponding point output unit 15 calculates the evaluation value τ for the current image feature point determined to be included in both corresponding points (step S19).
The corresponding point output means 15 outputs the current image-database corresponding point or the current image-past image corresponding point as a correct corresponding point depending on whether or not the evaluation value τ exceeds the threshold value β (step S20).

対応点追加手段16は、現在画像特徴点と初期特徴点との特徴ベクトル、及び、現在画像特徴点の特徴ベクトルと過去画像特徴点の近似特徴ベクトルとについて、評価値T1を算出する(ステップS21)。
対応点追加手段16は、現在画像特徴点と初期特徴点との対について、評価値T1が閾値γ未満の場合、この特徴点の対を正解の対応点として追加する。また、対応点追加手段16は、現在画像特徴点と過去画像特徴点との対について、評価値T1が閾値γ未満の場合、この特徴点の対を正解の対応点として追加する(ステップS22)。
The corresponding point adding means 16 calculates the evaluation value T1 for the feature vector of the current image feature point and the initial feature point, and the feature vector of the current image feature point and the approximate feature vector of the past image feature point (step S21). ).
When the evaluation value T1 is less than the threshold value γ for the pair of the current image feature point and the initial feature point, the corresponding point addition unit 16 adds the feature point pair as a correct corresponding point. In addition, when the evaluation value T1 is less than the threshold γ for the pair of the current image feature point and the past image feature point, the corresponding point adding unit 16 adds the feature point pair as a correct corresponding point (step S22). .

3次元座標抽出手段21は、前記した判定条件を満たす現在画像特徴点について、現在画像−過去画像対応点及び過去画像−データベース対応点に基づいて、初期特徴点に対応付けられた3次元座標を、現在画像特徴点の3次元座標として抽出する(ステップS23)。
カメラパラメータ推定手段22は、現在画像−データベース対応点及び3次元座標を用いて、カメラパラメータを推定する(ステップS24)。
The three-dimensional coordinate extraction unit 21 calculates the three-dimensional coordinates associated with the initial feature point based on the current image-past image corresponding point and the past image-database corresponding point for the current image feature point satisfying the above-described determination condition. Then, it is extracted as the three-dimensional coordinates of the current image feature point (step S23).
The camera parameter estimation means 22 estimates camera parameters using the current image-database correspondence point and the three-dimensional coordinates (step S24).

SIFT特徴ベクトル記述手段11は、記述した現在画像特徴点の特徴ベクトルを、次の現在画像で対応点探索を行うときの過去画像特徴点の算出済特徴ベクトル(特徴記述子T)として、データベース10に書き込む。
特徴記述子B書込手段17は、評価値τが閾値δを超える場合、現在画像特徴点の特徴ベクトルを、初期特徴点の特徴ベクトルに対応付けて、過去画像特徴点の近似特徴ベクトル(特徴記述子B)として、データベース10に書き込む(ステップS25)。
The SIFT feature vector description unit 11 uses the feature vector of the described current image feature point as the calculated feature vector (feature descriptor T) of the past image feature point when the corresponding point search is performed on the next current image. Write to.
When the evaluation value τ exceeds the threshold δ, the feature descriptor B writing unit 17 associates the feature vector of the current image feature point with the feature vector of the initial feature point, and approximates the feature vector of the past image feature point (feature Descriptor B) is written in the database 10 (step S25).

回転特徴ベクトル記述手段13は、記述した現在画像特徴点の回転特徴ベクトルを、次の現在画像で対応点探索を行うときの過去画像特徴点の算出済回転特徴ベクトル(特徴記述子C’)として、データベース10に書き込む(ステップS26)。   The rotation feature vector description means 13 uses the rotation feature vector of the described current image feature point as the calculated rotation feature vector (feature descriptor C ′) of the past image feature point when the corresponding point search is performed on the next current image. The data is written in the database 10 (step S26).

以上のように、本発明の実施形態に係るカメラパラメータ推定装置2は、画像内の全特徴点が同じように回転するとみなし、全特徴点で共通するオリエンテーションを算出するため、各特徴点でオリエンテーションを個別に算出した場合に比べて、オリエンテーションの誤差が少なく、対応点を正確に探索することができる。   As described above, the camera parameter estimation device 2 according to the embodiment of the present invention assumes that all feature points in an image rotate in the same way, and calculates the orientation common to all feature points. Compared with the case where each is calculated individually, the orientation error is small, and the corresponding points can be searched accurately.

なお、カメラパラメータ推定装置2は、画像内での被写体90の回転が制限されるものでない。
例えば、カメラCをアフィンカメラと仮定し、現在画像と過去画像とが時間的に近い場合、被写体の動き(回転)が僅かになる。この場合、カメラパラメータ推定装置2は、全特徴点での画像回転量が同程度になるため、対応点を極めて正確に探索することができる。
The camera parameter estimation device 2 is not limited to the rotation of the subject 90 in the image.
For example, assuming that the camera C is an affine camera and the current image and the past image are close in time, the movement (rotation) of the subject is slight. In this case, the camera parameter estimation device 2 can search the corresponding points very accurately because the image rotation amounts at all the feature points are approximately the same.

なお、本実施形態では、SIFTのオリエンテーションにより画像回転量を算出することとして説明したが、本発明は、これに限定されない。例えば、画像回転量算出手段12は、位相限定相関法により画像回転量を算出してもよい。
この位相限定相関法は、例えば、文献「”1次元位相限定相関法に基づく画像の高精度回転計測アルゴリズムとその評価”,長嶋他、第20回 回路とシステム 軽井沢ワークショップ、http://www.aoki.ecei.tohoku.ac.jp/~ito/p173_Bd1-2-4.pdf」に詳細に記載されている。
In the present embodiment, the image rotation amount is calculated by SIFT orientation, but the present invention is not limited to this. For example, the image rotation amount calculation unit 12 may calculate the image rotation amount by the phase only correlation method.
This phase-only correlation method is described, for example, in the document ““ High-precision rotation measurement algorithm for images based on the one-dimensional phase-only correlation method and its evaluation ”, Nagashima et al., 20th Circuit and System Karuizawa Workshop, http: // www .aoki.ecei.tohoku.ac.jp / ~ ito / p173_Bd1-2-4.pdf "is described in detail.

なお、本実施形態では、SIFTを用いることとして説明したが、本発明は、これに限定されない。例えば、本発明は、SURFやDAISYのように、一定のルールに基づいてオリエンテーションを算出し、特徴ベクトルを記述する手法であれば、利用可能である。   Although the present embodiment has been described as using SIFT, the present invention is not limited to this. For example, the present invention can be used as long as it is a technique for calculating an orientation based on a certain rule and describing a feature vector, such as SURF or DAISY.

なお、本実施形態では、図5の手法で回転特徴ベクトルを記述することとして説明したが、本発明は、これに限定されない。例えば、回転特徴ベクトル記述手段13は、2回目以降の処理の場合(現在画像が3番目以降のフレーム画像の場合)、基準角度と、算出済回転特徴ベクトルのオリエンテーションと、現在画像の画像回転量とを加えた角度を、現在画像のオリエンテーションとすることで、現在画像特徴点の回転特徴ベクトルを記述してもよい。   In the present embodiment, the rotation feature vector is described by the method of FIG. 5, but the present invention is not limited to this. For example, in the second and subsequent processing (when the current image is the third and subsequent frame images), the rotation feature vector description unit 13 determines the reference angle, the orientation of the calculated rotation feature vector, and the image rotation amount of the current image. The rotation feature vector of the current image feature point may be described by setting the angle obtained by adding to the orientation of the current image.

1 対応点探索装置
10 データベース
11 SIFT特徴ベクトル記述手段(第1特徴ベクトル算出手段)
12 画像回転量算出手段
13 回転特徴ベクトル記述手段(第2特徴ベクトル算出手段)
14 対応点探索手段
14a 現在画像−DB対応点探索手段(第1対応点探索手段)
14b 現在画像−過去画像対応点探索手段(第2対応点探索手段)
15 対応点出力手段
16 対応点追加手段
17 特徴記述子B書込手段(データベース書込手段)
2 カメラパラメータ推定装置
21 3次元座標抽出手段
22 カメラパラメータ推定手段
1 Corresponding point search device 10 Database 11 SIFT feature vector description means (first feature vector calculation means)
12 image rotation amount calculation means 13 rotation feature vector description means (second feature vector calculation means)
14 Corresponding point searching means 14a Current image-DB corresponding point searching means (first corresponding point searching means)
14b Current image-past image corresponding point searching means (second corresponding point searching means)
15 Corresponding point output means 16 Corresponding point addition means 17 Feature descriptor B writing means (database writing means)
2 Camera parameter estimation device 21 Three-dimensional coordinate extraction means 22 Camera parameter estimation means

Claims (6)

被写体を撮影した現在画像と、前記現在画像より前の過去画像との間で対応点探索を行う対応点探索装置であって、
前記被写体の特徴点として予め検出された初期特徴点の特徴ベクトルと、前記初期特徴点の3次元座標とを予め記憶し、過去画像から検出された特徴点である過去画像特徴点の近似特徴ベクトルと、前記過去画像の算出済回転特徴ベクトルと、前記過去画像特徴点の算出済特徴ベクトルとが書き込まれるデータベースと、
局所特徴量算出手法により、前記現在画像の特徴点である現在画像特徴点を検出して特徴ベクトルを算出し、算出した前記現在画像特徴点の特徴ベクトルを、前記現在画像より後の画像で対応点探索を行うときの過去画像特徴点の算出済特徴ベクトルとして前記データベースに書き込む第1特徴ベクトル算出手段と、
前記データベースを参照して、前記現在画像特徴点と前記初期特徴点との特徴ベクトル、及び、前記現在画像特徴点の特徴ベクトルと過去画像特徴点の近似特徴ベクトルとについて、最短距離と当該最短距離の次に短い距離との比である第1評価値を算出し、算出した当該第1評価値が最小になる特徴点の対を、現在画像−データベース対応点として探索する第1対応点探索手段と、
位相限定相関法又はオリエンテーション算出法により、前記過去画像に対する前記現在画像の画像回転量を算出する画像回転量算出手段と、
前記局所特徴量算出手法によって、予め設定された基準角度を基準に前記画像回転量がオリエンテーションとして反映されるように、前記現在画像特徴点の回転特徴ベクトルを算出し、算出した前記現在画像特徴点の回転特徴ベクトルを、前記現在画像より後の画像で対応点探索を行うときの前記過去画像の算出済回転特徴ベクトルとして前記データベースに書き込む第2特徴ベクトル算出手段と、
前記データベースを参照して、前記現在画像特徴点の回転特徴ベクトルと前記過去画像特徴点の算出済回転特徴ベクトルとについて、前記第1評価値を算出し、算出した当該第1評価値が最小になる特徴点の対を、現在画像−過去画像対応点として探索する第2対応点探索手段と、
前記現在画像−過去画像対応点に含まれ、かつ、前記現在画像−データベース対応点に含まれる現在画像特徴点について、当該現在画像特徴点の特徴ベクトル及び前記過去画像特徴点の算出済特徴ベクトルの距離と、当該現在画像特徴点及び前記初期特徴点の特徴ベクトルの距離との比である第2評価値が予め設定された第1閾値を超えるか否かを判定し、前記第2評価値が前記第1閾値を超えるときに前記現在画像−データベース対応点を前記対応点として出力し、前記第2評価値が前記第1閾値を超えないときに前記現在画像−過去画像対応点を前記対応点として出力する対応点出力手段と、
前記第2評価値が予め設定された第2閾値を超えるときに、前記現在画像特徴点の特徴ベクトルを、前記現在画像より後の画像で対応点探索を行うときの過去画像特徴点の近似特徴ベクトルとして前記データベースに書き込むデータベース書込手段と、
を備えることを特徴とする対応点探索装置。
A corresponding point search device for searching for corresponding points between a current image obtained by photographing a subject and a past image before the current image,
An approximate feature vector of a past image feature point that is a feature point detected from a past image by previously storing a feature vector of the initial feature point previously detected as a feature point of the subject and a three-dimensional coordinate of the initial feature point A database in which the calculated rotation feature vector of the past image and the calculated feature vector of the past image feature point are written;
A feature vector is calculated by detecting a current image feature point that is a feature point of the current image by a local feature amount calculation method, and the calculated feature vector of the current image feature point is supported by an image after the current image First feature vector calculation means for writing into the database as a calculated feature vector of a past image feature point when performing a point search;
Referring to the database, the shortest distance and the shortest distance for the feature vector of the current image feature point and the initial feature point, and the feature vector of the current image feature point and the approximate feature vector of the past image feature point The first corresponding point search means for calculating a first evaluation value that is a ratio to the next shortest distance after the first and searching for a pair of feature points that minimizes the calculated first evaluation value as a current image-database corresponding point When,
An image rotation amount calculating means for calculating an image rotation amount of the current image with respect to the past image by a phase only correlation method or an orientation calculation method;
The local feature amount calculation method calculates a rotation feature vector of the current image feature point so that the image rotation amount is reflected as an orientation based on a preset reference angle, and the calculated current image feature point Second feature vector calculation means for writing the rotation feature vector in the database as a calculated rotation feature vector of the past image when the corresponding point search is performed on an image after the current image.
Referring to the database, the first evaluation value is calculated for the rotation feature vector of the current image feature point and the calculated rotation feature vector of the past image feature point, and the calculated first evaluation value is minimized. Second corresponding point search means for searching for a pair of feature points as current image-past image corresponding points;
For the current image feature point included in the current image-past image correspondence point and included in the current image-database correspondence point, the feature vector of the current image feature point and the calculated feature vector of the past image feature point It is determined whether or not a second evaluation value that is a ratio between the distance and the distance between the current image feature point and the feature vector of the initial feature point exceeds a preset first threshold value, and the second evaluation value is When the first threshold is exceeded, the current image-database corresponding point is output as the corresponding point, and when the second evaluation value does not exceed the first threshold, the current image-past image corresponding point is the corresponding point. Corresponding point output means for outputting as
When the second evaluation value exceeds a preset second threshold value, the approximate feature of the past image feature point when a feature point search is performed on the feature vector of the current image feature point in an image after the current image. Database writing means for writing to the database as a vector;
A corresponding point search device comprising:
前記現在画像特徴点と前記初期特徴点との特徴ベクトル、及び、前記現在画像特徴点の特徴ベクトルと前記過去画像特徴点の算出済特徴ベクトルとについて、前記第1評価値が予め設定された第3閾値未満であるか否かを判定し、前記第1評価値が前記第3閾値未満である特徴点の対を、前記対応点に追加する対応点追加手段、
をさらに備えることを特徴とする請求項1に記載の対応点探索装置。
The first evaluation value is set in advance for the feature vector of the current image feature point and the initial feature point, and the feature vector of the current image feature point and the calculated feature vector of the past image feature point. A corresponding point adding means for determining whether or not the threshold value is less than 3, and adding a pair of feature points having the first evaluation value less than the third threshold value to the corresponding point;
The corresponding point search apparatus according to claim 1, further comprising:
前記対応点出力手段は、前記第2評価値が前記第1閾値を超えるとき、前記現在画像−データベース対応点と共に、前記初期特徴点を出力することを特徴とする請求項1又は請求項2に記載の対応点探索装置。 The corresponding point output unit, can with the second evaluation value exceeds the first threshold value, the current image - with the database corresponding point, according to claim 1 or claim and outputs the initial feature point 2. The corresponding point search device according to 2. 前記第1対応点探索手段は、算出した前記第1評価値が最小になり、かつ、予め設定された第4閾値を超える特徴点の対を、前記現在画像−データベース対応点として探索し、
前記第2対応点探索手段は、算出した前記第1評価値が最小になり、かつ、予め設定された第5閾値を超える特徴点の対を、前記現在画像−過去画像対応点として探索することを特徴とする請求項1から請求項3の何れか一項に記載の対応点探索装置。
The first corresponding point search means searches for a pair of feature points where the calculated first evaluation value is minimum and exceeds a preset fourth threshold as the current image-database corresponding point,
The second corresponding point search means searches for a pair of feature points in which the calculated first evaluation value is minimum and exceeds a preset fifth threshold as the current image-past image corresponding point. The corresponding point search device according to any one of claims 1 to 3, wherein
被写体を撮影した現在画像と、前記現在画像より前の過去画像との間で対応点探索を行うために、
前記被写体の特徴点として予め検出された初期特徴点の特徴ベクトルと、前記初期特徴点の3次元座標とを予め記憶し、過去画像から検出された特徴点である過去画像特徴点の近似特徴ベクトルと、前記過去画像の算出済回転特徴ベクトルと、前記過去画像特徴点の算出済特徴ベクトルとが書き込まれるデータベースを備えるコンピュータを、
局所特徴量算出手法により、前記現在画像の特徴点である現在画像特徴点を検出して特徴ベクトルを算出し、算出した前記現在画像特徴点の特徴ベクトルを、前記現在画像より後の画像で対応点探索を行うときの過去画像特徴点の算出済特徴ベクトルとして前記データベースに書き込む第1特徴ベクトル算出手段、
前記データベースを参照して、前記現在画像特徴点と前記初期特徴点との特徴ベクトル、及び、前記現在画像特徴点の特徴ベクトルと過去画像特徴点の近似特徴ベクトルとについて、最短距離と当該最短距離の次に短い距離との比である第1評価値を算出し、算出した当該第1評価値が最小になる特徴点の対を、現在画像−データベース対応点として探索する第1対応点探索手段、
位相限定相関法又はオリエンテーション算出法により、前記過去画像に対する前記現在画像の画像回転量を算出する画像回転量算出手段、
前記局所特徴量算出手法によって、予め設定された基準角度を基準に前記画像回転量がオリエンテーションとして反映されるように、前記現在画像特徴点の回転特徴ベクトルを算出し、算出した前記現在画像特徴点の回転特徴ベクトルを、前記現在画像より後の画像で対応点探索を行うときの前記過去画像の算出済回転特徴ベクトルとして前記データベースに書き込む第2特徴ベクトル算出手段、
前記データベースを参照して、前記現在画像特徴点の回転特徴ベクトルと前記過去画像特徴点の算出済回転特徴ベクトルとについて、前記第1評価値を算出し、算出した当該第1評価値が最小になる特徴点の対を、現在画像−過去画像対応点として探索する第2対応点探索手段、
前記現在画像−過去画像対応点に含まれ、かつ、前記現在画像−データベース対応点に含まれる現在画像特徴点について、当該現在画像特徴点の特徴ベクトル及び前記過去画像特徴点の算出済特徴ベクトルの距離と、当該現在画像特徴点及び前記初期特徴点の特徴ベクトルの距離との比である第2評価値が予め設定された第1閾値を超えるか否かを判定し、前記第2評価値が前記第1閾値を超えるときに前記現在画像−データベース対応点を前記対応点として出力し、前記第2評価値が前記第1閾値を超えないときに前記現在画像−過去画像対応点を前記対応点として出力する対応点出力手段、
前記第2評価値が予め設定された第2閾値を超えるときに、前記現在画像特徴点の特徴ベクトルを、前記現在画像より後の画像で対応点探索を行うときの過去画像特徴点の近似特徴ベクトルとして前記データベースに書き込むデータベース書込手段、
として機能させるための対応点探索プログラム。
In order to perform a corresponding point search between a current image obtained by photographing a subject and a past image before the current image,
An approximate feature vector of a past image feature point that is a feature point detected from a past image by previously storing a feature vector of the initial feature point previously detected as a feature point of the subject and a three-dimensional coordinate of the initial feature point And a computer comprising a database in which the calculated rotation feature vector of the past image and the calculated feature vector of the past image feature point are written,
A feature vector is calculated by detecting a current image feature point that is a feature point of the current image by a local feature amount calculation method, and the calculated feature vector of the current image feature point is supported by an image after the current image First feature vector calculation means for writing into the database as a calculated feature vector of a past image feature point when performing a point search;
Referring to the database, the shortest distance and the shortest distance for the feature vector of the current image feature point and the initial feature point, and the feature vector of the current image feature point and the approximate feature vector of the past image feature point The first corresponding point search means for calculating a first evaluation value that is a ratio to the next shortest distance after the first and searching for a pair of feature points that minimizes the calculated first evaluation value as a current image-database corresponding point ,
An image rotation amount calculation means for calculating an image rotation amount of the current image with respect to the past image by a phase only correlation method or an orientation calculation method;
The local feature amount calculation method calculates a rotation feature vector of the current image feature point so that the image rotation amount is reflected as an orientation based on a preset reference angle, and the calculated current image feature point Second feature vector calculation means for writing the rotation feature vector in the database as a calculated rotation feature vector of the past image when searching for corresponding points in an image after the current image,
Referring to the database, the first evaluation value is calculated for the rotation feature vector of the current image feature point and the calculated rotation feature vector of the past image feature point, and the calculated first evaluation value is minimized. Second corresponding point searching means for searching for a pair of feature points as current image-past image corresponding points,
For the current image feature point included in the current image-past image correspondence point and included in the current image-database correspondence point, the feature vector of the current image feature point and the calculated feature vector of the past image feature point It is determined whether or not a second evaluation value that is a ratio between the distance and the distance between the current image feature point and the feature vector of the initial feature point exceeds a preset first threshold value, and the second evaluation value is When the first threshold is exceeded, the current image-database corresponding point is output as the corresponding point, and when the second evaluation value does not exceed the first threshold, the current image-past image corresponding point is the corresponding point. Corresponding point output means to output as
When the second evaluation value exceeds a preset second threshold value, the approximate feature of the past image feature point when a feature point search is performed on the feature vector of the current image feature point in an image after the current image. Database writing means for writing to the database as a vector;
Corresponding point search program to function as.
請求項4に記載の対応点探索装置を備え、カメラパラメータを推定するカメラパラメータ推定装置であって、
前記対応点探索装置は、
前記第1対応点探索手段が、探索した前記現在画像−データベース対応点を、前記現在画像より後の画像で対応点探索を行うときの過去画像−データベース対応点として一時記憶し、
前記カメラパラメータ推定装置は、
前記現在画像−過去画像対応点に含まれ、かつ、前記現在画像−データベース対応点に含まれない前記現在画像特徴点について、前記現在画像−過去画像対応点及び前記過去画像−データベース対応点に基づいて、前記データベースに記憶された前記初期特徴点の3次元座標を、当該現在画像特徴点の3次元座標として抽出する3次元座標抽出手段と、
前記対応点探索装置で探索された対応点と、前記3次元座標抽出手段で抽出された3次元座標とを用いて、前記カメラパラメータを推定するカメラパラメータ推定手段と、
を備えることを特徴とするカメラパラメータ推定装置。
A camera parameter estimation device comprising the corresponding point search device according to claim 4 for estimating a camera parameter,
The corresponding point search device includes:
The first corresponding point searching means temporarily stores the searched current image-database corresponding point as a past image-database corresponding point when performing a corresponding point search on an image after the current image,
The camera parameter estimation device includes:
Based on the current image-past image correspondence point and the past image-database correspondence point, the current image feature point included in the current image-past image correspondence point and not included in the current image-database correspondence point. Three-dimensional coordinate extraction means for extracting the three-dimensional coordinates of the initial feature points stored in the database as the three-dimensional coordinates of the current image feature points;
Camera parameter estimation means for estimating the camera parameters using the corresponding points searched by the corresponding point search device and the three-dimensional coordinates extracted by the three-dimensional coordinate extraction means;
A camera parameter estimation device comprising:
JP2012086200A 2012-04-05 2012-04-05 Corresponding point search device, program thereof, and camera parameter estimation device Active JP5973767B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012086200A JP5973767B2 (en) 2012-04-05 2012-04-05 Corresponding point search device, program thereof, and camera parameter estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012086200A JP5973767B2 (en) 2012-04-05 2012-04-05 Corresponding point search device, program thereof, and camera parameter estimation device

Publications (2)

Publication Number Publication Date
JP2013218396A JP2013218396A (en) 2013-10-24
JP5973767B2 true JP5973767B2 (en) 2016-08-23

Family

ID=49590448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012086200A Active JP5973767B2 (en) 2012-04-05 2012-04-05 Corresponding point search device, program thereof, and camera parameter estimation device

Country Status (1)

Country Link
JP (1) JP5973767B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015132817A1 (en) * 2014-03-05 2015-09-11 三菱電機株式会社 Edge detection device, edge detection method, and program
KR101715649B1 (en) * 2014-04-22 2017-03-15 위드로봇 주식회사 Image recognition system using transformed images
JP6399518B2 (en) * 2014-12-18 2018-10-03 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Processing device, processing method, and program
CN109271944B (en) * 2018-09-27 2021-03-12 百度在线网络技术(北京)有限公司 Obstacle detection method, obstacle detection device, electronic apparatus, vehicle, and storage medium
CN110070626B (en) * 2019-03-15 2023-08-11 西安电子科技大学 Three-dimensional object retrieval method based on multi-view classification

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008687A (en) * 2009-06-29 2011-01-13 Sharp Corp Image processor

Also Published As

Publication number Publication date
JP2013218396A (en) 2013-10-24

Similar Documents

Publication Publication Date Title
US9292937B2 (en) Opt-keyframe reconstruction for robust video-based structure from motion
US9177404B2 (en) Systems and methods of merging multiple maps for computer vision based tracking
CN107292949B (en) Three-dimensional reconstruction method and device of scene and terminal equipment
US9330471B2 (en) Camera aided motion direction and speed estimation
JP6215442B2 (en) Client-server based dynamic search
JP6464934B2 (en) Camera posture estimation apparatus, camera posture estimation method, and camera posture estimation program
KR101532864B1 (en) Planar mapping and tracking for mobile devices
KR102367361B1 (en) Location measurement and simultaneous mapping method and device
WO2015017539A1 (en) Rolling sequential bundle adjustment
WO2019125741A1 (en) Graphical coordinate system transform for video frames
JP5973767B2 (en) Corresponding point search device, program thereof, and camera parameter estimation device
JP2011008687A (en) Image processor
JP2012234257A (en) Image processor, image processing method and program
WO2018214086A1 (en) Method and apparatus for three-dimensional reconstruction of scene, and terminal device
JPWO2016208404A1 (en) Information processing apparatus and method, and program
CN112102404B (en) Object detection tracking method and device and head-mounted display equipment
JP6080424B2 (en) Corresponding point search device, program thereof, and camera parameter estimation device
WO2022174603A1 (en) Pose prediction method, pose prediction apparatus, and robot
JP6843552B2 (en) Image processing equipment, image processing methods and programs.
WO2013173383A1 (en) Methods and apparatus for processing image streams
CN111814869B (en) Method and device for synchronous positioning and mapping, electronic equipment and storage medium
WO2024084638A1 (en) Marker location calculation device, marker location calculation method, and marker location calculation program
Xu Stereo Visual Odometry with Windowed Bundle Adjustment

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160715

R150 Certificate of patent or registration of utility model

Ref document number: 5973767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250