JP5027747B2 - POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM - Google Patents

POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM Download PDF

Info

Publication number
JP5027747B2
JP5027747B2 JP2008172737A JP2008172737A JP5027747B2 JP 5027747 B2 JP5027747 B2 JP 5027747B2 JP 2008172737 A JP2008172737 A JP 2008172737A JP 2008172737 A JP2008172737 A JP 2008172737A JP 5027747 B2 JP5027747 B2 JP 5027747B2
Authority
JP
Japan
Prior art keywords
external orientation
orientation element
image
feature point
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008172737A
Other languages
Japanese (ja)
Other versions
JP2010014450A (en
Inventor
伸夫 高地
哲治 穴井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2008172737A priority Critical patent/JP5027747B2/en
Priority to EP09773518.7A priority patent/EP2309225A4/en
Priority to PCT/JP2009/062067 priority patent/WO2010001940A1/en
Publication of JP2010014450A publication Critical patent/JP2010014450A/en
Priority to US12/980,839 priority patent/US8811718B2/en
Application granted granted Critical
Publication of JP5027747B2 publication Critical patent/JP5027747B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定技術に係り、特に誤差を低減する位置測定技術に関する。   The present invention relates to a position measurement technique for measuring a captured position and posture and a three-dimensional position of a subject based on a moving image, and more particularly to a position measurement technique for reducing errors.

従来から写真測量の理論が研究されている。近年では、写真測量の理論を用いて、動画像からカメラの位置や姿勢と被写体の三次元位置とを測定する技術が開示されている(例えば、特許文献1)。   Conventionally, the theory of photogrammetry has been studied. In recent years, a technique for measuring the position and orientation of a camera and the three-dimensional position of a subject from a moving image using a photogrammetry theory has been disclosed (for example, Patent Document 1).

特許文献1に記載の発明は、GPS(Global Positioning System)によって位置測定ができない場合に、後方交会法によってカメラの位置を求め、前方交会法によって被写体の位置を求めるものである。この態様によれば、位置測定が中断されない。   In the invention described in Patent Document 1, when the position cannot be measured by GPS (Global Positioning System), the position of the camera is obtained by the backward intersection method, and the position of the subject is obtained by the forward intersection method. According to this aspect, position measurement is not interrupted.

しかしながら、画像からカメラの位置や被写体の位置を求める方法は、誤差が発生する傾向がある。この問題を解決する技術は、例えば、非特許文献2または特許文献3に開示されている。   However, the method for obtaining the position of the camera and the position of the subject from the image tends to cause errors. The technique which solves this problem is disclosed by the nonpatent literature 2 or the patent document 3, for example.

非特許文献2に記載の発明は、推定された三次元位置を画像上へ投影した座標と画像上で検出された座標との誤差(再投影誤差)、および、GPS測位値によって定義される位置誤差を同時に最小化するものである。   The invention described in Non-Patent Document 2 is based on an error (reprojection error) between coordinates obtained by projecting an estimated three-dimensional position onto an image and coordinates detected on the image, and a position defined by a GPS positioning value. The error is minimized simultaneously.

また、特許文献3に記載の発明は、ビデオ映像から求めたカメラの位置および三軸回転位置を示すカメラベクトル(CV)データと、移動体の位置計測データと、を基準時刻によって時刻同期させ、同一時間軸で比較し、相互に補完補正するものである。
特開2007−171048号公報 情報処理学会論文誌Vol.0、No.13、横地裕次著、p1−11 特開2006−250917号公報
Further, the invention described in Patent Document 3 synchronizes the camera vector (CV) data indicating the position of the camera and the triaxial rotation position obtained from the video image and the position measurement data of the moving object with reference time, They are compared on the same time axis and compensated for each other.
JP 2007-171048 A IPSJ Journal Vol. 0, No. 13, Yuji Yokochi, p1-11 JP 2006-250917 A

このような背景を鑑み、本発明は、動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定技術において、撮影シーンの変化や撮影装置の変動による誤差を低減する技術を提供することを目的とする。   In view of such a background, the present invention reduces errors caused by changes in shooting scenes and changes in shooting devices in a position measurement technique that measures a shot position and posture and a three-dimensional position of a subject based on a moving image. It aims at providing the technology to do.

請求項1に記載の発明は、初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、前記外部標定要素算出ステップによって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価ステップと、前記外部標定要素評価ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を備えることを特徴とする位置測定方法である。   The invention according to claim 1 is an initial value for calculating an initial value of an external orientation element composed of a photographing position and a photographing posture based on a known point in the initial image or a photographing position and / or photographing posture measured externally. An external orientation element calculation step for calculating an external orientation element based on a known point in the moving image following the initial image used in the initial value calculation step or a feature point that has already been given a three-dimensional coordinate; The external orientation element calculated in the external orientation element calculation step is at least one of a feature point trajectory direction, a feature point trajectory amount, a feature point distribution rate, a feature point overlap rate, and vertical parallax. One or more images based on an external orientation element evaluation step evaluated based on one and the external orientation elements modified by the external orientation element evaluation step A bundle adjustment step for simultaneously adjusting the three-dimensional coordinates of the partial orientation element and the feature point, and a tertiary of the feature point newly detected in the region where the density of the feature points is reduced based on the bundle-adjusted external orientation element A position measurement method comprising: a three-dimensional coordinate calculation step for calculating original coordinates; and a repetition step for repeating the processes from the external orientation element calculation step to the three-dimensional coordinate calculation step until a final image is obtained. It is.

請求項1に記載の発明によれば、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動を判断することができる。撮影シーンの変化や撮影装置の変動は、特徴点の追跡を困難にし、画像から算出された外部標定要素の精度を劣化させる。したがって、撮影シーンの変化や撮影装置の変動が相対的に大きい場合には、画像から算出された外部標定要素の信頼性が低いと評価し、撮影シーンの変化や撮影装置の変動が相対的に小さい場合には、画像から算出された外部標定要素の信頼性が高いと評価する。   According to the first aspect of the present invention, based on at least one of the direction and amount of the trajectory of the feature points, the distribution rate of the feature points, the overlap rate, and the vertical parallax, the change in the shooting scene and the shooting device Can be judged. Changes in the shooting scene and changes in the shooting apparatus make it difficult to track feature points and degrade the accuracy of the external orientation elements calculated from the images. Therefore, when the change in the shooting scene and the fluctuation of the shooting apparatus are relatively large, it is evaluated that the reliability of the external orientation element calculated from the image is low, and the change in the shooting scene and the fluctuation of the shooting apparatus are relatively If it is small, it is evaluated that the external orientation element calculated from the image has high reliability.

画像から算出された外部標定要素の信頼性が低いと評価される場合には、外部で測定された撮影位置や撮影姿勢を利用し、画像から算出された外部標定要素は利用しない。この態様によって、撮影シーンの変化や撮影装置の変動による誤差が低減する。   When it is evaluated that the reliability of the external orientation element calculated from the image is low, the external orientation element calculated from the image is not used, but the externally measured imaging position or orientation is used. By this aspect, errors due to changes in the shooting scene and fluctuations in the shooting apparatus are reduced.

請求項2に記載の発明は、請求項1に記載の発明において、前記特徴点の軌跡の方向もしくは特徴点の軌跡の量は、処理対象の画像内における、前画像の特徴点に対応する対応点の軌跡と、新たに検出された特徴点の軌跡との差に基づいて算出されることを特徴とする。   According to a second aspect of the present invention, in the first aspect, the direction of the trajectory of the feature point or the amount of the trajectory of the feature point corresponds to the feature point of the previous image in the processing target image. It is calculated based on the difference between the trajectory of the point and the trajectory of the newly detected feature point.

請求項2に記載の発明によれば、撮影シーンの変化や撮影装置の変動が容易に検知される。処理対象である現在の画像には、一つ前の画像の特徴点に対応する対応点と、新たに検出された特徴点とが存在する。撮影シーンの変化や撮影装置の変動がある場合には、対応点の軌跡と、新たに検出された特徴点の軌跡とが、異なる方向および異なる量となる。   According to the second aspect of the present invention, a change in the shooting scene and a change in the shooting apparatus are easily detected. The current image to be processed includes a corresponding point corresponding to the feature point of the previous image and a newly detected feature point. When there is a change in the shooting scene or a change in the shooting apparatus, the trajectory of the corresponding point and the trajectory of the newly detected feature point have different directions and different amounts.

請求項3に記載の発明は、請求項1に記載の発明において、前記特徴点の分布率もしくは特徴点のオーバーラップ率は、画像中心を原点とした特徴点のX座標および/またはY座標の合計値によって算出されることを特徴とする。   According to a third aspect of the present invention, in the first aspect of the present invention, the distribution rate of the feature points or the overlap rate of the feature points is the X coordinate and / or Y coordinate of the feature point with the image center as the origin. It is calculated by the total value.

請求項3に記載の発明によれば、撮影シーンの変化や撮影装置の変動が容易に検知される。   According to the third aspect of the present invention, a change in the shooting scene and a change in the shooting apparatus are easily detected.

請求項4に記載の発明は、請求項1に記載の発明において、前記外部標定要素評価ステップは、前記特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の中から選ばれた複数の値を掛け合わせた値に基づいて、外部標定要素を評価することを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the invention, the external orientation element evaluation step includes the direction of the trajectory of the feature point, the amount of the trajectory of the feature point, the distribution rate of the feature point, The external orientation element is evaluated based on a value obtained by multiplying a plurality of values selected from the overlap rate and the vertical parallax.

請求項4に記載の発明によれば、撮影シーンの変化や撮影装置の変動が一つのパラメータで検知される。   According to the fourth aspect of the present invention, a change in the shooting scene and a change in the shooting apparatus are detected with one parameter.

請求項5に記載の発明は、請求項1に記載の発明において、前記バンドル調整ステップは、外部から与えられる撮影位置および/または撮影姿勢の重み、外部標定要素および特徴点の三次元座標の重みを算出し、各データを重み付けしてバンドル調整することを特徴とする。   According to a fifth aspect of the present invention, in the first aspect of the invention, the bundle adjustment step includes a weight of a photographing position and / or photographing posture given from outside, a weight of a three-dimensional coordinate of an external orientation element and a feature point. , And bundle adjustment is performed by weighting each data.

請求項5に記載の発明によれば、外部標定要素および特徴点の三次元座標に加えて、外部から与えられる撮影位置および/または撮影姿勢も同時にバンドル調整される。この際、各データは、重みが付けられてバンドル調整されるため、精度の悪いデータは軽く、精度の良いデータは重く扱われる。このため、外部標定要素および特徴点の三次元座標の誤差が低減する。   According to the fifth aspect of the present invention, in addition to the external orientation elements and the three-dimensional coordinates of the feature points, the photographing position and / or photographing posture given from the outside are also bundle-adjusted. At this time, each data is weighted and bundle-adjusted, so that data with low accuracy is light and data with high accuracy is handled heavy. For this reason, errors in the three-dimensional coordinates of the external orientation elements and feature points are reduced.

請求項6に記載の発明は、請求項5に記載の発明において、前記外部から与えられる撮影位置および/または撮影姿勢の重みは、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて算出されることを特徴とする。   According to a sixth aspect of the present invention, in the fifth aspect of the present invention, the weight of the photographing position and / or photographing posture given from the outside is the photographing timing of the image and the photographing position and / or photographing posture given from the outside. It is calculated based on the difference from the acquisition timing of

請求項6に記載の発明によれば、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングが同期しない場合であっても、外部標定要素および特徴点の三次元座標の誤差が低減する。   According to the sixth aspect of the present invention, even when the image capturing timing and the capturing position and / or capturing posture acquisition timing given from outside are not synchronized, the three-dimensional coordinates of the external orientation element and the feature point Error is reduced.

請求項7に記載の発明は、請求項5に記載の発明において、前記外部標定要素および特徴点の三次元座標の重みは、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて算出されることを特徴とする。   According to a seventh aspect of the present invention, in the fifth aspect of the present invention, the weights of the three-dimensional coordinates of the external orientation element and the feature point include the direction of the feature point locus, the amount of the feature point locus, and the feature point It is calculated based on at least one of a distribution rate, an overlap rate of feature points, and vertical parallax.

請求項7に記載の発明によれば、外部標定要素および特徴点の三次元座標の誤差が低減する。   According to the seventh aspect of the present invention, errors in the three-dimensional coordinates of the external orientation elements and feature points are reduced.

請求項8に記載の発明は、請求項5に記載の発明において、前記バンドル調整ステップは、新たに検出された特徴点の三次元座標を算出する前、または、新たに検出された特徴点の三次元座標を算出した後に行われることを特徴とする。   The invention according to claim 8 is the invention according to claim 5, wherein the bundle adjustment step is performed before calculating the three-dimensional coordinates of the newly detected feature point, or of the newly detected feature point. It is performed after calculating the three-dimensional coordinates.

請求項8に記載の発明によれば、新たに検出された特徴点の三次元座標を算出する前に、バンドル調整が行われる場合、新たに検出された特徴点の三次元座標の算出精度が向上する。新たに検出された特徴点の三次元座標が算出された後に、バンドル調整が行われた場合、評価後の外部標定要素に基づいて、新たに検出された特徴点の三次元座標が算出されるため、同様の効果を奏する。   According to the invention described in claim 8, when bundle adjustment is performed before calculating the three-dimensional coordinates of the newly detected feature point, the calculation accuracy of the three-dimensional coordinates of the newly detected feature point is high. improves. When bundle adjustment is performed after the three-dimensional coordinates of the newly detected feature points are calculated, the three-dimensional coordinates of the newly detected feature points are calculated based on the external orientation elements after the evaluation. Therefore, the same effect is produced.

請求項9に記載の発明は、請求項1に記載の発明において、特徴点の追跡によって算出された対応点の画像座標と、前記対応点の三次元座標を画像上に投影した画像座標との残差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする。   According to a ninth aspect of the present invention, in the first aspect of the present invention, the image coordinates of the corresponding points calculated by tracking the feature points and the image coordinates obtained by projecting the three-dimensional coordinates of the corresponding points on the image are obtained. And an erroneous corresponding point removing step for removing an erroneous corresponding point based on the residual.

請求項9に記載の発明によれば、特徴点の追跡結果に誤対応点が含まれていても、誤対応点が除去されるため、外部標定要素や特徴点の三次元座標の誤差が低減する。   According to the ninth aspect of the present invention, even if the miscorresponding point is included in the tracking result of the feature point, the miscorresponding point is removed, so that the error of the external orientation element and the three-dimensional coordinate of the feature point is reduced. To do.

請求項10に記載の発明は、請求項1に記載の発明において、前後の画像における対応点の三次元座標をステレオ画像上に投影し、前後のステレオ画像における基線方向に直交する方向の座標値の差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする。   The invention according to claim 10 is the invention according to claim 1, wherein the three-dimensional coordinates of the corresponding points in the preceding and following images are projected onto the stereo image, and the coordinate value in the direction orthogonal to the baseline direction in the preceding and following stereo images. And an erroneous corresponding point removing step of removing an erroneous corresponding point based on the difference between the two.

請求項10に記載の発明によれば、特徴点の追跡結果に誤対応点が含まれていても、誤対応点が除去されるため、外部標定要素や特徴点の三次元座標の誤差が低減する。   According to the tenth aspect of the present invention, even if the miscorresponding point is included in the tracking result of the feature point, the miscorresponding point is removed, so that the error of the external orientation element and the three-dimensional coordinate of the feature point is reduced To do.

請求項11に記載の発明は、請求項9または10に記載の発明において、前記誤対応点除去ステップは、前記バンドル調整ステップの後、または、前記外部標定要素算出ステップの前に行われることを特徴とする。   According to an eleventh aspect of the present invention, in the invention according to the ninth or tenth aspect, the erroneous corresponding point removing step is performed after the bundle adjusting step or before the external orientation element calculating step. Features.

請求項11に記載の発明によれば、誤対応点の除去ステップが、バンドル調整の後に行われる場合には、次画像以降の外部標定要素の算出精度が向上する。一方、誤対応点の除去が、外部標定要素算出の前に行われる場合には、誤対応点に基づいて外部標定要素が算出されないため、外部標定要素の誤差が低減する。   According to the eleventh aspect of the present invention, when the step of removing the miscorresponding points is performed after the bundle adjustment, the calculation accuracy of the external orientation elements after the next image is improved. On the other hand, when the removal of the miscorresponding point is performed before the external orientation element calculation, the external orientation element is not calculated based on the miscorresponding point, so that the error of the external orientation element is reduced.

請求項12に記載の発明は、請求項9または10に記載の発明において、請求項9または請求項10に記載の誤対応点除去ステップは、撮影状況の変化に基づいて選択されることを特徴とする。   According to a twelfth aspect of the present invention, in the invention according to the ninth or tenth aspect of the present invention, the step of eliminating the miscorresponding point according to the ninth or tenth aspect is selected based on a change in the photographing situation. And

請求項12に記載の発明によれば、撮影状況の変化に依存せずに、外部標定要素や特徴点の三次元座標を算出することができる。   According to the twelfth aspect of the present invention, it is possible to calculate the three-dimensional coordinates of the external orientation elements and the feature points without depending on the change in the photographing situation.

請求項13に記載の発明は、請求項9または10に記載の発明において、前記誤対応点除去ステップは、LMedS推定によって閾値が推定されることを特徴とする。   The invention described in claim 13 is the invention described in claim 9 or 10, characterized in that a threshold value is estimated by LMedS estimation in the erroneous corresponding point removal step.

請求項13に記載の発明によれば、LmedS法は、最小二乗法と比べ、データに外れ値が多く含まれていても、ロバストに外れ値を推定することができる。このため、外部標定要素や特徴点の三次元座標の誤差を低減することができる。   According to the thirteenth aspect of the present invention, the LmedS method can robustly estimate an outlier even if the data includes many outliers as compared to the least square method. For this reason, the error of the three-dimensional coordinate of an external orientation element or a feature point can be reduced.

請求項14に記載の発明は、初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、前記外部標定要素算出ステップによって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価ステップと、前記外部標定要素評価ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を実行させるための位置測定プログラムである。   The invention according to claim 14 is an initial value for calculating an initial value of an external orientation element composed of a photographing position and a photographing posture based on a known point in the initial image or a photographing position and / or photographing posture measured outside. An external orientation element calculation step for calculating an external orientation element based on a known point in the moving image following the initial image used in the initial value calculation step or a feature point that has already been given a three-dimensional coordinate; The external orientation element calculated in the external orientation element calculation step is at least one of a feature point trajectory direction, a feature point trajectory amount, a feature point distribution rate, a feature point overlap rate, and vertical parallax. One or more images based on the external orientation element evaluation step evaluated based on one and the external orientation element modified by the external orientation element evaluation step. A bundle adjustment step of simultaneously adjusting bundles of the three-dimensional coordinates of the external orientation elements and feature points, and a tertiary of feature points newly detected in an area where the density of feature points is reduced based on the bundle-adjusted external orientation elements A position measurement program for executing a three-dimensional coordinate calculation step for calculating original coordinates and a repetition step for repeating the processes from the external orientation element calculation step to the three-dimensional coordinate calculation step until a final image is obtained. .

請求項14に記載の発明によれば、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動を判断することができる。このため、撮影シーンの変化や撮影装置の変動による誤差を低減することができる。   According to the fourteenth aspect of the present invention, based on at least one of the direction and amount of the trajectory of the feature points, the distribution rate of the feature points, the overlap rate, and the vertical parallax, the change in the shooting scene and the shooting device Can be judged. For this reason, it is possible to reduce errors due to changes in the shooting scene and fluctuations in the shooting apparatus.

請求項15に記載の発明は、対象物と撮影部とが少しずつ相対移動して撮影された動画像を取得する動画像取得部と、前記動画像取得部によって取得された画像を順次入力して、前記画像から特徴点の検出および追跡を行う特徴点検出追跡部と、前記動画像取得部の撮影位置を外部から測定する位置測定部と、前記動画像取得部の撮影姿勢を外部から測定する姿勢測定部と、前記動画像取得部によって取得された動画像、前記特徴点検出追跡部によって検出および追跡された特徴点、前記位置測定部によって測定された撮影位置、および前記姿勢測定部によって測定された撮影姿勢を入力して、前記動画像の撮影位置および撮影姿勢からなる外部標定要素および前記特徴点の三次元座標を計算する計算処理部と、を備えた位置測定装置であって、前記計算処理部は、初期画像中の既知点または前記位置測定部によって測定された撮影位置および/または前記姿勢測定部によって測定された撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出部と、前記初期値算出部で用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出部と、前記外部標定要素算出部によって算出された外部標定要素を特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価部と、前記外部標定要素評価部によって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整部と、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出部と、を備え、前記外部標定要素算出部から前記三次元座標算出部までの処理を、最終画像になるまで繰り返すことを特徴とする位置測定装置である。   According to the fifteenth aspect of the present invention, a moving image acquisition unit that acquires a moving image captured by relatively moving the object and the imaging unit little by little, and an image acquired by the moving image acquisition unit are sequentially input. A feature point detection and tracking unit for detecting and tracking feature points from the image, a position measuring unit for measuring the shooting position of the moving image acquiring unit from the outside, and a shooting posture of the moving image acquiring unit from the outside A posture measurement unit, a moving image acquired by the moving image acquisition unit, a feature point detected and tracked by the feature point detection tracking unit, a shooting position measured by the position measurement unit, and a posture measurement unit A position measurement device comprising: a measurement processing posture that inputs a measured photographing posture and calculates a three-dimensional coordinate of the feature point and an external orientation element composed of the photographing position and photographing posture of the moving image. The calculation processing unit is an external orientation composed of a shooting position and a shooting posture based on a known point in an initial image or a shooting position measured by the position measurement unit and / or a shooting posture measured by the posture measurement unit. An external value element based on an initial value calculation unit that calculates an initial value of an element, and a known point in a moving image following the initial image used in the initial value calculation unit or a feature point that has already been given three-dimensional coordinates An external orientation element calculation unit that calculates the orientation of the external orientation element calculated by the external orientation element calculation unit, the direction of the trajectory of the feature point, the amount of the trajectory of the feature point, the distribution rate of the feature point, and the overlap rate of the feature point And one or a plurality of images based on the external orientation element evaluation unit evaluated based on at least one of the vertical parallax and the external orientation element modified by the external orientation element evaluation unit A bundle adjusting unit that simultaneously adjusts the three-dimensional coordinates of the external orientation element and the feature point in the image, and a feature point newly detected in a region where the density of feature points is reduced based on the bundle-adjusted external orientation element. A position measuring device comprising: a three-dimensional coordinate calculating unit that calculates three-dimensional coordinates, and repeating the processing from the external orientation element calculating unit to the three-dimensional coordinate calculating unit until a final image is obtained. .

請求項15に記載の発明によれば、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動を判断することができる。このため、撮影シーンの変化や撮影装置の変動による誤差を低減することができる。   According to the fifteenth aspect of the present invention, based on at least one of the direction and amount of the trajectory of the feature points, the distribution rate of the feature points, the overlap rate, and the vertical parallax, the change in the shooting scene and the shooting device Can be judged. For this reason, it is possible to reduce errors due to changes in the shooting scene and fluctuations in the shooting apparatus.

本発明によれば、動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定技術において、撮影シーンの変化や撮影装置の変動による誤差が低減する。   According to the present invention, in a position measurement technique that measures a captured position and orientation and a three-dimensional position of a subject based on a moving image, errors due to changes in the shooting scene and changes in the shooting apparatus are reduced.

1.第1の実施形態
以下、位置測定方法、位置測定装置およびプログラムの一例について、図面を参照して説明する。
1. First Embodiment Hereinafter, an example of a position measurement method, a position measurement apparatus, and a program will be described with reference to the drawings.

(位置測定装置の構成)
図1は、位置測定装置の全体図であり、図2は、位置測定装置の機能ブロック図である。位置測定装置1は、動画像取得部2、特徴点検出追跡部3、位置測定部4、姿勢測定部5、基準時計部6、計算処理部7を備えている。
(Configuration of position measuring device)
FIG. 1 is an overall view of the position measuring device, and FIG. 2 is a functional block diagram of the position measuring device. The position measurement apparatus 1 includes a moving image acquisition unit 2, a feature point detection tracking unit 3, a position measurement unit 4, an attitude measurement unit 5, a reference clock unit 6, and a calculation processing unit 7.

動画像取得部2は、ビデオカメラ、工業計測用のCCDカメラ(Charge Coupled Device Camera)、CMOSカメラ(Complementary Metal Oxide Semiconductor Camera)などの動画像を取得するカメラで構成される。なお、動画像取得部2は、静止画を取得するカメラでもよい。この場合、撮影対象とカメラが相対的に少しずつ移動しながら撮影された複数枚の静止画像が取得される。   The moving image acquisition unit 2 includes a camera that acquires moving images, such as a video camera, a CCD camera (Charge Coupled Device Camera) for industrial measurement, and a CMOS camera (Complementary Metal Oxide Semiconductor Camera). The moving image acquisition unit 2 may be a camera that acquires a still image. In this case, a plurality of still images taken while the subject and the camera move relatively little by little are acquired.

特徴点検出追跡部3は、特徴点検出部8、特徴点追跡部9で構成される。特徴点検出部8は、動画像取得部2が取得した動画像から特徴点を検出する。特徴点追跡部9は、特徴点検出部8が検出した特徴点に対応する対応点を他の画像内で追跡する。特徴点検出部8、特徴点追跡部9は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などファームウェアで実装される。なお、特徴点検出部8、特徴点追跡部9は、汎用のコンピュータ上で実行するソフトウェアで構成してもよい。   The feature point detection tracking unit 3 includes a feature point detection unit 8 and a feature point tracking unit 9. The feature point detection unit 8 detects a feature point from the moving image acquired by the moving image acquisition unit 2. The feature point tracking unit 9 tracks corresponding points corresponding to the feature points detected by the feature point detection unit 8 in other images. The feature point detection unit 8 and the feature point tracking unit 9 are implemented by firmware such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array). Note that the feature point detection unit 8 and the feature point tracking unit 9 may be configured by software executed on a general-purpose computer.

位置測定部4は、GPS(Global Positioning System)受信機、慣性計測装置(IMU:Internal Measurement Unit)などで構成される。位置測定部4は、カメラの位置(投影中心)の測定に利用される。撮影環境等に基づいて、GPS、IMUを適宜組み合わせることで、外部標定要素の評価の信頼性を高めることができる。なお、位置測定部4の設置位置とカメラの設置位置との間の位置的なオフセットは、予め設定される。   The position measurement unit 4 includes a GPS (Global Positioning System) receiver, an inertial measurement unit (IMU: Internal Measurement Unit), and the like. The position measuring unit 4 is used for measuring the position of the camera (projection center). The reliability of the evaluation of the external orientation element can be enhanced by appropriately combining GPS and IMU based on the shooting environment and the like. A positional offset between the installation position of the position measurement unit 4 and the installation position of the camera is set in advance.

姿勢測定部5は、ジャイロスコープなどの姿勢センサ、IMU、加速時計、角速度計、角加速度計、およびこれらの組み合わせで構成される。撮影環境等に基づいて、これらを適宜組み合わせることで、外部標定要素の評価の信頼性を高めることができる。姿勢測定部5は、カメラの姿勢の測定に利用される。   The attitude measurement unit 5 includes an attitude sensor such as a gyroscope, an IMU, an acceleration clock, an angular velocity meter, an angular accelerometer, and a combination thereof. Based on the shooting environment and the like, the reliability of the evaluation of the external orientation element can be improved by appropriately combining these. The posture measuring unit 5 is used for measuring the posture of the camera.

基準時計部6は、水晶発振器、ルビジウム発振器、電波時計などで構成される。基準時計部6は、動画像撮影部2の時刻、位置測定部4の時刻、および姿勢測定部5の時刻を同一の時間軸に変換する。   The reference clock unit 6 includes a crystal oscillator, a rubidium oscillator, a radio clock, and the like. The reference clock unit 6 converts the time of the moving image photographing unit 2, the time of the position measuring unit 4, and the time of the posture measuring unit 5 into the same time axis.

計算処理部7は、パーソナルコンピュータ(PC:Personal Computer)で構成される。計算処理部7は、制御演算部10、記憶部11を備える。制御演算部10は、CPU(Central Processing Unit)であり、記憶部11は、RAM(Random Access Memory)、ROM(Read Only Memory)等の半導体記憶装置、磁気記憶装置などで構成される。記憶部11は、オペレーティングシステムや位置測定プログラムを記憶し、制御演算部10は、プログラムを読み出して実行する。   The calculation processing unit 7 is configured by a personal computer (PC: Personal Computer). The calculation processing unit 7 includes a control calculation unit 10 and a storage unit 11. The control operation unit 10 is a CPU (Central Processing Unit), and the storage unit 11 is configured by a semiconductor storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory), a magnetic storage device, and the like. The storage unit 11 stores an operating system and a position measurement program, and the control calculation unit 10 reads and executes the program.

位置測定プログラムは、初期値算出部12、外部標定要素算出部13、画像判断部20、外部標定要素評価部14、バンドル調整部15、三次元座標算出部16、誤差点除去部17、詳細計測部18、外部標定要素・三次元座標出力部19で構成される。なお、位置測定プログラムは、CDROMなどの記録媒体によって提供が可能である。   The position measurement program includes an initial value calculation unit 12, an external orientation element calculation unit 13, an image determination unit 20, an external orientation element evaluation unit 14, a bundle adjustment unit 15, a three-dimensional coordinate calculation unit 16, an error point removal unit 17, and a detailed measurement. And an external orientation element / three-dimensional coordinate output unit 19. The position measurement program can be provided by a recording medium such as a CDROM.

初期値算出部12は、トータルステーションやGPSによって計測された基準点の三次元座標と、この基準点が撮影された画像における基準点の画像座標とに基づいて、カメラの内部標定要素(焦点距離、主点位置(光軸中心のずれ)、レンズ歪係数)、外部標定要素(カメラの位置、姿勢)の初期値を算出する。   Based on the three-dimensional coordinates of the reference point measured by the total station or GPS and the image coordinates of the reference point in the image in which the reference point is captured, the initial value calculation unit 12 is configured to detect the internal orientation element (focal length, The initial values of principal point position (shift of optical axis center, lens distortion coefficient) and external orientation elements (camera position and orientation) are calculated.

外部標定要素算出部13は、後方交会法あるいは相互標定法に基づいて、外部標定要素を算出する。後方交会法とは、未知点から3つ以上の既知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置を定める方法である。後方交会法としては、単写真標定、DLT法(Direct Liner Transformation Method)が挙げられる。   The external orientation element calculation unit 13 calculates an external orientation element based on the backward association method or the relative orientation method. The backward intersection method is a method of observing the direction from an unknown point to three or more known points and determining the position of the unknown point as an intersection of these direction lines. Examples of the backward intersection method include single photo orientation and DLT method (Direct Liner Transformation Method).

画像判断部20は、撮影シーンの変化や撮影装置の変動を、特徴点の軌跡の方向、特徴点の移動量、特徴点の分布率、オーバーラップ率、縦視差などに基づいて判断する。   The image determination unit 20 determines a change in the shooting scene or a change in the shooting apparatus based on the direction of the trajectory of the feature points, the movement amount of the feature points, the distribution rate of the feature points, the overlap rate, the vertical parallax, and the like.

外部標定要素評価部14は、画像判断部20の判断結果に基づいて、画像から算出された外部標定要素を評価する。撮影シーンの変化が相対的に大きいと判断された場合には、位置測定部4が取得した位置データ、姿勢測定部5が取得した姿勢データで外部標定要素が修正される。撮影シーンの変化が相対的に小さいと判断された場合には、画像から算出された外部標定要素をそのまま選択する。   The external orientation element evaluation unit 14 evaluates the external orientation element calculated from the image based on the determination result of the image determination unit 20. If it is determined that the change in the shooting scene is relatively large, the external orientation element is corrected with the position data acquired by the position measurement unit 4 and the posture data acquired by the posture measurement unit 5. If it is determined that the change in the shooting scene is relatively small, the external orientation element calculated from the image is selected as it is.

バンドル調整部15は、評価された外部標定要素と、特徴点の三次元座標とを、1または複数枚または全部の画像間で同時調整する。   The bundle adjustment unit 15 simultaneously adjusts the evaluated external orientation elements and the three-dimensional coordinates of the feature points between one or a plurality of images or all the images.

三次元座標算出部16は、前方交会法に基づいて、新たに検出された特徴点の三次元座標を算出する。前方交会法とは、既知の2点以上から未知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置を定める方法である。なお、バンドル調整は、新たに検出された特徴点の三次元座標を算出する前、もしくは新たに検出された特徴点の三次元座標を算出した後に行われる。   The three-dimensional coordinate calculation unit 16 calculates the three-dimensional coordinates of the newly detected feature point based on the forward intersection method. The forward intersection method is a method of observing a direction from two or more known points toward an unknown point and determining the position of the unknown point as an intersection of these direction lines. The bundle adjustment is performed before calculating the three-dimensional coordinates of the newly detected feature point or after calculating the three-dimensional coordinates of the newly detected feature point.

誤対応点除去部17は、バックワードプロジェクションまたは相互標定より算出した縦視差を用いて、追跡された対応点のうち、誤差が相対的に大きい点を除去する。バックワードプロジェクションとは、後方交会法に基づいて、特徴点の三次元座標から算出した画像座標と、追跡された対応点の画像座標との残差から誤差点を除去するものである。また、相互標定とは、左右2枚の画像における6点以上の対応点によって外部標定要素を求めるものである。また、縦視差とは、ステレオ撮影された2枚の画像における対応点のy座標の差であり、ステレオ画像の基線方向に直交する方向の座標値の差のことを意味する。なお、ステレオ画像とは、2枚の画像を撮影したカメラの光軸が平行であり、かつ、基線方向に直交する方向が平行な画像対である。   The miscorresponding point removal unit 17 removes a point having a relatively large error from the tracked corresponding points by using the vertical parallax calculated from the backward projection or the relative orientation. Backward projection is a method for removing error points from the residual between image coordinates calculated from three-dimensional coordinates of feature points and image coordinates of tracked corresponding points based on a backward intersection method. Also, the relative orientation is to obtain an external orientation element by using 6 or more corresponding points in the left and right images. Further, the vertical parallax is a difference in y-coordinates of corresponding points in two images shot in stereo, and means a difference in coordinate values in a direction orthogonal to the baseline direction of the stereo image. Note that a stereo image is an image pair in which the optical axes of cameras that photographed two images are parallel and the directions orthogonal to the baseline direction are parallel.

詳細計測部18は、三次元モデリングを行う。三次元モデリングとは、撮影対象の立体物を形成することを意味する。詳細計測部15は、特徴点の三次元座標から輪郭線を算出してワイヤーフレームモデルの形成や、面を算出してサーフィスモデルの形成を行う。また、形成されたサーフィスモデルの表面には、2次元の画像がテクスチャマッピングされる。さらに、詳細計測部15は、マッピングされたテクスチャに基づいて、テクスチャ解析を行い、テクスチャの特徴部分の三次元座標を算出する。テクスチャの特徴部分の三次元座標は、バンドル調整されて最適値に補正される。   The detailed measurement unit 18 performs three-dimensional modeling. Three-dimensional modeling means forming a three-dimensional object to be photographed. The detailed measurement unit 15 calculates a contour line from the three-dimensional coordinates of the feature points to form a wire frame model and calculates a surface to form a surface model. A two-dimensional image is texture-mapped on the surface of the formed surface model. Further, the detailed measurement unit 15 performs texture analysis based on the mapped texture, and calculates the three-dimensional coordinates of the feature portion of the texture. The three-dimensional coordinates of the texture feature are bundle-adjusted and corrected to an optimum value.

外部標定要素・三次元座標出力部19は、外部標定要素と、特徴点またはテクスチャ特徴部分の三次元座標のデータを出力する。   The external orientation element / three-dimensional coordinate output unit 19 outputs the external orientation element and the three-dimensional coordinate data of the feature point or the texture feature portion.

(位置測定装置の動作)
次に、位置測定装置の全体の動作について説明する。図3、図4は、位置測定装置の動作を示すフローチャートである。
(Operation of position measuring device)
Next, the overall operation of the position measuring device will be described. 3 and 4 are flowcharts showing the operation of the position measuring apparatus.

まず、動画像取得部2によって、動画像が取得される(ステップS1)。動画像は、動画像取得部2と対象物とが少しずつ相対的に移動して撮影された複数の連続する画像で構成される。複数の連続する画像は、特徴点検出追跡部3に順次入力する。   First, a moving image is acquired by the moving image acquisition unit 2 (step S1). The moving image is composed of a plurality of continuous images captured by moving the moving image acquisition unit 2 and the object relatively little by little. A plurality of continuous images are sequentially input to the feature point detection tracking unit 3.

特徴点検出部8は、特徴点検出追跡部3に入力した画像から特徴点を検出する(ステップS2)。特徴点の検出には、モラベック、ラプラシアン、ソーベルなどのフィルタが用いられる。次に、特徴点追跡部9が、特徴点に対応する対応点を次画像内で追跡する(ステップS3)。特徴点の追跡には、テンプレートマッチングが用いられる。テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。   The feature point detection unit 8 detects a feature point from the image input to the feature point detection tracking unit 3 (step S2). Filters such as Moravec, Laplacian, and Sobel are used for feature point detection. Next, the feature point tracking unit 9 tracks corresponding points corresponding to the feature points in the next image (step S3). Template matching is used for tracking feature points. Examples of template matching include a residual sequential detection method (SSDA), a cross-correlation coefficient method, and the like.

特徴点が追跡された画像において、特徴点検出部8は、特徴点の密度が少なくなった領域で新たに特徴点を検出する。特徴点を検出するステップS2と特徴点を追跡するステップS3は、連続する画像内で繰り返される。特徴点に関する情報は、各画像内に埋め込まれる。そして、特徴点に関する情報が埋め込まれた画像は、計算処理部7に順次出力される。ステップS2、ステップS3の処理の詳細は、特願2007−147457、特願2007−183256などに記載されている。   In the image in which the feature points are tracked, the feature point detection unit 8 newly detects the feature points in the region where the density of the feature points is reduced. Step S2 for detecting feature points and step S3 for tracking feature points are repeated in successive images. Information about feature points is embedded in each image. Then, the image in which the information regarding the feature point is embedded is sequentially output to the calculation processing unit 7. Details of the processing in steps S2 and S3 are described in Japanese Patent Application Nos. 2007-147457 and 2007-183256.

次に、計算処理部7において、基準点が撮影された画像からカメラの内部標定要素と外部標定要素の初期値を算出する(ステップS4)。この作業に先立ち、作業者は、対象空間に基準点を設置し、その基準点を撮影しておく。また、作業者は、トータルステーションやGPSを用いて、実空間における基準点の三次元座標を計測しておく。ステップS4の初期値算出においては、作業者は、基準点の三次元座標と画像座標とに基づいて、後方交会法によってカメラの内部標定要素と外部標定要素の初期値を算出する。または、外部標定要素の初期値は、トータルステーションやGPSを用いて、特徴点の三次元座標値を直接与える代わりに、複数の撮影位置の三次元座標値を与え、複数の撮影位置で撮影されたステレオ画像から求めるようにしてもよい。   Next, the calculation processing unit 7 calculates initial values of the internal orientation element and external orientation element of the camera from the image where the reference point is captured (step S4). Prior to this work, the worker installs a reference point in the target space and photographs the reference point. The worker measures the three-dimensional coordinates of the reference point in the real space using a total station or GPS. In the initial value calculation in step S4, the operator calculates initial values of the internal orientation element and external orientation element of the camera by the backward intersection method based on the three-dimensional coordinates and the image coordinates of the reference point. Alternatively, the initial value of the external orientation element is obtained by using a total station or GPS, instead of directly giving the three-dimensional coordinate values of the feature points, giving the three-dimensional coordinate values of a plurality of shooting positions and shooting at the plurality of shooting positions. You may make it obtain | require from a stereo image.

もしくは、作業者は、トータルステーションやGPSを用いず、複数の基準点が描かれた基準板を移動しながら、複数枚の画像を撮影しておく。基準板に描かれた基準点間の距離は既知である。この場合、ステップS4の初期値算出において、基準点が撮影された複数枚の画像から基準点の画像座標が算出され、相互標定などを用いてカメラの位置、姿勢の初期値を得る。ただし、この場合、ローカル座標系となる。   Alternatively, the operator captures a plurality of images while moving a reference plate on which a plurality of reference points are drawn without using a total station or GPS. The distance between the reference points drawn on the reference plate is known. In this case, in the initial value calculation in step S4, the image coordinates of the reference point are calculated from a plurality of images taken with the reference point, and the initial values of the camera position and orientation are obtained using relative orientation or the like. However, in this case, the local coordinate system is used.

次に、入力された各画像について、外部標定要素と、新たに検出された特徴点の三次元座標が算出される(ステップS5)。外部標定要素の算出には、後方交会法または相互標定法が用いられ、新たに検出された特徴点の三次元座標の算出には、前方交会法が用いられる。この処理は、全画像について繰り返される。この処理の詳細は、後述する。   Next, for each input image, the external orientation element and the three-dimensional coordinates of the newly detected feature point are calculated (step S5). The backward intersection method or the relative orientation method is used for the calculation of the external orientation element, and the forward intersection method is used for the calculation of the three-dimensional coordinates of the newly detected feature points. This process is repeated for all images. Details of this processing will be described later.

さらに詳細に計測を行う場合には(ステップS6)、詳細計測が行われる(ステップS8)。詳細計測は、ワイヤーフレームモデルの形成、サーフィスモデルの形成、テクスチャマッピング、テクスチャ解析などが行われる。テクスチャ解析では、テクスチャの特徴部分の三次元座標が算出される。テクスチャの特徴部分の三次元座標は、ステップS5で算出した外部標定要素や特徴点の三次元座標と共に、バンドル調整されて最適値に補正される。算出された外部標定要素、三次元座標は、データ出力される(ステップS7)。   If more detailed measurement is performed (step S6), detailed measurement is performed (step S8). Detailed measurement includes wire frame model formation, surface model formation, texture mapping, texture analysis, and the like. In the texture analysis, the three-dimensional coordinates of the characteristic part of the texture are calculated. The three-dimensional coordinates of the texture feature are bundle-adjusted together with the three-dimensional coordinates of the external orientation elements and feature points calculated in step S5, and are corrected to optimum values. The calculated external orientation elements and three-dimensional coordinates are output as data (step S7).

以下、本発明に係るステップS5の三次元座標・外部標定要素算出処理の詳細について説明する。図3に示すように、ステップS5の三次元座標・外部標定要素の算出処理は、外部標定要素の算出(ステップS10)、算出した外部標定要素の評価(ステップS11)、評価した外部標定要素と既知点の三次元座標のバンドル調整(ステップS12)、新たに検出された特徴点の三次元座標の算出(ステップS13)で構成される。   Hereinafter, the details of the three-dimensional coordinate / external orientation element calculation process in step S5 according to the present invention will be described. As shown in FIG. 3, the calculation process of the three-dimensional coordinate / external orientation element in step S5 includes the calculation of the external orientation element (step S10), the evaluation of the calculated external orientation element (step S11), the evaluated external orientation element and It consists of bundle adjustment of the three-dimensional coordinates of the known points (step S12) and calculation of the three-dimensional coordinates of the newly detected feature points (step S13).

なお、バンドル調整(ステップS12)は、新たに検出された特徴点の三次元座標を算出する前(図3)、もしくは新たに検出された特徴点の三次元座標を算出した後(図4)に行ってもよい。図3の場合には、新たに検出された特徴点の三次元座標の算出精度が向上する。図4の場合には、評価後の外部標定要素に基づいて、新たに検出された特徴点の三次元座標が算出されるため、同様の効果を奏する。   The bundle adjustment (step S12) is performed before calculating the three-dimensional coordinates of the newly detected feature points (FIG. 3) or after calculating the three-dimensional coordinates of the newly detected feature points (FIG. 4). You may go to In the case of FIG. 3, the calculation accuracy of the three-dimensional coordinates of the newly detected feature points is improved. In the case of FIG. 4, since the three-dimensional coordinates of the newly detected feature point are calculated based on the external orientation element after the evaluation, the same effect is obtained.

(ステップS10)外部標定要素の算出
図5は、後方交会法を説明する説明図である。後方交会法とは、未知点Oから3つ以上の既知点P、P、Pへ向かう方向を観測して、それらの方向線の交点として未知点Oの位置を定める方法である。まず、初期値として設定された基準点P、P、Pの三次元座標(もしくは、前フレームで求められた三次元座標)に基づいて、後方交会法によって外部標定要素(X,Y,Z,ω,φ,κ)を算出する。以下、後方交会法として用いられる単写真標定、DLT法について説明する。
(Step S10) Calculation of External Orientation Element FIG. 5 is an explanatory diagram for explaining the backward intersection method. The backward intersection method is a method of observing directions from the unknown point O toward three or more known points P 1 , P 2 , and P 3 and determining the position of the unknown point O as an intersection of these direction lines. First, based on the three-dimensional coordinates (or three-dimensional coordinates obtained in the previous frame) of the reference points P 1 , P 2 , and P 3 set as initial values, the external orientation elements (X 0 , Y 0 , Z 0 , ω, φ, κ) are calculated. Hereinafter, the single photo orientation and DLT method used as the backward intersection method will be described.

[単写真標定]
単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X,Y,Z)およびカメラの姿勢(ω,φ,κ)を求める。共線条件とは、投影中心、写真像および地上の対象点(Op,Op,Op)が、一直線上にあるという条件である。また、カメラの位置O(X,Y,Z)とカメラの姿勢(ω,φ,κ)は外部標定要素である。
[Single photo orientation]
Single photo orientation uses the collinear condition that holds the reference point in a single photo, and uses the camera position O (X 0 , Y 0 , Z 0 ) and camera posture (ω , Φ, κ). The collinear condition is a condition that the projection center, the photographic image, and the ground target points (Op 1 P 1 , Op 2 P 2 , Op 3 P 3 ) are on a straight line. The camera position O (X 0 , Y 0 , Z 0 ) and the camera posture (ω, φ, κ) are external orientation elements.

まず、カメラ座標系をx,y,z、写真座標系x,y、地上座標系をX,Y,Zとする。カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、4点の画像座標(図5では3点のみ記載)と対応する基準点の三次元座標を数1に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。   First, the camera coordinate system is x, y, z, the photographic coordinate system x, y, and the ground coordinate system is X, Y, Z. It is assumed that photographing is performed in a direction in which the camera is sequentially rotated counterclockwise by ω, φ, and κ counterclockwise with respect to the positive direction of each coordinate axis. Then, the four image coordinates (only three points are shown in FIG. 5) and the corresponding three-dimensional coordinates of the reference point are substituted into the quadratic projective transformation equation shown in Equation 1, and an observation equation is established to set the parameters b1 to b2. b8 is obtained.

Figure 0005027747
Figure 0005027747

数1のパラメータb1〜b8を用いて、以下の数2から外部標定要素を求める。

Figure 0005027747
Using the parameters b1 to b8 in Equation 1, an external orientation element is obtained from Equation 2 below.
Figure 0005027747

[DLT法]
DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数13となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46−51、p149−155」等を参照する。
[DLT method]
The DLT method approximates the relationship between the photographic coordinates and the three-dimensional coordinates of the target space with a cubic projective transformation formula. The basic formula of the DLT method is as shown in Equation 13 below. For details of the DLT method, refer to “Shunji Murai: Analytical Photogrammetry, p46-51, p149-155” and the like.

Figure 0005027747
Figure 0005027747

数3の式の分母を消去すると、数4の線形式を導き出せる。   If the denominator of Equation 3 is deleted, the linear form of Equation 4 can be derived.

Figure 0005027747
Figure 0005027747

さらに、数4を変形すると、以下の数5となる。   Further, when Expression 4 is transformed, the following Expression 5 is obtained.

Figure 0005027747
Figure 0005027747

数5に6点以上の基準点の三次元座標を代入し、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL〜L11の11個の未知変量を取得できる。なお、L〜L11には、外部標定要素が含まれる。 Substituting the three-dimensional coordinates of six or more reference points into Equation 5 and solving using the least square method, eleven unknown variables L 1 to L 11 that determine the relationship between the photo coordinates and the target point coordinates are obtained. You can get it. Note that L 1 to L 11 include external orientation elements.

次に、相互標定法による外部標定要素の算出について説明する。相互標定は、既知点がなくとも相対的な外部標定要素が求められる方法である。また、既知点があれば、絶対標定を行うことで、絶対座標を求めることができる。   Next, calculation of external orientation elements by the relative orientation method will be described. The relative orientation is a method in which a relative external orientation element is obtained even if there is no known point. If there is a known point, absolute coordinates can be obtained by performing absolute orientation.

[相互標定]
図6は、相互標定を説明する説明図である。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める。相互標定では、投影中心OとOと基準点Pを結ぶ2本の光線が同一平面内になければならいという共面条件を用いる。以下の数6に、共面条件式を示す。
[Mutual orientation]
FIG. 6 is an explanatory diagram for explaining relative orientation. In the relative orientation, an external orientation element is obtained from six or more corresponding points in the left and right images. In the relative orientation, a coplanar condition that two rays connecting the projection centers O 1 and O 2 and the reference point P must be in the same plane is used. The following formula 6 shows the coplanar conditional expression.

Figure 0005027747
Figure 0005027747

図6に示すように、モデル座標系の原点を左側の投影中心Oにとり、右側の投影中心Oを結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さとする。このとき、求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合、左側のカメラのX軸の回転角ωは0なので、考慮する必要はない。このような条件にすると、数6の共面条件式は数7のようになり、この式を解けば各パラメータが求められる。

Figure 0005027747
As shown in FIG. 6, the origin of the model coordinate system left nitrilase projection center O 1, to take a line connecting the right projection center O 2 on the X axis. For the scale, the base length is the unit length. At this time, the parameters to be obtained are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation angle φ 2 of the X axis. There are five rotation angles ω 2 . In this case, since the rotation angle ω 1 of the X axis of the left camera is 0, there is no need to consider it. Under such conditions, the coplanar conditional expression of Equation 6 becomes as shown in Equation 7, and each parameter can be obtained by solving this equation.
Figure 0005027747

ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式が成り立つ。   Here, the following relational expression for coordinate transformation is established between the model coordinate system XYZ and the camera coordinate system xyz.

Figure 0005027747
Figure 0005027747

これらの式を用いて、次の手順により、未知パラメータ(外部標定要素)を求める。
(1)未知パラメータ(κ,φ,κ,φ,ω)の初期近似値は通常0とする。
(2)数7の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数8により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(1)〜(4)までの操作を収束するまで繰り返す。
Using these equations, an unknown parameter (external orientation element) is obtained by the following procedure.
(1) The initial approximate values of unknown parameters (κ 1 , φ 1 , κ 2 , φ 2 , ω 2 ) are normally 0.
(2) The coplanar conditional expression of Equation 7 is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by Equation 8, and an observation equation is established.
(3) A least square method is applied to obtain a correction amount for the approximate value.
(4) The approximate value is corrected.
(5) Using the corrected approximate value, the operations (1) to (4) are repeated until convergence.

相互標定が収束した場合、さらに接続標定が行われる。接続標定とは、各モデル間の傾き、縮尺を統一して同一座標系とする処理である。この処理を行った場合、以下の数9で表される接続較差を算出する。算出した結果、ΔZおよびΔDが、所定値(例えば、0.0005(1/2000))以下であれば、接続標定が正常に行われたと判定する。 When the relative orientation converges, connection orientation is further performed. The connection orientation is a process of unifying the inclination and scale between models to make the same coordinate system. When this processing is performed, a connection range represented by the following formula 9 is calculated. As a result of the calculation, if ΔZ j and ΔD j are equal to or less than a predetermined value (for example, 0.0005 (1/2000)), it is determined that the connection orientation has been normally performed.

Figure 0005027747
Figure 0005027747

(ステップS11)外部標定要素の評価
次に、外部標定要素が評価される。外部標定要素の算出は、基準点や既に三次元座標が求められた特徴点の三次元座標と、特徴点の追跡によって求められた画像座標に基づいている。したがって、外部標定要素の精度は、特徴点の追跡精度に依存する。また、特徴点の追跡精度は、撮影シーンの著しい変化や撮影装置の変動に依存している。このため、撮影シーンの変化や撮影装置の変動によって、誤差が発生したり、もしくは、計算が不能となる。
(Step S11) Evaluation of external orientation elements Next, external orientation elements are evaluated. The calculation of the external orientation element is based on the reference point and the three-dimensional coordinates of the feature points for which the three-dimensional coordinates have already been obtained, and the image coordinates obtained by tracking the feature points. Therefore, the accuracy of the external orientation element depends on the tracking accuracy of the feature points. Further, the tracking accuracy of the feature points depends on a significant change in the shooting scene and a change in the shooting apparatus. For this reason, an error occurs due to a change in the shooting scene or a change in the shooting apparatus, or calculation becomes impossible.

したがって、撮影シーンの変化や撮影装置の変動が大きく、画像から算出された外部標定要素が信頼できない場合には、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データを利用する。この際、画像から算出された外部標定要素は利用しない。   Therefore, when the change of the shooting scene or the change of the shooting apparatus is large and the external orientation element calculated from the image is not reliable, the position data acquired from the position measuring unit 4 or the posture data acquired from the posture measuring unit 5 is used. To do. At this time, the external orientation element calculated from the image is not used.

撮影シーンの変化量や撮影装置の変動量は、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、縦視差に基づいて判断される。この判断は、画像判断部20によって行われる。以下、撮影シーンの変化の判断手法について説明する。   The change amount of the shooting scene and the change amount of the shooting apparatus are determined based on the direction and amount of the trajectory of the feature points, the distribution rate of the feature points, the overlap rate, and the vertical parallax. This determination is performed by the image determination unit 20. Hereinafter, a method for determining a change in the shooting scene will be described.

[特徴点の軌跡の方向と量による判断]
図7(A)は、前フレームの特徴点の軌跡の方向と、新たに検出した特徴点の軌跡の方向が異なる画像を示す図であり、図7(B)は、前のフレームの特徴点の軌跡の量と、新たに検出した特徴点の軌跡の量が異なる画像を示す図である。
[Judgment by direction and amount of trajectory of feature points]
FIG. 7A is a diagram showing an image in which the direction of the trajectory of the feature point of the previous frame is different from the direction of the trajectory of the newly detected feature point, and FIG. 7B is a feature point of the previous frame. It is a figure which shows the image from which the amount of this locus | trajectory differs from the amount of the locus | trajectory of the newly detected feature point.

例えば、図7(A)に示すように、カメラが右方向へ移動すると、特徴点の密度が少なくなる領域に新たに検出した特徴点が増えていく。この際、今までの軌跡の方向に対し、新しく検出された特徴点の軌跡の方向が、90度、180度、・・・と大きく変化した場合には、撮影シーンが変化した、または、撮影装置が変動したと判断する。このような場合、画像から算出した外部標定要素は、信頼性が低いと評価する。そして、外部標定要素は、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データに修正される。   For example, as shown in FIG. 7A, when the camera moves in the right direction, newly detected feature points increase in an area where the density of feature points decreases. At this time, if the direction of the trajectory of the newly detected feature point is greatly changed to 90 degrees, 180 degrees,... Judge that the device has changed. In such a case, the external orientation element calculated from the image is evaluated as having low reliability. Then, the external orientation element is corrected to position data acquired from the position measurement unit 4 or posture data acquired from the posture measurement unit 5.

特徴点の軌跡の方向の変化は、前フレームの特徴点の軌跡ベクトルaと、新たに検出した特徴点の軌跡ベクトルbとのなす角θとして定義される。この角度は、数10の内積の定義から求められる。   The change in the direction of the trajectory of the feature point is defined as an angle θ formed by the trajectory vector a of the feature point in the previous frame and the trajectory vector b of the newly detected feature point. This angle is obtained from the definition of the inner product of Formula 10.

Figure 0005027747
Figure 0005027747

また、例えば、図7(B)に示すように、今までの軌跡の量に対し、新たに検出された特徴点の軌跡の量が、2倍、4倍、・・・と大きく変化した場合には、撮影シーンが変化したと判断する。このような場合、画像から算出した外部標定要素は、信頼性が低いと評価する。そして、外部標定要素は、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データに修正される。   Further, for example, as shown in FIG. 7B, when the amount of the trajectory of the newly detected feature point is greatly changed to 2 times, 4 times,. It is determined that the shooting scene has changed. In such a case, the external orientation element calculated from the image is evaluated as having low reliability. Then, the external orientation element is corrected to position data acquired from the position measurement unit 4 or posture data acquired from the posture measurement unit 5.

軌跡の量の変化は、前フレームの特徴点の軌跡ベクトルaの大きさと、新たに検出した特徴点の軌跡ベクトルbの大きさとの差である。この差は、以下の数11から求める。なお、特徴点の軌跡の向きや量に対する閾値は、調整可能とする。   The change in the amount of the locus is a difference between the size of the locus vector a of the feature point of the previous frame and the size of the locus vector b of the newly detected feature point. This difference is obtained from the following equation (11). The threshold for the direction and amount of the trajectory of the feature point can be adjusted.

Figure 0005027747
Figure 0005027747

[特徴点の分布率、オーバーラップ率による判断]
撮影シーンの変化や撮影装置の変動が大きい場合、特徴点が追跡不能となり、画像内の点の配置が偏ることがある。図8(A)は、特徴点の分布率が0の画像を示す図であり、図8(B)は、特徴点の分布率が負の画像を示す図であり、図8(C)は、特徴点の分布率が正の画像を示す図である。
[Judgment based on feature point distribution rate and overlap rate]
When the change in the shooting scene or the change in the shooting apparatus is large, the feature points cannot be tracked, and the arrangement of the points in the image may be biased. FIG. 8A is a diagram showing an image with a feature point distribution rate of 0, FIG. 8B is a diagram showing an image with a feature point distribution rate negative, and FIG. It is a figure which shows the image with the positive distribution rate of a feature point.

カメラが水平方向へ移動する場合、水平方向における特徴点の分布率は、画像中心を原点(0,0)とすると、特徴点のX座標の合計値として求められる。例えば、図8(A)の場合、特徴点が画像全体に均一に分布しているため、X座標の合計値は、0となる。また、図8(B)の場合、特徴点が画像左側に分布しているため、X座標の合計値は、負となる。図8(C)の場合、特徴点が画像右側に分布しているため、X座標の合計値は、正となる。   When the camera moves in the horizontal direction, the distribution rate of the feature points in the horizontal direction is obtained as the total value of the X coordinates of the feature points when the image center is the origin (0, 0). For example, in the case of FIG. 8A, since the feature points are uniformly distributed throughout the image, the total value of the X coordinates is zero. In the case of FIG. 8B, since the feature points are distributed on the left side of the image, the total value of the X coordinates is negative. In the case of FIG. 8C, since the feature points are distributed on the right side of the image, the total value of the X coordinates is positive.

なお、カメラが鉛直方向へ移動する場合、鉛直方向における特徴点の分布率は、画像中心を原点(0,0)とすると、特徴点のY座標の合計値として求められる。したがって、特徴点のY座標の合計値によって、鉛直方向における特徴点の分布率を求めてもよい。   When the camera moves in the vertical direction, the distribution rate of the feature points in the vertical direction is obtained as the total value of the Y coordinates of the feature points when the image center is the origin (0, 0). Therefore, the distribution rate of the feature points in the vertical direction may be obtained from the total value of the Y coordinates of the feature points.

また、撮影シーンの変化や撮影装置の変動が大きい場合、前後のフレームでオーバーラップしている特徴点が偏ることがある。オーバーラップしている特徴点とは、特徴点の追跡によって求められた点のことである。図9(A)は、前後のフレームでオーバーラップしている特徴点が偏っている画像を示す図であり、図9(B)は、前後のフレームでオーバーラップしている特徴点が偏っていない画像を示す図である。   In addition, when there are large changes in shooting scenes or changes in the shooting apparatus, feature points that overlap in the previous and subsequent frames may be biased. The overlapping feature points are points obtained by tracking feature points. FIG. 9A is a diagram illustrating an image in which feature points overlapping in the preceding and following frames are biased, and FIG. 9B is a diagram in which feature points overlapping in the preceding and following frames are biased. It is a figure which shows no image.

図9(A)に示すように、前後のフレームでオーバーラップしている特徴点が偏っている場合には、画像から算出した外部標定要素は、信頼性が低いと評価する。そして、外部標定要素は、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データに修正される。また、図9(B)に示すように、前後のフレームでオーバーラップしている特徴点が偏っていない場合には、画像から算出した外部標定要素は、信頼性が高いと評価する。そして、画像から算出された外部標定要素を利用する。   As shown in FIG. 9A, when feature points overlapping in the preceding and following frames are biased, the external orientation element calculated from the image is evaluated as having low reliability. Then, the external orientation element is corrected to position data acquired from the position measurement unit 4 or posture data acquired from the posture measurement unit 5. Further, as shown in FIG. 9B, when the feature points overlapping in the preceding and following frames are not biased, the external orientation element calculated from the image is evaluated as having high reliability. Then, an external orientation element calculated from the image is used.

オーバーラップしている特徴点の偏り具合(オーバーラップ率)は、特徴点の分布率の算出方法を用いる。なお、特徴点の分布率やオーバーラップ率に対する閾値は、調整可能とする。   A method for calculating the distribution rate of feature points is used for the degree of bias (overlap rate) of overlapping feature points. Note that the threshold for the distribution rate of feature points and the overlap rate can be adjusted.

[縦視差による判断]
縦視差とは、ステレオ撮影された2枚の画像における対応点のy座標の差のことをいう。すなわち、ステレオ画像の基線方向に直交する方向の座標値の差のことである。ステレオ画像は、2枚の画像を撮影したカメラの光軸が平行であり、かつ、基線方向に直交する方向が平行な画像対である。したがって、2枚の画像の対応点のy座標は等しいため、ステレオ画像の縦視差は通常0画素となる。
[Judgment based on vertical parallax]
Longitudinal parallax refers to the difference between the y-coordinates of corresponding points in two stereo images. That is, a difference in coordinate values in a direction orthogonal to the baseline direction of the stereo image. A stereo image is an image pair in which the optical axes of the cameras that photographed two images are parallel and the directions orthogonal to the baseline direction are parallel. Therefore, since the y-coordinates of the corresponding points of the two images are equal, the vertical parallax of the stereo image is normally 0 pixels.

しかしながら、撮影装置の変動があった場合には、縦視差が0画素でなくなる。したがって、縦視差が1画素以上ある場合は、画像から算出された外部標定要素を利用せず、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データを利用する。   However, when there is a change in the photographing apparatus, the vertical parallax is not 0 pixels. Therefore, when the vertical parallax is 1 pixel or more, the external orientation element calculated from the image is not used, and the position data acquired from the position measurement unit 4 and the posture data acquired from the posture measurement unit 5 are used.

縦視差は、前フレームの特徴点のy座標と、現フレームの特徴点のy座標との差を算出することで求められる。なお、縦視差に対する閾値は、調整可能とする。   The vertical parallax is obtained by calculating the difference between the y coordinate of the feature point of the previous frame and the y coordinate of the feature point of the current frame. The threshold for vertical parallax is adjustable.

なお、撮影シーンの変化や撮影装置の変動は、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差のうち、2つ、3つ、4つ、または全てを掛け合わせた値に基づいて判断してもよい。   Note that changes in shooting scenes and fluctuations in the shooting apparatus may include two, three, four, or all of the direction and amount of the feature point trajectory, the feature point distribution rate, the overlap rate, and the vertical parallax. You may judge based on the multiplied value.

(ステップS12)バンドル調整
外部標定要素を評価した後、1枚または複数の画像、または全画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整する。バンドル調整は、対象空間の点、画像上の点、投影中心の3点を結ぶ光束(バンドル)が同一直線上になければならないという共線条件に基づき、各画像の光束1本毎に観測方程式を立て、最小二乗法によって同時調整する方法である。共線条件式は以下の数12のようになる。
(Step S12) Bundle adjustment After evaluating the external orientation elements, bundle adjustment is performed simultaneously on one or a plurality of images, or the 3D coordinates of the external orientation elements and feature points in all images. The bundle adjustment is based on a collinear condition that a light beam (bundle) connecting three points of the target space, a point on the image, and the projection center must be on the same straight line, and an observation equation for each light beam of each image. And simultaneously adjusting by the least square method. The collinear conditional expression is as shown in Equation 12 below.

Figure 0005027747
Figure 0005027747

Figure 0005027747
Figure 0005027747

バンドル調整は、逐次近似解法を用いる。具体的には、基準点や特徴点の三次元座標、外部標定要素の真値を、各々の近似値(X’,Y’,Z’)、(X’,Y’,Z’,ω’,φ’,κ’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)、(X’+ΔX,Y’+ΔY,Z’+ΔZ,ω’+Δω,φ’+Δφ,κ’+Δκ)とし、基準点や特徴点に対応する画像座標の真値を、計測値(x’,y’)に誤差を加えたもの(x’+dx,y’+dy)とする。そして、補正量を加えた近似値と、誤差を含む計測値とを、1または複数の画像の共線条件式(数12)に代入し、近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。 The bundle adjustment uses a successive approximation method. Specifically, the three-dimensional coordinates of the reference points and feature points, and the true values of the external orientation elements are respectively converted into approximate values (X ′, Y ′, Z ′), (X 0 ′, Y 0 ′, Z 0 ′). , Ω ′, φ ′, κ ′) plus a correction amount (X ′ + ΔX, Y ′ + ΔY, Z ′ + ΔZ), (X 0 ′ + ΔX 0 , Y 0 ′ + ΔY 0 , Z 0 ′ + ΔZ 0 , ω ′ + Δω, φ ′ + Δφ, κ ′ + Δκ), and the true value of the image coordinates corresponding to the reference point or feature point is obtained by adding an error to the measured value (x ′, y ′) (x ′ + dx, y) '+ Dy). Then, the approximate value to which the correction amount is added and the measurement value including the error are substituted into the collinear conditional expression (Equation 12) of one or a plurality of images, and the Taylor expansion is performed around the approximate value to linearize it. The correction amount is obtained by multiplication. The approximate value is corrected by the obtained correction amount, and the same operation is repeated to obtain a converged solution.

なお、Δx、Δyは、内部標定要素(焦点距離、主点位置、レンズ歪係数)の補正項を表す。以下の数14は、レンズが放射方向の歪みを有する場合の内部標定要素の補正モデルである。数14によって、内部標定要素も同時に調整することができる。いわゆる、セルフキャリブレーション付きバンドル調整である。   Δx and Δy represent correction terms for internal orientation elements (focal length, principal point position, lens distortion coefficient). The following Expression 14 is a correction model of the internal orientation element when the lens has radial distortion. The internal orientation element can also be adjusted at the same time by Equation (14). This is so-called bundle adjustment with self-calibration.

Figure 0005027747
Figure 0005027747

(ステップS13)特徴点の三次元座標算出
バンドル調整された外部標定要素に基づいて、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する。算出方法は、前方交会法、もしくは、DLTが挙げられる。なお、図4に示すように、ステップS13の三次元座標の算出は、バンドル調整(ステップS12)に先立って処理してもよい。
(Step S13) Calculation of three-dimensional coordinates of feature points Based on the bundle-adjusted external orientation elements, the three-dimensional coordinates of feature points newly detected in an area where the density of feature points has decreased are calculated. Examples of the calculation method include a forward intersection method or DLT. As shown in FIG. 4, the calculation of the three-dimensional coordinates in step S13 may be processed prior to bundle adjustment (step S12).

図10は、前方交会法を説明する説明図である。前方交会法とは、既知の2点(O,O)以上から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を定める方法である。 FIG. 10 is an explanatory diagram for explaining the forward meeting method. The forward intersection method is a method of observing a direction from two or more known points (O 1 , O 2 ) toward the unknown point P and determining the position of the unknown point P as an intersection of these direction lines.

図10において、対象空間の座標系をO−XYZとする。前フレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)と、現フレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。この際、前フレーム画像上の点p(x,y)と、これに対応する現フレーム画像上の点p(x,y)が分かれば、対象空間の未知点P(X,Y,Z)は、光線Oと光線Oの交点として定まる。ただし、実際には誤差があり、2本の光線が交わらないため、最小二乗法によって交点位置を求める。 In FIG. 10, the coordinate system of the target space is assumed to be O-XYZ. The coordinates (X 01 , Y 01 , Z 01 ) of the camera projection center O 1 of the previous frame image and the tilts (ω 1 , φ 1 , κ 1 ) of the camera coordinate axis and the camera projection center O 2 of the current frame image The coordinates (X 02 , Y 02 , Z 02 ) and the tilt (posture) (ω 2 , φ 2 , κ 2 ) of the camera coordinate axes are known. Also, the internal orientation elements (focal length, principal point position, lens distortion coefficient) are known. At this time, if the point p 1 (x 1 , y 1 ) on the previous frame image and the corresponding point p 2 (x 2 , y 2 ) on the current frame image are known, the unknown point P ( X, Y, Z) is determined as the intersection of the light beam O 1 p 1 and the light beam O 2 p 2 . However, since there is actually an error and the two rays do not intersect, the position of the intersection is obtained by the least square method.

具体的には、2本の共線条件式(数12)を立て、これに既知の外部標定要素、内部標定要素、対応点の画像座標を代入する。さらに、この共線条件式に未知点Pの近似値(X’,Y’,Z’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)を代入する。近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この操作によって、特徴点の三次元座標P(X,Y,Z)が求められる。   Specifically, two collinear conditional expressions (Equation 12) are established, and the known external orientation elements, internal orientation elements, and image coordinates of corresponding points are substituted into them. Further, the approximate value (X ′, Y ′, Z ′) of the unknown point P plus the correction amount (X ′ + ΔX, Y ′ + ΔY, Z ′ + ΔZ) is substituted into this collinear conditional expression. A Taylor expansion around the approximate value is linearized, and a correction amount is obtained by the least square method. The approximate value is corrected by the obtained correction amount, and the same operation is repeated to obtain a converged solution. By this operation, the three-dimensional coordinates P (X, Y, Z) of the feature points are obtained.

(ステップS14)最終フレーム判定
新たに検出した特徴点の三次元座標が算出された後、現在処理している画像が最終画像であるか否かを判定する。現在処理している画像が最終画像でない場合には、ステップS10に戻って、次画像の外部標定要素を算出する。以後、ステップS10〜ステップS14までを最終画像まで繰り返す。現在処理している画像が最終画像である場合には、処理を終了する。
(Step S14) Final Frame Determination After the three-dimensional coordinates of the newly detected feature points are calculated, it is determined whether or not the currently processed image is the final image. If the currently processed image is not the final image, the process returns to step S10 to calculate the external orientation element of the next image. Thereafter, steps S10 to S14 are repeated until the final image. If the image currently being processed is the final image, the process ends.

(第1の実施形態の優位性)
第1の実施形態によれば、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動が判断される。撮影シーンの変化や撮影装置の変動は、特徴点の追跡を困難し、画像から算出された外部標定要素の精度を劣化させる。したがって、撮影シーンの変化や撮影装置の変動が相対的に大きい場合には、画像から算出された外部標定要素の信頼性が低いと評価し、撮影シーンの変化や撮影装置の変動が相対的に小さい場合には、画像から算出された外部標定要素の信頼性が高いと評価する。
(Advantages of the first embodiment)
According to the first embodiment, a change in the shooting scene or a change in the shooting device is performed based on at least one of the direction and amount of the trajectory of the feature point, the distribution rate of the feature point, the overlap rate, and the vertical parallax. Is judged. Changes in the shooting scene and changes in the shooting apparatus make it difficult to track feature points, and degrade the accuracy of external orientation elements calculated from images. Therefore, when the change in the shooting scene and the fluctuation of the shooting apparatus are relatively large, it is evaluated that the reliability of the external orientation element calculated from the image is low, and the change in the shooting scene and the fluctuation of the shooting apparatus are relatively If it is small, it is evaluated that the external orientation element calculated from the image has high reliability.

画像から算出された外部標定要素の信頼性が低いと評価される場合には、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データを利用し、画像から算出された外部標定要素は利用しない。この態様によって、撮影シーンの変化や撮影装置の変動による誤差が低減する。   When it is evaluated that the reliability of the external orientation element calculated from the image is low, the external data calculated from the image using the position data acquired from the position measurement unit 4 or the posture data acquired from the posture measurement unit 5 is used. The orientation element is not used. By this aspect, errors due to changes in the shooting scene and fluctuations in the shooting apparatus are reduced.

2.第2の実施形態
以下、第1の実施形態の変形例について説明する。第2の実施形態は、重み付きバンドル調整を行うものである。
2. Second Embodiment Hereinafter, a modification of the first embodiment will be described. In the second embodiment, weighted bundle adjustment is performed.

図11(A)は、第1の実施形態に係るバンドル調整の概念図である。図11(A)に示すように、第1の実施形態においては、カメラから算出された外部標定要素が、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価される。そして、バンドル調整される外部標定要素は、GPSの位置データ、姿勢センサの姿勢データ、カメラから算出された外部標定要素の中から最良なデータが選択され、選択された外部標定要素に基づいてバンドル調整が行われる。したがって、バンドル調整は、図11(A)の点線枠で示すデータに基づいて行われる。   FIG. 11A is a conceptual diagram of bundle adjustment according to the first embodiment. As shown in FIG. 11A, in the first embodiment, the external orientation elements calculated from the camera are the direction and amount of the trajectory of the feature points, the distribution rate of the feature points, the overlap rate, and the vertical parallax. It is evaluated based on at least one of the following. As the external orientation elements to be bundle-adjusted, the best data is selected from the GPS position data, the orientation data of the orientation sensor, and the external orientation elements calculated from the camera, and the bundle is based on the selected external orientation elements. Adjustments are made. Therefore, bundle adjustment is performed based on the data indicated by the dotted frame in FIG.

一方、第2の実施形態では、外部標定要素が最良なデータに修正されるのではなく、GPSの位置データ、姿勢センサの姿勢データ、カメラから算出された外部標定要素は、重み付けされてバンドル調整される。図11(B)は、第2の実施形態に係る重み付きバンドル調整の概念図である。図11(B)に示すように、精度の悪いデータは重みが軽くなり、精度の良いデータは重みが重くなる。この結果、外部標定要素、特徴点の三次元座標は、図11(B)の実線枠の範囲にバンドル調整される。   On the other hand, in the second embodiment, the external orientation element is not corrected to the best data, but the GPS location data, orientation sensor orientation data, and the external orientation element calculated from the camera are weighted to perform bundle adjustment. Is done. FIG. 11B is a conceptual diagram of weighted bundle adjustment according to the second embodiment. As shown in FIG. 11B, data with poor accuracy has a light weight, and data with high accuracy has a heavy weight. As a result, the three-dimensional coordinates of the external orientation elements and feature points are bundle-adjusted within the range of the solid line frame in FIG.

重みは、各データの精度に基づいて算出される。各データの精度をσとすると、重みwは、数15によって算出される。以下、各データの精度について説明する。   The weight is calculated based on the accuracy of each data. Assuming that the accuracy of each data is σ, the weight w is calculated by Equation 15. Hereinafter, the accuracy of each data will be described.

Figure 0005027747
Figure 0005027747

[GPSの位置データ、姿勢センサの姿勢データの精度]
GPSの位置データ、姿勢センサの姿勢データの精度は、画像の撮影タイミングとGPSの位置データや姿勢センサの姿勢データの取得タイミングとの差に基づいた誤差と、GPSの位置データ、姿勢センサの姿勢データの固有の精度とに基づく。
[Accuracy of GPS position data and attitude sensor attitude data]
The accuracy of the GPS position data and attitude sensor attitude data depends on the error based on the difference between the image capturing timing and the GPS position data and attitude sensor acquisition timing, and the GPS position data and attitude sensor attitude. Based on the inherent accuracy of the data.

一般に、GPSや姿勢センサの時刻はカメラの時刻と同期していない。したがって、本発明においては、GPSの位置データの取得時刻と画像の撮影時刻は、基準時計6が出力する基準時刻に変換される。なお、変換された時刻は、位置データや姿勢データの伝送遅れや画像データの伝送遅れを考慮したものとなる。   In general, the GPS and attitude sensor times are not synchronized with the camera time. Therefore, in the present invention, the GPS position data acquisition time and the image shooting time are converted to the reference time output by the reference clock 6. The converted time takes into account the transmission delay of position data and attitude data and the transmission delay of image data.

また、動画像のフレームレートとGPSや姿勢センサの取得レートが一致していないため、画像の撮影タイミングとGPSの位置データや姿勢センサの姿勢データの取得タイミングも同期していない。このため、GPSや姿勢センサの精度は、画像の撮影タイミングとGPSの位置データや姿勢センサの姿勢データの取得タイミングとの差に基づく誤差を考慮する。   In addition, since the frame rate of the moving image and the acquisition rate of the GPS and the attitude sensor do not match, the image capturing timing is not synchronized with the acquisition timing of the GPS position data and the attitude sensor. For this reason, the accuracy of the GPS and the attitude sensor considers an error based on the difference between the image capturing timing and the acquisition timing of the position data of the GPS and the attitude data of the attitude sensor.

画像の撮影タイミングとGPSの位置データや姿勢センサの姿勢データの取得タイミングとの差をΔtとすれば、カメラが速度v(角速度v、v、v)で移動するとき、GPSの位置データの誤差Etは、数16となり、姿勢センサの姿勢データの誤差Ext、Eyt、Eztは、数17となる。 If the difference between the image capturing timing and the GPS position data or the posture sensor acquisition timing is Δt, the GPS position is determined when the camera moves at a speed v (angular velocities v x , v y , v z ). The error Et of the data is expressed by Equation 16, and the errors Ext, Eyt, Ezt of the posture data of the posture sensor are expressed by Equation 17.

Figure 0005027747
Figure 0005027747

Figure 0005027747
Figure 0005027747

画像の撮影時刻とGPSの位置データや姿勢センサの姿勢データの取得時刻は、基準時計6によって同一の時間軸で表せるため、Δtは、GPSの位置データや姿勢センサの姿勢データが取得された時刻と、この時刻に最も近い時刻に撮影された画像との時間差となる。   Since the image capture time and the acquisition time of the GPS position data and attitude sensor attitude data can be represented on the same time axis by the reference clock 6, Δt is the time when the GPS position data and attitude sensor attitude data are acquired. And the time difference from the image taken at the time closest to this time.

また、速度vは、数18に示すように動画像内の特徴点の移動距離と動画像のフレームレートから求められる。また、角速度v、v、vは、姿勢センサやIMUから取得した値を用いる。 Further, the speed v is obtained from the moving distance of the feature points in the moving image and the frame rate of the moving image as shown in Equation 18. Further, as the angular velocities v x , v y , and v z , values acquired from an attitude sensor or an IMU are used.

Figure 0005027747
Figure 0005027747

次に、GPSや姿勢センサの固有の精度について説明する。GPSの測位精度は、衛星位置(DOP:Dilution of Precision)、マルチパス、リンククオリティ(LQ:Link Quality)、測位演算の収束評価などの値によって変わる。例えば、RTK−GPS(Real Time Kinematic GPS)システムの場合、GPS衛星の位置、周辺環境によるマルチパスの影響、基準局からの補正情報などを考慮して、測位モードがリアルタイムに変化する。以下の表1は、各測位モードにおける測位精度の概略を示している。   Next, the inherent accuracy of the GPS and attitude sensor will be described. The positioning accuracy of GPS varies depending on values such as satellite position (DOP: Division of Precision), multipath, link quality (LQ: Link Quality), and convergence evaluation of positioning calculation. For example, in the case of an RTK-GPS (Real Time Kinematic GPS) system, the positioning mode changes in real time in consideration of the position of the GPS satellite, the influence of multipath due to the surrounding environment, correction information from the reference station, and the like. Table 1 below shows an outline of positioning accuracy in each positioning mode.

Figure 0005027747
Figure 0005027747

GPSの測位精度をGPSrtkeとすると、GPSの位置データの精度の合計EtALLは、数19となる。 Assuming that the GPS positioning accuracy is GPS rtke , the total Et ALL of the accuracy of the GPS position data is expressed by Equation 19.

Figure 0005027747
Figure 0005027747

また、姿勢センサは、原理上加速度の積分や二重積分などをとることから、経過時間によって誤差が累積する。したがって、初期値が設定されたときから、もしくは、ハードウェアリセットされたときからの計測時間をt、累積誤差が指数関数1.05−1に近似するとすれば、姿勢センサの精度は、数20となる。また、これに姿勢センサ固有の精度IMUeを考慮すると、姿勢センサの精度の合計ExtALL、EytALL、EztALLは、数21となる。 In addition, since the attitude sensor theoretically takes acceleration integration, double integration, etc., errors accumulate according to elapsed time. Therefore, if the measurement time from when the initial value is set or when the hardware is reset is t, and the accumulated error approximates the exponential function 1.05 t −1, the accuracy of the attitude sensor is several 20 In consideration of the accuracy IMUe inherent to the posture sensor, the total accuracy Ext ALL , Eyt ALL , and Ezt ALL of the posture sensor is expressed by Equation 21.

Figure 0005027747
Figure 0005027747

Figure 0005027747
Figure 0005027747

[外部標定要素および特徴点の三次元座標の精度]
外部標定要素および特徴点の三次元座標の精度は、第1の実施形態における、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づき求められる。すなわち、特徴点の軌跡の方向の変化は、2つのベクトルa、ベクトルbのなす角θであり(数10)、特徴点の軌跡の量の変化は、2つのベクトルa、ベクトルbの差|a−b|であるため(数11)、精度σは、θまたは|a−b|となる。
[Accuracy of 3D coordinates of external orientation elements and feature points]
The accuracy of the three-dimensional coordinates of the external orientation element and the feature point is at least one of the direction and amount of the trajectory of the feature point, the distribution rate of the feature point, the overlap rate, and the vertical parallax in the first embodiment. Is required. That is, the change in the direction of the trajectory of the feature point is the angle θ formed by the two vectors a and b (Equation 10), and the change in the amount of the trajectory of the feature point is the difference between the two vectors a and b | Since a−b | (Equation 11), the accuracy σ is θ or | a−b |.

また、特徴点の分布率やオーバーラップ率は、画像中心を原点とする特徴点のX座標および/またはY座標の合計値であるため、精度σは、分布率やオーバーラップ率の絶対値となる。また、縦視差は、ステレオ画像における特徴点のy座標の差であるため、精度σは、特徴点のy座標の差の絶対値となる。   Further, since the distribution rate and overlap rate of the feature points are the total values of the X coordinates and / or Y coordinates of the feature points with the image center as the origin, the accuracy σ is the absolute value of the distribution rate and the overlap rate. Become. Further, since the vertical parallax is a difference between the y coordinates of the feature points in the stereo image, the accuracy σ is an absolute value of the difference between the y coordinates of the feature points.

なお、外部標定要素および特徴点の三次元座標の精度σは、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差のうち、2つ、3つ、4つ、または全てを掛け合わせた値としてもよい。   Note that the accuracy σ of the three-dimensional coordinates of the external orientation element and the feature point is two, three, four among the direction and amount of the trajectory of the feature point, the distribution rate of the feature point, the overlap rate, and the vertical parallax. Or a value obtained by multiplying all of them.

[重み付きバンドル調整]
重み付きバンドル調整における各補正量は、以下の関数Gを最小にする値として求めることができる。例えば、wがカメラによる三次元座標の重み、wおよびwが外部標定要素の重み、となる。
[Weighted bundle adjustment]
Each correction amount in the weighted bundle adjustment can be obtained as a value that minimizes the following function G. For example, the weight of the three-dimensional coordinate w 2 is by the camera, w 3 and w 4 is the weight, the exterior orientation parameters.

Figure 0005027747
Figure 0005027747

また、GPSやIMUによる位置データ、姿勢センサの姿勢データが加わった場合には、以下の数23となり、これを最小にする。例えば、wがGPSによる位置データの重み、wがIMUの位置データの重み、wが姿勢センサの重み、となる。 Further, when position data by GPS or IMU and attitude data of the attitude sensor are added, the following Expression 23 is obtained, which is minimized. For example, w 5 is the weight of GPS position data, w 6 is the weight of IMU position data, and w 7 is the weight of the attitude sensor.

Figure 0005027747
Figure 0005027747

(第2の実施形態の優位性)
第2の実施形態によれば、外部標定要素および特徴点の三次元座標に加えて、位置測定部4の位置データや姿勢測定部5の姿勢データも同時にバンドル調整される。この際、各データは、重みが付けられてバンドル調整されるため、精度の悪いデータは軽く、精度の良いデータは重く扱われる。このため、外部標定要素および特徴点の三次元座標の誤差が低減する。
(Advantage of the second embodiment)
According to the second embodiment, in addition to the three-dimensional coordinates of the external orientation elements and feature points, the position data of the position measurement unit 4 and the posture data of the posture measurement unit 5 are simultaneously bundle-adjusted. At this time, each data is weighted and bundle-adjusted, so that data with low accuracy is light and data with high accuracy is handled heavy. For this reason, errors in the three-dimensional coordinates of the external orientation elements and feature points are reduced.

また、位置測定部4の位置データや姿勢測定部5の姿勢データの重みは、画像の撮影タイミングと位置測定部4の位置データや姿勢測定部5の姿勢データの取得タイミングとの差に基づいて算出される。このため、画像の撮影タイミングと位置測定部4の位置データや姿勢測定部5の姿勢データの取得タイミングが同期しない場合であっても、外部標定要素および特徴点の三次元座標の誤差が低減する。   The weight of the position data of the position measurement unit 4 and the posture data of the posture measurement unit 5 is based on the difference between the image capturing timing and the position data of the position measurement unit 4 and the acquisition timing of the posture data of the posture measurement unit 5. Calculated. For this reason, even when the image capturing timing is not synchronized with the position data acquisition position of the position measurement unit 4 or the posture measurement unit 5, the error in the three-dimensional coordinates of the external orientation elements and feature points is reduced. .

さらに、外部標定要素および特徴点の三次元座標の重みは、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて算出される。画像から算出される外部標定要素や特徴点の三次元座標における精度は、撮影シーンの変化や撮影装置の変動に依存する傾向が強い。このため、撮影シーンの変化や撮影装置の変動の判断材料となる特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差を外部標定要素および特徴点の三次元座標の重みとすることで、外部標定要素および特徴点の三次元座標の誤差が低減する。   Furthermore, the weights of the three-dimensional coordinates of the external orientation elements and feature points are calculated based on at least one of the direction and amount of the feature point trajectory, the feature point distribution rate, the overlap rate, and the vertical parallax. . The accuracy in the three-dimensional coordinates of the external orientation elements and feature points calculated from the image tends to depend on changes in the shooting scene and changes in the shooting apparatus. For this reason, the direction and amount of the trajectory of feature points, which are used to determine changes in shooting scenes and fluctuations in the shooting device, the distribution rate of feature points, the overlap rate, and the vertical parallax are used as the three-dimensional coordinates of external orientation elements and feature points. By using this weight, the errors in the three-dimensional coordinates of the external orientation elements and feature points are reduced.

3.第3の実施形態
以下、第1〜第3の実施形態の変形例について説明する。第4の実施形態は、追跡(トラッキング)された対応点のうち相対的に誤差の大きい点(誤対応点)を除去し、外部標定要素や特徴点の三次元座標の算出精度を向上させるものである。
3. Third Embodiment Hereinafter, modified examples of the first to third embodiments will be described. The fourth embodiment removes a point having a relatively large error (miscorresponding point) from the corresponding points that have been tracked (tracked), and improves the calculation accuracy of the three-dimensional coordinates of the external orientation elements and feature points. It is.

図12〜図14は、誤対応点の除去を取り入れたフローチャートである。誤対応点の除去は、バンドル調整の後(図12、図13)、もしくは外部標定要素算出の前(図14)に行う。図12の場合、次フレーム以降における外部標定要素の算出精度が向上する。また、図13の場合、除去された誤対応点の三次元座標は算出されないため、計算処理が効率化する。また、図14の場合、現フレームにおける外部標定要素の算出精度が向上する。   FIG. 12 to FIG. 14 are flowcharts incorporating removal of erroneous corresponding points. The erroneous corresponding points are removed after the bundle adjustment (FIGS. 12 and 13) or before the external orientation element calculation (FIG. 14). In the case of FIG. 12, the accuracy of calculating the external orientation elements in the next frame and thereafter is improved. Further, in the case of FIG. 13, since the three-dimensional coordinates of the removed miscorresponding points are not calculated, the calculation process becomes efficient. In the case of FIG. 14, the calculation accuracy of the external orientation elements in the current frame is improved.

誤対応点の除去法には、バックワードプロジェクション、もしくは相互標定によって算出した縦視差を利用する。これらの除去法は、撮影状況によって使い分けを行ったり、双方を行ったりする。例えば、単写真標定を用いたバックワードプロジェクションによる誤対応点除去は、撮影シーンの変化が大きい場合に利用し、相互標定による誤対応点除去は、撮影シーンの変化が少ない場合に利用する。   For the method of removing the erroneous corresponding point, the vertical parallax calculated by backward projection or relative orientation is used. These removal methods are selectively used depending on the shooting situation or both. For example, erroneous correspondence point removal by backward projection using single photograph orientation is used when there is a large change in the shooting scene, and erroneous correspondence point removal by mutual orientation is used when there is little change in the photography scene.

また、誤差判定の閾値の推定に、ロバスト推定を用いてもよい。例えば、LMedS推定(Least Median of Squares推定)、RANSAC推定(RANdom SAmple Consensus推定)、M推定が利用される。特に、LMedS推定は、ロバスト性に優れており、誤差範囲が不明でも自動的に誤対応点を除去することができる。   Further, robust estimation may be used for estimation of the error determination threshold. For example, LMedS estimation (Least Median of Squares estimation), RANSAC estimation (RANdom Sample Consensus estimation), and M estimation are used. In particular, the LMedS estimation is excellent in robustness and can automatically remove a false corresponding point even if the error range is unknown.

なお、誤差判定の閾値は、ロバスト推定に依らず、調整可能な固定閾値としてもよい。この態様によれば、演算処理が簡易であるため、処理速度が向上する。   Note that the threshold for error determination may be an adjustable fixed threshold without depending on robust estimation. According to this aspect, since the calculation process is simple, the processing speed is improved.

以下、図15のフローチャートに従って説明する。図15(A)は、バックワードプロジェクションによる誤対応点の除去を行うフローチャートであり、図15(B)は、縦視差を用いた誤対応点の除去を行うフローチャートである。   Hereinafter, a description will be given according to the flowchart of FIG. FIG. 15A is a flowchart for removing erroneous corresponding points by backward projection, and FIG. 15B is a flowchart for removing erroneous corresponding points using vertical parallax.

[バックワードプロジェクションによる誤対応点の除去]
まず、追跡された対応点がランダムにサンプリングされる(ステップS20)。次に、サンプリングされた点ごとに、後方交会法(単写真標定またはDLT)によって算出された外部標定要素と追跡された対応点の三次元座標に基づいて、対応点の画像座標(x’,y’)を算出する。例えば、単写真標定の場合、数6の共線条件式に外部標定要素(X,Y,Z,ω,φ,κ)と対応点の三次元座標(X,Y,Z)を代入することで、画像座標(x’,y’)が逆算される(ステップS21)。
[Removal of mis-corresponding points by backward projection]
First, the tracked corresponding points are sampled randomly (step S20). Next, for each sampled point, based on the external orientation element calculated by the backward intersection method (single photo orientation or DLT) and the 3D coordinates of the tracked corresponding point, the image coordinates (x ′, y ′) is calculated. For example, in the case of single photograph orientation, the external orientation elements (X 0 , Y 0 , Z 0 , ω, φ, κ) and the corresponding three-dimensional coordinates (X, Y, Z) are added to the collinear conditional expression of Equation 6. By substituting, the image coordinates (x ′, y ′) are calculated backward (step S21).

そして、サンプリングされた点ごとに、後方交会法によって得られた画像座標(x’,y’)と、追跡された対応点の画像座標(x,y)との残差の二乗を求め、二乗残差の中央値を算出する(ステップS22)。その後、ステップS20〜ステップS22を繰り返し、中央値の最小値(LMedS)を求める(ステップS23)。以下の数24にLMedS基準を示す。   Then, for each sampled point, the square of the residual between the image coordinates (x ′, y ′) obtained by the backward intersection method and the image coordinates (x, y) of the tracked corresponding point is obtained, and the square The median of the residual is calculated (step S22). Thereafter, Step S20 to Step S22 are repeated to obtain the minimum median value (LMedS) (Step S23). The following formula 24 shows the LMedS standard.

Figure 0005027747
Figure 0005027747

なお、ステップS20〜ステップS22の繰り返しに必要な回数は、q回のランダムサンプリングで少なくとも一回は例外値が全く含まれない確率を考えることで決定できる。例えば、全データ中の例外値の割合をcとすると、この確率Pは、以下の数25に示すようになる。例えば、c=0.3、n=3とすると、P=0.01になるためには、q=11回となる。   Note that the number of times required to repeat Step S20 to Step S22 can be determined by considering the probability that no exceptional value is included at least once in q random samplings. For example, if the ratio of exceptional values in all data is c, this probability P is as shown in the following equation (25). For example, if c = 0.3 and n = 3, q = 11 times in order to achieve P = 0.01.

Figure 0005027747
Figure 0005027747

ステップS23で求めたLMedS値を閾値として誤差の大きい点を除去する(ステップS24)。   A point with a large error is removed using the LMedS value obtained in step S23 as a threshold (step S24).

[縦視差を用いた誤対応点の除去]
まず、前後の画像における対応点がランダムにサンプリングされる(ステップS30)。次に、図6に示すように、サンプリングされた対応点(P,P)の実空間上の点Pの三次元座標は、相互標定の共面条件式(数6)によって、点線で示されるステレオ画像上に再投影される(ステップS31)。
[Removal of miscorresponding points using vertical parallax]
First, corresponding points in the preceding and following images are randomly sampled (step S30). Next, as shown in FIG. 6, the three-dimensional coordinates of the point P in the real space of the sampled corresponding points (P 1 , P 2 ) are expressed by dotted lines according to the co-planar conditional expression (Equation 6) Re-projected on the stereo image shown (step S31).

縦視差は、再投影された2つの対応点のy座標の差として求められる。縦視差とは、ステレオ撮影された2枚の画像における対応点のy座標の差であり、ステレオ画像の基線方向に直交する方向の座標値の差のことを意味する。なお、ステレオ画像とは、2枚の画像を撮影したカメラの光軸が平行であり、かつ、基線方向に直交する方向が平行な画像対である。次に、縦視差の二乗を求め、その中央値を算出する(ステップS32)。その後、ステップS30〜ステップS32を繰り返し、中央値の最小値(LMedS)を求める(ステップS33)。LMedS基準は数22による。   The vertical parallax is obtained as the difference between the y coordinates of the two reprojected corresponding points. The vertical parallax is a difference in y-coordinates of corresponding points in two images taken in stereo, and means a difference in coordinate values in a direction orthogonal to the baseline direction of the stereo image. Note that a stereo image is an image pair in which the optical axes of cameras that photographed two images are parallel and the directions orthogonal to the baseline direction are parallel. Next, the square of the vertical parallax is obtained, and the median value is calculated (step S32). Then, Step S30 to Step S32 are repeated to obtain the minimum median value (LMedS) (Step S33). The LMedS standard is given by Equation 22.

ステップS33で求めたLMedS値を閾値として誤差の大きい点を除去する(ステップS34)。   A point with a large error is removed using the LMedS value obtained in step S33 as a threshold (step S34).

(第3の実施形態の優位性)
特徴点の追跡結果には、多くの誤対応点が含まれている。したがって、誤対応点に基づいて算出された外部標定要素や特徴点の三次元座標は、精度が劣る。しかしながら、誤対応点を除去することで、外部標定要素や特徴点の三次元座標の算出精度が向上し、誤差が低減する。
(Advantage of the third embodiment)
The tracking result of feature points includes many miscorresponding points. Therefore, the external orientation elements and the three-dimensional coordinates of the feature points calculated based on the miscorresponding points are inferior in accuracy. However, by removing the miscorresponding points, the calculation accuracy of the three-dimensional coordinates of the external orientation elements and feature points is improved, and the error is reduced.

また、撮影状況の変化に基づいて、誤対応点の除去法(バックワードプロジェクションによって算出した残差または相互標定によって算出した縦視差)が選択されることで、撮影状況の変化に依存せずに、外部標定要素や特徴点の三次元座標を算出することができる。   In addition, based on the change in the shooting situation, a method of eliminating the miscorresponding point (residual calculated by backward projection or vertical parallax calculated by relative orientation) is selected, so that it does not depend on the change of the shooting situation. The three-dimensional coordinates of external orientation elements and feature points can be calculated.

さらに、LmedS法は、最小二乗法と比べ、データに外れ値が多く含まれていても、ロバストに外れ値を推定することができる。このため、外部標定要素や特徴点の三次元座標の誤差を低減することができる。   Further, the LmedS method can robustly estimate an outlier even if the data includes many outliers as compared to the least square method. For this reason, the error of the three-dimensional coordinate of an external orientation element or a feature point can be reduced.

本発明は、動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定方法、位置測定装置、およびそのプログラムに利用することができる。   The present invention can be used for a position measuring method, a position measuring apparatus, and a program thereof for measuring a photographed position and posture and a three-dimensional position of a subject based on a moving image.

位置測定装置の全体図である。It is a general view of a position measuring device. 位置測定装置の機能ブロック図である。It is a functional block diagram of a position measuring device. 位置測定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a position measuring apparatus. 位置測定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a position measuring apparatus. 後方交会法を説明する説明図である。It is explanatory drawing explaining a back intersection method. 相互標定を説明する説明図である。It is explanatory drawing explaining a relative orientation. 前フレームの特徴点の軌跡の方向と、新たに検出した特徴点の軌跡の方向とが異なる画像を示す図(A)と、前のフレームの特徴点の軌跡の量と、新たに検出した特徴点の軌跡の量が異なる画像を示す図(B)である。The figure (A) which shows the image from which the direction of the trajectory of the feature point of the previous frame differs from the direction of the trajectory of the newly detected feature point, the amount of the trajectory of the feature point of the previous frame, and the newly detected feature It is a figure (B) which shows the image from which the quantity of the locus | trajectory of a point differs. 特徴点の分布率が0の画像を示す図(A)と、特徴点の分布率が負の画像を示す図(B)と、特徴点の分布率が正の画像を示す図(C)である。A diagram (A) showing an image with a feature point distribution rate of 0, a diagram (B) showing an image with a negative feature point distribution rate, and a diagram (C) showing an image with a positive feature point distribution rate. is there. 前後のフレームでオーバーラップしている特徴点が偏っている画像を示す図(A)と、前後のフレームでオーバーラップしている特徴点が偏っていない画像を示す図(B)である。FIG. 5A is a diagram showing an image in which feature points overlapping in preceding and following frames are biased, and FIG. 6B is a diagram showing an image in which feature points overlapping in preceding and following frames are not biased. 前方交会法の概念図である。It is a conceptual diagram of the forward dating method. 第1の実施形態に係るバンドル調整の概念図(A)と、第2の実施形態に係る重み付きバンドル調整の概念図(B)である。It is a conceptual diagram (A) of bundle adjustment concerning a 1st embodiment, and a conceptual diagram (B) of weighted bundle adjustment concerning a 2nd embodiment. 誤対応点の除去を取り入れたフローチャートである。It is the flowchart which took in removal of a miscorresponding point. 誤対応点の除去を取り入れたフローチャートである。It is the flowchart which took in removal of a miscorresponding point. 誤対応点の除去を取り入れたフローチャートである。It is the flowchart which took in removal of a miscorresponding point. バックワードプロジェクションによる誤対応点の除去を行うフローチャート(A)と、縦視差による誤対応点の除去を行うフローチャート(B)である。The flowchart (A) which removes the miscorresponding point by backward projection, and the flowchart (B) which removes the miscorresponding point by vertical parallax.

符号の説明Explanation of symbols

1…位置測定装置、2…動画像取得部、3…特徴点検出追跡部、4…位置測定部、5…姿勢測定部、6…基準時計、7…計算処理部、8…特徴点検出部、9…特徴点追跡部、10…制御演算部、11…記憶部、12…初期値算出部、13…外部標定要素算出部、14…外部標定要素評価部、15…バンドル調整部、16…三次元座標算出部、17…誤対応点除去部、18…詳細計測部、19…外部標定要素・三次元座標出力部、20…画像判断部。   DESCRIPTION OF SYMBOLS 1 ... Position measuring device, 2 ... Moving image acquisition part, 3 ... Feature point detection tracking part, 4 ... Position measurement part, 5 ... Attitude measurement part, 6 ... Reference | standard clock, 7 ... Calculation processing part, 8 ... Feature point detection part , 9: Feature point tracking unit, 10: Control operation unit, 11: Storage unit, 12: Initial value calculation unit, 13: External orientation element calculation unit, 14: External orientation element evaluation unit, 15 ... Bundle adjustment unit, 16 ... A three-dimensional coordinate calculation unit, 17 ... an erroneous corresponding point removal unit, 18 ... a detailed measurement unit, 19 ... an external orientation element / three-dimensional coordinate output unit, 20 ... an image determination unit.

Claims (15)

初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、
前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、
前記外部標定要素算出ステップによって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価ステップと、
前記外部標定要素評価ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、
前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、
前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を備えることを特徴とする位置測定方法。
An initial value calculating step for calculating an initial value of an external orientation element composed of a shooting position and a shooting posture based on a known point in the initial image or a shooting position and / or shooting posture measured externally;
An external orientation element calculating step for calculating an external orientation element based on a known point in the moving image following the initial image used in the initial value calculating step or a feature point that has already been given three-dimensional coordinates;
The external orientation element calculated by the external orientation element calculation step is selected from at least one of a feature point trajectory direction, a feature point trajectory amount, a feature point distribution rate, a feature point overlap rate, and a vertical parallax. An external orientation element evaluation step to evaluate based on
A bundle adjustment step of simultaneously adjusting bundle adjustment of the three-dimensional coordinates of the external orientation elements and feature points in one or a plurality of images based on the external orientation elements modified by the external orientation element evaluation step;
Based on the bundle-adjusted external orientation elements, a three-dimensional coordinate calculation step for calculating the three-dimensional coordinates of the feature points newly detected in the region where the density of the feature points is reduced;
A position measuring method comprising: repeating the process from the external orientation element calculating step to the three-dimensional coordinate calculating step until a final image is obtained.
前記特徴点の軌跡の方向もしくは特徴点の軌跡の量は、前画像の特徴点に対応する現画像の対応点の軌跡と、現画像で新たに検出された特徴点の軌跡との差に基づいて算出されることを特徴とする請求項1に記載の位置測定方法。   The direction of the feature point trajectory or the amount of feature point trajectory is based on the difference between the trajectory of the corresponding point of the current image corresponding to the feature point of the previous image and the trajectory of the feature point newly detected in the current image. The position measuring method according to claim 1, wherein the position measuring method is calculated by: 前記特徴点の分布率もしくは特徴点のオーバーラップ率は、画像中心を原点とした特徴点のX座標および/またはY座標の合計値によって算出されることを特徴とする請求項1に記載の位置測定方法。   2. The position according to claim 1, wherein the distribution rate of feature points or the overlap rate of feature points is calculated by a total value of X coordinates and / or Y coordinates of feature points with an image center as an origin. Measuring method. 前記外部標定要素評価ステップは、前記特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の中から選ばれた複数の値を掛け合わせた値に基づいて、外部標定要素を評価することを特徴とする請求項1に記載の位置測定方法。   The external orientation element evaluation step multiplies a plurality of values selected from the direction of the trajectory of the feature point, the amount of the trajectory of the feature point, the distribution rate of the feature points, the overlap rate of the feature points, and the vertical parallax. The position measurement method according to claim 1, wherein the external orientation element is evaluated based on the combined value. 前記バンドル調整ステップは、外部から与えられる撮影位置および/または撮影姿勢の重み、外部標定要素および特徴点の三次元座標の重みを算出し、各データを重み付けしてバンドル調整することを特徴とする請求項1に記載の位置測定方法。   The bundle adjustment step calculates the weight of the photographing position and / or photographing posture given from the outside, the weight of the three-dimensional coordinates of the external orientation element and the feature point, and performs bundle adjustment by weighting each data. The position measuring method according to claim 1. 前記外部から与えられる撮影位置および/または撮影姿勢の重みは、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて算出されることを特徴とする請求項5に記載の位置測定方法。   The weight of the photographing position and / or photographing posture given from the outside is calculated based on a difference between a photographing timing of the image and an acquisition timing of the photographing position and / or photographing posture given from the outside. Item 6. The position measurement method according to Item 5. 前記外部標定要素および特徴点の三次元座標の重みは、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて算出されることを特徴とする請求項5に記載の位置測定方法。   The weight of the three-dimensional coordinates of the external orientation element and the feature point is at least one of the direction of the trajectory of the feature point, the amount of the trajectory of the feature point, the distribution rate of the feature points, the overlap rate of the feature points, and the vertical parallax. The position measurement method according to claim 5, wherein the position measurement method is calculated based on the two. 前記バンドル調整ステップは、新たに検出された特徴点の三次元座標を算出する前、または、新たに検出された特徴点の三次元座標を算出した後に行われることを特徴とする請求項5に記載の位置測定方法。   The bundle adjustment step is performed before calculating the three-dimensional coordinates of the newly detected feature point or after calculating the three-dimensional coordinates of the newly detected feature point. The position measuring method described. 特徴点の追跡によって算出された対応点の画像座標と、前記対応点の三次元座標を画像上に投影した画像座標との残差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする請求項1に記載の位置測定方法。   An erroneous corresponding point removing step for removing erroneous corresponding points based on a residual between the image coordinates of the corresponding points calculated by tracking the feature points and the image coordinates obtained by projecting the three-dimensional coordinates of the corresponding points on the image; The position measuring method according to claim 1, further comprising: 前後の画像における対応点の三次元座標をステレオ画像上に投影し、前後のステレオ画像における基線方向に直交する方向の座標値の差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする請求項1に記載の位置測定方法。   An erroneous corresponding point removal step of projecting the three-dimensional coordinates of corresponding points in the preceding and following images onto a stereo image and removing the erroneous corresponding points based on a difference in coordinate values in a direction orthogonal to the baseline direction in the preceding and following stereo images; The position measuring method according to claim 1, further comprising: 前記誤対応点除去ステップは、前記バンドル調整ステップの後、または、前記外部標定要素算出ステップの前に行われることを特徴とする請求項9または10に記載の位置測定方法。   The position measuring method according to claim 9 or 10, wherein the incorrect corresponding point removing step is performed after the bundle adjusting step or before the external orientation element calculating step. 請求項9または請求項10に記載の誤対応点除去ステップは、撮影状況の変化に基づいて選択されることを特徴とする請求項9または10に記載の位置測定方法。   11. The position measuring method according to claim 9 or 10, wherein the step of removing an erroneous corresponding point according to claim 9 or 10 is selected based on a change in photographing condition. 前記誤対応点除去ステップは、LMedS推定によって閾値が推定されることを特徴とする請求項9または10に記載の位置測定方法。   The position measuring method according to claim 9 or 10, wherein in the erroneous corresponding point removing step, a threshold is estimated by LMedS estimation. 初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、
前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、
前記外部標定要素算出ステップによって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価ステップと、
前記外部標定要素評価ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、
前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、
前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を実行させるための位置測定プログラム。
An initial value calculating step for calculating an initial value of an external orientation element composed of a shooting position and a shooting posture based on a known point in the initial image or a shooting position and / or shooting posture measured externally;
An external orientation element calculating step for calculating an external orientation element based on a known point in the moving image following the initial image used in the initial value calculating step or a feature point that has already been given three-dimensional coordinates;
The external orientation element calculated by the external orientation element calculation step is selected from at least one of a feature point trajectory direction, a feature point trajectory amount, a feature point distribution rate, a feature point overlap rate, and a vertical parallax. An external orientation element evaluation step to evaluate based on
A bundle adjustment step of simultaneously adjusting bundle adjustment of the three-dimensional coordinates of the external orientation elements and feature points in one or a plurality of images based on the external orientation elements modified by the external orientation element evaluation step;
Based on the bundle-adjusted external orientation elements, a three-dimensional coordinate calculation step for calculating the three-dimensional coordinates of the feature points newly detected in the region where the density of the feature points is reduced;
A position measurement program for executing a repetition step of repeating the processes from the external orientation element calculation step to the three-dimensional coordinate calculation step until a final image is obtained.
対象物と撮影部とが少しずつ相対移動して撮影された動画像を取得する動画像取得部と、
前記動画像取得部によって取得された画像を順次入力して、前記画像から特徴点の検出および追跡を行う特徴点検出追跡部と、
前記動画像取得部の撮影位置を外部から測定する位置測定部と、
前記動画像取得部の撮影姿勢を外部から測定する姿勢測定部と、
前記動画像取得部によって取得された動画像、前記特徴点検出追跡部によって検出および追跡された特徴点、前記位置測定部によって測定された撮影位置、および前記姿勢測定部によって測定された撮影姿勢を入力して、前記動画像の撮影位置および撮影姿勢からなる外部標定要素および前記特徴点の三次元座標を計算する計算処理部と、を備えた位置測定装置であって、
前記計算処理部は、初期画像中の既知点または前記位置測定部によって測定された撮影位置および/または前記姿勢測定部によって測定された撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出部と、
前記初期値算出部で用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出部と、
前記外部標定要素算出部によって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価部と、
前記外部標定要素評価部によって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整部と、
前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出部と、を備え、
前記外部標定要素算出部から前記三次元座標算出部までの処理を、最終画像になるまで繰り返すことを特徴とする位置測定装置。
A moving image acquisition unit that acquires a moving image captured by relatively moving the object and the imaging unit little by little;
A feature point detection tracking unit that sequentially inputs images acquired by the moving image acquisition unit and detects and tracks feature points from the image;
A position measurement unit for measuring the shooting position of the moving image acquisition unit from the outside;
A posture measuring unit for measuring the photographing posture of the moving image acquiring unit from the outside;
The moving image acquired by the moving image acquisition unit, the feature point detected and tracked by the feature point detection tracking unit, the shooting position measured by the position measurement unit, and the shooting posture measured by the posture measurement unit. A position measurement device comprising: an external orientation element including a shooting position and a shooting posture of the moving image and a calculation processing unit that calculates a three-dimensional coordinate of the feature point;
The calculation processing unit is an external orientation element including a shooting position and a shooting posture based on a known point in an initial image or a shooting position measured by the position measurement unit and / or a shooting posture measured by the posture measurement unit. An initial value calculation unit for calculating an initial value of
An external orientation element calculation unit that calculates an external orientation element based on a known point in the moving image following the initial image used in the initial value calculation unit or a feature point that has already been given three-dimensional coordinates;
The external orientation element calculated by the external orientation element calculation unit is at least one of the direction of the trajectory of the feature point, the amount of the trajectory of the feature point, the distribution rate of the feature points, the overlap rate of the feature points, and the vertical parallax. An external orientation element evaluation unit that evaluates based on
Based on the external orientation element modified by the external orientation element evaluation unit, a bundle adjustment unit that simultaneously bundle adjusts the external orientation element and the three-dimensional coordinates of the feature points in one or a plurality of images,
Based on the bundle-adjusted external orientation element, a three-dimensional coordinate calculation unit that calculates the three-dimensional coordinates of the feature points newly detected in the region where the density of the feature points is reduced, and
A position measuring apparatus that repeats the processing from the external orientation element calculation unit to the three-dimensional coordinate calculation unit until a final image is obtained.
JP2008172737A 2008-07-01 2008-07-01 POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM Expired - Fee Related JP5027747B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008172737A JP5027747B2 (en) 2008-07-01 2008-07-01 POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
EP09773518.7A EP2309225A4 (en) 2008-07-01 2009-07-01 Position measurement method, position measurement device, and program
PCT/JP2009/062067 WO2010001940A1 (en) 2008-07-01 2009-07-01 Position measurement method, position measurement device, and program
US12/980,839 US8811718B2 (en) 2008-07-01 2010-12-29 Position measurement method, position measurement device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008172737A JP5027747B2 (en) 2008-07-01 2008-07-01 POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2010014450A JP2010014450A (en) 2010-01-21
JP5027747B2 true JP5027747B2 (en) 2012-09-19

Family

ID=41700702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008172737A Expired - Fee Related JP5027747B2 (en) 2008-07-01 2008-07-01 POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5027747B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2960082B1 (en) * 2010-05-17 2012-08-10 Commissariat Energie Atomique METHOD AND SYSTEM FOR MERGING DATA FROM IMAGE SENSORS AND MOTION OR POSITION SENSORS
JP2012202942A (en) * 2011-03-28 2012-10-22 Casio Comput Co Ltd Three-dimensional modeling device, three-dimensional modeling method, and program
JP5762131B2 (en) * 2011-05-23 2015-08-12 三菱電機株式会社 CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM
US20130016186A1 (en) * 2011-07-13 2013-01-17 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
JP5768684B2 (en) 2011-11-29 2015-08-26 富士通株式会社 Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP6135972B2 (en) * 2012-10-29 2017-05-31 国際航業株式会社 Orientation method, orientation program, and orientation device
JP5561843B1 (en) * 2013-01-07 2014-07-30 株式会社amuse oneself Control device, surveying system, program, recording medium, and measuring method
JP6510247B2 (en) * 2015-01-27 2019-05-08 株式会社トプコン Survey data processing apparatus, survey data processing method and program
JP6506031B2 (en) * 2015-01-28 2019-04-24 株式会社トプコン Survey data processing apparatus, survey data processing method and program
US10803600B2 (en) 2015-09-30 2020-10-13 Sony Corporation Information processing device, information processing method, and program
JP6332699B2 (en) * 2015-10-13 2018-05-30 株式会社amuse oneself Surveying equipment
JP6489655B2 (en) * 2016-02-08 2019-03-27 Kddi株式会社 Camera calibration apparatus, method and program
JP6493885B2 (en) 2016-03-15 2019-04-03 富士フイルム株式会社 Image alignment apparatus, method of operating image alignment apparatus, and image alignment program
JP6930058B2 (en) * 2017-09-04 2021-09-01 国際航業株式会社 Vehicle position acquisition system and vehicle position acquisition method
CN112444187B (en) * 2019-08-28 2022-09-06 千寻位置网络有限公司 Deformation monitoring method and device
CN112504137B (en) * 2020-12-07 2022-07-26 北京智博联科技股份有限公司 Multi-target digital image detection method based on cloud computing
CN114061472B (en) * 2021-11-03 2024-03-19 常州市建筑科学研究院集团股份有限公司 Method for correcting measurement coordinate error based on target
CN116772739B (en) * 2023-06-20 2024-01-23 北京控制工程研究所 Deformation monitoring method and device in large-size structure vacuum environment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4012225B2 (en) * 2005-08-29 2007-11-21 有三 大西 Displacement measuring method and displacement measuring apparatus
JP2007147522A (en) * 2005-11-29 2007-06-14 Gazo Keisoku Kenkyusho:Kk Photogrammetry and photogrammetry program
JP5134784B2 (en) * 2006-05-30 2013-01-30 株式会社パスコ Aerial photogrammetry
JP4800163B2 (en) * 2006-09-29 2011-10-26 株式会社トプコン Position measuring apparatus and method

Also Published As

Publication number Publication date
JP2010014450A (en) 2010-01-21

Similar Documents

Publication Publication Date Title
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
JP5027746B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
WO2010001940A1 (en) Position measurement method, position measurement device, and program
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
JP4889351B2 (en) Image processing apparatus and processing method thereof
CN108171733B (en) Method of registering two or more three-dimensional 3D point clouds
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
JP5362189B2 (en) Image processing apparatus and processing method thereof
JP5100360B2 (en) Image processing device
US10109104B2 (en) Generation of 3D models of an environment
JP3732335B2 (en) Image input apparatus and image input method
JP2008089314A (en) Position measuring apparatus and its method
CN113551665B (en) High-dynamic motion state sensing system and sensing method for motion carrier
JP6291519B2 (en) Method of assigning actual dimensions to 3D point cloud data and position measurement of pipes etc. using it
JP6061770B2 (en) Camera posture estimation apparatus and program thereof
US11222433B2 (en) 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JP2018155664A (en) Imaging system, imaging control method, image processing device, and image processing program
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP5267100B2 (en) Motion estimation apparatus and program
WO2020175621A1 (en) Camera calibration information acquisition device, image processing device, camera calibration information acquisition method, and recording medium
US11019245B2 (en) Bundle adjustment system
JP6734994B2 (en) Stereo measuring device and system
JP2005275789A (en) Three-dimensional structure extraction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120622

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5027747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees