JP2005189055A - Image measuring method and system - Google Patents
Image measuring method and system Download PDFInfo
- Publication number
- JP2005189055A JP2005189055A JP2003429608A JP2003429608A JP2005189055A JP 2005189055 A JP2005189055 A JP 2005189055A JP 2003429608 A JP2003429608 A JP 2003429608A JP 2003429608 A JP2003429608 A JP 2003429608A JP 2005189055 A JP2005189055 A JP 2005189055A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- measurement
- distance
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は画像を利用した計測方法及び装置に関し、特に画像をもとに距離データを推定するデータ処理を効率的かつ精度よく行う方式に関する。 The present invention relates to a measurement method and apparatus using an image, and more particularly to a method for efficiently and accurately performing data processing for estimating distance data based on an image.
2次元画像情報をもとに、3次元情報を構成する手法としては、例えば特許文献1に記載のように、複数の2次元画像とそれらの対応点の情報をもとに射影幾何に基づいて算出する方法が提案されている。この方法は、デジタルカメラの普及と低価格化により、高い精度で比較的安価に実施できるようになり、土木・建築、およびプラント機器の計測の分野などで広く普及している。しかしながら、この方法は、プラント内部の配管長など、込み入った部位の3次元形状と距離を認識するためには、対応点の設定や、マーカの準備に大きな労力を要するという問題があった。
As a method for constructing three-dimensional information based on two-dimensional image information, for example, as described in
この問題を解決するため、従来、コンピュータグラフィックス用途に研究されてきた、ビデオカメラを用いて撮影された動画像を用いて3次元データを生成する方法が提案されている。この方法は、例えば特許文献2に記載のように、動画の各フレームデータの2次元画像データをもとに、特徴点のオプティカルフローを追跡することにより複数の2次元画像データ中の対応点を自動抽出し、対応点設定のデータ処理を自動化するものである。
In order to solve this problem, a method of generating three-dimensional data using a moving image photographed using a video camera, which has been studied for computer graphics, has been proposed. In this method, as described in
この対応点のデータを用いて、動画像から抽出された複数の2次元画像データを複数カメラが同一の対象を撮影した画像と同等と考えれば、例えば特許文献1にみられるように、エピポーラ拘束と射影幾何計算を用いることにより3次元形状を計算することができる。さらに、レファレンス画像の距離の絶対値が与えられれば、3次元形状の絶対座標として与えることができる。
If it is considered that a plurality of two-dimensional image data extracted from a moving image is equivalent to an image obtained by photographing the same object using the data of the corresponding points, as shown in
しかし、動画像中のフレームは多数存在するので、3次元形状計算の収束の速度と精度の両面において、適切なフレームの選択の如何が大きな影響を及ぼす。また、自動的追跡によって得られた対応点が、100%正解とは限らない。 However, since there are a large number of frames in the moving image, the selection of an appropriate frame greatly affects both the convergence speed and accuracy of the three-dimensional shape calculation. Also, the corresponding points obtained by automatic tracking are not always 100% correct.
本発明の目的は、信頼度の高い対応点を持ち、かつ、レファレンス距離を含み、さらに3次元形状計算にとって適切なフレームを動画像中から選択することにより、簡易で精度の高い3次元計測方法及びシステムを提供することにある。 An object of the present invention is to provide a simple and highly accurate three-dimensional measurement method by selecting a frame having a highly reliable corresponding point, including a reference distance, and suitable for three-dimensional shape calculation from a moving image. And providing a system.
上記目的を達成するための本発明は、複数の画像フレームの画像データを解析して画像中の対象距離を計測する画像計測方法において、前記複数の画像フレームから計測対象部分を包含した所定フレームを選択し、前記計測対象部分と基準距離部分を同一画面上で設定すると共に基準距離を入力し、他の画像フレームにおける計測対象部分を自動追跡することにより推定して、対象距離を計算することを特徴とする。 In order to achieve the above object, the present invention provides an image measurement method for measuring a target distance in an image by analyzing image data of a plurality of image frames, including a predetermined frame including a measurement target portion from the plurality of image frames. Selecting and setting the measurement target part and the reference distance part on the same screen and inputting the reference distance, and automatically estimating the measurement target part in another image frame to calculate the target distance Features.
前記自動追跡は、画像フレーム間の特徴点の画像中の位置の変化をトレースすることにより推定する(オプティカルフロー解析)。また、この推定結果に基いて最適フレームを選択し、この最適フレーム上で3次元距離計算を行う。 The automatic tracking is estimated by tracing a change in the position of a feature point in an image between image frames (optical flow analysis). Further, an optimal frame is selected based on the estimation result, and a three-dimensional distance calculation is performed on the optimal frame.
前記最適フレームの選択の結果、対応点に誤りがある場合は対応点修正入力により再びフレーム間での対応点の推定を行う。 If there is an error in the corresponding point as a result of the selection of the optimum frame, the corresponding point between the frames is estimated again by the corresponding point correction input.
本発明の画像計測装置は、複数の画像フレームの画像データを解析処理して画像中の対象距離を計測するものであって、所定の画像フレームにおける計測対象部分と基準距離部分を同一画面上で設定しかつ基準距離を入力するインターフェースと、他のフレーム画像中における計測対象部分を画像フレーム間の特徴点の画像中の位置の変化を追跡することにより推定するフレーム間対応線推定処理部と、追跡された計測対象部分と基準距離部分の重心の変化の大きいフ画像レームを最適計算により選択する最適フレーム選択処理部と、選択された最適フレーム上で距離計算を行う3次元距離計算処理部を設けることを特徴とする。 An image measurement apparatus according to the present invention analyzes image data of a plurality of image frames and measures a target distance in an image. The measurement target portion and a reference distance portion in a predetermined image frame are displayed on the same screen. An interface for setting and inputting a reference distance; an inter-frame corresponding line estimation processing unit for estimating a measurement target portion in another frame image by tracking a change in a position of a feature point between image frames; An optimal frame selection processing unit that selects a frame image having a large change in the center of gravity of the tracked measurement target portion and the reference distance portion by optimal calculation, and a three-dimensional distance calculation processing unit that performs distance calculation on the selected optimal frame. It is characterized by providing.
また、前記インターフェースを用いて初期設定した画像フレームにおける計測対象部分と基準距離部分に対応する他のフレームの計測対象部分と基準距離部分との追跡の結果を確認する確認インターフェースを設けることを特徴とする。 And a confirmation interface for confirming a result of tracking the measurement target portion and the reference distance portion of another frame corresponding to the measurement target portion and the reference distance portion in the image frame initially set using the interface, To do.
本発明によれば、信頼度の高い対応点と基準距離の入力により、3次元形状計算にとって適切な動画フレームを選択できるので、精度が高く使い勝手のよい画像計測方式を実現できる。 According to the present invention, a moving image frame suitable for three-dimensional shape calculation can be selected by inputting a corresponding point with high reliability and a reference distance, so that it is possible to realize a highly accurate and easy-to-use image measurement method.
以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の第1の実施形態に係る3次元計測装置の構成を示すブロック図、図2は3次元計測装置のシステム構成を示す図である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the three-dimensional measurement apparatus according to the first embodiment of the present invention, and FIG. 2 is a diagram showing the system configuration of the three-dimensional measurement apparatus.
画像データ初期設定部1はビデオ画像入力処理部14、ビデオ画像記憶部17、計測対象線データ入力処理部15、基準線データ入力処理部16、計測対象線データ記憶部18、基準線データ記憶部19から形成されている。
The image data
ビデオ画像データ11はビデオ画像入力装置30により、動画像データとして入力される。動画像の形式は、AVI、MPEG、QuickTimeなどでタイムスタンプつきの2次元データ画像データとする。これは、文献「音声・動画・文書ファイル形式の達人になる本−MP3/UMA/MPEG/QT/WAVE/AVI…ファイルの仕組みと変換方法(I/O別冊、第一IO編集部編纂)」に記述されている。
The video image data 11 is input as moving image data by the video
ビデオ画像入力処理部14では、必要に応じて動画のうち3次元計測に利用する範囲を動画のコマ送りなどで限定する。こうして入力された動画は、物理的には磁器ディスク装置31に保存され、メモリ上では、ビデオ画像記憶部17に保持される。
In the video image
図3に保持された動画のフレームデータの例を示す。動画は、図3(a)、(b)のように、各時刻ごとの2次元画像情報として記憶される。図中の点Aと点A'、およびBとB'とが2つのフレームの間で同じ位置をとった対応点である。各フレームの2次元画像の形式は、グレースケールの白黒、24ビットフルカラー、16色カラーなど、以後の特徴抽出に適切な任意のフォーマットとする。 FIG. 3 shows an example of the frame data of the moving image held. As shown in FIGS. 3A and 3B, the moving image is stored as two-dimensional image information for each time. Point A and point A ′, and B and B ′ in the figure are corresponding points at the same position between the two frames. The format of the two-dimensional image of each frame is an arbitrary format suitable for subsequent feature extraction, such as grayscale monochrome, 24-bit full color, or 16 color.
次に、計測対象線データ入力処理部15において、ディスプレイ34上に動画の適切なフレームを選択し、キーボード32やマウス33などを用いて、計測対象線12を入力設定する。
Next, in the measurement target line data
図5に計測対象線を入力するインターフェースの例を示す。図示のように、計測対象部位を包含したフレームを選択表示し、通常のドローイングソフトと同様の要領で、計測対象の部位に対して重ね書きすることで計測対象部位を設定する。設定された計測対象線(点線)は、ビデオ画像記憶部17に記憶された、画像フレームのタイムスタンプと、タイムスタンプに対応する2次元画像データの始点、終点の座標情報の組として、計測対象線データ記憶部18に記憶される。
FIG. 5 shows an example of an interface for inputting a measurement target line. As shown in the figure, a frame including the measurement target part is selected and displayed, and the measurement target part is set by overwriting the measurement target part in the same manner as normal drawing software. The set measurement target line (dotted line) is a measurement target as a set of the time stamp of the image frame stored in the video
同様に、基準線データ入力処理部16において、ディスプレイ34上に動画の適切なフレームを選択し、キーボード32やマウス33などを用いて、基準線データ13を入力設定する。
Similarly, the reference line data
図6に基準線を入力するインターフェースの例を示す。図示のように、基準線部位を包含したフレームを選択表示し、通常のドローイングソフトと同様の要領で、基準線の部位に対して重ね書きすることで基準線対象部位を設定する。さらに、マウス33などで右クリックすることによりサブウインドウを表示し、基準線の長さを図示のように設定する。設定された基準線の始点、終点のフレーム上の位置座標、及びは基準線は、基準線データ記憶部19に記憶される。
FIG. 6 shows an example of an interface for inputting a reference line. As shown in the figure, a frame including the reference line part is selected and displayed, and the reference line target part is set by overwriting the reference line part in the same manner as normal drawing software. Further, a sub window is displayed by right-clicking with the
以上の処理や記憶は、計算機プログラム内部で実現される機能であり、C++などのプログラム言語で記述され、通常は、磁気ディスク装置31に保存されている。プログラムが起動されると、プログラムはメモリ35に割り当てられ、各種の演算がCPU36(中央演算装置)、メモリ35などを用いて実行される。なお、プログラムは専用のメモリにあらかじめ格納しておいても良いし、プログラムの機能は各機能毎に専用のCPUを用いて実行するように構成しても良い。
The above processing and storage are functions realized in the computer program, are described in a program language such as C ++, and are normally stored in the
3次元距離計算部2はフレーム間対応線推定処理部22、最適フレーム選択処理部24、フレーム対応線データ入力処理部23、3次元距離計算処理部25、距離計算結果記憶部26から形成されている。
The three-dimensional
フレーム間対応線推定処理部22は、計測対象線データ記憶部18から入力された計測対象線のデータ、及び基準線データ記憶部19から入力された基準線のデータをもとに、各点の対応を推定する。すなわち、ビデオ画像記憶部17から入力された各画像フレーム中で、計測対象線上の各点と基準線上の各点とが、どのように対応するかを推定する。
The inter-frame correspondence line
図7に、対応点推定処理の内容を模式的に示す。図中71、72、73は、ビデオ画像データのそれぞれタイムスタンプtk,tk+1, tk+2の2次元画像データを示しており、71は、基準線、及び、計測対象線を定義したフレームの2次元画像データである。また、72、73は、71フレームから連続するフレームの2次元画像データである。図中の点線矢印は、71のフレームにおいて設定され基準線と計測対象線の端点の対応点をフレーム対応線推定処理22で推定した結果、フレーム72およびフレーム73で、どの点と対応するかを推定して結果を示している。
FIG. 7 schematically shows the content of the corresponding point estimation process. In the figure,
このような対応線の推定処理は、オプティカルフローの解析と呼ばれる公知の方法で実現可能である。たとえば、非特許文献2の第13章:移動物体検出に記載のようにウエーブレット解析を用いる方法や、特開平5−34608号公報に記載のように、特徴点を見いだして、時間勾配法で解析する方法である。
Such a corresponding line estimation process can be realized by a known method called optical flow analysis. For example, a method using wavelet analysis as described in Chapter 13: Moving object detection of
本実施例においては、計測対象線データ入力処理部15、基準線データ入力処理部16において、設定された線に対応する現画像のフレームの特徴抽出をフレーム間対応線推定処理部22によって実行する。この特徴量の合致する線を上記文献のオプティカルフロー解析により追跡することで、精度よく、対応点を見出すことが可能である。例えば、線の長さ、線の部分の色調、明るさ、および、線の端の点に対応するエッジを追跡する。
In this embodiment, in the measurement target line data
2次元画像中で8点以上の対応がつき、その中の2点間の距離を指定すれば、3次元の絶対座標に復元できることは非特許文献1に示される通りである。この場合、指定されたフレーム中の基準線の端点の2点、及び計測対象線の2点に加えて、残り4点の対応関係を推定できれば、フレーム間対応線推定処理部22によって、理論的には3次元の絶対座標に変換することができる。残り4点の選定の仕方としては、基準線または、計測対象線を合計で2本増やすか、フレーム間対応線推定処理部22において、特徴点の自動抽出をすることによって、残り4点の対応関係を認識する手法が考えられる。特徴点の自動抽出によりフレーム間の対応線をする技術は、例えば、非特許文献2の第13章「移動物体検出」に記述された方法によっても可能である。
As shown in
しかし、フレーム間対応線推定処理部22において、ある程度の誤差が生じることは不可避である。また、対応点がとれたフレームのうち、どのフレームを使うかにより、誤差が変わってくる。さらに、冗長に1枚以上の対応点を含んだフレーム対応点を利用することにより、精度を向上できることが、非特許文献1に示されている。
However, it is inevitable that a certain amount of error occurs in the inter-frame correspondence line
このようなことから、最適フレーム選択処理部24において、フレーム間推定処理22において基準線や計測対象線との対応がとれたフレームの中で、精度よく、3次元絶対座標に変換するためのフレームを1枚以上選択する。この選択されたフレームについては、フレーム間対応線データ入力処理部21において、ユーザが確認し、必要に応じて訂正入力をおこなう。これにより、すべてのフレームについて、対応線の確認、訂正作業を行う場合と比べて、精度を落とさずに、大幅にユーザの手間を減らすことができる。
For this reason, in the optimal frame
図8に訂正入力のためのインターフェースの例を示す。右側に最適フレームとして選択されたフレームが小さく表示されており、この中から誤りと思われるものを選択して、左側の画面により通常のドローイングソフトと同じ要領で、消しゴムや、基準線などの操作アイコンを選択しながら訂正入力を実施する。 FIG. 8 shows an example of an interface for correction input. The frame selected as the optimal frame on the right side is displayed in a small size. Select the one that seems to be wrong from this, and operate the eraser, reference line, etc. in the same way as normal drawing software on the left side screen Make corrections while selecting the icon.
特徴点や線の追跡は、通常、フレームのタイムスタンプに従って順次実行されるため、途中で対応線のずれが生じると、その後のタイムスタンプにすれが伝播していく。このため、修正結果を図8のインターフェースから入力し、保存ボタンを押した後、図中右下の追跡ボタンを押すと、ユーザの修正結果を反映して、フレーム間対応線推定処理部22において対応線の追跡が実行される。再計算の結果、選択するべきフレームが変わることも有り得るので、最適フレーム選択処理部24において最適なフレームを選択しなおし、再度、フレーム間対応線データ入力処理部23において、ユーザの訂正入力を実行する。
Since the tracking of feature points and lines is normally performed sequentially according to the time stamp of the frame, if a corresponding line shifts in the middle, the blur propagates to subsequent time stamps. For this reason, after inputting the correction result from the interface of FIG. 8, pressing the save button, and then pressing the tracking button at the lower right in the figure, the inter-frame correspondence line
このような確認・修正作業は、訂正入力が終了するまで、実施され、訂正入力が終了した後、図8のインターフェースにおいて、訂正完了ボタンを押すことにより終了する。 Such confirmation / correction work is carried out until the correction input is completed, and after the correction input is completed, the correction is completed by pressing a correction completion button in the interface of FIG.
3次元距離計算処理部25においては、選択されたフレームの画像データと、基準線と計測対象線の対応関係のデータをもとに、3次元計算をおこなう。そして、最適フレーム選択処理部24において選択されたフレームに包含された画像に対する3次元の絶対座標と、計測対象線の算出距離を距離計算結果記憶部26に記憶する。
In the three-dimensional distance
以下に発明のキーとなる最適フレーム選択処理と、3次元距離計算について数式を用いて、一般的な同次座標系をもとに説明する。同時座標系(m1,m2,m3)の点はm3≠0の時、画像座標は数1の点に相当する。ただし、fは、0でない任意の点とする。
The optimum frame selection process and the three-dimensional distance calculation, which are the keys of the invention, will be described below using a mathematical expression based on a general homogeneous coordinate system. The point of the simultaneous coordinate system (m1, m2, m3) corresponds to the
これは、物理的には、図9のように、(XYZ)座標系の原点OからZ軸方向に垂直な平面Z=fによって、(X,Y,Z)の点が射影される点の、図中の原点Oとする射影面での座標に相当する。 Physically, as shown in FIG. 9, the point (X, Y, Z) is projected by the plane Z = f perpendicular to the Z-axis direction from the origin O of the (XYZ) coordinate system. This corresponds to the coordinates on the projection plane with the origin O in the figure.
また、同時座標系(m1,m2,m3)の線とは、画像平面上の数2の直線に対応する。
The lines of the simultaneous coordinate system (m1, m2, m3) correspond to the
さらに、同時座標系の座標をベクトルと考え、ベクトルとして正規化したものをNベクトルと呼ぶ。例えば、画面座標上の点(a,b)のNベクトルmは数2となる。
Further, the coordinate of the simultaneous coordinate system is considered as a vector, and a normalized vector is called an N vector. For example, the N vector m of the point (a, b) on the screen coordinates is expressed by
まず、8点以上の対応点が2つのフレームで決まり、かつ、その中の2点の長さの絶対値がわかっている場合、3次元絶対座標空間上での点の位置の構成方法について説明する。ただし、カメラの補正はすでに実施ずみとする。カメラの補正については、例えば文献「3次元ビジョン;第6章(共立出版、辻三郎、徐 剛著)」の方法により実行することができる。 First, when two or more corresponding points are determined by two frames and the absolute values of the lengths of the two points are known, a method for constructing the positions of the points in the three-dimensional absolute coordinate space will be described. To do. However, camera correction has already been implemented. The correction of the camera can be performed by, for example, the method described in the document “3D Vision; Chapter 6 (Kyoritsu Shuppan, Saburo Tsuji, Author Tsuyoshi Tsuyoshi)”.
カメラ補正済みのN組の対応点のNベクトルを{mα}と{m’α}(α=0,…,N(Nは8以上))で表し、m0,m1間の距離Dがすでに設定されているとする。 The N vectors of the N pairs of camera-corrected points are represented by {mα} and {m′α} (α = 0, ..., N (N is 8 or more)), and the distance D between m0 and m1 is already set. Suppose that
図10に、3次元絶対座標の計算手順を示す。ステップ200で対応点データ{mα}、{m’α}と、計測対照線データ、基準線データを読み込む。ステップ201で、これらのデータから複数のフレームにおけるカメラの回転Rと並進のベクトルhを計算する。ステップ202でカメラまでの絶対距離rを計算する。ステップ203で、これらの算出結果から対応点の3次元絶対座標を算出する。
FIG. 10 shows a calculation procedure of the three-dimensional absolute coordinates. In
図11は、カメラの回転行列R、並進ベクトルhの算出手順を示す。この手順は、非特許文献1の第4章に記載された内容に準拠して記述したものである。
FIG. 11 shows the calculation procedure of the camera rotation matrix R and translation vector h. This procedure is described in accordance with the contents described in Chapter 4 of
ステップ300においては、まず並進ベクトルhと回転行列Rを求めるために、G=(h×r1,h×r2,h×r3)として定義される基本行列G計算する。ここで、r1,r2,r3は、回転行列Rの第一、二、第三列の列ベクトルであり、×はベクトルの外積である。このとき、理論的には、各αについて、元の点と対応点を基本行列で変換したものの内積が0となる。つまり、(mαGm’α)=0となる。
In
実際には、測定および計算誤差があるため、すべての点でこの内積が0となるようなGを決めることはできないため、各対応点での内積の和を最小にするようなGを求める。また、これだけでは、Gの定数倍だけの不定性が出るので、Tr(GGT)=2とする。ここで、Trは行列のトレースを表し、仮に並進ベクトルの大きさを1に規格化するための条件である。このようにして求めたGをG*とおく。このようなG*は、最小固有値を求める問題に帰着させる方法などで数値的に解くことができる。 Actually, since there is a measurement and calculation error, it is not possible to determine G such that this inner product becomes 0 at all points. Therefore, G that minimizes the sum of inner products at each corresponding point is obtained. Further, since only this will cause indefiniteness of a constant multiple of G, Tr (GG T ) = 2. Here, Tr represents a matrix trace, and is a condition for normalizing the size of the translation vector to 1. The G thus obtained is set as G * . Such G * can be numerically solved by a method that reduces to the problem of obtaining the minimum eigenvalue.
ステップ301においては、こうして求まった基本行列G*を用いて、大きさ1に規格化された併進ベクトルh*を以下のように求める。G*の列ベクトルをg1 * ,g2 * ,g3 *とするとき、数3により、Σα=1,…,3(gi * , ,h)2→最小、かつ||h||=1となる単位ベクトルhを最小2乗法により求め、これをh*とする。
In
これは非特許文献1のpp105〜106に示されているように、特異値分解などにより求めることができる。符号は下記の条件により定める。
Σα=1,…,N [h* mα Gm’α] >0 (左辺の記号[ ]はスカラ3重積)
次に、ステップ302においては、こうして求まった規格化された並進h*を用いて回転行列Rを以下のように求める。
Σα=1,…,3 ||h*×ri、−gi *||2 →最小、となるR=(r1,r2,r3)を求めるR*とする。これは、たとえば、最小2乗法により数値的に解くことができる。
This can be obtained by singular value decomposition or the like, as shown in pp105 to 106 of
Σα = 1, ..., N [h * mαGm'α]> 0 (Left side symbol [] is a scalar triple product)
Next, in
Σα = 1,..., 3 || h * × r i , −g i * || 2 → minimum R = (r 1, r 2, r 3 ) is determined as R * . This can be solved numerically by, for example, the least square method.
ここまでは、並進ベクトルと回転行列が、スケールの不定性を残した形で求まったが、共にスケールは1に規格化されているため、相互の相対的な大きさが定まっていない。これを求めるため、ステップ303においては各対応点からカメラ中心までの距離をr*α,r’*α,(α=0,…,N)とすると、これを以下の式で求めることができる。
r*α mα=r’*αR*m’α−h (α=0,…,N)
この結果、r*α,r’*αは数4のように求まる。
Up to this point, the translation vector and the rotation matrix have been obtained in a form that leaves the indefiniteness of the scale, but since the scales are both standardized, their relative sizes are not fixed. In order to obtain this, in
r * α mα = r ′ * αR * m′α−h (α = 0,..., N)
As a result, r * α and r ′ * α are obtained as in Expression 4.
この結果、求める回転ベクトルと並進ベクトル、および各対応点とカメラ中心までの距離は、不定値kを残して以下のように求まる。 As a result, the rotation vector and translation vector to be obtained, and the distance from each corresponding point to the camera center are obtained as follows, leaving the indefinite value k.
R=R*, h=h*
rα=kr*α ,r’α=kr’*α
そこで、最後に、距離のわかっている点m0,m1を用いて、kの絶対値を以下のように求める。
R = R * , h = h *
rα = kr * α, r′α = kr ′ * α
Therefore, finally, using the points m 0 and m 1 whose distances are known, the absolute value of k is obtained as follows.
|kr* 0 m0,−kr* 1 m1|=D
ただし、Dはm0,m1間の指定された距離である。この式から、すでに求まっているrα,r’αを用いれば、kを求めることができる。
| Kr * 0 m 0, -kr * 1
Here, D is a specified distance between m 0 and m 1 . From this equation, k can be obtained by using already obtained rα, r′α.
複数の基準となる長さがある場合には各距離の値が、整合するように最適なkを最小2乗法などで求めればよい。 When there are a plurality of reference lengths, the optimum k may be obtained by the least square method or the like so that the distance values match.
これらにより、並進ベクトルhおよび回転行列Rが求まれば、数5により、画像上の対応点から3次元の絶対空間上の座標xを計算することができ、計測対象線の端点間の距離も、求めることができる。 Thus, when the translation vector h and the rotation matrix R are obtained, the coordinate x in the three-dimensional absolute space can be calculated from the corresponding point on the image by Equation 5, and the distance between the end points of the measurement target line is also calculated. Can be sought.
以上は、非特許文献1に記載の方法を利用したカメラの回転行列R、並進ベクトルhの算出手順であった。これに対し、本実施例では、最適フレーム選択処理部24(図1)において、フレームを自動選択して提示することにより、ユーザの対応線の確認処理の手間を減らすとともに、精度を向上することができる。
The above is the procedure for calculating the rotation matrix R and the translation vector h of the camera using the method described in
フレームの自動選択の方法として考慮すべき事としては、これまでの定式化において並進ベクトルhの値が十分大きい必要があるということである。また、複数のフレームを用いて精度を上げるためには、いろいろな方向からのフレームを利用した方が利用する情報量を増やすことである。 What should be considered as a method for automatic frame selection is that the value of the translation vector h needs to be sufficiently large in the previous formulation. In order to improve the accuracy by using a plurality of frames, it is necessary to increase the amount of information used by using frames from various directions.
回転だけで並進のない場合には、2次元画面上の重心点は変化しない。従って、フレームの重心点の変化の大きいものを選択する方法が考えられる。一方では、見る方向が大きく変われば、各点の対応点の変化をベクトル化したときに、方向の変化のばらつきが大きくなることが考えられる。 When there is no translation only by rotation, the center of gravity on the two-dimensional screen does not change. Therefore, a method of selecting a frame having a large change in the center of gravity of the frame can be considered. On the other hand, if the viewing direction changes greatly, it is conceivable that the variation in the direction change becomes large when the change of the corresponding point of each point is vectorized.
図12は、以上の考え方に基づいたフレームの自動選択の手順を示したものである。ステップ400では各フレームの対応点の重心を計算し、その対応点をフレームのタイムスタンプの順序で順序づけた点列とみなす。
FIG. 12 shows a procedure for automatic frame selection based on the above concept. In
ステップ401では、例えば非特許文献3のp62に記述されている動的計画法によって、あらかじめ初期設定した本数の折れ線で近似する。折れ線の端点に対応したフレームが、最適フレームの候補となる。
In
図13に重心の点列の例と、点列を折れ線近似したものを示す。白丸は、折れ線の端点であり、この白丸の点に対応するフレームが最適フレームの候補となる。 FIG. 13 shows an example of a point sequence of the center of gravity and an approximation of the point sequence by a broken line. A white circle is an end point of the broken line, and a frame corresponding to the white circle is a candidate for the optimum frame.
ステップ402では、最適フレームの候補の中から、3次元計算に用いる最適フレーム2つを選択する。このために、最適フレームの候補の2つの組み合わせの全てについて、N個の対応点を画像の座標上で結んだときの方向ベクトルの向きφmを計算し、この分散のもっとも大きい組み合わせを最適フレームとする。
In
図14は、φmの計算処理を示したもので、図中に最適フレームの候補の2つ(仮にフレームF1、F2とする)における対応点の位置を同じフレーム画面において示している。図中の黒丸(点AからH)がフレームF1における対応点の座標であり、白丸がそれに対応するF2における座標で、A'はAに、B'はBにそれぞれ対応している。図中に示したように、これら対応点の組を結んで、フレーム画像の水平軸方向にたいする傾きをφmとする。この場合は、8個の対応点のφmの分散値を計算する。このような分散値の計算を全ての最適候補フレームの組み合わせに対して計算し、最大の分散値をもつフレームの組み合わせを最適フレームとする。 FIG. 14 shows the calculation process of φ m , and the positions of corresponding points in two optimal frame candidates (assumed to be frames F1 and F2) are shown on the same frame screen. The black circles (points A to H) in the figure are the coordinates of the corresponding points in the frame F1, the white circles are the coordinates in F2 corresponding thereto, A ′ corresponds to A, and B ′ corresponds to B. As shown in the figure, the set of these corresponding points is connected, and the inclination of the frame image in the horizontal axis direction is φ m . In this case, the variance value of φ m of 8 corresponding points is calculated. Such calculation of the variance value is calculated for all combinations of optimum candidate frames, and the combination of frames having the maximum variance value is determined as the optimum frame.
ステップ403において、ステップ401で選択された最適フレームの候補および,ステップ402で選択された最適フレームをフレーム間対応線データ入力処理部に出力する。
In
図4は、以上説明した処理の流れの概要をまとめて記述したものである。ステップ100では利用するビデオ画像データを読み込む。この処理は、ビデオ画像入力処理部14で実施される。次に、計測対象線データの設定(101)、基準線データの設定をする(102)。ステップ101は、計測対象線データ入力処理部15で、ステップ102は、基準線データ入力処理部16で実施される。
FIG. 4 summarizes the process flow described above. In
これらの入力に基づき、フレーム間対応点推定処理(103)がフレーム間対応線推定処理部22で実施される。この処理結果をもとに、最適フレーム選択処理(104)を最適フレーム選択処理部24で実施する。ここで選択された最適フレームの候補について、フレーム間対応線データ入力処理部23で、対応線推定処理結果が提示され、フレーム間対応線の誤りがあれば(105)、フレーム間対応点修正入力処理を実施する(106)。
Based on these inputs, an inter-frame corresponding point estimation process (103) is performed by the inter-frame corresponding line
このステップ103〜106までの処理は、誤りがなくなるまで繰り返される。もし、誤りがなくなれば、最適フレーム選択処理部24で設定した最適フレームを用いて3次元距離計算処理部25は3次元距離計算処理を実施し(107)、計算結果が登録される(108)。
The processing from
本発明は、建築工事や、製品の寸法検査の計測において、簡易な計測方法を与えるもので、広く活用され得る。 INDUSTRIAL APPLICABILITY The present invention provides a simple measurement method in building work and measurement of product dimensional inspection, and can be widely used.
1…画像データ初期設定部、2…3次元距離計算部、14…ビデオ画像入力処理部、15…計測対象線入力処理部、16…基準線データ入力処理部、22…フレーム間対応線推定処理部、23…フレーム間対応線データ入力処理部、24…最適フレーム選択処理部、25…3次元距離計算処理部、26…距離計算結果記憶部、30…ビデオ画像入力装置、31…磁気ディスク装置、34…ディスプレイ、35…メモリ、36…CPU。
DESCRIPTION OF
Claims (7)
前記複数の画像フレームから計測対象部分を包含した所定フレームを選択し、前記計測対象部分と基準距離部分を同一画面上で設定すると共に基準距離を入力し、他の画像フレームにおける計測対象部分を自動追跡することにより推定して、対象距離を計算することを特徴とする画像計測方法。 In an image measurement method for analyzing image data of a plurality of image frames and measuring a target distance in an image,
A predetermined frame including a measurement target portion is selected from the plurality of image frames, the measurement target portion and a reference distance portion are set on the same screen, a reference distance is input, and measurement target portions in other image frames are automatically set. An image measurement method characterized by calculating an object distance by estimating by tracking.
時系列の画像フレームでなる動画像データを読み込み、計測対象部分を包含した所定フレームを選択し、該所定フレームに計測線対象部分、基準距離部分を座標設定すると共に基準線データを入力し、前記計測線対象部分に設定された座標に対する他の画像フレームでの対応点を、画像フレーム間の特徴点の画像中の位置の変化を自動追跡することにより推定し、この推定結果に基いて最適フレームを選択し、前記最適フレーム上で3次元距離計算を行うことを特徴とする画像計測方法。 In an image measurement method for analyzing image data of a plurality of image frames and measuring a target distance in an image,
Read moving image data consisting of time-series image frames, select a predetermined frame including the measurement target portion, set the coordinates of the measurement line target portion and the reference distance portion in the predetermined frame and input the reference line data, Corresponding points in other image frames with respect to the coordinates set in the measurement line target part are estimated by automatically tracking the change in the position of the feature points in the image between the image frames. And measuring the three-dimensional distance on the optimum frame.
所定の画像フレームにおける計測対象部分と基準距離部分を同一画面上で設定し、かつ基準距離を入力するインターフェースと、他のフレーム画像中における計測対象部分を画像フレーム間の特徴点の画像中の位置の変化を追跡することにより推定するフレーム間対応線推定処理部と、追跡された計測対象部分と基準距離部分の重心の変化の大きいフレームを最適計算により選択する最適フレーム選択処理部と、選択された最適フレーム上で距離計算を行う3次元距離計算処理部を設けることを特徴とする画像計測装置。 In an image measurement apparatus that analyzes image data of a plurality of image frames and measures a target distance in an image,
An interface for setting a measurement target portion and a reference distance portion in a predetermined image frame on the same screen and inputting the reference distance, and a position in the image of a feature point between image frames for the measurement target portion in another frame image An inter-frame correspondence line estimation processing unit that estimates by tracking a change in data, and an optimal frame selection processing unit that selects a frame with a large change in the center of gravity of the tracked measurement target portion and the reference distance portion by optimal calculation. An image measuring apparatus comprising a three-dimensional distance calculation processing unit for calculating a distance on the optimum frame.
The image measurement apparatus according to claim 6, wherein the confirmation interface displays and outputs a display frame for confirming the optimum frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003429608A JP4369221B2 (en) | 2003-12-25 | 2003-12-25 | Image measuring method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003429608A JP4369221B2 (en) | 2003-12-25 | 2003-12-25 | Image measuring method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005189055A true JP2005189055A (en) | 2005-07-14 |
JP4369221B2 JP4369221B2 (en) | 2009-11-18 |
Family
ID=34788210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003429608A Expired - Fee Related JP4369221B2 (en) | 2003-12-25 | 2003-12-25 | Image measuring method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4369221B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11100699B2 (en) | 2019-02-15 | 2021-08-24 | Olympus Corporation | Measurement method, measurement device, and recording medium |
US11250640B2 (en) | 2019-02-01 | 2022-02-15 | Olympus Corporation | Measurement method, measurement device, and recording medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09326029A (en) * | 1996-06-04 | 1997-12-16 | Fujitsu Ltd | Three-dimensional measuring method and device |
JP2001004372A (en) * | 1999-06-16 | 2001-01-12 | Asahi Optical Co Ltd | Photogrammetry image processing device and method therefor, and memory media for storing program thereof |
-
2003
- 2003-12-25 JP JP2003429608A patent/JP4369221B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09326029A (en) * | 1996-06-04 | 1997-12-16 | Fujitsu Ltd | Three-dimensional measuring method and device |
JP2001004372A (en) * | 1999-06-16 | 2001-01-12 | Asahi Optical Co Ltd | Photogrammetry image processing device and method therefor, and memory media for storing program thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11250640B2 (en) | 2019-02-01 | 2022-02-15 | Olympus Corporation | Measurement method, measurement device, and recording medium |
US11100699B2 (en) | 2019-02-15 | 2021-08-24 | Olympus Corporation | Measurement method, measurement device, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP4369221B2 (en) | 2009-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6940047B2 (en) | Computer-based rebar measurement and inspection system and rebar measurement and inspection method | |
US10354402B2 (en) | Image processing apparatus and image processing method | |
JP5248806B2 (en) | Information processing apparatus and information processing method | |
US11568601B2 (en) | Real-time hand modeling and tracking using convolution models | |
US20150310617A1 (en) | Display control device and display control method | |
US10311576B2 (en) | Image processing device and image processing method | |
US9881417B2 (en) | Multi-view drawing apparatus of three-dimensional objects, and method | |
JP2006214893A (en) | Computer software program for measuring three-dimensional shape of object using object measuring method and computer system | |
JP5499261B2 (en) | Image processing device | |
JP2020134242A (en) | Measuring method, measuring device and program | |
US11145048B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program | |
JP4369221B2 (en) | Image measuring method and apparatus | |
JP2019106008A (en) | Estimation device, estimation method, and estimation program | |
CN113345057A (en) | Method and apparatus for generating animated character, and storage medium | |
JP2009122998A (en) | Method for extracting outline from solid/surface model, and computer software program | |
CN114694257A (en) | Multi-user real-time three-dimensional action recognition and evaluation method, device, equipment and medium | |
JP2002008014A (en) | Method and device for extracting three-dimensional shape, and recording medium | |
US20200034650A1 (en) | Measurement apparatus, measurement method, and computer-readable recording medium storing measurement program | |
CN113140031A (en) | Three-dimensional image modeling system and method and oral cavity scanning equipment applying same | |
CN113593049B (en) | Virtual-real fusion method for geometric consistency of real object and virtual object in scene | |
JP7274782B1 (en) | STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING | |
US20230215040A1 (en) | Method and system for tracking a cad model in real time based on particle filters | |
JPH10269380A (en) | Automatic perspective drawing three-dimensional nurb curved line storing method and its device | |
Einizinab et al. | Global localization for Mixed Reality visualization using wireframe extraction from images | |
CN118397185A (en) | Mask image batch generation method applied to rapid three-dimensional reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061117 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20061117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090224 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090825 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090827 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120904 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |