JP2005189055A - Image measuring method and system - Google Patents

Image measuring method and system Download PDF

Info

Publication number
JP2005189055A
JP2005189055A JP2003429608A JP2003429608A JP2005189055A JP 2005189055 A JP2005189055 A JP 2005189055A JP 2003429608 A JP2003429608 A JP 2003429608A JP 2003429608 A JP2003429608 A JP 2003429608A JP 2005189055 A JP2005189055 A JP 2005189055A
Authority
JP
Japan
Prior art keywords
image
frame
measurement
distance
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003429608A
Other languages
Japanese (ja)
Other versions
JP4369221B2 (en
Inventor
Takayasu Kasahara
孝保 笠原
Hisahiro Kusumi
尚弘 楠見
Masaki Kaneda
昌基 金田
Hiroshi Sakata
浩志 阪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003429608A priority Critical patent/JP4369221B2/en
Publication of JP2005189055A publication Critical patent/JP2005189055A/en
Application granted granted Critical
Publication of JP4369221B2 publication Critical patent/JP4369221B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional measuring method and a system which do not require experts' knowledge and are simple and highly accurate. <P>SOLUTION: The three-dimensional measuring system is provided with: a processing part 22 for estimating corresponding lines between frames by using a large number of continuous frame images made of video images and automatically tracking corresponding points; and an optimum frame selection processing part 24 for selecting appropriate representative frames from among the large number of continuous frame images. The three-dimensional measuring system is further provided with a processing part 23 for inputting data on the corresponding lines between frames capable of verifying and modifying the corresponding points of selected images in order to facilitate the work of verifying the corresponding points and making computation processing highly accurate. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は画像を利用した計測方法及び装置に関し、特に画像をもとに距離データを推定するデータ処理を効率的かつ精度よく行う方式に関する。   The present invention relates to a measurement method and apparatus using an image, and more particularly to a method for efficiently and accurately performing data processing for estimating distance data based on an image.

2次元画像情報をもとに、3次元情報を構成する手法としては、例えば特許文献1に記載のように、複数の2次元画像とそれらの対応点の情報をもとに射影幾何に基づいて算出する方法が提案されている。この方法は、デジタルカメラの普及と低価格化により、高い精度で比較的安価に実施できるようになり、土木・建築、およびプラント機器の計測の分野などで広く普及している。しかしながら、この方法は、プラント内部の配管長など、込み入った部位の3次元形状と距離を認識するためには、対応点の設定や、マーカの準備に大きな労力を要するという問題があった。   As a method for constructing three-dimensional information based on two-dimensional image information, for example, as described in Patent Document 1, based on projective geometry based on information on a plurality of two-dimensional images and their corresponding points. A calculation method has been proposed. This method can be implemented with high accuracy and at a relatively low price due to the popularization and low price of digital cameras, and is widely used in the fields of civil engineering / architecture and measurement of plant equipment. However, this method has a problem that a large amount of labor is required for setting corresponding points and preparing markers in order to recognize the three-dimensional shape and distance of complicated parts such as the pipe length inside the plant.

この問題を解決するため、従来、コンピュータグラフィックス用途に研究されてきた、ビデオカメラを用いて撮影された動画像を用いて3次元データを生成する方法が提案されている。この方法は、例えば特許文献2に記載のように、動画の各フレームデータの2次元画像データをもとに、特徴点のオプティカルフローを追跡することにより複数の2次元画像データ中の対応点を自動抽出し、対応点設定のデータ処理を自動化するものである。   In order to solve this problem, a method of generating three-dimensional data using a moving image photographed using a video camera, which has been studied for computer graphics, has been proposed. In this method, as described in Patent Document 2, for example, the corresponding points in a plurality of two-dimensional image data are obtained by tracking the optical flow of feature points based on the two-dimensional image data of each frame data of the moving image. It automatically extracts and automates data processing for setting corresponding points.

この対応点のデータを用いて、動画像から抽出された複数の2次元画像データを複数カメラが同一の対象を撮影した画像と同等と考えれば、例えば特許文献1にみられるように、エピポーラ拘束と射影幾何計算を用いることにより3次元形状を計算することができる。さらに、レファレンス画像の距離の絶対値が与えられれば、3次元形状の絶対座標として与えることができる。   If it is considered that a plurality of two-dimensional image data extracted from a moving image is equivalent to an image obtained by photographing the same object using the data of the corresponding points, as shown in Patent Document 1, for example, epipolar constraint And a three-dimensional shape can be calculated by using projective geometry calculation. Furthermore, if the absolute value of the distance of the reference image is given, it can be given as absolute coordinates of a three-dimensional shape.

特表2002−517712公報Special table 2002-517712 gazette

特開平9−326029号公報Japanese Patent Laid-Open No. 9-326029 画像理解−3次元認識の数理(森北出版、金谷健一著)Image comprehension-Mathematics of three-dimensional recognition ウエーブレット画像解析(科学技術出版、新島耕一著)Wavelet image analysis (Science & Technology Publishing, written by Koichi Niijima) パターン認識(朝倉書店、大津 他著)Pattern recognition (Asakura Shoten, Otsu et al.)

しかし、動画像中のフレームは多数存在するので、3次元形状計算の収束の速度と精度の両面において、適切なフレームの選択の如何が大きな影響を及ぼす。また、自動的追跡によって得られた対応点が、100%正解とは限らない。   However, since there are a large number of frames in the moving image, the selection of an appropriate frame greatly affects both the convergence speed and accuracy of the three-dimensional shape calculation. Also, the corresponding points obtained by automatic tracking are not always 100% correct.

本発明の目的は、信頼度の高い対応点を持ち、かつ、レファレンス距離を含み、さらに3次元形状計算にとって適切なフレームを動画像中から選択することにより、簡易で精度の高い3次元計測方法及びシステムを提供することにある。   An object of the present invention is to provide a simple and highly accurate three-dimensional measurement method by selecting a frame having a highly reliable corresponding point, including a reference distance, and suitable for three-dimensional shape calculation from a moving image. And providing a system.

上記目的を達成するための本発明は、複数の画像フレームの画像データを解析して画像中の対象距離を計測する画像計測方法において、前記複数の画像フレームから計測対象部分を包含した所定フレームを選択し、前記計測対象部分と基準距離部分を同一画面上で設定すると共に基準距離を入力し、他の画像フレームにおける計測対象部分を自動追跡することにより推定して、対象距離を計算することを特徴とする。   In order to achieve the above object, the present invention provides an image measurement method for measuring a target distance in an image by analyzing image data of a plurality of image frames, including a predetermined frame including a measurement target portion from the plurality of image frames. Selecting and setting the measurement target part and the reference distance part on the same screen and inputting the reference distance, and automatically estimating the measurement target part in another image frame to calculate the target distance Features.

前記自動追跡は、画像フレーム間の特徴点の画像中の位置の変化をトレースすることにより推定する(オプティカルフロー解析)。また、この推定結果に基いて最適フレームを選択し、この最適フレーム上で3次元距離計算を行う。   The automatic tracking is estimated by tracing a change in the position of a feature point in an image between image frames (optical flow analysis). Further, an optimal frame is selected based on the estimation result, and a three-dimensional distance calculation is performed on the optimal frame.

前記最適フレームの選択の結果、対応点に誤りがある場合は対応点修正入力により再びフレーム間での対応点の推定を行う。   If there is an error in the corresponding point as a result of the selection of the optimum frame, the corresponding point between the frames is estimated again by the corresponding point correction input.

本発明の画像計測装置は、複数の画像フレームの画像データを解析処理して画像中の対象距離を計測するものであって、所定の画像フレームにおける計測対象部分と基準距離部分を同一画面上で設定しかつ基準距離を入力するインターフェースと、他のフレーム画像中における計測対象部分を画像フレーム間の特徴点の画像中の位置の変化を追跡することにより推定するフレーム間対応線推定処理部と、追跡された計測対象部分と基準距離部分の重心の変化の大きいフ画像レームを最適計算により選択する最適フレーム選択処理部と、選択された最適フレーム上で距離計算を行う3次元距離計算処理部を設けることを特徴とする。   An image measurement apparatus according to the present invention analyzes image data of a plurality of image frames and measures a target distance in an image. The measurement target portion and a reference distance portion in a predetermined image frame are displayed on the same screen. An interface for setting and inputting a reference distance; an inter-frame corresponding line estimation processing unit for estimating a measurement target portion in another frame image by tracking a change in a position of a feature point between image frames; An optimal frame selection processing unit that selects a frame image having a large change in the center of gravity of the tracked measurement target portion and the reference distance portion by optimal calculation, and a three-dimensional distance calculation processing unit that performs distance calculation on the selected optimal frame. It is characterized by providing.

また、前記インターフェースを用いて初期設定した画像フレームにおける計測対象部分と基準距離部分に対応する他のフレームの計測対象部分と基準距離部分との追跡の結果を確認する確認インターフェースを設けることを特徴とする。   And a confirmation interface for confirming a result of tracking the measurement target portion and the reference distance portion of another frame corresponding to the measurement target portion and the reference distance portion in the image frame initially set using the interface, To do.

本発明によれば、信頼度の高い対応点と基準距離の入力により、3次元形状計算にとって適切な動画フレームを選択できるので、精度が高く使い勝手のよい画像計測方式を実現できる。   According to the present invention, a moving image frame suitable for three-dimensional shape calculation can be selected by inputting a corresponding point with high reliability and a reference distance, so that it is possible to realize a highly accurate and easy-to-use image measurement method.

以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の第1の実施形態に係る3次元計測装置の構成を示すブロック図、図2は3次元計測装置のシステム構成を示す図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the three-dimensional measurement apparatus according to the first embodiment of the present invention, and FIG. 2 is a diagram showing the system configuration of the three-dimensional measurement apparatus.

画像データ初期設定部1はビデオ画像入力処理部14、ビデオ画像記憶部17、計測対象線データ入力処理部15、基準線データ入力処理部16、計測対象線データ記憶部18、基準線データ記憶部19から形成されている。   The image data initial setting unit 1 includes a video image input processing unit 14, a video image storage unit 17, a measurement target line data input processing unit 15, a reference line data input processing unit 16, a measurement target line data storage unit 18, and a reference line data storage unit. 19.

ビデオ画像データ11はビデオ画像入力装置30により、動画像データとして入力される。動画像の形式は、AVI、MPEG、QuickTimeなどでタイムスタンプつきの2次元データ画像データとする。これは、文献「音声・動画・文書ファイル形式の達人になる本−MP3/UMA/MPEG/QT/WAVE/AVI…ファイルの仕組みと変換方法(I/O別冊、第一IO編集部編纂)」に記述されている。   The video image data 11 is input as moving image data by the video image input device 30. The moving image format is two-dimensional data image data with a time stamp such as AVI, MPEG, or QuickTime. This is the document "Book to become a master of audio, video, and document file formats-MP3 / UMA / MPEG / QT / WAVE / AVI ... file mechanism and conversion method (I / O separate volume, edited by 1st IO Editor)" It is described in.

ビデオ画像入力処理部14では、必要に応じて動画のうち3次元計測に利用する範囲を動画のコマ送りなどで限定する。こうして入力された動画は、物理的には磁器ディスク装置31に保存され、メモリ上では、ビデオ画像記憶部17に保持される。   In the video image input processing unit 14, a range used for three-dimensional measurement of the moving image is limited by moving frames of the moving image as necessary. The moving image thus input is physically stored in the porcelain disk device 31 and is stored in the video image storage unit 17 on the memory.

図3に保持された動画のフレームデータの例を示す。動画は、図3(a)、(b)のように、各時刻ごとの2次元画像情報として記憶される。図中の点Aと点A'、およびBとB'とが2つのフレームの間で同じ位置をとった対応点である。各フレームの2次元画像の形式は、グレースケールの白黒、24ビットフルカラー、16色カラーなど、以後の特徴抽出に適切な任意のフォーマットとする。   FIG. 3 shows an example of the frame data of the moving image held. As shown in FIGS. 3A and 3B, the moving image is stored as two-dimensional image information for each time. Point A and point A ′, and B and B ′ in the figure are corresponding points at the same position between the two frames. The format of the two-dimensional image of each frame is an arbitrary format suitable for subsequent feature extraction, such as grayscale monochrome, 24-bit full color, or 16 color.

次に、計測対象線データ入力処理部15において、ディスプレイ34上に動画の適切なフレームを選択し、キーボード32やマウス33などを用いて、計測対象線12を入力設定する。   Next, in the measurement target line data input processing unit 15, an appropriate frame of the moving image is selected on the display 34, and the measurement target line 12 is input and set using the keyboard 32, the mouse 33, and the like.

図5に計測対象線を入力するインターフェースの例を示す。図示のように、計測対象部位を包含したフレームを選択表示し、通常のドローイングソフトと同様の要領で、計測対象の部位に対して重ね書きすることで計測対象部位を設定する。設定された計測対象線(点線)は、ビデオ画像記憶部17に記憶された、画像フレームのタイムスタンプと、タイムスタンプに対応する2次元画像データの始点、終点の座標情報の組として、計測対象線データ記憶部18に記憶される。   FIG. 5 shows an example of an interface for inputting a measurement target line. As shown in the figure, a frame including the measurement target part is selected and displayed, and the measurement target part is set by overwriting the measurement target part in the same manner as normal drawing software. The set measurement target line (dotted line) is a measurement target as a set of the time stamp of the image frame stored in the video image storage unit 17 and the coordinate information of the start point and end point of the two-dimensional image data corresponding to the time stamp. It is stored in the line data storage unit 18.

同様に、基準線データ入力処理部16において、ディスプレイ34上に動画の適切なフレームを選択し、キーボード32やマウス33などを用いて、基準線データ13を入力設定する。   Similarly, the reference line data input processing unit 16 selects an appropriate frame of the moving image on the display 34 and inputs and sets the reference line data 13 using the keyboard 32, the mouse 33, and the like.

図6に基準線を入力するインターフェースの例を示す。図示のように、基準線部位を包含したフレームを選択表示し、通常のドローイングソフトと同様の要領で、基準線の部位に対して重ね書きすることで基準線対象部位を設定する。さらに、マウス33などで右クリックすることによりサブウインドウを表示し、基準線の長さを図示のように設定する。設定された基準線の始点、終点のフレーム上の位置座標、及びは基準線は、基準線データ記憶部19に記憶される。   FIG. 6 shows an example of an interface for inputting a reference line. As shown in the figure, a frame including the reference line part is selected and displayed, and the reference line target part is set by overwriting the reference line part in the same manner as normal drawing software. Further, a sub window is displayed by right-clicking with the mouse 33 or the like, and the length of the reference line is set as shown. The start point, the end point position coordinates on the frame, and the reference line that have been set are stored in the reference line data storage unit 19.

以上の処理や記憶は、計算機プログラム内部で実現される機能であり、C++などのプログラム言語で記述され、通常は、磁気ディスク装置31に保存されている。プログラムが起動されると、プログラムはメモリ35に割り当てられ、各種の演算がCPU36(中央演算装置)、メモリ35などを用いて実行される。なお、プログラムは専用のメモリにあらかじめ格納しておいても良いし、プログラムの機能は各機能毎に専用のCPUを用いて実行するように構成しても良い。   The above processing and storage are functions realized in the computer program, are described in a program language such as C ++, and are normally stored in the magnetic disk device 31. When the program is activated, the program is allocated to the memory 35, and various calculations are executed using the CPU 36 (central processing unit), the memory 35, and the like. The program may be stored in advance in a dedicated memory, or the function of the program may be configured to be executed using a dedicated CPU for each function.

3次元距離計算部2はフレーム間対応線推定処理部22、最適フレーム選択処理部24、フレーム対応線データ入力処理部23、3次元距離計算処理部25、距離計算結果記憶部26から形成されている。   The three-dimensional distance calculation unit 2 includes an inter-frame correspondence line estimation processing unit 22, an optimum frame selection processing unit 24, a frame correspondence line data input processing unit 23, a three-dimensional distance calculation processing unit 25, and a distance calculation result storage unit 26. Yes.

フレーム間対応線推定処理部22は、計測対象線データ記憶部18から入力された計測対象線のデータ、及び基準線データ記憶部19から入力された基準線のデータをもとに、各点の対応を推定する。すなわち、ビデオ画像記憶部17から入力された各画像フレーム中で、計測対象線上の各点と基準線上の各点とが、どのように対応するかを推定する。   The inter-frame correspondence line estimation processing unit 22 is based on the measurement target line data input from the measurement target line data storage unit 18 and the reference line data input from the reference line data storage unit 19. Estimate the correspondence. That is, how each point on the measurement target line corresponds to each point on the reference line in each image frame input from the video image storage unit 17 is estimated.

図7に、対応点推定処理の内容を模式的に示す。図中71、72、73は、ビデオ画像データのそれぞれタイムスタンプtk,tk+1, tk+2の2次元画像データを示しており、71は、基準線、及び、計測対象線を定義したフレームの2次元画像データである。また、72、73は、71フレームから連続するフレームの2次元画像データである。図中の点線矢印は、71のフレームにおいて設定され基準線と計測対象線の端点の対応点をフレーム対応線推定処理22で推定した結果、フレーム72およびフレーム73で、どの点と対応するかを推定して結果を示している。 FIG. 7 schematically shows the content of the corresponding point estimation process. In the figure, reference numerals 71, 72, and 73 denote two-dimensional image data of time stamps t k , t k + 1 , and t k + 2 of the video image data, respectively, and 71 denotes a reference line and a measurement target line. 2D image data of a defined frame. Reference numerals 72 and 73 are two-dimensional image data of frames continuing from 71 frames. The dotted line arrows in the figure indicate which point corresponds to the frame 72 and the frame 73 as a result of estimating the corresponding points of the end points of the reference line and the measurement target line by the frame corresponding line estimation processing 22 set in the 71 frame. Estimated results are shown.

このような対応線の推定処理は、オプティカルフローの解析と呼ばれる公知の方法で実現可能である。たとえば、非特許文献2の第13章:移動物体検出に記載のようにウエーブレット解析を用いる方法や、特開平5−34608号公報に記載のように、特徴点を見いだして、時間勾配法で解析する方法である。   Such a corresponding line estimation process can be realized by a known method called optical flow analysis. For example, a method using wavelet analysis as described in Chapter 13: Moving object detection of Non-Patent Document 2 or a feature point as described in Japanese Patent Application Laid-Open No. 5-34608 is used. It is a method of analysis.

本実施例においては、計測対象線データ入力処理部15、基準線データ入力処理部16において、設定された線に対応する現画像のフレームの特徴抽出をフレーム間対応線推定処理部22によって実行する。この特徴量の合致する線を上記文献のオプティカルフロー解析により追跡することで、精度よく、対応点を見出すことが可能である。例えば、線の長さ、線の部分の色調、明るさ、および、線の端の点に対応するエッジを追跡する。   In this embodiment, in the measurement target line data input processing unit 15 and the reference line data input processing unit 16, the feature extraction of the frame of the current image corresponding to the set line is executed by the inter-frame corresponding line estimation processing unit 22. . It is possible to find a corresponding point with high accuracy by tracking the line where the feature amount matches by the optical flow analysis of the above document. For example, track the length of the line, the color of the portion of the line, the brightness, and the edge corresponding to the end point of the line.

2次元画像中で8点以上の対応がつき、その中の2点間の距離を指定すれば、3次元の絶対座標に復元できることは非特許文献1に示される通りである。この場合、指定されたフレーム中の基準線の端点の2点、及び計測対象線の2点に加えて、残り4点の対応関係を推定できれば、フレーム間対応線推定処理部22によって、理論的には3次元の絶対座標に変換することができる。残り4点の選定の仕方としては、基準線または、計測対象線を合計で2本増やすか、フレーム間対応線推定処理部22において、特徴点の自動抽出をすることによって、残り4点の対応関係を認識する手法が考えられる。特徴点の自動抽出によりフレーム間の対応線をする技術は、例えば、非特許文献2の第13章「移動物体検出」に記述された方法によっても可能である。   As shown in Non-Patent Document 1, it is possible to restore three-dimensional absolute coordinates by specifying eight points or more in a two-dimensional image and specifying a distance between the two points. In this case, if the correspondence of the remaining four points in addition to the two endpoints of the reference line in the designated frame and the two points to be measured can be estimated, the inter-frame correspondence line estimation processing unit 22 will theoretically Can be converted into three-dimensional absolute coordinates. The remaining four points can be selected by adding two reference lines or measurement target lines in total, or by automatically extracting feature points in the inter-frame corresponding line estimation processing unit 22 to cope with the remaining four points. A method of recognizing the relationship can be considered. For example, the technique of creating a correspondence line between frames by automatically extracting feature points can be performed by the method described in Chapter 13 “Detection of moving object” of Non-Patent Document 2.

しかし、フレーム間対応線推定処理部22において、ある程度の誤差が生じることは不可避である。また、対応点がとれたフレームのうち、どのフレームを使うかにより、誤差が変わってくる。さらに、冗長に1枚以上の対応点を含んだフレーム対応点を利用することにより、精度を向上できることが、非特許文献1に示されている。   However, it is inevitable that a certain amount of error occurs in the inter-frame correspondence line estimation processing unit 22. Further, the error varies depending on which frame is used among the frames having corresponding points. Furthermore, Non-Patent Document 1 shows that accuracy can be improved by using frame corresponding points that include one or more corresponding points redundantly.

このようなことから、最適フレーム選択処理部24において、フレーム間推定処理22において基準線や計測対象線との対応がとれたフレームの中で、精度よく、3次元絶対座標に変換するためのフレームを1枚以上選択する。この選択されたフレームについては、フレーム間対応線データ入力処理部21において、ユーザが確認し、必要に応じて訂正入力をおこなう。これにより、すべてのフレームについて、対応線の確認、訂正作業を行う場合と比べて、精度を落とさずに、大幅にユーザの手間を減らすことができる。   For this reason, in the optimal frame selection processing unit 24, a frame for accurately converting to a three-dimensional absolute coordinate among the frames in which the correspondence between the reference line and the measurement target line is taken in the inter-frame estimation processing 22. Select one or more. The selected frame is checked by the user in the inter-frame correspondence line data input processing unit 21 and correction input is performed as necessary. As a result, compared to the case where the corresponding line is confirmed and corrected for all frames, it is possible to greatly reduce the user's effort without degrading the accuracy.

図8に訂正入力のためのインターフェースの例を示す。右側に最適フレームとして選択されたフレームが小さく表示されており、この中から誤りと思われるものを選択して、左側の画面により通常のドローイングソフトと同じ要領で、消しゴムや、基準線などの操作アイコンを選択しながら訂正入力を実施する。   FIG. 8 shows an example of an interface for correction input. The frame selected as the optimal frame on the right side is displayed in a small size. Select the one that seems to be wrong from this, and operate the eraser, reference line, etc. in the same way as normal drawing software on the left side screen Make corrections while selecting the icon.

特徴点や線の追跡は、通常、フレームのタイムスタンプに従って順次実行されるため、途中で対応線のずれが生じると、その後のタイムスタンプにすれが伝播していく。このため、修正結果を図8のインターフェースから入力し、保存ボタンを押した後、図中右下の追跡ボタンを押すと、ユーザの修正結果を反映して、フレーム間対応線推定処理部22において対応線の追跡が実行される。再計算の結果、選択するべきフレームが変わることも有り得るので、最適フレーム選択処理部24において最適なフレームを選択しなおし、再度、フレーム間対応線データ入力処理部23において、ユーザの訂正入力を実行する。   Since the tracking of feature points and lines is normally performed sequentially according to the time stamp of the frame, if a corresponding line shifts in the middle, the blur propagates to subsequent time stamps. For this reason, after inputting the correction result from the interface of FIG. 8, pressing the save button, and then pressing the tracking button at the lower right in the figure, the inter-frame correspondence line estimation processing unit 22 reflects the correction result of the user. Corresponding line tracking is performed. As a result of the recalculation, the frame to be selected may change. Therefore, the optimum frame selection processing unit 24 reselects the optimum frame, and the interframe correspondence line data input processing unit 23 again executes the user correction input. To do.

このような確認・修正作業は、訂正入力が終了するまで、実施され、訂正入力が終了した後、図8のインターフェースにおいて、訂正完了ボタンを押すことにより終了する。   Such confirmation / correction work is carried out until the correction input is completed, and after the correction input is completed, the correction is completed by pressing a correction completion button in the interface of FIG.

3次元距離計算処理部25においては、選択されたフレームの画像データと、基準線と計測対象線の対応関係のデータをもとに、3次元計算をおこなう。そして、最適フレーム選択処理部24において選択されたフレームに包含された画像に対する3次元の絶対座標と、計測対象線の算出距離を距離計算結果記憶部26に記憶する。   In the three-dimensional distance calculation processing unit 25, three-dimensional calculation is performed based on the image data of the selected frame and the data on the correspondence between the reference line and the measurement target line. Then, the three-dimensional absolute coordinates for the image included in the frame selected by the optimum frame selection processing unit 24 and the calculated distance of the measurement target line are stored in the distance calculation result storage unit 26.

以下に発明のキーとなる最適フレーム選択処理と、3次元距離計算について数式を用いて、一般的な同次座標系をもとに説明する。同時座標系(m1,m2,m3)の点はm3≠0の時、画像座標は数1の点に相当する。ただし、fは、0でない任意の点とする。   The optimum frame selection process and the three-dimensional distance calculation, which are the keys of the invention, will be described below using a mathematical expression based on a general homogeneous coordinate system. The point of the simultaneous coordinate system (m1, m2, m3) corresponds to the equation 1 when m3 ≠ 0. However, f is an arbitrary point other than 0.

Figure 2005189055
Figure 2005189055

これは、物理的には、図9のように、(XYZ)座標系の原点OからZ軸方向に垂直な平面Z=fによって、(X,Y,Z)の点が射影される点の、図中の原点Oとする射影面での座標に相当する。   Physically, as shown in FIG. 9, the point (X, Y, Z) is projected by the plane Z = f perpendicular to the Z-axis direction from the origin O of the (XYZ) coordinate system. This corresponds to the coordinates on the projection plane with the origin O in the figure.

また、同時座標系(m1,m2,m3)の線とは、画像平面上の数2の直線に対応する。   The lines of the simultaneous coordinate system (m1, m2, m3) correspond to the number 2 straight line on the image plane.

Figure 2005189055
Figure 2005189055

さらに、同時座標系の座標をベクトルと考え、ベクトルとして正規化したものをNベクトルと呼ぶ。例えば、画面座標上の点(a,b)のNベクトルmは数2となる。   Further, the coordinate of the simultaneous coordinate system is considered as a vector, and a normalized vector is called an N vector. For example, the N vector m of the point (a, b) on the screen coordinates is expressed by Equation 2.

まず、8点以上の対応点が2つのフレームで決まり、かつ、その中の2点の長さの絶対値がわかっている場合、3次元絶対座標空間上での点の位置の構成方法について説明する。ただし、カメラの補正はすでに実施ずみとする。カメラの補正については、例えば文献「3次元ビジョン;第6章(共立出版、辻三郎、徐 剛著)」の方法により実行することができる。   First, when two or more corresponding points are determined by two frames and the absolute values of the lengths of the two points are known, a method for constructing the positions of the points in the three-dimensional absolute coordinate space will be described. To do. However, camera correction has already been implemented. The correction of the camera can be performed by, for example, the method described in the document “3D Vision; Chapter 6 (Kyoritsu Shuppan, Saburo Tsuji, Author Tsuyoshi Tsuyoshi)”.

カメラ補正済みのN組の対応点のNベクトルを{mα}と{m’α}(α=0,…,N(Nは8以上))で表し、m0,m1間の距離Dがすでに設定されているとする。   The N vectors of the N pairs of camera-corrected points are represented by {mα} and {m′α} (α = 0, ..., N (N is 8 or more)), and the distance D between m0 and m1 is already set. Suppose that

図10に、3次元絶対座標の計算手順を示す。ステップ200で対応点データ{mα}、{m’α}と、計測対照線データ、基準線データを読み込む。ステップ201で、これらのデータから複数のフレームにおけるカメラの回転Rと並進のベクトルhを計算する。ステップ202でカメラまでの絶対距離rを計算する。ステップ203で、これらの算出結果から対応点の3次元絶対座標を算出する。   FIG. 10 shows a calculation procedure of the three-dimensional absolute coordinates. In step 200, corresponding point data {mα}, {m′α}, measurement reference line data, and reference line data are read. In step 201, a camera rotation R and a translation vector h in a plurality of frames are calculated from these data. In step 202, the absolute distance r to the camera is calculated. In step 203, the three-dimensional absolute coordinates of the corresponding points are calculated from these calculation results.

図11は、カメラの回転行列R、並進ベクトルhの算出手順を示す。この手順は、非特許文献1の第4章に記載された内容に準拠して記述したものである。   FIG. 11 shows the calculation procedure of the camera rotation matrix R and translation vector h. This procedure is described in accordance with the contents described in Chapter 4 of Non-Patent Document 1.

ステップ300においては、まず並進ベクトルhと回転行列Rを求めるために、G=(h×r1,h×r2,h×r)として定義される基本行列G計算する。ここで、r1,r2,rは、回転行列Rの第一、二、第三列の列ベクトルであり、×はベクトルの外積である。このとき、理論的には、各αについて、元の点と対応点を基本行列で変換したものの内積が0となる。つまり、(mαGm’α)=0となる。 In step 300, first, in order to obtain the translation vector h and the rotation matrix R, a basic matrix G defined as G = (h × r 1, h × r 2, h × r 3 ) is calculated. Here, r 1, r 2, r 3 are column vectors of the first, second, and third columns of the rotation matrix R, and x is an outer product of the vectors. At this time, theoretically, for each α, the inner product of the original point and the corresponding point converted by the basic matrix is zero. That is, (mαGm′α) = 0.

実際には、測定および計算誤差があるため、すべての点でこの内積が0となるようなGを決めることはできないため、各対応点での内積の和を最小にするようなGを求める。また、これだけでは、Gの定数倍だけの不定性が出るので、Tr(GG)=2とする。ここで、Trは行列のトレースを表し、仮に並進ベクトルの大きさを1に規格化するための条件である。このようにして求めたGをGとおく。このようなGは、最小固有値を求める問題に帰着させる方法などで数値的に解くことができる。 Actually, since there is a measurement and calculation error, it is not possible to determine G such that this inner product becomes 0 at all points. Therefore, G that minimizes the sum of inner products at each corresponding point is obtained. Further, since only this will cause indefiniteness of a constant multiple of G, Tr (GG T ) = 2. Here, Tr represents a matrix trace, and is a condition for normalizing the size of the translation vector to 1. The G thus obtained is set as G * . Such G * can be numerically solved by a method that reduces to the problem of obtaining the minimum eigenvalue.

ステップ301においては、こうして求まった基本行列Gを用いて、大きさ1に規格化された併進ベクトルhを以下のように求める。Gの列ベクトルをg1 g2 g3 とするとき、数3により、Σα=1,…,3(gi h)→最小、かつ||h||=1となる単位ベクトルhを最小2乗法により求め、これをhとする。 In step 301, using the basic matrix G * thus obtained, a translation vector h * normalized to a magnitude of 1 is obtained as follows. G * g 1 * a column vector, g 2 *, when the g 3 *, the number 3, Σα = 1, ..., 3 (g i *,, h) 2 → Min, and || h || A unit vector h satisfying = 1 is obtained by the method of least squares, and this is defined as h * .

Figure 2005189055
Figure 2005189055

これは非特許文献1のpp105〜106に示されているように、特異値分解などにより求めることができる。符号は下記の条件により定める。
Σα=1,…,N [h mα Gm’α] >0 (左辺の記号[ ]はスカラ3重積)
次に、ステップ302においては、こうして求まった規格化された並進hを用いて回転行列Rを以下のように求める。
Σα=1,…,3 ||h×ri、−gi || →最小、となるR=(r1,r2,r3)を求めるRとする。これは、たとえば、最小2乗法により数値的に解くことができる。
This can be obtained by singular value decomposition or the like, as shown in pp105 to 106 of Non-Patent Document 1. The code is determined according to the following conditions.
Σα = 1, ..., N [h * mαGm'α]> 0 (Left side symbol [] is a scalar triple product)
Next, in step 302, the rotation matrix R is obtained as follows using the standardized translation h * thus obtained.
Σα = 1,..., 3 || h * × r i , −g i * || 2 → minimum R = (r 1, r 2, r 3 ) is determined as R * . This can be solved numerically by, for example, the least square method.

ここまでは、並進ベクトルと回転行列が、スケールの不定性を残した形で求まったが、共にスケールは1に規格化されているため、相互の相対的な大きさが定まっていない。これを求めるため、ステップ303においては各対応点からカメラ中心までの距離をrα,r’α,(α=0,…,N)とすると、これを以下の式で求めることができる。
α mα=r’αRm’α−h (α=0,…,N)
この結果、rα,r’αは数4のように求まる。
Up to this point, the translation vector and the rotation matrix have been obtained in a form that leaves the indefiniteness of the scale, but since the scales are both standardized, their relative sizes are not fixed. In order to obtain this, in step 303, if the distance from each corresponding point to the camera center is r * α, r ′ * α, (α = 0,..., N), this can be obtained by the following equation. .
r * α mα = r ′ * αR * m′α−h (α = 0,..., N)
As a result, r * α and r ′ * α are obtained as in Expression 4.

Figure 2005189055
Figure 2005189055

この結果、求める回転ベクトルと並進ベクトル、および各対応点とカメラ中心までの距離は、不定値kを残して以下のように求まる。   As a result, the rotation vector and translation vector to be obtained, and the distance from each corresponding point to the camera center are obtained as follows, leaving the indefinite value k.

R=R, h=h
rα=krα ,r’α=kr’α
そこで、最後に、距離のわかっている点m0,mを用いて、kの絶対値を以下のように求める。
R = R * , h = h *
rα = kr * α, r′α = kr ′ * α
Therefore, finally, using the points m 0 and m 1 whose distances are known, the absolute value of k is obtained as follows.

|kr 0 m0,−kr 1 m|=D
ただし、Dはm0,m間の指定された距離である。この式から、すでに求まっているrα,r’αを用いれば、kを求めることができる。
| Kr * 0 m 0, -kr * 1 m 1 | = D
Here, D is a specified distance between m 0 and m 1 . From this equation, k can be obtained by using already obtained rα, r′α.

複数の基準となる長さがある場合には各距離の値が、整合するように最適なkを最小2乗法などで求めればよい。   When there are a plurality of reference lengths, the optimum k may be obtained by the least square method or the like so that the distance values match.

これらにより、並進ベクトルhおよび回転行列Rが求まれば、数5により、画像上の対応点から3次元の絶対空間上の座標xを計算することができ、計測対象線の端点間の距離も、求めることができる。   Thus, when the translation vector h and the rotation matrix R are obtained, the coordinate x in the three-dimensional absolute space can be calculated from the corresponding point on the image by Equation 5, and the distance between the end points of the measurement target line is also calculated. Can be sought.

Figure 2005189055
Figure 2005189055

以上は、非特許文献1に記載の方法を利用したカメラの回転行列R、並進ベクトルhの算出手順であった。これに対し、本実施例では、最適フレーム選択処理部24(図1)において、フレームを自動選択して提示することにより、ユーザの対応線の確認処理の手間を減らすとともに、精度を向上することができる。   The above is the procedure for calculating the rotation matrix R and the translation vector h of the camera using the method described in Non-Patent Document 1. On the other hand, in the present embodiment, the optimum frame selection processing unit 24 (FIG. 1) automatically selects and presents the frames, thereby reducing the trouble of the user's corresponding line confirmation processing and improving the accuracy. Can do.

フレームの自動選択の方法として考慮すべき事としては、これまでの定式化において並進ベクトルhの値が十分大きい必要があるということである。また、複数のフレームを用いて精度を上げるためには、いろいろな方向からのフレームを利用した方が利用する情報量を増やすことである。   What should be considered as a method for automatic frame selection is that the value of the translation vector h needs to be sufficiently large in the previous formulation. In order to improve the accuracy by using a plurality of frames, it is necessary to increase the amount of information used by using frames from various directions.

回転だけで並進のない場合には、2次元画面上の重心点は変化しない。従って、フレームの重心点の変化の大きいものを選択する方法が考えられる。一方では、見る方向が大きく変われば、各点の対応点の変化をベクトル化したときに、方向の変化のばらつきが大きくなることが考えられる。   When there is no translation only by rotation, the center of gravity on the two-dimensional screen does not change. Therefore, a method of selecting a frame having a large change in the center of gravity of the frame can be considered. On the other hand, if the viewing direction changes greatly, it is conceivable that the variation in the direction change becomes large when the change of the corresponding point of each point is vectorized.

図12は、以上の考え方に基づいたフレームの自動選択の手順を示したものである。ステップ400では各フレームの対応点の重心を計算し、その対応点をフレームのタイムスタンプの順序で順序づけた点列とみなす。   FIG. 12 shows a procedure for automatic frame selection based on the above concept. In step 400, the centroid of the corresponding points of each frame is calculated, and the corresponding points are regarded as a sequence of points ordered in the order of the time stamps of the frames.

ステップ401では、例えば非特許文献3のp62に記述されている動的計画法によって、あらかじめ初期設定した本数の折れ線で近似する。折れ線の端点に対応したフレームが、最適フレームの候補となる。   In step 401, approximation is performed with a preset number of polygonal lines by, for example, dynamic programming described in p62 of Non-Patent Document 3. A frame corresponding to the end point of the broken line is a candidate for the optimum frame.

図13に重心の点列の例と、点列を折れ線近似したものを示す。白丸は、折れ線の端点であり、この白丸の点に対応するフレームが最適フレームの候補となる。   FIG. 13 shows an example of a point sequence of the center of gravity and an approximation of the point sequence by a broken line. A white circle is an end point of the broken line, and a frame corresponding to the white circle is a candidate for the optimum frame.

ステップ402では、最適フレームの候補の中から、3次元計算に用いる最適フレーム2つを選択する。このために、最適フレームの候補の2つの組み合わせの全てについて、N個の対応点を画像の座標上で結んだときの方向ベクトルの向きφmを計算し、この分散のもっとも大きい組み合わせを最適フレームとする。 In step 402, two optimum frames used for three-dimensional calculation are selected from the optimum frame candidates. For this reason, the direction φ m of the direction vector when N corresponding points are connected on the image coordinates is calculated for all the two combinations of optimal frame candidates, and the combination with the largest variance is determined as the optimal frame. And

図14は、φmの計算処理を示したもので、図中に最適フレームの候補の2つ(仮にフレームF1、F2とする)における対応点の位置を同じフレーム画面において示している。図中の黒丸(点AからH)がフレームF1における対応点の座標であり、白丸がそれに対応するF2における座標で、A'はAに、B'はBにそれぞれ対応している。図中に示したように、これら対応点の組を結んで、フレーム画像の水平軸方向にたいする傾きをφmとする。この場合は、8個の対応点のφmの分散値を計算する。このような分散値の計算を全ての最適候補フレームの組み合わせに対して計算し、最大の分散値をもつフレームの組み合わせを最適フレームとする。 FIG. 14 shows the calculation process of φ m , and the positions of corresponding points in two optimal frame candidates (assumed to be frames F1 and F2) are shown on the same frame screen. The black circles (points A to H) in the figure are the coordinates of the corresponding points in the frame F1, the white circles are the coordinates in F2 corresponding thereto, A ′ corresponds to A, and B ′ corresponds to B. As shown in the figure, the set of these corresponding points is connected, and the inclination of the frame image in the horizontal axis direction is φ m . In this case, the variance value of φ m of 8 corresponding points is calculated. Such calculation of the variance value is calculated for all combinations of optimum candidate frames, and the combination of frames having the maximum variance value is determined as the optimum frame.

ステップ403において、ステップ401で選択された最適フレームの候補および,ステップ402で選択された最適フレームをフレーム間対応線データ入力処理部に出力する。   In step 403, the optimal frame candidate selected in step 401 and the optimal frame selected in step 402 are output to the inter-frame correspondence line data input processing unit.

図4は、以上説明した処理の流れの概要をまとめて記述したものである。ステップ100では利用するビデオ画像データを読み込む。この処理は、ビデオ画像入力処理部14で実施される。次に、計測対象線データの設定(101)、基準線データの設定をする(102)。ステップ101は、計測対象線データ入力処理部15で、ステップ102は、基準線データ入力処理部16で実施される。   FIG. 4 summarizes the process flow described above. In step 100, video image data to be used is read. This processing is performed by the video image input processing unit 14. Next, measurement target line data is set (101) and reference line data is set (102). Step 101 is performed by the measurement target line data input processing unit 15, and step 102 is performed by the reference line data input processing unit 16.

これらの入力に基づき、フレーム間対応点推定処理(103)がフレーム間対応線推定処理部22で実施される。この処理結果をもとに、最適フレーム選択処理(104)を最適フレーム選択処理部24で実施する。ここで選択された最適フレームの候補について、フレーム間対応線データ入力処理部23で、対応線推定処理結果が提示され、フレーム間対応線の誤りがあれば(105)、フレーム間対応点修正入力処理を実施する(106)。   Based on these inputs, an inter-frame corresponding point estimation process (103) is performed by the inter-frame corresponding line estimation processing unit 22. Based on the processing result, the optimum frame selection processing (104) is performed by the optimum frame selection processing unit 24. For the optimal frame candidate selected here, the inter-frame corresponding line data input processing unit 23 presents the corresponding line estimation processing result, and if there is an error in the inter-frame corresponding line (105), the inter-frame corresponding point correction input Processing is performed (106).

このステップ103〜106までの処理は、誤りがなくなるまで繰り返される。もし、誤りがなくなれば、最適フレーム選択処理部24で設定した最適フレームを用いて3次元距離計算処理部25は3次元距離計算処理を実施し(107)、計算結果が登録される(108)。   The processing from step 103 to step 106 is repeated until there is no error. If there is no error, the three-dimensional distance calculation processing unit 25 performs the three-dimensional distance calculation processing using the optimum frame set by the optimum frame selection processing unit 24 (107), and the calculation result is registered (108). .

本発明は、建築工事や、製品の寸法検査の計測において、簡易な計測方法を与えるもので、広く活用され得る。   INDUSTRIAL APPLICABILITY The present invention provides a simple measurement method in building work and measurement of product dimensional inspection, and can be widely used.

本発明の画像計測システムの一実施例による機能ブロック図。The functional block diagram by one Example of the image measurement system of this invention. 画像計測システムのハード構成図。The hardware block diagram of an image measurement system. 画像フレームデータの例を示す説明図。Explanatory drawing which shows the example of image frame data. 本発明の画像計測方法の一実施例による処理の流れ図。The flowchart of the process by one Example of the image measuring method of this invention. 計測対象線の入力インターフェースの例を示す説明図。Explanatory drawing which shows the example of the input interface of a measurement object line. 寸法基準線の入力インターフェースの例を示す説明図。Explanatory drawing which shows the example of the input interface of a dimension reference line. 対応点のプティカルフローの例を示す説明図。Explanatory drawing which shows the example of the optical flow of a corresponding point. フレーム間対応線入力インターフェースの例を示す説明図。Explanatory drawing which shows the example of the corresponding line input interface between frames. Nベクトルの定義の手順を示す流れ図。The flowchart which shows the procedure of a definition of N vector. 3次元データ生成処理を示す流れ図。The flowchart which shows a three-dimensional data production | generation process. 並進ベクトルと回転行列の処理を示す流れ図。The flowchart which shows the process of a translation vector and a rotation matrix. 最適フレームの選択処理を示す流れ図。The flowchart which shows the selection process of the optimal frame. 最適フレームの候補の選択処理の説明図。Explanatory drawing of the selection process of the optimal frame candidate. 最適フレームの選択処理の説明図。Explanatory drawing of the optimal frame selection process.

符号の説明Explanation of symbols

1…画像データ初期設定部、2…3次元距離計算部、14…ビデオ画像入力処理部、15…計測対象線入力処理部、16…基準線データ入力処理部、22…フレーム間対応線推定処理部、23…フレーム間対応線データ入力処理部、24…最適フレーム選択処理部、25…3次元距離計算処理部、26…距離計算結果記憶部、30…ビデオ画像入力装置、31…磁気ディスク装置、34…ディスプレイ、35…メモリ、36…CPU。   DESCRIPTION OF SYMBOLS 1 ... Image data initial setting part, 2 ... Three-dimensional distance calculation part, 14 ... Video image input process part, 15 ... Measurement object line input process part, 16 ... Reference line data input process part, 22 ... Inter-frame corresponding line estimation process 23: Inter-frame correspondence line data input processing unit, 24 ... Optimal frame selection processing unit, 25 ... Three-dimensional distance calculation processing unit, 26 ... Distance calculation result storage unit, 30 ... Video image input device, 31 ... Magnetic disk device 34 ... Display, 35 ... Memory, 36 ... CPU.

Claims (7)

複数の画像フレームの画像データを解析して画像中の対象距離を計測する画像計測方法において、
前記複数の画像フレームから計測対象部分を包含した所定フレームを選択し、前記計測対象部分と基準距離部分を同一画面上で設定すると共に基準距離を入力し、他の画像フレームにおける計測対象部分を自動追跡することにより推定して、対象距離を計算することを特徴とする画像計測方法。
In an image measurement method for analyzing image data of a plurality of image frames and measuring a target distance in an image,
A predetermined frame including a measurement target portion is selected from the plurality of image frames, the measurement target portion and a reference distance portion are set on the same screen, a reference distance is input, and measurement target portions in other image frames are automatically set. An image measurement method characterized by calculating an object distance by estimating by tracking.
複数の画像フレームの画像データを解析して画像中の対象距離を計測する画像計測方法において、
時系列の画像フレームでなる動画像データを読み込み、計測対象部分を包含した所定フレームを選択し、該所定フレームに計測線対象部分、基準距離部分を座標設定すると共に基準線データを入力し、前記計測線対象部分に設定された座標に対する他の画像フレームでの対応点を、画像フレーム間の特徴点の画像中の位置の変化を自動追跡することにより推定し、この推定結果に基いて最適フレームを選択し、前記最適フレーム上で3次元距離計算を行うことを特徴とする画像計測方法。
In an image measurement method for analyzing image data of a plurality of image frames and measuring a target distance in an image,
Read moving image data consisting of time-series image frames, select a predetermined frame including the measurement target portion, set the coordinates of the measurement line target portion and the reference distance portion in the predetermined frame and input the reference line data, Corresponding points in other image frames with respect to the coordinates set in the measurement line target part are estimated by automatically tracking the change in the position of the feature points in the image between the image frames. And measuring the three-dimensional distance on the optimum frame.
請求項2において、前記最適フレームは平行移動または重心移動の大きい画像フレームを選択することを特徴とする画像計測方法。   3. The image measurement method according to claim 2, wherein an image frame having a large parallel movement or center of gravity movement is selected as the optimum frame. 請求項2または3において、前記最適フレームの選択の結果、対応点に誤りがある場合は対応点修正入力により再びフレーム間での対応点の推定を行うことを特徴とする画像計測方法。   4. The image measurement method according to claim 2, wherein if there is an error in the corresponding point as a result of the selection of the optimum frame, the corresponding point is estimated again between the frames by a corresponding point correction input. 複数の画像フレームの画像データを解析処理して画像中の対象距離を計測する画像計測装置において、
所定の画像フレームにおける計測対象部分と基準距離部分を同一画面上で設定し、かつ基準距離を入力するインターフェースと、他のフレーム画像中における計測対象部分を画像フレーム間の特徴点の画像中の位置の変化を追跡することにより推定するフレーム間対応線推定処理部と、追跡された計測対象部分と基準距離部分の重心の変化の大きいフレームを最適計算により選択する最適フレーム選択処理部と、選択された最適フレーム上で距離計算を行う3次元距離計算処理部を設けることを特徴とする画像計測装置。
In an image measurement apparatus that analyzes image data of a plurality of image frames and measures a target distance in an image,
An interface for setting a measurement target portion and a reference distance portion in a predetermined image frame on the same screen and inputting the reference distance, and a position in the image of a feature point between image frames for the measurement target portion in another frame image An inter-frame correspondence line estimation processing unit that estimates by tracking a change in data, and an optimal frame selection processing unit that selects a frame with a large change in the center of gravity of the tracked measurement target portion and the reference distance portion by optimal calculation. An image measuring apparatus comprising a three-dimensional distance calculation processing unit for calculating a distance on the optimum frame.
請求項5において、前記インターフェースを用いて初期設定した画像フレームにおける計測対象部分と基準距離部分に対応する、他のフレームの計測対象部分と基準距離部分との追跡の結果を確認する確認インターフェースを設けることを特徴とする画像計測装置。   6. The confirmation interface according to claim 5, wherein a confirmation interface for confirming a result of tracking the measurement target portion and the reference distance portion of another frame corresponding to the measurement target portion and the reference distance portion in the image frame that is initially set using the interface is provided. An image measuring apparatus characterized by that. 請求項6において、前記確認インターフェースは前記最適フレームを確認するための表示フレームとして表示出力することを特徴とする画像計測装置。
The image measurement apparatus according to claim 6, wherein the confirmation interface displays and outputs a display frame for confirming the optimum frame.
JP2003429608A 2003-12-25 2003-12-25 Image measuring method and apparatus Expired - Fee Related JP4369221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003429608A JP4369221B2 (en) 2003-12-25 2003-12-25 Image measuring method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003429608A JP4369221B2 (en) 2003-12-25 2003-12-25 Image measuring method and apparatus

Publications (2)

Publication Number Publication Date
JP2005189055A true JP2005189055A (en) 2005-07-14
JP4369221B2 JP4369221B2 (en) 2009-11-18

Family

ID=34788210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003429608A Expired - Fee Related JP4369221B2 (en) 2003-12-25 2003-12-25 Image measuring method and apparatus

Country Status (1)

Country Link
JP (1) JP4369221B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100699B2 (en) 2019-02-15 2021-08-24 Olympus Corporation Measurement method, measurement device, and recording medium
US11250640B2 (en) 2019-02-01 2022-02-15 Olympus Corporation Measurement method, measurement device, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09326029A (en) * 1996-06-04 1997-12-16 Fujitsu Ltd Three-dimensional measuring method and device
JP2001004372A (en) * 1999-06-16 2001-01-12 Asahi Optical Co Ltd Photogrammetry image processing device and method therefor, and memory media for storing program thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09326029A (en) * 1996-06-04 1997-12-16 Fujitsu Ltd Three-dimensional measuring method and device
JP2001004372A (en) * 1999-06-16 2001-01-12 Asahi Optical Co Ltd Photogrammetry image processing device and method therefor, and memory media for storing program thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250640B2 (en) 2019-02-01 2022-02-15 Olympus Corporation Measurement method, measurement device, and recording medium
US11100699B2 (en) 2019-02-15 2021-08-24 Olympus Corporation Measurement method, measurement device, and recording medium

Also Published As

Publication number Publication date
JP4369221B2 (en) 2009-11-18

Similar Documents

Publication Publication Date Title
JP6940047B2 (en) Computer-based rebar measurement and inspection system and rebar measurement and inspection method
US10354402B2 (en) Image processing apparatus and image processing method
JP5248806B2 (en) Information processing apparatus and information processing method
US11568601B2 (en) Real-time hand modeling and tracking using convolution models
US20150310617A1 (en) Display control device and display control method
US10311576B2 (en) Image processing device and image processing method
US9881417B2 (en) Multi-view drawing apparatus of three-dimensional objects, and method
JP2006214893A (en) Computer software program for measuring three-dimensional shape of object using object measuring method and computer system
JP5499261B2 (en) Image processing device
JP2020134242A (en) Measuring method, measuring device and program
US11145048B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program
JP4369221B2 (en) Image measuring method and apparatus
JP2019106008A (en) Estimation device, estimation method, and estimation program
CN113345057A (en) Method and apparatus for generating animated character, and storage medium
JP2009122998A (en) Method for extracting outline from solid/surface model, and computer software program
CN114694257A (en) Multi-user real-time three-dimensional action recognition and evaluation method, device, equipment and medium
JP2002008014A (en) Method and device for extracting three-dimensional shape, and recording medium
US20200034650A1 (en) Measurement apparatus, measurement method, and computer-readable recording medium storing measurement program
CN113140031A (en) Three-dimensional image modeling system and method and oral cavity scanning equipment applying same
CN113593049B (en) Virtual-real fusion method for geometric consistency of real object and virtual object in scene
JP7274782B1 (en) STRUCTURE RECOGNITION SYSTEM IN BUILDING AND STRUCTURE RECOGNITION METHOD IN BUILDING
US20230215040A1 (en) Method and system for tracking a cad model in real time based on particle filters
JPH10269380A (en) Automatic perspective drawing three-dimensional nurb curved line storing method and its device
Einizinab et al. Global localization for Mixed Reality visualization using wireframe extraction from images
CN118397185A (en) Mask image batch generation method applied to rapid three-dimensional reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061117

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090827

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120904

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees