JP4812782B2 - Feature point correspondence method between images, feature point correspondence device between images, feature point correspondence program between images, and a recording medium storing the program. - Google Patents

Feature point correspondence method between images, feature point correspondence device between images, feature point correspondence program between images, and a recording medium storing the program. Download PDF

Info

Publication number
JP4812782B2
JP4812782B2 JP2008007217A JP2008007217A JP4812782B2 JP 4812782 B2 JP4812782 B2 JP 4812782B2 JP 2008007217 A JP2008007217 A JP 2008007217A JP 2008007217 A JP2008007217 A JP 2008007217A JP 4812782 B2 JP4812782 B2 JP 4812782B2
Authority
JP
Japan
Prior art keywords
feature points
images
image
plane
transformation matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008007217A
Other languages
Japanese (ja)
Other versions
JP2009171242A (en
Inventor
小軍 ウ
達哉 大澤
勝也 山下
佳織 若林
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008007217A priority Critical patent/JP4812782B2/en
Publication of JP2009171242A publication Critical patent/JP2009171242A/en
Application granted granted Critical
Publication of JP4812782B2 publication Critical patent/JP4812782B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、複数の撮影装置(例えばデジタルカメラ,デジタルビデオカメラなど)の位置、角度、内部パラメータ(レンズの歪み、レンズ光軸と撮像素子との交点位置など)を、画像処理のみによって得るために、各撮影装置で撮像した画像の特徴点がどのように対応するかという処理(いわゆるラベリング処理)に関する。   According to the present invention, the position, angle, and internal parameters (lens distortion, intersection position between a lens optical axis and an image sensor, etc.) of a plurality of photographing devices (for example, a digital camera and a digital video camera) are obtained only by image processing. In addition, the present invention relates to processing (so-called labeling processing) of how feature points of images captured by each imaging device correspond.

カメラを視覚センサとして用いるロボットジョンやマシンビジョンの分野では、カメラの入力画像を解析し、実空間中のセマンティック情報(特定の意味を持った情報)の抽出を行うときには、カメラの取付位置を正確に計測する必要がある。これは一般的にカメラの校正あるいはカメラキャリブレーションと呼ばれている。   In the field of robot John and machine vision using a camera as a visual sensor, when the camera input image is analyzed and semantic information (information with a specific meaning) is extracted from the real space, the camera mounting position is accurate. Need to be measured. This is generally called camera calibration or camera calibration.

このキャリブレーションには、図4に示すような白色と黒色のブロックパターンを印刷した平面ボード1がよく用いられている。この平面ボードを複数のカメラをもって撮影するとともに、それぞれの画像上に映った平面ボードの各四角形の頂点を特徴点として検出して、カメラ間の対応付けの処理(いわゆるラベリング処理)を行っている。   For this calibration, a flat board 1 printed with white and black block patterns as shown in FIG. 4 is often used. The plane board is photographed with a plurality of cameras, and the vertexes of each quadrilateral of the plane board reflected on each image are detected as feature points, and the process of associating the cameras (so-called labeling process) is performed. .

以下、図5の処理フローに基づき、2台のカメラから得られる画像Aと画像Bとを対応付けるときの処理ステップ(S501〜S506)を説明する。なお、2台以上のカメラを使用する場合には、同様な処理ステップ(S501〜S506)を2台ずつ繰り返し行うことで実現される。   The processing steps (S501 to S506) for associating the images A and B obtained from the two cameras will be described below based on the processing flow of FIG. Note that when two or more cameras are used, the same processing steps (S501 to S506) are repeatedly performed two by two.

S501:画像処理により、コーナー部(頂点)を特徴点として抽出する。ここでは画像全体について、濃淡領域の著しい点、即ちコーナー部(頂点)を検出し、これらの点の座標値を記録する。すべての画像について、同じ処理を行う。   S501: A corner portion (vertex) is extracted as a feature point by image processing. Here, for the entire image, significant points in the light and shade region, that is, corner portions (vertices) are detected, and the coordinate values of these points are recorded. The same process is performed for all images.

S502:最初に4つのコーナー点(頂点)について、手動で対応付けを行う。画像A上、同一直線上にない4点を選び、これらを「Pi,i=1,2,3,4」とする。それぞれの座標値を「(xiA,yiA),i=1,2,3,4」とする。画像Bにおいて、それぞれのPiの対応点の座標を手動で求め、これらを「(xiB,yiB),i=1,2,3,4」とする。 S502: First, four corner points (vertices) are manually associated. On the image A, four points that are not on the same straight line are selected, and these are set as “P i , i = 1, 2, 3, 4”. The respective coordinate values are assumed to be “(x iA , y iA ), i = 1, 2, 3, 4”. In the image B, the coordinates of the corresponding points of each P i are obtained manually, and these are set as “(x iB , y iB ), i = 1, 2, 3, 4”.

S503:4対の対応点によって、平面間変換行列を求める。対応点が同一平面上にある場合、以下の平面間変換行列が成り立つ。   S503: An inter-plane transformation matrix is obtained from four pairs of corresponding points. When the corresponding points are on the same plane, the following interplane transformation matrix holds.

ただし、「fA,fB」はそれぞれのカメラの焦点距離であり、対応点付けを行う際、「0」以外の任意の定数として与えられる。「Hは3×3の行列」であり、平面間変換行列或いはホモグラフィーと呼ぶ。上記4対の対応点座標「(xiA,yiA),(xiB,yiB),i=1,2,3,4」を前記[数1]に代入すれば、「H」に関する連立方程式が得られ、それを解けば、平面間変換行列が求まる。ここで求まった「H」は、理論上、同一平面上の対応点の間、常に前記[数1]を満たす。 However, “f A , f B ” are focal lengths of the respective cameras, and are given as arbitrary constants other than “0” when the corresponding points are assigned. “H is a 3 × 3 matrix” and is referred to as an interplane transformation matrix or homography. Substituting the above four pairs of corresponding point coordinates “(x iA , y iA ), (x iB , y iB ), i = 1, 2, 3, 4” into the above [Equation 1], If an equation is obtained and solved, an interplane transformation matrix is obtained. The “H” obtained here theoretically satisfies the above [Equation 1] between corresponding points on the same plane.

S504:変換行列を用いて、画像B上の特徴点の画像A上における対応位置の座標を計算する。ここでは画像Bにおいて、平面ボード上の一つの特徴点を選び、上記変換行列Hを用いれば、前記[数1]より、対応する画像A上の座標値が計算できる。   S504: The coordinates of the corresponding position on the image A of the feature point on the image B are calculated using the transformation matrix. Here, in the image B, if one feature point on the plane board is selected and the conversion matrix H is used, the corresponding coordinate value on the image A can be calculated from the [Equation 1].

S505:画像Aにおいて、計算される座標の近傍で、特徴点を探索する。すなわち、画像Aにおいて、画像上検出した特徴点の中から、S504で計算された対応座標値に最も近い特徴点を探索する。   S505: Search for feature points in the vicinity of the calculated coordinates in the image A. That is, in the image A, the feature point closest to the corresponding coordinate value calculated in S504 is searched from the feature points detected on the image.

S506:探索された特徴点を対応点として記録し、1対の対応点付けを終える。上記探索結果を画像A上の対応点として記録し、1対の対応付けを終える。   S506: The searched feature points are recorded as corresponding points, and a pair of corresponding points is finished. The search result is recorded as a corresponding point on the image A, and the pairing is finished.

そして、すべての特徴点について、S504〜S506のステップを繰り返すことで、画像全体の対応付けを行っている。この従来の手法については非特許文献1.2に記載されている。
Z.Zhang.A flexible new technique for camera calibration.IEEE Transactions on Pattern Analysis and Machine Intelligence,22(11):1330−1334,2000. 金谷健一,画像理解−3次元認識の数理−,4.2−4.4,p.82−98,森北出版株式会社,ISBN:4−627−82140−9,1990.
Then, the entire images are associated with each other by repeating steps S504 to S506 for all feature points. This conventional method is described in Non-Patent Document 1.2.
Z. Zhang. A flexible new technology for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 22 (11): 1330-1334, 2000. Kenichi Kanaya, Image comprehension-Mathematics of three-dimensional recognition-, 4.2-4.4, p. 82-98, Morikita Publishing Co., Ltd., ISBN: 4-627-82140-9, 1990.

従来技術は、理論上の平面拘束性、即ち全ての特徴点が同一平面上に存在する性質に強く依存し、対応点付けの初期段階に一回だけ変換行例Hを求め、それ以降は初期に計算された変換行列Hを画像全体にわたって利用している。   The prior art strongly depends on the theoretical plane constraint property, that is, the property that all feature points exist on the same plane, and the conversion example H is obtained only once in the initial stage of the corresponding point assignment. The transformation matrix H calculated in (1) is used over the entire image.

しかしながら、現実には以下の原因から対応付けが容易に行えず、キャリブレーションの精度や効率が低下するおそれがあった。
(1)レンズの歪みの影響
図6(a)に示すように、平面ボードの画像はレンズひずみの影響で、直線が曲線として撮影されるため、初期4対応点から計算される変換行列Hのみでは、計算される対応位置が実際の特徴点の位置と大きくずれ、対応付けが失敗することがある。図7は、その失敗例を示している。ここでは初期の4対応点は図中左上のブロックの4点を用いた。画像上の右下において線で囲まれた領域は、対応付けに失敗した部分を示している。
(2)撮影方向の影響
また、図6(b)に示すように、カメラの配置によって、平面ボードを斜めの方向から撮影せざるを得ない場合には、画像上のブロックが歪められて投影され、大きさも場所によって大きく異なる。これでは画像上の特徴点が密集する領域ができ、対応付けが困難となってしまう。
However, in reality, the association cannot be easily performed due to the following causes, and the accuracy and efficiency of calibration may be reduced.
(1) Influence of Lens Distortion As shown in FIG. 6A, since the image of the flat board is photographed as a curve due to the influence of lens distortion, only the transformation matrix H calculated from the initial four corresponding points is used. In this case, the corresponding position to be calculated may be greatly deviated from the actual feature point position, and the correlation may fail. FIG. 7 shows an example of the failure. Here, four points in the upper left block in the figure are used as the initial four corresponding points. A region surrounded by a line in the lower right on the image indicates a portion where the association has failed.
(2) Influence of shooting direction As shown in FIG. 6B, when the plane board has to be shot from an oblique direction due to the camera arrangement, the blocks on the image are distorted and projected. The size varies greatly depending on the location. This creates a region where feature points on the image are dense, making it difficult to associate them.

そこで本発明は、レンズの歪みや撮影方向(撮影装置と平面ボードとの位置関係など)の影響を抑えて、安定した対応点付けを実現し、キャリブレーションの精度・効率を向上させることを解決課題としている。   Therefore, the present invention solves the problem of improving the accuracy and efficiency of calibration by suppressing the effects of lens distortion and the shooting direction (such as the positional relationship between the shooting device and the flat board) to achieve stable matching. It is an issue.

本発明は、前記課題を解決するために創作された技術的思想であって、最初にある局所的な特定領域において確度の高い特徴点間のラベリング処理を行った後に特徴点の座標を使って平面間変換行列を求め、次に特定領域の近傍の特徴点同士でラベリング処理を行い、ラベリング処理を行った特徴点を使って再度平面間変換行列を求め、これを順次繰り返して全特徴点のラベリング処理を行っている。   The present invention is a technical idea created in order to solve the above-mentioned problem, and first performs a labeling process between feature points with high accuracy in a certain local specific region, and then uses the coordinates of the feature points. Find the inter-plane transformation matrix, then label the feature points in the vicinity of the specific region, and use the labeled feature points again to obtain the inter-plane transformation matrix. Labeling process is performed.

具体的には、請求項1〜3記載の画像間の特徴点の対応付方法と、請求項4〜6記載の画像間の特徴点に対応付装置と、請求項7記載の画像間の特徴点の対応付プログラムと、請求項8記載の前記プログラムを記録した記録媒体の態様からなる。
<方法の発明>
請求項1記載の発明は、複数の撮影装置をもって平面対象を撮影し、コンピュータを用いて各撮影装置から得られた画像間で特徴点の対応付けを行う方法であって、コンピュータが前記各画像の全体から平面対象の特徴点を抽出する第1ステップと、コンピュータが前記各画像上の一部を初期領域として選定して、画像間で前記初期領域の特徴点の対応付けを行う第2ステップと、コンピュータが前記初期ブロックの対応点座標から初期平面変換行列を求める第3ステップと、コンピュータが特定画像中の特徴点の対応点付けが済んだ領域のうち、直前に対応点付けが行われた領域に隣接する近隣領域を選定し、直前に計算した平面変換行列を用いて、前記近隣領域の特徴点の他の画像における対応位置を求める第4ステップと、コンピュータが前記対応位置に最も近い他の画像の特徴点を探索し、該探索結果を対応点として記録する第5ステップと、コンピュータが前記探索結果の対応点座標から変換行列を再度計算する第6ステップと、を有し、前記第4ステップ〜前記第6ステップのサイクルを、画像上の平面対象全体の特徴点の対応付けが完了するまで繰り返すことを特徴としている。
Specifically, a method for associating feature points between images according to claims 1 to 3, a device for associating feature points between images according to claims 4 to 6, and a feature between images according to claim 7. The program comprises a point correspondence program and a recording medium recording the program according to claim 8.
<Invention of method>
The invention according to claim 1 is a method of photographing a plane object with a plurality of photographing devices, and associating feature points between images obtained from the photographing devices using a computer. A first step of extracting feature points of the plane object from the entirety of the image, and a second step in which the computer selects a part of each image as an initial region and associates the feature points of the initial region between the images. And the third step in which the computer obtains the initial plane transformation matrix from the corresponding point coordinates of the initial block, and the corresponding pointing is performed immediately before the region in which the computer has already assigned the characteristic points in the specific image. It was selected neighboring region adjacent to the region, by using a planar transformation matrix calculated immediately before, and a fourth step of determining a corresponding position in the other image feature points of said neighboring area, computer Sixth step but the searching feature points closest other images at corresponding positions, to calculate a fifth step of recording the search result as the corresponding points, a transformation matrix computer from the corresponding point coordinate of the search results again And the cycle of the fourth step to the sixth step is repeated until the matching of the feature points of the entire planar object on the image is completed.

請求項2記載の発明は、前記第4ステップは、最初の前記サイクルのときには、初期領域に隣接する近隣領域を選定し、初期平面変換行列を用いて前記対応位置を求める一方、二回目以降の前記サイクルのときには、前回のサイクルで対応付けられたブロックの近隣領域を選定し、前回のサイクルで計算された平面変換行列を用いて前記対応位置を求めることを特徴としている。   In the invention according to claim 2, in the fourth step, in the first cycle, a neighboring area adjacent to the initial area is selected, and the corresponding position is obtained using an initial plane transformation matrix. In the cycle, a neighboring region of the block associated in the previous cycle is selected, and the corresponding position is obtained using the plane transformation matrix calculated in the previous cycle.

請求項3記載の発明は、前記平面対象として、多角形のブロックパターンが複数描写された平面プレートを用いるとともに、前記各領域は、それぞれ画像上に映ったブロックパターンの一つのブロックにより構成されていることを特徴としている。
<装置の発明>
請求項4記載の発明は、複数の撮影装置をもって平面対象を撮影し、各撮影装置から得られた画像間で特徴点の対応付けを行う装置であって、前記各画像の全体から平面対象の特徴点を抽出する第1手段と、前記各画像上の一部を初期領域として選定し、画像間で前記初期領域の特徴点の対応付けを行う第2手段と、前記初期ブロックの対応点座標から初期平面変換行列を求める第3手段と、特定画像中の特徴点の対応点付けが済んだ領域のうち、直前に対応点付けが行われた領域に隣接する近隣領域を選定し、直前に計算した平面変換行列を用いて、前記近隣領域の特徴点の他の画像における対応位置を求める第4手段と、前記対応位置に最も近い他の画像の特徴点を探索し、該探索結果を対応点として記録する第5手段と、前記探索結果の対応点座標から変換行列を再度計算する第6手段と、を備え、前記第4手段〜前記第6手段が、画像上の平面対象全体の特徴点の対応付けが完了するまで処理サイクルを繰り返して実行することを特徴としている。
According to a third aspect of the present invention, a planar plate on which a plurality of polygonal block patterns are depicted is used as the planar object, and each of the regions is constituted by one block of the block pattern reflected on the image. It is characterized by being.
<Invention of apparatus>
The invention according to claim 4 is an apparatus that captures a plane object with a plurality of imaging devices, and associates feature points between images obtained from the imaging apparatuses, wherein the plane object is detected from the entire image. First means for extracting feature points; second means for selecting a part of each image as an initial region and associating feature points of the initial region between images; and corresponding point coordinates of the initial block The third means for obtaining the initial plane transformation matrix from the above, and selecting a neighboring region adjacent to the region for which the corresponding points are assigned immediately before the corresponding points for the feature points in the specific image, Using the calculated plane transformation matrix, the fourth means for obtaining the corresponding position in the other image of the feature point of the neighboring area, and searching for the feature point of the other image closest to the corresponding position, and corresponding the search result Fifth means for recording as points, and the search result Sixth means for recalculating the transformation matrix from the corresponding point coordinates, and the fourth means to the sixth means repeat the processing cycle until the matching of the feature points of the entire planar object on the image is completed. It is characterized by executing.

請求項5記載の発明は、前記第4手段は、最初の前記処理サイクルのときには、初期領域に隣接する近隣領域を選定し、初期平面変換行列を用いて前記対応位置を求める一方、二回目以降の前記処理サイクルのときには、前回の処理サイクルで対応付けられたブロックの近隣領域を選定し、前回の処理サイクルで計算された平面変換行列を用いて前記対応位置を求めることを特徴としている。   According to a fifth aspect of the present invention, in the first processing cycle, the fourth means selects a neighboring area adjacent to the initial area and obtains the corresponding position using an initial plane transformation matrix. In the processing cycle, the neighboring region of the block associated in the previous processing cycle is selected, and the corresponding position is obtained using the plane transformation matrix calculated in the previous processing cycle.

請求項6記載の発明は、前記平面対象として、多角形のブロックパターンが複数描写された平面プレートを用いるとともに、前記各領域は、それぞれ画像上に映ったブロックパターンの一つのブロックにより構成されていることを特徴としている。
<プログラム・記録媒体の発明>
請求項7記載の発明は、請求項1〜3のいずれかに記載の画像間の特徴点の対応付方法における前記第1ステップ〜前記第6ステップをコンピュータに実行させ、前記第4ステップ〜前記第6ステップのサイクルをコンピュータに画像上の平面対象全体の特徴点の対応付けが完了するまで繰り返させることを特徴としている。
The invention according to claim 6 uses, as the plane object, a plane plate on which a plurality of polygonal block patterns are depicted, and each of the areas is constituted by one block of the block pattern reflected on the image. It is characterized by being.
<Invention of program / recording medium>
The invention described in claim 7 causes a computer to execute the first step to the sixth step in the method for associating feature points between images according to any one of claims 1 to 3, and the fourth step to the It is characterized in that the sixth step cycle is repeated until the computer completes the matching of the feature points of the entire planar object on the image.

請求項8記載の発明は、請求項7記載の画像間の特徴点の対応付プログラムを格納した記録媒体に関する。   The invention described in claim 8 relates to a recording medium storing the feature point correspondence program between images described in claim 7.

請求項1〜8記載の発明によれば、特徴点のラベリング処理を行うときに、常にその特徴点の状況にあった平面間変換行列を使うことができ、ラベリング処理の精度が向上する。   According to the first to eighth aspects of the present invention, when the feature point labeling process is performed, it is possible to always use the inter-plane conversion matrix suitable for the situation of the feature point, thereby improving the accuracy of the labeling process.

したがって、レンズ歪みや撮影方向(撮影装置と平面ボードとの位置関係など)に影響されることなく、高精度かつ高効率のキャリブレーションが実現される。   Therefore, high-accuracy and high-efficiency calibration can be realized without being affected by lens distortion and shooting direction (such as the positional relationship between the shooting device and the flat board).

カメラキャリブレーションには、実空間中の撮影対象の特徴点を画像上で抽出し、画像間の対応付けが不可欠であるものの、高精度なキャリブレーションの行うには、対応付けする特徴点の個数を増やす必要があり、膨大な作業となることが少なくない。   For camera calibration, feature points to be photographed in real space are extracted on the image and matching between the images is indispensable. However, for high-precision calibration, the number of feature points to be matched In many cases, it is necessary to increase the amount of work.

そこで、本発明は、特徴点の対応付けを自動的に行う手法を提案し、これにより効率的に対応付けする特徴点の個数を増やすことができ、高精度且つ高効率なキャリブレーションが実現できる。この本発明の手法の一実施形態を、図1〜図3に基づき説明する。   Therefore, the present invention proposes a method for automatically associating feature points, thereby increasing the number of feature points to be efficiently associated, and realizing highly accurate and highly efficient calibration. . One embodiment of the technique of the present invention will be described with reference to FIGS.

図1は、本発明の実施形態の構成を示している。ここでは白色と黒色のブロックパターンを印刷した平面ボード1と、この平面ボード1を撮影する二台の撮影装置C1,C2(例えばデジタルカメラ,デジタルビデオカメラなど)と、この両撮影装置C1,C2とネットワークを介して接続された処理装置2とが用いられている。   FIG. 1 shows the configuration of an embodiment of the present invention. Here, a flat board 1 on which a white and black block pattern is printed, two photographing devices C1 and C2 (for example, a digital camera and a digital video camera) for photographing the flat board 1, and both photographing devices C1 and C2 And a processing device 2 connected via a network.

前記平面ボード1については、一例として従来と同様な白黒パターンを均等に繰り返した正方形のブロックパターンを用いて説明するが、利用シーンに応じて適宜に他のパターン様式、例えば均等に繰り返した六角形のようなパターンに変更してもよい。   The flat board 1 will be described as an example using a square block pattern in which the same black and white pattern as the conventional one is repeated uniformly. However, other pattern formats, for example, a hexagon that is equally repeated depending on the usage scene. The pattern may be changed to

前記処理装置2は、図1及び図2に示すように、ネットワークを介して撮影装置C1,C2から画像データを受信する通信インターフェース部3と、前記画像データなどを保存可能な保存手段4(例えばハードディスクドライブ装置など)と、前記画像データの特徴点の座標値や変換行列などを一時的に記憶可能な記憶手段5(例えばメモリなど)と、各構成要素の制御や演算処理を行う処理部6[例えばCPU(Central Processing Unit),GPU(Graphic Processing Unit),OS(Operating System)]と、キーボードやマウスなどの入力デバイス7と、モニタなどの表示装置Dと、を備えたコンピュータにより構成されている。   As shown in FIGS. 1 and 2, the processing device 2 includes a communication interface unit 3 that receives image data from the photographing devices C1 and C2 via a network, and a storage unit 4 that can store the image data and the like (for example, A hard disk drive device), storage means 5 (for example, a memory) capable of temporarily storing the coordinate values and transformation matrixes of the feature points of the image data, and a processing unit 6 for controlling and calculating each component. [A CPU (Central Processing Unit), a GPU (Graphic Processing Unit), an OS (Operating System)], an input device 7 such as a keyboard and a mouse, and a display device D such as a monitor, and the like. Yes.

そして、前記処理部6は、特徴点検出手段8・初期ブロック選定手段9・頂点対応手段10・変換行列計算手段11・近隣ブロック選定手段12・対応位置計算手段13・対応点探索手段14・対応点付け手段15・変換行列更新手段16として機能し、撮影装置C1から送信された画像データAと撮影装置C2から送信された画像データBとに基づき、平面ボード1に描写された各四角形の頂点(特徴点)を対応付けている(いわゆるラベリング処理)。   The processing unit 6 includes feature point detection means 8, initial block selection means 9, vertex correspondence means 10, transformation matrix calculation means 11, neighboring block selection means 12, correspondence position calculation means 13, correspondence point search means 14, and correspondence. Vertex of each square drawn on the plane board 1 based on the image data A transmitted from the imaging device C1 and the image data B transmitted from the imaging device C2 functioning as the scoring means 15 and the transformation matrix updating means 16 (Feature points) are associated (so-called labeling processing).

具体的には、前記処理部6は、画像データA.Bの局所的な特定領域の特徴点を対応付けた後に、隣接する領域毎に順次特徴点を対応付けている。以下、前記処理部6の処理ステップ(S301〜S309)の概略を図3の処理フローに沿って説明する。
<処理部6の処理ステップ>
S301:特徴点検出手段8の画像処理から、コーナー部(頂点)が特徴点として抽出される。ここでは従来のS501と同様に、画像データA.Bに映った平面ボード1のブロックパターンから濃淡領域の著しい点、即ちコーナー部(頂点)を検出し、これらの座標値を保存手段4に記録している。
More specifically, the processing unit 6 receives the image data A.1. After associating the feature points of the local specific region of B, the feature points are sequentially associated with each adjacent region. Hereinafter, an outline of the processing steps (S301 to S309) of the processing unit 6 will be described along the processing flow of FIG.
<Processing Step of Processing Unit 6>
S301: Corner portions (vertices) are extracted as feature points from the image processing of the feature point detection means 8. Here, as in the conventional S501, the image data A.I. From the block pattern of the flat board 1 shown in B, a remarkable point in the light and shade area, that is, a corner (vertex) is detected, and these coordinate values are recorded in the storage means 4.

S302:初期ブロック選定手段9が、画像データA.B上に映っているブロックパターンの中から、一つの四角形ブロックを選択する。   S302: The initial block selection means 9 receives the image data A.S. One rectangular block is selected from the block patterns shown on B.

S303:頂点対応手段10が、初期ブロックの4頂点についてテンプレートマッチングのような自動処理を用いて、画像データA.B間で対応付けを行う。   S303: The vertex correspondence means 10 uses the automatic processing such as template matching for the four vertices of the initial block, and the image data A.S. Association between B is performed.

S304:変換行列計算手段11が、初期ブロックの4頂点の対応点座標を用いて、初期平面間変換行列を求める。この後に他の全てのブロックについて、S305〜S309の処理サイクルが繰り返して行われる。   S304: The transformation matrix calculation means 11 obtains an initial interplane transformation matrix using the corresponding point coordinates of the four vertices of the initial block. Thereafter, the processing cycles of S305 to S309 are repeated for all other blocks.

S305:近隣ブロック選定手段12が、画像データBにおいて対応点付け済みの直前ブロックの近隣ブロックを1つ選ぶ。この近隣ブロックとしては、S305〜S309の最初の処理サイクルのときには初期ブロックに隣接するブロックが選定される一方、二回目以降の前記処理サイクルのときには前回の処理サイクルにて対応点付けられたブロックに隣接するブロックが選定される。   S305: The neighboring block selecting means 12 selects one neighboring block of the immediately preceding block that has already been scored in the image data B. As this neighboring block, the block adjacent to the initial block is selected in the first processing cycle of S305 to S309, while in the second and subsequent processing cycles, the corresponding block is marked in the previous processing cycle. Adjacent blocks are selected.

S306:対応位置計算手段13が、選ばれた近隣ブロックの4頂点について、直前に計算された平面変換行列を用いて、画像データA上の対応位置の座標を計算する。このときS305〜S309の最初の処理サイクルでは前記初期平面変換行列が用いられる一方、二回目以降の前記処理サイクルでは前回の処理サイクルにて計算された平面変換行列が用いられる。   S306: The corresponding position calculation means 13 calculates the coordinates of the corresponding position on the image data A using the plane transformation matrix calculated immediately before for the four vertices of the selected neighboring block. At this time, the initial plane conversion matrix is used in the first processing cycle of S305 to S309, while the plane conversion matrix calculated in the previous processing cycle is used in the second and subsequent processing cycles.

S307:対応点探索手段14が、画像データAにおいて、前記4頂点について計算される座標の近傍で、特徴点を探索する。   S307: Corresponding point search means 14 searches the image data A for feature points in the vicinity of the coordinates calculated for the four vertices.

S308:対応点付け手段15が、前記4頂点について探索された特徴点をそれぞれの対応点として記録し、近隣ブロックの4頂点の対応付けを終える。   S308: The corresponding point assigning means 15 records the feature points searched for the four vertices as corresponding points, and finishes the association of the four vertices of the neighboring blocks.

S309:変換行列更新手段16が、対応付け済み直前のブロック対の4頂点座標を用いて、平面間変換行列を再度計算する。この後にS305に戻って対応付けが済んでいない全てのブロックに対して、S305〜S309の処理サイクルを実行する。
<各処理ステップの具体的内容>
以下、S301〜S309の各処理ステップを具体的に説明する。ここでS301の処理ステップは、従来例のS501と同様の処理なので説明を省略し、S302の処理ステップから説明する。
S309: The transformation matrix update means 16 recalculates the inter-plane transformation matrix using the four vertex coordinates of the block pair immediately before the association. Thereafter, the process returns to S305 and the processing cycles of S305 to S309 are executed for all the blocks that have not been associated.
<Specific contents of each processing step>
Hereinafter, each process step of S301-S309 is demonstrated concretely. Here, since the processing step of S301 is the same as that of S501 of the conventional example, the description thereof will be omitted and the processing step of S302 will be described.

S302:ブロックパターンの平面ボードの画像上、複数撮影されたブロックの中から、一つ四角形のブロックを選ぶ。このブロックを「B0」で表す。 S302: One rectangular block is selected from a plurality of captured blocks on the image of the block pattern plane board. This block is represented by “B 0 ”.

S303:ブロックB0の4頂点について、テンプレートマッチングのような自動処理で対応点付けを行う。これにより同一直線上にない4対の対応点座標が得られる。 S303: Corresponding points are assigned to the four vertices of block B 0 by automatic processing such as template matching. As a result, four pairs of corresponding point coordinates not on the same straight line are obtained.

S304:ブロックB0の4頂点の対応点座標を前記[数1]に代入し、平面間変換行列「H0」を求める。また、対応済みブロックをカウントするためのパラメータ「c」を設ける。このステップで「c=0」とする。 S304: The corresponding point coordinates of the four vertices of the block B 0 are substituted into the [Equation 1] to obtain the inter-plane transformation matrix “H 0 ”. In addition, a parameter “c” for counting the corresponding blocks is provided. In this step, “c = 0” is set.

S305:画像データBにおいて、ブロックBcの近隣のブロックを一つ選び、このブロックを「Bc+1」とする。この近隣ブロックの選び方としては、例えば直前ブロックの8方向近傍探索で行える。また、例えば用いられるパターンに応じて、テンプレートマッチングを行う方法などで行うことも可能である。 S305: In the image data B, one block adjacent to the block B c is selected, and this block is set to “B c + 1 ”. As a method of selecting this neighboring block, for example, it can be performed by an 8-direction neighborhood search of the immediately preceding block. Further, for example, a template matching method can be performed according to the pattern used.

S306:変換行列Hcを用い、ブロックBc+1の4頂点について、画像データB上の座標を前記[数1]に代入し、画像データA上の対応位置の座標を計算する。 S306: Using the transformation matrix H c , the coordinates of the corresponding position on the image data A are calculated by substituting the coordinates on the image data B for the four vertices of the block B c + 1 into the [Equation 1].

S307:ブロックBc+1の4頂点について、画像データA上の対応位置の近傍で特徴点探索を行う。 S307: A feature point search is performed in the vicinity of the corresponding position on the image data A for the four vertices of the block B c + 1 .

S308:ブロックBc+1の4頂点について、画像データA上で探索された特徴点をそれぞれの対応点として記録し、ブロックBc+1の対応点付けを終える。ここで、対応付け済みブロックを1つカウントし、「c」の値を1つ増やす。これを次のように表記する。 S308: For the four vertices of the block B c + 1 , the feature points searched on the image data A are recorded as corresponding points, and the corresponding points of the block B c + 1 are finished. Here, one associated block is counted, and the value of “c” is incremented by one. This is expressed as follows.

S309:ブロックBcの4頂点の対応点付けが得られたので、これらの4対の点の座標値を前記[数1]に代入し、平面間変換行列「Hc」を求める。そして、対応点付けが終わっていないブロックが存在する限り、S305〜S309の処理ステップを繰り返して行う。 S309: Since the corresponding points of the four vertices of the block B c are obtained, the coordinate values of these four pairs of points are substituted into the [Equation 1] to obtain the inter-plane transformation matrix “H c ”. Then, as long as there is a block that has not been assigned a corresponding score, the processing steps of S305 to S309 are repeated.

この場合にS302〜S309の処理ステップで得られた座標値や変換行列などは適宜に記憶手段5に記憶してもよい。また、S301〜S309の処理ステップの経過を適宜に表示装置Dに表示させると効率的である。   In this case, the coordinate values and conversion matrix obtained in the processing steps of S302 to S309 may be appropriately stored in the storage unit 5. In addition, it is efficient to display the progress of the processing steps of S301 to S309 on the display device D as appropriate.

このように本実施形態に係る処理手法によれば、撮影装置C1.C2のカメラキャリブレーションを行う際、画像データA.B間の対応点付けを効率的且つ安定的に行える。従来手法では、画像データの全領域に光学系の歪みや撮影方位によるゆがみの影響が少ない前提条件に依存しているのに対し、ここではその前提条件に依存しない。画像データの局所的にみて、歪みなどの影響が僅少であることに注目し、局所的な処理を行うと同時に、大域的に特徴点の隣接関係を用い、画像データの全体的な特徴点の対応付けを反復処理により行っている。   As described above, according to the processing method according to the present embodiment, the photographing devices C1. When the camera calibration of C2 is performed, the image data A.B. Corresponding points between B can be efficiently and stably performed. In the conventional method, the entire area of the image data depends on the precondition that the influence of the distortion of the optical system and the distortion due to the shooting direction is small, but here it does not depend on the precondition. Focusing on the fact that the effects of distortion and other factors are minimal when viewed locally in the image data, local processing is performed, and at the same time the global feature point adjacency is used to determine the overall feature point of the image data. The association is performed by iterative processing.

すなわち、画像データ上の平面ボード全域に一つの変換行列を用い、すべての特徴点の対応付けを行う従来手法に対し、平面ボードの個々のブロックについて、対応付け済みの近隣ブロック頂点の情報を用い、変換行列を更新することで、対応点付けの安定性を確保している。   In other words, using a single transformation matrix for the entire area of the plane board on the image data and using the information on the neighboring block vertices associated with each block on the plane board, compared to the conventional method of associating all feature points The stability of the corresponding points is ensured by updating the transformation matrix.

この結果、従来手法では困難だったレンズひずみの大きいカメラ画像間の対応点付けや、斜め視線方向で撮影された平面ボード画像の対応点付けも安定して行える。これによりロボットビジョンやマシンビジョンの分野において、効率的なカメラキャリブレーションが実現でき、システムセットアップやメンテナンスなどのコストが抑制される。   As a result, it is possible to stably assign corresponding points between camera images having a large lens distortion, which is difficult with the conventional method, and corresponding points of flat board images photographed in an oblique line-of-sight direction. As a result, efficient camera calibration can be realized in the field of robot vision and machine vision, and costs such as system setup and maintenance can be suppressed.

なお、本発明は、上記実施形態に限定されるものではなく、各請求項に記載した範囲において各種の変形を行うことが可能である。例えばコンピュータを前記処理装置2として機能させるプログラムとして構築することもできる。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation is possible in the range described in each claim. For example, it can be constructed as a program that causes a computer to function as the processing device 2.

この場合には、プログラムコードを記憶させた記録媒体を、コンピュータに供給し、コンピュータの処理部(CPUなど)が記録媒体に格納されたプロラムコードを読み出し実行することによっても実現することもできる。   In this case, it can also be realized by supplying a recording medium storing the program code to a computer, and reading and executing the program code stored in the recording medium by a processing unit (CPU or the like) of the computer.

そして、記録媒体から読み出されたプログラムコード自体が、コンピュータにS301〜S309の処理ステップを実行させ、かつ画像データ間の特徴点の対応付けが済むまでS305〜S309の処理ステップを繰り返し実行させる。   Then, the program code itself read from the recording medium causes the computer to execute the processing steps S301 to S309, and repeatedly executes the processing steps S305 to S309 until the feature points are associated with each other.

このプログラムコードは、例えばCD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDDなどに記憶される。また、前記プログラムをインターネットサイトからダウンロードして、前記測定装置100の機能を実現させてもよい。   This program code is stored in, for example, a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, or the like. Further, the program may be downloaded from an Internet site to realize the function of the measuring apparatus 100.

本発明の実施形態に係る手法の構成を示す概略図。Schematic which shows the structure of the method which concerns on embodiment of this invention. 同 処理装置の概略図。Schematic of the processing apparatus. 同 処理フロー図。FIG. カメラキャリブレーション用の平面ボードの一例図。An example figure of the plane board for camera calibration. 従来手法の処理フロー図。The processing flow figure of a conventional method. (a)はレンズひずみの影響を受けた平面ボードの画像例、(b)は斜め視線方向から撮影された画像例。(A) is an example of an image of a flat board affected by lens distortion, and (b) is an example of an image taken from an oblique viewing direction. 従来手法の対応点付けが失敗した画像例。An example of an image in which matching with the conventional method has failed.

符号の説明Explanation of symbols

1…平面ボード
2…処理装置
3…通信インターフェース
4…保存手段
5…記憶手段
6…処理部
8…特徴点検出手段
9…初期ブロック選定手段
10…頂点対応手段
11…変換行列計算手段
12…近隣ブロック選定手段
13…対応位置計算手段
14…対応点探索手段
15…対応点付け手段
16…変換行列更新手段
C1.C2…撮影装置
D…表示装置
S301…特徴点検出の処理
S302…初期ブロック選定の処理
S303…初期対応点付けの処理
S304…初期平面間変換行列の計算の処理
S305…近隣ブロック選定の処理
S306〜S308…対応点を決める処理
S309…平面間変換行列の更新の処理
S501…従来手法の特徴点検出の処理
S502…従来手法の初期対応点付けの処理
S503…従来手法の初期平面間変換行列の計算の処理
S504〜S506…従来手法の対応点を決める処理
DESCRIPTION OF SYMBOLS 1 ... Plane board 2 ... Processing apparatus 3 ... Communication interface 4 ... Storage means 5 ... Storage means 6 ... Processing part 8 ... Feature point detection means 9 ... Initial block selection means 10 ... Vertex correspondence means 11 ... Transformation matrix calculation means 12 ... Neighborhood Block selecting means 13 ... corresponding position calculating means 14 ... corresponding point searching means 15 ... corresponding point assigning means 16 ... transform matrix updating means C1. C2 ... Imaging device D ... Display device S301 ... Feature point detection processing S302 ... Initial block selection processing S303 ... Initial correspondence marking processing S304 ... Initial interplane transformation matrix calculation processing S305 ... Neighboring block selection processing S306- S308: Processing for determining corresponding points S309: Processing for updating inter-plane transformation matrix S501: Processing for feature point detection of conventional method S502: Processing for initial matching of conventional method S503: Calculation of initial inter-plane conversion matrix of conventional method Processing S504 to S506: Processing for determining corresponding points of the conventional method

Claims (8)

複数の撮影装置をもって平面対象を撮影し、コンピュータを用いて各撮影装置から得られた画像間で特徴点の対応付けを行う方法であって、
コンピュータが前記各画像の全体から平面対象の特徴点を抽出する第1ステップと、
コンピュータが前記各画像上の一部を初期領域として選定して、画像間で前記初期領域の特徴点の対応付けを行う第2ステップと、
コンピュータが前記初期ブロックの対応点座標から初期平面変換行列を求める第3ステップと、
コンピュータが特定画像中の特徴点の対応点付けが済んだ領域のうち、直前に対応点付けが行われた領域に隣接する近隣領域を選定し、直前に計算した平面変換行列を用いて、前記近隣領域の特徴点の他の画像における対応位置を求める第4ステップと、
コンピュータが前記対応位置に最も近い他の画像の特徴点を探索し、該探索結果を対応点として記録する第5ステップと、
コンピュータが前記探索結果の対応点座標から変換行列を再度計算する第6ステップと、を有し、
前記第4ステップ〜前記第6ステップのサイクルを、画像上の平面対象全体の特徴点の対応付けが完了するまで繰り返す
ことを特徴とする画像間の特徴点の対応付方法。
A method of photographing a plane object with a plurality of photographing devices and associating feature points between images obtained from the respective photographing devices using a computer,
A first step in which a computer extracts feature points of a plane object from the entirety of each image;
A second step in which a computer selects a part of each image as an initial region and associates feature points of the initial region between images; and
A third step in which a computer obtains an initial plane transformation matrix from corresponding point coordinates of the initial block;
The computer selects a neighboring area adjacent to the area where the corresponding points have been assigned just before the corresponding points of the feature points in the specific image, and uses the plane transformation matrix calculated immediately before, A fourth step of obtaining corresponding positions in other images of the feature points of the neighboring area;
A fifth step in which a computer searches for a feature point of another image closest to the corresponding position and records the search result as a corresponding point;
A sixth step in which the computer recalculates a transformation matrix from the corresponding point coordinates of the search result,
The method of associating feature points between images, wherein the cycle of the fourth step to the sixth step is repeated until the feature points of the entire plane target on the image are completely associated.
前記第4ステップは、
最初の前記サイクルのときには、初期領域に隣接する近隣領域を選定し、初期平面変換行列を用いて前記対応位置を求める一方、
二回目以降の前記サイクルのときには、前回のサイクルで対応付けられたブロックの近隣領域を選定し、前回のサイクルで計算された平面変換行列を用いて前記対応位置を求める
ことを特徴とする請求項1記載の画像間の特徴点の対応付方法。
The fourth step includes
In the first cycle, a neighboring area adjacent to the initial area is selected, and the corresponding position is obtained using an initial plane transformation matrix,
The neighborhood of the block associated in the previous cycle is selected in the second and subsequent cycles, and the corresponding position is obtained using the plane transformation matrix calculated in the previous cycle. A method for associating feature points between images according to 1.
前記平面対象として、多角形のブロックパターンが複数描写された平面プレートを用いるとともに、
前記各領域は、それぞれ画像上に映ったブロックパターンの一つのブロックにより構成されている
ことを特徴とする請求項1または2のいずれか記載の画像間の特徴点の対応付方法。
As the plane object, using a plane plate on which a plurality of polygonal block patterns are depicted,
The method for associating feature points between images according to claim 1, wherein each of the regions is constituted by one block of a block pattern reflected on the image.
複数の撮影装置をもって平面対象を撮影し、各撮影装置から得られた画像間で特徴点の対応付けを行う装置であって、
前記各画像の全体から平面対象の特徴点を抽出する第1手段と、
前記各画像上の一部を初期領域として選定し、画像間で前記初期領域の特徴点の対応付けを行う第2手段と、
前記初期ブロックの対応点座標から初期平面変換行列を求める第3手段と、
特定画像中の特徴点の対応点付けが済んだ領域のうち、直前に対応点付けが行われた領域に隣接する近隣領域を選定し、直前に計算した平面変換行列を用いて、前記近隣領域の特徴点の他の画像における対応位置を求める第4手段と、
前記対応位置に最も近い他の画像の特徴点を探索し、該探索結果を対応点として記録する第5手段と、
前記探索結果の対応点座標から変換行列を再度計算する第6手段と、を備え、
前記第4手段〜前記第6手段が、画像上の平面対象全体の特徴点の対応付けが完了するまで処理サイクルを繰り返して実行する
ことを特徴とする画像間の特徴点の対応付装置。
A device for photographing a plane object with a plurality of photographing devices, and associating feature points between images obtained from the photographing devices,
First means for extracting feature points of a plane object from the whole of each image;
A second means for selecting a part of each image as an initial region and associating feature points of the initial region between images;
A third means for obtaining an initial plane transformation matrix from the corresponding point coordinates of the initial block;
Among the areas where the corresponding points of the feature points in the specific image have been assigned, select the neighboring area adjacent to the area where the corresponding points have been assigned immediately before, and use the plane transformation matrix calculated immediately before, the neighboring area A fourth means for obtaining a corresponding position in another image of the feature point;
Searching for a feature point of another image closest to the corresponding position and recording the search result as a corresponding point;
A sixth means for recalculating the transformation matrix from the corresponding point coordinates of the search result,
The apparatus for associating feature points between images, wherein the fourth means to the sixth means repeatedly execute the processing cycle until the feature points of the entire planar object on the image are completely matched.
前記第4手段は、
最初の前記処理サイクルのときには、初期領域に隣接する近隣領域を選定し、初期平面変換行列を用いて前記対応位置を求める一方、
二回目以降の前記処理サイクルのときには、前回の処理サイクルで対応付けられたブロックの近隣領域を選定し、前回の処理サイクルで計算された平面変換行列を用いて前記対応位置を求める
ことを特徴とする請求項4記載の画像間の特徴点の対応付装置。
The fourth means includes
At the time of the first processing cycle, a neighboring region adjacent to the initial region is selected, and the corresponding position is obtained using an initial plane transformation matrix,
In the second and subsequent processing cycles, the neighboring area of the block associated in the previous processing cycle is selected, and the corresponding position is obtained using the plane transformation matrix calculated in the previous processing cycle. The apparatus for associating feature points between images according to claim 4.
前記平面対象として、多角形のブロックパターンが複数描写された平面プレートを用いるとともに、
前記各領域は、それぞれ画像上に映ったブロックパターンの一つのブロックにより構成されている
ことを特徴とする請求項4または5のいずれか記載の画像間の特徴点の対応付装置。
As the plane object, using a plane plate on which a plurality of polygonal block patterns are depicted,
The device for associating feature points between images according to any one of claims 4 and 5, wherein each of the regions is constituted by one block of a block pattern reflected on the image.
請求項1〜3のいずれかに記載の画像間の特徴点の対応付方法における前記第1ステップ〜前記第6ステップをコンピュータに実行させ、
前記第4ステップ〜前記第6ステップのサイクルをコンピュータに画像上の平面対象全体の特徴点の対応付けが完了するまで繰り返させる
ことを特徴とする画像間の特徴点の対応付プログラム。
A computer executes the first step to the sixth step in the method for associating feature points between images according to any one of claims 1 to 3,
A program for associating feature points between images, which causes the computer to repeat the cycle of the fourth step to the sixth step until the feature points of the entire plane object on the image are completely associated.
請求項7記載の画像間の特徴点の対応付プログラムを格納した記録媒体。   A recording medium storing the feature point correspondence program between images according to claim 7.
JP2008007217A 2008-01-16 2008-01-16 Feature point correspondence method between images, feature point correspondence device between images, feature point correspondence program between images, and a recording medium storing the program. Expired - Fee Related JP4812782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008007217A JP4812782B2 (en) 2008-01-16 2008-01-16 Feature point correspondence method between images, feature point correspondence device between images, feature point correspondence program between images, and a recording medium storing the program.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008007217A JP4812782B2 (en) 2008-01-16 2008-01-16 Feature point correspondence method between images, feature point correspondence device between images, feature point correspondence program between images, and a recording medium storing the program.

Publications (2)

Publication Number Publication Date
JP2009171242A JP2009171242A (en) 2009-07-30
JP4812782B2 true JP4812782B2 (en) 2011-11-09

Family

ID=40971932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008007217A Expired - Fee Related JP4812782B2 (en) 2008-01-16 2008-01-16 Feature point correspondence method between images, feature point correspondence device between images, feature point correspondence program between images, and a recording medium storing the program.

Country Status (1)

Country Link
JP (1) JP4812782B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5600954B2 (en) * 2010-02-10 2014-10-08 セイコーエプソン株式会社 Inspection system, method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001235819A (en) * 2000-02-21 2001-08-31 Minolta Co Ltd Calibration method and device for camera and corresponding point searching method
JP2002350131A (en) * 2001-05-25 2002-12-04 Minolta Co Ltd Calibration method for and apparatus of multiocular camera and computer program
JP4109077B2 (en) * 2002-10-11 2008-06-25 敬二 実吉 Stereo camera adjustment device and stereo camera adjustment method

Also Published As

Publication number Publication date
JP2009171242A (en) 2009-07-30

Similar Documents

Publication Publication Date Title
US6816187B1 (en) Camera calibration apparatus and method, image processing apparatus and method, program providing medium, and camera
Moreno et al. Simple, accurate, and robust projector-camera calibration
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
JP5097480B2 (en) Image measuring device
KR101121034B1 (en) System and method for obtaining camera parameters from multiple images and computer program products thereof
WO2012141235A1 (en) Three-dimensional point group position data processing device, three-dimensional point group position data processing system, three-dimensional point group position data processing method and program
JP2001124522A (en) Crack evaluator using image processing
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
JP2011114575A (en) Image photographing system, image photographing method, and image photographing program
CN113920205B (en) Calibration method of non-coaxial camera
CN101447073A (en) Zoom lens calibration method
Li et al. A practical comparison between Zhang's and Tsai's calibration approaches
JP4058421B2 (en) Vibration measuring apparatus and measuring method thereof
JP2005140547A (en) 3-dimensional measuring method, 3-dimensional measuring device and computer program
JP2006350553A (en) Corresponding point retrieval method, mutual location method, three-dimensional image measurement method, corresponding point retrieval device, mutual location device, three-dimensional image measurement device, corresponding point retrieval program and computer-readable recording medium with its program recorded
Wohlfeil et al. Automatic camera system calibration with a chessboard enabling full image coverage
WO2008032375A1 (en) Image correcting device and method, and computer program
JP2005332177A (en) Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program
JP4812782B2 (en) Feature point correspondence method between images, feature point correspondence device between images, feature point correspondence program between images, and a recording medium storing the program.
US10924620B2 (en) Document reading guidance for operator using feature amount acquired from image of partial area of document
JP7044331B2 (en) Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges
CN114494316A (en) Corner marking method, parameter calibration method, medium, and electronic device
JP2006317418A (en) Image measuring device, image measurement method, measurement processing program, and recording medium
JP2006145419A (en) Image processing method
JP4351090B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100128

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110823

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees