JP5563930B2 - Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method - Google Patents

Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method Download PDF

Info

Publication number
JP5563930B2
JP5563930B2 JP2010191099A JP2010191099A JP5563930B2 JP 5563930 B2 JP5563930 B2 JP 5563930B2 JP 2010191099 A JP2010191099 A JP 2010191099A JP 2010191099 A JP2010191099 A JP 2010191099A JP 5563930 B2 JP5563930 B2 JP 5563930B2
Authority
JP
Japan
Prior art keywords
image
camera
line
dimensional
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010191099A
Other languages
Japanese (ja)
Other versions
JP2012047637A (en
Inventor
孝房 二村
亮 永井
淳一 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurashiki Spinning Co Ltd
Original Assignee
Kurashiki Spinning Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurashiki Spinning Co Ltd filed Critical Kurashiki Spinning Co Ltd
Priority to JP2010191099A priority Critical patent/JP5563930B2/en
Publication of JP2012047637A publication Critical patent/JP2012047637A/en
Application granted granted Critical
Publication of JP5563930B2 publication Critical patent/JP5563930B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被計測物の形状を非接触で計測する非接触三次元計測装置及び非接触三次元計測方法に関する。   The present invention relates to a non-contact three-dimensional measurement apparatus and a non-contact three-dimensional measurement method for measuring the shape of an object to be measured in a non-contact manner.

被計測物を計測する三次元計測の方法には、パッシブ法(受動型計測法)とアクティブ法(能動型計測法)とがある。パッシブ法とは、対象となる物体に対して、計測の補助となる特定の光や電波等を照射することなく計測を行う方法である。パッシブ法には、例えば写真計測法がある。アクティブ法は、三次元計測を行うために光、電波、音波などを対象となる物体に照射して、得られる情報を利用して計測を行う方法である。アクティブ法には、例えば光切断法がある。   There are a passive method (passive measurement method) and an active method (active measurement method) as three-dimensional measurement methods for measuring an object to be measured. The passive method is a method of performing measurement without irradiating a target object with specific light, radio waves, or the like that assist measurement. The passive method includes, for example, a photo measurement method. The active method is a method of performing measurement using information obtained by irradiating light, radio waves, sound waves, or the like on a target object in order to perform three-dimensional measurement. The active method includes, for example, a light cutting method.

パッシブ法の一つである写真計測は、撮影された2枚以上の画像より外部標定(2台のカメラの位置関係を求めること)を行い、画像間の特徴点に対し、同一場所を対応付けることで三次元点を求めていた(例えば、特許文献1参照。)。このため、写真に写るサイズであれば、被計測物の大きさは自由であり、大きな物から、小さな物まで計測することができる。   Photo measurement, which is one of the passive methods, performs external orientation (determining the positional relationship between two cameras) from two or more captured images, and associates the same location with the feature points between the images. The three-dimensional point was calculated | required by (For example, refer patent document 1). For this reason, the size of the object to be measured is arbitrary as long as it can be seen in the photograph, and it is possible to measure from a large object to a small object.

特許第3924576号Japanese Patent No. 3924576

徐剛著,「写真から作る3次元CG」,近代科学社,2001年1月 P.31〜P.86Xu Tsuyoshi, “Three-dimensional CG made from photographs”, Modern Science, January 2001 31-P. 86 吉澤徹編,「光三次元計測」,新技術コミュニケーションズ,1993年3月 P.28〜P.37Edited by Toru Yoshizawa, “Optical 3D Measurement”, New Technology Communications, March 1993 28-P. 37 金谷健一著、「画像理解」、森北出版、1991年11月、P.48−P.53Kenichi Kanaya, “Image Understanding”, Morikita Publishing, November 1991, p. 48-P. 53 佐藤 淳著,「コンピュータビジョン −視覚の幾何学−」,コロナ社,1999年5月 P.80〜P.103Satoshi Sato, “Computer Vision-Geometry of Vision”, Corona, May 1999 80-P. 103 Z.Zhang:Flexible Camera Calibration by Viewing a Plane from Unknown Orientation. Proc of 7th Int. Conference on Computer Vision, Kerkyra, Greece. pp.666-673, Sept.1999Z.Zhang: Flexible Camera Calibration by Viewing a Plane from Unknown Orientation.Proc of 7th Int.Conference on Computer Vision, Kerkyra, Greece.pp.666-673, Sept.1999

写真測量において、2台のカメラでそれぞれ撮影された2枚の写真内の対応付けは、2枚の写真内に共通して写っており、同一箇所と認定できる特徴点を利用して行われる。そのため、被計測物の表面上に同一箇所と認定できる何らかの特徴点がなければ、2枚の写真内の対応付けは困難であった。たとえば、プラスチック成型品の表面は滑らかで特徴がないため、写真測量による特徴点の対応付けを利用する三次元計測はできなかった。   In photogrammetry, the association between two photographs taken by two cameras is shown in common in the two photographs, and is performed using feature points that can be identified as the same location. For this reason, if there is no feature point that can be recognized as the same location on the surface of the object to be measured, it is difficult to associate the two photographs. For example, since the surface of a plastic molded product is smooth and has no features, three-dimensional measurement using feature point correspondence by photogrammetry has not been possible.

上述のように、パッシブ法である写真計測では、滑らかな表面等の何ら特徴のない形状は計測することは困難であった。また、アクティブ法である光切断法は、被計測物のサイズが計測装置によって限定されてしまうという欠点を持っている   As described above, it is difficult to measure a shape having no features such as a smooth surface in the photo measurement which is a passive method. In addition, the light cutting method, which is an active method, has the disadvantage that the size of the object to be measured is limited by the measuring device.

本発明の目的は、表面に何ら特徴のない物体についても高速に非接触で三次元形状計測を可能にする非接触三次元計測装置及び非接触三次元計測方法を提供することである。   An object of the present invention is to provide a non-contact three-dimensional measurement apparatus and a non-contact three-dimensional measurement method that enable non-contact three-dimensional shape measurement of an object having no features on the surface at high speed.

本発明に係る非接触三次元計測装置は、互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラと、
前記被計測物にラインレーザを照射するラインレーザと、
前記第1のカメラ及び前記第2のカメラについて、互いの位置関係を計算するための外部標定を行う標定部と、
前記ラインレーザが照射された被計測物を前記第1のカメラで撮影した第1の画像と、前記第2のカメラで撮影した第2の画像とを画像処理する画像処理部と、
を備え、
前記画像処理部は、
前記第1の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第1対象領域として選択し、
前記第2の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第2対象領域として選択し、
前記第1対象領域において、前記ラインレーザが撮影された部分を第1線分データとして抽出し、
前記第2対象領域において、前記ラインレーザが撮影された部分を第2線分データとして抽出し、
前記第1対象領域内の前記第1線分データの中の一つの点を特徴点として選択し、
前記第1の画像上の前記第1対象領域内で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上における前記第2対象領域内に計算し、
前記第2の画像上の前記第2対象領域内において、撮影された前記ラインレーザに対応する第2線分データと前記エピポーラ線との交点を、前記第1の画像上の前記第1対象領域内で選択した前記特徴点と対応する対応点として決定し、
前記第1の画像上の前記第1対象領域内における前記特徴点と、前記第2の画像上の前記第2対象領域内における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出する。
A non-contact three-dimensional measurement apparatus according to the present invention is arranged at a distance from each other, and a first camera and a second camera that shoot a measurement object,
A line laser for irradiating the object to be measured with a line laser;
An orientation unit that performs external orientation for calculating the positional relationship between the first camera and the second camera;
An image processing unit that performs image processing on a first image obtained by photographing the object to be measured irradiated with the line laser with the first camera, and a second image photographed by the second camera;
With
The image processing unit
In the first image, a rectangular area including a portion where the line laser is photographed is selected as a first target area,
In the second image, a rectangular region including a portion where the line laser is photographed is selected as a second target region,
In the first target area, a portion where the line laser is imaged is extracted as first line segment data,
In the second target area, a portion where the line laser is imaged is extracted as second line segment data,
Selecting one point in the first line segment data in the first target area as a feature point;
An epipolar line corresponding to the feature point selected in the first target region on the first image is calculated in the second target region on the second image;
In the second target area on the second image, the intersection of the captured second line segment data corresponding to the line laser and the epipolar line is defined as the first target area on the first image. Determined as a corresponding point corresponding to the feature point selected in
Corresponding to the feature point and the corresponding point using the feature point in the first target region on the first image and the corresponding point in the second target region on the second image The three-dimensional coordinates of the corresponding point on the object to be measured are calculated.

また、前記第1のカメラ及び前記第2のカメラは、撮影した画像データを、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差する方向の走査線に沿って記録する画像メモリを備え、それぞれ前記第1の画像及び前記第2の画像として出力してもよい。   In addition, the first camera and the second camera record image data taken along a scanning line in a direction intersecting with a straight line connecting the first camera and the second camera. May be output as the first image and the second image, respectively.

さらに、前記画像処理部は、前記矩形領域の長辺が前記第1の画像及び前記第2の画像を記録した際の走査線の方向と平行となるように、前記第1対象領域及び前記第2対象領域を選択してもよい。   Further, the image processing unit is configured so that the long side of the rectangular region is parallel to the direction of the scanning line when the first image and the second image are recorded. Two target areas may be selected.

さらに、前記画像処理部は、前記第1対象領域内でのみ前記特徴点を選択し、前記第2対象領域内でのみ前記対応点を決定することができる。   Furthermore, the image processing unit can select the feature points only within the first target region and determine the corresponding points only within the second target region.

またさらに、前記ラインレーザは、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射してもよい。   Still further, the line laser may irradiate the object to be measured so as to intersect with a straight line connecting the first camera and the second camera.

また、前記ラインレーザは、前記被計測物の全体にわたってラインレーザを走査できるものであってもよい。   The line laser may be capable of scanning the line laser over the entire object to be measured.

さらに、前記ラインレーザは、照射方向の所定の軸について回転してラインレーザを前記被計測物に照射できるものであってもよい。   Furthermore, the line laser may rotate about a predetermined axis in the irradiation direction and irradiate the object to be measured with the line laser.

本発明に係る非接触三次元計測方法は、
(a)互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラについて、互いの位置関係を計算するための外部標定を行う外部標定ステップと、
(b)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(c)前記ラインレーザが照射された被計測物を前記第1のカメラ及び前記第2のカメラでそれぞれ撮影して、前記第1のカメラによる第1の画像と、前記第2のカメラによる第2の画像とを得る画像撮影ステップと、
(d)前記第1の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第1対象領域として選択する第1対象領域選択ステップと、
(e)前記第2の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第2対象領域として選択する第2対象領域選択ステップと、
(f)前記第1対象領域において、前記ラインレーザが撮影された部分を第1線分データとして抽出する第1線分データ抽出ステップと、
(g)前記第2対象領域において、前記ラインレーザが撮影された部分を第2線分データとして抽出する第2線分データ抽出ステップと、
(h)前記第1対象領域内の前記第1線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(i)前記第1の画像上の前記第1対象領域内で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上の前記第2対象領域内に計算するエピポーラ線計算ステップと、
(j)前記第2の画像上の前記第2対象領域内において、撮影された前記ラインレーザに対応する前記第2線分データと前記エピポーラ線との交点を、前記第1の画像上の前記第1対象領域内で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(k)前記第1の画像上の前記第1対象領域内における前記特徴点と、前記第2の画像上の前記第2対象領域内における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出する三次元座標算出ステップと、
を含む。
Non-contact three-dimensional measurement method according to the present invention,
(A) an external orientation step for performing an external orientation for calculating the positional relationship between the first camera and the second camera that are arranged at a distance from each other and photograph the object to be measured;
(B) a line laser irradiation step of irradiating the object to be measured with a line laser;
(C) The object to be measured irradiated with the line laser is photographed by the first camera and the second camera, respectively, and the first image by the first camera and the second image by the second camera are taken. An image capturing step for obtaining two images;
(D) a first target region selection step of selecting, as the first target region, a rectangular region including a portion where the line laser is captured in the first image;
(E) a second target region selection step of selecting, as the second target region, a rectangular region including a portion where the line laser is captured in the second image;
(F) a first line segment data extraction step of extracting a portion where the line laser is photographed as first line segment data in the first target area;
(G) a second line segment data extracting step of extracting a portion where the line laser is photographed as second line segment data in the second target area;
(H) a feature point selection step of selecting one point in the first line segment data in the first target region as a feature point;
(I) an epipolar line calculating step for calculating an epipolar line corresponding to the feature point selected in the first target area on the first image in the second target area on the second image;
(J) In the second target region on the second image, an intersection point of the second line segment data corresponding to the captured line laser and the epipolar line is defined as the intersection on the first image. A corresponding point determining step for determining as a corresponding point corresponding to the feature point selected in the first target region;
(K) The feature points and the correspondences using the feature points in the first target region on the first image and the corresponding points in the second target region on the second image. A three-dimensional coordinate calculation step for calculating a three-dimensional coordinate of a corresponding point on the measurement object corresponding to a point;
including.

また、前記画像撮影ステップにおいて、前記第1のカメラ及び前記第2のカメラによって撮影した画像データを、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差する方向の走査線に沿って記録し、それぞれ前記第1の画像及び前記第2の画像として出力してもよい。   In the image photographing step, the image data photographed by the first camera and the second camera is taken along a scanning line in a direction intersecting with a straight line connecting the first camera and the second camera. May be recorded and output as the first image and the second image, respectively.

さらに、前記第1対象領域選択ステップにおいて、前記矩形領域の長辺が前記第1の画像を記録した際の走査線の方向と平行となるように、前記第1対象領域を選択し、
前記第2対象領域選択ステップにおいて、前記矩形領域の長辺が前記第2の画像を記録した際の走査線の方向と平行となるように、前記第2対象領域を選択してもよい。
Furthermore, in the first target area selection step, the first target area is selected so that the long side of the rectangular area is parallel to the direction of the scanning line when the first image is recorded,
In the second target area selecting step, the second target area may be selected so that a long side of the rectangular area is parallel to a scanning line direction when the second image is recorded.

またさらに、前記特徴点選択ステップにおいて、前記第1対象領域内でのみ前記特徴点を選択し、前記対応点決定ステップにおいて、前記第2対象領域内でのみ前記対応点を決定することができる。   Still further, in the feature point selection step, the feature point can be selected only within the first target region, and in the corresponding point determination step, the corresponding point can be determined only within the second target region.

また、前記ラインレーザ照射ステップにおいて、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射してもよい。   In the line laser irradiation step, the object to be measured may be irradiated with a line laser so as to intersect with a straight line connecting the first camera and the second camera.

さらに、(l)前記第1画像から抽出された前記第1線分上の点すべてに対して、前記ステップ(h)〜前記ステップ(k)を繰り返して、撮影されたラインレーザに対応するライン部分に対して三次元座標を算出する三次元座標算出ステップを含んでもよい。   Further, (l) the line corresponding to the photographed line laser is repeated by repeating the steps (h) to (k) for all the points on the first line segment extracted from the first image. A three-dimensional coordinate calculation step for calculating three-dimensional coordinates for the portion may be included.

また、前記ラインレーザ照射ステップ(b)において、前記ラインレーザを前記被計測物にわたって走査するラインレーザ走査ステップをさらに含み、前記ラインレーザを照射するごとに、前記ステップ(c)〜前記ステップ(l)を繰り返して、前記被計測物の全体を走査してもよい。   The line laser irradiation step (b) further includes a line laser scanning step of scanning the line laser over the object to be measured, and each time the line laser is irradiated, the steps (c) to (l) ) May be repeated to scan the entire object to be measured.

さらに、前記ラインレーザ照射ステップ(b)において、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するラインレーザ走査ステップをさらに含み、前記ラインレーザを回転させて前記被計測物に照射するごとに、前記ステップ(c)〜前記ステップ(l)を繰り返してもよい。   The line laser irradiation step (b) further includes a line laser scanning step of irradiating the object to be measured by rotating the line laser about a predetermined axis in an irradiation direction, and rotating the line laser to rotate the object to be measured. Each time the measurement object is irradiated, the step (c) to the step (l) may be repeated.

またさらに、前記対応点決定ステップ(j)において、前記エピポーラ線と前記第2線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第1の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第2の画像上で前記エピポーラ線と前記第2線分データとの単一の交点を前記特徴点と対応する対応点として決定してもよい。   Still further, in the corresponding point determining step (j), when there are two or more intersections between the epipolar line and the second line segment data, the line laser corresponds to the feature point on the first image. Irradiating by rotating about the axis of the irradiation direction to the corresponding point on the object to be measured, and setting the single intersection point of the epipolar line and the second line segment data on the second image as the feature point It may be determined as a corresponding point.

本発明に係る非接触三次元計測装置は、
互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラを含む第1組のカメラ系と、
前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、前記被計測物を撮影する第3のカメラ及び第4のカメラを含む第2組のカメラ系と、
前記被計測物にラインレーザを照射するラインレーザと、
前記第1のカメラ及び前記第2のカメラについて、互いの位置関係に関する外部標定を行う第1標定部と、
前記第3のカメラ及び前記第4のカメラについて、互いの位置関係に関する外部標定を行う第2標定部と、
前記ラインレーザが照射された被計測物を前記第1のカメラで撮影した第1の画像と、前記第2のカメラで撮影した第2の画像とを画像処理すると共に、前記ラインレーザが照射された被計測物を前記第3のカメラで撮影した第3の画像と、前記第4のカメラで撮影した第4の画像とを画像処理する、画像処理部と、
を備え、
前記画像処理部は、
前記第1の画像上の撮影された前記ラインレーザに対応する第1線分データの中の一つの点を特徴点として選択し、
前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算して、
前記第2の画像上において、撮影された前記ラインレーザに対応する第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第1の画像上における前記特徴点と、前記第2の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第3の画像上の撮影された前記ラインレーザに対応する第3線分データの中の一つの点を特徴点として選択し、
前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算して、
前記第4の画像上において、撮影された前記ラインレーザに対応する第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第3の画像上における前記特徴点と、前記第4の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求め、得られた座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る。
Non-contact three-dimensional measuring device according to the present invention,
A first set of camera systems including a first camera and a second camera, which are arranged at a distance from each other and photograph a measurement object;
A second set of camera systems including a third camera and a fourth camera, which are arranged at positions different from the first set of camera systems and at a distance from each other, and shoot the measurement object;
A line laser for irradiating the object to be measured with a line laser;
A first orientation unit that performs external orientation on the positional relationship between the first camera and the second camera;
A second orientation unit that performs external orientation on the positional relationship between the third camera and the fourth camera;
A first image obtained by photographing the object to be measured irradiated with the line laser with the first camera and a second image photographed with the second camera are subjected to image processing, and the line laser is emitted. An image processing unit that performs image processing on a third image obtained by photographing the measured object with the third camera and a fourth image obtained by photographing with the fourth camera;
With
The image processing unit
Selecting one point in the first line segment data corresponding to the line laser imaged on the first image as a feature point;
An epipolar line corresponding to the feature point selected on the first image is calculated on the second image;
On the second image, an intersection between the second line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the first image. And
Using the feature points on the first image and the corresponding points on the second image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculating and obtaining a three-dimensional coordinate system on the object to be measured in the first set of camera systems;
Selecting one point in the third line segment data corresponding to the line laser imaged on the third image as a feature point;
An epipolar line corresponding to the feature point selected on the third image is calculated on the fourth image;
On the fourth image, an intersection of the fourth line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the third image. And
Using the feature points on the third image and the corresponding points on the fourth image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculating and obtaining a three-dimensional coordinate system on the object to be measured in the second set of camera systems;
Of the three-dimensional coordinates on the measurement object in the second set of camera systems, select at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the measurement object in the first set of camera systems; For the selected at least three three-dimensional coordinates, a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems is obtained, and the obtained coordinate conversion relationship And converting the three-dimensional coordinate system of the second set of camera systems into the three-dimensional coordinate system of the first set of camera systems, and based on the three-dimensional coordinate system of the first set of camera systems Obtain the three-dimensional coordinates of the measurement object.

また、前記画像処理部は、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への相似変換の関係に基づいて、座標変換関係を求めることができる。   In addition, the image processing unit, for the selected at least three three-dimensional coordinates, a relationship of similarity conversion from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems Based on the above, the coordinate conversion relationship can be obtained.

さらに、前記第2組のカメラ系の三次元座標系N(x,y,z)から前記第1組のカメラ系の三次元座標系M(x,y,z)への前記相似変換は、例えば、下記式で表すことができる。
=sR(N−t)
Mi:第1組のカメラ系の三次元座標(座標ベクトル)
Ni:第2組のカメラ系の三次元座標(座標ベクトル)
s:スケール(スカラー値)
R:回転行列
t:並進ベクトル
Further, the similarity transformation from the three-dimensional coordinate system N (x, y, z) of the second set of camera systems to the three-dimensional coordinate system M (x, y, z) of the first set of camera systems is: For example, it can be represented by the following formula.
M i = sR (N i −t)
Mi: 3D coordinates (coordinate vector) of the first set of camera systems
Ni: 3D coordinates (coordinate vector) of the second set of camera systems
s: Scale (scalar value)
R: rotation matrix t: translation vector

またさらに、前記ラインレーザは、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射してもよい。   Still further, the line laser may irradiate the object to be measured so as to intersect with a straight line connecting the first camera and the second camera.

また、前記ラインレーザは、前記被計測物の全体にわたってラインレーザを走査してもよい。   The line laser may scan the line laser over the entire object to be measured.

さらに、前記ラインレーザは、照射方向の所定の軸について回転してラインレーザを前記被計測物に照射してもよい。   Furthermore, the line laser may rotate about a predetermined axis in the irradiation direction to irradiate the object to be measured with the line laser.

本発明に係る非接触三次元計測方法は、第1組のカメラ系による被計測物の三次元座標系の算出と、第2組のカメラ系による被計測物の三次元座標系の算出とを行った後、得られた前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、非接触三次元計測方法であって、
(a)互いに距離をおいて配置され、被計測物を撮影する第1組のカメラ系を構成する第1のカメラ及び第2のカメラについて、互いの位置関係に関する外部標定を行う第1外部標定ステップと、
(b)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(c)前記ラインレーザが照射された被計測物を前記第1のカメラ及び前記第2のカメラでそれぞれ撮影して、前記第1のカメラによる第1の画像と、前記第2のカメラによる第2の画像とを得る第1のカメラ系による画像撮影ステップと、
(d)前記第1の画像において、前記ラインレーザが撮影された部分を第1線分データとして抽出する第1線分データ抽出ステップと、
(e)前記第2の画像において、前記ラインレーザが撮影された部分を第2線分データとして抽出する第2線分データ抽出ステップと、
(f)前記第1の画像から抽出された前記第1線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(g)前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算するエピポーラ線計算ステップと、
(h)前記第2の画像から抽出された前記第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(i)前記第1の画像における前記特徴点と、前記第2の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得る第1組のカメラ系による三次元座標算出ステップと、
(j)前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、被計測物を撮影する第2組のカメラ系を構成する第3のカメラ及び第4のカメラについて、互いの位置関係に関する外部標定を行う第2外部標定ステップと、
(k)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(l)前記ラインレーザが照射された被計測物を前記第3のカメラ及び前記第4のカメラでそれぞれ撮影して、前記第3のカメラによる第3の画像と、前記第4のカメラによる第4の画像とを得る第2組のカメラ系による画像撮影ステップと、
(m)前記第3の画像において、前記ラインレーザが撮影された部分を第3線分データとして抽出する第3線分データ抽出ステップと、
(n)前記第4の画像において、前記ラインレーザが撮影された部分を第4線分データとして抽出する第4線分データ抽出ステップと、
(o)前記第3の画像から抽出された前記第3線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(p)前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算するエピポーラ線計算ステップと、
(q)前記第4の画像から抽出された前記第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(r)前記第3の画像における前記特徴点と、前記第4の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得る第2組のカメラ系による三次元座標算出ステップと、
(s)前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求める座標変換関係算出ステップと、
(t)得られた前記座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、座標変換ステップと、
を含む。
The non-contact three-dimensional measurement method according to the present invention includes the calculation of the three-dimensional coordinate system of the measurement object by the first set of camera systems and the calculation of the three-dimensional coordinate system of the measurement object by the second set of camera systems. Then, the obtained three-dimensional coordinate system of the second set of camera systems is transformed into a three-dimensional coordinate system of the first set of camera systems, and the three-dimensional coordinate system of the first set of camera systems is converted. A non-contact three-dimensional measurement method for obtaining three-dimensional coordinates of the object to be measured based on
(A) A first external orientation that performs an external orientation relating to the mutual positional relationship of the first camera and the second camera that are arranged at a distance from each other and constitute a first set of camera systems for photographing the object to be measured. Steps,
(B) a line laser irradiation step of irradiating the object to be measured with a line laser;
(C) The object to be measured irradiated with the line laser is photographed by the first camera and the second camera, respectively, and the first image by the first camera and the second image by the second camera are taken. An image capturing step by a first camera system for obtaining two images;
(D) a first line segment data extracting step of extracting a portion where the line laser is photographed as first line segment data in the first image;
(E) in the second image, a second line segment data extracting step of extracting a portion where the line laser is photographed as second line segment data;
(F) a feature point selection step of selecting one point in the first line segment data extracted from the first image as a feature point;
(G) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the first image on the second image;
(H) Corresponding point determination for determining an intersection between the second line segment data extracted from the second image and the epipolar line as a corresponding point corresponding to the feature point selected on the first image. Steps,
(I) Using the feature points in the first image and the corresponding points in the second image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by the first set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the first set of camera systems;
(J) A third camera and a fourth camera that are arranged at a distance from each other at a position different from the first set of camera systems and constitute a second set of camera systems for capturing an object to be measured. A second external orientation step for performing external orientation with respect to each other's positional relationship;
(K) a line laser irradiation step of irradiating the object to be measured with a line laser;
(L) The object to be measured irradiated with the line laser is photographed by the third camera and the fourth camera, respectively, and a third image by the third camera and a fourth image by the fourth camera are taken. An image capturing step by a second set of camera systems for obtaining four images;
(M) a third line segment data extracting step of extracting a portion where the line laser is photographed as third line segment data in the third image;
(N) a fourth line segment data extracting step of extracting, as the fourth line segment data, a portion where the line laser is photographed in the fourth image;
(O) a feature point selecting step of selecting one point in the third line segment data extracted from the third image as a feature point;
(P) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the third image on the fourth image;
(Q) Corresponding point determination for determining an intersection between the fourth line segment data extracted from the fourth image and the epipolar line as a corresponding point corresponding to the feature point selected on the third image. Steps,
(R) Using the feature points in the third image and the corresponding points in the fourth image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by a second set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the second set of camera systems;
(S) Among the three-dimensional coordinates on the object to be measured in the second set of camera systems, at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the object to be measured in the first set of camera systems are A coordinate conversion relationship calculation for selecting and calculating a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems for the selected at least three three-dimensional coordinates Steps,
(T) Using the obtained coordinate transformation relationship, the three-dimensional coordinate system of the second set of camera systems is transformed into the three-dimensional coordinate system of the first set of camera systems, and the first set of Obtaining a three-dimensional coordinate of the object to be measured based on a three-dimensional coordinate system of a camera system;
including.

また、前記座標変換関係算出ステップにおいて、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への相似変換の関係に基づいて、座標変換関係を求めることができる。   In the coordinate conversion relationship calculating step, similarity conversion from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems is performed on the selected at least three three-dimensional coordinates. Based on this relationship, the coordinate conversion relationship can be obtained.

さらに、前記第2組のカメラ系の三次元座標系N(x,y,z)から前記第1組のカメラ系の三次元座標系M(x,y,z)への前記相似変換は、例えば、下記式で表すことができる。
=sR(N−t)
Mi:第1組のカメラ系の三次元座標(座標ベクトル)
Ni:第2組のカメラ系の三次元座標(座標ベクトル)
s:スケール(スカラー値)
R:回転行列
t:並進ベクトル
Further, the similarity transformation from the three-dimensional coordinate system N (x, y, z) of the second set of camera systems to the three-dimensional coordinate system M (x, y, z) of the first set of camera systems is: For example, it can be represented by the following formula.
M i = sR (N i −t)
Mi: 3D coordinates (coordinate vector) of the first set of camera systems
Ni: 3D coordinates (coordinate vector) of the second set of camera systems
s: Scale (scalar value)
R: rotation matrix t: translation vector

またさらに、第1組のカメラ系による前記ラインレーザ照射ステップにおいて、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射してもよい。   Still further, in the line laser irradiation step by the first set of camera systems, the measurement object may be irradiated with a line laser so as to intersect with a straight line connecting the first camera and the second camera. .

また、第2組のカメラ系による前記ラインレーザ照射ステップにおいて、前記第3のカメラと前記第4のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射してもよい。   Further, in the line laser irradiation step by the second set of camera systems, the measurement object may be irradiated with a line laser so as to intersect with a straight line connecting the third camera and the fourth camera.

さらに、第1組のカメラ系による三次元座標算出ステップ(i)に続いて、
(i−2)前記第1画像から抽出された前記第1線分上の点すべてに対して、前記ステップ(f)〜前記ステップ(i)を繰り返して、前記被計測物のラインレーザが照射されたライン部分の全体に対して三次元座標を算出する三次元座標算出ステップ
をさらに含んでもよい。
Furthermore, following the three-dimensional coordinate calculation step (i) by the first set of camera systems,
(I-2) Steps (f) to (i) are repeated for all points on the first line segment extracted from the first image, and the line laser of the object to be measured is irradiated. A three-dimensional coordinate calculation step for calculating three-dimensional coordinates for the entire line portion may be further included.

またさらに、第1組のカメラ系による前記ラインレーザ照射ステップ(b)において、前記ラインレーザを前記被計測物にわたって走査するラインレーザ走査ステップをさらに含み、前記ラインレーザを照射するごとに、前記ステップ(c)〜前記ステップ(i−2)を繰り返して、前記被計測物の全体を走査してもよい。   Further, the line laser irradiation step (b) by the first set of camera systems further includes a line laser scanning step of scanning the line laser over the object to be measured, and each time the line laser is irradiated, the step The whole object to be measured may be scanned by repeating steps (c) to (i-2).

また、第1組のカメラ系による前記ラインレーザ照射ステップ(b)において、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するラインレーザ走査ステップをさらに含み、前記ラインレーザを回転させて前記被計測物に照射するごとに、前記ステップ(c)〜前記ステップ(i−2)を繰り返してもよい。   The line laser irradiation step (b) by the first set of camera systems further includes a line laser scanning step in which the line laser is rotated about a predetermined axis in the irradiation direction to irradiate the object to be measured. The steps (c) to (i-2) may be repeated each time the laser beam is rotated to irradiate the object to be measured.

さらに、第2組のカメラ系による三次元座標算出ステップ(s)に続いて、
(s−2)前記第3画像から抽出された前記第3線分上の点すべてに対して、前記ステップ(o)〜前記ステップ(s)を繰り返して、前記被計測物のラインレーザが照射されたライン部分の全体に対して三次元座標を算出する三次元座標算出ステップ
をさらに含んでもよい。
Furthermore, following the three-dimensional coordinate calculation step (s) by the second set of camera systems,
(S-2) Steps (o) to (s) are repeated for all points on the third line segment extracted from the third image, and the line laser of the object to be measured is irradiated. A three-dimensional coordinate calculation step for calculating three-dimensional coordinates for the entire line portion may be further included.

またさらに、第2組のカメラ系による前記ラインレーザ照射ステップ(k)において、前記ラインレーザを前記被計測物にわたって走査するラインレーザ走査ステップをさらに含み、前記ラインレーザを照射するごとに、前記ステップ(l)〜前記ステップ(s−2)を繰り返して、前記被計測物の全体を走査してもよい。   Further, the line laser irradiation step (k) by the second set of camera systems further includes a line laser scanning step of scanning the line laser over the object to be measured, and each time the line laser is irradiated, the step The whole object to be measured may be scanned by repeating steps (l) to (s-2).

また、第2組のカメラ系による前記ラインレーザ照射ステップ(k)において、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するラインレーザ走査ステップをさらに含み、前記ラインレーザを回転させて前記被計測物に照射するごとに、前記ステップ(l)〜前記ステップ(s−2)を繰り返してもよい。   The line laser irradiation step (k) by the second set of camera systems further includes a line laser scanning step of irradiating the object to be measured by rotating the line laser about a predetermined axis in the irradiation direction. Step (l) to step (s-2) may be repeated each time the laser beam is rotated to irradiate the object to be measured.

さらに、第1組のカメラ系による前記対応点決定ステップ(h)において、前記エピポーラ線と前記第2線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第1の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第2の画像上で前記エピポーラ線と前記第2線分データとの単一の交点を前記特徴点と対応する対応点として決定してもよい。   Further, in the corresponding point determination step (h) by the first set of camera systems, when there are two or more intersections between the epipolar line and the second line segment data, the line laser is moved onto the first image. Irradiating by rotating about the axis in the irradiation direction to the corresponding point on the object to be measured corresponding to the feature point of the single point of the epipolar line and the second line segment data on the second image May be determined as corresponding points corresponding to the feature points.

またさらに、第2組のカメラ系による前記対応点決定ステップ(q)において、前記エピポーラ線と前記第4線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第3の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第4の画像上で前記エピポーラ線と前記第4線分データとの単一の交点を前記特徴点と対応する対応点として決定してもよい。   Still further, in the corresponding point determination step (q) by the second set of camera systems, when there are two or more intersections between the epipolar line and the fourth line segment data, the line laser is set to the third image. Irradiating by rotating about the axis of the irradiation direction to the corresponding point on the object to be measured corresponding to the feature point above, the epipolar line and the fourth line segment data are simply displayed on the fourth image. One intersection may be determined as a corresponding point corresponding to the feature point.

また、上記非接触三次元計測装置において、前記ラインレーザは、複数の色のラインレーザを併用してもよい。   In the non-contact three-dimensional measuring apparatus, the line laser may be used in combination with a plurality of color line lasers.

さらに、上記非接触三次元計測方法において、前記ラインレーザを照射するステップにおいて、前記ラインレーザとして複数の色のラインレーザを併用してもよい。   Furthermore, in the non-contact three-dimensional measurement method, in the step of irradiating the line laser, a plurality of color line lasers may be used in combination as the line laser.

本発明に係る非接触三次元計測装置及び非接触三次元計測方法によれば、被計測物にラインレーザを照射することで、被計測物に特徴がなくても写真計測の原理に基づき三次元座標を計測することできる。またレーザのコヒーレント性のため被計測物が凹凸を有する形状であってもラインがぼけることが少なく、特徴点を正確に抽出することができる。   According to the non-contact three-dimensional measurement apparatus and the non-contact three-dimensional measurement method according to the present invention, the line laser is irradiated onto the object to be measured, and the three-dimensional based on the principle of photo measurement even if the object to be measured has no characteristics. Coordinates can be measured. In addition, due to the coherent nature of the laser, even if the object to be measured has a shape with irregularities, the line is less likely to be blurred, and the feature points can be extracted accurately.

また、この非接触三次元計測装置及び非接触三次元計測方法では、ラインレーザが照射された被計測物を2つのカメラで撮影した2枚の画像のうち一方の画像上で撮影されたラインレーザに対応する部分である第1線分データを含む矩形領域を第1対象領域として選択し、第1対象領域内の第1線分データの一つの点を特徴点として選択している。この場合に、もう一つの画像上の撮影されたラインレーザに対応する部分である第2線分データを含む矩形領域を第2対象領域として選択し、第2対象領域内に上記第1対象領域内で選択した特徴点に対応するエピポーラ線を計算して、エピポーラ線と第2線分データとの交点を上記特徴点と対応する対応点として特定することができる。これによって、被計測物上に照射したパターンとの相関関係で対応点を特定していた場合に比べて曖昧さを含むことなく対応点を明確に決めることができ、三次元計測の精度を向上させることができる。さらに、本発明に係る非接触三次元計測装置及び非接触三次元計測方法では、特徴点及び対応点を計算するために必要十分な第1対象領域及び第2対象領域を画像全体の一部として選択している。これによって、第1対象領域及び第2対象領域のそれぞれについてだけ特徴点及び対応点の計算を行うことによって、2枚の画像全体にわたって計算する場合に比べてより速く三次元計測を行うことができる。   Moreover, in this non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method, the line laser image | photographed on one image of the two images which image | photographed the to-be-measured object irradiated with the line laser with two cameras. A rectangular area including the first line segment data that corresponds to is selected as the first target area, and one point of the first line segment data in the first target area is selected as the feature point. In this case, a rectangular area including the second line segment data that is a portion corresponding to the captured line laser on another image is selected as the second target area, and the first target area is included in the second target area. The epipolar line corresponding to the feature point selected in the above is calculated, and the intersection of the epipolar line and the second line segment data can be specified as the corresponding point corresponding to the feature point. This makes it possible to clearly determine the corresponding point without ambiguity compared to the case where the corresponding point is specified by the correlation with the pattern irradiated on the object to be measured, improving the accuracy of 3D measurement. Can be made. Furthermore, in the non-contact three-dimensional measurement apparatus and the non-contact three-dimensional measurement method according to the present invention, the first target region and the second target region that are necessary and sufficient for calculating the feature points and the corresponding points are used as part of the entire image. Selected. As a result, the feature points and the corresponding points are calculated only for each of the first target region and the second target region, so that the three-dimensional measurement can be performed faster than the case of calculating over the entire two images. .

また、2つのカメラで撮影された画像の歪を考慮する場合は、上記第1対象領域内の第1線分データの座標及び上記第2対象領域内の第2線分データの座標を歪補正した後、上記の三次元座標を計算することでより、高速かつ高い精度を得ることができる。   In addition, when taking into account distortion of images taken by two cameras, the coordinates of the first line segment data in the first target area and the coordinates of the second line segment data in the second target area are corrected for distortion. After that, it is possible to obtain high speed and high accuracy by calculating the above three-dimensional coordinates.

さらに、ラインレーザは、赤外、赤色、グリーン、青色等、どの色のラインレーザを用いても良い。また複数の色のレーザを併用することで、一度の撮影で複数の線分を抽出することができ、高速に三次元座標を計算することができる。   Further, the line laser may be a line laser of any color such as infrared, red, green, and blue. Further, by using a plurality of color lasers in combination, it is possible to extract a plurality of line segments in one shooting, and to calculate three-dimensional coordinates at high speed.

本発明の実施の形態1に係る非接触三次元計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the non-contact three-dimensional measuring apparatus which concerns on Embodiment 1 of this invention. 被計測物と2つのカメラとの配置を示す概略図である。It is the schematic which shows arrangement | positioning of a to-be-measured object and two cameras. 第1のカメラによって撮影された第1の画像を示す概略図である。It is the schematic which shows the 1st image image | photographed with the 1st camera. 第2のカメラによって撮影された第2の画像を示す概略図である。It is the schematic which shows the 2nd image image | photographed with the 2nd camera. 図3の第1の画像について、第1線分データ中の一つの点を特徴点として選択する場合の概略図である。FIG. 4 is a schematic diagram when one point in the first line segment data is selected as a feature point for the first image in FIG. 3. 図4の第2の画像において、第1の画像上の特徴点に該当するエピポーラ線が計算された第2の画像を示す概略図である。FIG. 5 is a schematic diagram illustrating a second image in which epipolar lines corresponding to feature points on the first image are calculated in the second image of FIG. 4. 本発明の実施の形態1に係る非接触三次元計測方法の特徴を説明するための概念図である。It is a conceptual diagram for demonstrating the characteristic of the non-contact three-dimensional measuring method which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る非接触三次元計測方法のフローチャートである。It is a flowchart of the non-contact three-dimensional measuring method which concerns on Embodiment 1 of this invention. 矩形領域の長辺が画像の走査線の方向に平行となるように第1対象領域及び第2対象領域を選択する場合の一例を示す概略図である。It is the schematic which shows an example in the case of selecting a 1st object area and a 2nd object area so that the long side of a rectangular area may become parallel to the direction of the scanning line of an image. 本発明の実施の形態1の変形例に係る非接触三次元計測方法のフローチャートである。It is a flowchart of the non-contact three-dimensional measuring method which concerns on the modification of Embodiment 1 of this invention. 本発明の実施の形態2に係る非接触三次元計測方法のフローチャートである。It is a flowchart of the non-contact three-dimensional measuring method which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る非接触三次元計測方法のフローチャートである。It is a flowchart of the non-contact three-dimensional measuring method which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係る非接触三次元計測装置の構成を示す概略図である。It is the schematic which shows the structure of the non-contact three-dimensional measuring apparatus which concerns on Embodiment 4 of this invention. 本発明の実施の形態4に係る非接触三次元計測方法のフローチャートである。It is a flowchart of the non-contact three-dimensional measuring method which concerns on Embodiment 4 of this invention. 本発明の実施の形態4に係る非接触三次元計測方法のフローチャートである。It is a flowchart of the non-contact three-dimensional measuring method which concerns on Embodiment 4 of this invention. 第1組のカメラ系の第1のカメラによって撮影された第1の画像を示す概略図である。It is the schematic which shows the 1st image image | photographed with the 1st camera of the 1st set camera system. 第1組のカメラ系の第2のカメラによって撮影された第2の画像を示す概略図である。It is the schematic which shows the 2nd image image | photographed with the 2nd camera of the 1st set camera system. 図16の第1の画像について、第1線分データ中の一つの点を特徴点として選択する場合の概略図である。It is the schematic in the case of selecting one point in 1st line segment data as a feature point about the 1st image of FIG. 図17の第2の画像において、第1の画像上の特徴点に該当するエピポーラ線が計算された第2の画像を示す概略図である。It is the schematic which shows the 2nd image by which the epipolar line applicable to the feature point on a 1st image was calculated in the 2nd image of FIG. 本発明の実施の形態4に係る非接触三次元計測装置の第1組のカメラ系による非接触三次元計測方法の特徴を説明するための概念図である。It is a conceptual diagram for demonstrating the characteristic of the non-contact three-dimensional measuring method by the 1st set camera system of the non-contact three-dimensional measuring apparatus which concerns on Embodiment 4 of this invention. 第2組のカメラ系の第3のカメラによって撮影された第3の画像を示す概略図である。It is the schematic which shows the 3rd image image | photographed with the 3rd camera of the 2nd set camera system. 第2組のカメラ系の第4のカメラによって撮影された第4の画像を示す概略図である。It is the schematic which shows the 4th image image | photographed with the 4th camera of the 2nd set camera system. 図21の第3の画像について、第3線分データ中の一つの点を特徴点として選択する場合の概略図である。FIG. 22 is a schematic diagram when one point in the third line segment data is selected as a feature point for the third image in FIG. 21. 図22の第4の画像において、第3の画像上の特徴点に該当するエピポーラ線が計算された第4の画像を示す概略図である。FIG. 23 is a schematic diagram illustrating a fourth image in which epipolar lines corresponding to feature points on the third image are calculated in the fourth image of FIG. 22. 本発明の実施の形態4に係る非接触三次元計測装置の第2組のカメラ系による非接触三次元計測方法の特徴を説明するための概念図である。It is a conceptual diagram for demonstrating the characteristic of the non-contact three-dimensional measuring method by the 2nd set camera system of the non-contact three-dimensional measuring apparatus which concerns on Embodiment 4 of this invention.

本発明に係る非接触三次元計測装置及び計測方法について、添付図面を用いて以下に説明する。なお、図面において実質的に同一の部材については同一の符号を付している。   A non-contact three-dimensional measuring apparatus and measuring method according to the present invention will be described below with reference to the accompanying drawings. In the drawings, substantially the same members are denoted by the same reference numerals.

(実施の形態1)
図1は、実施の形態1に係る非接触三次元計測装置10の構成を示す概略図である。
この非接触三次元計測装置10は、距離を置いて設置された2台のカメラ2a、2bと、被計測物1にラインレーザを照射するラインレーザ4と、2台のカメラ2a、2bの位置関係を計算する外部標定を行う標定部6と、ラインレーザが照射された被計測物1を第1のカメラ2aで撮影した第1の画像20と、第2のカメラ2bで撮影した第2の画像30とを画像処理する画像処理部8と、を含む。それぞれのカメラ2a、2bは、レンズ中心や焦点距離、歪補正係数などの内部標定(内部パラメータ)が予め算出されていることが望ましい。さらに、撮影された画像は、内部標定データを利用して歪補正された画像が望ましいが、必須ではない。また、ラインレーザ4は、被計測物1の表面全体にわたって走査できる。また、標定部6は、第1のカメラ2a及び第2のカメラ2bについて、互いの位置関係に関する外部標定を行う。画像処理部8は、第1の画像20上の撮影されたラインレーザに対応する第1線分データ22を含む矩形領域を第1対象領域26として選択し、第1対象領域26内の前記第1線分データの中の一つの点を特徴点24として選択する。次いで、画像処理部8は、第2の画像30上の撮影されたラインレーザ4に対応する第2線分データ32を含む矩形領域を第2対象領域36として選択し、上記特徴点24に該当するエピポーラ線33を第2の画像30上の第2対象領域36内に計算して、第2の画像30上の第2対象領域36内において、撮影されたラインレーザに対応する第2線分データ32とエピポーラ線33との交点を、第1の画像20上の第1対象領域26内で選択した特徴点24と対応する対応点34として決定する。さらに、画像処理部8は、第1の画像20上の第1対象領域26内における特徴点24と、第2の画像30上の第2対象領域36内における対応点34とを用いて、特徴点及び対応点に該当する被計測物1上の該当点14の三次元座標を算出する。
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating a configuration of a non-contact three-dimensional measurement apparatus 10 according to the first embodiment.
This non-contact three-dimensional measuring apparatus 10 includes two cameras 2a and 2b installed at a distance, a line laser 4 for irradiating the object to be measured 1 with a line laser, and the positions of the two cameras 2a and 2b. An orientation unit 6 that performs external orientation for calculating the relationship, a first image 20 obtained by photographing the measurement object 1 irradiated with the line laser with the first camera 2a, and a second image obtained by the second camera 2b. And an image processing unit 8 that performs image processing on the image 30. For each camera 2a, 2b, it is desirable that internal orientations (internal parameters) such as the lens center, focal length, and distortion correction coefficient are calculated in advance. Further, the photographed image is preferably an image whose distortion has been corrected using the internal orientation data, but it is not essential. Further, the line laser 4 can scan the entire surface of the measurement object 1. Further, the orientation unit 6 performs external orientation relating to the positional relationship between the first camera 2a and the second camera 2b. The image processing unit 8 selects a rectangular area including the first line segment data 22 corresponding to the captured line laser on the first image 20 as the first target area 26, and the first area 26 in the first target area 26 is selected. One point in one line segment data is selected as the feature point 24. Next, the image processing unit 8 selects a rectangular area including the second line segment data 32 corresponding to the captured line laser 4 on the second image 30 as the second target area 36 and corresponds to the feature point 24. The epipolar line 33 to be calculated is calculated in the second target area 36 on the second image 30, and the second line segment corresponding to the captured line laser in the second target area 36 on the second image 30 is calculated. The intersection of the data 32 and the epipolar line 33 is determined as a corresponding point 34 corresponding to the feature point 24 selected in the first target area 26 on the first image 20. Further, the image processing unit 8 uses the feature points 24 in the first target area 26 on the first image 20 and the corresponding points 34 in the second target area 36 on the second image 30 to use the feature points. The three-dimensional coordinates of the corresponding point 14 on the measurement object 1 corresponding to the point and the corresponding point are calculated.

図7は、実施の形態1に係る非接触三次元計測装置10の特徴を説明する概念図である。なお、図7は、図2の非接触三次元計測装置10の構成のうち、写真測量に関係する位置関係を詳細に示したものである。
<2つのカメラ及び画像について>
2つのカメラ(第1のカメラ2a、第2のカメラ2b)のそれぞれのレンズ中心を点A及び点Bとして表している。
第1のカメラ2aによる第1の画像20では、被計測物1に照射されたラインレーザに対応する部分である第1線分データ22を含む第1対象領域26を選択する(図3)。この第1対象領域26は、関心領域(ROI:region of interest)とも呼ばれ、第1の画像20全体の中で、第1線分データを含むように選択するので、第1線分データに含まれる特徴点24を選択するにあたって必要十分な範囲である。この第1対象領域内の第1線分データ22の中から一つの特徴点24を選択する。第1のカメラ2aのレンズ中心、焦点距離、歪補正係数等は内部標定によって得られる。なお、カメラの内部標定は、例えば、非特許文献5に記載の方法に基づいて計算できる。
また、第2のカメラによる第2の画像30においても、被計測物1に照射されたラインレーザに対応する部分である第2線分データ32を含む第2対象領域36を選択する(図4)。この第2対象領域36は、第2の画像30全体の中で、第2線分データ32を含むように選択するので、エピポーラ線33と第2線分データ32との交点である対応点34を決定するにあたって必要十分な範囲である。第2対象領域36内において、第1線分データから選択された特徴点24に対応するエピポーラ線33と第2線分データ32との交点である対応点34が決定される。なお、第2のカメラ2bのレンズ中心、焦点距離、歪補正係数等は内部標定によって得られる。また、エピポーラ線は、非特許文献4に記載の方法に基づいて計算することができる。
FIG. 7 is a conceptual diagram for explaining the characteristics of the non-contact three-dimensional measuring apparatus 10 according to the first embodiment. FIG. 7 shows in detail the positional relationship related to photogrammetry in the configuration of the non-contact three-dimensional measuring apparatus 10 of FIG.
<About two cameras and images>
The lens centers of the two cameras (first camera 2a and second camera 2b) are represented as point A and point B, respectively.
In the first image 20 by the first camera 2a, the first target region 26 including the first line segment data 22 which is a portion corresponding to the line laser irradiated on the measurement object 1 is selected (FIG. 3). The first target region 26 is also called a region of interest (ROI), and is selected so as to include the first line segment data in the entire first image 20. This is a necessary and sufficient range for selecting the feature points 24 to be included. One feature point 24 is selected from the first line segment data 22 in the first target region. The lens center, focal length, distortion correction coefficient, and the like of the first camera 2a are obtained by internal orientation. The internal orientation of the camera can be calculated based on the method described in Non-Patent Document 5, for example.
Further, also in the second image 30 by the second camera, the second target region 36 including the second line segment data 32 which is a portion corresponding to the line laser irradiated on the object 1 to be measured is selected (FIG. 4). ). Since the second target area 36 is selected so as to include the second line segment data 32 in the entire second image 30, the corresponding point 34 that is the intersection of the epipolar line 33 and the second line segment data 32. This is a necessary and sufficient range. In the second target region 36, a corresponding point 34 that is an intersection of the epipolar line 33 and the second line segment data 32 corresponding to the feature point 24 selected from the first line segment data is determined. Note that the lens center, focal length, distortion correction coefficient, and the like of the second camera 2b are obtained by internal orientation. The epipolar line can be calculated based on the method described in Non-Patent Document 4.

<ラインレーザ>
ラインレーザ4は、ライン状のレーザを被計測物1に照射できるものであればよい。また、ラインレーザ4は、被計測物1の全体にわたって走査することができることが好ましい。あるいは、ラインレーザ4は、ライン状のレーザを回転させることができるものであってもよい。さらに、ラインレーザ4は、赤外、赤色、グリーン、青色等、どの色のラインレーザを用いても良い。また、ラインレーザ4として、複数の色のレーザを併用してもよい。複数の色のレーザを併用することで、各色のレーザ毎に特徴点と対応点を計算できるため、一度の撮影で同時に複数の線分を抽出することができ、さらに高速に三次元座標を計算することができる。
<Line laser>
The line laser 4 may be any laser that can irradiate the object 1 with a line laser. Further, it is preferable that the line laser 4 can scan the entire object to be measured 1. Alternatively, the line laser 4 may be capable of rotating a line laser. Further, the line laser 4 may use any color line laser such as infrared, red, green, and blue. Further, as the line laser 4, lasers of a plurality of colors may be used in combination. By using multiple color lasers in combination, feature points and corresponding points can be calculated for each color laser, so multiple line segments can be extracted simultaneously with a single shot, and 3D coordinates can be calculated at a higher speed. can do.

<被計測物について>
また、被計測物1に照射されたラインレーザの部分12と、特徴点24及び対応点34とに該当する被計測物1上の該当点14を示している。この該当点14は点Cとしても示している。
<About the object to be measured>
In addition, a corresponding point 14 on the measured object 1 corresponding to the portion 12 of the line laser irradiated on the measured object 1, the feature point 24, and the corresponding point 34 is shown. This corresponding point 14 is also shown as point C.

なお、図9の概略図に示すように、第1のカメラ2a及び第2のカメラ2bは、撮影した画像データを、第1のカメラ2aと第2のカメラとを結ぶ直線と交差する方向の走査線に沿って記録する画像メモリを備え、それぞれ第1の画像20及び第2の画像30として出力してもよい。図9では、図7の場合と比較して、第1の画像20と第2の画像30とを縦位置で表している点で相違すると共に、第1の画像20及び第2の画像30の長手方向が2つのカメラを結ぶ直線と交差している点で相違する。
また、画像処理部8は、矩形領域の長辺が第1の画像20及び第2の画像30を記録した際の走査線の方向と平行となるように、第1対象領域26及び第2対象領域36を選択してもよい。さらに、画像処理部8は、第1対象領域26内でのみ特徴点24を選択し、第2対象領域36内でのみ対応点を決定することができる。
またさらに、ラインレーザ4は、第1のカメラ2aと第2のカメラ2bとを結ぶ直線と交差するように被計測物1にラインレーザを照射してもよい。図9に示すように、エピポーラ線は、第1のカメラ2aと第2のカメラ2bとを結ぶ直線とほぼ同様の方向に延びる。そのため、上記のようにラインレーザを第1のカメラ2aと第2のカメラ2bとを結ぶ直線と交差するように照射することで、エピポーラ線と第2線分データ32とを交差させることができる。
Note that, as shown in the schematic diagram of FIG. 9, the first camera 2a and the second camera 2b have the captured image data in a direction intersecting with a straight line connecting the first camera 2a and the second camera. An image memory for recording along the scanning lines may be provided and output as the first image 20 and the second image 30, respectively. 9 is different from the case of FIG. 7 in that the first image 20 and the second image 30 are represented in the vertical position, and the first image 20 and the second image 30 are different from each other. The difference is that the longitudinal direction intersects the straight line connecting the two cameras.
The image processing unit 8 also includes the first target region 26 and the second target so that the long sides of the rectangular region are parallel to the scanning line direction when the first image 20 and the second image 30 are recorded. Region 36 may be selected. Furthermore, the image processing unit 8 can select the feature point 24 only in the first target area 26 and determine the corresponding point only in the second target area 36.
Furthermore, the line laser 4 may irradiate the object to be measured 1 with the line laser so as to intersect a straight line connecting the first camera 2a and the second camera 2b. As shown in FIG. 9, the epipolar line extends in substantially the same direction as a straight line connecting the first camera 2a and the second camera 2b. Therefore, the epipolar line and the second line segment data 32 can be crossed by irradiating the line laser so as to cross the straight line connecting the first camera 2a and the second camera 2b as described above. .

<写真測量について>
a)第1のカメラ2aのレンズ中心Aと、第2のカメラ2bのレンズ中心Bとの間の位置関係及び、各カメラの方向は外部標定によって求められる。二つのカメラ2a、2b間の外部標定は、例えば非特許文献1に記載の方法により計算できる。
b)また、第1のカメラ2a及び第2のカメラ2bのレンズ中心、焦点距離、歪補正係数等は内部標定を利用することによって求められる。
c)次に、被計測物1上の該当点14の点Cは、第1のカメラ2aのレンズ中心Aから第1の画像20上の第1対象領域26内の特徴点24に向かって延長したライン上に存在すると共に、第2のカメラ2bのレンズ中心Bから第2の画像30上の第2対象領域36内の対応点34に向かって延長したライン上に存在する。そのため、写真測量の原理によって、これらの交点として点Cが得られる。なお、該当点の三次元座標は、例えば非特許文献1に記載の方法によって計算できる。
以上によって、被計測物1上の該当点14(C)を三次元計測することができる。
<About photogrammetry>
a) The positional relationship between the lens center A of the first camera 2a and the lens center B of the second camera 2b and the direction of each camera are obtained by external orientation. The external orientation between the two cameras 2a and 2b can be calculated by the method described in Non-Patent Document 1, for example.
b) Further, the lens centers, focal lengths, distortion correction coefficients, etc. of the first camera 2a and the second camera 2b can be obtained by using internal orientation.
c) Next, the point C of the corresponding point 14 on the DUT 1 extends from the lens center A of the first camera 2a toward the feature point 24 in the first target region 26 on the first image 20. And on a line extending from the lens center B of the second camera 2b toward the corresponding point 34 in the second target area 36 on the second image 30. Therefore, the point C is obtained as an intersection of these by the principle of photogrammetry. Note that the three-dimensional coordinates of the corresponding point can be calculated by the method described in Non-Patent Document 1, for example.
As described above, the corresponding point 14 (C) on the object to be measured 1 can be three-dimensionally measured.

本発明の実施の形態1に係る非接触三次元計測装置10によれば、被計測物1にラインレーザを照射することで、被計測物1に特徴がなくても写真計測の原理に基づき三次元座標を計測することできる。またレーザのコヒーレント性のため被計測物が凹凸を有する形状であってもラインがぼけることが少なく、特徴点を正確に抽出することができる。このため、対応点の抽出精度が高くなり、必然的に三次元計測点の精度も高まる。   According to the non-contact three-dimensional measuring apparatus 10 according to the first embodiment of the present invention, by irradiating the measurement object 1 with a line laser, even if the measurement object 1 has no characteristics, the third order is based on the principle of photo measurement. The original coordinates can be measured. In addition, due to the coherent nature of the laser, even if the object to be measured has a shape with irregularities, the line is less likely to be blurred, and the feature points can be extracted accurately. For this reason, the extraction accuracy of the corresponding points is increased, and the accuracy of the three-dimensional measurement points is inevitably increased.

また、この非接触三次元計測装置10では、ラインレーザが照射された被計測物を2つのカメラ2a、2bで撮影した2枚の画像のうち一方の画像20上で撮影されたラインレーザに対応する部分である第1線分データ22を含む矩形領域を第1対象領域26として選択し(図3)、第1対象領域26内の前記第1線分データの一つの点を特徴点24として選択している(図5)。この場合に、もう一つの画像30上の撮影されたラインレーザに対応する部分である第2線分データ32を含む矩形領域を第2対象領域として選択し(図4)、第2対象領域36内に上記第1対象領域26内で選択した特徴点24に対応するエピポーラ線33を計算して、エピポーラ線33と第2線分データ32との交点を上記特徴点24と対応する対応点34として特定することができる(図6)。なお、エピポーラ線は、例えば非特許文献4に記載の方法によって計算できる。これによって、被計測物1上に照射したパターンとの相関関係で対応点を特定していた場合に比べて曖昧さを含むことなく対応点を明確に決めることができ、三次元計測の精度を向上させることができる。さらに、本発明に係る非接触三次元計測装置10では、特徴点及び対応点を計算するために必要十分な第1対象領域26及び第2対象領域36を第1の画像20及び第2の画像30からそれぞれ選択している。これによって、第1対象領域26及び第2対象領域36のそれぞれについてだけ特徴点24及び対応点34の計算を行うことによって、2枚の画像全体にわたって計算する場合に比べてより速く三次元計測を行うことができる。   Further, this non-contact three-dimensional measuring apparatus 10 corresponds to a line laser imaged on one image 20 of two images obtained by imaging the object to be measured irradiated with the line laser with two cameras 2a and 2b. A rectangular area including the first line segment data 22 that is a portion to be selected is selected as the first target area 26 (FIG. 3), and one point of the first line segment data in the first target area 26 is set as the feature point 24. Selected (FIG. 5). In this case, a rectangular area including the second line segment data 32 which is a part corresponding to the captured line laser on the other image 30 is selected as the second target area (FIG. 4), and the second target area 36 is selected. An epipolar line 33 corresponding to the feature point 24 selected in the first target region 26 is calculated, and an intersection point between the epipolar line 33 and the second line segment data 32 is a corresponding point 34 corresponding to the feature point 24. (FIG. 6). The epipolar line can be calculated by the method described in Non-Patent Document 4, for example. As a result, the corresponding points can be clearly determined without including ambiguity as compared with the case where the corresponding points are specified by the correlation with the pattern irradiated on the measurement object 1, and the accuracy of the three-dimensional measurement is improved. Can be improved. Furthermore, in the non-contact three-dimensional measuring apparatus 10 according to the present invention, the first image 20 and the second image that are necessary and sufficient for calculating the feature points and the corresponding points are represented by the first image 20 and the second image. Each of 30 is selected. Accordingly, by calculating the feature points 24 and the corresponding points 34 only for the first target region 26 and the second target region 36, respectively, the three-dimensional measurement can be performed faster than the case of calculating over the entire two images. It can be carried out.

図8は、本発明の非接触三次元計測方法のフローチャートである。この非接触三次元計測方法は、以下のようにして実行される。
(a)被計測物1が写る範囲に、被計測物1を撮影する2台のカメラ(第1のカメラ2a及び第2のカメラ2b)を、互いに距離をおいて配置する(図1、図2)。それぞれのカメラ2a、2bは、レンズ中心、焦点距離、歪補正係数などの内部標定(内部パラメータ)が予め算出されていることが望ましい。なお、カメラの内部標定が行われていない場合には、例えば、非特許文献5に挙げられる算出方法によって内部標定を求めることができる。
(b)第1のカメラ2a及び第2のカメラ2bについて、互いの位置関係に関する外部標定を行う(S01)。
この外部標定によって、複数のカメラの位置関係を知ることができる。例えば、非特許文献1に挙げられる方法として、被計測物1の周りのあらかじめ知られた対応点を8点以上抽出することによって外部標定を実施することができる。
FIG. 8 is a flowchart of the non-contact three-dimensional measurement method of the present invention. This non-contact three-dimensional measurement method is executed as follows.
(A) Two cameras (a first camera 2a and a second camera 2b) that photograph the measurement object 1 are arranged at a distance from each other in a range where the measurement object 1 is shown (FIGS. 1 and 2). 2). For each camera 2a, 2b, it is desirable that internal orientations (internal parameters) such as the lens center, focal length, and distortion correction coefficient are calculated in advance. In addition, when the internal orientation of the camera is not performed, for example, the internal orientation can be obtained by a calculation method described in Non-Patent Document 5.
(B) About the 1st camera 2a and the 2nd camera 2b, external orientation regarding a mutual positional relationship is performed (S01).
With this external orientation, the positional relationship between a plurality of cameras can be known. For example, as a method described in Non-Patent Document 1, external orientation can be performed by extracting eight or more previously known corresponding points around the measurement object 1.

(c)被計測物1にラインレーザ4からラインレーザを照射する(S02)(図1)。ラインレーザを用いることによって、非計測物1に特徴がなくても写真計測の原理に基づき三次元座標を計測することできる。またレーザのコヒーレント性のため被計測物が凹凸を有する形状であってもラインがぼけることが少なく、特徴点を正確に抽出することができる。
(d)ラインレーザが照射された被計測物1を第1のカメラ2a及び第2のカメラ2bでそれぞれ撮影して、第1のカメラ2aによる第1の画像(図3)と、第2のカメラ2bによる第2の画像(図4)とを得る(S03)。
(e)第1の画像20において、ラインレーザが撮影された部分を含む矩形領域を第1対象領域26として選択する(S04)(図3)。
(f)第2の画像30において、ラインレーザが撮影された部分を含む矩形領域を第2対象領域36として選択する(S05)(図4)。
(g)第1対象領域26において、撮影されたラインレーザに対応する部分を第1線分データ22として抽出する(S06)(図3)。
(h)第2対象領域36において、撮影されたラインレーザに対応する部分を第2線分データ32として抽出する(S07)(図4)。
(C) The line laser 4 is irradiated to the object 1 to be measured 1 (S02) (FIG. 1). By using a line laser, it is possible to measure three-dimensional coordinates based on the principle of photo measurement even if the non-measurement object 1 has no characteristics. In addition, due to the coherent nature of the laser, even if the object to be measured has a shape with irregularities, the line is less likely to be blurred, and the feature points can be extracted accurately.
(D) The measurement object 1 irradiated with the line laser is photographed by the first camera 2a and the second camera 2b, respectively, and the first image (FIG. 3) by the first camera 2a and the second A second image (FIG. 4) is obtained by the camera 2b (S03).
(E) In the first image 20, a rectangular area including a portion where the line laser is photographed is selected as the first target area 26 (S04) (FIG. 3).
(F) In the second image 30, a rectangular area including a portion where the line laser is photographed is selected as the second target area 36 (S05) (FIG. 4).
(G) In the first target area 26, a portion corresponding to the captured line laser is extracted as the first line segment data 22 (S06) (FIG. 3).
(H) In the second target area 36, a portion corresponding to the captured line laser is extracted as the second line segment data 32 (S07) (FIG. 4).

(i)第1対象領域26内の第1線分データ22の中の一つの点を特徴点24として選択する(S08)(図5)。なお、特徴点24を、第1線分データ22の全体にわたって順に選択して、特徴点24を選択するごとに、後の(j)から(l)を繰り返すことによって、第1線分22の全体について三次元計測を行うことができる。
(j)特徴点24に対応するエピポーラ線33を第2の画像上の第2対象領域36内で計算する(S09)(図6)。なお、エピポーラ線とは、第1のカメラ2aのレンズ中心と、第1の画像20上の特徴点24に該当する被計測物1上の点とを結ぶ仮想的な線が第2のカメラに投影された線分である。第2の画像30上の第2対象領域36内でエピポーラ線33がどのように計算されるかは、第1のカメラ2a及び第2のカメラ2bの内部標定と、第1のカメラ2a及び第2のカメラ2bの位置関係を計算する外部標定とによって決定できる。エピポーラ線は、例えば非特許文献4に記載の方法によって計算できる。第2の画像30上の第2対象領域36内で計算されるエピポーラ線33上のどこかに特徴点24と対応する対応点が存在する。
(k)第2対象領域36内の第2線分データ32とエピポーラ線33との交点を第1対象領域26内で選択した特徴点24と対応する対応点34として決定する(S10)(図6)。
(l)第1対象領域26内における特徴点24と、第2対象領域36内における対応点34とを用いて、特徴点及び対応点に該当する被計測物1上の該当点14の三次元座標を算出する(S11)。上記該当点14の三次元座標は、例えば非特許文献1に記載の方法によって計算できる。
(m)第1の画像20上の第1対象領域26内の第1線分上の点すべてに対して、上記ステップ(i)〜ステップ(l)を繰り返して、被計測物のラインレーザが照射されたライン部分に対して三次元座標を算出する(S12)。
以上の各ステップによって、特徴点24及び対応点34に該当する被計測物1の該当点14の三次元座標を得ることができる。
(I) One point in the first line segment data 22 in the first target region 26 is selected as the feature point 24 (S08) (FIG. 5). Note that the feature points 24 are sequentially selected over the entire first line segment data 22, and each time the feature point 24 is selected, the following (j) to (l) are repeated, whereby the first line segment 22 Three-dimensional measurement can be performed for the whole.
(J) The epipolar line 33 corresponding to the feature point 24 is calculated in the second target region 36 on the second image (S09) (FIG. 6). The epipolar line is a virtual line connecting the lens center of the first camera 2a and a point on the measurement object 1 corresponding to the feature point 24 on the first image 20 to the second camera. This is the projected line segment. How the epipolar line 33 is calculated in the second target region 36 on the second image 30 depends on the internal orientation of the first camera 2a and the second camera 2b, the first camera 2a and the second camera 30b. It can be determined by external orientation that calculates the positional relationship between the two cameras 2b. The epipolar line can be calculated by the method described in Non-Patent Document 4, for example. There is a corresponding point corresponding to the feature point 24 somewhere on the epipolar line 33 calculated in the second target region 36 on the second image 30.
(K) The intersection of the second line segment data 32 and the epipolar line 33 in the second target region 36 is determined as a corresponding point 34 corresponding to the feature point 24 selected in the first target region 26 (S10) (FIG. 6).
(L) Three-dimensional of the corresponding point 14 on the measurement object 1 corresponding to the feature point and the corresponding point using the feature point 24 in the first target region 26 and the corresponding point 34 in the second target region 36 Coordinates are calculated (S11). The three-dimensional coordinates of the corresponding point 14 can be calculated by the method described in Non-Patent Document 1, for example.
(M) Steps (i) to (l) are repeated for all points on the first line segment in the first target region 26 on the first image 20, and the line laser of the object to be measured is Three-dimensional coordinates are calculated for the irradiated line portion (S12).
Through the above steps, the three-dimensional coordinates of the corresponding point 14 of the measurement object 1 corresponding to the feature point 24 and the corresponding point 34 can be obtained.

本発明の実施の形態1に係る非接触三次元計測方法によれば、被計測物1にラインレーザを照射することで、被計測物1に特徴がなくても写真計測の原理に基づき三次元座標を計測することできる。またレーザのコヒーレント性のため被計測物が凹凸を有する形状であってもラインがぼけることが少なく、特徴点を正確に抽出することができる。このため、対応点の抽出精度が高くなり、必然的に三次元計測点の精度も高まる。   According to the non-contact three-dimensional measurement method according to the first embodiment of the present invention, the line laser is irradiated onto the object 1 to be measured, and the 3D based on the principle of photo measurement even if the object 1 has no characteristics. Coordinates can be measured. In addition, due to the coherent nature of the laser, even if the object to be measured has a shape with irregularities, the line is less likely to be blurred, and the feature points can be extracted accurately. For this reason, the extraction accuracy of the corresponding points is increased, and the accuracy of the three-dimensional measurement points is inevitably increased.

また、この被接触三次元計測方法では、ラインレーザが照射された被計測物を2つのカメラ2a、2bで撮影した2枚の画像のうち一方の画像20上で撮影されたラインレーザに対応する部分である第1線分データ22を含む矩形領域を第1対象領域26として選択し、第1対象領域26内の第1線分データ22の一つの点を特徴点24として選択している。この場合に、もう一つの画像30上の撮影されたラインレーザに対応する部分である第2線分データ32を含む矩形領域を第2対象領域36として選択し、第2対象領域36内に上記第1対象領域26内で選択した特徴点24に対応するエピポーラ線33を計算して、エピポーラ線33と第2線分データ32との交点を上記特徴点24と対応する対応点34として特定することができる。これによって、被計測物1上に照射したパターンとの相関関係で対応点を特定していた場合に比べて曖昧さを含むことなく対応点を明確に決めることができ、三次元計測の精度を向上させることができる。さらに、本発明に係る非接触三次元計測方法では、特徴点及び対応点を計算するために必要十分な第1対象領域及び第2対象領域を第1の画像及び第2の画像のそれぞれから選択している。これによって、第1対象領域及び第2対象領域のそれぞれについてだけ特徴点及び対応点の計算を行うことによって、2枚の画像全体にわたって計算する場合に比べてより速く三次元計測を行うことができる。   Moreover, in this contacted three-dimensional measurement method, it corresponds to the line laser image | photographed on one image 20 among the two images which image | photographed the to-be-measured object irradiated with the line laser with the two cameras 2a and 2b. A rectangular region including the first line segment data 22 that is a part is selected as the first target region 26, and one point of the first line segment data 22 in the first target region 26 is selected as the feature point 24. In this case, a rectangular area including the second line segment data 32 that is a part corresponding to the captured line laser on the other image 30 is selected as the second target area 36, and the above-described second target area 36 is filled with the above-described area. The epipolar line 33 corresponding to the feature point 24 selected in the first target region 26 is calculated, and the intersection of the epipolar line 33 and the second line segment data 32 is specified as the corresponding point 34 corresponding to the feature point 24. be able to. As a result, the corresponding points can be clearly determined without including ambiguity as compared with the case where the corresponding points are specified by the correlation with the pattern irradiated on the measurement object 1, and the accuracy of the three-dimensional measurement is improved. Can be improved. Furthermore, in the non-contact three-dimensional measurement method according to the present invention, first and second target areas necessary and sufficient for calculating feature points and corresponding points are selected from the first image and the second image, respectively. doing. As a result, the feature points and the corresponding points are calculated only for each of the first target region and the second target region, so that the three-dimensional measurement can be performed faster than the case of calculating over the entire two images. .

なお、画像撮影ステップにおいて、第1のカメラ2a及び第2のカメラ2bによって撮影した画像データを、第1のカメラ2aと第2のカメラ2bとを結ぶ直線と交差する方向の走査線に沿って記録し、それぞれ第1の画像20及び第2の画像30として出力してもよい。   In the image photographing step, the image data photographed by the first camera 2a and the second camera 2b are scanned along a scanning line in a direction intersecting with a straight line connecting the first camera 2a and the second camera 2b. You may record and output as the 1st image 20 and the 2nd image 30, respectively.

また、第1対象領域選択ステップにおいて、矩形領域の長辺が第1の画像20を記録した際の走査線の方向と平行となるように、第1対象領域26を選択してもよい。さらに、第2対象領域選択ステップにおいて、矩形領域の長辺が第2の画像30を記録した際の走査線の方向と平行となるように、第2対象領域36を選択してもよい。   In the first target region selection step, the first target region 26 may be selected so that the long side of the rectangular region is parallel to the direction of the scanning line when the first image 20 is recorded. Further, in the second target area selection step, the second target area 36 may be selected so that the long side of the rectangular area is parallel to the direction of the scanning line when the second image 30 is recorded.

さらに、特徴点選択ステップにおいて、第1対象領域26内でのみ特徴点24を選択し、対応点決定ステップにおいて、第2対象領域36内でのみ対応点34を決定することができる。   Furthermore, in the feature point selection step, the feature point 24 can be selected only in the first target region 26, and in the corresponding point determination step, the corresponding point 34 can be determined only in the second target region 36.

また、ラインレーザ照射ステップにおいて、第1のカメラ2aと第2のカメラ2bとを結ぶ直線と交差するように被計測物1にラインレーザを照射してもよい。   Further, in the line laser irradiation step, the line laser may be irradiated to the measurement object 1 so as to intersect with a straight line connecting the first camera 2a and the second camera 2b.

(変形例)
図10は、実施の形態1の変形例に係る非接触三次元計測方法のフローチャートである。この変形例の非接触三次元計測方法では、図8の実施の形態1に係る非接触三次元計測方法と対比すると、ラインレーザを被計測物の全体にわたって走査する点で相違する。
(a)及び(b)は、実施の形態1に係る非接触三次元計測方法と同じであるので説明を省略する。
(c)被計測物1にわたってラインレーザを走査する(S13)。ここでは、ラインレーザ4を任意の方向に照射し、被計測物1の全体にわたって順に走査していくことを表している。
(d)から(k)は、実施の形態1に係る非接触三次元計測方法と同じであるので説明を省略する。
(l)被計測物1の全体について走査したか確認する(S14)。被計測物1の全体について走査していない場合には、(c)から(k)を繰り返して、被計測物1の全体について三次元計測を行う。
以上の各ステップによって、被計測物1の全体にわたって三次元計測を行うことができる。
(Modification)
FIG. 10 is a flowchart of a non-contact three-dimensional measurement method according to a modification of the first embodiment. The non-contact three-dimensional measurement method of this modification is different from the non-contact three-dimensional measurement method according to Embodiment 1 in FIG. 8 in that the line laser is scanned over the entire object to be measured.
Since (a) and (b) are the same as the non-contact three-dimensional measurement method according to Embodiment 1, the description thereof is omitted.
(C) A line laser is scanned over the DUT 1 (S13). Here, the line laser 4 is irradiated in an arbitrary direction, and the entire object to be measured 1 is sequentially scanned.
Since (d) to (k) are the same as the non-contact three-dimensional measurement method according to Embodiment 1, the description thereof is omitted.
(L) It is confirmed whether the entire measurement object 1 has been scanned (S14). When the entire object to be measured 1 is not scanned, (c) to (k) are repeated to perform three-dimensional measurement on the entire object to be measured 1.
Through the above steps, three-dimensional measurement can be performed over the entire object to be measured 1.

(実施の形態2)
図11は、実施の形態2に係る非接触三次元計測方法のフローチャートである。この変形例の非接触三次元計測方法では、図8の実施の形態1に係る非接触三次元計測方法と対比すると、ラインレーザ4を照射方向の所定の軸について回転させて被計測物1に照射する点で相違する。
(a)及び(b)は、実施の形態1に係る非接触三次元計測方法と同じであるので説明を省略する。実施の形態2では、ステップ(c)のラインレーザの照射について、以下のように行う。
(c)ラインレーザを所定の軸について回転させて被計測物1に照射する(S15)。実施の形態1の変形例では、ラインレーザを任意の方向に走査して被計測物1の全体にわたって走査していたが、ラインレーザ4を所定の軸について回転させることによっても被計測物1の全体について走査することができる。
(d)から(m)は、実施の形態1に係る非接触三次元計測方法と同じであるので説明を省略する。
(n)ラインレーザを全角度に回転させて照射したか確認する(S16)。被計測物1の全体について走査していない場合には、(c)から(k)を繰り返して、被計測物1の全体について三次元計測を行う。
以上の各ステップによって、被計測物1の全体にわたって三次元計測を行うことができる。
(Embodiment 2)
FIG. 11 is a flowchart of the non-contact three-dimensional measurement method according to the second embodiment. In the non-contact three-dimensional measurement method of this modification, as compared with the non-contact three-dimensional measurement method according to Embodiment 1 in FIG. It differs in the point which irradiates.
Since (a) and (b) are the same as the non-contact three-dimensional measurement method according to Embodiment 1, the description thereof is omitted. In the second embodiment, the line laser irradiation in step (c) is performed as follows.
(C) The line laser is rotated about a predetermined axis to irradiate the measurement object 1 (S15). In the modification of the first embodiment, the line laser is scanned in an arbitrary direction and scanned over the entire object to be measured 1. However, the line laser 4 is also rotated about a predetermined axis to measure the object 1 The whole can be scanned.
Since (d) to (m) are the same as the non-contact three-dimensional measurement method according to Embodiment 1, the description thereof is omitted.
(N) It is confirmed whether the line laser is rotated at all angles for irradiation (S16). When the entire object to be measured 1 is not scanned, (c) to (k) are repeated to perform three-dimensional measurement on the entire object to be measured 1.
Through the above steps, three-dimensional measurement can be performed over the entire object to be measured 1.

(実施の形態3)
図12は、実施の形態3に係る非接触三次元計測方法のフローチャートである。この変形例の非接触三次元計測方法では、図8の実施の形態1に係る非接触三次元計測方法と対比すると、(i)で第2線分データ32とエピポーラ線33との交点が単一ではなく2つ以上の交点が存在する場合に、ラインレーザを特徴点24に該当する被計測物1上の該当点14を中心に回転させて照射する点で相違する。
(a)から(j)は、実施の形態1に係る非接触三次元計測方法と同じであるので説明を省略する。
ステップ(k)の前に、第2の画像30上において、エピポーラ線33と第2線分32との交点は単一か、確認する(S17)。交点が一つの場合には、実施の形態1に係る非接触三次元計測方法の(k)から(m)を行って、特徴点及び対応点に該当する被計測物1の該当点14の三次元座標を得ることができる。
(Embodiment 3)
FIG. 12 is a flowchart of the non-contact three-dimensional measurement method according to the third embodiment. In the non-contact three-dimensional measurement method of this modification, when compared with the non-contact three-dimensional measurement method according to Embodiment 1 in FIG. 8, the intersection of the second line segment data 32 and the epipolar line 33 is a single point in (i). When there are two or more intersections instead of one, the line laser is different in that the line laser is irradiated while being rotated around the corresponding point 14 on the measurement object 1 corresponding to the feature point 24.
Since (a) to (j) are the same as the non-contact three-dimensional measurement method according to Embodiment 1, the description thereof is omitted.
Before step (k), it is confirmed on the second image 30 whether there is a single intersection between the epipolar line 33 and the second line segment 32 (S17). When there is one intersection point, (k) to (m) of the non-contact three-dimensional measurement method according to Embodiment 1 are performed, and the third order of the corresponding point 14 of the measurement object 1 corresponding to the feature point and the corresponding point Original coordinates can be obtained.

一方、交点が複数の場合、例えば、撮影されたラインレーザに対応する部分である第2線分データ32とエピポーラ線33とが同一方向に沿って延在するような場合に交点が複数存在する場合が生じる。この場合には、ラインレーザ4を特徴点24に該当する被計測物1上の該当点14を中心に回転させて照射する(S18)。この場合に、エピポーラ線33とラインレーザのライン方向とが角度をなすようにラインレーザ4を回転させることが好ましい。より好ましくは、エピポーラ線33とラインレーザのライン方向とが互いに直交するようにラインレーザ4を回転させることである。また、特徴点24を保持するように、特徴点24に該当する被計測物1の該当点14について回転させる。その後、(d)から(j)を繰り返して、エピポーラ線33と第2線分32との交点が単一となるようにすることができる。   On the other hand, when there are a plurality of intersection points, for example, there are a plurality of intersection points when the second line segment data 32 and the epipolar line 33 corresponding to the imaged line laser extend along the same direction. Cases arise. In this case, the line laser 4 is irradiated while being rotated around the corresponding point 14 on the measurement object 1 corresponding to the feature point 24 (S18). In this case, it is preferable to rotate the line laser 4 so that the epipolar line 33 and the line direction of the line laser form an angle. More preferably, the line laser 4 is rotated so that the epipolar line 33 and the line direction of the line laser are orthogonal to each other. Further, the corresponding point 14 of the measurement object 1 corresponding to the feature point 24 is rotated so as to hold the feature point 24. Thereafter, (d) to (j) can be repeated so that the intersection of the epipolar line 33 and the second line segment 32 becomes a single point.

これによって、エピポーラ線33と第2線分データ32とがほぼ平行になる等の原因で対応点34が一つに特定できない場合でも、ラインレーザ4を回転させて、エピポーラ線33と第2線分データ32とが交差する交点として単一の対応点34が得られ、明確に対応点を特定でき、三次元計測の精度を向上させることができる。   As a result, even when the epipolar line 33 and the second line segment data 32 are substantially parallel, for example, the corresponding point 34 cannot be specified as one, the line laser 4 is rotated, and the epipolar line 33 and the second line are rotated. A single corresponding point 34 is obtained as an intersection where the minute data 32 intersects, and the corresponding point can be clearly identified, and the accuracy of the three-dimensional measurement can be improved.

なお、エピポーラ線33と第2線分データ32との交点が一つも得られない場合には、第1の画像20上で選択した特徴点24に対応する被計測物1上の該当点14が第2の画像30上の第2対象領域36内には現れていないことを意味している。この場合には、第1のカメラ2aからの第1の画像20上の第1対象領域26内に含まれる被計測物1の範囲と、第2のカメラ2bからの第2の画像30上の第2対象領域36内に含まれる被計測物1の範囲とで共通する被計測物1の範囲が少ないか又は存在しないと考えられる。そこで、第1のカメラ2aと第2のカメラ2bとの距離を縮めて、第1の画像20上の第1対象領域26と第2の画像30上の第2対象領域36とで共通する被計測物1の範囲が得られるようにすることが好ましい。   If no intersection between the epipolar line 33 and the second line segment data 32 is obtained, the corresponding point 14 on the measurement object 1 corresponding to the feature point 24 selected on the first image 20 is obtained. This means that it does not appear in the second target area 36 on the second image 30. In this case, the range of the measurement object 1 included in the first target area 26 on the first image 20 from the first camera 2a and the second image 30 from the second camera 2b. It is considered that the range of the measured object 1 that is common with the range of the measured object 1 included in the second target region 36 is small or does not exist. Therefore, the distance between the first camera 2a and the second camera 2b is reduced, and the first target area 26 on the first image 20 and the second target area 36 on the second image 30 are shared. It is preferable that the range of the measurement object 1 is obtained.

(実施の形態4)
図13は、実施の形態4に係る非接触三次元計測装置100の構成を示す概略図である。この非接触三次元計測装置100は、実施の形態1に係る非接触三次元計測装置と比較すると、2台のカメラ2a、2bからなる第1組のカメラ系に加えて、第1組のカメラ系とは異なる箇所から被計測物1を撮影する2台のカメラ(第3のカメラ2c及び第4のカメラ2d)からなる第2組のカメラ系をさらに備えることを特徴とする。なお、第2組のカメラ系は、物理的に第1組のカメラ系と別個に用意してもよいが、第1組のカメラ系による最初の位置での撮影及び画像処理の後、第1組のカメラ系を最初の位置とは異なる箇所にそのまま移動させて第2組のカメラ系として撮影及び画像処理を行ってもよい。また、この非接触三次元計測装置では、ラインレーザ4を少なくとも一つ備えていればよい。あるいは、第1組のカメラ系と、第2組のカメラ系とでそれぞれ別々に2組のラインレーザを用意してもよい。
(Embodiment 4)
FIG. 13 is a schematic diagram illustrating a configuration of the non-contact three-dimensional measurement apparatus 100 according to the fourth embodiment. Compared with the non-contact three-dimensional measuring apparatus 100 according to the first embodiment, the non-contact three-dimensional measuring apparatus 100 includes a first set of cameras in addition to a first set of camera systems including two cameras 2a and 2b. The camera system further includes a second set of camera systems including two cameras (a third camera 2c and a fourth camera 2d) that capture the object 1 to be measured from a location different from the system. The second set of camera systems may be physically prepared separately from the first set of camera systems. However, after the first set of camera systems is shot and processed at the first position, The pair of camera systems may be moved as they are to a location different from the initial position, and shooting and image processing may be performed as the second set of camera systems. In addition, this non-contact three-dimensional measuring device may include at least one line laser 4. Alternatively, two sets of line lasers may be prepared separately for the first set of camera systems and the second set of camera systems.

図20は、実施の形態4に係る非接触三次元計測装置100の第1組のカメラ系による非接触三次元計測方法の特徴を説明する概念図である。なお、図20は、図13の非接触三次元計測装置100の構成のうち、第1組のカメラ系による写真測量に関係する位置関係を詳細に示したものである。図25は、実施の形態4に係る非接触三次元計測装置100の第2組のカメラ系による非接触三次元計測方法の特徴を説明する概念図である。なお、図25は、図13の非接触三次元計測装置100の構成のうち、第2組のカメラ系による写真測量に関係する位置関係を詳細に示したものである。   FIG. 20 is a conceptual diagram illustrating the characteristics of the non-contact three-dimensional measurement method using the first set of camera systems of the non-contact three-dimensional measurement apparatus 100 according to the fourth embodiment. FIG. 20 shows in detail the positional relationship related to photogrammetry by the first set of camera systems in the configuration of the non-contact three-dimensional measuring apparatus 100 of FIG. FIG. 25 is a conceptual diagram illustrating features of the non-contact three-dimensional measurement method using the second set of camera systems of the non-contact three-dimensional measurement apparatus 100 according to the fourth embodiment. FIG. 25 shows in detail the positional relationship related to photogrammetry by the second set of camera systems in the configuration of the non-contact three-dimensional measuring apparatus 100 of FIG.

また、この非接触三次元計測装置100では、実施の形態1に係る非接触三次元計測装置と対比すると、画像処理部における画像処理方法において相違する。具体的には、この画像処理部では、実施の形態1とは異なり、それぞれの画像中から対象領域(ROI)の選択を行わない点で相違する。なお、実施の形態1と同様にそれぞれの画像から対象領域(ROI)の選択を行ってもよい。また、この画像処理部においては、以下の処理を行うことを特徴とする。
(1)まず、実施の形態1と同様に、第1組のカメラ系における被計測物上の三次元座標系を得る。例えば、第1組のカメラ系による三次元座標をM(x、y,z)とする。
(2)次いで、第2組のカメラ系における被計測物上の三次元座標系を得る。例えば、第2組のカメラ系による三次元座標をN(x、y,z)とする。
(3)その後、第2組のカメラ系における被計測物上の三次元座標のうち、第1組のカメラ系における被計測物上の三次元座標と対応する少なくとも3つの点、つまり少なくとも三つのマーカの三次元座標を選択する。例えば、第1組のカメラ系によるi番目のマーカの三次元座標をA(x、y、z)とし、第2組のカメラ系によるi番目のマーカの三次元座標をB(x、y、z)とする。
(4)選択した少なくとも3つの三次元座標について、第2組のカメラ系の三次元座標系から第1組のカメラ系の三次元座標系への座標変換関係を求める。これは、第2組のカメラ系によるi番目のマーカの三次元座標B(x、y、z)を第1組のカメラ系によるi番目のマーカの三次元座標A(x、y、z)に対応させる座標変換関係を得るものである。これは、選択した少なくとも3つの三次元座標について、第2組のカメラ系の三次元座標系N(x,y,z)から第1組のカメラ系の三次元座標系M(x,y,z)への相似変換の関係に基づいて、座標変換関係を求めることができる。さらに具体的には、上記相似変換は、例えば、下記式で表される。
=sR(N−t)
Mi:第1組のカメラ系の三次元座標(座標ベクトル)
Ni:第2組のカメラ系の三次元座標(座標ベクトル)
s:スケール(スカラー値)
R:回転行列
t:並進ベクトル
(5)そして、得られた座標変換関係、上記例の場合、スケールs、回転行列R、並進ベクトルt等を用いて、第2組のカメラ系の三次元座標系N(x、y、z)を第1組のカメラ系の三次元座標系M(x、y、z)に座標変換して、第1組のカメラ系の三次元座標系に基づく被計測物の三次元座標を得る。
Further, the non-contact three-dimensional measurement apparatus 100 is different from the non-contact three-dimensional measurement apparatus according to the first embodiment in the image processing method in the image processing unit. Specifically, this image processing unit is different from the first embodiment in that the target region (ROI) is not selected from each image. Note that the target region (ROI) may be selected from each image as in the first embodiment. In addition, the image processing unit performs the following processing.
(1) First, as in the first embodiment, a three-dimensional coordinate system on the object to be measured in the first set of camera systems is obtained. For example, the three-dimensional coordinate by the first set of camera systems is M (x, y, z).
(2) Next, a three-dimensional coordinate system on the object to be measured in the second set of camera systems is obtained. For example, let N (x, y, z) be a three-dimensional coordinate by the second set of camera systems.
(3) Thereafter, among the three-dimensional coordinates on the object to be measured in the second set of camera systems, at least three points corresponding to the three-dimensional coordinates on the object to be measured in the first set of camera systems, that is, at least three points Select the 3D coordinates of the marker. For example, the three-dimensional coordinate of the i-th marker by the first set of camera systems is A i (x, y, z), and the three-dimensional coordinate of the i-th marker by the second set of camera systems is B i (x, y, z).
(4) For at least three selected three-dimensional coordinates, a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems is obtained. This three-dimensional coordinates B i of i-th marker by the second set of camera system (x, y, z) of the first set of camera system according to the i-th three-dimensional coordinates A i (x markers, y, The coordinate transformation relationship corresponding to z) is obtained. This is because, for at least three selected three-dimensional coordinates, the three-dimensional coordinate system M (x, y, z) of the first camera system is changed from the three-dimensional coordinate system N (x, y, z) of the second camera system. Based on the relation of similarity transformation to z), the coordinate transformation relation can be obtained. More specifically, the similarity transformation is represented by the following formula, for example.
M i = sR (N i −t)
Mi: 3D coordinates (coordinate vector) of the first set of camera systems
Ni: 3D coordinates (coordinate vector) of the second set of camera systems
s: Scale (scalar value)
R: rotation matrix t: translation vector (5) and the obtained coordinate transformation relationship, in the case of the above example, using the scale s, rotation matrix R, translation vector t, etc., the three-dimensional coordinates of the second set of camera systems The system N (x, y, z) is coordinate-transformed into a three-dimensional coordinate system M (x, y, z) of the first set of camera systems, and the measurement target is based on the three-dimensional coordinate system of the first set of camera systems. Get the 3D coordinates of an object.

なお、被計測物1上に、例えば、マーカ60を3点以上置いておくことによって、第1組のカメラ系における三次元座標と第2組のカメラ系における三次元座標とで共通する三次元座標として、マーカ60の三次元座標を対応させることができる(図13)。なお、第1組のカメラ系の三次元座標と第2組のカメラ系の三次元座標とで両方で対応関係が明確な点が少なくとも3点以上利用できる場合にはマーカを置く必要はない。また、少なくとも3つのマーカは同一直線上に並んでいないものを用いることが好ましい。   For example, by placing three or more markers 60 on the object 1 to be measured, the three-dimensional coordinates common to the three-dimensional coordinates in the first camera system and the three-dimensional coordinates in the second camera system are common. As coordinates, the three-dimensional coordinates of the marker 60 can be made to correspond (FIG. 13). Note that it is not necessary to place a marker when at least three or more points having a clear correspondence between the three-dimensional coordinates of the first camera system and the three-dimensional coordinates of the second camera system can be used. In addition, it is preferable to use at least three markers that are not arranged on the same straight line.

実施の形態4に係る非接触三次元計測装置100では、第1組のカメラ系だけでなく、第2組のカメラ系を用いている。例えば、山などのように大きな被計測物の場合、第1組のカメラ系だけでは、山の一面しか観測できないが、実施の形態4に係る非接触三次元計測装置によれば、第2組のカメラ系によって、第1組のカメラ系では影になって観測できない部分も観測できる。その後、第2組のカメラ系による三次元座標系を第1組の三次元座標系に座標変換することによって、全体の三次元座標系を統合することができる。   In the non-contact three-dimensional measurement apparatus 100 according to the fourth embodiment, not only the first set of camera systems but also the second set of camera systems is used. For example, in the case of a large object to be measured such as a mountain, only one surface of the mountain can be observed with only the first set of camera systems. However, according to the non-contact three-dimensional measurement apparatus according to Embodiment 4, the second set With this camera system, it is possible to observe a portion that cannot be observed in the shadow with the first set of camera systems. Thereafter, the entire three-dimensional coordinate system can be integrated by converting the three-dimensional coordinate system of the second set of camera systems into the first set of three-dimensional coordinate systems.

なお、実施の形態4に係る非接触三次元計測装置では、実施の形態1から3に係る非接触三次元計測装置の構成のうち、いずれか一つの構成、又は、これらの複数の構成を備えてもよい。   The non-contact three-dimensional measurement apparatus according to the fourth embodiment includes any one of the configurations of the non-contact three-dimensional measurement apparatus according to the first to third embodiments or a plurality of these configurations. May be.

図14及び図15は、実施の形態4に係る非接触三次元計測方法のフローチャートである。この非接触三次元計測方法は、第1組のカメラ系による被計測物の三次元座標系の算出と、第2組のカメラ系による被計測物の三次元座標系の算出とを行った後、得られた第2組のカメラ系の三次元座標系を第1組のカメラ系の三次元座標系に座標変換して、第1組のカメラ系の三次元座標系に基づく被計測物の三次元座標を得ることを特徴とする。
なお、図16は、第1組のカメラ系の第1のカメラ2aによって撮影された第1の画像20を示す概略図である。図17は、第1組のカメラ系の第2のカメラ2bによって撮影された第2の画像30を示す概略図である。図18は、図16の第1の画像20について、第1線分データ22中の一つの点を特徴点24として選択する場合の概略図である。図19は、図17の第2の画像30において、第1の画像20上の特徴点24に該当するエピポーラ線33が計算された第2の画像30を示す概略図である。
(a)互いに距離をおいて配置され、被計測物1を撮影する第1組のカメラ系を構成する第1のカメラ2a及び第2のカメラ2bについて、互いの位置関係に関する外部標定を行う(S21)。
(b)第1組のカメラ系において被計測物1にラインレーザを照射する(S22)(図20)。
(c)ラインレーザが照射された被計測物1を第1のカメラ2a及び第2のカメラ2bでそれぞれ撮影して、第1のカメラ2aによる第1の画像20(図16)と、第2のカメラ2bによる第2の画像30(図17)とを得る(S23)。
(d)第1の画像20において、撮影されたラインレーザに対応する部分を第1線分データ22として抽出する(S24)(図16)。
(e)第2の画像30において、撮影されたラインレーザに対応する部分を第2線分データ32として抽出する(S25)(図17)。
(f)第1の画像20から抽出された第1線分データ22の中の一つの点を特徴点24として選択する(S26)(図18)。
(g)第1の画像20上で選択した特徴点24に対応するエピポーラ線33を第2の画像30上で計算する(S27)(図19)。
(h)第2の画像30から抽出された第2線分データ32とエピポーラ線33との交点を、第1の画像20上で選択した特徴点24と対応する対応点34として決定する(S28)(図19)。
(i)第1の画像20における特徴点24と、第2の画像30における対応点34とを用いて、特徴点24及び対応点34に該当する被計測物1上の該当点14の三次元座標を算出し、第1組のカメラ系における被計測物1上の三次元座標系を得る(S29)(図20)。
14 and 15 are flowcharts of the non-contact three-dimensional measurement method according to the fourth embodiment. This non-contact three-dimensional measurement method performs calculation of the three-dimensional coordinate system of the object to be measured by the first set of camera systems and calculation of the three-dimensional coordinate system of the object to be measured by the second set of camera systems. The obtained three-dimensional coordinate system of the second set of camera systems is transformed into the three-dimensional coordinate system of the first set of camera systems, and the object to be measured based on the three-dimensional coordinate system of the first set of camera systems is converted It is characterized by obtaining three-dimensional coordinates.
FIG. 16 is a schematic diagram showing a first image 20 taken by the first camera 2a of the first set of camera systems. FIG. 17 is a schematic diagram illustrating a second image 30 captured by the second camera 2b of the first set of camera systems. FIG. 18 is a schematic diagram when one point in the first line segment data 22 is selected as the feature point 24 for the first image 20 in FIG. 16. FIG. 19 is a schematic diagram showing the second image 30 in which the epipolar line 33 corresponding to the feature point 24 on the first image 20 is calculated in the second image 30 of FIG.
(A) For the first camera 2a and the second camera 2b that are arranged at a distance from each other and that constitute the first set of camera systems for photographing the object 1 to be measured, external orientation relating to the mutual positional relationship is performed ( S21).
(B) The line laser is irradiated to the measurement object 1 in the first set of camera systems (S22) (FIG. 20).
(C) The measurement object 1 irradiated with the line laser is photographed by the first camera 2a and the second camera 2b, respectively, and the first image 20 (FIG. 16) by the first camera 2a and the second The second image 30 (FIG. 17) obtained by the camera 2b is obtained (S23).
(D) In the first image 20, a portion corresponding to the captured line laser is extracted as the first line segment data 22 (S24) (FIG. 16).
(E) In the second image 30, a portion corresponding to the captured line laser is extracted as second line segment data 32 (S25) (FIG. 17).
(F) One point in the first line segment data 22 extracted from the first image 20 is selected as the feature point 24 (S26) (FIG. 18).
(G) The epipolar line 33 corresponding to the feature point 24 selected on the first image 20 is calculated on the second image 30 (S27) (FIG. 19).
(H) The intersection of the second line segment data 32 extracted from the second image 30 and the epipolar line 33 is determined as a corresponding point 34 corresponding to the feature point 24 selected on the first image 20 (S28). (FIG. 19).
(I) Three-dimensional of the corresponding point 14 on the measurement object 1 corresponding to the feature point 24 and the corresponding point 34 using the feature point 24 in the first image 20 and the corresponding point 34 in the second image 30. The coordinates are calculated to obtain a three-dimensional coordinate system on the measurement object 1 in the first set of camera systems (S29) (FIG. 20).

図21は、第2組のカメラ系の第3のカメラ2cによって撮影された第3の画像40を示す概略図である。図22は、第2組のカメラ系の第4のカメラ2dによって撮影された第4の画像50を示す概略図である。図23は、図21の第3の画像40について、第3線分データ42中の一つの点を特徴点44として選択する場合の概略図である。図24は、図22の第4の画像50において、第3の画像40上の特徴点44に該当するエピポーラ線53が計算された第4の画像50を示す概略図である。
(j)第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、被計測物1を撮影する第2組のカメラ系を構成する第3のカメラ2c及び第4のカメラ2dについて、互いの位置関係に関する外部標定を行う(S30)。
(k)被計測物1にラインレーザを照射する(S31)
(l)ラインレーザが照射された被計測物1を第3のカメラ2c及び第4のカメラ2dでそれぞれ撮影して、第3のカメラ2cによる第3の画像40(図21)と、第4のカメラ2dによる第4の画像50(図22)とを得る(S32)。
(m)第3の画像40において、撮影されたラインレーザに対応する部分を第3線分データ42として抽出する(S33)(図21)。
(n)第4の画像50において、撮影されたラインレーザに対応する部分を第4線分データ52として抽出する(S34)(図22)。
(o)第3の画像40から抽出された第3線分データ42の中の一つの点を特徴点44として選択する(S35)(図23)。
(p)第3の画像40上で選択した特徴点44に対応するエピポーラ線53を第4の画像50上で計算する(S36)(図24)。
(q)第4の画像50から抽出された第4線分データ52とエピポーラ線53との交点を、第3の画像40上で選択した特徴点44と対応する対応点54として決定する(S37)(図24)。
(r)第3の画像40における特徴点44と、第4の画像50における対応点54とを用いて、特徴点44及び対応点54に該当する被計測物1上の該当点の三次元座標を算出し、第2組のカメラ系における被計測物上の三次元座標系を得る(S38)(図25)。
FIG. 21 is a schematic diagram showing a third image 40 taken by the third camera 2c of the second set of camera systems. FIG. 22 is a schematic diagram showing a fourth image 50 taken by the fourth camera 2d of the second set of camera systems. FIG. 23 is a schematic diagram when one point in the third line segment data 42 is selected as the feature point 44 for the third image 40 in FIG. FIG. 24 is a schematic diagram showing the fourth image 50 in which the epipolar line 53 corresponding to the feature point 44 on the third image 40 is calculated in the fourth image 50 of FIG.
(J) A third camera 2c and a fourth camera 2d, which are arranged at a distance from each other at positions different from the first set of camera systems and constitute a second set of camera systems for photographing the object 1 to be measured. Are subjected to external orientation with respect to each other's positional relationship (S30).
(K) Irradiate the measurement object 1 with a line laser (S31)
(L) The measurement object 1 irradiated with the line laser is photographed by the third camera 2c and the fourth camera 2d, respectively, and the third image 40 (FIG. 21) by the third camera 2c and the fourth A fourth image 50 (FIG. 22) obtained by the camera 2d is obtained (S32).
(M) In the third image 40, a portion corresponding to the captured line laser is extracted as third line segment data 42 (S33) (FIG. 21).
(N) In the fourth image 50, a portion corresponding to the captured line laser is extracted as the fourth line segment data 52 (S34) (FIG. 22).
(O) One point in the third line segment data 42 extracted from the third image 40 is selected as the feature point 44 (S35) (FIG. 23).
(P) The epipolar line 53 corresponding to the feature point 44 selected on the third image 40 is calculated on the fourth image 50 (S36) (FIG. 24).
(Q) The intersection of the fourth line segment data 52 extracted from the fourth image 50 and the epipolar line 53 is determined as a corresponding point 54 corresponding to the feature point 44 selected on the third image 40 (S37). (FIG. 24).
(R) Using the feature point 44 in the third image 40 and the corresponding point 54 in the fourth image 50, the three-dimensional coordinates of the corresponding point on the measurement object 1 corresponding to the feature point 44 and the corresponding point 54 To obtain a three-dimensional coordinate system on the object to be measured in the second set of camera systems (S38) (FIG. 25).

(s)第2組のカメラ系における被計測物1上の三次元座標のうち、第1組のカメラ系における被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、選択した少なくとも3つの三次元座標について、第2組のカメラ系の三次元座標系から第1組のカメラ系の三次元座標系への座標変換関係を求める(S39)。これは、第2組のカメラ系によるi番目のマーカの三次元座標B(x、y、z)を第1組のカメラ系によるi番目のマーカの三次元座標A(x、y、z)に対応させる座標変換関係を得るものである。これは、選択した少なくとも3つの三次元座標について、第2組のカメラ系の三次元座標系N(x,y,z)から第1組のカメラ系の三次元座標系M(x,y,z)への相似変換の関係に基づいて、座標変換関係を求めることができる。さらに具体的には、上記相似変換は、例えば、下記式で表される。
=sR(N−t)
Mi:第1組のカメラ系の三次元座標(座標ベクトル)
Ni:第2組のカメラ系の三次元座標(座標ベクトル)
s:スケール(スカラー値)
R:回転行列
t:並進ベクトル
(t)得られた座標変換関係、例えば上記例では、スケールs、回転行列R、並進ベクトルt等を用いて、第2組のカメラ系の三次元座標系を第1組のカメラ系の三次元座標系に座標変換して、第1組のカメラ系の三次元座標系に基づく被計測物の三次元座標を得る(S40)。
以上によって、第1組のカメラ系の三次元座標系に基づく被計測物の三次元座標を得ることができる。
(S) Of the three-dimensional coordinates on the measurement object 1 in the second set of camera systems, select at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the measurement object in the first set of camera systems; For at least three selected three-dimensional coordinates, a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems is obtained (S39). This three-dimensional coordinates B i of i-th marker by the second set of camera system (x, y, z) of the first set of camera system according to the i-th three-dimensional coordinates A i (x markers, y, The coordinate transformation relationship corresponding to z) is obtained. This is because, for at least three selected three-dimensional coordinates, the three-dimensional coordinate system M (x, y, z) of the first camera system is changed from the three-dimensional coordinate system N (x, y, z) of the second camera system. Based on the relation of similarity transformation to z), the coordinate transformation relation can be obtained. More specifically, the similarity transformation is represented by the following formula, for example.
M i = sR (N i −t)
Mi: 3D coordinates (coordinate vector) of the first set of camera systems
Ni: 3D coordinates (coordinate vector) of the second set of camera systems
s: Scale (scalar value)
R: rotation matrix t: translation vector (t) The obtained coordinate transformation relationship, for example, the scale s, the rotation matrix R, the translation vector t, etc. The coordinate transformation is performed to the three-dimensional coordinate system of the first set of camera systems, and the three-dimensional coordinates of the measurement object based on the three-dimensional coordinate system of the first set of camera systems are obtained (S40).
As described above, the three-dimensional coordinates of the measurement object based on the three-dimensional coordinate system of the first set of camera systems can be obtained.

なお、上記ステップ(s)について、さらに説明する。
以下に、相似変換の関係式を再度掲載する。
=sR(N−t)
Mi:第1組のカメラ系の三次元座標(座標ベクトル)
Ni:第2組のカメラ系の三次元座標(座標ベクトル)
s:スケール(スカラー値)
R:回転行列
t:並進ベクトル
上記座標変換関係のスケールs、回転行列R、並進ベクトルtのそれぞれの求め方の一例を挙げる。
The step (s) will be further described.
Below, the relational expression of similarity transformation is listed again.
M i = sR (N i −t)
Mi: 3D coordinates (coordinate vector) of the first set of camera systems
Ni: 3D coordinates (coordinate vector) of the second set of camera systems
s: Scale (scalar value)
R: rotation matrix t: translation vector An example of how to calculate the scale s, the rotation matrix R, and the translation vector t related to the coordinate transformation is given.

(a)スケールの求め方
第1組のカメラ系によるマーカのi番目とi+1番目の三次元座標A(x,y,z)の間での座標ベクトルの引き算をそれぞれ行って、第2組のカメラ系による対応するマーカのi番目とi+1番の三次元座標B(x,y,z)の間での座標ベクトルの引き算を行って、両辺のベクトルの大きさの2乗を得ると、上記の相似変換の関係式から、下記式が得られる。
(A−Ai+1=s(B−Bi+1
上記式では、並進ベクトルtを削除でき、全体としてスカラーのみとすることができる。これによって、スケールsを算出できる。なお、マーカの数が3以上あるので、3以上の異なるスケールsの値が得られ、その平均値をスケールsとして得ることができる。
(A) How to obtain the scale Each of the coordinate vectors between the i-th and i + 1-th three-dimensional coordinates A (x, y, z) of the marker by the first set of camera systems is subtracted, respectively. When the coordinate vector is subtracted between the i-th and i + 1-th three-dimensional coordinates B (x, y, z) of the corresponding marker by the camera system to obtain the square of the magnitude of the vector on both sides, From the relational expression of the similarity transformation, the following formula is obtained.
(A i −A i + 1 ) 2 = s 2 (B i −B i + 1 ) 2
In the above equation, the translation vector t can be deleted, and the whole can be a scalar only. Thereby, the scale s can be calculated. Since the number of markers is three or more, three or more different scale s values can be obtained, and the average value can be obtained as the scale s.

(b)回転行列Rの求め方
まず、上記相似変換の式を以下のように変形しておく。
=sR(N−t)=R(sN−st)=R(sN)−R(st)
次に、マーカのi+1番目からi番目への引き算を行う。
i+1−M=(R(sNi+1)−R(st))−(R(sNi)−R(st))
i+1−M=R(sNi+1)−R(sN
=R((sNi+1)−(sN))
ここで、
=Mi+1−M
=sNi+1−sN
と置き換えると、下記式が得られる。
=Rn
(B) How to Obtain Rotation Matrix R First, the similarity transformation formula is modified as follows.
M i = sR (N i −t) = R (sN i −st) = R (sN i ) −R (st)
Next, the marker is subtracted from i + 1 to i-th.
M i + 1 −M i = (R (sN i + 1 ) −R (st)) − (R (sNi) −R (st))
M i + 1 −M i = R (sN i + 1 ) −R (sN i )
= R ((sN i + 1 )-(sN i ))
here,
m i = M i + 1 −M i
n i = sN i + 1 −sN i
Is replaced by the following formula:
m i = Rn i

マーカが3つしかない場合には上記式から回転行列Rが一意に決まるが、マーカが複数存在する場合には、それぞれのマーカの三次元座標に測定誤差が含まれていることを考慮する必要がある。そこで、上記式から、引き算ベクトル(m−Rn)の大きさの二乗和が最小となるような回転行列Rを得ることによって、座標変換における誤差を最小とすることができる。具体的には、

Figure 0005563930
の条件を満たす回転行列Rを求めることである。なお、上記最小二乗法による回転行列Rは、通常の方法によって得られる。その求め方の詳細については、例えば、非特許文献3等に詳しい。 When there are only three markers, the rotation matrix R is uniquely determined from the above equation, but when there are multiple markers, it is necessary to consider that measurement errors are included in the three-dimensional coordinates of each marker. There is. Thus, by obtaining a rotation matrix R that minimizes the sum of squares of the subtraction vector (m i −Rn i ) from the above equation, the error in coordinate transformation can be minimized. In particular,
Figure 0005563930
Is to obtain a rotation matrix R that satisfies the following condition. The rotation matrix R by the least square method is obtained by a normal method. The details of how to find it are detailed in Non-Patent Document 3, for example.

(c)並進ベクトルtの求め方
上記相似変換の関係式を変形すると、

Figure 0005563930
となる。なお、Rは、回転行列Rの転置行列である。複数のマーカのそれぞれについて並進ベクトルtが得られるので、その平均値を全体の並進ベクトルtとする。
以上によって、座標変換関係のスケールs、回転行列R、並進ベクトルtのそれぞれが得られる。なお、上記の座標変換関係のスケールs、回転行列R、並進ベクトルtの求め方は一例であってこれらに限られない。 (C) How to determine the translation vector t
Figure 0005563930
It becomes. RT is a transposed matrix of the rotation matrix R. Since translation vector t i is obtained for each of a plurality of markers, and the average value and the overall translation vector t.
As described above, each of the coordinate transformation-related scale s, rotation matrix R, and translation vector t is obtained. The method for obtaining the coordinate conversion-related scale s, rotation matrix R, and translation vector t is an example, and is not limited thereto.

実施の形態4に係る非接触三次元計測装置及び非接触三次元計測方法では、第1組のカメラ系だけでなく、第2組のカメラ系を用いている。例えば、山などのように大きな被計測物の場合、第1組のカメラ系だけでは、山の一面しか観測できないが、実施の形態4に係る非接触三次元計測装置及び方法によれば、第2組のカメラ系によって、第1組のカメラ系では影になって観測できない部分も観測できる。その後、第2組のカメラ系による三次元座標系を第1組の三次元座標系に座標変換することによって、被計測物全体の三次元座標系を統合することができる。   In the non-contact three-dimensional measurement apparatus and the non-contact three-dimensional measurement method according to Embodiment 4, not only the first set of camera systems but also the second set of camera systems is used. For example, in the case of a large object to be measured such as a mountain, only one surface of the mountain can be observed with only the first set of camera systems, but according to the non-contact three-dimensional measurement apparatus and method according to the fourth embodiment, With the two sets of camera systems, it is possible to observe a portion that cannot be observed in the shadow of the first set of camera systems. Thereafter, the three-dimensional coordinate system of the entire object to be measured can be integrated by performing coordinate conversion of the three-dimensional coordinate system of the second set of camera systems into the first set of three-dimensional coordinate systems.

本発明に係る非接触三次元計測装置及び非接触三次元計測方法によれば、表面に特徴がない物体を被計測物とする場合であっても、2つの画像上で、一方の画像で選択した特徴点について、もう一方の画像上における対応点を明確に特定できる。そこで、本発明に係る非接触三次元計測装置及び非接触三次元計測方法は、表面に特徴がない物体を被計測物とする非接触三次元計測に有用である。さらに本方法では、カメラの配置やレーザなどは任意に配置できるため、被計測物の大きさが変動した場合に、容易に対応することができる。さらにカメラやレーザ等は比較的省電力であるため、電池で駆動でき、可搬性に優れている。   According to the non-contact three-dimensional measurement apparatus and the non-contact three-dimensional measurement method according to the present invention, even when an object having no feature on the surface is set as the measurement object, one of the two images is selected. The corresponding point on the other image can be clearly identified for the feature point. Therefore, the non-contact three-dimensional measurement apparatus and the non-contact three-dimensional measurement method according to the present invention are useful for non-contact three-dimensional measurement using an object having no feature on the surface as an object to be measured. Furthermore, in this method, since the arrangement of the camera, the laser, and the like can be arbitrarily arranged, it is possible to easily cope with a change in the size of the measurement object. In addition, since cameras, lasers, and the like have relatively low power consumption, they can be driven by batteries and have excellent portability.

1 被計測物
2a 第1のカメラ
2b 第2のカメラ
2c 第3のカメラ
2d 第4のカメラ
4 ラインレーザ
6 標定部
6a 第1標定部
6b 第2標定部
8 画像処理部
10 非接触三次元計測装置
12 照射されたラインレーザ
14 該当点
20 第1の画像
22 第1線分データ
24 特徴点
26 第1対象領域
30 第2の画像
32 第2線分データ
33 エピポーラ線
34 対応点
36 第2対象領域
40 第3の画像
42 第3線分データ
44 特徴点
50 第4の画像
52 第4線分データ
54 対応点
60 マーカ
100 非接触三次元計測装置
DESCRIPTION OF SYMBOLS 1 Measured object 2a 1st camera 2b 2nd camera 2c 3rd camera 2d 4th camera 4 Line laser 6 Orientation part 6a 1st orientation part 6b 2nd orientation part 8 Image processing part 10 Non-contact three-dimensional measurement Device 12 Irradiated Line Laser 14 Corresponding Point 20 First Image 22 First Line Segment Data 24 Feature Point 26 First Target Area 30 Second Image 32 Second Line Segment Data 33 Epipolar Line 34 Corresponding Point 36 Second Target Region 40 Third image 42 Third line segment data 44 Feature point 50 Fourth image 52 Fourth line segment data 54 Corresponding point 60 Marker 100 Non-contact three-dimensional measuring device

Claims (29)

互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラと、
前記被計測物にラインレーザを照射方向の所定の軸について回転させて照射するラインレーザと、
前記第1のカメラ及び前記第2のカメラについて、互いの位置関係を計算する外部標定を行う標定部と、
前記ラインレーザが照射された被計測物を前記第1のカメラで撮影した第1の画像と、前記第2のカメラで撮影した第2の画像とを画像処理する画像処理部と、
を備え、
前記画像処理部は、
前記第1の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第1対象領域として選択し、
前記第2の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第2対象領域として選択し、
前記第1対象領域において、前記ラインレーザが撮影された部分を第1線分データとして抽出し、
前記第2対象領域において、前記ラインレーザが撮影された部分を第2線分データとして抽出し、
前記第1対象領域内の前記第1線分データの中の一つの点を特徴点として選択し、
前記第1の画像上の前記第1対象領域内で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上の前記第2対象領域内に計算して、
前記第2の画像上の前記第2対象領域内において、撮影された前記ラインレーザに対応する第2線分データと前記エピポーラ線との交点を、前記第1の画像上の前記第1対象領域内で選択した前記特徴点と対応する対応点として決定し、
前記第1の画像上の前記第1対象領域内における前記特徴点と、前記第2の画像上の前記第2対象領域内における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、
前記第1の画像から抽出された前記第1線分上の点すべてに対して、前記該当点の三次元座標を算出する処理を繰り返して、前記被計測物の前記ラインレーザが照射されたライン部分に対して三次元座標を算出する非接触三次元計測装置であって、
前記画像処理部は、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するごとに、前記画像処理を繰り返すことを特徴とする、非接触三次元計測装置。
A first camera and a second camera which are arranged at a distance from each other and shoot a measurement object;
A line laser that irradiates the object to be measured by rotating a line laser about a predetermined axis in an irradiation direction; and
For the first camera and the second camera, an orientation unit that performs external orientation to calculate the mutual positional relationship;
An image processing unit that performs image processing on a first image obtained by photographing the object to be measured irradiated with the line laser with the first camera, and a second image photographed by the second camera;
With
The image processing unit
In the first image, a rectangular area including a portion where the line laser is photographed is selected as a first target area,
In the second image, a rectangular region including a portion where the line laser is photographed is selected as a second target region,
In the first target area, a portion where the line laser is imaged is extracted as first line segment data,
In the second target area, a portion where the line laser is imaged is extracted as second line segment data,
Selecting one point in the first line segment data in the first target area as a feature point;
Calculating an epipolar line corresponding to the feature point selected in the first target region on the first image in the second target region on the second image;
In the second target area on the second image, the intersection of the captured second line segment data corresponding to the line laser and the epipolar line is defined as the first target area on the first image. Determined as a corresponding point corresponding to the feature point selected in
Corresponding to the feature point and the corresponding point using the feature point in the first target region on the first image and the corresponding point in the second target region on the second image Calculate the three-dimensional coordinates of the corresponding point on the object to be measured,
A line on which the line laser of the object to be measured is irradiated by repeating the process of calculating the three-dimensional coordinates of the corresponding points for all points on the first line segment extracted from the first image. A non-contact three-dimensional measuring device that calculates three-dimensional coordinates for a part,
The non-contact three-dimensional measurement apparatus according to claim 1, wherein the image processing unit repeats the image processing every time the line laser is rotated about a predetermined axis in an irradiation direction to irradiate the object to be measured.
互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラと、
前記被計測物にラインレーザを照射方向の軸について回転させて照射するラインレーザと、
前記第1のカメラ及び前記第2のカメラについて、互いの位置関係を計算する外部標定を行う標定部と、
前記ラインレーザが照射された被計測物を前記第1のカメラで撮影した第1の画像と、前記第2のカメラで撮影した第2の画像とを画像処理する画像処理部と、
を備え、
前記画像処理部は、
前記第1の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第1対象領域として選択し、
前記第2の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第2対象領域として選択し、
前記第1対象領域において、前記ラインレーザが撮影された部分を第1線分データとして抽出し、
前記第2対象領域において、前記ラインレーザが撮影された部分を第2線分データとして抽出し、
前記第1対象領域内の前記第1線分データの中の一つの点を特徴点として選択し、
前記第1の画像上の前記第1対象領域内で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上の前記第2対象領域内に計算して、
前記第2の画像上の前記第2対象領域内において、撮影された前記ラインレーザに対応する第2線分データと前記エピポーラ線との交点を、前記第1の画像上の前記第1対象領域内で選択した前記特徴点と対応する対応点として決定し、
前記第1の画像上の前記第1対象領域内における前記特徴点と、前記第2の画像上の前記第2対象領域内における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出する、非接触三次元計測装置であって、
前記画像処理部で対応点を決定する処理において、前記エピポーラ線と前記第2線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第1の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第2の画像上で前記エピポーラ線と前記第2線分データとの単一の交点を前記特徴点と対応する対応点として決定することを特徴とする、
非接触三次元計測装置。
A first camera and a second camera which are arranged at a distance from each other and shoot a measurement object;
A line laser that irradiates the object to be measured by rotating a line laser about an axis in an irradiation direction; and
For the first camera and the second camera, an orientation unit that performs external orientation to calculate the mutual positional relationship;
An image processing unit that performs image processing on a first image obtained by photographing the object to be measured irradiated with the line laser with the first camera, and a second image photographed by the second camera;
With
The image processing unit
In the first image, a rectangular area including a portion where the line laser is photographed is selected as a first target area,
In the second image, a rectangular region including a portion where the line laser is photographed is selected as a second target region,
In the first target area, a portion where the line laser is imaged is extracted as first line segment data,
In the second target area, a portion where the line laser is imaged is extracted as second line segment data,
Selecting one point in the first line segment data in the first target area as a feature point;
Calculating an epipolar line corresponding to the feature point selected in the first target region on the first image in the second target region on the second image;
In the second target area on the second image, the intersection of the captured second line segment data corresponding to the line laser and the epipolar line is defined as the first target area on the first image. Determined as a corresponding point corresponding to the feature point selected in
Corresponding to the feature point and the corresponding point using the feature point in the first target region on the first image and the corresponding point in the second target region on the second image A non-contact three-dimensional measuring device that calculates three-dimensional coordinates of a corresponding point on the object to be measured,
In the process of determining corresponding points in the image processing unit, when there are two or more intersections between the epipolar line and the second line segment data, the line laser corresponds to the feature point on the first image. Irradiating by rotating about the axis of the irradiation direction to the corresponding point on the object to be measured, and setting the single intersection point of the epipolar line and the second line segment data on the second image as the feature point It is determined as a corresponding point corresponding to
Non-contact 3D measuring device.
前記第1のカメラ及び前記第2のカメラは、撮影した画像データを、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差する方向の走査線に沿って記録する画像メモリを備え、それぞれ前記第1の画像及び前記第2の画像として出力する、請求項1又は2に記載の非接触三次元計測装置。   The first camera and the second camera each include an image memory that records captured image data along a scanning line in a direction intersecting with a straight line connecting the first camera and the second camera. The non-contact three-dimensional measurement apparatus according to claim 1, wherein the non-contact three-dimensional measurement apparatus outputs the first image and the second image, respectively. 前記画像処理部は、前記矩形領域の長辺が前記第1の画像及び前記第2の画像を記録した際の走査線の方向と平行となるように、前記第1対象領域及び前記第2対象領域を選択する、請求項3に記載の非接触三次元計測装置。   The image processing unit includes the first target region and the second target so that a long side of the rectangular region is parallel to a direction of a scanning line when the first image and the second image are recorded. The non-contact three-dimensional measuring apparatus according to claim 3, wherein a region is selected. 前記画像処理部は、前記第1対象領域内でのみ前記特徴点を選択し、前記第2対象領域内でのみ前記対応点を決定する、請求項1から4のいずれか一項に記載の非接触三次元計測装置。   The non-processing according to any one of claims 1 to 4, wherein the image processing unit selects the feature points only within the first target region and determines the corresponding points only within the second target region. Contact three-dimensional measuring device. 前記ラインレーザは、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射する、請求項1から5のいずれか一項に記載の非接触三次元計測装置。   The said line laser irradiates the said to-be-measured object with a line laser so that it may cross | intersect the straight line which connects a said 1st camera and a said 2nd camera, The non-according to any one of Claim 1 to 5 Contact three-dimensional measuring device. (a)互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラについて、互いの位置関係に関する外部標定を行う外部標定ステップと、
(b)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(c)前記ラインレーザが照射された被計測物を前記第1のカメラ及び前記第2のカメラでそれぞれ撮影して、前記第1のカメラによる第1の画像と、前記第2のカメラによる第2の画像とを得る画像撮影ステップと、
(d)前記第1の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第1対象領域として選択する第1対象領域選択ステップと、
(e)前記第2の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第2対象領域として選択する第2対象領域選択ステップと、
(f)前記第1対象領域において、前記ラインレーザが撮影された部分を第1線分データとして抽出する第1線分データ抽出ステップと、
(g)前記第2対象領域において、前記ラインレーザが撮影された部分を第2線分データとして抽出する第2線分データ抽出ステップと、
(h)前記第1対象領域内の前記第1線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(i)前記第1の画像上の前記第1対象領域内で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上の前記第2対象領域内に計算するエピポーラ線計算ステップと、
(j)前記第2の画像上の前記第2対象領域内において、撮影された前記ラインレーザに対応する前記第2線分データと前記エピポーラ線との交点を、前記第1の画像上の前記第1対象領域内で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(k)前記第1の画像上の前記第1対象領域内における前記特徴点と、前記第2の画像上の前記第2対象領域内における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出する三次元座標算出ステップと、
(l)前記第1画像から抽出された前記第1線分上の点すべてに対して、前記ステップ(h)〜前記ステップ(k)を繰り返して、前記被計測物のラインレーザが照射されたライン部分に対して三次元座標を算出する三次元座標算出ステップと、
を含む、非接触三次元計測方法であって、
前記ラインレーザ照射ステップ(b)において、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するラインレーザ走査ステップをさらに含み、前記ラインレーザを回転させて前記被計測物に照射するごとに、前記ステップ(c)〜前記ステップ(l)を繰り返すことを特徴とする、非接触三次元計測方法。
(A) an external orientation step for performing external orientation on the positional relationship between the first camera and the second camera, which are arranged at a distance from each other and shoot the object to be measured;
(B) a line laser irradiation step of irradiating the object to be measured with a line laser;
(C) The object to be measured irradiated with the line laser is photographed by the first camera and the second camera, respectively, and the first image by the first camera and the second image by the second camera are taken. An image capturing step for obtaining two images;
(D) a first target region selection step of selecting, as the first target region, a rectangular region including a portion where the line laser is captured in the first image;
(E) a second target region selection step of selecting, as the second target region, a rectangular region including a portion where the line laser is captured in the second image;
(F) a first line segment data extraction step of extracting a portion where the line laser is photographed as first line segment data in the first target area;
(G) a second line segment data extracting step of extracting a portion where the line laser is photographed as second line segment data in the second target area;
(H) a feature point selection step of selecting one point in the first line segment data in the first target region as a feature point;
(I) an epipolar line calculating step for calculating an epipolar line corresponding to the feature point selected in the first target area on the first image in the second target area on the second image;
(J) In the second target region on the second image, an intersection point of the second line segment data corresponding to the captured line laser and the epipolar line is defined as the intersection on the first image. A corresponding point determining step for determining as a corresponding point corresponding to the feature point selected in the first target region;
(K) The feature points and the correspondences using the feature points in the first target region on the first image and the corresponding points in the second target region on the second image. A three-dimensional coordinate calculation step for calculating a three-dimensional coordinate of a corresponding point on the measurement object corresponding to a point;
(L) Steps (h) to (k) are repeated for all points on the first line segment extracted from the first image, and the line laser of the object to be measured is irradiated. A three-dimensional coordinate calculation step for calculating three-dimensional coordinates for the line part;
A non-contact three-dimensional measurement method including
The line laser irradiation step (b) further includes a line laser scanning step in which the line laser is rotated about a predetermined axis in an irradiation direction to irradiate the object to be measured, and the line laser is rotated to rotate the object to be measured. The non-contact three-dimensional measurement method characterized by repeating the step (c) to the step (l) every time irradiation is performed.
(a)互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラについて、互いの位置関係に関する外部標定を行う外部標定ステップと、
(b)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(c)前記ラインレーザが照射された被計測物を前記第1のカメラ及び前記第2のカメラでそれぞれ撮影して、前記第1のカメラによる第1の画像と、前記第2のカメラによる第2の画像とを得る画像撮影ステップと、
(d)前記第1の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第1対象領域として選択する第1対象領域選択ステップと、
(e)前記第2の画像において、前記ラインレーザが撮影された部分を含む矩形領域を第2対象領域として選択する第2対象領域選択ステップと、
(f)前記第1対象領域において、前記ラインレーザが撮影された部分を第1線分データとして抽出する第1線分データ抽出ステップと、
(g)前記第2対象領域において、前記ラインレーザが撮影された部分を第2線分データとして抽出する第2線分データ抽出ステップと、
(h)前記第1対象領域内の前記第1線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(i)前記第1の画像上の前記第1対象領域内で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上の前記第2対象領域内に計算するエピポーラ線計算ステップと、
(j)前記第2の画像上の前記第2対象領域内において、撮影された前記ラインレーザに対応する前記第2線分データと前記エピポーラ線との交点を、前記第1の画像上の前記第1対象領域内で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(k)前記第1の画像上の前記第1対象領域内における前記特徴点と、前記第2の画像上の前記第2対象領域内における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出する三次元座標算出ステップと、
を含む、非接触三次元計測方法であって、
前記対応点決定ステップ(j)において、前記エピポーラ線と前記第2線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第1の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第2の画像上で前記エピポーラ線と前記第2線分データとの単一の交点を前記特徴点と対応する対応点として決定することを特徴とする、非接触三次元計測方法。
(A) an external orientation step for performing external orientation on the positional relationship between the first camera and the second camera, which are arranged at a distance from each other and shoot the object to be measured;
(B) a line laser irradiation step of irradiating the object to be measured with a line laser;
(C) The object to be measured irradiated with the line laser is photographed by the first camera and the second camera, respectively, and the first image by the first camera and the second image by the second camera are taken. An image capturing step for obtaining two images;
(D) a first target region selection step of selecting, as the first target region, a rectangular region including a portion where the line laser is captured in the first image;
(E) a second target region selection step of selecting, as the second target region, a rectangular region including a portion where the line laser is captured in the second image;
(F) a first line segment data extraction step of extracting a portion where the line laser is photographed as first line segment data in the first target area;
(G) a second line segment data extracting step of extracting a portion where the line laser is photographed as second line segment data in the second target area;
(H) a feature point selection step of selecting one point in the first line segment data in the first target region as a feature point;
(I) an epipolar line calculating step for calculating an epipolar line corresponding to the feature point selected in the first target area on the first image in the second target area on the second image;
(J) In the second target region on the second image, an intersection point of the second line segment data corresponding to the captured line laser and the epipolar line is defined as the intersection on the first image. A corresponding point determining step for determining as a corresponding point corresponding to the feature point selected in the first target region;
(K) The feature points and the correspondences using the feature points in the first target region on the first image and the corresponding points in the second target region on the second image. A three-dimensional coordinate calculation step for calculating a three-dimensional coordinate of a corresponding point on the measurement object corresponding to a point;
A non-contact three-dimensional measurement method including
In the corresponding point determination step (j), when there are two or more intersections between the epipolar line and the second line segment data, the line laser is detected as the feature point corresponding to the feature point on the first image. Rotate and irradiate a corresponding point on the measurement object with respect to the irradiation direction axis, and a single intersection between the epipolar line and the second line segment data corresponds to the feature point on the second image. A non-contact three-dimensional measurement method, characterized in that it is determined as a corresponding point.
前記画像撮影ステップにおいて、前記第1のカメラ及び前記第2のカメラによって撮影した画像データを、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差する方向の走査線に沿って記録し、それぞれ前記第1の画像及び前記第2の画像として出力する、請求項7又は8に記載の非接触三次元計測方法。   In the image photographing step, image data photographed by the first camera and the second camera is recorded along a scanning line in a direction intersecting with a straight line connecting the first camera and the second camera. The contactless three-dimensional measurement method according to claim 7 or 8, wherein the first image and the second image are output as the first image and the second image, respectively. 前記第1対象領域選択ステップにおいて、前記矩形領域の長辺が前記第1の画像を記録した際の走査線の方向と平行となるように、前記第1対象領域を選択し、
前記第2対象領域選択ステップにおいて、前記矩形領域の長辺が前記第2の画像を記録した際の走査線の方向と平行となるように、前記第2対象領域を選択する、請求項9に記載の非接触三次元計測方法。
In the first target area selection step, the first target area is selected so that the long side of the rectangular area is parallel to the direction of the scanning line when the first image is recorded,
The second target region is selected in the second target region selection step so that a long side of the rectangular region is parallel to a scanning line direction when the second image is recorded. The non-contact three-dimensional measurement method described.
前記特徴点選択ステップにおいて、前記第1対象領域内でのみ前記特徴点を選択し、前記対応点決定ステップにおいて、前記第2対象領域内でのみ前記対応点を決定する、請求項7から10のいずれか一項に記載の非接触三次元計測方法。   The feature point is selected only in the first target region in the feature point selection step, and the corresponding point is determined only in the second target region in the corresponding point determination step. The non-contact three-dimensional measurement method according to any one of the above. 前記ラインレーザ照射ステップにおいて、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射する、請求項7から11のいずれか一項に記載の非接触三次元計測方法。   The line laser irradiation step irradiates the object to be measured with a line laser so as to intersect with a straight line connecting the first camera and the second camera. Non-contact 3D measurement method. 互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラを含む第1組のカメラ系と、
前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、前記被計測物を撮影する第3のカメラ及び第4のカメラを含む第2組のカメラ系と、
前記被計測物にラインレーザを照射方向の所定の軸について回転させて照射するラインレーザと、
前記第1のカメラ及び前記第2のカメラについて、互いの位置関係に関する外部標定を行う第1標定部と、
前記第3のカメラ及び前記第4のカメラについて、互いの位置関係に関する外部標定を行う第2標定部と、
前記ラインレーザが照射された被計測物を前記第1のカメラで撮影した第1の画像と、前記第2のカメラで撮影した第2の画像とを画像処理すると共に、前記ラインレーザが照射された被計測物を前記第3のカメラで撮影した第3の画像と、前記第4のカメラで撮影した第4の画像とを画像処理する、画像処理部と、
を備え、
前記画像処理部は、
前記第1の画像上の撮影された前記ラインレーザに対応する第1線分データの中の一つの点を特徴点として選択し、
前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算して、
前記第2の画像上において、撮影された前記ラインレーザに対応する第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第1の画像上における前記特徴点と、前記第2の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、
前記第1の画像から抽出された前記第1線分上の点すべてに対して、前記該当点の三次元座標を算出する処理を繰り返して、前記被計測物の前記ラインレーザが照射されたライン部分の全体に対して前記第1組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第3の画像上の撮影された前記ラインレーザに対応する第3線分データの中の一つの点を特徴点として選択し、
前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算して、
前記第4の画像上において、撮影された前記ラインレーザに対応する第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第3の画像上における前記特徴点と、前記第4の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求め、得られた座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、非接触三次元計測装置であって、
前記画像処理部は、
前記第1組のカメラ系において、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するごとに、前記被計測物の前記ラインレーザが照射されたライン部分の全体に対して、前記第1組のカメラ系における前記被計測物上の三次元座標系を得る処理を繰り返すことを特徴とする、非接触三次元計測装置。
A first set of camera systems including a first camera and a second camera, which are arranged at a distance from each other and photograph a measurement object;
A second set of camera systems including a third camera and a fourth camera, which are arranged at positions different from the first set of camera systems and at a distance from each other, and shoot the measurement object;
A line laser that irradiates the object to be measured by rotating a line laser about a predetermined axis in an irradiation direction; and
A first orientation unit that performs external orientation on the positional relationship between the first camera and the second camera;
A second orientation unit that performs external orientation on the positional relationship between the third camera and the fourth camera;
A first image obtained by photographing the object to be measured irradiated with the line laser with the first camera and a second image photographed with the second camera are subjected to image processing, and the line laser is emitted. An image processing unit that performs image processing on a third image obtained by photographing the measured object with the third camera and a fourth image obtained by photographing with the fourth camera;
With
The image processing unit
Selecting one point in the first line segment data corresponding to the line laser imaged on the first image as a feature point;
An epipolar line corresponding to the feature point selected on the first image is calculated on the second image;
On the second image, an intersection between the second line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the first image. And
Using the feature points on the first image and the corresponding points on the second image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculate
A line on which the line laser of the object to be measured is irradiated by repeating the process of calculating the three-dimensional coordinates of the corresponding points for all points on the first line segment extracted from the first image. Obtaining a three-dimensional coordinate system on the object to be measured in the first set of camera systems for the entire portion;
Selecting one point in the third line segment data corresponding to the line laser imaged on the third image as a feature point;
An epipolar line corresponding to the feature point selected on the third image is calculated on the fourth image;
On the fourth image, an intersection of the fourth line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the third image. And
Using the feature points on the third image and the corresponding points on the fourth image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculating and obtaining a three-dimensional coordinate system on the object to be measured in the second set of camera systems;
Of the three-dimensional coordinates on the measurement object in the second set of camera systems, select at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the measurement object in the first set of camera systems; For the selected at least three three-dimensional coordinates, a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems is obtained, and the obtained coordinate conversion relationship And converting the three-dimensional coordinate system of the second set of camera systems into the three-dimensional coordinate system of the first set of camera systems, and based on the three-dimensional coordinate system of the first set of camera systems A non-contact three-dimensional measuring device for obtaining a three-dimensional coordinate of an object to be measured,
The image processing unit
In the first set of camera systems, every time the line laser is rotated about a predetermined axis in the irradiation direction and irradiated to the object to be measured, the entire line portion irradiated with the line laser of the object to be measured is applied. On the other hand, a non-contact three-dimensional measuring apparatus characterized by repeating the process of obtaining a three-dimensional coordinate system on the object to be measured in the first set of camera systems.
互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラを含む第1組のカメラ系と、
前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、前記被計測物を撮影する第3のカメラ及び第4のカメラを含む第2組のカメラ系と、
前記被計測物にラインレーザを照射方向の所定の軸について回転させて照射するラインレーザと、
前記第1のカメラ及び前記第2のカメラについて、互いの位置関係に関する外部標定を行う第1標定部と、
前記第3のカメラ及び前記第4のカメラについて、互いの位置関係に関する外部標定を行う第2標定部と、
前記ラインレーザが照射された被計測物を前記第1のカメラで撮影した第1の画像と、
前記第2のカメラで撮影した第2の画像とを画像処理すると共に、前記ラインレーザが照射された被計測物を前記第3のカメラで撮影した第3の画像と、前記第4のカメラで撮影した第4の画像とを画像処理する、画像処理部と、
を備え、
前記画像処理部は、
前記第1の画像上の撮影された前記ラインレーザに対応する第1線分データの中の一つの点を特徴点として選択し、
前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算して、
前記第2の画像上において、撮影された前記ラインレーザに対応する第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第1の画像上における前記特徴点と、前記第2の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第3の画像上の撮影された前記ラインレーザに対応する第3線分データの中の一つの点を特徴点として選択し、
前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算して、
前記第4の画像上において、撮影された前記ラインレーザに対応する第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第3の画像上における前記特徴点と、前記第4の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、
前記第3の画像から抽出された前記第3線分上の点すべてに対して、前記該当点の三
次元座標を算出する処理を繰り返して、前記被計測物の前記ラインレーザが照射されたライン部分の全体に対して前記第2組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求め、得られた座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、
非接触三次元計測装置であって、
前記画像処理部は、
前記第2組のカメラ系において、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するごとに、前記被計測物の前記ラインレーザが照射されたライン部分の全体に対して、前記第2組のカメラ系における前記被計測物上の三次元座標系を得る処理を繰り返すことを特徴とする、非接触三次元計測装置。
A first set of camera systems including a first camera and a second camera, which are arranged at a distance from each other and photograph a measurement object;
A second set of camera systems including a third camera and a fourth camera, which are arranged at positions different from the first set of camera systems and at a distance from each other, and shoot the measurement object;
A line laser that irradiates the object to be measured by rotating a line laser about a predetermined axis in an irradiation direction; and
A first orientation unit that performs external orientation on the positional relationship between the first camera and the second camera;
A second orientation unit that performs external orientation on the positional relationship between the third camera and the fourth camera;
A first image obtained by photographing the measurement object irradiated with the line laser with the first camera;
The second image photographed by the second camera is subjected to image processing, and the third image obtained by photographing the measurement object irradiated with the line laser with the third camera and the fourth camera. An image processing unit that performs image processing on the captured fourth image;
With
The image processing unit
Selecting one point in the first line segment data corresponding to the line laser imaged on the first image as a feature point;
An epipolar line corresponding to the feature point selected on the first image is calculated on the second image;
On the second image, an intersection between the second line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the first image. And
Using the feature points on the first image and the corresponding points on the second image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculating and obtaining a three-dimensional coordinate system on the object to be measured in the first set of camera systems;
Selecting one point in the third line segment data corresponding to the line laser imaged on the third image as a feature point;
An epipolar line corresponding to the feature point selected on the third image is calculated on the fourth image;
On the fourth image, an intersection of the fourth line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the third image. And
Using the feature points on the third image and the corresponding points on the fourth image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculate
A line on which the line laser of the object to be measured is irradiated by repeating the process of calculating the three-dimensional coordinates of the corresponding points for all points on the third line segment extracted from the third image. Obtaining a three-dimensional coordinate system on the object to be measured in the second set of camera systems for the entire portion;
Of the three-dimensional coordinates on the measurement object in the second set of camera systems, select at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the measurement object in the first set of camera systems; For the selected at least three three-dimensional coordinates, a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems is obtained, and the obtained coordinate conversion relationship And converting the three-dimensional coordinate system of the second set of camera systems into the three-dimensional coordinate system of the first set of camera systems, and based on the three-dimensional coordinate system of the first set of camera systems Get the 3D coordinates of the measurement object,
A non-contact three-dimensional measuring device,
The image processing unit
In the second set of camera systems, every time the line laser is rotated about a predetermined axis in the irradiation direction to irradiate the object to be measured, the entire line portion irradiated with the line laser of the object to be measured is applied. On the other hand, the non-contact three-dimensional measurement apparatus characterized by repeating the process of obtaining a three-dimensional coordinate system on the measurement object in the second set of camera systems.
互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラを含む第1組のカメラ系と、
前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、前記被計測物を撮影する第3のカメラ及び第4のカメラを含む第2組のカメラ系と、
前記被計測物にラインレーザを照射方向の軸について回転させて照射するラインレーザと、
前記第1のカメラ及び前記第2のカメラについて、互いの位置関係に関する外部標定を行う第1標定部と、
前記第3のカメラ及び前記第4のカメラについて、互いの位置関係に関する外部標定を行う第2標定部と、
前記ラインレーザが照射された被計測物を前記第1のカメラで撮影した第1の画像と、
前記第2のカメラで撮影した第2の画像とを画像処理すると共に、前記ラインレーザが照射された被計測物を前記第3のカメラで撮影した第3の画像と、前記第4のカメラで撮影した第4の画像とを画像処理する、画像処理部と、
を備え、
前記画像処理部は、
前記第1の画像上の撮影された前記ラインレーザに対応する第1線分データの中の一つの点を特徴点として選択し、
前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算して、
前記第2の画像上において、撮影された前記ラインレーザに対応する第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第1の画像上における前記特徴点と、前記第2の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第3の画像上の撮影された前記ラインレーザに対応する第3線分データの中の一つの点を特徴点として選択し、
前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算して、
前記第4の画像上において、撮影された前記ラインレーザに対応する第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第3の画像上における前記特徴点と、前記第4の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求め、得られた座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、
非接触三次元計測装置であって、
前記画像処理部で、前記第1組のカメラ系の対応点を決定する処理において、前記エピポーラ線と前記第2線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第1の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第2の画像上で前記エピポーラ線と前記第2線分データとの単一の交点を前記特徴点と対応する対応点として決定することを特徴とする、
非接触三次元計測装置。
A first set of camera systems including a first camera and a second camera, which are arranged at a distance from each other and photograph a measurement object;
A second set of camera systems including a third camera and a fourth camera, which are arranged at positions different from the first set of camera systems and at a distance from each other, and shoot the measurement object;
A line laser that irradiates the object to be measured by rotating a line laser about an axis in an irradiation direction; and
A first orientation unit that performs external orientation on the positional relationship between the first camera and the second camera;
A second orientation unit that performs external orientation on the positional relationship between the third camera and the fourth camera;
A first image obtained by photographing the measurement object irradiated with the line laser with the first camera;
The second image photographed by the second camera is subjected to image processing, and the third image obtained by photographing the measurement object irradiated with the line laser with the third camera and the fourth camera. An image processing unit that performs image processing on the captured fourth image;
With
The image processing unit
Selecting one point in the first line segment data corresponding to the line laser imaged on the first image as a feature point;
An epipolar line corresponding to the feature point selected on the first image is calculated on the second image;
On the second image, an intersection between the second line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the first image. And
Using the feature points on the first image and the corresponding points on the second image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculating and obtaining a three-dimensional coordinate system on the object to be measured in the first set of camera systems;
Selecting one point in the third line segment data corresponding to the line laser imaged on the third image as a feature point;
An epipolar line corresponding to the feature point selected on the third image is calculated on the fourth image;
On the fourth image, an intersection of the fourth line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the third image. And
Using the feature points on the third image and the corresponding points on the fourth image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculating and obtaining a three-dimensional coordinate system on the object to be measured in the second set of camera systems;
Of the three-dimensional coordinates on the measurement object in the second set of camera systems, select at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the measurement object in the first set of camera systems; For the selected at least three three-dimensional coordinates, a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems is obtained, and the obtained coordinate conversion relationship And converting the three-dimensional coordinate system of the second set of camera systems into the three-dimensional coordinate system of the first set of camera systems, and based on the three-dimensional coordinate system of the first set of camera systems Get the 3D coordinates of the measurement object,
A non-contact three-dimensional measuring device,
In the process of determining the corresponding points of the first set of camera systems in the image processing unit, when there are two or more intersections between the epipolar line and the second line segment data, the line laser is changed to the first laser. Irradiating by rotating about the axis of the irradiation direction to the corresponding point on the measurement object corresponding to the feature point on the image of the image, and the epipolar line and the second line segment data on the second image, A single intersection point is determined as a corresponding point corresponding to the feature point,
Non-contact 3D measuring device.
互いに距離をおいて配置され、被計測物を撮影する第1のカメラ及び第2のカメラを含む第1組のカメラ系と、
前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、前記被計測物を撮影する第3のカメラ及び第4のカメラを含む第2組のカメラ系と、
前記被計測物にラインレーザを照射方向の軸について回転させて照射するラインレーザと、
前記第1のカメラ及び前記第2のカメラについて、互いの位置関係に関する外部標定を行う第1標定部と、
前記第3のカメラ及び前記第4のカメラについて、互いの位置関係に関する外部標定を行う第2標定部と、
前記ラインレーザが照射された被計測物を前記第1のカメラで撮影した第1の画像と、前記第2のカメラで撮影した第2の画像とを画像処理すると共に、前記ラインレーザが照射された被計測物を前記第3のカメラで撮影した第3の画像と、前記第4のカメラで撮影した第4の画像とを画像処理する、画像処理部と、
を備え、
前記画像処理部は、
前記第1の画像上の撮影された前記ラインレーザに対応する第1線分データの中の一つの点を特徴点として選択し、
前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算して、
前記第2の画像上において、撮影された前記ラインレーザに対応する第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第1の画像上における前記特徴点と、前記第2の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第3の画像上の撮影された前記ラインレーザに対応する第3線分データの中の一つの点を特徴点として選択し、
前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算して、
前記第4の画像上において、撮影された前記ラインレーザに対応する第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定し、
前記第3の画像上における前記特徴点と、前記第4の画像上における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得ると共に、
前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求め、得られた座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、非接触三次元計測装置であって、
前記画像処理部で、前記第2組のカメラ系の対応点を決定する処理において、前記エピポーラ線と前記第4線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第3の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第4の画像上で前記エピポーラ線と前記第4線分データとの単一の交点を前記特徴点と対応する対応点として決定することを特徴とする、非接触三次元計測装置。
A first set of camera systems including a first camera and a second camera, which are arranged at a distance from each other and photograph a measurement object;
A second set of camera systems including a third camera and a fourth camera, which are arranged at positions different from the first set of camera systems and at a distance from each other, and shoot the measurement object;
A line laser that irradiates the object to be measured by rotating a line laser about an axis in an irradiation direction; and
A first orientation unit that performs external orientation on the positional relationship between the first camera and the second camera;
A second orientation unit that performs external orientation on the positional relationship between the third camera and the fourth camera;
A first image obtained by photographing the object to be measured irradiated with the line laser with the first camera and a second image photographed with the second camera are subjected to image processing, and the line laser is emitted. An image processing unit that performs image processing on a third image obtained by photographing the measured object with the third camera and a fourth image obtained by photographing with the fourth camera;
With
The image processing unit
Selecting one point in the first line segment data corresponding to the line laser imaged on the first image as a feature point;
An epipolar line corresponding to the feature point selected on the first image is calculated on the second image;
On the second image, an intersection between the second line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the first image. And
Using the feature points on the first image and the corresponding points on the second image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculating and obtaining a three-dimensional coordinate system on the object to be measured in the first set of camera systems;
Selecting one point in the third line segment data corresponding to the line laser imaged on the third image as a feature point;
An epipolar line corresponding to the feature point selected on the third image is calculated on the fourth image;
On the fourth image, an intersection of the fourth line segment data corresponding to the captured line laser and the epipolar line is determined as a corresponding point corresponding to the feature point selected on the third image. And
Using the feature points on the third image and the corresponding points on the fourth image, the three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points are obtained. Calculating and obtaining a three-dimensional coordinate system on the object to be measured in the second set of camera systems;
Of the three-dimensional coordinates on the measurement object in the second set of camera systems, select at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the measurement object in the first set of camera systems; For the selected at least three three-dimensional coordinates, a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems is obtained, and the obtained coordinate conversion relationship And converting the three-dimensional coordinate system of the second set of camera systems into the three-dimensional coordinate system of the first set of camera systems, and based on the three-dimensional coordinate system of the first set of camera systems A non-contact three-dimensional measuring device for obtaining a three-dimensional coordinate of an object to be measured,
In the process of determining the corresponding points of the second set of camera systems in the image processing unit, when there are two or more intersections between the epipolar line and the fourth line segment data, the line laser is changed to the third laser. Irradiating by rotating about the axis of the irradiation direction to the corresponding point on the measurement object corresponding to the feature point on the image of the image, and the epipolar line and the fourth line segment data on the fourth image A non-contact three-dimensional measuring apparatus characterized by determining a single intersection point as a corresponding point corresponding to the feature point.
前記画像処理部は、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への相似変換の関係に基づいて、座標変換関係を求める、請求項13から16のいずれか一項に記載の非接触三次元計測装置。   The image processing unit is based on the similarity transformation relationship from the three-dimensional coordinate system of the second camera system to the three-dimensional coordinate system of the first camera system for the selected at least three three-dimensional coordinates. The non-contact three-dimensional measurement apparatus according to claim 13, wherein a coordinate conversion relationship is obtained. 前記第2組のカメラ系の三次元座標系N(x,y,z)から前記第1組のカメラ系の三次元座標系M(x,y,z)への前記相似変換は、下記式で表される、請求項17に記載の非接触三次元計測装置。
=sR(N−t)
Mi:第1組のカメラ系の三次元座標(座標ベクトル)
Ni:第2組のカメラ系の三次元座標(座標ベクトル)
s:スケール(スカラー値)
R:回転行列
t:並進ベクトル
The similarity transformation from the three-dimensional coordinate system N (x, y, z) of the second set of camera systems to the three-dimensional coordinate system M (x, y, z) of the first set of camera systems is expressed by the following equation: The non-contact three-dimensional measuring apparatus according to claim 17 represented by:
M i = sR (N i −t)
Mi: 3D coordinates (coordinate vector) of the first set of camera systems
Ni: 3D coordinates (coordinate vector) of the second set of camera systems
s: Scale (scalar value)
R: rotation matrix t: translation vector
前記ラインレーザは、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射する、請求項13から18のいずれか一項に記載の非接触三次元計測装置。   The line laser irradiates the object to be measured with a line laser so as to intersect a straight line connecting the first camera and the second camera. Contact three-dimensional measuring device. 第1組のカメラ系による被計測物の三次元座標系の算出と、第2組のカメラ系による被計測物の三次元座標系の算出とを行った後、得られた前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、非接触三次元計測方法であって、
(a)互いに距離をおいて配置され、被計測物を撮影する第1組のカメラ系を構成する第1のカメラ及び第2のカメラについて、互いの位置関係に関する外部標定を行う第1外部標定ステップと、
(b)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(c)前記ラインレーザが照射された被計測物を前記第1のカメラ及び前記第2のカメラでそれぞれ撮影して、前記第1のカメラによる第1の画像と、前記第2のカメラによる第2の画像とを得る第1のカメラ系による画像撮影ステップと、
(d)前記第1の画像において、前記ラインレーザが撮影された部分を第1線分データとして抽出する第1線分データ抽出ステップと、
(e)前記第2の画像において、前記ラインレーザが撮影された部分を第2線分データとして抽出する第2線分データ抽出ステップと、
(f)前記第1の画像から抽出された前記第1線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(g)前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算するエピポーラ線計算ステップと、
(h)前記第2の画像から抽出された前記第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(i)前記第1の画像における前記特徴点と、前記第2の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得る第1組のカメラ系による三次元座標算出ステップと、
(i−2)前記第1画像から抽出された前記第1線分上の点すべてに対して、前記ステップ(f)〜前記ステップ(i)を繰り返して、前記被計測物のラインレーザが照射されたライン部分の全体に対して三次元座標を算出する三次元座標算出ステップと、
(j)前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、被計測物を撮影する第2組のカメラ系を構成する第3のカメラ及び第4のカメラについて、互いの位置関係に関する外部標定を行う第2外部標定ステップと、
(k)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(l)前記ラインレーザが照射された被計測物を前記第3のカメラ及び前記第4のカメラでそれぞれ撮影して、前記第3のカメラによる第3の画像と、前記第4のカメラによる第4の画像とを得る第2組のカメラ系による画像撮影ステップと、
(m)前記第3の画像において、前記ラインレーザが撮影された部分を第3線分データとして抽出する第3線分データ抽出ステップと、
(n)前記第4の画像において、前記ラインレーザが撮影された部分を第4線分データとして抽出する第4線分データ抽出ステップと、
(o)前記第3の画像から抽出された前記第3線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(p)前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算するエピポーラ線計算ステップと、
(q)前記第4の画像から抽出された前記第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(r)前記第3の画像における前記特徴点と、前記第4の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得る第2組のカメラ系による三次元座標算出ステップと、
(s)前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求める座標変換関係算出ステップと、
(t)得られた前記座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、座標変換ステップと、
を含む、非接触三次元計測方法であって、
第1組のカメラ系による前記ラインレーザ照射ステップ(b)において、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するラインレーザ走査ステップをさらに含み、前記ラインレーザを回転させて前記被計測物に照射するごとに、前記ステップ(c)〜前記ステップ(i−2)を繰り返すことを特徴とする、非接触三次元計測方法。
After the calculation of the three-dimensional coordinate system of the object to be measured by the first set of camera systems and the calculation of the three-dimensional coordinate system of the object to be measured by the second set of camera systems, the obtained second set The three-dimensional coordinate system of the camera system is transformed into the three-dimensional coordinate system of the first set of camera systems to obtain the three-dimensional coordinates of the object to be measured based on the three-dimensional coordinate system of the first set of camera systems. A non-contact three-dimensional measurement method,
(A) A first external orientation that performs an external orientation relating to the mutual positional relationship of the first camera and the second camera that are arranged at a distance from each other and constitute a first set of camera systems for photographing the object to be measured. Steps,
(B) a line laser irradiation step of irradiating the object to be measured with a line laser;
(C) The object to be measured irradiated with the line laser is photographed by the first camera and the second camera, respectively, and the first image by the first camera and the second image by the second camera are taken. An image capturing step by a first camera system for obtaining two images;
(D) a first line segment data extracting step of extracting a portion where the line laser is photographed as first line segment data in the first image;
(E) in the second image, a second line segment data extracting step of extracting a portion where the line laser is photographed as second line segment data;
(F) a feature point selection step of selecting one point in the first line segment data extracted from the first image as a feature point;
(G) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the first image on the second image;
(H) Corresponding point determination for determining an intersection between the second line segment data extracted from the second image and the epipolar line as a corresponding point corresponding to the feature point selected on the first image. Steps,
(I) Using the feature points in the first image and the corresponding points in the second image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by the first set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the first set of camera systems;
(I-2) Steps (f) to (i) are repeated for all points on the first line segment extracted from the first image, and the line laser of the object to be measured is irradiated. A three-dimensional coordinate calculation step for calculating a three-dimensional coordinate for the entire line portion,
(J) A third camera and a fourth camera that are arranged at a distance from each other at a position different from the first set of camera systems and constitute a second set of camera systems for capturing an object to be measured. A second external orientation step for performing external orientation with respect to each other's positional relationship;
(K) a line laser irradiation step of irradiating the object to be measured with a line laser;
(L) The object to be measured irradiated with the line laser is photographed by the third camera and the fourth camera, respectively, and a third image by the third camera and a fourth image by the fourth camera are taken. An image capturing step by a second set of camera systems for obtaining four images;
(M) a third line segment data extracting step of extracting a portion where the line laser is photographed as third line segment data in the third image;
(N) a fourth line segment data extracting step of extracting, as the fourth line segment data, a portion where the line laser is photographed in the fourth image;
(O) a feature point selecting step of selecting one point in the third line segment data extracted from the third image as a feature point;
(P) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the third image on the fourth image;
(Q) Corresponding point determination for determining an intersection between the fourth line segment data extracted from the fourth image and the epipolar line as a corresponding point corresponding to the feature point selected on the third image. Steps,
(R) Using the feature points in the third image and the corresponding points in the fourth image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by a second set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the second set of camera systems;
(S) Among the three-dimensional coordinates on the object to be measured in the second set of camera systems, at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the object to be measured in the first set of camera systems are A coordinate conversion relationship calculation for selecting and calculating a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems for the selected at least three three-dimensional coordinates Steps,
(T) Using the obtained coordinate transformation relationship, the three-dimensional coordinate system of the second set of camera systems is transformed into the three-dimensional coordinate system of the first set of camera systems, and the first set of Obtaining a three-dimensional coordinate of the object to be measured based on a three-dimensional coordinate system of a camera system;
A non-contact three-dimensional measurement method including
The line laser irradiation step (b) by the first set of camera systems further includes a line laser scanning step of irradiating the object to be measured by rotating the line laser about a predetermined axis in an irradiation direction, The non-contact three-dimensional measurement method characterized by repeating the step (c) to the step (i-2) each time the object to be measured is rotated and irradiated.
第1組のカメラ系による被計測物の三次元座標系の算出と、第2組のカメラ系による被計測物の三次元座標系の算出とを行った後、得られた前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、非接触三次元計測方法であって、
(a)互いに距離をおいて配置され、被計測物を撮影する第1組のカメラ系を構成する第1のカメラ及び第2のカメラについて、互いの位置関係に関する外部標定を行う第1外部標定ステップと、
(b)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(c)前記ラインレーザが照射された被計測物を前記第1のカメラ及び前記第2のカメラでそれぞれ撮影して、前記第1のカメラによる第1の画像と、前記第2のカメラによる第2の画像とを得る第1のカメラ系による画像撮影ステップと、
(d)前記第1の画像において、前記ラインレーザが撮影された部分を第1線分データとして抽出する第1線分データ抽出ステップと、
(e)前記第2の画像において、前記ラインレーザが撮影された部分を第2線分データとして抽出する第2線分データ抽出ステップと、
(f)前記第1の画像から抽出された前記第1線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(g)前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算するエピポーラ線計算ステップと、
(h)前記第2の画像から抽出された前記第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(i)前記第1の画像における前記特徴点と、前記第2の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得る第1組のカメラ系による三次元座標算出ステップと、
(j)前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、被計測物を撮影する第2組のカメラ系を構成する第3のカメラ及び第4のカメラについて、互いの位置関係に関する外部標定を行う第2外部標定ステップと、
(k)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(l)前記ラインレーザが照射された被計測物を前記第3のカメラ及び前記第4のカメラでそれぞれ撮影して、前記第3のカメラによる第3の画像と、前記第4のカメラによる第4の画像とを得る第2組のカメラ系による画像撮影ステップと、
(m)前記第3の画像において、前記ラインレーザが撮影された部分を第3線分データとして抽出する第3線分データ抽出ステップと、
(n)前記第4の画像において、前記ラインレーザが撮影された部分を第4線分データとして抽出する第4線分データ抽出ステップと、
(o)前記第3の画像から抽出された前記第3線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(p)前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算するエピポーラ線計算ステップと、
(q)前記第4の画像から抽出された前記第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(r)前記第3の画像における前記特徴点と、前記第4の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得る第2組のカメラ系による三次元座標算出ステップと、
(s)前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求める座標変換関係算出ステップと、
(s−2)前記第3画像から抽出された前記第3線分上の点すべてに対して、前記ステップ(o)〜前記ステップ(s)を繰り返して、前記被計測物のラインレーザが照射されたライン部分の全体に対して三次元座標を算出する三次元座標算出ステップと、
(t)得られた前記座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、座標変換ステップと、
を含む、非接触三次元計測方法であって、
第2組のカメラ系による前記ラインレーザ照射ステップ(k)において、前記ラインレーザを照射方向の所定の軸について回転させて前記被計測物に照射するラインレーザ走査ステップをさらに含み、前記ラインレーザを回転させて前記被計測物に照射するごとに、前記ステップ(l)〜前記ステップ(s−2)を繰り返すことを特徴とする、非接触三次元計測方法。
After the calculation of the three-dimensional coordinate system of the object to be measured by the first set of camera systems and the calculation of the three-dimensional coordinate system of the object to be measured by the second set of camera systems, the obtained second set The three-dimensional coordinate system of the camera system is transformed into the three-dimensional coordinate system of the first set of camera systems to obtain the three-dimensional coordinates of the object to be measured based on the three-dimensional coordinate system of the first set of camera systems. A non-contact three-dimensional measurement method,
(A) A first external orientation that performs an external orientation relating to the mutual positional relationship of the first camera and the second camera that are arranged at a distance from each other and constitute a first set of camera systems for photographing the object to be measured. Steps,
(B) a line laser irradiation step of irradiating the object to be measured with a line laser;
(C) The object to be measured irradiated with the line laser is photographed by the first camera and the second camera, respectively, and the first image by the first camera and the second image by the second camera are taken. An image capturing step by a first camera system for obtaining two images;
(D) a first line segment data extracting step of extracting a portion where the line laser is photographed as first line segment data in the first image;
(E) in the second image, a second line segment data extracting step of extracting a portion where the line laser is photographed as second line segment data;
(F) a feature point selection step of selecting one point in the first line segment data extracted from the first image as a feature point;
(G) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the first image on the second image;
(H) Corresponding point determination for determining an intersection between the second line segment data extracted from the second image and the epipolar line as a corresponding point corresponding to the feature point selected on the first image. Steps,
(I) Using the feature points in the first image and the corresponding points in the second image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by the first set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the first set of camera systems;
(J) A third camera and a fourth camera that are arranged at a distance from each other at a position different from the first set of camera systems and constitute a second set of camera systems for capturing an object to be measured. A second external orientation step for performing external orientation with respect to each other's positional relationship;
(K) a line laser irradiation step of irradiating the object to be measured with a line laser;
(L) The object to be measured irradiated with the line laser is photographed by the third camera and the fourth camera, respectively, and a third image by the third camera and a fourth image by the fourth camera are taken. An image capturing step by a second set of camera systems for obtaining four images;
(M) a third line segment data extracting step of extracting a portion where the line laser is photographed as third line segment data in the third image;
(N) a fourth line segment data extracting step of extracting, as the fourth line segment data, a portion where the line laser is photographed in the fourth image;
(O) a feature point selecting step of selecting one point in the third line segment data extracted from the third image as a feature point;
(P) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the third image on the fourth image;
(Q) Corresponding point determination for determining an intersection between the fourth line segment data extracted from the fourth image and the epipolar line as a corresponding point corresponding to the feature point selected on the third image. Steps,
(R) Using the feature points in the third image and the corresponding points in the fourth image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by a second set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the second set of camera systems;
(S) Among the three-dimensional coordinates on the object to be measured in the second set of camera systems, at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the object to be measured in the first set of camera systems are A coordinate conversion relationship calculation for selecting and calculating a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems for the selected at least three three-dimensional coordinates Steps,
(S-2) Steps (o) to (s) are repeated for all points on the third line segment extracted from the third image, and the line laser of the object to be measured is irradiated. A three-dimensional coordinate calculation step for calculating a three-dimensional coordinate for the entire line portion,
(T) Using the obtained coordinate transformation relationship, the three-dimensional coordinate system of the second set of camera systems is transformed into the three-dimensional coordinate system of the first set of camera systems, and the first set of Obtaining a three-dimensional coordinate of the object to be measured based on a three-dimensional coordinate system of a camera system;
A non-contact three-dimensional measurement method including
The line laser irradiation step (k) by the second set of camera systems further includes a line laser scanning step of irradiating the object to be measured by rotating the line laser about a predetermined axis in the irradiation direction, The non-contact three-dimensional measurement method characterized by repeating the step (l) to the step (s-2) every time the object to be measured is rotated and irradiated.
第1組のカメラ系による被計測物の三次元座標系の算出と、第2組のカメラ系による被計測物の三次元座標系の算出とを行った後、得られた前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、非接触三次元計測方法であって、
(a)互いに距離をおいて配置され、被計測物を撮影する第1組のカメラ系を構成する第1のカメラ及び第2のカメラについて、互いの位置関係に関する外部標定を行う第1外部標定ステップと、
(b)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(c)前記ラインレーザが照射された被計測物を前記第1のカメラ及び前記第2のカメラでそれぞれ撮影して、前記第1のカメラによる第1の画像と、前記第2のカメラによる第2の画像とを得る第1のカメラ系による画像撮影ステップと、
(d)前記第1の画像において、前記ラインレーザが撮影された部分を第1線分データとして抽出する第1線分データ抽出ステップと、
(e)前記第2の画像において、前記ラインレーザが撮影された部分を第2線分データとして抽出する第2線分データ抽出ステップと、
(f)前記第1の画像から抽出された前記第1線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(g)前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算するエピポーラ線計算ステップと、
(h)前記第2の画像から抽出された前記第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(i)前記第1の画像における前記特徴点と、前記第2の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得る第1組のカメラ系による三次元座標算出ステップと、
(j)前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、被計測物を撮影する第2組のカメラ系を構成する第3のカメラ及び第4のカメラについて、互いの位置関係に関する外部標定を行う第2外部標定ステップと、
(k)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(l)前記ラインレーザが照射された被計測物を前記第3のカメラ及び前記第4のカメラでそれぞれ撮影して、前記第3のカメラによる第3の画像と、前記第4のカメラによる第4の画像とを得る第2組のカメラ系による画像撮影ステップと、
(m)前記第3の画像において、前記ラインレーザが撮影された部分を第3線分データとして抽出する第3線分データ抽出ステップと、
(n)前記第4の画像において、前記ラインレーザが撮影された部分を第4線分データとして抽出する第4線分データ抽出ステップと、
(o)前記第3の画像から抽出された前記第3線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(p)前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算するエピポーラ線計算ステップと、
(q)前記第4の画像から抽出された前記第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(r)前記第3の画像における前記特徴点と、前記第4の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得る第2組のカメラ系による三次元座標算出ステップと、
(s)前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求める座標変換関係算出ステップと、
(t)得られた前記座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、座標変換ステップと、
を含む、非接触三次元計測方法であって、
第1組のカメラ系による前記対応点決定ステップ(h)において、前記エピポーラ線と前記第2線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第1の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第2の画像上で前記エピポーラ線と前記第2線分データとの単一の交点を前記特徴点と対応する対応点として決定することを特徴とする、非接触三次元計測方法。
After the calculation of the three-dimensional coordinate system of the object to be measured by the first set of camera systems and the calculation of the three-dimensional coordinate system of the object to be measured by the second set of camera systems, the obtained second set The three-dimensional coordinate system of the camera system is transformed into the three-dimensional coordinate system of the first set of camera systems to obtain the three-dimensional coordinates of the object to be measured based on the three-dimensional coordinate system of the first set of camera systems. A non-contact three-dimensional measurement method,
(A) A first external orientation that performs an external orientation relating to the mutual positional relationship of the first camera and the second camera that are arranged at a distance from each other and constitute a first set of camera systems for photographing the object to be measured. Steps,
(B) a line laser irradiation step of irradiating the object to be measured with a line laser;
(C) The object to be measured irradiated with the line laser is photographed by the first camera and the second camera, respectively, and the first image by the first camera and the second image by the second camera are taken. An image capturing step by a first camera system for obtaining two images;
(D) a first line segment data extracting step of extracting a portion where the line laser is photographed as first line segment data in the first image;
(E) in the second image, a second line segment data extracting step of extracting a portion where the line laser is photographed as second line segment data;
(F) a feature point selection step of selecting one point in the first line segment data extracted from the first image as a feature point;
(G) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the first image on the second image;
(H) Corresponding point determination for determining an intersection between the second line segment data extracted from the second image and the epipolar line as a corresponding point corresponding to the feature point selected on the first image. Steps,
(I) Using the feature points in the first image and the corresponding points in the second image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by the first set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the first set of camera systems;
(J) A third camera and a fourth camera that are arranged at a distance from each other at a position different from the first set of camera systems and constitute a second set of camera systems for capturing an object to be measured. A second external orientation step for performing external orientation with respect to each other's positional relationship;
(K) a line laser irradiation step of irradiating the object to be measured with a line laser;
(L) The object to be measured irradiated with the line laser is photographed by the third camera and the fourth camera, respectively, and a third image by the third camera and a fourth image by the fourth camera are taken. An image capturing step by a second set of camera systems for obtaining four images;
(M) a third line segment data extracting step of extracting a portion where the line laser is photographed as third line segment data in the third image;
(N) a fourth line segment data extracting step of extracting, as the fourth line segment data, a portion where the line laser is photographed in the fourth image;
(O) a feature point selecting step of selecting one point in the third line segment data extracted from the third image as a feature point;
(P) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the third image on the fourth image;
(Q) Corresponding point determination for determining an intersection between the fourth line segment data extracted from the fourth image and the epipolar line as a corresponding point corresponding to the feature point selected on the third image. Steps,
(R) Using the feature points in the third image and the corresponding points in the fourth image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by a second set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the second set of camera systems;
(S) Among the three-dimensional coordinates on the object to be measured in the second set of camera systems, at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the object to be measured in the first set of camera systems are A coordinate conversion relationship calculation for selecting and calculating a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems for the selected at least three three-dimensional coordinates Steps,
(T) Using the obtained coordinate transformation relationship, the three-dimensional coordinate system of the second set of camera systems is transformed into the three-dimensional coordinate system of the first set of camera systems, and the first set of Obtaining a three-dimensional coordinate of the object to be measured based on a three-dimensional coordinate system of a camera system;
A non-contact three-dimensional measurement method including
In the corresponding point determination step (h) by the first set of camera systems, when there are two or more intersections between the epipolar line and the second line segment data, the line laser is set on the first image. A single intersection point of the epipolar line and the second line segment data on the second image by irradiating by rotating about the axis of the irradiation direction to the corresponding point on the measurement object corresponding to the feature point Is determined as a corresponding point corresponding to the feature point, a non-contact three-dimensional measurement method.
第1組のカメラ系による被計測物の三次元座標系の算出と、第2組のカメラ系による被計測物の三次元座標系の算出とを行った後、得られた前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、非接触三次元計測方法であって、
(a)互いに距離をおいて配置され、被計測物を撮影する第1組のカメラ系を構成する第1のカメラ及び第2のカメラについて、互いの位置関係に関する外部標定を行う第1外部標定ステップと、
(b)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(c)前記ラインレーザが照射された被計測物を前記第1のカメラ及び前記第2のカメラでそれぞれ撮影して、前記第1のカメラによる第1の画像と、前記第2のカメラによる第2の画像とを得る第1のカメラ系による画像撮影ステップと、
(d)前記第1の画像において、前記ラインレーザが撮影された部分を第1線分データとして抽出する第1線分データ抽出ステップと、
(e)前記第2の画像において、前記ラインレーザが撮影された部分を第2線分データとして抽出する第2線分データ抽出ステップと、
(f)前記第1の画像から抽出された前記第1線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(g)前記第1の画像上で選択した前記特徴点に対応するエピポーラ線を前記第2の画像上に計算するエピポーラ線計算ステップと、
(h)前記第2の画像から抽出された前記第2線分データと前記エピポーラ線との交点を、前記第1の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(i)前記第1の画像における前記特徴点と、前記第2の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第1組のカメラ系における前記被計測物上の三次元座標系を得る第1組のカメラ系による三次元座標算出ステップと、
(j)前記第1組のカメラ系とは違う位置で、互いに距離をおいて配置され、被計測物を撮影する第2組のカメラ系を構成する第3のカメラ及び第4のカメラについて、互いの位置関係に関する外部標定を行う第2外部標定ステップと、
(k)前記被計測物にラインレーザを照射するラインレーザ照射ステップと、
(l)前記ラインレーザが照射された被計測物を前記第3のカメラ及び前記第4のカメラでそれぞれ撮影して、前記第3のカメラによる第3の画像と、前記第4のカメラによる第4の画像とを得る第2組のカメラ系による画像撮影ステップと、
(m)前記第3の画像において、前記ラインレーザが撮影された部分を第3線分データとして抽出する第3線分データ抽出ステップと、
(n)前記第4の画像において、前記ラインレーザが撮影された部分を第4線分データとして抽出する第4線分データ抽出ステップと、
(o)前記第3の画像から抽出された前記第3線分データの中の一つの点を特徴点として選択する特徴点選択ステップと、
(p)前記第3の画像上で選択した前記特徴点に対応するエピポーラ線を前記第4の画像上に計算するエピポーラ線計算ステップと、
(q)前記第4の画像から抽出された前記第4線分データと前記エピポーラ線との交点を、前記第3の画像上で選択した前記特徴点と対応する対応点として決定する対応点決定ステップと、
(r)前記第3の画像における前記特徴点と、前記第4の画像における前記対応点とを用いて、前記特徴点及び前記対応点に該当する前記被計測物上の該当点の三次元座標を算出し、前記第2組のカメラ系における前記被計測物上の三次元座標系を得る第2組のカメラ系による三次元座標算出ステップと、
(s)前記第2組のカメラ系における前記被計測物上の三次元座標のうち、前記第1組のカメラ系における前記被計測物上の三次元座標と対応する少なくとも3つの三次元座標を選択し、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への座標変換関係を求める座標変換関係算出ステップと、
(t)得られた前記座標変換関係を用いて、前記第2組のカメラ系の三次元座標系を前記第1組のカメラ系の三次元座標系に座標変換して、前記第1組のカメラ系の三次元座標系に基づく前記被計測物の三次元座標を得る、座標変換ステップと、
を含む、非接触三次元計測方法であって、
第2組のカメラ系による前記対応点決定ステップ(q)において、前記エピポーラ線と前記第4線分データとの交点が2つ以上存在する場合、前記ラインレーザを前記第3の画像上の前記特徴点に該当する前記被計測物上の該当点への照射方向の軸について回転させて照射して、前記第4の画像上で前記エピポーラ線と前記第4線分データとの単一の交点を前記特徴点と対応する対応点として決定する、非接触三次元計測方法。
After the calculation of the three-dimensional coordinate system of the object to be measured by the first set of camera systems and the calculation of the three-dimensional coordinate system of the object to be measured by the second set of camera systems, the obtained second set The three-dimensional coordinate system of the camera system is transformed into the three-dimensional coordinate system of the first set of camera systems to obtain the three-dimensional coordinates of the object to be measured based on the three-dimensional coordinate system of the first set of camera systems. A non-contact three-dimensional measurement method,
(A) A first external orientation that performs an external orientation relating to the mutual positional relationship of the first camera and the second camera that are arranged at a distance from each other and constitute a first set of camera systems for photographing the object to be measured. Steps,
(B) a line laser irradiation step of irradiating the object to be measured with a line laser;
(C) The object to be measured irradiated with the line laser is photographed by the first camera and the second camera, respectively, and the first image by the first camera and the second image by the second camera are taken. An image capturing step by a first camera system for obtaining two images;
(D) a first line segment data extracting step of extracting a portion where the line laser is photographed as first line segment data in the first image;
(E) in the second image, a second line segment data extracting step of extracting a portion where the line laser is photographed as second line segment data;
(F) a feature point selection step of selecting one point in the first line segment data extracted from the first image as a feature point;
(G) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the first image on the second image;
(H) Corresponding point determination for determining an intersection between the second line segment data extracted from the second image and the epipolar line as a corresponding point corresponding to the feature point selected on the first image. Steps,
(I) Using the feature points in the first image and the corresponding points in the second image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by the first set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the first set of camera systems;
(J) A third camera and a fourth camera that are arranged at a distance from each other at a position different from the first set of camera systems and constitute a second set of camera systems for capturing an object to be measured. A second external orientation step for performing external orientation with respect to each other's positional relationship;
(K) a line laser irradiation step of irradiating the object to be measured with a line laser;
(L) The object to be measured irradiated with the line laser is photographed by the third camera and the fourth camera, respectively, and a third image by the third camera and a fourth image by the fourth camera are taken. An image capturing step by a second set of camera systems for obtaining four images;
(M) a third line segment data extracting step of extracting a portion where the line laser is photographed as third line segment data in the third image;
(N) a fourth line segment data extracting step of extracting, as the fourth line segment data, a portion where the line laser is photographed in the fourth image;
(O) a feature point selecting step of selecting one point in the third line segment data extracted from the third image as a feature point;
(P) an epipolar line calculation step of calculating an epipolar line corresponding to the feature point selected on the third image on the fourth image;
(Q) Corresponding point determination for determining an intersection between the fourth line segment data extracted from the fourth image and the epipolar line as a corresponding point corresponding to the feature point selected on the third image. Steps,
(R) Using the feature points in the third image and the corresponding points in the fourth image, three-dimensional coordinates of the corresponding points on the measurement object corresponding to the feature points and the corresponding points Calculating a three-dimensional coordinate by a second set of camera systems to obtain a three-dimensional coordinate system on the measurement object in the second set of camera systems;
(S) Among the three-dimensional coordinates on the object to be measured in the second set of camera systems, at least three three-dimensional coordinates corresponding to the three-dimensional coordinates on the object to be measured in the first set of camera systems are A coordinate conversion relationship calculation for selecting and calculating a coordinate conversion relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems for the selected at least three three-dimensional coordinates Steps,
(T) Using the obtained coordinate transformation relationship, the three-dimensional coordinate system of the second set of camera systems is transformed into the three-dimensional coordinate system of the first set of camera systems, and the first set of Obtaining a three-dimensional coordinate of the object to be measured based on a three-dimensional coordinate system of a camera system;
A non-contact three-dimensional measurement method including
In the corresponding point determination step (q) by the second set of camera systems, when there are two or more intersections between the epipolar line and the fourth line segment data, the line laser is set on the third image. A single intersection point of the epipolar line and the fourth line segment data on the fourth image by irradiating by rotating about the axis of the irradiation direction to the corresponding point on the measurement object corresponding to the feature point the determined as the corresponding point corresponding to the feature point, a non-contact three-dimensional measurement method.
前記座標変換関係算出ステップにおいて、前記選択した少なくとも3つの三次元座標について、前記第2組のカメラ系の三次元座標系から前記第1組のカメラ系の三次元座標系への相似変換の関係に基づいて、座標変換関係を求める、請求項20から23のいずれか一項に記載の非接触三次元計測方法。   In the coordinate transformation relationship calculating step, the similarity transformation relationship from the three-dimensional coordinate system of the second set of camera systems to the three-dimensional coordinate system of the first set of camera systems for the selected at least three three-dimensional coordinates The non-contact three-dimensional measurement method according to any one of claims 20 to 23, wherein a coordinate conversion relationship is obtained based on the method. 前記第2組のカメラ系の三次元座標系N(x,y,z)から前記第1組のカメラ系の三次元座標系M(x,y,z)への前記相似変換は、下記式で表される、請求項24に記載の非接触三次元計測方法。
=sR(N−t)
Mi:第1組のカメラ系の三次元座標(座標ベクトル)
Ni:第2組のカメラ系の三次元座標(座標ベクトル)
s:スケール(スカラー値)
R:回転行列
t:並進ベクトル
The similarity transformation from the three-dimensional coordinate system N (x, y, z) of the second set of camera systems to the three-dimensional coordinate system M (x, y, z) of the first set of camera systems is expressed by the following equation: The non-contact three-dimensional measurement method according to claim 24, represented by:
M i = sR (N i −t)
Mi: 3D coordinates (coordinate vector) of the first set of camera systems
Ni: 3D coordinates (coordinate vector) of the second set of camera systems
s: Scale (scalar value)
R: rotation matrix t: translation vector
第1組のカメラ系による前記ラインレーザ照射ステップにおいて、前記第1のカメラと前記第2のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射する、請求項20から25のいずれか一項に記載の非接触三次元計測方法。   26. The line laser irradiation step by the first set of camera systems, the line laser is irradiated to the object to be measured so as to intersect a straight line connecting the first camera and the second camera. The non-contact three-dimensional measurement method according to any one of the above. 第2組のカメラ系による前記ラインレーザ照射ステップにおいて、前記第3のカメラと前記第4のカメラとを結ぶ直線と交差するように前記被計測物にラインレーザを照射する、請求項20から26のいずれか一項に記載の非接触三次元計測方法。   27. The line laser irradiation step by the second set of camera systems, the line laser is irradiated to the object to be measured so as to intersect with a straight line connecting the third camera and the fourth camera. The non-contact three-dimensional measurement method according to any one of the above. 前記ラインレーザは、複数の色のラインレーザを併用することを特徴とする、請求項1から6、13から19のいずれか一項に記載の非接触三次元計測装置。   The non-contact three-dimensional measurement apparatus according to any one of claims 1 to 6, and 13 to 19, wherein the line laser uses a plurality of color line lasers in combination. 前記ラインレーザを照射するステップにおいて、前記ラインレーザとして複数の色のラインレーザを併用することを特徴とする、請求項7から12、20から27のいずれか一項に記載の非接触三次元計測方法。   The non-contact three-dimensional measurement according to any one of claims 7 to 12, and 20 to 27, wherein in the step of irradiating the line laser, a line laser of a plurality of colors is used in combination as the line laser. Method.
JP2010191099A 2010-08-27 2010-08-27 Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method Active JP5563930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010191099A JP5563930B2 (en) 2010-08-27 2010-08-27 Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191099A JP5563930B2 (en) 2010-08-27 2010-08-27 Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method

Publications (2)

Publication Number Publication Date
JP2012047637A JP2012047637A (en) 2012-03-08
JP5563930B2 true JP5563930B2 (en) 2014-07-30

Family

ID=45902685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010191099A Active JP5563930B2 (en) 2010-08-27 2010-08-27 Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method

Country Status (1)

Country Link
JP (1) JP5563930B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022078440A1 (en) * 2020-10-15 2022-04-21 左忠斌 Device and method for acquiring and determining space occupancy comprising moving object

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107806857A (en) * 2017-11-08 2018-03-16 沈阳上博智像科技有限公司 Unpiloted movable equipment
CN107957247B (en) * 2017-12-22 2023-09-08 易思维(天津)科技有限公司 Handheld gap and surface difference vision measurement device and method
CN108195843B (en) * 2018-02-01 2024-01-23 中铁电气化局集团有限公司 Anchor section hanger state detection device and method
CN115131344B (en) * 2022-08-25 2022-11-08 泉州华中科技大学智能制造研究院 Method for extracting shoe-making molding rubber thread through light intensity data

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2714277B2 (en) * 1991-07-25 1998-02-16 株式会社東芝 Lead shape measuring device
JP4158300B2 (en) * 1999-12-24 2008-10-01 コニカミノルタセンシング株式会社 3D input method and 3D input device
JP4010753B2 (en) * 2000-08-08 2007-11-21 株式会社リコー Shape measuring system, imaging device, shape measuring method, and recording medium
JP4529157B2 (en) * 2004-06-15 2010-08-25 株式会社トプコン Three-dimensional survey system and electronic storage medium
JP2009036736A (en) * 2007-08-04 2009-02-19 Djtech Co Ltd Printed soft solder inspection method and device
JP2009055235A (en) * 2007-08-24 2009-03-12 Murata Mach Ltd Method of processing image data and image processor
JP2009085689A (en) * 2007-09-28 2009-04-23 Juki Corp Three-dimensional measuring device for electronic component
JP4655242B2 (en) * 2008-09-30 2011-03-23 マツダ株式会社 Image processing apparatus for vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022078440A1 (en) * 2020-10-15 2022-04-21 左忠斌 Device and method for acquiring and determining space occupancy comprising moving object

Also Published As

Publication number Publication date
JP2012047637A (en) 2012-03-08

Similar Documents

Publication Publication Date Title
JP2874710B2 (en) 3D position measuring device
JP6217227B2 (en) Calibration apparatus, method and program
CN111442721B (en) Calibration equipment and method based on multi-laser ranging and angle measurement
JP2009017480A (en) Camera calibration device and program thereof
JP6282098B2 (en) Calibration apparatus and method
JP2012533222A (en) Image-based surface tracking
JP2012123781A (en) Information processing device, information processing system and information processing method
JP5563930B2 (en) Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method
CN102376089A (en) Target correction method and system
JP2003130621A (en) Method and system for measuring three-dimensional shape
EP3049756B1 (en) Modeling arrangement and method and system for modeling the topography of a three-dimensional surface
WO2018201677A1 (en) Bundle adjustment-based calibration method and device for telecentric lens-containing three-dimensional imaging system
JP2006258486A (en) Device and method for measuring coordinate
CN113592721B (en) Photogrammetry method, apparatus, device and storage medium
CN107633532B (en) Point cloud fusion method and system based on white light scanner
CN113538589A (en) System and method for efficient 3D reconstruction of objects using a telecentric line scan camera
JPWO2018043524A1 (en) Robot system, robot system control apparatus, and robot system control method
JP5457865B2 (en) Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method
CN111445528B (en) Multi-camera common calibration method in 3D modeling
JP4085671B2 (en) Data processing method, data processing program, and recording medium
JP6237032B2 (en) Color and three-dimensional shape measuring method and apparatus
US7046839B1 (en) Techniques for photogrammetric systems
US20230070281A1 (en) Methods and systems of generating camera models for camera calibration
JP4550081B2 (en) Image measurement method
JP4077755B2 (en) POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140613

R150 Certificate of patent or registration of utility model

Ref document number: 5563930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250