JP4766839B2 - Measuring method, measuring system and program - Google Patents

Measuring method, measuring system and program Download PDF

Info

Publication number
JP4766839B2
JP4766839B2 JP2004104536A JP2004104536A JP4766839B2 JP 4766839 B2 JP4766839 B2 JP 4766839B2 JP 2004104536 A JP2004104536 A JP 2004104536A JP 2004104536 A JP2004104536 A JP 2004104536A JP 4766839 B2 JP4766839 B2 JP 4766839B2
Authority
JP
Japan
Prior art keywords
data
measurement
measuring instrument
coordinates
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004104536A
Other languages
Japanese (ja)
Other versions
JP2005098973A (en
Inventor
建彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004104536A priority Critical patent/JP4766839B2/en
Publication of JP2005098973A publication Critical patent/JP2005098973A/en
Application granted granted Critical
Publication of JP4766839B2 publication Critical patent/JP4766839B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、物体の形状を非接触で計測する計測技術に関する。   The present invention relates to a measurement technique for measuring the shape of an object without contact.

3次元形状の計測は工業のみならず、医学、生物学、考古学、美術品の調査復元など社会の多くの領域で使用されるようになってきている。3次元計測では、従来からの接触型よりも光を用いた非接触型の光計測が望まれている。光計測の領域計測には、1本の線状のスリット光をスリット方向と直交する方向に走査することにより領域の計測を行う光切断法と、面単位で一括して計測する計測方法に分類される。計測時間の観点からは後者の方が有利である。   Three-dimensional shape measurement is used not only in industry but also in many areas of society, such as medical research, biology, archeology, and research and restoration of fine arts. In the three-dimensional measurement, non-contact type optical measurement using light is desired rather than the conventional contact type. Optical measurement area measurement is classified into the optical cutting method that measures the area by scanning one linear slit light in the direction perpendicular to the slit direction, and the measurement method that measures in a unit of plane. Is done. The latter is more advantageous from the viewpoint of measurement time.

光切断法は既に十分確立された技術であり、様々な態様が開発され、信頼性の高い計測が可能となっている。しかし、「光三次元計測」吉澤徹編[新技術コミニュケーションズ]p.31に見るようにスリット光の投影部などの機械的な移動機構を必要としており、これが隘路となって計測時間を短縮することができず、能率が悪いということが指摘されている。従って計測時間を短縮する必要がある分野には適さず、後述のモアレ法や格子パターン投影法などの面計測との使い分けがなされている。また、光切断法は、いわゆる三角測量の原理に基づいており、校正において計量パラメータを決定するのに大きな手間が発生するという問題がある。   The light cutting method is already a well-established technique, and various aspects have been developed to enable highly reliable measurement. However, “Three Dimensional Measurement” edited by Toru Yoshizawa [New Technology Communications] p. As shown in FIG. 31, it is pointed out that a mechanical movement mechanism such as a projection unit of slit light is required, and this becomes a bottleneck and the measurement time cannot be shortened and the efficiency is poor. Therefore, it is not suitable for a field where the measurement time needs to be shortened, and is used separately from surface measurement such as moire method and lattice pattern projection method described later. In addition, the light cutting method is based on the principle of so-called triangulation, and there is a problem that a large amount of time is required to determine the measurement parameter in calibration.

一方、面を一括して処理する方法の代表的なものは、モアレ縞により等高線を取得するモアレ法(「光三次元計測」吉澤徹編[新技術コミニュケーションズ]p.65)、縞状の格子を物体に投影してできる格子パターンを観測する格子パターン投影法(「光三次元計測」吉澤徹編[新技術コミニュケーションズ]p.83)がある。特に計測精度及び装置の価格からして、現在では後者が期待されている。   On the other hand, typical methods for processing the surfaces collectively are the moire method (“Three-dimensional optical measurement” Toru Yoshizawa [New Technology Communications] p. 65), which acquires contour lines by moire fringes, and a striped grid. There is a grid pattern projection method (“Three-dimensional optical measurement” edited by Toru Yoshizawa [New Technology Communications] p. 83). In particular, the latter is expected now in view of measurement accuracy and the price of the apparatus.

格子パターン投影装置は、通常図1に示すように投影部1000、プロジェクタのレンズ1002及び格子1001を含む投影系と、被計測物体1004に投影された変形格子パターン1003をレンズ1006を介して撮影する撮影部1005を含む撮影系との二つの系統に分けられる。投影部1000は格子1001による縞状の格子をレンズ1002を介して被計測物体1004に投影する。投影により生ずる格子パターンは被計測物体1004の凹凸によって変形される。撮影部1005は、変形された格子パターン1003を投影方向とは異なる角度から撮影し、CCD(Charge Coupled Device)などの受光素子を介して電気信号に変換し、記憶装置に蓄積する。これを解析することによって被測定物体1004の3次元形状を計測する。なお、各受光素子はその点における光強度に対応した電圧などの電気信号を出力する。格子1001については、以前はガラスの表面などに作成され固定的であったが、最近は液晶等による格子が実用化され、コンピュータにより液晶デバイスに実体化された縞格子のON又はOFFを高速に制御するようになっている。   As shown in FIG. 1, the grid pattern projection apparatus normally captures a projection system 1000 including a projection unit 1000, a projector lens 1002, and a grid 1001, and a deformed grid pattern 1003 projected on the measurement object 1004 via the lens 1006. It can be divided into two systems, an imaging system including the imaging unit 1005. The projection unit 1000 projects a striped grid formed by the grid 1001 onto the measurement object 1004 via the lens 1002. The lattice pattern generated by the projection is deformed by the unevenness of the measurement object 1004. The imaging unit 1005 captures the deformed lattice pattern 1003 from an angle different from the projection direction, converts it into an electrical signal via a light receiving element such as a CCD (Charge Coupled Device), and stores the electrical signal in a storage device. By analyzing this, the three-dimensional shape of the measured object 1004 is measured. Each light receiving element outputs an electrical signal such as a voltage corresponding to the light intensity at that point. The lattice 1001 was previously created and fixed on the surface of glass, but recently, a lattice made of liquid crystal or the like has been put into practical use, and a high-speed ON / OFF of a fringe lattice realized in a liquid crystal device by a computer is performed at high speed. It comes to control.

通常、投影部1000の光軸に直交する基準平面を設定し、この上で縞方向Y及び縞直交方向Xの二つの軸を設定する。詳しくは非特許文献1(H.Lu et al.,"Automatic Measurement of 3-D Object Shapes Based on Computer-generated Reference Surface", Bull. Japan Soc. of Prec. Eng. Vol. 21, No.4, p251 (1987))に開示されているが、この方法では、格子パターンを、縞と直交する軸X上の位置に対する、光強度Iの波として表現し、被計測物体1004を基準平面上に設置した場合の波の位相Φ(=Φ2)又は基準平面についての波の位相Φ1と被計測物体1004を基準平面上に設置した場合の波の位相Φ2との差分ΔΦ(=Φ2−Φ1)を用いて解析する。これにより格子パターン投影法は別名「変調格子位相法」とも呼ばれる。ここで波の位相の差分ΔΦを使用するのは、計測における系統誤差が引き算によって消滅するので、精度が向上するためである。この方法では、縞波(明の縞と暗の縞のペア)番号は相対的であれば任意に設定することができる。なお、位相角は縞波1波長に対して2πとして計算するのが通例である。 Usually, a reference plane orthogonal to the optical axis of the projection unit 1000 is set, and two axes of the stripe direction Y and the stripe orthogonal direction X are set thereon. For details, see Non-Patent Document 1 (H. Lu et al., “Automatic Measurement of 3-D Object Shapes Based on Computer-generated Reference Surface”, Bull. Japan Soc. Of Prec. Eng. Vol. 21, No. 4, p251 (1987)), but in this method, the lattice pattern is expressed as a wave of light intensity I with respect to a position on the axis X orthogonal to the stripe, and the measured object 1004 is placed on the reference plane. The difference ΔΦ (= Φ 2 −) between the wave phase Φ (= Φ 2 ) or the wave phase Φ 1 about the reference plane and the wave phase Φ 2 when the measured object 1004 is placed on the reference plane. Analyze using Φ 1 ). Thus, the grating pattern projection method is also called “modulated grating phase method”. The reason why the wave phase difference ΔΦ is used here is that the systematic error in the measurement is eliminated by subtraction, so that the accuracy is improved. In this method, the number of fringe waves (a pair of bright stripes and dark stripes) can be arbitrarily set as long as they are relative. In general, the phase angle is calculated as 2π with respect to one wavelength of the fringe wave.

詳しい計算式は非特許文献1に開示されているのでここでは詳細な説明は省略するが、図1に示すようにΔΦを求めるためにΦ1は、格子1001とレンズ1002の間の距離、撮影部1005の光軸と投影部1000の光軸との交点とレンズ1002との距離、格子間隔、撮影部1005の光軸と投影部1000の光軸の角度などの光学的な幾何位置関係から計算にて求める。これらの幾何位置には当然計測誤差が含まれる。 A detailed calculation formula is disclosed in Non-Patent Document 1, and detailed description is omitted here. However, in order to obtain ΔΦ as shown in FIG. 1, Φ 1 is the distance between the grating 1001 and the lens 1002, and imaging. Calculated from the optical geometric positional relationship such as the distance between the intersection of the optical axis of the unit 1005 and the optical axis of the projection unit 1000 and the lens 1002, the lattice spacing, the angle of the optical axis of the imaging unit 1005 and the optical axis of the projection unit 1000, etc. Ask for. These geometric positions naturally include measurement errors.

この他、非特許文献3(山谷謙ほか,液晶格子パターン投影による3次元形状計測,精密工学会誌,vol.67, No.5, p.786, (2001))や、非特許文献4(Mitsuo Takeda et al., Fourier transform profilometry for the automatic measurement of 3-D object shapes, Applied OPTICS, vol. 22, no. 4, p. 3977 (1983))にも、別の計算式にて計測値や高さを算出する方法が開示されているが、共に光学的な幾何位置の計測結果を用いて計算するようになっている。   In addition, Non-Patent Document 3 (Ken Yamatani et al., 3D shape measurement by liquid crystal lattice pattern projection, Journal of Precision Engineering, vol.67, No.5, p.786, (2001)) and Non-Patent Document 4 (Mitsuo Takeda et al., Fourier transform profilometry for the automatic measurement of 3-D object shapes, Applied OPTICS, vol. 22, no. 4, p. 3977 (1983)). Although a method for calculating the thickness is disclosed, both are calculated using the measurement result of the optical geometric position.

なお、(Φ2=2π×縞波番号+縞内部位相角)であって、計測にて求めることになる。このように上で述べた方法では、特に縞波番号を特定することが必要となる。 Note that (Φ 2 = 2π × banding wave number + banding internal phase angle), which is obtained by measurement. Thus, in the method described above, it is particularly necessary to specify the fringe wave number.

縞内部位相角を取得するために、基準平面上に対して設定した縞直交方向のX軸(図1参照)に沿って走査が行われる。正弦波格子はもちろん、縞格子が2値化されたいわゆるロンキー格子であっても、明及び暗の縞の境界付近は、光の回折現象や受光素子による離散化誤差などによって、基準平面上の縞直交方向のX軸に沿った格子パターンの光強度Iは除変する。この光強度分布を波と認識し、正弦波の基点を始点とする縞波内位相角を求める。波の山及び谷をπ/2,3π/2とする方法(前述非特許文献1)の他に、谷から山に至る区間の中央値となる点を縞波内位相角0とする方法などが存在する。いずれの方法を用いるにせよ、縞内部位相角0の点で縞波番号は変化し、そこで1つの縞波が区分される。   In order to obtain the fringe internal phase angle, scanning is performed along the X axis (see FIG. 1) in the fringe orthogonal direction set with respect to the reference plane. Even in the case of a so-called Ronchi grating in which the fringe grating is binarized as well as the sine wave grating, the vicinity of the border between the bright and dark fringes is on the reference plane due to the light diffraction phenomenon and the discretization error by the light receiving element. The light intensity I of the lattice pattern along the X axis in the fringe orthogonal direction varies. The light intensity distribution is recognized as a wave, and the phase angle in the fringe wave starting from the base point of the sine wave is obtained. In addition to the method of setting wave peaks and valleys to π / 2 and 3π / 2 (non-patent document 1 mentioned above), the method of setting the point that becomes the median value of the section from the valley to the peak to 0 in the fringe wave phase angle, etc. Exists. Whichever method is used, the fringe wave number changes at the point of the fringe internal phase angle 0, and one fringe wave is divided there.

縞内部位相角を求めるのに、正弦波格子を用いるという条件の下に、格子をπ/2,π,3π/2シフトさせたときの光強度をI0,I1,I2,I3とすれば、任意の点xにおける縞内部位相角を次式で計算できることが知られている(非特許文献1)。この方法は「位置固定型縞内部位相角計算法」である。

Figure 0004766839
The light intensity when the grating is shifted by π / 2, π, and 3π / 2 under the condition that a sine wave grating is used to determine the fringe internal phase angle is I 0 , I 1 , I 2 , I 3. Then, it is known that the fringe internal phase angle at an arbitrary point x can be calculated by the following equation (Non-Patent Document 1). This method is a “position-fixed fringe internal phase angle calculation method”.
Figure 0004766839

この他に、谷から山に至る区間の中央値となる点を縞波内部位相角0とする方法や、谷や山のピークを検出する方法などが存在するが、このときは格子をπ/2,π,3π/2シフトさせて内部位相角0,π/2,π,3π/2の位置を求めることになり、これは「位相角固定型位置計算法」である。いずれの方法を用いるにせよ、縞内部位相角0の点で縞波番号は変化し、そこで1つの縞波が区分される。   In addition to this, there are a method of setting the point that becomes the median value of the section from the valley to the mountain to a fringe wave internal phase angle of 0, a method of detecting the peak of the valley and the mountain, and the like. The positions of the internal phase angles 0, π / 2, π, 3π / 2 are obtained by shifting by 2, π, 3π / 2, which is a “phase angle fixed position calculation method”. Whichever method is used, the fringe wave number changes at the point of the fringe internal phase angle 0, and one fringe wave is divided there.

上で述べたように、投影された格子パターン1003は光強度Iの波として認識されるので、その位相Φは2π×縞波番号+縞内部位相角として表現される。従って、格子パターン投影法などでは、縞波番号が分からなければ3次元計測ができないことになる。縞波が連続的である場合にはX軸に沿って縞波番号は1ずつ増減するため、容易に位相差ΔΦを計算することはできる。しかし、縞が不連続になる場合がある。このように縞が不連続となってしまった場合には、縞波番号の連続性を使用することはできないので、位相差を計算することは容易ではなくなってしまう。また、縞波番号を誤って認識してしまうと、測定の誤差が生じてしまう。   As described above, since the projected grating pattern 1003 is recognized as a wave of light intensity I, the phase Φ is expressed as 2π × the fringe wave number + the fringe internal phase angle. Therefore, in the lattice pattern projection method or the like, three-dimensional measurement cannot be performed unless the fringe wave number is known. When the fringe wave is continuous, the fringe wave number increases or decreases by 1 along the X axis, so that the phase difference ΔΦ can be easily calculated. However, the stripes may be discontinuous. When the fringes become discontinuous in this way, the continuity of the fringe wave numbers cannot be used, and therefore it is not easy to calculate the phase difference. In addition, if the fringe wave number is erroneously recognized, a measurement error occurs.

これに対して、縞の不連続性に対応して自動的に縞波番号を取得する方法として、以下に記す非特許文献3に概括されているように白黒の縞格子に対して多数の研究がなされている。この他、カラー縞格子を用いる方法が知られている(特許文献1及び非特許文献2)。   On the other hand, as a method for automatically acquiring fringe wave numbers corresponding to the discontinuity of fringes, many studies have been conducted on black and white fringe gratings as summarized in Non-Patent Document 3 described below. Has been made. In addition, a method using a color fringe lattice is known (Patent Document 1 and Non-Patent Document 2).

また、特開2003−65738号(特許文献2)には、以下のような技術が開示されている。すなわち、カメラキャリブレーションを行うために、互いに異なるZ方向位置において、XY座標が既知のマーカが付された平面板を複数回撮像する。これによって、同一平面上にないマーカの画像上の位置と、各マーカのワールド座標位置とから、カメラパラメータを計算する。次に、縞平面方程式を得るため、縞空間位置を実測する。この際、投影部によって、縞パターンを平面板に投影する。平面板を移動させ、互いに異なるZ方向位置において、少なくとも2回、撮像部によって撮像する。そして、投影された各縞について、その光平面(XY平面と交差する平面)に含まれて且つ一直線上にない少なくとも3点Pa,Pb,Pcについて、空間座標を取得する。このためには、撮像部から遠い方の画像において、1つの縞による直線画像上の任意の2つの点Qa,Qbを決定する。それらの点Qa,Qbの画素座標位置Qa(ua,va),Qb(ub,vb)を求める。また撮像部から近い方の画像において、同様に、同じ縞による直線画像上の任意の1つの点Qcを決定する。その点Qcの画素座標位置Qc(uc,vc)を求める。これらの点Qa,Qb,Qcの画素座標位置、距離z1,z2、およびカメラパラメータを用いて、ワールド座標系での縞上の各点の位置Pa(xa,ya,z1)、Pb(xb,yb,z1)、Pc(xc,yc,z2)を求める。このような処理を、縞パターンの全ての縞について行う。求められたそれぞれの点の位置(座標データ)を、縞空間位置として記憶装置に記憶する。また、縞空間位置に基づいて、それぞれの縞平面方程式を求め、これを記憶装置に記憶する。縞平面方程式は、一般的には次の式で示される。ax+by+cz=d。縞平面方程式のデータとして、例えばこの式のパラメータa,b,c,dが記憶される。なお、上の説明では1つの縞について3点の座標位置を求めたが、平面板のZ座標位置または画像上の位置などを密にして、4点以上の点の座標位置を求めてもよい。その場合に、それらの点が1つの平面上にない場合には、近似的な縞平面方程式を求める。それによって、さらに精度の高い縞平面方程式が得られる。   Japanese Patent Laid-Open No. 2003-65738 (Patent Document 2) discloses the following technique. That is, in order to perform camera calibration, a plane plate with markers with known XY coordinates is imaged a plurality of times at different Z-direction positions. As a result, camera parameters are calculated from the position of the marker on the image that is not on the same plane and the world coordinate position of each marker. Next, in order to obtain the fringe plane equation, the fringe space position is measured. At this time, the fringe pattern is projected onto the flat plate by the projection unit. The plane plate is moved, and images are captured by the imaging unit at least twice at different Z-direction positions. Then, for each projected stripe, spatial coordinates are acquired for at least three points Pa, Pb, and Pc that are included in the optical plane (a plane intersecting the XY plane) and are not in a straight line. For this purpose, arbitrary two points Qa and Qb on the straight line image by one stripe are determined in the image farther from the imaging unit. Pixel coordinate positions Qa (ua, va), Qb (ub, vb) of these points Qa, Qb are obtained. Similarly, in the image closer to the imaging unit, an arbitrary point Qc on the straight line image with the same stripe is determined. A pixel coordinate position Qc (uc, vc) of the point Qc is obtained. Using the pixel coordinate positions of these points Qa, Qb, Qc, distances z1, z2, and camera parameters, the positions Pa (xa, ya, z1), Pb (xb, yb, z1) and Pc (xc, yc, z2) are obtained. Such processing is performed for all stripes of the stripe pattern. The obtained position (coordinate data) of each point is stored in the storage device as a fringe space position. Further, each fringe plane equation is obtained based on the fringe space position and stored in the storage device. The fringe plane equation is generally expressed by the following equation. ax + by + cz = d. As data of the fringe plane equation, for example, parameters a, b, c, and d of this equation are stored. In the above description, the coordinate positions of three points are obtained for one stripe, but the coordinate positions of four or more points may be obtained by densely setting the Z coordinate position of the flat plate or the position on the image. . In that case, when those points are not on one plane, an approximate fringe plane equation is obtained. Thereby, a more accurate fringe plane equation is obtained.

このような技術では、あくまで各縞の縞平面方程式を得ることが目的となっているため、縞間の関係は把握されておらず、空間全体を正しく表すことができていない。従って、正しい計測値を得ることができない場合もある。また、縞平面方程式の算出にはカメラパラメータの算出結果を用いているが、カメラパラメータがどのようなデータであるか及びその算出方法が明示されておらず、カメラパラメータが十分な精度で算出されていない場合には、縞平面方程式の精度も落ちてしまう。   In such a technique, the purpose is to obtain a fringe plane equation for each fringe, so the relationship between the fringes is not grasped and the entire space cannot be represented correctly. Therefore, there are cases where a correct measurement value cannot be obtained. In addition, the calculation result of the camera parameter is used to calculate the fringe plane equation, but what kind of data the camera parameter is and its calculation method are not specified, and the camera parameter is calculated with sufficient accuracy. If not, the accuracy of the fringe plane equation will be reduced.

上で述べた従来技術が実現している格子パターン投影法は、「位置固定型縞内部位相角計算法」の場合正弦格子を前提としており、その実現度によって計測精度が左右されるので、実現度を向上させるための研究がなされている(非特許文献3)。しかしながら、液晶は離散型であるので正弦格子の実現度にも限界があるのは明らかであり、これにより精度が制限される。また、従来の方法では計算式の係数の精度を向上させるための努力がなされているが、計測ボリューム内の全ての点に対して高精度な値を得るのは困難である。さらに、「位相角固定型位置計算法」の場合は異なった点を参照するが、参照する点のバックグランドの明るさの違いによって誤差を生じ、これにより精度が制限される。   The grating pattern projection method realized by the above-mentioned conventional technology is based on the assumption of a sine grating in the case of the “fixed-position fringe internal phase angle calculation method”, and the measurement accuracy depends on the degree of realization. Studies have been made to improve the degree (Non-patent Document 3). However, since the liquid crystal is a discrete type, it is clear that there is a limit to the degree of realization of the sine grating, which limits the accuracy. Further, in the conventional method, an effort is made to improve the accuracy of the coefficient of the calculation formula, but it is difficult to obtain highly accurate values for all points in the measurement volume. Furthermore, in the case of the “phase angle fixed type position calculation method”, different points are referred to, but an error occurs due to the difference in the brightness of the background of the reference point, and this limits the accuracy.

また、非特許文献1、非特許文献3及び非特許文献4に示されたΔΦなどを計算するための計算式は校正パラメタを含むが、これも誤差を含み精度に制限を与える。たとえば、校正パラメタに0.2%の誤差を含まれている場合、非線形性による誤差があれば200mm幅の物体を計測すると0.4mmの誤差を生ずる。   Moreover, although the calculation formula for calculating (DELTA) (PHI) shown by the nonpatent literature 1, the nonpatent literature 3, and the nonpatent literature 4 contains a calibration parameter, this also contains an error and gives a restriction | limiting in precision. For example, when an error of 0.2% is included in the calibration parameter, if there is an error due to non-linearity, an error of 0.4 mm is generated when an object having a width of 200 mm is measured.

さらに、これらの計算式は受光データに系統誤差がある場合、工業的に重要な水平面の計測値の水平性を保証しないと言う問題もある。なお、非特許文献4における式は基準平面に対してのみ偶発誤差がなければ水平性を保証するが、それ以外の高さの水平面に対してはその保証がない。   Furthermore, these calculation formulas also have a problem that the horizontality of the measured values on the horizontal plane, which is industrially important, is not guaranteed when there is a systematic error in the received light data. The expression in Non-Patent Document 4 guarantees horizontality if there is no incidental error only with respect to the reference plane, but there is no guarantee for other horizontal planes.

また、格子パターン投影レンズ、格子パターン撮影レンズは歪曲収差を有する。例えば0.5%の歪曲収差のレンズを用いて200mmの幅の物体を計測すると、歪曲収差によって1.0mmの誤差を生ずる。ある程度は計算による補正が可能であるが、これでも限度があるのは明らかである。   Moreover, the lattice pattern projection lens and the lattice pattern photographing lens have distortion. For example, when an object having a width of 200 mm is measured using a lens having a distortion aberration of 0.5%, an error of 1.0 mm is caused by the distortion. Although correction to some extent is possible, it is clear that there is a limit.

さらに、光学的な校正は計測座標系に対して行われる。しかしながら、計測装置を例えばNC(Numerical Control)工作機等のCNC(Computer Numerical Control)装置に取り付けて計測し、計測データを用いてCNC装置を制御しようとするときは、計測装置と工作機械は軸が一致せず誤差をもつ。この場合、工作装置の座標系で計測装置の校正を行いたいが、現在のところその方法は知られていない。   Furthermore, optical calibration is performed on the measurement coordinate system. However, when the measurement device is attached to a CNC (Computer Numerical Control) device such as an NC (Numerical Control) machine tool and measured, and the CNC device is to be controlled using the measurement data, the measurement device and the machine tool are Does not match and has an error. In this case, it is desired to calibrate the measuring device in the coordinate system of the machine tool, but the method is not known at present.

また、従来からの計測装置のパラメタを高精度に校正するのは高度の技術と長い時間を必要とし、精度を必要とする再校正は計測装置製作者に依頼するのが常である。当該計測装置を製品の生産に使用する場合には、製造停止など経済的な問題がある。   In addition, calibrating the parameters of a conventional measuring device with high accuracy requires high technology and a long time, and recalibration requiring accuracy is usually requested from the measuring device manufacturer. When the measuring device is used for production of products, there are economical problems such as production stoppage.

また、上で述べたような従来の格子パターン投影型計測器は可搬式であるか、特定の構造物(例えばフレーム構造、アーム構造など)に対して固定して使用する構造であった。前者の場合には単独で計測器の校正を行い,後者の場合は特定の構造物に装着固定した状態で校正を行っている。   Further, the conventional lattice pattern projection type measuring instrument as described above is portable or has a structure that is fixed to a specific structure (for example, a frame structure, an arm structure, etc.). In the former case, the measuring instrument is calibrated alone, and in the latter case, the calibration is performed in a state of being fixed to a specific structure.

しかし、工作機などのCNC装置に計測器及び被計測物体を取りつけた状態で、工作機座標系などの実体座標系にて被計測物体を計測しようとする場合には、切り屑などが計測器に接触しないようにする等の目的のため、計測器の脱着が必要となる。   However, when a measuring instrument and an object to be measured are attached to a CNC device such as a machine tool, when trying to measure the object to be measured in an actual coordinate system such as a machine tool coordinate system, chips etc. It is necessary to detach the measuring instrument for the purpose of preventing it from coming into contact with the instrument.

この場合、再装着による計測精度の低下、具体的には工作機の制御盤に表示された座標系と計測値が食い違うという問題点が生ずる。この問題に対処するためピンを使用して計測器を工作機などのCNC装置に装着固定すれば、ある程度の精度を実現することはできる。しかし、作業性を考慮すると勘合穴にはある程度のクリアランスを与えざるを得ない。このクリアランスが誤差として拡大される。また、取り付け時の応力による歪みや、計測器の経時変化が脱着によって加速するなど、誤差は避けられない。   In this case, there is a problem that the measurement accuracy is lowered due to remounting, specifically, the measured value is inconsistent with the coordinate system displayed on the control panel of the machine tool. In order to cope with this problem, a certain degree of accuracy can be achieved by mounting and fixing the measuring instrument to a CNC device such as a machine tool using pins. However, in consideration of workability, a certain amount of clearance must be given to the fitting hole. This clearance is enlarged as an error. In addition, errors such as distortion due to stress at the time of mounting and acceleration of the change over time of the measuring instrument due to desorption are inevitable.

従って計測器の再校正を行えばよいということになるが、再校正を行うのでは効率がよくない。上でも述べたように、校正には比較的長い時間かかるためである。しかし、計測器の再装着に対する効率のよい対処法は知られておらず、再校正なしには無理と考えられていた。   Therefore, it is only necessary to recalibrate the measuring instrument, but recalibration is not efficient. As mentioned above, the calibration takes a relatively long time. However, an efficient method for remounting the instrument was not known, and it was considered impossible without recalibration.

また、例えば工作機の座標系で格子パターン投影型計測器を用いて絶対値計測を行う場合、計測器自体あるいは環境/状態の温度変化によって計測値が変化するという問題もある。通常は、恒温室に計測器及び被計測物体を入れて計測するものであり、工作機などのCNC装置に計測器を装着してそのまま計測を行う場合における、温度などの環境/状態の変化に効率的に対処する方法は知られていない。   Further, for example, when performing absolute value measurement using a grid pattern projection type measuring instrument in the coordinate system of a machine tool, there is also a problem that the measured value changes due to a temperature change of the measuring instrument itself or the environment / state. Normally, measuring instruments and objects to be measured are placed in a temperature-controlled room and measured. When measuring with a measuring instrument attached to a CNC device such as a machine tool, the environment / state such as temperature changes. There is no known way to deal with it efficiently.

特開平3−192474号公報Japanese Patent Laid-Open No. 3-192474 特開2003−65738号JP 2003-65738 A H.Lu et al.,"Automatic Measurement of 3-D Object Shapes Based on Computer-generated Reference Surface", Bull. Japan Soc. of Prec. Eng. Vol. 21, No.4, p251 (1987)H. Lu et al., "Automatic Measurement of 3-D Object Shapes Based on Computer-generated Reference Surface", Bull. Japan Soc. Of Prec. Eng. Vol. 21, No. 4, p251 (1987) W. Liu et al., Color Coded Projection Grating Method for Shape Measurement with a Single Exposure, Applied Optics Vol.39, No.20, p3503 (2000)W. Liu et al., Color Coded Projection Grating Method for Shape Measurement with a Single Exposure, Applied Optics Vol.39, No.20, p3503 (2000) 山谷謙ほか,液晶格子パターン投影による3次元形状計測,精密工学会誌,vol.67, No.5, p.786, (2001)Ken Yamatani et al., 3D shape measurement by liquid crystal lattice pattern projection, Journal of Precision Engineering, vol.67, No.5, p.786, (2001) Mitsuo Takeda et al., Fourier transform profilometry for the automatic measurement of 3-D object shapes, Applied OPTICS, vol. 22, no. 4, p. 3977 (1983)Mitsuo Takeda et al., Fourier transform profilometry for the automatic measurement of 3-D object shapes, Applied OPTICS, vol. 22, no. 4, p. 3977 (1983) G.Farin著,木村文彦監修,山口泰監訳,「CAGDのための曲線・曲面理論」,共立出版,1991By G. Farin, supervised by Fumihiko Kimura, translated by Yasushi Yamaguchi, “Curve and Surface Theory for CAGD”, Kyoritsu Shuppan, 1991 形状処理工学(II) 山口富士夫、日刊工業新聞社Shape Processing Engineering (II) Fujio Yamaguchi, Nikkan Kogyo Shimbun Berthold K. P. Horn, Closed-form Solution of Absolute Orientation using Unit Quaternions, Optical Society of America, vol. 4. No. 4 , p. 629, (1987)Berthold K. P. Horn, Closed-form Solution of Absolute Orientation using Unit Quaternions, Optical Society of America, vol. 4.No. 4, p. 629, (1987) 倉本丈久、竹保義博、門藤至宏、廣川勝久「高精度光応用計測技術の開発(第1報)光切断法による3次元計測」広島県立東部工業技術センター研究報告 第15号(2002)Takehisa Kuramoto, Yoshihiro Takebo, Toshihiro Kato, Katsuhisa Kajikawa "Development of high-precision optical measurement technology (1st report) Three-dimensional measurement by optical cutting method" Hiroshima Prefectural Industrial Technology Center Research Report No. 15 (2002) Greg Turk, Re-Tiling Polygonal Surfaces, Computer Graphics, vol. 26, no.2, (SIGGRAPH '92), p. 55-64Greg Turk, Re-Tiling Polygonal Surfaces, Computer Graphics, vol. 26, no.2, (SIGGRAPH '92), p. 55-64

以上述べたように従来技術では、CNC装置と計測器とを協働させる場合に様々な問題が生じていた。   As described above, in the prior art, various problems occur when the CNC device and the measuring instrument are made to cooperate.

そこで本発明の目的は、例えば格子パターン投影型計測器などの計測器を、再装着や温度変化などの各種の状態変化が生じても、再校正することなく、例えば工作機座標系のような計測器座標系とは異なる座標系で高精度に計測できるようにするための技術を提供することである。   Therefore, an object of the present invention is to re-calibrate a measuring instrument such as a grid pattern projection type measuring instrument, for example, such as a reattachment or a temperature change, without recalibrating, for example, a machine tool coordinate system. It is to provide a technique for enabling measurement with high accuracy in a coordinate system different from the measuring instrument coordinate system.

また本発明の他の目的は、格子パターン投影法において系統誤差を除去するための新規な計測技術を提供することである。   Another object of the present invention is to provide a novel measurement technique for removing systematic errors in the grid pattern projection method.

本発明に係る、物体形状の計測を行う計測器を装着可能なコンピュータ数値制御装置における計測方法は、コンピュータ数値制御装置に装着した状態において計測器の校正を実施する校正ステップと、計測器の再装着を含む所定の状態の変化が生じた場合、再度校正を実施することなく、3以上の基準位置に対する計測器による計測結果を取得し、当該計測結果を基準位置に変換するための変換データを算出する変換データ算出ステップと、計測器により上記校正に基づき被計測物体の計測を行い、当該計測結果を変換データにより変換する計測ステップとを含む。 According to the present invention, a measurement method in a computer numerical control apparatus capable of mounting a measuring instrument for measuring an object shape includes a calibration step for calibrating the measuring instrument in a state of being mounted on the computer numerical control apparatus, and a re-measurement of the measuring instrument. When a change in a predetermined state including mounting occurs, measurement data obtained by a measuring instrument for three or more reference positions is acquired without performing calibration again, and conversion data for converting the measurement results to the reference position is obtained. and conversion data calculation step of calculating, performs measurement of the measurement object based on the calibration by instrument, and a measurement step of converting the measurement result by the conversion data.

このように一度校正ステップにおいて校正を行った後は、計測器の再装着を含む所定の状態変化が生じた場合には、再校正を行うことなく変換データを算出し、当該変換データを用いて計測器の計測結果を補正するものである。変換データ算出ステップは計測器の校正より短い時間で実施できるため、校正をやり直す場合に比して効率的な計測が可能となる。この際、計測器の座標系は、工作機などのコンピュータ数値制御装置に装着した状態において計測器の校正を実施しているためコンピュータ数値制御装置の座標系に合わせられており、コンピュータ数値制御装置の座標系において高精度の計測ができるようになる。   In this way, once calibration is performed in the calibration step, when a predetermined state change including remounting of the measuring instrument occurs, conversion data is calculated without performing recalibration, and the conversion data is used. It corrects the measurement result of the measuring instrument. Since the conversion data calculation step can be performed in a shorter time than the calibration of the measuring instrument, the measurement can be performed more efficiently than when calibration is performed again. At this time, the coordinate system of the measuring instrument is adjusted to the coordinate system of the computer numerical control apparatus because the measuring instrument is calibrated while being mounted on the computer numerical control apparatus such as a machine tool. It becomes possible to measure with high accuracy in the coordinate system.

なお、上で述べた変換データ算出ステップにおいて、コンピュータ数値制御装置により基準物体の相対位置を移動させ、移動後の当該基準物体の所定の位置を前記基準位置として用い、計測器により移動後の基準物体の物体形状の計測を行い、当該計測結果に基づき基準物体の所定の位置に対応する計測器による計測結果を取得するようにしてもよい。計測器の座標系が、コンピュータ数値制御装置の座標系に合わせられているので、変換データ算出時にも座標系を合わせる必要があるためである。   In the conversion data calculation step described above, the relative position of the reference object is moved by the computer numerical control device, the predetermined position of the reference object after the movement is used as the reference position, and the reference after the movement by the measuring instrument is used. An object shape of the object may be measured, and a measurement result by a measuring instrument corresponding to a predetermined position of the reference object may be acquired based on the measurement result. This is because the coordinate system of the measuring instrument is matched with the coordinate system of the computer numerical control apparatus, and therefore it is necessary to match the coordinate system when calculating the conversion data.

また、上記所定の状態の変化が、所定の閾値以上の温度変化又は時間経過を検出したことを含むようにしてもよい。例えば温度センサによる温度上昇又はタイマによる時間経過を検出するようにしてもよい。   In addition, the change in the predetermined state may include detecting a temperature change or time lapse of a predetermined threshold value or more. For example, a temperature rise by a temperature sensor or a time lapse by a timer may be detected.

さらに、上記計測ステップが、計測器により被計測物体の第1の部分の計測を実施するステップと、コンピュータ数値制御装置により被計測物体の相対位置の移動を行うステップと、計測器により移動後に被計測物体の第2の部分の計測を実施するステップと、被計測物体の移動のデータを用いて被計測物体の第1の部分又は第2の部分の計測結果を移動させ、他の計測結果と合成する合成ステップとを含むようにしてもよい。1度に被計測物体が計測できない場合の処理である。   Furthermore, the measurement step includes a step of measuring the first portion of the object to be measured by the measuring instrument, a step of moving the relative position of the object to be measured by the computer numerical control device, and a step of measuring after the movement by the measuring instrument. A step of measuring the second part of the measurement object, and moving the measurement result of the first part or the second part of the measurement object using the movement data of the measurement object; And a synthesis step for synthesis. This is processing when the object to be measured cannot be measured at a time.

また、上で述べた計測器が、所定の格子パターンを特定の物体に対し投影する投影手段と特定の物体を撮影する撮影手段とを有する格子パターン投影型計測器とすることも可能であり、上で述べた校正ステップが、コンピュータ数値制御装置により実現される複数の高さの面毎に投影手段により特定の物体である当該面上に投影され且つ撮影手段により撮影された投影格子パターンの撮影画像から、撮影手段の受光面において各上記面に共通の縦方向個数及び横方向個数存在する点の座標(例えば(x,y))と当該点の光強度と高さの組を含む第1の集合を生成し、当該第1の集合のデータを記憶装置に格納するステップと、光強度を投影格子パターンの位相角に変換し、受光面における上記点の座標と位相角と高さの組を含み且つ各組をノードとして矩形グリッドを構成するための第2の集合のデータを記憶装置に格納するステップとを含むようにしてもよい。   In addition, the measuring instrument described above can be a grid pattern projection type measuring instrument having a projection unit that projects a predetermined grid pattern onto a specific object and an imaging unit that captures the specific object. The above-described calibration step is performed by projecting the projected grid pattern projected onto the surface, which is a specific object, by the projecting unit for each of the plurality of height surfaces realized by the computer numerical control device. From the image, a first set including a set of coordinates (for example, (x, y)) of the number of points in the vertical direction and the horizontal number common to each of the light receiving surfaces of the photographing unit and the light intensity and height of the point. Generating a set of the first set of data and storing the data of the first set in a storage device; converting the light intensity into a phase angle of the projection grating pattern; And each pair It may include a step of storing the data of the second set for constructing a rectangular grid in the storage device as over de.

このように撮影手段の受光面における座標と高さと投影格子パターンの位相角の組を複数含む第2の集合を保持しておくことにより、受光面における座標と投影格子パターンの位相角という観測側のデータと実体の高さというデータとが適切に対応付けられ、計測時に受光面における座標と投影格子パターンの位相角とから被測定物体の高さを導出できるようになる。このように計測データのみで校正が行われるので系統誤差が消滅する。なお、上記面は、平面の方が装置製作上及び精度保持上有利ではあるが、曲面であっても機能実現上問題はない。   In this way, by holding the second set including a plurality of sets of coordinates and heights on the light receiving surface of the imaging means and the phase angle of the projected grating pattern, the observation side of the coordinates on the light receiving surface and the phase angle of the projected grating pattern is maintained. Thus, the height of the object to be measured can be derived from the coordinates on the light receiving surface and the phase angle of the projected grating pattern at the time of measurement. As described above, since calibration is performed only with the measurement data, the systematic error disappears. A flat surface is more advantageous in terms of device manufacturing and accuracy maintenance, but even a curved surface has no problem in realizing the function.

また、第2の集合のデータからテンソル積型複合超曲面を表すデータを生成し、記憶装置に格納する超曲面生成ステップをさらに含むようにしてもよい。このように本発明では、4次元(受光面における座標(2次元)と位相角(1次元)と高さ(1次元)とで計4次元)空間中においてテンソル積型複合超曲面の形式で、受光面における座標、位相角及び高さの関係を表現する。4次元空間におけるテンソル積型複合超曲面は、3次元空間におけるテンソル積型複合曲面の次元を1つ増加させたものである。   Further, it may further include a hypersurface generation step of generating data representing a tensor product type complex hypersurface from the second set of data and storing the data in a storage device. Thus, in the present invention, in the form of a tensor product type complex hypersurface in a four-dimensional space (four dimensions in total (coordinate (two-dimensional), phase angle (one-dimensional) and height (one-dimensional) on the light receiving surface)). The relationship between coordinates, phase angle and height on the light receiving surface is expressed. The tensor product type compound hypersurface in the four-dimensional space is obtained by increasing the dimension of the tensor product type compound hypersurface in the three-dimensional space by one.

3次元空間におけるテンソル積型複合曲面については、非特許文献5において詳細が述べられているように、「曲面は、形を変えながら空間を移動する曲線(以下「第1の曲線」と呼ぶ)の軌跡である」と捉え、「移動する第1の曲線」を制御点(以下「第1の制御点」と呼ぶ)を用いて表現し、その第1の制御点が、ある曲線(以下「第2の曲線」と呼ぶ)に沿って移動するものとして、第1の制御点を更に異なる制御点を用いて表現するものである。   As described in detail in Non-Patent Document 5, the tensor product type compound curved surface in the three-dimensional space is “a curved surface that moves in space while changing its shape (hereinafter referred to as“ first curve ”). The first moving point is expressed using a control point (hereinafter referred to as “first control point”), and the first control point is a certain curve (hereinafter referred to as “first curve”). The first control point is expressed using a further different control point as the one that moves along the second curve).

第1の曲線が第2の曲線に沿って移動するので、第1の曲線を表現する制御点の数と第2の曲線を表現する制御点の数はそれぞれ同一となり、これによって上記各面に共通の縦方向個数及び横方向個数の点から矩形グリッドが構成される。
4次元におけるテンソル積型複合超曲面については、「超曲面は、形を変えながら空間を移動する曲面の軌跡である」と捉え、3次元空間におけるテンソル積型複合曲面を制御点(以下「第2の制御点」と呼ぶ)を用いて表現し、その第2の制御点が第3の座標(例えば時間)に沿って移動するとして、第2の制御点をさらに異なる第3の制御点を用いて表現することによって得ることができる。このようにして生成されたテンソル積型複合超曲面は近似であるが、第2の集合に含まれる組の数が十分多ければ十分な精度を得ることができる。
Since the first curve moves along the second curve, the number of control points expressing the first curve is the same as the number of control points expressing the second curve. A rectangular grid is constructed from a common number of vertical and horizontal points.
The tensor product type compound hypersurface in four dimensions is regarded as “the hypersurface is a trajectory of a curved surface that moves in a space while changing its shape”. 2), and the second control point moves along a third coordinate (for example, time), and the second control point is further changed to a third control point. It can be obtained by using and expressing. The tensor product type complex hypersurface generated in this way is approximate, but sufficient accuracy can be obtained if the number of pairs included in the second set is sufficiently large.

このテンソル積型複合超曲面の表現式には、ベジエ曲面、B-Spline曲面の次数を1つ増やしたものを使用することができる。なお、本発明におけるテンソル積型複合超曲面は、テンソル積型複合曲面が射影変換された、有理ベジエ曲面や有理B-Spline曲面の次数を1つ増やしたものをも含むものとする。   As an expression of this tensor product type composite hypersurface, a formula obtained by increasing the order of a Bezier surface or a B-Spline surface by one can be used. The tensor product type complex hypersurface in the present invention includes one obtained by increasing the degree of a rational Bezier surface or a rational B-Spline surface obtained by projective transformation of the tensor product type complex surface.

また、上記変換データ算出ステップ及び計測ステップにおける計測器による計測時に、被計測物体に対して投影手段により投影され且つ撮影手段により撮影された投影格子パターンの撮影画像から、撮影手段の受光面における座標と光強度の組のデータを抽出し、記憶装置に格納するステップと、光強度を投影格子パターンの位相角に変換し、受光面における座標と位相角の組のデータを記憶装置に格納するステップと、テンソル積型複合超曲面を表すデータを用いて、受光面における座標と位相角の組のデータに対応する高さデータを補間計算し、記憶装置に格納する補間ステップとをさらに含むようにしてもよい。   In addition, the coordinates on the light receiving surface of the photographing unit are obtained from the photographed image of the projected grid pattern projected by the projecting unit and photographed by the photographing unit during measurement by the measuring instrument in the conversion data calculating step and the measuring step. And extracting the data of the set of light intensity and storing it in the storage device, converting the light intensity into the phase angle of the projection grating pattern, and storing the data of the set of coordinates and phase angle on the light receiving surface in the storage device And interpolating the height data corresponding to the coordinate and phase angle data on the light receiving surface using the data representing the tensor product type complex hypersurface, and further including an interpolation step of storing in the storage device Good.

計測面の傾き以外は校正時と同じ条件で計測結果の補間データを得られるので、格子パターンの精度の影響や校正パラメータの精度の影響を軽減することができる。また、高さ一定の平面では校正時と同じ条件で計測がなされるので、水平性及び平坦性の保証ができる。なお、補間については、受光面における座標と位相角を与えて超曲面を参照し、当該超曲面と直線の交差問題を解くことによって可能となる。これは、例えば多次元ニュートン法であるヤコビの反転算法によって解くことができる。   Interpolation data of measurement results can be obtained under the same conditions as during calibration except for the inclination of the measurement surface, so that the influence of the accuracy of the grid pattern and the accuracy of the calibration parameters can be reduced. In addition, since the measurement is performed on the flat surface at the same condition as that at the time of calibration, the horizontality and flatness can be guaranteed. The interpolation can be performed by giving a coordinate and a phase angle on the light receiving surface and referring to the hypersurface and solving the intersection problem between the hypersurface and the straight line. This can be solved, for example, by Jacobian inversion, which is a multidimensional Newton method.

さらに、上で述べた校正ステップにおいて、1又は複数の高さを有し且つ実座標が判明している複数のポイントを含む面毎に投影手段による格子パターンの投影なしに撮影手段により撮影された特定の物体である当該面の撮影画像から、撮影手段の受光面における座標とポイントの実座標と高さの組を複数含む第3の集合を生成し、当該第3の集合のデータを記憶装置に格納するステップをさらに含むようにしてもよい。   Furthermore, in the calibration step described above, each surface including a plurality of points having one or more heights and whose real coordinates are known was photographed by the photographing means without projection of the grid pattern by the projecting means. A third set including a plurality of sets of coordinates on the light-receiving surface of the photographing unit, the actual coordinates of the points, and the height is generated from a captured image of the surface that is a specific object, and the data of the third set is stored in the storage device The method may further include a step of storing in.

このようにして、投影格子パターンの位相角ではなく実座標についても、受光面における座標と高さとの組の集合で表すことにより、適切に空間を表すことができるようになる。なお、上記面は、平面の方が装置製作上及び精度保持上有利ではあるが、曲面であっても機能実現上問題はない。   In this way, not only the phase angle of the projected grating pattern but also the actual coordinates can be expressed appropriately by representing the set of coordinates and heights on the light receiving surface. A flat surface is more advantageous in terms of device manufacturing and accuracy maintenance, but even a curved surface has no problem in realizing the function.

そして、第3の集合から第2のテンソル積型複合超曲面を表すデータを生成し、記憶装置に格納する第2超曲面生成ステップをさらに含むようにしてもよい。   Then, it may further include a second hypersurface generation step of generating data representing the second tensor product type complex hypersurface from the third set and storing the data in the storage device.

さらに、第2のテンソル積型複合超曲面を表すデータを用いて、補間ステップにおいて生成された高さデータと受光面における対応座標の組のデータに対応する実座標のデータを補間計算し、記憶装置に格納するステップをさらに含むようにしてもよい。   Further, by using the data representing the second tensor product type complex hypersurface, interpolation calculation is performed for real coordinate data corresponding to the data of the set of height data generated in the interpolation step and the corresponding coordinate on the light receiving surface, and stored. You may make it further contain the step stored in an apparatus.

このようにすれば、レンズの歪曲収差などを除去することができるようになる。なお、実体のX軸方向及びY軸方向については、超曲面ではなく曲面を用いても空間を表すことができる。   In this way, it becomes possible to remove lens distortion and the like. In addition, about the X-axis direction and Y-axis direction of a substance, space can be represented even if it uses a curved surface instead of a hypersurface.

本発明の計測方法は、例えばコンピュータとプログラムの組み合わせにより実施され、このプログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体又は記憶装置に格納される。また、ネットワークなどを介してデジタル信号として配信される場合もある。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。   The measurement method of the present invention is implemented by a combination of a computer and a program, for example, and this program is stored in a storage medium or storage device such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, or a hard disk. Moreover, it may be distributed as a digital signal via a network or the like. The intermediate processing result is temporarily stored in a storage device such as a main memory.

本発明によれば、例えば格子パターン投影型計測器などの計測器を、再装着や温度変化などの状態変化が生じても、再校正することなく、例えば工作機座標系のような計測器座標系とは異なる座標系で高精度に計測できるようになる。   According to the present invention, a measuring instrument coordinate such as a machine tool coordinate system can be used without recalibrating a measuring instrument such as a grid pattern projection type measuring instrument even if a state change such as remounting or temperature change occurs. It becomes possible to measure with high accuracy in a coordinate system different from the system.

また別の側面として、格子パターン投影法において系統誤差を除去することができるようになる。   As another aspect, systematic errors can be removed in the grid pattern projection method.

図2に本発明の一実施の形態における機能ブロック図を示す。本実施の形態における計測部を含むCNC装置(例えば工作装置。但し、これに限定するものではない。)は、本実施の形態における主要な処理を実施し且つコンピュータである画像処理装置5と、当該画像処理装置5に接続されており且つランプなどの投影部11と格子を形成するための液晶パネル12とレンズ13とを有する液晶プロジェクタ1と、画像処理装置5に接続されており且つレンズ41とCCD42と図示しないメモリを有するカメラ4と、校正時に基準面となる基準平面2(但し高さZ=Z1の場合の基準平面を2aとし、高さZ=Z2の場合の基準平面を2bとする。)と、画像処理装置5と接続されており且つ当該基準平面2の少なくともZ方向の移動や被計測物体の並進・回転・傾斜などの移動制御を実行する移動制御部6と、画像処理装置5に接続されており且つCNC装置における温度を測定する温度センサ7とを含む。なお、基準平面2上において、投影格子パターンの縞直交方向をX軸とし、縞方向をY軸とし、Z軸方向にカメラ4の光軸が設けられている。一方、CCD42の受光面においても、投影格子パターンの像の縞直交方向をx軸とし、縞方向をy軸とする。なお、大文字のXYZについては実空間上の軸又は座標を表し、小文字のxyについては受光面における像の軸又は座標を表すものとする。なお、本実施の形態では、液晶プロジェクタ1及びカメラ4と電源装置(図示せず)などを含む計測部は、CNC装置の他の部分から脱着可能となっている。ちなみに、ここでは計測効率が良い格子パターン投影法を例示したが、必ずしもこれに限定するものではない。すなわち、光切断法やモアレ法などの他の方法の場合も同様の方法で実現することができる。 FIG. 2 shows a functional block diagram in one embodiment of the present invention. A CNC device (for example, a machine tool, but not limited thereto) including a measurement unit in the present embodiment includes an image processing device 5 that performs the main processing in the present embodiment and is a computer, A liquid crystal projector 1 that is connected to the image processing device 5 and includes a projection unit 11 such as a lamp, a liquid crystal panel 12 for forming a lattice, and a lens 13, and a lens 41 that is connected to the image processing device 5. And a camera 4 having a CCD 42 and a memory (not shown), a reference plane 2 serving as a reference plane at the time of calibration (provided that the reference plane when the height Z = Z 1 is 2a, and the reference plane when the height Z = Z 2 is 2b), and a movement control unit that is connected to the image processing apparatus 5 and executes movement control such as movement of the reference plane 2 in at least the Z direction and translation / rotation / tilting of the object to be measured. It includes a control unit 6 and a temperature sensor 7 connected to the image processing device 5 and measuring the temperature in the CNC device. On the reference plane 2, the fringe orthogonal direction of the projected grating pattern is taken as the X axis, the fringe direction is taken as the Y axis, and the optical axis of the camera 4 is provided in the Z axis direction. On the other hand, also on the light receiving surface of the CCD 42, the fringe orthogonal direction of the projected grating pattern image is taken as the x axis and the fringe direction is taken as the y axis. Note that the uppercase XYZ represents an axis or coordinates in real space, and the lowercase xy represents an axis or coordinates of an image on the light receiving surface. In the present embodiment, the measurement unit including the liquid crystal projector 1, the camera 4, a power supply device (not shown), and the like can be detached from other parts of the CNC device. Incidentally, although the lattice pattern projection method with good measurement efficiency is illustrated here, it is not necessarily limited to this. In other words, other methods such as the light cutting method and the moire method can be realized by the same method.

画像処理装置5には、画像処理装置5全体の制御を行うメイン制御部500と、カメラ4の制御を行うカメラ制御部51と、液晶プロジェクタ1の制御を行う投影制御部52と、校正時の画像処理などを実施するキャリブレーション処理部53と、移動制御部6に対して基準面の高さZの変更、基準物体(例えば球)や被計測物体の回転・傾斜・並進移動などを行わせるためのCNCデータの設定を行うCNCデータ設定部54と、校正時に行われる処理の一部であるテンソル積型複合超曲面などの制御点を生成する制御点生成部55と、測定時における被測定物体の実座標を算出する実座標算出部56と、被測定物体を複数回に分けて測定する場合に複数回分の測定データを合成するために必要な処理を実施する合成処理部59と、計測部をCNC装置に再装着した場合や温度センサ7により測定された温度が所定の状態となった場合に実施する測定データの補正に必要な処理を実施する補正処理部60とが含まれている。また、画像処理装置5は、校正時に生成されるテンソル積型複合超曲面などの制御点データなどを格納する校正データ格納部57と、測定時に生成される被測定物体の実座標データなどを格納する測定データ格納部58と、測定データの合成処理のためのデータである合成用データを格納する合成用データ格納部61と、測定データの補正処理のためのデータである補正用データを格納する補正用データ格納部62とを管理している。   The image processing apparatus 5 includes a main control unit 500 that controls the entire image processing apparatus 5, a camera control unit 51 that controls the camera 4, a projection control unit 52 that controls the liquid crystal projector 1, and a calibration control unit. The calibration processing unit 53 that performs image processing and the like and the movement control unit 6 are caused to change the height Z of the reference plane, and rotate, tilt, and translate the reference object (for example, a sphere) and the object to be measured. CNC data setting unit 54 for setting CNC data for control, a control point generation unit 55 for generating a control point such as a tensor product type complex hypersurface, which is a part of processing performed at the time of calibration, and a measurement target at the time of measurement An actual coordinate calculation unit 56 that calculates the actual coordinates of the object, a synthesis processing unit 59 that performs processing necessary to synthesize measurement data for a plurality of times when the object to be measured is measured in multiple times, and measurement Part Temperature measured by the case and the temperature sensor 7 which is remounted to the CNC device contains a correction processor 60 which performs processing required for correction of the measurement data performed when a condition exists. The image processing apparatus 5 also stores a calibration data storage unit 57 that stores control point data such as a tensor product type complex hypersurface generated at the time of calibration, and actual coordinate data of the object to be measured that is generated at the time of measurement. A measurement data storage unit 58 for storing data, a synthesis data storage unit 61 for storing data for synthesis that is data for synthesis of measurement data, and correction data that is data for correction processing of measurement data. The correction data storage unit 62 is managed.

次に本実施の形態に係るCNC装置を用いた処理の処理フローを図3を用いて説明する。まず、脱着可能な計測部をCNC装置に装着する(ステップS100)。なお、計測部をCNC装置から取り外していなければ本ステップは実施されないので点線ブロックで示している。また、工作機の場合には、計測部は刃物取り付け側に装着される。本実施の形態では、ピンなどを用いてできるだけ常に同じ位置に固定できるようにすることが好ましい。次に、校正処理を実施する(ステップS102)。   Next, a processing flow of processing using the CNC device according to the present embodiment will be described with reference to FIG. First, a removable measuring unit is attached to the CNC device (step S100). Note that this step is not performed unless the measurement unit is removed from the CNC device, and is indicated by a dotted line block. In the case of a machine tool, the measuring unit is mounted on the blade attachment side. In the present embodiment, it is preferable that the pin can be fixed at the same position as much as possible. Next, calibration processing is performed (step S102).

ここで校正処理の詳細を図4乃至図14を用いて述べる。例えば、ユーザが画像処理装置5に校正処理の実施を指示すると、当該指示を受けてメイン制御部500はCNCデータ設定部54に校正時の処理を指示する。メイン制御部500からの指示に応じてCNCデータ設定部54は、例えば予め設定されている高さZ(=Z1)の設定データを移動制御部6に出力し、移動制御部6はCNCデータ設定部54から受け取った高さZ(=Z1)の設定データに従って、基準平面2の高さを高さZ1になるように制御する。そして、メイン制御部500の指示に応じて投影制御部52は、所定の格子パターンを基準平面2aに対して投影するように、液晶プロジェクタ1を制御する。投影制御部52の指示に応じて、液晶プロジェクタ1は、所定の格子パターンを液晶パネル12にて形成し、投影部11により基準平面2aに対して液晶パネル12により形成された所定の格子パターンを投影する。また、メイン制御部500からの指示に応じてカメラ制御部51は、当該投影格子パターンを撮影するようにカメラ4を制御する。カメラ制御部51の指示に応じてカメラ4はCCD42により撮影を行う。CCD42において得られた撮影画像のデータは、一旦カメラ4内のメモリに格納された後、画像処理装置5に出力される。画像処理装置5は、例えば校正データ格納部57などの記憶装置に撮影画像データを格納する。 Details of the calibration process will be described with reference to FIGS. For example, when the user instructs the image processing apparatus 5 to execute the calibration process, the main control unit 500 receives the instruction and instructs the CNC data setting unit 54 to perform a calibration process. In response to an instruction from the main control unit 500, the CNC data setting unit 54 outputs, for example, setting data of a preset height Z (= Z 1 ) to the movement control unit 6, and the movement control unit 6 According to the setting data of the height Z (= Z 1 ) received from the setting unit 54, the height of the reference plane 2 is controlled to become the height Z 1 . In response to an instruction from the main control unit 500, the projection control unit 52 controls the liquid crystal projector 1 so as to project a predetermined lattice pattern onto the reference plane 2a. In response to an instruction from the projection control unit 52, the liquid crystal projector 1 forms a predetermined lattice pattern on the liquid crystal panel 12, and the projection unit 11 applies the predetermined lattice pattern formed by the liquid crystal panel 12 to the reference plane 2a. Project. In response to an instruction from the main control unit 500, the camera control unit 51 controls the camera 4 so as to capture the projection grid pattern. In response to an instruction from the camera control unit 51, the camera 4 performs imaging using the CCD 42. The captured image data obtained by the CCD 42 is temporarily stored in the memory in the camera 4 and then output to the image processing device 5. The image processing device 5 stores the captured image data in a storage device such as the calibration data storage unit 57, for example.

次に、CNCデータ設定部54は、例えば予め設定されている別の高さZ(=Z2)の設定データを移動制御部6に出力し、移動制御部6はCNCデータ設定部54から受け取った高さZ(=Z2)の設定データに従って、基準平面2の高さを高さZ2になるように制御する。そして、投影制御部52は、所定の格子パターンを基準平面2bに対して投影するように、液晶プロジェクタ1を制御する。投影制御部52の指示に応じて、液晶プロジェクタ1は、所定の格子パターンを液晶パネル12にて形成し、投影部11により基準平面2aに対して液晶パネル12により形成された所定の格子パターンを投影する。なお、高さZ1において一度投影しているので、そのまま投影しつづけている場合には投影制御部52及び液晶プロジェクタ1における処理は不要である。そして、カメラ制御部51は、当該投影格子パターンを撮影するようにカメラ4を制御する。カメラ制御部51の指示に応じてカメラ4はCCD42により撮影を行う。CCD42において得られた撮影画像のデータは、一旦カメラ4内のメモリに格納された後、画像処理装置5に出力される。画像処理装置5は、例えば校正データ格納部57などの記憶装置に撮影画像データを格納する。 Next, the CNC data setting unit 54 outputs, for example, setting data for another preset height Z (= Z 2 ) to the movement control unit 6, and the movement control unit 6 receives from the CNC data setting unit 54. According to the setting data of the height Z (= Z 2 ), the height of the reference plane 2 is controlled to become the height Z 2 . Then, the projection control unit 52 controls the liquid crystal projector 1 so as to project a predetermined lattice pattern onto the reference plane 2b. In response to an instruction from the projection control unit 52, the liquid crystal projector 1 forms a predetermined lattice pattern on the liquid crystal panel 12, and the projection unit 11 applies the predetermined lattice pattern formed by the liquid crystal panel 12 to the reference plane 2a. Project. Since the projection is performed once at the height Z 1 , the process in the projection control unit 52 and the liquid crystal projector 1 is unnecessary if the projection is continued as it is. Then, the camera control unit 51 controls the camera 4 so as to capture the projection grid pattern. In response to an instruction from the camera control unit 51, the camera 4 performs imaging using the CCD 42. The captured image data obtained by the CCD 42 is temporarily stored in the memory in the camera 4 and then output to the image processing device 5. The image processing device 5 stores the captured image data in a storage device such as the calibration data storage unit 57, for example.

以上の処理を基準平面2の高さZを変更して繰り返す(ステップS1)。このとき最低限1回基準平面2の高さZを変更する必要があるが、好ましくは2回以上変更する。多ければそれだけ近似がより正確になるので多い方が好ましい。   The above process is repeated by changing the height Z of the reference plane 2 (step S1). At this time, the height Z of the reference plane 2 needs to be changed at least once, but is preferably changed twice or more. The larger the number, the more accurate the approximation.

ステップS1における撮影の概念図を図5(a)乃至(c)に示す。図5(a)は、図2に示したZ軸と視線を垂直に直交させた場合の模式図である。液晶プロジェクタ1に設けられ且つ所定の格子パターンが形成される液晶パネル12を介して光を照射することにより、基準平面2には投影格子パターンが投影される。図5(a)では、計測の下限となる高さは直線422で示され、計測の上限となる高さは直線421で示されている。直線421及び422に平行で高さが一定の直線が基準平面2を表す。ここではZ1からZ4までの4つの基準平面が示されている。また、投影格子パターンにおいて、例えば液晶パネル12において光が遮断されており位相角Φが一定の直線が直線411乃至416で表されている。すなわち、直線411乃至416のうちいずれかの直線上では位相角Φは一定であり、基準平面2のいずれにおいても黒のラインで表される。撮影範囲は、直線401及び402により囲まれた範囲であり、さらに計測の上限を表す直線421と計測の下限を表す直線422とによりさらに囲まれた範囲が計測範囲(計測ボリューム)となる。 A conceptual diagram of photographing in step S1 is shown in FIGS. FIG. 5A is a schematic diagram when the Z axis shown in FIG. 2 is perpendicular to the line of sight. The projection grid pattern is projected onto the reference plane 2 by irradiating light through the liquid crystal panel 12 provided in the liquid crystal projector 1 and having a predetermined grid pattern formed thereon. In FIG. 5A, the height that is the lower limit of measurement is indicated by a straight line 422, and the height that is the upper limit of measurement is indicated by a straight line 421. A straight line parallel to the straight lines 421 and 422 and having a constant height represents the reference plane 2. Here, four reference planes from Z 1 to Z 4 are shown. Further, in the projected grating pattern, for example, straight lines in which light is blocked in the liquid crystal panel 12 and the phase angle Φ is constant are represented by straight lines 411 to 416. That is, the phase angle Φ is constant on any one of the straight lines 411 to 416 and is represented by a black line on any of the reference planes 2. The imaging range is a range surrounded by straight lines 401 and 402, and a range further surrounded by a straight line 421 representing the upper limit of measurement and a straight line 422 representing the lower limit of measurement is a measurement range (measurement volume).

このような状況においてCCD42においてレンズ41を介して基準平面2に投影された投影格子パターンを撮像すると、例えば図5(b)及び図5(c)のようになる。なお、直線411乃至416で表される部分のみで光が遮断されており、またCCD42のx軸方向の受光素子(丸で表す)が20個、y軸方向の受光素子が10個と仮定する。また、図5(b)は基準平面2aでありZ=Z1の場合を、図5(c)は基準平面2bでありZ=Z2の場合をそれぞれ示しているものとする。図5(b)及び図5(c)においては、白丸が光を検出した受光素子を、黒丸が光を検出しなかった受光素子を示している。このように高さZが異なる場合には、異なる受光素子において、直線412、直線413、直線414及び直線415が表す影を検出している。すなわち、基準平面2の高さが異なる場合には、投影格子パターンにおける位相角Φが同一となる受光面上の座標は異なる。ここでは、4本の直線412乃至415に対応して4列の受光素子のみ光を検出せず、残り受光素子が全て同じように光を検出したような状態を示しているが、実際には格子の縞直交方向に順次変化する光強度が各受光素子において検出される。 In such a situation, when the projection grid pattern projected on the reference plane 2 via the lens 41 in the CCD 42 is imaged, for example, as shown in FIGS. 5B and 5C. It is assumed that light is blocked only by the portions represented by the straight lines 411 to 416, and that there are 20 light receiving elements (represented by circles) in the x-axis direction and 10 light receiving elements in the y-axis direction of the CCD 42. . Further, FIG. 5 (b) the case is of Z = Z 1 a reference plane 2a, FIG. 5 (c) shall be respectively show the case is of Z = Z 2 a reference plane 2b. In FIG. 5B and FIG. 5C, a white circle indicates a light receiving element that detects light, and a black circle indicates a light receiving element that does not detect light. When the heights Z are different, the shadows represented by the straight line 412, the straight line 413, the straight line 414, and the straight line 415 are detected by different light receiving elements. That is, when the height of the reference plane 2 is different, the coordinates on the light receiving surface where the phase angle Φ in the projection grating pattern is the same are different. Here, a state is shown in which only the four rows of light receiving elements corresponding to the four straight lines 412 to 415 do not detect light, and the remaining light receiving elements all detect light in the same manner. The light intensity that sequentially changes in the direction perpendicular to the stripes of the grating is detected in each light receiving element.

図4の処理フローの説明に戻って、メイン制御部500の指示に応じてキャリブレーション処理部53は、ステップS1で撮影された撮影画像のデータ及びCNCデータ設定部54により設定された高さZのデータとを用いて、高さZと受光面における受光座標(x,y)と光強度Iの組のデータを作成し、当該組のデータの集合を例えば校正データ格納部57に格納する(ステップS2)。より具体的には、特定の高さZにおける撮影画像の各画素の座標(x,y)と光強度Iと当該特定の高さZと対応付けて組を生成し、例えば校正データ格納部57に格納する。   Returning to the description of the processing flow in FIG. 4, in response to an instruction from the main control unit 500, the calibration processing unit 53 captures the captured image data captured in step S <b> 1 and the height Z set by the CNC data setting unit 54. Is used to create a set of data of the height Z, the light receiving coordinate (x, y) on the light receiving surface, and the light intensity I, and store the set of data in the calibration data storage unit 57 ( Step S2). More specifically, a set is generated in association with the coordinates (x, y) of each pixel of the captured image at a specific height Z, the light intensity I, and the specific height Z, for example, a calibration data storage unit 57. To store.

校正データ格納部57に格納されるデータ・テーブルの一例を図6に示す。図6の例では、例えばZ方向の受光素子番号(格子番号とも呼ぶ)を表すiの列501と、例えばx方向の格子番号を表すjの列502と、例えばy方向の格子番号を表すkの列503と、受光素子のx座標の列504と、受光素子のy座標の列505と、高さZ(Z座標とも呼ぶ)の列506と、光強度Iの列507と、位相角の列508とが設けられている。このように、受光面においてj列k行に配置された受光素子の受光面における座標(x,y)とその受光素子でi番目の高さZで撮影した場合の光強度Iが1レコードとして登録されるようになっている。この段階ではまだ位相角は登録されない。   An example of a data table stored in the calibration data storage unit 57 is shown in FIG. In the example of FIG. 6, for example, a column 501 of i that represents a light receiving element number (also referred to as a lattice number) in the Z direction, a column 502 of j that represents a lattice number in the x direction, and a k that represents a lattice number in the y direction, for example. Column 503, light receiving element x coordinate column 504, light receiving element y coordinate column 505, height Z (also called Z coordinate) column 506, light intensity I column 507, phase angle A column 508 is provided. Thus, the coordinates (x, y) on the light receiving surface of the light receiving elements arranged in j columns and k rows on the light receiving surface and the light intensity I when shooting at the i-th height Z with that light receiving element are one record. It is supposed to be registered. At this stage, the phase angle is not yet registered.

次に、キャリブレーション処理部53は、校正データ格納部57に格納されたデータのうち光強度Iを位相角Φに変換し、校正データ格納部57の例えば図6のデータ・テーブルに格納する(ステップS3)。格子パターン投影法において光強度Iから位相角Φを計算する方法は、背景技術の欄で述べた(1)式のほか様々な方法が既に考案されており、その技術を用いれば計算できるため、ここではこれ以上説明しない。   Next, the calibration processing unit 53 converts the light intensity I of the data stored in the calibration data storage unit 57 into the phase angle Φ, and stores it in, for example, the data table of FIG. Step S3). In the grating pattern projection method, the method of calculating the phase angle Φ from the light intensity I has already been devised in addition to the equation (1) described in the background art section, and can be calculated using this technique. No further explanation here.

そして、制御点生成部55は、受光座標(x,y)と高さZと位相角Φとの各組を入力点として、テンソル積型複合超曲面を表すための制御点を生成し、校正データ格納部57に格納する(ステップS4)。超曲面は、n次元空間において1個の拘束を与えて得られる図形を意味する。複合は、パッチが複数連結して存在することを表す。テンソル積は多重線形空間であることを表す。ステップS3で得られた受光座標(x,y)と高さZと位相角Φとの組の集合で表される空間は、4次元のテンソル積型複合超曲面で表現でき、この表現式には、ベジエ曲面、B-Spline曲面、有理B-Spline曲面、NURBS曲面などの次数を1つ増やしたものを使用する。このようなテンソル積型複合超曲面を用いることにより、計測範囲における高さと受光面の座標と位相角との関係をより正確に表すことができるようになる。なお、テンソル積型複合超曲面は計測点を含む計測ボリューム全体を補間するものであり、近似となってしまうが、連続性があるため、より多くのデータにて制御点を規定できれば、十分な精度を得ることができる。   Then, the control point generation unit 55 generates a control point for representing the tensor product type complex hypersurface using each set of the light receiving coordinate (x, y), the height Z, and the phase angle Φ as an input point, and calibration. The data is stored in the data storage unit 57 (step S4). A hypersurface means a figure obtained by giving one constraint in an n-dimensional space. The composite indicates that a plurality of patches are connected. The tensor product represents a multilinear space. The space represented by the set of the light receiving coordinates (x, y), the height Z, and the phase angle Φ obtained in step S3 can be represented by a four-dimensional tensor product type complex hypersurface. Uses a Bezier curved surface, a B-Spline curved surface, a rational B-Spline curved surface, a NURBS curved surface, or the like with an order increased by one. By using such a tensor product type complex hypersurface, the relationship between the height in the measurement range, the coordinates of the light receiving surface, and the phase angle can be expressed more accurately. Note that the tensor product type complex hypersurface interpolates the entire measurement volume including the measurement points, and it becomes an approximation, but because there is continuity, it is sufficient if the control points can be specified with more data Accuracy can be obtained.

ここで入力点は図7のような矩形格子型となる。すなわち、図5(b)又は図5(c)を何層にも重ねたような構造である。但し、位相的に矩形格子が成り立てばよく、立方体を組み合わせた矩形格子に限定されるものではない。各格子点Pはijkという3つのパラメータで特定され、また各格子点Pは、受光面における座標(x,y)と高さZと位相角Φとの組を表す。   Here, the input points are of a rectangular lattice type as shown in FIG. That is, it is a structure in which FIG. 5B or FIG. However, it is only necessary to form a rectangular lattice in terms of phase, and it is not limited to a rectangular lattice combining cubes. Each lattice point P is specified by three parameters ijk, and each lattice point P represents a set of coordinates (x, y), height Z, and phase angle Φ on the light receiving surface.

このように入力点群は図7に示したような矩形格子構造を有しておりi,j,kのいずれの方向においても掃引方向の連結性が保証されている。したがって、i,j、kを独立に掃引して制御点を求めればよい。すなわち、図8に示すように、第1の方向(例えばi)に入力点列を掃引して制御点を生成し、当該制御点のデータを例えば校正データ格納部57に格納する(ステップS11)。例えばj及びkを固定してi方向に入力点列を掃引して制御点を生成した後、j又はkを変更してi方向に入力点列を掃引して制御点を生成する。これを繰り返してi方向に伸びる入力点列について全て制御点を生成する。また、第2の方向(例えばj)に入力点列を掃引して制御点を生成し、当該制御点のデータを例えば校正データ格納部57に格納する(ステップS13)。ここでも、例えばi及びkを固定してj方向に入力点列を掃引して制御点を生成した後、i又はkを変更してj方向に入力点列を掃引して制御点を生成する。これを繰り返してj方向に伸びる入力点列について全て制御点を生成する。なお、既にステップS11で生成されている制御点については入力点として用いて制御点を生成する。そして、第3の方向(例えばk)に入力点列を掃引して制御点を生成し、当該制御点のデータを例えば校正データ格納部57に格納する(ステップS15)。例えばi及びjを固定してk方向に入力点列を掃引して制御点を生成した後、i又はjを変更してk方向に入力点列を掃引して制御点を生成する。これを繰り返してk方向に伸びる入力点列について全て制御点を生成する。ここでもステップS11及びS13において生成された制御点については入力点として用い、制御点を生成する。   In this way, the input point group has a rectangular lattice structure as shown in FIG. 7, and the connectivity in the sweep direction is guaranteed in any of i, j, and k directions. Therefore, the control points may be obtained by sweeping i, j, and k independently. That is, as shown in FIG. 8, the input point sequence is swept in the first direction (for example, i) to generate a control point, and the data of the control point is stored in, for example, the calibration data storage unit 57 (step S11). . For example, after j and k are fixed and the input point sequence is swept in the i direction to generate control points, j or k is changed and the input point sequence is swept in the i direction to generate control points. By repeating this, all the control points are generated for the input point sequence extending in the i direction. Further, the control point is generated by sweeping the input point sequence in the second direction (for example, j), and the data of the control point is stored in the calibration data storage unit 57 (step S13). Here, for example, after fixing the i and k and sweeping the input point sequence in the j direction to generate the control points, the control points are generated by changing the i or k and sweeping the input point sequence in the j direction. . By repeating this, all control points are generated for the input point sequence extending in the j direction. In addition, about the control point already produced | generated by step S11, a control point is produced | generated using it as an input point. Then, the control point is generated by sweeping the input point sequence in the third direction (for example, k), and the data of the control point is stored in the calibration data storage unit 57 (step S15). For example, after i and j are fixed and the input point sequence is swept in the k direction to generate a control point, i or j is changed and the input point sequence is swept in the k direction to generate a control point. By repeating this, all control points are generated for the input point sequence extending in the k direction. Again, the control points generated in steps S11 and S13 are used as input points to generate control points.

なお、校正データ格納部57において制御点は、例えば図9に示すようなデータ・テーブルにて格納されている。図9の例では、制御点番号の列800と、x座標の列801と、y座標の列802と、Z座標の列803と、位相角の列804とが設けられている。   In the calibration data storage 57, the control points are stored in a data table as shown in FIG. 9, for example. In the example of FIG. 9, a control point number column 800, an x coordinate column 801, a y coordinate column 802, a Z coordinate column 803, and a phase angle column 804 are provided.

では具体的に、入力点から制御点を生成する手法について簡単に説明する。比較的簡単な3次のベジエ曲線を用いる場合を示す。図10(a)は、入力点列の一例を示している。このようにP1、P2、P3、P4という入力点列が存在するとする。このような場合には、隣接する2入力点(例えばP1及びP2)を選択し、それぞれの接ベクトル(例えばm1及びm2)を求める。そうすると、中間の制御点(P11及びP12)は、以下のように求められる。なお、詳しくは非特許文献5を参照されたい。

Figure 0004766839
Specifically, a method for generating control points from input points will be briefly described. A case where a relatively simple cubic Bezier curve is used will be described. FIG. 10A shows an example of the input point sequence. Thus, it is assumed that there are input point sequences P 1 , P 2 , P 3 and P 4 . In such a case, two adjacent input points (for example, P 1 and P 2 ) are selected, and the respective tangent vectors (for example, m 1 and m 2 ) are obtained. Then, intermediate control points (P 11 and P 12 ) are obtained as follows. For details, see Non-Patent Document 5.
Figure 0004766839

これを繰り返せば図10(b)に示すような制御点列を得ることができる。なお、ベジエ曲線では入力点列P1、P2、P3、P4も制御点であり、区別するためP10、P20、P30、P40と表している。すなわち、P10とP20の間には、P11及びP12が生成され、P20とP30の間には、P21とP22が生成され、P30とP40の間には、P31とP32とが生成される。 By repeating this, a control point sequence as shown in FIG. 10B can be obtained. In the Bezier curve, the input point sequences P 1 , P 2 , P 3 , and P 4 are also control points and are represented as P 10 , P 20 , P 30 , and P 40 for distinction. That is, between the P 10 and P 20, is generated P 11 and P 12, between P 20 and P 30, it is generated P 21 and P 22, between P 30 and P 40, P 31 and P 32 are generated.

このように求められた制御点により、ベジエ超曲面は、1次元のセグメントや2次元のパッチに相当する3次元の超パッチごとに、以下の式で表される。

Figure 0004766839
但し、Bi n(t)=i(1−t)n-i
であって、Bernstein多項式である。Bernstein多項式についても非特許文献5を参照されたい。なお、Pijkは制御点である。(2)式は従来から知られているベジエ曲面(例えば非特許文献5記載)の以下の式に対して次元の拡張を行ったものである。
Figure 0004766839
Based on the control points thus obtained, the Bezier hypersurface is represented by the following expression for each three-dimensional hyperpatch corresponding to a one-dimensional segment or a two-dimensional patch.
Figure 0004766839
Where B i n (t) = n C i t i (1−t) ni
And it is a Bernstein polynomial. See also Non-Patent Document 5 for Bernstein polynomials. P ijk is a control point. Expression (2) is obtained by extending the dimension of the following expression of a conventionally known Bezier curved surface (for example, described in Non-Patent Document 5).
Figure 0004766839

また本実施の形態においてはベジエ曲線だけではなく、ユニフォームなB-Spline曲線を用いることも可能である。3次のB-Spline曲線の場合を図11を用いて説明する。ここでP1、...Pi、Pi+1...Pnは入力点列である。これに対して、B-Spline曲線の制御点は、Q0、Q1、...Qi-1、Qi、Qi+1、Qi+2、...Qn、Qn+1となる。入力点列Pと制御点列Qは、上付のサフィックスが同じもの同士対応しており、Q0とQn+1のみが余分に設けられるようになっている。すなわちベジエの場合よりも制御点の数は少なく、制御点データを保持する場合におけるメモリ容量が少なく済む。 In this embodiment, not only a Bezier curve but also a uniform B-Spline curve can be used. A case of a cubic B-Spline curve will be described with reference to FIG. Here, P 1 ,... P i , P i + 1 ... P n are input point sequences. On the other hand, the control points of the B-Spline curve are Q 0 , Q 1 ,... Q i−1 , Q i , Q i + 1 , Q i + 2 , ... Q n , Q n + 1 The input point sequence P and the control point sequence Q correspond to each other with the same superscript suffix, and only Q 0 and Q n + 1 are additionally provided. That is, the number of control points is smaller than in the case of Bezier, and the memory capacity for holding control point data is small.

図11のような制御点列を生成するためには、第1ステップとしてi=1乃至nについて、QiをPiと同じに設定する。なお、Q0についてはQ1と同じに設定する。また、Qn+1をQnと同じに設定する。第2ステップとしてi=1乃至nについて、

Figure 0004766839
を計算し、δi+Qiを、新たなQiに設定する。なお、Q0についてはQ1と同じに設定する。また、Qn+1をQnと同じに設定する。 In order to generate a control point sequence as shown in FIG. 11, Q i is set equal to P i for i = 1 to n as the first step. Q 0 is set to be the same as Q 1 . Q n + 1 is set to be the same as Q n . For i = 1 to n as the second step,
Figure 0004766839
And δ i + Q i is set to a new Q i . Q 0 is set to be the same as Q 1 . Q n + 1 is set to be the same as Q n .

第3ステップにおいては、max{δi}>δs(固定値)であるか判断し、この条件が満たされている場合には第2ステップに戻る。一方、この条件が満たされていない場合には、処理を終了する。このようにすれば、制御点列を算出することができる。なお、詳しい内容については、非特許文献6のP69乃至72を参照のこと。 In the third step, it is determined whether max {δ i }> δs (fixed value). If this condition is satisfied, the process returns to the second step. On the other hand, if this condition is not satisfied, the process is terminated. In this way, the control point sequence can be calculated. For details, see pages 69 to 72 of Non-Patent Document 6.

このように求められた制御点により、B-Spline超曲面は、1次元のセグメントや2次元のパッチに相当する3次元の超パッチごとに、以下の式で表される。

Figure 0004766839
なお、Qijkは制御点である。 Based on the control points thus obtained, the B-Spline hypersurface is expressed by the following equation for each three-dimensional hyperpatch corresponding to a one-dimensional segment or a two-dimensional patch.
Figure 0004766839
Q ijk is a control point.

このほかNURBSや有理B-Splineなどを用いることも可能であり、ベジエ及びB-Splineに限定されるものではない。   In addition, NURBS, rational B-Spline, and the like can be used, and are not limited to Bezier and B-Spline.

以上述べたような処理を実施することにより、制御点というテンソル積型複合超曲面を表すデータを得ることができ、以下で述べる測定時に高さZを得ることができるようになる。   By performing the processing as described above, it is possible to obtain data representing a tensor product type complex hypersurface called a control point, and to obtain the height Z at the time of measurement described below.

なお、上では撮影画像の位置が固定される形態の画素について格子点を構成する例を示したが、必ずしもこれに限定されるものではなく、例えば特定の位相角の画素についてのみ格子点を構成するようにしても良い。   In addition, although the example which comprises a grid point about the pixel of the form where the position of a picked-up image is fixed was shown above, it is not necessarily limited to this, For example, a grid point is comprised only about the pixel of a specific phase angle. You may make it do.

図4の説明に戻って、メイン制御部500の指示に応じてCNCデータ設定部54は、例えば予め設定されている高さZ(=Z1)の設定データを移動制御部6に出力し、移動制御部6はCNCデータ設定部54から受け取った高さZ(=Z1)の設定データに従って、基準平面2の高さを高さZ1になるように制御する。 Returning to the description of FIG. 4, the CNC data setting unit 54 outputs, for example, setting data of a preset height Z (= Z 1 ) to the movement control unit 6 in response to an instruction from the main control unit 500. The movement control unit 6 controls the height of the reference plane 2 to be the height Z 1 according to the setting data of the height Z (= Z 1 ) received from the CNC data setting unit 54.

なお、本ステップでは、基準平面2には、X座標値、Y座標値又はX及びY座標値が既知の実体格子パターンが描かれている(又は実体格子パターンが描かれた物を設置する)ものとする。例えば、図12(a)に示すように、Y軸に平行でX座標が既知の実体格子パターンと、図12(b)に示すように、X座標に平行でY座標が既知の実体格子パターンとを別途用意して、以下の処理を実施する。又は、図12(c)に示すように、X軸に平行でY座標が既知の実体格子パターンとY軸に平行でX座標が既知の実体格子パターンとの組み合わせである交差格子パターンを用いるようにしても良い。なお、メイン制御部500の指示に応じて投影制御部52は、格子パターンではなく単に照明として光を照射するように、液晶プロジェクタ1を制御する。投影制御部52の指示に応じて、液晶プロジェクタ1は、格子パターンを液晶パネル12にて形成することなく、投影部11により基準平面2aに対して光を照射する。   In this step, a solid grid pattern with a known X coordinate value, Y coordinate value, or X and Y coordinate values is drawn on the reference plane 2 (or an object on which the solid grid pattern is drawn is placed). Shall. For example, as shown in FIG. 12 (a), an actual lattice pattern that is parallel to the Y axis and has a known X coordinate, and as shown in FIG. 12 (b), an actual lattice pattern that is parallel to the X coordinate and has a known Y coordinate. Are prepared separately and the following processing is performed. Alternatively, as shown in FIG. 12C, an intersecting lattice pattern that is a combination of an actual lattice pattern that is parallel to the X axis and has a known Y coordinate and an actual lattice pattern that is parallel to the Y axis and has an known X coordinate is used. Anyway. In response to an instruction from the main control unit 500, the projection control unit 52 controls the liquid crystal projector 1 so that light is emitted as illumination instead of a lattice pattern. In response to an instruction from the projection control unit 52, the liquid crystal projector 1 irradiates the reference plane 2 a with light from the projection unit 11 without forming a lattice pattern on the liquid crystal panel 12.

そして、メイン制御部500の指示に応じてカメラ制御部51は実体格子パターンを撮影するようにカメラ4を制御する。カメラ制御部51の指示に応じてカメラ4はCCD42により撮影を行う。CCD42において得られた撮影画像のデータは、一旦カメラ4内のメモリに格納された後、画像処理装置5に出力される。画像処理装置5は、例えば校正データ格納部57などの記憶装置に撮影画像データを格納する。   Then, in response to an instruction from the main control unit 500, the camera control unit 51 controls the camera 4 so as to photograph the actual lattice pattern. In response to an instruction from the camera control unit 51, the camera 4 performs imaging using the CCD 42. The captured image data obtained by the CCD 42 is temporarily stored in the memory in the camera 4 and then output to the image processing device 5. The image processing device 5 stores the captured image data in a storage device such as the calibration data storage unit 57, for example.

次に、CNCデータ設定部54は、例えば予め設定されている別の高さZ(=Z2)の設定データを移動制御部6に出力し、移動制御部6はCNCデータ設定部54から受け取った高さZ(=Z2)の設定データに従って、基準平面2の高さを高さZ2になるように制御する。そして、カメラ制御部51は、実体格子パターンを撮影するようにカメラ4を制御する。カメラ制御部51の指示に応じてカメラ4はCCD42により撮影を行う。CCD42において得られた撮影画像のデータは、一旦カメラ4内のメモリに格納された後、画像処理装置5に出力される。画像処理装置5は、例えば校正データ格納部57などの記憶装置に撮影画像データを格納する。 Next, the CNC data setting unit 54 outputs, for example, setting data for another preset height Z (= Z 2 ) to the movement control unit 6, and the movement control unit 6 receives from the CNC data setting unit 54. According to the setting data of the height Z (= Z 2 ), the height of the reference plane 2 is controlled to become the height Z 2 . Then, the camera control unit 51 controls the camera 4 so as to photograph the actual lattice pattern. In response to an instruction from the camera control unit 51, the camera 4 performs imaging using the CCD 42. The captured image data obtained by the CCD 42 is temporarily stored in the memory in the camera 4 and then output to the image processing device 5. The image processing device 5 stores the captured image data in a storage device such as the calibration data storage unit 57, for example.

以上の処理を基準平面2の高さZを変更して繰り返す(ステップS5)。このとき最低限1回基準平面2の高さZを変更する必要があるが、好ましくは2回以上変更する。多ければそれだけ近似がより正確になるので多い方が好ましい。   The above process is repeated by changing the height Z of the reference plane 2 (step S5). At this time, the height Z of the reference plane 2 needs to be changed at least once, but is preferably changed twice or more. The larger the number, the more accurate the approximation.

次に、メイン制御部500の指示に応じてキャリブレーション処理部53は、例えば校正データ格納部57に格納された撮影画像データを読み出し、当該撮影画像中実体格子パターンの受光画素を抽出し、当該受光画素の受光座標(x,y)と高さZと当該実体格子の実座標値(X座標、Y座標又はX座標及びY座標)との組の集合のデータを、例えば校正データ格納部57に格納する(ステップS6)。例えば実体格子パターンを黒いラインにしておき、その他の面を白くしておけば、光強度Iの値により黒と判断される画素が抽出できる。また、ラインの端などにマーカを付すなどの方法にて、その黒いラインがどの実体座標の実体格子パターンに対応するかを特定できるようにしておけば、抽出された画素に対応する実座標を特定できる。   Next, in response to an instruction from the main control unit 500, the calibration processing unit 53 reads out the captured image data stored in, for example, the calibration data storage unit 57, extracts the light receiving pixels of the actual lattice pattern in the captured image, and Data of a set of the light receiving coordinates (x, y) and height Z of the light receiving pixels and the actual coordinate values (X coordinate, Y coordinate, or X coordinate and Y coordinate) of the actual grid, for example, calibration data storage unit 57 (Step S6). For example, if the solid lattice pattern is a black line and the other surfaces are white, pixels that are determined to be black based on the value of the light intensity I can be extracted. In addition, if it is possible to specify the entity grid pattern of which entity coordinate the black line corresponds to by using a method such as attaching a marker to the end of the line, the actual coordinate corresponding to the extracted pixel is changed. Can be identified.

図13に校正データ格納部57に格納されるデータ・テーブルの一例を示す。図13の例では、例えばZ方向の受光素子番号(格子番号とも呼ぶ)を表すiの列1501と、例えばx方向の格子番号を表すjの列1502と、例えばy方向の格子番号を表すkの列1503と、受光素子のx座標の列1504と、受光素子のy座標の列1505と、実空間のX座標の列1506と、実空間のY座標の列1507と、高さZの列1508と、光強度Iの列1509とが設けられている。このように、受光面においてx方向にj番目にy方向にk番目に抽出された受光素子の受光面における座標(x,y)とその時の高さZ及び光強度I、並びに特定された実座標(X座標、Y座標又はX座標及びY座標)が1レコードとして登録されるようになっている。なお、実座標は、X座標だけが登録される場合も、Y座標だけが登録される場合もあり、ここではX座標だけが特定された例を示している。   FIG. 13 shows an example of a data table stored in the calibration data storage unit 57. In the example of FIG. 13, for example, an i column 1501 that represents a light receiving element number (also referred to as a lattice number) in the Z direction, a j column 1502 that represents the lattice number in the x direction, and a k that represents the lattice number in the y direction, for example. Column 1503, x-coordinate column 1504 of the light-receiving element, y-coordinate column 1505 of the light-receiving element, X-coordinate column 1506 in real space, Y-coordinate column 1507 in real space, and height Z column 1508 and a column 1509 of light intensity I are provided. As described above, the coordinates (x, y) on the light receiving surface of the light receiving element extracted j-th in the x-direction and k-th in the y-direction on the light-receiving surface, the height Z and the light intensity I at that time, and the specified actual Coordinates (X coordinate, Y coordinate or X coordinate and Y coordinate) are registered as one record. The actual coordinate may be registered only in the X coordinate or only in the Y coordinate. In this example, only the X coordinate is specified.

このようにすると、受光座標(x,y)と高さZと実座標Xの組の第1の集合と、受光座標(x,y)と高さZと実座標Yの組の第2の集合とが得られるようになる。したがって、制御点生成部55は、この第1の集合又は第2の集合に含まれる各組を入力点として、ステップS4に関連して説明した処理を実施して制御点を生成し、当該制御点のデータを例えば校正データ格納部57に格納する(ステップS7)。   In this way, the first set of the set of the light receiving coordinate (x, y), the height Z and the real coordinate X, and the second set of the set of the received light coordinate (x, y), the height Z and the real coordinate Y are arranged. A set is obtained. Therefore, the control point generation unit 55 generates the control point by performing the processing described in relation to step S4 using each set included in the first set or the second set as an input point. The point data is stored, for example, in the calibration data storage unit 57 (step S7).

例えば図14(a)及び図14(b)に示すような制御点用のデータ・テーブルが校正データ格納部57に格納される。図14(a)の例では、制御点番号の列1601と、x座標の列1602と、y座標の列1603と、Z座標の列1604と、X座標の列1605とが設けられている。また、図14(b)の例では、制御点番号の列1611と、x座標の列1612と、y座標の列1613と、Z座標の列1614と、Y座標の列1615とが設けられている。このように、X座標を求めるための制御点群と、Y座標を求めるための制御点群とは分けて保管される。   For example, a data table for control points as shown in FIGS. 14 (a) and 14 (b) is stored in the calibration data storage unit 57. In the example of FIG. 14A, a control point number column 1601, an x coordinate column 1602, a y coordinate column 1603, a Z coordinate column 1604, and an X coordinate column 1605 are provided. In the example of FIG. 14B, a control point number column 1611, an x coordinate column 1612, a y coordinate column 1613, a Z coordinate column 1614, and a Y coordinate column 1615 are provided. Yes. Thus, the control point group for obtaining the X coordinate and the control point group for obtaining the Y coordinate are stored separately.

以上のようにテンソル積型複合超曲面を表すデータがX座標、Y座標及びZ座標について求められているので、以下で説明する計測処理を実施すれば、被計測物体における点の座標を取得することができるようになる。   As described above, since the data representing the tensor product type complex hypersurface is obtained for the X coordinate, the Y coordinate, and the Z coordinate, if the measurement process described below is performed, the coordinates of the point in the measured object are acquired. Will be able to.

なお、ステップS1とS5については同じ高さZの基準平面について撮影を行うようにして実体格子パターンの有無を切り替えることにより、同じ高さZへの基準平面の移動を1度にしてもよい。   Note that in steps S1 and S5, the reference plane may be moved to the same height Z once by switching the presence / absence of the actual lattice pattern by photographing the reference plane having the same height Z.

いずれにしても基準平面の高さZは2以上であるが、精度を高めるためにはより多くの高さにおいて上記の処理を実施すべきであり、そうすると校正処理を実施するには長時間かかることが分かる。   In any case, the height Z of the reference plane is 2 or more, but in order to increase the accuracy, the above processing should be performed at a higher height, and it takes a long time to perform the calibration processing. I understand that.

図3の説明に戻って、次に、メイン制御部500の指示により合成処理部59は、測定データの合成処理を実施するために必要な合成用パラメータを生成する処理を実施する(ステップS104)。図15を用いて本ステップが必要な理由を概説する。図15では右側から左側に液晶プロジェクタ1からの光が照射されるものとする。このとき、例えば球である被計測物体160aを、液晶プロジェクタ1と同じ方向からカメラ4によって撮影すると、被計測物体160aのA側は撮影できるため、撮影結果により測定データを得ることができる。しかし、被計測物体160aのB側は陰になって撮影できないため、計測も行えない。従って、移動制御部6により被計測物体160aが設置されている回転傾斜台を回転(又は傾斜/並進)させることにより、被計測物体160aを移動させて、被計測物体160aの全体を複数回に分けてカメラ4により撮影して、被計測物体160aの外形全体を計測する。図15の例では、被計測物体160aを、回転傾斜台を回転させて被計測物体160bの位置に移動させる。そうすると、被計測物体160aのB側に液晶プロジェクタ1からの光が照射されて、カメラ4によって撮影できるようになる。すなわち、カメラ4により被計測物体160bのB側が撮影されて、撮影結果により測定データを得ることができる。   Returning to the description of FIG. 3, next, the synthesis processing unit 59 performs a process of generating synthesis parameters necessary for performing the measurement data synthesis process in accordance with an instruction from the main control unit 500 (step S <b> 104). . The reason why this step is necessary will be outlined with reference to FIG. In FIG. 15, it is assumed that light from the liquid crystal projector 1 is irradiated from the right side to the left side. At this time, for example, when the object to be measured 160a, which is a sphere, is photographed by the camera 4 from the same direction as the liquid crystal projector 1, the A side of the object to be measured 160a can be photographed, so that measurement data can be obtained from the photographing result. However, measurement cannot be performed because the B side of the object 160a to be measured is shaded and cannot be photographed. Accordingly, the object to be measured 160a is moved by rotating (or inclining / translating) the rotating tilt base on which the object to be measured 160a is installed by the movement control unit 6, and the entire object to be measured 160a is moved multiple times. The entire image of the object to be measured 160a is measured by separately shooting with the camera 4. In the example of FIG. 15, the object to be measured 160a is moved to the position of the object to be measured 160b by rotating the rotary tilt table. Then, the light from the liquid crystal projector 1 is irradiated on the B side of the measured object 160a so that the camera 4 can take a picture. In other words, the B side of the measurement object 160b is photographed by the camera 4, and measurement data can be obtained from the photographing result.

但し、撮影して測定データを生成しただけでは、被計測物体160aのA側と、被計測物体160bのB側が独立して計測されただけなので、これを合成しなければ被計測物体全体の計測結果を得ることができない。図15のような場合には被計測物体160a又は被計測物体160bのいずれかの計測結果を回転角に従って回転させれば合成できる。但し、3軸のNCフライス盤(マシンニングセンタ)を使用する場合には、回転軸が不明であるために回転角が明らかになっていても計測結果を回転させて合成させることができない。傾斜させるときも同様である。   However, if the measurement data is generated only by photographing, the A side of the measured object 160a and the B side of the measured object 160b are only measured independently. Therefore, if this is not combined, the entire measured object is measured. I can't get results. In the case shown in FIG. 15, the measurement can be performed by rotating the measurement result of either the object to be measured 160a or the object to be measured 160b according to the rotation angle. However, when a 3-axis NC milling machine (machining center) is used, the measurement result cannot be rotated and combined even if the rotation angle is clear because the rotation axis is unknown. The same applies when tilting.

従って、本実施の形態では、例えば球を回転傾斜台に配置して、回転軸の回りで回転させ、3ヶ所以上の位置で球の外形を以下で説明する方法で計測する。次に、合成処理部59は、球の外形の計測結果を用いて球の中心座標を算出する。球の外形の計測結果から球の中心座標を算出する方法には多数あり、例えば非特許文献8にもその一例が示されている。基本的には、球面上の多数の計測点に至る距離の2乗和が最小になるような点を求めるようなアルゴリズムが用いられる。そして、3以上の球の中心から再び距離の2乗和を最小にする点として軸通過点を算出する。さらに、3以上の球の中心が形成する平面の法線方向を軸方向とすることにより、回転軸(ベクトル)を算出する。この回転軸と実際の回転角を得ることができれば、例えば周知の非特許文献7に記載の方法を用いて、当該回転軸回りで回転させる場合の回転行列及びその逆行列を導出することができる。従って、ここでいう合成用パラメータは、回転軸(点及び方向ベクトル)であり、合成用データ格納部61に格納される。傾斜軸についても同様にして算出し、合成用データ格納部61に格納する。並進移動のための変換行列に必要なデータについては、ここで予め計算しておく必要は無い。なお、複数の軸通過点を求め、内挿又は距離の2乗和を用いて軸を算出することも可能である。   Therefore, in the present embodiment, for example, a sphere is arranged on a rotary tilting table and rotated around the rotation axis, and the outer shape of the sphere is measured by the method described below at three or more positions. Next, the composition processing unit 59 calculates the center coordinates of the sphere using the measurement result of the outer shape of the sphere. There are many methods for calculating the center coordinates of the sphere from the measurement result of the outer shape of the sphere. For example, Non-Patent Document 8 also shows an example. Basically, an algorithm that finds a point that minimizes the sum of squares of distances to a large number of measurement points on the spherical surface is used. Then, an axis passing point is calculated as a point that minimizes the sum of squares of the distance from the centers of three or more spheres. Further, the rotation axis (vector) is calculated by setting the normal direction of the plane formed by the centers of three or more spheres as the axial direction. If this rotation axis and the actual rotation angle can be obtained, for example, a rotation matrix and its inverse matrix in the case of rotating around the rotation axis can be derived using the method described in well-known Non-Patent Document 7. . Therefore, the synthesis parameter here is a rotation axis (point and direction vector) and is stored in the synthesis data storage unit 61. The tilt axis is calculated in the same manner and stored in the synthesis data storage unit 61. It is not necessary to calculate in advance the data necessary for the transformation matrix for translation. It is also possible to obtain a plurality of axis passing points and calculate the axes using interpolation or the sum of squared distances.

なお、説明を単純化するため被計測物体160aをAとBの2面に分けているが、実際にはカメラ4の視野角からして2回では被計測物体全体をカバーすることができない場合が多い。また、5軸のNCフライス盤については軸のデータを自動的に得ることができるようになっているため、本ステップについてはスキップすることができる。   In addition, in order to simplify the explanation, the object to be measured 160a is divided into two surfaces A and B. However, in reality, the entire object to be measured cannot be covered twice with respect to the viewing angle of the camera 4. There are many. Further, since the axis data can be automatically obtained for the 5-axis NC milling machine, this step can be skipped.

次に、被計測物体の計測を実施する(ステップS106)。但し、この段階で計測を実施せずともよいので、図3では点線ブロックで表している。計測処理についてはステップS118で詳細に述べるのでここでは説明を省略する。   Next, the measurement object is measured (step S106). However, since it is not necessary to carry out the measurement at this stage, it is represented by a dotted line block in FIG. Since the measurement process will be described in detail in step S118, the description is omitted here.

そして、加工処理を実施する前に計測部をCNC装置から取り外す(ステップS108)。但し、場合によっては計測部をはずさなくともよい場合もあるので点線ブロックで表している。その後、加工処理を実施する(ステップS110)。なお、加工処理は実施せずとも良いので、点線ブロックで示している。ステップS108及びS110は特に従来と変わる事は無いので説明を省略する。   Then, the measuring unit is removed from the CNC device before performing the processing (step S108). However, in some cases, the measurement unit may not be removed, and therefore, it is represented by a dotted line block. Thereafter, processing is performed (step S110). In addition, since it is not necessary to implement a process, it has shown with the dotted line block. Steps S108 and S110 are not particularly different from those in the prior art, and will not be described.

そして、メイン制御部500は、被計測物体の計測の前に、状態変化が生じたか判断する(ステップS112)。一旦取り外された計測部が再度装着されたことを検出したか(カメラ4及び液晶プロジェクタ1が接続されることにより信号を検出した場合又はユーザによる再装着指示入力を受け付けた場合)、又は温度センサ7からの信号から温度変化が所定の閾値を超えたと判断された場合、例えば前回計測終了時にカウントを開始したタイマにおいて所定の閾値を超えたと判断された場合、或いは操作者が必要に応じて状態が変化したことを入力した場合には、状態変化が生じたと判断する。   Then, the main control unit 500 determines whether or not a state change has occurred before measuring the object to be measured (step S112). Whether the measurement unit once removed is detected to be mounted again (when a signal is detected by connecting the camera 4 and the liquid crystal projector 1 or when a remounting instruction input by the user is received), or a temperature sensor When it is determined from the signal from 7 that the temperature change has exceeded a predetermined threshold value, for example, when it is determined that the predetermined threshold value has been exceeded in the timer that started counting at the end of the previous measurement, or the operator changes the state as necessary If it is input that the state has changed, it is determined that a state change has occurred.

もし、状態変化が生じたと判断された場合には、メイン制御部500の指示により補正処理部60は、補正データの取得処理を実施する(ステップS114)。本ステップの概要を図16(a)及び(b)を用いて説明する。図16(a)は、校正直後の状態を示している。ここでは球の中心座標P(X1,Y1,Z1)は、カメラ4のCCD42(受光面)では座標p(x1,y1)に対応付けられる。また、球の中心座標Q(X2,Y2,Z2)は、カメラ4のCCD42では座標q(x2,y2)に対応付けられる。さらに、球の中心座標R(X3,Y3,Z3)は、カメラ4のCCD42では座標r(x3,y3)に対応付けられる。校正直後の状態であればこのような対応関係が成り立ち、正確な計測が実施される。   If it is determined that a state change has occurred, the correction processing unit 60 performs correction data acquisition processing according to an instruction from the main control unit 500 (step S114). The outline of this step will be described with reference to FIGS. FIG. 16A shows a state immediately after calibration. Here, the center coordinates P (X1, Y1, Z1) of the sphere are associated with the coordinates p (x1, y1) on the CCD 42 (light receiving surface) of the camera 4. In addition, the center coordinate Q (X2, Y2, Z2) of the sphere is associated with the coordinate q (x2, y2) in the CCD 42 of the camera 4. Further, the center coordinate R (X3, Y3, Z3) of the sphere is associated with the coordinate r (x3, y3) in the CCD 42 of the camera 4. Such a correspondence is established in the state immediately after calibration, and accurate measurement is performed.

その後計測部を取り外し、さらに再装着すると、図16(b)に示すように、例えばカメラ4が傾いて装着されてカメラ4'となってしまったとする。そうすると、CCD42(受光面)も傾いてCCD42'となってしまう。従って図16(a)に示したのと同じ位置に球を配置したとしても、違う位置であると測定されてしまう。すなわち、球の中心座標P(X1,Y1,Z1)は、CCD42'上の座標はp(x1,y1)ではなくp'(x1',y1')となってしまうので、球の中心座標はP'(X1',Y1',Z1')と計測されてしまう。なお同じように、球の中心座標Q(X2,Y2,Z2)は、CCD42'上の座標はq(x2,y2)ではなくq'(x2',y2')となってしまうので、球の中心座標はQ'(X2',Y2',Z2')と計測されてしまう。球の中心座標R(X3,Y3,Z3)も、CCD42'上の座標はr(x3,y3)ではなくr'(x3',y3')となってしまうので、球の中心座標はR'(X3',Y3',Z3')と計測されてしまう。   After that, when the measurement unit is removed and remounted, as shown in FIG. 16B, for example, the camera 4 is tilted and mounted to become the camera 4 ′. As a result, the CCD 42 (light receiving surface) also tilts to become the CCD 42 '. Therefore, even if a sphere is arranged at the same position as shown in FIG. 16A, it is measured as a different position. In other words, the center coordinate P (X1, Y1, Z1) of the sphere is not p (x1, y1) but p ′ (x1 ′, y1 ′) on the CCD 42 ′. P ′ (X1 ′, Y1 ′, Z1 ′) is measured. Similarly, since the coordinates of the center of the sphere Q (X2, Y2, Z2) on the CCD 42 'are not q (x2, y2) but q' (x2 ', y2'), The center coordinate is measured as Q ′ (X2 ′, Y2 ′, Z2 ′). Since the coordinates on the center of the sphere R (X3, Y3, Z3) are not r (x3, y3) but r ′ (x3 ′, y3 ′) on the CCD 42 ′, the center coordinates of the sphere are R ′. (X3 ′, Y3 ′, Z3 ′) is measured.

本ステップでは、このような不都合を解消するため、まず、状態変化検出後の状態において、CNC装置の座標系における球の中心座標を算出する。このCNC装置の座標系における球の中心座標は、例えばダイヤルゲージにより球面上の多数の点を計測して、当該計測結果を補正処理部60に入力し、補正処理部60が入力された計測結果に基づき球の中心座標を算出する。算出方法は先に述べたように球面上の多数の計測点に至る距離の2乗和が最小になるような点を求めるものである。また、同じ状態で以下で述べる本実施の形態における計測処理を実施する。球の中心の算出については補正処理部60が同様に実施する。これにより計測座標系における球の中心が算出される。   In this step, in order to eliminate such inconvenience, first, the center coordinates of the sphere in the coordinate system of the CNC device are calculated in the state after the state change is detected. The center coordinates of the sphere in the coordinate system of the CNC device are obtained by measuring a large number of points on the spherical surface with, for example, a dial gauge, inputting the measurement result to the correction processing unit 60, and the measurement result input by the correction processing unit 60. The center coordinates of the sphere are calculated based on As described above, the calculation method is to obtain a point that minimizes the sum of squares of distances to a large number of measurement points on the spherical surface. Moreover, the measurement process in this Embodiment described below is implemented in the same state. The correction processing unit 60 similarly performs calculation of the center of the sphere. Thereby, the center of the sphere in the measurement coordinate system is calculated.

次に、メイン制御部500の指示に応じてCNCデータ設定部54は、球を所定量例えば並進移動させるように移動制御部6に指示を出し、移動制御部6は球を指示に従って移動させる。ここで、補正処理部60は、移動量に基づきCNC装置の座標系における球の中心座標を算出する。また、同じ状態で以下で述べる本実施の形態における計測処理を実施する。補正処理部60は、計測座標系における球の中心座標を算出する。これを繰り返して、少なくとも3ヶ所における球の中心座標を算出する。   Next, in response to an instruction from the main control unit 500, the CNC data setting unit 54 instructs the movement control unit 6 to move the ball by a predetermined amount, for example, translation, and the movement control unit 6 moves the ball according to the instruction. Here, the correction processing unit 60 calculates the center coordinates of the sphere in the coordinate system of the CNC device based on the movement amount. Moreover, the measurement process in this Embodiment described below is implemented in the same state. The correction processing unit 60 calculates the center coordinates of the sphere in the measurement coordinate system. This is repeated to calculate the center coordinates of the sphere at least at three locations.

そうすると、補正処理部60は、本実施の形態における計測処理による計測結果に基づくP'(X1',Y1',Z1')をCNC装置の座標系における計測結果に基づくP(X1,Y1,Z1)、本実施の形態における計測処理による計測結果に基づくQ'(X2',Y2',Z2')をCNC装置の座標系における計測結果に基づくQ(X2,Y2,Z2)に、本実施の形態における計測処理による計測結果に基づくR'(X3',Y3',Z3')をCNC装置の座標系における計測結果に基づくR(X3,Y3,Z3)に変換するような変換行列を算出する。この変換行列を算出する具体的な方法は周知の非特許文献7に開示されている。算出された変換行列は、補正用データ格納部62に格納される。なお、球を用いずとも他の既知の点があればその点について処理を行っても良い。また、相対位置の移動を行えばよいので、球を移動させずに計測部を移動させるようにしても良い。   Then, the correction processing unit 60 converts P ′ (X1 ′, Y1 ′, Z1 ′) based on the measurement result by the measurement processing in the present embodiment to P (X1, Y1, Z1) based on the measurement result in the coordinate system of the CNC device. ), Q ′ (X2 ′, Y2 ′, Z2 ′) based on the measurement result by the measurement processing in this embodiment is changed to Q (X2, Y2, Z2) based on the measurement result in the coordinate system of the CNC device. A conversion matrix is calculated that converts R ′ (X3 ′, Y3 ′, Z3 ′) based on the measurement result of the measurement processing in the form into R (X3, Y3, Z3) based on the measurement result in the coordinate system of the CNC device. . A specific method for calculating this transformation matrix is disclosed in well-known Non-Patent Document 7. The calculated transformation matrix is stored in the correction data storage unit 62. If there is another known point without using a sphere, the process may be performed on that point. Further, since the relative position may be moved, the measuring unit may be moved without moving the sphere.

ステップS112において状態変化なしと判断された場合又はステップS114の後に、メイン制御部500の指示に応じてCNCデータ設定部54は、移動制御部6に対して被計測物体の全体がカメラ4により撮影できるように被計測物体の相対移動を実施する(ステップS116)。なお、手動割り出し装置を用いて計測部と被計測物体の相対運動を実施させるようにしてもよい。また、移動のデータ(回転角、傾斜角、並進ベクトル)については合成用データ格納部61に格納される。   When it is determined that there is no state change in step S112 or after step S114, the CNC data setting unit 54 captures the entire object to be measured by the camera 4 with respect to the movement control unit 6 in accordance with an instruction from the main control unit 500. The relative movement of the object to be measured is performed so as to be possible (step S116). In addition, you may make it implement relative motion of a measurement part and a to-be-measured object using a manual indexing apparatus. Further, movement data (rotation angle, inclination angle, translation vector) is stored in the composition data storage unit 61.

そして、本実施の形態における被計測物体の計測処理を実施する(ステップS118)。この処理については図17を用いて説明する。ユーザはまず計測ボリューム内に被計測物体を設置する。そして画像処理装置5のメイン制御部500に計測の指示を行う。そうすると、メイン制御部500は投影制御部52に指示を行い、投影制御部52は所定の格子パターンを計測ボリューム内に設置された被測定物体に対して投影するように、液晶プロジェクタ1を制御する。投影制御部52の指示に応じて、液晶プロジェクタ1は、所定の格子パターンを液晶パネル12にて形成し、投影部11により基準平面2上の被測定物体に対して液晶パネル12により形成された所定の格子パターンを投影する。また、カメラ制御部51は、当該投影格子パターンを撮影するようにカメラ4を制御する。カメラ制御部51の指示に応じてカメラ4はCCD42により撮影を行う。CCD42において得られた撮影画像のデータは、一旦カメラ4内のメモリに格納された後、画像処理装置5のメイン制御部500に出力される。画像処理装置5は、例えば測定データ格納部58などの記憶装置に撮影画像データを格納する(図17:ステップS41)。   And the measurement process of the to-be-measured object in this Embodiment is implemented (step S118). This process will be described with reference to FIG. The user first installs an object to be measured in the measurement volume. Then, a measurement instruction is issued to the main control unit 500 of the image processing apparatus 5. Then, the main control unit 500 instructs the projection control unit 52, and the projection control unit 52 controls the liquid crystal projector 1 so as to project a predetermined lattice pattern onto the object to be measured installed in the measurement volume. . In response to an instruction from the projection control unit 52, the liquid crystal projector 1 forms a predetermined lattice pattern on the liquid crystal panel 12, and the projection unit 11 forms the object to be measured on the reference plane 2 with the liquid crystal panel 12. A predetermined lattice pattern is projected. In addition, the camera control unit 51 controls the camera 4 so as to capture the projection grid pattern. In response to an instruction from the camera control unit 51, the camera 4 performs imaging using the CCD 42. The captured image data obtained by the CCD 42 is temporarily stored in the memory in the camera 4 and then output to the main control unit 500 of the image processing device 5. The image processing device 5 stores the captured image data in a storage device such as the measurement data storage unit 58 (FIG. 17: step S41).

次に、メイン制御部500の指示に応じて実座標算出部56は、例えば測定データ格納部58に格納された撮影画像データに基づき、受光座標(x,y)と光強度Iの組を特定し、例えば測定データ格納部58に格納する(ステップS43)。図18に測定データ格納部58に格納されるデータ・テーブルの一例を示す。図18の例では、画素(受光素子)番号の列1801と、受光面のx座標の列1802と、y座標の列1803の列と、光強度Iの列1804と、位相角の列1805と、Z座標の列1806と、X座標の列1807と、Y座標の列1808とが含まれる。この段階では、x座標とy座標と光強度Iのデータのみが登録される。   Next, in response to an instruction from the main control unit 500, the actual coordinate calculation unit 56 specifies a set of received light coordinates (x, y) and light intensity I based on, for example, photographed image data stored in the measurement data storage unit 58. For example, it is stored in the measurement data storage 58 (step S43). FIG. 18 shows an example of a data table stored in the measurement data storage unit 58. In the example of FIG. 18, a column 1801 of pixel (light receiving element) number, a column 1802 of the light receiving surface, a column of y coordinate 1803, a column of light intensity I 1804, a column of phase angle 1805, , Z coordinate column 1806, X coordinate column 1807, and Y coordinate column 1808. At this stage, only the x-coordinate, y-coordinate and light intensity I data are registered.

そして、実座標算出部56は、測定データ格納部58に格納されたデータ・テーブル(図18)を参照するなどして、光強度Iを位相角Φに変換し、測定データ格納部58のデータ・テーブル(図18)に格納する(ステップS45)。この処理は、図4に示したステップS3と同じであり、既存の技術にて算出する。その後、実座標算出部56は、受光座標(x,y)と位相角Φとの各組について多次元ニュートン法(例えばヤコビ反転算法)で高さZを算出し、例えば測定データ格納部58に格納されたデータ・テーブル(図18)に格納する(ステップS47)。   Then, the actual coordinate calculation unit 56 converts the light intensity I into the phase angle Φ by referring to the data table (FIG. 18) stored in the measurement data storage unit 58 and the data in the measurement data storage unit 58. Store in the table (FIG. 18) (step S45). This process is the same as step S3 shown in FIG. 4, and is calculated using existing technology. Thereafter, the real coordinate calculation unit 56 calculates the height Z for each set of the received light coordinates (x, y) and the phase angle Φ by a multidimensional Newton method (for example, Jacobian inversion method). The data is stored in the stored data table (FIG. 18) (step S47).

2次元のヤコビ反転算法については、Byoung K. Choi et al., Sculptured Surface Machining, Kluwer Academic Publishers, (1998)に述べられており、ここでは3次元に単純に拡張したものを適用する。以下、簡単に説明するが、ここで行う計算というのは、テンソル積型複合超曲面Pのパラメタ表現P(u,v,w)=(x(u,v,w),y(u,v,w),Z(u,v,w),Φ(u,v,w))において、データ・テーブル(図18)に格納されているx*、y*及びΦ*に対応するZを求める問題である。 The two-dimensional Jacobian inversion algorithm is described in Byoung K. Choi et al., Sculptured Surface Machining, Kluwer Academic Publishers, (1998). Here, a simple extension to three dimensions is applied. In the following, a simple explanation will be given. The calculation performed here is the parameter expression P (u, v, w) = (x (u, v, w), y (u, v) of the tensor product type complex hypersurface P. , w), Z (u, v, w), Φ (u, v, w)), Z corresponding to x * , y * and Φ * stored in the data table (FIG. 18) is obtained. It is a problem.

第1ステップとして、初期推定点u0,v0及びw0を与える。そして、第2ステップとして、以下の3つの式の連立方程式にてδu,δv及びδwを解く。

Figure 0004766839
なお、xu(u0,v0,w0)は、u=u0,v=v0,w=w0にて評価した偏導関数である。yu(u0,v0,w0)及びΦu(u0,v0,w0)についても同様である。 As a first step, initial estimated points u 0 , v 0 and w 0 are given. Then, as a second step, δu, δv and δw are solved by the following three simultaneous equations.
Figure 0004766839
X u (u 0 , v 0 , w 0 ) is a partial derivative evaluated with u = u 0 , v = v 0 , and w = w 0 . The same applies to yu (u 0 , v 0 , w 0 ) and Φ u (u 0 , v 0 , w 0 ).

第3ステップとして、このようにして得られたδu,δv,δwによりu0,v0及びw0を以下のように更新する。
0=u0+δu
0=u0+δv
0=w0+δw
As a third step, u 0 , v 0 and w 0 are updated as follows using δu, δv and δw obtained in this way.
u 0 = u 0 + δu
v 0 = u 0 + δv
w 0 = w 0 + δw

そして、第4ステップとして、
(x*−x(u0,v0,w0))2+(y*−y(u0,v0,w0))2+(Φ*−Φ(u0,v0,w0))2を評価し、これが十分小さいか判断する。この他評価値として絶対値の和を用いてもよい。もし、十分小さいとするならば、第3ステップで得られたu=u0,v=v0,w=w0が解となる。一方、十分小さいとはいえない場合には、第2ステップに戻る。
And as the fourth step,
(X * −x (u 0 , v 0 , w 0 )) 2 + (y * −y (u 0 , v 0 , w 0 )) 2 + (Φ * −Φ (u 0 , v 0 , w 0) )) Evaluate 2 and determine if this is small enough. In addition, the sum of absolute values may be used as the evaluation value. If it is sufficiently small, u = u 0 , v = v 0 , w = w 0 obtained in the third step is the solution. On the other hand, if it is not sufficiently small, the process returns to the second step.

最後に、解として得られたu=u0,v=v0,w=w0を用いて、例えば(2)式や(3)式に入力することにより、高さZを得ることができる。 Finally, using the values u = u 0 , v = v 0 , and w = w 0 obtained as solutions, for example, the height Z can be obtained by inputting into the equations (2) and (3). .

以上のような処理を実施すれば、高さZを求めることができる。また、波としての格子パターンの精度に対する影響を軽減することができる。また、校正パラメータの精度の影響を軽減することができるようになる。さらに、Z座標については、計測部とCNC装置の座標系を揃えることができるようになる。また、高さZ一定平面では校正時と同じ条件で測定されるので偶発誤差を除けば水平性も保証できる。   If the above processing is performed, the height Z can be obtained. Further, the influence on the accuracy of the lattice pattern as a wave can be reduced. Further, the influence of the accuracy of the calibration parameter can be reduced. Further, with respect to the Z coordinate, the coordinate system of the measuring unit and the CNC device can be made uniform. In addition, since the measurement is performed under the same condition as that at the time of calibration on a plane having a constant height Z, horizontality can be guaranteed except for the accidental error.

次に、受光座標(x,y)と高さZとの各組について多次元ニュートン法(例えばヤコビ反転算法)で実体座標Xを算出し、例えば測定データ格納部58に格納されたデータ・テーブル(図18)に格納する(ステップS49)。ステップS47に関連した説明ではΦとなっていた部分をZに置き換え、図14(a)に示した制御点のデータを用いて同様の処理を行えばよい。そうすれば、受光座標(x,y)と高さZの組毎に実体空間のX座標を得ることができる。   Next, the actual coordinate X is calculated by the multidimensional Newton method (for example, Jacobian inversion method) for each set of the received light coordinates (x, y) and the height Z, and the data table stored in the measurement data storage unit 58, for example. (FIG. 18) (step S49). In the description related to step S47, the portion that is Φ may be replaced with Z, and the same processing may be performed using the data of the control points shown in FIG. Then, the X coordinate of the real space can be obtained for each set of the light receiving coordinate (x, y) and the height Z.

同様に、受光座標(x,y)と高さZとの各組について多次元ニュートン法(例えばヤコビ反転算法)で実体座標Yを算出し、例えば測定データ格納部58に格納されたデータ・テーブル(図18)に格納する(ステップS51)。ステップS47に関連した説明ではΦとなっていた部分をZに置き換え、図14(b)に示した制御点のデータを用いて同様の処理を行えばよい。そうすれば、受光座標(x,y)と高さZの組毎に実体空間のY座標を得ることができる。   Similarly, the actual coordinate Y is calculated by the multidimensional Newton method (for example, Jacobian inversion method) for each set of the received light coordinates (x, y) and the height Z, and a data table stored in the measurement data storage unit 58, for example. (Step S51). In the description related to step S47, the portion Φ may be replaced with Z, and the same processing may be performed using the control point data shown in FIG. Then, the Y coordinate of the real space can be obtained for each set of the light receiving coordinate (x, y) and the height Z.

以上のような処理を実施すれば、被測定物体のX座標値及びY座標値を求めることができる。また、このようにX座標及びY座標についてもテンソル積型複合超曲面を用いて算出できるようになったため、撮影レンズなどの歪曲収差の影響を軽減することができる。   By performing the processing as described above, the X coordinate value and the Y coordinate value of the object to be measured can be obtained. In addition, since the X coordinate and the Y coordinate can be calculated using the tensor product type complex hypersurface as described above, it is possible to reduce the influence of the distortion aberration of the photographing lens.

図3の説明に戻って、メイン制御部500の指示に応じて補正処理部60は、今回計測ボリュームに入っていた部分の被計測物体の計測結果についてステップS114において算出された変換行列を用いて補正処理を実施する(ステップS119)。この処理は行列演算に過ぎないのでこれ以上述べない。補正処理の結果は測定データ格納部58に格納される。   Returning to the description of FIG. 3, in response to an instruction from the main control unit 500, the correction processing unit 60 uses the conversion matrix calculated in step S <b> 114 for the measurement result of the part to be measured that was included in the current measurement volume. Correction processing is performed (step S119). Since this process is only a matrix operation, it will not be described further. The result of the correction process is stored in the measurement data storage unit 58.

そして計測終了がユーザにより指示されたか判断する(ステップS120)。なお、被計測物体の全体又は必要な部分の全てが計測できたかが自動的に判断できる場合には、メイン制御部500により判断する。もし、計測終了ではない場合にはステップS112に戻る。   Then, it is determined whether the end of measurement is instructed by the user (step S120). If it can be automatically determined whether the entire measured object or all necessary parts have been measured, the main control unit 500 determines. If the measurement is not finished, the process returns to step S112.

一方必要な計測処理が終了すると、メイン制御部500の指示に応じて合成処理部59は計測結果の合成処理を実施する(ステップS122)。ステップS104において生成された合成用パラメータとステップS116において合成用データ格納部61に格納された相対移動データとを読み出し、周知の非特許文献7に記載されている方法に従って変換行列を算出する。並進移動の場合には比較的簡単なのでその例を図19を用いて説明する。   On the other hand, when the necessary measurement processing is completed, the synthesis processing unit 59 performs measurement result synthesis processing in accordance with an instruction from the main control unit 500 (step S122). The synthesizing parameter generated in step S104 and the relative movement data stored in the synthesizing data storage unit 61 in step S116 are read, and a transformation matrix is calculated according to a method described in well-known Non-Patent Document 7. Since translation is relatively simple, an example thereof will be described with reference to FIG.

図19の例では、被計測物体180aはその全体が計測ボリューム182に入りきれないので2度に分けて計測する。第1段階として被計測物体180aのうち計測ボリューム182に入った部分の計測を実施する。その後補正処理を実施して補正後の計測結果を測定データ格納部58に格納する。そして第2段階として、CNCデータ設定部54は、図19のベクトルVだけ被計測物体180aを並進移動させるためのデータを移動制御部6に設定する。移動制御部6により、被計測物体180aはベクトルVだけ並進移動され、被計測物体180bの位置に配置される。そこで計測ボリューム182に入った部分の計測を実施を実施する。その後補正処理を実施して補正後の計測結果を測定データ格納部58に格納する。このときP+V=P'であるから、その逆変換はP=P'−Vとなる。合成処理部59は、この処理を、第2段階における計測結果に含まれる全ての計測点について実施し、測定データ格納部58に格納する。   In the example of FIG. 19, the entire object to be measured 180 a cannot be included in the measurement volume 182, so the measurement is performed in two steps. As a first step, measurement is performed on a portion of the measurement object 180a that has entered the measurement volume 182. Thereafter, correction processing is performed, and the corrected measurement result is stored in the measurement data storage unit 58. Then, as a second stage, the CNC data setting unit 54 sets data for moving the measured object 180a in translation by the vector V in FIG. The movement control unit 6 translates the measured object 180a by the vector V and places it at the position of the measured object 180b. Therefore, the measurement of the part entering the measurement volume 182 is performed. Thereafter, correction processing is performed, and the corrected measurement result is stored in the measurement data storage unit 58. Since P + V = P ′ at this time, the inverse transformation is P = P′−V. The synthesis processing unit 59 performs this processing for all the measurement points included in the measurement result in the second stage, and stores them in the measurement data storage unit 58.

なお、最終的に合成するには、最高点法やジッパリングといった方法によって1つの被計測物体についてのデータとして構成して、測定データ格納部58に格納する。なお、この方法は例えば非特許文献9に記載されている。   In order to finally combine the data, it is configured as data about one object to be measured by a method such as the highest point method or zippering, and is stored in the measurement data storage unit 58. This method is described in Non-Patent Document 9, for example.

そして、メイン制御部500は、全ての処理が終了したとしてユーザにより指示されたか判断する(ステップS124)。もし、処理が終了していない場合にはステップS108に戻る。一方、終了が指示された場合には処理を終了する。   Then, the main control unit 500 determines whether the user has instructed that all the processes have been completed (step S124). If the process has not ended, the process returns to step S108. On the other hand, when the termination is instructed, the process is terminated.

このようにすれば、図4に示した校正処理を何度も実施する必要がなくなるため、作業効率が向上する。また、再装着時の誤差、温度変化、時間の経過などによる誤差に対処することができる。なお、温度以外の経時変化に対応することも可能である。   In this way, it is not necessary to repeatedly perform the calibration process shown in FIG. Further, it is possible to cope with errors due to remounting, errors due to temperature changes, passage of time, and the like. It is also possible to cope with changes with time other than temperature.

上で述べた計測方法(図17)では、X座標及びY座標についてもテンソル積型複合超曲面により求めるようにしていたが、X座標及びY座標については高さZに比例すると考えても問題が無いため、テンソル積型複合曲面にて算出することができる。以下の説明では、テンソル積型複合曲面を用いる場合の処理を説明する。   In the measurement method described above (FIG. 17), the X coordinate and the Y coordinate are also obtained by the tensor product type complex hypersurface, but it is problematic even if the X coordinate and the Y coordinate are considered to be proportional to the height Z. Therefore, it can be calculated by a tensor product type compound curved surface. In the following description, processing when a tensor product type compound curved surface is used will be described.

図20を用いて校正時の処理を説明する。まず、高さZに関する校正処理を実施する(ステップS60)。図4のステップS1乃至S4の処理を実施する。   Processing at the time of calibration will be described with reference to FIG. First, calibration processing relating to the height Z is performed (step S60). Steps S1 to S4 in FIG. 4 are performed.

そして、例えばユーザが画像処理装置5のメイン制御部500に校正処理の実施を指示すると、メイン制御部500はCNCデータ設定部54に指示を行い、これに応じてCNCデータ設定部54は、例えば予め設定されている高さZ(=Z0)の設定データを移動制御部6に出力し、移動制御部6はCNCデータ設定部54から受け取った高さZ(=Z0)の設定データに従って、基準平面2の高さを高さZ0になるように制御する。 For example, when the user instructs the main control unit 500 of the image processing apparatus 5 to perform the calibration process, the main control unit 500 instructs the CNC data setting unit 54, and in response to this, the CNC data setting unit 54 The setting data of the preset height Z (= Z 0 ) is output to the movement control unit 6, and the movement control unit 6 follows the setting data of the height Z (= Z 0 ) received from the CNC data setting unit 54. The height of the reference plane 2 is controlled to be the height Z 0 .

なお、今回の校正時には、基準平面2には、X座標値、Y座標値又はX及びY座標値が既知の実体格子パターンが描かれている(又は実体格子パターンが描かれた物を設置する)ものとする。これについては図4のステップS5と同じである。また、液晶プロジェクタ1による格子パターンの投影は行わない。   At the time of this calibration, the reference plane 2 is provided with a solid grid pattern with known X-coordinate values, Y-coordinate values, or X and Y-coordinate values (or an object with the real grid pattern drawn). ) This is the same as step S5 in FIG. Further, the grid pattern is not projected by the liquid crystal projector 1.

そして、メイン制御部500の指示に応じてカメラ制御部51は実体格子パターンを撮影するようにカメラ4を制御する。カメラ制御部51の指示に応じてカメラ4はCCD42により撮影を行う。CCD42において得られた撮影画像のデータは、一旦カメラ4内のメモリに格納された後、画像処理装置5に出力される。画像処理装置5は、例えば校正データ格納部57などの記憶装置に撮影画像データを格納する(ステップS61)。上では複数の高さの基準平面2について撮影を行うことになっていたが、ここでは1つの高さの基準平面2を撮影すれば十分である。   Then, in response to an instruction from the main control unit 500, the camera control unit 51 controls the camera 4 so as to photograph the actual lattice pattern. In response to an instruction from the camera control unit 51, the camera 4 performs imaging using the CCD 42. The captured image data obtained by the CCD 42 is temporarily stored in the memory in the camera 4 and then output to the image processing device 5. The image processing device 5 stores the captured image data in a storage device such as the calibration data storage unit 57 (step S61). In the above, shooting is to be performed for a plurality of reference planes 2 at a height, but it is sufficient here to capture a reference plane 2 having a single height.

次に、メイン制御部500の指示に応じてキャリブレーション処理部53は、例えば校正データ格納部57に格納された撮影画像データを読み出し、当該撮影画像中実体格子パターンの受光画素を抽出し、当該受光画素の受光座標(x,y)と当該実体格子の実座標値(X座標、Y座標又はX座標及びY座標)との組の集合のデータを、例えば校正データ格納部57に格納する(ステップS63)。この処理も図4のステップS6とほぼ同じであるが、本ステップでは、高さZについては全て同じであるから、高さZについては別途保管していても良い。但し図13に示したように高さZを対応付けて保管しておいても良い。   Next, in response to an instruction from the main control unit 500, the calibration processing unit 53 reads out the captured image data stored in, for example, the calibration data storage unit 57, extracts the light receiving pixels of the actual lattice pattern in the captured image, and Data of a set of a light receiving coordinate (x, y) of the light receiving pixel and a real coordinate value (X coordinate, Y coordinate or X coordinate and Y coordinate) of the actual lattice is stored in, for example, the calibration data storage unit 57 ( Step S63). This process is also almost the same as step S6 in FIG. 4, but since the height Z is the same in this step, the height Z may be stored separately. However, as shown in FIG. 13, the height Z may be stored in association with each other.

このようにすると、受光座標(x,y)と実座標Xの組の第1の集合と、受光座標(x,y)と実座標Yの組の第2の集合とが得られるようになる。したがって、メイン制御部500の指示に応じて制御点生成部55は、この第1の集合又は第2の集合に含まれる各組を入力点として、ステップS4(図4)に関連して説明した処理を実施して制御点を生成し、当該制御点のデータを例えば校正データ格納部57に格納する(ステップS65)。なお、図4のステップS7では、テンソル積型複合超曲面を表すデータとして制御点を算出していたが、ここではテンソル積型複合曲面を表すデータとして制御点を算出する。算出の仕方は基本的には同じであり、u、v及びwで表されていた(2)式及び(3)式が、uとvだけで表されるようになるだけである。校正データ格納部57では、図14(a)及び図14(b)に示すような形で制御点のデータが格納される。但し、高さZを各レコードに対応付けて格納しておく必要は無い。   In this way, a first set of sets of light receiving coordinates (x, y) and real coordinates X and a second set of sets of light receiving coordinates (x, y) and real coordinates Y are obtained. . Therefore, in response to an instruction from the main control unit 500, the control point generation unit 55 has been described in relation to step S4 (FIG. 4) using each set included in the first set or the second set as an input point. The control point is generated by performing the process, and the data of the control point is stored in, for example, the calibration data storage unit 57 (step S65). In step S7 in FIG. 4, the control points are calculated as data representing the tensor product type complex hypersurface. Here, the control points are calculated as data representing the tensor product type compound curved surface. The calculation method is basically the same, and the expressions (2) and (3) represented by u, v, and w are merely represented by u and v. The calibration data storage unit 57 stores control point data in the form shown in FIGS. 14 (a) and 14 (b). However, it is not necessary to store the height Z in association with each record.

以上のようにテンソル積型複合曲面を表すデータがX座標について及びY座標について求められているので、以下の測定時の処理を実施すれば、X座標及びY座標を取得することができるようになる。   As described above, since the data representing the tensor product type compound curved surface is obtained for the X coordinate and the Y coordinate, the X coordinate and the Y coordinate can be acquired by performing the following measurement process. Become.

測定時には、ユーザはまず計測ボリューム内に被測定物体を設置する。そして画像処理装置5のメイン制御部500に測定の指示を行う。そうすると、メイン制御部500の指示に応じて投影制御部52は所定の格子パターンを計測ボリューム内に設置された被測定物体に対して投影するように、液晶プロジェクタ1を制御する。投影制御部52の指示に応じて、液晶プロジェクタ1は、所定の格子パターンを液晶パネル12にて形成し、投影部11により基準平面2上の被測定物体に対して液晶パネル12により形成された所定の格子パターンを投影する。また、メイン制御部500の指示に応じてカメラ制御部51は、当該投影格子パターンを撮影するようにカメラ4を制御する。カメラ制御部51の指示に応じてカメラ4はCCD42により撮影を行う。CCD42において得られた撮影画像のデータは、一旦カメラ4内のメモリに格納された後、画像処理装置5のメイン制御部500に出力される。画像処理装置5のメイン制御部500は、例えば測定データ格納部58などの記憶装置に撮影画像データを格納する(図21:ステップS71)。ステップS41と同じである。   At the time of measurement, the user first places an object to be measured in the measurement volume. Then, a measurement instruction is given to the main control unit 500 of the image processing apparatus 5. Then, in response to an instruction from the main control unit 500, the projection control unit 52 controls the liquid crystal projector 1 so as to project a predetermined lattice pattern onto the object to be measured installed in the measurement volume. In response to an instruction from the projection control unit 52, the liquid crystal projector 1 forms a predetermined lattice pattern on the liquid crystal panel 12, and the projection unit 11 forms the object to be measured on the reference plane 2 with the liquid crystal panel 12. A predetermined lattice pattern is projected. In response to an instruction from the main control unit 500, the camera control unit 51 controls the camera 4 so as to capture the projection grid pattern. In response to an instruction from the camera control unit 51, the camera 4 performs imaging using the CCD 42. The captured image data obtained by the CCD 42 is temporarily stored in the memory in the camera 4 and then output to the main control unit 500 of the image processing device 5. The main control unit 500 of the image processing apparatus 5 stores the captured image data in a storage device such as the measurement data storage unit 58 (FIG. 21: step S71). Same as step S41.

次に、メイン制御部500の指示に応じて実座標算出部56は、例えば測定データ格納部58に格納された撮影画像データに基づき、受光座標(x,y)と光強度Iの組を特定し、例えば測定データ格納部58に格納する(ステップS73)。ステップS43と同じである。   Next, in response to an instruction from the main control unit 500, the actual coordinate calculation unit 56 specifies a set of received light coordinates (x, y) and light intensity I based on, for example, photographed image data stored in the measurement data storage unit 58. For example, it is stored in the measurement data storage 58 (step S73). Same as step S43.

そして、実座標算出部56は、測定データ格納部58に格納されたデータ・テーブルを参照して、光強度Iを位相角Φに変換し、測定データ格納部58のデータ・テーブルに格納する(ステップS75)。ステップS3及びステップS45と同じである。その後、実座標算出部56は、受光座標(x,y)と位相角Φとの各組について多次元ニュートン法(例えばヤコビ反転算法)で高さZを算出し、例えば測定データ格納部58に格納されたデータ・テーブルに格納する(ステップS77)。ステップS47と同じである。   Then, the real coordinate calculation unit 56 refers to the data table stored in the measurement data storage unit 58, converts the light intensity I into the phase angle Φ, and stores it in the data table of the measurement data storage unit 58 ( Step S75). Same as step S3 and step S45. Thereafter, the real coordinate calculation unit 56 calculates the height Z for each set of the received light coordinates (x, y) and the phase angle Φ by a multidimensional Newton method (for example, Jacobian inversion method). Store in the stored data table (step S77). Same as step S47.

次に、実座標算出部56は、各受光座標(x,y)について多次元ニュートン法(例えばヤコビ反転算法)で実体座標Xを算出し、さらに高さZ/校正時の高さZ0倍し、例えば測定データ格納部58に格納されたデータ・テーブルに格納する(ステップS79)。前半の処理は、上で述べた論文に書かれている2次元のヤコビ反転算法そのもので算出可能であるが、ここではさらに、得られたX座標値をZ/Z0倍する処理を行って、受光座標(x,y)に対応するX座標とする。X座標値は高さZに比例するため、校正時の高さZ0を用いて補正する。このようにして受光座標(x,y)と高さZの組毎に実体空間のX座標を算出する。 Next, the real coordinate calculation unit 56 calculates the actual coordinate X for each light receiving coordinate (x, y) by a multidimensional Newton method (for example, Jacobian inversion method), and further, height Z / height Z 0 at the time of calibration. For example, the data is stored in the data table stored in the measurement data storage unit 58 (step S79). Processing of the first half, but can be calculated by two-dimensional Jacobian inversion method itself is written in the article mentioned above, wherein further, the X-coordinate values obtained by performing the Z / Z 0 multiplied process , X coordinates corresponding to the light receiving coordinates (x, y). Since the X coordinate value is proportional to the height Z, it is corrected using the height Z 0 at the time of calibration. In this way, the X coordinate of the real space is calculated for each set of the light receiving coordinate (x, y) and the height Z.

同様に、実座標算出部56は、受光座標(x,y)と高さZとの各組について多次元ニュートン法(例えばヤコビ反転算法)で実体座標Yを算出し、さらに高さZ/校正時の高さZ0倍し、例えば測定データ格納部58に格納されたデータ・テーブルに格納する(ステップS81)。ステップS79と同様に、前半の処理は上で述べた論文に書かれている2次元のヤコビ反転算法そのもので算出可能であるが、ここではさらに得られたY座標をZ/Z0倍する処理を行って、受光座標(x,y)に対応するY座標とする。このようにして受光座標(x,y)と高さZの組毎に実体空間のY座標を算出する。 Similarly, the real coordinate calculation unit 56 calculates the actual coordinate Y by the multidimensional Newton method (for example, Jacobian inversion method) for each set of the received light coordinate (x, y) and the height Z, and further calculates the height Z / calibration. The height Z is multiplied by 0 and stored in a data table stored in the measurement data storage unit 58, for example (step S81). Similar to step S79, the first half of the processing can be calculated by the two-dimensional Jacobi inversion method itself described in the above-mentioned paper, but here, the obtained Y coordinate is further multiplied by Z / Z 0. To obtain the Y coordinate corresponding to the light receiving coordinate (x, y). In this way, the Y coordinate of the physical space is calculated for each set of the light receiving coordinate (x, y) and the height Z.

以上のような処理を実施すればテンソル積型複合超曲面を用いずにX座標及びY座標を算出することができる。1次元だけ次数が低いので、計算負荷が低く抑えられる。   If the above processing is performed, the X coordinate and the Y coordinate can be calculated without using the tensor product type complex hypersurface. Since the order is low in one dimension, the calculation load can be kept low.

以上本発明の一実施の形態を説明したが、本発明はこれに限定されるものではない。すなわち、図2に示した機能ブロック図は一例であって、特に画像処理装置5内の機能ブロックは必ずしもプログラムのモジュールに対応せず、他の機能分割を行っても良い。さらに、データ格納部についても例えば1つのハードディスクなどの記憶装置内を領域を分けて用いるようにしても良い。また、処理フローについても一部のステップについては同時に又は順番を入れ替えて実行することが可能となっている。例えば図3においてステップS122をステップS119の後ろにしても良い。さらに、ステップS100の直後にステップS114が実行される場合もある。   Although one embodiment of the present invention has been described above, the present invention is not limited to this. That is, the functional block diagram shown in FIG. 2 is an example, and the functional blocks in the image processing apparatus 5 do not necessarily correspond to the program modules, and other functional divisions may be performed. Further, for the data storage unit, for example, a region in a storage device such as one hard disk may be used. Also, with respect to the processing flow, some steps can be executed at the same time or in a different order. For example, in FIG. 3, step S122 may be placed after step S119. Furthermore, step S114 may be executed immediately after step S100.

また、テンソル積型複合超曲面又はテンソル積型複合曲面を用いるような説明をしたが、例えばその射影変換を施したものであっても同様に処理できる。
上では超曲面を使用する校正及び計測処理を一例に説明したが、必ずしもこれに限定するものではなく、格子パターン投影法の他の校正方法を採用することも可能である。さらに、上記の技術思想は格子パターン投影法に限定されるものではなく、他の計測方法に適用することも可能である。
In addition, the description has been made using the tensor product type complex hypersurface or the tensor product type compound curved surface, but the same processing can be performed even if the projection transformation is performed, for example.
In the above description, the calibration and measurement processing using the hypersurface has been described as an example. However, the present invention is not necessarily limited to this, and other calibration methods of the lattice pattern projection method can be adopted. Furthermore, the above technical idea is not limited to the lattice pattern projection method, and can be applied to other measurement methods.

(付記1)
物体形状の計測を行う計測器を装着可能なコンピュータ数値制御装置における計測方法であって、
前記コンピュータ数値制御装置に装着した状態において前記計測器の校正を実施する校正ステップと、
前記計測器の再装着を含む所定の状態の変化が生じた場合、再度校正を実施することなく、3以上の基準位置に対する前記計測器による計測結果を取得し、当該計測結果を前記基準位置に変換するための変換データを算出する変換データ算出ステップと、
前記計測器により前記校正に基づき被計測物体の計測を行い、当該計測結果を前記変換データにより変換するステップと、
を含む計測方法。
(Appendix 1)
A measurement method in a computer numerical control device capable of mounting a measuring instrument for measuring an object shape,
A calibration step for performing calibration of the measuring instrument in a state of being mounted on the computer numerical control device;
When a change in a predetermined state including remounting of the measuring instrument occurs, the measurement result by the measuring instrument for three or more reference positions is acquired without performing calibration again, and the measurement result is set to the reference position. A conversion data calculation step for calculating conversion data for conversion;
Measuring the object to be measured based on the calibration by the measuring instrument, and converting the measurement result by the conversion data;
Measuring method including

(付記2)
前記変換データ算出ステップにおいて、
前記コンピュータ数値制御装置により基準物体の相対位置を移動させ、移動後の当該基準物体の所定の位置を前記基準位置として用い、
前記計測器により移動後の前記基準物体の物体形状の計測を行い、当該計測結果に基づき前記基準物体の所定の位置に対応する前記計測器による計測結果を取得する
ことを特徴とする付記1記載の計測方法。
(Appendix 2)
In the conversion data calculation step,
The relative position of the reference object is moved by the computer numerical control device, and the predetermined position of the reference object after the movement is used as the reference position.
The object shape of the reference object after movement is measured by the measuring instrument, and the measurement result by the measuring instrument corresponding to a predetermined position of the reference object is acquired based on the measurement result. Measurement method.

(付記3)
前記所定の状態の変化が、所定の閾値以上の温度変化又は時間経過を検出したことを含む付記1記載の計測方法。
(Appendix 3)
The measurement method according to appendix 1, wherein the change in the predetermined state includes detecting a temperature change or a time lapse exceeding a predetermined threshold.

(付記4)
前記計測ステップが、
前記計測器により前記被計測物体の第1の部分の計測を実施するステップと、
前記コンピュータ数値制御装置により前記被計測物体の相対位置の移動を行うステップと、
前記計測器により移動後に前記被計測物体の第2の部分の計測を実施するステップと、
前記被計測物体の移動のデータを用いて前記被計測物体の第1の部分又は第2の部分の計測結果を移動させ、他の計測結果と合成する合成ステップと、
を含む付記1記載の計測方法。
(Appendix 4)
The measurement step includes
Performing measurement of the first portion of the object to be measured by the measuring instrument;
Moving the relative position of the object to be measured by the computer numerical control device;
Performing measurement of a second portion of the object to be measured after movement by the measuring instrument;
A synthesis step of moving the measurement result of the first part or the second part of the measurement object using the movement data of the measurement object, and combining the measurement result with another measurement result;
The measuring method of Additional remark 1 containing.

(付記5)
前記合成ステップにおいて、前記コンピュータ数値制御装置により実行される物体の回転又は傾斜移動に係る軸のデータをさらに用いることにより前記被計測物体の第1の部分又は第2の部分の計測結果を移動させる
ことを特徴とする付記4記載の計測方法。
(Appendix 5)
In the synthesizing step, the measurement result of the first part or the second part of the object to be measured is moved by further using axis data relating to the rotation or tilt movement of the object executed by the computer numerical control device. The measuring method according to supplementary note 4, characterized by:

(付記6)
前記校正ステップの後に、
前記コンピュータ数値制御装置により基準物体を所定の軸の回りで回転又は傾斜させ、前記計測器により3以上の位置で前記基準物体の物体形状の計測を行い、当該計測結果に基づき前記基準物体の所定の位置を特定するステップと、
特定された前記基準物体の所定の位置から当該所定の位置を含む平面の法線のデータを算出するステップと、
をさらに含む付記5記載の計測方法。
(Appendix 6)
After the calibration step,
The computer numerical control device rotates or tilts the reference object around a predetermined axis, and the measuring instrument measures the object shape of the reference object at three or more positions. Based on the measurement result, the predetermined reference object is determined. Identifying the position of
Calculating normal data of a plane including the predetermined position from the predetermined position of the identified reference object;
The measurement method according to appendix 5, further comprising:

(付記7)
前記計測器が、所定の格子パターンを特定の物体に対し投影する投影手段と前記特定の物体を撮影する撮影手段とを有する格子パターン投影型計測器であり、
前記校正ステップが、
前記コンピュータ数値制御装置により実現される複数の高さの面毎に前記投影手段により前記特定の物体である当該面上に投影され且つ前記撮影手段により撮影された投影格子パターンの撮影画像から、前記撮影手段の受光面において各前記面に共通の縦方向個数及び横方向個数存在する点の座標と当該点の光強度と前記高さの組を含む第1の集合を生成し、当該第1の集合のデータを記憶装置に格納するステップと、
前記光強度を前記投影格子パターンの位相角に変換し、前記受光面における前記点の座標と前記位相角と前記高さの組を含み且つ各組をノードとして矩形グリッドを構成するための第2の集合のデータを記憶装置に格納するステップと、
を含む付記1乃至6のいずれか1つ記載の計測方法。
(Appendix 7)
The measuring instrument is a grid pattern projection type measuring instrument having a projecting unit that projects a predetermined grid pattern onto a specific object and an imaging unit that captures the specific object,
The calibration step comprises
From the captured image of the projected lattice pattern projected onto the surface, which is the specific object, by the projecting means for each of a plurality of height surfaces realized by the computer numerical control device, A first set including a set of coordinates of the points in the vertical and horizontal numbers common to each of the light receiving surfaces of the photographing unit, the light intensity of the points, and the height is generated, and the first set is generated. Storing the data of the set in a storage device;
A second for converting the light intensity into a phase angle of the projection grating pattern, including a set of the coordinates of the point on the light receiving surface, the phase angle and the height, and forming a rectangular grid with each set as a node. Storing the set of data in a storage device;
The measurement method according to any one of appendices 1 to 6, including:

(付記8)
前記第2の集合のデータからテンソル積型複合超曲面を表すデータを生成し、記憶装置に格納する超曲面生成ステップ、
をさらに含む付記7記載の計測方法。
(Appendix 8)
A hypersurface generation step of generating data representing a tensor product type complex hypersurface from the data of the second set, and storing the data in a storage device;
The measurement method according to appendix 7, further including:

(付記9)
前記超曲面生成ステップにおいて、前記第2の集合のデータを入力点として用い、前記テンソル積型複合超曲面の制御点を算出する
ことを特徴とする付記8記載の計測方法。
(Appendix 9)
The measurement method according to claim 8, wherein, in the hypersurface generation step, the control points of the tensor product type composite hypersurface are calculated using the data of the second set as input points.

(付記10)
前記変換データ算出ステップ及び前記計測ステップにおける前記計測器による計測時に、
被計測物体に対して前記投影手段により投影され且つ前記撮影手段により撮影された投影格子パターンの撮影画像から、前記撮影手段の受光面における座標と光強度の組のデータを抽出し、記憶装置に格納するステップと、
前記光強度を前記投影格子パターンの位相角に変換し、前記受光面における座標と前記位相角の組のデータを記憶装置に格納するステップと、
前記テンソル積型複合超曲面を表すデータを用いて、前記受光面における座標と前記位相角の組のデータに対応する高さデータを補間計算し、記憶装置に格納する補間ステップと、
をさらに含む付記8記載の計測方法。
(Appendix 10)
At the time of measurement by the measuring instrument in the conversion data calculation step and the measurement step,
A set of coordinates and light intensity on the light receiving surface of the photographing means is extracted from the photographed image of the projected grid pattern projected onto the measurement object by the projection means and photographed by the photographing means, and stored in a storage device. Storing, and
Converting the light intensity into a phase angle of the projected grating pattern, and storing data of a set of coordinates on the light receiving surface and the phase angle in a storage device;
Using the data representing the tensor product type complex hypersurface, an interpolation step is performed to interpolate and calculate height data corresponding to a set of coordinates and phase angle on the light receiving surface, and to store in a storage device;
The measurement method according to appendix 8, further comprising:

(付記11)
前記校正ステップにおいて、
1又は複数の高さを有し且つ実座標が判明している複数のポイントを含む面毎に前記投影手段による格子パターンの投影なしに前記撮影手段により撮影された前記特定の物体である当該面の撮影画像から、前記撮影手段の受光面における座標と前記ポイントの実座標と前記高さの組を複数含む第3の集合を生成し、当該第3の集合のデータを記憶装置に格納するステップ、
をさらに含む付記10記載の計測方法。
(Appendix 11)
In the calibration step,
The surface which is the specific object photographed by the photographing unit without projecting a lattice pattern by the projecting unit for each surface including a plurality of points having one or a plurality of heights and whose real coordinates are known. Generating a third set including a plurality of sets of coordinates on the light receiving surface of the imaging means, the actual coordinates of the points, and the height from the captured image of the imaging means, and storing the data of the third set in a storage device ,
The measurement method according to appendix 10, further comprising:

(付記12)
前記第3の集合から第2のテンソル積型複合超曲面を表すデータを生成し、記憶装置に格納する第2超曲面生成ステップ、
をさらに含む付記11記載の計測方法。
(Appendix 12)
A second hypersurface generation step of generating data representing a second tensor product type complex hypersurface from the third set and storing the data in a storage device;
The measurement method according to appendix 11, further comprising:

(付記13)
前記第3の集合に含まれる各組のデータのうち前記高さのデータ以外のデータを用いてテンソル積型複合曲面を表すデータを生成し、記憶装置に格納する曲面生成ステップ、
をさらに含む付記11記載の計測方法。
(Appendix 13)
A curved surface generation step of generating data representing a tensor product type complex curved surface using data other than the data of the height of each set of data included in the third set, and storing the data in a storage device;
The measurement method according to appendix 11, further comprising:

(付記14)
前記第2のテンソル積型複合超曲面を表すデータを用いて、前記補間ステップにおいて生成された高さデータと前記受光面における対応座標の組のデータに対応する実座標のデータを補間計算し、記憶装置に格納するステップ、
をさらに含む付記12記載の計測方法。
(Appendix 14)
Using the data representing the second tensor product type complex hypersurface, interpolation calculation is performed on real coordinate data corresponding to the set of height data generated in the interpolation step and the corresponding coordinate set on the light receiving surface, Storing in a storage device;
The measurement method according to appendix 12, further comprising:

(付記15)
前記テンソル積型複合曲面を表すデータを用いて、前記受光面における対応座標のデータに対応する補正前の実座標データを補間計算し、記憶装置に格納するステップと、
前記補間ステップにより生成された高さデータと前記校正時における高さのデータとに基づき、前記補正前の実座標データを補正し、記憶装置に格納するステップと、
をさらに含む付記13記載の計測方法。
(Appendix 15)
Using the data representing the tensor product type compound curved surface, interpolating the actual coordinate data before correction corresponding to the data of the corresponding coordinate on the light receiving surface, and storing in the storage device;
Correcting the actual coordinate data before correction based on the height data generated by the interpolation step and the height data at the time of calibration, and storing the corrected data in a storage device;
The measurement method according to appendix 13, further comprising:

(付記16)
物体形状の計測を行う計測器と、
当該計測装置を装着可能なコンピュータ数値制御装置と、
前記コンピュータ数値制御装置に装着した状態において前記計測器の校正を実施した後に前記計測器の再装着を含む所定の状態の変化が生じた場合、再度校正を実施することなく、3以上の基準位置に対する前記計測器による計測結果を取得し、当該計測結果を前記基準位置に変換するための変換データを算出する変換データ算出手段と、
前記計測器により前記校正に基づく被計測物体の計測を行った場合、当該計測結果を前記変換データにより変換する手段と、
を有する計測システム。
(Appendix 16)
A measuring instrument for measuring the object shape;
A computer numerical controller capable of mounting the measuring device;
When a change in a predetermined state including remounting of the measuring instrument occurs after calibration of the measuring instrument is performed in the state of being mounted on the computer numerical control device, three or more reference positions are performed without performing calibration again. A conversion data calculation means for acquiring a measurement result by the measuring instrument and calculating conversion data for converting the measurement result to the reference position;
When measuring the measurement object based on the calibration by the measuring instrument, means for converting the measurement result by the conversion data;
Measuring system.

(付記17)
物体の計測を行う計測器と当該計測器を装着可能なコンピュータ数値制御装置とを含む計測システムに計測を実行させるためのプログラムであって、
前記コンピュータ数値制御装置に装着した状態において前記計測器の校正を実施した後に前記計測器の再装着を含む所定の状態の変化が生じた場合、再度校正を実施することなく、3以上の基準位置に対する前記計測器による計測結果を取得し、当該計測結果を前記基準位置に変換するための変換データを算出する変換データ算出ステップと、
前記計測器により前記校正に基づく被計測物体の計測を行った場合、当該計測結果を前記変換データにより変換するステップと、
を実行させるためのプログラム。
(Appendix 17)
A program for causing a measurement system including a measuring instrument for measuring an object and a computer numerical control device capable of mounting the measuring instrument to perform measurement,
When a change in a predetermined state including remounting of the measuring instrument occurs after calibration of the measuring instrument is performed in the state of being mounted on the computer numerical control device, three or more reference positions are performed without performing calibration again. A conversion data calculation step of acquiring a measurement result by the measuring instrument and calculating conversion data for converting the measurement result to the reference position;
When measuring the object to be measured based on the calibration by the measuring instrument, converting the measurement result by the conversion data;
A program for running

従来技術の格子パターン投影法における装置構成図である。It is an apparatus block diagram in the lattice pattern projection method of a prior art. 本発明の一実施の形態に係る計測部を含むCNC装置の機能ブロック図である。It is a functional block diagram of a CNC device including a measuring unit according to an embodiment of the present invention. 本発明の一実施の形態に係る処理フローの一例を示す図である。It is a figure which shows an example of the processing flow which concerns on one embodiment of this invention. 校正処理の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of a calibration process. (a)は格子パターンの投影及び撮影について説明するための模式図である。(b)及び(c)は撮影結果の画像例を示す図である。(A) is a schematic diagram for demonstrating projection and imaging | photography of a lattice pattern. (B) And (c) is a figure which shows the example of an image of an imaging result. 校正データ格納部に格納されるデータの一例を示す図である。It is a figure which shows an example of the data stored in a calibration data storage part. テンソル積型複合超曲面の制御点を生成する基となる入力点の構造を表す模式図である。It is a schematic diagram showing the structure of the input point used as the basis which produces | generates the control point of a tensor product type complex hypersurface. 制御点生成処理の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of a control point production | generation process. 校正データ格納部に格納されるデータの一例を示す図である。It is a figure which shows an example of the data stored in a calibration data storage part. (a)及び(b)はベジエ曲線における制御点の生成処理を説明するための図である。(A) And (b) is a figure for demonstrating the production | generation process of the control point in a Bezier curve. B-Spline曲線における制御点の生成処理を説明するための図である。It is a figure for demonstrating the production | generation process of the control point in a B-Spline curve. (a)乃至(c)は実体格子パターンの一例を示す図である。(A) thru | or (c) are figures which show an example of a real lattice pattern. 校正データ格納部に格納されるデータの一例を示す図である。It is a figure which shows an example of the data stored in a calibration data storage part. (a)及び(b)は校正データ格納部に格納されるデータの一例を示す図である。(A) And (b) is a figure which shows an example of the data stored in a calibration data storage part. 測定データの合成を説明するための模式図である。It is a schematic diagram for demonstrating the synthesis | combination of measurement data. (a)及び(b)は、計測部の再装着時の問題を説明するための模式図である。(A) And (b) is a schematic diagram for demonstrating the problem at the time of the reattachment of a measurement part. 計測処理時における処理フローの一例を示す図である。It is a figure which shows an example of the processing flow at the time of a measurement process. 測定データ格納部に格納されるデータの一例を示す図である。It is a figure which shows an example of the data stored in a measurement data storage part. 測定データの合成を説明するための模式図である。It is a schematic diagram for demonstrating the synthesis | combination of measurement data. X座標及びY座標の測定のための校正処理時の第2の処理フローの一例を示す図である。It is a figure which shows an example of the 2nd processing flow at the time of the calibration process for the measurement of X coordinate and Y coordinate. X座標及びY座標の測定処理時における第2の処理フローの一例を示す図である。It is a figure which shows an example of the 2nd processing flow at the time of the measurement process of X coordinate and Y coordinate.

符号の説明Explanation of symbols

1 液晶プロジェクタ 2 基準平面 4 カメラ
5 画像処理装置 6 移動制御部 7 温度センサ
11 投影部 12 液晶パネル 13 レンズ
41 レンズ 42 CCD 51 カメラ制御部
52 投影制御部 53 キャリブレーション処理部
54 CNCデータ設定部 55 制御点生成部
56 実座標算出部 57 校正データ格納部
58 測定データ格納部 59 合成処理部
60 補正処理部 61 合成用データ格納部
62 補正用データ格納部
500 メイン制御部
DESCRIPTION OF SYMBOLS 1 Liquid crystal projector 2 Reference plane 4 Camera 5 Image processing apparatus 6 Movement control part 7 Temperature sensor 11 Projection part 12 Liquid crystal panel 13 Lens 41 Lens 42 CCD 51 Camera control part 52 Projection control part 53 Calibration process part 54 CNC data setting part 55 Control point generation unit 56 Real coordinate calculation unit 57 Calibration data storage unit 58 Measurement data storage unit 59 Synthesis processing unit 60 Correction processing unit 61 Synthesis data storage unit 62 Correction data storage unit 500 Main control unit

Claims (5)

物体形状の計測を行う計測器を装着可能なコンピュータ数値制御装置における計測方法であって、
前記コンピュータ数値制御装置に装着した状態において前記計測器の校正を実施する校正ステップと、
前記計測器の再装着を含む所定の状態の変化が生じた場合3以上の基準位置に対する前記計測器による計測結果を取得し、当該計測結果を前記基準位置に変換するための変換データを算出する変換データ算出ステップと、
前記計測器により前記校正に基づき被計測物体の計測を行い、当該計測結果を前記変換データにより変換する計測ステップと、
を含み、
前記計測器が、所定の格子パターンを特定の物体に対し投影する投影手段と前記特定の物体を撮影する撮影手段とを有する格子パターン投影型計測器であり、
前記校正ステップが、
前記コンピュータ数値制御装置により実現される複数の高さの面毎に前記投影手段により前記特定の物体である当該面上に投影され且つ前記撮影手段により撮影された投影格子パターンの撮影画像から、前記撮影手段の受光面において各前記面に共通の縦方向個数及び横方向個数存在する点の座標と当該点の光強度と前記高さとの組を含む第1の集合を生成し、当該第1の集合のデータを記憶装置に格納するステップと、
前記光強度を前記投影格子パターンの位相角に変換し、前記受光面における前記点の座標と前記位相角と前記高さとの組を含み且つ各組をノードとして矩形グリッドを構成するための第2の集合のデータを前記記憶装置に格納するステップと、
前記第2の集合のデータからテンソル積型複合超曲面を表すデータを生成し、前記記憶装置に格納する超曲面生成ステップと、
を含み、
前記変換データ算出ステップ及び前記計測ステップにおける前記計測器による計測時に、
計測すべき物体に対して前記投影手段により投影され且つ前記撮影手段により撮影された投影格子パターンの撮影画像から、前記撮影手段の受光面における座標と光強度との組のデータを抽出し、前記記憶装置に格納する抽出ステップと、
前記抽出ステップで抽出した前記光強度を前記投影格子パターンの位相角に変換し、前記受光面における座標と前記位相角との組のデータを前記記憶装置に格納するステップと、
前記テンソル積型複合超曲面を表すデータを用いて、前記受光面における座標と前記位相角との組のデータに対応する高さデータを補間計算し、前記記憶装置に格納する補間ステップと、
を含む計測方法。
A measurement method in a computer numerical control device capable of mounting a measuring instrument for measuring an object shape,
A calibration step for performing calibration of the measuring instrument in a state of being mounted on the computer numerical control device;
If the variation of the predetermined conditions including remounting of the instrument has occurred, acquires a measurement result of the measuring instrument for three or more reference positions, calculates the conversion data to convert the measurement results into the reference position Conversion data calculation step to perform,
A measurement step of measuring an object to be measured based on the calibration by the measuring instrument, and converting the measurement result by the conversion data;
Only including,
The measuring instrument is a grid pattern projection type measuring instrument having a projecting unit that projects a predetermined grid pattern onto a specific object and an imaging unit that captures the specific object,
The calibration step comprises
From the captured image of the projected lattice pattern projected onto the surface, which is the specific object, by the projecting means for each of a plurality of height surfaces realized by the computer numerical control device, A first set including a set of coordinates of the points in the vertical and horizontal numbers common to each of the light receiving surfaces of the photographing unit, the light intensity of the points, and the height is generated, and the first set is generated. Storing the data of the set in a storage device;
A second for converting the light intensity into a phase angle of the projection grating pattern, including a set of the coordinates of the point on the light receiving surface, the phase angle and the height, and forming a rectangular grid with each set as a node. Storing the set of data in the storage device;
Generating data representing a tensor product type complex hypersurface from the data of the second set, and storing the data in the storage device;
Including
At the time of measurement by the measuring instrument in the conversion data calculation step and the measurement step,
Extracting data of a set of coordinates and light intensity on the light receiving surface of the photographing means from a photographed image of the projected grid pattern projected by the projecting means on the object to be measured and photographed by the photographing means, An extraction step for storing in a storage device;
Converting the light intensity extracted in the extraction step into a phase angle of the projection grating pattern and storing data of a set of coordinates and the phase angle on the light receiving surface in the storage device;
Using the data representing the tensor product type complex hypersurface, interpolation calculation is performed for the height data corresponding to the data of the set of coordinates and the phase angle on the light receiving surface, and stored in the storage device;
Measuring method including
前記変換データ算出ステップにおいて、
前記コンピュータ数値制御装置により基準物体の相対位置を移動させ、移動後の当該基準物体の所定の位置を前記基準位置として用い、
前記計測器により移動後の前記基準物体の物体形状の計測を行い、当該計測結果に基づき前記基準物体の所定の位置に対応する前記計測器による計測結果を取得する
ことを特徴とする請求項1記載の計測方法。
In the conversion data calculation step,
The relative position of the reference object is moved by the computer numerical control device, and the predetermined position of the reference object after the movement is used as the reference position.
The object shape of the reference object after movement is measured by the measuring instrument, and a measurement result by the measuring instrument corresponding to a predetermined position of the reference object is acquired based on the measurement result. The measurement method described.
前記所定の状態の変化が、所定の閾値以上の温度変化又は時間経過を検出したことを含む請求項1記載の計測方法。   The measurement method according to claim 1, wherein the change in the predetermined state includes detecting a temperature change or a time lapse exceeding a predetermined threshold. 物体形状の計測を行う計測器と、
当該計測装置を装着可能なコンピュータ数値制御装置と、
前記計測器の校正を実施する校正手段と、
前記コンピュータ数値制御装置に装着した状態において前記計測器の校正を前記校正手段により実施した後に前記計測器の再装着を含む所定の状態の変化が生じた場合3以上の基準位置に対する前記計測器による計測結果を取得し、当該計測結果を前記基準位置に変換するための変換データを算出する変換データ算出手段と、
前記計測器により前記校正に基づく被計測物体の計測を行った場合、当該計測結果を前記変換データにより変換する手段と、
を有し、
前記計測器が、所定の格子パターンを特定の物体に対し投影する投影手段と前記特定の物体を撮影する撮影手段とを有する格子パターン投影型計測器であり、
前記校正手段が、
前記コンピュータ数値制御装置により実現される複数の高さの面毎に前記投影手段により前記特定の物体である当該面上に投影され且つ前記撮影手段により撮影された投影格子パターンの撮影画像から、前記撮影手段の受光面において各前記面に共通の縦方向個数及び横方向個数存在する点の座標と当該点の光強度と前記高さとの組を含む第1の集合を生成し、当該第1の集合のデータを記憶装置に格納し、
前記光強度を前記投影格子パターンの位相角に変換し、前記受光面における前記点の座標と前記位相角と前記高さとの組を含み且つ各組をノードとして矩形グリッドを構成するための第2の集合のデータを前記記憶装置に格納し、
前記第2の集合のデータからテンソル積型複合超曲面を表すデータを生成し、前記記憶装置に格納し
前記計測器が、
計測すべき物体に対して前記投影手段により投影され且つ前記撮影手段により撮影された投影格子パターンの撮影画像から、前記撮影手段の受光面における座標と光強度との組のデータを抽出して、前記記憶装置に格納し、
抽出した前記光強度を前記投影格子パターンの位相角に変換し、前記受光面における座標と前記位相角との組のデータを前記記憶装置に格納し、
前記テンソル積型複合超曲面を表すデータを用いて、前記受光面における座標と前記位相角との組のデータに対応する高さデータを補間計算し、前記記憶装置に格納する、
計測システム。
A measuring instrument for measuring the object shape;
A computer numerical controller capable of mounting the measuring device;
Calibration means for performing calibration of the measuring instrument;
If the variation of the predetermined conditions including remounting of the instrument after performing by said calibration means to calibrate the instrument in a state mounted on the computer numerical control device has occurred, the measuring instrument for three or more reference positions Conversion data calculation means for acquiring the measurement result by and calculating conversion data for converting the measurement result to the reference position;
When measuring the measurement object based on the calibration by the measuring instrument, means for converting the measurement result by the conversion data;
I have a,
The measuring instrument is a grid pattern projection type measuring instrument having a projecting unit that projects a predetermined grid pattern onto a specific object and an imaging unit that captures the specific object,
The calibration means is
From the captured image of the projected lattice pattern projected onto the surface, which is the specific object, by the projecting means for each of a plurality of height surfaces realized by the computer numerical control device, A first set including a set of coordinates of the points in the vertical and horizontal numbers common to each of the light receiving surfaces of the photographing unit, the light intensity of the points, and the height is generated, and the first set is generated. Store the data of the set in a storage device,
A second for converting the light intensity into a phase angle of the projection grating pattern, including a set of the coordinates of the point on the light receiving surface, the phase angle and the height, and forming a rectangular grid with each set as a node. Storing the set of data in the storage device,
Data representing a tensor product type complex hypersurface is generated from the data of the second set, and stored in the storage device.
The instrument is
Extracting data of a set of coordinates and light intensity on the light receiving surface of the photographing means from the photographed image of the projection grid pattern projected by the projecting means on the object to be measured and photographed by the photographing means, Storing in the storage device;
The extracted light intensity is converted into a phase angle of the projection grating pattern, and data of a set of coordinates and the phase angle on the light receiving surface is stored in the storage device,
Using data representing the tensor product type complex hypersurface, interpolation calculation of height data corresponding to data of a set of coordinates and the phase angle on the light receiving surface, and storing in the storage device,
Measuring system.
物体の計測を行う計測器と当該計測器を装着可能なコンピュータ数値制御装置とを含む計測システムに計測を実行させるためのプログラムであって、
前記コンピュータ数値制御装置に装着した状態において前記計測器の校正を実施した後に前記計測器の再装着を含む所定の状態の変化が生じた場合3以上の基準位置に対する前記計測器による計測結果を取得し、当該計測結果を前記基準位置に変換するための変換データを算出する変換データ算出ステップと、
前記計測器により前記校正に基づく被計測物体の計測を行った場合、当該計測結果を前記変換データにより変換する計測ステップと、
を実行させ
前記計測器が、所定の格子パターンを特定の物体に対し投影する投影手段と前記特定の物体を撮影する撮影手段とを有する格子パターン投影型計測器であり、
前記計測器の校正が、
前記コンピュータ数値制御装置により実現される複数の高さの面毎に前記投影手段により前記特定の物体である当該面上に投影され且つ前記撮影手段により撮影された投影格子パターンの撮影画像から、前記撮影手段の受光面において各前記面に共通の縦方向個数及び横方向個数存在する点の座標と当該点の光強度と前記高さとの組を含む第1の集合を生成し、当該第1の集合のデータを記憶装置に格納する処理と、
前記光強度を前記投影格子パターンの位相角に変換し、前記受光面における前記点の座標と前記位相角と前記高さとの組を含み且つ各組をノードとして矩形グリッドを構成するための第2の集合のデータを前記記憶装置に格納する処理と、
前記第2の集合のデータからテンソル積型複合超曲面を表すデータを生成し、前記記憶装置に格納する超曲面生成処理と、
を含み、
前記変換データ算出ステップ及び前記計測ステップにおける前記計測器による計測時に、
計測すべき物体に対して前記投影手段により投影され且つ前記撮影手段により撮影された投影格子パターンの撮影画像から、前記撮影手段の受光面における座標と光強度との組のデータを抽出し、前記記憶装置に格納する抽出ステップと、
前記抽出ステップで抽出した前記光強度を前記投影格子パターンの位相角に変換し、前記受光面における座標と前記位相角との組のデータを前記記憶装置に格納するステップと、
前記テンソル積型複合超曲面を表すデータを用いて、前記受光面における座標と前記位相角との組のデータに対応する高さデータを補間計算し、前記記憶装置に格納する補間ステップと、
を実行させるためのプログラム。
A program for causing a measurement system including a measuring instrument for measuring an object and a computer numerical control device capable of mounting the measuring instrument to perform measurement,
If the variation of the predetermined conditions including remounting of the instrument after performing calibration of the instrument in a state mounted on the computer numerical control device has occurred, the measurement result of the measuring instrument for three or more reference positions A conversion data calculation step for acquiring and calculating conversion data for converting the measurement result to the reference position;
When measuring the measurement object based on the calibration by the measuring instrument, a measurement step of converting the measurement result by the conversion data,
Was executed,
The measuring instrument is a grid pattern projection type measuring instrument having a projecting unit that projects a predetermined grid pattern onto a specific object and an imaging unit that captures the specific object,
Calibration of the instrument is
From the captured image of the projected lattice pattern projected onto the surface, which is the specific object, by the projecting means for each of a plurality of height surfaces realized by the computer numerical control device, A first set including a set of coordinates of the points in the vertical and horizontal numbers common to each of the light receiving surfaces of the photographing unit, the light intensity of the points, and the height is generated, and the first set is generated. A process of storing the data of the set in a storage device;
A second for converting the light intensity into a phase angle of the projection grating pattern, including a set of the coordinates of the point on the light receiving surface, the phase angle and the height, and forming a rectangular grid with each set as a node. Storing the data of the set in the storage device;
Generating data representing a tensor product type complex hypersurface from the data of the second set, and storing the hypersurface in the storage device;
Including
At the time of measurement by the measuring instrument in the conversion data calculation step and the measurement step,
Extracting data of a set of coordinates and light intensity on the light receiving surface of the photographing means from a photographed image of the projected grid pattern projected by the projecting means on the object to be measured and photographed by the photographing means, An extraction step for storing in a storage device;
Converting the light intensity extracted in the extraction step into a phase angle of the projection grating pattern and storing data of a set of coordinates and the phase angle on the light receiving surface in the storage device;
Using the data representing the tensor product type complex hypersurface, interpolation calculation is performed for the height data corresponding to the data of the set of coordinates and the phase angle on the light receiving surface, and stored in the storage device;
A program for running
JP2004104536A 2003-08-28 2004-03-31 Measuring method, measuring system and program Expired - Lifetime JP4766839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004104536A JP4766839B2 (en) 2003-08-28 2004-03-31 Measuring method, measuring system and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003304066 2003-08-28
JP2003304066 2003-08-28
JP2004104536A JP4766839B2 (en) 2003-08-28 2004-03-31 Measuring method, measuring system and program

Publications (2)

Publication Number Publication Date
JP2005098973A JP2005098973A (en) 2005-04-14
JP4766839B2 true JP4766839B2 (en) 2011-09-07

Family

ID=34467264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004104536A Expired - Lifetime JP4766839B2 (en) 2003-08-28 2004-03-31 Measuring method, measuring system and program

Country Status (1)

Country Link
JP (1) JP4766839B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MY177646A (en) * 2014-02-28 2020-09-23 Icm Airport Technics Australia Pty Ltd Luggage processing station and system thereof
CN106225879B (en) * 2016-09-14 2023-11-07 上海理工大学 High-precision non-contact transparent liquid level measuring device and measuring method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3138080B2 (en) * 1992-10-22 2001-02-26 株式会社豊田中央研究所 Automatic calibration device for vision sensor
JP3015636B2 (en) * 1993-03-02 2000-03-06 尚武 毛利 On-machine shape measurement method and device
JPH07121214A (en) * 1993-10-25 1995-05-12 Fanuc Ltd Measuring sensor device for robot, and calibration method and measuring method using the same
JPH0886609A (en) * 1994-09-16 1996-04-02 Kobe Steel Ltd Measurement with beam light projection-type three-dimensional sensor, calibration of the sensor and apparatus therefor
JPH1047924A (en) * 1996-08-01 1998-02-20 Kobe Steel Ltd 3-dimension position measuring device
JP4635392B2 (en) * 2001-08-09 2011-02-23 コニカミノルタホールディングス株式会社 3D object surface shape modeling apparatus and program

Also Published As

Publication number Publication date
JP2005098973A (en) 2005-04-14

Similar Documents

Publication Publication Date Title
JP4480488B2 (en) Measuring device, computer numerical control device, and program
JP5689681B2 (en) Non-contact probe
Luhmann Close range photogrammetry for industrial applications
KR101601331B1 (en) System and method for three-dimensional measurment of the shape of material object
US7742635B2 (en) Artifact mitigation in three-dimensional imaging
JP5757950B2 (en) Non-contact object measurement
JP5029618B2 (en) Three-dimensional shape measuring apparatus, method and program by pattern projection method
Peng Algorithms and models for 3-D shape measurement using digital fringe projections
Sansoni et al. 3-D optical measurements in the field of cultural heritage: the case of the Vittoria Alata of Brescia
JP2007508557A (en) Device for scanning three-dimensional objects
JP4766839B2 (en) Measuring method, measuring system and program
Gebler et al. A comparison of structured light scanning and photogrammetry for the digitisation of physical prototypes
Wang et al. The 3D reconstruction method of a line-structured light vision sensor based on composite depth images
JP2011247759A (en) Three-dimensional shape measuring device, calibration method and robot
JP4429135B2 (en) Three-dimensional shape measurement system and measurement method
JP2005106491A (en) System for measuring three-dimensional shape of head part
CN113566709A (en) Calibration method and device of structured light measurement system and electronic equipment
CN212903049U (en) Portable three-dimensional laser scanning system
CN113686264B (en) Three-dimensional measurement method and system based on polar line geometry
Ikeuchi 2.1 Camera Model
US20240007606A1 (en) Systems and methods for performing temperature-dependent reference image correction for light projectors
Wu et al. Gpu-based discrepancy check for 3D fabrication
CN116878825A (en) Calibration method, device, equipment and storage medium of 3D imaging system
Skarlatos et al. Replication of Marble Exhibits using photogrammetry and laser scanning (or how to forge exhibits)
Iovenitti Three-dimensional measurement using a single camera and target tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110614

R150 Certificate of patent or registration of utility model

Ref document number: 4766839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3