以下、本開示の実施形態について、図面を参照しつつ詳細に説明する。なお、以下の実施形態に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能である。
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. The components described in the following embodiments include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in an equivalent range. Furthermore, the components described below can be appropriately combined.
また、以下の説明においては、2つの座標系を設定している。1つの座標系は、3次元座標系である。3次元座標系としては、例えば、XYZ直交座標系が設定されている。XYZ直交座標系において、Z軸方向は、例えば鉛直方向に設定され、X軸方向及びY軸方向は、例えば、水平方向に平行で互いに直交する方向に設定される。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ軸方向とする。また、残りの1つの座標系は、2次元座標系である。2次元座標系としては、例えば、ij直交座標系が設定されている。ij直交座標系において、i方向及びj方向は、例えば、互いに直交する方向に設定される。なお、ij直交座標系は、所定の式を用いて、XYZ直交座標系に変換可能となっている。
In the following description, two coordinate systems are set. One coordinate system is a three-dimensional coordinate system. For example, an XYZ orthogonal coordinate system is set as the three-dimensional coordinate system. In the XYZ orthogonal coordinate system, the Z-axis direction is set, for example, in the vertical direction, and the X-axis direction and the Y-axis direction are set, for example, in directions parallel to the horizontal direction and orthogonal to each other. The rotation (tilt) directions around the X axis, Y axis, and Z axis are defined as θX, θY, and θZ axis directions, respectively. The other one coordinate system is a two-dimensional coordinate system. For example, an ij orthogonal coordinate system is set as the two-dimensional coordinate system. In the ij orthogonal coordinate system, the i direction and the j direction are set, for example, in directions orthogonal to each other. The ij rectangular coordinate system can be converted into an XYZ rectangular coordinate system using a predetermined formula.
[第1実施形態]
図1は、第1実施形態の形状測定装置を含むシステムの一部の構成を示す図である。図1に示すシステムは、例えば、形状測定装置1を備えた構造物製造システム200である。なお、構造物製造システム200の詳細については後述する。図1は、構造物製造システム200の一部を示している。構造物製造システム200は、形状測定装置1と、形状測定装置1の両側に設けられる2つの搬送装置206と、を含んでいる。2つの搬送装置206のうち、一方側の搬送装置206は、前工程において処理された測定対象の物体(測定対象物)Mを、形状測定装置1に搬入している。前工程としては、例えば、測定対象物Mを成形する成形工程である。他方側の搬送装置206は、形状測定装置1で形状が測定された測定対象物Mを搬出して、後工程に搬送している。後工程としては、例えば、測定対象物Mを熱処理する熱処理工程、測定対象物Mを洗浄する洗浄工程、測定対象物Mにおいて前工程とは異なる箇所を成形する第2成形工程、形状不良となった測定対象物Mをリペアするリペア工程などである。各搬送装置206は、例えば、多軸マニピュレータが適用されている。この構造物製造システム200では、一方側の搬送装置206、形状測定装置1、他方側の搬送装置206の順で、直列的に測定対象物Mを搬送する、いわゆるインラインシステムとなっている。
[First Embodiment]
FIG. 1 is a diagram illustrating a partial configuration of a system including the shape measuring apparatus according to the first embodiment. The system illustrated in FIG. 1 is, for example, a structure manufacturing system 200 including the shape measuring device 1. The details of the structure manufacturing system 200 will be described later. FIG. 1 shows a part of a structure manufacturing system 200. The structure manufacturing system 200 includes the shape measuring device 1 and two transfer devices 206 provided on both sides of the shape measuring device 1. Of the two transfer devices 206, one transfer device 206 carries the object M to be measured (measurement object) processed in the previous process into the shape measuring device 1. The pre-process is, for example, a forming process of forming the measuring object M. The transport device 206 on the other side unloads the measurement target M whose shape has been measured by the shape measuring device 1 and transports it to a subsequent process. The post-process includes, for example, a heat treatment process of heat-treating the measurement target M, a cleaning process of cleaning the measurement target M, a second molding process of molding a different portion of the measurement target M from the previous process, and a shape defect. And a repairing step of repairing the measured object M. Each transport device 206 is, for example, a multi-axis manipulator. The structure manufacturing system 200 is a so-called in-line system that transports the measurement target M in series in the order of the one-side transport device 206, the shape measuring device 1, and the other-side transport device 206.
次に、図2及び図3を参照して、形状測定装置1について説明する。図2は、第1実施形態の形状測定装置の外観を示す図である。図3は、第1実施形態の形状測定装置の概略構成を示す模式図である。
Next, the shape measuring device 1 will be described with reference to FIGS. FIG. 2 is a diagram illustrating an appearance of the shape measuring apparatus according to the first embodiment. FIG. 3 is a schematic diagram illustrating a schematic configuration of the shape measuring apparatus according to the first embodiment.
形状測定装置1は、例えば光切断法を利用して、測定対象物Mの三次元的な形状を測定する。形状測定装置1は、プローブ移動装置2と、光学プローブ3と、制御装置4と、保持回転装置7と、を備える。なお、図2は、形状測定装置1のうち、プローブ移動装置2、光学プローブ3及び保持回転装置7の外観を示している。図3は、形状測定装置1の全体の構成を示している。
The shape measuring device 1 measures a three-dimensional shape of the measurement target M using, for example, a light cutting method. The shape measuring device 1 includes a probe moving device 2, an optical probe 3, a control device 4, and a holding and rotating device 7. FIG. 2 shows the appearance of the probe moving device 2, the optical probe 3, and the holding and rotating device 7 in the shape measuring device 1. FIG. 3 shows the entire configuration of the shape measuring device 1.
形状測定装置1は、ベースBに設けられた保持回転装置7に保持されている測定対象物Mの形状を測定する。形状測定装置1は、プローブ移動装置2と保持回転装置7とが、光学プローブ3と測定対象物Mとを相対的に移動させる移動機構となる。光学プローブ3は、測定対象物Mに対して相対移動しつつ、測定対象物Mにライン状のパターンとなる投影光Lを投影しながら、ライン状の投影光Lが投影された測定対象物Mを撮像する。形状測定装置1は、光学プローブ3で撮像したライン状の投影光Lが投影された測定対象物Mの像の画像を、制御装置4で処理して、測定対象物Mの形状を測定する。
The shape measuring device 1 measures the shape of the measuring object M held by the holding and rotating device 7 provided on the base B. The shape measuring device 1 is a moving mechanism in which the probe moving device 2 and the holding and rotating device 7 move the optical probe 3 and the measuring object M relatively. The optical probe 3 projects the linear projection light L onto the measurement target M while projecting the projection light L in a linear pattern onto the measurement target M while relatively moving with respect to the measurement target M. Is imaged. The shape measuring device 1 processes the image of the image of the measurement target M onto which the linear projection light L captured by the optical probe 3 is projected by the control device 4, and measures the shape of the measurement target M.
プローブ移動装置2は、光学プローブ3から投光されるライン状の投影光Lが、測定対象物Mの形状が測定される範囲である測定範囲に投影されるように、光学プローブ3を測定対象物Mに対して移動させる。ここで、測定範囲は、測定対象物Mの形状を測定するために設定される所定の範囲であり、具体的に、測定対象物Mの表面において測定対象として設定される少なくとも一部の範囲となっている。つまり、測定範囲は、ライン状の投影光Lを投影しながら移動させたときの、投影光Lが投影される範囲となっている。また、プローブ移動装置2は、ライン状の投影光Lの投影位置が測定対象物M上で逐次移動できるように、測定対象物Mに対して光学プローブ3を移動させる。
The probe moving device 2 controls the optical probe 3 so that the linear projection light L projected from the optical probe 3 is projected onto a measurement range in which the shape of the measurement target M is measured. The object M is moved. Here, the measurement range is a predetermined range set for measuring the shape of the measurement target M, and specifically, at least a part of the range set as a measurement target on the surface of the measurement target M. Has become. That is, the measurement range is a range where the projection light L is projected when the projection light L is moved while projecting the linear projection light L. The probe moving device 2 moves the optical probe 3 with respect to the measurement target M so that the projection position of the linear projection light L can sequentially move on the measurement target M.
図3に示すように、プローブ移動装置2は、光学プローブ3を移動させる駆動部10と、光学プローブ3の位置を検出する位置検出部11とを備えている。駆動部10は、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54を備えている。位置検出部11は、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54に設けられるエンコーダなどの位置検出手段で三次元空間(XYZ直交座標系)における光学プローブ3の位置を検出する。
As shown in FIG. 3, the probe moving device 2 includes a driving unit 10 for moving the optical probe 3 and a position detecting unit 11 for detecting the position of the optical probe 3. The driving unit 10 includes an X moving unit 50X, a Y moving unit 50Y, a Z moving unit 50Z, a first rotating unit 53, and a second rotating unit 54. The position detecting unit 11 is a three-dimensional space (XYZ orthogonal coordinates) using position detecting means such as an encoder provided in the X moving unit 50X, the Y moving unit 50Y, the Z moving unit 50Z, the first rotating unit 53, and the second rotating unit 54. System), the position of the optical probe 3 is detected.
X移動部50Xは、ベースBに対して矢印62の方向、つまりX軸方向に移動自在に設けられている。Y移動部50Yは、X移動部50Xに対して矢印63の方向、つまりY軸方向に移動自在に設けられている。Y移動部50Yには、Z軸方向に延在する保持体52が設けられている。Z移動部50Zは、保持体52に対して、矢印64の方向、つまりZ軸方向に移動自在に設けられている。プローブ移動装置2は、X移動部50X、Y移動部50Y及びZ移動部50Zが、光学プローブ3をX軸方向、Y軸方向及びZ軸方向に移動可能にするXYZ移動機構となる。なお、第1実施形態のプローブ移動装置2は、X移動部50X、Y移動部50Y、Z移動部50Zを備え、光学プローブ3をX軸方向、Y軸方向及びZ軸方向の3軸に移動可能な機構としたが、これに限定されない。プローブ移動装置2は、X移動部50X、Y移動部50Y、Z移動部50Zの一部を備えない構成、つまり、移動軸が2軸、1軸となる装置としてもよい。また、形状測定装置1は、光学プローブ3をXYZ軸に移動しない構造としてもよく、この場合、測定対象物Mを移動させる構造としてもよい。
The X moving unit 50X is provided movably in the direction of arrow 62 with respect to the base B, that is, in the X-axis direction. The Y moving unit 50Y is provided so as to be movable with respect to the X moving unit 50X in the direction of arrow 63, that is, in the Y axis direction. The Y moving part 50Y is provided with a holding body 52 extending in the Z-axis direction. The Z moving unit 50Z is provided movably with respect to the holder 52 in the direction of arrow 64, that is, in the Z-axis direction. The probe moving device 2 is an XYZ moving mechanism that enables the X moving unit 50X, the Y moving unit 50Y, and the Z moving unit 50Z to move the optical probe 3 in the X-axis direction, the Y-axis direction, and the Z-axis direction. The probe moving device 2 according to the first embodiment includes an X moving unit 50X, a Y moving unit 50Y, and a Z moving unit 50Z, and moves the optical probe 3 in three axes of the X-axis direction, the Y-axis direction, and the Z-axis direction. Although a possible mechanism was used, the present invention is not limited to this. The probe moving device 2 may be configured not to include a part of the X moving unit 50X, the Y moving unit 50Y, and a part of the Z moving unit 50Z, that is, a device having two axes and one axis of movement. Further, the shape measuring apparatus 1 may have a structure in which the optical probe 3 is not moved in the XYZ axes, and in this case, a structure in which the measurement target M is moved.
第1回転部53は、後述する保持部材55に支持される光学プローブ3をX軸と平行な回転軸線(回転軸)53aを中心とする回転方向、つまり矢印65の方向(言い換えれば、θX軸方向)に回転して光学プローブ3の姿勢を変える。第2回転部54は、保持部材55に支持される光学プローブ3を後述する第1保持部55Aが延在する方向と平行な軸線を中心とする回転方向、つまり矢印66の方向(言い換えれば、θZ軸方向)に回転して光学プローブ3の姿勢を変える。プローブ移動装置2は、第1回転部53及び第2回転部54が、光学プローブ3を矢印65の回転方向、矢印66の回転方向に回転可能にするθ移動機構となる。なお、第1実施形態のプローブ移動装置2は、第1回転部53及び第2回転部54を設けたが、これに限定されない。プローブ移動装置2は、一方の回転部のみを備えた構造としてもよい。また、形状測定装置1は、光学プローブ3を回転しない構造としてもよく、この場合、測定対象物Mを回転させる構造としてもよい。
The first rotating unit 53 rotates the optical probe 3 supported by a holding member 55 described later in a rotation direction about a rotation axis (rotation axis) 53a parallel to the X axis, that is, the direction of the arrow 65 (in other words, the θX axis Direction) to change the attitude of the optical probe 3. The second rotating portion 54 rotates the optical probe 3 supported by the holding member 55 around an axis parallel to a direction in which a first holding portion 55A described later extends, that is, the direction of the arrow 66 (in other words, (in the θZ axis direction) to change the attitude of the optical probe 3. The probe moving device 2 is a θ moving mechanism that enables the first rotating unit 53 and the second rotating unit 54 to rotate the optical probe 3 in the directions indicated by arrows 65 and 66. The probe moving device 2 according to the first embodiment includes the first rotating unit 53 and the second rotating unit 54, but is not limited thereto. The probe moving device 2 may have a structure including only one rotating unit. The shape measuring device 1 may have a structure in which the optical probe 3 does not rotate, and in this case, a structure in which the measurement target M is rotated.
また、形状測定装置1は、基準球73a及び基準球73bを有する。基準球73a及び基準球73bは、ベースB上に配置されている。形状測定装置1は、基準球73a及び基準球73bを用いて、プローブ移動装置2により移動する光学プローブ3のキャリブレーションを行う。
Further, the shape measuring device 1 has a reference sphere 73a and a reference sphere 73b. The reference sphere 73a and the reference sphere 73b are arranged on the base B. The shape measuring device 1 uses the reference sphere 73a and the reference sphere 73b to calibrate the optical probe 3 that is moved by the probe moving device 2.
保持回転装置7は、図2及び図3に示すように、測定対象物Mを保持するテーブル71と、テーブル71をθZ軸方向、つまり矢印68の方向に回転させる回転駆動部72と、テーブル71の回転方向の位置を検出する位置検出部73と、を有する。位置検出部73は、テーブル71または回転駆動部72の回転軸Axの回転を検出するエンコーダ装置である。保持回転装置7は、位置検出部73で検出した結果に基づいて、回転駆動部72によってテーブル71を回転させる。
As shown in FIGS. 2 and 3, the holding and rotating device 7 includes a table 71 for holding the measurement target M, a rotation driving unit 72 for rotating the table 71 in the θZ axis direction, that is, a direction of an arrow 68, and a table 71. And a position detection unit 73 for detecting the position in the rotation direction of. The position detection unit 73 is an encoder device that detects the rotation of the rotation axis Ax of the table 71 or the rotation drive unit 72. The holding and rotating device 7 rotates the table 71 by the rotation driving unit 72 based on the result detected by the position detection unit 73.
プローブ移動装置2及び保持回転装置7の駆動は、位置検出部11及び位置検出部73の検出結果に基づいて、制御装置4により制御される。形状測定装置1は、保持回転装置7とプローブ移動装置2を駆動させることにより、光学プローブ3から投光されるライン状の投影光Lを測定対象物Mの任意の測定範囲に投影する。つまり、プローブ移動装置2は、第1回転部53及び第2回転部54により矢印65及び矢印66の回転方向に光学プローブ3を回転させ、光学プローブ3の姿勢を変化させることにより、光学プローブ3(後述の投光装置8)によって投影される投影光Lの測定対象物Mへの投影方向と、光学プローブ3(後述の撮像装置9)が測定対象物Mを撮像する撮影方向との少なくとも一方を変化させる。また、保持回転装置7は、矢印68の回転方向に測定対象物Mを回転させることにより、光学プローブ3によって投影光Lを投影する位置と光学プローブ3によって測定対象物Mを撮像する位置とを変化させる。
The driving of the probe moving device 2 and the holding and rotating device 7 is controlled by the control device 4 based on the detection results of the position detection unit 11 and the position detection unit 73. The shape measuring device 1 projects the linear projection light L projected from the optical probe 3 onto an arbitrary measurement range of the measuring object M by driving the holding / rotating device 7 and the probe moving device 2. That is, the probe moving device 2 rotates the optical probe 3 in the rotation directions of the arrows 65 and 66 by the first rotating unit 53 and the second rotating unit 54 to change the attitude of the optical probe 3, thereby obtaining the optical probe 3. At least one of a projection direction of the projection light L projected on the measurement target M by the (light projection device 8 described later) and a photographing direction in which the optical probe 3 (imaging device 9 described later) captures the measurement target M. To change. In addition, the holding and rotating device 7 rotates the measurement target M in the rotation direction of the arrow 68 so that the position at which the projection light L is projected by the optical probe 3 and the position at which the measurement target M is imaged by the optical probe 3 are set. Change.
保持部材55は、光学プローブ3を支持している。保持部材55は、回転軸線53aと直交する方向に延び、第1回転部53に支持される第1保持部55Aと、第1保持部55Aの+Z側の端部に設けられると共に回転軸線53aと平行に延びる第2保持部55Bとを有する。第1保持部55Aは、+Z側の端部が光学プローブ3よりも、測定対象物Mから遠い側に配置されている。と第2保持部55Bは、第1保持部55Aと直交する。第2保持部55Bは、+X側の端部に光学プローブ3が支持されている。第1回転部53は、回転軸線53aの位置が、光学プローブ3よりも、測定対象物Mに近い側に配置されている。また、第1保持部55Aの測定対象物Mに対して近い側の端部には、カウンターバランス55cが設けられている。したがって、第1回転部53の回転軸線53aに対して、保持部材55側に生じるモーメントとカウンターバランス55c側に生じるモーメントが釣り合っている。
The holding member 55 supports the optical probe 3. The holding member 55 extends in a direction orthogonal to the rotation axis 53a, and is provided with a first holding portion 55A supported by the first rotating portion 53, and provided at the + Z side end of the first holding portion 55A and the rotation axis 53a. And a second holding portion 55B extending in parallel. The first holding unit 55 </ b> A has an end on the + Z side farther from the measurement target M than the optical probe 3. And the second holder 55B are orthogonal to the first holder 55A. The optical probe 3 is supported at an end on the + X side of the second holding unit 55B. The first rotating unit 53 is arranged such that the position of the rotation axis 53 a is closer to the measuring object M than the optical probe 3. A counterbalance 55c is provided at an end of the first holding unit 55A on the side closer to the measurement target M. Therefore, the moment generated on the holding member 55 side and the moment generated on the counterbalance 55c side are balanced with respect to the rotation axis 53a of the first rotating part 53.
上記のプローブ移動装置2及び保持回転装置7には、XYZ直交座標系が設定されている。つまり、光学プローブ3を移動させる座標系、及び測定対象物Mを移動させる座標系は、XYZ直交座標系となっている。このため、光学プローブ3の位置及び測定対象物Mの位置は、XYZ直交座標系における位置として取得することができる。
An XYZ orthogonal coordinate system is set in the probe moving device 2 and the holding and rotating device 7. That is, the coordinate system for moving the optical probe 3 and the coordinate system for moving the measurement target M are XYZ orthogonal coordinate systems. For this reason, the position of the optical probe 3 and the position of the measuring object M can be acquired as positions in the XYZ orthogonal coordinate system.
光学プローブ3は、投光装置8及び撮像装置9を備えている。投光装置8は、測定対象物Mに投影光Lを投影する投光部として機能している。撮像装置9は、投影光Lが投影された測定対象物Mを含む像を撮像する撮像部として機能している。投光装置8及び撮像装置9は共通の筐体により固定されている。したがって、投光装置8によるライン状の投影光の投影方向と、撮像装置9による撮影方向との相互の位置関係は、固定された状態に保たれている。そして、ライン状の投影光の投影方向と撮像装置9の撮影方向とその両者間の位置関係を基に、撮像装置9で検出されたライン状の投影光Lの像の位置から三角測量法に基づき、ライン状の投影光Lが投影された測定対象物M上の領域について、三次元空間における座標を求める。なお、投光装置8と撮像装置9との位置関係は、可変であってもよい。
The optical probe 3 includes a light projecting device 8 and an imaging device 9. The light projecting device 8 functions as a light projecting unit that projects the projection light L onto the measuring object M. The imaging device 9 functions as an imaging unit that captures an image including the measurement target M onto which the projection light L is projected. The light emitting device 8 and the imaging device 9 are fixed by a common housing. Therefore, the mutual positional relationship between the projection direction of the linear projection light by the light projection device 8 and the imaging direction by the imaging device 9 is kept fixed. Then, based on the projection direction of the linear projection light, the imaging direction of the imaging device 9, and the positional relationship between the two, the position of the image of the linear projection light L detected by the imaging device 9 is determined by triangulation. Based on this, coordinates in a three-dimensional space are obtained for an area on the measurement target M onto which the linear projection light L is projected. Note that the positional relationship between the light emitting device 8 and the imaging device 9 may be variable.
投光装置8は、保持回転装置7に保持された測定対象物Mの測定範囲に、測定光としてのライン状の投影光Lを投影する。投光装置8は、制御装置4によって制御される。投光装置8は、光源12と、投影光学系13とを備える。本実施形態の光源12は、例えば、レーザーダイオードを含む。なお、光源12は、レーザーダイオード以外の発光ダイオード(LED)等の固体光源を含んでいてもよい。また、光源12は、制御装置4により投光量が制御されている。
The light projecting device 8 projects the linear projection light L as measurement light onto the measurement range of the measurement target M held by the holding and rotating device 7. The light emitting device 8 is controlled by the control device 4. The light projecting device 8 includes a light source 12 and a projection optical system 13. The light source 12 of the present embodiment includes, for example, a laser diode. Note that the light source 12 may include a solid-state light source such as a light emitting diode (LED) other than the laser diode. In addition, the light amount of the light source 12 is controlled by the control device 4.
投影光学系13は、光源12から発せられた光の空間的な光強度分布を調整して、ライン状の投影光Lを生成する。つまり、投影光学系13は、光源12からの光を、投影光Lの投影方向に直交する面内おいて、一軸方向に集光して、ライン状の投影光Lを生成する。一軸方向は、投影光Lの投影方向に直交する面における方向であり、投影光Lを集光する方向である。投影光学系13は、集光レンズ15と、シリンドリカルレンズ16とを含む。集光レンズ15は、光源12からの光を、焦点に集光する。シリンドリカルレンズ16は、集光レンズ15からの光を、投影光の投影方向に直交する面内おいて、一軸方向に直交する方向に発散させることで、ライン状の投影光Lとする。なお、投影光学系13は、集光レンズ15及びシリンドリカルレンズ16を含む構成に限定されない。投影光学系13は、1つの光学素子であってもよいし、複数の光学素子を含んでいてもよい。光源12から発せられた光は、投影光学系13により、投影方向に直交する面内おいて一軸方向に集光されることで、一軸方向に直交する方向を長手方向とするライン状の投影光Lとなる。ライン状の投影光Lは、投光装置8から測定対象物Mに向く投影方向に沿って出射される。
The projection optical system 13 adjusts the spatial light intensity distribution of the light emitted from the light source 12 to generate linear projection light L. In other words, the projection optical system 13 condenses the light from the light source 12 in one axis direction within a plane orthogonal to the projection direction of the projection light L, and generates the linear projection light L. The uniaxial direction is a direction on a plane orthogonal to the projection direction of the projection light L, and is a direction in which the projection light L is collected. The projection optical system 13 includes a condenser lens 15 and a cylindrical lens 16. The condenser lens 15 condenses the light from the light source 12 to a focal point. The cylindrical lens 16 diverges the light from the condensing lens 15 in a direction orthogonal to the projection direction of the projection light in a direction orthogonal to the uniaxial direction, thereby forming linear projection light L. Note that the projection optical system 13 is not limited to the configuration including the condenser lens 15 and the cylindrical lens 16. The projection optical system 13 may be one optical element or may include a plurality of optical elements. The light emitted from the light source 12 is condensed by the projection optical system 13 in a plane perpendicular to the projection direction in one axis direction, so that a linear projection light having a direction perpendicular to the one axis direction as a longitudinal direction. L. The linear projection light L is emitted from the light projecting device 8 in a projection direction toward the measurement target M.
図4は、第1実施形態の形状測定装置の光学プローブを示す模式図である。図4は、投光装置8の投影光学系13におけるシリンドリカルレンズ16の一軸方向が、投影光Lの投影方向及び回転軸線53aの軸方向(X軸方向)に直交する場合を示している。また、図4は、投影光Lの投影方向及び撮像装置9の撮影方向を含む面が、回転軸線53aの軸方向(X軸方向)に直交する面となっている。さらに、図4は、投影光Lの投影方向がZ軸方向となっている。図3及び図4に示すように、投光装置8から投影されるライン状の投影光Lの投影方向に沿う面の一部は、後に詳述する撮像素子20の撮像面(結像面)と共役となっている。以降、この面を測定面21aと称する。ここで、ライン状の投影光Lの長手方向(X軸方向)と直交する方向(Y軸方向)におけるボケは、投影光学系13の焦点を中心にZ軸に沿って変化する。従って、測定面21aのZ軸方向における範囲は、ライン状の投影光Lの長手方向と直交する方向におけるボケの程度に基づいて設定される。一例として、測定面21aの中心位置をOとすると、中心位置Oに投影光学系13の焦点が合うように投影光学系13と後に詳述する撮像装置9とが設置される。投光装置8が図4に示す位置関係である場合、測定面21aは、投影光Lの長手方向(X軸方向)と、投影光Lの投影方向(Z軸方向)とを含む面となっており、図3及び図4の紙面に対して垂直な面となっている。測定面21aは、投影光学系13の焦点を含む面となっている。また、測定面21aは、測定対象物Mの測定範囲となる表面と交差する面となっている。つまり、投影光学系13は、ライン状の投影光Lの焦点を含む測定面21aが、測定対象物Mの測定範囲となる表面と交差するように、集光レンズ15及びシリンドリカルレンズ16等の光学素子が配置されている。また、測定面21aの領域(測定面領域とも言い換えられる)は、撮像装置9の撮像視野の領域、すなわち撮像装置9によって撮像される範囲と対応しており、方形状の領域となっている。なお、測定面21aの中心位置をOとすると、測定面21aの中心位置Oは、後に詳述する撮像素子20の撮像面における測定視野領域26の中心位置O´に対応している。
FIG. 4 is a schematic diagram illustrating an optical probe of the shape measuring apparatus according to the first embodiment. FIG. 4 shows a case where one axial direction of the cylindrical lens 16 in the projection optical system 13 of the light projection device 8 is orthogonal to the projection direction of the projection light L and the axial direction (X-axis direction) of the rotation axis 53a. In FIG. 4, the plane including the projection direction of the projection light L and the imaging direction of the imaging device 9 is a plane orthogonal to the axial direction (X-axis direction) of the rotation axis 53a. Further, in FIG. 4, the projection direction of the projection light L is the Z-axis direction. As shown in FIGS. 3 and 4, a part of the surface along the projection direction of the linear projection light L projected from the light projecting device 8 is an imaging surface (imaging surface) of the imaging device 20 described in detail later. And conjugate. Hereinafter, this surface is referred to as a measurement surface 21a. Here, the blur in the direction (Y-axis direction) orthogonal to the longitudinal direction (X-axis direction) of the linear projection light L changes along the Z-axis around the focal point of the projection optical system 13. Therefore, the range of the measurement surface 21a in the Z-axis direction is set based on the degree of blur in the direction orthogonal to the longitudinal direction of the linear projection light L. As an example, assuming that the center position of the measurement surface 21a is O, the projection optical system 13 and the imaging device 9 described later are installed so that the projection optical system 13 is focused on the center position O. When the light projecting device 8 has the positional relationship shown in FIG. 4, the measurement surface 21a is a surface including the longitudinal direction (X-axis direction) of the projection light L and the projection direction (Z-axis direction) of the projection light L. 3 and a plane perpendicular to the plane of FIG. 3 and FIG. The measurement surface 21a is a surface including the focal point of the projection optical system 13. Further, the measurement surface 21a is a surface that intersects with a surface of the measurement target M that is a measurement range. That is, the projection optical system 13 controls the optical system of the condensing lens 15 and the cylindrical lens 16 so that the measurement surface 21a including the focal point of the linear projection light L intersects the surface of the measurement target M which is the measurement range. An element is arranged. The area of the measurement surface 21a (also referred to as the measurement surface area) corresponds to the area of the imaging visual field of the imaging device 9, that is, the range where the image is captured by the imaging device 9, and is a rectangular area. Here, assuming that the center position of the measurement surface 21a is O, the center position O of the measurement surface 21a corresponds to the center position O 'of the measurement visual field region 26 on the imaging surface of the imaging element 20 described later in detail.
図3は、投光装置8の投影光学系13におけるシリンドリカルレンズ16の一軸方向が、投影光Lの投影方向及び回転軸線53aの軸方向(X軸方向)に直交する場合を示している。また、図3は、投影光Lの投影方向及び撮像装置の撮影方向を含む面が、回転軸線53aの軸方向(X軸方向)に直交する面となっている。形状測定装置1は、投光装置8が図3に示す位置関係である場合、投光装置8から出射された投影光Lが、投光装置8からの投影方向に対して直交する面を有する測定対象物Mに投影されると、投影光Lの長手方向は、回転軸線53aと平行な方向となる。なお、投影光Lが図3に示す位置関係である場合において、投影光Lは、その長手方向が回転軸線53aと平行となるが、例えば、光学プローブ3を第2回転部54により矢印66に回転させることで、投影光学系13の一軸方向が、回転軸線53aの軸方向(X軸方向)に直交しない場合、投影光Lの長手方向は回転軸線53aと平行とならない。
FIG. 3 shows a case where one axial direction of the cylindrical lens 16 in the projection optical system 13 of the light projecting device 8 is orthogonal to the projection direction of the projection light L and the axial direction (X-axis direction) of the rotation axis 53a. In FIG. 3, the plane including the projection direction of the projection light L and the imaging direction of the imaging device is a plane orthogonal to the axial direction (X-axis direction) of the rotation axis 53a. When the light projecting device 8 has the positional relationship shown in FIG. 3, the shape measuring device 1 has a plane in which the projection light L emitted from the light projecting device 8 is orthogonal to the projection direction from the light projecting device 8. When projected on the measurement target M, the longitudinal direction of the projection light L is parallel to the rotation axis 53a. When the projection light L has the positional relationship shown in FIG. 3, the projection light L has a longitudinal direction parallel to the rotation axis 53a. By rotating the projection optical system 13, if the one axis direction is not orthogonal to the axis direction (X-axis direction) of the rotation axis 53a, the longitudinal direction of the projection light L is not parallel to the rotation axis 53a.
このように、測定対象物Mに投影されるライン状の投影光Lの長手方向は、第2回転部54により光学プローブ3を回転させることで、投影光Lの向きを変えることができるため、回転軸線53aと平行となることに限定されない。ここで、投影光Lの向きと称しているときは、投影光Lの長手方向の方向を示している。例えば、測定対象物Mの面が広がる方向に沿うように、ライン状の投影光Lの長手方向の向きを変えることで、測定対象物Mの形状を効率的に測定することができる。また、第2回転部54による投影光Lの投影方向を変えることで、撮像装置9による撮影方向も変わる。したがって、例えば、歯車のような凸部が並んだ形状の測定対象物Mであっても、歯筋に沿って投影光Lの長手方向及び撮影方向を設定することで、歯底の形状も測定することができる。
As described above, the direction of the projection light L can be changed by rotating the optical probe 3 by the second rotating unit 54 in the longitudinal direction of the linear projection light L projected on the measurement target M. It is not limited to being parallel to the rotation axis 53a. Here, the term “direction of the projection light L” indicates the direction of the projection light L in the longitudinal direction. For example, by changing the direction of the longitudinal direction of the linear projection light L so as to follow the direction in which the surface of the measurement target M spreads, the shape of the measurement target M can be efficiently measured. Further, by changing the projection direction of the projection light L by the second rotating unit 54, the shooting direction by the imaging device 9 also changes. Therefore, for example, even if the measurement target M has a shape in which convex portions such as gears are arranged, the shape of the tooth bottom can also be measured by setting the longitudinal direction and the photographing direction of the projection light L along the tooth trace. can do.
なお、投影光学系13は、集光レンズ15及びシリンドリカルレンズ16を含む光学素子を用いて、光源12からの光をライン状の投影光としたが、この構成に限られず、既知の他の構成であってもよい。例えば、集光レンズ15及びシリンドリカルレンズ16に代えて、CGH等の回折光学素子を用いて、光源12からの光をライン状の投影光としてもよい。CGH等の回折光学素子を含む投影光学系13は、光源12から発せられた光の空間的な光強度分布を調整している。
The projection optical system 13 uses an optical element including a condenser lens 15 and a cylindrical lens 16 to convert the light from the light source 12 into a linear projection light. It may be. For example, instead of the condenser lens 15 and the cylindrical lens 16, a diffractive optical element such as CGH may be used, and the light from the light source 12 may be used as linear projection light. A projection optical system 13 including a diffractive optical element such as CGH adjusts a spatial light intensity distribution of light emitted from the light source 12.
図3及び図4に示すように、撮像装置9は、測定対象物Mの表面に投影された投影光Lを含む測定対象物Mの像を撮像して、撮像した画像の画像データを生成するものである。撮像装置9は、撮像素子20、結像光学系21、ダイヤフラム23、及びダイヤフラム駆動部24を備える。投光装置8から測定対象物Mに投影された投影光Lは、測定対象物Mの表面で散乱して、その少なくとも一部が結像光学系21へ入射する。結像光学系21は、測定対象物Mを含む像を結像する結像部として機能しており、具体的に、投光装置8によって測定対象物Mに投影されたライン状の投影光Lの像を含む測定対象物Mの像を撮像素子20に結ぶ。撮像素子20は、この結像光学系21が形成する像を撮像する。この撮像素子20は、受光した受光信号に基づき画像処理を行うことで、画像データを生成する。撮像素子20には、制御装置4が接続されており、生成した画像データを制御装置4に出力する。ダイヤフラム23は、大きさを変更可能な開口を有し、開口の大きさを変えることで結像光学系21を通過する光量を制御することができる。ダイヤフラム23の開口の大きさは、ダイヤフラム駆動部24により調整可能である。このダイヤフラム駆動部24は制御装置4に制御されている。
As shown in FIGS. 3 and 4, the imaging device 9 captures an image of the measurement target M including the projection light L projected on the surface of the measurement target M, and generates image data of the captured image. Things. The imaging device 9 includes an imaging element 20, an imaging optical system 21, a diaphragm 23, and a diaphragm driving unit 24. The projection light L projected on the measuring object M from the light projecting device 8 is scattered on the surface of the measuring object M, and at least a part of the light is incident on the imaging optical system 21. The imaging optical system 21 functions as an imaging unit that forms an image including the measurement target M. Specifically, the linear projection light L projected on the measurement target M by the light projecting device 8 is used. The image of the measuring object M including the image of the image is formed on the image sensor 20. The imaging element 20 captures an image formed by the imaging optical system 21. The image sensor 20 generates image data by performing image processing based on the received light reception signal. The control device 4 is connected to the image sensor 20 and outputs the generated image data to the control device 4. The diaphragm 23 has an opening whose size can be changed, and the amount of light passing through the imaging optical system 21 can be controlled by changing the size of the opening. The size of the opening of the diaphragm 23 can be adjusted by the diaphragm driving unit 24. The diaphragm driving unit 24 is controlled by the control device 4.
図3及び図4に示すように、結像光学系21は、投影光Lが投影された測定対象物Mの像を、撮像素子20の撮像面20aに結像する。ここで、結像光学系21は、投影光Lの焦点を含む面である測定面21aと撮像素子20の撮像面20a(結像面)とが共役な関係になるように構成されている。このため、結像光学系21が測定面21aと撮像素子20の撮像面20aとを共役な面とすることで、測定面21aにおける像は、撮像素子20の撮像面20aにおいて合焦した像となる。また、測定面21aに交差する測定対象物Mの表面の位置が、投影光Lの投影方向において変化する場合(すなわち、測定対象物Mの形状が変化する場合)、この変化に応じて、撮像素子20の撮像面20aに結像される投影光Lの像の位置は変化する。
As shown in FIGS. 3 and 4, the imaging optical system 21 forms an image of the measurement target M onto which the projection light L is projected on the imaging surface 20 a of the imaging device 20. Here, the imaging optical system 21 is configured such that the measurement surface 21a, which is a surface including the focal point of the projection light L, and the imaging surface 20a (imaging surface) of the imaging device 20 have a conjugate relationship. For this reason, the imaging optical system 21 makes the measurement surface 21a and the imaging surface 20a of the imaging device 20 conjugate surfaces, so that the image on the measurement surface 21a is different from the image focused on the imaging surface 20a of the imaging device 20. Become. When the position of the surface of the measurement target M intersecting with the measurement surface 21a changes in the projection direction of the projection light L (that is, when the shape of the measurement target M changes), the imaging is performed in accordance with the change. The position of the image of the projection light L formed on the imaging surface 20a of the element 20 changes.
図5は、撮像装置により撮像された画像の一例を示す図である。図6は、光学プローブの座標系を示す図である。図5に示す画像28は、撮像素子20の撮像面20a上の撮像領域25において撮像された画像である。撮像領域25は、撮像素子20により撮像可能な範囲となっている。図6に示すように、撮像素子20の撮像領域25は、複数の画素からなる方形状の領域となっていることから、図5に示す画像28も方形状の領域となっている。撮像領域25は、撮像素子20によって撮像された画像28の全ての領域とも言える。
FIG. 5 is a diagram illustrating an example of an image captured by the imaging device. FIG. 6 is a diagram showing a coordinate system of the optical probe. An image 28 illustrated in FIG. 5 is an image captured in the imaging region 25 on the imaging surface 20a of the imaging device 20. The imaging region 25 is a range in which the imaging device 20 can capture an image. As shown in FIG. 6, the imaging region 25 of the imaging element 20 is a square region including a plurality of pixels, and thus the image 28 illustrated in FIG. 5 is also a square region. The imaging region 25 can be said to be all regions of the image 28 captured by the imaging device 20.
また、測定面21aの像が撮像素子20の撮像面20a上において結像されることにより形成される領域を、測定視野領域26としている。測定視野領域26は、撮像素子20の撮像領域25よりも小さな領域となっている。なお、測定視野領域26は、撮像領域25よりも小さな領域に限定されず、例えば、撮像領域25と同じ大きさの領域となっていてもよい。つまり、測定視野領域26は、撮像素子20の撮像領域25であってもよい。測定視野領域26は、撮像素子20の撮像面20a上において形成され、測定面21aの領域と対応する領域となっている。つまり、撮像装置9の撮像倍率が所定の撮像倍率である場合、撮像倍率に基づいて、測定面21aを含む領域が拡大または縮小されることで、撮像面20aに結像される測定視野領域26を含む領域は、拡大または縮小される。撮像素子20によって撮像された画像28には、測定視野領域26に対応する画像領域である測定画像領域27が含まれる。測定画像領域27は、測定面21aの像の画像であることから、ライン状の投影光Lが投影された測定対象物Mの像を含む画像となっている。
A region formed by forming an image of the measurement surface 21a on the imaging surface 20a of the imaging device 20 is referred to as a measurement visual field region 26. The measurement visual field area 26 is an area smaller than the imaging area 25 of the imaging element 20. The measurement visual field area 26 is not limited to an area smaller than the imaging area 25, and may be, for example, an area having the same size as the imaging area 25. That is, the measurement visual field region 26 may be the imaging region 25 of the imaging device 20. The measurement visual field region 26 is formed on the imaging surface 20a of the imaging device 20, and is a region corresponding to the region of the measurement surface 21a. That is, when the imaging magnification of the imaging device 9 is a predetermined imaging magnification, the area including the measurement surface 21a is enlarged or reduced based on the imaging magnification, so that the measurement visual field region 26 formed on the imaging surface 20a is enlarged. Is enlarged or reduced. The image 28 captured by the image sensor 20 includes a measurement image area 27 which is an image area corresponding to the measurement visual field area 26. Since the measurement image area 27 is an image of the image of the measurement surface 21a, the measurement image area 27 is an image including the image of the measurement target M onto which the linear projection light L is projected.
ここで、光学プローブ3には、ij直交座標系が設定されている。このため、光学プローブ3の撮像素子20における撮像領域25の座標系は、ij直交座標系となっている。また、撮像素子20によって撮像される画像28の座標系も、ij直交座標系となっている。具体的に、画像28は、j方向を横方向(図5の左右方向)とし、i方向を縦方向(図5の上下方向)とする方形状の画像となっている。画像28上の位置は、ij直交座標系における位置として取得することができる。
Here, an ij orthogonal coordinate system is set for the optical probe 3. For this reason, the coordinate system of the imaging region 25 in the imaging device 20 of the optical probe 3 is an ij orthogonal coordinate system. The coordinate system of the image 28 captured by the image sensor 20 is also the ij orthogonal coordinate system. Specifically, the image 28 is a rectangular image in which the j direction is the horizontal direction (the horizontal direction in FIG. 5) and the i direction is the vertical direction (the vertical direction in FIG. 5). The position on the image 28 can be obtained as a position in the ij orthogonal coordinate system.
測定画像領域27は、画像28に対して、所定の位置関係となるようにキャリブレーションされている。換言すれば、測定視野領域26は、撮像素子20の撮像領域25に対して、所定の位置関係となるようにキャリブレーションされている。例えば、測定画像領域27(または測定視野領域26)は、画像28(または撮像領域25)に対して、i方向の中央に位置すると共に、j方向の中央に位置するように、キャリブレーションされている。また、測定画像領域27に含まれる投影光Lの像の長手方向は、j方向に沿った方向となっている。
The measurement image area 27 is calibrated so as to have a predetermined positional relationship with the image 28. In other words, the measurement visual field region 26 is calibrated so as to have a predetermined positional relationship with the imaging region 25 of the imaging device 20. For example, the measurement image area 27 (or the measurement field area 26) is calibrated so as to be located at the center in the i direction and the center in the j direction with respect to the image 28 (or the imaging area 25). I have. The longitudinal direction of the image of the projection light L included in the measurement image area 27 is a direction along the j direction.
また、撮像素子20の撮像領域25には、ij直交座標系におけるセンサ原点Ibが設定されている。このため、撮像素子20で撮像された画像28の測定画像領域27においてもセンサ原点Ibが定義される。センサ原点Ibは、ij直交座標系とXYZ直交座標系との位置関係を示す基準位置となっている。つまり、センサ原点Ibは、ij直交座標系における位置を、ij直交座標系とXYZ直交座標系との位置関係に基づいて、XYZ直交座標系における位置に変換するための基準となる位置となっている。センサ原点Ibは、画像28上においていずれの位置に設定されていてもよく、例えば、画像28の中央に設定されている。このセンサ原点Ibは、測定対象物Mの形状を測定する(点群データを生成する)ために用いられる。
Further, in the imaging area 25 of the image sensor 20, the sensor origin I b is set at ij orthogonal coordinate system. Therefore, the sensor origin Ib is also defined in the measurement image area 27 of the image 28 captured by the image sensor 20. The sensor origin Ib is a reference position indicating the positional relationship between the ij rectangular coordinate system and the XYZ rectangular coordinate system. That is, the sensor origin Ib is a position serving as a reference for converting a position in the ij rectangular coordinate system into a position in the XYZ rectangular coordinate system based on the positional relationship between the ij rectangular coordinate system and the XYZ rectangular coordinate system. ing. The sensor origin Ib may be set at any position on the image 28, for example, set at the center of the image 28. The sensor origin Ib is used to measure the shape of the measurement target M (generate point cloud data).
なお、詳細は後述するが、本実施形態の撮像装置9は、結像光学系21により測定対象物Mを含む像の状態を変化させて結像し、撮像素子20により状態が変化する像を撮像して、像に対して歪んだ歪画像の画像データを生成している。
Although details will be described later, the imaging device 9 of the present embodiment forms an image by changing the state of the image including the measurement target M by the imaging optical system 21, and forms an image whose state changes by the imaging element 20. An image is taken and image data of a distorted image distorted with respect to the image is generated.
次に、図7を参照して、制御装置4について説明する。図7は、制御装置の概略構成を示すブロック図である。制御装置4は、形状測定装置1の各部を制御する。制御装置4は、光学プローブ3による撮像結果とプローブ移動装置2及び保持回転装置7の位置情報とに基づき、演算処理を行って測定対象物Mの測定範囲の3次元形状を算出する。本実施形態における形状情報は、測定対象物Mの少なくとも一部に関する形状、寸法、凹凸分布、表面粗さ、及び測定範囲上の点群の位置(座標)、の少なくとも1つを示す情報を含む。制御装置4は、図4に示すように、制御部30と、記憶部31と、入力部32と、表示部33と、を有する。
Next, the control device 4 will be described with reference to FIG. FIG. 7 is a block diagram illustrating a schematic configuration of the control device. The control device 4 controls each part of the shape measuring device 1. The control device 4 calculates the three-dimensional shape of the measurement range of the measurement target M by performing arithmetic processing based on the imaging result of the optical probe 3 and the position information of the probe moving device 2 and the holding and rotating device 7. The shape information in the present embodiment includes information indicating at least one of the shape, dimensions, unevenness distribution, surface roughness, and the position (coordinates) of a point group on the measurement range for at least a part of the measurement target M. . The control device 4 includes a control unit 30, a storage unit 31, an input unit 32, and a display unit 33, as shown in FIG.
制御装置4は、形状測定装置1のプローブ移動装置2、光学プローブ3及び保持回転装置7に接続されている。つまり、制御装置4は、例えば、形状測定装置1の各装置2,3,7に接続されるコンピュータでも構わないし、形状測定装置1の各装置2,3,7が設置される建物が備えるホストコンピュータなどでも構わない。また、形状測定装置1は、制御装置4と、プローブ移動装置2、光学プローブ3及び保持回転装置7とを物理的に分離し、制御装置4を、プローブ移動装置2、光学プローブ3及び保持回転装置7が設置される建物から離れた位置に設けて、インターネットなどの通信手段を用いて、制御装置4と、プローブ移動装置2、光学プローブ3及び保持回転装置7と、を接続する構成であってもよい。また、制御装置4は、制御部30と、記憶部31と、入力部32と、表示部33とが、それぞれ別々の場所に配置されても構わない。
The control device 4 is connected to the probe moving device 2, the optical probe 3, and the holding and rotating device 7 of the shape measuring device 1. That is, the control device 4 may be, for example, a computer connected to each of the devices 2, 3, and 7 of the shape measuring device 1, or a host provided in a building in which each of the devices 2, 3, and 7 of the shape measuring device 1 is installed. A computer may be used. Further, the shape measuring device 1 physically separates the control device 4 from the probe moving device 2, the optical probe 3, and the holding and rotating device 7, and separates the control device 4 from the probe moving device 2, the optical probe 3 and the holding and rotating device. The control device 4 is connected to the probe moving device 2, the optical probe 3, and the holding and rotating device 7 using a communication means such as the Internet, provided at a position away from the building where the device 7 is installed. You may. Further, in the control device 4, the control unit 30, the storage unit 31, the input unit 32, and the display unit 33 may be arranged in different places.
制御部30は、測定範囲設定部36と、調光領域設定部37と、調光制御部38と、画像領域設定部34と、測定部(形状算出部)39と、動作制御部40とをその機能部として備える。ここで、制御部30は、測定範囲設定部36と、調光領域設定部37と、調光制御部38と、画像領域設定部34と、測定部(形状算出部)39と、動作制御部40の機能をハードウェアによって実現してもよいし、これらの機能をソフトウェアによって実現してもよいし、ハードウェアとソフトウェアを組み合わせて実現してもよい。
The control unit 30 includes a measurement range setting unit 36, a dimming region setting unit 37, a dimming control unit 38, an image region setting unit 34, a measurement unit (shape calculation unit) 39, and an operation control unit 40. It is provided as a functional part. Here, the control unit 30 includes a measurement range setting unit 36, a dimming region setting unit 37, a dimming control unit 38, an image region setting unit 34, a measuring unit (shape calculating unit) 39, and an operation control unit. Forty functions may be realized by hardware, these functions may be realized by software, or hardware and software may be realized in combination.
測定範囲設定部36は、測定対象物Mの形状が測定される範囲である測定範囲を設定する。測定範囲設定部36は、入力部32から入力される指示に基づいて、測定範囲を設定する。また、測定範囲設定部36は、記憶部31に記憶された後述する緒元データ49に含まれる測定対象物Mの設計データまたはCADデータにおいて予め指定された領域に基づいて、測定範囲を設定してもよい。
The measurement range setting unit 36 sets a measurement range in which the shape of the measurement target M is measured. The measurement range setting unit 36 sets a measurement range based on an instruction input from the input unit 32. Further, the measurement range setting unit 36 sets the measurement range based on an area specified in advance in the design data or the CAD data of the measurement target M included in the specification data 49 described later stored in the storage unit 31. You may.
調光領域設定部37は、調光領域を設定する。調光領域は、撮像素子20により撮影された画像28内において、撮影された像の明るさを検出する領域である。調光領域設定部37は、設定された測定範囲の位置情報に基づいて、調光領域設定可能範囲を設定し、設定した調光領域設定可能範囲に基づいて、調光領域を設定する。調光領域設定可能範囲は、撮像装置9により撮影された画像28内において、測定範囲の位置情報に基づいて設定される範囲であり、調光領域を設定可能とする範囲である。なお、調光領域設定部37は、入力部32から入力される指示に基づいて、調光領域設定可能範囲を設定してもよい。また、調光領域設定部37は、記憶部31に記憶された後述する緒元データ49に含まれる測定対象物Mの設計データまたはCADデータにおいて予め指定された領域に基づいて、調光領域設定可能範囲を設定してもよい。
The light control area setting unit 37 sets a light control area. The dimming area is an area for detecting the brightness of the captured image in the image 28 captured by the image sensor 20. The light control area setting unit 37 sets a light control area settable range based on the set position information of the measurement range, and sets the light control area based on the set light control area settable range. The light control area settable range is a range set based on the position information of the measurement range in the image 28 captured by the imaging device 9, and is a range in which the light control area can be set. The light control area setting unit 37 may set a light control area settable range based on an instruction input from the input unit 32. Further, the light control area setting unit 37 sets the light control area based on the area specified in advance in the design data or CAD data of the measurement target M included in the specification data 49 described later stored in the storage unit 31. A possible range may be set.
調光制御部38は、調光領域内で検出された画素列毎に最も明るい画素の画素値を取得する。調光制御部38は、取得した画素値の大きさに応じて、光源12に対して投光量を制御するための信号、ダイヤフラム駆動部24を制御するための信号、または撮像素子20による撮像時の露出時間を制御するための信号等を出力する。露出時間の制御については、1枚の画像28の画像データを取得するときの露出時間を制御したり、撮像素子20に組み込まれている不図示のメカニカルシャッターにより撮像面20aが露出する時間を制御したりしてもよい。調光制御部38は、取得した画素値の大きさに応じて、光源12からの投光量、撮像素子20で受光する受光量、撮像素子20で画像データを生成するときの露光量、または撮像素子20の入出力特性(感度又は撮像素子の各ピクセルで検出した信号に対する増幅率など)、つまり光学プローブ3によって画像データを取得する際の各種条件(調光条件)を制御する。
The dimming control unit 38 acquires the pixel value of the brightest pixel for each pixel row detected in the dimming region. The dimming control unit 38 controls a signal for controlling the amount of light projected on the light source 12, a signal for controlling the diaphragm driving unit 24, or a signal obtained when the imaging device 20 performs imaging according to the magnitude of the acquired pixel value. And outputs a signal for controlling the exposure time. Regarding the control of the exposure time, the exposure time when acquiring image data of one image 28 is controlled, and the time during which the imaging surface 20a is exposed by a mechanical shutter (not shown) incorporated in the imaging device 20 is controlled. Or you may. The dimming control unit 38 controls the amount of light emitted from the light source 12, the amount of light received by the image sensor 20, the amount of exposure when the image sensor 20 generates image data, or The input / output characteristics of the element 20 (such as sensitivity or an amplification factor for a signal detected by each pixel of the imaging element), that is, various conditions (dimming conditions) when image data is acquired by the optical probe 3 are controlled.
画像領域設定部34は、所定の領域を、画像28の一部の画像領域が拡大された拡大画像領域に対応する領域として設定する。以降、説明の便宜上、この所定の領域を拡大対象領域と称する。拡大対象領域は、例えば操作者の入力等によって任意に設定される所定の範囲の領域である。画像領域設定部34により拡大対象領域が設定されると、撮像装置9により拡大対象領域が拡大されることで、拡大画像領域を含む画像28が生成される。拡大対象領域は、画像28に対して設定される画像領域であってもよいし、形状測定により得られた測定対象物Mの測定形状に対して設定される領域(後述する点群の領域)であってもよい。画像領域設定部34は、撮像装置9により撮像される画像28が、拡大画像領域を含む歪んだ歪画像となるように、拡大対象領域を設定する。なお、画像領域設定部34は、拡大画像領域に対応する領域として設定された拡大対象領域以外の所定の領域を、縮小画像領域に対応する領域として設定してもよい。以降、説明の便宜上、縮小画像領域に対応する領域として設定される所定の領域を縮小対象領域と称する。この縮小画像領域は、拡大画像領域に比して縮小された画像領域である。また、画像領域設定部34は、画像28における画像領域の全域が拡大画像領域となるように、拡大対象領域を設定してもよい。拡大画像領域は、測定対象物Mの形状を詳細に(高い分解能で)測定するための画像領域となっている。縮小画像領域は、拡大画像領域に比して大まかな形状、つまり拡大画像領域に比べて低い分解能で形状を測定する領域である。画像領域設定部34により拡大対象領域が設定されるため、撮像装置9により撮像される画像28には、少なくとも拡大画像領域が含まれる。つまり、撮像装置9により撮像される画像28には、少なくとも拡大画像領域が含まれることから、拡大画像領域及び縮小画像領域が、または拡大画像領域のみが含まれる。また、画像領域設定部34は、制御装置4の入力部32から入力される指示、測定対象物Mの設計データ、測定対象物Mの形状等の情報に基づいて、少なくとも拡大対象領域を設定している。画像領域設定部34は、設定した拡大対象領域の位置の情報を画像領域の領域設定データ43として、記憶部31に出力する。つまり、画像領域設定部34は、設定される拡大対象領域の入力があると、設定された拡大対象領域の範囲と、拡大対象領域の位置と、拡大対象領域に設定された拡大倍率とを関連付けて、拡大対象領域の位置の情報として生成する。なお、拡大対象領域の位置の情報は、画像28内における、設定した画像領域の座標であり、ij直交座標系の位置の座標となっている。
The image area setting unit 34 sets the predetermined area as an area corresponding to an enlarged image area in which a part of the image area of the image 28 is enlarged. Hereinafter, for convenience of description, this predetermined area is referred to as an enlargement target area. The enlargement target area is an area in a predetermined range arbitrarily set by, for example, an operator's input or the like. When the enlargement target area is set by the image area setting unit 34, the enlargement target area is enlarged by the imaging device 9, thereby generating the image 28 including the enlarged image area. The enlargement target area may be an image area set for the image 28 or an area set for the measurement shape of the measurement target M obtained by shape measurement (point cloud area described later). It may be. The image area setting unit 34 sets the enlargement target area so that the image 28 captured by the imaging device 9 is a distorted image including the enlarged image area. Note that the image area setting unit 34 may set a predetermined area other than the enlargement target area set as the area corresponding to the enlarged image area as the area corresponding to the reduced image area. Hereinafter, for convenience of description, a predetermined area set as an area corresponding to the reduced image area is referred to as a reduction target area. This reduced image area is an image area reduced compared to the enlarged image area. Further, the image area setting unit 34 may set the enlargement target area such that the entire image area in the image 28 becomes the enlarged image area. The enlarged image area is an image area for measuring the shape of the measurement target M in detail (with high resolution). The reduced image region is a region where the shape is roughly measured as compared with the enlarged image region, that is, the shape is measured with a lower resolution than the enlarged image region. Since the enlargement target area is set by the image area setting unit 34, the image 28 captured by the imaging device 9 includes at least the enlarged image area. That is, since the image 28 captured by the imaging device 9 includes at least the enlarged image region, the image 28 includes the enlarged image region and the reduced image region, or includes only the enlarged image region. The image area setting unit 34 sets at least an enlargement target area based on an instruction input from the input unit 32 of the control device 4, design data of the measurement target M, information on the shape of the measurement target M, and the like. ing. The image area setting unit 34 outputs the information on the set position of the enlargement target area to the storage unit 31 as the area setting data 43 of the image area. That is, when the enlargement target area to be set is input, the image area setting unit 34 associates the set enlargement target area, the position of the enlargement target area, and the enlargement magnification set in the enlargement target area. Then, it is generated as information on the position of the enlargement target area. The information on the position of the enlargement target area is the coordinates of the set image area in the image 28, and is the coordinates of the position in the ij orthogonal coordinate system.
測定部39は、設定された測定範囲における測定対象物Mの形状を測定する。測定部39には、撮像装置9の撮像素子20で生成される画像28の画像データが入力される。また、測定部39には、動作制御部40から各部の動作の情報、具体的に光学プローブ3と測定対象物Mとの相対位置の情報が入力される。相対位置の情報は、例えば、測定対象物Mの位置(座標)と、光学プローブ3の位置(座標)とに基づいて取得される。光学プローブ3の位置は、プローブ移動装置2の位置検出部11により検出された位置に基づいて取得する。測定対象物Mの位置は、保持回転装置7の位置検出部73により検出された位置に基づいて取得する。そして、位置検出部11により検出された光学プローブ3の位置と、位置検出部73により検出された測定対象物Mの位置とに基づいて、相対位置の情報が生成される。測定部39は、画像28の測定画像領域27に含まれるライン状の投影光Lの像を検出し、画像28における投影光Lの像の位置と光学プローブ3の位置と測定対象物Mの位置とに基づいて、測定対象物Mの形状を測定する。
The measurement unit 39 measures the shape of the measurement target M in the set measurement range. The image data of the image 28 generated by the imaging device 20 of the imaging device 9 is input to the measurement unit 39. In addition, information on the operation of each unit, specifically, information on the relative position between the optical probe 3 and the measurement target M is input from the operation control unit 40 to the measurement unit 39. The information on the relative position is acquired based on, for example, the position (coordinates) of the measurement target M and the position (coordinates) of the optical probe 3. The position of the optical probe 3 is obtained based on the position detected by the position detector 11 of the probe moving device 2. The position of the measurement target M is obtained based on the position detected by the position detection unit 73 of the holding and rotating device 7. Then, based on the position of the optical probe 3 detected by the position detection unit 11 and the position of the measurement target M detected by the position detection unit 73, information on the relative position is generated. The measuring unit 39 detects a linear image of the projection light L included in the measurement image area 27 of the image 28, and detects the position of the image of the projection light L, the position of the optical probe 3, and the position of the measurement target M in the image 28. Based on the above, the shape of the measurement target M is measured.
一例として、測定部39による測定対象物Mの形状測定の具体的な処理について説明する。測定部39は、画像28の測定画像領域27内に位置する投影光Lの像の位置を取得する。画像28の測定画像領域27内に位置する投影光Lの像の位置は、ij直交座標系の位置となっている。測定部39は、画像28上において、ライン状の投影光Lの像に対応する画素のij直交座標系における位置を取得する。測定部39は、投影光Lの像に対応する画素の位置を取得すると、その画素の位置とセンサ原点Ibとの位置関係を取得する。つまり、測定部39は、センサ原点Ibに対する画素の位置を取得する。
As an example, a specific process of measuring the shape of the measurement target M by the measurement unit 39 will be described. The measurement unit 39 acquires the position of the image of the projection light L located in the measurement image area 27 of the image 28. The position of the image of the projection light L located in the measurement image area 27 of the image 28 is a position in the ij orthogonal coordinate system. The measuring unit 39 acquires the position of the pixel corresponding to the image of the linear projection light L on the image 28 in the ij orthogonal coordinate system. Measuring unit 39 obtains the position of a pixel corresponding to the image of the projection light L, obtains the positional relationship between the position and the sensor home I b of the pixel. That is, the measurement unit 39 acquires the position of the pixel relative to the sensor origin I b.
また、測定部39は、画像データを取得した時における光学プローブ3の位置を位置検出部11から取得すると共に、測定対象物Mの位置を位置検出部73から取得する。つまり、測定部39は、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54の位置を、位置検出部11から取得し、保持回転装置7に保持される測定対象物Mの位置を、位置検出部73から取得する。光学プローブ3の位置と測定対象物Mの位置とは、XYZ直交座標系の位置となっている。測定部39は、光学プローブ3の位置と測定対象物Mの位置とを取得すると、光学プローブ3の位置と測定対象物Mの位置との位置関係を取得すると共に、光学プローブ3の位置とセンサ原点Ibとの位置関係を取得する。つまり、測定部39は、測定対象物Mの位置に対する光学プローブ3の相対位置と、センサ原点Ibに対する光学プローブ3の位置とを取得する。測定部39は、測定対象物Mの位置に対する光学プローブ3の相対位置と、センサ原点Ibに対する光学プローブ3の位置とに基づいて、センサ原点Ibに対する測定対象物Mの位置を取得する。
The measuring section 39 acquires the position of the optical probe 3 at the time of acquiring the image data from the position detecting section 11 and acquires the position of the measuring object M from the position detecting section 73. That is, the measuring unit 39 acquires the positions of the X moving unit 50X, the Y moving unit 50Y, the Z moving unit 50Z, the first rotating unit 53, and the second rotating unit 54 from the position detecting unit 11, and Is acquired from the position detection unit 73. The position of the optical probe 3 and the position of the measuring object M are in the XYZ orthogonal coordinate system. When acquiring the position of the optical probe 3 and the position of the measuring object M, the measuring unit 39 acquires the positional relationship between the position of the optical probe 3 and the position of the measuring object M, and the position of the optical probe 3 and the sensor. obtaining a positional relationship between the origin I b. That is, the measurement unit 39 obtains the relative position of the optical probe 3 relative to the position of the measuring object M, the position of the optical probe 3 relative to the sensor origin I b. Measurement unit 39, the relative position of the optical probe 3 relative to the position of the measuring object M, based on the position of the optical probe 3 relative to the sensor origin I b, to obtain the position of the measuring object M with respect to the sensor origin I b.
そして、測定部39は、センサ原点Ibに対する投影光Lの像の画素の位置と、センサ原点Ibに対する測定対象物Mの位置とに基づいて、測定対象物Mの位置に対する投影光Lの像の画素の位置を取得することで、測定対象物Mの形状を算出する(測定対象物Mの点群データを生成する)。つまり、測定部39は、測定対象物Mの形状を測定するにあたり、画像28の測定画像領域27に含まれる投影光Lの像から点群の点群データを生成する。点群とは、撮影した画像28の各画素の3次元(XYZ)の座標値を算出することで生成され、後に詳述する表示部33などに表示される複数の点である。すなわち、この点群は、測定対象物の形状を表す点となる。また、点群データとは、点群の各点における3次元の座標値のデータである。点群は、投影光Lの像の長手方向に沿って複数の点が生成される。点群は、投影光Lの像に対応する長手方向に並ぶ画素に応じた点の数となっている。一方で、点群は、投影光Lの像の長手方向に直交する方向(短手方向)において、例えば1点生成される。このため、点群は、1つの画像28に対して、投影光Lの像に沿った1ラインの点群が得られる。点群の各点の座標値は、測定画像領域27における投影光Lの像に対応する画素の位置に基づいて算出される。つまり、測定部39は、投影光Lの像の画素の位置を、センサ原点Ibを基準として、XYZ直交座標系に変換する。また、測定部39は、XYZ直交座標系となる投影光Lの像の画素の位置に、センサ原点Ibに対する測定対象物Mの位置を加えることで、投影光Lの像における点群の各点のXYZ直交座標系における座標値を算出する。このように、測定部39は、2次元座標となる画素の位置を、センサ原点Ibを基準として、3次元座標に変換することで、点群の点群データを生成する。
The measurement unit 39, the position of the pixel of the image of the projection light L to the sensor origin I b, on the basis of the position of the measuring object M with respect to the sensor origin I b, the projection light L with respect to the position of the measuring object M By acquiring the positions of the pixels of the image, the shape of the measurement target M is calculated (point cloud data of the measurement target M is generated). That is, when measuring the shape of the measuring object M, the measuring unit 39 generates point cloud data of a point cloud from the image of the projection light L included in the measurement image area 27 of the image 28. The point group is a plurality of points generated by calculating three-dimensional (XYZ) coordinate values of each pixel of the captured image 28 and displayed on the display unit 33 described later in detail. That is, this point group is a point representing the shape of the measurement object. The point cloud data is data of three-dimensional coordinate values at each point of the point cloud. In the point group, a plurality of points are generated along the longitudinal direction of the image of the projection light L. The point group is the number of points corresponding to pixels arranged in the longitudinal direction corresponding to the image of the projection light L. On the other hand, for example, one point group is generated in a direction (lateral direction) orthogonal to the longitudinal direction of the image of the projection light L. Therefore, a point group of one line along the image of the projection light L is obtained for one image 28. The coordinate value of each point of the point group is calculated based on the position of the pixel corresponding to the image of the projection light L in the measurement image area 27. That is, the measurement unit 39, the position of the pixel of the image of the projection light L, based on the sensor origin I b, it is converted to the XYZ orthogonal coordinate system. Further, the measuring unit 39 adds the position of the measurement target M with respect to the sensor origin Ib to the position of the pixel of the image of the projection light L in the XYZ orthogonal coordinate system, so that each point group in the image of the projection light L The coordinate value of the point in the XYZ orthogonal coordinate system is calculated. Thus, the measurement unit 39, the position of the pixel to be two-dimensional coordinates, relative to the sensor origin I b, by converting the 3-dimensional coordinates, to generate a point cloud data of the point group.
また、測定部39は、プローブ移動装置2及び保持回転装置7によって、光学プローブ3と測定対象物Mとを相対的に移動させることで、投影光Lが投影される位置を順次移動させつつ、測定画像領域27を含む画像28を撮像装置9で撮像する。測定部39は、撮像装置9で撮像したタイミングで位置検出部11及び位置検出部73からのプローブ移動装置2及び保持回転装置7の位置情報を取得する。測定部39は、取得したプローブ移動装置2及び保持回転装置7の位置情報と、撮像装置9で取得した測定画像領域27の投影光Lの像を含む画像28の画像データとに基づいて、光学プローブ3が移動する方向の点群の点群データを生成する。
In addition, the measuring unit 39 relatively moves the optical probe 3 and the measuring object M by the probe moving device 2 and the holding / rotating device 7, thereby sequentially moving the position where the projection light L is projected. An image 28 including the measurement image area 27 is captured by the imaging device 9. The measurement unit 39 acquires the position information of the probe moving device 2 and the holding and rotating device 7 from the position detection unit 11 and the position detection unit 73 at the timing when the image is captured by the imaging device 9. The measurement unit 39 performs optical measurement based on the acquired position information of the probe moving device 2 and the holding / rotating device 7 and the image data of the image 28 including the image of the projection light L of the measurement image area 27 acquired by the imaging device 9. Point cloud data of a point cloud in the direction in which the probe 3 moves is generated.
これにより、点群は、投影光Lの像の長手方向に沿って生成されると共に、投影光Lが移動する方向に沿って生成される。つまり、測定部39は、駆動部10及び回転駆動部72により測定対象物Mと相対的に投影光L(光学プローブ3)を移動させて、所定の間隔ごとに複数の画像28を撮影することで、複数ラインの点群を生成する。そして、測定部39は、投影光Lの像の長手方向及び投影光Lが移動する方向に亘って生成された点群毎の座標値に基づき、測定対象物Mの形状を測定する。なお、複数ラインの点群を生成する際に投影光L(光学プローブ3)を移動させる方向は、投影光Lの長手方向と交差する方向である。
Thereby, the point cloud is generated along the longitudinal direction of the image of the projection light L and along the direction in which the projection light L moves. That is, the measurement unit 39 moves the projection light L (the optical probe 3) relative to the measurement target M by the driving unit 10 and the rotation driving unit 72, and captures a plurality of images 28 at predetermined intervals. Generates a point cloud of a plurality of lines. Then, the measurement unit 39 measures the shape of the measurement target M based on the coordinate values for each point group generated along the longitudinal direction of the image of the projection light L and the direction in which the projection light L moves. Note that the direction in which the projection light L (the optical probe 3) is moved when generating a point group of a plurality of lines is a direction that intersects the longitudinal direction of the projection light L.
ここで、投影光Lの長手方向に並ぶ点群は、点の間隔が、画像領域設定部34により設定された画像領域の領域設定データ43に基づいて設定される。また、投影光L(光学プローブ3)が移動する方向に並ぶ点群は、点の間隔が、測定点間隔情報に基づいて設定される。測定点間隔情報は、投影光Lが移動する方向に並ぶ点の間隔を設定する情報であり、操作者によって設定可能である。形状測定装置1は、撮像装置9の撮影タイミングを一定間隔にし、測定点間隔情報を基に駆動部10及び回転駆動部72の移動速度を制御することで、投影光Lが移動する方向に並ぶ点の間隔を設定された間隔とする。
Here, in the point group arranged in the longitudinal direction of the projection light L, the interval between the points is set based on the area setting data 43 of the image area set by the image area setting unit 34. In the point group arranged in the direction in which the projection light L (the optical probe 3) moves, the interval between the points is set based on the measurement point interval information. The measurement point interval information is information for setting an interval between points arranged in a direction in which the projection light L moves, and can be set by an operator. The shape measuring device 1 arranges the imaging timing of the imaging device 9 at a constant interval, and controls the moving speed of the driving unit 10 and the rotation driving unit 72 based on the measurement point interval information, so that the projection light L is arranged in the moving direction. Let the interval between points be the set interval.
動作制御部40は、プローブ移動装置2、光学プローブ3及び保持回転装置7を含む、形状測定装置1の各部の動作を制御する。この動作制御部40は、制御部30で作成された動作制御の情報を基に、プローブ移動装置2、光学プローブ3及び保持回転装置7の動作制御を実施する。また、動作制御部40は、動作制御の情報を測定部39に出力する。
The operation control unit 40 controls the operation of each unit of the shape measuring device 1 including the probe moving device 2, the optical probe 3, and the holding and rotating device 7. The operation control unit 40 controls the operation of the probe moving device 2, the optical probe 3, and the holding / rotating device 7 based on the operation control information created by the control unit 30. The operation control unit 40 outputs operation control information to the measurement unit 39.
記憶部31は、ハードディスク、メモリ等、各種プログラム、データを記憶する記憶装置である。記憶部31は、画像領域の領域設定データ43と、回動動作情報44と、条件テーブル46と、形状測定プログラム48と、緒元データ49と、を有する。なお、記憶部31は、これらのプログラム、データ以外にも形状測定装置1の動作の制御に用いる各種プログラム、データを記憶している。
The storage unit 31 is a storage device that stores various programs and data, such as a hard disk and a memory. The storage unit 31 has area setting data 43 of an image area, rotation operation information 44, a condition table 46, a shape measurement program 48, and specification data 49. The storage unit 31 stores various programs and data used for controlling the operation of the shape measuring device 1 in addition to these programs and data.
画像領域の領域設定データ43は、画像領域設定部34により設定された拡大対象領域の位置の情報を含む。拡大対象領域が画像28に対して設定される画像領域である場合、拡大対象領域の位置の情報は、測定画像領域27における投影光Lの像の長手方向の位置と、当該位置における拡大画像領域と、拡大対象領域に設定される拡大倍率とを対応付けた情報となっている。
The area setting data 43 of the image area includes information on the position of the enlargement target area set by the image area setting unit 34. When the enlargement target area is an image area set for the image 28, the information on the position of the enlargement target area includes the position in the measurement image area 27 in the longitudinal direction of the image of the projection light L and the enlargement image area at the position. The information is information in which the enlargement magnification set in the enlargement target area is associated with the enlargement magnification.
なお、画像領域の領域設定データ43は、画像領域設定部34により設定された縮小対象領域の位置の情報を含んでもよい。縮小対象領域が画像28に対して設定される画像領域である場合、縮小対象領域の位置の情報は、測定画像領域27における投影光Lの像の長手方向の位置と、当該位置における縮小画像領域と、縮小対象領域の拡大倍率または縮小倍率とを対応付けた情報となっている。
Note that the region setting data 43 of the image region may include information on the position of the reduction target region set by the image region setting unit 34. When the reduction target area is an image area set for the image 28, the information on the position of the reduction target area includes the longitudinal position of the image of the projection light L in the measurement image area 27 and the reduced image area at the position. The information is information in which the enlargement ratio or the reduction ratio of the reduction target area is associated.
また、領域設定データ43は、拡大対象領域及び縮小対象領域の位置の情報と、光学プローブ3と測定対象物Mとの相対位置の情報とを対応付けたデータを含む。領域設定データ43は、画像領域設定部34により設定されることで記憶部31に記憶される。領域設定データ43は、投影光Lの像の長手方向の位置と、画像28の拡大倍率及び縮小倍率とが直接対応付けられてもよい。
The area setting data 43 includes data in which information on the positions of the enlargement target area and the reduction target area is associated with information on the relative position between the optical probe 3 and the measurement target M. The region setting data 43 is stored in the storage unit 31 by being set by the image region setting unit 34. In the area setting data 43, the position of the image of the projection light L in the longitudinal direction may be directly associated with the magnification and reduction of the image 28.
拡大画像領域は、撮像装置9で撮影される画像28に対して、点群の密度が密となる領域、換言すれば、画像28の拡大倍率が1倍よりも大きくなる領域である。画像領域設定部34は、一例として、画像28上の測定画像領域27における投影光Lの像に対して、投影光Lの像の長手方向における所定の位置に、拡大対象領域を設定して、拡大対象領域の位置の情報を生成する。つまり、画像領域設定部34は、拡大対象領域の位置と、拡大対象領域に対応する拡大画像領域と、当該拡大対象領域の拡大倍率(すなわち、拡大画像領域の拡大倍率)とを対応付けて、拡大対象領域の位置の情報を生成する。そして、画像領域設定部34は、拡大対象領域の位置の情報と、光学プローブ3と測定対象物Mとの相対位置の情報とを対応付けた領域設定データ43を生成し、記憶部31に記憶する。
The enlarged image area is an area where the density of the point group is higher than that of the image 28 captured by the imaging device 9, in other words, an area where the magnification of the image 28 is larger than 1 ×. As an example, the image area setting unit 34 sets an enlargement target area at a predetermined position in the longitudinal direction of the image of the projection light L with respect to the image of the projection light L in the measurement image area 27 on the image 28, Generates information on the position of the enlargement target area. That is, the image area setting unit 34 associates the position of the enlargement target area, the enlargement image area corresponding to the enlargement target area, and the enlargement magnification of the enlargement target area (that is, the enlargement magnification of the enlargement image area), Generates information on the position of the enlargement target area. Then, the image area setting unit 34 generates area setting data 43 in which information on the position of the enlargement target area and information on the relative position between the optical probe 3 and the measurement target M are associated with each other, and stored in the storage unit 31. I do.
縮小画像領域は、撮像装置9で撮影される画像28に対して、点群の密度が拡大画像領域に比して疎となる領域、換言すれば、画像28の拡大倍率が拡大画像領域の拡大倍率よりも小さくなる領域である。このため、縮小画像領域は、拡大画像領域の拡大倍率よりも小さい拡大倍率であればよいことから、画像28の拡大倍率が1倍よりも大きくてもよいし、画像28の拡大倍率が1倍よりも小さい縮小倍率であってもよい。画像領域設定部34は、一例として、画像28上の投影光Lの像の長手方向における所定の位置に、拡大対象領域を設定する。この場合、画像領域設定部34は、拡大対象領域以外の領域を縮小対象領域として設定して、縮小対象領域の位置の情報を生成する。つまり、画像領域設定部34は、縮小対象領域の位置と、縮小対象領域に対応する縮小画像領域と、当該縮小対象領域の拡大倍率または縮小倍率(すなわち、縮小画像領域の拡大倍率または縮小倍率)とを対応付けて、縮小対象領域の位置の情報を生成する。そして、画像領域設定部34は、縮小対象領域の位置の情報と、光学プローブ3と測定対象物Mとの相対位置の情報とを対応付けた領域設定データ43を生成し、記憶部31に記憶させる。
The reduced image area is an area in which the density of the point cloud is sparse compared to the image 28 captured by the imaging device 9 as compared with the enlarged image area, in other words, the magnification of the image 28 is enlarged in the enlarged image area. This is an area smaller than the magnification. For this reason, since the reduced image area only needs to be an enlargement magnification smaller than the enlargement magnification of the enlarged image area, the enlargement magnification of the image 28 may be larger than 1 ×, or the enlargement magnification of the image 28 may be 1 ×. A smaller reduction ratio may be used. As an example, the image area setting unit 34 sets an enlargement target area at a predetermined position in the longitudinal direction of the image of the projection light L on the image 28. In this case, the image area setting unit 34 sets an area other than the enlargement target area as the reduction target area, and generates information on the position of the reduction target area. That is, the image area setting unit 34 determines the position of the reduction target area, the reduced image area corresponding to the reduction target area, and the enlargement or reduction magnification of the reduction target area (that is, the enlargement or reduction magnification of the reduced image area). And information on the position of the reduction target area is generated. Then, the image region setting unit 34 generates region setting data 43 in which information on the position of the reduction target region and information on the relative position between the optical probe 3 and the measurement target M are associated with each other, and stored in the storage unit 31. Let it.
このように、領域設定データ43は、画像28上における投影光Lの像の長手方向の位置に、拡大対象領域及び縮小対象領域が設定されたデータとなる。なお、領域設定データ43は、画像28上における投影光Lの像の長手方向の位置に、拡大対象領域及び縮小対象領域のみが対応付けられたデータであってもよい。また、領域設定データ43は、画像28上における投影光Lの像の長手方向に沿って、画像28の拡大倍率が連続的に変化するデータであってもよい。さらに、領域設定データ43では、拡大対象領域及び縮小対象領域に対して、画像28の拡大倍率を対応付けたが、拡大対象領域及び縮小対象領域に対して、点群の密度を対応付けてもよい。また、拡大対象領域及び縮小対象領域が測定対象物Mの形状測定時に生成された点群に対して設定される領域である場合、拡大対象領域または縮小対象領域の位置の情報とは、点群に設定される拡大対象領域または縮小対象領域の位置と、拡大対象領域または縮小対象領域に対応する拡大画像領域または縮小画像領域と、拡大画像領域または縮小画像領域の拡大倍率(または縮小倍率)とを対応付けた情報としてもよい。
As described above, the area setting data 43 is data in which the enlargement target area and the reduction target area are set at the position in the longitudinal direction of the image of the projection light L on the image 28. The region setting data 43 may be data in which only the enlargement target region and the reduction target region are associated with the longitudinal position of the image of the projection light L on the image 28. Further, the area setting data 43 may be data in which the magnification of the image 28 continuously changes along the longitudinal direction of the image of the projection light L on the image 28. Furthermore, in the area setting data 43, the enlargement magnification of the image 28 is associated with the enlargement target area and the reduction target area. However, the point group density may be associated with the enlargement target area and the reduction target area. Good. When the enlargement target area and the reduction target area are areas set for the point group generated at the time of measuring the shape of the measurement target M, the information of the position of the enlargement target area or the reduction target area is the point group. , The position of the enlargement target area or the reduction target area, the enlarged image area or the reduced image area corresponding to the enlargement target area or the reduction target area, the enlargement magnification (or reduction magnification) of the enlarged image area or the reduced image area, and May be associated with the information.
この領域設定データ43は、後述するガルバノスキャナ82の回動動作を設定するときに使われるデータとなっている。制御装置4は、領域設定データ43に基づいて、ガルバノスキャナ82の回動動作を設定することで、回動動作情報44を生成する。
The area setting data 43 is data used when setting a rotation operation of the galvano scanner 82 described later. The control device 4 generates the turning operation information 44 by setting the turning operation of the galvano scanner 82 based on the area setting data 43.
回動動作情報44は、ガルバノスキャナ82の回動動作を設定したときに得られる情報である。回動動作情報44は、画像28上における投影光Lの像の長手方向の位置に設定された拡大画像領域及び縮小画像領域の画像28の拡大倍率に応じて、ガルバノスキャナ82の回動動作を制御するための情報となっている。回動動作情報44は、投影光Lの像を含む測定対象物Mの像の位置を撮像面20a上で変化させた量に関する情報を含んでいる。投影光Lの像を含む測定対象物Mの像の位置を撮像面20a上で変化させた量とは、具体的に、投影光Lの像の長手方向における移動量である。詳細は後述するが、回動動作情報44としては、例えば、図17から図19に示す情報、図21から図23に示す情報がある。動作制御部40は、回動動作情報44を取得する。動作制御部40は、回動動作情報44に基づいて、ガルバノスキャナ82の回動動作を制御する。また、回動動作情報44は、測定部39において点群の点群データを生成するときに用いられる。
The rotation operation information 44 is information obtained when the rotation operation of the galvano scanner 82 is set. The rotation operation information 44 indicates the rotation operation of the galvano scanner 82 according to the magnification of the image 28 in the enlarged image area and the reduced image area set at the position in the longitudinal direction of the image of the projection light L on the image 28. This is information for control. The rotation operation information 44 includes information on the amount by which the position of the image of the measurement target M including the image of the projection light L is changed on the imaging surface 20a. The amount by which the position of the image of the measurement target M including the image of the projection light L is changed on the imaging surface 20a is, specifically, a movement amount of the image of the projection light L in the longitudinal direction. As will be described later in detail, examples of the rotation operation information 44 include information shown in FIGS. 17 to 19 and information shown in FIGS. 21 to 23. The operation control unit 40 acquires the rotation operation information 44. The operation control unit 40 controls the rotation operation of the galvano scanner 82 based on the rotation operation information 44. The rotating motion information 44 is used when the measuring unit 39 generates point cloud data of the point cloud.
条件テーブル46は、制御部30で設定された測定条件、及び予め入力された各種条件を記憶する。測定条件は、測定範囲設定部36により設定される測定範囲、調光制御部38により調光制御するための調光条件、画像領域設定部34により設定される画像領域がある。また、測定条件は、動作制御部40により制御されるプローブ移動装置2、光学プローブ3及び保持回転装置7の各種動作に関する動作条件を含む。形状測定プログラム48は、条件テーブル46に含まれる測定条件等に基づいて、制御装置4の各部の処理を実行させるプログラムを記憶している。つまり、制御装置4は、形状測定プログラム48に記憶されているプログラムを実行することで、上述した各部の動作を順次再現することで、測定範囲を逐次移しながら、測定対象物Mに投影された投影光Lの像を撮像するように制御する。形状測定プログラム48は、形状測定装置1で実行されるプログラムであって、形状測定装置1は、形状測定プログラム48を実行することで、測定対象物Mの形状を測定する。なお、形状測定プログラム48は、予め記憶部31に記憶させてもよいがこれに限定されない。形状測定プログラム48が記憶された記憶媒体から読み取って記憶部31に記憶してもよいし、通信により外部から取得してもよい。緒元データ49は、測定対象物Mの設計データ、CADデータ、形状を規定できる条件データ等を記憶している。
The condition table 46 stores measurement conditions set by the control unit 30 and various conditions input in advance. The measurement conditions include a measurement range set by the measurement range setting unit 36, dimming conditions for dimming control by the dimming control unit 38, and an image area set by the image area setting unit 34. In addition, the measurement conditions include operation conditions related to various operations of the probe moving device 2, the optical probe 3, and the holding and rotating device 7 controlled by the operation control unit 40. The shape measurement program 48 stores a program for executing processing of each unit of the control device 4 based on measurement conditions and the like included in the condition table 46. That is, by executing the program stored in the shape measurement program 48, the control device 4 sequentially reproduces the operation of each unit described above, so that the projection is performed on the measurement target M while sequentially shifting the measurement range. Control is performed to capture an image of the projection light L. The shape measurement program 48 is a program executed by the shape measurement device 1. The shape measurement device 1 measures the shape of the measurement target M by executing the shape measurement program 48. Note that the shape measurement program 48 may be stored in the storage unit 31 in advance, but is not limited thereto. The shape measurement program 48 may be read from a storage medium in which the shape measurement program 48 is stored, and may be stored in the storage unit 31, or may be obtained from outside through communication. The specification data 49 stores design data, CAD data, condition data for defining the shape of the measurement object M, and the like.
制御装置4は、光学プローブ3と測定対象物Mの相対位置が所定の位置関係となるように、プローブ移動装置2の駆動部10及び保持回転装置7の回転駆動部72を制御する。また、制御装置4は、光学プローブ3の位置情報をプローブ移動装置2の位置検出部11から取得すると共に、測定対象物Mの位置情報を保持回転装置7の位置検出部73から取得することで、測定対象物Mと光学プローブ3との相対位置の情報を取得する。また、制御装置4は、測定画像領域27を含む画像28の画像データを光学プローブ3から取得する。そして、制御装置4は、相対位置に応じた画像データの画像28上における投影光Lの像の位置と、光学プローブ3の位置及び投影光Lの投影方向と、撮像装置9の位置及び撮影方向とに基づいて、撮影した画像28の投影光Lの像上における各画素の位置(座標値)を算出する。制御装置4は、算出した画像28の投影光Lの像上における各画素の位置に基づいて、投影光Lの像の長手方向に沿う点群の点群データを生成する。また、制御装置4は、投影光Lが移動する方向に沿って、点群の点群データを複数生成する。制御装置4は、投影光Lの像の長手方向の点群と、投影光Lが移動する方向との点群とに基づいて、測定対象物Mの三次元的な形状に関する形状情報を演算して取得する。
The control device 4 controls the drive unit 10 of the probe moving device 2 and the rotation drive unit 72 of the holding and rotating device 7 so that the relative position between the optical probe 3 and the measurement target M has a predetermined positional relationship. The control device 4 acquires the position information of the optical probe 3 from the position detection unit 11 of the probe moving device 2 and acquires the position information of the measurement target M from the position detection unit 73 of the holding and rotating device 7. Then, information on the relative position between the measuring object M and the optical probe 3 is acquired. Further, the control device 4 acquires image data of an image 28 including the measurement image area 27 from the optical probe 3. Then, the control device 4 determines the position of the image of the projection light L on the image 28 of the image data according to the relative position, the position of the optical probe 3, the projection direction of the projection light L, the position of the imaging device 9, and the imaging direction. Based on the above, the position (coordinate value) of each pixel on the image of the projection light L of the captured image 28 is calculated. The control device 4 generates the point cloud data of the point cloud along the longitudinal direction of the image of the projection light L based on the calculated position of each pixel on the image of the projection light L of the image 28. In addition, the control device 4 generates a plurality of point cloud data of the point cloud along the direction in which the projection light L moves. The control device 4 calculates shape information on the three-dimensional shape of the measurement target M based on the point group in the longitudinal direction of the image of the projection light L and the point group in the direction in which the projection light L moves. To get.
表示部33は、例えば液晶表示装置、有機エレクトロルミネッセンス表示装置等のディスプレイによって構成される。表示部33は、制御部30の制御結果及び操作者からの入力内容などを表示したり、形状測定装置1の測定に関する測定情報を表示したりする。測定情報は、例えば、測定対象物Mに設定された測定範囲、撮像素子20で撮影された画像28、画像28上に設定された測定画像領域27の位置を示す情報、画像28上に設定された調光領域の位置を示す情報等を表示することができる。測定画像領域27の位置情報は、撮像素子20で撮影された画像28上に重畳して表示する。また、測定情報としては、他にも測定に関する設定を示す設定情報、測定の経過を示す経過情報、測定の結果を示す形状情報等を含む。第1実施形態の表示部33は、測定情報に関する画像の画像データが制御部30から供給され、この画像データに従って測定情報に関する画像を表示する。
The display unit 33 is configured by a display such as a liquid crystal display and an organic electroluminescence display. The display unit 33 displays a control result of the control unit 30 and input contents from an operator and the like, and displays measurement information related to measurement of the shape measuring device 1. The measurement information is, for example, a measurement range set for the measurement target M, an image 28 captured by the image sensor 20, information indicating the position of the measurement image area 27 set on the image 28, and information set on the image 28. Information indicating the position of the dimming area can be displayed. The position information of the measurement image area 27 is displayed so as to be superimposed on the image 28 captured by the image sensor 20. The measurement information also includes setting information indicating settings related to the measurement, progress information indicating the progress of the measurement, shape information indicating the result of the measurement, and the like. The display unit 33 of the first embodiment is supplied with image data of an image related to measurement information from the control unit 30, and displays an image related to measurement information according to the image data.
入力部32は、操作者からの情報が入力可能な装置であり、例えばキーボード、マウス、ジョイスティック、トラックボール、タッチバッド等の各種入力デバイスによって構成される。入力部32は、制御装置4への各種情報の入力を受けつける。各種情報は、例えば、形状測定装置1に測定を開始させる指令(コマンド)を示す指令情報、形状測定装置1による測定に関する設定情報、形状測定装置1の少なくとも一部をマニュアルで操作するための操作情報等を含む。また、操作者は、入力部32を操作して、例えば、拡大画像領域75等の画像領域に関する設定を行っている。なお、表示部33及び入力部32としては、表示部33と入力部32とが一体となるタッチパネルであってもよい。
The input unit 32 is a device to which information from an operator can be input, and is configured by various input devices such as a keyboard, a mouse, a joystick, a trackball, and a touchpad. The input unit 32 receives input of various information to the control device 4. The various information includes, for example, command information indicating a command (command) for starting measurement by the shape measuring device 1, setting information on measurement by the shape measuring device 1, and an operation for manually operating at least a part of the shape measuring device 1. Including information. In addition, the operator operates the input unit 32 to set, for example, an image area such as the enlarged image area 75. The display unit 33 and the input unit 32 may be a touch panel in which the display unit 33 and the input unit 32 are integrated.
次に、図4、図8から図11を参照して、撮像装置9について詳細に説明する。図8は、第1実施形態の形状測定装置の結像光学系を示す模式図である。図9は、第1実施形態の形状測定装置の測定対象物を示す斜視図である。図10は、第1実施形態の形状測定装置の計測動作を示す説明図である。図11は、撮像素子の撮像領域の一例を示す図である。
Next, the imaging device 9 will be described in detail with reference to FIGS. FIG. 8 is a schematic diagram illustrating an imaging optical system of the shape measuring apparatus according to the first embodiment. FIG. 9 is a perspective view illustrating a measurement target of the shape measuring apparatus according to the first embodiment. FIG. 10 is an explanatory diagram illustrating a measuring operation of the shape measuring device according to the first embodiment. FIG. 11 is a diagram illustrating an example of an imaging region of the imaging element.
以下では、図9に示すように、一例として、形状測定装置1が円周方向に繰り返し形状が形成された測定対象物Maの形状を測定する場合として説明する。形状測定装置1は、投影光Lを測定対象物Maの繰り返し形状の1つの単位である歯に投影し、測定対象物Ma上に投影された投影光Lの像を含む画像を取得することで、測定対象物Maの形状を測定する。第1実施形態の形状測定装置1は、歯筋の方向に沿って、投影光L(光学プローブ3)を移動させつつ、測定対象物Ma上に投影された投影光Lの像を含む画像28を取得することで、1つの歯の形状を測定することができる。形状測定装置1は、測定対象物Maの歯の形状を順番に測定することで、測定対象物Maの形状を測定することができる。測定対象物Maは、一例として、設計上は略同一形状となる歯が円周方向に所定の間隔で形成された、かさ歯車である。本実施形態の形状測定装置1は、測定対象物Maをかさ歯車としたが、種々の形状の物体を測定対象物として形状を測定することができる。つまり、測定対象物Mは、歯車に限られず、凹凸が所定の間隔で形成されたいずれの物体であってもよく、例えば、タービンブレードであってもよい。また、測定対象物Mは、凹凸が所定の間隔で形成された物体に限られず、形状を測定する対象となるいずれの物体であってもよい。もちろん、測定対象物Mを歯車とした場合、歯車の種類は特に限定されない。測定対象物Maは、かさ歯車以外に、平歯車、はすば歯車、やまば歯車、ウォームギア、ピニオン、ハイポイドギアなどであってもよい。なお、形状測定装置1は、測定対象物Maの1つの歯の形状の測定や、測定対象物Mの全体の形状を測定することに限定されず、測定対象物Mの任意の1点の形状を測定することもできる。
Hereinafter, as shown in FIG. 9, as an example, a case will be described where the shape measuring apparatus 1 measures the shape of the measurement target Ma in which the shape is repeatedly formed in the circumferential direction. The shape measuring device 1 projects the projection light L onto a tooth, which is one unit of the repetitive shape of the measurement target Ma, and acquires an image including an image of the projection light L projected on the measurement target Ma. The shape of the measurement object Ma is measured. The shape measuring apparatus 1 of the first embodiment moves the projection light L (the optical probe 3) along the direction of the tooth trace, and moves the image 28 including the image of the projection light L projected on the measurement target Ma. Is obtained, the shape of one tooth can be measured. The shape measuring device 1 can measure the shape of the measurement target Ma by sequentially measuring the shape of the teeth of the measurement target Ma. The measuring object Ma is, for example, a bevel gear in which teeth having substantially the same shape in design are formed at predetermined intervals in a circumferential direction. In the shape measuring apparatus 1 of the present embodiment, the measuring object Ma is a bevel gear, but the shape can be measured by using objects having various shapes as the measuring objects. That is, the measuring object M is not limited to a gear, but may be any object having irregularities formed at predetermined intervals, for example, a turbine blade. Further, the measurement target M is not limited to an object having irregularities formed at predetermined intervals, but may be any object whose shape is to be measured. Of course, when the measurement object M is a gear, the type of the gear is not particularly limited. The measuring object Ma may be a spur gear, a helical gear, a helical gear, a worm gear, a pinion, a hypoid gear, or the like, in addition to the bevel gear. In addition, the shape measuring device 1 is not limited to measuring the shape of one tooth of the measuring object Ma or measuring the entire shape of the measuring object M, but the shape of any one point of the measuring object M Can also be measured.
第1実施形態の撮像装置9は、測定対象物Mの像に歪みが与えられた画像である歪画像の画像データを生成している。具体的に、撮像装置9は、画像28の少なくとも一部の画像領域を、投影光Lの像の長手方向に拡大または縮小している。画像の一部の画像領域を拡大または縮小するために、図4及び図8に示すように、撮像装置9の結像光学系21は、対物レンズ81と、ガルバノスキャナ82と、結像レンズ83とを含む。以降の段落で詳述するが、測定対象物Mの像に与えられた歪みとは、拡大及び縮小の少なくともどちらか一方であり、歪みが与えられた歪画像とは、測定対象物Mの像の少なくとも一部が拡大された画像、測定対象物Mの像の少なくとも一部が拡大及び縮小された画像、又は測定対象物Mの像の少なくとも一部が縮小された画像である。
The imaging device 9 according to the first embodiment generates image data of a distorted image, which is an image obtained by distorting the image of the measurement target M. Specifically, the imaging device 9 enlarges or reduces at least a part of the image area of the image 28 in the longitudinal direction of the image of the projection light L. As shown in FIGS. 4 and 8, the imaging optical system 21 of the imaging device 9 includes an objective lens 81, a galvano scanner 82, and an imaging lens 83 in order to enlarge or reduce a partial image area of the image. And As will be described in detail in the following paragraphs, the distortion given to the image of the measurement target M is at least one of enlargement and reduction, and the distortion image given the distortion is an image of the measurement target M. Is an image in which at least a part of the image of the measurement target M is enlarged or reduced, or an image in which at least a part of the image of the measurement target M is reduced.
ここで、測定対象物Mの像に歪みが与えられた歪画像の画像データを生成する処理としては、撮像面20a上に結像された測定対象物Mの像に歪みを与えて歪画像の画像データを生成する場合と、画像28に含まれる測定対象物Mの像(画像)に歪みが与えられるように歪画像の画像データを生成する場合とがある。つまり、測定対象物Mの像に歪みが与えられた歪画像における、測定対象物Mの像とは、撮像面20a上に結像された測定対象物Mの像と、歪画像に含まれる測定対象物Mの像(画像)とを含む。
Here, the process of generating the image data of the distorted image in which the image of the measuring object M is distorted includes, for example, distorting the image of the measuring object M formed on the imaging surface 20a to generate a distortion image. There is a case where image data is generated, and a case where image data of a distorted image is generated so that an image (image) of the measuring object M included in the image 28 is distorted. That is, in the distorted image in which the image of the measurement object M is distorted, the image of the measurement object M is the image of the measurement object M formed on the imaging surface 20a and the measurement image included in the distortion image. And an image (image) of the object M.
第1実施形態の撮像装置9では、画像28に含まれる測定対象物Mの像(画像)に歪みが与えられるように歪画像の画像データを生成している。具体的に、第1実施形態の撮像装置9では、測定対象物Mの像に歪みが与えられた歪画像の画像データを生成する場合、撮像面20a上に結像された測定対象物Mの像に歪みを与えずに、撮像面20a上において測定対象物Mの像を移動させることで、撮像時に測定対象物Mの像(画像)に歪みを与えている。
In the imaging device 9 of the first embodiment, image data of a distorted image is generated so that an image (image) of the measurement target M included in the image 28 is distorted. Specifically, in the imaging device 9 of the first embodiment, when generating image data of a distorted image in which an image of the measurement object M is distorted, the image data of the measurement object M formed on the imaging surface 20a is generated. By moving the image of the measurement target M on the imaging surface 20a without distorting the image, the image (image) of the measurement target M is distorted at the time of imaging.
結像光学系21は、図8に示すように、対物レンズ81から結像レンズ83に至る光路を、ガルバノスキャナ82において、90°折り曲げている。つまり、結像光学系21は、測定対象物Mから対物レンズ81までの撮影方向と、結像レンズ83から撮像素子20までの撮影方向とが直交するように、ガルバノスキャナ82が配置されている。なお、図4では、説明を容易にするために、測定対象物Mから対物レンズ81までの撮影方向における光路と、結像レンズ83から撮像素子20までの撮影方向における光路とを斜めに交差するように図示している。しかしながら、実際には、図8における結像レンズ83から撮像素子20までの撮影方向における光路は、図4の奥行き方向(X軸方向)となっている。つまり、図4において、投影光Lの投影方向がZ軸方向となる場合、ガルバノスキャナ82、結像レンズ83及び撮像素子20は、X軸方向に並べて配置されている。
As shown in FIG. 8, the imaging optical system 21 bends the optical path from the objective lens 81 to the imaging lens 83 by 90 ° in the galvano scanner 82. That is, in the imaging optical system 21, the galvano scanner 82 is arranged so that the imaging direction from the measurement target M to the objective lens 81 is orthogonal to the imaging direction from the imaging lens 83 to the imaging device 20. . In FIG. 4, for ease of explanation, the optical path in the imaging direction from the measurement target M to the objective lens 81 and the optical path in the imaging direction from the imaging lens 83 to the imaging device 20 obliquely intersect. It is illustrated as follows. However, in practice, the optical path in the shooting direction from the imaging lens 83 to the image sensor 20 in FIG. 8 is in the depth direction (X-axis direction) in FIG. That is, in FIG. 4, when the projection direction of the projection light L is in the Z-axis direction, the galvano scanner 82, the imaging lens 83, and the image sensor 20 are arranged side by side in the X-axis direction.
対物レンズ81は、測定対象物M側に設けられるレンズであり、ライン状の投影光Lが投影された測定対象物Mからの光が入射する。測定対象物Mからの光とは、測定対象物Mの表面において散乱する光である。対物レンズ81は、入射した光を平行光とし、平行光となった光を結像レンズ83へ向けて出射する。対物レンズ81は、単体のレンズで構成されていてもよいし、複数のレンズで構成されていてもよく、特に限定されない。
The objective lens 81 is a lens provided on the measurement object M side, and receives light from the measurement object M onto which the linear projection light L is projected. The light from the measurement target M is light scattered on the surface of the measurement target M. The objective lens 81 converts the incident light into parallel light, and emits the parallel light toward the imaging lens 83. The objective lens 81 may be composed of a single lens or a plurality of lenses, and is not particularly limited.
結像レンズ83は、撮像素子20側に設けられるレンズであり、対物レンズ81から出射された平行光が入射する。結像レンズ83は、入射した平行光を集光する。結像レンズ83は、撮像素子20の撮像面20aに、ライン状の投影光Lが投影された測定対象物Mの像を結像する。結像レンズ83も、単体のレンズで構成されていてもよいし、複数のレンズで構成されていてもよく、特に限定されない。
The imaging lens 83 is a lens provided on the imaging device 20 side, and receives parallel light emitted from the objective lens 81. The imaging lens 83 collects the incident parallel light. The imaging lens 83 forms an image of the measurement target M onto which the linear projection light L is projected on the imaging surface 20a of the imaging device 20. The imaging lens 83 may be composed of a single lens or a plurality of lenses, and is not particularly limited.
ガルバノスキャナ82は、対物レンズ81と結像レンズ83との間の光路に設けられ、ミラーの反射面の向きを変化させることで、撮像素子20の撮像面20aに結像される投影光Lの像を含む測定対象物Mの像の撮像面20aにおける位置を変化させる。つまり、ガルバノスキャナ82は、撮像面20aに対して、測定対象物Mの像に含まれる投影光Lの像を長手方向に沿って移動させている。ガルバノスキャナ82は、撮像面20aに対して、投影光Lの像を長手方向に沿って移動させることにより、測定視野領域26が移動する。ガルバノスキャナ82は、回動軸85と、ガルバノミラー86と、回動駆動部87とを有している。
The galvano scanner 82 is provided in the optical path between the objective lens 81 and the imaging lens 83, and changes the direction of the reflection surface of the mirror to change the direction of the projection light L imaged on the imaging surface 20a of the imaging device 20. The position of the image of the measurement target M including the image on the imaging surface 20a is changed. That is, the galvano scanner 82 moves the image of the projection light L included in the image of the measurement target M along the longitudinal direction with respect to the imaging surface 20a. The galvano scanner 82 moves the image of the projection light L along the longitudinal direction with respect to the imaging surface 20a, so that the measurement visual field region 26 moves. The galvano scanner 82 has a rotation shaft 85, a galvanometer mirror 86, and a rotation drive unit 87.
回動軸85は、その軸方向が、図3及び図4に示すような、投影光Lの投影方向及び撮像装置9の撮影方向を含む面が、回転軸線53aの軸方向に直交する面となる場合、回転軸線53aの軸方向に直交する方向となっている。つまり、回動軸85の軸方向は、投影光Lの投影方向及び撮像装置9の撮影方向を含む面上の方向となっている。
3 and FIG. 4, the surface including the projection direction of the projection light L and the imaging direction of the imaging device 9 is perpendicular to the axial direction of the rotation axis 53a. In this case, the direction is orthogonal to the axial direction of the rotation axis 53a. That is, the axial direction of the rotating shaft 85 is a direction on a plane including the projection direction of the projection light L and the imaging direction of the imaging device 9.
ガルバノミラー86は、回動軸85の軸方向を含む平面と平行な面となる反射面86aを含み、回動軸85を中心に反射角度が可変される。ガルバノミラー86は、回動停止状態、つまり、初期位置の状態である場合、図11に示すように、測定視野領域26は、撮像素子20の撮像領域25の中央に位置する測定視野領域26aとなっている。このとき、画像28の測定画像領域27に設定されるセンサ原点Ibは、センサ原点Ibaに位置している。
The galvanomirror 86 includes a reflection surface 86 a that is parallel to a plane including the axial direction of the rotation axis 85, and the reflection angle is variable about the rotation axis 85. When the galvanomirror 86 is in the rotation stopped state, that is, in the state of the initial position, as shown in FIG. 11, the measurement visual field area 26 is the same as the measurement visual field area 26a located at the center of the imaging area 25 of the image sensor 20. Has become. In this case, the sensor origin I b that is set in the measurement image region 27 of the image 28 is positioned on the sensor origin I b a.
ガルバノミラー86は、回動軸85を中心に、第1回動方向(矢印91)に回動する。すると、図11に示すように、撮像素子20の撮像領域25上において、測定視野領域26は、測定視野領域26aに対して図11の左側に移動した測定視野領域26bとなる。つまり、ガルバノミラー86が第1回動方向に回動することで、図11の左側に、投影光Lの像(測定対象物Mの像)が移動する。この投影光Lの像の移動により、画像28の測定画像領域27に設定されるセンサ原点Ibは、投影光Lの像を移動させた分(後述する移動量Δd)だけずれた位置となるセンサ原点Ibbとなる。
The galvanomirror 86 rotates about a rotation shaft 85 in a first rotation direction (arrow 91). Then, as shown in FIG. 11, on the imaging area 25 of the image sensor 20, the measurement visual field area 26 becomes a measurement visual field area 26b moved to the left side of FIG. 11 with respect to the measurement visual field area 26a. That is, the image of the projection light L (the image of the measurement target M) moves to the left side in FIG. 11 by rotating the galvanometer mirror 86 in the first rotation direction. The movement of the image of the projection light L, the sensor origin I b that is set in the measurement image region 27 of the image 28 becomes displaced by the amount of moving the image of the projection light L (the moving amount Δd to be described later) located It becomes the sensor origin I bb .
また、ガルバノミラー86は、回動軸85を中心に、第2回動方向(矢印92)に回動する。すると、図11に示すように、撮像素子20の撮像領域25上において、測定視野領域26は、測定視野領域26aに対して図11の右側に移動した測定視野領域26cとなる。つまり、ガルバノミラー86が第2回動方向に回動することで、図11の右側に、投影光Lの像(測定対象物Mの像)が移動する。この投影光Lの像の移動により、画像28の測定画像領域27に設定されるセンサ原点Ibは、投影光Lの像を移動させた分(後述する移動量Δd)だけずれた位置となるセンサ原点Ibcとなる。
Further, the galvanomirror 86 rotates about the rotation shaft 85 in a second rotation direction (arrow 92). Then, as shown in FIG. 11, on the imaging area 25 of the image sensor 20, the measurement visual field area 26 becomes a measurement visual field area 26c which has moved to the right side of FIG. 11 with respect to the measurement visual field area 26a. That is, by rotating the galvanometer mirror 86 in the second rotation direction, the image of the projection light L (the image of the measurement target M) moves to the right in FIG. The movement of the image of the projection light L, the sensor origin I b that is set in the measurement image region 27 of the image 28 becomes displaced by the amount of moving the image of the projection light L (the moving amount Δd to be described later) located the sensor origin I b c.
回動駆動部87は、回動軸85を中心に、ガルバノミラー86を矢印91及び矢印92の回動方向に駆動させる。回動駆動部87は、制御装置4に接続されており、制御装置4の動作制御部40によって制御される。
The rotation drive unit 87 drives the galvanometer mirror 86 about the rotation shaft 85 in the rotation directions of the arrows 91 and 92. The rotation drive unit 87 is connected to the control device 4 and is controlled by the operation control unit 40 of the control device 4.
ここで、撮像素子20は、例えば、ローリングシャッター方式のCMOSイメージセンサが用いられている。撮像素子20は、複数の画素を有しており、複数の画素は、行方向及び列方向に並べてマトリクス状に配置されている。撮像素子20は、各行の行方向の一方側から他方側に向かうスキャン方向に沿って、各画素において順に露光すると共に、列方向の一方側の行から他方側の行に向かって順に露光している。この撮像素子20のスキャン方向は、撮像面20a上におけるライン状の投影光Lの像の長手方向に沿った方向(すなわち、撮像素子20のスキャン方向と撮像面20a上におけるライン状の投影光Lの像の長手方向は平行)となっており、図11では、左側から右側に向かう方向(矢印93)となっている。なお、撮像面20a上において、撮像素子20のスキャン方向と投影光Lの像の長手方向とは平行でなくてもよい。例えば、投影光Lの像の長手方向と撮像素子20のスキャン方向とが直交していなければよく、交差していればよい。
Here, as the imaging element 20, for example, a rolling shutter type CMOS image sensor is used. The imaging element 20 has a plurality of pixels, and the plurality of pixels are arranged in a matrix in a row direction and a column direction. The imaging element 20 sequentially exposes each pixel along a scan direction from one side of the row direction to the other side of each row, and sequentially exposes from one row in the column direction to the other row. I have. The scanning direction of the imaging device 20 is a direction along the longitudinal direction of the image of the linear projection light L on the imaging surface 20a (that is, the scanning direction of the imaging device 20 and the linear projection light L on the imaging surface 20a). 11 are parallel to each other), and in FIG. 11, the direction is from left to right (arrow 93). Note that, on the imaging surface 20a, the scanning direction of the imaging device 20 and the longitudinal direction of the image of the projection light L need not be parallel. For example, the longitudinal direction of the image of the projection light L and the scan direction of the image sensor 20 need not be orthogonal to each other, and may be any intersection.
このガルバノミラー86は、第1回動方向91に回動することで、撮像素子20の撮像面20aに結像される投影光Lの像を含む測定対象物Mの像を、撮像素子20のスキャン方向93の逆方向に移動させている。撮像素子20における各画素の露光と、ガルバノミラー86による測定対象物Mの像の移動とを合わせることで、撮像素子20により取得される測定対象物Mの像の画像28は、投影光Lの像の長手方向に縮小された歪んだ画像28となる。このとき、第1回動方向91における回転速度が速いほど縮小される割合が大きなものとなる。このように、ガルバノミラー86を第1回動方向91へ回動させつつ撮像素子20で測定対象物Mの像を撮像すると、生成された画像28上の測定対象物Mの像に歪みが与えられる(画像28上の測定対象物Mの像の少なくとも一部が縮小される)。したがって、測定対象物Mの像に歪みが与えられた画像28(すなわち、歪画像)の画像データが得られる。
The galvanomirror 86 rotates an image of the measurement target M including the image of the projection light L formed on the imaging surface 20 a of the imaging device 20 by rotating in the first rotation direction 91. It is moved in a direction opposite to the scanning direction 93. By matching the exposure of each pixel in the imaging device 20 with the movement of the image of the measurement object M by the galvanomirror 86, the image 28 of the image of the measurement object M acquired by the imaging device 20 becomes A distorted image 28 reduced in the longitudinal direction of the image is obtained. At this time, the higher the rotation speed in the first rotation direction 91, the larger the reduction ratio. As described above, when the image of the measurement target M is captured by the image sensor 20 while rotating the galvanometer mirror 86 in the first rotation direction 91, the image of the measurement target M on the generated image 28 is distorted. (At least a part of the image of the measurement target M on the image 28 is reduced). Therefore, image data of the image 28 in which the image of the measurement target M is distorted (that is, the distorted image) is obtained.
一方で、ガルバノミラー86は、第2回動方向92に回動することで、撮像素子20の撮像面20aに結像される投影光Lの像を含む測定対象物Mの像を、撮像素子20のスキャン方向93と同方向に移動させている。撮像素子20における各画素の露光と、ガルバノミラー86による測定対象物Mの像の移動とを合わせることで、撮像素子20により取得される測定対象物Mの像の画像28は、投影光Lの像の長手方向に拡大された歪んだ画像28となる。このとき、第2回動方向92における回転速度が速いほど拡大される割合が大きなものとなる。このように、ガルバノミラー86を第2回動方向92へ回動させつつ撮像素子20で測定対象物Mの像を撮像すると、生成された画像28上の測定対象物Mの像に歪みが与えられる(画像28上の測定対象物Mの像の少なくとも一部が拡大される)。したがって、測定対象物Mの像に歪みが与えられた画像28(すなわち、歪画像)の画像データが得られる。なお、撮像素子20により撮像した歪んだ画像28は、結像光学系21に含まれる光学素子による屈折や反射等に起因して発生する収差、特に像が歪む歪曲収差によって、測定対象物Mの像が歪んだような画像となっている。また、歪曲収差に限定されず、その他の収差によって、測定対象物Mの像が歪んだような画像となっていてもよい。
On the other hand, the galvanomirror 86 rotates in the second rotation direction 92 to convert the image of the measurement target M including the image of the projection light L formed on the imaging surface 20a of the imaging device 20 into the imaging device. 20 is moved in the same direction as the scan direction 93. By matching the exposure of each pixel in the imaging device 20 with the movement of the image of the measurement object M by the galvanomirror 86, the image 28 of the image of the measurement object M acquired by the imaging device 20 becomes The distorted image 28 is enlarged in the longitudinal direction of the image. At this time, the rate of enlargement increases as the rotation speed in the second rotation direction 92 increases. As described above, when the image of the measurement target M is captured by the imaging device 20 while rotating the galvanometer mirror 86 in the second rotation direction 92, the image of the measurement target M on the generated image 28 is distorted. (At least a part of the image of the measurement target M on the image 28 is enlarged). Therefore, image data of the image 28 in which the image of the measurement target M is distorted (that is, the distorted image) is obtained. Note that the distorted image 28 captured by the imaging device 20 is caused by aberrations caused by refraction and reflection by the optical elements included in the imaging optical system 21, particularly, distortion of the measurement target M due to distortion of the image. The image is distorted. Further, the image is not limited to the distortion, and the image of the measurement target M may be distorted due to other aberrations.
ガルバノミラー86を回動させることで得られた歪画像の画像データは、画像28上の測定対象物Mの像の少なくとも一部が拡大された画像の画像データとなる。また、歪画像の画像データは、画像28の各画素における輝度値と、各画素におけるij直交座標系(2次元座標系)の座標値とを含むデータとなる。
Image data of a distorted image obtained by rotating the galvanomirror 86 becomes image data of an image in which at least a part of the image of the measurement target M on the image 28 is enlarged. The image data of the distorted image is data including a luminance value of each pixel of the image 28 and a coordinate value of each pixel of the ij orthogonal coordinate system (two-dimensional coordinate system).
なお、ガルバノミラー86は、回動停止状態においては、撮像素子20の撮像面20aに結像される投影光Lの像を含む測定対象物Mの像が移動しない。この場合、撮像素子20により取得される測定対象物Mの画像28は、投影光Lの長手方向に縮小または拡大されずに、歪みのない画像28となる。
Note that the image of the measurement target M including the image of the projection light L formed on the imaging surface 20a of the imaging device 20 does not move when the galvanomirror 86 is stopped rotating. In this case, the image 28 of the measurement target M acquired by the imaging device 20 is not reduced or enlarged in the longitudinal direction of the projection light L, and becomes an image 28 without distortion.
ガルバノスキャナ82は、測定対象物Mの像を投影光Lの像の長手方向に移動させる移動量に基づいて、ガルバノミラー86の回動動作が設定される。また、移動量は、画像領域設定部34により設定された拡大画像領域及び縮小画像領域に対応する画像28の拡大倍率に基づいて設定される。このため、制御装置4は、画像28の拡大倍率に基づいて、投影光Lの像の長手方向に移動させる移動量を導出し、この移動量からガルバノミラー86の回動動作を設定する。制御装置4の動作制御部40は、ガルバノスキャナ82を動作させる場合、一例として、後述するティーチングモードにおいて予め設定されたガルバノミラー86の回動動作に基づいて制御する。動作制御部40は、回動駆動部87を制御して、設定された回動動作に基づき、ガルバノミラー86を回動させる。ガルバノミラー86の回動動作としては、回動方向91,92における回転速度及び回転加速度等である。ガルバノミラー86の回動動作については、下記するティーチングモードにおいて取得される。
In the galvano scanner 82, the rotation of the galvanometer mirror 86 is set based on the amount of movement of moving the image of the measurement target M in the longitudinal direction of the image of the projection light L. The moving amount is set based on the magnification of the image 28 corresponding to the enlarged image area and the reduced image area set by the image area setting unit 34. For this reason, the control device 4 derives a movement amount for moving the projection light L in the longitudinal direction of the image based on the magnification of the image 28, and sets the rotation operation of the galvanometer mirror 86 based on the movement amount. When operating the galvano scanner 82, the operation control unit 40 of the control device 4 controls, for example, based on a rotating operation of the galvanometer mirror 86 set in a teaching mode described later. The operation control unit 40 controls the rotation drive unit 87 to rotate the galvanomirror 86 based on the set rotation operation. The rotation operation of the galvanometer mirror 86 includes a rotation speed and a rotation acceleration in the rotation directions 91 and 92. The rotation operation of the galvanomirror 86 is acquired in the following teaching mode.
また、ガルバノスキャナ82は、撮像素子20のスキャン方向への露光に対して、所定の回動動作となるようにガルバノミラー86を回動させている。つまり、ガルバノスキャナ82は、撮像素子20の各行におけるスキャン方向の露光速度に対して、拡大画像領域及び縮小画像領域の画像の拡大倍率が設定された拡大倍率となるように、投影光Lの像の長手方向における移動速度を制御している。ここで、ガルバノスキャナ82は、撮像素子20のスキャンの開始(最初の画素の露光)に合わせて、ガルバノミラー86の駆動を開始している。撮像素子20の露光動作と、ガルバノスキャナ82の回動動作とは、独立した動作となっている。撮像素子20のスキャン方向における露光速度は一定となっており、ガルバノスキャナ82は、露光速度が一定となる撮像素子20に対して、投影光Lの像の長手方向における移動速度を可変させている。このとき、ガルバノスキャナ82は、ガルバノミラー86を連続的に回動させてもよい。また、ガルバノスキャナ82は、撮像素子20の各画素の露光時において、ガルバノミラー86の回動を停止させつつ、撮像素子20の各画素の露光後において、ガルバノミラー86の回動させることで、ガルバノミラー86を間欠的に回動させてもよい。なお、ガルバノスキャナ82は、撮像素子20のスキャンに同期させて、ガルバノミラー86を回動させてもよい。つまり、ガルバノスキャナ82の回動動作は、撮像素子20の露光動作に協調させてもよく、例えば、ガルバノスキャナ82は、撮像素子20に対して、投影光Lの像の長手方向における移動速度を可変させ、撮像素子20は、投影光Lの像の長手方向における移動速度に応じて、スキャン方向における露光速度を可変させてもよい。
Further, the galvano scanner 82 rotates the galvanometer mirror 86 so as to perform a predetermined rotation operation with respect to exposure of the image sensor 20 in the scanning direction. That is, the galvano scanner 82 sets the image of the projection light L such that the magnification of the image in the enlarged image area and the reduced image area becomes the set magnification with respect to the exposure speed in the scanning direction in each row of the image sensor 20. Is controlled in the longitudinal direction. Here, the galvano scanner 82 starts driving the galvanometer mirror 86 in synchronization with the start of scanning of the image sensor 20 (exposure of the first pixel). The exposure operation of the image sensor 20 and the rotation operation of the galvano scanner 82 are independent operations. The exposure speed of the image sensor 20 in the scanning direction is constant, and the galvano scanner 82 varies the moving speed of the image of the projection light L in the longitudinal direction with respect to the image sensor 20 having the constant exposure speed. . At this time, the galvano scanner 82 may rotate the galvanometer mirror 86 continuously. Also, the galvano scanner 82 stops the rotation of the galvanometer mirror 86 during the exposure of each pixel of the imaging device 20 and rotates the galvanometer mirror 86 after the exposure of each pixel of the imaging device 20, The galvanomirror 86 may be rotated intermittently. Note that the galvano scanner 82 may rotate the galvanometer mirror 86 in synchronization with the scan of the image sensor 20. That is, the rotating operation of the galvano scanner 82 may be coordinated with the exposure operation of the image sensor 20. For example, the galvano scanner 82 may control the image sensor 20 to move the moving speed of the image of the projection light L in the longitudinal direction. The exposure speed in the scanning direction may be varied according to the moving speed of the image of the projection light L in the longitudinal direction.
上記の撮像装置9は、撮像素子20で受光した受光信号に基づき画像処理を行うことで、画像28の画像データを生成する。このとき、上記のように、画像28の一部の画像領域を、投影光Lの長手方向に拡大または縮小している場合、撮像素子20は、歪んだ歪画像の画像データを生成する。そして、撮像素子20は、生成した歪画像の画像データを、制御装置4の測定部39に出力する。
The above-described imaging device 9 generates image data of the image 28 by performing image processing based on a light reception signal received by the imaging element 20. At this time, as described above, when a partial image area of the image 28 is enlarged or reduced in the longitudinal direction of the projection light L, the image sensor 20 generates image data of a distorted image. Then, the imaging element 20 outputs the generated image data of the distorted image to the measurement unit 39 of the control device 4.
測定部39は、歪画像の画像データを取得すると、歪画像の画像データから、点群の密度が異なる点群データを生成する。つまり、測定部39は、測定対象物Mを含む像に歪みが与えられた歪画像の画像データと、与えられた歪みの量とに基づいて、点群の密度が異なる点群データを生成している。ここで、上記したように、歪みは、拡大及び縮小の少なくともどちらか一方であることから、歪みの量は、拡大倍率(拡大される所定の倍率)及び縮小倍率(縮小される所定の倍率)の少なくともどちらか一方となっている。そして、第1実施形態では、ガルバノスキャナ82を回動動作させることで、所定の拡大倍率または所定の縮小倍率とし、測定対象物Mを含む像に歪みが与えられた歪画像の画像データを生成している。このため、第1実施形態では、拡大倍率及び縮小倍率に基づいて、点群の密度が異なる点群データを生成する場合、具体的には、拡大倍率及び縮小倍率に基づいて算出されるガルバノスキャナ82の回動動作に関する情報である回動動作情報44に基づいて、点群の密度が異なる点群データを生成している。つまり、測定部39は、回動動作情報44を用いて点群データを補正する。測定部39は、画像28上の測定対象物Mの像に対して歪んだ歪みの量を考慮して、点群の三次元の座標値を補正する。この歪みの量は、所定の拡大倍率及び所定の縮小倍率であり、第1実施形態では、所定の拡大倍率及び所定の縮小倍率に基づいて、ガルバノスキャナ82の回動動作が設定されることで、投影光Lの像の長手方向における移動量が設定される。この移動量に関する情報は、記憶部31に記憶された回動動作情報44に含まれている。
When acquiring the image data of the distorted image, the measuring unit 39 generates point cloud data having different point cloud densities from the image data of the distorted image. That is, the measurement unit 39 generates point cloud data having different density of the point cloud based on the image data of the strain image in which the image including the measurement target M is distorted and the amount of the applied distortion. ing. Here, as described above, since the distortion is at least one of enlargement and reduction, the amount of distortion is determined by the enlargement magnification (a predetermined magnification to be enlarged) and the reduction magnification (a predetermined magnification to be reduced). At least one of them. In the first embodiment, by rotating the galvano scanner 82, a predetermined enlargement magnification or a predetermined reduction magnification is set to generate image data of a distorted image in which an image including the measurement target M is distorted. doing. For this reason, in the first embodiment, when generating point cloud data having different point cloud densities based on the enlargement ratio and the reduction ratio, specifically, a galvano scanner calculated based on the enlargement ratio and the reduction ratio On the basis of the turning operation information 44 which is information on the turning operation of 82, point group data having different point cloud densities is generated. That is, the measuring unit 39 corrects the point cloud data using the rotation operation information 44. The measurement unit 39 corrects the three-dimensional coordinate values of the point group in consideration of the amount of distortion of the image of the measurement target M on the image 28. The amount of this distortion is a predetermined enlargement magnification and a predetermined reduction magnification. In the first embodiment, the rotation of the galvano scanner 82 is set based on the predetermined enlargement magnification and the predetermined reduction magnification. , The amount of movement of the image of the projection light L in the longitudinal direction is set. The information on the movement amount is included in the rotation operation information 44 stored in the storage unit 31.
次に、図10を参照して、投影光Lが投影される測定対象物M(図10の(a))と、撮像装置9により撮像された歪画像(図10の(b))と、測定部39により歪画像の画像データから生成される点群(図10の(c))と、測定部39により歪画像の画像データから生成される補正された点群(図10の(d))とについて説明する。なお、図10では、説明を簡単にすべく、測定対象物M、及び歪画像を、格子状にモデル化している。また、図10では、点群について、測定対象物M及び歪画像との比較を容易にすべく、モデル化された格子及び投影光Lを図示している。さらに、図10の歪画像における左側から右側に向かう方向は、撮像素子20のスキャン方向93としている。
Next, referring to FIG. 10, a measurement target M onto which the projection light L is projected (FIG. 10A), a distortion image captured by the imaging device 9 (FIG. 10B), A point group generated from the image data of the distorted image by the measuring unit 39 (FIG. 10C) and a corrected point group generated from the image data of the distorted image by the measuring unit 39 (FIG. 10D) ) Will be described. In FIG. 10, the measurement object M and the distorted image are modeled in a grid pattern to simplify the description. FIG. 10 shows a modeled grating and projected light L for the point group to facilitate comparison with the measurement object M and the distorted image. Further, the direction from the left side to the right side in the distortion image in FIG. 10 is the scan direction 93 of the image sensor 20.
図10の(a)に示す図は、投影光Lが投影された測定対象物Mである。撮像装置9は、ガルバノスキャナ82を作動させて図10の(a)に示す測定対象物Mを撮像する。すると、形状測定装置1は、例えば、図10の(b)に示すような歪画像を取得する。この歪画像は、投影光Lの像の長手方向の中央部における画像領域を拡大させた画像28となっている。つまり、撮像装置9は、ガルバノミラー86を第2回動方向92に回動させることで、投影光Lの像の長手方向の中央部において画像領域を拡大させた拡大画像領域としている。
FIG. 10A shows the measurement target M onto which the projection light L is projected. The imaging device 9 operates the galvano scanner 82 to image the measurement target M shown in FIG. Then, the shape measuring apparatus 1 acquires a distortion image as shown in FIG. 10B, for example. This distorted image is an image 28 obtained by enlarging the image area at the central portion in the longitudinal direction of the image of the projection light L. In other words, the imaging device 9 rotates the galvanomirror 86 in the second rotation direction 92 to make an enlarged image region at the central portion in the longitudinal direction of the image of the projection light L as an enlarged image region.
また、歪画像は、投影光Lの像の長手方向の両外側における画像領域、すなわち、拡大画像領域を挟んで投影光Lの像の長手方向の両側にある画像領域を、拡大画像領域に比して縮小した画像領域としている。この場合、一例として、撮像装置9は、歪画像の長手方向の外側において、ガルバノミラー86を、拡大画像領域における第2回動方向92の回転速度よりも遅い回転速度で回動させる。また、一例として、撮像装置9は、歪画像の長手方向の外側において、ガルバノミラー86を回動停止状態する。さらに、一例として、撮像装置9は、歪画像の長手方向の外側において、ガルバノミラー86を第1回動方向91に回動させる。これにより、撮像装置9は、投影光Lの像の長手方向の両外側において画像領域を縮小させた縮小画像領域としている。このように、撮像装置9により撮像された図10の(b)に示す歪画像は、投影光Lの像の長手方向における中央部が拡大画像領域となり、投影光Lの像の長手方向における外側が拡大画像領域に比して縮小された縮小画像領域となる。
Further, the distorted image is obtained by comparing the image regions on both outer sides in the longitudinal direction of the image of the projection light L, that is, the image regions on both sides in the longitudinal direction of the image of the projection light L with the enlarged image region therebetween, as compared with the enlarged image region. To reduce the image area. In this case, as an example, the imaging device 9 rotates the galvanomirror 86 at a rotation speed that is lower than the rotation speed in the second rotation direction 92 in the enlarged image area outside the distortion image in the longitudinal direction. Further, as an example, the imaging device 9 stops the rotation of the galvanomirror 86 on the outer side in the longitudinal direction of the distorted image. Further, as an example, the imaging device 9 rotates the galvanomirror 86 in the first rotation direction 91 outside the longitudinal direction of the distorted image. Thereby, the imaging device 9 sets the reduced image area on both outer sides in the longitudinal direction of the image of the projection light L as a reduced image area. In this way, in the distorted image shown in FIG. 10B captured by the imaging device 9, the central portion in the longitudinal direction of the image of the projection light L is an enlarged image area, and the outer side in the longitudinal direction of the image of the projection light L Is a reduced image area smaller than the enlarged image area.
ここで、図10の(b)に示す歪画像において、撮像素子20は、複数の画素が行方向及び列方向において等間隔となっている。つまり、撮像素子20上の複数の画素の位置は、投影光Lの像の長手方向において等間隔となっている。このため、歪画像の画像データに基づいて生成される点群データの点群は、図10の(c)に示す複数の黒点のように、投影光Lの像の長手方向において均等な間隔となる。
Here, in the distorted image shown in FIG. 10B, the image sensor 20 has a plurality of pixels at equal intervals in the row direction and the column direction. That is, the positions of the plurality of pixels on the image sensor 20 are equally spaced in the longitudinal direction of the image of the projection light L. For this reason, the point group of the point group data generated based on the image data of the distorted image has uniform intervals in the longitudinal direction of the image of the projection light L, as shown by a plurality of black points shown in FIG. Become.
図10の(d)に示す図は、回動動作情報44を用いて生成された点群データの点群である。生成された点群は、歪画像の画像データに基づいて生成される点群データの点群に対して、歪画像の歪みの量を考慮して補正された点群である。具体的に、歪画像において、拡大画像領域は、歪みの量を考慮して点群を生成することで、生成される点群の間隔が、投影光Lの像の長手方向において短くなる。つまり、歪画像の拡大画像領域に対応する、生成された点群の密度は高くなる。一方で、歪画像において、縮小画像領域は、歪みの量を考慮して点群を生成することで、補正された点群の間隔が、投影光Lの像の長手方向において、拡大画像領域に比して長くなる。つまり、歪画像の縮小画像領域に対応する、生成された点群の密度は低くなる。このように、生成された点群は、投影光Lの像の長手方向において不均等な間隔となる。つまり、図10の(d)に示す補正された点群は、歪画像の拡大画像領域に対応する点群が密となり、歪画像の縮小画像領域に対応する点群が疎となる。このため、生成された点群は、投影光Lの像の長手方向において、密度が異なるものとなる。換言すれば、点群を密にしたい場合、撮像素子20により撮像される画像において、対応する画像領域を拡大画像領域となるように、画像領域設定部34により設定する。図10の(d)に示す図においては、投影光Lの像の長手方向における中央の拡大画像領域に対応する点群の間隔が短くなることから、拡大画像領域の点群は他の領域と比べて密となる。また、投影光Lの像の長手方向における両外側の縮小画像領域に対応する点群の間隔が長くなることから、縮小画像領域の点群は他の領域と比べて疎となる。なお、点群を疎にしたい場合、撮像素子20により撮像される画像28において、対応する画像領域を縮小画像領域となるように、画像領域設定部34により縮小対象領域を設定してもよい。
FIG. 10D shows a point cloud of the point cloud data generated using the rotation motion information 44. The generated point cloud is a point cloud obtained by correcting the point cloud of the point cloud data generated based on the image data of the strain image in consideration of the amount of distortion of the strain image. Specifically, in the distorted image, in the enlarged image area, by generating the point group in consideration of the amount of distortion, the interval between the generated point groups is shortened in the longitudinal direction of the image of the projection light L. That is, the density of the generated point group corresponding to the enlarged image area of the distortion image is increased. On the other hand, in the distorted image, the reduced image area generates a point group in consideration of the amount of distortion, so that the corrected interval between the point groups is reduced to the enlarged image area in the longitudinal direction of the image of the projection light L. It is longer than that. That is, the density of the generated point cloud corresponding to the reduced image area of the distorted image becomes low. In this way, the generated point groups have unequal intervals in the longitudinal direction of the image of the projection light L. That is, in the corrected point group shown in FIG. 10D, the point group corresponding to the enlarged image region of the distortion image becomes dense, and the point group corresponding to the reduced image region of the distortion image becomes sparse. For this reason, the generated point groups have different densities in the longitudinal direction of the image of the projection light L. In other words, when it is desired to make the point cloud dense, the image area setting unit 34 sets the corresponding image area in the image captured by the image sensor 20 so as to be the enlarged image area. In the diagram shown in FIG. 10D, since the interval between the point groups corresponding to the central enlarged image area in the longitudinal direction of the image of the projection light L becomes shorter, the point group of the enlarged image area is different from other areas. It will be denser than that. Further, since the interval between the point groups corresponding to the reduced image areas on both outer sides in the longitudinal direction of the image of the projection light L becomes longer, the point group in the reduced image area becomes sparser than other areas. When the point cloud is desired to be sparse, the image area setting unit 34 may set the reduction target area so that the corresponding image area becomes the reduced image area in the image 28 captured by the image sensor 20.
形状測定装置1は、補正された点群に基づいて、測定部39により外形形状を測定する。このとき、点群が密となれば、外形形状を緻密に計測できるため、点群が密となる部位の測定対象物Mを、精度よく計測することができる。つまり、図10においては、投影光Lの像の長手方向における中央部の測定対象物Mを、精度よく計測することができる。
The shape measuring device 1 measures the outer shape by the measuring unit 39 based on the corrected point cloud. At this time, if the point group is dense, the outer shape can be precisely measured, so that the measurement target M in the part where the point group is dense can be accurately measured. That is, in FIG. 10, the measurement target M at the center in the longitudinal direction of the image of the projection light L can be measured with high accuracy.
なお、図10の(d)に示す補正された点群は一例である。点群の疎密の変化、つまり、拡大画像領域の位置は、任意に設定できる。例えば、拡大画像領域は、形状測定装置1の入力部32を介して、ティーチングモードにおいて操作者により予め設定される。また、例えば、縮小画像領域は、拡大画像領域が設定されることで、拡大画像領域以外の画像領域に設定される。
The corrected point group shown in FIG. 10D is an example. The change in the density of the point cloud, that is, the position of the enlarged image area can be arbitrarily set. For example, the enlarged image area is set in advance by the operator in the teaching mode via the input unit 32 of the shape measuring device 1. Also, for example, the reduced image area is set to an image area other than the enlarged image area by setting the enlarged image area.
次に、図12から図23を参照して、画像28に対して拡大画像領域を設定し、ガルバノスキャナ82の回動動作を設定する、ティーチングモードについて説明する。
Next, with reference to FIGS. 12 to 23, a teaching mode in which an enlarged image area is set for the image 28 and a rotating operation of the galvano scanner 82 is set will be described.
形状測定装置1は、測定対象物Mの形状を測定するにあたり、測定対象物Mの形状を測定するための測定条件を設定している。図12は、第1実施形態の形状測定装置のティーチングモードにおける処理を示すフローチャートである。形状測定装置1は、ティーチングモードの処理で、測定対象物Mの測定条件を設定する。ティーチングとは、測定対象物Mの三次元形状を正確に測定するために、形状測定装置1の測定条件を調整及び決定する作業を指す。すなわち、ティーチングとは、形状測定装置1の測定条件を設定する作業である。図12を参照して、ティーチングモードに関する処理について説明する。
The shape measuring apparatus 1 sets measurement conditions for measuring the shape of the measurement target M when measuring the shape of the measurement target M. FIG. 12 is a flowchart illustrating a process in the teaching mode of the shape measuring apparatus according to the first embodiment. The shape measuring apparatus 1 sets the measurement conditions of the measurement target M in the teaching mode processing. Teaching refers to an operation of adjusting and determining the measurement conditions of the shape measuring device 1 in order to accurately measure the three-dimensional shape of the measurement target M. That is, teaching is an operation of setting measurement conditions of the shape measuring device 1. With reference to FIG. 12, a process regarding the teaching mode will be described.
先ず、撮像装置9は、一例として、以下の仕様となっている。なお、撮像装置9の仕様は、説明を簡単にするための一例の仕様であり、特に限定されない。測定面21aの領域(測定面領域とも言い換えられる)の大きさは、20mm×20mmの正方形の領域となっている。測定面21a上の投影光Lの長手方向の長さは、20mmとなっている。撮像装置9の撮像倍率は、0.1倍となっている。つまり、測定面21aの領域の大きさが20mm×20mmである場合、撮像素子20の撮像面20a上における測定視野領域26の大きさは、2mm×2mmとなり、測定視野領域26内の投影光Lの像の長手方向の長さは、2mmとなる。対物レンズ81の測定面21aまでの焦点距離は、100mmとなっている。結像レンズ83の撮像面20aまでの焦点距離は、10mmとなっている。撮像素子20の撮像領域25の大きさは、10mm×10mmとなっている。撮像素子20の画素数は、1000画素×1000画素の100万画素となっている。このため、1画素の大きさは、10μm×10μmとなっている。撮像素子20は、上記したようにローリングシャッター方式となっており、1枚の画像28を露光する露光時間は、100msとなっている。
First, the imaging device 9 has, for example, the following specifications. Note that the specifications of the imaging device 9 are merely examples for simplifying the description, and are not particularly limited. The size of the area of the measurement surface 21a (also referred to as the measurement surface area) is a square area of 20 mm × 20 mm. The length in the longitudinal direction of the projection light L on the measurement surface 21a is 20 mm. The imaging magnification of the imaging device 9 is 0.1 times. That is, when the size of the area of the measurement surface 21a is 20 mm × 20 mm, the size of the measurement visual field region 26 on the imaging surface 20a of the image sensor 20 is 2 mm × 2 mm, and the projection light L Is 2 mm in the longitudinal direction. The focal length of the objective lens 81 up to the measurement surface 21a is 100 mm. The focal length of the imaging lens 83 to the imaging surface 20a is 10 mm. The size of the imaging area 25 of the imaging element 20 is 10 mm × 10 mm. The number of pixels of the imaging device 20 is 1000 pixels × 1000 pixels, that is, 1 million pixels. Therefore, the size of one pixel is 10 μm × 10 μm. As described above, the image sensor 20 is of the rolling shutter type, and the exposure time for exposing one image 28 is 100 ms.
図12に示すように、形状測定装置1の制御装置4は、入力部32への操作者の操作を検出すると、ティーチングモードを選択する(ステップS1)。形状測定装置1は、ティーチングモードが選択されると、表示部33に、測定条件を設定するための画面を表示する。制御装置4は、画面を視認する操作者の操作が入力部32から入力されると、測定条件を設定する(ステップS3)。設定される測定条件としては、例えば、測定範囲、投影光Lが移動する方向における点群の間隔、投影光Lが移動する方向の速度、光学プローブ3と測定対象物Mとの相対位置、投影光Lの投影方向、撮像装置9の撮影方向、プローブ移動装置2の動作、保持回転装置7の動作、ガルバノスキャナ82の回動動作等である。なお、ステップS3において設定される測定条件では、ガルバノスキャナ82の回動動作について、ガルバノスキャナ82の回動動作を停止させる条件となっている。制御装置4は、設定された測定条件を、条件テーブル46として、記憶部31に記憶する。
As shown in FIG. 12, when detecting the operation of the operator on the input unit 32, the control device 4 of the shape measuring device 1 selects the teaching mode (Step S1). When the teaching mode is selected, the shape measuring device 1 displays a screen for setting measurement conditions on the display unit 33. When an operation of the operator who visually recognizes the screen is input from the input unit 32, the control device 4 sets a measurement condition (Step S3). The measurement conditions to be set include, for example, a measurement range, an interval between point groups in a direction in which the projection light L moves, a speed in a direction in which the projection light L moves, a relative position between the optical probe 3 and the measurement target M, a projection. The projection direction of the light L, the imaging direction of the imaging device 9, the operation of the probe moving device 2, the operation of the holding / rotating device 7, the rotation operation of the galvano scanner 82, and the like. The measurement condition set in step S3 is a condition for stopping the rotation of the galvano scanner 82 with respect to the rotation of the galvano scanner 82. The control device 4 stores the set measurement conditions in the storage unit 31 as the condition table 46.
測定条件の設定後、制御装置4は、測定条件に基づいて、投光装置8から投影光Lが投影された測定対象物Mを、撮像装置9により撮像し、画像28を取得する(ステップS5)。ステップS5では、ガルバノスキャナ82の回動動作を停止させたときの画像28を取得する。制御装置4の測定部39は、撮像装置9により撮像した投影光Lを含む測定対象物Mの像の画像28を取得すると、画像28の画像データに基づいて、点群を生成する(ステップS7)。ステップS7において、測定部39は、取得した画像28の投影光Lの像上における各画素の位置(座標値)を算出し、算出した画像28の投影光Lの像上における各画素の位置に基づいて、投影光Lの像の長手方向に沿う点群データを生成する。
After setting the measurement conditions, the control device 4 captures an image of the measurement target M onto which the projection light L is projected from the light projecting device 8 by the imaging device 9 based on the measurement conditions, and obtains an image 28 (step S5). ). In step S5, the image 28 obtained when the rotation of the galvano scanner 82 is stopped is acquired. When acquiring the image 28 of the image of the measurement target M including the projection light L captured by the imaging device 9, the measurement unit 39 of the control device 4 generates a point cloud based on the image data of the image 28 (Step S7). ). In step S7, the measuring unit 39 calculates the position (coordinate value) of each pixel on the image of the projection light L of the acquired image 28, and stores the position of each pixel on the image of the calculated projection light L of the image 28. Based on this, point group data along the longitudinal direction of the image of the projection light L is generated.
制御装置4は、点群を生成すると、画像領域設定部34により、拡大画像領域に対応する拡大対象領域を設定する(ステップS9)。拡大対象領域の設定は、例えば、図13に示す画面60を用いて設定してもよい。図13は、拡大画像領域を設定する画面を示す図である。表示部33は、図13に示す拡大画像領域を設定するための画面60を表示する。画面60には、ティーチングモードにおいて生成された点群の点群データに基づく、測定対象物Mの一部の測定形状が表示されている。また、画面60に表示される測定対象物Mの一部の測定形状は、測定範囲74において測定された測定対象物Mの一部の測定形状となっている。拡大画像領域に対応する拡大対象領域75とその拡大倍率(拡大画像領域の拡大倍率)は、画面60に表示される測定対象物Mの測定範囲74に対して、入力部32からの入力に基づいて設定される。つまり、画面60に表示される測定対象物Mの一部の測定形状は、点群によって生成される形状となっていることから、拡大対象領域75は、点群に対して設定される。また、画面60では、設定された拡大対象領域75の点群に対して拡大倍率が設定される。制御装置4は、図13の画面60上において、拡大対象領域75が設定されることで、領域設定データ43を生成する。つまり、制御装置4は、点群に設定された拡大対象領域75の位置と、拡大対象領域75に対応する拡大画像領域と、拡大画像領域の拡大倍率とが対応付けられた、拡大対象領域75の位置の情報を生成する。また、制御装置4は、拡大対象領域75の位置の情報と、光学プローブ3と測定対象物Mとの相対位置の情報とを対応付けて、領域設定データ43を生成する。
When the control device 4 generates the point cloud, the image area setting unit 34 sets an enlargement target area corresponding to the enlarged image area (step S9). The setting of the enlargement target area may be set using, for example, a screen 60 shown in FIG. FIG. 13 is a diagram illustrating a screen for setting an enlarged image area. The display unit 33 displays a screen 60 for setting an enlarged image area shown in FIG. The screen 60 displays a part of the measurement shape of the measurement target M based on the point cloud data of the point cloud generated in the teaching mode. A part of the measurement shape of the measurement target M displayed on the screen 60 is a part of the measurement shape of the measurement target M measured in the measurement range 74. The enlargement target area 75 corresponding to the enlarged image area and the enlargement magnification thereof (enlargement magnification of the enlarged image area) are based on the input from the input unit 32 with respect to the measurement range 74 of the measurement target M displayed on the screen 60. Is set. That is, since a part of the measurement shape of the measurement target M displayed on the screen 60 is a shape generated by the point group, the enlargement target area 75 is set for the point group. On the screen 60, an enlargement magnification is set for the set point group of the enlargement target area 75. The control device 4 generates the area setting data 43 by setting the enlargement target area 75 on the screen 60 in FIG. That is, the control device 4 sets the enlargement target area 75 in which the position of the enlargement target area 75 set in the point group, the enlarged image area corresponding to the enlargement target area 75, and the enlargement magnification of the enlarged image area are associated with each other. Generate location information for. Further, the control device 4 generates the region setting data 43 by associating the information on the position of the enlargement target region 75 with the information on the relative position between the optical probe 3 and the measurement target M.
なお、画像領域設定部34は、図13の画面60において、拡大対象領域75のみが設定されるようにしてもよい。この場合、設定された拡大対象領域75において設定可能な最大となる拡大倍率を自動で設定してもよい。また、画像領域設定部34は、図13の画面60において、拡大倍率のみが設定されるようにしてもよい。この場合、設定された拡大倍率において設定可能な最大となる拡大対象領域75を自動で設定してもよい。
The image area setting unit 34 may set only the enlargement target area 75 on the screen 60 in FIG. In this case, the maximum enlargement magnification that can be set in the set enlargement target area 75 may be automatically set. The image area setting unit 34 may set only the enlargement magnification on the screen 60 in FIG. In this case, the maximum enlargement target area 75 that can be set at the set enlargement magnification may be automatically set.
図13の画面60上において拡大対象領域75が設定されると、画像領域設定部34は、点群に設定された拡大対象領域75の位置に基づいて、図14に示すように、撮像素子20により撮像される画像28の、投影光Lの像を含む測定画像領域27に対して、拡大対象領域75を設定する。ここで、図14は、画像上における拡大画像領域の設定に関する図である。制御装置4は、図13で点群に設定された拡大対象領域75を、図14の画像28において対応する画像領域に設定する。なお、制御装置4は、図14の画像28上において、拡大対象領域75が設定されることで、画像28に設定された拡大対象領域75の位置と、拡大対象領域75に対応する拡大画像領域と、拡大画像領域の拡大倍率とが対応付けられた画像領域の領域設定データ43を生成してもよい。
When the enlargement target area 75 is set on the screen 60 in FIG. 13, the image area setting unit 34 sets the image sensor 20 based on the position of the enlargement target area 75 set in the point group as shown in FIG. The enlargement target area 75 is set for the measurement image area 27 including the image of the projection light L of the image 28 picked up by. Here, FIG. 14 is a diagram relating to the setting of the enlarged image area on the image. The control device 4 sets the enlargement target area 75 set as the point cloud in FIG. 13 as a corresponding image area in the image 28 in FIG. The control device 4 sets the position of the enlargement target area 75 set on the image 28 and the enlarged image area corresponding to the enlargement target area 75 by setting the enlargement target area 75 on the image 28 in FIG. The area setting data 43 of the image area in which the enlargement magnification of the enlarged image area is associated with the area setting data 43 may be generated.
このように、制御装置4は、ステップS9において、表示部33の点群を視認する操作者の入力部32を介した操作により、点群に対して拡大したい領域(点群を密にしたい領域)と拡大倍率を設定する。すると、制御装置4は、撮像素子20により撮像される画像28に対して、投影光Lの像の長手方向における拡大対象領域75の位置を設定する。また、制御装置4は、拡大対象領域75を設定すると、画像28における拡大対象領域75以外の領域を縮小対象領域として設定する。そして、制御装置4は、画像において設定された拡大対象領域75及び縮小対象領域の位置を、画像領域の領域設定データ43として、記憶部31に記憶する。なお、画面60に表示された測定対象物Mの点群に対して、拡大対象領域75とその拡大倍率を設定しなくてもよく、ステップS7で点群データを生成するために取得した画像28を使用して拡大対象領域75とその拡大倍率を設定してもよい。この場合、例えば、ステップS7で取得した画像28を画面60に表示し、その画像28に対して、拡大対象領域75とその拡大倍率を入力部32を介して設定してもよい。
As described above, in step S9, the control device 4 operates the operator who visually recognizes the point group on the display unit 33 through the input unit 32 to increase the area of the point group (the area where the point group is to be dense). ) And magnification. Then, the control device 4 sets the position of the enlargement target area 75 in the longitudinal direction of the image of the projection light L with respect to the image 28 captured by the image sensor 20. When setting the enlargement target area 75, the control device 4 sets an area other than the enlargement target area 75 in the image 28 as the reduction target area. Then, the control device 4 stores the positions of the enlargement target region 75 and the reduction target region set in the image in the storage unit 31 as the region setting data 43 of the image region. It is not necessary to set the enlargement target area 75 and the enlargement magnification for the point group of the measurement object M displayed on the screen 60, and the image 28 acquired to generate the point cloud data in step S7. May be used to set the enlargement target area 75 and its enlargement magnification. In this case, for example, the image 28 acquired in step S7 may be displayed on the screen 60, and the enlargement target area 75 and the enlargement magnification of the image 28 may be set via the input unit 32.
続いて、制御装置4は、設定された拡大画像領域及び縮小画像領域に基づいて、ガルバノスキャナ82の回動動作を設定する(ステップS11)。ステップS11において、制御装置4は、ステップS9において設定された領域設定データ43に基づいて、ガルバノスキャナ82の回動動作を設定している。つまり、制御装置4は、投影光Lの像の長手方向における拡大対象領域75の位置に対して、拡大対象領域75に対応付けられる拡大画像領域の拡大倍率に基づいて、ガルバノスキャナ82の回動動作を設定している。また、制御装置4は、ガルバノスキャナ82の回動動作を設定すると、設定したガルバノスキャナ82の回動動作に関する情報を、回動動作情報44として生成し、記憶部31に記憶する。
Subsequently, the control device 4 sets the rotation operation of the galvano scanner 82 based on the set enlarged image area and reduced image area (step S11). In step S11, the control device 4 sets the rotation of the galvano scanner 82 based on the area setting data 43 set in step S9. That is, the control device 4 rotates the galvano scanner 82 with respect to the position of the enlargement target area 75 in the longitudinal direction of the image of the projection light L based on the enlargement magnification of the enlarged image area associated with the enlargement target area 75. The operation is set. Further, when the rotation operation of the galvano scanner 82 is set, the control device 4 generates information about the set rotation operation of the galvano scanner 82 as the rotation operation information 44 and stores the information in the storage unit 31.
図15から図19を参照し、ステップS11におけるガルバノスキャナ82の回動動作の設定について説明する。ここで、図15は、画像上において拡大画像領域が設定された投影光の像に関する一例の説明図である。図16は、投影光の像の各位置に関する一例の説明図である。図17は、投影光の像の各位置における座標を示す一例の図である。図18は、投影光の像の各位置におけるガルバノミラーの角度を示す一例の図である。図19は、ガルバノスキャナの回動動作を示す一例の図である。
The setting of the rotation operation of the galvano scanner 82 in step S11 will be described with reference to FIGS. Here, FIG. 15 is a diagram illustrating an example of an image of projection light in which an enlarged image area is set on an image. FIG. 16 is an explanatory diagram of an example regarding each position of the image of the projection light. FIG. 17 is a diagram of an example showing coordinates at each position of the image of the projection light. FIG. 18 is an example of an angle of the galvanomirror at each position of the image of the projection light. FIG. 19 is a diagram illustrating an example of a rotation operation of the galvano scanner.
図15に示すように、例えば、投影光Lの像の長手方向における長さが2mmであり、長手方向の中央の1mmの範囲における画像領域を5倍に拡大した場合について説明する。図15及び図16では、説明を簡単にするために、投影光Lの像を、長手方向に長い長方形の領域として模式化している。また、図15及び図16では、模式化された投影光Lの像を、長手方向に4分割している。さらに、説明のため、投影光Lの像の長手方向は、画像28のj方向と同じ方向となっている。
As shown in FIG. 15, for example, a case will be described in which the length of the image of the projection light L in the longitudinal direction is 2 mm, and the image area in the central 1 mm range in the longitudinal direction is enlarged five times. 15 and 16, the image of the projection light L is schematically illustrated as a rectangular region that is long in the longitudinal direction, for the sake of simplicity. 15 and 16, the image of the schematic projection light L is divided into four in the longitudinal direction. Further, for the sake of explanation, the longitudinal direction of the image of the projection light L is the same as the j direction of the image 28.
図15の(a)の図は、拡大対象領域75が設定されて拡大される前の測定画像領域27に含まれる投影光Lの像を示している。図16の(a)の図において、投影光Lの像は、長手方向の左側端部の位置をaとし、位置aに対して長手方向の右側の位置をbとし、長手方向の中央の位置をcとし、位置cに対して長手方向の右側の位置をdとし、長手方向の右側端部の位置をeとしている。投影光Lの像は、位置aから位置bまでの領域と、位置bから位置cまでの領域と、位置cから位置dまでの領域と、位置dから位置eまでの領域に、4分割され、4つの領域は、長手方向において同じ長さとなっている。ここで、投影光Lの像の長手方向における長さが2mmであることから、各領域の長手方向における長さは、0.5mmとなっている。
FIG. 15A illustrates an image of the projection light L included in the measurement image area 27 before the enlargement target area 75 is set and enlarged. In the drawing of FIG. 16A, the image of the projection light L has a position at the left end in the longitudinal direction, a position at the right side in the longitudinal direction with respect to the position a, and a position at the center in the longitudinal direction. Is c, the position on the right side in the longitudinal direction with respect to the position c is d, and the position of the right end in the longitudinal direction is e. The image of the projection light L is divided into four regions: a region from position a to position b, a region from position b to position c, a region from position c to position d, and a region from position d to position e. The four regions have the same length in the longitudinal direction. Here, since the length of the image of the projection light L in the longitudinal direction is 2 mm, the length of each region in the longitudinal direction is 0.5 mm.
図15の(b)の図は、拡大対象領域75が設定されて拡大された後の測定画像領域27に含まれる投影光Lの像を示している。図16の(b)の図において、投影光Lの像は、長手方向の左側端部の位置をa’とし、位置a’に対して長手方向の右側の位置をb’とし、長手方向の中央の位置をc’とし、位置c’に対して長手方向の右側の位置をd’とし、長手方向の右側端部の位置をe’としている。投影光Lの像は、位置a’から位置b’までの領域と、位置b’から位置c’までの領域と、位置c’から位置d’までの領域と、位置d’から位置e’までの領域に、4分割され、長手方向の中央の2つの領域は、5倍に拡大された拡大画像領域78となっており、長手方向の両外側の2つの領域は、拡大されない1倍の領域となっている。ここで、投影光Lの像の長手方向における長さが2mmであることから、中央の2つの領域は、長手方向における長さが、それぞれ2.5mmとなっており、両外側の2つの領域は、長手方向における長さが、それぞれ0.5mmとなっている。
FIG. 15B shows an image of the projection light L included in the measurement image area 27 after the enlargement target area 75 is set and enlarged. In the drawing of FIG. 16B, the image of the projection light L is represented by a ′ at the position of the left end in the longitudinal direction, b ′ at the right position in the longitudinal direction with respect to the position a ′, and The center position is c ', the position on the right side of the position c' in the longitudinal direction is d ', and the position of the right end in the longitudinal direction is e'. The image of the projection light L is divided into a region from position a 'to position b', a region from position b 'to position c', a region from position c 'to position d', and a position from position d 'to position e'. Are divided into four, and the two central regions in the longitudinal direction are enlarged image regions 78 magnified 5 times, and the two regions on both outer sides in the longitudinal direction are 1 × Area. Here, since the length of the image of the projection light L in the longitudinal direction is 2 mm, the two central regions each have a length of 2.5 mm in the longitudinal direction, and the two regions on both outer sides. Has a length in the longitudinal direction of 0.5 mm.
次に、上記の仕様における拡大画像領域78の拡大倍率について説明する。撮像素子20は、その大きさに限界があることから、拡大倍率についても上限が設定される。つまり、拡大倍率は、拡大された測定画像領域27に含まれる投影光Lの像が、撮像素子20で撮像される画像28に収まるように、上限が設定される。上記した仕様では、撮像素子20の大きさが10mm×10mmとなっていることから、拡大された投影光Lの像の長手方向における長さは10mm以下に設定される。例えば、図15に示すように、長手方向の中央の2つの領域を拡大画像領域78とする場合、拡大された投影光Lの像の長手方向における長さを10mm以下にするには、中央の2つの領域の拡大倍率は、9倍以下に設定される。なお、両外側の2つの領域を縮小する場合、中央の2つの領域の拡大倍率は、9倍以上にできるが、一方で、10倍よりも小さく設定される。
Next, the magnification of the enlarged image area 78 in the above specification will be described. Since the size of the imaging device 20 is limited, an upper limit is also set for the magnification. That is, the upper limit of the magnification is set so that the image of the projection light L included in the enlarged measurement image area 27 is included in the image 28 captured by the image sensor 20. In the above specification, since the size of the imaging element 20 is 10 mm × 10 mm, the length of the enlarged projection light L in the longitudinal direction is set to 10 mm or less. For example, as shown in FIG. 15, when the two central regions in the longitudinal direction are set as the enlarged image region 78, in order to reduce the length of the image of the enlarged projection light L in the longitudinal direction to 10 mm or less, the central region is required. The magnification of the two regions is set to 9 times or less. When the two outer regions are reduced, the enlargement magnification of the two central regions can be 9 times or more, but is set smaller than 10 times.
以上から、拡大対象領域75が拡大される前の投影光Lの像における長手方向の長さをLとする。撮像素子20の長手方向における長さをWとする。投影光Lの像の全体の領域に対して設定される拡大対象領域75の割合を、a%とする。拡大倍率の上限をbmaxとする。この場合、拡大画像領域78の拡大倍率上限bmaxは、下記する(1)式で表される。
bmax=W/(L×(a/100)) ・・・(1)
From the above, the length in the longitudinal direction of the image of the projection light L before the enlargement target area 75 is enlarged is L. The length in the longitudinal direction of the image sensor 20 is W. The ratio of the enlargement target area 75 set to the entire area of the image of the projection light L is a%. The upper limit of the magnification is b max . In this case, the enlargement magnification upper limit b max of the enlarged image area 78 is represented by the following equation (1).
b max = W / (L × (a / 100)) (1)
なお、両外側の2つの領域は、撮像素子20で撮像される画像28からはみ出してもよい。この場合、中央の2つの領域の拡大倍率は、10倍以下に設定される。
Note that the two regions on both outer sides may protrude from the image 28 captured by the image sensor 20. In this case, the magnification of the two central regions is set to 10 times or less.
図17は、投影光の像のj方向における各位置の座標を示す一例の図である。図17の(a)を参照して、拡大対象領域75が設定されて拡大される前の投影光Lの像において、長手方向における位置a、位置b、位置c、位置d、位置eのj方向における座標について説明する。また、図17の(b)を参照して、拡大対象領域75が設定されて拡大された後の投影光Lの像において、長手方向における位置a’、位置b’、位置c’、位置d’、位置e’のj方向における座標について説明する。なお、図17において、位置cと位置c’とを基準位置(0点)としている。拡大前の投影光Lの像は、j方向における座標について、位置cを0とすると、位置aが−1.0mmとなり、位置bが−0.5mmとなり、位置dが0.5mmとなり、位置eが1.0mmとなる。また、拡大後の投影光Lの像は、j方向における座標について、位置c’を0とすると、位置aが−3.0mmとなり、位置bが−2.5mmとなり、位置dが2.5mmとなり、位置eが3.0mmとなる。
FIG. 17 is a diagram illustrating an example of the coordinates of each position in the j direction of the image of the projection light. Referring to FIG. 17A, in the image of the projection light L before the enlargement target area 75 is set and enlarged, the positions a, b, c, d, and e in the longitudinal direction are j. The coordinates in the direction will be described. Also, referring to FIG. 17B, in the image of the projection light L after the enlargement target area 75 is set and enlarged, the positions a ′, b ′, c ′, and d in the longitudinal direction are obtained. The coordinates of ', position e' in the j direction will be described. In FIG. 17, the positions c and c 'are set as reference positions (zero points). As for the image of the projection light L before the enlargement, the position a becomes −1.0 mm, the position b becomes −0.5 mm, the position d becomes 0.5 mm, and the position e becomes 1.0 mm. Further, in the image of the projection light L after the enlargement, the position a becomes −3.0 mm, the position b becomes −2.5 mm, and the position d becomes 2.5 mm when the position c ′ is set to 0 with respect to the coordinates in the j direction. And the position e becomes 3.0 mm.
拡大前の投影光Lの像において位置aは、拡大後の投影光Lの像において位置a’となることから、j方向における移動量Δdは、−2.0mmとなる。また、拡大前の投影光Lの像において位置bは、拡大後の投影光Lの像において位置b’となることから、j方向における移動量Δdは、−2.0mmとなる。また、拡大前の投影光Lの像において位置cは、拡大後の投影光Lの像において位置c’となることから、j方向における移動量Δdは、0mm、すなわち同じ位置となる。また、拡大前の投影光Lの像において位置dは、拡大後の投影光Lの像において位置d’となることから、j方向における移動量Δdは、+2.0mmとなる。また、拡大前の投影光Lの像において位置eは、拡大後の投影光Lの像において位置e’となることから、j方向における移動量Δdは、+2.0mmとなる。
Since the position a in the image of the projection light L before the enlargement is the position a 'in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is −2.0 mm. Further, since the position b in the image of the projection light L before the enlargement is the position b 'in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is −2.0 mm. Further, since the position c in the image of the projection light L before the enlargement is the position c ′ in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is 0 mm, that is, the same position. Further, since the position d in the image of the projection light L before the enlargement is the position d 'in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is +2.0 mm. Further, since the position e in the image of the projection light L before the enlargement is the position e 'in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is +2.0 mm.
ここで、図8に示すように、結像レンズ83の焦点距離fとする。また、対物レンズ81と結像レンズ83とを結ぶ結像光学系21の光軸をAとする。また、ガルバノミラー86の反射面86aと、ガルバノミラー86と結像レンズ83とを結ぶ光軸Aとが為す角度を、ガルバノミラー角度θとする。この場合、移動量Δdは、下記する(2)式により表される。なお、(2)式では、位置cを基準位置としたときのガルバノミラー角度θを45°としている。
Δd=f×tan(45°−θ) ・・・(2)
Here, as shown in FIG. 8, the focal length f of the imaging lens 83 is assumed. The optical axis of the imaging optical system 21 that connects the objective lens 81 and the imaging lens 83 is denoted by A. The angle between the reflection surface 86a of the galvanometer mirror 86 and the optical axis A connecting the galvanometer mirror 86 and the imaging lens 83 is defined as a galvanometer mirror angle θ. In this case, the movement amount Δd is represented by the following equation (2). In equation (2), the galvanomirror angle θ when the position c is the reference position is 45 °.
Δd = f × tan (45 ° −θ) (2)
図18は、投影光の像の各位置におけるガルバノミラーの角度を示す一例の図である。図18に示すように、(2)式により、位置a’におけるガルバノミラー角度θは、約56.3°となる。また、位置b’におけるガルバノミラー角度θは、約56.3°となる。また、位置c’におけるガルバノミラー角度θは、45°となる。また、位置d’におけるガルバノミラー角度θは、約33.7°となる。また、位置e’におけるガルバノミラー角度θは、約33.7°となる。
FIG. 18 is an example of an angle of the galvanomirror at each position of the image of the projection light. As shown in FIG. 18, the galvanomirror angle θ at the position a ′ is about 56.3 ° from Expression (2). Further, the galvanomirror angle θ at the position b ′ is about 56.3 °. Further, the galvanomirror angle θ at the position c ′ is 45 °. Further, the galvanomirror angle θ at the position d ′ is about 33.7 °. Further, the galvanomirror angle θ at the position e ′ is about 33.7 °.
ここで、ガルバノスキャナ82は、撮像素子20のスキャン方向93への露光に対して、所定の回動動作となるようにガルバノミラー86を回動させている。拡大後の投影光Lの像における、位置a’から位置e’までの露光時間について説明する。
Here, the galvanometer scanner 82 rotates the galvanometer mirror 86 so as to perform a predetermined rotation operation with respect to the exposure of the image sensor 20 in the scanning direction 93. The exposure time from the position a 'to the position e' in the image of the enlarged projection light L will be described.
1枚の画像28の露光時間をt秒とする。撮像素子20の画素数をN個とする。1画素の大きさにつき、j方向における縦の長さをhとし、j方向における横の長さをwとする。この場合、撮像素子20上をj方向に進む露光速度vは、下記する(3)式で表される。
v=w×N/t ・・・(3)
The exposure time of one image 28 is set to t seconds. It is assumed that the number of pixels of the image sensor 20 is N. For a size of one pixel, h is the vertical length in the j direction, and w is the horizontal length in the j direction. In this case, the exposure speed v that travels on the image sensor 20 in the j direction is expressed by the following equation (3).
v = w × N / t (3)
上記したように、1枚の画像28を露光する露光時間tは、100ms、つまり0.1sとなっている。撮像素子20の画素数Nは、100万画素となっている。1画素の横の長さwは、10μmとなっている。このため、露光速度vは、105mm/sとなる。
As described above, the exposure time t for exposing one image 28 is 100 ms, that is, 0.1 s. The number N of pixels of the image sensor 20 is one million pixels. The horizontal length w of one pixel is 10 μm. For this reason, the exposure speed v is 10 5 mm / s.
ここで、位置a’を、基準時間(0秒)とすると、位置a’から位置b’までの距離が0.5mmであることから、位置a’から位置b’までの経過時間は、0.5mm×v−1となり、5×10−6s、つまり5μsとなる。また、位置a’から位置c’までの距離が3.0mmであることから、位置a’から位置c’までの経過時間は、30μsとなる。また、位置a’から位置d’までの距離が5.5mmであることから、位置a’から位置d’までの経過時間は、55μsとなる。また、位置a’から位置e’までの距離が6.0mmであることから、位置a’から位置e’までの経過時間は、60μsとなる。
Here, assuming that the position a ′ is a reference time (0 second), the elapsed time from the position a ′ to the position b ′ is 0 mm since the distance from the position a ′ to the position b ′ is 0.5 mm. 0.5 mm × v− 1 , which is 5 × 10 −6 s, that is, 5 μs. Further, since the distance from the position a ′ to the position c ′ is 3.0 mm, the elapsed time from the position a ′ to the position c ′ is 30 μs. Further, since the distance from the position a ′ to the position d ′ is 5.5 mm, the elapsed time from the position a ′ to the position d ′ is 55 μs. Further, since the distance from the position a ′ to the position e ′ is 6.0 mm, the elapsed time from the position a ′ to the position e ′ is 60 μs.
以上から、ガルバノスキャナ82の回動動作は、図19に示す動作となる。図19は、ガルバノスキャナの回動動作を示す一例の図である。図19は、その横軸が経過時間となっており、その縦軸がガルバノミラー角度θとなっている。図19に示すように、経過時間が0秒となる点が、位置a’における点となっており、位置a’のガルバノミラー角度θは、約56.3°となっている。また、経過時間が5μsとなる点が、位置b’における点となっており、位置b’のガルバノミラー角度θは、約56.3°となっている。また、経過時間が30μsとなる点が、位置c’における点となっており、位置c’のガルバノミラー角度θは、45°となっている。また、経過時間が55μsとなる点が、位置d’における点となっており、位置d’のガルバノミラー角度θは、約33.7°となっている。また、経過時間が60μsとなる点が、位置e’における点となっており、位置e’のガルバノミラー角度θは、約33.7°となっている。
From the above, the rotation operation of the galvano scanner 82 is the operation shown in FIG. FIG. 19 is a diagram illustrating an example of a rotation operation of the galvano scanner. In FIG. 19, the horizontal axis represents the elapsed time, and the vertical axis represents the galvanomirror angle θ. As shown in FIG. 19, the point at which the elapsed time is 0 second is the point at the position a ', and the galvanomirror angle θ at the position a' is about 56.3 °. The point at which the elapsed time is 5 μs is the point at the position b ′, and the galvanomirror angle θ at the position b ′ is about 56.3 °. The point where the elapsed time is 30 μs is the point at the position c ′, and the galvanomirror angle θ at the position c ′ is 45 °. The point where the elapsed time is 55 μs is the point at the position d ′, and the galvanomirror angle θ at the position d ′ is about 33.7 °. The point at which the elapsed time is 60 μs is the point at the position e ′, and the galvanomirror angle θ at the position e ′ is about 33.7 °.
つまり、ガルバノスキャナ82は、位置a’において、ガルバノミラー86の反射面86aのガルバノミラー角度θを約56.3°としている。また、ガルバノスキャナ82は、5μs経過するまで、回動動作を停止し、ガルバノミラー角度θを約56.3°に維持する。5μs経過後、ガルバノスキャナ82は、30μs経過するまで、ガルバノミラー角度θを約56.3°から45°となるように、ガルバノミラー86を第2回動方向92へ向けて回動させる。30μs経過後、ガルバノスキャナ82は、55μs経過するまで、ガルバノミラー角度θを45°から約33.7°となるように、ガルバノミラー86を第2回動方向92へ向けて回動させる。55μs経過後、ガルバノスキャナ82は、60μs経過するまで、回動動作を停止し、ガルバノミラー角度θを約33.7°に維持する。
That is, the galvano scanner 82 sets the galvanomirror angle θ of the reflection surface 86a of the galvanomirror 86 to about 56.3 ° at the position a ′. Further, the galvano scanner 82 stops rotating until 5 μs elapses, and maintains the galvanomirror angle θ at about 56.3 °. After the elapse of 5 μs, the galvanometer scanner 82 rotates the galvanomirror 86 in the second rotation direction 92 so that the galvanomirror angle θ changes from about 56.3 ° to 45 ° until 30 μs elapses. After a lapse of 30 μs, the galvanometer scanner 82 rotates the galvanometer mirror 86 in the second rotation direction 92 so that the galvanomirror angle θ changes from 45 ° to about 33.7 ° until 55 μs elapses. After the elapse of 55 μs, the galvano scanner 82 stops rotating until the elapse of 60 μs, and maintains the galvanomirror angle θ at about 33.7 °.
なお、図19に示すガルバノスキャナ82の回動動作は、撮像素子20のスキャン方向93における1行分の画素列に対する動作である。撮像素子20は、ローリングシャッター方式であるため、各行ごとに(各行ごとの露光に合わせて)、図19に示す回動動作を実行することで、図15の(b)の図に示す歪画像を生成する。また、図16から図18では、簡単な説明のために、位置a〜e、及び位置a’〜e’を用いて説明したが、実際には、位置a〜e、及び位置a’〜e’は撮像素子20の画素の位置となっている。
The rotation operation of the galvano scanner 82 shown in FIG. 19 is an operation for one row of pixel columns in the scanning direction 93 of the image sensor 20. Since the imaging element 20 is of a rolling shutter type, the image pickup device 20 performs the rotation operation shown in FIG. 19 for each row (in accordance with the exposure for each row), thereby obtaining the distorted image shown in FIG. Generate In FIGS. 16 to 18, the positions a to e and the positions a ′ to e ′ have been described for simplicity, but actually the positions a to e and the positions a ′ to e 'Is the position of the pixel of the image sensor 20.
また、図19に示すガルバノスキャナ82の回動動作は、図16に示す拡大画像領域の設定を行った場合のガルバノスキャナ82の回動動作であり、この動作に限定されない。例えば、図20から図23に示すガルバノスキャナ82の回動動作としてもよい。図20は、投影光の像の各位置に関する一例の説明図である。図21は、投影光の像の各位置における座標を示す一例の図である。図22は、投影光の像の各位置におけるガルバノミラーの角度を示す一例の図である。図23は、ガルバノスキャナの回動動作を示す一例の図である。
The rotating operation of the galvano scanner 82 shown in FIG. 19 is the rotating operation of the galvano scanner 82 when the enlarged image area shown in FIG. 16 is set, and is not limited to this operation. For example, the rotation operation of the galvano scanner 82 shown in FIGS. 20 to 23 may be performed. FIG. 20 is an explanatory diagram of an example regarding each position of the image of the projection light. FIG. 21 is a diagram illustrating an example of coordinates at each position of the image of the projection light. FIG. 22 is a diagram illustrating an example of the angle of the galvanomirror at each position of the image of the projection light. FIG. 23 is a diagram illustrating an example of a rotation operation of the galvano scanner.
例えば、図20の(a)に示すように、拡大対象領域75が設定されて拡大される前の投影光Lの像は、図15の(a)と同様に、4つの領域に分割され、投影光Lの像の長手方向における長さが2mmとなっている。図20の(b)に示すように、拡大対象領域75が設定されて拡大された後の投影光Lの像は、長手方向の中央の2つの領域が、1.5倍に拡大された領域となっており、長手方向の両外側の2つの領域が、0.5倍に縮小された領域となっている。この場合、図21の(a)に示すように、拡大前の投影光Lの像は、j方向における座標について、位置cを0とすると、位置aが−1.0mmとなり、位置bが−0.5mmとなり、位置dが0.5mmとなり、位置eが1.0mmとなる。また、図21の(b)に示すように、拡大後の投影光Lの像は、j方向における座標について、位置c’を0とすると、位置aが−1.0mmとなり、位置bが−0.75mmとなり、位置dが0.75mmとなり、位置eが1.0mmとなる。
For example, as shown in FIG. 20A, the image of the projection light L before the enlargement target area 75 is set and enlarged is divided into four areas as in FIG. The length of the image of the projection light L in the longitudinal direction is 2 mm. As shown in FIG. 20B, the image of the projection light L after the enlargement target area 75 has been set and enlarged is an area in which two central areas in the longitudinal direction are enlarged by 1.5 times. And the two regions on both outer sides in the longitudinal direction are regions reduced by 0.5 times. In this case, as shown in FIG. 21A, in the image of the projection light L before the enlargement, assuming that the position c is 0 with respect to the coordinates in the j direction, the position a becomes −1.0 mm and the position b becomes −1.0 mm. The position becomes 0.5 mm, the position d becomes 0.5 mm, and the position e becomes 1.0 mm. Further, as shown in FIG. 21B, the position of the image of the projection light L after the enlargement is −1.0 mm when the position c ′ is 0 with respect to the coordinates in the j direction, and the position b is − It becomes 0.75 mm, the position d becomes 0.75 mm, and the position e becomes 1.0 mm.
拡大前の投影光Lの像において位置aは、拡大後の投影光Lの像において位置a’となることから、j方向における移動量Δdは、0mm、すなわち同じ位置となる。また、拡大前の投影光Lの像において位置bは、拡大後の投影光Lの像において位置b’となることから、j方向における移動量Δdは、−0.25mmとなる。また、拡大前の投影光Lの像において位置cは、拡大後の投影光Lの像において位置c’となることから、j方向における移動量Δdは、0mm、すなわち同じ位置となる。また、拡大前の投影光Lの像において位置dは、拡大後の投影光Lの像において位置d’となることから、j方向における移動量Δdは、+0.25mmとなる。また、拡大前の投影光Lの像において位置eは、拡大後の投影光Lの像において位置e’となることから、j方向における移動量Δdは、0mm、すなわち同じ位置となる。
Since the position a in the image of the projection light L before the enlargement is the position a 'in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is 0 mm, that is, the same position. Further, since the position b in the image of the projection light L before the enlargement is the position b 'in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is −0.25 mm. Further, since the position c in the image of the projection light L before the enlargement is the position c ′ in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is 0 mm, that is, the same position. Further, since the position d in the image of the projection light L before the enlargement is the position d 'in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is +0.25 mm. Further, since the position e in the image of the projection light L before the enlargement is the position e 'in the image of the projection light L after the enlargement, the movement amount Δd in the j direction is 0 mm, that is, the same position.
図22に示すように、(2)式により、位置a’におけるガルバノミラー角度θは、45°となる。また、位置b’におけるガルバノミラー角度θは、約46.4°となる。また、位置c’におけるガルバノミラー角度θは、45°となる。また、位置d’におけるガルバノミラー角度θは、約43.6°となる。また、位置e’におけるガルバノミラー角度θは、45°となる。
As shown in FIG. 22, the galvanomirror angle θ at the position a ′ is 45 ° according to Expression (2). The galvanomirror angle θ at the position b ′ is about 46.4 °. Further, the galvanomirror angle θ at the position c ′ is 45 °. The galvanomirror angle θ at the position d ′ is about 43.6 °. In addition, the galvanomirror angle θ at the position e ′ is 45 °.
ここで、位置a’を、基準時間(0秒)とすると、位置a’から位置b’までの距離が0.25mmであることから、位置a’から位置b’までの経過時間は、2.5μsとなる。また、位置a’から位置c’までの距離が1.0mmであることから、位置a’から位置c’までの経過時間は、10μsとなる。また、位置a’から位置d’までの距離が1.75mmであることから、位置a’から位置d’までの経過時間は、17.5μsとなる。また、位置a’から位置e’までの距離が2.0mmであることから、位置a’から位置e’までの経過時間は、20μsとなる。
Here, assuming that the position a ′ is a reference time (0 second), the elapsed time from the position a ′ to the position b ′ is 25 mm because the distance from the position a ′ to the position b ′ is 0.25 mm. .5 μs. Since the distance from the position a 'to the position c' is 1.0 mm, the elapsed time from the position a 'to the position c' is 10 [mu] s. Since the distance from the position a 'to the position d' is 1.75 mm, the elapsed time from the position a 'to the position d' is 17.5 [mu] s. Since the distance from the position a 'to the position e' is 2.0 mm, the elapsed time from the position a 'to the position e' is 20 [mu] s.
以上から、ガルバノスキャナ82の回動動作は、図23に示す動作となる。図23は、その横軸が経過時間となっており、その縦軸がガルバノミラー角度θとなっている。図23に示すように、経過時間が0秒となる点が、位置a’における点となっており、位置a’のガルバノミラー角度θは、45°となっている。また、経過時間が2.5μsとなる点が、位置b’における点となっており、位置b’のガルバノミラー角度θは、約46.4°となっている。また、経過時間が10μsとなる点が、位置c’における点となっており、位置c’のガルバノミラー角度θは、45°となっている。また、経過時間が17.5μsとなる点が、位置d’における点となっており、位置d’のガルバノミラー角度θは、約43.6°となっている。また、経過時間が60μsとなる点が、位置e’における点となっており、位置e’のガルバノミラー角度θは、45°となっている。
From the above, the rotation operation of the galvano scanner 82 is the operation shown in FIG. In FIG. 23, the horizontal axis is the elapsed time, and the vertical axis is the galvanomirror angle θ. As shown in FIG. 23, the point at which the elapsed time is 0 second is the point at the position a ', and the galvanomirror angle θ at the position a' is 45 °. The point where the elapsed time is 2.5 μs is the point at the position b ′, and the galvanomirror angle θ at the position b ′ is about 46.4 °. The point where the elapsed time is 10 μs is the point at the position c ′, and the galvanomirror angle θ at the position c ′ is 45 °. The point at which the elapsed time is 17.5 μs is the point at the position d ′, and the galvanomirror angle θ at the position d ′ is about 43.6 °. The point at which the elapsed time is 60 μs is the point at the position e ′, and the galvanomirror angle θ at the position e ′ is 45 °.
つまり、ガルバノスキャナ82は、位置a’において、ガルバノミラー86の反射面86aのガルバノミラー角度θを45°としている。また、ガルバノスキャナ82は、2.5μs経過するまで、ガルバノミラー角度θを45°から約46.4°となるように、ガルバノミラー86を第1回動方向91へ向けて回動させる。2.5μs経過後、ガルバノスキャナ82は、10μs経過するまで、ガルバノミラー角度θを約46.4°から45°となるように、ガルバノミラー86を第2回動方向92へ向けて回動させる。10μs経過後、ガルバノスキャナ82は、17.5μs経過するまで、ガルバノミラー角度θを45°から約43.6°となるように、ガルバノミラー86を第2回動方向92へ向けて回動させる。17.5μs経過後、ガルバノスキャナ82は、20μs経過するまで、ガルバノミラー角度θを約43.6°から45°となるように、ガルバノミラー86を第1回動方向91へ向けて回動させる。
That is, the galvano scanner 82 sets the galvanomirror angle θ of the reflecting surface 86a of the galvanomirror 86 to 45 ° at the position a ′. Further, the galvano scanner 82 rotates the galvanometer mirror 86 in the first rotation direction 91 so that the galvanomirror angle θ is changed from 45 ° to about 46.4 ° until 2.5 μs elapses. After 2.5 μs elapses, the galvanometer scanner 82 rotates the galvanomirror 86 in the second rotation direction 92 so that the galvanomirror angle θ changes from about 46.4 ° to 45 ° until 10 μs elapses. . After the elapse of 10 μs, the galvanometer scanner 82 rotates the galvanomirror 86 in the second rotation direction 92 so that the galvanomirror angle θ is changed from 45 ° to about 43.6 ° until 17.5 μs elapses. . After a lapse of 17.5 μs, the galvanometer scanner 82 rotates the galvanometer mirror 86 in the first rotation direction 91 so that the galvanomirror angle θ changes from about 43.6 ° to 45 ° until 20 μs elapses. .
図23に示すガルバノスキャナ82の回動動作は、ガルバノミラー角度θを、回動動作の始点と終点において同じ角度とすることができる。このため、撮像素子20のスキャン方向93に直交する方向において、複数行に亘ってガルバノスキャナ82の回動動作を繰り返し行う場合、ガルバノスキャナ82の回動動作は、連続して行うことができる。
In the rotation operation of the galvano scanner 82 shown in FIG. 23, the galvanometer mirror angle θ can be set to the same angle at the start point and the end point of the rotation operation. For this reason, when the rotation operation of the galvano scanner 82 is repeatedly performed over a plurality of rows in the direction orthogonal to the scan direction 93 of the image sensor 20, the rotation operation of the galvano scanner 82 can be performed continuously.
ステップS11において、図19及び図23に示すようなガルバノミラー86の回動動作が設定されると、制御装置4は、ガルバノミラー86の回動動作に関する回動動作情報44を取得する。回動動作情報としては、図19及び図23に示すグラフに関する情報、図17及び図21に示す各位置に対応する移動量Δdに関する情報、j方向における画素の位置とガルバノミラー角度θとを対応付けた図18及び図22に示す情報等である。制御装置4は、図19及び図23に示すガルバノミラー86の回動動作に関する情報を、条件テーブル46の測定条件として、記憶部31に記憶する(ステップS13)。つまり、ステップS13で設定される測定条件は、点群に疎密をつけた測定条件となる。ステップS13の実行後、制御装置4は、ティーチングモードに関する処理を終了する。
In step S11, when the rotation operation of the galvanometer mirror 86 as shown in FIGS. 19 and 23 is set, the control device 4 acquires the rotation operation information 44 regarding the rotation operation of the galvanometer mirror 86. As the rotation operation information, information on the graphs shown in FIGS. 19 and 23, information on the movement amount Δd corresponding to each position shown in FIGS. 17 and 21, correspondence between the pixel position in the j direction and the galvanomirror angle θ This is the information and the like shown in FIGS. 18 and 22 attached. The control device 4 stores information on the rotating operation of the galvanometer mirror 86 shown in FIGS. 19 and 23 in the storage unit 31 as the measurement condition of the condition table 46 (Step S13). That is, the measurement condition set in step S13 is a measurement condition in which the point cloud is dense and dense. After execution of step S13, the control device 4 ends the processing related to the teaching mode.
なお、図12では、ステップS9において、表示部33に表示された図13の画面60を視認する操作者の操作に基づいて、制御装置4が、拡大対象領域75を設定したが、測定対象物Mそのものを視認する操作者の操作により、拡大対象領域75を設定してもよい。
In FIG. 12, in step S9, the control device 4 sets the enlargement target area 75 based on the operation of the operator who visually recognizes the screen 60 of FIG. 13 displayed on the display unit 33. The enlargement target area 75 may be set by an operation of an operator who visually recognizes M itself.
また、制御装置4は、緒元データ49に含まれる測定対象物Mの設計データに基づいて、拡大対象領域75を設定してもよい。つまり、測定対象物Mの設計データには、測定対象物Mの所定の領域に、拡大対象領域75が対応付けられた情報が含まれている。画像領域設定部34は、測定対象物Mの設計データを取得し、設計データに含まれる測定対象物Mの所定の領域と拡大対象領域75が対応付けられた情報に基づいて、撮像素子20により撮像される画像28に、拡大画像領域78に対応する拡大対象領域75を設定してもよい。
The control device 4 may set the enlargement target area 75 based on the design data of the measurement target M included in the specification data 49. That is, the design data of the measurement target M includes information in which a predetermined region of the measurement target M is associated with the enlargement target region 75. The image area setting unit 34 acquires the design data of the measurement target M, and uses the imaging device 20 based on the information in which the predetermined area of the measurement target M and the enlargement target area 75 included in the design data are associated. An enlargement target area 75 corresponding to the enlarged image area 78 may be set in the captured image 28.
また、制御装置4は、緒元データ49に含まれる測定対象物MのCADデータに基づいて、拡大対象領域75を設定してもよい。つまり、測定対象物MのCADデータには、測定対象物Mの外形形状に関する情報が含まれている。画像領域設定部34は、外形形状の変化量が予め設定されたしきい値よりも大きい場合、つまり、外形形状の変化が急となる場合、点群の密度が高くなるように、拡大画像領域78に対応する拡大対象領域75を設定する。なお、画像領域設定部34は、外形形状の変化量が予め設定されたしきい値以下となる場合、つまり、外形形状の変化が緩やかな場合、点群の密度が低くなるように、縮小画像領域に対応する縮小対象領域を設定してもよい。
Further, the control device 4 may set the enlargement target area 75 based on the CAD data of the measurement target M included in the specification data 49. That is, the CAD data of the measurement target M includes information on the outer shape of the measurement target M. The image area setting unit 34 sets the enlarged image area so that the density of the point group increases when the change amount of the external shape is larger than a preset threshold value, that is, when the external shape changes rapidly. An enlargement target area 75 corresponding to 78 is set. Note that the image area setting unit 34 determines that the density of the point group is low when the change amount of the external shape is equal to or less than a preset threshold value, that is, when the change of the external shape is gradual, A reduction target area corresponding to the area may be set.
さらに、図12では、撮像素子20により撮像される画像28に、拡大対象領域75を設定したが、画像28の画像領域の全域に亘って同じ拡大倍率となる拡大画像領域78となるように、拡大対象領域75を設定してもよい。また、図12におけるステップS5からステップS13までの工程はティーチングの際に(ティーチングモードで)行わなくてもよく、測定対象物Mの実際の測定時(本測定時)に行ってもよい。
Further, in FIG. 12, the enlargement target area 75 is set in the image 28 captured by the image sensor 20, but the enlarged image area 78 has the same enlargement magnification over the entire image area of the image 28. The enlargement target area 75 may be set. Further, the steps from step S5 to step S13 in FIG. 12 may not be performed at the time of teaching (in the teaching mode), and may be performed at the time of actual measurement of the measuring object M (at the time of main measurement).
次に、図24を参照して、形状測定装置1により実行される測定対象物Mの形状測定方法に関する処理について説明する。図24は、第1実施形態の形状測定装置の計測動作を示すフローチャートである。形状測定装置1の制御装置4は、形状測定プログラム48を実行し、図12のティーチングモードで設定した条件テーブル46の測定条件に基づいて、投影光Lが投影された測定対象物Mの像を撮像装置9により撮像する。撮像装置9は、投影光Lを含む測定対象物Mの像を撮像して、歪画像の画像データを生成する。制御装置4は、撮像装置9で生成された歪画像の画像データを測定部39において取得する(ステップS21)。ステップS21では、撮像装置9の撮像により取得される画像が、ティーチングモードで設定した拡大画像領域78が含まれる歪画像となるように、制御装置4は、ガルバノスキャナ82を制御する。つまり、制御装置4は、図19または図23に示すような回動動作となるように、回動動作情報44に基づいて、ガルバノスキャナ82を制御する。そして、ステップS21において、撮像素子20は、取得した歪画像の画像データを、測定部39へ出力する。
Next, with reference to FIG. 24, a description will be given of a process related to the shape measuring method of the measurement target M performed by the shape measuring device 1. FIG. 24 is a flowchart illustrating a measuring operation of the shape measuring apparatus according to the first embodiment. The control device 4 of the shape measuring device 1 executes the shape measuring program 48 and, based on the measurement conditions of the condition table 46 set in the teaching mode of FIG. An image is taken by the imaging device 9. The imaging device 9 captures an image of the measurement target M including the projection light L, and generates image data of a distortion image. The control device 4 causes the measurement unit 39 to acquire image data of the distorted image generated by the imaging device 9 (Step S21). In step S21, the control device 4 controls the galvano scanner 82 so that the image acquired by the imaging of the imaging device 9 becomes a distorted image including the enlarged image area 78 set in the teaching mode. That is, the control device 4 controls the galvano scanner 82 based on the rotation operation information 44 so that the rotation operation is performed as shown in FIG. 19 or FIG. Then, in step S21, the imaging element 20 outputs the acquired image data of the distorted image to the measuring unit 39.
続いて、測定部39は、取得した歪画像の画像データに基づいて、歪画像に与えられた歪みの量を考慮して、点群の点群データを生成することにより、測定対象物Mの形状を測定する(ステップS23)。ステップS23では、具体的に、測定部39は、歪画像の画像データから、i方向の画素列における投影光Lの像のピーク検出位置を、1点取得する。ピーク検出位置とは、i方向の画素列における重心位置である。ピーク検出位置は、i方向の画素列における各画素の明るさの画素値を用いて算出される。また、測定部39は、歪画像の画像データから、i方向のピーク検出位置を、j方向に亘って取得する。ピーク検出位置Piは、ij直交座標系となり、Pi=(ip,jp)で表される。
Subsequently, the measuring unit 39 generates the point cloud data of the point cloud based on the acquired image data of the strain image and in consideration of the amount of the distortion given to the strain image, so that the measurement target M is measured. The shape is measured (Step S23). In step S23, specifically, the measurement unit 39 acquires one peak detection position of the image of the projection light L in the pixel row in the i direction from the image data of the distorted image. The peak detection position is the position of the center of gravity in the pixel row in the i direction. The peak detection position is calculated using the pixel value of the brightness of each pixel in the pixel row in the i direction. In addition, the measurement unit 39 acquires the peak detection position in the i direction over the j direction from the image data of the distortion image. Peak detection position P i becomes a ij orthogonal coordinate system, P i = (i p, j p) is represented by.
ここで、図11に示すように、ガルバノミラー86が初期位置の状態である場合、つまり、ガルバノミラー角度θが45°となっており、撮像素子20の撮像領域25の中央に測定視野領域26aが位置する場合、センサ原点Ibのij直交座標系における座標は、Ib=(ib,jb)となっている。一方で、ガルバノミラー86が初期位置から回動することによって、撮像素子20の撮像領域25に対して、測定視野領域26がj方向に移動量Δd分だけ移動して、測定視野領域26bまたは測定視野領域26cとなる。この場合、センサ原点Ibも、j方向に移動量Δd分だけ移動する。このため、センサ原点Ibのij直交座標系における座標は、下記する(4)式となる。
Ib=(ib,jb−Δd)=(ib,jb−f×tan(45°−θ))
・・・(4)
Here, as shown in FIG. 11, when the galvanomirror 86 is in the initial position state, that is, the galvanomirror angle θ is 45 °, and the measurement visual field area 26 a is located at the center of the imaging area 25 of the imaging element 20. If is located, coordinates in ij orthogonal coordinate system of the sensor origin I b is, I b = (i b, j b) has become. On the other hand, when the galvanometer mirror 86 rotates from the initial position, the measurement visual field area 26 moves by the moving amount Δd in the j direction with respect to the imaging area 25 of the image sensor 20, and the measurement visual field area 26b or the measurement visual field The viewing area 26c is obtained. In this case, the sensor origin Ib also moves by the moving amount Δd in the j direction. Therefore, the coordinates of the sensor origin Ib in the ij orthogonal coordinate system are expressed by the following equation (4).
I b = (i b, j b -Δd) = (i b, j b -f × tan (45 ° -θ))
... (4)
続いて、測定部39は、ij直交座標系となるピーク検出位置Piを、(4)式に示すセンサ原点Ibを用いて、XYZ直交座標系に変換する。ここで、XYZ直交座標系における位置検出部11及び位置検出部73から取得される光学プローブ3と測定対象物Mとの相対位置を、pbとする。また、撮像素子20のXYZ直交座標系における姿勢を示す回転行列をRposとする。XYZ直交座標系となるピーク検出位置を、piとする。XYZ直交座標系となるピーク検出位置piが、点群の位置となる。また、画素の大きさをk(mm/pixel)とする。XYZ直交座標系となるピーク検出位置piは、下記する(5)式で与えられる。なお、Tは、転置行列を示す。
pi=kRpos[0,ip−ib,jp−(jb−Δd)]T+pb
・・・(5)
Then, measuring section 39, the peak detection position P i as a ij orthogonal coordinate system, using the sensor origin I b shown in equation (4) is converted to the XYZ orthogonal coordinate system. Here, the relative position between the optical probe 3 and the measurement object M obtained from the position detection unit 11 and the position detection unit 73 in the XYZ orthogonal coordinate system is defined as pb . A rotation matrix indicating the attitude of the image sensor 20 in the XYZ orthogonal coordinate system is defined as R pos . The peak detection position in the XYZ rectangular coordinate system is defined as pi . Peak detection position p i of the XYZ orthogonal coordinate system, the position of the point group. Further, the size of the pixel is set to k (mm / pixel). XYZ orthogonal coordinate system composed of the peak detection position p i is given by to the following equation (5). Note that T indicates a transposed matrix.
p i = kR pos [0, i p -i b, j p - (j b -Δd)] T + p b
... (5)
ここで、移動量Δdは、ij直交座標系となるj方向のピーク検出位置jpに対応付けられている。つまり、画像28のj方向における画素の位置において露光したときの、測定視野領域26の移動量Δdは既知となっている。換言すれば、画像28のj方向における画素の位置において露光したときの、ガルバノミラー角度θは、図18に示すように、既知となっている。このため、(5)式において、移動量Δdには、j方向のピーク検出位置jpに対応付けられた移動量Δdが与えられる。図18を用いて説明すると、一例として、位置a’における画素の位置jpに対応するガルバノミラー角度θとして、56.5°が与えられることで、(5)式から、XYZ直交座標系となるピーク検出位置pi、すなわち、XYZ直交座標系の点群の位置が算出される。そして、ステップS23において生成された点群は、図10の(d)に示すような密度が異なる補正された点群として生成される。つまり、測定部39は、図18に示す回動動作情報44を用いて、(5)式から、XYZ直交座標系の点群の位置を算出する。
Here, the movement amount Δd is associated with the peak detection position j p of the j direction to be ij orthogonal coordinate system. That is, the movement amount Δd of the measurement visual field region 26 when the exposure is performed at the pixel position in the j direction of the image 28 is known. In other words, the galvanomirror angle θ at the time of exposure at the pixel position in the j direction of the image 28 is known as shown in FIG. Therefore, in (5), the moving amount Δd is, the movement amount Δd is given associated with the peak detection position j p of the j-direction. To explain with reference to FIG. 18, as an example, as the galvano mirror angle θ corresponding to the position j p of the pixel at the position a ', that is given 56.5 °, from (5), the XYZ orthogonal coordinate system becomes the peak detection position p i, i.e., the position of the points in the XYZ orthogonal coordinate system is calculated. Then, the point group generated in step S23 is generated as a corrected point group having different densities as shown in FIG. That is, the measuring unit 39 calculates the position of the point group in the XYZ orthogonal coordinate system from Expression (5) using the rotation operation information 44 shown in FIG.
そして、ステップS23において、制御装置4の測定部39は、点群の点群データを生成することにより、測定対象物Mの外形形状を測定する。ステップS25の実行後、制御装置4は、測定対象物Mの形状測定に関する処理を終了する。
Then, in step S23, the measurement unit 39 of the control device 4 measures the external shape of the measurement target M by generating point cloud data of the point cloud. After execution of step S25, the control device 4 ends the processing related to the shape measurement of the measurement target M.
以上のように、第1実施形態によれば、撮像装置9により撮像される画像28において、投影光Lの像の長手方向に沿って生成される点群を、拡大画像領域78において密とすることができる。このため、点群が密となる測定対象物Mの部位の形状を精度良く測定することができる。つまり、測定対象物Mにおいて、高い測定精度を必要とする部位に対して、従来は、投影光Lの像の長手方向における点群同士の間隔が等間隔となるように設定されたが、第1実施形態では、投影光Lの像の長手方向における点群同士の間隔が従来に比して密となるように拡大画像領域78に対応する拡大対象領域75を設定することができる。このため、測定対象物Mの所定の部位における測定精度を高めることができる。
As described above, according to the first embodiment, in the image 28 captured by the imaging device 9, the points generated along the longitudinal direction of the image of the projection light L are dense in the enlarged image area 78. be able to. For this reason, it is possible to accurately measure the shape of the portion of the measurement object M where the point cloud is dense. In other words, in the measurement target M, the interval between the point groups in the longitudinal direction of the image of the projection light L is conventionally set to be equal to the portion requiring high measurement accuracy. In one embodiment, the enlargement target area 75 corresponding to the enlarged image area 78 can be set so that the interval between the point groups in the longitudinal direction of the image of the projection light L is closer than before. For this reason, the measurement accuracy at a predetermined portion of the measurement target M can be improved.
また、従来は、測定対象物Mの形状を精度良く測定すべく、撮像素子20の画素の密度よりも点群の密度を高めるために、測定対象物Mの測定範囲74における少なくとも一部の領域について重複して複数枚の画像28を取得する必要があった。つまり、ある領域の1枚の画像28において得られる等間隔となる点群の点同士の間を、同様の領域を撮像した他の画像28において得られる等間隔となる点群の点により補間することで、点群の密度を高めることができる。従来の場合、以上のように複数枚の画像28を取得することから、測定対象物Mの形状の測定時間が長くなってしまう。これに対し、第1実施形態では、1枚の画像28において、測定対象物Mにおいて、高い測定精度を必要とする部位に対して、点群の密度を高めることができる。このため、1枚の画像28を取得すればよいため、測定時間が長くなることを抑制することができる。
Conventionally, in order to measure the shape of the measurement target M with high accuracy, in order to increase the density of the point group to be higher than the density of the pixels of the image sensor 20, at least a part of the measurement range 74 of the measurement target M is measured. It was necessary to obtain a plurality of images 28 in duplicate. That is, the points of the equally spaced point group obtained in one image 28 in a certain area are interpolated by the equally spaced point group points obtained in another image 28 obtained by imaging the same area. This can increase the density of the point cloud. In the conventional case, since a plurality of images 28 are obtained as described above, the measurement time of the shape of the measurement target M becomes long. On the other hand, in the first embodiment, in one image 28, the density of the point group can be increased with respect to the portion of the measurement target M that requires high measurement accuracy. For this reason, since only one image 28 needs to be acquired, it is possible to suppress an increase in measurement time.
また、第1実施形態によれば、応答性が高く、高精度に駆動可能なガルバノスキャナ82を用いると共に、ローリングシャッター方式の撮像素子20を用いることができる。このため、撮像素子20の撮像面20aにおけるスキャン方向の各画素の露光に合わせて、ガルバノスキャナ82による測定対象物Mの像を移動させることができる。
Further, according to the first embodiment, it is possible to use the galvano scanner 82 which has high responsiveness and can be driven with high accuracy, and to use the imaging element 20 of the rolling shutter system. Therefore, the image of the measurement target M by the galvano scanner 82 can be moved in accordance with the exposure of each pixel in the scanning direction on the imaging surface 20a of the imaging device 20.
また、第1実施形態によれば、制御装置4の測定部39において、撮像装置9により撮像した歪画像の画像データから、回動動作情報44を用いて、密度が異なる点群の点群データを生成することができる。
Further, according to the first embodiment, in the measuring unit 39 of the control device 4, the point cloud data of the point cloud having different densities is obtained from the image data of the distorted image captured by the imaging device 9 using the rotation operation information 44. Can be generated.
また、第1実施形態によれば、図13に示す画面60を用いて、画像領域設定部34により、測定精度を必要とする測定対象物Mの部位に対して、拡大画像領域78に対応する拡大対象領域75を設定することができる。そして、設定した拡大対象領域75において、点群の密度を高くすることができる。このため、操作者による点群の密度の設定に関する操作性を高めることができる。
Further, according to the first embodiment, using the screen 60 shown in FIG. 13, the image area setting unit 34 corresponds to the enlarged image area 78 for the part of the measurement target M requiring the measurement accuracy. The enlargement target area 75 can be set. Then, in the set enlargement target area 75, the density of the point group can be increased. Therefore, the operability of setting the density of the point cloud by the operator can be improved.
なお、第1実施形態では、ガルバノミラー86を回動動作させることで、撮像素子20の撮像面20aで受光される測定対象物Mの像を、スキャン方向に移動させたが、ガルバノミラー86を含むガルバノスキャナ82を省いた構成であってもよい。この場合、撮像素子20をスキャン方向93に移動させる移動機構を設け、この移動機構により撮像素子20の撮像面20aをスキャン方向93に移動させる。
In the first embodiment, the image of the measurement target M received on the imaging surface 20a of the imaging device 20 is moved in the scanning direction by rotating the galvanomirror 86. The configuration may be such that the galvano scanner 82 is omitted. In this case, a moving mechanism for moving the imaging device 20 in the scanning direction 93 is provided, and the imaging surface 20a of the imaging device 20 is moved in the scanning direction 93 by this moving mechanism.
また、第1実施形態では、長手方向に長いライン状の投影光Lとしたが、ライン状に特に限定されず、他の既存の強度分布となる投影光としてもよい。一例として、投光装置8が測定対象物Mに投影する投影光の強度分布は、縞状の強度分布(複数のライン状の強度分布)であってもいいし、ドット状の強度分布であってもいい。これらの強度分布の投影光を投影する投光装置の構成については既存の構成を適用できる。
Further, in the first embodiment, the projection light L is a linear projection light that is long in the longitudinal direction. However, the projection light L is not particularly limited to the linear projection light, and may be projection light having another existing intensity distribution. As an example, the intensity distribution of the projection light that the light projecting device 8 projects on the measurement target M may be a stripe-like intensity distribution (a plurality of line-like intensity distributions) or a dot-like intensity distribution. You can. An existing configuration can be applied to the configuration of the light projection device that projects the projection light having these intensity distributions.
また、第1実施形態では、測定部39が、撮影した画像の各画素のij直交座標系の座標値を算出し、算出した各画素の座標値に基づいて、XYZ直交座標系の点群の座標値を算出して測定対象物Mを形状測定したが、算出した点群に基づいて測定対象物Mをポリゴン表示としてもよい。
In the first embodiment, the measuring unit 39 calculates the coordinate value of each pixel of the captured image in the ij orthogonal coordinate system, and calculates the point group of the XYZ rectangular coordinate system based on the calculated coordinate value of each pixel. Although the shape of the measurement target M is measured by calculating the coordinate values, the measurement target M may be displayed in a polygon based on the calculated point group.
[第2実施形態]
次に、図25から図27を参照して、第2実施形態について説明する。図25は、第2実施形態の形状測定装置の計測動作を示す説明図である。図26は、補正された歪画像を示す図である。図27は、第2実施形態の形状測定装置の計測動作を示すフローチャートである。なお、第2実施形態では、重複した記載を避けるべく、第1実施形態と異なる部分について説明し、第1実施形態と同様の構成である部分については、同じ符号を付して説明する。
[Second embodiment]
Next, a second embodiment will be described with reference to FIGS. FIG. 25 is an explanatory diagram illustrating a measuring operation of the shape measuring device according to the second embodiment. FIG. 26 is a diagram illustrating a corrected distortion image. FIG. 27 is a flowchart illustrating a measuring operation of the shape measuring apparatus according to the second embodiment. In the second embodiment, parts different from the first embodiment will be described in order to avoid redundant description, and parts having the same configuration as the first embodiment will be described with the same reference numerals.
第1実施形態において、測定部39は、取得した歪画像の画像データから、移動量Δdを考慮して、点群の点群データを生成することで、密度が異なる点群の点群データを生成した。これに対し、第2実施形態において、制御装置4は、歪画像の画像データを、移動量Δdを考慮して補正し、補正した歪画像の画像データから点群の点群データを生成している。なお、第2実施形態の撮像装置9では、第1実施形態と同様に、画像28に含まれる測定対象物Mの像(画像)に歪みが与えられるように歪画像の画像データを生成している。つまり、第2実施形態の撮像装置9では、測定対象物Mの像に歪みが与えられた歪画像の画像データを生成する場合、撮像面20a上に結像された測定対象物Mの像に歪みを与えずに、撮像面20a上において測定対象物Mの像を移動させることで、撮像時に測定対象物Mの像(画像)に歪みを与えている。
In the first embodiment, the measurement unit 39 generates the point cloud data of the point cloud from the acquired image data of the distorted image in consideration of the movement amount Δd, thereby converting the point cloud data of the point cloud having different densities. Generated. On the other hand, in the second embodiment, the control device 4 corrects the image data of the distorted image in consideration of the moving amount Δd, and generates point cloud data of a point cloud from the corrected image data of the distorted image. I have. In addition, in the imaging device 9 of the second embodiment, similarly to the first embodiment, image data of a distorted image is generated so that the image (image) of the measurement target M included in the image 28 is distorted. I have. That is, in the imaging device 9 according to the second embodiment, when generating image data of a distorted image in which the image of the measurement target M is distorted, the image of the measurement target M formed on the imaging surface 20a is generated. By moving the image of the measurement target M on the imaging surface 20a without giving distortion, the image (image) of the measurement target M is distorted at the time of imaging.
また、測定部39は、測定対象物Mを含む像に歪みが与えられた歪画像の画像データと、与えられた歪みの量とに基づいて、点群の密度が異なる点群データを生成している。具体的に、測定部39は、与えられた歪みの量に基づいて、測定対象物Mを含む像に歪みが与えられた歪画像の画像データを補正し、補正した歪画像の画像データから、点群の密度が異なる点群データを生成している。ここで、上記したように、歪みは、拡大及び縮小の少なくともどちらか一方であることから、歪みの量は、拡大倍率(拡大される所定の倍率)及び縮小倍率(縮小される所定の倍率)の少なくともどちらか一方となっている。そして、第2実施形態では、歪画像の画像データを補正する際に、拡大倍率及び縮小倍率に基づく補正を行っているため、拡大倍率及び縮小倍率に基づいて、点群の密度が異なる点群データを生成している。
In addition, the measurement unit 39 generates point cloud data having different point cloud densities based on the image data of the strain image in which the image including the measurement target M is distorted and the amount of the applied distortion. ing. Specifically, the measuring unit 39 corrects the image data of the distorted image in which the image including the measurement target M is distorted based on the given amount of distortion, and, from the corrected image data of the distorted image, Point cloud data with different point cloud densities is generated. Here, as described above, since the distortion is at least one of enlargement and reduction, the amount of distortion is determined by the enlargement magnification (a predetermined magnification to be enlarged) and the reduction magnification (a predetermined magnification to be reduced). At least one of them. In the second embodiment, when the image data of the distorted image is corrected, the correction based on the enlargement ratio and the reduction ratio is performed. Therefore, the density of the point group is different based on the enlargement ratio and the reduction ratio. Generating data.
第2実施形態では、測定部39は、取得した歪画像の画像データを、ピーク検出位置Piを導出する前に、歪画像の画像データに対して補正処理を行って、補正画像データを生成する。
In the second embodiment, the measuring unit 39 performs a correction process on the acquired image data of the distorted image before deriving the peak detection position P i to generate corrected image data. I do.
図25を参照して、投影光Lが投影される測定対象物M(図25の(a))と、撮像装置9により撮像された歪画像(図25の(b))と、測定部39により補正された歪画像(図25の(c))と、補正された歪画像の画像データから生成される点群(図25の(d))とについて説明する。なお、投影光Lが投影される測定対象物Mと、撮像装置9により撮像された歪画像とについては、図11に示すものと同様であるため、説明を省略する。
Referring to FIG. 25, measurement object M (FIG. 25 (a)) onto which projection light L is projected, a distorted image ((b) of FIG. 25) captured by imaging device 9, and measurement unit 39 A description will be given of a corrected distortion image (FIG. 25C) and a point group generated from the corrected distortion image data (FIG. 25D). Note that the measurement target M onto which the projection light L is projected and the distorted image captured by the imaging device 9 are the same as those shown in FIG.
図25の(c)に示すように、測定部39により補正された歪画像において、投影光Lの像の長手方向における中央部の拡大画像領域は、図25の(b)の歪画像と同じ拡大倍率となる画像となっている。一方で、補正された歪画像において、投影光Lの像の長手方向における外側の縮小画像領域は、補正により拡大される。つまり、縮小画像領域は、拡大画像領域と同じ拡大倍率となるように拡大される。このため、歪画像の画像サイズは、補正によりj方向に引き延ばされる。よって、補正された歪画像の画像サイズは、補正前の歪画像の画像サイズに比して大きな画像となる。
As shown in FIG. 25C, in the distorted image corrected by the measuring unit 39, the enlarged image area at the center in the longitudinal direction of the image of the projection light L is the same as the distorted image in FIG. The image becomes the magnification. On the other hand, in the corrected distorted image, the reduced image area outside the image of the projection light L in the longitudinal direction is enlarged by the correction. That is, the reduced image area is enlarged so as to have the same enlargement magnification as the enlarged image area. For this reason, the image size of the distorted image is extended in the j direction by the correction. Therefore, the image size of the corrected distortion image is larger than the image size of the distortion image before correction.
ここで、図26に示すように、歪画像の画像サイズは、補正によりj方向に引き延ばす場合、縮小画像領域79が、拡大画像領域78と同じ拡大倍率となるように拡大される。図26の(a)に示すように、補正される前の歪画像の測定画像領域27において、投影光Lの像は、長手方向において4つの領域に分割されている。投影光Lの像は、図15の(b)及び図1の(b)と同様に、長手方向の中央の2つの領域が、拡大画像領域78となっており、5倍に拡大された領域となっている。投影光Lの像は、長手方向の両外側の2つの領域が、拡大されない1倍の縮小画像領域79となっている。なお、図26では、説明のために、j方向における画素列を、拡大倍率に応じた列数としている。図26の(a)に示すように、拡大画像領域78のi方向の画素列L1は、j方向に5列となり、縮小画像領域76のi方向の画素列L2は、j方向に1列となる。
Here, as shown in FIG. 26, when the image size of the distorted image is extended in the j direction by correction, the reduced image area 79 is enlarged so as to have the same enlargement magnification as the enlarged image area 78. As shown in FIG. 26A, in the measurement image area 27 of the distortion image before correction, the image of the projection light L is divided into four areas in the longitudinal direction. In the image of the projection light L, similarly to FIG. 15B and FIG. 1B, the two central regions in the longitudinal direction are enlarged image regions 78, and the region is magnified 5 times. It has become. In the image of the projection light L, two regions on both outer sides in the longitudinal direction form a 1-times reduced image region 79 that is not enlarged. In FIG. 26, for the sake of explanation, the number of pixel columns in the j direction is the number of columns according to the magnification. As shown in FIG. 26A, the number of pixel rows L1 in the i direction of the enlarged image area 78 is five in the j direction, and the number of pixel rows L2 in the i direction of the reduced image area 76 is one in the j direction. Become.
図26の(b)の図は、補正された歪画像である補正画像を示している。補正された後の歪画像の測定画像領域27において、縮小画像領域79を拡大画像領域78と同じ拡大倍率とする場合、縮小画像領域79には、i方向の画素列L3を4列挿入することで、j方向に5列とする。このとき、縮小画像領域79には、縮小画像領域79のi方向の画素列L2がj方向において中央に位置するように、画素列L2の両側にバッファとなるi方向の画素列L3を2列ずつ挿入する。バッファとなるi方向の画素列L3は、点群を生成しない画素列となっている。
FIG. 26B shows a corrected image that is a corrected distortion image. When the reduced image area 79 has the same enlargement magnification as the enlarged image area 78 in the measurement image area 27 of the corrected distortion image, four pixel rows L3 in the i direction are inserted into the reduced image area 79. And five rows in the j direction. At this time, in the reduced image area 79, two i-directional pixel rows L3 serving as buffers are provided on both sides of the pixel row L2 such that the i-directional pixel row L2 of the reduced image area 79 is located at the center in the j direction. Insert each. The i-directional pixel row L3 serving as a buffer is a pixel row that does not generate a point cloud.
測定部39は、図26の(b)に示すように、歪画像を補正した補正画像の補正画像データを生成する。補正画像データは、歪画像を補正した補正画像の画像データである。補正画像の補正画像データは、画像28の各画素における輝度値と、各画素におけるij直交座標系(2次元座標系)の座標値とを含むデータとなる。このとき、図26に示すように、歪画像は、補正によりj方向に引き延ばされることから、各画素におけるij直交座標系(2次元座標系)の座標値は、各画素のj方向における密度が異なる座標値となっている。そして、測定部39は、補正画像データに基づいて、点群の点群データを生成する。このとき、測定部39は、補正画像データを用いることから、移動量Δdを考慮する必要がない。つまり、移動量Δdを考慮した点群を求める式としては、第1実施形態に記載した(5)式であるが、(5)式に含まれる移動量Δdを省くことで、移動量Δdを考慮しない点群を求める、下記する(6)式となる。
pi=kRpos[0,ip−ib,jp−jb)]T+pb ・・・(6)
The measurement unit 39 generates corrected image data of a corrected image obtained by correcting the distortion image, as illustrated in (b) of FIG. The corrected image data is image data of a corrected image obtained by correcting a distortion image. The corrected image data of the corrected image is data including a luminance value at each pixel of the image 28 and a coordinate value of the ij orthogonal coordinate system (two-dimensional coordinate system) at each pixel. At this time, as shown in FIG. 26, the distorted image is elongated in the j direction by the correction, and thus the coordinate value of each pixel in the ij orthogonal coordinate system (two-dimensional coordinate system) is the density of each pixel in the j direction. Have different coordinate values. Then, the measuring unit 39 generates point cloud data of the point cloud based on the corrected image data. At this time, since the measurement unit 39 uses the corrected image data, it is not necessary to consider the movement amount Δd. That is, the equation for obtaining the point group in consideration of the movement amount Δd is the expression (5) described in the first embodiment, but by eliminating the movement amount Δd included in the expression (5), the movement amount Δd can be reduced. A group of points that are not taken into account is obtained by the following equation (6).
p i = kR pos [0, i p -i b, j p -j b)] T + p b ··· (6)
図26の(b)に示すように、歪画像の縮小画像領域79に対応する、補正された歪画像の画素の密度は、補正により低くなる。このため、縮小画像領域において、補正された歪画像上の複数の画素同士の間隔は、投影光Lの像の長手方向(j方向)において長くなる。また、歪画像の拡大画像領域78に対応する、補正された歪画像の画素の密度は、縮小画像領域79に対して相対的に高くなる。このため、拡大画像領域78において、補正された歪画像上の複数の画素同士の間隔は、縮小画像領域79に比して、投影光Lの像の長手方向(j方向)において短くなる。そして、図25の(d)に示すように、補正された歪画像の画像データに基づいて生成される点群は、第1実施形態の図10の(d)と同様に、歪画像の拡大画像領域78に対応する点群が密となり、歪画像の縮小画像領域79に対応する点群が疎となる。このため、補正された歪画像から生成される点群は、投影光Lの像の長手方向において、密度が異なるものとなる。
As shown in FIG. 26B, the pixel density of the corrected distorted image corresponding to the reduced image area 79 of the distorted image is reduced by the correction. For this reason, in the reduced image area, the interval between the plurality of pixels on the corrected distortion image becomes longer in the longitudinal direction (j direction) of the image of the projection light L. Further, the pixel density of the corrected distortion image corresponding to the enlarged image area 78 of the distortion image is relatively higher than the reduced image area 79. For this reason, in the enlarged image region 78, the interval between the plurality of pixels on the corrected distortion image is shorter in the longitudinal direction (j direction) of the image of the projection light L than in the reduced image region 79. Then, as shown in (d) of FIG. 25, the point group generated based on the image data of the corrected distorted image is obtained by enlarging the distorted image as in (d) of FIG. 10 of the first embodiment. The point group corresponding to the image area 78 becomes dense, and the point group corresponding to the reduced image area 79 of the distorted image becomes sparse. For this reason, the points generated from the corrected distortion image have different densities in the longitudinal direction of the image of the projection light L.
次に、図27を参照して、形状測定装置1により実行される測定対象物Mの形状測定方法に関する処理について説明する。形状測定装置1の制御装置4は、形状測定プログラム48を実行し、ティーチングモードで設定した条件テーブル46の測定条件に基づいて、投影光Lが投影された測定対象物Mの像を撮像装置9により撮像する。撮像装置9は、投影光Lを含む測定対象物Mの像を撮像して、歪画像の画像データを生成する。制御装置4は、撮像装置9で生成された歪画像の画像データを測定部39において取得する(ステップS31)。
Next, with reference to FIG. 27, a description will be given of a process related to the shape measuring method of the measurement target M performed by the shape measuring device 1. The control device 4 of the shape measuring device 1 executes the shape measuring program 48 and, based on the measurement conditions of the condition table 46 set in the teaching mode, captures an image of the measurement target M onto which the projection light L is projected, by the imaging device 9. To capture an image. The imaging device 9 captures an image of the measurement target M including the projection light L, and generates image data of a distortion image. The control device 4 acquires the image data of the distorted image generated by the imaging device 9 in the measurement unit 39 (Step S31).
続いて、測定部39は、取得した歪画像の画像データを、図26のように補正し、補正した歪画像の画像データを取得する(ステップS33)。ステップS33において、補正した歪画像の画像データは、補正前の歪画像の各画素の位置が補正されたものとなっている。そして、制御装置4は、補正した歪画像の画像データに基づいて、点群の点群データを生成することにより、測定対象物Mの形状を測定する(ステップS35)。ステップS35において、制御装置4の測定部39は、(6)式を用いて、点群の点群データを生成することにより、測定対象物Mの外形形状を測定する。ステップS35の実行後、制御装置4は、測定対象物Mの形状測定に関する処理を終了する。
Subsequently, the measuring unit 39 corrects the acquired image data of the distorted image as shown in FIG. 26, and acquires the corrected image data of the distorted image (Step S33). In step S33, the image data of the corrected distortion image is obtained by correcting the position of each pixel of the distortion image before correction. Then, the control device 4 measures the shape of the measurement target M by generating point cloud data of the point cloud based on the corrected image data of the distorted image (step S35). In step S35, the measurement unit 39 of the control device 4 measures the external shape of the measurement target M by generating the point cloud data of the point cloud using Expression (6). After execution of step S35, the control device 4 ends the processing related to the shape measurement of the measurement target M.
以上のように、第2実施形態においても、撮像装置9により撮像される画像28において、投影光Lの像の長手方向に沿って生成される点群を、拡大画像領域78において密とすることができる。このため、点群が密となる測定対象物Mの部位の形状を精度良く測定することができる。
As described above, also in the second embodiment, in the image 28 captured by the imaging device 9, the points generated along the longitudinal direction of the image of the projection light L are dense in the enlarged image area 78. Can be. For this reason, it is possible to accurately measure the shape of the portion of the measurement object M where the point cloud is dense.
また、第2実施形態によれば、第1実施形態と同様に、1枚の画像28において、測定対象物Mにおいて、高い測定精度を必要とする部位に対して、点群の密度を高めることができる。このため、1枚の画像28を取得すればよいため、測定時間が長くなることを抑制することができる。
Further, according to the second embodiment, as in the first embodiment, in one image 28, the density of the point cloud is increased for a part of the measurement target M that requires high measurement accuracy. Can be. For this reason, since only one image 28 needs to be acquired, it is possible to suppress an increase in measurement time.
また、第2実施形態によれば、制御装置4の測定部39において、撮像装置9により撮像した歪画像を補正し、補正した歪画像の補正画像データから点群の点群データを生成することができる。このため、測定部39は、移動量Δdを考慮することなく、点群の点群データを生成することができるため、点群の生成に関する処理を変更することなく実行することが可能となる。
According to the second embodiment, the measuring unit 39 of the control device 4 corrects the distorted image picked up by the image pickup device 9 and generates the point cloud point group data from the corrected image data of the corrected distorted image. Can be. For this reason, since the measuring unit 39 can generate the point cloud data of the point cloud without considering the movement amount Δd, it is possible to execute the processing regarding the generation of the point cloud without changing.
[第3実施形態]
図28は、第3実施形態の形状測定装置を含むインラインシステムの構成を示す図である。第1実施形態では、測定対象物Mを、形状測定装置1のテーブル71に設置して、回転駆動部72によりテーブル71を回転させたが、第3実施形態では、形状測定装置101に隣接する一方側の搬送装置206にテーブル71を設け、一方側の搬送装置206のテーブル71を回転させて、形状測定装置101により測定対象物Mの形状を測定している。
[Third embodiment]
FIG. 28 is a diagram illustrating a configuration of an inline system including the shape measuring device according to the third embodiment. In the first embodiment, the measurement target M is set on the table 71 of the shape measuring device 1 and the table 71 is rotated by the rotation drive unit 72. However, in the third embodiment, the measuring object M is adjacent to the shape measuring device 101. The table 71 is provided on the transport device 206 on one side, the table 71 of the transport device 206 on one side is rotated, and the shape of the measuring object M is measured by the shape measuring device 101.
図28に示すように、一方側の搬送装置206は、第1実施形態と同様に、例えば、多軸マニピュレータが適用されており、その先端に保持回転装置7が設けられている。保持回転装置7は、第1実施形態と同様の構成となっており、測定対象物Mを保持するテーブル71と、テーブル71を回転方向、つまり矢印102の方向に回転させる回転駆動部72と、テーブル71の回転方向の位置を検出する位置検出部73と、を有する。なお、第2実施形態では、搬送装置206に保持回転装置7が設けられていることから、第2実施形態の形状測定装置101は、保持回転装置7を省いた構成となっている。このため、形状測定装置101は、プローブ移動装置2により光学プローブ3の位置を移動させると共に、搬送装置206は、保持回転装置7により測定対象物Mの位置を矢印102の方向に回転させる。
As shown in FIG. 28, as in the first embodiment, for example, a multi-axis manipulator is applied to one side of the transfer device 206, and the holding and rotating device 7 is provided at the tip thereof. The holding and rotating device 7 has the same configuration as that of the first embodiment, and includes a table 71 for holding the measurement object M, a rotation driving unit 72 for rotating the table 71 in the rotation direction, that is, the direction of the arrow 102, A position detector 73 for detecting the position of the table 71 in the rotation direction. In the second embodiment, since the holding / rotating device 7 is provided in the transfer device 206, the shape measuring device 101 of the second embodiment has a configuration in which the holding / rotating device 7 is omitted. Therefore, the shape measuring device 101 moves the position of the optical probe 3 by the probe moving device 2, and the transport device 206 rotates the position of the measuring object M in the direction of the arrow 102 by the holding and rotating device 7.
ここで、一方側の搬送装置206を用いた形状測定装置101による形状測定について説明する。一方側の搬送装置206は、保持回転装置7のテーブル71に測定対象物Mが設置された状態で、前工程から形状測定装置101に測定対象物Mを搬入する。一方側の搬送装置206は、測定対象物Mの形状測定装置101への搬入時において、一方側の搬送装置206の保持回転装置7と、形状測定装置1とが予め規定された所定の位置関係となるように搬入される。所定の位置関係は、例えば、第1実施形態のベースB上に配置されたプローブ移動装置2と保持回転装置7との位置関係である。形状測定装置101と保持回転装置7とが所定の位置関係となると、形状測定装置101は、測定対象物Mの形状測定を実行する。形状測定装置101は、プローブ移動装置2により移動する光学プローブ3の位置を位置検出部11により取得し、また、一方側の搬送装置206の保持回転装置7により回転する測定対象物Mの位置を位置検出部73により取得して、光学プローブ3と測定対象物Mの相対位置を取得する。また、投光装置8から投影光Lを測定対象物Mに投影し、撮像装置9により測定対象物Mの像を撮像して画像データを生成する。そして、形状測定装置1は、相対位置と、相対位置において取得した画像データとに基づいて、測定対象物Mの形状を測定する。形状測定装置1による形状測定後、他方側の搬送装置206は、一方側の搬送装置206の保持回転装置7に設置された測定対象物Mを、形状測定装置1から搬出し、搬出した測定対象物Mを後工程に搬送する。
Here, the shape measurement by the shape measuring apparatus 101 using the transport device 206 on one side will be described. The transfer device 206 on one side carries the measurement target M into the shape measurement device 101 from a previous process in a state where the measurement target M is set on the table 71 of the holding and rotating device 7. At the time of loading of the measuring object M into the shape measuring device 101, the one-side transport device 206 has a predetermined positional relationship between the holding and rotating device 7 of the one-side transport device 206 and the shape measuring device 1. It is carried so that it becomes. The predetermined positional relationship is, for example, the positional relationship between the probe moving device 2 and the holding and rotating device 7 arranged on the base B of the first embodiment. When the shape measuring device 101 and the holding / rotating device 7 have a predetermined positional relationship, the shape measuring device 101 executes the shape measurement of the measuring object M. The shape measuring device 101 obtains the position of the optical probe 3 moved by the probe moving device 2 by the position detecting unit 11, and determines the position of the measurement target M rotated by the holding and rotating device 7 of the transport device 206 on one side. The relative position between the optical probe 3 and the measurement target M is acquired by the position detection unit 73. Further, the projection light L is projected from the light projecting device 8 onto the measurement target M, and an image of the measurement target M is captured by the imaging device 9 to generate image data. Then, the shape measuring device 1 measures the shape of the measurement target M based on the relative position and the image data acquired at the relative position. After the shape measurement by the shape measuring device 1, the transport device 206 on the other side unloads the measurement object M installed on the holding and rotating device 7 of the transport device 206 on the one side from the shape measuring device 1 and unloads the measurement object. The object M is transported to a subsequent process.
以上のように、第3実施形態によれば、一方側の搬送装置206から形状測定装置101へ測定対象物Mを搬入するときに、測定対象物Mの形状測定装置101への設置作業を省いて、測定対象物Mの形状測定を行うことができるため、形状測定に係るタクトタイムを短くすることができ、作業効率の向上を図ることができる。なお、第2実施形態においても、プローブ移動装置2のXYZ移動機構及びθ移動機構を省いた構成であってもよいし、各移動機構の一部を省いた構成であってもよい。また、保持回転装置7の回転駆動部72を省いた構成であってもよい。
As described above, according to the third embodiment, when the measuring object M is carried into the shape measuring device 101 from one of the transport devices 206, the work of installing the measuring object M on the shape measuring device 101 is omitted. In addition, since the shape of the measurement target M can be measured, the tact time related to the shape measurement can be shortened, and the work efficiency can be improved. In the second embodiment, the XYZ movement mechanism and the θ movement mechanism of the probe moving device 2 may be omitted, or a part of each movement mechanism may be omitted. Further, the configuration may be such that the rotation drive unit 72 of the holding and rotating device 7 is omitted.
[第4実施形態]
図29は、第4実施形態の形状測定装置を含むインラインシステムの構成を示す図である。第1実施形態では、測定対象物Mを、形状測定装置1のテーブル71に設置して、回転駆動部72によりテーブル71を回転させたが、第3実施形態では、無端の搬送ベルト223に測定対象物Mを載置し、無端の搬送ベルト223の上方側に設けた光学プローブ3を回転させて、形状測定装置110により測定対象物Mの形状を測定している。
[Fourth embodiment]
FIG. 29 is a diagram illustrating a configuration of an inline system including the shape measuring device according to the fourth embodiment. In the first embodiment, the measuring object M is set on the table 71 of the shape measuring apparatus 1 and the table 71 is rotated by the rotation drive unit 72. However, in the third embodiment, the measurement is performed on the endless transport belt 223. The shape of the measuring object M is measured by the shape measuring device 110 by rotating the optical probe 3 provided above the endless transport belt 223 with the measuring object M placed thereon.
図29に示すように、構造物製造システム200は、搬送装置220と、搬送装置220の鉛直方向の上方側に設けられる形状測定装置110とを含んでいる。搬送装置220は、駆動ローラ221と従動ローラ222とからなる一対の搬送ローラ221,222と、一対の搬送ローラ221,222に架け渡される無端の搬送ベルト223と、を有している。搬送装置220は、一対の搬送ローラ221,222により搬送ベルト223を周回させることで、搬送ベルト223上に載置された測定対象物Mを搬送方向に搬送している。また、搬送装置220は、形状測定装置110の下方側の位置において測定対象物Mの搬送を停止させ、この状態において、形状測定装置110による形状測定を行った後、形状測定後の測定対象物Mを後工程に搬送する。
As shown in FIG. 29, the structure manufacturing system 200 includes a transfer device 220 and a shape measuring device 110 provided above the transfer device 220 in the vertical direction. The transport device 220 includes a pair of transport rollers 221 and 222 including a drive roller 221 and a driven roller 222, and an endless transport belt 223 that is bridged between the pair of transport rollers 221 and 222. The transport device 220 transports the measurement target M placed on the transport belt 223 in the transport direction by rotating the transport belt 223 by the pair of transport rollers 221 and 222. In addition, the transport device 220 stops the transport of the measurement target M at a position below the shape measurement device 110, and in this state, measures the shape by the shape measurement device 110, and then measures the measurement target after the shape measurement. M is conveyed to a post-process.
第4実施形態の形状測定装置110は、プローブ移動装置2が、光学プローブ3をθ方向、つまり矢印112の方向に回転させるθ回転部113と、θ回転部113の回転方向の位置を検出する図示しない位置検出部と、をさらに有している。位置検出部は、θ回転部113の回転軸の回転を検出するエンコーダ装置である。プローブ移動装置2は、位置検出部で検出した結果に基づいて、θ回転部113によって光学プローブ3を回転させる。なお、第3実施形態では、プローブ移動装置2にθ回転部113が設けられていることから、第3実施形態の形状測定装置110は、保持回転装置7を省いた構成となっている。また、プローブ移動装置2に設けられるθ回転部113は、第1実施形態の回転駆動部72と同様の構成であるため、説明を省略する。
In the shape measuring device 110 of the fourth embodiment, the probe moving device 2 detects the θ rotation unit 113 that rotates the optical probe 3 in the θ direction, that is, the direction of the arrow 112, and detects the position of the θ rotation unit 113 in the rotation direction. And a position detector (not shown). The position detection unit is an encoder device that detects the rotation of the rotation axis of the θ rotation unit 113. The probe moving device 2 causes the θ rotation unit 113 to rotate the optical probe 3 based on the result detected by the position detection unit. In the third embodiment, since the θ rotating unit 113 is provided in the probe moving device 2, the shape measuring device 110 of the third embodiment has a configuration in which the holding and rotating device 7 is omitted. Further, the θ rotation unit 113 provided in the probe moving device 2 has the same configuration as the rotation drive unit 72 of the first embodiment, and thus the description is omitted.
以上のように、第4実施形態によれば、搬送装置220の搬送ベルト223上に測定対象物Mを載置した状態で、測定対象物Mの搬送と形状計測とを行うことができるため、形状測定に係るタクトタイムを短くすることができ、作業効率の向上を図ることができる。
As described above, according to the fourth embodiment, the transport of the measurement target M and the shape measurement can be performed while the measurement target M is placed on the transport belt 223 of the transport device 220. Tact time related to shape measurement can be shortened, and work efficiency can be improved.
[第5実施形態]
図30は、第5実施形態の形状測定装置の結像光学系を示す模式図である。第5実施形態の撮像装置9は、投影光Lの像を含む測定対象物Mの像に対して歪んだ歪画像の画像データを生成するために、第1実施形態の結像光学系21に代えて、結像光学系121を魚眼レンズとしている。魚眼レンズは、比較的歪曲収差の大きいレンズである。
[Fifth Embodiment]
FIG. 30 is a schematic diagram illustrating an imaging optical system of the shape measuring apparatus according to the fifth embodiment. In order to generate image data of a distorted image that is distorted with respect to the image of the measurement target M including the image of the projection light L, the imaging device 9 of the fifth embodiment includes the imaging optical system 21 of the first embodiment. Instead, the imaging optical system 121 is a fisheye lens. The fisheye lens is a lens having relatively large distortion.
ここで、第5実施形態の撮像装置9では、撮像面20a上に結像された測定対象物Mの像に歪みを与えて歪画像の画像データを生成している。具体的に、第5実施形態の撮像装置9では、測定対象物Mの像に歪みが与えられた歪画像の画像データを生成する場合、撮像面20a上に結像された測定対象物Mの像に対して、魚眼レンズにより歪みを与え、歪みが与えられた測定対象物Mの像が撮像面20a上に結像されることで、測定対象物Mの像に歪みが与えられた歪画像の画像データを生成している。
Here, in the imaging device 9 of the fifth embodiment, image data of a distorted image is generated by applying a distortion to the image of the measurement target M formed on the imaging surface 20a. Specifically, in the imaging device 9 of the fifth embodiment, when generating image data of a distorted image in which the image of the measurement target M is distorted, the image data of the measurement target M formed on the imaging surface 20a is generated. The image is distorted by a fish-eye lens, and the distorted image of the measurement target M is formed on the imaging surface 20a, so that the image of the measurement target M is distorted. Image data is being generated.
また、測定部39は、測定対象物Mを含む像に歪みが与えられた歪画像の画像データと、与えられた歪みの量とに基づいて、点群の密度が異なる点群データを生成している。具体的に、測定部39は、与えられた歪みの量に基づいて、測定対象物Mを含む像に歪みが与えられた歪画像の画像データを補正し、補正した歪画像の画像データから、点群の密度が異なる点群データを生成している。ここで、上記したように、歪みは、拡大及び縮小の少なくともどちらか一方であることから、歪みの量は、拡大倍率(拡大される所定の倍率)及び縮小倍率(縮小される所定の倍率)の少なくともどちらか一方となっている。そして、第5実施形態では、測定対象物Mを含む像に対して魚眼レンズにより歪みを与えており、歪画像の画像データを補正する際に、魚眼レンズによって与えた歪みの量に基づく補正を行って、補正した歪画像の画像データから、点群の密度が異なる点群データを生成している。
In addition, the measurement unit 39 generates point cloud data having different point cloud densities based on the image data of the strain image in which the image including the measurement target M is distorted and the amount of the applied distortion. ing. Specifically, the measuring unit 39 corrects the image data of the distorted image in which the image including the measurement target M is distorted based on the given amount of distortion, and, from the corrected image data of the distorted image, Point cloud data with different point cloud densities is generated. Here, as described above, since the distortion is at least one of enlargement and reduction, the amount of distortion is determined by the enlargement magnification (a predetermined magnification to be enlarged) and the reduction magnification (a predetermined magnification to be reduced). At least one of them. In the fifth embodiment, the image including the measurement target M is distorted by the fisheye lens, and when correcting the image data of the distorted image, the correction based on the amount of distortion given by the fisheye lens is performed. In addition, point group data having different point cloud densities is generated from the image data of the corrected distortion image.
図30に示すように、撮像装置9の結像光学系121は、魚眼レンズ125を含み、魚眼レンズ125は、メニスカスレンズ及び非球面レンズ等を含む複数のレンズ126からなるレンズ群で構成されている。なお、魚眼レンズ125は、メニスカスレンズ及び非球面レンズの複数のレンズで構成されていなくてもよく、既存の他の複数のレンズで構成されていてもいいし、既存の単数のレンズであってもいい。
As shown in FIG. 30, the imaging optical system 121 of the imaging device 9 includes a fisheye lens 125, and the fisheye lens 125 is configured by a lens group including a plurality of lenses 126 including a meniscus lens and an aspheric lens. Note that the fisheye lens 125 does not have to be constituted by a plurality of lenses such as a meniscus lens and an aspherical lens, may be constituted by other existing plural lenses, or may be constituted by an existing single lens. Good.
魚眼レンズ125は、投影光Lの像を含む測定対象物Mの像を歪ませて、撮像素子20の撮像面20aに、歪ませた測定対象物Mの像を結像する。魚眼レンズ125は、撮像素子20の撮像面20aに投影される測定対象物Mの像を、投影光Lの長手方向に拡大または縮小する、所定の歪曲収差となるレンズとなっている。また、魚眼レンズ125は、光軸を中心点として点対称となる歪曲収差となっている。魚眼レンズ125は、例えば、撮像素子20に撮像される画像の中央部が拡大し、画像の外側が縮小する、たる型の歪曲収差を有するレンズとなっている。つまり、魚眼レンズ125は、歪んだ画像の歪み量、換言すれば、歪んだ画像における所定の画像領域の拡大倍率、または補正された画像における点群の疎密の種類に応じて複数用意されている。複数の魚眼レンズ125は、例えば、歪曲収差の異なる第1の魚眼レンズと第2の魚眼レンズとを含んでいる。そして、複数の魚眼レンズ125の中から、所定の魚眼レンズ125を撮像装置9に取り付けたり、付け替えたりすることで、所定の疎密となる点群とすることが可能となる。
The fisheye lens 125 distorts the image of the measurement target M including the image of the projection light L, and forms the distorted image of the measurement target M on the imaging surface 20a of the image sensor 20. The fisheye lens 125 is a lens having a predetermined distortion that enlarges or reduces the image of the measurement target M projected on the imaging surface 20a of the imaging device 20 in the longitudinal direction of the projection light L. The fish-eye lens 125 has a distortion that is point-symmetric with respect to the optical axis as a center point. The fisheye lens 125 is, for example, a lens having barrel distortion, in which the center of an image captured by the image sensor 20 is enlarged and the outside of the image is reduced. In other words, a plurality of fisheye lenses 125 are prepared according to the amount of distortion of the distorted image, in other words, the magnification of a predetermined image area in the distorted image, or the type of point cloud density in the corrected image. The plurality of fisheye lenses 125 include, for example, a first fisheye lens and a second fisheye lens having different distortions. Then, by attaching or replacing a predetermined fisheye lens 125 to the imaging device 9 from among the plurality of fisheye lenses 125, it becomes possible to form a predetermined dense and dense point cloud.
この魚眼レンズ125は、画像領域設定部34により設定される拡大対象領域75に基づいて、複数の魚眼レンズ125の中から、拡大対象領域75に対応する所定の魚眼レンズ125に交換するレンズ交換部によって交換されてもよい。レンズ交換部は、魚眼レンズ125を選択的に付け替える機構となっており、例えば、上記の第1の魚眼レンズを第2の魚眼レンズへ交換している。ここで、結像光学系121の光軸をAとすると、複数の魚眼レンズ125のうち、1つの魚眼レンズ125が光軸A上に配置される。レンズ交換部は、第1の魚眼レンズを第2の魚眼レンズへ交換する場合、光軸A上に配置された第1の魚眼レンズを光軸A上から取り外し、第2の魚眼レンズを光軸A上に配置することで、魚眼レンズ125を交換する。レンズ交換部は、制御装置4に接続されている。レンズ交換部は、制御装置4の画像領域設定部34により設定される拡大対象領域75に基づいて、所定の魚眼レンズ125に交換する。
The fisheye lens 125 is replaced by a lens replacement unit that replaces the fisheye lens 125 with a predetermined fisheye lens 125 corresponding to the enlargement target area 75 from the plurality of fisheye lenses 125 based on the enlargement target area 75 set by the image area setting unit 34. You may. The lens exchange unit has a mechanism for selectively replacing the fisheye lens 125, for example, replacing the first fisheye lens with a second fisheye lens. Here, assuming that the optical axis of the imaging optical system 121 is A, one of the fisheye lenses 125 is disposed on the optical axis A. When replacing the first fisheye lens with the second fisheye lens, the lens replacement unit removes the first fisheye lens arranged on the optical axis A from the optical axis A, and arranges the second fisheye lens on the optical axis A. Then, the fisheye lens 125 is replaced. The lens exchange section is connected to the control device 4. The lens exchange unit exchanges a predetermined fisheye lens 125 based on the enlargement target area 75 set by the image area setting unit 34 of the control device 4.
魚眼レンズ125を用いたときの形状測定装置1による測定対象物Mの形状の測定について説明する。画像領域設定部34により、撮像素子20で撮像される画像28に対して、拡大対象領域75が設定されると、制御装置4は、設定された拡大対象領域75に対応する拡大画像領域78の拡大倍率に基づいて、魚眼レンズ125を選定し、選定した魚眼レンズ125をレンズ交換部によって撮像装置9に取り付ける。この後、制御装置4の測定部39は、撮像装置9により測定対象物Mを撮像して、歪画像の画像データを取得する。
The measurement of the shape of the measurement target M by the shape measuring device 1 when the fisheye lens 125 is used will be described. When the enlargement target area 75 is set for the image 28 captured by the image sensor 20 by the image area setting unit 34, the control device 4 sets the enlarged image area 78 corresponding to the set enlargement target area 75. The fisheye lens 125 is selected based on the magnification, and the selected fisheye lens 125 is attached to the imaging device 9 by the lens exchange unit. Thereafter, the measurement unit 39 of the control device 4 captures an image of the measurement target M by the imaging device 9 and acquires image data of a distortion image.
魚眼レンズ125を用いて結像された測定対象物Mの像を含む歪画像の画像データは、画像28上の測定対象物Mの像の少なくとも一部が拡大された画像の画像データとなる。また、歪画像の画像データは、画像28の各画素における輝度値と、各画素におけるij直交座標系(2次元座標系)の座標値とを含むデータとなる。
The image data of the distorted image including the image of the measurement target M formed by using the fisheye lens 125 is the image data of an image in which at least a part of the image of the measurement target M on the image 28 is enlarged. The image data of the distorted image is data including a luminance value of each pixel of the image 28 and a coordinate value of each pixel of the ij orthogonal coordinate system (two-dimensional coordinate system).
続いて、測定部39は、取得した歪画像の画像データから、撮像装置9の魚眼レンズ125の歪曲収差に基づいて、歪画像を補正する。歪画像を補正した補正画像の画像データは、画像28の各画素における輝度値と、各画素におけるij直交座標系(2次元座標系)の座標値とを含むデータとなる。補正された歪画像は、魚眼レンズ125の歪曲収差に基づいて補正されることから、各画素におけるij直交座標系(2次元座標系)の座標値は、各画素のj方向における密度が異なる座標値となっている。測定部39は、補正した歪画像の補正画像データから点群の点群データを生成する。具体的に、測定部39は、撮像装置9の魚眼レンズ125の歪曲収差が予め既知なっていることから、撮像装置9の魚眼レンズ125の歪曲収差から、測定対象物Mの像の拡大倍率が既知となっている。測定部39は、歪みの量となる拡大倍率に基づいて、測定対象物Mの像とほぼ相似になるように(歪みのない画像となるように)、歪画像の画像データを補正する。測定部39は、歪画像の画像データを補正し、補正した歪画像の補正画像データから、点群の点群データを生成する。そして、測定部39は、生成した点群データに基づいて、測定部39により測定対象物Mの外形形状を測定する。
Subsequently, the measuring unit 39 corrects the distorted image from the acquired image data of the distorted image based on the distortion of the fisheye lens 125 of the imaging device 9. Image data of the corrected image obtained by correcting the distorted image is data including a luminance value of each pixel of the image 28 and a coordinate value of each pixel of the ij orthogonal coordinate system (two-dimensional coordinate system). Since the corrected distorted image is corrected based on the distortion of the fisheye lens 125, the coordinate value of each pixel in the ij orthogonal coordinate system (two-dimensional coordinate system) is a coordinate value having a different density in the j direction of each pixel. It has become. The measuring unit 39 generates point cloud data of the point cloud from the corrected image data of the corrected distortion image. Specifically, since the distortion of the fisheye lens 125 of the imaging device 9 is known in advance, the measurement unit 39 determines that the magnification of the image of the measurement target M is known from the distortion of the fisheye lens 125 of the imaging device 9. Has become. The measurement unit 39 corrects the image data of the distorted image based on the magnification that is the amount of distortion so that the image data is substantially similar to the image of the measurement target M (an image having no distortion). The measurement unit 39 corrects the image data of the distorted image, and generates point cloud data of a point cloud from the corrected image data of the distorted image. Then, the measuring unit 39 measures the outer shape of the measuring object M by the measuring unit 39 based on the generated point cloud data.
以上のように、第4実施形態によれば、ガルバノスキャナ82を含む結像光学系21に比して、魚眼レンズ125を用いた結像光学系121とすることで、結像光学系121を簡易な構成とすることができる。また、歪んだ画像の歪曲収差を変更する場合、魚眼レンズ125を付け替えることで、簡単に歪曲収差を変更することができる。なお、魚眼レンズ125に代えて、投影光Lの像を含む測定対象物Mの像に歪みを与える他の既存の光学部材を適用してもよい。例えば、自由な歪曲収差にできる自由曲面レンズを適用してもよい。
As described above, according to the fourth embodiment, as compared with the imaging optical system 21 including the galvano scanner 82, the imaging optical system 121 using the fisheye lens 125 is simplified, so that the imaging optical system 121 is simplified. Configuration. When changing the distortion of the distorted image, the distortion can be easily changed by replacing the fisheye lens 125. Note that, instead of the fisheye lens 125, another existing optical member that gives distortion to the image of the measurement target M including the image of the projection light L may be applied. For example, a free-form surface lens capable of free distortion may be applied.
[第6実施形態]
図31は、第6実施形態の形状測定装置を含むシステムの一部の構成を示す図である。図32は、第6実施形態の形状測定装置の計測動作を示す説明図である。第5実施形態の形状測定装置130は、第1実施形態の構成に加えて、テーブル71の回転軸Axに対して、テーブル71を傾斜させる傾斜部131をさらに備えたものとなっている。
[Sixth embodiment]
FIG. 31 is a diagram illustrating a partial configuration of a system including the shape measuring apparatus according to the sixth embodiment. FIG. 32 is an explanatory diagram illustrating a measuring operation of the shape measuring device according to the sixth embodiment. The shape measuring apparatus 130 according to the fifth embodiment further includes an inclined portion 131 that inclines the table 71 with respect to the rotation axis Ax of the table 71, in addition to the configuration of the first embodiment.
ところで、図32に示すように、測定対象物Mには、切削加工等により長手方向に延在するひき目が形成される場合がある。測定対象物Mは、保持回転装置7により回転しつつ、ライン状の投影光Lが投影されることから、ひき目の長手方向とライン状の投影光Lの長手方向が揃って、ひき目と投影光Lとが重なる場合がある。この場合、投影光Lは、ひき目によって散乱し、ひき目と投影光とが重ならない場合に比べて、結像光学系21に入射する回折光の光量が増大する。回折光の光量が増大すると、撮像素子20の撮像面20aにおける投影光Lの像が不適切な像となることから、測定対象物Mの形状測定の精度が低下する可能性がある。ここで、形状測定装置130は、例えば、調光領域設定部37により設定された調光領域における光量を測定している。
By the way, as shown in FIG. 32, a slit extending in the longitudinal direction may be formed on the measurement target M by cutting or the like in some cases. Since the measurement object M is rotated by the holding and rotating device 7 and the linear projection light L is projected, the longitudinal direction of the slit and the longitudinal direction of the linear projection light L are aligned, and The projection light L may overlap. In this case, the projection light L is scattered by the crevices, and the amount of diffracted light incident on the imaging optical system 21 increases as compared with the case where the crevices and the projection light do not overlap. When the amount of diffracted light increases, the image of the projection light L on the imaging surface 20a of the imaging device 20 becomes an inappropriate image, and thus the accuracy of shape measurement of the measurement target M may be reduced. Here, the shape measuring device 130 measures, for example, the amount of light in the light control area set by the light control area setting unit 37.
このため、第6実施形態の形状測定装置130は、図31に示すように、保持回転装置7のテーブルの回転軸Axに傾斜部131が設けられている。傾斜部131は、回転軸Axに直交する回動軸Ax1を中心に、テーブル71を傾斜させる。また、保持回転装置7には、傾斜部131の回動方向の位置を検出する図示しない回動位置検出部が設けられている。保持回転装置7は、回動位置検出部で検出した結果に基づいて、傾斜部131によってテーブル71を回動させる。保持回転装置7とプローブ移動装置2により、光学プローブ3から投光されるライン状の投影光Lは、テーブル71を傾斜させることにより、測定対象物Mの任意の測定範囲の向きを変えて投影することができる。
For this reason, in the shape measuring device 130 of the sixth embodiment, as shown in FIG. 31, an inclined portion 131 is provided on the rotation axis Ax of the table of the holding and rotating device 7. The tilt portion 131 tilts the table 71 about a rotation axis Ax1 orthogonal to the rotation axis Ax. Further, the holding and rotating device 7 is provided with a rotation position detection unit (not shown) that detects the position of the inclined portion 131 in the rotation direction. The holding / rotating device 7 causes the inclined portion 131 to rotate the table 71 based on the result detected by the rotating position detection unit. The linear projection light L projected from the optical probe 3 by the holding and rotating device 7 and the probe moving device 2 is projected by changing the direction of an arbitrary measurement range of the measurement target M by tilting the table 71. can do.
形状測定装置130は、円周方向に所定の間隔で歯が形成された図9に示す測定対象物Maの形状を測定する場合、測定対象物Maを円周方向に回転させながら、測定対象物Maの歯の形状を順番に測定することで、測定対象物Maの形状を測定している。このとき、形状測定装置130は、測定対象物Maの形状を測定する前に、傾斜部131による回転軸Axの傾斜をさせずに、すなわち、テーブル71の回転軸AxをZ軸方向に真っ直ぐにした状態で、測定対象物Maを円周方向に一周分回転させる(図32の一周目)。すると、図32に示すように、形状測定装置1は、テーブル71の回転方向の所定の位置において、結像光学系21に入射する回折光の光量が増大する。形状測定装置130は、位置検出部73により回折光の光量が増大した所定の位置を検出し、検出した所定の位置を取得する。なお、測定対象物Maは、円周方向に所定の間隔で歯が形成された物体に限らず、形状を測定する対象となるいずれの物体であってもよい。
When measuring the shape of the measuring object Ma shown in FIG. 9 in which teeth are formed at predetermined intervals in the circumferential direction, the shape measuring device 130 rotates the measuring object Ma in the circumferential direction while rotating the measuring object Ma in the circumferential direction. The shape of the measuring object Ma is measured by sequentially measuring the shape of the Ma teeth. At this time, before measuring the shape of the measuring object Ma, the shape measuring device 130 does not tilt the rotation axis Ax by the tilt portion 131, that is, straightens the rotation axis Ax of the table 71 in the Z-axis direction. In this state, the measuring object Ma is rotated by one turn in the circumferential direction (the first turn in FIG. 32). Then, as shown in FIG. 32, in the shape measuring device 1, the amount of diffracted light incident on the imaging optical system 21 increases at a predetermined position in the rotation direction of the table 71. The shape measuring device 130 detects a predetermined position where the amount of diffracted light is increased by the position detection unit 73, and acquires the detected predetermined position. The measuring object Ma is not limited to an object having teeth formed at predetermined intervals in the circumferential direction, and may be any object whose shape is to be measured.
この後、形状測定装置130は、測定対象物Maを円周方向にさらに一周分回転させて、測定対象物Maの形状を測定する(図32の二周目)。このとき、形状測定装置130は、取得したテーブル71の回転方向における所定の位置において、傾斜部131による回転軸Axの傾斜を実行する。すると、形状測定装置130は、テーブル71を傾斜させることで、測定対象物Mの任意の測定範囲の向きを変える。これにより、形状測定装置130は、光学プローブ3から投光されるライン状の投影光Lの長手方向とひき目の長手方向とが揃った状態でひき目と投影光Lとが重ならないようにし、結像光学系21に入射する回折光の光量を低減させる。
After that, the shape measuring device 130 rotates the measuring object Ma further by one rotation in the circumferential direction, and measures the shape of the measuring object Ma (second round in FIG. 32). At this time, the shape measuring device 130 executes the tilt of the rotation axis Ax by the tilt portion 131 at a predetermined position in the rotation direction of the acquired table 71. Then, the shape measuring device 130 changes the direction of an arbitrary measurement range of the measurement target M by tilting the table 71. Accordingly, the shape measuring apparatus 130 prevents the fold and the projection light L from overlapping each other when the longitudinal direction of the linear projection light L projected from the optical probe 3 and the longitudinal direction of the fold are aligned. In addition, the amount of diffracted light incident on the imaging optical system 21 is reduced.
以上のように、第6実施形態によれば、ひき目と投影光とが重なることによる測定対象物Mの形状測定の精度低下を抑制することができる。
As described above, according to the sixth embodiment, it is possible to suppress a decrease in the accuracy of the shape measurement of the measurement target M due to the overlap of the fold and the projection light.
上記した実施形態の形状測定装置1(101,110,130)は、1台の装置で処理を行ったが複数組み合わせてもよい。図33は、形状測定装置を有するシステムの構成を示す模式図である。次に、図33を用いて、形状測定装置を有する形状測定システム300について説明する。形状測定システム300は、形状測定装置1と、複数台(図では2台)の形状測定装置1aと、プログラム作成装置302とを、有する。形状測定装置1、1a、プログラム作成装置302は、有線または無線の通信回線で接続されている。形状測定装置1aは、第1実施形態の結像光学系21のガルバノスキャナ82を備えていない以外は、形状測定装置1と同様の構成である。プログラム作成装置302は、上述した形状測定装置1の制御装置4で作成する種々の設定やプログラムを作成する。具体的には、プログラム作成装置302は、測定範囲の情報や、測定範囲の情報を含む形状測定プログラム等を作成する。プログラム作成装置302は、作成したプログラムや、データを形状測定装置1、1aに出力する。形状測定装置1aは、領域の情報や形状測定プログラムを形状測定装置1や、プログラム作成装置302から取得し、取得したデータ、プログラムを用いて、処理を行う。形状測定システム300は、測定プログラムを形状測定装置1や、プログラム作成装置302で作成したデータ、プログラムを用いて、形状測定装置1aで測定を実行することで、作成したデータ、プログラムを有効活用することができる。
The shape measuring apparatus 1 (101, 110, 130) of the above-described embodiment performs processing by one apparatus, but a plurality of shapes may be combined. FIG. 33 is a schematic diagram showing a configuration of a system having a shape measuring device. Next, a shape measuring system 300 having a shape measuring device will be described with reference to FIG. The shape measuring system 300 includes a shape measuring device 1, a plurality of (two in the figure) shape measuring devices 1a, and a program creating device 302. The shape measuring devices 1 and 1a and the program creating device 302 are connected by a wired or wireless communication line. The shape measuring device 1a has the same configuration as the shape measuring device 1 except that the shape measuring device 1a does not include the galvano scanner 82 of the imaging optical system 21 of the first embodiment. The program creating device 302 creates various settings and programs created by the control device 4 of the shape measuring device 1 described above. Specifically, the program creation device 302 creates information on the measurement range, a shape measurement program including the information on the measurement range, and the like. The program creating device 302 outputs the created program and data to the shape measuring devices 1 and 1a. The shape measuring device 1a acquires area information and a shape measuring program from the shape measuring device 1 and the program creating device 302, and performs processing using the acquired data and program. The shape measurement system 300 uses the data and programs created by the shape measurement device 1 and the program creation device 302 to execute measurement with the shape measurement device 1a, thereby effectively utilizing the created data and programs. be able to.
次に、上述した形状測定装置を備えた構造物製造システムについて、図34を参照して説明する。図34は、構造物製造システムのブロック構成図である。本実施形態の構造物製造システム200は、上記の実施形態において説明したような形状測定装置201(1,101,110,130)と、設計装置202と、成形装置203と、制御装置(検査装置)204と、リペア装置205とを備える。制御装置204は、座標記憶部210及び検査部211を備える。
Next, a structure manufacturing system including the above-described shape measuring device will be described with reference to FIG. FIG. 34 is a block diagram of the structure manufacturing system. The structure manufacturing system 200 of the present embodiment includes a shape measuring device 201 (1, 101, 110, 130), a design device 202, a molding device 203, and a control device (inspection device) as described in the above embodiment. ) 204 and a repair device 205. The control device 204 includes a coordinate storage unit 210 and an inspection unit 211.
設計装置202は、構造物の形状に関する設計情報を作成し、作成した設計情報を成形装置203に送信する。また、設計装置202は、作成した設計情報を制御装置204の座標記憶部210に記憶させる。設計情報は、構造物の各位置の座標を示す情報を含む。
The design device 202 creates design information on the shape of the structure, and transmits the created design information to the molding device 203. The design device 202 stores the created design information in the coordinate storage unit 210 of the control device 204. The design information includes information indicating the coordinates of each position of the structure.
成形装置203は、設計装置202から入力された設計情報に基づいて、上記の構造物を作成する。成形装置203の成形は、例えば鋳造、鍛造、切削等が含まれる。形状測定装置201は、作成された構造物(測定対象物M)の座標を測定し、測定した座標を示す情報(形状情報)を制御装置204へ送信する。
The molding device 203 creates the above-mentioned structure based on the design information input from the design device 202. The molding by the molding device 203 includes, for example, casting, forging, cutting, and the like. The shape measuring device 201 measures the coordinates of the created structure (measurement target M), and transmits information (shape information) indicating the measured coordinates to the control device 204.
制御装置204の座標記憶部210は、設計情報を記憶する。制御装置204の検査部211は、座標記憶部210から設計情報を読み出す。検査部211は、形状測定装置201から受信した座標を示す情報(形状情報)と、座標記憶部210から読み出した設計情報とを比較する。検査部211は、比較結果に基づき、構造物が設計情報通りに成形されたか否かを判定する。換言すれば、検査部211は、作成された構造物が良品であるか否かを判定する。検査部211は、構造物が設計情報通りに成形されていない場合に、構造物が修復可能であるか否か判定する。検査部211は、構造物が修復できる場合、比較結果に基づいて不良部位と修復量を算出し、リペア装置205に不良部位を示す情報と修復量を示す情報とを送信する。
The coordinate storage unit 210 of the control device 204 stores design information. The inspection unit 211 of the control device 204 reads out the design information from the coordinate storage unit 210. The inspection unit 211 compares the information (shape information) indicating the coordinates received from the shape measuring device 201 with the design information read from the coordinate storage unit 210. The inspection unit 211 determines whether or not the structure has been formed according to the design information based on the comparison result. In other words, the inspection unit 211 determines whether or not the created structure is non-defective. The inspection unit 211 determines whether the structure can be repaired when the structure is not formed according to the design information. When the structure can be repaired, the inspection unit 211 calculates a defective portion and a repair amount based on the comparison result, and transmits information indicating the defective portion and information indicating the repair amount to the repair device 205.
リペア装置205は、制御装置204から受信した不良部位を示す情報と修復量を示す情報とに基づき、構造物の不良部位を加工する。
The repair device 205 processes the defective portion of the structure based on the information indicating the defective portion and the information indicating the repair amount received from the control device 204.
図35は、構造物製造システムによる処理の流れを示したフローチャートである。構造物製造システム200は、まず、設計装置202が構造物の形状に関する設計情報を作成する(ステップS301)。次に、成形装置203は、設計情報に基づいて上記構造物を作成する(ステップS302)。次に、形状測定装置201は、作成された上記構造物の形状を測定する(ステップS303)。次に、制御装置204の検査部211は、形状測定装置201で得られた形状情報と上記の設計情報とを比較することにより、構造物が設計情報通りに作成されたか否か検査する(ステップS304)。
FIG. 35 is a flowchart showing the flow of processing by the structure manufacturing system. In the structure manufacturing system 200, first, the design device 202 creates design information on the shape of the structure (step S301). Next, the molding device 203 creates the structure based on the design information (Step S302). Next, the shape measuring device 201 measures the shape of the created structure (step S303). Next, the inspection unit 211 of the control device 204 compares the shape information obtained by the shape measurement device 201 with the above-mentioned design information to check whether or not the structure has been created according to the design information (step). S304).
次に、制御装置204の検査部211は、作成された構造物が良品であるか否かを判定する(ステップS305)。構造物製造システム200は、作成された構造物が良品であると検査部211が判定した場合(ステップS305でYes)、その処理を終了する。また、検査部211は、作成された構造物が良品でないと判定した場合(ステップS305でNo)、作成された構造物が修復できるか否か判定する(ステップS306)。
Next, the inspection unit 211 of the control device 204 determines whether the created structure is non-defective (step S305). When the inspection unit 211 determines that the created structure is non-defective (Yes in step S305), the structure manufacturing system 200 ends the processing. When the inspection unit 211 determines that the created structure is not a non-defective product (No in step S305), the inspection unit 211 determines whether the created structure can be repaired (step S306).
構造物製造システム200は、作成された構造物が修復できると検査部211が判定した場合(ステップS306でYes)、リペア装置205が構造物の再加工を実施し(ステップS307)、ステップS303の処理に戻る。構造物製造システム200は、作成された構造物が修復できないと検査部211が判定した場合(ステップS306でNo)、その処理を終了する。以上で、構造物製造システム200は、図36に示すフローチャートの処理を終了する。
In the structure manufacturing system 200, when the inspection unit 211 determines that the created structure can be repaired (Yes in Step S306), the repair device 205 performs the rework of the structure (Step S307), and proceeds to Step S303. Return to processing. When the inspection unit 211 determines that the created structure cannot be repaired (No in step S306), the structure manufacturing system 200 ends the processing. Thus, the structure manufacturing system 200 ends the processing of the flowchart illustrated in FIG.
本実施形態の構造物製造システム200は、上記の実施形態における形状測定装置201が構造物の座標を高精度に測定することができるので、作成された構造物が良品であるか否か判定することができる。また、構造物製造システム200は、構造物が良品でない場合、構造物の再加工を実施し、修復することができる。
In the structure manufacturing system 200 of the present embodiment, since the shape measuring device 201 in the above embodiment can measure the coordinates of the structure with high accuracy, it is determined whether or not the created structure is good. be able to. In addition, when the structure is not good, the structure manufacturing system 200 can perform rework of the structure and repair it.
なお、本実施形態におけるリペア装置205が実行するリペア工程は、成形装置203が成形工程を再実行する工程に置き換えられてもよい。その際には、制御装置204の検査部211が修復できると判定した場合、成形装置203は、成形工程(鍛造、切削等)を再実行する。具体的には、例えば、成形装置203は、構造物において本来切削されるべき箇所であって切削されていない箇所を切削する。これにより、構造物製造システム200は、構造物を正確に作成することができる。
Note that the repairing process performed by the repairing device 205 in the present embodiment may be replaced by a process in which the molding device 203 re-executes the molding process. At this time, when the inspection unit 211 of the control device 204 determines that the repair can be performed, the molding device 203 re-executes the molding process (forging, cutting, and the like). Specifically, for example, the molding device 203 cuts a portion of the structure that is to be cut originally and is not cut. Thus, the structure manufacturing system 200 can accurately create the structure.
以上、添付図面を参照しながら本実施形態について説明したが、上述した例において示した各構成部材の諸形状や組み合わせ等は一例であって、本実施形態の主旨から逸脱しない範囲において設計要求等に基づき種々変更可能である。
As described above, the present embodiment has been described with reference to the accompanying drawings. However, the shapes, combinations, and the like of the respective constituent members shown in the above-described examples are merely examples, and the design requirements and the like are not deviated from the spirit of the present embodiment. Various changes can be made on the basis of.
例えば、上記実施形態における形状測定装置1は、保持部材55が片持ちで光学プローブ3を保持する構成を例示したが、これに限定されるものではなく、両持ちで保持する構成としてもよい。両持ちで保持することにより、回転時に保持部材55に生じ変形を低減することができ、測定精度の向上を図ることが可能になる。
For example, although the configuration in which the holding member 55 holds the optical probe 3 in a cantilever manner is illustrated in the shape measuring apparatus 1 in the above embodiment, the configuration is not limited to this, and a configuration in which the holding member 55 holds the optical probe 3 in a double-sided manner may be used. By holding it with both ends, deformation occurring in the holding member 55 during rotation can be reduced, and measurement accuracy can be improved.
また、上述実施形態では光学プローブ3からライン状の投影光Lを投影し、投影光Lが投影された測定対象物Mの像を撮像しているが、光学プローブ3の形式はこれに限られない。光学プローブ3から発せられる投影光は、所定の面内に一括で投影する形式でも構わない。例えば、米国特許6075605号に記載さる方式でも構わない。光学プローブ3から発せられる投影光は、点状のスポット光を投影する形式でも構わない。
Further, in the above-described embodiment, the linear projection light L is projected from the optical probe 3 and an image of the measurement target M onto which the projection light L is projected is captured, but the type of the optical probe 3 is not limited thereto. Absent. The projection light emitted from the optical probe 3 may be of a type that is projected onto a predetermined plane at a time. For example, the method described in US Pat. No. 6,075,605 may be used. The projection light emitted from the optical probe 3 may be in a form of projecting a spot-like spot light.
また、形状測定装置201は、上記実施形態のように、円周方向に繰り返し形状を有しかつ円周方向とは異なる方向に延在した凹凸形状を有する形状の測定対象物Mの測定に好適に用いることができる。形状測定装置201は、繰り返し形状の1つについて、測定領域を設定することで、設定した条件を他の繰り返し形状の測定に用いることができる。なお、測定対象物Mは、円周方向に繰り返し形状を有しかつ円周方向とは異なる方向に延在した凹凸形状を有する形状に限定されず、種々の形状、例えば、繰り返し形状を備えない形状であってもよい。
Further, the shape measuring device 201 is suitable for measuring the measurement target M having a shape that has a repetitive shape in the circumferential direction and has an uneven shape extending in a direction different from the circumferential direction, as in the above embodiment. Can be used. The shape measuring apparatus 201 can use the set conditions for the measurement of another repeated shape by setting a measurement region for one of the repeated shapes. The measuring object M is not limited to a shape having a repetitive shape in the circumferential direction and having an uneven shape extending in a direction different from the circumferential direction, and does not include various shapes, for example, a repetitive shape. It may be shaped.