JP6702343B2 - Shape measuring device, structure manufacturing system, and shape measuring method - Google Patents

Shape measuring device, structure manufacturing system, and shape measuring method Download PDF

Info

Publication number
JP6702343B2
JP6702343B2 JP2018019389A JP2018019389A JP6702343B2 JP 6702343 B2 JP6702343 B2 JP 6702343B2 JP 2018019389 A JP2018019389 A JP 2018019389A JP 2018019389 A JP2018019389 A JP 2018019389A JP 6702343 B2 JP6702343 B2 JP 6702343B2
Authority
JP
Japan
Prior art keywords
light
unit
optical system
image
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018019389A
Other languages
Japanese (ja)
Other versions
JP2018066767A (en
Inventor
山田 智明
智明 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018019389A priority Critical patent/JP6702343B2/en
Publication of JP2018066767A publication Critical patent/JP2018066767A/en
Application granted granted Critical
Publication of JP6702343B2 publication Critical patent/JP6702343B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、形状測定装置、構造物製造システム、及び形状測定方法に関する。 The present invention relates to a shape measuring device, a structure manufacturing system, and a shape measuring method.

測定対象の3次元形状を非接触で測定する方法として、光切断法が知られている(例えば、特許文献1参照)。光切断法では、測定対象に対して所定方向にライン光を照射し、ライン光の像である光切断線を測定対象の表面に形成する。このとき、ライン光のビームウェスト(最も厚さが小さくなる部分)を測定対象の表面に照射する。このライン光のビームウェストは、測定範囲と呼ばれている。光切断線は、測定対象の表面に沿った形状に形成される。 As a method of measuring a three-dimensional shape of a measurement object in a non-contact manner, a light section method is known (for example, refer to Patent Document 1). In the light cutting method, line light is applied to a measurement target in a predetermined direction, and a light cutting line that is an image of the line light is formed on the surface of the measurement target. At this time, the beam waist of the line light (the portion having the smallest thickness) is applied to the surface of the measurement target. The beam waist of this line light is called the measurement range. The light cutting line is formed in a shape along the surface of the measurement target.

一方、ライン光の照射方向とは異なる方向からこの光切断線を撮像する。そして、測定対象の表面に沿って光切断線を所定方向に走査させつつ光切断線を撮像していくことにより、測定対象の表面の形状に沿った画像データが得られる。この画像データから、測定対象の3次元形状を算出することができる。このような光切断法では、測定対象にライン光を照射して測定対象の表面に光切断線を形成する光照射部と、この光切断線を撮像する撮像部とを有するセンサユニットが用いられる。 On the other hand, the light cutting line is imaged from a direction different from the line light irradiation direction. Then, by imaging the light cutting line while scanning the light cutting line in a predetermined direction along the surface of the measurement target, image data along the shape of the surface of the measurement target is obtained. From this image data, the three-dimensional shape of the measurement object can be calculated. In such a light cutting method, a sensor unit having a light irradiation unit that irradiates a measurement target with line light to form a light cutting line on the surface of the measurement target and an imaging unit that images the light cutting line is used. ..

米国特許第6542249号明細書U.S. Pat. No. 6,542,249

しかしながら、従来の構成においては、光照射部の光源から照射されるライン光の測定範囲に測定対象を配置させる必要がある。従って、従来のように光切断線を単一の撮像部で撮像したのでは、測定範囲が広い場合に大きな撮像面を持つ必要があり、撮像部の小型化が難しいといった問題がある。さらに、測定対象が測定範囲を超えると、測定対象に鮮明なライン光が形成されない。光源から測定範囲までの距離を光学的作動距離と呼ぶが、従来の構成ではこの光学的作動距離が一定であるため、ライン光の照射方向に大きな変化を持つ測定対象については、検出精度が低下するといった課題がある。 However, in the conventional configuration, it is necessary to place the measurement target in the measurement range of the line light emitted from the light source of the light emitting unit. Therefore, if the optical cutting line is imaged by a single image pickup unit as in the conventional case, it is necessary to have a large image pickup surface when the measurement range is wide, and there is a problem that it is difficult to downsize the image pickup unit. Further, when the measurement target exceeds the measurement range, clear line light is not formed on the measurement target. The distance from the light source to the measurement range is called the optical working distance.In the conventional configuration, this optical working distance is constant, so the detection accuracy is reduced for the measurement target that has a large change in the irradiation direction of the line light. There is a problem such as doing.

以上のような事情に鑑み、本発明では、精度よく3次元形状を測定可能な形状測定装置、構造物製造システム、及び形状測定方法を提供することを目的とする。 In view of the above circumstances, it is an object of the present invention to provide a shape measuring device, a structure manufacturing system, and a shape measuring method capable of accurately measuring a three-dimensional shape.

本発明の態様によれば、被検物の表面の形状を測定するための形状測定装置であって、被検物の表面に、第1のビームウェストを有する第1ライン光を投影方向に沿って投影する第1測定光学系と、被検物の表面に、第2のビームウェストを有する第2ライン光を投影方向に沿って第1ライン光と同じ光軸を通って投影する第2測定光学系と、第1測定光学系と第2測定光学系により投影されるライン光の像を撮像する撮像部と、撮像部で撮像する像に基づいて被検物の表面の形状を算出する制御部と、を備え、第1のビームウェストと第2のビームウェストとは、光軸上での位置が異なり、撮像部において、第1測定光学系からの第1ライン光の像を撮像する領域と、第2測定光学系からの第2ライン光の像を撮像する領域とは異なる、形状測定装置が提供される。本発明の態様によれば、被検物の表面の形状を測定するための形状測定装置であって、被検物の表面にライン光を投影方向に沿って投影する、第1測定光学系と、被検物の表面にライン光を投影方向の第1測定光学系とは異なる領域にライン光を投影する、第2測定光学系と、第1測定光学系と第2測定光学系により投影されるライン光の像を撮像する撮像部と、撮像部で撮像する像に基づいて被検物の表面の形状を算出する制御部と、を備える、形状測定装置が提供される。 According to an aspect of the present invention, there is provided a shape measuring device for measuring a shape of a surface of an object to be inspected, the first line light having a first beam waist is projected on the surface of the object to be inspected along a projection direction. a first measuring optical system you projection Te, the surface of the test object, the second line light having a second beam waist, that to project through the same optical axis as the first line of light along a projection direction A second measurement optical system, an imaging unit that captures an image of the line light projected by the first measurement optical system and the second measurement optical system, and a surface shape of the test object based on the image captured by the imaging unit. The first beam waist and the second beam waist have different positions on the optical axis, and an image of the first line light from the first measurement optical system is displayed in the imaging unit. Provided is a shape measuring device in which an area to be imaged is different from an area to be imaged of the second line light from the second measurement optical system. According to an aspect of the present invention, there is provided a shape measuring device for measuring a shape of a surface of an object to be inspected, the first measuring optical system projecting line light onto the surface of the object to be inspected along a projection direction. , Projecting the line light on the surface of the object to be measured in a region different from the first measurement optical system in the projection direction by the second measurement optical system and the first measurement optical system and the second measurement optical system. There is provided a shape measuring device including an image pickup unit that picks up an image of line light that is generated, and a control unit that calculates the shape of the surface of an object based on the image picked up by the image pickup unit.

本発明の態様によれば、構造物の形状に関する設計情報を作製する設計装置と、設計情報に基づいて構造物を作製する成形装置と、作製された構造物の形状を測定する本発明の態様による形状測定装置と、形状測定装置によって得られた構造物の形状に関する形状情報と設計情報とを比較する検査装置と、を含む、構造物製造システムが提供される。 According to an aspect of the present invention, a design apparatus for producing design information regarding the shape of a structure, a molding apparatus for producing a structure based on the design information, and an aspect of the present invention for measuring the shape of the produced structure There is provided a structure manufacturing system including the shape measuring device according to 1. and an inspection device for comparing shape information and design information regarding the shape of the structure obtained by the shape measuring device.

本発明の態様によれば、被検物の表面の形状を測定する方法であって、被検物の表面に、第1測定光学系からの第1ライン光を投影方向に沿って投影することと、被検物の表面に、第2測定光学系からの第2ライン光を投影方向に沿って第1ライン光と同じ光軸を通って投影することと、第1測定光学系と第2測定光学系により投影されるライン光の像を撮像することと、撮像された像に基づいて、前記被検物の表面の形状を算出することと、を含み、第1ライン光の第1のビームウェストと、第2ライン光の第2のビームウェストとは、光軸上での位置が異なり、ライン光の像の撮像では、第1測定光学系からの第1ライン光の像を撮像する領域と、第2測定光学系からの第2ライン光の像を撮像する領域とが異なる、被検物の表面の形状を測定する方法が提供される。本発明の態様によれば、被検物の表面の形状を測定する方法であって、被検物の表面に、第1測定光学系からのライン光を投影方向に沿って投影することと、被検物の表面に、第2測定光学系からのライン光を投影方向に沿って、第1測定光学系とは異なる領域にライン光を投影することと、第1測定光学系と第2測定光学系により投影されるライン光の像を撮像することと、撮像された像に基づいて、被検物の表面の形状を算出することと、を含む、被検物の表面の形状を測定する方法が提供される。 According to an aspect of the present invention, there is provided a method for measuring the shape of a surface of an object to be inspected, which comprises projecting first line light from a first measurement optical system onto the surface of the object to be inspected along a projection direction. And projecting the second line light from the second measurement optical system on the surface of the object to be inspected along the projection direction through the same optical axis as the first line light, and the first measurement optical system and the first measurement optical system. (2) capturing an image of the line light projected by the measurement optical system, and calculating the shape of the surface of the test object based on the captured image . And the second beam waist of the second line light have different positions on the optical axis, and when capturing the image of the line light, the image of the first line light from the first measurement optical system is captured. There is provided a method for measuring the shape of the surface of a test object, in which the area to be measured is different from the area where the image of the second line light from the second measurement optical system is captured. According to an aspect of the present invention, there is provided a method for measuring the shape of the surface of a test object, which comprises projecting line light from the first measurement optical system along the projection direction onto the surface of the test object, Projecting the line light from the second measurement optical system on a surface of the object to be measured in a region different from that of the first measurement optical system along the projection direction, and the first measurement optical system and the second measurement. Measuring the shape of the surface of the test object, including capturing an image of the line light projected by the optical system and calculating the shape of the surface of the test object based on the captured image. A method is provided.

本発明の第1態様によれば、被検物の表面の形状を測定するためのセンサユニットであって、被検物の表面にライン光を投影する、投影光学系と、投影されるライン光の像を撮像する第1撮像部と、投影されるライン光の像を撮像する第2撮像部と、被検物で反射する光を第1撮像部と第2撮像部とに分割する分割部とを備え、第1、第2撮像部の撮像面と共役な面が異なり、共役な面でのライン光の像が撮像される、センサユニットが提供される。 According to the first aspect of the present invention, there is provided a sensor unit for measuring the shape of the surface of a test object, the projection optical system projecting line light onto the surface of the test object, and the projected line light. Image pickup unit for picking up the image of the line, a second image pickup unit for picking up the image of the projected line light, and a dividing unit for dividing the light reflected by the object into the first image pickup unit and the second image pickup unit. And a sensor unit that is different in the conjugate surface from the imaging surfaces of the first and second imaging units and that captures an image of the line light on the conjugate surface.

本発明の第2態様によれば、被検物の表面の形状を測定する、センサユニットであって、被検物の表面にライン光を、第1方向に投影する投影光学系と、投影されるライン光の像を撮像する撮像部と、第1方向での第1測定範囲と第2測定範囲とでライン光を変更する変更部と、を備えるセンサユニットが提供される。 According to the second aspect of the present invention, there is provided a sensor unit for measuring the shape of the surface of a test object, the projection optical system projecting line light on the surface of the test object in the first direction. There is provided a sensor unit that includes an imaging unit that captures an image of the line light of the line light, and a changing unit that changes the line light between the first measurement range and the second measurement range in the first direction.

本発明の第3態様によれば、本発明の第1態様によるセンサユニットと、センサユニットと測定対象とを相対的に移動させる走査系と、を有し、センサユニットからの画像情報と走査系の走査情報とに基づいて、測定対象の形状を算出する演算部と、を備える形状測定装置が提供される。 According to a third aspect of the present invention, it has a sensor unit according to the first aspect of the present invention and a scanning system for relatively moving the sensor unit and a measurement object, and image information from the sensor unit and the scanning system. There is provided a shape measuring device including: a calculation unit that calculates the shape of the measurement target based on the scanning information of 1.

本発明の第4態様によれば、構造物の形状に関する設計情報を作製する設計装置と、設計情報に基づいて構造物を作製する成形装置と、作製された構造物の形状を測定する本発明の第3態様による形状測定装置と、形状測定装置によって得られた構造物の形状に関する形状情報と設計情報とを比較する検査装置と、を含む構造物製造システムが提供される。 According to a fourth aspect of the present invention, a designing device for producing design information regarding the shape of a structure, a molding device for producing a structure based on the design information, and a present invention for measuring the shape of the produced structure There is provided a structure manufacturing system including the shape measuring device according to the third aspect of the present invention, and an inspection device for comparing shape information and design information regarding the shape of the structure obtained by the shape measuring device.

本発明の態様によれば、精度よく3次元形状を測定することができる。 According to the aspects of the present invention, it is possible to accurately measure a three-dimensional shape.

第1実施形態に係るセンサユニットの一例を示す図である。It is a figure which shows an example of the sensor unit which concerns on 1st Embodiment. センサユニットの動作の一例を示す図である。It is a figure which shows an example of operation|movement of a sensor unit. センサユニットの他の一例を示す図である。It is a figure which shows another example of a sensor unit. 第1変形例に係るセンサユニットの一例を示す図である。It is a figure which shows an example of the sensor unit which concerns on a 1st modification. 第2実施形態に係るセンサユニットの一例を示す図である。It is a figure which shows an example of the sensor unit which concerns on 2nd Embodiment. 第3変形例に係るセンサユニットの一例を示す図である。It is a figure which shows an example of the sensor unit which concerns on a 3rd modification. 第4変形例に係るセンサユニットの一例を示す図である。It is a figure which shows an example of the sensor unit which concerns on a 4th modification. 第5変形例に係るセンサユニットの一例を示す図である。It is a figure which shows an example of the sensor unit which concerns on a 5th modification. 形状測定装置の実施形態の一例を示す図である。It is a figure showing an example of an embodiment of a shape measuring device. 形状測定方法の一例を説明するフローチャートである。It is a flow chart explaining an example of a shape measuring method. 構造物製造システムの実施形態の一例を示すブロック図である。It is a block diagram showing an example of an embodiment of a structure manufacturing system. 構造物製造方法の実施形態の一例を示すフローチャートである。It is a flow chart which shows an example of an embodiment of a structure manufacturing method.

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現している。以下の説明においては、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。Z軸方向は、例えば鉛直方向に設定され、X軸方向及びY軸方向は、例えば、水平方向に平行で互いに直交する方向に設定される。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to this. Further, in the drawings, in order to explain the embodiment, a part of the drawing is enlarged or emphasized, and the scale is appropriately changed. In the following description, an XYZ rectangular coordinate system is set, and the positional relationship of each part will be described with reference to this XYZ rectangular coordinate system. The Z-axis direction is set to, for example, the vertical direction, and the X-axis direction and the Y-axis direction are set to, for example, directions parallel to the horizontal direction and orthogonal to each other. Further, rotation (tilt) directions around the X axis, the Y axis, and the Z axis are defined as θX, θY, and θZ directions, respectively.

<第1実施形態>
図1は、第1実施形態に係るセンサユニットの一例を示す図である。センサユニット100は、光切断法によって測定対象(被検物)Mの3次元形状を求める。この場合において、センサユニット100は、ライン光Lを照射して測定対象M上に光切断線を形成させ、その光切断線を撮像して画像データを取得する装置である。なお、センサユニット100によって得られた画像データを用いて所定の演算を別途行うことにより、測定対象Mの3次元形状を算出することができる。
<First Embodiment>
FIG. 1 is a diagram showing an example of a sensor unit according to the first embodiment. The sensor unit 100 obtains the three-dimensional shape of the measurement target (inspection object) M by the light section method. In this case, the sensor unit 100 is a device that irradiates the line light L to form a light cutting line on the measurement target M, images the light cutting line, and acquires image data. The three-dimensional shape of the measurement target M can be calculated by separately performing a predetermined calculation using the image data obtained by the sensor unit 100.

センサユニット100は、図1に示すように、光照射部10と、撮像光学系20と、第1撮像部30と、第2撮像部40と、制御部CONTとを備えている。これら光照射部10、撮像光学系20、第1撮像部30及び第2撮像部40は、互いの位置関係が変化しないように、不図示の筐体などに固定されて配置されている。 As shown in FIG. 1, the sensor unit 100 includes a light irradiation unit 10, an image pickup optical system 20, a first image pickup unit 30, a second image pickup unit 40, and a control unit CONT. The light irradiation unit 10, the image pickup optical system 20, the first image pickup unit 30, and the second image pickup unit 40 are fixedly arranged in a casing or the like (not shown) so that their positional relationships do not change.

光照射部10は、測定対象Mに対して第1方向D1(例えばZ方向)に離れた位置に配置されている。光照射部10は、測定対象Mの表面にライン光Lを投影する投影光学系の一例である。測定対象Mは、平坦な平面である載置面Fに載置されている。測定対象Mは、載置面Fに治具等を介して固定されてもよい。載置面FはXY面と平行な面に設定されている。第1方向D1は、この載置面Fに交差する方向である。光照射部10は、測定対象Mに対してライン光Lを照射する。ライン光Lは、第1方向D1と交差する測定対象M上の第2方向D2(例えばX方向)に沿うようなライン状の光である。このライン光Lには、第1方向D1において、後述する第1測定範囲L1及び第2測定範囲L2が設定されている。 The light irradiation unit 10 is arranged at a position away from the measurement target M in the first direction D1 (for example, the Z direction). The light irradiation unit 10 is an example of a projection optical system that projects the line light L onto the surface of the measurement target M. The measuring object M is placed on the placing surface F which is a flat plane. The measurement target M may be fixed to the mounting surface F via a jig or the like. The mounting surface F is set to be a surface parallel to the XY plane. The first direction D1 is a direction intersecting with the mounting surface F. The light irradiation unit 10 irradiates the measuring object M with the line light L. The line light L is a line-like light along a second direction D2 (for example, the X direction) on the measurement target M that intersects the first direction D1. A first measurement range L1 and a second measurement range L2, which will be described later, are set for the line light L in the first direction D1.

測定対象Mに照射されたライン光Lにより、測定対象Mの表面上には光切断線(ライン状のパターン)PCLが形成される。光切断線PCLは、測定対象Mの表面上に形成されるライン光Lの投影像である。光切断線PCLは、測定対象Mの表面の凹凸形状に応じて形成される。従って、第1方向D1に段差がある場合は、その段差に対応して光切断線PCLが形成される。 The line light L with which the measurement target M is irradiated forms an optical cutting line (line-shaped pattern) PCL on the surface of the measurement target M. The light cutting line PCL is a projection image of the line light L formed on the surface of the measurement target M. The light cutting line PCL is formed according to the uneven shape of the surface of the measurement target M. Therefore, when there is a step in the first direction D1, the optical cutting line PCL is formed corresponding to the step.

撮像光学系20は、測定対象M上に形成される光切断線PCLの像を取り込む。撮像光学系20は、光軸AXを有している。光軸AXの軸線方向(光軸方向)は、第1方向D1とは異なっている。撮像光学系20は、単一の光学素子が用いられることに限定されず、複数個の屈折系または反射系の光学素子が組み合わされて構成される。また、これら光学素子の一部または全部は、光軸AXまたは光軸AXに対して直交する方向に移動可能に形成されてもよい。 The imaging optical system 20 captures an image of the light section line PCL formed on the measurement target M. The imaging optical system 20 has an optical axis AX. The axial direction of the optical axis AX (optical axis direction) is different from the first direction D1. The imaging optical system 20 is not limited to the use of a single optical element, and is configured by combining a plurality of refractive or reflective optical elements. Further, some or all of these optical elements may be formed so as to be movable in the optical axis AX or in a direction orthogonal to the optical axis AX.

第1撮像部30及び第2撮像部40は、撮像光学系20を介してライン光Lの光切断線PCLをそれぞれ撮像する。第1撮像部30は、ライン光Lのうち第1測定範囲L1において形成される光切断線PCLを撮像する。第2撮像部40は、ライン光Lのうち第2測定範囲L2において形成される光切断線PCLを撮像する。第1撮像部30及び第2撮像部40は各撮像面と共役な面が異なり、共役な面でのライン光Lの像が撮像される。測定対象Mで反射する光は第1撮像部30と第2撮像部40とに分割される。第1測定範囲L1と第2測定範囲L2とは、図1に示すように、第1方向D1に接続された状態で設定される。第1撮像部30及び第2撮像部40は、図1のように、離れて配置されることに限定されず、互いに接触させて配置されてもよい。 The first imaging unit 30 and the second imaging unit 40 respectively image the optical cutting line PCL of the line light L via the imaging optical system 20. The first image capturing section 30 captures an image of the light cutting line PCL formed in the first measurement range L1 of the line light L. The second image capturing section 40 captures an image of the light cutting line PCL formed in the second measurement range L2 of the line light L. The first image capturing section 30 and the second image capturing section 40 are different from each other in their conjugate planes, and the image of the line light L is captured on the conjugate planes. The light reflected by the measurement target M is split into the first image capturing unit 30 and the second image capturing unit 40. As shown in FIG. 1, the first measurement range L1 and the second measurement range L2 are set in a state of being connected in the first direction D1. The first image capturing unit 30 and the second image capturing unit 40 are not limited to be arranged separately as illustrated in FIG. 1, and may be arranged in contact with each other.

第1撮像部30及び第2撮像部40は、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの固体撮像素子を備えている。第1撮像部30及び第2撮像部40によって撮像された光切断線PCLは、ライン光Lの画像データとして取得され、電気信号に変換されて制御部CONTに送信されるようになっている。第1撮像部30及び第2撮像部40は、それぞれ制御部CONTによって制御される。また、第1撮像部30及び第2撮像部40は、同一タイプの固体撮像素子が用いられるが、これに代えて異なるタイプの固体撮像素子が用いられてもよい。また、第1撮像部30及び第2撮像部40は、同一の大きさの受光面を持つものが用いられてもよく、また、異なる大きさの受光面を持つものが用いられてもよい。 The first imaging unit 30 and the second imaging unit 40 include solid-state imaging devices such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. The optical cutting line PCL imaged by the first imaging unit 30 and the second imaging unit 40 is acquired as image data of the line light L, converted into an electric signal, and transmitted to the control unit CONT. The first imaging unit 30 and the second imaging unit 40 are controlled by the control unit CONT. Further, although the first image pickup unit 30 and the second image pickup unit 40 use the same type of solid-state image pickup device, different types of solid-state image pickup devices may be used instead. Further, as the first image capturing unit 30 and the second image capturing unit 40, those having the light receiving surfaces of the same size may be used, or those having the light receiving surfaces of different sizes may be used.

制御部CONTは、光照射部10、第1撮像部30及び第2撮像部40の動作を統括的に制御する。制御部CONTは、例えば、CPU(Central Processing Unit)やメモリを含んで構成される。制御部CONTは、第1撮像部30及び第2撮像部40から送信される撮像データを受信し、この撮像データをメモリ等に記憶させる。また、制御部CONTは、メモリ等の記憶された撮像データに基づいて3次元形状を算出する演算部を備えてもよい。また、制御部CONTは、撮像データを他の外部装置に送信するための送受信部を備えてもよい。 The control unit CONT comprehensively controls the operations of the light irradiation unit 10, the first imaging unit 30, and the second imaging unit 40. The control unit CONT includes, for example, a CPU (Central Processing Unit) and a memory. The control unit CONT receives the image pickup data transmitted from the first image pickup unit 30 and the second image pickup unit 40, and stores the image pickup data in a memory or the like. In addition, the control unit CONT may include a calculation unit that calculates a three-dimensional shape based on the stored imaging data such as a memory. Further, the control unit CONT may include a transmission/reception unit for transmitting the imaging data to another external device.

このようなセンサユニット100は、光照射部10、撮像光学系20、第1撮像部30及び第2撮像部40の位置関係を変化させることなく、ライン光Lを第3方向D3(例えばY方向)に走査させることが可能となっている。この第3方向D3は、ライン光Lの第2方向D2に交差する方向である。ライン光Lを走査させる構成としては、不図示の駆動部によってセンサユニット100もしくは測定対象MをY方向に平行移動させる構成であってもよいし、不図示の回転駆動部によってセンサユニット100をθX方向に回転させる構成であってもよい。 In such a sensor unit 100, the line light L is supplied to the third direction D3 (for example, the Y direction) without changing the positional relationship between the light irradiation unit 10, the imaging optical system 20, the first imaging unit 30, and the second imaging unit 40. ) Can be scanned. The third direction D3 is a direction that intersects the second direction D2 of the line light L. The structure for scanning the line light L may be a structure in which the sensor unit 100 or the measurement target M is translated in the Y direction by a driving unit (not shown), or the sensor unit 100 is θX by a rotation driving unit (not shown). It may be configured to rotate in the direction.

ライン光Lを第3方向D3に走査することにより、光切断線PCLが測定対象Mの表面をY方向に移動する。このY方向に移動する光切断線PCLを、所定の時間間隔または連続した動画として第1撮像部30及び第2撮像部40によって撮像することにより、測定対象Mのうち光切断線PCLが移動した経路上の画像データが得られる。Y方向への光切断線PCLの移動は、例えばセンサユニット10のY方向への走査情報として制御部CONTに送信される。走査情報としては、センサユニット10または測定対象M(載置面F)の所定時間ごとの位置データや、センサユニット10の時間ごとのθX周りの角度データ等が用いられる。 By scanning the line light L in the third direction D3, the light cutting line PCL moves on the surface of the measurement target M in the Y direction. The optical cutting line PCL that moves in the Y direction is imaged by the first imaging unit 30 and the second imaging unit 40 as a moving image at a predetermined time interval or as a continuous moving image, so that the optical cutting line PCL of the measurement target M moves. Image data on the route is obtained. Movement of the optical cutting line PCL in the Y direction is transmitted to the control unit CONT for example as a scanning information in the Y direction of the sensor unit 10 0. The scanning information, and position data for each predetermined time of the sensor unit 10 0 or measured M (mounting surface F), the angle data, and the like around θX per sensor unit 10 0 of time is used.

図2は、段差を有する測定対象M0に対して光切断線を形成し、この光切断線の像を取得する様子を模式的に示す図である。図2(a)に示すように、測定対象M0の+Z側には、第1面M1と第2面M2とが形成されている。第1面M1と第2面M2との間には、段差M3が形成されている。段差M3は、ライン光Lの第1測定範囲L1と第2測定範囲L2とを跨ぐように形成されている。 FIG. 2 is a diagram schematically showing how a light cutting line is formed on a measurement target M0 having a step and an image of this light cutting line is acquired. As shown in FIG. 2A, a first surface M1 and a second surface M2 are formed on the +Z side of the measurement target M0. A step M3 is formed between the first surface M1 and the second surface M2. The step M3 is formed so as to straddle the first measurement range L1 and the second measurement range L2 of the line light L.

光照射部10は、プローブ11と、光源12と、照明光学系13とを有している。プローブ11は、例えば円筒状に形成されており、内部に光源12及び照明光学系13を収容している。光源12は、例えば単一波長または複数の波長のレーザ光を射出するレーザダイオードを有している。光源12は、−Z方向にレーザ光を射出する。照明光学系13は、光源12からのレーザ光を、ライン光Lに成形して−Z方向に射出する。ライン光Lは、XZ平面に平行な平面S1に沿って形成される。 The light irradiation unit 10 includes a probe 11, a light source 12, and an illumination optical system 13. The probe 11 is formed, for example, in a cylindrical shape, and houses the light source 12 and the illumination optical system 13 inside. The light source 12 has a laser diode that emits laser light having a single wavelength or a plurality of wavelengths, for example. The light source 12 emits laser light in the −Z direction. The illumination optical system 13 shapes the laser light from the light source 12 into the line light L and emits it in the −Z direction. The line light L is formed along a plane S1 parallel to the XZ plane.

照明光学系13から射出されたライン光Lは、−Z方向へ向けて厚さt(Y方向の寸法)が徐々に縮小されていく。このようなライン光Lのうち厚さが最も小さくなる部分(ビームウェスト)が測定範囲として利用される。本実施形態では、このビームウェストに第1測定範囲L1及び第2測定範囲L2が設定される。ライン光LのうちZ方向の一定範囲にビームウェストが形成されており、第1測定範囲L1は、このビームウェストの−Z側半分の範囲に設定されている。第2測定範囲L2は、ビームウェストの+Z側半分の範囲に設定されている。したがって、第1測定範囲L1と第2測定範囲L2とは、第1方向D1において異なる測定範囲として設定される。第1測定範囲L1と第2測定範囲L2との間は、連続していてもよいし、離れていてもよい。図2(a)に示すように、第1測定範囲L1において、ライン光Lの光切断線PCL1は、第1方向D1を含む平面S1上に形成される。また、第1測定範囲L1と第2測定範囲L2の一部が重なって設定されても構わない。第1測定範囲L1と第2測定範囲L2との重なった領域でライン光Lが検出される場合には、どちらか一方の結果を用いることができる。また、第1測定範囲L1と第2測定範囲L2との重なった領域でライン光Lが検出される場合には、両方の結果を用いることができる。この場合には、両方の結果から、平均した結果を用いても構わない。なお、第1測定範囲L1と第2測定範囲L2との、Z方向と平行の範囲が異なっていても構わない。 The line light L emitted from the illumination optical system 13 has a thickness t (dimension in the Y direction) gradually reduced in the −Z direction. A portion (beam waist) of the line light L having the smallest thickness is used as a measurement range. In the present embodiment, the first measurement range L1 and the second measurement range L2 are set in this beam waist. A beam waist is formed in a certain range of the line light L in the Z direction, and the first measurement range L1 is set to a range on the −Z side half of the beam waist. The second measurement range L2 is set in the +Z side half range of the beam waist. Therefore, the first measurement range L1 and the second measurement range L2 are set as different measurement ranges in the first direction D1. The first measurement range L1 and the second measurement range L2 may be continuous or separated from each other. As shown in FIG. 2A, in the first measurement range L1, the light cutting line PCL1 of the line light L is formed on the plane S1 including the first direction D1. Further, the first measurement range L1 and the second measurement range L2 may be set so as to partially overlap each other. When the line light L is detected in the area where the first measurement range L1 and the second measurement range L2 overlap, either one of the results can be used. Further, when the line light L is detected in the area where the first measurement range L1 and the second measurement range L2 overlap, both results can be used. In this case, an averaged result may be used from both results. The first measurement range L1 and the second measurement range L2 may be different from each other in the range parallel to the Z direction.

撮像光学系20としては、上記したように一又は複数のレンズを有している。図2では、図を判別しやすくするため、一枚のレンズとして示している。撮像光学系20は、主面S2を有している。この主面S2は、撮像光学系20が複数のレンズを有する場合には、複数のレンズを一枚のレンズとした場合の主面に相当する。 The imaging optical system 20 has one or a plurality of lenses as described above. In FIG. 2, the lens is shown as a single lens in order to make it easy to distinguish the figure. The imaging optical system 20 has a main surface S2. When the imaging optical system 20 has a plurality of lenses, the main surface S2 corresponds to the main surface when the plurality of lenses are one lens.

第1撮像部30は、受光面30aを有している。第2撮像部40は、受光面40aを有している。第1撮像部30の受光面30a及び第2撮像部40の受光面40aは、同一の平面S3に並べて配置されている。第1撮像部30は、図2(a)に示すように、平面S1のうち第1測定範囲L1に対応する範囲を撮像可能である。したがって、第1測定範囲L1において、測定対象M0の第1面M1や側面に形成された光切断線PCL1の像は、撮像光学系20を介して、受光面30aによって取得される。 The first imaging unit 30 has a light receiving surface 30a. The second imaging unit 40 has a light receiving surface 40a. The light receiving surface 30a of the first imaging unit 30 and the light receiving surface 40a of the second imaging unit 40 are arranged side by side on the same plane S3. As shown in FIG. 2A, the first imaging unit 30 can image the range corresponding to the first measurement range L1 on the plane S1. Therefore, in the first measurement range L1, the image of the light section line PCL1 formed on the first surface M1 or the side surface of the measurement target M0 is acquired by the light receiving surface 30a via the imaging optical system 20.

センサユニット100では、図2に示すように、ライン光Lの光切断線PCL1が形成される第1測定範囲L1(平面S1)と、撮像光学系20の主面S2(レンズ主面)と、第1撮像部30の受光面30aを含む平面S3とが、一つの直線Pで交わるように配置されている。このように、第1測定範囲L1と、撮像光学系20と、受光面30aとがシャインプルーフの原理に従って配置されているため、光切断線PCL1は、撮像光学系20を介して第1撮像部30の受光面30aにおいてフォーカスされた状態で投影される。 In the sensor unit 100, as shown in FIG. 2, a first measurement range L1 (plane S1) in which a light cutting line PCL1 of the line light L is formed, a main surface S2 (lens main surface) of the imaging optical system 20, The plane S3 including the light receiving surface 30a of the first imaging unit 30 is arranged so as to intersect with one straight line P. As described above, since the first measurement range L1, the image pickup optical system 20, and the light receiving surface 30a are arranged according to the Scheimpflug principle, the light section line PCL1 passes through the image pickup optical system 20 and the first image pickup unit. The image is projected in a focused state on the light receiving surface 30a of 30.

図2(b)は、測定対象M0の第2面M2を計測する様子を示している。なお、図2(b)では、図2(a)に対して、測定対象M0との間のZ方向の距離を変化させずにセンサユニット100を−Y方向に移動させた場合(または測定対象M0を+Y方向に移動させた場合)を示している。図2(b)に示すように、ライン光Lは、測定対象M0の第1面M1から段差M3を超えて第2面M2に移動する。このとき、第2面M2はライン光Lの第1測定範囲L1よりも+Z側に位置するため、ライン光Lの光切断線PCL2は、平面S1のうち第1測定範囲L1から外れて、第2測定範囲L2に形成されることになる。したがって、第2面M2上の光切断線PCL2は、第1撮像部30による撮像範囲から外れることになる。 FIG. 2B shows how to measure the second surface M2 of the measurement target M0. 2B, in comparison with FIG. 2A, when the sensor unit 100 is moved in the −Y direction without changing the distance in the Z direction from the measurement target M0 (or the measurement target). (When M0 is moved in the +Y direction). As shown in FIG. 2B, the line light L moves from the first surface M1 of the measurement target M0 to the second surface M2 beyond the step M3. At this time, since the second surface M2 is located on the +Z side of the first measurement range L1 of the line light L, the light cutting line PCL2 of the line light L is out of the first measurement range L1 of the plane S1, Two measurement ranges L2 are formed. Therefore, the light section line PCL2 on the second surface M2 is out of the imaging range of the first imaging unit 30.

一方、第2撮像部40は、平面S1のうち第2測定範囲L2に対応する範囲を撮像可能である。したがって、測定対象M0の第2面M2及びその側面に形成された光切断線PCL2は、撮像光学系20を介して、第2撮像部40の受光面40aによって取得される。この場合、ライン光Lの光切断線PCL2が形成される第2測定範囲L2(平面S1)と、撮像光学系20の主面S2(レンズ主面)と、第2撮像部40の受光面40aを含む平面S3とが、上記と同様に、一つの直線Pで交わるように配置されている。このように、第2測定範囲L2と、撮像光学系20と、受光面40aとがシャインプルーフの原理に従って配置されているため、光切断線PCL2は、撮像光学系20を介して第2撮像部40の受光面40aにおいてフォーカスされた状態で投影される。 On the other hand, the 2nd imaging part 40 can image the range corresponding to the 2nd measurement range L2 in plane S1. Therefore, the second surface M2 of the measurement target M0 and the light cutting line PCL2 formed on the side surface thereof are acquired by the light receiving surface 40a of the second imaging unit 40 via the imaging optical system 20. In this case, the second measurement range L2 (plane S1) in which the light cutting line PCL2 of the line light L is formed, the main surface S2 (lens main surface) of the imaging optical system 20, and the light receiving surface 40a of the second imaging unit 40. Similarly to the above, the plane S3 including is arranged so as to intersect with one straight line P. As described above, since the second measurement range L2, the image pickup optical system 20, and the light receiving surface 40a are arranged according to the Scheimpflug principle, the light cutting line PCL2 passes through the image pickup optical system 20 and the second image pickup section. It is projected in a focused state on the light receiving surface 40a of 40.

なお、図2(b)に示す場合、測定対象M0の側面に形成される光切断線PCL2の下方部分(−Z側部分)は、第1測定範囲L1に入っているため、この側面の下側部分については、上記のように第1撮像部30によって取得される。 In the case shown in FIG. 2B, since the lower portion (the -Z side portion) of the optical cutting line PCL2 formed on the side surface of the measurement target M0 is within the first measurement range L1, the lower side of this side surface is measured. The side portion is acquired by the first imaging unit 30 as described above.

制御部CONTは、第1撮像部30及び第2撮像部40のそれぞれから送信された画像データを合成する合成処理部を備えてもよい。この合成処理部では、第1撮像部30及び第2撮像部40のそれぞれから送られた画像データに基づいて、例えば特徴点を連結させるか、または予め設定された指標マーク等を用いて連結させて、画像データを合成する。また、制御部CONTは、第1撮像部30から送信される画像データに基づいて、第1撮像部30の画素毎の座標データを算出する。また、一方、制御部CONTは、第2撮像部40から送信される画像データに基づいて、第2撮像部40の画素毎の座標データを算出する。それぞれ算出された座標データを合成しても構わない。 The control unit CONT may include a combination processing unit that combines the image data transmitted from each of the first image capturing unit 30 and the second image capturing unit 40. In the synthesizing processing unit, for example, based on the image data sent from each of the first image pickup unit 30 and the second image pickup unit 40, for example, the feature points are connected, or they are connected using a preset index mark or the like. And combine the image data. Further, the control unit CONT calculates the coordinate data for each pixel of the first image pickup unit 30 based on the image data transmitted from the first image pickup unit 30. On the other hand, the control unit CONT calculates the coordinate data for each pixel of the second imaging unit 40 based on the image data transmitted from the second imaging unit 40. The calculated coordinate data may be combined.

なお、制御部CONTは、センサユニット100が有していても構わないし、センサユニット100の外部装置(例えばコンピュータ)が有していても構わない。勿論、制御部CONTは、センサユニット100の内部と、センサユニット100の外部との両方に設けても構わない。例えば、センサユニット100の内部の制御部CONTにおいて、第1撮像部30、第2撮像部40からの画像データを取得し、画像データを合成した合成画像を作成する。作成された合成画像は、センサユニット100の外部の制御部CONTに送信される。受信した、センサユニット100の外部の制御部CONTは合成画像データから、座標データを作成する。このように複数の箇所に設けられた制御部CONTで、画像データから、座標データを作成しても構わない。この場合に、センサユニット100が有している制御部CONTは、光照射部10と第1撮像部30及び第2撮像部40の姿勢の変化に伴い、制御部CONTの姿勢も変化する。一方、センサユニット100の外部の制御部CONTは、光照射部10と第1撮像部30及び第2撮像部40の姿勢が変化しても、制御部CONTの姿勢は変化しない。すなわち、外部装置に設けられているために、センサユニット100は、外部装置と独立して駆動するためである。 The control unit CONT may be included in the sensor unit 100 or may be included in an external device (for example, a computer) of the sensor unit 100. Of course, the control unit CONT may be provided both inside the sensor unit 100 and outside the sensor unit 100. For example, the control unit CONT inside the sensor unit 100 acquires the image data from the first imaging unit 30 and the second imaging unit 40, and creates a composite image in which the image data is combined. The created composite image is transmitted to the control unit CONT outside the sensor unit 100. The received control unit CONT outside the sensor unit 100 creates coordinate data from the combined image data. In this way, the control unit CONT provided at a plurality of locations may create the coordinate data from the image data. In this case, the control unit CONT included in the sensor unit 100 changes the posture of the control unit CONT as the postures of the light irradiation unit 10, the first imaging unit 30, and the second imaging unit 40 change. On the other hand, the control unit CONT outside the sensor unit 100 does not change the posture of the control unit CONT even if the postures of the light irradiation unit 10, the first imaging unit 30, and the second imaging unit 40 change. That is, since the sensor unit 100 is provided in the external device, the sensor unit 100 is driven independently of the external device.

また、シャインプルーフの原理に従う場合、撮像光学系20を介して受光面30aに結像される第1測定範囲L1の像の大きさと、同じく撮像光学系20を介して受光面40aに結像される第2測定範囲L2の像の大きさとは異なるものとなる。図2では、第2撮像部40の受光面40aに投影される像は、第1撮像部30の受光面30aに投影される像よりも大きくなる。従って、制御部CONTまたは外部装置は、予め像の大きさの比率等を取得しておくことにより、画像の合成時に比率を計算して処理することにより、画像の合成を精度よく行うことができる。また、このような像の大きさに対応して、第1撮像部30及び第2撮像部40の解像度を変えるようにしてもよい。また、第1撮像部30及び第2撮像部40は、受光面30a、40aに投影される像の大きさに合わせた寸法のものがそれぞれ用いられてもよい。 Further, when the Scheimpflug principle is followed, the size of the image of the first measurement range L1 imaged on the light receiving surface 30a via the imaging optical system 20 and the image size on the light receiving surface 40a via the imaging optical system 20 as well. The size of the image in the second measurement range L2 is different. In FIG. 2, the image projected on the light receiving surface 40a of the second imaging unit 40 is larger than the image projected on the light receiving surface 30a of the first imaging unit 30. Therefore, the control unit CONT or the external device can perform the image composition with high accuracy by acquiring the image size ratio and the like in advance and calculating and processing the ratio when the images are combined. .. Further, the resolutions of the first imaging unit 30 and the second imaging unit 40 may be changed according to the size of such an image. Moreover, as the first image capturing unit 30 and the second image capturing unit 40, those having a size according to the size of the image projected on the light receiving surfaces 30a and 40a may be used.

このように、第1実施形態によれば、ライン光Lにおいて第1方向D1の測定範囲が互いに異なる第1測定範囲L1及び第2測定範囲L2を設定するとともに、第1測定範囲L1に対応する領域を撮像する第1撮像部30と、第2測定範囲L2に対応する領域を撮像する第2撮像部40とを備えるため、第1方向D1に高さが異なる測定対象M0であっても、センサユニット100自体をZ方向に移動させることなく、測定範囲を切り替えて光切断線PCL1、PCL2を撮像できる。これにより、大型の撮像部を用いる必要がなく、センサユニット100を小型化することができる。なお、このような効果は、以下の変形例においても同様である。 As described above, according to the first embodiment, in the line light L, the first measurement range L1 and the second measurement range L2 having different measurement ranges in the first direction D1 are set and correspond to the first measurement range L1. Since the first imaging unit 30 that images the region and the second imaging unit 40 that images the region corresponding to the second measurement range L2 are provided, even if the measurement target M0 has a different height in the first direction D1, It is possible to switch the measurement range and image the optical cutting lines PCL1 and PCL2 without moving the sensor unit 100 itself in the Z direction. As a result, it is not necessary to use a large image pickup unit, and the sensor unit 100 can be downsized. In addition, such an effect is the same also in the following modified examples.

また、第1撮像部30と第2撮像部40とが設置されると、設置される第1撮像部30および第2撮像部40に合わせて、撮像光学系20を設計することで、第1測定範囲L1及び第2測定範囲L2を設定することができる。例えば、第1撮像部30と第2撮像部40との近接設置可能な距離があり、第1撮像部30と第2撮像部40との間に撮像できない領域があっても、撮像光学系を設計することで、第1測定範囲L1及び第2測定範囲L2を設定することができる。設定できる第1測定範囲L1及び第2測定範囲L2は連続して設定することも可能となる。このように、第1撮像部30および第2撮像部を並べて配置するほかに、測定対象Mで反射する光を所定の方向に導くための撮像光学系20を用いることで、測定範囲を第1測定範囲L1および第2測定範囲L2と増やすことが可能となる。 When the first imaging unit 30 and the second imaging unit 40 are installed, the imaging optical system 20 is designed according to the installed first imaging unit 30 and the second imaging unit 40, thereby The measurement range L1 and the second measurement range L2 can be set. For example, even if there is a distance where the first imaging unit 30 and the second imaging unit 40 can be installed close to each other and there is a region between the first imaging unit 30 and the second imaging unit 40 that cannot be imaged, the imaging optical system is By designing, the first measurement range L1 and the second measurement range L2 can be set. The first measurement range L1 and the second measurement range L2 that can be set can be continuously set. As described above, the first imaging unit 30 and the second imaging unit are arranged side by side, and the imaging optical system 20 for guiding the light reflected by the measurement object M in a predetermined direction is used to measure the first measurement range. It is possible to increase the measurement range L1 and the second measurement range L2.

なお、上述の実施形態では、第1方向D1に第1測定範囲L1及び第2測定範囲L2を設定したが、設定する方向はこれに限られない。例えば、第1方向D1と直交する方向に設定しても構わない。この場合には、ライン光Lの長手方向に平行な方向に第1測定範囲L1及び第2測定範囲L2を設定しても構わない。 In the above-described embodiment, the first measurement range L1 and the second measurement range L2 are set in the first direction D1, but the setting direction is not limited to this. For example, it may be set in a direction orthogonal to the first direction D1. In this case, the first measurement range L1 and the second measurement range L2 may be set in the direction parallel to the longitudinal direction of the line light L.

また、上述の実施形態では、第1測定範囲L1及び第2測定範囲L2を設定したが、もちろん、設定できる測定範囲の数はこれに限られない。第1測定範囲L1及び第2測定範囲L2の他に、第3測定範囲を設けても構わない。この場合には、第1方向D1と平行に、第1測定範囲L1及び第2測定範囲L2の外側に第3測定範囲を設定しても構わない。また、例えば、第1方向D1に平行な方向に配置される第1測定範囲L1及び第2測定範囲L2に対して、第1方向D1と直交する方向に第3測定範囲を設定しても構わない。 Further, in the above-described embodiment, the first measurement range L1 and the second measurement range L2 are set, but of course, the number of measurement ranges that can be set is not limited to this. In addition to the first measurement range L1 and the second measurement range L2, a third measurement range may be provided. In this case, the third measurement range may be set outside the first measurement range L1 and the second measurement range L2 in parallel with the first direction D1. Further, for example, with respect to the first measurement range L1 and the second measurement range L2 arranged in the direction parallel to the first direction D1, the third measurement range may be set in the direction orthogonal to the first direction D1. Absent.

また、上述の実施形態では、第1測定範囲L1及び第2測定範囲L2の受光面の面積は同一でもよいし、それぞれが異なった面積でも構わない。 Moreover, in the above-described embodiment, the areas of the light receiving surfaces of the first measurement range L1 and the second measurement range L2 may be the same or may be different areas.

なお、上述の実施形態では、第1方向D1に沿って、第1測定範囲L1及び第2測定範囲L2を配置したので、第1方向D1に沿って、第1測定範囲L1のみ配置されている場合に、測定対象Mの凹凸の第1方向D1に沿った距離が第1測定範囲L1よりも長い場合には、測定対象Mの表面が第1測定範囲L1に配置されるようにセンサユニット100と測定対象Mとの相対距離を変更する必要があるが、測定対象Mの凹凸の第1方向D1に沿った距離が第1測定範囲L1及び第2測定範囲L2にあればセンサユニット100と測定対象Mとの相対距離を変更する必要がない。そのため、センサユニット100と測定対象Mとの相対距離を調整する時間を短縮することができる。 In addition, in the above-described embodiment, since the first measurement range L1 and the second measurement range L2 are arranged along the first direction D1, only the first measurement range L1 is arranged along the first direction D1. In this case, when the distance along the first direction D1 of the unevenness of the measurement target M is longer than the first measurement range L1, the sensor unit 100 is arranged such that the surface of the measurement target M is arranged in the first measurement range L1. It is necessary to change the relative distance between the measurement target M and the measurement target M, but if the distance along the first direction D1 of the unevenness of the measurement target M is in the first measurement range L1 and the second measurement range L2, the measurement is performed with the sensor unit 100. There is no need to change the relative distance to the target M. Therefore, the time for adjusting the relative distance between the sensor unit 100 and the measurement target M can be shortened.

また、上述の実施形態では、第1方向D1に沿って設定された、第1測定範囲L1と第2測定範囲L2とを用いて、測定対象Mの表面形状を計測したが、設置される少なくとも一方だけを用いて、測定対象Mの表面形状を計測しても構わない。例えば、第1方向D1における測定対象Mの表面形状の凹凸が第1測定範囲L1内である場合には、第2測定範囲L2を用いることなく第1測定範囲L1のみを用いても構わない。また、測定対象Mの表面形状の情報(例えば、CADなどの設計情報)から、測定対象Mの表面形状の凹凸の第1方向D1の距離が第1測定範囲L1内であっても、第1測定範囲L1内に測定対象Mの表面を配置するために、センサユニット100と測定対象Mとの相対距離を変えるための煩雑な操作が必要である場合には、設定される第1測定範囲L1と第2測定範囲L2とを用いても構わない。これにより、煩雑な操作を解消することができる。 In the above-described embodiment, the surface shape of the measurement target M is measured using the first measurement range L1 and the second measurement range L2 set along the first direction D1. The surface shape of the measuring object M may be measured using only one. For example, when the unevenness of the surface shape of the measurement target M in the first direction D1 is within the first measurement range L1, it is possible to use only the first measurement range L1 without using the second measurement range L2. Even if the distance in the first direction D1 of the unevenness of the surface shape of the measurement target M is within the first measurement range L1 from the information on the surface shape of the measurement target M (for example, design information such as CAD), the first When a complicated operation for changing the relative distance between the sensor unit 100 and the measurement target M is necessary to arrange the surface of the measurement target M within the measurement range L1, the first measurement range L1 to be set. And the second measurement range L2 may be used. This can eliminate complicated operations.

なお、上述の実施形態においては、第1撮像部30および第2撮像部40が不図示の部材を用いて、撮像光学系20および第1撮像部30および第2撮像部40の位置関係を変化させないように、不図示の部材に固定されている。不図示の部材により、撮像光学系20により光切断線PCLが撮像される方向は一つである。すなわち、測定対象物で反射する光切断線PCLの光は、撮像光学系20に導かれ、第1撮像部30で受光する光と、第2撮像部40で受光する光とで分けることができる。なお、第1撮像部30と第2撮像部40とで受光する光を導くための撮像光学系20は2つ以上あっても構わない。例えば、第1撮像部30と第2撮像部40とで、それぞれ独立した撮像光学系20を備えて、それぞれ第1撮像部30および第2撮像部40に対応した撮像光学系20により測定対象物Mで反射する光切断線PCLの光を受光しても構わない。この場合に、第1撮像部30とそれに対応する撮像光学系20、また第2撮像部40とそれに対応する撮像光学系20とがそれぞれ不図示の部材によって、第1方向D1に第1測定範囲L1と第2測定範囲L2とを配置することできる。 In the above-described embodiment, the first imaging unit 30 and the second imaging unit 40 use members (not shown) to change the positional relationship between the imaging optical system 20, the first imaging unit 30, and the second imaging unit 40. It is fixed to a member (not shown) so as not to cause it. The imaging optical system 20 picks up an image of the optical cutting line PCL in only one direction by a member (not shown). That is, the light of the light cutting line PCL reflected by the measurement object can be divided into the light guided to the imaging optical system 20 and received by the first imaging unit 30 and the light received by the second imaging unit 40. .. There may be two or more imaging optical systems 20 for guiding the light received by the first imaging unit 30 and the second imaging unit 40. For example, the first imaging unit 30 and the second imaging unit 40 include independent imaging optical systems 20, and the imaging optical system 20 corresponding to the first imaging unit 30 and the second imaging unit 40 respectively measures an object to be measured. The light of the light section line PCL reflected by M may be received. In this case, the first image pickup unit 30 and the image pickup optical system 20 corresponding thereto, and the second image pickup unit 40 and the image pickup optical system 20 corresponding thereto are respectively provided by members (not shown) in the first direction D1 in the first measurement range. L1 and the second measurement range L2 can be arranged.

また、第1撮像部30および第2撮像部40とで、測定対象物Mで反射した光が受光する方向が異なっていても構わない。例えば、光切断線PCLを挟んで、第1撮像部30とそれに対応する撮像光学系20と、第2撮像部40とそれに対応する撮像光学系20を配置しても構わない。例えば、図2において、Y方向において、光切断線PCLを挟むように、第1撮像部30と第2撮像部40とを配置しても構わない。この場合において、第1撮像部30の受光面30aを含む平面と、撮像光学系20の主面を含む平面と、第1測定範囲L1とを含む平面とが一つの直線Pで交わるように配置される。図3に示す通りである。一方、この場合にはおいて、第2撮像部40の受光面40aを含む平面と、撮像光学系20の主面を含む平面と、第2測定範囲L2とを含む平面とが一つの直線Pで交わるように配置される。この場合に、第1測定範囲L1を含む平面と第2測定範囲L2を含む平面とが同一なので、直線Pも同一になる。一方、Y方向において、光切断線PCLを挟むように、第1撮像部30と第2撮像部40とが配置されるので、第1撮像部30の受光面30aを含む平面と、第2撮像部40の受光面40aを含む平面とは異なる。また、第1撮像部30及び第2撮像部40にそれぞれ対応する撮像光学系20の主面を含む平面が異なる。 Further, the first imaging unit 30 and the second imaging unit 40 may be different in the direction in which the light reflected by the measurement target M is received. For example, the first image pickup unit 30 and the image pickup optical system 20 corresponding thereto, the second image pickup unit 40, and the image pickup optical system 20 corresponding thereto may be arranged with the optical cutting line PCL interposed therebetween. For example, in FIG. 2, the first imaging unit 30 and the second imaging unit 40 may be arranged so as to sandwich the light cutting line PCL in the Y direction. In this case, the plane including the light receiving surface 30a of the first imaging unit 30, the plane including the main surface of the imaging optical system 20, and the plane including the first measurement range L1 are arranged so as to intersect with one straight line P. To be done. As shown in FIG. On the other hand, in this case, the plane including the light receiving surface 40a of the second imaging unit 40, the plane including the main surface of the imaging optical system 20, and the plane including the second measurement range L2 are one straight line P. Arranged to intersect. In this case, since the plane including the first measurement range L1 and the plane including the second measurement range L2 are the same, the straight line P is also the same. On the other hand, in the Y direction, since the first imaging unit 30 and the second imaging unit 40 are arranged so as to sandwich the light cutting line PCL, the plane including the light receiving surface 30a of the first imaging unit 30 and the second imaging unit. It is different from the plane including the light receiving surface 40a of the portion 40. Further, the planes including the main surface of the imaging optical system 20 corresponding to the first imaging unit 30 and the second imaging unit 40 are different.

<第1変形例>
次に、第1変形例について図面を参照して説明する。図4は、第1変形例に係るセンサユニット100Aの一例を示す図である。なお、上記した実施形態と同一または同等の構成部分については同一符号を付けて説明を省略または簡略化する。図4に示すように、本変形例に係るセンサユニット100Aは、第1撮像部30の受光面30aと第2撮像部40の受光面40aとが、互いに交差する平面S3、S4に配置されている。なお、以下の説明では、平面S3と平面S4との交線を直線Qとする。
<First Modification>
Next, a first modified example will be described with reference to the drawings. FIG. 4 is a diagram showing an example of a sensor unit 100A according to the first modification. In addition, the same reference numerals will be given to the same or equivalent components as those in the above-described embodiment, and the description will be omitted or simplified. As shown in FIG. 4, in the sensor unit 100A according to the present modification, the light receiving surface 30a of the first imaging unit 30 and the light receiving surface 40a of the second imaging unit 40 are arranged on planes S3 and S4 intersecting with each other. There is. In the following description, the line of intersection between the plane S3 and the plane S4 is the straight line Q.

また、センサユニット100Aは、ハーフミラー(分割部)HMを有している。ハーフミラーHMは、不図示の支持具等によってセンサユニット100Aに固定されている。ハーフミラーHMは、測定対象の表面に形成される光切断線PCL1、PCL2の像を第1撮像部30と第2撮像部40とに分割する。ハーフミラーHMは、平面S5に配置されている。平面S5は、直線Qにおいて平面S3及び平面S4と交差するように設定されている。平面S3の間の角度と平面S4との間の角度は、等しくなるように配置される。したがって、平面S3と平面S4とは、平面S5を基準として対称に配置されている。これにより、図4に示すように、第2撮像部40が平面S4に配置される場合であっても、第2測定範囲L2、撮像光学系20、第2撮像部40はシャインプルーフの原理が維持される。従って、第2撮像部40の受光面40aにおいて、第2測定範囲L2内の光切断線PCL2はフォーカスされた状態となる。 Further, the sensor unit 100A has a half mirror (divided portion) HM. The half mirror HM is fixed to the sensor unit 100A by a support tool (not shown) or the like. The half mirror HM divides the images of the optical cutting lines PCL1 and PCL2 formed on the surface of the measurement target into the first imaging unit 30 and the second imaging unit 40. The half mirror HM is arranged on the plane S5. The plane S5 is set so as to intersect the plane S3 and the plane S4 on the straight line Q. The angle between the plane S3 and the angle between the plane S4 are arranged to be equal. Therefore, the plane S3 and the plane S4 are arranged symmetrically with respect to the plane S5. Thereby, as shown in FIG. 4, even when the second imaging unit 40 is arranged on the plane S4, the Scheimpflug principle is applied to the second measurement range L2, the imaging optical system 20, and the second imaging unit 40. Maintained. Therefore, on the light receiving surface 40a of the second imaging unit 40, the light section line PCL2 in the second measurement range L2 is in a focused state.

第2撮像部40は、平面S4に受光面40aを配置している。すなわち、第1撮像部30と第2撮像部40とが同一平面にない構成となっている。なお、図4では、第2撮像部40を平面S4に配置しているが、これに代えて、第1撮像部30を平面S4に配置させ、第2撮像部を平面S3に配置させてもよい。 The second image capturing section 40 has the light receiving surface 40a arranged on the plane S4. That is, the first imaging unit 30 and the second imaging unit 40 are not on the same plane. In addition, in FIG. 4, the second imaging unit 40 is arranged on the plane S4, but instead of this, the first imaging unit 30 may be arranged on the plane S4 and the second imaging unit may be arranged on the plane S3. Good.

光切断線PCL1の像のうち、ハーフミラーHMを透過する成分は、第1撮像部30の受光面30aに到達する。一方、光切断線PCL1の像のうち、ハーフミラーHMで反射される成分は、受光面30aには到達せず、検出には用いられない。また、光切断線PCL2の像のうち、ハーフミラーHMで反射される成分は、第2撮像部40の受光面40aに到達する。一方、光切断線PCL2の像のうち、ハーフミラーHMを透過する成分は、受光面40aには到達せず、検出には用いられない。 A component of the image of the light-section line PCL1 that passes through the half mirror HM reaches the light-receiving surface 30a of the first imaging unit 30. On the other hand, in the image of the light section line PCL1, the component reflected by the half mirror HM does not reach the light receiving surface 30a and is not used for detection. Further, in the image of the light section line PCL2, the component reflected by the half mirror HM reaches the light receiving surface 40a of the second imaging unit 40. On the other hand, in the image of the light section line PCL2, the component that passes through the half mirror HM does not reach the light receiving surface 40a and is not used for detection.

したがって、第1撮像部30では、ハーフミラーHMを透過した光に含まれる光切断線PCL1の像が取得される。また、第2撮像部40では、ハーフミラーHMで反射される光に含まれる光切断線PCL2の像が取得される。本変形例では、光切断線PCL1、PCL2の一部を受光するが、光切断線PCL1等の光強度が大きい場合はそのまま画像データとして用いることができる。また、光強度が低い場合は、その後の画像処理の段階でゲインを掛けてもよい。 Therefore, the first imaging unit 30 acquires the image of the light section line PCL1 included in the light transmitted through the half mirror HM. The second imaging unit 40 also acquires an image of the light section line PCL2 included in the light reflected by the half mirror HM. In this modification, a part of the light cutting lines PCL1 and PCL2 is received, but when the light intensity of the light cutting lines PCL1 and the like is high, it can be directly used as image data. Further, when the light intensity is low, the gain may be applied in the subsequent image processing stage.

また、本変形例では、第2撮像部40とハーフミラーHMとの距離を調節可能である。従って、上記した第1実施形態のように、第1撮像部30及び第2撮像部40で取得される画像の大きさが異なる場合、第2撮像部40の位置を変更することで、第1撮像部30に対して、大きさが同一の像、または大きさの差を小さくした像を取得することが可能となる。 In addition, in this modification, the distance between the second imaging unit 40 and the half mirror HM can be adjusted. Therefore, when the sizes of the images acquired by the first image capturing unit 30 and the second image capturing unit 40 are different as in the first embodiment described above, the position of the second image capturing unit 40 is changed to change the first image capturing unit 40. It is possible to obtain an image having the same size or an image having a small difference in size with respect to the imaging unit 30.

このように、本変形例によれば、第1撮像部30と第2撮像部40とを同一平面に並べて配置するのではなく、互いに異なる位置に配置することにより、第1撮像部30及び第2撮像部40の配置の自由度が高くなる。このため、センサユニット100Aの設計の幅が広がることになり、コンパクトな設計を行うこともできる。 As described above, according to the present modification, the first imaging unit 30 and the second imaging unit 40 are not arranged side by side on the same plane, but are arranged at different positions, so that the first imaging unit 30 and the first imaging unit 30 The degree of freedom of arrangement of the 2 imaging part 40 becomes high. Therefore, the range of design of the sensor unit 100A is widened, and a compact design can be performed.

なお、本変形例では、ハーフミラーHMを用いるが、これに限定するものではない。例えば全反射ミラーが用いられてもよい。全反射ミラーが用いられる場合は、この全反射ミラーを光路中に進入または退避させるための駆動装置が用いられてもよい。例えば、第1測定範囲L1を測定する場合は全反射ミラーを退避させて第1撮像部30によって第1測定範囲L1の画像データを取得する。次いで、第2測定範囲L2を測定する場合は、全反射ミラーを光路中に進入させ、その反射光を第2撮像部40で受光して画像データを取得する。このように全反射ミラーが用いられることにより、測定対象に形成される光切断線の光強度が小さい場合でも明るい画像データを取得することができる。なお、全反射ミラーを配置した場合でも第1測定範囲L1の像と干渉しない場合は、全反射ミラーの進退駆動は不要である。 In addition, although the half mirror HM is used in this modification, the present invention is not limited to this. For example, a total reflection mirror may be used. When a total reflection mirror is used, a drive device for moving the total reflection mirror into or out of the optical path may be used. For example, when measuring the first measurement range L1, the total reflection mirror is retracted and the image data of the first measurement range L1 is acquired by the first imaging unit 30. Next, when measuring the second measurement range L2, the total reflection mirror is caused to enter the optical path, and the reflected light is received by the second imaging unit 40 to acquire image data. By using the total reflection mirror as described above, bright image data can be acquired even when the light intensity of the light cutting line formed on the measurement target is small. Even when the total reflection mirror is arranged, if the total reflection mirror does not interfere with the image in the first measurement range L1, it is not necessary to drive the total reflection mirror back and forth.

また、例えば、ミラーなどとは異なり、電気により駆動するDMDや液晶表示パネルなどを用いても構わない。 Further, for example, unlike a mirror or the like, an electrically driven DMD or liquid crystal display panel may be used.

なお、本変形例では、第1撮像部30と第2撮像部40とがそれぞれ第1測定範囲L1と第2測定範囲L2とに対応していたが、第1撮像部30と第2撮像部40とで第1測定範囲L1を計測することと、第1撮像部30と第2撮像部40とでそれぞれ第1測定範囲L1と第2測定範囲L2とを計測することとを選択できるようにしても構わない。 In addition, in the present modification, the first imaging unit 30 and the second imaging unit 40 correspond to the first measurement range L1 and the second measurement range L2, respectively, but the first imaging unit 30 and the second imaging unit 40 to measure the first measurement range L1 and the first imaging unit 30 and the second imaging unit 40 to measure the first measurement range L1 and the second measurement range L2, respectively. It doesn't matter.

また、第1撮像部30と第2撮像部40とが、それぞれ第1測定範囲L1と第2測定範囲L2とに対応していたが、第3撮像部と第4撮像部を設けて、第1測定範囲L1の撮像を複数の撮像部で行っても構わない。例えば、第1測定範囲L1を第1撮像部30と第3撮像部とで撮像する場合に、第1撮像部30と第3撮像部との少なくとも一方の結果を採用しても構わない。また、例えば、第1測定範囲L1を第1撮像部30と第3撮像部とで撮像する場合に、第1撮像部30と第3撮像部との両方の結果を用いて、計測結果としても構わない。この場合に、第1撮像部30と第3撮像部との結果を平均して用いても構わない。平均に用いる手法は、相乗平均、相加平均など適宜選択することができる。 Moreover, although the 1st imaging part 30 and the 2nd imaging part 40 corresponded to the 1st measurement range L1 and the 2nd measurement range L2, respectively, the 3rd imaging part and the 4th imaging part are provided, and Imaging of one measurement range L1 may be performed by a plurality of imaging units. For example, when imaging the first measurement range L1 with the first imaging unit 30 and the third imaging unit, the result of at least one of the first imaging unit 30 and the third imaging unit may be adopted. Also, for example, when the first measurement range L1 is imaged by the first imaging unit 30 and the third imaging unit, the results of both the first imaging unit 30 and the third imaging unit are used as measurement results. I do not care. In this case, the results of the first imaging unit 30 and the third imaging unit may be averaged and used. The method used for averaging can be appropriately selected such as geometrical average and arithmetic average.

<第2変形例>
次に、第2変形例について説明する。なお、上記した実施形態及び変形例と同一または同等の構成部分については同一符号を付けて説明を省略または簡略化する。
<Second Modification>
Next, a second modification will be described. It should be noted that the same or equivalent components as those of the above-described embodiment and modification are denoted by the same reference numerals, and the description thereof will be omitted or simplified.

第2変形例に係るセンサユニット(以下、センサユニット100Bと呼ぶ。)は、分割部として、図4に示すハーフミラーHMに代えて、ダイクロイックプリズム(分割部)が用いられる。ダイクロイックプリズムは、ダイクロイック膜を有している。ダイクロイック膜は、測定対象Mの表面に形成される光切断線PCL1、PCL2の像を、波長に応じて第1撮像部30と第2撮像部40とに分割する。ダイクロイック膜は、ハーフミラーHMと同様、平面S5に配置されている。したがって、第2撮像部40が平面S4に配置される場合であっても、第1変形例と同様に、第2測定範囲L2、撮像光学系20、第2撮像部40はシャインプルーフの原理が維持される。従って、第2撮像部40の受光面40aにおいて、第2測定範囲L2内の光切断線PCL2はフォーカスされた状態となる。 In the sensor unit according to the second modification (hereinafter referred to as the sensor unit 100B), a dichroic prism (split unit) is used as the split unit instead of the half mirror HM shown in FIG. The dichroic prism has a dichroic film. The dichroic film divides the images of the optical cutting lines PCL1 and PCL2 formed on the surface of the measurement target M into the first imaging unit 30 and the second imaging unit 40 according to the wavelength. The dichroic film is arranged on the plane S5 like the half mirror HM. Therefore, even when the second imaging unit 40 is arranged on the plane S4, the Scheimpflug principle is applied to the second measurement range L2, the imaging optical system 20, and the second imaging unit 40 as in the first modification. Maintained. Therefore, on the light receiving surface 40a of the second imaging unit 40, the light section line PCL2 in the second measurement range L2 is in a focused state.

ダイクロイック膜は、所定波長の光(第1波長成分)は透過させるとともに、第1波長成分とは異なる波長の光(第2波長成分)を透過する。また、光照射部10の光源12(図2参照)は、これら第1及び第2波長成分を含んだライン光Lを射出するものが用いられる。 The dichroic film transmits light having a predetermined wavelength (first wavelength component) and transmits light having a wavelength different from the first wavelength component (second wavelength component). Further, as the light source 12 (see FIG. 2) of the light irradiation unit 10, one that emits the line light L containing these first and second wavelength components is used.

第1測定範囲L1に形成された光切断線PCL1の像のうち、第1波長成分は、ダイクロイック膜を透過して第1撮像部30の受光面30aに到達する。一方、光切断線PCL1の像のうち、第2波長成分は、ダイクロイック膜で反射される。この第2波長成分は受光面30aには到達せず、撮像されない。また、第2測定範囲L2に形成された光切断線PCL2の像のうち、第2波長成分は、ダイクロイック膜によって反射され、第2撮像部40の受光面40aに到達する。一方、光切断線PCL2の像のうち、第1波長成分は、ダイクロイック膜を透過する。この第1波長成分は、ダイクロイック膜を透過して受光面40aには到達せず、撮像されない。 The first wavelength component of the image of the light-section line PCL1 formed in the first measurement range L1 passes through the dichroic film and reaches the light-receiving surface 30a of the first imaging unit 30. On the other hand, the second wavelength component of the image of the light section line PCL1 is reflected by the dichroic film. This second wavelength component does not reach the light receiving surface 30a and is not imaged. The second wavelength component of the image of the light section line PCL2 formed in the second measurement range L2 is reflected by the dichroic film and reaches the light receiving surface 40a of the second imaging unit 40. On the other hand, the first wavelength component of the image of the light section line PCL2 passes through the dichroic film. The first wavelength component does not reach the light receiving surface 40a through the dichroic film and is not imaged.

したがって、第1撮像部30では、ダイクロイック膜を透過した第1波長成分の光による光切断線PCL1の像が取得される。これにより、第1測定範囲L1における光切断線PCL1は、第1撮像部30によって撮像されることになる。また、第2撮像部40では、ダイクロイック膜で反射される第2波長成分による光切断線PCL2の像が取得される。これにより、第2測定範囲L2における光切断線PCL2は、第2撮像部40によって撮像されることになる。すなわち、第1方向D1において異なる第1及び第2測定範囲L1、L2の画像を、それぞれ異なる第1及び第2撮像部30、40で取得する。 Therefore, the first imaging unit 30 acquires an image of the optical cutting line PCL1 by the light of the first wavelength component that has passed through the dichroic film. As a result, the light section line PCL1 in the first measurement range L1 is imaged by the first imaging unit 30. Further, the second imaging unit 40 acquires an image of the optical cutting line PCL2 due to the second wavelength component reflected by the dichroic film. As a result, the light section line PCL2 in the second measurement range L2 is imaged by the second imaging unit 40. That is, the images of the first and second measurement ranges L1 and L2 that are different in the first direction D1 are acquired by the different first and second imaging units 30 and 40, respectively.

このように、本変形例によれば、上記した第1変形例と同様に、第1撮像部30と第2撮像部40とを同一平面に並べて配置するのではなく、互いに異なる位置に配置することにより、第1撮像部30及び第2撮像部40の配置の自由度が高くなる。このため、センサユニット100Bの設計の幅が広がることになり、コンパクトな設計を行うこともできる。さらに、本変形例では、ダイクロイック膜により波長を選択して透過または反射を行うため、第1及び第2測定範囲L1、L2に対応して正確な像を取得することができる。 As described above, according to this modification, as in the case of the first modification described above, the first imaging unit 30 and the second imaging unit 40 are not arranged side by side on the same plane, but are arranged at mutually different positions. As a result, the degree of freedom in arranging the first imaging unit 30 and the second imaging unit 40 is increased. Therefore, the range of design of the sensor unit 100B is widened, and a compact design can be performed. Furthermore, in this modification, since the wavelength is selected by the dichroic film to transmit or reflect, it is possible to obtain an accurate image corresponding to the first and second measurement ranges L1 and L2.

また、本変形例において、第1撮像部30と第2撮像部40とで異なる特性を持つものが用いられてもよい。例えば、第1撮像部30として、第1波長成分の検出感度に優れた受光素子を用いるとともに、第2撮像部40として、第2波長成分の検出感度に優れた受光素子を用いるようにしてもよい。これにより光切断線PCL1、PCL2の検出感度を向上させることができる。 Further, in this modification, the first image pickup unit 30 and the second image pickup unit 40 may have different characteristics. For example, a light receiving element having excellent detection sensitivity for the first wavelength component may be used as the first imaging unit 30, and a light receiving element having excellent detection sensitivity for the second wavelength component may be used as the second imaging unit 40. Good. As a result, the detection sensitivity of the light cutting lines PCL1 and PCL2 can be improved.

なお、本変形例においても、第1撮像部30及び第2撮像部40は、シャインプルーフの原理に従った位置に配置されている。このため、光切断線PCL1及びPCL2の像は、それぞれ受光面30a、40aにおいてピントが合った状態で取得される。また、第1撮像部30及び第2撮像部40で取得される画像を制御部CONTによって補正することで、投影倍率の差が低減された画像データを得ることが可能となる。 Also in this modified example, the first imaging unit 30 and the second imaging unit 40 are arranged at positions according to the Scheimpflug principle. Therefore, the images of the optical cutting lines PCL1 and PCL2 are acquired in a focused state on the light receiving surfaces 30a and 40a, respectively. Further, by correcting the images acquired by the first image pickup unit 30 and the second image pickup unit 40 by the control unit CONT, it is possible to obtain image data with a reduced difference in projection magnification.

また、上記した第1実施形態、第1及び第2変形例では、第1方向D1の測定範囲を第1測定範囲L1と第2測定範囲L2の2つに分けているが、これに限定されない。例えば、測定範囲を第1方向D1に3つ以上に分けて、第3測定範囲、第4測定範囲・・・と設定してもよい。この場合、第3測定範囲等の光切断線の像を取得するように、第3撮像部、第4撮像部・・・が配置される。なお、これら第3撮像部等は、第1撮像部30等と同様に受光面を平面S3に沿って配置されるか、図4に示すようにハーフミラーHM等の反射光を受光するように平面S4に受光面が配置される。 Further, in the above-described first embodiment, first and second modified examples, the measurement range in the first direction D1 is divided into two, that is, the first measurement range L1 and the second measurement range L2, but it is not limited to this. .. For example, the measurement range may be divided into three or more in the first direction D1 and set as the third measurement range, the fourth measurement range,.... In this case, the third imaging unit, the fourth imaging unit,... Are arranged so as to acquire the image of the light section line such as the third measurement range. It should be noted that these third image pickup units and the like have light-receiving surfaces arranged along the plane S3 similarly to the first image pickup unit 30 and the like, or may receive the reflected light from the half mirror HM as shown in FIG. The light receiving surface is arranged on the plane S4.

また、上記した第1実施形態、第1及び第2変形例では、1つの撮像光学系20を介して光切断線PCL1、PCL2の像を取り込んでいるが、これに限定されず、第1または第2撮像部30、40のそれぞれに対応した撮像光学系が用いられてもよい。 Further, in the above-described first embodiment, first and second modified examples, the images of the optical cutting lines PCL1 and PCL2 are captured through one imaging optical system 20, but the present invention is not limited to this, and the first or An image pickup optical system corresponding to each of the second image pickup units 30 and 40 may be used.

<第2実施形態>
第2実施形態について説明する。上記した第1実施形態では、ライン光Lに形成された測定範囲を第1測定範囲L1及び第2測定範囲L2に分けて、それぞれの像を第1及び第2撮像部30、40で個別に取得する構成を例に挙げて説明した。ただし、これに限定するものではなく、ライン光Lの測定範囲を第1測定範囲L1と第2測定範囲L2とに切り替えて形成させ、それぞれの測定範囲において形成される像を取得する構成としてもよい。例えば、ライン光Lの厚さtが最も小さくなる部分(ビームウェスト)の長さが、第1方向D1(Z方向)において短い場合は、Z方向に変化が大きい測定対象に対応できなくなる。この場合、測定範囲を第1方向D1に移動させることで、Z方向に変化が大きい測定対象にも対応可能となる。
<Second Embodiment>
The second embodiment will be described. In the above-described first embodiment, the measurement range formed on the line light L is divided into the first measurement range L1 and the second measurement range L2, and the respective images are individually detected by the first and second imaging units 30 and 40. The configuration has been described as an example. However, the present invention is not limited to this, and the configuration may be such that the measurement range of the line light L is switched between the first measurement range L1 and the second measurement range L2 to be formed, and the image formed in each measurement range is acquired. Good. For example, if the length of the portion (beam waist) where the thickness t of the line light L is the smallest is short in the first direction D1 (Z direction), it becomes impossible to deal with the measurement target that changes greatly in the Z direction. In this case, by moving the measurement range in the first direction D1, it is possible to deal with a measurement target that greatly changes in the Z direction.

図5は、第2実施形態に係るセンサユニット200の一例を示す図である。なお、上記した実施形態及び変形例と同一または同等の構成部分については同一符号を付けて説明を省略または簡略化する。図5(a)に示すように、センサユニット200は、光照射部210と、撮像光学系20と、撮像部230と、波長設定部(変更部)240と、制御部CONTとを備えている。撮像光学系20の構成は、第1実施形態と同一である。これら光照射部210、撮像光学系20及び撮像部230は、互いの位置関係が変化しないように、不図示の筐体などに支持具等によって固定されて配置されている。光照射部210は、測定対象Mの表面にライン光Lを投影する投影光学系の一例である。 FIG. 5 is a diagram showing an example of the sensor unit 200 according to the second embodiment. It should be noted that the same or equivalent components as those of the above-described embodiment and modification are denoted by the same reference numerals, and the description thereof will be omitted or simplified. As shown in FIG. 5A, the sensor unit 200 includes a light irradiation section 210, an imaging optical system 20, an imaging section 230, a wavelength setting section (changing section) 240, and a control section CONT. .. The configuration of the imaging optical system 20 is the same as that of the first embodiment. The light irradiation unit 210, the imaging optical system 20, and the imaging unit 230 are fixed to a casing (not shown) or the like by a support or the like so as not to change the positional relationship with each other. The light irradiation unit 210 is an example of a projection optical system that projects the line light L onto the surface of the measurement target M.

光照射部210は、プローブ211と、光源212と、照明光学系213とを有している。プローブ211は、例えば円筒状に形成されており、内部に光源212及び照明光学系213を収容している。光源212は、例えば異なる波長の光を射出可能なレーザダイオードを有している。本実施形態では、例えば、波長が約650nmの赤色光と、波長が約450nmの青色光とを照射可能なレーザダイオードなどが用いられる。光源212は、−Z方向にレーザ光を射出する。照明光学系213は、光源212からのレーザ光を、ライン光Lに成形して−Z方向に射出する。ライン光Lは、XZ平面に平行な平面S1に沿って形成される。なお、使用する光の波長として上記した赤色と青色に限定されず、例えば赤色と緑色や、青色と緑色などが用いられてもよい。使用する光の波長に関する事項は、後述する変形例についても同様である。 The light irradiation unit 210 includes a probe 211, a light source 212, and an illumination optical system 213. The probe 211 is formed, for example, in a cylindrical shape, and houses the light source 212 and the illumination optical system 213 inside. The light source 212 has, for example, a laser diode capable of emitting light of different wavelengths. In this embodiment, for example, a laser diode or the like that can emit red light having a wavelength of about 650 nm and blue light having a wavelength of about 450 nm is used. The light source 212 emits laser light in the −Z direction. The illumination optical system 213 shapes the laser light from the light source 212 into the line light L and emits it in the −Z direction. The line light L is formed along a plane S1 parallel to the XZ plane. The wavelengths of the light used are not limited to the above red and blue, and for example, red and green or blue and green may be used. The matters regarding the wavelength of the light to be used are the same for the modified examples described later.

波長設定部240は、光源212から射出されるライン光Lの波長を切り替えることができるようになっている。波長設定部240によるライン光Lの波長の切り替えは、制御部CONTによって制御される。例えば、図5(a)に示すように、制御部CONTの指示により、波長設定部240は、光源212のうち赤色光源を点灯させ、青色光源を消灯させることで、光源212から赤色ライン光Lrを射出させることができる。 The wavelength setting unit 240 can switch the wavelength of the line light L emitted from the light source 212. The switching of the wavelength of the line light L by the wavelength setting unit 240 is controlled by the control unit CONT. For example, as shown in FIG. 5A, the wavelength setting unit 240 turns on the red light source and turns off the blue light source of the light source 212 according to an instruction from the control unit CONT, so that the red line light Lr is emitted from the light source 212. Can be injected.

照明光学系213から射出された赤色ライン光Lrは、−Z方向へ向けて厚さtrが徐々に縮小されていき、厚さtrが最も小さくなる部分(ビームウェスト)が形成されている。第1測定範囲L1は、Z方向について、このビームウェストのほぼ全体に設定されている。測定対象の表面が第1測定範囲L1に配置される場合、赤色ライン光Lrの光切断線PCL1はその表面に形成される。なお、この光切断線PCL1は、平面S1上に形成される。また、図5(a)に示すように、赤色ライン光Lrでは、第2測定範囲L2において厚さtrが十分に小さくなっていない。 The red line light Lr emitted from the illumination optical system 213 is gradually reduced in thickness tr in the −Z direction, and a portion (beam waist) where the thickness tr is minimized is formed. The first measurement range L1 is set to almost the entire beam waist in the Z direction. When the surface of the measurement target is arranged in the first measurement range L1, the light cutting line PCL1 of the red line light Lr is formed on the surface. The optical cutting line PCL1 is formed on the plane S1. Further, as shown in FIG. 5A, in the red line light Lr, the thickness tr is not sufficiently small in the second measurement range L2.

撮像部230は、受光面231を有している。上記した第1実施形態等と異なり、単一の撮像部230が用いられる。撮像部230の受光面231は、平面S3に配置されている。赤色ライン光Lrの光切断線PCL1の像は、撮像光学系20を介して、受光面231によって取得される。 The image capturing section 230 has a light receiving surface 231. Unlike the above-described first embodiment and the like, a single imaging unit 230 is used. The light receiving surface 231 of the imaging unit 230 is arranged on the plane S3. The image of the light cutting line PCL1 of the red line light Lr is acquired by the light receiving surface 231 via the imaging optical system 20.

図5(b)は、光源212から射出されるライン光Lを青色ライン光Lbに切り替えたときの様子を示す図である。図5(b)に示すように、制御部CONTの指示により、波長設定部240は、光源212のうち青色光源を点灯させ、赤色光源を消灯させることで、光源212から青色ライン光Lbを射出させることができる。 FIG. 5B is a diagram showing a state in which the line light L emitted from the light source 212 is switched to the blue line light Lb. As shown in FIG. 5B, the wavelength setting unit 240 emits the blue line light Lb from the light source 212 by turning on the blue light source and turning off the red light source of the light source 212 according to an instruction from the control unit CONT. Can be made

照明光学系213から射出された青色ライン光Lbは、−Z方向へ向けて厚さtbが徐々に縮小されていき、厚さtbが最も小さくなる部分(ビームウェスト)が形成されている。第2測定範囲L2は、Z方向について、このビームウェストのほぼ全体に設定されている。また、図5(b)に示すように、青色ライン光Lbでは、第1測定範囲L1において厚さtbが−Z方向へ向かうほど拡がっており、厚さtbが十分に小さくなっていない。 The blue line light Lb emitted from the illumination optical system 213 has a thickness tb gradually reduced in the −Z direction, and a portion (beam waist) having the smallest thickness tb is formed. The second measurement range L2 is set almost in the entire beam waist in the Z direction. Further, as shown in FIG. 5B, in the blue line light Lb, the thickness tb in the first measurement range L1 widens in the −Z direction, and the thickness tb is not sufficiently small.

上記のように、赤色ライン光Lr及び青色ライン光Lbを切り替えることにより、第1方向D1における測定範囲を変更することができる。これは、光照明部210の照明光学系213における軸上色収差を利用したものである。すなわち、波長によって光学系の屈折率の変化を利用したものであり、波長の短い光は波長の長い光に比べて、焦点距離が短くなる。このため、青色ライン光Lbの第2測定範囲L2は、赤色ライン光Lrの第1測定範囲L1よりも+Z側に形成される。このように、照明光学系213の軸上色収差を利用して、Z方向の位置が異なる第1測定範囲L1と第2測定範囲L2とを切り替えることが可能である。 As described above, the measurement range in the first direction D1 can be changed by switching the red line light Lr and the blue line light Lb. This utilizes the axial chromatic aberration in the illumination optical system 213 of the light illumination section 210. That is, the change in the refractive index of the optical system is utilized depending on the wavelength, and the light having a short wavelength has a shorter focal length than the light having a long wavelength. Therefore, the second measurement range L2 of the blue line light Lb is formed on the +Z side of the first measurement range L1 of the red line light Lr. In this way, it is possible to switch between the first measurement range L1 and the second measurement range L2 whose positions in the Z direction are different by utilizing the axial chromatic aberration of the illumination optical system 213.

従って、測定対象の表面が第2測定範囲L2に配置される場合、青色ライン光Lbを用いて第2測定範囲L2にある測定対象の表面に光切断線PCL2を形成させる。なお、この光切断線PCL2は、平面S1上に形成される。青色ライン光Lbによる光切断線PCL2の像は、光切断線PCL1と同様に、撮像光学系20を介して、撮像部230の受光面231によって取得される。 Therefore, when the surface of the measurement target is arranged in the second measurement range L2, the light cutting line PCL2 is formed on the surface of the measurement target in the second measurement range L2 using the blue line light Lb. The optical cutting line PCL2 is formed on the plane S1. The image of the light-section line PCL2 by the blue line light Lb is acquired by the light-receiving surface 231 of the imaging unit 230 via the imaging optical system 20, similarly to the light-section line PCL1.

センサユニット200では、上記したセンサユニット100と同様に、赤色ライン光Lrの光切断線PCL1及び青色ライン光Lbの光切断線PCL2が形成される第1及び第2測定範囲L1、L2(平面S1)と、撮像光学系20の主面S2(レンズ主面)と、撮像部230の受光面231を含む平面S3とが、一つの直線Pで交わるように配置されている。このように、第1及び第2測定範囲L1、L2と、撮像光学系20と、受光面231とがシャインプルーフの原理に従って配置されているため、撮像光学系20を介した光切断線PCL1、PCL2は、撮像部230の受光面231においてフォーカスされた状態で投影される。 In the sensor unit 200, similar to the sensor unit 100 described above, the first and second measurement ranges L1 and L2 (plane S1) where the light cutting line PCL1 of the red line light Lr and the light cutting line PCL2 of the blue line light Lb are formed. ), a main surface S2 (lens main surface) of the image pickup optical system 20, and a plane S3 including the light receiving surface 231 of the image pickup section 230 are arranged so as to intersect with one straight line P. As described above, since the first and second measurement ranges L1 and L2, the image pickup optical system 20, and the light receiving surface 231 are arranged according to the Scheimpflug principle, the optical cutting line PCL1 through the image pickup optical system 20, The PCL 2 is projected while being focused on the light receiving surface 231 of the image capturing unit 230.

なお、光切断線PCL1の像は受光面231のうち直線Pに近い側の領域に投影される。一方、光切断線PCL2の像は、受光面231のうち直線Pから遠い側の領域に投影される。また、光切断線PCL1、PCL2の像は、撮像光学系20に対してそれぞれ光路長が異なっている。このため、光切断線PCL1、PCL2の像は、撮像部230の受光面230aにおいて倍率が異なって投影されている。例えば、光切断線PCL1の像は、光切断線PCL2の像より小さな像として受光面230aに投影される。この場合、制御部CONTは、撮像部230によって取得された画像データの一方または双方を補正することで、投影倍率の差を解消することができる。 The image of the light-section line PCL1 is projected onto the area of the light-receiving surface 231 near the straight line P. On the other hand, the image of the light-section line PCL2 is projected onto the area of the light-receiving surface 231 that is far from the straight line P. Further, the images of the light section lines PCL1 and PCL2 have different optical path lengths with respect to the imaging optical system 20. Therefore, the images of the light cutting lines PCL1 and PCL2 are projected on the light receiving surface 230a of the imaging unit 230 with different magnifications. For example, the image of the light cutting line PCL1 is projected on the light receiving surface 230a as an image smaller than the image of the light cutting line PCL2. In this case, the control unit CONT can eliminate the difference in projection magnification by correcting one or both of the image data acquired by the imaging unit 230.

このように、第2実施形態によれば、波長設定部240において光照射部210から射出されるライン光Lの波長を切り替えることにより、ライン光Lの測定範囲を第1測定範囲L1と第2測定範囲L2とで切り替えることができる。これにより、高さ方向(第1方向D1、Z方向)が異なる測定対象に対して光切断線の像を得ることができる。従って、高さ方向に変化が大きな測定対象であっても光切断線を容易かつ確実に撮像することができる。 As described above, according to the second embodiment, the wavelength setting unit 240 switches the wavelength of the line light L emitted from the light irradiation unit 210, whereby the measurement range of the line light L is set to the first measurement range L1 and the second measurement range L1. It can be switched with the measurement range L2. Accordingly, it is possible to obtain an image of the optical cutting line with respect to the measuring objects having different height directions (first direction D1 and Z direction). Therefore, it is possible to easily and surely capture the light cutting line even if the measurement target has a large change in the height direction.

なお、上記したセンサユニット200では、単一の撮像部230を用いて複数の測定範囲での光切断線の像を得るようにしているが、これに限定されない。例えば、第1及び第2測定範囲L1、L2に対応して複数の撮像部が配置されてもよい。この場合、各撮像部は、図2に示すように、平面S3に沿って配置される場合や、図4に示すように、ハーフミラーHM等を用いて撮像部の一方を平面S4(図4等参照)に配置させてもよい。 In the sensor unit 200 described above, the single imaging unit 230 is used to obtain the images of the optical cutting lines in a plurality of measurement ranges, but the present invention is not limited to this. For example, a plurality of imaging units may be arranged corresponding to the first and second measurement ranges L1 and L2. In this case, each of the image pickup units is arranged along the plane S3 as shown in FIG. 2, or as shown in FIG. 4, one of the image pickup units is arranged on the plane S4 (see FIG. 4) using a half mirror HM or the like. Etc.).

また、上記したセンサユニット200では、赤色ライン光Lr及び青色ライン光Lbを切り替えて照射しているが、これに限定されない。例えば、赤色ライン光Lr及び青色ライン光Lbを同時に照射して、第1及び第2測定範囲L1、L2に同時に形成される光切断線PCL1、PCL2を同時に撮像部230によって撮像してもよい。この場合、上記した波長設定部240は不要となる。また、赤色ライン光Lr及び青色ライン光Lbを同時に照射する場合、他の波長の光を受光しないように、撮像部230の第1測定範囲L1に対応する領域と、第2測定範囲L2に対応する領域とのそれぞれに波長選択フィルタを配置してもよい。 In the sensor unit 200 described above, the red line light Lr and the blue line light Lb are switched and emitted, but the present invention is not limited to this. For example, the red line light Lr and the blue line light Lb may be irradiated at the same time, and the light section lines PCL1 and PCL2 simultaneously formed in the first and second measurement ranges L1 and L2 may be simultaneously imaged by the imaging unit 230. In this case, the wavelength setting unit 240 described above is unnecessary. In addition, when the red line light Lr and the blue line light Lb are simultaneously emitted, the region corresponding to the first measurement range L1 of the image capturing unit 230 and the second measurement range L2 are supported so as not to receive light of other wavelengths. You may arrange|position a wavelength selection filter to each of the area|region to perform.

<第3変形例>
次に、第3変形例について図面を参照して説明する。図6は、第3変形例に係るセンサユニット200Aの一例を示す図である。なお、上記した実施形態と同一または同等の構成部分については同一符号を付けて説明を省略または簡略化する。図6(a)及び(b)に示すように、センサユニット200Aは、撮像部230Aが第1位置PT1と第2位置PT2との間で移動可能な構成となっている。撮像部230Aは、図5に示す撮像部230と比較して小さいものが用いられる。
<Third Modification>
Next, a third modification will be described with reference to the drawings. FIG. 6 is a diagram showing an example of a sensor unit 200A according to the third modification. In addition, the same reference numerals will be given to the same or equivalent components as those in the above-described embodiment, and the description will be omitted or simplified. As shown in FIGS. 6A and 6B, the sensor unit 200A has a configuration in which the imaging unit 230A is movable between the first position PT1 and the second position PT2. The image pickup unit 230A is smaller than the image pickup unit 230 shown in FIG.

撮像部230Aは、平面S3に沿って移動可能に構成される。例えば、平面S3に沿ってリニアガイドが形成され、このリニアガイドを移動可能な可動部材に撮像部230Aが固定される。撮像部230Aは、例えばリニアモータ等の移動装置250の駆動により移動する。移動装置250の駆動は、制御部CONTによって制御される。なお、移動装置250としては、リニアモータの他にボールねじ機構やピエゾ素子等のアクチュエータが用いられてもよい。 The imaging unit 230A is configured to be movable along the plane S3. For example, a linear guide is formed along the plane S3, and the imaging unit 230A is fixed to a movable member that can move the linear guide. The imaging unit 230A moves by driving a moving device 250 such as a linear motor. The drive of the moving device 250 is controlled by the control unit CONT. As the moving device 250, a ball screw mechanism or an actuator such as a piezo element may be used instead of the linear motor.

第1位置PT1は、第1測定範囲L1に対応する位置に設定される。従って、撮像部230Aが第1位置PT1にある場合、第1測定範囲L1における光切断線PCL1の像は、撮像光学系20を介して撮像部230Aによって撮像可能となる。また、第2位置PT2は、第2測定範囲L2に対応する位置に設定される。従って、撮像部230Aが第2位置PT2にある場合、第2測定範囲L2における光切断線PCL2の像は、撮像光学系20を介して撮像部230Aによって撮像可能となる。なお、撮像部230Aは、第1位置PT1及び第2位置PT2のそれぞれにおいて、光切断線PCL1、PCL2の像を撮像可能な受光面231Aを有している。 The first position PT1 is set at a position corresponding to the first measurement range L1. Therefore, when the image capturing section 230A is at the first position PT1, the image of the optical cutting line PCL1 in the first measurement range L1 can be captured by the image capturing section 230A via the image capturing optical system 20. Further, the second position PT2 is set at a position corresponding to the second measurement range L2. Therefore, when the image capturing section 230A is at the second position PT2, the image of the optical cutting line PCL2 in the second measurement range L2 can be captured by the image capturing section 230A via the image capturing optical system 20. The image capturing section 230A has a light receiving surface 231A capable of capturing images of the optical cutting lines PCL1 and PCL2 at each of the first position PT1 and the second position PT2.

図6(a)に示すように、光源212から赤色ライン光Lrが射出され、第1測定範囲L1に設定されている場合、赤色ライン光Lrの光切断線PCL1の像は、撮像光学系20を介して第1位置PT1に到達する。したがって、赤色ライン光Lrが射出される場合には、制御部CONTの指示により移動装置250を駆動し、撮像部230Aを第1位置PT1に配置させる。これにより、光切断線PCL1の像は、撮像部230Aの受光面231Aに投影される。 As shown in FIG. 6A, when the red line light Lr is emitted from the light source 212 and is set in the first measurement range L1, the image of the light cutting line PCL1 of the red line light Lr is the imaging optical system 20. To reach the first position PT1. Therefore, when the red line light Lr is emitted, the moving device 250 is driven according to the instruction from the control unit CONT, and the image pickup unit 230A is arranged at the first position PT1. As a result, the image of the light section line PCL1 is projected on the light receiving surface 231A of the imaging unit 230A.

また、図6(b)に示すように、光源212から青色ライン光Lbが射出され、第2測定範囲L2が形成されている場合、青色ライン光Lbの光切断線PCL2の像は、撮像光学系20を介して第2位置PT2に到達する。したがって、青色ライン光Lbが射出される場合には、制御部CONTの指示により移動装置250を駆動し、撮像部230Aを第2位置PT2に配置させる。これにより、光切断線PCL2の像は、撮像部230Aの受光面231Aを介して取得される。 Further, as shown in FIG. 6B, when the blue line light Lb is emitted from the light source 212 and the second measurement range L2 is formed, the image of the light cutting line PCL2 of the blue line light Lb is the image pickup optical. The second position PT2 is reached via the system 20. Therefore, when the blue line light Lb is emitted, the moving device 250 is driven according to the instruction from the control unit CONT, and the image pickup unit 230A is arranged at the second position PT2. As a result, the image of the light section line PCL2 is acquired via the light receiving surface 231A of the imaging unit 230A.

このように、本変形例によれば、第1及び第2測定範囲L1、L2の双方を同時にカバーするような大きな撮像素子を用いる必要がない。第1及び第2測定範囲L1、L2の一方を撮像可能な小さな撮像素子を用いることができるので、撮像素子の低コスト化を図ることができる。 As described above, according to this modification, it is not necessary to use a large image sensor that simultaneously covers both the first and second measurement ranges L1 and L2. Since a small image sensor that can image one of the first and second measurement ranges L1 and L2 can be used, the cost of the image sensor can be reduced.

<第4変形例>
次に、第4変形例について図面を参照して説明する。図7は、第4変形例に係るセンサユニット200Bの一例を示す図である。なお、上記した実施形態と同一または同等の構成部分については同一符号を付けて説明を省略または簡略化する。図7(a)及び(b)に示すように、センサユニット200Bは、光照射部210Bにおいて、赤色光を射出する第1光源212aと、青色光を射出する第2光源212bとが個別に配置されている。第1光源212aは、例えば、波長が約650nmの赤色光を射出する赤色レーザダイオードなどが用いられる。第2光源212bは、例えば、波長が約450nmの青色光を射出する青色レーザダイオードなどが用いられる。
<Fourth Modification>
Next, a fourth modified example will be described with reference to the drawings. FIG. 7 is a diagram showing an example of a sensor unit 200B according to the fourth modification. In addition, the same reference numerals will be given to the same or equivalent components as those of the above-described embodiment, and the description thereof will be omitted or simplified. As shown in FIGS. 7A and 7B, in the sensor unit 200B, a first light source 212a that emits red light and a second light source 212b that emits blue light are individually arranged in the light irradiation section 210B. Has been done. As the first light source 212a, for example, a red laser diode that emits red light having a wavelength of about 650 nm is used. As the second light source 212b, for example, a blue laser diode that emits blue light having a wavelength of about 450 nm is used.

このセンサユニット200Bは、波長設定部(変更部)240Bを有している。波長設定部240Bは、制御部CONTからの指示により、第1光源212aと第2光源212bとを切り替える。波長設定部240Bによって第1光源212aと第2光源212bとを切り替えて用いることにより、赤色ライン光Lr及び青色ライン光Lbを切り替えて射出可能としている。 The sensor unit 200B has a wavelength setting section (changing section) 240B. The wavelength setting unit 240B switches between the first light source 212a and the second light source 212b according to an instruction from the control unit CONT. By switching between the first light source 212a and the second light source 212b by the wavelength setting unit 240B, the red line light Lr and the blue line light Lb can be switched and emitted.

光照射部210Bは、導光光学系214を有している。導光光学系214は、第1光源212aから照明光学系213まで赤色光を導光する。導光光学系214は、ミラー214aとダイクロイックミラー214bとを有している。ミラー214aは、第1光源212aから射出された赤色光を+Y方向に全反射する。ダイクロイックミラー214bは、ミラー214aに対して+Y方向であって第2光源212bの−Z方向の位置に配置されている。ダイクロイックミラー214bは、赤色光を反射するとともに、青色光を透過する。この導光光学系214によって、赤色ライン光Lr及び青色ライン光Lbのいずれも平面S1に沿って照射される。 The light irradiation section 210B has a light guide optical system 214. The light guide optical system 214 guides red light from the first light source 212a to the illumination optical system 213. The light guide optical system 214 has a mirror 214a and a dichroic mirror 214b. The mirror 214a totally reflects the red light emitted from the first light source 212a in the +Y direction. The dichroic mirror 214b is arranged at a position in the +Y direction with respect to the mirror 214a and in the −Z direction of the second light source 212b. The dichroic mirror 214b reflects red light and transmits blue light. Both the red line light Lr and the blue line light Lb are emitted by the light guide optical system 214 along the plane S1.

図7(a)に示すように、第1光源212aから赤色光が−Z方向に射出される場合、この赤色光はミラー214aによって+Y方向に反射され、ダイクロイックミラー214bによって−Z方向に反射される。この赤色光は、照明光学系213によって赤色ライン光Lrに成形されて光照射部210Bから−Z方向に射出される。これにより、第1測定範囲L1が形成される。従って、第1測定範囲L1において、赤色ライン光Lrにより形成された光切断線PCL1の像は、撮像光学系20を介して撮像部230の受光面231に投影される。これにより、光切断線PCL1の像は、撮像部230によって取得される。 As shown in FIG. 7A, when the red light is emitted from the first light source 212a in the −Z direction, the red light is reflected in the +Y direction by the mirror 214a and is reflected in the −Z direction by the dichroic mirror 214b. It This red light is shaped into red line light Lr by the illumination optical system 213 and is emitted from the light irradiation unit 210B in the −Z direction. As a result, the first measurement range L1 is formed. Therefore, in the first measurement range L1, the image of the light section line PCL1 formed by the red line light Lr is projected onto the light receiving surface 231 of the image capturing unit 230 via the image capturing optical system 20. As a result, the image of the light section line PCL1 is acquired by the imaging unit 230.

図7(b)に示すように、第2光源212bから青色光が−Z方向に射出される場合、この青色光はダイクロイックミラー214bを−Z方向に透過する。この青色光は、照明光学系213によって青色ライン光Lbに成形されて光照射部210Bから−Z方向に射出される。これにより、第2測定範囲L2が形成される。従って、第2測定範囲L2において、青色ライン光Lbにより形成された光切断線PCL2の像は、撮像光学系20を介して撮像部230の受光面231に投影される。これにより、光切断線PCL2の像は、撮像部230によって取得される。 As shown in FIG. 7B, when blue light is emitted from the second light source 212b in the −Z direction, this blue light passes through the dichroic mirror 214b in the −Z direction. This blue light is shaped into a blue line light Lb by the illumination optical system 213 and is emitted from the light irradiation unit 210B in the −Z direction. As a result, the second measurement range L2 is formed. Therefore, in the second measurement range L2, the image of the light section line PCL2 formed by the blue line light Lb is projected on the light receiving surface 231 of the image capturing unit 230 via the image capturing optical system 20. As a result, the image of the light section line PCL2 is acquired by the imaging unit 230.

このように、本変形例によれば、赤色光を射出する第1光源212aと青色光を射出する第2光源212bとを別個に設けることにより、各色の光源をまとめて配置させる場合に比べて、大きな光量を容易に確保することができる。これにより、撮像部230において明るい画像を容易に取得することができる。 As described above, according to the present modification, by providing the first light source 212a that emits red light and the second light source 212b that emits blue light separately, as compared with the case where light sources of respective colors are collectively arranged. Therefore, a large amount of light can be easily secured. As a result, a bright image can be easily acquired by the imaging unit 230.

なお、本変形例では、波長設定部240Bが第1光源212aと第2光源212bとを切り替えて用いる場合を例に挙げて説明したが、これに限定するものではなく、第2実施形態と同様に、第1光源212aと第2光源212bとを同時に用いるようにしてもよい。この場合、第1光源212aから射出される赤色光は、赤色ライン光Lrとして光照射部210Bから射出され、第1測定範囲L1を形成する。また、第2光源212bから射出される青色光は、青色ライン光Lbとして光照射部210Bから射出され、第2測定範囲L2を形成する。このように、赤色ライン光Lrによる第1測定範囲L1と青色ライン光Lbによる第2測定範囲L2とが同時に形成される。 In the present modification, the case where the wavelength setting unit 240B uses the first light source 212a and the second light source 212b by switching has been described as an example, but the present invention is not limited to this and the same as in the second embodiment. Moreover, you may make it use the 1st light source 212a and the 2nd light source 212b simultaneously. In this case, the red light emitted from the first light source 212a is emitted from the light irradiation unit 210B as the red line light Lr and forms the first measurement range L1. Further, the blue light emitted from the second light source 212b is emitted from the light irradiation unit 210B as the blue line light Lb and forms the second measurement range L2. In this way, the first measurement range L1 with the red line light Lr and the second measurement range L2 with the blue line light Lb are simultaneously formed.

また、本変形例では、互いに異なる波長の光を射出する第1光源212a及び第2光源212bが共通の照明光学系213を介して射出される構成を例に挙げて説明したが、これに限定するものではなく、第1光源212a及び第2光源212bからの光が異なる照明光学系を介して射出されるようにしてもよい。 Further, in the present modification, the configuration in which the first light source 212a and the second light source 212b that emit light of different wavelengths are emitted through the common illumination optical system 213 has been described as an example, but the present invention is not limited to this. However, the light from the first light source 212a and the light from the second light source 212b may be emitted through different illumination optical systems.

また、導光光学系214は、上記したものに限定されず、例えば、光ファイバ等が用いられてもよい。また、撮像部230に代えて、上記した第3変形例のような移動可能な小型の撮像部230Aが用いられてもよい。 Further, the light guide optical system 214 is not limited to the one described above, and for example, an optical fiber or the like may be used. Further, instead of the image pickup unit 230, a movable small image pickup unit 230A as in the third modified example described above may be used.

また、上記したセンサユニット200Bでは、単一の撮像部230を用いているが、これに限定されない。例えば、第1及び第2測定範囲L1、L2に対応して複数の撮像部が配置されてもよい。この場合、各撮像部は、図2に示すように、平面S3に沿って配置される場合や、図3及び図4に示すように、ハーフミラーHM等を用いて撮像部の一方を平面S4(図3等参照)に配置させてもよい。 Further, although the sensor unit 200B described above uses the single imaging unit 230, the present invention is not limited to this. For example, a plurality of imaging units may be arranged corresponding to the first and second measurement ranges L1 and L2. In this case, each imaging unit is arranged along the plane S3 as shown in FIG. 2, or one of the imaging units is arranged on the plane S4 by using a half mirror HM or the like as shown in FIGS. 3 and 4. (See FIG. 3 etc.).

<第5変形例>
次に、第5変形例について図面を参照して説明する。図8は、第5変形例に係るセンサユニット200Cの一例を示す図である。なお、上記した実施形態と同一または同等の構成部分については同一符号を付けて説明を省略または簡略化する。図8(a)及び(b)に示すように、センサユニット200Cは、光の波長を選択して受光する複数の画素232を有した撮像部230が用いられる。画素232は、撮像部230の受光面231のうち、第1位置233に配置された複数の画素232aと、第2位置234に配置された複数の画素232bとを有する。
<Fifth Modification>
Next, a fifth modified example will be described with reference to the drawings. FIG. 8 is a diagram showing an example of a sensor unit 200C according to the fifth modification. In addition, the same reference numerals will be given to the same or equivalent components as those of the above-described embodiment, and the description thereof will be omitted or simplified. As shown in FIGS. 8A and 8B, the sensor unit 200C uses the imaging unit 230 having a plurality of pixels 232 that select the wavelength of light and receive the light. The pixel 232 has a plurality of pixels 232 a arranged at the first position 233 and a plurality of pixels 232 b arranged at the second position 234 on the light receiving surface 231 of the imaging unit 230.

第1位置233は、第1測定範囲L1に対応し、光切断線PCL1の像が撮像光学系20を介して投影される。第2位置234は、第2測定範囲に対応し、光切断線PCL2の像が撮像光学系20を介して投影される。第1位置233の画素232aは、赤色の波長を選択して受光するものが用いられる。第2位置234の画素232bは、青色の波長を選択して受光するものが用いられる。撮像部230には、このような画素232の選択を行う画素選択部260が接続される。画素選択部260による画素232の選択は、制御部CONTからの指示によって行う。 The first position 233 corresponds to the first measurement range L1, and the image of the light section line PCL1 is projected via the imaging optical system 20. The second position 234 corresponds to the second measurement range, and the image of the light section line PCL2 is projected via the imaging optical system 20. As the pixel 232a at the first position 233, one that selects the red wavelength and receives the light is used. As the pixel 232b at the second position 234, one that selects a blue wavelength and receives light is used. A pixel selection unit 260 that selects such pixels 232 is connected to the imaging unit 230. The selection of the pixel 232 by the pixel selection unit 260 is performed according to an instruction from the control unit CONT.

図8(a)に示すように、光源212から赤色ライン光Lrが射出され、第1測定範囲L1が設定されている場合、光切断線PCL1の像は、撮像光学系20を介して撮像部230の第1位置233に到達する。したがって、赤色ライン光Lrが射出される場合には、画素選択部260により、第1位置233に配置される複数の画素232aによって受光させるようにする。これにより、光切断線PCL1の像は、撮像部230の画素232aを介して取得される。 As shown in FIG. 8A, when the red line light Lr is emitted from the light source 212 and the first measurement range L1 is set, the image of the light section line PCL1 is captured by the image capturing unit via the image capturing optical system 20. The first position 233 of 230 is reached. Therefore, when the red line light Lr is emitted, the pixel selection unit 260 causes the plurality of pixels 232 a arranged at the first position 233 to receive the light. Accordingly, the image of the light section line PCL1 is acquired via the pixel 232a of the imaging unit 230.

図8(b)に示すように、光源212から青色ライン光Lbが射出され、第2測定範囲L2が設定されている場合、光切断線PCL2の像は、撮像光学系20を介して撮像部230の第2位置234に到達する。したがって、青色ライン光Lbが射出される場合には、画素選択部260により、第2位置234に配置される複数の画素232bによって受光させるようにする。これにより、光切断線PCL2の像は、撮像部230の画素232bを介して取得される。 As shown in FIG. 8B, when the blue line light Lb is emitted from the light source 212 and the second measurement range L2 is set, the image of the light cutting line PCL2 is captured by the imaging unit 20 via the imaging optical system 20. The second position 234 of 230 is reached. Therefore, when the blue line light Lb is emitted, the pixel selection unit 260 causes the plurality of pixels 232b arranged at the second position 234 to receive the light. Accordingly, the image of the light section line PCL2 is acquired via the pixel 232b of the imaging unit 230.

このように、本変形例によれば、撮像部230の画素232a、232bによって光の波長を選択して受光するので、赤色ライン光Lrまたは青色ライン光Lbによって形成された光切断線PCL1、PCL2を効率よく撮像することができる。また、撮像部230に備える複数の画素232のうち受光する画素を選択できるため、全ての画素232を常時駆動させる必要がなく、撮像部230の駆動電力を低減できる。 As described above, according to the present modification, the wavelengths of light are selected and received by the pixels 232a and 232b of the image capturing unit 230, so that the light cutting lines PCL1 and PCL2 formed by the red line light Lr or the blue line light Lb are formed. Can be efficiently imaged. Further, among the plurality of pixels 232 included in the image capturing unit 230, the pixels that receive light can be selected, so that it is not necessary to constantly drive all the pixels 232, and the drive power of the image capturing unit 230 can be reduced.

なお、本変形例では、画素選択部260により画素232a、232bを切り替えているが、これに限定されない。例えば、画素選択部260を設けずに、第1及び第2測定範囲L1、L2の双方において、全ての画素232から受光させるようにしてもよい。また、図8では、第1位置233に画素232aを配置させ、第2位置234に画素232bを配置させているが、これに限定されない。例えば、撮像部230の全面において画素232a、232bを交互に配置させてもよい。また、撮像部230は、画素232a、232bとは異なる波長を選択して受光可能な画素(例えば、緑色を受光可能な画素)と組み合わされて配置されてもよい。 In this modification, the pixels 232a and 232b are switched by the pixel selection unit 260, but the present invention is not limited to this. For example, the pixel selection unit 260 may not be provided, and light may be received from all the pixels 232 in both the first and second measurement ranges L1 and L2. Although the pixel 232a is arranged at the first position 233 and the pixel 232b is arranged at the second position 234 in FIG. 8, the invention is not limited to this. For example, the pixels 232a and 232b may be alternately arranged on the entire surface of the imaging unit 230. Further, the image capturing section 230 may be arranged in combination with a pixel (for example, a pixel capable of receiving green light) capable of selecting a wavelength different from that of the pixels 232a and 232b and receiving light.

また、上記したセンサユニット200Cでは、平面S3に沿って画素232a、232b配置させているが、これに限定されない。例えば、第1位置233の画素232aを平面S3に配置させるとともに、第2位置234の画素232bを異なる平面(例えば、図3等に示す平面S4等)に配置させてもよい。 In the sensor unit 200C described above, the pixels 232a and 232b are arranged along the plane S3, but the invention is not limited to this. For example, the pixel 232a at the first position 233 may be arranged on the plane S3, and the pixel 232b at the second position 234 may be arranged on a different plane (for example, the plane S4 shown in FIG. 3 and the like).

<第6変形例>
次に、第6変形例について説明する。なお、上記した実施形態と同一または同等の構成部分については同一符号を付けて説明を省略または簡略化する。第6変形例に係るセンサユニット(以下、センサユニット200Dと呼ぶ。)は、光照射部(以下、光照射部210Dと呼ぶ。)が単一波長の光を射出する光源(以下、光源212Dと呼ぶ。)を有する。また、センサユニット200Dは、光照射部210Dを第1方向D1(Z方向)に移動可能に形成されるとともに、光照射部210Dを移動させるための駆動部(以下、駆動部270と呼ぶ。)を有している。
<Sixth Modification>
Next, a sixth modified example will be described. In addition, the same reference numerals will be given to the same or equivalent components as those of the above-described embodiment, and the description thereof will be omitted or simplified. A sensor unit (hereinafter, referred to as a sensor unit 200D) according to a sixth modification has a light source (hereinafter, referred to as a light source 212D) from which a light irradiation unit (hereinafter, referred to as a light irradiation unit 210D) emits light of a single wavelength. Call)). Further, the sensor unit 200D is formed so that the light irradiation section 210D is movable in the first direction D1 (Z direction), and a drive section (hereinafter, referred to as a drive section 270) for moving the light irradiation section 210D. have.

光照射部210Dは、例えば、第1方向D1に沿って配置されたリニアガイドを移動可能な可動部材に固定される。駆動部270は、光照射部210Dを第1位置215と第2位置216との間で移動させる。駆動部270としては、例えば、リニアモータやボールねじ機構等が用いられる。駆動部270の駆動は、制御部CONTからの指示によって行う。光照射部210Dは、接触式または非接触式のリミットスイッチや、光学式の測定器、エンコーダ等を用いることにより、第1位置(以下、第1位置215と呼ぶ。)または第2位置(第2位置216と呼ぶ。)に対して位置決めを行う。 The light irradiation unit 210D is fixed to, for example, a movable member that can move a linear guide arranged along the first direction D1. The driving unit 270 moves the light irradiation unit 210D between the first position 215 and the second position 216. As the drive unit 270, for example, a linear motor, a ball screw mechanism, or the like is used. The driving unit 270 is driven by an instruction from the control unit CONT. The light irradiator 210D uses a contact type or non-contact type limit switch, an optical measuring device, an encoder, or the like, and thus the first position (hereinafter, referred to as the first position 215) or the second position (the first position 215). 2 position 216).

ここで、光源212Dからライン光Lが射出される場合、ライン光LのビームウェストBWは、プローブ211の−Z側の端面から所定距離(以下、機械的作動距離L3と呼ぶ。)だけ離れた位置に形成される。この構成において、駆動部270を駆動させ、光照射部210Dを第1位置215と第2位置216との間で移動させることにより、機械的作動距離L3の値が変化しないまま、ライン光LのビームウェストBWの位置が第1方向D1で移動する。このセンサユニット200Dは、上記した第2実施形態の第1測定範囲L1に対応する位置にビームウェストBWが形成されるような光照射部210Dの位置を第1位置215とし、第2測定範囲L2に対応する位置にビームウェストBWが形成されるような光照射部210Dの位置を第2位置216とする。 Here, when the line light L is emitted from the light source 212D, the beam waist BW of the line light L is separated from the end surface of the probe 211 on the −Z side by a predetermined distance (hereinafter, referred to as mechanical working distance L3). Formed in position. In this configuration, by driving the drive unit 270 and moving the light irradiation unit 210D between the first position 215 and the second position 216, the line light L of the line light L is changed without changing the value of the mechanical working distance L3. The position of the beam waist BW moves in the first direction D1. In this sensor unit 200D, the position of the light irradiation part 210D at which the beam waist BW is formed at the position corresponding to the first measurement range L1 of the second embodiment described above is set to the first position 215, and the second measurement range L2 is set. The position of the light irradiation part 210D where the beam waist BW is formed at the position corresponding to is the second position 216.

これにより、駆動部270を駆動して第1位置215に光照射部210Dを位置させた場合、第1測定範囲L1が設定される。したがって、光切断線PCL1の像は、撮像光学系20を介して撮像部230に投影される。また、駆動部270を駆動して第2位置216に光照射部210Dを位置させた場合、第2測定範囲L2が設定される。したがって、光切断線PCL2の像は、光学系20を介して撮像部230に投影される。 Accordingly, when the drive unit 270 is driven to position the light irradiation unit 210D at the first position 215, the first measurement range L1 is set. Therefore, the image of the light section line PCL1 is projected onto the image capturing section 230 via the image capturing optical system 20. Further, when the drive unit 270 is driven to position the light irradiation unit 210D at the second position 216, the second measurement range L2 is set. Therefore, the image of the light section line PCL2 is projected on the imaging unit 230 via the optical system 20.

このように、本変形例によれば、駆動部270が光照射部210Dを第1方向D1に移動させることにより第1測定範囲L1と第2測定範囲L2とを切り替えることができるため、単一波長の光を射出する光源212Dを用いるときでも、第1方向D1における測定範囲を容易に変更することができる。 As described above, according to the present modification, the drive unit 270 can switch the first measurement range L1 and the second measurement range L2 by moving the light irradiation unit 210D in the first direction D1. Even when using the light source 212D that emits light of the wavelength, the measurement range in the first direction D1 can be easily changed.

また、上記したセンサユニット200Dでは、単一の撮像部230を用いているが、これに限定されない。例えば、第1及び第2測定範囲L1、L2に対応して複数の撮像部が配置されてもよい。この場合、各撮像部は、図2に示すように、平面S3に沿って配置される場合や、図4に示すように、ハーフミラーHM等を用いて撮像部の一方を平面S4(図4等参照)に配置させてもよい。 Further, although the sensor unit 200D described above uses the single imaging unit 230, the present invention is not limited to this. For example, a plurality of imaging units may be arranged corresponding to the first and second measurement ranges L1 and L2. In this case, each of the image pickup units is arranged along the plane S3 as shown in FIG. 2, or as shown in FIG. 4, one of the image pickup units is arranged on the plane S4 (see FIG. 4) using a half mirror HM or the like. Etc.).

<第7変形例>
次に、第7変形例について説明する。なお、上記した実施形態と同一または同等の構成部分については同一符号を付けて説明を省略または簡略化する。第7変形例に係るセンサユニット(以下、センサユニット200Eと呼ぶ。)は、光照射部(以下、光照射部210Eと呼ぶ。)が単一波長の光を射出する光源(以下、光源212Eと呼ぶ。)を有する。また、センサユニット200Eは、光照射部210Eの照明光学系213を第1方向D1(Z方向)に移動させる構造が採用される。
<Seventh Modification>
Next, a seventh modified example will be described. In addition, the same reference numerals will be given to the same or equivalent components as those of the above-described embodiment, and the description thereof will be omitted or simplified. A sensor unit (hereinafter, referred to as a sensor unit 200E) according to a seventh modified example is a light source (hereinafter, referred to as a light source 212E) from which a light irradiation unit (hereinafter, referred to as a light irradiation unit 210E) emits light of a single wavelength. Call)). Further, the sensor unit 200E has a structure in which the illumination optical system 213 of the light irradiation section 210E is moved in the first direction D1 (Z direction).

照明光学系213は、1つまたは2つ以上の光学素子が組み合わされて構成されている。これら光学素子のうち1つ以上が第1方向D1に移動可能に支持されている。照明光学系213は、移動可能な光学素子を移動させる駆動部(以下、駆動部270Eと呼ぶ。)を有している。駆動部270Eとしては、例えば、ピエゾ素子等のアクチュエータが用いられる。駆動部270Eの駆動は、制御部CONTからの指示によって行う。 The illumination optical system 213 is configured by combining one or more optical elements. One or more of these optical elements are movably supported in the first direction D1. The illumination optical system 213 has a drive unit (hereinafter, referred to as a drive unit 270E) that moves the movable optical element. As the drive unit 270E, for example, an actuator such as a piezo element is used. The drive of the drive unit 270E is performed according to an instruction from the control unit CONT.

駆動部270Eは、照明光学系213のうち1つまたは複数の光学素子を第1位置(以下、第1位置217と呼ぶ。)と第2位置(以下、第2位置218と呼ぶ。)との間で移動させる。ここで、光源212Eから単一波長の光が射出され、光照射部210Eからライン光Lが射出される場合、ライン光LのビームウェストBWは、プローブ211の−Z側の端面から所定距離(機械的作動距離)だけ離れた位置に形成される。この構成において、駆動部270Eが照明光学系213の光学素子を第1位置217と第2位置218との間で移動させることにより、機械的作動距離が変化し、ライン光LのビームウェストBWの位置が第1方向D1を移動する。 The drive unit 270E sets one or more optical elements of the illumination optical system 213 between a first position (hereinafter, referred to as a first position 217) and a second position (hereinafter, referred to as a second position 218). Move between. Here, when light of a single wavelength is emitted from the light source 212E and line light L is emitted from the light irradiation unit 210E, the beam waist BW of the line light L is a predetermined distance (−) from the end surface of the probe 211 on the −Z side. (Mechanical working distance). In this configuration, the drive unit 270E moves the optical element of the illumination optical system 213 between the first position 217 and the second position 218, so that the mechanical working distance is changed and the beam waist BW of the line light L is changed. The position moves in the first direction D1.

このセンサユニット200Eは、上記した第2実施形態の第1測定範囲L1に対応する位置にビームウェストBWが形成されるような照明光学系213(光学素子)の位置を第1位置217とし、第2測定範囲L2に対応する位置にビームウェストBWが形成されるような照明光学系213(光学素子)の位置を第2位置218とする。 In this sensor unit 200E, the position of the illumination optical system 213 (optical element) such that the beam waist BW is formed at the position corresponding to the first measurement range L1 of the second embodiment described above is set to the first position 217, and the first position 217 is set. The position of the illumination optical system 213 (optical element) where the beam waist BW is formed at the position corresponding to the second measurement range L2 is referred to as a second position 218.

これにより、駆動部270Eを駆動して第1位置217に照明光学系213を位置させた場合、第1測定範囲L1が設定される。したがって、光切断線PCL1の像は、撮像光学系20を介して撮像部230に投影される。また、駆動部270Eを駆動して第2位置218に照明光学系213を位置させた場合、第2測定範囲L2が設定される。したがって、光切断線PCL2の像は、光学系20を介して撮像部230に投影される。 As a result, when the driving unit 270E is driven to position the illumination optical system 213 at the first position 217, the first measurement range L1 is set. Therefore, the image of the light section line PCL1 is projected onto the image capturing section 230 via the image capturing optical system 20. Further, when the driving unit 270E is driven to position the illumination optical system 213 at the second position 218, the second measurement range L2 is set. Therefore, the image of the light section line PCL2 is projected on the imaging unit 230 via the optical system 20.

このように、本変形例によれば、駆動部270Eが照明光学系213(光学素子)を第1方向D1に移動させることにより第1測定範囲L1と第2測定範囲L2とを切り替えることができるため、単一波長の光を射出する光源212Eを用いるときでも、第1方向D1における測定範囲を容易に変更することができる。 As described above, according to the present modification, the drive unit 270E can switch between the first measurement range L1 and the second measurement range L2 by moving the illumination optical system 213 (optical element) in the first direction D1. Therefore, even when the light source 212E that emits light of a single wavelength is used, the measurement range in the first direction D1 can be easily changed.

また、上記したセンサユニット200Eでは、単一の撮像部230を用いているが、これに限定されない。例えば、第1及び第2測定範囲L1、L2に対応して複数の撮像部が配置されてもよい。この場合、各撮像部は、図2に示すように、平面S3に沿って配置される場合や、図4に示すように、ハーフミラーHM等を用いて撮像部の一方を平面S4(図4等参照)に配置させてもよい。 Further, although the sensor unit 200E described above uses the single imaging unit 230, the present invention is not limited to this. For example, a plurality of imaging units may be arranged corresponding to the first and second measurement ranges L1 and L2. In this case, each of the image pickup units is arranged along the plane S3 as shown in FIG. 2, or as shown in FIG. 4, one of the image pickup units is arranged on the plane S4 (see FIG. 4) using a half mirror HM or the like. Etc.).

また、上記した第2実施形態及び第3〜第7変形例では、第1方向D1の測定範囲を第1測定範囲L1と第2測定範囲L2の2つに分けているが、これに限定されない。例えば、測定範囲を第1方向D1に3つ以上に分けて、第3測定範囲、第4測定範囲・・・と設定してもよい。この場合、第3測定範囲等を設定するように、複数の波長の光を用いること(第2実施形態及び第3〜第5変形例)、光照射部210Dを移動させること(第6変形例)、照明光学系213を移動させること(第7変形例)、によってそれぞれ対応可能である。 Further, in the above-described second embodiment and third to seventh modified examples, the measurement range in the first direction D1 is divided into two, that is, the first measurement range L1 and the second measurement range L2, but the present invention is not limited to this. .. For example, the measurement range may be divided into three or more in the first direction D1 and set as the third measurement range, the fourth measurement range,.... In this case, light of a plurality of wavelengths is used so as to set the third measurement range and the like (second embodiment and third to fifth modifications), and the light irradiation unit 210D is moved (sixth modification). ) And moving the illumination optical system 213 (seventh modified example).

また、上記した第2実施形態及び第3〜第7変形例では、1つの撮像光学系20を介して光切断線PCL1、PCL2の像を取り込んでいるが、これに限定されず、第1または第2撮像部30、40のそれぞれに対応した撮像光学系が用いられてもよい。 Further, in the above-described second embodiment and third to seventh modified examples, the images of the optical cutting lines PCL1 and PCL2 are captured through one imaging optical system 20, but the present invention is not limited to this, and the first or An image pickup optical system corresponding to each of the second image pickup units 30 and 40 may be used.

<形状測定装置>
図9は、図1に示すセンサユニット100を備えた形状測定装置300の実施形態の一例を示す模式図である。図9に示すように、形状測定装置300は、測定機本体301と、制御ユニット340とを備えている。測定機本体301は、基台302と、移動部(走査系)310と、測定ヘッド313と、支持装置330とを備えている。
<Shape measuring device>
FIG. 9 is a schematic diagram showing an example of an embodiment of a shape measuring apparatus 300 including the sensor unit 100 shown in FIG. As shown in FIG. 9, the shape measuring apparatus 300 includes a measuring machine body 301 and a control unit 340. The measuring machine body 301 includes a base 302, a moving unit (scanning system) 310, a measuring head 313, and a supporting device 330.

基台302は、水平な基準面を備えている。この基台302の基準面に基づいて、直交座標系(機械座標系)が定義される。互いに直交するX軸とY軸とが基準面に対して平行に定められ、Z軸が基準面に対して直交する方向に定められている。また、基台302には、Y方向(紙面に垂直な方向でこれを前後方向とする)に延びるガイドレール(不図示)が設けられている。 The base 302 has a horizontal reference plane. An orthogonal coordinate system (machine coordinate system) is defined based on the reference plane of the base 302. An X axis and a Y axis which are orthogonal to each other are defined in parallel to the reference plane, and a Z axis is defined in a direction orthogonal to the reference plane. Further, the base 302 is provided with a guide rail (not shown) extending in the Y direction (the direction perpendicular to the plane of the drawing, which is the front-back direction).

移動部310は、基台302に形成されたガイドレール上をY方向に移動可能に設けられている。移動部310は、一対の支柱310a、310bと、この支柱310a、310b間に架け渡されたフレーム310cとを備えており、門型に構成される。支柱310a、310bは、基台302からZ方向に起立して設けられている。フレーム310cは、支柱310aと支柱310bとの間に、X方向に沿って水平に架け渡されている。移動部310の移動は、後述する制御ユニット340によって制御される。フレーム310cには、X方向(左右方向)に移動可能なキャリッジ(不図示)が設けられている。 The moving unit 310 is provided so as to be movable in the Y direction on the guide rail formed on the base 302. The moving unit 310 includes a pair of support columns 310a and 310b and a frame 310c bridged between the support columns 310a and 310b, and is configured in a gate shape. The columns 310a and 310b are provided upright from the base 302 in the Z direction. The frame 310c is bridged horizontally between the columns 310a and 310b along the X direction. The movement of the moving unit 310 is controlled by the control unit 340 described later. The frame 310c is provided with a carriage (not shown) that is movable in the X direction (horizontal direction).

測定ヘッド313は、フレーム310cのキャリッジに対してZ方向(上下方向)に移動可能に設けられている。測定ヘッド313は、キャリッジが移動することによりフレーム310cをX方向に移動可能となっている。測定ヘッド313の移動は、後述する制御ユニット340によって制御される。測定ヘッド313は、測定対象Mの形状を検出するセンサユニット100を有している。センサユニット100は、ヘッド回転機構313aを介して測定ヘッド313に取り付けられる。センサユニット100は、ヘッド回転機構313aによりθZ方向に回転する。センサユニット100の回転は、後述する制御ユニット340によって制御される。 The measurement head 313 is provided so as to be movable in the Z direction (vertical direction) with respect to the carriage of the frame 310c. The measuring head 313 can move the frame 310c in the X direction by moving the carriage. The movement of the measuring head 313 is controlled by the control unit 340 described later. The measurement head 313 has a sensor unit 100 that detects the shape of the measurement target M. The sensor unit 100 is attached to the measurement head 313 via the head rotation mechanism 313a. The sensor unit 100 is rotated in the θZ direction by the head rotation mechanism 313a. The rotation of the sensor unit 100 is controlled by the control unit 340 described later.

また、フレーム310cには、フレーム回転部310dが設けられている。フレーム回転部310dは、フレーム310cをθX方向に回転させる。フレーム310cがθX方向に回転することにより、センサユニット100から照射されるライン光LをY方向に走査することができる。なお、ライン光LのY方向への走査をフレーム310cの回転によって行うことに限定されない。例えば、移動部310をY方向に移動させることにより、ライン光LをY方向に走査させてもよい。 A frame rotating unit 310d is provided on the frame 310c. The frame rotating unit 310d rotates the frame 310c in the θX direction. By rotating the frame 310c in the θX direction, the line light L emitted from the sensor unit 100 can be scanned in the Y direction. The scanning of the line light L in the Y direction is not limited to the rotation of the frame 310c. For example, the line light L may be scanned in the Y direction by moving the moving unit 310 in the Y direction.

移動部310の内部には、不図示のヘッド駆動部と、ヘッド位置検出部とが設けられている。ヘッド駆動部は、測定ヘッド313をX方向、Y方向、Z方向、θX方向、θZ方向に、例えば電動によって移動させる。ヘッド位置検出部は、測定ヘッド313の座標を検出し、後述する制御ユニット340に測定ヘッド313の座標値を示す信号を出力する。 Inside the moving unit 310, a head driving unit and a head position detecting unit (not shown) are provided. The head driving unit moves the measuring head 313 in the X direction, Y direction, Z direction, θX direction, and θZ direction by, for example, electric driving. The head position detection unit detects the coordinates of the measuring head 313 and outputs a signal indicating the coordinate value of the measuring head 313 to the control unit 340 described later.

基台302上には、支持装置330が設けられている。支持装置330は、ステージ331と、支持テーブル332とを備えている。ステージ331は、測定対象Mを保持する。支持テーブル332は、θX方向及びθZ方向にステージ331を回転させる。これにより、ステージ331は、基台302の基準面に対して傾斜または水平回転する。 A support device 330 is provided on the base 302. The support device 330 includes a stage 331 and a support table 332. The stage 331 holds the measurement target M. The support table 332 rotates the stage 331 in the θX direction and the θZ direction. As a result, the stage 331 is inclined or horizontally rotated with respect to the reference plane of the base 302.

制御ユニット340は、制御部341と、入力装置342と、モニタ344とを備える。制御部341は、測定機本体301を制御する。制御部341は、センサユニット100からの画像情報と、移動部310によるセンサユニット100の走査情報とに基づいて測定対象Mの形状を算出する。入力装置342は、各種指示情報を入力するキーボードやマウスなどであり、この入力装置には、ジョイスティック343が付加されてもよい。モニタ344は、計測画面、指示画面、計測結果等を表示する。 The control unit 340 includes a control unit 341, an input device 342, and a monitor 344. The control unit 341 controls the measuring device main body 301. The control unit 341 calculates the shape of the measurement target M based on the image information from the sensor unit 100 and the scanning information of the sensor unit 100 by the moving unit 310. The input device 342 is a keyboard, a mouse or the like for inputting various kinds of instruction information, and a joystick 343 may be added to this input device. The monitor 344 displays a measurement screen, an instruction screen, a measurement result, and the like.

次に、上記構成の形状測定装置300における3次元形状の測定処理の流れについて以下に説明する。この形状測定装置300は、センサユニット100を用いることにより、光切断法を利用して測定対象Mの3次元形状を測定する。図10は、形状測定装置300における3次元形状の測定処理の流れについて説明するためのフローチャートである。 Next, the flow of the three-dimensional shape measuring process in the shape measuring apparatus 300 having the above configuration will be described below. The shape measuring apparatus 300 uses the sensor unit 100 to measure the three-dimensional shape of the measurement target M by using the light cutting method. FIG. 10 is a flowchart for explaining the flow of the three-dimensional shape measuring process in the shape measuring apparatus 300.

ユーザによって測定対象Mがステージ331上の所定位置に載置された後、測定処理が開始される。まず、制御部341は、センサユニット100の光照射部10から測定対象Mに対してライン光LをZ方向(第1方向D1)照射させる(ステップS01)。これにより、測定対象Mの表面にX方向(第2方向D2)のライン光Lが投影され、測定対象Mの形状に応じた光切断線が形成される。 After the measurement target M is placed on the stage 331 at a predetermined position by the user, the measurement process is started. First, the control unit 341 causes the light irradiation unit 10 of the sensor unit 100 to irradiate the measurement target M with the line light L in the Z direction (first direction D1) (step S01). Thereby, the line light L in the X direction (second direction D2) is projected on the surface of the measurement target M, and a light cutting line corresponding to the shape of the measurement target M is formed.

そして、制御部341は、ライン光Lを照射させつつ、フレーム310cをθX方向に回転させ、または移動部310をY方向に移動させることによりセンサユニット100を移動させ、ライン光LをY方向(第3方向D3)に走査させる(ステップS02)。これにより、光切断線が測定対象Mの表面をY方向に移動する。なお、ライン光Lを走査させる手法としてセンサユニット100を移動させることに限定されず、例えば、基台302上のステージ331をY方向に移動又はθX方向に回転させるようにして、測定対象Mを移動させてもよい。 Then, the control unit 341 moves the sensor unit 100 by rotating the frame 310c in the θX direction or moving the moving unit 310 in the Y direction while irradiating the line light L, and moves the line light L in the Y direction ( The scanning is performed in the third direction D3) (step S02). As a result, the light cutting line moves in the Y direction on the surface of the measurement target M. The method of scanning the line light L is not limited to moving the sensor unit 100. For example, the stage 331 on the base 302 is moved in the Y direction or rotated in the θX direction to measure the measurement target M. You may move it.

制御部341は、センサユニット100の第1撮像部30及び第2撮像部40(撮像部)により、測定対象Mの表面に沿って移動する光切断線の像を撮像させる(ステップS03)。制御部341は、光切断線が第1測定範囲L1及び第2測定範囲L2のうちいずれの測定範囲で形成されたものかを判断し、判断結果に基づいて第1撮像部30又は第2撮像部40を選択して光切断線の像を撮像させてもよい。このステップS03により、測定対象Mの表面の画像データを取得する。 The control unit 341 causes the first image capturing unit 30 and the second image capturing unit 40 (image capturing unit) of the sensor unit 100 to capture an image of the optical cutting line moving along the surface of the measurement target M (step S03). The control unit 341 determines which of the first measurement range L1 and the second measurement range L2 the light cutting line was formed in, and based on the determination result, the first imaging unit 30 or the second imaging unit. The portion 40 may be selected to capture an image of the light section line. By this step S03, the image data of the surface of the measuring object M is acquired.

制御部341は、ライン光L(光切断線)の走査情報と撮像部による画像データとに基づいて、測定対象Mの表面の3次元形状を算出する(ステップS04)。制御部341は、ライン光の走査情報と光切断線の画像データから、三角測量の原理に基づいて、例えば測定対象Mの表面のXYZ座標に関する点群データを算出する。この点群データは、モニタ344に表示させてもよい。 The control unit 341 calculates the three-dimensional shape of the surface of the measurement target M based on the scanning information of the line light L (light cutting line) and the image data from the imaging unit (step S04). The control unit 341 calculates, for example, point cloud data regarding the XYZ coordinates of the surface of the measurement target M from the scanning information of the line light and the image data of the light cutting line based on the principle of triangulation. The point cloud data may be displayed on the monitor 344.

本実施形態では、上記のセンサユニット100を備えるため、例えば、測定対象MにZ方向の大きな段差が存在する場合であっても、測定範囲を切り替えることで光切断線を容易にかつ確実に撮像することができる。従って、変化の大きな測定対象Mであっても対応可能とすることにより、測定精度に優れた形状測定装置300が得られる。 In the present embodiment, since the sensor unit 100 is provided, for example, even when the measurement target M has a large step in the Z direction, the measurement range is switched to easily and reliably capture the optical cutting line. can do. Therefore, by making it possible to deal with the measurement target M that has a large change, the shape measuring apparatus 300 having excellent measurement accuracy can be obtained.

なお、本実施形態では、センサユニット100を備える構成を例に挙げて説明したが、これに限定するものではなく、上記したセンサユニット100A、100B、200、200A、200B、200C、200D、200Eを備える構成であってもよい。センサユニット200〜200Eが用いられる場合、制御部341は、ライン光Lを照射する際に、ライン光Lの測定範囲を第1測定範囲L1と第2測定範囲L2とのいずれかに選択することができる。 In the present embodiment, the configuration including the sensor unit 100 has been described as an example, but the present invention is not limited to this, and the sensor units 100A, 100B, 200, 200A, 200B, 200C, 200D, and 200E described above are not limited thereto. The configuration may be provided. When the sensor units 200 to 200E are used, the control unit 341, when irradiating the line light L, selects the measurement range of the line light L to either the first measurement range L1 or the second measurement range L2. You can

<構造物製造システム及び構造物製造方法>
図11は、構造物製造システムの実施形態の一例を示すブロック図である。図11に示す構造物製造システム400は、上記した形状測定装置300と、設計装置410と、成形装置420と、制御装置(検査装置)430と、リペア装置440とを有している。
<Structure manufacturing system and structure manufacturing method>
FIG. 11 is a block diagram showing an example of an embodiment of the structure manufacturing system. The structure manufacturing system 400 shown in FIG. 11 includes the shape measuring apparatus 300, the designing apparatus 410, the molding apparatus 420, the control apparatus (inspection apparatus) 430, and the repair apparatus 440 described above.

設計装置410は、構造物の形状に関する設計情報を作製する。そして、設計装置410は、作製した設計情報を成形装置420及び制御装置430に送信する。ここで、設計情報とは、構造物の各位置の座標を示す情報である。 The design device 410 creates design information regarding the shape of the structure. Then, the design device 410 transmits the created design information to the molding device 420 and the control device 430. Here, the design information is information indicating the coordinates of each position of the structure.

成形装置420は、設計装置410から送信された設計情報に基づいて構造物を成形する。この成形装置420の成形工程は、鋳造、鍛造、または切削などが含まれる。形状測定装置300は、成形装置420により作製された構造物(測定対象M)の3次元形状、すなわち構造物の座標を測定する。そして、形状測定装置300は、測定した座標を示す情報(以下、形状情報という。)を制御装置430に送信する。 The molding device 420 molds the structure based on the design information transmitted from the design device 410. The forming process of the forming device 420 includes casting, forging, or cutting. The shape measuring apparatus 300 measures the three-dimensional shape of the structure (measurement target M) manufactured by the molding apparatus 420, that is, the coordinates of the structure. Then, shape measuring apparatus 300 transmits information indicating the measured coordinates (hereinafter referred to as shape information) to control apparatus 430.

制御装置430は、座標記憶部431及び検査部432を有している。座標記憶部431は、設計装置410から送信される設計情報を記憶する。検査部432は、座標記憶部431から設計情報を読み出す。また、検査部432は、座標記憶部431から読み出した設計情報と、形状測定装置300から送信される形状情報とを比較する。そして、検査部432は、比較結果に基づき、構造物が設計情報の通りに成形されたか否かを検査する。 The control device 430 has a coordinate storage unit 431 and an inspection unit 432. The coordinate storage unit 431 stores the design information transmitted from the design device 410. The inspection unit 432 reads the design information from the coordinate storage unit 431. Further, the inspection unit 432 compares the design information read from the coordinate storage unit 431 with the shape information transmitted from the shape measuring device 300. Then, the inspection unit 432 inspects whether the structure is molded according to the design information based on the comparison result.

また、検査部432は、成形装置420により成形された構造物が良品であるか否かを判定する。構造物が良品であるか否かは、例えば、設計情報と形状情報との誤差が所定の閾値の範囲内であるか否かにより判定する。そして、検査部432は、構造物が設計情報の通りに成形されていない場合は、その構造物を設計情報の通りに修復することができるか否かを判定する。修復することができると判定した場合は、検査部432は、比較結果に基づき、不良部位と修復量を算出する。そして、検査部432は、不良部位を示す情報(以下、不良部位情報という。)と、修復量を示す情報(以下、修復量情報という。)と、をリペア装置440に送信する。 The inspection unit 432 also determines whether or not the structure molded by the molding device 420 is a non-defective product. Whether or not the structure is non-defective is determined by, for example, whether or not the error between the design information and the shape information is within a predetermined threshold range. Then, when the structure is not molded according to the design information, the inspection unit 432 determines whether the structure can be restored according to the design information. When it is determined that the repair can be performed, the inspection unit 432 calculates the defective portion and the repair amount based on the comparison result. Then, the inspection unit 432 transmits, to the repair device 440, information indicating a defective portion (hereinafter referred to as defective portion information) and information indicating a repair amount (hereinafter referred to as repair amount information).

リペア装置440は、制御装置430から送信された不良部位情報と修復量情報とに基づいて、構造物の不良部位を加工する。 The repair device 440 processes the defective part of the structure based on the defective part information and the repair amount information transmitted from the control device 430.

図12は、構造物製造システム400による処理を示すフローチャートであり、構造物製造方法の実施形態の一例を示している。図12に示すように、設計装置410は、構造物の形状に関する設計情報を作製する(ステップS11)。設計装置410は、作製した設計情報を成形装置420及び制御装置430に送信する。制御装置430は、設計装置410から送信された設計情報を受信する。そして、制御装置430は、受信した設計情報を座標記憶部431に記憶する。 FIG. 12 is a flowchart showing the processing by the structure manufacturing system 400, and shows an example of the embodiment of the structure manufacturing method. As shown in FIG. 12, the designing device 410 creates design information regarding the shape of the structure (step S11). The design device 410 transmits the created design information to the molding device 420 and the control device 430. The control device 430 receives the design information transmitted from the design device 410. Then, the control device 430 stores the received design information in the coordinate storage unit 431.

次に、成形装置420は、設計装置410が作製した設計情報に基づいて構造物を成形する(ステップS12)。そして、形状測定装置300は、成形装置420が成形した構造物の3次元形状を測定する(ステップS13)。その後、形状測定装置300は、構造物の測定結果である形状情報を制御装置430に送信する。次に、検査部432は、形状測定装置300から送信された形状情報と、座標記憶部431に記憶されている設計情報とを比較して、構造物が設計情報の通りに成形されたか否か検査する(ステップS14)。 Next, the molding device 420 molds the structure based on the design information created by the design device 410 (step S12). Then, the shape measuring apparatus 300 measures the three-dimensional shape of the structure molded by the molding apparatus 420 (step S13). After that, the shape measuring apparatus 300 transmits the shape information that is the measurement result of the structure to the control apparatus 430. Next, the inspection unit 432 compares the shape information transmitted from the shape measuring device 300 with the design information stored in the coordinate storage unit 431, and determines whether or not the structure is molded as the design information. Inspect (step S14).

次に、検査部432は、構造物が良品であるか否かを判定する(ステップS15)。構造物が良品であると判定した場合は(ステップS15:YES)、構造物製造システム400による処理を終了する。一方、検査部432は、構造物が良品でないと判定した場合は(ステップS15:NO)、検査部432は、構造物を修復することができるか否かを判定する(ステップS16)。 Next, the inspection unit 432 determines whether or not the structure is non-defective (step S15). When it is determined that the structure is non-defective (step S15: YES), the process by the structure manufacturing system 400 ends. On the other hand, when the inspection unit 432 determines that the structure is not a good product (step S15: NO), the inspection unit 432 determines whether the structure can be repaired (step S16).

検査部432が構造物を修復することができると判定した場合は(ステップS16:YES)、検査部432は、ステップS14の比較結果に基づいて、構造物の不良部位と修復量を算出する。そして、検査部432は、不良部位情報と修復量情報とをリペア装置440に送信する。リペア装置440は、不良部位情報と修復量情報とに基づいて構造物のリペア(再加工)を実行する(ステップS17)。そして、ステップS13の処理に移行する。すなわち、リペア装置440がリペアを実行した構造物に対してステップS13以降の処理が再度実行される。一方、検査部432が構造物を修復することができないと判定した場合は(ステップS16:NO)、構造物製造システム400による処理を終了する。 When the inspection unit 432 determines that the structure can be repaired (step S16: YES), the inspection unit 432 calculates the defective portion and the repair amount of the structure based on the comparison result of step S14. Then, the inspection unit 432 transmits the defective portion information and the repair amount information to the repair device 440. The repair device 440 performs repair (rework) of the structure based on the defective portion information and the repair amount information (step S17). Then, the process proceeds to step S13. That is, the processes after step S13 are executed again for the structure that has been repaired by the repair apparatus 440. On the other hand, when the inspection unit 432 determines that the structure cannot be restored (step S16: NO), the process by the structure manufacturing system 400 ends.

このように、構造物製造システム400及び構造物製造方法では、形状測定装置300による構造物の測定結果に基づいて、検査部432が設計情報の通りに構造物が作製されたか否かを判定する。これにより、成形装置420により作製された構造物が良品であるか否か精度よく判定することができるとともに、その判定の時間を短縮することができる。また、上記した構造物製造システム400では、検査部432により構造物が良品でないと判定された場合に、直ちに構造物のリペアを実行することができる。 As described above, in the structure manufacturing system 400 and the structure manufacturing method, the inspection unit 432 determines whether the structure is manufactured according to the design information based on the measurement result of the structure by the shape measuring device 300. .. As a result, it is possible to accurately determine whether or not the structure manufactured by the molding apparatus 420 is a good product, and it is possible to shorten the determination time. Further, in the structure manufacturing system 400 described above, when the inspection unit 432 determines that the structure is not good, the structure can be immediately repaired.

なお、上記した構造物製造システム400及び構造物製造方法において、リペア装置440が加工を実行することに代えて、成形装置420が再度加工を実行するように構成してもよい。 In the structure manufacturing system 400 and the structure manufacturing method described above, the molding apparatus 420 may be configured to perform the machining again, instead of the repair apparatus 440 performing the machining.

以上、実施形態及び変形例について説明したが、本発明の技術的範囲は、上記した実施形態や変形例に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施形態や変形例に、多様な変更または改良を加えることが可能である。また、上記の実施形態や変形例で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。 Although the embodiment and the modified example have been described above, the technical scope of the present invention is not limited to the range described in the above-described embodiment and the modified example. Various modifications and improvements can be added to the above-described embodiments and modifications without departing from the spirit of the present invention. In addition, one or more of the requirements described in the above-described embodiment and modification may be omitted. Such modifications, improvements, and omitted forms are also included in the technical scope of the present invention. Further, it is also possible to apply the configurations of the above-described embodiments and modified examples in an appropriate combination.

上記した各実施形態及び変形例において、第1方向D1と第2の方向D2とが直交していたが、第1方向D1と第2の方向D2とが異なる方向であれば直交していなくてもよい。例えば、第2の方向D2は、第1方向D1に対して60度や80度の角度に設定されてもよい。また、第2方向D2と第3の方向D3とが直交することに限定されず、第2方向D2と第3の方向D3とが異なる方向であれば直交していなくてもよい。 In each of the above-described embodiments and modifications, the first direction D1 and the second direction D2 were orthogonal, but if the first direction D1 and the second direction D2 are different directions, they are not orthogonal. Good. For example, the second direction D2 may be set at an angle of 60 degrees or 80 degrees with respect to the first direction D1. Further, the second direction D2 and the third direction D3 are not limited to being orthogonal to each other, and the second direction D2 and the third direction D3 do not have to be orthogonal as long as they are different directions.

また、上記した実施形態に係る形状測定装置300においては、門型の移動部310にセンサユニット100が取り付けられた構成を例に挙げて説明したが、これに限定するものではなく、例えば米国公開2009/0299688号に記載のように、センサユニット100をロボットハンドの先端に取り付けるようにしてもよい。 Further, in the shape measuring apparatus 300 according to the above-described embodiment, the configuration in which the sensor unit 100 is attached to the gate-shaped moving unit 310 has been described as an example, but the configuration is not limited to this and is disclosed, for example, in the United States. The sensor unit 100 may be attached to the tip of the robot hand as described in 2009/0299688.

また、上記した各実施形態及び変形例において、測定対象Mが1回の走査で第1撮像部30等の撮像視野に収まらない場合は、測定対象Mの異なる位置をそれぞれ測定して、各測定結果をつなぎ合わせることで測定対象M全体の3次元形状を測定してもよい。測定結果をつなぎ合わせる際には、測定結果の一部を重ねあわせる、オーバーラッピング処理が用いられてもよい。このオーバーラッピング処理は、制御部CONTまたは制御部341が行う。 In addition, in each of the above-described embodiments and modified examples, when the measurement target M does not fit within the imaging field of view of the first imaging unit 30 or the like in one scan, different positions of the measurement target M are measured to perform each measurement. The three-dimensional shape of the entire measurement target M may be measured by connecting the results. When joining the measurement results, an overlapping process may be used in which some of the measurement results are overlaid. This overlapping processing is performed by the control unit CONT or the control unit 341.

オーバーラッピング処理について説明する。先ず、第1撮像部30等によって測定対象Mの第1部分を走査して撮像する。次いで、測定対象Mの第1部分と一部重なる第2部分を走査して撮像する。制御部CONT等は、第1部分及び第2部分についてそれぞれ3次元形状を算出する。さらに、制御部CONT等は、第1部分と第2部分とが重なる部分をサーチし、この部分を重ねることにより第1部分及び第2部分の3次元形状をつなぎ合わせる。なお、制御部CONT等は、第1部分の3次元形状と第2部分の3次元形状とで共通の座標データとなる所定領域の画素をサーチして、第1部分と第2部分との重複部分を判断する。なお、制御部CONT等は、共通の座標データとなる所定領域の画素をサーチすることに代えて、予め測定対象Mや測定対象Mを載置した載置部分にマークを貼付し、このマークの座標データに基づいて第1部分の3次元形状と第2部分の3次元形状とをつなげても構わない。 The overlapping process will be described. First, the first imaging unit 30 or the like scans and images the first portion of the measurement target M. Next, the second portion that partially overlaps the first portion of the measurement target M is scanned and imaged. The control unit CONT or the like calculates a three-dimensional shape for each of the first portion and the second portion. Further, the control unit CONT or the like searches for a portion where the first portion and the second portion overlap each other, and overlaps these portions to connect the three-dimensional shapes of the first portion and the second portion. The control unit CONT or the like searches for a pixel in a predetermined area that has common coordinate data in the three-dimensional shape of the first part and the three-dimensional shape of the second part, and overlaps the first part and the second part. Judge the part. Note that the control unit CONT or the like attaches a mark to the measurement target M or a mounting portion on which the measurement target M is mounted in advance, instead of searching for a pixel in a predetermined area that is common coordinate data, and The three-dimensional shape of the first portion and the three-dimensional shape of the second portion may be connected based on the coordinate data.

このような処理を測定対象Mの全体が撮像されるまで繰り返し実行することで、測定対象M全体の3次元形状が測定される。これによれば、測定対象Mが大きな物体でも、測定対象M全体の3次元形状を容易に測定することができる。 The three-dimensional shape of the entire measurement target M is measured by repeatedly performing such processing until the entire measurement target M is imaged. According to this, even if the measurement target M is a large object, the three-dimensional shape of the entire measurement target M can be easily measured.

また、形状測定装置300等の一部の構成をコンピュータにより実現してもよい。例えば、制御部341をコンピュータにより実現してもよい。この場合、コンピュータは、記憶部に記憶された形状測定プログラムに従って、第1方向D1に離れて配置された測定対象Mに対して、第1方向D1と交差する測定対象M上の第2方向D2にライン光Lを照射する処理と、ライン光Lを測定対象M上に走査する処理と、第1方向D1と異なる光軸方向AXを有する撮像光学系20を介して、第1方向D1の第1測定範囲L1におけるライン光Lの像、及び第1測定範囲L1に対して第1方向D1の測定範囲が異なる第2測定範囲L2におけるライン光Lの像の少なくとも一方を撮像する処理と、撮像による画像情報と走査による走査情報とに基づいて、測定対象Mの形状を算出する処理と、を実行する。 Further, a part of the configuration of the shape measuring apparatus 300 or the like may be realized by a computer. For example, the control unit 341 may be realized by a computer. In this case, the computer, in accordance with the shape measurement program stored in the storage unit, with respect to the measurement object M that is arranged apart in the first direction D1, the second direction D2 on the measurement object M that intersects the first direction D1. To the first direction D1 via the imaging optical system 20 having the optical axis direction AX different from the first direction D1. A process of capturing at least one of an image of the line light L in one measurement range L1 and an image of the line light L in a second measurement range L2 in which the measurement range in the first direction D1 is different from the first measurement range L1; And a process of calculating the shape of the measurement target M based on the image information by the scan and the scan information by the scan.

また、この形状測定プログラムは、光ディスクやCD−ROM、USBメモリ、SDカード等の、コンピュータで読み取り可能な記憶媒体に格納されて提供されてもよい。 The shape measuring program may be provided by being stored in a computer-readable storage medium such as an optical disk, a CD-ROM, a USB memory, an SD card, or the like.

M、M0…測定対象(被検物) CONT…制御部 D1…第1方向 D2…第2方向 L…ライン光 L1…第1測定範囲 L2…第2測定範囲 L3、L4、L5…機械的作動距離 PCL…光切断線 AX…光軸 HM…ハーフミラー DP…ダイクロイックプリズム Lr…赤色ライン光 Lb…青色ライン光 BW…ビームウェスト PCL1、PCL2…光切断線 10…光照射部 13…照明光学系 20…撮像光学系 30…第1撮像部 40…第2撮像部 100、100A、100B、200、200A、200B、200C、200D、200E…センサユニット 300…形状測定装置 341…制御部 400…構造物製造システム M, M0... Measurement object (inspection object) CONT... Control part D1... 1st direction D2... 2nd direction L... Line light L1... 1st measurement range L2... 2nd measurement range L3, L4, L5... Mechanical operation Distance PCL... Optical cutting line AX... Optical axis HM... Half mirror DP... Dichroic prism Lr... Red line light Lb... Blue line light BW... Beam waist PCL1, PCL2... Optical cutting line 10... Light irradiation unit 13... Illumination optical system 20 ... Imaging optical system 30... 1st imaging part 40... 2nd imaging part 100, 100A, 100B, 200, 200A, 200B, 200C, 200D, 200E... Sensor unit 300... Shape measuring device 341... Control part 400... Structure manufacture system

Claims (9)

被検物の表面の形状を測定するための形状測定装置であって、
前記被検物の表面に、第1のビームウェストを有する第1ライン光を投影方向に沿って投影する第1測定光学系と、
前記被検物の表面に、第2のビームウェストを有する第2ライン光を前記投影方向に沿って前記第1ライン光と同じ光軸を通って投影する第2測定光学系と、
前記第1測定光学系と前記第2測定光学系により投影されるライン光の像を撮像する撮像部と、
前記撮像部で撮像する像に基づいて前記被検物の表面の形状を算出する制御部と、を備え、
前記第1のビームウェストと前記第2のビームウェストとは、前記光軸上での位置が異なり、
前記撮像部において、前記第1測定光学系からの前記第1ライン光の像を撮像する領域と、前記第2測定光学系からの前記第2ライン光の像を撮像する領域とは異なる、形状測定装置。
A shape measuring device for measuring the shape of the surface of a test object,
On the surface of the test object, a first measuring optical system you projected along the first line light having a first beam waist in the projection direction,
Wherein the surface of the test object, a second a second line beam having a beam waist, the second measuring optical system you projecting through the same optical axis and the first line of light along the projection direction,
An imaging unit for capturing an image of the line light projected by the first measurement optical system and the second measurement optical system;
A control unit that calculates the shape of the surface of the object based on the image captured by the image capturing unit,
The first beam waist and the second beam waist have different positions on the optical axis,
In the imaging unit, a region for capturing an image of the first line light from the first measurement optical system and a region for capturing an image of the second line light from the second measurement optical system have different shapes. measuring device.
前記第2測定光学系は、前記第1測定光学系少なくとも一部の光学系を有する、請求項1に記載の形状測定装置。 Said second measuring optical system share a least a portion of the optical system and the first measuring optical system, the shape measuring apparatus according to claim 1. 前記第1測定光学系の焦点位置と、前記第2測定光学系の焦点位置とは異なる、請求項1又は請求項2に記載の形状測定装置。 The shape measuring apparatus according to claim 1, wherein the focus position of the first measurement optical system is different from the focus position of the second measurement optical system. 前記第1測定光学系からの前記第1ライン光の波長と、前記第2測定光学系から前記第2ライン光の波長とは異なる、請求項1から請求項3のいずれか一項に記載の形状測定装置。 The wavelength of the first line light from the first measuring optical system, different from the second wavelength of line light from the second measuring optical system, according to any one of claims 1 to 3 Shape measuring device. 前記撮像部は、前記第1ライン光の像を撮像する第1撮像部と、前記第2ライン光の像を撮像する第2撮像部とを含む、請求項1から請求項4のいずれか一項に記載の形状測定装置。 5. The image pickup unit according to claim 1 , wherein the image pickup unit includes a first image pickup unit that picks up an image of the first line light and a second image pickup unit that picks up an image of the second line light. The shape measuring device according to the item. 前記第1測定光学系からの前記第1ライン光と、前記第2測定光学系から前記第2ライン光とは、切り替えて投影する、請求項1から請求項5のいずれか一項に記載の形状測定装置。 It said first line light from the first measuring optical system, the second measurement and the second line light from the optical system, switched projected, claimed in any one of claims 5 Shape measuring device. 前記第1測定光学系からの前記第1ライン光と、前記第2測定光学系から前記第2ライン光とを同時に投影する、請求項1から請求項5のいずれか一項に記載の形状測定装置。 The shape according to any one of claims 1 to 5, wherein the first line light from the first measurement optical system and the second line light from the second measurement optical system are simultaneously projected. measuring device. 構造物の形状に関する設計情報を作製する設計装置と、
前記設計情報に基づいて前記構造物を作製する成形装置と、
作製された前記構造物の形状を測定する請求項1から請求項7いずれか一項に記載の形状測定装置と、
前記形状測定装置によって得られた前記構造物の形状に関する形状情報と前記設計情報とを比較する検査装置と、
を含む構造物製造システム。
A design device that creates design information about the shape of the structure,
A molding apparatus for manufacturing the structure based on the design information,
A shape measuring device according to any one of claims 1 to 7, which measures the shape of the produced structure,
An inspection device that compares the shape information and the design information related to the shape of the structure obtained by the shape measuring device,
Structure manufacturing system including.
被検物の表面の形状を測定する方法であって、
前記被検物の表面に、第1測定光学系からの第1ライン光を投影方向に沿って投影することと、
前記被検物の表面に、第2測定光学系からの第2ライン光を、前記投影方向に沿って前記第1ライン光と同じ光軸を通って投影することと、
前記第1測定光学系と前記第2測定光学系により投影されるライン光の像を撮像することと、
前記撮像された像に基づいて、前記被検物の表面の形状を算出することと、を含み、
前記第1ライン光の第1のビームウェストと、前記第2ライン光の第2のビームウェストとは、前記光軸上での位置が異なり、
前記ライン光の像の撮像では、前記第1測定光学系からの前記第1ライン光の像を撮像する領域と、前記第2測定光学系からの前記第2ライン光の像を撮像する領域とが異なる、被検物の表面の形状を測定する方法。
A method for measuring the shape of the surface of a test object,
Projecting a first line of light from a first measuring optical system along a projection direction onto the surface of the test object;
And said the surface of the test object, the second line of light from the second measuring optical system, for projecting through the same optical axis as the first line of light along the projection direction,
Capturing an image of line light projected by the first measurement optical system and the second measurement optical system;
Calculating the shape of the surface of the test object based on the captured image,
The first beam waist of the first line light and the second beam waist of the second line light have different positions on the optical axis,
In capturing the image of the line light, a region for capturing the image of the first line light from the first measurement optical system and a region for capturing the image of the second line light from the second measurement optical system. A method of measuring the shape of the surface of the test object, which is different.
JP2018019389A 2018-02-06 2018-02-06 Shape measuring device, structure manufacturing system, and shape measuring method Active JP6702343B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018019389A JP6702343B2 (en) 2018-02-06 2018-02-06 Shape measuring device, structure manufacturing system, and shape measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018019389A JP6702343B2 (en) 2018-02-06 2018-02-06 Shape measuring device, structure manufacturing system, and shape measuring method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013257219A Division JP6287153B2 (en) 2013-12-12 2013-12-12 Sensor unit, shape measuring device, and structure manufacturing system

Publications (2)

Publication Number Publication Date
JP2018066767A JP2018066767A (en) 2018-04-26
JP6702343B2 true JP6702343B2 (en) 2020-06-03

Family

ID=62085951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018019389A Active JP6702343B2 (en) 2018-02-06 2018-02-06 Shape measuring device, structure manufacturing system, and shape measuring method

Country Status (1)

Country Link
JP (1) JP6702343B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7491664B2 (en) * 2018-09-28 2024-05-28 株式会社ニコン Shape measuring device, structure manufacturing system, shape measuring method, and structure manufacturing method
JP2020153727A (en) 2019-03-19 2020-09-24 キオクシア株式会社 Inspection apparatus

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2664378B1 (en) * 1990-07-03 1992-10-16 Bertin & Cie APPARATUS FOR PROJECTING AND TAKING IMAGES FOR DETERMINING THE THREE-DIMENSIONAL SHAPE OF AN OBJECT.
JP3887809B2 (en) * 1998-03-26 2007-02-28 アイシン精機株式会社 Imaging device
US20050157920A1 (en) * 2004-01-21 2005-07-21 John Doherty Machine vision system and method
DE102005058873A1 (en) * 2005-12-09 2007-06-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method for measuring the surface of a body
JP2008039750A (en) * 2006-08-03 2008-02-21 Kaneyuki Kubodera Device for height measuring
JP5046688B2 (en) * 2007-03-08 2012-10-10 株式会社神戸製鋼所 Tire shape detection device and tire shape detection method
JP2009128166A (en) * 2007-11-22 2009-06-11 Soatec Inc Light source device
JP4952550B2 (en) * 2007-11-30 2012-06-13 トヨタ自動車株式会社 Carrier film wrinkle detection apparatus and method
JP5238730B2 (en) * 2010-01-19 2013-07-17 パナソニック株式会社 Component mounting machine, component detection apparatus, and component mounting method
EP2615412B1 (en) * 2010-09-07 2016-06-01 Dai Nippon Printing Co., Ltd. Scanner device and device for measuring three-dimensional shape of object
WO2012057008A1 (en) * 2010-10-27 2012-05-03 Nikon Corporation Profile measuring apparatus, method for manufacturing structure, and structure manufacturing system
JP5562278B2 (en) * 2011-03-15 2014-07-30 株式会社神戸製鋼所 Tire shape inspection device and tire shape inspection method
JP2013064644A (en) * 2011-09-16 2013-04-11 Nikon Corp Shape-measuring device, shape-measuring method, system for manufacturing structures, and method for manufacturing structures
JP2013220633A (en) * 2012-04-18 2013-10-28 Sumitomo Rubber Ind Ltd Method of manufacturing pneumatic tire

Also Published As

Publication number Publication date
JP2018066767A (en) 2018-04-26

Similar Documents

Publication Publication Date Title
CN108225190B (en) Measuring system
US10641598B2 (en) Height and dimension measuring device that measures a height and dimension of a measurement object disposed in a measurement region
TWI623724B (en) Shape measuring device, structure manufacturing system, stage system, shape measuring method, structure manufacturing method, shape measuring program, and computer readable recording medium
JP2013542401A (en) Shape measuring device, structure manufacturing method and structure manufacturing system
KR20140022858A (en) Optical profile measuring apparatus, method for measuring profile, and method for manufacturing a structure with a profile
JP6417645B2 (en) Alignment method for surface profile measuring device
JP5782786B2 (en) Shape measuring device
JP2013064644A (en) Shape-measuring device, shape-measuring method, system for manufacturing structures, and method for manufacturing structures
WO2021241187A1 (en) Shape measurement device and shape measurement method
JP6702343B2 (en) Shape measuring device, structure manufacturing system, and shape measuring method
JP3678916B2 (en) Non-contact 3D measurement method
JP6287153B2 (en) Sensor unit, shape measuring device, and structure manufacturing system
JPH11351840A (en) Noncontact type three-dimensional measuring method
JP6590429B1 (en) Confocal microscope and imaging method thereof
JP4791568B2 (en) 3D measuring device
JP2003285249A (en) Accuracy analyzing device for machine tool
JP2018146497A (en) Surface shape measurement method and surface shape measurement device
JP4578538B2 (en) Non-contact 3D measurement method
JP2005172610A (en) Three-dimensional measurement apparatus
US9594230B2 (en) On-axis focus sensor and method
JP6252178B2 (en) Shape measuring device, posture control device, structure manufacturing system, and shape measuring method
JP6880396B2 (en) Shape measuring device and shape measuring method
JP2011085402A (en) Surface property measuring instrument
JP4138555B2 (en) Non-contact 3D measuring device
JP4340138B2 (en) Non-contact 3D shape measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200420

R150 Certificate of patent or registration of utility model

Ref document number: 6702343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250