JP6331308B2 - Shape measuring apparatus, structure manufacturing system, and shape measuring computer program - Google Patents

Shape measuring apparatus, structure manufacturing system, and shape measuring computer program Download PDF

Info

Publication number
JP6331308B2
JP6331308B2 JP2013200638A JP2013200638A JP6331308B2 JP 6331308 B2 JP6331308 B2 JP 6331308B2 JP 2013200638 A JP2013200638 A JP 2013200638A JP 2013200638 A JP2013200638 A JP 2013200638A JP 6331308 B2 JP6331308 B2 JP 6331308B2
Authority
JP
Japan
Prior art keywords
image
sensitivity
imaging
shape
imaging region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013200638A
Other languages
Japanese (ja)
Other versions
JP2015068654A (en
Inventor
山田 智明
智明 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013200638A priority Critical patent/JP6331308B2/en
Publication of JP2015068654A publication Critical patent/JP2015068654A/en
Application granted granted Critical
Publication of JP6331308B2 publication Critical patent/JP6331308B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、形状測定装置、構造物製造システム及び形状測定用コンピュータプログラムに関するものである。   The present invention relates to a shape measuring apparatus, a structure manufacturing system, and a shape measuring computer program.

物体の表面形状を非接触で測定する形状測定装置が知られている。このような形状測定装置として、例えば、所定のパターンとなるような光量分布を有する光束を被測定物に投影し、その形状を計測して被測定物の形状を計測する光切断法等を用いた形状測定装置がある。(例えば、特許文献1)。   2. Description of the Related Art A shape measuring device that measures the surface shape of an object without contact is known. As such a shape measuring apparatus, for example, a light cutting method or the like that measures a shape of a measured object by projecting a light beam having a light quantity distribution that has a predetermined pattern onto the measured object is used. There is a shape measuring device. (For example, patent document 1).

米国特許出願公開第2009/12565179号明細書US Patent Application Publication No. 2009/12565179

光切断法等を用いた形状測定装置は、反射率が異なる部分を有する物体の形状を測定する場合、反射率の違いによっては形状に関する情報を取得できず、形状に関する情報の量が少なくなる可能性がある。   When measuring the shape of an object that has parts with different reflectivities, the shape measuring device using the optical cutting method cannot acquire information on the shape depending on the difference in reflectivity, and the amount of information on the shape can be reduced. There is sex.

本発明の態様は、反射率が異なる部分を有する物体の形状を測定する場合に、形状に関する情報量の減少を抑制することを課題とする。   An object of an aspect of the present invention is to suppress a decrease in the amount of information related to a shape when measuring the shape of an object having portions with different reflectivities.

本発明の第1の態様に従えば、測定対象に測定光を照射する照射部と、前記測定光を撮像した撮像画像を生成するための、複数の画素により撮像領域が形成される撮像部と、前記撮像画像に基づいて前記測定対象の形状を算出する算出部と、前記撮像領域の第1撮像領域の画素の感度と、第2撮像領域の画素の感度とを異なる感度に設定可能な制御部と、を備える、形状測定装置が提供される。   According to the first aspect of the present invention, an irradiation unit that irradiates measurement light to a measurement object, and an imaging unit in which an imaging region is formed by a plurality of pixels for generating a captured image obtained by imaging the measurement light The calculation unit that calculates the shape of the measurement target based on the captured image, and the control that can set the sensitivity of the pixels in the first imaging region of the imaging region and the sensitivity of the pixels in the second imaging region to different sensitivities And a shape measuring apparatus comprising the unit.

本発明の第2の態様に従えば、測定対象に測定光を照射する照射部と、前記測定光を撮像した撮像画像を生成するための、複数の画素により撮像領域が形成される撮像部と、を含み、前記撮像部は、第1撮像領域及び第2撮像領域が第1方向と平行に複数の前記画素が配列され、かつ前記第1撮像領域及び前記第2撮像領域は、前記第1方向と交差する第2方向に配列されている、形状測定装置が提供される。   According to the second aspect of the present invention, an irradiating unit that irradiates a measurement target with measurement light, and an imaging unit in which an imaging region is formed by a plurality of pixels for generating a captured image obtained by imaging the measurement light. The imaging unit includes a first imaging region and a second imaging region in which a plurality of the pixels are arranged in parallel with a first direction, and the first imaging region and the second imaging region are the first imaging region A shape measuring device is provided that is arranged in a second direction that intersects the direction.

本発明の第3の態様に従えば、測定対象に測定光を照射する照射部と、前記測定光を撮像した撮像画像を生成するための、複数の画素により撮像領域が形成される撮像部と、前記撮像画像に基づいて前記測定対象の形状を算出する算出部と、を備えた形状測定装置を制御するにあたり、前記撮像領域の第1撮像領域の画素を第1感度とし、第2撮像領域の画素を第2感度として第1画像を生成することと、前記第1撮像領域の画素を前記第2感度とし、前記第2撮像領域の画素を前記第1感度として第2画像を生成することと、前記第1画像及び前記第2画像に基づき、前記測定対象の形状を求めることと、をコンピュータに実行させる、形状測定用コンピュータプログラムが提供される。   According to the third aspect of the present invention, an irradiating unit that irradiates a measurement target with measurement light, and an imaging unit in which an imaging region is formed by a plurality of pixels for generating a captured image obtained by imaging the measurement light. In controlling a shape measuring apparatus including a calculation unit that calculates the shape of the measurement object based on the captured image, the pixel of the first imaging region of the imaging region is set as the first sensitivity, and the second imaging region Generating a first image with the second pixel as the second sensitivity, and generating a second image with the pixel in the first imaging region as the second sensitivity and the pixel in the second imaging region as the first sensitivity. And a computer program for shape measurement that causes a computer to execute the determination of the shape of the measurement object based on the first image and the second image.

本発明の態様によれば、反射率が異なる部分を有する物体の形状を測定する場合に、形状に関する情報量の減少を抑制することができる。   According to the aspect of the present invention, when measuring the shape of an object having portions with different reflectivities, it is possible to suppress a decrease in the amount of information related to the shape.

図1は、実施形態1に係る形状測定装置の外観を示す図である。FIG. 1 is a diagram illustrating an appearance of the shape measuring apparatus according to the first embodiment. 図2は、実施形態1に係る形状測定装置の概略構成を示す模式図である。FIG. 2 is a schematic diagram illustrating a schematic configuration of the shape measuring apparatus according to the first embodiment. 図3は、実施形態1に係る形状測定装置の制御装置を示すブロック図である。FIG. 3 is a block diagram illustrating a control device of the shape measuring apparatus according to the first embodiment. 図4は、異なる反射率の表面を有する被測定物の一例を示す斜視図である。FIG. 4 is a perspective view showing an example of an object to be measured having surfaces with different reflectivities. 図5は、本実施形態に係る形状測定の処理における撮像素子の撮像領域の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of the imaging region of the imaging device in the shape measurement processing according to the present embodiment. 図6は、本実施形態に係る形状測定の処理における撮像素子の撮像領域の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of the imaging region of the imaging device in the shape measurement process according to the present embodiment. 図7は、撮像素子によって撮像された被測定物の第1画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a first image of an object to be measured captured by the image sensor. 図8は、撮像素子によって撮像された被測定物の第2画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a second image of the object to be measured captured by the image sensor. 図9Aは、第1画像と第2画像とを合成した画像の一例を示す図である。FIG. 9A is a diagram illustrating an example of an image obtained by combining the first image and the second image. 図9Bは、被測定物が単一の反射率である場合の点群データの一例を示す図である。FIG. 9B is a diagram illustrating an example of point cloud data when the object to be measured has a single reflectance. 図9Cは、異なる反射率の表面を有する被測定物Mが1つの感度で撮像されたときに得られた点群データの一例を示す図である。FIG. 9C is a diagram illustrating an example of point cloud data obtained when an object M having different reflectance surfaces is imaged with one sensitivity. 図9Dは、実施形態1に係る形状測定装置によって得られた点群データの一例を示す図である。FIG. 9D is a diagram illustrating an example of point cloud data obtained by the shape measuring apparatus according to the first embodiment. 図10は、実施形態1に係る形状測定装置の制御装置が被測定物の形状を測定する際に実行する処理を示すフローチャートである。FIG. 10 is a flowchart illustrating processing executed when the control device of the shape measuring apparatus according to the first embodiment measures the shape of the object to be measured. 図11は、第1撮像領域と第2撮像領域との配置に関する変形例を示す図である。FIG. 11 is a diagram illustrating a modification example regarding the arrangement of the first imaging region and the second imaging region. 図12は、第1撮像領域と第2撮像領域との配置に関する変形例を示す図である。FIG. 12 is a diagram illustrating a modification example regarding the arrangement of the first imaging region and the second imaging region. 図13は、第1撮像領域と第2撮像領域との配置に関する変形例を示す図である。FIG. 13 is a diagram illustrating a modification example regarding the arrangement of the first imaging region and the second imaging region. 図14は、CMOSを用いた撮像素子を示す図である。FIG. 14 is a diagram illustrating an image sensor using a CMOS. 図15は、CCDを用いた撮像素子を示す図である。FIG. 15 is a diagram illustrating an image sensor using a CCD. 図16Aは、フィルタを備えた撮像素子を示す図である。FIG. 16A is a diagram illustrating an image sensor including a filter. 図16Bは、撮像素子が備えるフィルタが透過させる光の波長を示す図である。FIG. 16B is a diagram illustrating the wavelength of light transmitted by a filter included in the imaging element. 図17は、フィルタを備えた撮像素子を用いて感度を変更する一例を示す図である。FIG. 17 is a diagram illustrating an example in which the sensitivity is changed using an imaging element including a filter. 図18は、第1画像と第2画像とを合成する例を説明する図である。FIG. 18 is a diagram illustrating an example in which the first image and the second image are combined. 図19は、第1画像と第2画像とを合成する例を説明する図である。FIG. 19 is a diagram illustrating an example in which the first image and the second image are combined. 図20Aは、欠落した情報が補間されていない合成画像PICnを示す図である。FIG. 20A is a diagram illustrating a composite image PICn in which missing information is not interpolated. 図20Bは、欠落した情報が補間された合成画像PICcを示す図である。FIG. 20B is a diagram illustrating a composite image PICc in which missing information is interpolated. 図21は、撮像素子の撮像タイミングの一例を示すタイミングチャートである。FIG. 21 is a timing chart illustrating an example of imaging timing of the imaging device. 図22は、第1変形例によって得られた点群データの一例を示す図である。FIG. 22 is a diagram illustrating an example of point cloud data obtained by the first modification. 図23は、実施形態2に係る処理を説明するための図である。FIG. 23 is a diagram for explaining processing according to the second embodiment. 図24は、実施形態2に係る処理を説明するための図である。FIG. 24 is a diagram for explaining processing according to the second embodiment. 図25は、実施形態2に係る処理を説明するための図である。FIG. 25 is a diagram for explaining processing according to the second embodiment. 図26は、実施形態2に係る形状測定装置の制御装置が被測定物の形状を測定する際に実行する処理を示すフローチャートである。FIG. 26 is a flowchart illustrating processing executed when the control device of the shape measuring apparatus according to the second embodiment measures the shape of the object to be measured. 図27Aは、平滑フィルタを用いた処理を説明するための図である。FIG. 27A is a diagram for describing processing using a smoothing filter. 図27Bは、平滑フィルタを用いた処理を説明するための図である。FIG. 27B is a diagram for describing processing using a smoothing filter. 図27Cは、平滑フィルタを用いた処理を説明するための図である。FIG. 27C is a diagram for describing processing using a smoothing filter. 図28は、実施形態2の変形例に係る処理のフローチャートである。FIG. 28 is a flowchart of processing according to a modification of the second embodiment. 図29は、形状測定装置を有する形状測定システムを示す図である。FIG. 29 is a diagram showing a shape measuring system having a shape measuring device. 図30は、構造物製造システムのブロック構成図である。FIG. 30 is a block diagram of the structure manufacturing system. 図31は、構造物製造システムによる処理の流れを示したフローチャートである。FIG. 31 is a flowchart showing the flow of processing by the structure manufacturing system.

本発明を実施するための形態(実施形態)につき、図面を参照しつつ詳細に説明する。以下においては、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。Z軸方向は、例えば鉛直方向に設定され、X軸方向及びY軸方向は、例えば水平方向に平行かつ互いに直交する方向に設定される。また、X軸、Y軸及びZ軸周りの回転(傾斜)方向を、それぞれ、θX、θY及びθZ軸方向とする。   DESCRIPTION OF EMBODIMENTS Embodiments (embodiments) for carrying out the present invention will be described in detail with reference to the drawings. In the following, an XYZ rectangular coordinate system is set, and the positional relationship of each part will be described with reference to this XYZ rectangular coordinate system. The Z-axis direction is set, for example, in the vertical direction, and the X-axis direction and the Y-axis direction are set, for example, in directions parallel to the horizontal direction and orthogonal to each other. The rotation (tilt) directions around the X, Y, and Z axes are the θX, θY, and θZ axis directions, respectively.

(実施形態1)
図1は、実施形態1に係る形状測定装置1の外観を示す図である。図2は、実施形態1に係る形状測定装置1の概略構成を示す模式図である。図3は、実施形態1に係る形状測定装置の制御装置4を示すブロック図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating an appearance of a shape measuring apparatus 1 according to the first embodiment. FIG. 2 is a schematic diagram illustrating a schematic configuration of the shape measuring apparatus 1 according to the first embodiment. FIG. 3 is a block diagram illustrating the control device 4 of the shape measuring apparatus according to the first embodiment.

形状測定装置1は、例えば光切断法を利用して、測定対象(以下、適宜被測定物という)Mの3次元的な形状を測定するものである。形状測定装置1は、プローブ移動装置2と、光学プローブ3と、制御装置4と、表示装置5と、入力装置6と、保持回転装置7と、を備える。形状測定装置1は、ベースBに設けられた保持回転装置7に保持されている被測定物Mを光学プローブ3が撮像するものである。また、本実施形態では、プローブ移動装置2と保持回転装置7とが、光学プローブ3と被測定物Mとを相対移動させる移動部としての移動機構となる。   The shape measuring apparatus 1 measures a three-dimensional shape of a measurement object (hereinafter, appropriately referred to as an object to be measured) M using, for example, a light cutting method. The shape measuring device 1 includes a probe moving device 2, an optical probe 3, a control device 4, a display device 5, an input device 6, and a holding and rotating device 7. In the shape measuring apparatus 1, the optical probe 3 captures an image of the object M to be measured that is held by a holding and rotating device 7 provided on the base B. Further, in the present embodiment, the probe moving device 2 and the holding and rotating device 7 serve as a moving mechanism as a moving unit that relatively moves the optical probe 3 and the object M to be measured.

プローブ移動装置2は、光学プローブ3による撮像範囲(視野)が被測定物Mの測定対象領域に位置するように、光学プローブ3の三次元空間上で、光学プローブ3の位置と、光学プローブ3から投影されるパターンの投影方向及び被測定物Mの測定対象領域に投影されたパターンの向きとを位置決めする。かつ、プローブ移動装置2は、光学プローブ3の撮像範囲が被測定物M上で走査するように、被測定物Mに対して光学プローブ3を移動させる。光学プローブ3から投影されるパターンの投影方向及び被測定物Mの測定対象領域に投影されたパターンの向きについては、後述する。   The probe moving device 2 includes the position of the optical probe 3 and the optical probe 3 on the three-dimensional space of the optical probe 3 so that the imaging range (field of view) of the optical probe 3 is located in the measurement target region of the object M to be measured. The projection direction of the pattern projected from and the direction of the pattern projected on the measurement target area of the object M are positioned. In addition, the probe moving device 2 moves the optical probe 3 with respect to the measured object M so that the imaging range of the optical probe 3 scans on the measured object M. The projection direction of the pattern projected from the optical probe 3 and the direction of the pattern projected onto the measurement target region of the object M will be described later.

このプローブ移動装置2は、図2に示すように、駆動部10と位置検出部11とを備えている。駆動部10は、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53及び第2回転部54を備えている。X移動部50Xは、ガイド部51Xに沿って矢印62の方向、つまりX軸方向に移動自在に設けられている。ガイド部51Xは、ベースBのY軸方向の両側縁に、X軸方向に延在して設けられている。   As shown in FIG. 2, the probe moving device 2 includes a drive unit 10 and a position detection unit 11. The drive unit 10 includes an X moving unit 50X, a Y moving unit 50Y, a Z moving unit 50Z, a first rotating unit 53, and a second rotating unit 54. The X moving part 50X is provided so as to be movable in the direction of the arrow 62, that is, in the X axis direction along the guide part 51X. The guide portions 51X are provided on both side edges of the base B in the Y-axis direction so as to extend in the X-axis direction.

Y移動部50Yは、ガイド部51Yに設けられている。Y移動部50Yは、ガイド部51Yに沿って矢印63の方向、すなわちY軸方向に移動自在である。ガイド部51Yは、X移動部50Xに設けられている。ガイド部51Yは、X軸方向に間隔をあけてY軸方向に延在している。Y移動部50Yには、Z軸方向に延在する保持体52が設けられている。Z移動部50Zは、ガイド部51Zに設けられている。Z移動部50Zは、ガイド部51Zに沿って矢印64の方向、すなわちZ軸方向に移動自在である。ガイド部51Zは、保持体52のY軸方向の両側縁に、Z軸方向に延在して設けられている。X移動部50X、Y移動部50Y及びZ移動部50Zは、光学プローブ3をX軸方向、Y軸方向及びZ軸方向に移動可能にする移動機構である。   The Y moving part 50Y is provided in the guide part 51Y. The Y moving part 50Y is movable along the guide part 51Y in the direction of the arrow 63, that is, in the Y axis direction. The guide part 51Y is provided in the X moving part 50X. The guide part 51Y extends in the Y-axis direction with an interval in the X-axis direction. The Y moving unit 50Y is provided with a holding body 52 extending in the Z-axis direction. The Z moving part 50Z is provided in the guide part 51Z. The Z moving part 50Z is movable in the direction of the arrow 64, that is, the Z-axis direction along the guide part 51Z. The guide portions 51Z are provided on both side edges in the Y-axis direction of the holding body 52 so as to extend in the Z-axis direction. The X moving unit 50X, the Y moving unit 50Y, and the Z moving unit 50Z are moving mechanisms that allow the optical probe 3 to move in the X axis direction, the Y axis direction, and the Z axis direction.

本実施形態において、移動機構は、第1回転部53及び第2回転部54を含んでいる。第1回転部53は、後述する保持部材(保持部)55に支持される光学プローブ3をX軸と平行な回転軸線(回転軸)53a周り、つまり矢印65の方向に回転して光学プローブ3の姿勢を変更するものである。第1回転部53は、特に光学プローブ3から投影されるパターンの被測定物Mへの投影方向を変更することができる。第1回転部53は、モータ等の第1回転駆動源を有している。第1回転駆動源の回転角度、すなわち光学プローブ3の回転軸線53a周りの回転角度は、不図示の第1角度読み取り部によって読み取られる。   In the present embodiment, the moving mechanism includes a first rotating part 53 and a second rotating part 54. The first rotating portion 53 rotates the optical probe 3 supported by a holding member (holding portion) 55 described later around the rotation axis (rotation axis) 53 a parallel to the X axis, that is, in the direction of the arrow 65, thereby rotating the optical probe 3. Is to change the posture. In particular, the first rotating unit 53 can change the projection direction of the pattern projected from the optical probe 3 onto the measurement object M. The 1st rotation part 53 has the 1st rotation drive sources, such as a motor. The rotation angle of the first rotation drive source, that is, the rotation angle around the rotation axis 53a of the optical probe 3 is read by a first angle reading unit (not shown).

第2回転部54は、保持部材55に支持される光学プローブ3を後述する第1保持部55Aが延在する方向と平行な軸線周り、つまり矢印66の方向に回転して光学プローブ3の姿勢を変更するものである。第2回転部54は、特に光学プローブ3から投影されるパターンの向きを変更することができる。第2回転部54は、モータ等の第2回転駆動源を有している。第2回転駆動源の回転角度、すなわち光学プローブ3の第1保持部55Aが延在する方向と平行な軸線周りの回転角度は、不図示の第2角度読み取り部によって読み取られる。本実施形態の第2回転部54は、第2回転駆動源及び手動の少なくとも一方で回転される構造であるが、駆動源を備えず手動でのみ回転する構造であってもよい。   The second rotating portion 54 rotates the optical probe 3 supported by the holding member 55 around an axis parallel to a direction in which a first holding portion 55A described later extends, that is, in the direction of the arrow 66, and the attitude of the optical probe 3 Is to change. The second rotating unit 54 can change the direction of the pattern projected from the optical probe 3 in particular. The 2nd rotation part 54 has 2nd rotation drive sources, such as a motor. The rotation angle of the second rotation drive source, that is, the rotation angle around the axis parallel to the direction in which the first holding unit 55A of the optical probe 3 extends is read by a second angle reading unit (not shown). The second rotating unit 54 of the present embodiment has a structure that is rotated by at least one of the second rotation drive source and the manual operation, but may have a structure that does not include a drive source and rotates only manually.

第1回転部53が光学プローブ3を回転軸線53a周りに回転する角度は、例えば、300度に設定され、被測定物Mの表面側からの測定のみならず、被測定物Mの裏面側からの測定も可能となる。   The angle at which the first rotating unit 53 rotates the optical probe 3 around the rotation axis 53a is set to, for example, 300 degrees, and is not only measured from the front side of the measured object M but also from the back side of the measured object M. Can also be measured.

形状測定装置1は、2個の基準球73aと73bとがベースBに配置されている。2個の基準球73a、73bは、それぞれ保持回転装置7に対して左右両側に配置されている。この2つの基準球73a、73bは、回転軸線53aのZ軸方向上の位置と同じ位置に設定されている。したがって、第1回転部53の回転駆動量がどのような状態であっても、形状測定装置1は、どちらか一方の基準球の形状は測定できるようになっている。   In the shape measuring apparatus 1, two reference spheres 73 a and 73 b are arranged on the base B. The two reference spheres 73a and 73b are arranged on both the left and right sides with respect to the holding and rotating device 7, respectively. The two reference spheres 73a and 73b are set at the same position as the position on the rotation axis 53a in the Z-axis direction. Therefore, the shape measuring apparatus 1 can measure the shape of one of the reference spheres regardless of the state of the rotational driving amount of the first rotating unit 53.

光学プローブ3と光学プローブ3を保持している保持部材55との間で機械的なガタつきがある場合、形状測定装置1が測定した基準球の位置は第1回転部53の回転量により異なる可能性がある。この量を補正するため、光学プローブ3が実線で示した姿勢のときと、一点鎖線で示した姿勢のときとで基準球73a又は基準球73bの位置を形状測定装置1で測定する。そのときの測定座標の差は、例えば、形状測定装置1が有する記憶装置に誤差量として記憶される。この誤差量を基に、光学プローブ3の姿勢と位置情報とについて補正することで、あらゆる姿勢でも正しい測定結果を得ることができる。   When there is mechanical backlash between the optical probe 3 and the holding member 55 holding the optical probe 3, the position of the reference sphere measured by the shape measuring device 1 varies depending on the amount of rotation of the first rotating unit 53. there is a possibility. In order to correct this amount, the shape measuring device 1 measures the position of the reference sphere 73a or the reference sphere 73b when the optical probe 3 is in the posture indicated by the solid line and when it is in the posture indicated by the one-dot chain line. The difference between the measurement coordinates at that time is stored as an error amount in, for example, a storage device included in the shape measurement apparatus 1. By correcting the posture and position information of the optical probe 3 based on this error amount, a correct measurement result can be obtained in any posture.

これらの、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、第2回転部54は、エンコーダ装置等によって構成される位置検出部11の検出結果に基づいて、制御装置4により制御される。   These X moving unit 50X, Y moving unit 50Y, Z moving unit 50Z, first rotating unit 53, and second rotating unit 54 are controlled based on the detection result of the position detecting unit 11 constituted by an encoder device or the like. It is controlled by the device 4.

光学プローブ3は、光源装置8及び撮像装置9を備えている。光学プローブ3は、保持部材55に支持されている。保持部材55は、第1保持部(第1部分、第1部材)55Aと、第2保持部(第2部分、第2部材)55Bとを有する。第1保持部55Aは、回転軸線53aと直交する方向に延び、かつ第1回転部53に支持される。第2保持部55Bは、第1保持部55Aの被測定物Mに対して遠い側の端部に設けられ、かつ回転軸線53aと平行に延びている。第1保持部55Aと第2保持部55Bとは、互いに直交している。このため、保持部材55の形状は、略L字状になっている。   The optical probe 3 includes a light source device 8 and an imaging device 9. The optical probe 3 is supported by the holding member 55. The holding member 55 includes a first holding portion (first portion, first member) 55A and a second holding portion (second portion, second member) 55B. The first holding portion 55A extends in a direction orthogonal to the rotation axis 53a and is supported by the first rotation portion 53. The second holding portion 55B is provided at the end of the first holding portion 55A far from the object M to be measured, and extends in parallel with the rotation axis 53a. The first holding part 55A and the second holding part 55B are orthogonal to each other. For this reason, the shape of the holding member 55 is substantially L-shaped.

保持部材55の第2保持部55Bは、自身の+X側の端部に光学プローブ3を支持している。第1回転部53の回転軸線53aの位置は、光学プローブ3よりも、被測定物Mに近い側に配置されている。また、第1保持部55Aの被測定物Mに対して近い側の端部には、カウンターバランス55cが設けられている。したがって、第1回転部53aに駆動力が発生しない場合、図1で図示されているように第1保持部55Aの延出方向がZ軸方向に沿うような姿勢となる。   The second holding portion 55B of the holding member 55 supports the optical probe 3 at its + X side end. The position of the rotation axis 53 a of the first rotating unit 53 is arranged closer to the object to be measured M than the optical probe 3. A counter balance 55c is provided at the end of the first holding portion 55A on the side closer to the object M to be measured. Therefore, when no driving force is generated in the first rotating part 53a, the extending direction of the first holding part 55A is in the Z-axis direction as shown in FIG.

保持回転装置7は、図2に示すように、被測定物Mを保持するテーブル71と、テーブル71をθZ軸方向、つまり矢印68の方向に回転させる回転駆動部72と、テーブル71の回転方向の位置を検出する位置検出部73と、を有する。位置検出部73は、テーブル71又は回転駆動部の回転軸の回転を検出するエンコーダ装置である。保持回転装置7は、位置検出部73で検出した結果に基づいて、回転駆動部72によってテーブル71を回転させる。保持回転装置7は、テーブル71を回転させることで、回転中心軸AXを中心として被測定物Mを矢印68の方向に回転させる。   As shown in FIG. 2, the holding and rotating device 7 includes a table 71 that holds the measurement object M, a rotation driving unit 72 that rotates the table 71 in the θZ-axis direction, that is, the direction of the arrow 68, and the rotation direction of the table 71. A position detecting unit 73 for detecting the position of. The position detection unit 73 is an encoder device that detects the rotation of the rotary shaft of the table 71 or the rotation drive unit. The holding and rotating device 7 rotates the table 71 by the rotation driving unit 72 based on the result detected by the position detecting unit 73. The holding and rotating device 7 rotates the table 71 to rotate the measurement object M in the direction of the arrow 68 around the rotation center axis AX.

光学プローブ3の光源装置8は、被測定物Mに測定光としての光を照射する照射部として機能する。光源装置8は、光源12及び照明光学系13を備える。光源装置8は、制御装置4によって制御されて、保持回転装置7に保持された被測定物Mの一部に光を照射する。本実施形態の光源12は、例えば、レーザーダイオードを含む。なお、光源12は、レーザーダイオード以外の発光ダイオード(LED)等の固体光源を含んでいてもよい。   The light source device 8 of the optical probe 3 functions as an irradiation unit that irradiates the measurement object M with light as measurement light. The light source device 8 includes a light source 12 and an illumination optical system 13. The light source device 8 is controlled by the control device 4 to irradiate a part of the measurement object M held by the holding and rotating device 7 with light. The light source 12 of this embodiment includes a laser diode, for example. The light source 12 may include a solid light source such as a light emitting diode (LED) other than the laser diode.

照明光学系13は、光源12から射出した光の空間的な光強度分布を調整する。本実施形態において、照明光学系13は、例えば、シリンドリカルレンズを含む。照明光学系13は、1つの光学素子であってもよいし、複数の光学素子を含んでいてもよい。光源12から射出した光は、シリンドリカルレンズが正のパワーを有する方向にスポットが広げられて、光源装置8から被測定物Mに向く第1方向に沿って射出する。図2に示すように、光源装置8から射出した光は、光源装置8からの光の射出方向に対して直交する面を有する被測定物Mに照射された場合、回転軸線53aと平行な方向を長手方向とし、回転軸線53aに平行なライン状のパターンになる。また、このライン状のパターンは、被測定物Mの表面では長手方向に所定の長さを持つ。このライン状のパターンの長手方向は、先に説明した第2回転部54により方向が変更される。被測定物Mの面の広がり方向に応じて、ライン状のパターンの長手方向を変えることで、被測定物Mの形状を効率よく測定することができる。   The illumination optical system 13 adjusts the spatial light intensity distribution of the light emitted from the light source 12. In the present embodiment, the illumination optical system 13 includes, for example, a cylindrical lens. The illumination optical system 13 may be one optical element or may include a plurality of optical elements. The light emitted from the light source 12 is emitted along the first direction from the light source device 8 toward the object to be measured M, with the spot being expanded in the direction in which the cylindrical lens has positive power. As shown in FIG. 2, the light emitted from the light source device 8 is parallel to the rotation axis 53 a when irradiated on a measurement object M having a surface orthogonal to the light emission direction from the light source device 8. Is a linear pattern parallel to the rotation axis 53a. The line pattern has a predetermined length in the longitudinal direction on the surface of the object M to be measured. The direction of the longitudinal direction of the line pattern is changed by the second rotating unit 54 described above. By changing the longitudinal direction of the line-shaped pattern according to the spreading direction of the surface of the object to be measured M, the shape of the object to be measured M can be efficiently measured.

照明光学系13は、CGH(Computer Generated Hologram)等の回折光学素子を含み、光源12から発せられた照明光束Lの空間的な光強度分布を前述した回折光学素子によって調整してもよい。また、本実施形態において、空間的な光強度分布が調整された測定光をパターン光ということがある。照明光束Lは、パターン光の一例である。本明細書において、パターンの向きと称しているときは、このライン状のパターンの長手方向と平行な方向を示している。   The illumination optical system 13 may include a diffractive optical element such as CGH (Computer Generated Hologram), and the spatial light intensity distribution of the illumination light beam L emitted from the light source 12 may be adjusted by the diffractive optical element described above. In the present embodiment, the measurement light whose spatial light intensity distribution is adjusted may be referred to as pattern light. The illumination light beam L is an example of pattern light. In this specification, when the direction of the pattern is referred to, the direction parallel to the longitudinal direction of the line pattern is shown.

撮像装置9は、撮像部としての撮像素子20及び結像光学系21を備える。光源装置8から被測定物Mに照射された照明光束Lは、被測定物Mの表面で反射散乱して、その少なくとも一部が結像光学系21へ入射する。結像光学系21は、光源装置8によって被測定物Mの表面に照射されたライン状のパターンの像を結像光学系21により撮像素子20に結ぶ。撮像素子20は、この結像光学系21が形成する像に応じた画像信号を出力する。本実施形態において、撮像素子20は、測定光、具体的には、自身が撮像した撮像画像を生成するための素子である。撮像素子20は、複数の画素により撮像領域が形成される。本実施形態において、撮像素子20は、光電変換センサと、CCD(Charge Couple Device)又はCMOS(Complementary Metal Oxide Semiconductor)とを組み合わせたイメージセンサであるが、これに限定されない。   The imaging device 9 includes an imaging element 20 and an imaging optical system 21 as an imaging unit. The illumination light beam L emitted from the light source device 8 to the object to be measured M is reflected and scattered on the surface of the object to be measured M, and at least a part thereof enters the imaging optical system 21. The imaging optical system 21 connects the image of the line pattern irradiated on the surface of the measurement object M by the light source device 8 to the image sensor 20 by the imaging optical system 21. The image sensor 20 outputs an image signal corresponding to the image formed by the imaging optical system 21. In the present embodiment, the imaging element 20 is an element for generating measurement light, specifically, a captured image captured by itself. In the imaging element 20, an imaging region is formed by a plurality of pixels. In the present embodiment, the image sensor 20 is an image sensor that combines a photoelectric conversion sensor and a CCD (Charge Couple Device) or a CMOS (Complementary Metal Oxide Semiconductor), but is not limited thereto.

結像光学系21は、光源装置8からのライン光としての照明光束Lの射出方向及び照明光束Lのスポットの形状の長手方向を含む面内に存在する物体面21aと、撮像素子20の受光面20a(像面)とが共役な関係になっている。なお、光源装置8からの照明光束Lの射出方向と照明光束Lのスポットの形状の長手方向とを含む面は、照明光束Lの伝播方向にほぼ平行である。形状測定装置1は、照明光束Lの伝播方向に沿って、撮像素子20の受光面20aと共役な面を形成することで、被測定物Mの表面がどの位置にあっても、合焦した像が得られる。   The imaging optical system 21 receives light from the imaging element 20 and the object surface 21 a existing in a plane including the emission direction of the illumination light beam L as line light from the light source device 8 and the longitudinal direction of the spot shape of the illumination light beam L. The surface 20a (image surface) has a conjugate relationship. The plane including the emission direction of the illumination light beam L from the light source device 8 and the longitudinal direction of the spot shape of the illumination light beam L is substantially parallel to the propagation direction of the illumination light beam L. The shape measuring apparatus 1 is focused on the surface of the object M to be measured at any position by forming a surface conjugate with the light receiving surface 20a of the image sensor 20 along the propagation direction of the illumination light beam L. An image is obtained.

前述した第1回転部53の回転軸線53aは、図2に示すように、光学プローブ3に対して、被測定物M側に配置されている。より詳細には、回転軸線53aは、結像光学系21の物体面21a上であって、物体面21aにおける照明光束Lの照射方向(光軸方向、所定方向)の中央部を通る位置に配置されている。このようにすることで、第1回転部53により第1保持部55Aがどのような姿勢になっていても、被測定物Mのライン状のパターンが投影された位置が回転軸線53aの延長上にあれば、任意の方向から被測定物Mに照明光束Lを照射することができる。   The rotation axis 53a of the first rotating unit 53 described above is disposed on the measured object M side with respect to the optical probe 3, as shown in FIG. More specifically, the rotation axis 53a is disposed on the object plane 21a of the imaging optical system 21 and at a position passing through the central portion of the irradiation direction (optical axis direction, predetermined direction) of the illumination light beam L on the object plane 21a. Has been. By doing so, the position where the line-shaped pattern of the object M is projected is an extension of the rotation axis 53a regardless of the posture of the first holding unit 55A by the first rotating unit 53. If there is, it can irradiate the to-be-measured object M with the illumination light beam L from arbitrary directions.

被測定物Mの表面が鏡面状態であり、被測定物Mの表面で幾重にも反射してきた光が結像光学系21に入射するような場合、撮像素子20の受光面20aには、照明光束Lが照射されたときに形成できる像以外にも、被測定物Mの測定結果に影響を及ぼす像が形成される可能性がある。光学プローブ3の撮像装置9がこの像も検出してしまうと、測定結果に誤差を生ずる可能性がある。これに対して、形状測定装置1は、第1回転部53により被測定物Mに対する照明光束Lの入射方向を変更することで、このような測定結果に影響を及ぼす像を排除又はその像を形成する光量を十分小さくすることができる。その結果、形状測定装置1は、測定結果に及ぼす影響を低減することができる。   When the surface of the object to be measured M is in a mirror state and light that has been repeatedly reflected by the surface of the object to be measured M enters the imaging optical system 21, the light receiving surface 20a of the image sensor 20 is illuminated. In addition to the image that can be formed when the light beam L is irradiated, an image that affects the measurement result of the object M to be measured may be formed. If the imaging device 9 of the optical probe 3 also detects this image, an error may occur in the measurement result. On the other hand, the shape measuring apparatus 1 eliminates an image that affects the measurement result or changes the image by changing the incident direction of the illumination light beam L with respect to the object M to be measured by the first rotating unit 53. The amount of light to be formed can be made sufficiently small. As a result, the shape measuring apparatus 1 can reduce the influence on the measurement result.

制御装置4は、形状測定装置1の各部を制御する。また、制御装置4は、光学プローブ3による撮像結果とプローブ移動装置2及び保持回転装置7の位置情報とに基づく演算処理を行って被測定物Mの形状情報を取得する。本実施形態において、形状情報は、測定対象としての被測定物Mの少なくとも一部に関する形状、寸法、凹凸分布、表面粗さ及び測定対象面表面の点の位置(座標)のうち少なくとも1つを示す情報を含む。制御装置4には、表示装置5及び入力装置6が接続される。制御装置4は、図3に示すように、制御部32と、算出部38と、移動量算出部39と、記憶部40と、を有する。制御装置4は、例えば、マイクロコンピュータであるが、これに限定されない。   The control device 4 controls each part of the shape measuring device 1. Further, the control device 4 obtains the shape information of the object to be measured M by performing arithmetic processing based on the imaging result of the optical probe 3 and the positional information of the probe moving device 2 and the holding and rotating device 7. In the present embodiment, the shape information is at least one of the shape, size, unevenness distribution, surface roughness, and position (coordinates) of points on the surface of the measurement object regarding at least a part of the object M to be measured. Contains information to indicate. A display device 5 and an input device 6 are connected to the control device 4. As illustrated in FIG. 3, the control device 4 includes a control unit 32, a calculation unit 38, a movement amount calculation unit 39, and a storage unit 40. The control device 4 is, for example, a microcomputer, but is not limited to this.

制御部32は、被測定物Mを測定するためのコンピュータプログラムとしての形状測定用コンピュータプログラム(以下、適宜、形状測定用プログラムという)を記憶部40から取得し、取得した形状測定用プログラムに基づいて、形状測定装置1の各部による被測定物Mの形状測定動作を制御する。制御部32は、初期測定範囲設定部33と、実測定領域設定部34と、回転回数算出部35と、測定パス設定部36と、動作制御部37と、を有する。   The control unit 32 acquires a shape measurement computer program (hereinafter, appropriately referred to as a shape measurement program) from the storage unit 40 as a computer program for measuring the workpiece M, and based on the acquired shape measurement program. Then, the shape measuring operation of the object M to be measured by each part of the shape measuring apparatus 1 is controlled. The control unit 32 includes an initial measurement range setting unit 33, an actual measurement region setting unit 34, a rotation number calculation unit 35, a measurement path setting unit 36, and an operation control unit 37.

初期測定範囲設定部33は、被測定物Mの形状測定用プログラムを決定する基準となる初期測定範囲を設定する。初期測定範囲は、光学プローブ3と被測定物Mとを相対的に回転させる回転軸の近傍における初期内側端部の位置と、前記移動機構で発生する回転に対する径方向に向かって前記被測定物の外周の位置に位置する初期外側端部の位置とを少なくとも有する。初期測定範囲設定部33は、入力された被測定物Mの形状データを解析して、初期測定範囲を設定する。また、被測定物Mが、歯車又はタービンブレード等の円周方向に繰り返し形状を有しかつ前記円周方向とは異なる方向に延在した凹凸形状を有する形状である場合、初期測定範囲設定部33は、繰り返し形状の1つを測定する際に、設定した初期形状測定用プログラムから得られる初期測定開始位置及び初期測定終了位置とのその間をつなぐパスから、初期測定範囲に関する情報が得られる。   The initial measurement range setting unit 33 sets an initial measurement range serving as a reference for determining a shape measurement program for the workpiece M. The initial measurement range includes the position of the initial inner end in the vicinity of the rotation axis that relatively rotates the optical probe 3 and the object to be measured M, and the object to be measured in the radial direction with respect to the rotation generated by the moving mechanism. At least the position of the initial outer end located at the position of the outer periphery. The initial measurement range setting unit 33 analyzes the input shape data of the object M to set the initial measurement range. In addition, when the object to be measured M is a shape having a repetitive shape in a circumferential direction such as a gear or a turbine blade and having a concavo-convex shape extending in a direction different from the circumferential direction, an initial measurement range setting unit When measuring one of the repeated shapes 33, information on the initial measurement range is obtained from a path connecting the initial measurement start position and the initial measurement end position obtained from the set initial shape measurement program.

実測定領域設定部34は、初期測定範囲設定部33で設定した条件に基づいて、実際に測定する領域である実測定領域を設定する。実測定領域は、被測定物Mが測定される領域の全域を少なくとも含む範囲である。   Based on the conditions set by the initial measurement range setting unit 33, the actual measurement region setting unit 34 sets an actual measurement region that is an actual measurement region. The actual measurement region is a range including at least the entire region where the object to be measured M is measured.

回転回数算出部35は、回転対称又は円筒の被測定物を測定する場合に、被測定物Mが実際に測定される領域と、被測定物Mの表面に照射されたライン状のパターンの向き及びライン状のパターンの長さ等とに基づいて、測定時に光学プローブ3と被測定物Mとが相対的に回転する回数を算出する。   When measuring a rotationally symmetric or cylindrical object to be measured, the rotation number calculation unit 35 is an area where the object M is actually measured, and the direction of the line pattern irradiated on the surface of the object M to be measured. Based on the length of the line pattern and the like, the number of relative rotations of the optical probe 3 and the DUT M during the measurement is calculated.

測定パス設定部36は、被測定物M上で投影されたライン状のパターンの向き、ライン状のパターンの長さ及び回転回数に基づいて測定パスを設定し、測定パスを基に形状測定要プログラムを決定する。形状測定要プログラムは、被測定物Mの測定対象範囲を測定するのに必要なプローブ移動装置2による光学プローブ3の移動方向と移動速度及び保持回転装置7の回転角速度とのタイムスケジュールを示す。このタイムスケジュールは、光学プローブ3の撮像素子20の撮影間隔とユーザが求める測定点の最大取得間隔とに対応するように設定される。   The measurement path setting unit 36 sets the measurement path based on the direction of the line-shaped pattern projected on the object M to be measured, the length of the line-shaped pattern, and the number of rotations, and requires shape measurement based on the measurement path. Determine the program. The shape measurement required program shows a time schedule of the moving direction and moving speed of the optical probe 3 by the probe moving device 2 and the rotational angular velocity of the holding rotating device 7 necessary for measuring the measurement target range of the object M to be measured. This time schedule is set so as to correspond to the imaging interval of the image sensor 20 of the optical probe 3 and the maximum acquisition interval of measurement points required by the user.

測定パスは、形状測定装置1が被測定物Mの測定対象範囲を測定する際に、被測定物Mの表面で移動するライン状のパターンが実際に移動したときの軌跡である。測定パス設定部36は、測定パスと測定パス上の各位置における照明光束Lの投影方向とに基づいて、被測定物Mの測定範囲を測定するのに必要な移動機構による実測定開始位置から実測定終了位置に至るまでの移動機構の動作制御を決定する。   The measurement path is a locus when the line-shaped pattern that moves on the surface of the measurement object M actually moves when the shape measuring apparatus 1 measures the measurement target range of the measurement object M. Based on the measurement path and the projection direction of the illumination light beam L at each position on the measurement path, the measurement path setting unit 36 determines from the actual measurement start position by the moving mechanism necessary to measure the measurement range of the object M to be measured. The operation control of the moving mechanism up to the actual measurement end position is determined.

動作制御部37は、形状測定装置1の各部の動作を制御する。動作制御部37が制御する対象は、プローブ移動装置2、光学プローブ3及び保持回転装置7を含む。動作制御部37は、制御部32で作成された動作制御情報を基に、プローブ移動装置2、光学プローブ3及び保持回転装置7の動作制御を実施する。制御部32は、被測定物Mの実測定領域を測定するために必要な移動機構による回転回数を算出し、算出した回転回数に基づいて設定されたプローブ移動装置2の動作制御により、プローブ移動装置2の動作を制御する。例えば、制御部32は、測定パス設定部36で設定された測定パス情報に基づき動作制御情報を作成し、制御部32内の動作制御部37に伝達することで、プローブ移動装置2、光学プローブ3及び保持回転装置7の形状測定中の動作制御を行う。また、制御部32は、光学プローブ3による画像取得動作制御を行う。   The operation control unit 37 controls the operation of each unit of the shape measuring apparatus 1. Targets controlled by the operation control unit 37 include the probe moving device 2, the optical probe 3, and the holding and rotating device 7. The operation control unit 37 performs operation control of the probe moving device 2, the optical probe 3, and the holding and rotating device 7 based on the operation control information created by the control unit 32. The control unit 32 calculates the number of rotations by the moving mechanism necessary for measuring the actual measurement region of the object M to be measured, and moves the probe by controlling the operation of the probe moving device 2 set based on the calculated number of rotations. The operation of the device 2 is controlled. For example, the control unit 32 creates operation control information based on the measurement path information set by the measurement path setting unit 36 and transmits the operation control information to the operation control unit 37 in the control unit 32, so that the probe moving device 2, the optical probe 3 and operation control during shape measurement of the holding and rotating device 7 are performed. Further, the control unit 32 performs image acquisition operation control by the optical probe 3.

算出部38は、撮像装置9が撮像したタイミングで取得した位置検出部11からのプローブ移動装置2及び保持回転装置7の位置情報と、撮像装置9が取得したパターンの像の画像に関連した撮影信号とに基づいて、被測定物Mのパターンが照射された位置を算出し、被測定物Mの形状データを出力する。本実施形態において、形状測定装置1が備える制御部32の動作制御部37は、撮像装置9の撮影タイミングを一定間隔とし、入力装置6から入力する測定点間隔情報を基に、プローブ移動装置2及び保持回転装置7の移動速度を制御している。   The calculation unit 38 captures the positional information of the probe moving device 2 and the holding and rotating device 7 from the position detection unit 11 acquired at the timing when the imaging device 9 captured, and the image related to the image of the pattern image acquired by the imaging device 9. Based on the signal, the position where the pattern of the object to be measured M is irradiated is calculated, and the shape data of the object to be measured M is output. In the present embodiment, the operation control unit 37 of the control unit 32 included in the shape measuring device 1 sets the imaging timing of the imaging device 9 to a constant interval, and based on the measurement point interval information input from the input device 6, the probe moving device 2. And the moving speed of the holding | maintenance rotation apparatus 7 is controlled.

前述したように、移動機構、本実施形態ではプローブ移動装置2及び保持回転装置7が、被測定物Mと、照射部としての光源装置8及び撮像部としての撮像素子20を有する光学プローブ3とを相対移動させる。移動量算出部39は、被測定物Mと、光学プローブ3とが相対移動したときの移動量を算出する。   As described above, the moving mechanism, in the present embodiment, the probe moving device 2 and the holding and rotating device 7 includes the optical probe 3 including the measurement object M, the light source device 8 as the irradiation unit, and the image sensor 20 as the imaging unit. Relative movement. The movement amount calculation unit 39 calculates the movement amount when the object to be measured M and the optical probe 3 are relatively moved.

記憶部40は、形状測定用プログラムを含む各種のコンピュータプログラム及びデータを記憶する記憶装置である。記憶部40は、ハードディスクメモリ等の少なくとも1つを備えている。記憶部40は、初期測定範囲記憶部40Aと、形状測定用プログラム40Bと、を有する。記憶部40は、これらのコンピュータプログラム及びデータ以外にも、形状測定装置1の動作の制御に用いる各種のコンピュータプログラム及びデータを記憶している。初期測定範囲記憶部40Aは、初期測定範囲設定部33で設定された初期測定範囲を記憶する。形状測定用プログラム40Bは、制御装置4の各部の処理を実行させるコンピュータプログラムを含んでいる。   The storage unit 40 is a storage device that stores various computer programs and data including a shape measurement program. The storage unit 40 includes at least one such as a hard disk memory. The storage unit 40 includes an initial measurement range storage unit 40A and a shape measurement program 40B. In addition to these computer programs and data, the storage unit 40 stores various computer programs and data used for controlling the operation of the shape measuring apparatus 1. The initial measurement range storage unit 40A stores the initial measurement range set by the initial measurement range setting unit 33. The shape measurement program 40 </ b> B includes a computer program that executes processing of each unit of the control device 4.

制御装置4は、形状測定用プログラム40Bに含まれているコンピュータプログラムを実行することで、前述した各部の動作を実現する。形状測定用プログラム40Bは、前述した制御部32で生成する被測定物Mを測定するためのコンピュータプログラムを少なくとも含む。本実施形態において、形状測定用プログラム40Bは、予め記憶部40に記憶されているが、これに限定されない。制御装置4は、形状測定用プログラム40Bが記憶された記憶媒体からこれを読み取って記憶部40に記憶してもよいし、通信により形状測定用プログラム40Bを外部から取得してもよい。   The control device 4 realizes the operation of each unit described above by executing a computer program included in the shape measurement program 40B. The shape measurement program 40B includes at least a computer program for measuring the object M to be measured generated by the control unit 32 described above. In the present embodiment, the shape measurement program 40B is stored in the storage unit 40 in advance, but is not limited thereto. The control device 4 may read this from the storage medium storing the shape measurement program 40B and store it in the storage unit 40, or may acquire the shape measurement program 40B from the outside by communication.

本実施形態において、記憶部40は、初期測定範囲設定部33を備えているが、これに限定されない。記憶部40は、少なくとも初期測定範囲記憶部40Aを備えていればよく、初期測定範囲設定部33を備えていなくてもよい。   In the present embodiment, the storage unit 40 includes the initial measurement range setting unit 33, but is not limited thereto. The storage unit 40 only needs to include at least the initial measurement range storage unit 40A, and may not include the initial measurement range setting unit 33.

制御装置4は、プローブ移動装置2の駆動部10及び保持回転装置7の回転駆動部72を制御して、光学プローブ3と被測定物Mの相対位置が所定の位置関係となるようにしている。また、制御装置4は、光学プローブ3の調光等を制御して、被測定物Mの表面に投影されたライン状のパターンを最適な光量で撮像装置9に撮像させる。制御装置4は、光学プローブ3の位置情報をプローブ移動装置2の位置検出部11から取得し、測定領域を撮像した画像を示すデータ(撮像画像データ)を光学プローブ3から取得する。そして、制御装置4は、光学プローブ3の位置に応じた撮像画像データから得られる被測定物Mの表面の位置と、光学プローブ3の位置及びライン光の投影方向と撮像装置の撮影方向と、を対応付けることによって、被測定物Mの3次元的な形状に関する形状情報を演算する。   The control device 4 controls the drive unit 10 of the probe moving device 2 and the rotation drive unit 72 of the holding and rotating device 7 so that the relative positions of the optical probe 3 and the object to be measured M have a predetermined positional relationship. . In addition, the control device 4 controls the light control and the like of the optical probe 3 to cause the imaging device 9 to image the line pattern projected on the surface of the object to be measured M with an optimum light amount. The control device 4 acquires the position information of the optical probe 3 from the position detection unit 11 of the probe moving device 2, and acquires data (captured image data) indicating an image obtained by capturing the measurement region from the optical probe 3. And the control apparatus 4 is the position of the surface of the to-be-measured object M obtained from the picked-up image data according to the position of the optical probe 3, the position of the optical probe 3, the projection direction of the line light, and the photographing direction of the imaging apparatus, Are associated with each other to calculate shape information related to the three-dimensional shape of the object M to be measured.

表示装置5は、例えば、液晶表示装置又は有機エレクトロルミネッセンス表示装置等を含む。表示装置5は、形状測定装置1の測定に関する測定情報を表示する。測定情報は、例えば、測定に関する設定を示す設定情報、測定の経過を示す経過情報及び測定の結果を示す形状情報等のうち少なくとも1つを含む。本実施形態において、表示装置5は、測定情報を示す画像データを制御装置4から供給され、この画像データに従って測定情報を示す画像を表示する。   The display device 5 includes, for example, a liquid crystal display device or an organic electroluminescence display device. The display device 5 displays measurement information related to the measurement by the shape measuring device 1. The measurement information includes, for example, at least one of setting information indicating settings related to measurement, progress information indicating the progress of the measurement, shape information indicating the result of the measurement, and the like. In the present embodiment, the display device 5 is supplied with image data indicating measurement information from the control device 4, and displays an image indicating measurement information according to the image data.

入力装置6は、例えばキーボード、マウス、ジョイスティック、トラックボール及びタッチバッド等の各種入力デバイスを含む。入力装置6は、制御装置4への各種情報の入力を受け付ける。各種情報は、例えば、形状測定装置1に測定を開始させる指令(コマンド)を示す指令情報、形状測定装置1による測定に関する設定情報及び形状測定装置1の少なくとも一部をマニュアルで操作するための操作情報等を含む。   The input device 6 includes various input devices such as a keyboard, a mouse, a joystick, a trackball, and a touch pad. The input device 6 accepts input of various information to the control device 4. The various information includes, for example, command information indicating a command (command) for causing the shape measuring device 1 to start measurement, setting information related to measurement by the shape measuring device 1, and an operation for manually operating at least part of the shape measuring device 1. Includes information.

本実施形態において、形状測定装置1は、制御装置4が制御部32と、算出部38と、記憶部40とを備え、制御装置4に表示装置5及び入力装置6が接続されている。形状測定装置1は、制御装置4、表示装置5及び入力装置6が、例えば、形状測定装置1に接続されるコンピュータでもよいし、形状測定装置1が設置される建物が備えるホストコンピュータ等でもよい。また、制御装置4、表示装置5及び入力装置6がコンピュータである場合、このコンピュータが設置される場所は形状測定装置1が設置される建物に限られない。例えば、コンピュータと形状測定装置1とは離れた位置にあり、両者はインターネット等の通信回線を介して接続されても構わない。また、形状測定装置1は、制御装置4と、表示装置5及び入力装置6とが、別々の場所に設けられていてもよい。例えば、入力装置6と表示装置5とを備えるコンピュータとは別に、例えば光学プローブ3の内部に制御装置4が設けられていてもよい。この場合には、制御装置4が取得した情報は、通信手段を用いて、コンピュータに送信される。   In the present embodiment, in the shape measuring apparatus 1, the control device 4 includes a control unit 32, a calculation unit 38, and a storage unit 40, and a display device 5 and an input device 6 are connected to the control device 4. In the shape measuring device 1, the control device 4, the display device 5 and the input device 6 may be, for example, a computer connected to the shape measuring device 1, or a host computer provided in a building where the shape measuring device 1 is installed. . Moreover, when the control apparatus 4, the display apparatus 5, and the input device 6 are computers, the place where this computer is installed is not restricted to the building where the shape measuring apparatus 1 is installed. For example, the computer and the shape measuring apparatus 1 may be located at a distance from each other, and both may be connected via a communication line such as the Internet. Moreover, as for the shape measuring apparatus 1, the control apparatus 4, the display apparatus 5, and the input device 6 may be provided in the separate place. For example, the control device 4 may be provided inside the optical probe 3, for example, separately from the computer including the input device 6 and the display device 5. In this case, the information acquired by the control device 4 is transmitted to the computer using communication means.

<反射率が異なる部分を有する被測定物Mの測定>
例えば、被測定物Mの反射率が大きいため撮像素子20に入射する被測定物Mからの光の光量が多いと、露光過多になる結果、得られた画像は明るくなってしまい、被測定物Mのエッジ部分が明瞭に得られないことがある。反対に、被測定物Mの反射率が小さいため撮像素子に入射する被測定物Mからの光の光量が少ないと、露光不足になる結果、得られた被測定物Mの画像は暗くなってしまい、被測定物Mのエッジ部分が明瞭に得られないことがある。前者の場合、例えば、撮像素子に対する露光時間を短くすればよいし、後者の場合、露光時間を長くすればよい。
<Measurement of an object to be measured M having portions with different reflectivities>
For example, since the reflectance of the object to be measured M is large, if the amount of light from the object to be measured M incident on the image sensor 20 is large, the resulting image becomes bright as a result of overexposure, and the object to be measured is brightened. The edge portion of M may not be clearly obtained. On the contrary, since the reflectance of the object to be measured M is small, if the amount of light from the object to be measured M incident on the image sensor is small, the resulting image of the object to be measured M becomes dark as a result of insufficient exposure. Therefore, the edge portion of the device under test M may not be clearly obtained. In the former case, for example, the exposure time for the image sensor may be shortened, and in the latter case, the exposure time may be lengthened.

図4は、異なる反射率の表面を有する被測定物Mの一例を示す斜視図である。被測定物Mは、表面全体にわたって反射率がほぼ同一であったり、図4に示すように反射率が異なる部分を有する複合物であったりする。図8に示すように、例えば、被測定物Mが三角柱の部材であったとする。そして、被測定物Mは、稜線EGを基準として一方の側面の反射率が、他方の側面の反射率よりも低いとする。被測定物Mの稜線EGに対して一方の側面を低反射部Maといい、他方の側面を高反射部Mbという。   FIG. 4 is a perspective view showing an example of the measurement object M having surfaces with different reflectivities. The object to be measured M may have substantially the same reflectivity over the entire surface, or may be a composite having portions having different reflectivities as shown in FIG. As shown in FIG. 8, for example, it is assumed that the DUT M is a triangular prism member. And the to-be-measured object M assumes that the reflectance of one side surface is lower than the reflectance of the other side surface on the basis of the ridgeline EG. One side surface with respect to the ridge line EG of the object M to be measured is referred to as a low reflection portion Ma, and the other side surface is referred to as a high reflection portion Mb.

被測定物Mが、反射率が異なる部分を有している場合、低反射部Maと高反射部Mbとに照明光束Lが照射されると、照明光束Lが被測定物Mに照射された部分は、線状になる。低反射部Maからの線状の反射光LCa及び高反射部Mbからの線状の反射光LCbを撮像素子20が撮像すると、撮像素子20の撮像結果から得られた同一の画像中には、反射率の高い部分と低い部分とが混在することになる。この場合、被測定物Mの低反射部Maに対しては適切な露光量であるが、高反射部Mbに対しては露光過多になったり、高反射部Mbに対しては適切な露光量であるが、低反射部Maに対しては露光不足になったりすることがある。このような状態で得られた画像は、露光不足又は露光過多の部分の情報が欠落することがある。   When the measurement object M has portions with different reflectivities, when the illumination light beam L is irradiated to the low reflection part Ma and the high reflection part Mb, the illumination light beam L is irradiated to the measurement object M. The part becomes linear. When the imaging element 20 images the linear reflected light LCa from the low reflection part Ma and the linear reflected light LCb from the high reflection part Mb, in the same image obtained from the imaging result of the imaging element 20, A portion having a high reflectance and a portion having a low reflectance are mixed. In this case, the exposure amount is appropriate for the low reflection portion Ma of the object to be measured M, but the exposure amount is excessive for the high reflection portion Mb, or is appropriate for the high reflection portion Mb. However, the low reflective portion Ma may be underexposed. In an image obtained in such a state, information on an underexposed or overexposed part may be lost.

このような欠落を防止して、低反射部Ma及び高反射部Mbの両方の情報を得るためには、撮像素子の感度を各々の反射率に適した感度に設定し、各感度毎に2回の撮像が必要になる。その結果、測定時間が長くなる可能性がある。   In order to prevent such omission and obtain information on both the low reflection portion Ma and the high reflection portion Mb, the sensitivity of the imaging device is set to a sensitivity suitable for each reflectance, and 2 for each sensitivity. Times of imaging are required. As a result, the measurement time may be long.

本実施形態において、形状測定装置1は、反射率が異なる部分を有する被測定物Mの形状を測定するにあたり、測定時間の増加を抑制しつつ、被測定物Mの形状を測定するために必要な情報量を確保するため、次のような処理を実行する。次に、この処理について説明する。   In the present embodiment, the shape measuring apparatus 1 is necessary for measuring the shape of the measurement object M while suppressing an increase in measurement time when measuring the shape of the measurement object M having portions having different reflectances. In order to secure a sufficient amount of information, the following processing is executed. Next, this process will be described.

図5及び図6は、本実施形態に係る形状測定の処理における撮像素子20の撮像領域の一例を説明するための図である。図7は、撮像素子20によって撮像された被測定物Mの第1画像PIAの一例を示す図である。図8は、撮像素子20によって撮像された被測定物Mの第2画像PIBの一例を示す図である。図9Aは、第1画像PIAと第2画像PIBとを合成した画像の一例を示す図である。   5 and 6 are diagrams for explaining an example of the imaging region of the imaging device 20 in the shape measurement process according to the present embodiment. FIG. 7 is a diagram illustrating an example of the first image PIA of the measurement object M imaged by the image sensor 20. FIG. 8 is a diagram illustrating an example of the second image PIB of the DUT M imaged by the image sensor 20. FIG. 9A is a diagram illustrating an example of an image obtained by combining the first image PIA and the second image PIB.

形状測定装置1の撮像装置9が備える撮像素子20は、複数の画素20PXを有している。複数の画素20PXの一部は第1方向としてのx方向と平行に配列される。x方向と平行に配列された画素20PXの群(以下、適宜画素行という)20L1、20L2、・・・20L8は、第1方向と交差する第2方向としてのy方向と平行な方向に沿って配列される。複数の画素20PXが配列された領域が、撮像素子20の撮像領域AARである。x方向はxy平面座標系のx軸と平行な方向であり、y方向はxy平面座標系のy軸と平行な方向である。このように、本実施形において、撮像素子20は、複数の画素20PXが行列状に配置されている。本実施形態においてx方向とy方向とは直交しているが、両者の角度はこれに限定されない。図では画素行の数を8個としているが、8個に限定されるものではない。撮像素子20の撮像領域AARは、第1撮像領域AAと第2撮像領域ABとを含む。第1撮像領域AAは、複数の画素行のうち、奇数の画素行20L1、20L3、20L5、20L7を有している。第2撮像領域ABは、複数の画素行のうち、偶数の画素行20L2、20L4、20L6、20L8を有している。複数の画素行20L1、20L2、・・・20L8は、この順にy方向に向かって配列されている。このため、奇数の画素行20L1、20L3、20L5、20L7と、偶数の画素行20L2、20L4、20L6、20L8とは、奇数番目のものと偶数番目のものとが交互に配列される。   The imaging element 20 provided in the imaging device 9 of the shape measuring apparatus 1 has a plurality of pixels 20PX. Some of the plurality of pixels 20PX are arranged in parallel with the x direction as the first direction. A group of pixels 20PX (hereinafter referred to as pixel rows as appropriate) 20L1, 20L2,... 20L8 arranged in parallel with the x direction is along a direction parallel to the y direction as a second direction intersecting the first direction. Arranged. An area in which the plurality of pixels 20PX are arranged is an imaging area AAR of the imaging element 20. The x direction is a direction parallel to the x axis of the xy plane coordinate system, and the y direction is a direction parallel to the y axis of the xy plane coordinate system. Thus, in the present embodiment, the imaging device 20 has a plurality of pixels 20PX arranged in a matrix. In the present embodiment, the x direction and the y direction are orthogonal to each other, but the angle between them is not limited to this. Although the number of pixel rows is eight in the figure, it is not limited to eight. The imaging area AAR of the imaging element 20 includes a first imaging area AA and a second imaging area AB. The first imaging area AA includes odd pixel rows 20L1, 20L3, 20L5, and 20L7 among the plurality of pixel rows. The second imaging area AB has even-numbered pixel rows 20L2, 20L4, 20L6, and 20L8 among the plurality of pixel rows. The plurality of pixel rows 20L1, 20L2,... 20L8 are arranged in this order in the y direction. Therefore, the odd-numbered pixel rows 20L1, 20L3, 20L5, and 20L7 and the even-numbered pixel rows 20L2, 20L4, 20L6, and 20L8 are alternately arranged in odd-numbered and even-numbered rows.

制御装置4の制御部32は、撮像素子20の撮像領域AARにおける第1撮像領域AAの画素の感度と、第2撮像領域ABの画素の感度とを異なる感度に設定可能である。形状測定装置1が、図4に示す異なる反射率の部分を有する被測定物Mの形状を測定する場合、図3に示す制御装置4の制御部32は、まず、撮像素子20の撮像領域AARの第1撮像領域AAに含まれる画素20PXを第1感度とし、第2撮像領域ABに含まれる画素20PXを第2感度として、図7に示す第1画像PIAを生成する。次に、制御部32は、第1撮像領域AAに含まれる画素20PXを第2感度とし、第2撮像領域ABに含まれる画素20PXを第1感度として図8に示す第2画像PIBを生成する。すなわち、撮像素子20は、第1画像PIAを撮像するときと第2画像PIBを撮像するときとで、第1撮像領域AAの感度と第2撮像領域の感度とが入れ替えられる。第1感度及び第2感度は、前述したように、例えば、撮像素子20の各画素20PXの露光時間である。本例においては、第1感度は第2感度よりも高い。具体的には、第1感度に対応する露光時間は、第2感度に対応する露光時間よりも長い。   The control unit 32 of the control device 4 can set the sensitivity of the pixels in the first imaging area AA and the sensitivity of the pixels in the second imaging area AB in the imaging area AAR of the imaging device 20 to different sensitivities. When the shape measuring apparatus 1 measures the shape of the object M having different reflectivity parts shown in FIG. 4, the control unit 32 of the control apparatus 4 shown in FIG. The first image PIA shown in FIG. 7 is generated with the pixel 20PX included in the first imaging area AA as the first sensitivity and the pixel 20PX included in the second imaging area AB as the second sensitivity. Next, the control unit 32 generates the second image PIB shown in FIG. 8 with the pixel 20PX included in the first imaging area AA as the second sensitivity and the pixel 20PX included in the second imaging area AB as the first sensitivity. . That is, the imaging device 20 switches the sensitivity of the first imaging area AA and the sensitivity of the second imaging area between when capturing the first image PIA and when capturing the second image PIB. As described above, the first sensitivity and the second sensitivity are, for example, the exposure time of each pixel 20PX of the image sensor 20. In this example, the first sensitivity is higher than the second sensitivity. Specifically, the exposure time corresponding to the first sensitivity is longer than the exposure time corresponding to the second sensitivity.

本実施形態において、第1感度及び第2感度は、例えば、撮像素子20の撮像条件を規定するための尺度である。本実施形態において、撮像条件は、例えば、撮像素子20の受光量、絞りの大きさ等の受光量に関する条件及び撮像素子20が受光した光を増幅して出力する際の増幅率等を含む。本実施形態においては、感度は、撮像素子20の受光量を規定するための尺度であり、具体的には露光時間である。   In the present embodiment, the first sensitivity and the second sensitivity are, for example, scales for defining the imaging conditions of the image sensor 20. In the present embodiment, the imaging conditions include, for example, conditions relating to the amount of received light such as the amount of light received by the image sensor 20 and the size of the stop, and an amplification factor when the light received by the image sensor 20 is amplified and output. In the present embodiment, the sensitivity is a scale for defining the amount of light received by the image sensor 20, and is specifically an exposure time.

図7に示す第1画像PIA及び図8に示す第2画像PIBの符号PI1、PI2・・・PI8で示す部分は、撮像素子20の複数の画素行20L1、20L2、・・・20L8で撮像された部分に対応する。第1画像PIAは、図7に示すように、撮像素子20の第1撮像領域AAに対応する第1部分PAに、図4に示す被測定物Mの低反射部Maの反射光LCaに対応する画像IEa1が現れている。また、第1画像PIAは、撮像素子20の第2撮像領域ABに対応する第2部分PBに、図4に示す被測定物Mの高反射部Mbの反射光LCbに対応する画像IEb1が現れている。   The portions indicated by the symbols PI1, PI2,... PI8 of the first image PIA shown in FIG. 7 and the second image PIB shown in FIG. 8 are picked up by a plurality of pixel rows 20L1, 20L2,. Corresponds to the part. As shown in FIG. 7, the first image PIA corresponds to the first portion PA corresponding to the first imaging area AA of the imaging device 20, and to the reflected light LCa of the low reflection portion Ma of the object M to be measured shown in FIG. An image IEa1 appears. Further, in the first image PIA, an image IEb1 corresponding to the reflected light LCb of the high reflection portion Mb of the DUT M shown in FIG. 4 appears in the second portion PB corresponding to the second imaging area AB of the imaging device 20. ing.

第2画像PIBは、撮像素子20が第1画像PIAを撮像したときに対して、撮像素子20の第1撮像領域AAの感度と第2撮像領域ABの感度とが入れ替えられている。このため、第2画像PIBは、図8に示すように、撮像素子20の第1撮像領域AAに対応する第1部分PAに、図4に示す被測定物Mの高反射部Mbの反射光LCbに対応する画像IEb2が現れている。また、第2画像PIBは、撮像素子20の第2撮像領域ABに対応する第2部分PBに、図4に示す被測定物Mの低反射部Maの反射光LCaに対応する画像IEa2が現れている。   In the second image PIB, the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB of the imaging element 20 are switched with respect to when the imaging element 20 captures the first image PIA. For this reason, as shown in FIG. 8, the second image PIB is reflected on the first part PA corresponding to the first imaging area AA of the imaging device 20 by the high reflection part Mb of the object M to be measured shown in FIG. 4. An image IEb2 corresponding to LCb appears. Further, in the second image PIB, an image IEa2 corresponding to the reflected light LCa of the low reflection portion Ma of the DUT M shown in FIG. 4 appears in the second portion PB corresponding to the second imaging region AB of the imaging element 20. ing.

第1画像PIAの画像IEa1及び第2画像PIBの画像IEa2は、被測定物Mの反射率が低い部分なので、撮像素子20の第1撮像領域AAのみで撮像される。第1画像PIAの画像IEb1及び第2画像PIBの画像IEb2は、被測定物Mの反射率が高い部分なので、撮像素子20の第2撮像領域ABのみで撮像される。前述したように、第1感度の第1撮像領域AAと第2感度の第2撮像領域ABとは、画素行毎に交互に配列されている。このため、第1画像PIAにおいて、画像IEa1と画像IEb1とは、画素行に対応する間隔毎に、断続的に現れる。同様に、第2画像PIBにおいて、画像IEa2と画像IEb2とは、画素行に対応する間隔毎に、断続的に現れる。本実施形態において、図4に示す被測定物Mの稜線EGは、第1画像PIAに現れている画像IEa1の端部IETa及び第2画像PIBに現れている画像IEb2の端部IETbに対応する。   Since the image IEa1 of the first image PIA and the image IEa2 of the second image PIB are portions where the reflectance of the object to be measured M is low, the image is picked up only in the first image pickup area AA of the image pickup device 20. Since the image IEb1 of the first image PIA and the image IEb2 of the second image PIB are portions where the reflectance of the object to be measured M is high, the image is picked up only in the second image pickup area AB of the image pickup device 20. As described above, the first imaging area AA having the first sensitivity and the second imaging area AB having the second sensitivity are alternately arranged for each pixel row. For this reason, in the first image PIA, the image IEa1 and the image IEb1 appear intermittently at intervals corresponding to the pixel rows. Similarly, in the second image PIB, the image IEa2 and the image IEb2 appear intermittently at intervals corresponding to the pixel rows. In the present embodiment, the ridge line EG of the measurement object M shown in FIG. 4 corresponds to the end portion IETa of the image IEa1 appearing in the first image PIA and the end portion IETb of the image IEb2 appearing in the second image PIB. .

第1画像PIAと第2画像PIBとが得られたら、図3に示す制御装置4の算出部38は、第1画像PIAと第2画像PIBとを用いて被測定物Mの形状を算出する。この場合、算出部38は、例えば、第1画像PIAの一部と、第2画像PIBの一部とを合成して、図9Aに示す、得られた画像(以下、適宜合成画像という)PICを用いて被測定物Mの形状を算出する。一例として、算出部38は、第1画像PIAの第1部分PAと第2画像PIBの第2部分PBとを合成し、前記第1画像PIAの第2部分PBと第2画像PIBの第1部分PAとを合成して、被測定物Mの形状を算出する。   When the first image PIA and the second image PIB are obtained, the calculation unit 38 of the control device 4 shown in FIG. 3 calculates the shape of the object M to be measured using the first image PIA and the second image PIB. . In this case, the calculation unit 38 synthesizes a part of the first image PIA and a part of the second image PIB, for example, and obtains the obtained image (hereinafter referred to as a composite image as appropriate) PIC shown in FIG. 9A. Is used to calculate the shape of the object M to be measured. As an example, the calculation unit 38 combines the first portion PA of the first image PIA and the second portion PB of the second image PIB, and the first portion PB of the first image PIA and the first portion of the second image PIB. The shape of the DUT M is calculated by combining the portion PA.

被測定物Mの形状測定時において、第1画像PIAの第1部分PAと第2画像PIBの第2部分PBとは、制御部32によっていずれも第1感度に設定されている。このため、第1画像PIAの第1部分PAと第2画像PIBの第2部分PBとを合成すると、図9Aに示すように、第1画像PIAの第1部分PAの画像IEa1と、第2画像PIBの第2部分PBの画像IEa2とがつながった第1合成画像PICaが得られる。図4に示す被測定物Mの稜線EGは、第1合成画像PICaに現れている画像IEa1の端部IETaに対応する。   At the time of measuring the shape of the measurement object M, the control unit 32 sets both the first part PA of the first image PIA and the second part PB of the second image PIB to the first sensitivity. Therefore, when the first part PA of the first image PIA and the second part PB of the second image PIB are combined, as shown in FIG. 9A, the image IEa1 of the first part PA of the first image PIA and the second part PB A first composite image PICa in which the image IEa2 of the second part PB of the image PIB is connected is obtained. The ridge line EG of the measurement object M shown in FIG. 4 corresponds to the end portion IETa of the image IEa1 appearing in the first composite image PICa.

被測定物Mの形状測定時において、第1画像PIAの第2部分PBと第2画像PIBの第1部分PAとは、制御部32によっていずれも第2感度に設定されている。このため、第1画像PIAの第2部分PBと第2画像PIBの第1部分PAとを合成すると、図9Aに示すように、第1画像PIAの第2部分PBの画像IEb1と、第2画像PIBの第1部分PAの画像IEb2とがつながった第2合成画像PICbが得られる。図4に示す被測定物Mの稜線EGは、第2合成画像PICbに現れている画像IEb2の端部IETbに対応する。   At the time of measuring the shape of the measurement object M, the second portion PB of the first image PIA and the first portion PA of the second image PIB are both set to the second sensitivity by the control unit 32. Therefore, when the second part PB of the first image PIA and the first part PA of the second image PIB are combined, as shown in FIG. 9A, the image IEb1 of the second part PB of the first image PIA, A second composite image PICb in which the image IEb2 of the first part PA of the image PIB is connected is obtained. 4 corresponds to the end portion IETb of the image IEb2 appearing in the second composite image PICb.

算出部38は、第1合成画像PICaと第2合成画像PICbとを組み合わせて、図9Aに示す合成画像PICを得る。合成画像PICには、被測定物Mの低反射部Maからの反射光LCaに対応した画像IEacと、被測定物Mの高反射部Mbからの反射光LCbに対応した画像IEbcとが現れている。図9Aに示す合成画像PICにおいて、画像IEacと画像IEbcとが交差する部分IETは、図4に示す被測定物Mの稜線EGに対応する。算出部38は、合成画像PICの情報、例えば、画像IEac、IEbcの撮像素子20における座標情報と、制御部32によって検出された光学プローブ3の座標情報と、保持回転装置7の回転位置情報とに基づいて、測定ポイント毎に算出された座標値(三次元座標値)の点群データから、被測定物Mの表面形状データである3次元座標値の点群データを算出する。   The calculation unit 38 combines the first composite image PICa and the second composite image PICb to obtain a composite image PIC shown in FIG. 9A. In the composite image PIC, an image IEac corresponding to the reflected light LCa from the low reflection portion Ma of the object to be measured M and an image IEbc corresponding to the reflected light LCb from the high reflection portion Mb of the object to be measured M appear. Yes. In the composite image PIC shown in FIG. 9A, a portion IET where the image IEac and the image IEbc intersect corresponds to the ridge line EG of the object M shown in FIG. The calculation unit 38 includes information on the composite image PIC, for example, coordinate information on the image sensor 20 of the images IEac and IEbc, coordinate information on the optical probe 3 detected by the control unit 32, and rotation position information on the holding rotation device 7. From the point group data of the coordinate values (three-dimensional coordinate values) calculated for each measurement point, the point group data of the three-dimensional coordinate values that are the surface shape data of the object M is calculated.

形状測定装置1は、第1画像PIAを生成するときには撮像素子20の第1撮像領域AAの画素20PXを第1感度とし、第2撮像領域ABの画素20PXを第2感度とし、第2画像PIBを生成するときには、第1画像PIAを生成したときに対して、第1撮像領域AAの感度と第2撮像領域ABの感度とを入れ替える。このように、形状計測装置1は、第1画像PIA及び第2画像PIBを生成するときには、撮像素子20の撮像領域AARに感度の異なる第1撮像領域AAと第2撮像領域ABとが存在するので、反射率が異なる部分を有する被測定物Mを撮像する場合であっても、いずれかの感度によって被測定物Mを撮像することができる。このため、形状計測装置1は、反射率が異なる部分を有する被測定物Mの形状を測定する場合に、形状に関する情報量、より具体的には、被測定物Mの表面形状データである3次元座標値の点群データの量が減少することを抑制することができる。その結果、形状測定装置1は、異なる反射率の部分を有する被測定物Mの形状を測定するために必要な情報量を確保することができる。   When generating the first image PIA, the shape measuring apparatus 1 sets the pixel 20PX of the first imaging area AA of the imaging device 20 as the first sensitivity, sets the pixel 20PX of the second imaging area AB as the second sensitivity, and generates the second image PIB. When the first image PIA is generated, the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB are switched. Thus, when the shape measuring apparatus 1 generates the first image PIA and the second image PIB, the imaging area AAR of the imaging element 20 includes the first imaging area AA and the second imaging area AB having different sensitivities. Therefore, even when the object to be measured M having portions with different reflectances is imaged, the object to be measured M can be imaged with any sensitivity. Therefore, when the shape measuring apparatus 1 measures the shape of the object to be measured M having portions having different reflectances, the shape measuring apparatus 1 is the amount of information about the shape, more specifically, the surface shape data of the object to be measured 3 It can suppress that the amount of point cloud data of a dimension coordinate value decreases. As a result, the shape measuring apparatus 1 can ensure the amount of information necessary for measuring the shape of the object M having different reflectance portions.

例えば、撮像素子20の撮像領域AARをすべて第1感度又は第2感度として被測定物Mが撮像された場合、被測定物Mの稜線EGの点群データが欠落する可能性がある。本実施形態において、被測定物Mの稜線EGは、第1感度及び第2感度の両方の感度で撮像される。このため、形状測定装置1は、被測定物Mの稜線EGの点群データが減少することを抑制することができる。   For example, when the object to be measured M is imaged with the entire imaging area AAR of the image sensor 20 as the first sensitivity or the second sensitivity, the point cloud data of the ridge line EG of the object to be measured M may be lost. In the present embodiment, the ridge line EG of the object M to be measured is imaged with both the first sensitivity and the second sensitivity. For this reason, the shape measuring apparatus 1 can suppress that the point cloud data of the ridgeline EG of the to-be-measured object M reduce.

本実施形態において、形状測定装置1は、被測定物Mから異なる反射率の部分の情報を得るために、異なる反射率に対してそれぞれ被測定物Mを撮像する必要はない。その結果、異なる反射率の部分を有する被測定物Mの形状を測定するにあたって、測定時間の増加を抑制することができる。   In the present embodiment, the shape measuring apparatus 1 does not need to image the measurement object M with respect to different reflectances in order to obtain information on portions having different reflectances from the measurement object M. As a result, an increase in measurement time can be suppressed when measuring the shape of the measurement object M having portions with different reflectances.

図9Bは、被測定物Mが単一の反射率である場合の点群データの一例を示す図である。図9Cは、異なる反射率の表面を有する被測定物Mが1つの感度で撮像されたときに得られた点群データの一例を示す図である。図9Dは、実施形態1に係る形状測定装置1によって得られた点群データの一例を示す図である。いずれの図も、被測定物Mの形状は、図4に示すように三角柱である。   FIG. 9B is a diagram illustrating an example of point cloud data when the DUT M has a single reflectance. FIG. 9C is a diagram illustrating an example of point cloud data obtained when an object M having different reflectance surfaces is imaged with one sensitivity. FIG. 9D is a diagram illustrating an example of point cloud data obtained by the shape measuring apparatus 1 according to the first embodiment. In any of the figures, the shape of the object M to be measured is a triangular prism as shown in FIG.

図9Bは、撮像素子20の撮像領域AARをすべて1つの感度とした上で、単一の反射率の被測定物Mが撮像された場合を示している。この場合、図9Bに示すように、被測定物Mの表面の全領域にわたって点群データDGが得られ、かつ稜線EG近傍の点群の情報も得られている。   FIG. 9B shows a case where the object M to be measured having a single reflectance is imaged with all the imaging area AAR of the imaging device 20 set to one sensitivity. In this case, as shown in FIG. 9B, the point cloud data DG is obtained over the entire area of the surface of the object to be measured M, and the information of the point cloud in the vicinity of the ridge line EG is also obtained.

被測定物Mが異なる反射率の表面を有する場合、このような被測定物Mが、撮像領域AARをすべて1つの感度とした撮像素子20によって撮像されると、図9Cに示すように、一方の反射率の表面からのみ点群データDGが得られて、他方の反射率の表面からの点群データが欠落する。例えば、撮像領域AARのすべてを第2感度よりも露光時間が長い第1感度とした撮像素子20が、図4に示す被測定物Mを撮像すると、図4に示す低反射部Maは撮像できるが、高反射部Mbは撮像できない。このため、形状測定装置1は、三角柱の一方の側面、具体的には低反射部Maの側面からのみしか点群データDGを得ることができない。結果として、形状測定装置1が被測定物Mの形状を算出する際の精度低下を招く可能性がある。   When the device under test M has surfaces with different reflectivities, when such a device under test M is imaged by the image sensor 20 having the entire imaging area AAR as one sensitivity, as shown in FIG. Point cloud data DG is obtained only from the surface of the other reflectance, and point cloud data from the surface of the other reflectance is missing. For example, when the imaging element 20 having the first sensitivity in the entire imaging area AAR having the exposure time longer than the second sensitivity images the object M shown in FIG. 4, the low reflection portion Ma shown in FIG. 4 can be imaged. However, the high reflection part Mb cannot be imaged. For this reason, the shape measuring apparatus 1 can obtain the point cloud data DG only from one side surface of the triangular prism, specifically, from the side surface of the low reflection portion Ma. As a result, there is a possibility that the accuracy may be reduced when the shape measuring apparatus 1 calculates the shape of the object M to be measured.

本実施形態において、形状測定装置1は、撮像素子20の第1撮像領域AAを第1感度とし、第2撮像領域ABを第2感度として撮像する。次に、形状測定装置1は、撮像素子20の第1撮像領域AAの感度と第2撮像領域ABの感度とを入れ替えて撮像する。以後、形状測定装置1は、一回撮像する毎に第1撮像領域AAの感度と第2撮像領域ABの感度とを入れ替えて、三角柱の被測定物Mの全表面を撮像する。結果として、図9Dに示すように、稜線EG近傍の点群の情報も得られていることが分かる。このように、形状測定装置1は、被測定物Mの形状を算出する際に重要な、被測定物Mの稜線EG近傍の点群データが減少することを抑制して、形状測定装置1は、被測定物Mの形状を算出する際の精度低下を抑制することができる。   In the present embodiment, the shape measuring apparatus 1 images the first imaging area AA of the image sensor 20 as the first sensitivity and the second imaging area AB as the second sensitivity. Next, the shape measuring apparatus 1 captures an image by exchanging the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB of the image sensor 20. Thereafter, the shape measuring apparatus 1 switches the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB each time it captures an image, and images the entire surface of the triangular object under test M. As a result, as shown in FIG. 9D, it can be seen that the information of the point cloud near the ridge line EG is also obtained. As described above, the shape measuring apparatus 1 suppresses a decrease in point cloud data in the vicinity of the ridge line EG of the object M, which is important when calculating the shape of the object M to be measured. Thus, it is possible to suppress a decrease in accuracy when calculating the shape of the measurement object M.

図10は、実施形態1に係る形状測定装置1の制御装置4が被測定物Mの形状を測定する際に実行する処理を示すフローチャートである。ステップS11において、制御装置4の制御部32は、撮像装置9の撮像素子20に対して、第1の設定をする。第1の設定とは、撮像素子20の撮像領域AARの第1撮像領域AAに含まれる画素20PXを第1感度に設定し、第2撮像領域ABに含まれる画素20PXを第2感度に設定することである。次に、ステップS12において、制御部32は、第1の設定の状態で撮像装置9に被測定物Mを撮像させる。撮像装置9によって撮像された情報、具体的には、撮像素子20の各画素20PXの検出値は、図3に示す制御装置4の記憶部40に一時的に記憶される。この他にも、撮像時における光学プローブ3の座標情報及び保持回転装置7の回転位置情報が、図3に示す制御装置4の記憶部40に一時的に記憶される。   FIG. 10 is a flowchart showing processing executed when the control device 4 of the shape measuring apparatus 1 according to the first embodiment measures the shape of the object M to be measured. In step S <b> 11, the control unit 32 of the control device 4 performs the first setting for the image sensor 20 of the imaging device 9. In the first setting, the pixel 20PX included in the first imaging area AA of the imaging area AAR of the imaging element 20 is set to the first sensitivity, and the pixel 20PX included in the second imaging area AB is set to the second sensitivity. That is. Next, in step S12, the control unit 32 causes the imaging device 9 to image the measurement object M in the first setting state. Information captured by the imaging device 9, specifically, the detection value of each pixel 20PX of the imaging device 20, is temporarily stored in the storage unit 40 of the control device 4 shown in FIG. In addition, the coordinate information of the optical probe 3 and the rotational position information of the holding and rotating device 7 at the time of imaging are temporarily stored in the storage unit 40 of the control device 4 shown in FIG.

次に、ステップS13において、制御部32は、撮像装置9の撮像素子20に対して、第2の設定をする。第2の設定とは、撮像素子20の撮像領域AARの第1撮像領域AAに含まれる画素20PXを第2感度に設定し、第2撮像領域ABに含まれる画素20PXを第1感度に設定することである。次に、ステップS14において、制御部32は、第2の設定の状態で撮像装置9に被測定物Mを撮像させる。撮像装置9によって撮像された情報等が、図3に示す制御装置4の記憶部40に一時的に記憶される点は前述した通りである。   Next, in step S <b> 13, the control unit 32 makes a second setting for the image sensor 20 of the imaging device 9. In the second setting, the pixel 20PX included in the first imaging area AA of the imaging area AAR of the imaging element 20 is set to the second sensitivity, and the pixel 20PX included in the second imaging area AB is set to the first sensitivity. That is. Next, in step S <b> 14, the control unit 32 causes the imaging device 9 to image the measurement object M in the second setting state. As described above, information and the like imaged by the imaging device 9 are temporarily stored in the storage unit 40 of the control device 4 shown in FIG.

ステップS15において、制御部32は、撮像装置9が被測定物Mの全体の撮像を終了したか否かを判定する。被測定物Mの全体の撮像が終了していない場合(ステップS15、No)、制御部32は、ステップS11からステップS15を繰り返す。被測定物Mの全体の撮像が終了した場合(ステップS15、Yes)、制御装置4の算出部38は、ステップS16において情報を結合、すなわち、第1画像PIAの一部と、第2画像PIBの一部とを合成して、合成画像PICを生成する。ステップS16において合成されるのは、連続して撮像された第1画像PIA及び第2画像PIBである。次に、ステップS17において、算出部38は、合成画像PICの座標情報と、光学プローブ3の座標情報と、保持回転装置7の回転位置情報とに基づいて、被測定物Mの形状を算出する。算出された被測定物Mの形状は、被測定物Mの表面形状データである3次元座標値の点群データで表される。   In step S <b> 15, the control unit 32 determines whether or not the imaging device 9 has finished imaging the entire object to be measured M. When imaging of the entire object to be measured M has not been completed (step S15, No), the control unit 32 repeats steps S11 to S15. When imaging of the entire object to be measured M is completed (step S15, Yes), the calculation unit 38 of the control device 4 combines information in step S16, that is, a part of the first image PIA and the second image PIB. Are combined with each other to generate a composite image PIC. What is synthesized in step S16 is the first image PIA and the second image PIB that are successively captured. Next, in step S <b> 17, the calculation unit 38 calculates the shape of the object M to be measured based on the coordinate information of the composite image PIC, the coordinate information of the optical probe 3, and the rotational position information of the holding and rotating device 7. . The calculated shape of the object to be measured M is represented by point group data of three-dimensional coordinate values that are surface shape data of the object to be measured M.

図11から図13は、第1撮像領域AAと第2撮像領域ABとの配置に関する変形例を示す図である。図11に示す撮像素子20は、第2方向としてのy方向の中央で、第1撮像領域AAと第2撮像領域ABとを分けている。より具体的には、撮像素子20が有する複数の画素行20L1、20L2、・・・20L8のうち、y方向に連続する複数の画素行20L1、20L2、20L3、20L4が第1撮像領域AAであり、y方向に連続する複数の画素行20L5、20L6、20L7、20L8が第2撮像領域ABである。   FIG. 11 to FIG. 13 are diagrams showing modifications regarding the arrangement of the first imaging area AA and the second imaging area AB. The imaging element 20 shown in FIG. 11 divides the first imaging area AA and the second imaging area AB at the center in the y direction as the second direction. More specifically, among the plurality of pixel rows 20L1, 20L2,... 20L8 included in the imaging element 20, a plurality of pixel rows 20L1, 20L2, 20L3, and 20L4 continuous in the y direction are the first imaging area AA. A plurality of pixel rows 20L5, 20L6, 20L7, and 20L8 that are continuous in the y direction are the second imaging region AB.

図12に示す撮像素子20は、第1方向としてのx方向の中央で、第1撮像領域AAと第2撮像領域ABとを分けている。より具体的には、撮像素子20が有する複数の画素列20T1、20T2、・・・20T8のうち、x方向に連続する画素列20T1、20L2、20T3、20T4が第1撮像領域AAであり、x方向に連続する画素列20T5、20T6、20T7、20T8が第2撮像領域ABである。画素列20T1、20T2、・・・20T8は、図8に示す画素20PXが、y方向と平行な方向に沿って複数配列された画素群である。   The imaging element 20 shown in FIG. 12 divides the first imaging area AA and the second imaging area AB at the center in the x direction as the first direction. More specifically, among the plurality of pixel columns 20T1, 20T2,... 20T8 included in the imaging element 20, the pixel columns 20T1, 20L2, 20T3, and 20T4 continuous in the x direction are the first imaging area AA, and x Pixel rows 20T5, 20T6, 20T7, and 20T8 that are continuous in the direction are the second imaging area AB. The pixel columns 20T1, 20T2,... 20T8 are pixel groups in which a plurality of pixels 20PX shown in FIG. 8 are arranged along a direction parallel to the y direction.

図13に示す撮像素子20は、千鳥状に配列された複数の画素20PXが第1撮像領域AAであり、第1撮像領域AAの複数の画素20PXとは異なり、かつ千鳥状に配列された複数の画素20PXが第2撮像領域ABである。符号Aで示される画素20PXが第1撮像領域AAであり、符号Bで示される画素20PXが第2撮像領域ABである。奇数番目の画素行20L1、20L3は、x方向に向かって第1撮像領域AAと第2撮像領域ABとがこの順で交互に繰り返し、偶数番目の画素行20L2、20L4は、x方向に向かって第2撮像領域ABと第1撮像領域AAとがこの順で交互に繰り返す。図11から図12に示すような第1撮像領域AAと第2撮像領域ABとの配置であっても、反射率が異なる部分を有する被測定物Mの形状を測定する場合に、形状に関する情報量の減少を抑制することができる。   In the imaging device 20 shown in FIG. 13, a plurality of pixels 20PX arranged in a staggered pattern is the first imaging area AA, which is different from the plurality of pixels 20PX in the first imaging area AA and arranged in a staggered pattern. The pixel 20PX is the second imaging area AB. A pixel 20PX indicated by reference A is the first imaging area AA, and a pixel 20PX indicated by reference B is the second imaging area AB. In the odd-numbered pixel rows 20L1 and 20L3, the first imaging area AA and the second imaging area AB are alternately repeated in this order toward the x direction, and the even-numbered pixel rows 20L2 and 20L4 are directed in the x direction. The second imaging area AB and the first imaging area AA are alternately repeated in this order. Even when the first imaging area AA and the second imaging area AB are arranged as shown in FIG. 11 to FIG. 12, when measuring the shape of the measurement object M having portions with different reflectivities, information on the shape A decrease in the amount can be suppressed.

図14は、CMOSを用いた撮像素子20を示す図である。図14に示す撮像素子20は、画素20PXが4行×4列に配置されたものであるが、画素20PXの配置はこれに限定されるものではない。他の類似の例も同様である。画素20PXは、フォトダイオード20PDと、増幅器20APと、スイッチング素子20SWと、リセット用素子20RTとを有する。スイッチング素子20SWは、CMOSである。撮像素子20が有する複数の画素20PXは、いずれも同様の構造である。それぞれの画素20PXが有するフォトダイオード20PDは、増幅器20APを介してスイッチング素子20SWのソースに接続されている。x方向に配列された画素20PXが有するスイッチング素子20SWのゲートは、ゲート線82に接続されている。y方向に配列された画素20PXが有するスイッチング素子20SWのドレインは、信号線83に接続されている。   FIG. 14 is a diagram showing an image sensor 20 using CMOS. In the imaging device 20 illustrated in FIG. 14, the pixels 20 </ b> PX are arranged in 4 rows × 4 columns, but the arrangement of the pixels 20 </ b> PX is not limited to this. The same applies to other similar examples. The pixel 20PX includes a photodiode 20PD, an amplifier 20AP, a switching element 20SW, and a reset element 20RT. The switching element 20SW is a CMOS. The plurality of pixels 20PX included in the imaging element 20 have the same structure. The photodiode 20PD included in each pixel 20PX is connected to the source of the switching element 20SW via the amplifier 20AP. The gates of the switching elements 20SW included in the pixels 20PX arranged in the x direction are connected to the gate line 82. The drain of the switching element 20SW included in the pixels 20PX arranged in the y direction is connected to the signal line 83.

それぞれのゲート線82は、行選択部80の各素子80A、80B、80C、80Dに接続されている。それぞれの信号線83は、列選択用のスイッチング素子84のソースに接続されている。それぞれのスイッチング素子84のゲートは、列選択部81の各素子81A、81B、81C、81Dに接続されている。それぞれのスイッチング素子84のドレインは、AD(Analog/Digital)コンバータ85の入力部に接続されている。   Each gate line 82 is connected to each element 80A, 80B, 80C, 80D of the row selection unit 80. Each signal line 83 is connected to the source of the column selecting switching element 84. The gate of each switching element 84 is connected to each element 81A, 81B, 81C, 81D of the column selector 81. The drain of each switching element 84 is connected to an input part of an AD (Analog / Digital) converter 85.

それぞれの画素20PXが有するリセット用素子20RTは、x方向、すなわち行方向に延在する配線88と、y方向、すなわち列方向に延在する配線89とに接続されている。配線88は、行リセット部86の各素子86A、86B、86C、86Dに接続されている。配線89は、列選択用のスイッチング素子89SWのソースに接続されている。それぞれのスイッチング素子89SWのゲートは、列リセット部87の各素子87A、87B、87C、87Dに接続されている。それぞれのスイッチング素子89SWのドレインは、グランドGに接続されている。行選択部80、列選択部81、行リセット部86及び列リセット部87は、制御装置4によって制御される。ADコンバータ85の出力は、制御装置4に入力される。   The reset element 20RT included in each pixel 20PX is connected to a wiring 88 extending in the x direction, that is, the row direction, and a wiring 89 extending in the y direction, that is, the column direction. The wiring 88 is connected to each element 86A, 86B, 86C, 86D of the row reset unit 86. The wiring 89 is connected to the source of the column selection switching element 89SW. The gate of each switching element 89SW is connected to each element 87A, 87B, 87C, 87D of the column reset unit 87. The drain of each switching element 89SW is connected to the ground G. The row selection unit 80, the column selection unit 81, the row reset unit 86 and the column reset unit 87 are controlled by the control device 4. The output of the AD converter 85 is input to the control device 4.

制御装置4は、行選択部80と列選択部81とを制御することにより、撮像素子20が備える複数の画素20PXのうち、任意の1以上の画素20PXからフォトダイオード20PDの出力を取得することができる。例えば、制御装置4が行選択部80の素子80Aを動作させて、素子80Aに接続されているゲート線82に各画素20PXのスイッチング素子20SWをONさせる信号(行選択信号)を与える。この状態で、制御装置4が列選択部81の素子81Aを動作させて、これに接続されている列選択用のスイッチング素子84のゲートにこれをONさせる信号(列選択信号)を与える。すると、1行1列の位置に配置されている画素20PXのフォトダイオード20PDからの出力が増幅器20APで増幅されて、ADコンバータ85に入力される。ADコンバータ85は、この出力をディジタル変換して制御装置4に入力する。   The control device 4 acquires the output of the photodiode 20PD from any one or more pixels 20PX among the plurality of pixels 20PX included in the imaging element 20 by controlling the row selection unit 80 and the column selection unit 81. Can do. For example, the control device 4 operates the element 80A of the row selection unit 80, and gives a signal (row selection signal) for turning on the switching element 20SW of each pixel 20PX to the gate line 82 connected to the element 80A. In this state, the control device 4 operates the element 81A of the column selection unit 81, and gives a signal (column selection signal) for turning it ON to the gate of the column selection switching element 84 connected thereto. Then, the output from the photodiode 20PD of the pixel 20PX arranged at the position of 1 row and 1 column is amplified by the amplifier 20AP and input to the AD converter 85. The AD converter 85 digitally converts this output and inputs it to the control device 4.

制御装置4は、行リセット部86と列リセット部87とを制御することにより、撮像素子20が備える複数の画素20PXのうち、任意の1以上の画素20PXが備えるリセット用素子20RTにリセット信号を与える。このようにすることで、フォトダイオード20PDの電荷を放出させることができる。例えば、制御装置4が行リセット部86の素子86Aを動作させて、素子86Aに接続されている配線88に、各画素20PXのリセット用素子20RTを動作させる信号(行リセット信号)を与える。この状態で、制御装置4が列リセット部87の素子87Aを動作させて、これに接続されているスイッチング素子89SWのゲートにこれをONさせる信号(列リセット信号)を与える。すると、1行1列の位置に配置されている画素20PXのフォトダイオード20PDの電荷は、ONになったスイッチング素子89SWのソースからドレインを通ってグランドGに放出される。   The control device 4 controls the row reset unit 86 and the column reset unit 87 to send a reset signal to the reset element 20RT included in any one or more of the pixels 20PX included in the imaging element 20. give. In this way, the charge of the photodiode 20PD can be released. For example, the control device 4 operates the element 86A of the row reset unit 86, and gives a signal (row reset signal) for operating the reset element 20RT of each pixel 20PX to the wiring 88 connected to the element 86A. In this state, the control device 4 operates the element 87A of the column reset unit 87, and gives a signal (column reset signal) for turning it on to the gate of the switching element 89SW connected thereto. Then, the electric charge of the photodiode 20PD of the pixel 20PX arranged at the position of 1 row and 1 column is discharged to the ground G from the source of the switching element 89SW turned on through the drain.

制御装置4は、行選択部80からの行選択信号、列選択部81からの列選択信号及びリセット信号のタイミングで、各画素20PXの露光時間、具体的には各画素20PXが備えるフォトダイオード20PDの露光時間を各画素20PX画素毎に変更することができる。制御装置4の制御部32は、例えば、行選択部80の素子80A、80Cに接続されている複数の画素20PXの露光時間を第1の露光時間に設定し、素子80B、80Dに接続されている複数の画素20PXの露光時間を第1の露光時間とは異なる第2の露光時間に設定する。このようにすることで、行選択部80の素子80A、80Cに接続されている複数の画素20PX、すなわち奇数番の画素行20L1、20L3の感度(第1感度)と、行選択部80の素子80B、80Dに接続されている複数の画素20PX、すなわち偶数番の画素行20L2、20L4の感度(第2感度)とを異ならせることができる。   The control device 4 uses the timing of the row selection signal from the row selection unit 80, the column selection signal from the column selection unit 81, and the reset signal, and the exposure time of each pixel 20PX, specifically, the photodiode 20PD included in each pixel 20PX. The exposure time can be changed for each pixel 20PX. For example, the control unit 32 of the control device 4 sets the exposure time of the plurality of pixels 20PX connected to the elements 80A and 80C of the row selection unit 80 as the first exposure time, and is connected to the elements 80B and 80D. The exposure time of the plurality of pixels 20PX is set to a second exposure time different from the first exposure time. By doing in this way, the sensitivity (first sensitivity) of the plurality of pixels 20PX connected to the elements 80A and 80C of the row selection unit 80, that is, the odd-numbered pixel rows 20L1 and 20L3, and the elements of the row selection unit 80 The sensitivities (second sensitivities) of the plurality of pixels 20PX connected to 80B and 80D, that is, even-numbered pixel rows 20L2 and 20L4 can be made different.

図15は、CCDを用いた撮像素子20Aを示す図である。撮像素子20Aは、複数(本例では4個)の垂直転送CCD群90と、1個の水平転送CCD群91とを有している。それぞれの垂直転送CCD群90は、複数(本例では4個)のCCD90a、90b、90c、90dを有している。垂直転送CCD群90のCCD90a、90b、90c、90dは、それぞれ各画素20PXAのフォトダイオード20PDAに接続されている。水平転送CCD群91は、複数(本例では4個)のCCD91a、91b、91c、91dを有している。各CCD91a、91b、91c、91dには、垂直転送CCD群90の出力部が接続されている。   FIG. 15 is a diagram showing an image sensor 20A using a CCD. The image sensor 20A has a plurality (four in this example) of vertical transfer CCD groups 90 and one horizontal transfer CCD group 91. Each vertical transfer CCD group 90 has a plurality (four in this example) of CCDs 90a, 90b, 90c, and 90d. The CCDs 90a, 90b, 90c, 90d of the vertical transfer CCD group 90 are connected to the photodiode 20PDA of each pixel 20PXA. The horizontal transfer CCD group 91 has a plurality (four in this example) of CCDs 91a, 91b, 91c, 91d. The output unit of the vertical transfer CCD group 90 is connected to each CCD 91a, 91b, 91c, 91d.

水平転送CCD群91の出力部は、切替スイッチ92の入力部に接続されている切替スイッチ92の出力部は、それぞれ、第1増幅器93Aと第2増幅器93Bとに接続されている。第1増幅器93Aの出力部と第2増幅器93Bの出力部とは、いずれもADコンバータ95Bに接続されている。ADコンバータ95Bの出力は、制御装置4に入力される。垂直転送CCD群90、水平転送CCD群91及び切替スイッチ92は、いずれも制御装置4によって制御される。   The output part of the horizontal transfer CCD group 91 is connected to the input part of the changeover switch 92. The output part of the changeover switch 92 is connected to the first amplifier 93A and the second amplifier 93B, respectively. Both the output section of the first amplifier 93A and the output section of the second amplifier 93B are connected to the AD converter 95B. The output of the AD converter 95B is input to the control device 4. The vertical transfer CCD group 90, the horizontal transfer CCD group 91 and the changeover switch 92 are all controlled by the control device 4.

第1増幅部93Aの増幅率と、第2増幅器93Bの増幅率とは異なる。制御装置4の制御部32は、水平転送CCD群91が転送する画素行に対応して切替スイッチ92を動作させる。そして、制御部32は、水平転送CCD群91が転送する画素行からの電荷の転送先を第1増幅部93A又は第2増幅部93Bに切り替える。例えば、各垂直転送CCD群91のCCD90d、90bから水平転送CCD群91の各CCD91a、91b、91c、91dに電荷が転送される場合、制御部32は、第2増幅部93Bにその電荷を転送する。また、各垂直転送CCD群91のCCD90c、90aから水平転送CCD群91の各CCD91a、91b、91c、91dに電荷が転送される場合、制御部32は、第1増幅部93Aにその電荷を転送する。   The amplification factor of the first amplification unit 93A is different from the amplification factor of the second amplifier 93B. The control unit 32 of the control device 4 operates the changeover switch 92 corresponding to the pixel row transferred by the horizontal transfer CCD group 91. Then, the control unit 32 switches the transfer destination of the charges from the pixel row transferred by the horizontal transfer CCD group 91 to the first amplification unit 93A or the second amplification unit 93B. For example, when charges are transferred from the CCDs 90d, 90b of each vertical transfer CCD group 91 to the CCDs 91a, 91b, 91c, 91d of the horizontal transfer CCD group 91, the control unit 32 transfers the charges to the second amplification unit 93B. To do. When charges are transferred from the CCDs 90c and 90a of each vertical transfer CCD group 91 to the CCDs 91a, 91b, 91c and 91d of the horizontal transfer CCD group 91, the control unit 32 transfers the charges to the first amplification unit 93A. To do.

すなわち、奇数番目の画素行20AL3、20AL1に対応する画素20PXAからの電荷は第1増幅部93Aに転送され、偶数番目の画素行20AL4、20AL2に対応する画素20PXAからの電荷は第2増幅部93Bに転送される。第1増幅部93Aの増幅率と、第2増幅器93Bの増幅率とは異なるため、奇数番目の画素行20AL3、20AL1に対応する画素20PXAと偶数番目の画素行20AL4、20AL2に対応する画素20PXAとで、感度を異ならせることができる。奇数番目の画素行20AL3、20AL1と偶数番目の画素行20AL4、20AL2とで感度を変更する場合、制御部32は、前者からの電荷を第2増幅部93Bに転送し、後者からの電荷を第1増幅部93Aに転送すればよい。   That is, charges from the pixels 20PXA corresponding to the odd-numbered pixel rows 20AL3 and 20AL1 are transferred to the first amplifying unit 93A, and charges from the pixels 20PXA corresponding to the even-numbered pixel rows 20AL4 and 20AL2 are transferred to the second amplifying unit 93B. Forwarded to Since the amplification factor of the first amplifier 93A is different from the amplification factor of the second amplifier 93B, the pixel 20PXA corresponding to the odd-numbered pixel rows 20AL3 and 20AL1 and the pixel 20PXA corresponding to the even-numbered pixel rows 20AL4 and 20AL2 Thus, the sensitivity can be varied. When the sensitivity is changed between the odd-numbered pixel rows 20AL3 and 20AL1 and the even-numbered pixel rows 20AL4 and 20AL2, the control unit 32 transfers the charge from the former to the second amplifying unit 93B and the charge from the latter to the second What is necessary is just to transfer to 1 amplification part 93A.

図16Aは、フィルタを備えた撮像素子20Bを示す図である。図16Bは、撮像素子20Bが備えるフィルタが透過させる光の波長を示す図である。図16Bの縦軸は光の強度であり、横軸は光の波長である。図17は、フィルタを備えた撮像素子20Bを用いて感度を変更する一例を示す図である。撮像素子20Bは、奇数番目の画素行20BL1、20BL3が第1撮像領域AAであり、偶数番目の画素行20BL2、20BL4が第2撮像領域ABである。撮像素子20Bは、第1撮像領域AAの画素行20BL1、20BL3にそれぞれ第1フィルタ20FAが取り付けられ、第2撮像領域ABの画素行20BL2、20BL4にはそれぞれ第2フィルタ20FBが取り付けられている。第1フィルタ20FA及び第2フィルタ20FBは、所定の波長の光を透過させるフィルタである。   FIG. 16A is a diagram illustrating an image sensor 20B including a filter. FIG. 16B is a diagram illustrating the wavelength of light transmitted by a filter included in the image sensor 20B. In FIG. 16B, the vertical axis represents the light intensity, and the horizontal axis represents the light wavelength. FIG. 17 is a diagram illustrating an example in which the sensitivity is changed using the image sensor 20B including a filter. In the imaging element 20B, the odd-numbered pixel rows 20BL1 and 20BL3 are the first imaging area AA, and the even-numbered pixel rows 20BL2 and 20BL4 are the second imaging area AB. In the imaging element 20B, a first filter 20FA is attached to each of the pixel rows 20BL1 and 20BL3 of the first imaging area AA, and a second filter 20FB is attached to each of the pixel rows 20BL2 and 20BL4 of the second imaging area AB. The first filter 20FA and the second filter 20FB are filters that transmit light of a predetermined wavelength.

第1フィルタ20FAは、図16Bの実線に示すように、波長λ1から波長λ3までの光の透過率が高く、波長λ1を下回る光及び波長λ3を超える光の透過率は低くなる。第2フィルタ20FBは、図16Bの破線に示すように、波長λ3から波長λ5までの光の透過率が高く、波長λ3を下回る光及び波長λ5を超える光の透過率は低くなる。図17に示すように、撮像素子20Bを用いる場合、光源装置12aを用いる。光源装置12aは、第1光源12Aと、第2光源12Bと、切替装置8Sとを含む。光源装置12aは、制御装置4によって制御される。第1光源12Aは、波長λ1から波長λ4の範囲の第1光を射出し、第2光源12Bは、波長λ2から波長λ5の範囲の第2光を射出する。   As shown by the solid line in FIG. 16B, the first filter 20FA has a high transmittance of light from the wavelength λ1 to the wavelength λ3, and has a low transmittance of light below the wavelength λ1 and light above the wavelength λ3. As shown by the broken line in FIG. 16B, the second filter 20FB has a high transmittance for light from the wavelength λ3 to the wavelength λ5, and a low transmittance for light below the wavelength λ3 and light above the wavelength λ5. As shown in FIG. 17, when using the image pick-up element 20B, the light source device 12a is used. The light source device 12a includes a first light source 12A, a second light source 12B, and a switching device 8S. The light source device 12 a is controlled by the control device 4. The first light source 12A emits first light in the range of wavelength λ1 to wavelength λ4, and the second light source 12B emits second light in the range of wavelength λ2 to wavelength λ5.

制御装置4の制御部32は、第1光源12Aから第1光を被測定物Mに向けて射出させる。被測定物Mで反射した第1光は、撮像素子20Bが受光する。第1光は、第1フィルタ20FAを透過する波長の光を多く含んでおり、第2フィルタ20FBを透過する波長の光は少ない。このため、第1フィルタ20FAが取り付けられた第1撮像領域AAには、第2フィルタ20FBが取り付けられた第2撮像領域ABよりも多くの光が入射する。すなわち、第1撮像領域AAの感度は第2撮像領域ABの感度よりも高くなる。   The control unit 32 of the control device 4 causes the first light from the first light source 12A to be emitted toward the object to be measured M. The first light reflected by the object to be measured M is received by the image sensor 20B. The first light includes a lot of light having a wavelength that passes through the first filter 20FA, and the light having a wavelength that passes through the second filter 20FB is small. For this reason, more light enters the first imaging area AA to which the first filter 20FA is attached than the second imaging area AB to which the second filter 20FB is attached. That is, the sensitivity of the first imaging area AA is higher than the sensitivity of the second imaging area AB.

次に、制御装置4の制御部32は、第2光源12Bから第2光を被測定物Mに向けて射出させる。被測定物Mで反射した第2光は撮像素子20Bが受光する。第2光は、第2フィルタ20FBを透過する波長の光を多く含んでおり、第1フィルタ20FAを透過する波長の光は少ない。このため、第2フィルタ20FBが取り付けられた第2撮像領域ABには、第1フィルタ20FAが取り付けられた第1撮像領域AAよりも多くの光が入射する。すなわち、第2撮像領域ABの感度は第1撮像領域AAの感度よりも高くなる。このように、光のフィルタと複数の光とを用いることにより、撮像素子20Bの第1撮像領域AAの感度と第2撮像領域ABの感度とを異ならせることができる。   Next, the control unit 32 of the control device 4 emits the second light from the second light source 12B toward the object to be measured M. The second light reflected by the object to be measured M is received by the image sensor 20B. The second light includes a lot of light having a wavelength that passes through the second filter 20FB, and there is little light having a wavelength that passes through the first filter 20FA. For this reason, more light enters the second imaging area AB to which the second filter 20FB is attached than the first imaging area AA to which the first filter 20FA is attached. That is, the sensitivity of the second imaging area AB is higher than the sensitivity of the first imaging area AA. Thus, by using the light filter and the plurality of lights, the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB of the imaging element 20B can be made different.

図18及び図19は、第1画像PIAと第2画像PIBとを合成する例を説明する図である。第1画像PIAと第2画像PIBとを合成するにあたり、図3に示す算出部38は、第1画像PIAの部分PI1、PI3に現れた画像IEa1の端部(例えば、図19に示すPt1a(xa、ya)、Pt1b(xb、yb))と、第2画像PIBの部分PI2、PI4に現れた画像IEa2の端部(例えば、図19に示すPt2a(xc、yc)、Pt2b(xd、yd))とが一致するように合成する。例えば、画像IEa1の端部Pt1a(xa、ya)と、画像IEa2の端部Pt2a(xc、yc)とが一致しない場合、算出部38は、両者が一致するように、第1画像PIAと第2画像PIBとを、例えば、x方向に移動させてこれらを一致させる。   18 and 19 are diagrams illustrating an example in which the first image PIA and the second image PIB are combined. In synthesizing the first image PIA and the second image PIB, the calculation unit 38 illustrated in FIG. 3 performs an end portion of the image IEa1 (for example, Pt1a ( xa, ya), Pt1b (xb, yb)) and end portions of the image IEa2 appearing in the portions PI2, PI4 of the second image PIB (for example, Pt2a (xc, yc), Pt2b (xd, yd shown in FIG. 19)) )) To match. For example, when the end portion Pt1a (xa, ya) of the image IEa1 and the end portion Pt2a (xc, yc) of the image IEa2 do not match, the calculation unit 38 causes the first image PIA and the first image PIA to match each other. For example, the two images PIB are moved in the x direction so as to coincide with each other.

この処理において、算出部38は、撮像素子20が撮像して得られた第1画像PIAと第2画像PIBとを画像処理によって画像情報に変換してから合成している。形状測定装置1は、被測定物Mと光学プローブ3とを相対的に移動させながら撮像するので、得られる第1画像PIAと第2画像PIBとでは、それぞれの座標値が異なる。被測定物Mと光学プローブ3とが相対移動する場合に、被測定物Mの形状の変化が十分に小さい場合、算出部38は、第1画像PIAと第2画像PIBとを合成する場合には、前述した相対移動を考慮しなくてもよい。しかし、被測定物Mと光学プローブ3とが相対移動する場合に、被測定物Mの形状の変化が無視できない場合、第1画像PIAと第2画像PIBとを合成する場合、被測定物Mと光学プローブ3との相対移動を考慮して、両者を合成する。   In this process, the calculation unit 38 combines the first image PIA and the second image PIB obtained by imaging by the imaging device 20 after converting them into image information by image processing. Since the shape measuring apparatus 1 captures an image while relatively moving the object to be measured M and the optical probe 3, the obtained first image PIA and second image PIB have different coordinate values. When the measurement object M and the optical probe 3 move relative to each other, and the change in the shape of the measurement object M is sufficiently small, the calculation unit 38 synthesizes the first image PIA and the second image PIB. Does not have to consider the relative movement described above. However, when the object to be measured M and the optical probe 3 move relative to each other, if the change in the shape of the object to be measured M cannot be ignored, or if the first image PIA and the second image PIB are combined, the object to be measured M Are combined in consideration of relative movement between the optical probe 3 and the optical probe 3.

図18に示した例は、撮像素子20が撮像して得られた第1画像PIAと第2画像PIBとを、算出部38が画像処理によって画像情報に変換してから合成した。そして、算出部38は、第1画像PIAの部分PI1、PI3に現れた画像IEa1の端部と、第2画像PIBの部分PI2、PI4に現れた画像IEa2の端部との間に存在する情報が欠落していた場合、例えば、補間等によって欠落部分の情報を得る。第1画像PIAの部分PI1に現れた画像IEa1の端部と、第2画像PIBの部分PI2に現れた画像IEa2の端部との間に存在する情報が欠落していた場合も同様である。本実施形態においては、第1画像PIAと第2画像PIBとの合成はこのようなものに限定されない。例えば、撮像素子20が撮像して得られた座標情報が画像情報に変換される前に、第1画像PIAに相当する座標情報と第2画像PIBに相当する座標情報とを合成してもよい。   In the example illustrated in FIG. 18, the first image PIA and the second image PIB obtained by imaging by the imaging device 20 are combined after the calculation unit 38 converts the image information into image information through image processing. Then, the calculation unit 38 is information that exists between the end of the image IEa1 that appears in the portions PI1 and PI3 of the first image PIA and the end of the image IEa2 that appears in the portions PI2 and PI4 of the second image PIB. Is missing, for example, information on the missing part is obtained by interpolation or the like. The same applies when information existing between the end of the image IEa1 appearing in the portion PI1 of the first image PIA and the end of the image IEa2 appearing in the portion PI2 of the second image PIB is missing. In the present embodiment, the composition of the first image PIA and the second image PIB is not limited to this. For example, the coordinate information corresponding to the first image PIA and the coordinate information corresponding to the second image PIB may be combined before the coordinate information obtained by imaging by the imaging element 20 is converted into image information. .

第1画像PIAの部分PI1と部分PI3との間に存在する第2画像PIBの部分PI2に、エラーその他の原因で、画像IEa2が存在しない場合もある。また、第1画像PIAの部分PI1に現れた画像IEa1の端部と、第2画像PIBの部分PI2に現れた画像IEa2の端部との間に情報が存在しない場合もある。このような場合、算出部38は、図19に示す、第1画像PIAの部分PI1に存在する画像IEa1の部分PI2側における端部Pt1a(xa、ya)と、第1画像PIAの部分PI3に存在する画像IEa1の部分PI2側における端部Pt1b(xb、yb)とを用いて、両者の間を補間(例えば、線形補間)してもよい。そして、算出部38は、この補間によって得られた情報を、第2画像PIBの画像IEa2としてもよい。また、画像IEa2は存在するが、画像IEa1との間の情報が欠落している場合、算出部38は、図19に示す、画像IEa1の端部Pt1a(xa、ya)と、画像IEa2の端部Pt2a(xc、yc)とを用いて、両者の間を補間してもよい。このようにすれば、仮に情報が欠落しても、欠落した情報を補うことができる。   The image IEa2 may not exist in the portion PI2 of the second image PIB existing between the portion PI1 and the portion PI3 of the first image PIA due to an error or other causes. Also, there may be no information between the end of the image IEa1 that appears in the portion PI1 of the first image PIA and the end of the image IEa2 that appears in the portion PI2 of the second image PIB. In such a case, the calculation unit 38 calculates the end portion Pt1a (xa, ya) on the side PI2 of the image IEa1 existing in the portion PI1 of the first image PIA and the portion PI3 of the first image PIA as shown in FIG. An end portion Pt1b (xb, yb) on the portion PI2 side of the existing image IEa1 may be used to interpolate between them (for example, linear interpolation). Then, the calculation unit 38 may use the information obtained by this interpolation as the image IEa2 of the second image PIB. In addition, when the image IEa2 exists but information between the image IEa1 is missing, the calculation unit 38 displays the end portion Pt1a (xa, ya) of the image IEa1 and the end portion of the image IEa2 shown in FIG. The portion Pt2a (xc, yc) may be used to interpolate between the two. In this way, even if information is missing, the missing information can be compensated.

図20Aは、欠落した情報が補間されていない合成画像PICnを示す図である。図20Bは、欠落した情報が補間された合成画像PICcを示す図である。合成画像PICnにおいて、情報が欠落している部分は、実線の直線で示す部分になる。すなわち、隣接する画像IEa1と画像IEa2との間の情報が存在しない結果、両者の間が不連続になる。欠落した情報が補間されると、図20Bに示す合成画像PICnのように、情報が欠落している部分(図20Aにおいて実線の直線で示される部分)が消えて、隣接する画像IEa1と画像IEa2とが連続する。   FIG. 20A is a diagram illustrating a composite image PICn in which missing information is not interpolated. FIG. 20B is a diagram illustrating a composite image PICc in which missing information is interpolated. In the composite image PICn, a portion where information is missing is a portion indicated by a solid straight line. That is, as a result of the absence of information between the adjacent images IEa1 and IEa2, the two are discontinuous. When the missing information is interpolated, the portion where the information is missing (the portion indicated by the solid line in FIG. 20A) disappears as in the composite image PICn shown in FIG. 20B, and the adjacent images IEa1 and IEa2 And continue.

被測定物Mの表面に異常が存在する場合も、その部分が合成した画像に現れる。このため、欠落した情報を補間しないと、情報が欠落している部分が合成画像PICnに現れる結果、情報が欠落している部分と被測定物Mの表面に異常が存在する部分との区別が困難になる可能性がある。欠落した情報を補間することにより、情報が欠落している部分は合成画像PICcにほとんど現れないため、情報が欠落している部分と被測定物Mの表面に異常が存在する部分との区別が容易になる。撮像された照明光束Lから得られた合成画像PICを作業者が目視して、被測定物Mの表面の異常を発見する場合、前述した補間をすることによって、異常の発見が容易になるという利点がある。この場合、算出部38が第1画像PIAと第2画像PIBとを合成して合成画像PICを得るにあたり、算出部38は、前述した相対移動を考慮しなくてもよい。   Even when there is an abnormality on the surface of the measurement object M, that portion appears in the synthesized image. For this reason, if the missing information is not interpolated, a portion where the information is missing appears in the composite image PICn. As a result, it is possible to distinguish between the portion where the information is missing and the portion where the abnormality exists on the surface of the object M to be measured. It can be difficult. By interpolating the missing information, the portion where the information is missing hardly appears in the composite image PICc, so that the portion where the information is missing can be distinguished from the portion where the abnormality exists on the surface of the object M to be measured. It becomes easy. When an operator visually observes the composite image PIC obtained from the captured illumination light beam L and discovers an abnormality in the surface of the object M to be measured, the above-described interpolation facilitates the discovery of the abnormality. There are advantages. In this case, when the calculation unit 38 combines the first image PIA and the second image PIB to obtain the composite image PIC, the calculation unit 38 does not have to consider the relative movement described above.

図21は、撮像素子20の撮像タイミングの一例を示すタイミングチャートである。図21に示す2つのタイミングチャートのうち、上側が第1撮像領域AAの撮像タイミングであり、下側が第2撮像領域ABの撮像タイミングである。図3に示す制御部32は、所定のタイミングで撮像素子20に被測定物Mを撮像させる。1回の撮像に要する時間(以下、適宜撮像時間という)をT秒とする。例えば、制御部32は、1秒間にn回、被測定物Mを撮像素子20に撮像させる場合、T=1/nになる。1回の撮像に要する期間は、図21に示す時間t1から時間t2の間、時間t2から時間t3の間及び時間t3から時間t4の間は、いずれも撮像時間Tに相当する。   FIG. 21 is a timing chart showing an example of the imaging timing of the image sensor 20. Of the two timing charts shown in FIG. 21, the upper side is the imaging timing of the first imaging area AA, and the lower side is the imaging timing of the second imaging area AB. The control unit 32 illustrated in FIG. 3 causes the imaging element 20 to image the measurement object M at a predetermined timing. The time required for one imaging (hereinafter referred to as imaging time as appropriate) is T seconds. For example, when the control unit 32 causes the imaging device 20 to image the device under test M n times per second, T = 1 / n. The period required for one imaging corresponds to the imaging time T from time t1 to time t2, from time t2 to time t3, and from time t3 to time t4 shown in FIG.

図21中の上段は、撮像素子20の第1撮像領域AAにおける露光のタイミングを示している。図21中の下段は、撮像素子20の第2撮像領域ABにおける露光のタイミングを示している。それぞれの撮像時間Tにおいて、撮像素子20は、図21に示す時間ts1で第1感度による露光を開始し、時間ts2で第2感度による露光を開始する。そして、撮像素子20は、時間teで露光を終了する。時間teは、時間t1、t2、t3、t4に一致する。時間t1から時間ts1及び時間ts2までは、撮像素子20の画素20PXをリセットするための時間を含む。時間ts1から時間teまでに要する時間Δtaが第1感度の露光時間であり、時間ts2から時間teまでに要する時間Δtbが第2感度の露光時間である。   The upper part of FIG. 21 shows the exposure timing in the first imaging area AA of the imaging device 20. The lower part of FIG. 21 shows the exposure timing in the second imaging area AB of the imaging device 20. In each imaging time T, the imaging device 20 starts exposure with the first sensitivity at time ts1 shown in FIG. 21, and starts exposure with the second sensitivity at time ts2. Then, the image sensor 20 ends the exposure at time te. The time te coincides with the times t1, t2, t3, and t4. The time from time t1 to time ts1 and time ts2 includes time for resetting the pixel 20PX of the image sensor 20. The time Δta required from the time ts1 to the time te is the exposure time for the first sensitivity, and the time Δtb required from the time ts2 to the time te is the exposure time for the second sensitivity.

図3に示す制御装置4の移動量算出部39は、被測定物Mと光学プローブ3、との相対移動の移動量(以下、適宜相対移動量という)を算出する。前述したように、光学プローブ3は、光源装置8及び撮像装置9を備える。撮像装置9は、撮像部としての撮像素子20及び結像光学系21を備えるので、移動量算出部39は、被測定物Mと撮像部としての撮像素子20との相対移動量を算出することになる。   The movement amount calculation unit 39 of the control device 4 shown in FIG. 3 calculates the movement amount of the relative movement between the measurement object M and the optical probe 3 (hereinafter referred to as a relative movement amount as appropriate). As described above, the optical probe 3 includes the light source device 8 and the imaging device 9. Since the imaging device 9 includes the imaging element 20 and the imaging optical system 21 as an imaging unit, the movement amount calculation unit 39 calculates a relative movement amount between the object M to be measured and the imaging element 20 as an imaging unit. become.

本実施形態において、移動量算出部39は、第1画像PIAが生成されるときにおいて移動量算出部39によって算出される相対移動量を用いて、第2画像PIBが生成されるときの相対移動量を算出する。本実施形態において、第1画像PIAが生成されるときとは、例えば、撮像素子20が第1撮像領域AAを第1感度とし、第2撮像領域ABを第2感度として被測定物Mを撮像するときである。また、本実施形態において、第2画像PIBが生成されるときとは、例えば、撮像素子20が第1撮像領域AAを第2感度とし、第2撮像領域ABを第1感度として被測定物Mを撮像するときである。   In the present embodiment, the movement amount calculation unit 39 uses the relative movement amount calculated by the movement amount calculation unit 39 when the first image PIA is generated, and performs the relative movement when the second image PIB is generated. Calculate the amount. In the present embodiment, when the first image PIA is generated, for example, the imaging device 20 images the object M to be measured with the first imaging area AA as the first sensitivity and the second imaging area AB as the second sensitivity. It is time to do. In the present embodiment, when the second image PIB is generated, for example, the imaging element 20 uses the first imaging area AA as the second sensitivity, and the second imaging area AB as the first sensitivity. Is when imaging.

第1画像PIAが生成されるときにおける、被測定物Mと撮像素子20との相対移動量をMVとする。図21に示す例において、FL1、FL3は第1画像PIAが生成される期間を示し、FL2は第2画像PIBが生成される期間を示している。期間FL1が終了するタイミングは、時間t2である。移動量算出部39は、時間t2における相対移動量を取得して図3に示す記憶部40に一時的に記憶させる。被測定物Mと撮像素子20とが相対移動する速度が一定である場合、時間t2からT−Δtbが経過した時点で、撮像素子20の第1撮像領域AAにおける第2感度での露光が開始する。   Let MV be the relative movement amount between the object M and the image sensor 20 when the first image PIA is generated. In the example shown in FIG. 21, FL1 and FL3 indicate periods in which the first image PIA is generated, and FL2 indicates a period in which the second image PIB is generated. The timing at which the period FL1 ends is time t2. The movement amount calculation unit 39 acquires the relative movement amount at time t2 and temporarily stores it in the storage unit 40 shown in FIG. When the relative movement speed of the object M to be measured and the image sensor 20 is constant, the exposure with the second sensitivity in the first image pickup area AA of the image sensor 20 starts when T-Δtb has elapsed from time t2. To do.

被測定物Mと撮像素子20とが相対移動する速度をvとする。第1画像PIAが生成されたとき(時間t2)における移動量MVに、v×(T−Δtb)を加算した値が、第2画像PIBが生成されるときにおいて第2感度での露光が開始するときの相対移動量となる。第1画像PIAが生成されたときの移動量MVに、v×(T−Δta)を加算した値は、第2画像PIBが生成されるときにおいて第1感度での露光が開始するときの相対移動量となる。第2画像PIBが生成されたとき(時間t3)の相対移動量は、第1画像PIAが生成されたとき(時間t2)における移動量MVに、v×Tを加算した値となる。   A speed at which the object to be measured M and the image sensor 20 are relatively moved is represented by v. When the second image PIB is generated, a value obtained by adding v × (T−Δtb) to the movement amount MV when the first image PIA is generated (time t2) starts exposure at the second sensitivity. This is the relative amount of movement. The value obtained by adding v × (T−Δta) to the movement amount MV when the first image PIA is generated is a relative value when the exposure with the first sensitivity starts when the second image PIB is generated. It becomes the amount of movement. The relative movement amount when the second image PIB is generated (time t3) is a value obtained by adding v × T to the movement amount MV when the first image PIA is generated (time t2).

このように、本実施形態において、移動量算出部39は、第1画像PIAが生成されるときにおいて移動量算出部39が算出した相対移動量を用いて、第2画像PIBが生成されるときの相対移動量を算出する。このようにすることで、第1画像PIAと第2画像PIBとを撮像(生成)する毎に位置検出部11が位置を検出しなくてもよい。   As described above, in the present embodiment, the movement amount calculation unit 39 generates the second image PIB using the relative movement amount calculated by the movement amount calculation unit 39 when the first image PIA is generated. The relative movement amount of is calculated. By doing in this way, the position detection part 11 does not need to detect a position, whenever it images (generates) the 1st image PIA and the 2nd image PIB.

前述した説明では、第1感度及び第2感度で露光するタイミングの位置を算出したが、移動量算出部39は、露光開始後の位置も算出することができる。例えば、移動量算出部39は、第1画像PIAが生成されたとき(時間t2)における移動量MVに、v×(T−Δtb/2)を加算すれば、第2画像PIBが生成されるときにおいて、第2感度での露光時間の1/2が経過した時点における相対移動量を求めることができる。同様に、移動量算出部39は、第1画像PIAが生成されたときの移動量MVに、v×(T−Δta/2)を加算すれば、第2画像PIBが生成されるときにおいて、第1感度での露光時間の1/2経過した時点における相対移動量を求めることができる。   In the above description, the position of the exposure timing with the first sensitivity and the second sensitivity is calculated, but the movement amount calculation unit 39 can also calculate the position after the start of exposure. For example, the movement amount calculating unit 39 generates the second image PIB by adding v × (T−Δtb / 2) to the movement amount MV at the time when the first image PIA is generated (time t2). In some cases, it is possible to obtain the relative movement amount at the time when ½ of the exposure time at the second sensitivity has elapsed. Similarly, the movement amount calculation unit 39 adds v × (T−Δta / 2) to the movement amount MV when the first image PIA is generated, and when the second image PIB is generated, The relative movement amount at the time when ½ of the exposure time at the first sensitivity has elapsed can be obtained.

すなわち、本実施形態においては、撮像時間Tと、第1感度の露光時間Δtaと、第2感度の露光時間Δtbとが既知である。また、本実施形態においては、撮像開始時、第1感度での露光開始時及び第2感度での露光開始時は、制御部32が決定する。このため、移動量算出部39は、制御部32から、撮像が開始されたタイミング及び第1感度での露光が開始されたタイミング等と、第1画像PIAが生成されたときの移動量MVと相対移動する速度vと、撮像時間T内における任意の時間とから、この任意の時間における相対移動量を算出することができる。   That is, in the present embodiment, the imaging time T, the first sensitivity exposure time Δta, and the second sensitivity exposure time Δtb are known. In the present embodiment, the control unit 32 determines when imaging starts, when exposure with the first sensitivity starts, and when exposure with the second sensitivity starts. For this reason, the movement amount calculation unit 39, from the control unit 32, the timing at which imaging is started, the timing at which exposure with the first sensitivity is started, and the movement amount MV when the first image PIA is generated. From the relative movement speed v and an arbitrary time within the imaging time T, the relative movement amount at this arbitrary time can be calculated.

移動量算出部39は、形状測定装置1が被測定物Mの形状の測定を開始した時点から、相対移動量を求めることもできる。例えば、最初の撮像時間Tにおいて、撮像素子20が第1感度での露光を開始する時間は、撮像開始時からT−Δtaである。したがって、v×(T−Δta)が、最初の撮像時間Tにおいて第1感度での露光を開始した時点における相対移動量になる。同様に、v×(T−Δtb)は、最初の撮像時間Tにおいて第2感度での露光を開始した時点における相対移動量になる。   The movement amount calculation unit 39 can also obtain the relative movement amount from the time when the shape measuring apparatus 1 starts measuring the shape of the object M to be measured. For example, in the first imaging time T, the time when the image sensor 20 starts exposure with the first sensitivity is T−Δta from the start of imaging. Therefore, v × (T−Δta) is the relative movement amount at the time when the exposure with the first sensitivity is started in the first imaging time T. Similarly, v × (T−Δtb) is a relative movement amount at the time when the exposure with the second sensitivity is started in the first imaging time T.

前述したように、移動量算出部39は、第1感度での露光中における相対移動量及び第2感度での露光中における相対移動量を求めることができる。本実施形態において、第1撮像領域AAと第2撮像領域ABとは、それぞれ第1感度と第2感度とが交互に入れ替えられる。すなわち、撮像素子20による被測定物Mの撮像時において、第1撮像領域AAは、第1感度、第2感度、第1感度、第2感度の順に露光され、第2撮像領域ABは、第2感度、第1感度、第2感度、第1感度の順に露光される。したがって、移動量算出部39は、撮像素子20が被測定物Mを撮像しているときの相対移動量とを、それぞれ別個に求めることもできる。このようにすることで、算出部38は、撮像素子20の第1撮像領域AAが露光されているときと、第2撮像領域ABが露光されているときとで、それぞれ別個に光学プローブ3の座標情報及び保持回転装置7の回転位置情報を求めることができる。   As described above, the movement amount calculation unit 39 can obtain the relative movement amount during the exposure with the first sensitivity and the relative movement amount during the exposure with the second sensitivity. In the present embodiment, the first imaging area AA and the second imaging area AB are alternately replaced with the first sensitivity and the second sensitivity, respectively. That is, during imaging of the measurement object M by the imaging device 20, the first imaging area AA is exposed in the order of the first sensitivity, the second sensitivity, the first sensitivity, and the second sensitivity, and the second imaging area AB is Exposure is performed in the order of 2 sensitivity, 1st sensitivity, 2nd sensitivity, and 1st sensitivity. Therefore, the movement amount calculation unit 39 can also separately obtain the relative movement amount when the imaging element 20 is imaging the object to be measured M. By doing in this way, the calculation part 38 of the optical probe 3 separately when the 1st imaging area AA of the image pick-up element 20 is exposed and when the 2nd imaging area AB is exposed, respectively. Coordinate information and rotational position information of the holding and rotating device 7 can be obtained.

図21に示すように、本実施形態では、第1撮像領域AAでの露光を終了するタイミングと第2撮像領域ABでの露光を終了するタイミングとを一致させている。このようにすることで、撮像素子20の動作を制御する制御装置4の制御が容易になるという利点がある。   As shown in FIG. 21, in this embodiment, the timing for ending the exposure in the first imaging area AA and the timing for ending the exposure in the second imaging area AB are matched. By doing in this way, there exists an advantage that control of the control apparatus 4 which controls operation | movement of the image pick-up element 20 becomes easy.

(第1変形例)
前述した実施形態において、形状測定装置1は、撮像素子20の第1撮像領域AAを第1感度とし、第2撮像領域ABを第2感度として撮像し、次に第1撮像領域AAの感度と第2撮像領域ABの感度とを入れ替えて撮像し、以後、一回撮像する毎に第1撮像領域AAの感度と第2撮像領域ABの感度とを入れ替える。本変形例は、撮像素子20の第1撮像領域AAを第1感度とし、第2撮像領域ABを第2感度として、第1撮像領域AAと第2撮像領域ABとで感度を入れ替えずに撮像する。このようにすると、例えば、図7に示す第1画像PIA又は図8に示す第2画像PIBのいずれか一方が得られる。
(First modification)
In the embodiment described above, the shape measuring apparatus 1 images the first imaging area AA of the image sensor 20 as the first sensitivity, the second imaging area AB as the second sensitivity, and then the sensitivity of the first imaging area AA. The sensitivity of the second imaging area AB is interchanged, and thereafter, the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB are interchanged every time imaging is performed once. In this modification, the first imaging area AA of the imaging device 20 is set as the first sensitivity, the second imaging area AB is set as the second sensitivity, and imaging is performed without changing the sensitivity between the first imaging area AA and the second imaging area AB. To do. In this way, for example, either the first image PIA shown in FIG. 7 or the second image PIB shown in FIG. 8 is obtained.

この場合、第1画像PIAの画像IEa1は第2感度に設定された第2撮像領域ABに対応した情報が欠落し、画像IEb1は、第1感度に設定された第1撮像領域AAに対応した情報が欠落している。また、第2画像PIBの画像IEa2は第2感度に設定された第2撮像領域ABに対応した情報が欠落し、画像IEb2は、第1感度に設定された第1撮像領域AAに対応した情報が欠落している。しかし、第1画像PIA及び第2画像PIBは、画像IEa1等の欠落した部分の両側又は片側に情報が存在する。このため、算出部38は、画像IEa1等の欠落した部分の両側又は片側に存在する情報を用いて、欠落した情報を、例えば、補間等によって求めることができる。   In this case, the image IEa1 of the first image PIA lacks information corresponding to the second imaging area AB set to the second sensitivity, and the image IEb1 corresponds to the first imaging area AA set to the first sensitivity. Information is missing. Further, the image IEa2 of the second image PIB lacks information corresponding to the second imaging area AB set to the second sensitivity, and the image IEb2 is information corresponding to the first imaging area AA set to the first sensitivity. Is missing. However, the first image PIA and the second image PIB have information on both sides or one side of the missing portion of the image IEa1 and the like. For this reason, the calculation part 38 can obtain | require missing information, for example by interpolation etc., using the information which exists in the both sides or one side of missing parts, such as image IEa1.

図22は、第1変形例によって得られた点群データの一例を示す図である。図4に示す、三角柱の形状の被測定物Mを、例えば、撮像素子20の第1撮像領域AAを第1感度とし、第2撮像領域ABを第2感度として、第1撮像領域AAと第2撮像領域ABとで感度を入れ替えずに撮像すると、図22に示すような点群データDGが得られ、元の点間隔の1.5倍となる。実施形態1は、第1撮像領域AAと第2撮像領域ABとで感度を入れ替えながら撮像するが、この場合、前述した図9Dに示すような点群データDGが得られ、元の点間隔の0.5倍となる。つまり、本変形例は、点群データDGの数が少ない。しかし、本変形例も、前述した実施形態1と同様に、被測定物Mの全体の形状が三角柱の形状であることが把握できる。   FIG. 22 is a diagram illustrating an example of point cloud data obtained by the first modification. 4, for example, the first imaging area AA of the imaging device 20 is set as the first sensitivity, the second imaging area AB is set as the second sensitivity, and the first imaging area AA and the second measuring area M are measured. When imaging is performed without changing the sensitivity between the two imaging areas AB, point cloud data DG as shown in FIG. 22 is obtained, which is 1.5 times the original point interval. In the first embodiment, imaging is performed while switching the sensitivity between the first imaging area AA and the second imaging area AB. In this case, the point cloud data DG as shown in FIG. It becomes 0.5 times. That is, in this modification, the number of point cloud data DG is small. However, also in this modification, it can be understood that the entire shape of the DUT M is a triangular prism shape, as in the first embodiment.

図9Cに示した、異なる反射率の表面を有する被測定物Mが1つの感度で撮像されたときに得られた点群データDGは、撮像された被測定物Mのうち、一部の反射率の部分のみしか得られていない。このため、図9Cに示す点群データDGからは、反射率が異なる表面を有する被測定物Mの形状を求めることができない。本変形例は、異なる反射率の表面を有する被測定物Mが1つの感度で撮像されたときと比較すると、被測定物Mの全体形状を把握できる。このため、本変形例は、得られた点群データDGを補間する等によって、不足する被測定物Mの形状情報を得ることができる。結果として、本変形例は、反射率が異なる表面を有する被測定物Mの形状を求めることができる。   The point cloud data DG obtained when the object to be measured M having a surface with different reflectivity shown in FIG. 9C is imaged with one sensitivity is the reflection of a part of the imaged object M to be measured. Only the rate part is obtained. For this reason, from the point cloud data DG shown in FIG. 9C, the shape of the DUT M having surfaces with different reflectivities cannot be obtained. In the present modification, the entire shape of the object to be measured M can be grasped as compared to when the object to be measured M having a surface with a different reflectance is imaged with one sensitivity. For this reason, in the present modification, it is possible to obtain insufficient shape information of the object M to be measured, for example, by interpolating the obtained point cloud data DG. As a result, the present modification can determine the shape of the DUT M having surfaces with different reflectivities.

このように、撮像素子20は、第1撮像領域AA及び第2撮像領域ABが第1方向としてのx方向と平行に複数の画素20PXが配列され、かつ第1撮像領域AA及び第2撮像領域ABは、x方向と交差(本実施形態では直交するがこれには限定されない)する第2方向としてのy方向に設定されていればよい。すなわち、撮像素子20は、第1撮像領域AAの感度と第2撮像領域ABとの感度とが入れ替えられなくてもよい。   As described above, in the imaging element 20, the first imaging area AA and the second imaging area AB are arranged in parallel with the x direction as the first direction, and the first imaging area AA and the second imaging area are arranged. AB should just be set to the y direction as a 2nd direction which cross | intersects x direction (it orthogonally crosses in this embodiment, but is not limited to this). That is, the imaging device 20 may not exchange the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB.

(第2変形例)
実施形態1及びその第1変形例では、第1撮像領域AA及び第2撮像領域ABの感度をそれぞれ2段階で変更した。本変形例は、第1撮像領域AA及び第2撮像領域ABの感度をそれぞれ2段階で変更する。次の説明では、露光時間を異ならせることによって感度が変更される。基本となる露光時間をTBとし、第1撮像領域AA及び第2撮像領域ABの露光時間をTB、TB/10、TB/100、TB/1000の4段階で変更する。
(Second modification)
In the first embodiment and the first modification thereof, the sensitivities of the first imaging area AA and the second imaging area AB are each changed in two stages. In this modification, the sensitivity of the first imaging area AA and the second imaging area AB is changed in two stages. In the following description, the sensitivity is changed by changing the exposure time. The basic exposure time is TB, and the exposure times of the first imaging area AA and the second imaging area AB are changed in four stages: TB, TB / 10, TB / 100, and TB / 1000.

撮像素子20の露光時において、第1撮像領域AAの露光時間と第2撮像領域ABの露光時間との組合せは、例えば、(TB、TB/10)、(TB/10、TB)、(TB/100、TB/1000)、(TB/1000、TB/100)の順に変化し、これを繰り返す。第1撮像領域AAの露光時間がTB、第2撮像領域ABの露光時間がTB/10のときに得られる画像が第1画像、第1撮像領域AAの露光時間がTB/10、第2撮像領域ABの露光時間がTBのときに得られる画像が第2画像である。また、第1撮像領域AAの露光時間がTB/100、第2撮像領域ABの露光時間がTB/1000のときに得られる画像が第3画像、第1撮像領域AAの露光時間がTB/1000、第2撮像領域ABの露光時間がTB/100のときに得られる画像が第4画像である。   When the image sensor 20 is exposed, combinations of the exposure time of the first imaging area AA and the exposure time of the second imaging area AB are, for example, (TB, TB / 10), (TB / 10, TB), (TB / 100, TB / 1000), (TB / 1000, TB / 100) in this order, and this is repeated. An image obtained when the exposure time of the first imaging area AA is TB and the exposure time of the second imaging area AB is TB / 10 is the first image, the exposure time of the first imaging area AA is TB / 10, and the second imaging An image obtained when the exposure time of the area AB is TB is the second image. The image obtained when the exposure time of the first imaging area AA is TB / 100, the exposure time of the second imaging area AB is TB / 1000 is the third image, and the exposure time of the first imaging area AA is TB / 1000. The image obtained when the exposure time of the second imaging area AB is TB / 100 is the fourth image.

このようにすれば、撮像素子20の露光量を1倍から1000倍に変化させることができる。その結果、形状測定装置1は、被測定物Mの反射率が大きく異なる場合であっても、被測定物Mの表面を撮像して被測定物Mの形状に関する情報を得ることができる。また、被測定物Mが異なる反射率の部分を3以上有する場合でも、形状測定装置1は、被測定物Mの表面を撮像して被測定物Mの形状に関する情報を得ることができる。   In this way, the exposure amount of the image sensor 20 can be changed from 1 to 1000 times. As a result, the shape measuring apparatus 1 can obtain information on the shape of the measurement object M by imaging the surface of the measurement object M even when the reflectance of the measurement object M is greatly different. Even when the object to be measured M has three or more portions having different reflectances, the shape measuring apparatus 1 can obtain information on the shape of the object to be measured M by imaging the surface of the object to be measured M.

(実施形態2)
図23から図25は、実施形態2に係る処理を説明するための図である。図23に示すように、撮像素子20は、画素行20L1、20L3が第1撮像領域AA、画素行20L2、20L4が第2撮像領域ABである。図24に示す、第1画像PIAでの第1感度で生成される画像、例えば、第1撮像領域AAに対応する部分PI1、PI3の画像と、図25に示す、第2画像PIBでの第2感度で生成される画像、例えば、第1撮像領域AAに対応する部分PI1、PI3の画像とが同一である場合がある。また、図24に示す、第1画像PIAでの第2感度で生成される画像、例えば、第2撮像領域ABに対応する部分PI2、PI4の画像と、図25に示す、第2画像PIBでの第1感度で生成される画像、例えば、第2撮像領域ABに対応する部分PI2、PI4の画像とが同一である場合がある。このような場合、撮像素子20の撮像領域AARが第1感度であっても第2感度であっても、異なる反射率の部分を有する被測定物Mの全体を撮像することができる。
(Embodiment 2)
23 to 25 are diagrams for explaining processing according to the second embodiment. As shown in FIG. 23, in the image sensor 20, the pixel rows 20L1 and 20L3 are the first imaging area AA, and the pixel rows 20L2 and 20L4 are the second imaging area AB. The image generated with the first sensitivity in the first image PIA shown in FIG. 24, for example, the images of the portions PI1 and PI3 corresponding to the first imaging area AA, and the second image PIB shown in FIG. An image generated with two sensitivities, for example, the images of the portions PI1 and PI3 corresponding to the first imaging area AA may be the same. In addition, an image generated with the second sensitivity in the first image PIA shown in FIG. 24, for example, an image of the portions PI2 and PI4 corresponding to the second imaging area AB, and a second image PIB shown in FIG. The images generated with the first sensitivity, for example, the images of the portions PI2 and PI4 corresponding to the second imaging area AB may be the same. In such a case, even if the imaging area AAR of the imaging device 20 has the first sensitivity or the second sensitivity, it is possible to image the entire object to be measured M having different reflectance portions.

図3に示す制御装置4の算出部38は、第1画像PIAでの第1感度で生成される画像と、第2画像PIBでの第2感度で生成される画像とが同一である場合、第1撮像領域AAと第2撮像領域ABとを、第1感度又は第2感度の一方として第3画像を生成する。そして、算出部38は、生成した第3画像を用いて、被測定物Mの形状を算出する。第1画像PIAでの第2感度で生成される画像と、第2画像PIBでの第1感度で生成される画像とが同一である場合も同様である。このようにすれば、被測定物Mの表面形状データである3次元座標値の点群データの数が多くなるので、算出部38が算出した被測定物Mの形状の精度が向上する。   When the calculation unit 38 of the control device 4 illustrated in FIG. 3 has the same image generated with the first sensitivity in the first image PIA and the image generated with the second sensitivity in the second image PIB, A third image is generated using the first imaging area AA and the second imaging area AB as one of the first sensitivity and the second sensitivity. And the calculation part 38 calculates the shape of the to-be-measured object M using the produced | generated 3rd image. The same applies to an image generated with the second sensitivity in the first image PIA and an image generated with the first sensitivity in the second image PIB. By doing so, the number of point group data of three-dimensional coordinate values, which are the surface shape data of the object M to be measured, increases, so that the accuracy of the shape of the object M calculated by the calculation unit 38 is improved.

図26は、実施形態2に係る形状測定装置1の制御装置4が被測定物Mの形状を測定する際に実行する処理を示すフローチャートである。ステップS21からステップS25は、実施形態1に係る処理のステップS11からステップS15と同様なので、説明を省略する。ステップS25において、被測定物Mの全体の撮像が終了した場合(ステップS25、Yes)、ステップS26において、算出部38は、第1画像PIAと第2画像PIBとを作成し、両者を比較する。   FIG. 26 is a flowchart illustrating processing executed when the control device 4 of the shape measuring apparatus 1 according to the second embodiment measures the shape of the object M to be measured. Steps S21 to S25 are the same as steps S11 to S15 of the processing according to the first embodiment, and thus description thereof is omitted. In step S25, when imaging of the entire object to be measured M is completed (step S25, Yes), in step S26, the calculation unit 38 creates the first image PIA and the second image PIB and compares them. .

第1画像PIAでの第1感度で生成される画像と、第2画像PIBでの第2感度で生成される画像とが同一である場合(ステップS26、Yes)、ステップS27において、算出部38は、第1感度又は第2感度のいずれか一方を用いた第3画像から、被測定物Mの形状を算出する。制御部32は、以後において、撮像素子20の撮像領域AARのすべて、本実施形態では第1撮像領域AA及び第2撮像領域ABを第1感度又は第2感度のいずれか一方に設定して、被測定物Mを撮像する。すなわち、制御部32は、第1感度と第2感度とを等しい値にして、被測定物Mを撮像する。   When the image generated with the first sensitivity in the first image PIA and the image generated with the second sensitivity in the second image PIB are the same (step S26, Yes), in step S27, the calculation unit 38 Calculates the shape of the object M to be measured from the third image using either the first sensitivity or the second sensitivity. After that, the control unit 32 sets all of the imaging area AAR of the imaging device 20, in the present embodiment, the first imaging area AA and the second imaging area AB to either the first sensitivity or the second sensitivity, An object M is imaged. That is, the control unit 32 images the measurement object M by setting the first sensitivity and the second sensitivity to the same value.

第1画像PIAでの第1感度で生成される画像と、第2画像PIBでの第2感度で生成される画像とが異なる場合(ステップS26、No)、算出部38は、第1画像PIAと第2画像PIBとの両方を合成した画像を用いて、被測定物Mの形状を算出する。すなわち、ステップS28及びステップS29を実行する。ステップS28及びステップS29は、実施形態1のステップS16及びステップS17と同様である。制御部32は、以後において、撮像素子20の第1撮像領域AAの感度と第2撮像領域ABの感度とを、それぞれが異なる値に設定し、かつ撮像毎に両者の感度を入れ替えて、被測定物Mを撮像する。   When the image generated with the first sensitivity in the first image PIA is different from the image generated with the second sensitivity in the second image PIB (step S26, No), the calculation unit 38 calculates the first image PIA. The shape of the DUT M is calculated using an image obtained by combining both the second image PIB and the second image PIB. That is, step S28 and step S29 are executed. Step S28 and step S29 are the same as step S16 and step S17 of the first embodiment. Thereafter, the control unit 32 sets the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB of the imaging device 20 to different values, and exchanges both sensitivities for each imaging operation. The measurement object M is imaged.

算出部38は、第1感度と第2感度とが異なる場合と、第1感度と第2感度とが等しい場合とで、異なる処理によって被測定物Mの形状を算出する。後者の場合、算出部38は、撮像によって得られた情報、例えば、第3画像の情報に対して、2次元の平滑フィルタを通過させる処理を行い、その結果得られた情報から被測定物Mの形状を算出する。これに対して、前者の場合、算出部38は、撮像によって得られた情報、例えば、第1画像PIAと第2画像PIBとを合成した画像の情報に対して、第3画像の情報を通過させたフィルタとは異なるフィルタを通過させる処理を行い、その結果得られた情報から被測定物Mの形状を算出する。算出部38は、第3画像又は第1画像PIA及び第2画像PIBが作成される前の情報に対して、フィルタを通過させる処理を行ってもよい。   The calculation unit 38 calculates the shape of the object M to be measured by different processes when the first sensitivity and the second sensitivity are different from each other and when the first sensitivity and the second sensitivity are equal. In the latter case, the calculation unit 38 performs a process of passing information obtained by imaging, for example, the information of the third image, through a two-dimensional smoothing filter, and the measured object M is obtained from the obtained information. The shape of is calculated. On the other hand, in the former case, the calculation unit 38 passes information on the third image with respect to information obtained by imaging, for example, information on an image obtained by combining the first image PIA and the second image PIB. A process of passing through a filter different from the filtered filter is performed, and the shape of the DUT M is calculated from the information obtained as a result. The calculation unit 38 may perform a process of passing the filter on the information before the third image or the first image PIA and the second image PIB are created.

図27Aから図27Cは、平滑フィルタを用いた処理を説明するための図である。第1感度と第2感度とが等しい場合、算出部38は、例えば、図27Aに示される3×3の平滑フィルタSFを用いて第3画像に含まれるすべての画素に対してフィルタリングを実行する。平滑フィルタSFは、3×3に限定されるものではなく、3×3、5×5等であってもよい。式(1)においては、3画素×3画素の平滑フィルタSF内の処理対象となる画素PXを注目画素P(n、m)と表記する。処理後における注目画素P(n、m)の値をI(n、m)とすると、I(n、m)は、式(1)となる。nはY方向(列方向)に配列される複数の画素PXの列を識別するための符号、mはX方向(行方向)に配列される複数の画素PXの列を識別するための符号であり、いずれも整数である(以下同様)。
I(n、m)=a(−1、−1)×P(n−1、m−1)+a(0、−1)×P(n、m−1)+a(1、−1)×P(n+1、m−1)
+a(−1、0)×P(n−1、m)+a(0、0)×P(n、m)+a(1、0)×P(n+1、m)
+a(−1、1)×P(n−1、m+1)+a(0、1)×P(n、m+1)+a(1、1)×P(n+1、m+1)・・・(1)
FIGS. 27A to 27C are diagrams for explaining processing using a smoothing filter. When the first sensitivity and the second sensitivity are equal, the calculation unit 38 performs filtering on all the pixels included in the third image using, for example, the 3 × 3 smoothing filter SF illustrated in FIG. 27A. . The smoothing filter SF is not limited to 3 × 3, and may be 3 × 3, 5 × 5, or the like. In Expression (1), a pixel PX to be processed in the 3 × 3 smoothing filter SF is denoted as a target pixel P (n, m). When the value of the target pixel P (n, m) after processing is I (n, m), I (n, m) is expressed by Equation (1). n is a code for identifying a column of a plurality of pixels PX arranged in the Y direction (column direction), and m is a code for identifying a column of a plurality of pixels PX arranged in the X direction (row direction). Yes, both are integers (the same applies hereinafter).
I (n, m) = a (-1, -1) * P (n-1, m-1) + a (0, -1) * P (n, m-1) + a (1, -1) * P (n + 1, m-1)
+ A (-1, 0) x P (n-1, m) + a (0, 0) x P (n, m) + a (1, 0) x P (n + 1, m)
+ A (-1,1) * P (n-1, m + 1) + a (0,1) * P (n, m + 1) + a (1,1) * P (n + 1, m + 1) (1)

a(i、j)は、注目画素P(n、m)の周囲に存在する画素PXの値に乗ずる定数である。i及びjは整数である。iは、注目画素P(n、m)からY方向にi画素離れた位置に存在する画素PXの値に乗ずる定数であることを示し、jは、注目画素P(n、m)からX方向にj画素離れた位置に存在する画素PXの値に乗ずる定数であることを示す。i及びjが正の値をとるとき、注目画素P(n、m)に対して一方の方向を示す。i及びjが負の値をとるとき、注目画素P(n、m)に対して他方の方向を示す。   a (i, j) is a constant by which the value of the pixel PX existing around the pixel of interest P (n, m) is multiplied. i and j are integers. i represents a constant that is multiplied by the value of the pixel PX that is located i pixels away from the target pixel P (n, m) in the Y direction, and j is the X direction from the target pixel P (n, m). Is a constant that is multiplied by the value of the pixel PX present at a position separated by j pixels. When i and j are positive values, one direction is indicated with respect to the pixel of interest P (n, m). When i and j take negative values, the other direction is indicated with respect to the pixel of interest P (n, m).

a(i、j)は、0以上1以下の整数である。例えば、式(1)において、a(0、0)=1とし、a(0、0)以外を0とすると、平滑フィルタSFを通過した後における第1画像PIAと第2画像PIBとを合成した画像の情報は、通過前と同一である。a(i、j)の値を目的に応じて適宜変更することにより、平滑フィルタSFは、元の画像を平滑化したり、元の画像がぼけすぎないような平滑化を実現したりすることができる。   a (i, j) is an integer of 0 or more and 1 or less. For example, in equation (1), if a (0,0) = 1 and 0 other than a (0,0) is set to 0, the first image PIA and the second image PIB after passing through the smoothing filter SF are synthesized. The information on the image is the same as before the passage. By appropriately changing the value of a (i, j) according to the purpose, the smoothing filter SF may smooth the original image or realize smoothing so that the original image is not too blurred. it can.

第1感度と第2感度とが異なる場合、算出部38は、例えば、図27Bに示される3×5の平滑フィルタSFaを用いて第3画像に含まれるすべての画素に対してフィルタリングを実行する。平滑フィルタSFaは、第1感度と第2感度とが等しい場合に用いられた平滑フィルタSFとは異なっている。3画素×5画素の平滑フィルタFAa内の処理対象となる画素20PXを注目画素P(n、m)と表記する。処理後における注目画素P(n、m)の値をI(n、m)とすると、I(n、m)は、式(2)となる。このフィルタリング処理においては、3画素×5画素の平滑フィルタFAa内に含まれる15個の画素のうち一部(この例では9個)の値が用いられる。図27Bでは、注目画素P(n、m)とハッチングの方向が異なる8個の画素PXが用いられる。
I(n、m)=a(−1、−2)×P(n−1、m−2)+a(0、−2)×P(n、m−2)+a(1、−2)×P(n+1、m−2)
+a(−1、0)×P(n−1、m)+a(0、0)×P(n、m)+a(1、0)×P(n+1、m)
+a(−1、2)×P(n−1、m+2)+a(0、2)×P(n、m+2)+a(1、2)×P(n+1、m+2)・・・(2)
When the first sensitivity and the second sensitivity are different, the calculation unit 38 performs filtering on all the pixels included in the third image using, for example, the 3 × 5 smoothing filter SFa illustrated in FIG. 27B. . The smoothing filter SFa is different from the smoothing filter SF used when the first sensitivity and the second sensitivity are equal. A pixel 20PX to be processed in the 3 × 5 smoothing filter FAa is denoted as a target pixel P (n, m). When the value of the target pixel P (n, m) after processing is I (n, m), I (n, m) is expressed by Equation (2). In this filtering process, some (9 in this example) values of 15 pixels included in the 3 × 5 smoothing filter FAa are used. In FIG. 27B, eight pixels PX having different hatching directions from the target pixel P (n, m) are used.
I (n, m) = a (-1, -2) * P (n-1, m-2) + a (0, -2) * P (n, m-2) + a (1, -2) * P (n + 1, m-2)
+ A (-1, 0) x P (n-1, m) + a (0, 0) x P (n, m) + a (1, 0) x P (n + 1, m)
+ A (−1,2) × P (n−1, m + 2) + a (0,2) × P (n, m + 2) + a (1,2) × P (n + 1, m + 2) (2)

また、第1感度と第2感度とが異なる場合、算出部38は、例えば、図27Cに示される3×1の平滑フィルタSFbを用いて第3画像に含まれるすべての画素に対してフィルタリングを実行する。平滑フィルタSFbは、第1感度と第2感度とが等しい場合に用いられた2次元の平滑フィルタSFとは異なり、1次元である。3画素×1画素の平滑フィルタFAa内の処理対象となる画素PXを注目画素P(n、m)と表記する。処理後における注目画素P(n、m)の値をI(n、m)とすると、I(n、m)は、式(3)で求められる。
I(n、m)=a(−1、0)×P(n−1、m)+a(0、0)×P(n、m)+a(1、0)×P(n+1、m)・・・(3)
When the first sensitivity and the second sensitivity are different, the calculation unit 38 performs filtering on all the pixels included in the third image using, for example, the 3 × 1 smoothing filter SFb illustrated in FIG. 27C. Run. Unlike the two-dimensional smoothing filter SF used when the first sensitivity and the second sensitivity are equal, the smoothing filter SFb is one-dimensional. A pixel PX to be processed in the 3 × 1 smoothing filter FAa is denoted as a target pixel P (n, m). If the value of the target pixel P (n, m) after processing is I (n, m), I (n, m) can be obtained by Expression (3).
I (n, m) = a (-1,0) * P (n-1, m) + a (0,0) * P (n, m) + a (1,0) * P (n + 1, m). (3)

図28は、実施形態2の変形例に係る処理のフローチャートである。第1画像PIAでの第1感度で生成される画像と、第2画像PIBでの第2感度で生成される画像とが同一である場合(ステップS31、Yes)、算出部38は、第1感度又は第2感度のいずれか一方を用いた第3画像又は第1画像PIAと第2画像PIBとの両方を合成した画像のいずれを用いても、被測定物Mの形状を算出できる。このような場合、算出部38は、撮像素子20の撮像領域AARを、第1感度又は第2感度のいずれか一方に設定して測定できること、すなわち、前述した第3画像を生成可能であることの信号を生成する(ステップS32)。そして、算出部38は、生成した信号を、図2に示す表示部としての表示装置5に表示させる(ステップS34)。例えば、表示装置5は、第1感度又は第2感度のいずれか一方を用いて測定可能である旨の情報を表示する。   FIG. 28 is a flowchart of processing according to a modification of the second embodiment. When the image generated with the first sensitivity in the first image PIA and the image generated with the second sensitivity in the second image PIB are the same (step S31, Yes), the calculation unit 38 performs the first operation. The shape of the object to be measured M can be calculated using either the third image using either the sensitivity or the second sensitivity or the image obtained by combining both the first image PIA and the second image PIB. In such a case, the calculation unit 38 can measure the imaging area AAR of the imaging device 20 by setting either the first sensitivity or the second sensitivity, that is, the third image described above can be generated. Is generated (step S32). Then, the calculation unit 38 displays the generated signal on the display device 5 as the display unit illustrated in FIG. 2 (step S34). For example, the display device 5 displays information indicating that measurement is possible using either the first sensitivity or the second sensitivity.

第1画像PIAでの第1感度で生成される画像と、第2画像PIBでの第2感度で生成される画像とが同一でない場合(ステップS31、No)、算出部38は、複数の撮像領域と複数の感度とを組合せ、かつ撮像毎に撮像領域の感度を入れ替え又は変更する測定が必要であると判定する(ステップS33)。本変形例では、制御部32は、第1撮像領域AA及び第2撮像領域ABと第1感度及び第2感度とを組み合わせて被測定物Mを撮像し、算出部38がその形状を算出する。   When the image generated with the first sensitivity in the first image PIA and the image generated with the second sensitivity in the second image PIB are not the same (step S31, No), the calculation unit 38 performs a plurality of imaging operations. It is determined that measurement is required to combine the area and a plurality of sensitivities and change or change the sensitivity of the imaging area for each imaging (step S33). In the present modification, the control unit 32 combines the first imaging area AA and the second imaging area AB with the first sensitivity and the second sensitivity to image the object M, and the calculation unit 38 calculates the shape. .

本変形例は、第1画像PIAでの第1感度で生成される画像と、第2画像PIBでの第2感度で生成される画像とが同一である場合等には、表示装置5が第1感度又は第2感度のいずれか一方を用いて測定可能である旨の情報を表示する。作業者は、この情報を確認して、第1感度又は第2感度のいずれか一方を用いて被測定物Mの形状を測定するか、複数の撮像領域と複数の感度とを組合せ、かつ撮像毎に撮像領域の感度を入れ替え又は変更して被測定物Mの形状を測定するかを選択することができる。このため、被測定物Mの形状を計測する際の自由度が向上する。   In the present modified example, when the image generated with the first sensitivity in the first image PIA and the image generated with the second sensitivity in the second image PIB are the same, the display device 5 is Information indicating that measurement is possible using either the first sensitivity or the second sensitivity is displayed. The operator confirms this information, measures the shape of the object M using either the first sensitivity or the second sensitivity, or combines a plurality of imaging regions and a plurality of sensitivities, and performs imaging. It is possible to select whether to measure the shape of the measurement object M by changing or changing the sensitivity of the imaging region every time. For this reason, the freedom degree at the time of measuring the shape of the to-be-measured object M improves.

なお、前述の実施形態に加えて、光プローブ3は、例えば特開2010−169633号に記載のロボットアームが保持していても構わない。また、光プローブ3を測定者が保持し、計測しても構わない。   In addition to the above-described embodiment, the optical probe 3 may be held by a robot arm described in, for example, Japanese Patent Application Laid-Open No. 2010-169633. Further, the measurer may hold the optical probe 3 and perform measurement.

なお、前述の実施形態では、被測定物の形状を光切断法で計測していたが、被測定物の形状の測定方法はこれに限られない。例えば、特開2008−170281号に記載のような投影パターンを使い、被測定物の形状を測定しても構わない。また、例えば、特開2008−170281号に記載のように、位相情報を使用して、被測定物の形状を測定しても構わない。   In the above-described embodiment, the shape of the object to be measured is measured by the light cutting method, but the method for measuring the shape of the object to be measured is not limited to this. For example, the shape of the object to be measured may be measured using a projection pattern as described in JP-A-2008-170281. Further, for example, as described in JP-A-2008-170281, the shape of the object to be measured may be measured using the phase information.

なお、第1画像P1Aと第2画像P1Bとを取得する際に、撮像毎に撮像領域の感度を入れ替えて被測定物Mの形状を測定する。この場合に、撮像素子20の第1撮像領域AAを第1感度として、第2撮像領域ABを第2感度として撮像する。次に、形状測定装置1は、撮像素子20の第1撮像領域AAの感度と第2撮像領域ABの感度とを入れ替えて撮像する。感度を入れ替える場合に、第1画像P1Aで用いた感度の組み合わせである第1感度と第2感度とを、第2画像P1Bで用いなくても構わない。例えば、第1画像を取得する際に、第1撮像領域AAの第1感度に対して、第2撮像領域ABの第2感度が高い。この場合に、第2画像を取得する際に、第1撮像領域AAを第3感度とし、第2撮像領域ABを第4感度と設定する。この場合に、第4感度に対して第3感度が高い。すなわち、第1画像を取得する際に用いた感度の組み合わせと、第2画像を取得する際に用いた感度の組み合わせとが異なっていても構わない。もちろん、第1画像を取得する際に用いた感度の組み合わせと、第2画像を取得する際に用いた感度の組み合わせとの一方の感度を、第1画像と第2画像とを取得する際に用いても構わない。   In addition, when acquiring the 1st image P1A and the 2nd image P1B, the sensitivity of an imaging area is switched for every imaging, and the shape of the to-be-measured object M is measured. In this case, the first imaging area AA of the image sensor 20 is imaged as the first sensitivity, and the second imaging area AB is imaged as the second sensitivity. Next, the shape measuring apparatus 1 captures an image by exchanging the sensitivity of the first imaging area AA and the sensitivity of the second imaging area AB of the image sensor 20. When the sensitivity is switched, the first sensitivity and the second sensitivity, which are combinations of the sensitivity used in the first image P1A, may not be used in the second image P1B. For example, when the first image is acquired, the second sensitivity of the second imaging area AB is higher than the first sensitivity of the first imaging area AA. In this case, when acquiring the second image, the first imaging area AA is set as the third sensitivity, and the second imaging area AB is set as the fourth sensitivity. In this case, the third sensitivity is higher than the fourth sensitivity. That is, the combination of sensitivities used when acquiring the first image may be different from the combination of sensitivities used when acquiring the second image. Of course, one of the sensitivity combination used when acquiring the first image and the sensitivity combination used when acquiring the second image is used when acquiring the first image and the second image. You may use.

なお、撮像素子20の第1撮像領域AA及び第2撮像領域ABに設定される感度は、適宜変更することが可能である。例えば、第1画像を取得する場合に、第1撮像領域AAと第2撮像領域ABとに、それぞれ第1感度と第2感度とを設定する以外にも、第1撮像領域AAと第2撮像領域ABとに、それぞれ第3感度と第4感度とを設定することも可能である。また、第2画像を取得する場合に、第1撮像領域AAと第2撮像領域ABとに、それぞれ第1感度と第2感度とを設定することが可能である。もちろん、第2画像を取得する場合に、第1撮像領域AAと第2撮像領域ABとに第5感度と第6感度とを設定することもできる。   Note that the sensitivity set in the first imaging area AA and the second imaging area AB of the imaging element 20 can be changed as appropriate. For example, when acquiring the first image, in addition to setting the first sensitivity and the second sensitivity in the first imaging area AA and the second imaging area AB, respectively, the first imaging area AA and the second imaging area are set. It is also possible to set the third sensitivity and the fourth sensitivity in the area AB, respectively. Moreover, when acquiring a 2nd image, it is possible to set 1st sensitivity and 2nd sensitivity to 1st imaging area AA and 2nd imaging area AB, respectively. Of course, when acquiring a 2nd image, 5th sensitivity and 6th sensitivity can also be set to 1st imaging area AA and 2nd imaging area AB.

本実施形態及びその変形例は、まず、複数の撮像領域と複数の感度とを組合せ、かつ撮像毎に撮像領域の感度を入れ替え又は変更して被測定物Mの形状を測定する。その結果、第1画像PIAでの第1感度で生成される画像と、第2画像PIBでの第2感度で生成される画像とが同一であれば、複数の撮像領域の感度を複数の感度のうちいずれか1つに統一して被測定物Mが撮像される。また、第1画像PIAでの第1感度で生成される画像と、第2画像PIBでの第2感度で生成される画像とが同一でなければ、複数の撮像領域と複数の感度とを組み合わせた測定が継続される。その結果、本実施形態及びその変形例は、異なる反射率の部分を有する被測定物Mの形状を測定する場合、反射率に応じた適切な測定を実現することができる。   In the present embodiment and its modification, first, the shape of the object to be measured M is measured by combining a plurality of imaging regions and a plurality of sensitivities, and changing or changing the sensitivity of the imaging regions for each imaging. As a result, if the image generated with the first sensitivity in the first image PIA and the image generated with the second sensitivity in the second image PIB are the same, the sensitivity of the plurality of imaging regions is set to the plurality of sensitivity. The object to be measured M is imaged in a unified manner. In addition, if the image generated with the first sensitivity in the first image PIA and the image generated with the second sensitivity in the second image PIB are not the same, a plurality of imaging regions and a plurality of sensitivities are combined. Measurement continues. As a result, in the present embodiment and the modification thereof, when measuring the shape of the measurement object M having portions having different reflectances, it is possible to realize appropriate measurement according to the reflectance.

(形状測定システム300)
図29は、形状測定装置を有する形状測定システム300を示す図である。前述した形状測定装置1は、1台の装置で処理を行ったが複数組み合わせてもよい。形状測定システム300は、形状測定装置1と、複数台(図では2台)の形状測定装置1aと、プログラム作成装置302とを、有する。形状測定装置1、プログラム作成装置302は、有線又は無線の通信回線で接続されている。形状測定装置1aは、初期測定範囲設定部33を備えていない以外は、形状測定装置1と同様の構成である。プログラム作成装置302は、上述した形状測定装置1の制御装置4で作成する種々の設定を行ったりプログラムを作成したりする。具体的には、プログラム作成装置302は、初期測定範囲を設定したり、形状測定プログラム及び測定対象範囲の全範囲の測定プログラム等を作成したりする。
(Shape measurement system 300)
FIG. 29 is a diagram showing a shape measuring system 300 having a shape measuring device. The shape measuring apparatus 1 described above is processed by one apparatus, but a plurality of them may be combined. The shape measuring system 300 includes a shape measuring device 1, a plurality (two in the figure) of shape measuring devices 1 a, and a program creation device 302. The shape measuring device 1 and the program creation device 302 are connected by a wired or wireless communication line. The shape measuring device 1 a has the same configuration as the shape measuring device 1 except that the shape measuring device 1 a is not provided with the initial measurement range setting unit 33. The program creation device 302 performs various settings created by the control device 4 of the shape measuring device 1 described above and creates a program. Specifically, the program creation device 302 sets an initial measurement range, creates a shape measurement program, a measurement program for the entire measurement target range, and the like.

プログラム作成装置302は、作成したプログラム及びデータを形状測定装置1に出力する。形状測定装置1aは、初期測定範囲、形状測定プログラム及び測定対象範囲の全範囲の測定プログラム等を、形状測定装置1又はプログラム作成装置302から取得する。そして、形状測定装置1aは、取得したデータ及びプログラムを用いて処理を行う。形状測定システム300は、測定プログラムを形状測定装置1又はプログラム作成装置302で作成したデータ及びプログラムを用いて、形状測定装置1aで計測を実行することで、作成したデータ及びプログラムを有効活用することができる。また、形状測定装置1aは、初期測定範囲設定部33、さらにその他の設定を行う各部を設けなくても計測を行うことができる。   The program creation device 302 outputs the created program and data to the shape measuring device 1. The shape measuring device 1a acquires the initial measurement range, the shape measurement program, the measurement program for the entire measurement target range, and the like from the shape measurement device 1 or the program creation device 302. Then, the shape measuring apparatus 1a performs processing using the acquired data and program. The shape measurement system 300 uses the data and program created by the shape measurement device 1 or the program creation device 302 as a measurement program, and performs measurement with the shape measurement device 1a, thereby effectively utilizing the created data and program. Can do. Moreover, the shape measuring apparatus 1a can perform measurement without providing the initial measurement range setting unit 33 and other units for performing other settings.

(構造物製造システム200)
図30は、構造物製造システム200のブロック構成図である。本実施形態の構造物製造システム200は、前述した実施形態において説明したような形状測定装置1と、設計装置202と、成形装置203と、制御装置(検査装置)204と、リペア装置205とを備える。制御装置204は、座標記憶部210及び検査部211を備える。
(Structure manufacturing system 200)
FIG. 30 is a block configuration diagram of the structure manufacturing system 200. The structure manufacturing system 200 of the present embodiment includes the shape measuring device 1, the design device 202, the molding device 203, the control device (inspection device) 204, and the repair device 205 as described in the above-described embodiments. Prepare. The control device 204 includes a coordinate storage unit 210 and an inspection unit 211.

設計装置202は、構造物の形状に関する設計情報を作成し、作成した設計情報を成形装置203に送信する。また、設計装置202は、作成した設計情報を制御装置204の座標記憶部210に記憶させる。設計情報は、構造物の各位置の座標を示す情報を含む。   The design device 202 creates design information related to the shape of the structure, and transmits the created design information to the molding device 203. In addition, the design apparatus 202 stores the created design information in the coordinate storage unit 210 of the control apparatus 204. The design information includes information indicating the coordinates of each position of the structure.

成形装置203は、設計装置202から入力された設計情報に基づいて、上記の構造物を作製する。成形装置203による成形は、例えば鋳造、鍛造及び切削等が含まれる。形状測定装置1は、作製された構造物(測定対象物)の座標を測定し、測定した座標を示す情報(形状情報)を制御装置204へ送信する。   The molding apparatus 203 produces the above structure based on the design information input from the design apparatus 202. Forming by the forming apparatus 203 includes, for example, casting, forging, cutting, and the like. The shape measuring apparatus 1 measures the coordinates of the manufactured structure (measuring object) and transmits information (shape information) indicating the measured coordinates to the control device 204.

制御装置204の座標記憶部210は、設計情報を記憶する。制御装置204の検査部211は、座標記憶部210から設計情報を読み出す。検査部211は、形状測定装置1から受信した座標を示す情報(形状情報)と、座標記憶部210から読み出した設計情報とを比較する。検査部211は、比較結果に基づき、構造物が設計情報通りに作製されたか否かを判定する。換言すれば、検査部211は、作製された構造物が良品であるか否かを判定する。検査部211は、構造物が設計情報通りに作製されていない場合に、構造物が修復可能であるか否か判定する。検査部211は、構造物が修復できる場合、比較結果に基づいて不良部位と修復量を算出し、リペア装置205に不良部位を示す情報と修復量を示す情報とを送信する。リペア装置205は、制御装置204から受信した不良部位を示す情報と修復量を示す情報とに基づき、構造物の不良部位を加工する。   The coordinate storage unit 210 of the control device 204 stores design information. The inspection unit 211 of the control device 204 reads design information from the coordinate storage unit 210. The inspection unit 211 compares information (shape information) indicating coordinates received from the shape measuring apparatus 1 with design information read from the coordinate storage unit 210. The inspection unit 211 determines whether or not the structure is manufactured according to the design information based on the comparison result. In other words, the inspection unit 211 determines whether or not the manufactured structure is a non-defective product. The inspection unit 211 determines whether or not the structure can be repaired when the structure is not manufactured according to the design information. When the structure can be repaired, the inspection unit 211 calculates a defective portion and a repair amount based on the comparison result, and transmits information indicating the defective portion and information indicating the repair amount to the repair device 205. The repair device 205 processes the defective portion of the structure based on the information indicating the defective portion received from the control device 204 and the information indicating the repair amount.

図31は、構造物製造システム200による処理の流れを示したフローチャートである。構造物製造システム200は、まず、設計装置202が構造物の形状に関する設計情報を作成する(ステップS101)。次に、成形装置203は、設計情報に基づいて前述した構造物を作製する(ステップS102)。次に、形状測定装置1は、作製された構造物の形状を測定する(ステップS103)。次に、制御装置204の検査部211は、形状測定装置1で得られた形状情報と前述した設計情報とを比較することにより、構造物が設計情報通りに作製されたか否か検査する(ステップS104)。   FIG. 31 is a flowchart showing the flow of processing by the structure manufacturing system 200. In the structure manufacturing system 200, first, the design apparatus 202 creates design information related to the shape of the structure (step S101). Next, the shaping | molding apparatus 203 produces the structure mentioned above based on design information (step S102). Next, the shape measuring apparatus 1 measures the shape of the manufactured structure (step S103). Next, the inspection unit 211 of the control device 204 compares the shape information obtained by the shape measuring device 1 with the design information described above to inspect whether or not the structure is manufactured according to the design information (step) S104).

次に、制御装置204の検査部211は、作製された構造物が良品であるか否かを判定する(ステップS105)。構造物製造システム200は、作製された構造物が良品であると検査部211が判定した場合(ステップS105でYes)、その処理を終了する。また、検査部211は、作製された構造物が良品でないと判定した場合(ステップS105でNo)、作製された構造物が修復できるか否か判定する(ステップS106)。   Next, the inspection unit 211 of the control device 204 determines whether or not the manufactured structure is a non-defective product (step S105). When the inspection unit 211 determines that the manufactured structure is a non-defective product (Yes in step S105), the structure manufacturing system 200 ends the process. If the inspection unit 211 determines that the manufactured structure is not a good product (No in step S105), the inspection unit 211 determines whether the manufactured structure can be repaired (step S106).

構造物製造システム200は、作製された構造物がリペア、すなわち修復できると検査部211が判定した場合(ステップS106でYes)、リペア装置205が構造物の再加工を実施し(ステップS107)、ステップS103の処理に戻る。構造物製造システム200は、作成された構造物が修復できないと検査部211が判定した場合(ステップS106でNo)、その処理を終了する。以上で、構造物製造システム200は、図31に示すフローチャートの処理を終了する。   In the structure manufacturing system 200, when the inspection unit 211 determines that the manufactured structure can be repaired, that is, repaired (Yes in Step S106), the repair device 205 performs reworking of the structure (Step S107). The process returns to step S103. When the inspection unit 211 determines that the created structure cannot be repaired (No in step S106), the structure manufacturing system 200 ends the process. Thus, the structure manufacturing system 200 ends the process of the flowchart shown in FIG.

本実施形態の構造物製造システム200は、前述の実施形態における形状測定装置1が構造物の座標を高精度に測定することができるので、作製された構造物が良品であるか否か判定することができる。また、構造物製造システム200は、構造物が良品でない場合、構造物の再加工を実施し、修復することができる。   The structure manufacturing system 200 of the present embodiment can determine whether or not the manufactured structure is a non-defective product because the shape measuring apparatus 1 in the above-described embodiment can measure the coordinates of the structure with high accuracy. be able to. In addition, the structure manufacturing system 200 can repair the structure by reworking the structure when the structure is not a good product.

なお、本実施形態におけるリペア装置205が実行するリペア工程は、成形装置203が成形工程を再実行する工程に置き換えられてもよい。その際には、制御装置204の検査部211が修復できると判定した場合、成形装置203は、成形工程(鍛造、切削等)を再実行する。具体的には、例えば、成形装置203は、構造物において本来切削されるべき箇所であって切削されていない箇所を切削する。これにより、構造物製造システム200は、構造物を正確に作製することができる。   Note that the repair process executed by the repair device 205 in the present embodiment may be replaced with a process in which the molding device 203 re-executes the molding process. In that case, when it determines with the test | inspection part 211 of the control apparatus 204 being able to repair, the shaping | molding apparatus 203 re-executes a shaping | molding process (forging, cutting, etc.). Specifically, for example, the molding apparatus 203 cuts a portion that should be originally cut but not cut in the structure. Thereby, the structure manufacturing system 200 can produce a structure correctly.

以上、添付図面を参照しながら本発明に係る好適な実施形態について説明したが、本発明は係る実施形態に限定されないことは言うまでもない。前述した例において示した各構成部材の諸形状及び組合せ等は一例であって、本発明の趣旨から逸脱しない範囲において設計要求等に基づき種々変更可能である。例えば、前述の実施形態の各構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。また、法令で許容される限りにおいて、前述の各実施形態及び変形例で引用した形状測定装置等に関するすべての公開公報及び米国特許の開示を援用して本文の記載の一部とする。前述した実施形態に基づいて当業者等によりなされる他の実施形態及び運用技術等は、すべて本実施形態の範囲に含まれる。   As mentioned above, although preferred embodiment which concerns on this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. Various shapes and combinations of the constituent members shown in the above-described examples are merely examples, and various modifications can be made based on design requirements and the like without departing from the spirit of the present invention. For example, each component of the above-described embodiment can be appropriately combined. Some components may not be used. In addition, as long as it is permitted by law, the disclosure of all published publications and US patents related to the shape measuring devices and the like cited in the above-described embodiments and modifications are incorporated herein by reference. All other embodiments and operation techniques made by those skilled in the art based on the above-described embodiments are all included in the scope of the present embodiment.

前述した実施形態における形状測定装置1は、保持部材55が片持ちで光学プローブ3を保持する構成を例示したが、これに限定されるものではなく、両持ちで保持する構成としてもよい。両持ちで保持することにより、回転時に保持部材55に生じ変形を低減することができ、測定精度の向上を図ることが可能になる。   The shape measuring apparatus 1 in the above-described embodiment has exemplified the configuration in which the holding member 55 holds the optical probe 3 in a cantilever manner, but is not limited thereto, and may be configured to hold in both sides. By holding both ends, the deformation generated in the holding member 55 during rotation can be reduced, and the measurement accuracy can be improved.

また、上述実施形態では光学プローブ3から照明光束Lとしてライン光を照射し、被測定物から反射するライン状のパターンを撮像しているが、光学プローブ3の形式はこれに限られない。光学プローブ3から発せられる照明光は、所定の面内に一括で照射する形式でも構わない。例えば、米国特許6075605号に記載さる方式でも構わない。光学プローブから発せられる照明光は、点状のスポット光を照射する形式でも構わない。   In the above-described embodiment, line light is irradiated as the illumination light beam L from the optical probe 3 and a line pattern reflected from the object to be measured is imaged. However, the type of the optical probe 3 is not limited to this. The illumination light emitted from the optical probe 3 may be in the form of being collectively irradiated onto a predetermined plane. For example, the method described in US Pat. No. 6,075,605 may be used. The illumination light emitted from the optical probe may be in the form of irradiating point spot light.

また、形状測定装置は、上記実施形態のように、円周方向に繰り返し形状を有しかつ円周方向とは異なる方向に延在した凹凸形状を有する形状の被測定物の計測に好適に用いることができる。また、この場合、初期測定範囲は、被測定物の繰り返し形状の1つの形状の長手方向に沿って設定することが好ましい。これにより、径方向の移動経路を適切な経路とすることができる。なお、被測定物は、円周方向に繰り返し形状を有しかつ円周方向とは異なる方向に延在した凹凸形状を有する形状に限定されず、種々の形状、例えば、繰り返し形状を備えない形状であってもよい。   In addition, the shape measuring apparatus is suitably used for measuring an object to be measured having a shape that has a repetitive shape in the circumferential direction and extends in a direction different from the circumferential direction, as in the above embodiment. be able to. In this case, the initial measurement range is preferably set along the longitudinal direction of one of the repeated shapes of the object to be measured. Thereby, the movement path | route of radial direction can be made into a suitable path | route. The object to be measured is not limited to a shape having a repetitive shape in the circumferential direction and having an uneven shape extending in a direction different from the circumferential direction, and various shapes such as a shape not having a repetitive shape. It may be.

1、1a 形状計測装置
2 プローブ移動装置
3 光学プローブ
4 制御装置
5 表示装置
7 保持回転装置
8、8a 光源装置
9 撮像装置
10 駆動部
11 位置検出部
12、12A、12B 光源
20、20A、20B 撮像素子
20PX、20PXA 画素
32 制御部
38 算出部
39 移動量算出部
40 記憶部
DESCRIPTION OF SYMBOLS 1, 1a Shape measuring apparatus 2 Probe moving apparatus 3 Optical probe 4 Control apparatus 5 Display apparatus 7 Holding | maintenance rotation apparatus 8, 8a Light source apparatus 9 Imaging device 10 Drive part 11 Position detection part 12, 12A, 12B Light source 20, 20A, 20B Imaging Element 20PX, 20PXA Pixel 32 Control unit 38 Calculation unit 39 Movement amount calculation unit 40 Storage unit

Claims (14)

測定対象に測定光を照射する照射部と、
前記測定光を撮像した撮像画像を生成するための、複数の画素により撮像領域が形成される撮像部と、
前記撮像画像に基づいて前記測定対象の形状を算出する算出部と、
前記撮像領域の第1撮像領域の画素の感度と、第2撮像領域の画素の感度とを異なる感度に設定可能な制御部と、
を備え、
前記制御部は、前記第1撮像領域の画素の感度を前記第2撮像領域の画素の感度よりも高い感度に設定することにより第1画像を生成し、前記第1撮像領域の画素の感度を前記第2撮像領域の画素の感度よりも低い感度に設定することにより、第2画像を生成し、
前記算出部は、前記第1画像及び前記第2画像を用いて前記測定対象の形状を算出する、形状測定装置。
An irradiating unit for irradiating the measuring object with measuring light;
An imaging unit in which an imaging region is formed by a plurality of pixels for generating a captured image obtained by imaging the measurement light;
A calculation unit for calculating the shape of the measurement object based on the captured image;
A control unit capable of setting the sensitivity of the pixels of the first imaging region of the imaging region and the sensitivity of the pixels of the second imaging region to different sensitivities;
With
The control unit generates a first image by setting the sensitivity of the pixels in the first imaging region to a sensitivity higher than the sensitivity of the pixels in the second imaging region, and sets the sensitivity of the pixels in the first imaging region. Generating a second image by setting the sensitivity to be lower than the sensitivity of the pixels in the second imaging region;
The shape calculation device, wherein the calculation unit calculates the shape of the measurement object using the first image and the second image.
前記制御部は、前記第1画像を生成する第1撮像領域の画素の感度と前記第2画像を生成する第2撮像領域の画素の感度とを、第1感度に設定し、前記第1画像を生成する第2撮像領域の画素の感度と前記第2画像を生成する第1撮像領域の画素の感度とを、第2感度に設定する、請求項1に記載の形状測定装置。   The control unit sets the sensitivity of the pixels in the first imaging region for generating the first image and the sensitivity of the pixels in the second imaging region for generating the second image as the first sensitivity, and sets the first image. The shape measuring device according to claim 1, wherein the sensitivity of the pixels in the second imaging region that generates the second image and the sensitivity of the pixels in the first imaging region that generates the second image are set to the second sensitivity. 前記算出部は、
前記第1画像と前記第2画像とを用いて、前記第1撮像領域及び前記第2撮像領域を、前記第1感度又は前記第2感度の一方として、第3画像を生成する、請求項2に記載の形状測定装置。
The calculation unit includes:
The third image is generated by using the first image area and the second image area as the first sensitivity or the second sensitivity using the first image and the second image. The shape measuring device described in 1.
前記算出部は、
前記第1画像での前記第1感度で生成される画像と、前記第2画像での前記第2感度で生成される画像とが同一である場合には、前記第1撮像領域と前記第2撮像領域とを前記第1感度又は前記第2感度の一方として前記第3画像を生成する、請求項3に記載の形状測定装置。
The calculation unit includes:
When the image generated with the first sensitivity in the first image is the same as the image generated with the second sensitivity in the second image, the first imaging region and the second image The shape measuring apparatus according to claim 3, wherein the third image is generated using an imaging region as one of the first sensitivity and the second sensitivity.
前記算出部は、
前記第3画像を生成可能である信号を生成し、
前記生成した信号を表示させる表示部をさらに備える、請求項3又は請求項4に記載の形状測定装置。
The calculation unit includes:
Generating a signal capable of generating the third image;
The shape measuring apparatus according to claim 3, further comprising a display unit that displays the generated signal.
前記算出部は、
前記第1画像の一部と前記第2画像の一部とを合成し、前記測定対象の形状を算出する請求項1から5のいずれか一項に記載の形状測定装置。
The calculation unit includes:
The shape measuring apparatus according to claim 1, wherein a part of the first image and a part of the second image are combined to calculate the shape of the measurement target.
前記算出部は、
前記撮像部の前記第1撮像領域に対応する前記第1画像の部分と前記撮像部の前記第2撮像領域に対応する前記第2画像の部分とを合成し、前記撮像部の前記第2撮像領域に対応する前記第1画像の部分と前記撮像部の前記第1撮像領域に対応する前記第2画像の部分とを合成して、前記測定対象の形状を算出する、請求項6に記載の形状測定装置。
The calculation unit includes:
The portion of the first image corresponding to the first imaging region of the imaging unit and the portion of the second image corresponding to the second imaging region of the imaging unit are combined, and the second imaging of the imaging unit. The shape of the measurement target is calculated by combining the portion of the first image corresponding to a region and the portion of the second image corresponding to the first imaging region of the imaging unit. Shape measuring device.
前記算出部は、
前記第1感度と前記第2感度とが異なる場合と、前記第1感度と前記第2感度とが等しい場合とで、異なる処理によって前記測定対象の形状を算出する、請求項2から5のいずれか一項に記載の形状測定装置。
The calculation unit includes:
The shape of the measurement object is calculated by different processing depending on whether the first sensitivity and the second sensitivity are different from each other and the first sensitivity and the second sensitivity are equal to each other. The shape measuring apparatus according to claim 1.
前記測定対象と、前記照射部及び前記撮像部とを相対移動させる移動部と、
前記相対移動の移動量を算出する移動量算出部と、をさらに備え、
前記移動量算出部は、前記第1画像が生成されるときの前記移動量算出部によって算出される前記相対移動の移動量を用いて、前記第2画像が生成されるときの前記相対移動の移動量を算出する、請求項1から請求項8のいずれか1項に記載の形状測定装置。
A moving unit that relatively moves the measurement object, the irradiation unit, and the imaging unit;
A movement amount calculation unit for calculating a movement amount of the relative movement;
The movement amount calculation unit uses the movement amount of the relative movement calculated by the movement amount calculation unit when the first image is generated, and uses the movement amount of the relative movement when the second image is generated. The shape measuring apparatus according to claim 1, wherein the movement amount is calculated.
前記制御部は、前記画素の露光時間を調整することで、前記画素の感度を設定する、請求項1から請求項9のいずれか1項に記載の形状測定装置。   The shape measuring apparatus according to claim 1, wherein the control unit sets the sensitivity of the pixel by adjusting an exposure time of the pixel. 前記撮像部は、
前記第1撮像領域は第1方向と平行に複数の前記画素が配列され、
前記第2撮像領域は前記第1方向と平行に複数の前記画素が配列され、
前記第1撮像領域及び前記第2撮像領域は、前記第1方向と交差する第2方向に配列されている、請求項1から請求項9のいずれか1項に記載の形状測定装置。
The imaging unit
In the first imaging region, a plurality of the pixels are arranged in parallel with the first direction,
In the second imaging region, a plurality of the pixels are arranged in parallel with the first direction,
The shape measuring apparatus according to claim 1, wherein the first imaging region and the second imaging region are arranged in a second direction that intersects the first direction.
測定対象に測定光を照射する照射部と、
前記測定光を撮像した撮像画像を生成するための、複数の画素により撮像領域が形成される撮像部と、
前記撮像画像に基づいて前記測定対象の形状を算出する算出部と、
前記撮像領域の第1撮像領域の画素の感度と、第2撮像領域の画素の感度とを異なる感度に設定可能な制御部と、
を含み、
前記撮像部は、
前記第1撮像領域及び前記第2撮像領域が第1方向と平行に複数の前記画素が配列され、かつ前記第1撮像領域及び前記第2撮像領域は、前記第1方向と交差する第2方向に配列され、
前記制御部は、前記第1撮像領域の画素の感度を前記第2撮像領域の画素の感度よりも高い感度に設定することにより第1画像を生成し、前記第1撮像領域の画素の感度を前記第2撮像領域の画素の感度よりも低い感度に設定することにより、第2画像を生成し、
前記算出部は、前記第1画像及び前記第2画像を用いて前記測定対象の形状を算出する、形状測定装置。
An irradiating unit for irradiating the measuring object with measuring light;
An imaging unit in which an imaging region is formed by a plurality of pixels for generating a captured image obtained by imaging the measurement light;
A calculation unit for calculating the shape of the measurement object based on the captured image;
A control unit capable of setting the sensitivity of the pixels of the first imaging region of the imaging region and the sensitivity of the pixels of the second imaging region to different sensitivities;
Including
The imaging unit
A plurality of the pixels are arranged in parallel with the first direction in the first imaging region and the second imaging region, and the first imaging region and the second imaging region are in a second direction intersecting the first direction. Arranged in
The control unit generates a first image by setting the sensitivity of the pixels in the first imaging region to a sensitivity higher than the sensitivity of the pixels in the second imaging region, and sets the sensitivity of the pixels in the first imaging region. Generating a second image by setting the sensitivity to be lower than the sensitivity of the pixels in the second imaging region;
The shape calculation device, wherein the calculation unit calculates the shape of the measurement object using the first image and the second image.
構造物の形状に関する設計情報に基づいて前記構造物を成形する成形装置と、
前記成形装置によって成形された前記構造物の形状を測定する請求項1から請求項12のいずれか1項に記載の形状測定装置と、
前記形状測定装置によって測定された前記構造物の形状を示す形状情報と前記設計情報とを比較する装置と、
を含む構造物製造システム。
A molding apparatus for molding the structure based on design information relating to the shape of the structure;
The shape measuring device according to any one of claims 1 to 12, which measures the shape of the structure formed by the forming device,
A device that compares the design information with shape information indicating the shape of the structure measured by the shape measuring device;
Structure manufacturing system including.
測定対象に測定光を照射する照射部と、前記測定光を撮像した撮像画像を生成するための、複数の画素により撮像領域が形成される撮像部と、前記撮像画像に基づいて前記測定対象の形状を算出する算出部と、を備えた形状測定装置を制御するにあたり、
前記撮像領域の第1撮像領域の画素を第1感度とし、第2撮像領域の画素を前記第1感度よりも高い感度である第2感度として、前記第1撮像領域の画素の感度を前記第2撮像領域の画素の感度よりも高い感度に設定することにより第1画像を生成することと、
前記第1撮像領域の画素を前記第2感度とし、前記第2撮像領域の画素を前記第1感度として、前記第1撮像領域の画素の感度を前記第2撮像領域の画素の感度よりも低い感度に設定することにより第2画像を生成することと、
前記第1画像及び前記第2画像に基づき、前記測定対象の形状を求めることと、
をコンピュータに実行させる、形状測定用コンピュータプログラム。
An irradiation unit that irradiates measurement light to the measurement object, an imaging unit that forms an imaging region by a plurality of pixels for generating a captured image obtained by imaging the measurement light, and the measurement target based on the captured image In controlling a shape measuring device including a calculation unit that calculates a shape,
The pixel of the first imaging region is the first sensitivity, the pixel of the second imaging region is the second sensitivity that is higher than the first sensitivity , and the sensitivity of the pixels of the first imaging region is the first sensitivity. Generating a first image by setting a sensitivity higher than the sensitivity of the pixels in the two imaging regions;
The pixel in the first imaging area is set as the second sensitivity, the pixel in the second imaging area is set as the first sensitivity, and the sensitivity of the pixel in the first imaging area is lower than the sensitivity of the pixel in the second imaging area. Generating a second image by setting the sensitivity;
Obtaining the shape of the measurement object based on the first image and the second image;
A computer program for shape measurement which causes a computer to execute.
JP2013200638A 2013-09-26 2013-09-26 Shape measuring apparatus, structure manufacturing system, and shape measuring computer program Active JP6331308B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013200638A JP6331308B2 (en) 2013-09-26 2013-09-26 Shape measuring apparatus, structure manufacturing system, and shape measuring computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013200638A JP6331308B2 (en) 2013-09-26 2013-09-26 Shape measuring apparatus, structure manufacturing system, and shape measuring computer program

Publications (2)

Publication Number Publication Date
JP2015068654A JP2015068654A (en) 2015-04-13
JP6331308B2 true JP6331308B2 (en) 2018-05-30

Family

ID=52835475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013200638A Active JP6331308B2 (en) 2013-09-26 2013-09-26 Shape measuring apparatus, structure manufacturing system, and shape measuring computer program

Country Status (1)

Country Link
JP (1) JP6331308B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101759800B1 (en) * 2015-12-30 2017-07-20 한국광기술원 reflection scanning device
WO2019058750A1 (en) * 2017-09-20 2019-03-28 倉敷紡績株式会社 Imaging system, imaging method, and imaging element
JP7367668B2 (en) 2018-02-27 2023-10-24 株式会社ニコン Image analysis device, analysis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method and program
WO2019244242A1 (en) 2018-06-19 2019-12-26 三菱電機株式会社 Optical distance measurement device and processing device
DE112018007930T5 (en) 2018-08-24 2021-05-06 Yamaha Hatsudoki Kabushiki Kaisha Three-dimensional measurement device, three-dimensional measurement method
CN113228307A (en) * 2018-12-28 2021-08-06 株式会社日本显示器 Detection device
WO2023238465A1 (en) * 2022-06-09 2023-12-14 日産自動車株式会社 Component inspection method and device
WO2024022868A1 (en) * 2022-07-29 2024-02-01 Inventio Ag Method of determining a position of an elevator car of an elevator system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5410138B2 (en) * 2009-03-31 2014-02-05 パナソニック デバイスSunx株式会社 Displacement sensor system and displacement sensor
JP2012215399A (en) * 2011-03-31 2012-11-08 Panasonic Industrial Devices Sunx Co Ltd Displacement sensor system and displacement sensor
JP2012257193A (en) * 2011-05-13 2012-12-27 Sony Corp Image processing apparatus, image pickup apparatus, image processing method, and program
JP5884309B2 (en) * 2011-06-24 2016-03-15 株式会社ニコン Measuring device, shape measuring device, shape measuring method, and structure manufacturing method
JP2013021660A (en) * 2011-07-14 2013-01-31 Sony Corp Image processing apparatus, image pickup apparatus, image processing method, and program
JP2013143729A (en) * 2012-01-12 2013-07-22 Sony Corp Imaging device, imaging apparatus, electronic apparatus, and imaging method

Also Published As

Publication number Publication date
JP2015068654A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
JP6331308B2 (en) Shape measuring apparatus, structure manufacturing system, and shape measuring computer program
JP6128219B2 (en) Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, shape measuring program, and recording medium
KR101984343B1 (en) Profile measuring apparatus, structure manufacturing system, method for measuring profile, method for manufacturing structure, program for measuring profile and non-transitory computer readable medium
US7142312B2 (en) Laser digitizer system for dental applications
JP5189287B2 (en) Dental laser digitizer system
JP5936357B2 (en) Attitude detector, contact probe, and multi-sensing probe
JP6396338B2 (en) Extraoral dental scanner
JP2016528972A (en) System, method, and computer program for 3D contour data collection and caries detection
JP2010537182A (en) Apparatus and method for performing phase analysis measurement
JP2006514739A5 (en)
TW201702553A (en) Three-dimensional measurement device whereby higher-precision measurement can be achieved within a shorter time when performing three-dimensional measurement using a phase shift method
JP2021113832A (en) Surface shape measurement method
JP2012215496A (en) Shape measuring device
JP6392044B2 (en) Position measuring device
JP7085725B2 (en) Surface shape measuring device and surface shape measuring method
JP2017062159A (en) Defect inspection device and defect inspection method
JP2023176026A (en) Method for determining scan range
JP6702343B2 (en) Shape measuring device, structure manufacturing system, and shape measuring method
JP2007163429A (en) Three-dimensional distance measuring method, and instrument therefor
JP6287153B2 (en) Sensor unit, shape measuring device, and structure manufacturing system
JP2014035266A (en) Confocal microscope
JP6820516B2 (en) Surface shape measurement method
JP6880396B2 (en) Shape measuring device and shape measuring method
JP2018115988A (en) Front face shape measurement device measurement preparation alignment method, and front face shape measurement device
JP2021124429A (en) Scanning measurement method and scanning measurement device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180416

R150 Certificate of patent or registration of utility model

Ref document number: 6331308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250