JP4670700B2 - 3D shape measuring device - Google Patents

3D shape measuring device Download PDF

Info

Publication number
JP4670700B2
JP4670700B2 JP2006086986A JP2006086986A JP4670700B2 JP 4670700 B2 JP4670700 B2 JP 4670700B2 JP 2006086986 A JP2006086986 A JP 2006086986A JP 2006086986 A JP2006086986 A JP 2006086986A JP 4670700 B2 JP4670700 B2 JP 4670700B2
Authority
JP
Japan
Prior art keywords
dimensional shape
shape data
dimensional
measurement object
imaging apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006086986A
Other languages
Japanese (ja)
Other versions
JP2007263638A (en
Inventor
敏 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pulstec Industrial Co Ltd
Original Assignee
Pulstec Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pulstec Industrial Co Ltd filed Critical Pulstec Industrial Co Ltd
Priority to JP2006086986A priority Critical patent/JP4670700B2/en
Publication of JP2007263638A publication Critical patent/JP2007263638A/en
Application granted granted Critical
Publication of JP4670700B2 publication Critical patent/JP4670700B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、測定対象物に光を照射するとともに、同測定対象物からの反射光を用いて同測定対象物の表面の3次元形状を表す3次元形状データを出力する3次元形状撮像装置を備え、同3次元形状データに基づいて測定対象物の3次元形状を表示または3次元形状に関する特性値を計算する3次元形状測定装置に関する。   The present invention provides a three-dimensional shape imaging apparatus that irradiates a measurement object with light and outputs three-dimensional shape data representing the three-dimensional shape of the surface of the measurement object using reflected light from the measurement object. And a three-dimensional shape measuring apparatus for displaying a three-dimensional shape of a measurement object or calculating a characteristic value related to the three-dimensional shape based on the three-dimensional shape data.

従来から、測定対象物にレーザ光などの光を照射して測定対象物からの反射光を受光することにより、同測定対象物の3次元表面形状を測定する3次元形状測定装置が知られている。このような3次元形状測定装置は、測定対象物に光を照射するとともに、同測定対象物からの反射光を受光して同測定対象物の表面の3次元形状を表す3次元形状データを出力する3次元形状撮像装置を備えている。例えば、下記特許文献1に記載の3次元形状測定装置においては、一定の光量のレーザ光を出射するレーザ光源と、同レーザ光源から測定対象物の表面までの距離に応じた位置で測定対象物からの反射光を受光する受光素子アレイとを有する3次元形状撮像装置とを備えている。
特開平5−99617号公報
Conventionally, there has been known a three-dimensional shape measuring apparatus that measures a three-dimensional surface shape of a measurement object by irradiating the measurement object with light such as laser light and receiving reflected light from the measurement object. Yes. Such a three-dimensional shape measuring apparatus irradiates the measurement object with light, receives reflected light from the measurement object, and outputs three-dimensional shape data representing the three-dimensional shape of the surface of the measurement object. A three-dimensional shape imaging device is provided. For example, in the three-dimensional shape measuring apparatus described in Patent Document 1 below, the measurement object is at a position corresponding to the laser light source that emits a constant amount of laser light and the distance from the laser light source to the surface of the measurement object. And a three-dimensional imaging device having a light receiving element array for receiving reflected light from the.
Japanese Patent Laid-Open No. 5-99617

しかしながら、このような3次元形状測定装置においては、レーザ光が照射される測定対象物の表面が照射されるレーザ光の光軸に対して直交していない場合、換言すれば、同表面がレーザ光の光軸に対して平行に近いほど、前記受光素子アレイによって受光される反射光の光量が少なくなる。例えば、図11(A)に示す測定対象物の縁部の面取り部分Cや、図11(B)に示す同縁部の曲面部分Rに対して図示上方からレーザ光Lを照射した場合、同面取り部分Cおよび曲面部分Rに照射されたレーザ光Lの大部分が入射方向とは異なる方向に反射するため、受光素子アレイに導かれる反射光の光量が減少する。この結果、照射されるレーザ光の光軸に対して平行に近い測定対象物の表面の3次元形状の測定精度が悪化するという問題がある。具体的には、例えば、測定対象物における孔部の孔径や溝部の溝幅が実際の孔径や溝幅より大きく測定されたり、測定対象物の外形が実際の外形より小さく測定されるという問題がある。   However, in such a three-dimensional shape measuring apparatus, when the surface of the measurement object irradiated with the laser beam is not orthogonal to the optical axis of the irradiated laser beam, in other words, the surface is a laser. The closer to parallel to the optical axis of light, the smaller the amount of reflected light received by the light receiving element array. For example, when the chamfered portion C of the edge of the measurement object shown in FIG. 11A and the curved surface portion R of the same edge shown in FIG. Since most of the laser light L irradiated to the chamfered portion C and the curved surface portion R is reflected in a direction different from the incident direction, the amount of reflected light guided to the light receiving element array is reduced. As a result, there is a problem that the measurement accuracy of the three-dimensional shape of the surface of the measurement object that is nearly parallel to the optical axis of the irradiated laser light is deteriorated. Specifically, for example, there is a problem that the hole diameter or groove width of the hole in the measurement object is measured larger than the actual hole diameter or groove width, or the outer shape of the measurement object is measured smaller than the actual outer shape. is there.

本発明は上記問題に対処するためなされたもので、その目的は、光源から出射され測定対象物に照射される光の光軸に対して平行に近い測定対象物の表面の3次元形状も精度良く測定することが可能な3次元形状測定装置を提供することにある。   The present invention has been made to address the above problems, and its purpose is to accurately measure the three-dimensional shape of the surface of the measurement object that is nearly parallel to the optical axis of the light emitted from the light source and applied to the measurement object. An object of the present invention is to provide a three-dimensional shape measuring apparatus that can measure well.

上記目的を達成するため、本発明の特徴は、レーザ光源からの出射レーザ光をその向きを変更しながら測定対象物に照射して測定対象物をレーザ光で走査し、出射レーザ光の光路に追従して回転し、測定対象物で反射された反射レーザ光を集光する結像レンズ、及び前記集光した反射レーザ光を受光するための複数の受光素子を配置させたセンサからなる距離検出器で測定対象物までの距離を検出し、前記出射レーザ光の向きと前記検出される距離とを用いて測定対象物の表面の3次元形状を表す3次元形状データを出力する3次元形状撮像装置と、3次元形状撮像装置から出射されたレーザ光を反射して、3次元形状撮像装置から出射され測定対象物に照射されるレーザ光とは異なる方向から測定対象物に導くとともに、同測定対象物からの反射光を反射して、3次元形状撮像装置に導く反射ミラーと、測定対象物から反射ミラーを介して3次元形状撮像装置に導かれる反射光に基づく3次元形状データによって表された測定対象物の表面の3次元形状を、測定対象物から直接前記3次元形状撮像装置に導かれる反射光に基づく3次元形状データによって表された測定対象物の表面の3次元形状に合成する3次元形状データ合成手段とを備えたことにある。 In order to achieve the above object, the present invention is characterized by irradiating a measurement object with a laser beam emitted from a laser light source while changing its direction , scanning the measurement object with the laser beam, and in the optical path of the emission laser beam. Distance detection comprising an imaging lens that condenses the reflected laser beam reflected and rotated by the object to be measured , and a sensor in which a plurality of light receiving elements for receiving the collected reflected laser beam are arranged. detecting the distance to the measurement object in the vessel, three-dimensional shape and outputs the three-dimensional shape data indicating a three-dimensional shape of the surface of the measurement object using the distance to be oriented to the detection of the emitted laser beam The laser beam emitted from the imaging device and the three-dimensional shape imaging device is reflected and guided to the measurement object from a different direction from the laser beam emitted from the three-dimensional shape imaging device and irradiated on the measurement target. From measurement object A reflection mirror that reflects reflected light and guides it to the three-dimensional shape imaging device, and a measurement object represented by three-dimensional shape data based on the reflected light that is guided from the measurement object to the three-dimensional shape imaging device via the reflection mirror 3D shape data for synthesizing the 3D shape of the surface of the object to the 3D shape of the surface of the measurement object represented by the 3D shape data based on the reflected light directly guided from the measurement object to the 3D shape imaging device And synthesizing means.

このように構成された本発明の特徴によれば、3次元形状撮像装置から出射されたレーザ光を反射ミラーによって反射させることにより、3次元形状撮像装置から出射され直接測定対象物を照射するレーザ光とは異なる方向から測定対象物にレーザ光を照射している。そして、同異なる方向から照射されたレーザ光による測定対象物からの反射光を再び反射ミラーによって反射させることにより、同反射光を3次元形状撮像装置に導いている。すなわち、測定対象物に対して互いに異なる方向からレーザ光を照射して測定対象物の測定を行っている。これにより、3次元形状撮像装置から直接測定対象物を照射するレーザ光の光軸が同測定対象物の照射面に対して平行に近い場合であっても、同レーザ光とは異なる方向から導かれるレーザ光によって測定対象物からの反射光を3次元形状撮像装置に導くことができる。この結果、レーザ光源から出射され測定対象物に照射されるレーザ光の光軸に対して平行に近い測定対象物の表面の3次元形状も精度良く測定することができる。 According to a feature of the thus constructed present invention, by reflecting by the reflecting mirror of the laser beam emitted from the three-dimensional shape image pickup apparatus, a laser for irradiating a directly emitted measurement object from the three-dimensional shape image pickup apparatus The object to be measured is irradiated with laser light from a direction different from that of the light. Then, the reflected light from the measurement object by the laser light irradiated from the same different direction is reflected again by the reflecting mirror, thereby guiding the reflected light to the three-dimensional shape imaging apparatus. That is, the measurement object is measured by irradiating the measurement object with laser beams from different directions. As a result, even when the optical axis of the laser beam that directly irradiates the measurement object from the three-dimensional shape imaging apparatus is nearly parallel to the irradiation surface of the measurement object, the laser beam is guided from a different direction from the laser beam. Reflected light from the measurement object can be guided to the three-dimensional shape imaging apparatus by the laser light. As a result, the three-dimensional shape of the surface of the measurement object that is nearly parallel to the optical axis of the laser light emitted from the laser light source and applied to the measurement object can be measured with high accuracy.

また、本発明の他の特徴は、前記3次元形状撮像装置において、前記反射ミラーを、3次元形状撮像装置から出射されたレーザ光を測定対象物の特定部位に対して略垂直に入射させるものとしたことにある。これによれば、反射ミラーを介して照射されるレーザ光の光軸が測定対象物に対して略直交するため、同測定対象物からより多くの反射光を3次元形状撮像装置に導くことができる。この結果、さらに精度良く測定対象物の測定を行うことができる。 According to another aspect of the present invention, in the three-dimensional shape imaging apparatus, the reflection mirror causes the laser beam emitted from the three-dimensional shape imaging apparatus to be incident substantially perpendicularly on a specific part of the measurement target. It is in that. According to this, since the optical axis of the laser light irradiated through the reflection mirror is substantially orthogonal to the measurement object, more reflected light can be guided from the measurement object to the three-dimensional shape imaging apparatus. it can. As a result, the measurement object can be measured with higher accuracy.

また、本発明の他の特徴は、前記3次元形状撮像装置において、前記反射ミラーを、3次元形状撮像装置から出射されたレーザ光を測定対象物の互いに対向する2つの面に対してそれぞれ導く第1および第2の反射ミラーで構成したことにある。これによれば、互いに対向する2つの面、例えば溝部を形成する2つの側面に対してそれぞれレーザ光を照射することができ、同溝部の測定を精度良く行うことができる。この場合、さらに、3次元形状データ合成手段によって合成された測定対象物の3次元形状を用いて、測定対象物における前記互いに対向する2つの面の面間距離を測定する面間距離測定手段を設けてもよい。これによれば、前記溝部の溝幅を精度良く測定することができる。 Another feature of the present invention is that, in the three-dimensional shape imaging apparatus, the reflection mirror guides the laser light emitted from the three-dimensional shape imaging apparatus to two opposite surfaces of the measurement object, respectively. That is, the first and second reflecting mirrors are used. According to this, it is possible to irradiate laser light to two surfaces facing each other, for example, two side surfaces forming the groove portion, and to measure the groove portion with high accuracy. In this case, the inter-surface distance measuring means for measuring the inter-surface distance between the two surfaces facing each other in the measuring object using the three-dimensional shape of the measuring object synthesized by the three-dimensional shape data synthesizing means. It may be provided. According to this, the groove width of the groove part can be measured with high accuracy.

また、本発明の他の特徴は、前記3次元形状撮像装置において、3次元形状撮像装置から出射され測定対象物に照射されるレーザ光の測定対象物上における照射範囲と、3次元形状撮像装置から出射され反射ミラーを介して測定対象物に照射されるレーザ光の測定対象物体上における照射範囲とが重なるように反射ミラーを設けたことにある。これによれば、3次元形状撮像装置の測定対象空間内に配置された測定対象物の全面を測定する場合、同測定対象物の3次元形状を漏れなく測定することができる。 Another feature of the present invention is that in the three-dimensional shape imaging apparatus, the irradiation range on the measurement object of the laser light emitted from the three-dimensional shape imaging apparatus and irradiated on the measurement object, and the three-dimensional shape imaging apparatus The reflection mirror is provided so that the irradiation range on the measurement target object of the laser beam emitted from the laser beam and irradiated on the measurement target object via the reflection mirror overlaps. According to this, when measuring the whole surface of the measurement object arranged in the measurement object space of the three-dimensional shape imaging apparatus, the three-dimensional shape of the measurement object can be measured without omission.

また、本発明の他の特徴は、前記3次元形状撮像装置において、さらに、前記反射ミラーによって測定対象物に導かれるレーザ光の光軸の位置または方向を、反射ミラーの位置または向きを変化させることにより変更する光軸変更手段を備えたことにある。これによれば、互いに異なる形状の複数の測定対象物を測定する場合であっても、測定対象物の形状に応じて反射ミラーの位置および向きを調整することができる。 Another feature of the present invention is that in the three-dimensional shape imaging apparatus, the position or direction of the optical axis of the laser light guided to the measurement object by the reflection mirror is changed. It is provided with an optical axis changing means for changing by this. According to this, even when measuring a plurality of measurement objects having different shapes, the position and orientation of the reflection mirror can be adjusted according to the shape of the measurement object.

以下、本発明に係る3次元形状測定装置の一実施形態について図面を参照しながら説明する。図1は、測定対象物であるワークWK1とワークWK2との間の隙間、およびワークWK1の上面とワークWK2の上面との段差を測定する3次元形状測定装置の基本構成を示す概略図である。ここで、ワークWK1およびワークWK2は、それぞれ平板状に形成されており、互いに隣り合った状態で配置されている。ワークWK1およびワークWK2における互いに対向する側面である端部T1,T2は、それぞれ円弧状に形成されている。なお、図1は、ワークWK1とワークWK2との間の隙間を中心としたワークWK1,WK2の一部を示している。この3次元形状測定装置は、ワークWK1,WK2の3次元形状を測定する3次元形状撮像装置10を備えている。   Hereinafter, an embodiment of a three-dimensional shape measuring apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram illustrating a basic configuration of a three-dimensional shape measuring apparatus that measures a gap between a workpiece WK1 and a workpiece WK2, which are measurement objects, and a step between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2. . Here, the workpiece WK1 and the workpiece WK2 are each formed in a flat plate shape, and are arranged adjacent to each other. End portions T1 and T2, which are side surfaces facing each other in the workpiece WK1 and the workpiece WK2, are each formed in an arc shape. FIG. 1 shows a part of the workpieces WK1 and WK2 around the gap between the workpiece WK1 and the workpiece WK2. The three-dimensional shape measuring apparatus includes a three-dimensional shape imaging device 10 that measures the three-dimensional shapes of the workpieces WK1 and WK2.

3次元形状撮像装置10は、箱型に形成されており、ワークWK1,WK2に向けてレーザ光を出射するとともに同ワークWK1,WK2からの反射光を受光して、ワークWK1,WK2の3次元立体表面形状を測定して同測定結果を表す測定情報を出力する。この3次元形状撮像装置10としては、ワークWK1,WK2の3次元表面形状を測定するとともに同測定した3次元表面形状を表す信号を出力するものであれば、いかなる3次元形状測定装置をも利用できる。本実施形態においては、レーザ光を用いて3角測量法に従って物体の3次元表面形状を測定するものを簡単に紹介しておく。   The three-dimensional shape imaging apparatus 10 is formed in a box shape, emits laser light toward the workpieces WK1 and WK2, and receives reflected light from the workpieces WK1 and WK2, and receives the three-dimensional shapes of the workpieces WK1 and WK2. Measurement information representing the measurement result is output by measuring the three-dimensional surface shape. As this three-dimensional shape imaging device 10, any three-dimensional shape measuring device can be used as long as it measures the three-dimensional surface shape of the workpieces WK1 and WK2 and outputs a signal representing the measured three-dimensional surface shape. it can. In the present embodiment, a brief description will be given of measuring a three-dimensional surface shape of an object according to a triangulation method using laser light.

この3次元形状撮像装置においては、レーザ光源から物体に向けて出射されるレーザ光の進行方向にほぼ垂直な仮想平面を想定するとともに、同仮想平面上にて互いに直交するX軸方向およびY軸方向に沿って分割した多数の微小エリアを想定する。そして、3次元形状撮像装置は、前記多数の微小エリアにレーザ光を順次照射し、物体からの反射光によって前記微小エリアが規定する物体表面までの距離をZ軸方向距離として順次検出して、物体の表面を微小エリアずつに分割した各分割エリア位置を表すX,Y,Z座標に関する情報を得て、同3次元形状撮像装置に面した物体表面の形状を測定するものである。   In this three-dimensional shape imaging apparatus, a virtual plane that is substantially perpendicular to the traveling direction of laser light emitted from a laser light source toward an object is assumed, and an X-axis direction and a Y-axis that are orthogonal to each other on the virtual plane. Assume a large number of minute areas divided along the direction. The three-dimensional shape imaging apparatus sequentially irradiates the plurality of minute areas with laser light, sequentially detects the distance to the object surface defined by the minute areas by reflected light from the object as a Z-axis direction distance, Information on X, Y, and Z coordinates representing each divided area position obtained by dividing the surface of the object into minute areas is obtained, and the shape of the object surface facing the same three-dimensional shape imaging apparatus is measured.

したがって、この3次元形状撮像装置は、出射レーザ光の向きをX軸方向に変化させるX軸方向走査器と、出射レーザ光の向きをY軸方向に変化させるY軸方向走査器と、物体表面にて反射された反射レーザ光を受光して物体表面までの距離を検出する距離検出器とを備えている。X軸方向走査器およびY軸方向走査器としては、レーザ光源からの出射レーザ光の光路をX軸方向およびY軸方向に独立に変化させ得る機構であればよく、例えば、レーザ光源自体をX軸方向およびY軸方向の軸線回りに電動モータによって回転させたり、出射レーザ光の光路に設けられてその方向を変更するガルバノミラーをX軸方向およびY軸方向の軸線回りに電動モータによって回転させる機構を利用できる。距離検出器としては、前記出射レーザ光の光路に追従して回転し、物体表面にて反射された反射レーザ光を集光する結像レンズおよび同集光したレーザ光を受光するCCDなどの複数の受光素子を一列に配置させたラインセンサからなり、ラインセンサによる反射レーザ光の受光位置によって物体表面までの距離を検出する機構を利用できる。   Accordingly, the three-dimensional shape imaging apparatus includes an X-axis direction scanner that changes the direction of the emitted laser light in the X-axis direction, a Y-axis direction scanner that changes the direction of the emitted laser light in the Y-axis direction, and an object surface. And a distance detector for detecting the distance to the object surface by receiving the reflected laser beam reflected by the. The X-axis direction scanner and the Y-axis direction scanner may be any mechanism that can change the optical path of the laser beam emitted from the laser light source independently in the X-axis direction and the Y-axis direction. Rotate by an electric motor around the axis in the axial direction and the Y-axis direction, or rotate a galvano mirror provided in the optical path of the emitted laser light and changing its direction by an electric motor around the axis in the X-axis direction and the Y-axis direction The mechanism is available. As the distance detector, a plurality of imaging lenses such as an imaging lens that condenses the reflected laser light reflected on the object surface and rotates following the optical path of the emitted laser light, and a CCD that receives the condensed laser light are used. It is possible to use a mechanism for detecting the distance to the object surface based on the light receiving position of the reflected laser beam by the line sensor.

したがって、このような3次元形状撮像装置は、物体の表面を微小エリアずつに分割した各分割エリア位置を表すX,Y,Z座標に関する情報として、X軸方向走査器による出射レーザ光の基準方向に対するX軸方向への傾きθx、Y軸方向走査器による出射レーザ光の基準方向に対するY軸方向への傾きθy、および距離検出器による物体表面までの距離Lzとが、前記仮想したX軸方向およびY軸方向に沿って分割した多数の微小エリアごとに出力される。より具体的には、X軸およびY軸方向への傾きθx,θyは、電動モータの基準位置からの回転角である。また、物体表面までの距離Lzは、ラインセンサにおける反射レーザ光の受光位置である。   Therefore, such a three-dimensional shape imaging apparatus uses the reference direction of the laser beam emitted by the X-axis direction scanner as information on the X, Y, and Z coordinates representing the divided area positions obtained by dividing the surface of the object into minute areas. The inclination θx in the X-axis direction with respect to the angle, the inclination θy in the Y-axis direction with respect to the reference direction of the laser beam emitted by the Y-axis direction scanner, and the distance Lz to the object surface by the distance detector are the virtual X-axis direction. And output for each of a large number of minute areas divided along the Y-axis direction. More specifically, the inclinations θx and θy in the X-axis and Y-axis directions are rotation angles from the reference position of the electric motor. Further, the distance Lz to the object surface is the light receiving position of the reflected laser beam in the line sensor.

この3次元形状撮像装置10は、支持具20によって支持されている。支持具20は、平板上のベース21上に垂直方向に設けられた支柱22を備えている。支柱22には、その上部にレーザ光をベース21側に向けて出射する向きで3次元形状撮像装置10が固定されているとともに、その下部にジョイント23を介して棒状の第1アーム24が水平方向に設けられている。ジョイント23は、支柱22上における3次元形状撮像装置10とベース21との間の任意の位置で、同支柱22の軸線回りにおける任意の向きに第1アーム24を固定できるようになっている。ジョイント23には、ハンドル23aが設けられており、このハンドル23aを回転操作することにより第1アーム24を支柱22に対して固定状態および変位可能状態とすることができる。   This three-dimensional shape imaging apparatus 10 is supported by a support tool 20. The support 20 includes a support column 22 provided in a vertical direction on a base 21 on a flat plate. The three-dimensional imaging device 10 is fixed to the support 22 in a direction in which laser light is emitted toward the base 21 side, and a rod-shaped first arm 24 is horizontally connected to a lower portion of the support 22 via a joint 23. In the direction. The joint 23 can fix the first arm 24 in an arbitrary direction around the axis of the column 22 at an arbitrary position between the three-dimensional shape imaging device 10 and the base 21 on the column 22. The joint 23 is provided with a handle 23a, and the first arm 24 can be fixed and displaceable with respect to the column 22 by rotating the handle 23a.

第1アーム24の両端部には、ジョイント25,26を介して同第1アーム24に直交した状態で棒状の第2アーム27,28がそれぞれ設けられている。ジョイント25,26は、第1アーム24の各端部とジョイント23との各間の任意の位置で、同第1アーム24の軸線回りにおける任意の向きに第2アーム27,28をそれぞれ固定できるようになっている。また、これらのジョイント25,26は、第2アーム27,28の各軸線回りにおける任意の角度で同第2アーム27,28をそれぞれ固定できるようになっている。ジョイント25,26には、ハンドル25a,26aがそれぞれ設けられており、これらのハンドル25a,26aを回転操作することにより第2アーム27,28を第1アーム24に対してそれぞれ固定状態および変位可能状態にすることができる。また、ハンドル25a,26aを回転操作することにより第2アーム27,28を同第2アーム27,28の各軸線回りに固定状態および変位可能状態にすることができる。第2アーム27,28の各中央部は、それぞれ四角柱状に形成されており、これらの四角柱状に形成された部分の1つの側面に平板状の反射ミラー31,32がそれぞれ固定されている。   At both ends of the first arm 24, rod-shaped second arms 27 and 28 are provided in a state orthogonal to the first arm 24 via joints 25 and 26, respectively. The joints 25 and 26 can fix the second arms 27 and 28 at arbitrary positions between the end portions of the first arm 24 and the joints 23 in arbitrary directions around the axis of the first arm 24, respectively. It is like that. The joints 25 and 26 can fix the second arms 27 and 28 at arbitrary angles around the axes of the second arms 27 and 28, respectively. The joints 25 and 26 are provided with handles 25a and 26a, respectively, and the second arms 27 and 28 can be fixed and displaced with respect to the first arm 24 by rotating the handles 25a and 26a, respectively. Can be in a state. Further, by rotating the handles 25a and 26a, the second arms 27 and 28 can be fixed and displaceable around the respective axes of the second arms 27 and 28. Each central part of the second arms 27 and 28 is formed in a quadrangular prism shape, and flat reflecting mirrors 31 and 32 are fixed to one side surface of the portion formed in the quadrangular column shape.

反射ミラー31,32は、方形の平板状に形成されており、3次元形状撮像装置10から出射されたレーザ光を反射してワークWK1,WK2に導くとともに、同ワークWK1,WK2からの反射光を反射して3次元形状撮像装置10に導くためのミラーである。これらの反射ミラー31,32は、第1アーム24および第2アーム27,28の各位置および各軸線回りの角度を調整することにより3次元形状撮像装置10の測定対象空間内に位置するように配置される。   The reflection mirrors 31 and 32 are formed in a rectangular flat plate shape, reflect the laser light emitted from the three-dimensional shape imaging apparatus 10 and guide it to the workpieces WK1 and WK2, and the reflected light from the workpieces WK1 and WK2. This is a mirror for reflecting the light to the three-dimensional shape imaging apparatus 10. These reflection mirrors 31 and 32 are positioned in the measurement target space of the three-dimensional shape imaging apparatus 10 by adjusting the positions of the first arm 24 and the second arms 27 and 28 and the angles around the respective axes. Be placed.

この3次元形状撮像装置10には、コントローラ41および3次元画像処理装置42が接続されている。コントローラ41は、キーボードからなる入力装置43からの指示に従って、3次元形状撮像装置10の作動を制御する。また、コントローラ41は、入力装置43からの指示に従って3次元画像処理装置42の作動を制御するとともに、同入力装置43にて入力されたデータを3次元画像処理装置42に供給する。   A controller 41 and a three-dimensional image processing device 42 are connected to the three-dimensional shape imaging device 10. The controller 41 controls the operation of the three-dimensional shape imaging apparatus 10 in accordance with an instruction from the input device 43 that is a keyboard. Further, the controller 41 controls the operation of the three-dimensional image processing device 42 in accordance with an instruction from the input device 43 and supplies data input through the input device 43 to the three-dimensional image processing device 42.

3次元画像処理装置42は、コンピュータ装置によって構成され図3に示すプログラムを実行することにより形状データ合成関数Fを計算するとともに、図7および図9に示す各プログラムを実行することにより、測定対象空間内に位置する物体の3次元画像を表示するための3次元形状データを生成して、同測定対象空間内に位置するワークWK1とワークWK2との間の隙間、およびワークWK1の上面とワークWK2の上面との段差を計算する。この3次元画像処理装置42には、表示装置44が接続されている。表示装置44は、液晶ディスプレイまたはCRTなどで構成され、3次元画像処理装置42から出力されるワークWK1とワークWK2との間の隙間の値、およびワークWK1の上面とワークWK2の上面との段差の値や、同3次元画像処理装置42から出力される3次元形状データに基づいて測定対象空間内に位置する物体の3次元画像を表示する。 The three-dimensional image processing device 42 is configured by a computer device and calculates the shape data synthesis function F S by executing the program shown in FIG. 3 and performs measurement by executing each program shown in FIGS. 7 and 9. Three-dimensional shape data for displaying a three-dimensional image of an object located in the target space is generated, a gap between the workpiece WK1 and the workpiece WK2 located in the measurement target space, and an upper surface of the workpiece WK1 The level difference from the upper surface of the workpiece WK2 is calculated. A display device 44 is connected to the three-dimensional image processing device 42. The display device 44 is configured by a liquid crystal display or a CRT, and the value of the gap between the workpiece WK1 and the workpiece WK2 output from the three-dimensional image processing device 42, and the level difference between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2. And a three-dimensional image of an object located in the measurement target space based on the three-dimensional image data output from the three-dimensional image processing device 42.

次に、このように構成した3次元形状測定装置の作動について説明する。まず、作業者は、反射ミラー31,32の位置および向きを調整する。作業者は、図1に示すように、互いが隣り合って配置されたワークWK1とワークWK2との間の隙間上に3次元形状測定装置を配置して、第1アーム24および第2アーム27,28の位置および各軸線回りの角度を変位させることにより、反射ミラー31,32の位置および向きを調整する。具体的には、3次元形状撮像装置10から出射され反射ミラー31によって反射されるレーザ光の光軸が、ワークWK2の端部T2の表面に垂直になるように反射ミラー31の位置および向きを調整する。すなわち、レーザ光がワークWK2の端部T2の表面に対して垂直方向から照射されるように反射ミラー31の位置および向きを調整する。また、3次元形状撮像装置10から出射され反射ミラー32によって反射されるレーザ光の光軸が、ワークWK1の端部T1の表面に垂直になるように反射ミラー32の位置および向きを調整する。すなわち、レーザ光がワークWK1の端部T1の表面に対して垂直方向から照射されるように反射ミラー32の位置および向きを調整する。なお、このワークWK1,WK2における各端部T1,T2が本発明に係る特定部位である。   Next, the operation of the three-dimensional shape measuring apparatus configured as described above will be described. First, the operator adjusts the position and orientation of the reflection mirrors 31 and 32. As shown in FIG. 1, the operator arranges the three-dimensional shape measuring device in the gap between the workpieces WK1 and WK2 arranged adjacent to each other, and the first arm 24 and the second arm 27 are arranged. , 28 and the angle around each axis are displaced to adjust the position and orientation of the reflecting mirrors 31, 32. Specifically, the position and orientation of the reflection mirror 31 are adjusted so that the optical axis of the laser beam emitted from the three-dimensional shape imaging apparatus 10 and reflected by the reflection mirror 31 is perpendicular to the surface of the end T2 of the workpiece WK2. adjust. That is, the position and orientation of the reflection mirror 31 are adjusted so that the laser light is irradiated from the vertical direction to the surface of the end T2 of the workpiece WK2. Further, the position and orientation of the reflection mirror 32 are adjusted so that the optical axis of the laser light emitted from the three-dimensional shape imaging apparatus 10 and reflected by the reflection mirror 32 is perpendicular to the surface of the end T1 of the workpiece WK1. That is, the position and orientation of the reflection mirror 32 are adjusted so that the laser light is irradiated from the vertical direction with respect to the surface of the end portion T1 of the workpiece WK1. Note that the end portions T1 and T2 of the workpieces WK1 and WK2 are specific portions according to the present invention.

次に、作業者は、図2に示すように、平板状に形成された平板治具JG1上に3次元形状測定装置を載置し、入力装置43を操作して3次元画像処理装置42に形状データ合成関数Fの計算を指示する。形状データ合成関数Fは、反射ミラー31,32を介して3次元形状撮像装置10に導かれる反射光に基づいて生成される3次元形状データ(以下、「間接3次元形状データ」という)によって表されるワークWK1,WK2の3次元形状を、ワークWK1,WK2から直接3次元形状撮像装置10に導かれる反射光に基づいて生成される3次元形状データ(以下、「直接3次元形状データ」という)によって表されるワークWK1,WK2の3次元形状に合成するための関数である。この場合、直接3次元形状データは3次元形状撮像装置10に関する座標系であるカメラ座標系Cによって表された3次元形状データである。ここで、カメラ座標系Cは、互いに直交する3つの座標軸(X軸,Y軸,Z軸)からなり、3次元形状撮像装置10の特定点を原点とする3次元座標系である。 Next, as shown in FIG. 2, the operator places the three-dimensional shape measuring device on the flat plate jig JG1 formed in a flat plate shape, and operates the input device 43 to set the three-dimensional image processing device 42. The calculation of the shape data synthesis function F S is instructed. Shape data combining function F S is three-dimensional shape data that is generated based on the reflected light is guided to the three-dimensional shape image pickup device 10 via the reflecting mirrors 31 and 32 (hereinafter, referred to as "indirect three-dimensional shape data") by Three-dimensional shape data (hereinafter referred to as “direct three-dimensional shape data”) generated based on reflected light that is directly guided from the workpieces WK1 and WK2 to the three-dimensional shape imaging device 10 as the three-dimensional shapes of the workpieces WK1 and WK2 represented. Is a function for synthesizing the workpieces WK1 and WK2 into a three-dimensional shape. In this case, the direct 3D shape data is 3D shape data represented by a camera coordinate system C which is a coordinate system related to the 3D shape imaging apparatus 10. Here, the camera coordinate system C is a three-dimensional coordinate system that includes three coordinate axes (X axis, Y axis, and Z axis) that are orthogonal to each other and that has a specific point of the three-dimensional shape imaging apparatus 10 as an origin.

そして、間接3次元形状データも計算上は、カメラ座標系Cによる3次元形状データとして計算されるが、この計算には反射ミラー31,32によってレーザ光および反射光の進行方向が変更されていることが考慮されていない。すなわち、間接3次元形状データは、3次元形状撮像装置から出射されたレーザ光が反射ミラー31,32を介さずそのまま直進してワークWK1,WK2に達した後、同ワークWK1,WK2で反射して反射ミラー31,32を介さずにそのまま直進して3次元形状撮像装置10に導かれたものとして計算されたデータである。換言すれば、間接3次元形状データは反射ミラー31,32ごとに存在するカメラ座標系Cとは別の座標系C’,C’’(以下、カメラ座標系C’,C’’という)によって表された3次元形状データであるといえる。したがって、直接3次元形状データによって表されるワークWK1,WK2の3次元形状と間接3次元形状データによって表されるワークWK1,WK2の3次元形状とを合成するためには、両方の3次元形状データを同一の座標系による3次元形状データにする必要がある。形状データ合成関数Fは、間接3次元形状データの座標値をカメラ座標系C’,C’’による座標値から直接3次元形状データの座標系であるカメラ座標系Cによる座標値に座標変換するための関数である。 Indirect three-dimensional shape data is also calculated as three-dimensional shape data by the camera coordinate system C. In this calculation, the traveling directions of the laser light and the reflected light are changed by the reflection mirrors 31 and 32. It is not considered. That is, the indirect three-dimensional shape data is reflected by the workpieces WK1 and WK2 after the laser light emitted from the three-dimensional shape imaging device goes straight through the reflection mirrors 31 and 32 and reaches the workpieces WK1 and WK2. Thus, the data is calculated as if the straight line is passed through without passing through the reflecting mirrors 31 and 32 and is guided to the three-dimensional shape imaging apparatus 10. In other words, the indirect three-dimensional shape data is obtained by a coordinate system C ′, C ″ (hereinafter referred to as camera coordinate system C ′, C ″) different from the camera coordinate system C existing for each of the reflection mirrors 31, 32. It can be said that it is the represented three-dimensional shape data. Therefore, in order to synthesize the three-dimensional shape of the workpieces WK1 and WK2 directly represented by the three-dimensional shape data and the three-dimensional shape of the workpieces WK1 and WK2 represented by the indirect three-dimensional shape data, both three-dimensional shapes The data needs to be three-dimensional shape data in the same coordinate system. Shape data combining function F S is the coordinate transformation to the coordinate values of the indirect three-dimensional shape data camera coordinate system C ', C' to the coordinate value of the camera coordinate system C is a coordinate system of the three-dimensional shape data directly from the coordinate value by ' It is a function to do.

3次元画像処理装置42は、前記形状データ合成関数Fの計算の指示に応答して、図3に示す、形状データ合成関数F計算プログラムの実行をステップS100にて開始して、ステップS102にて、平板治具JG1の測定情報の入力を待つ。この場合、作業者は、ステップS102による平板治具JG1の測定情報の入力に先立って、反射ミラー31,32の反射面を、光を殆ど反射しない(反射率が極めて低い)シート33,34で覆う。3次元形状撮像装置10は、コントローラ41からの指示に応答して平板治具JG1の上面の測定を開始する。具体的には、3次元形状撮像装置10は、3次元形状測定装置10に関する座標系であるカメラ座標系CにおけるX−Y座標原点(反射ミラー31側であって支持具20側)からX軸方向(反射ミラー32側)にレーザ光の走査を開始して、X軸方向にレーザ光を走査するラインを順次Y軸方向(支持具20対して反射ミラー31,32側)にずらしながら平板治具JG1の上面を測定する。 In response to the instruction to calculate the shape data synthesis function F S , the three-dimensional image processing device 42 starts execution of the shape data synthesis function F S calculation program shown in FIG. Then, input of measurement information of the flat jig JG1 is awaited. In this case, the operator uses the sheets 33 and 34 that hardly reflect light (the reflectance is very low) on the reflecting surfaces of the reflecting mirrors 31 and 32 prior to inputting measurement information of the flat jig JG1 in step S102. cover. The three-dimensional shape imaging apparatus 10 starts measurement of the upper surface of the flat plate jig JG1 in response to an instruction from the controller 41. Specifically, the three-dimensional shape imaging apparatus 10 has an X axis from the XY coordinate origin (on the reflection mirror 31 side and the support tool 20 side) in the camera coordinate system C that is a coordinate system related to the three-dimensional shape measurement apparatus 10. Laser beam scanning is started in the direction (on the reflection mirror 32 side), and the plate is scanned while the line for scanning the laser beam in the X-axis direction is sequentially shifted in the Y-axis direction (on the reflection mirrors 31 and 32 side with respect to the support 20). Measure the upper surface of the tool JG1.

この場合、図4(A)に示すように、3次元形状撮像装置10から反射ミラー31,32に向けて出射されたレーザ光の大部分は前記シート33,34によって吸収されるため、平板治具JG1には極めて少量のレーザ光が導かれる。そして、平板治具JG1から反射ミラー31,32に向けて反射された反射光も、その大部分がシート33,34によって吸収されるため、3次元形状撮像装置10に導かれる反射光(以下、「間接反射光」という)は殆どない。すなわち、図4(B)示すように、3次元形状撮像装置10に導かれる平板治具JG1からの反射光の大部分は、3次元形状撮像装置10から直接平板治具JG1に出射されたレーザ光による反射光(以下、「直接反射光」という)である。   In this case, as shown in FIG. 4 (A), most of the laser light emitted from the three-dimensional shape imaging apparatus 10 toward the reflection mirrors 31 and 32 is absorbed by the sheets 33 and 34. A very small amount of laser light is guided to the tool JG1. And most of the reflected light reflected from the flat jig JG1 toward the reflecting mirrors 31 and 32 is absorbed by the sheets 33 and 34, so that the reflected light guided to the three-dimensional imaging device 10 (hereinafter, referred to as “light reflected”). There is almost no “indirect reflected light”. That is, as shown in FIG. 4B, most of the reflected light from the flat plate jig JG1 guided to the three-dimensional shape imaging device 10 is directly emitted from the three-dimensional shape imaging device 10 to the flat plate jig JG1. This is reflected light by light (hereinafter referred to as “directly reflected light”).

3次元形状撮像装置10は、受光した反射光に基づく平板治具JG1の上面の3次元形状を表す情報を3次元画像処理装置42に出力する。すなわち、平板治具JG1の上面を微小エリアずつに分割した各分割エリア位置を表すX−Y−Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)を3次元画像処理装置42にそれぞれ出力する。この場合、直接反射光に基づくX−Y−Z座標に関する情報は、傾きθx,θyおよび距離Lzが揃っているが、間接反射光に基づくX−Y−Z座標に関する情報は反射ミラー31,32からの反射光が極めて少ないため、距離Lzが測定不能として欠落しており、傾きθx,θyのみである。   The three-dimensional shape imaging device 10 outputs information representing the three-dimensional shape of the upper surface of the flat plate jig JG1 based on the received reflected light to the three-dimensional image processing device 42. That is, the information (specifically, the inclinations θx, θy and the distance Lz) regarding the XYZ coordinates representing the divided area positions obtained by dividing the upper surface of the flat jig JG1 into minute areas is obtained as a three-dimensional image processing device 42. Respectively. In this case, the information about the XYZ coordinates based on the directly reflected light has the same inclinations θx and θy and the distance Lz, but the information about the XYZ coordinates based on the indirect reflected light is the reflecting mirrors 31 and 32. The distance Lz is missing as incapable of measurement, and only the inclinations θx and θy are obtained.

次に、3次元画像処理装置42は、ステップS104にて、反射ミラー31,32の位置の特定を行う。具体的には、入力したX−Y−Z座標に関する情報のうち、距離Lzが欠落しているX−Y−Z座標に関する情報(すなわち、傾きθx,θyデータ)を抽出する。この場合、抽出した傾きθx,θyは反射ミラー31,32の位置にそれぞれ対応している。そして、反射ミラー31と反射ミラー32との間の直接反射光が検出されている領域では傾きθxデータは存在しないため、同傾きθxは2つの群に分類することができる。3次元画像処理装置42は、傾きθxデータを2つの群に分類し、値の大きい側を反射ミラー31、値の小さい側を反射ミラー32に対応するものとして抽出した傾きθx,θyデータを記憶する。   Next, the three-dimensional image processing apparatus 42 specifies the positions of the reflection mirrors 31 and 32 in step S104. Specifically, information regarding the XYZ coordinates from which the distance Lz is missing (ie, inclination θx, θy data) is extracted from the information regarding the input XYZ coordinates. In this case, the extracted inclinations θx and θy correspond to the positions of the reflection mirrors 31 and 32, respectively. Since there is no inclination θx data in the region where the directly reflected light between the reflection mirror 31 and the reflection mirror 32 is detected, the inclination θx can be classified into two groups. The three-dimensional image processing apparatus 42 classifies the inclination θx data into two groups, and stores the inclination θx and θy data extracted with the larger value corresponding to the reflecting mirror 31 and the smaller value corresponding to the reflecting mirror 32. To do.

次に、3次元画像処理装置42は、ステップS106にて、平板治具JG2の測定情報の入力を待つ。平板治具JG2は、図5に示すように、平板状に形成されており、その上面に所定の深さの溝部Mが形成されている。溝部Mの互いに対向する2つの側面T3,T4は、平板治具JG2の上面に対してそれぞれ直交している。すなわち、溝部Mは、平板治具JG2の上面に対して直交する方向に所定の深さを有する溝である。作業者は、ステップS106による平板治具JG2の測定情報の入力に際して、前記シート33,34を反射ミラー31,32から外すとともに、平板治具JG2の上面に形成された溝部M上に3次元形状測定装置を配置して、より具体的には、3次元形状撮像装置10から出射され反射ミラー31,32を介して導かれるレーザ光が溝部Mの側面T3,T4に導かれる位置に3次元形状測定装置を配置して、平板治具JG2の測定を入力装置43を介して3次元画像処理装置42に指示する。   Next, in step S106, the three-dimensional image processing apparatus 42 waits for input of measurement information of the flat plate jig JG2. As shown in FIG. 5, the flat plate jig JG2 is formed in a flat plate shape, and a groove portion M having a predetermined depth is formed on the upper surface thereof. Two side surfaces T3 and T4 of the groove M facing each other are orthogonal to the upper surface of the flat plate jig JG2. That is, the groove portion M is a groove having a predetermined depth in a direction orthogonal to the upper surface of the flat plate jig JG2. When inputting the measurement information of the flat plate jig JG2 in step S106, the operator removes the sheets 33 and 34 from the reflection mirrors 31 and 32, and also has a three-dimensional shape on the groove M formed on the upper surface of the flat plate jig JG2. More specifically, the measurement device is arranged, and more specifically, the three-dimensional shape at a position where the laser light emitted from the three-dimensional shape imaging device 10 and guided through the reflection mirrors 31 and 32 is guided to the side surfaces T3 and T4 of the groove M. A measuring device is arranged to instruct the 3D image processing device 42 via the input device 43 to measure the flat plate jig JG2.

この指示に応答して、3次元形状撮像装置10は、前記と同様にして平板治具JG2の上面の測定を開始して、平板治具JG2の上面の3次元形状を表す情報を3次元画像処理装置42に出力する。すなわち、前記ステップS102と同様に、平板治具JG2の上面を微小エリアずつに分割した各分割エリア位置を表すX−Y−Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)を3次元画像処理装置42にそれぞれ出力する。この場合、3次元形状撮像装置10から反射ミラー31,32に向けて出射されたレーザ光は、反射ミラー31,32を介して平板治具JG2に導かれるとともに、同平板治具JG2からの反射光が反射ミラー31,32を介して3次元形状撮像装置10に導かれる。また、3次元形状撮像装置10から平板治具JG2に向けて出射されたレーザ光は、直接平板治具JG2に導かれるとともに、同平板治具JGによって反射されて直接3次元形状撮像装置10に導かれる。そして、3次元画像処理装置42は、同ステップS106にて、3次元形状撮像装置10から出力されたX−Y−Z座標に関する情報に基づいて、平板治具JG2の上面の3次元形状を表す立体形状データ群からなる3次元形状データを生成する。この場合、前記と同様に、直接3次元形状データはカメラ座標系Cによってあらわされており、間接3次元形状データはカメラ座標系C’,C’’によって表されている。   In response to this instruction, the three-dimensional shape imaging apparatus 10 starts measuring the upper surface of the flat plate jig JG2 in the same manner as described above, and displays information representing the three-dimensional shape of the upper surface of the flat plate jig JG2 as a three-dimensional image. The data is output to the processing device 42. That is, as in step S102, information about XYZ coordinates (specifically, inclinations θx, θy, and distance Lz) representing each divided area position obtained by dividing the upper surface of the flat plate jig JG2 into minute areas. Are output to the three-dimensional image processing apparatus 42, respectively. In this case, the laser light emitted from the three-dimensional shape imaging apparatus 10 toward the reflection mirrors 31 and 32 is guided to the flat plate jig JG2 via the reflection mirrors 31 and 32 and reflected from the flat plate jig JG2. Light is guided to the three-dimensional shape imaging apparatus 10 via the reflection mirrors 31 and 32. The laser beam emitted from the three-dimensional shape imaging device 10 toward the flat plate jig JG2 is directly guided to the flat plate jig JG2, and is reflected by the flat plate jig JG and directly to the three-dimensional shape imaging device 10. Led. Then, the three-dimensional image processing device 42 represents the three-dimensional shape of the upper surface of the flat plate jig JG2 based on the information regarding the XYZ coordinates output from the three-dimensional shape imaging device 10 in step S106. Three-dimensional shape data including a three-dimensional shape data group is generated. In this case, as described above, the direct three-dimensional shape data is represented by the camera coordinate system C, and the indirect three-dimensional shape data is represented by the camera coordinate systems C ′ and C ″.

次に、3次元画像処理装置42は、ステップS108にて、直接3次元形状データおよび2つの間接3次元形状データごとに、平板治具JG2の上面を表す平面P,PI1,PI2をそれぞれ定義する。これらの平面P,PI1,PI2をそれぞれ定義する処理は、それぞれ同様の処理によって行われるため、平面Pの定義処理について説明する。この場合、3次元画像処理装置42は、前記生成された3次元形状データを、前記ステップS104にて特定した反射ミラー31に対応する傾きθx,θyデータおよび反射ミラー32に対応する傾きθx,θyデータを用いて、直接反射光に基づく3次元形状データである直接3次元形状データと、2つの間接反射光に基づく各3次元形状データである間接3次元形状データとにそれぞれ分類した後、平面P,PI1,PI2の各定義処理を実行する。この平面Pの定義処理は、次のサブステップ1〜3の処理からなる。 Next, in step S108, the three-dimensional image processing device 42 generates planes P D , P I1 , P I2 representing the upper surface of the flat plate jig JG2 for each of the direct three-dimensional shape data and the two indirect three-dimensional shape data. Define each. Since the processes for defining these planes P D , P I1 , and P I2 are respectively performed by the same process, the definition process of the plane P D will be described. In this case, the three-dimensional image processing device 42 uses the generated three-dimensional shape data for the inclination θx and θy data corresponding to the reflection mirror 31 specified in step S104 and the inclination θx and θy corresponding to the reflection mirror 32. After the data is classified into direct 3D shape data that is 3D shape data based on directly reflected light and indirect 3D shape data that is 3D shape data based on two indirect reflected lights, Each definition process of P D , P I1 , P I2 is executed. Defining process of this plane P D consists processing of the next sub-step 1-3.

サブステップ1:3次元画像処理装置42は、直接3次元形状データの中から、Z座標値が最も小さい3次元形状データ、すなわち3次元形状撮像装置10(カメラ座標系Cの原点)に最も近い3次元形状データを抽出する。これにより、平板治具JG2の上面におけるいずれか1つの3次元形状データが抽出される。   Sub-step 1: The three-dimensional image processing device 42 is directly closest to the three-dimensional shape data having the smallest Z coordinate value among the three-dimensional shape data, that is, the three-dimensional shape imaging device 10 (the origin of the camera coordinate system C). Three-dimensional shape data is extracted. Thereby, any one three-dimensional shape data on the upper surface of the flat plate jig JG2 is extracted.

サブステップ2:3次元画像処理装置42は、直接3次元形状データの中から、前記抽出した3次元形状データのZ座標値に対して所定の範囲内に属する3次元形状データを少なくとも2つ抽出する。そして、これら3つ以上の3次元形状データを下記式1に示す平面の式にそれぞれ代入し、最小二乗法により未知数a,b,cを計算して仮平面P’を定義する。

Figure 0004670700
Sub-step 2: The 3D image processing device 42 directly extracts at least two 3D shape data belonging to a predetermined range with respect to the Z coordinate value of the extracted 3D shape data from the 3D shape data. To do. Then, these three or more three-dimensional shape data are respectively substituted into the plane equation shown in the following equation 1, and the unknowns a, b, and c are calculated by the least square method to define the provisional plane P ′.
Figure 0004670700

サブステップ3:3次元画像処理装置42は、前記直接3次元形状データの中から、前記定義した仮平面P’に対して所定の範囲内に属する3次元形状データをすべて抽出し、同抽出した3次元形状データの数が所定数以上であれば、抽出した3次元形状データが平板治具JG2の上面を表す3次元形状データであるとして、同抽出した3次元形状データを前記式1に示す平面の式に再度代入して、最小二乗法によりa,b,cを計算して平面を定義する。そして、この定義した平面(a,b,cの値)を平板治具JG2の上面を表す平面Pとして記憶する。一方、前記抽出した3次元形状データの数が所定数未満である場合には、最初に抽出した3次元形状データは平板治具JG2の上面を表す3次元形状データでないとして、最初に抽出した3次元形状データとは別の3次元形状データを前記式1に示す平面の式に再度代入して、最小二乗法により平面を定義する。そして、この定義した平面を新たな仮平面P’として、平面Pが定義されるまでこのサブステップ3の処理を繰り返し実行する。 Sub-step 3: The three-dimensional image processing apparatus 42 extracts all the three-dimensional shape data belonging to a predetermined range with respect to the defined provisional plane P ′ from the direct three-dimensional shape data, and extracts the same. If the number of the three-dimensional shape data is equal to or greater than the predetermined number, the extracted three-dimensional shape data is expressed as the above-described equation 1 assuming that the extracted three-dimensional shape data is the three-dimensional shape data representing the upper surface of the flat plate jig JG2. The plane is defined again by substituting into the formula of the plane and calculating a, b, and c by the method of least squares. Then, stored this defined plane and (a, b, values of c) as a plane P D which represents the upper surface of the plate jig JG2. On the other hand, when the number of the extracted three-dimensional shape data is less than the predetermined number, the first extracted three-dimensional shape data is not the three-dimensional shape data representing the upper surface of the flat plate jig JG2, and the first extracted three-dimensional shape data is 3 A plane is defined by the least square method by substituting again three-dimensional shape data different from the dimension shape data into the plane formula shown in Formula 1. Then, the defined plane as a new provisional plane P ', to the plane P D is defined repeatedly executes the processing in this sub-step 3.

なお、3次元画像処理装置42は、前記したように平面PI1,PI2についても、2つの間接3次元形状データ用いて、前記と同様にしてそれぞれ定義する。これにより、直接3次元形状データおよび2つの間接3次元形状データごとに平板治具JG2の上面を表す平面P,PI1,PI2がそれぞれ定義される。次に、3次元画像処理装置42は、ステップS110にて、前記それぞれ定義した平面P,PI1,PI2ごとに3つのベクトル(A,B,C),(AI1,BI1,CI1),(AI2,BI2,CI2)をそれぞれ定義する。これら各3つのベクトルの定義処理は、次のサブステップ1〜4の処理からなる。 The three-dimensional image processing apparatus 42, for planar P I1, P I2 as described above even by using two indirect three-dimensional shape data, defines respectively in the same manner as described above. Thereby, planes P D , P I1 , P I2 representing the upper surface of the flat plate jig JG2 are defined for each of the direct three-dimensional shape data and the two indirect three-dimensional shape data. Next, in step S110, the three-dimensional image processing apparatus 42 uses three vectors (A D , B D , C D ), (A I1 , B B for each of the planes P D , P I1 , P I2 defined above. I1 , C I1 ) and (A I2 , B I2 , C I2 ) are defined respectively. Each of these three vector definition processes includes the following sub-steps 1 to 4.

サブステップ1:3次元画像処理装置42は、ベクトルA,AI1,AI2を定義する。具体的には、3次元画像処理装置42は、前記各平面P,PI1,PI2を表す前記式1における各a,b,cを(a+b+c)の平方根で除した値をベクトル成分とするベクトル、すなわち、各平面P,PI1,PI2における各法線ベクトルの単位ベクトルをそれぞれベクトルA,AI1,AI2とする。この場合、ベクトルA,AI1,AI2は、それぞれ平面P,PI1,PI2から3次元形状撮像装置10に向かうベクトルである。なお、ベクトルA,AI1,AI2は、3次元形状撮像装置10から平面P,PI1,PI2に向かうベクトルであってもよい。 Substep 1: The three-dimensional image processing device 42 defines vectors A D , A I1 , and A I2 . Specifically, the three-dimensional image processing apparatus 42 divides each of a, b, and c in Formula 1 representing the respective planes P D , P I1 , and P I2 by the square root of (a 2 + b 2 + c 2 ). Vectors whose values are vector components, that is, unit vectors of the respective normal vectors in the planes P D , P I1 , and P I2 are set as vectors A D , A I1 , and A I2 , respectively. In this case, the vectors A D , A I1 , and A I2 are vectors directed from the planes P D , P I1 , and P I2 to the three-dimensional shape imaging apparatus 10, respectively. The vectors A D , A I1 , A I2 may be vectors from the three-dimensional shape imaging apparatus 10 toward the planes P D , P I1 , P I2 .

サブステップ2:3次元画像処理装置42は、ベクトルBを定義する。具体的には、3次元画像処理装置42は、直接3次元形状データの中から互いに隣り合う3次元形状データにおける各Z座標値の変化量が所定の範囲を超えて大きく変化する直前の3次元形状データを抽出する。これにより、平板治具JG2の上面における同上面と側面T3,T4とが直交する各縁部分を表す3次元形状データが溝部Mに沿って抽出される。3次元画像処理装置42は、同抽出した前記各縁部分を表す3次元形状データを下記式2に示す直線の式にそれぞれ代入して、最小二乗法により未知数a,b,cを計算する。そして、計算したa,b、cをベクトル成分とするベクトル(溝部Mの縁に平行なベクトル)の単位ベクトルをベクトルBとする。

Figure 0004670700
Sub-step 2: The 3D image processing device 42 defines a vector BD . Specifically, the three-dimensional image processing device 42 directly determines the three-dimensional data immediately before the change amount of each Z coordinate value in the three-dimensional shape data adjacent to each other directly from the three-dimensional shape data exceeds a predetermined range. Extract shape data. Thereby, the three-dimensional shape data representing each edge portion where the upper surface of the flat plate jig JG2 and the side surfaces T3 and T4 are orthogonal to each other is extracted along the groove portion M. The three-dimensional image processing device 42 calculates the unknowns a, b, and c by the least square method by substituting the extracted three-dimensional shape data representing the respective edge portions into the straight line equation shown in the following equation (2). A unit vector of a vector (vector parallel to the edge of the groove M) having the calculated a, b, and c as vector components is set as a vector BD .
Figure 0004670700

サブステップ3:3次元画像処理装置42は、ベクトルBI1,BI2を定義する。具体的には、3次元画像処理装置42は、間接3次元形状データの中から、平面PI1,PI2から所定の範囲内に属し、かつ平板治具JG2の上面(平面PI1,PI2)以外の部分を定義する3次元形状データをそれぞれ抽出する。これにより、平板治具JG2の上面に直交する側面T3,T4の一部を表す3次元形状データがそれぞれ抽出される。3次元画像処理装置42は、同抽出した前記側面T3,T4を表す各3次元形状データを前記式1に示す平面の式にそれぞれ代入して、最小二乗法により未知数a,b,cを計算することにより側面T3,T4を表す平面PT3,PT4をそれぞれ定義する。そして、3次元画像処理装置42は、平面PI1,PI2と平面PT3,PT4とが直交する各縁部分の直線を表す前記式2を計算して、同計算した各a,b、cをベクトル成分とするベクトル(前記各縁部分に平行なベクトル)の単位ベクトルをベクトルBI1,BI2とする。この場合、これらのベクトルB,BI1,BI2は、3次元形状撮像装置10から出射されるレーザ光のY座標方向の走査方向における正側に向かうベクトルである。なお、ベクトルB,BI1,BI2は、3次元形状撮像装置10から出射されるレーザ光のY座標方向の走査方向における負側に向かうベクトルであってもよい。 Substep 3: The three-dimensional image processing device 42 defines vectors B I1 and B I2 . Specifically, the three-dimensional image processing device 42 belongs to a predetermined range from the planes P I1 and P I2 among the indirect three-dimensional shape data, and the upper surface (planes P I1 and P I2 of the flat plate jig JG2. The three-dimensional shape data defining the portions other than) are respectively extracted. Thereby, three-dimensional shape data representing a part of the side surfaces T3 and T4 orthogonal to the upper surface of the flat plate jig JG2 is extracted. The three-dimensional image processing device 42 substitutes the extracted three-dimensional shape data representing the side surfaces T3 and T4 into the plane equation shown in the equation 1, and calculates the unknowns a, b, and c by the least square method. define respective planes P T3, P T4 representing a side T3, T4 by. Then, the three-dimensional image processing device 42 calculates Formula 2 that represents a straight line of each edge portion where the planes P I1 and P I2 and the planes P T3 and P T4 are orthogonal to each other, and the calculated a, b, A unit vector of a vector having c as a vector component (a vector parallel to the respective edge portions) is defined as vectors B I1 and B I2 . In this case, these vectors B D , B I1 , and B I2 are vectors directed to the positive side in the scanning direction of the Y coordinate direction of the laser light emitted from the three-dimensional shape imaging apparatus 10. The vectors B D , B I1 , and B I2 may be vectors that go to the negative side in the scanning direction of the Y coordinate direction of the laser light emitted from the three-dimensional shape imaging apparatus 10.

サブステップ4:3次元形状測定装置42は、ベクトルC,CI1,CI2を定義する。具体的には、3次元画像処理装置42は、前記ベクトルAとベクトルBとの外積により計算されるベクトルをベクトルCとする。また、前記ベクトルAI1とベクトルBI1との外積により計算されるベクトルをベクトルCI1とするとともに、前記ベクトルAI2とベクトルBI2との外積により計算されるベクトルをベクトルCI2とする。 Substep 4: three-dimensional shape measurement device 42 defines a vector C D, C I1, C I2 . Specifically, the three-dimensional image processing apparatus 42, a vector that is calculated by the cross product between the vector A D and the vector B D and the vector C D. A vector calculated by the outer product of the vector A I1 and the vector B I1 is a vector C I1, and a vector calculated by the outer product of the vector A I2 and the vector B I2 is a vector C I2 .

次に、3次元画像処理装置42は、ステップS112にて、形状データ合成関数Fにおける回転成分MFSを計算する。回転成分MFSは、X,Y,Z座標からなる第1の座標系と、同第1の座標系をX軸、Y軸およびZ軸回りにそれぞれθx,θy,θzだけ回転させた第2の座標系を想定した場合における両座標系間の座標軸の向きの関係、すなわちθx,θy,θzを特定するための関数である。この第1の座標系における1つのベクトルを(αa,βa,γa)とし、第2の座標系における前記1つのベクトルを(αb,βb,γb)とすると、両ベクトル間には下記数3に示す関係が成立する。下記数3においてMは、前記回転成分MFSに相当し下記数4によって表される行列値である。なお、この場合、ベクトル(αa,βa,γa)とベクトル(αb,βb,γb)は、その大きさが同じとする。

Figure 0004670700
Figure 0004670700
Next, in step S112, the three-dimensional image processing device 42 calculates a rotation component M FS in the shape data synthesis function F S. The rotation component MFS includes a first coordinate system composed of X, Y, and Z coordinates and a second coordinate system obtained by rotating the first coordinate system about the X, Y, and Z axes by θx, θy, and θz, respectively. This is a function for specifying the relationship of the orientation of the coordinate axes between the two coordinate systems, that is, θx, θy, θz. If one vector in the first coordinate system is (αa, βa, γa) and the one vector in the second coordinate system is (αb, βb, γb), the following equation 3 is established between the two vectors. The relationship shown is established. In the following formula 3, M is a matrix value corresponding to the rotation component MFS and represented by the following formula 4. In this case, it is assumed that the vector (αa, βa, γa) and the vector (αb, βb, γb) have the same size.
Figure 0004670700
Figure 0004670700

このステップS112の形状データ合成関数Fにおける座標軸の回転成分MFSの計算は、前記式3中の行列値M(M=g11,g12,g13,g21,g22,g23,g31,g32,g33)を計算することを意味する。すなわち、両座標系間において互いに同一方向にない3つのベクトルA,B,Cを想定し、これら3つのベクトルのA,B,Cの前記第1の座標系における各成分A,B,Cを(α1,β1,γ1),(α2,β2,γ2),(α3,β3,γ3)とし、この3つのベクトルのA,B,Cの前記第2の座標系における各成分A,B,Cを(α’1,β’1,γ’1),(α’2,β’2,γ’2),(α’3,β’3,γ’3)とすれば、下記式5〜7の関係が成立する。

Figure 0004670700
Figure 0004670700
Figure 0004670700
The calculation of the rotation component M FS of the coordinate axis in the shape data synthesis function F S in step S112 is performed by calculating the matrix value M (M = g 11 , g 12 , g 13 , g 21 , g 22 , g 23 , g 31 , g 32 , g 33 ) is calculated. That is, assuming three vectors A, B, and C that are not in the same direction between the two coordinate systems, the components A 1 , B 1 , and A 3 in the first coordinate system of these three vectors A, B, and C Let C 1 be (α1, β1, γ1), (α2, β2, γ2), (α3, β3, γ3), and each component A 2 of the three vectors A, B, C in the second coordinate system. , B 2 , C 2 are (α′1, β′1, γ′1), (α′2, β′2, γ′2), (α′3, β′3, γ′3). For example, the following expressions 5 to 7 are established.
Figure 0004670700
Figure 0004670700
Figure 0004670700

この前記式5〜7の9つの連立方程式を解くことにより、行列値Mを計算することができる。本実施形態においては、前記ベクトルA,B,Cの各ベクトル成分を(α’1,β’1,γ’1),(α’2,β’2,γ’2),(α’3,β’3,γ’3)とし、前記ベクトルAI1,BI1,CI1および前記ベクトルAI2,BI2,CI2をそれぞれ(α1,β1,γ1),(α2,β2,γ2),(α3,β3,γ3)とすれば、反射ミラー31,32に基づく各間接3次元形状データを直接3次元形状データに合成するための形状データ合成関数Fにおける回転成分MFSをそれぞれ計算することができる。すなわち、平面P上に定義された3つのベクトルのカメラ座標系CにおけるベクトルA,B,Cを前記第2の座標系におけるベクトルとし、同平面P上に定義された3つのベクトルのカメラ座標系C’,C’’におけるベクトルAI1,BI1,CI1およびAI2,BI2,CI2を前記第1の座標系におけるベクトルとすれば、カメラ座標系C’,C’’における座標値をカメラ座標系Cにおける座標値に座標変換するための座標変換関数における回転成分を回転成分MFSとして計算することができる。 The matrix value M can be calculated by solving the nine simultaneous equations of Equations 5 to 7. In the present embodiment, the vector A D, B D, each vector component of C D (α'1, β'1, γ'1 ), (α'2, β'2, γ'2), ( α′3, β′3, γ′3), and the vectors A I1 , B I1 , C I1 and the vectors A I2 , B I2 , C I2 are respectively (α1, β1, γ1), (α2, β2, If (γ 2), (α 3, β 3, γ 3), the rotation component M FS in the shape data synthesis function F S for directly synthesizing the indirect 3D shape data based on the reflection mirrors 31 and 32 into the 3D shape data is Each can be calculated. That is, the vector A D in the camera coordinate system C of the three vectors defined on the plane P, B D, and vector C D in the second coordinate system, the three vectors defined on the same plane P If the vectors A I1 , B I1 , C I1 and A I2 , B I2 , C I2 in the camera coordinate system C ′, C ″ are vectors in the first coordinate system, the camera coordinate system C ′, C ″ The rotation component in the coordinate conversion function for converting the coordinate value in to the coordinate value in the camera coordinate system C can be calculated as the rotation component MFS .

次に、3次元画像処理装置42は、ステップS114にて、定点設定治具JG3の測定情報の入力を待つ。定点設定治具JG3は、図6に示すように、真球体に形成されており、3次元画像撮像装置10の測定対象空間内において定点を定めるために用いられる。作業者は、ステップS114による定点設定治具JG3の測定情報の入力に際して、3次元画像撮像装置10の測定対象空間内における平板治具JG2の溝部M上に定点設定治具JG3を配置して、定点設定治具JG3の測定を入力装置43を介して3次元画像処理装置42に指示する。   Next, in step S114, the three-dimensional image processing device 42 waits for input of measurement information of the fixed point setting jig JG3. As shown in FIG. 6, the fixed point setting jig JG3 is formed in a true sphere, and is used to set a fixed point in the measurement target space of the three-dimensional image capturing apparatus 10. The operator places the fixed point setting jig JG3 on the groove M of the flat plate jig JG2 in the measurement target space of the three-dimensional image pickup device 10 when inputting the measurement information of the fixed point setting jig JG3 in step S114. The measurement of the fixed point setting jig JG3 is instructed to the three-dimensional image processing device 42 via the input device 43.

この指示に応答して、3次元形状撮像装置10は、定点設定治具JG3の測定を開始して、定点設定治具JG3の3次元形状を表す情報を3次元画像処理装置42に出力する。すなわち、前記ステップS102,S106と同様に、定点設定治具JG3の上面を微小エリアずつに分割した各分割エリア位置を表すX−Y−Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)を3次元画像処理装置42にそれぞれ出力する。この場合、3次元形状撮像装置10は、前記と同様に、直接反射光および2つの間接反射光に基づくX−Y−Z座標に関する情報を3次元画像処理装置42にそれぞれ出力する。そして、3次元画像処理装置42は、同ステップS114にて、3次元形状撮像装置10から出力されたX−Y−Z座標に関する情報に基づいて、定点設定治具JG3の3次元形状を表す立体形状データ群からなる3次元形状データを生成する。この場合、前記と同様に、直接3次元形状データはカメラ座標系Cによって表されており、間接3次元形状データはカメラ座標系C’,C’’によって表されている。なお、この3次元形状データ中には、定点設定治具JG3のほかに同定点設定治具JG3の周辺に存在する他の物体(例えば、平板治具JG2の上面)の形状を表す3次元形状データも含まれている。   In response to this instruction, the three-dimensional shape imaging apparatus 10 starts measurement of the fixed point setting jig JG3 and outputs information representing the three-dimensional shape of the fixed point setting jig JG3 to the three-dimensional image processing apparatus 42. That is, similarly to the steps S102 and S106, information about the XYZ coordinates (specifically, the inclinations θx, θy and the slopes) representing each divided area position obtained by dividing the upper surface of the fixed point setting jig JG3 into minute areas. The distance Lz) is output to the three-dimensional image processing device 42, respectively. In this case, the three-dimensional shape imaging apparatus 10 outputs information related to the XYZ coordinates based on the direct reflected light and the two indirect reflected lights to the three-dimensional image processing apparatus 42 as described above. Then, the three-dimensional image processing device 42 represents a three-dimensional shape representing the three-dimensional shape of the fixed point setting jig JG3 based on the information about the XYZ coordinates output from the three-dimensional shape imaging device 10 in step S114. Three-dimensional shape data consisting of a shape data group is generated. In this case, as described above, the direct three-dimensional shape data is represented by the camera coordinate system C, and the indirect three-dimensional shape data is represented by the camera coordinate systems C ′ and C ″. In the three-dimensional shape data, in addition to the fixed point setting jig JG3, a three-dimensional shape representing the shape of another object (for example, the upper surface of the flat plate jig JG2) existing around the identification point setting jig JG3. Data is also included.

次に、3次元画像処理装置42は、ステップS116にて、前記直接3次元形状データおよび2つの間接3次元形状データの中から、定点設定治具JG3の3次元形状を表す3次元形状データをそれぞれ抽出する。この場合、直接3次元形状データおよび2つの間接3次元形状データは、前記と同様に、前記ステップS104にて特定した反射ミラー31,32に対応する傾きθx,θyデータを用いてそれぞれ分類される。この定点設定治具JG3の3次元形状を表す3次元形状データの抽出処理は、図示しない定点設定治具抽出サブプログラムを実行することによって行われる。定点設定治具抽出サブプログラムの処理内容を簡単に説明する。   Next, in step S116, the three-dimensional image processing device 42 obtains three-dimensional shape data representing the three-dimensional shape of the fixed point setting jig JG3 from the direct three-dimensional shape data and the two indirect three-dimensional shape data. Extract each one. In this case, the direct three-dimensional shape data and the two indirect three-dimensional shape data are classified using the inclination θx and θy data corresponding to the reflection mirrors 31 and 32 specified in step S104, respectively, as described above. . The extraction process of the three-dimensional shape data representing the three-dimensional shape of the fixed point setting jig JG3 is performed by executing a fixed point setting jig extraction subprogram (not shown). The processing contents of the fixed point setting jig extraction subprogram will be briefly described.

3次元画像処理装置42は、定点設定治具JG3が球体であるデータと、同球体の直径を表すデータを用いて、単位ブロックおよび探索ブロックを設定する。単位ブロックは、定点設定治具JG3の存在位置を特定するために探索ブロックを移動させる最小のブロックであり、探索ブロックは、定点設定治具JG3をその内部に包含する位置を特定するために利用される単位ブロックの集まりである。3次元画像処理装置42は、3次元形状撮像装置10の測定対象空間内を単位ブロックの大きさで立体的に分割するとともに、探索ブロックを測定対象空間内で順次移動させて探索ブロック内に包含される単位ブロックのうち3次元形状データを含む単位ブロックの数をカウントする。このカウントした単位ブロックの数に応じて、探索ブロック内に含まれる3次元形状データがそれぞれ定点設定治具JG3全体を含む3次元形状データであるか否かを判定し、定点設定治具JG3全体を含む3次元形状データであると判定されたとき、探索ブロック内の3次元形状データを抽出する。なお、この技術は、既によく知られた技術であり、例えば特開2004−333371号公報に記載されている。   The three-dimensional image processing apparatus 42 sets a unit block and a search block using data indicating that the fixed point setting jig JG3 is a sphere and data indicating the diameter of the sphere. The unit block is a minimum block for moving the search block in order to specify the position of the fixed point setting jig JG3, and the search block is used to specify the position that includes the fixed point setting jig JG3. It is a collection of unit blocks. The three-dimensional image processing device 42 three-dimensionally divides the measurement target space of the three-dimensional shape imaging device 10 by the size of the unit block, and sequentially moves the search block in the measurement target space to be included in the search block. The number of unit blocks including three-dimensional shape data among the unit blocks to be counted is counted. According to the counted number of unit blocks, it is determined whether or not the 3D shape data included in the search block is 3D shape data including the entire fixed point setting jig JG3, and the entire fixed point setting jig JG3. When it is determined that the three-dimensional shape data includes the three-dimensional shape data in the search block. This technique is already well known and is described in, for example, Japanese Patent Application Laid-Open No. 2004-333371.

また、前記説明した定点設定治具JG3の抽出方法のほかに、定点設定治具JG3からの反射光の光量を用いて定点設定治具JG3の3次元形状を表す3次元形状データを抽出することもできる。この場合、定点設定治具JG3からの反射光の光量を予め検出するとともに、同反射光の光量を3次元画像処理装置42に設定しておく。そして、3次元形状撮像装置10は、X−Y−Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)に加えて定点設定治具JG3からの反射光の光量も検出して、前記設定した光量と一致する3次元形状データを抽出するようにすればよい。   In addition to the method for extracting the fixed point setting jig JG3 described above, three-dimensional shape data representing the three-dimensional shape of the fixed point setting jig JG3 is extracted using the amount of reflected light from the fixed point setting jig JG3. You can also. In this case, the light amount of the reflected light from the fixed point setting jig JG3 is detected in advance, and the light amount of the reflected light is set in the three-dimensional image processing device 42. The three-dimensional shape imaging apparatus 10 detects the amount of reflected light from the fixed point setting jig JG3 in addition to the information about the XYZ coordinates (specifically, the inclinations θx, θy and the distance Lz). The three-dimensional shape data that matches the set light amount may be extracted.

次に、3次元画像処理装置42は、ステップS118にて、定点設定治具JG3を表す前記抽出した各3次元形状データを用いて、各3次元形状データごとに定点設定治具JG3の中心座標を定点T,TI1,TI2の座標としてそれぞれ計算する。具体的には、前記抽出した各3次元形状データを下記式8の左辺にそれぞれ代入し、最小2乗法を用いて未知数a、b、cを定点T,TI1,TI2の座標としてそれぞれ計算する。この場合、a,b、cは、3次元形状データによって表された球体、すなわち定点設定治具JG3の各中心座標を表す。なお、前記式8においてdは、定点設定治具JG3の半径を表すが、このステップS118の処理においては計算する必要はない。

Figure 0004670700
Next, in step S118, the three-dimensional image processing device 42 uses the extracted three-dimensional shape data representing the fixed point setting jig JG3 to use the center coordinates of the fixed point setting jig JG3 for each three-dimensional shape data. Are calculated as the coordinates of the fixed points T D , T I1 , T I2 , respectively. Specifically, each of the extracted three-dimensional shape data is assigned to the left side of Equation 8 below, and the unknowns a, b, and c are used as the coordinates of the fixed points T D , T I1 , T I2 using the least square method. calculate. In this case, a, b, and c represent the center coordinates of the sphere represented by the three-dimensional shape data, that is, the fixed point setting jig JG3. In the above equation 8, d represents the radius of the fixed point setting jig JG3, but it is not necessary to calculate in the process of step S118.
Figure 0004670700

次に、3次元画像処理装置42は、ステップS120にて、形状データ合成関数Fにおける原点ずれ成分GFSを計算する。原点ずれ成分GFSは、前記第1の座標系の原点から前記第2の座標系の原点に向かうベクトルの成分(a、b、c)を前記第2の座標系により表したものである。換言すれば、前記回転成分MFSによる座標変換により、前記第1の座標系の座標軸の向きを前記第2の座標系の座標軸の向きに合わせた後、前記第1の座標系の原点を前記第2の座標系の原点に一致させるために前記第1の座標系の原点をX軸方向、Y軸方向およびZ軸方向にそれぞれ移動させる量a,b,cである。この第1の座標系における1つの座標値を(x,y,z)とし、第2の座標系における前記1つの座標値に対応する座標値を(x’,y’,z’)とすれば、両座標値間には下記数9に示す関係が成立する。下記数9においてMは、前記回転成分MFSに相当する行列値である。

Figure 0004670700
Next, in step S120, the three-dimensional image processing device 42 calculates an origin deviation component G FS in the shape data synthesis function F S. The origin deviation component G FS represents a vector component (a, b, c) from the origin of the first coordinate system to the origin of the second coordinate system by the second coordinate system. In other words, after the orientation of the coordinate axis of the first coordinate system is matched with the orientation of the coordinate axis of the second coordinate system by coordinate transformation by the rotation component M FS , the origin of the first coordinate system is set to the The amounts a, b, and c are used to move the origin of the first coordinate system in the X-axis direction, the Y-axis direction, and the Z-axis direction, respectively, in order to match the origin of the second coordinate system. One coordinate value in the first coordinate system is (x, y, z), and a coordinate value corresponding to the one coordinate value in the second coordinate system is (x ′, y ′, z ′). For example, the relationship shown in the following formula 9 is established between the two coordinate values. In the following formula 9, M is a matrix value corresponding to the rotation component MFS .
Figure 0004670700

このステップS120の形状データ合成関数Fにおける原点ずれ成分GFSの計算は、前記式9中のa,b,cを計算することを意味する。すなわち、前記直接3次元形状データに基づいて計算した定点のカメラ座標系Cによる座標値Tを前記第1の座標系における座標値(x,y,z)とし、前記間接3次元形状データに基づいて計算した定点のカメラ座標系C’,C’’による座標値TI1,TI2を前記第2の座標系における座標値を(x’,y’,z’)とすれば、前記式9にこれらの座標値を代入し連立方程式を解けば反射ミラー31,32に基づく各間接3次元形状データを直接3次元形状データに合成するための形状データ合成関数Fにおける原点ずれ成分GFSである(a,b,c)をそれぞれ求めることができる。これにより、反射ミラー31に基づく間接3次元形状データを直接3次元形状データに合成するための形状データ合成関数FS1と、反射ミラー32に基づく間接3次元形状データを直接3次元形状データに合成するための形状データ合成関数FS2とが形状データ合成関数Fとして計算されたことになる。 The calculation of the origin deviation component G FS in the shape data composition function F S in step S120 means that a, b, and c in Equation 9 are calculated. That is, the coordinate value coordinate values T D of the camera coordinate system C of the fixed point calculated based on the direct three-dimensional shape data in the first coordinate system (x, y, z) and, in the indirect three-dimensional shape data If the coordinate values T I1 and T I2 of the fixed point camera coordinates system C ′ and C ″ calculated based on the second coordinate system are (x ′, y ′, z ′), the above equation By substituting these coordinate values into 9 and solving the simultaneous equations, the origin deviation component G FS in the shape data synthesis function F S for directly synthesizing the indirect 3D shape data based on the reflection mirrors 31 and 32 into the 3D shape data is obtained. (A, b, c) can be obtained respectively. Thereby, the shape data synthesis function F S1 for directly synthesizing the indirect 3D shape data based on the reflection mirror 31 into the 3D shape data, and the indirect 3D shape data based on the reflection mirror 32 are directly synthesized into the 3D shape data. shape data combining function F S2 to become the calculated as the shape data combining function F S.

次に、3次元画像処理装置42は、ステップS122にて、前記計算された形状データ合成関数FS1および形状データ合成関数FS2からなる形状データ合成関数Fを記憶する。そして、3次元画像処理装置42は、ステップS124にて、この形状データ合成関数F計算プログラムの実行を終了する。 Next, three-dimensional image processing apparatus 42, at step S122, and stores the shape data synthesis function F S consisting of the calculated geometry data combining function F S1 and shape data combining function F S2. In step S124, the three-dimensional image processing apparatus 42 ends the execution of the shape data synthesis function F S calculation program.

この形状データ合成関数F計算プログラムの実行後、作業者は、測定対象物であるワークWK1,WK2の測定、より具体的には、ワークWK1の端部T1とワークWK2の端部T2との間の隙間、およびワークWK1の上面とワークWK2の上面との段差の測定を行う。作業者は、図1に示すように、3次元形状測定装置をワークWK1とワークWK2との間の隙間上に配置して、入力装置43を操作してワークWK1,WK2の測定を指示する。この場合、作業者は、ワークWK1の端部T1とワークWK2の端部T2との間の隙間の長手方向に対して3次元形状撮像装置10から出射されるレーザ光のX軸方向の走査方向が略直交するように3次元形状測定装置を配置する。 After execution of this shape data combining function F S calculation program, the operator, the measurement of the work WK1, WK2 that is the measuring object, more specifically, between the end T2 of the end T1 and the workpiece WK2 work WK1 The gap between them and the level difference between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2 are measured. As shown in FIG. 1, the operator places the three-dimensional shape measuring device on the gap between the workpieces WK1 and WK2, and operates the input device 43 to instruct measurement of the workpieces WK1 and WK2. In this case, the operator scans in the X-axis direction of the laser light emitted from the three-dimensional shape imaging apparatus 10 with respect to the longitudinal direction of the gap between the end T1 of the work WK1 and the end T2 of the work WK2. The three-dimensional shape measuring device is arranged so that are substantially orthogonal.

3次元画像処理装置42は、前記ワークWK1,WK2の測定を指示に応答して、図7に示す、ワーク測定プログラムの実行をステップS200にて開始して、ステップS202にて、ワークWK1,WK2の測定情報の入力を待つ。3次元形状撮像装置10は、前記と同様にしてワークWK1,WK2の測定を開始する。具体的には、3次元形状撮像装置10は、3次元形状測定装置10に関する座標系であるカメラ座標系CにおけるX−Y座標原点(反射ミラー31側であって支持具20側)からX軸方向(反射ミラー32側)にレーザ光の走査を開始して、X軸方向にレーザ光を走査するラインを順次Y軸方向(支持具20対して反射ミラー31,32側)にずらしながらワークWK1,WK2の各上面を測定する。   In response to the instruction to measure the workpieces WK1 and WK2, the three-dimensional image processing apparatus 42 starts executing the workpiece measurement program shown in FIG. 7 in step S200, and in step S202, the workpieces WK1 and WK2 are executed. Wait for input of measurement information. The three-dimensional shape imaging apparatus 10 starts measuring the workpieces WK1 and WK2 in the same manner as described above. Specifically, the three-dimensional shape imaging apparatus 10 has an X axis from the XY coordinate origin (on the reflection mirror 31 side and the support tool 20 side) in the camera coordinate system C that is a coordinate system related to the three-dimensional shape measurement apparatus 10. The workpiece WK1 starts scanning the laser beam in the direction (on the reflection mirror 32 side) and sequentially shifts the line for scanning the laser beam in the X-axis direction in the Y-axis direction (on the reflection mirrors 31 and 32 side with respect to the support 20). , Measure each upper surface of WK2.

3次元形状撮像装置10から反射ミラー31に向けて出射されたレーザ光は、図8(A)に示すように、反射ミラー31を介してワークWK1,WK2に導かれる。この場合、反射ミラー31によってワークWK1,WK2に導かれるレーザ光はワークWK2の端部T2に対して略垂直に入射するため、同ワークWK2の端部T2からの反射光は反射ミラー31を介して3次元形状撮像装置10に導かれる。すなわち、3次元形状撮像装置10は、反射ミラー31からの間接反射光によりワークWK2の端部T2の形状を測定することができる。また、3次元形状撮像装置10から反射ミラー32に向けて出射されたレーザ光は、図8(B)に示すように、反射ミラー32を介してワークWK1,WK2に導かれる。この場合、反射ミラー32によってワークWK1,WK2に導かれるレーザ光はワークWK1の端部T1に対して略垂直に入射するため、同ワークWK1の端部T1からの反射光は反射ミラー32を介して3次元形状撮像装置10に導かれる。すなわち、3次元形状撮像装置10は、反射ミラー31からの間接反射光によりワークWK1の端部T1の形状を測定することができる。なお、3次元形状撮像装置10から直接ワークWK1,WK2に向けて出射されたレーザ光は、図8(C)に示すように、ワークWK1,WK2の各上面からの反射光を受光する。この場合、ワークWK1,WK2の各端部T1,T2に照射されたレーザ光は、その大部分が入射方向とは異なる方向に反射するため、3次元形状撮像装置10に受光される同反射光の光量は少ない。   The laser light emitted from the three-dimensional shape imaging apparatus 10 toward the reflection mirror 31 is guided to the workpieces WK1 and WK2 via the reflection mirror 31, as shown in FIG. In this case, since the laser light guided to the workpieces WK1 and WK2 by the reflecting mirror 31 is incident substantially perpendicularly to the end T2 of the workpiece WK2, the reflected light from the end T2 of the workpiece WK2 passes through the reflecting mirror 31. To the three-dimensional shape imaging apparatus 10. That is, the three-dimensional shape imaging apparatus 10 can measure the shape of the end portion T2 of the workpiece WK2 with the indirectly reflected light from the reflection mirror 31. Further, the laser light emitted from the three-dimensional shape imaging apparatus 10 toward the reflection mirror 32 is guided to the workpieces WK1 and WK2 via the reflection mirror 32 as shown in FIG. 8B. In this case, since the laser light guided to the workpieces WK1 and WK2 by the reflection mirror 32 is incident substantially perpendicular to the end T1 of the workpiece WK1, the reflected light from the end T1 of the workpiece WK1 passes through the reflection mirror 32. To the three-dimensional shape imaging apparatus 10. That is, the three-dimensional shape imaging apparatus 10 can measure the shape of the end portion T1 of the workpiece WK1 by the indirectly reflected light from the reflection mirror 31. Laser light emitted directly from the three-dimensional shape imaging apparatus 10 toward the workpieces WK1 and WK2 receives reflected light from the upper surfaces of the workpieces WK1 and WK2, as shown in FIG. 8C. In this case, since most of the laser light irradiated on the end portions T1 and T2 of the workpieces WK1 and WK2 is reflected in a direction different from the incident direction, the reflected light received by the three-dimensional shape imaging apparatus 10 The amount of light is small.

そして、3次元形状撮像装置10は、ワークWK1,WK2の上面(各端部T1,T2を含む)の3次元形状を表す情報を3次元画像処理装置42に出力する。すなわち、前記ステップS102,S106と同様に、ワークWK1,WK2の上面を微小エリアずつに分割した各分割エリア位置を表すX−Y−Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)を3次元画像処理装置42にそれぞれ出力する。この場合、3次元形状撮像装置10は、前記と同様に、直接反射光および2つの間接反射光に基づくX−Y−Z座標に関する情報を3次元画像処理装置42にそれぞれ出力する。そして、3次元画像処理装置42は、同ステップS202にて、3次元形状撮像装置10から出力されたX−Y−Z座標に関する情報に基づいて、ワークWK1,WK2の3次元形状を表す立体形状データ群からなる3次元形状データを生成する。この場合、前記と同様に、直接3次元形状データはカメラ座標系Cによって表されており、間接3次元形状データはカメラ座標系C’,C’’によって表されている。   Then, the three-dimensional shape imaging apparatus 10 outputs information representing the three-dimensional shape of the upper surfaces (including the end portions T1 and T2) of the workpieces WK1 and WK2 to the three-dimensional image processing apparatus 42. That is, as in the above-described steps S102 and S106, information on XYZ coordinates (specifically, inclinations θx, θy, and distances) representing each divided area position obtained by dividing the upper surface of the workpieces WK1 and WK2 into minute areas. Lz) is output to the three-dimensional image processing device 42, respectively. In this case, the three-dimensional shape imaging apparatus 10 outputs information related to the XYZ coordinates based on the direct reflected light and the two indirect reflected lights to the three-dimensional image processing apparatus 42 as described above. The three-dimensional image processing device 42 then represents a three-dimensional shape representing the three-dimensional shape of the workpieces WK1 and WK2 based on the information about the XYZ coordinates output from the three-dimensional shape imaging device 10 in step S202. Three-dimensional shape data consisting of data groups is generated. In this case, as described above, the direct three-dimensional shape data is represented by the camera coordinate system C, and the indirect three-dimensional shape data is represented by the camera coordinate systems C ′ and C ″.

次に、3次元画像処理装置42は、ステップS204にて、前記ステップS202にて生成した2つの間接3次元形状データによって表されたワークWK1,WK2の3次元形状を直接3次元形状データによって表されたワークWK1,WK2の3次元形状に合成する。具体的には、3次元画像処理装置42は、前記生成された3次元形状データを、前記ステップS104にて特定した反射ミラー31に対応する傾きθx,θyデータおよび反射ミラー32に対応する傾きθx,θyデータを用いて、直接反射光に基づく3次元形状データである直接3次元形状データと、2つの間接反射光に基づく各3次元形状データである間接3次元形状データとにそれぞれ分類した後、前記形状データ合成関数F計算プログラムの実行により計算した形状データ合成関数Fを用いて前記2つの間接3次元形状データを直接3次元形状データの座標系であるカメラ座標系Cによる3次元形状データに座標変換する。これにより、3次元形状撮像装置10から出射され直接ワークWK1,WK2に照射されるレーザ光では測定されないワークWK1,WK2の端部T1,T2の表面形状を表す3次元形状データが、前記2つの間接3次元形状データによって補われるとともに、ワークWK1,WK2における同一部分を表す直接3次元形状データと間接3次元形状データとの平均化処理が行われて一組の3次元形状データ群が生成される。 Next, in step S204, the three-dimensional image processing apparatus 42 directly represents the three-dimensional shapes of the workpieces WK1 and WK2 represented by the two indirect three-dimensional shape data generated in step S202 by the three-dimensional shape data. The workpieces WK1 and WK2 are combined into a three-dimensional shape. Specifically, the three-dimensional image processing device 42 uses the generated three-dimensional shape data for the inclination θx and θy data corresponding to the reflection mirror 31 specified in step S104 and the inclination θx corresponding to the reflection mirror 32. , Θy data are used to classify the data into direct 3D shape data that is 3D shape data based on directly reflected light and indirect 3D shape data that is 3D shape data based on two indirect reflected lights. 3D by the shape data combining function F S camera coordinate system the two indirect three-dimensional shape data by using the shape data combining function F S calculated by executing the calculation program is a coordinate system of direct three-dimensional shape data of C Convert coordinates to shape data. As a result, the two-dimensional shape data representing the surface shapes of the end portions T1 and T2 of the workpieces WK1 and WK2 that are not measured by the laser light emitted from the three-dimensional shape imaging device 10 and directly applied to the workpieces WK1 and WK2 While complemented by indirect 3D shape data, averaging processing of direct 3D shape data and indirect 3D shape data representing the same part in the workpieces WK1 and WK2 is performed to generate a set of 3D shape data groups. The

次に、3次元画像処理装置42は、ステップS206にて、形状データ補正関数Fを計算する。形状データ補正関数Fは、カメラ座標系Cによる3次元形状データをZ座標軸がワークWK1,WK2の上面に垂直な座標系による3次元形状データに変換するための関数である。この形状データ補正関数Fの計算は、図9に示す形状データ補正関数F計算サブプログラムを実行することにより行われる。 Next, three-dimensional image processing apparatus 42, at step S206, calculates the shape data correction function F R. Shape data correction function F R is a function for the three-dimensional shape data by the camera coordinate system C is Z coordinate axis converting work WK1, the three-dimensional shape data by the vertical coordinate system on the upper surface of WK2. The calculation of the shape data correction function F R is performed by executing the shape data correction function F R calculated subprogram shown in FIG.

3次元画像処理装置42は、形状データ補正関数F計算サブプログラムの実行をステップS300にて開始して、ステップS302にて、ワークWK1,WK2の上面を表す平面Pを定義する。この場合、ワークWK1の上面とワークWK2の上面との間には段差があり同一平面上にないため、正確には、ワークWK1の上面またはワークWK2の上面を表す平面Pを定義する。本実施形態においては、ワークWK1の上面を表す平面Pを定義する。この平面Pの定義処理は、次のサブステップ1〜3の処理からなる。 3-dimensional image processing apparatus 42, the execution of the shape data correction function F R calculated subprogram begins at step S300, the step S302, it defines the plane P which represents the upper surface of the work WK1, WK2. In this case, there is a step between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2, and they are not on the same plane. Therefore, precisely, the plane P representing the upper surface of the workpiece WK1 or the upper surface of the workpiece WK2 is defined. In the present embodiment, a plane P representing the upper surface of the workpiece WK1 is defined. The plane P definition process includes the following sub-steps 1 to 3.

サブステップ1:3次元画像処理装置42は、カメラ座標系Cにおいて3次元形状データ群が存在するX−Y座標平面における所定の範囲内から少なくとも3つの3次元形状データを抽出する。この場合、X−Y座標平面における所定の範囲は、ワークWK1,WK2を測定した際、カメラ座標系CにおいてワークWK1の上面が位置する範囲を予め3次元画像処理装置42に指定したものである。   Substep 1: The three-dimensional image processing device 42 extracts at least three pieces of three-dimensional shape data from a predetermined range in the XY coordinate plane in which the three-dimensional shape data group exists in the camera coordinate system C. In this case, the predetermined range in the XY coordinate plane is a range in which the upper surface of the workpiece WK1 is positioned in the camera coordinate system C in advance when the workpieces WK1 and WK2 are measured. .

サブステップ2:3次元画像処理装置42は、前記抽出した少なくとも3つの3次元形状データを前記式1に示す平面の式にそれぞれ代入して、最小二乗法により未知数a,b,cを計算して仮平面P’を定義する。   Sub-step 2: The three-dimensional image processing device 42 substitutes the extracted at least three three-dimensional shape data into the plane equation shown in the equation 1, respectively, and calculates the unknowns a, b, and c by the least square method. To define a provisional plane P ′.

サブステップ3:3次元画像処理装置42は、前記3次元形状データ群の中から、前記定義した仮平面P’に対して所定の範囲内に属する3次元形状データをすべて抽出し、同抽出した3次元形状データの数が所定数以上であれば、抽出した3次元形状データがワークWK1の上面を表す3次元形状データであるとして、同抽出した3次元形状データを前記式1に示す平面の式に再度代入して、最小二乗法によりa,b,cを計算して平面を定義する。そして、この定義した平面(a,b,cの値)をワークWK1の上面を表す平面Pとして記憶する。一方、前記抽出した3次元形状データの数が所定数未満である場合には、最初に抽出した3次元形状データはワークWK1の上面を表す3次元形状データでないとして、最初に抽出した3次元形状データとは別の3次元形状データを前記式1に示す平面の式に再度代入して、最小二乗法により平面を定義する。そして、この定義した平面を新たな仮平面P’として、平面Pが定義されるまでこのサブステップ3の処理を繰り返し実行する。   Sub-step 3: The three-dimensional image processing apparatus 42 extracts all the three-dimensional shape data belonging to a predetermined range with respect to the defined provisional plane P ′ from the three-dimensional shape data group, and extracts the same. If the number of three-dimensional shape data is equal to or greater than a predetermined number, the extracted three-dimensional shape data is assumed to be three-dimensional shape data representing the upper surface of the workpiece WK1, and the extracted three-dimensional shape data is represented by Substituting again into the equation, a, b, c are calculated by the least square method to define the plane. The defined plane (values of a, b, and c) is stored as a plane P that represents the upper surface of the workpiece WK1. On the other hand, if the number of the extracted three-dimensional shape data is less than the predetermined number, it is assumed that the first extracted three-dimensional shape data is not the three-dimensional shape data representing the upper surface of the work WK1, and the first extracted three-dimensional shape data. The plane is defined by the least square method by substituting again the three-dimensional shape data different from the data into the plane formula shown in Formula 1. Then, the defined plane is set as a new provisional plane P ′, and the process of sub-step 3 is repeatedly executed until the plane P is defined.

次に、3次元画像処理装置42は、ステップS304にて、前記定義した平面P上に3つのベクトルA,B,Cを定義し、これらのベクトルのカメラ座標系Cによる成分A,B,Cを計算する。具体的には、3次元画像処理装置42は、平面Pを表す前記式1におけるa,b,cをベクトル成分とするベクトル、すなわち、平面Pの法線ベクトルで向きがカメラ座標系Cの原点から平面Pに向かうベクトルの単位ベクトルをベクトルCとして計算する。また、3次元形状データ群における各3次元形状データをカメラ座標系Cの同一(所定の範囲を含む)のY座標値ごとに分類し、同分類した3次元形状データを前記式2に示す直線の式に代入して、最小二乗法により未知数a’,b’,c’を計算するとともに、同計算したa’,b’,c’の各平均値をベクトル成分とするベクトルの単位ベクトルをベクトルAとして計算する。すなわち、ベクトルAは、カメラ座標系CのX軸と平行、換言すれば、3次元形状撮像装置10から出射されるレーザ光のX軸方向の走査方向と平行なベクトルである。そして、3次元画像処理装置42は、ベクトルAとベクトルCとの外積によるベクトルをベクトルBとして計算する。 Next, in step S304, the three-dimensional image processing apparatus 42 defines three vectors A, B, and C on the defined plane P, and components A C and B C of these vectors by the camera coordinate system C are defined. , C C is calculated. Specifically, the three-dimensional image processing apparatus 42 is a vector having a, b, and c in Equation 1 representing the plane P as vector components, that is, a normal vector of the plane P and the direction is the origin of the camera coordinate system C. the unit vector of the vector directed in the plane P is calculated as the vector C C from. Further, each three-dimensional shape data in the three-dimensional shape data group is classified by the same Y coordinate value (including a predetermined range) of the camera coordinate system C, and the classified three-dimensional shape data is represented by the straight line shown in the above equation 2. And the unknowns a ′, b ′, c ′ are calculated by the least square method, and unit vectors of vectors having the average values of the calculated a ′, b ′, c ′ as vector components are calculated. calculated as a vector A C. That is, the vector A is a vector parallel to the X axis of the camera coordinate system C, in other words, a vector parallel to the scanning direction of the laser light emitted from the three-dimensional shape imaging apparatus 10 in the X axis direction. Then, three-dimensional image processing apparatus 42 calculates a vector by the outer product of the vector A C and the vector C C as a vector B C.

次に、3次元画像処理装置42は、ステップS306にて、形状データ補正関数Fを計算する。この形状データ補正関数Fは、前記ステップS304にてそれぞれ定義し計算された3つのベクトルA,B,Cのカメラ座標系CによるベクトルA,B,Cと、同3つのベクトルA,B,CのZ座標軸がワークWK1,WK2の上面に垂直な座標系でのベクトル成分A,B,Cを用いて計算される。この場合、ベクトル成分A,B,Cは(1,0,0),(0,1,0),(0,0,1)であり、ベクトル成分A,B,Cは下記式10に示す値となる。

Figure 0004670700
Next, three-dimensional image processing apparatus 42, at step S306, calculates the shape data correction function F R. The shape data correction function F R is three vectors A defined respectively calculated at the step S304, B, vector A C of the camera coordinate system C of C, B C, C C and, the three vectors A , B, and C are calculated using vector components A P , B P , and C P in a coordinate system perpendicular to the upper surfaces of the workpieces WK1 and WK2. In this case, the vector components A P , B P , and C P are (1, 0, 0), (0, 1, 0), (0, 0, 1), and the vector components A C , B C , and C C Is a value shown in the following Equation 10.
Figure 0004670700

3次元画像処理装置42は、前記ベクトル成分A,B,Cを前記式5〜7における(α1,β1,γ1),(α2,β2,γ2),(α3,β3,γ3)とし、前記ベクトル成分A,B,Cを同式5〜7における(α’1,β’1,γ’1),(α’2,β’2,γ’2),(α’3,β’3,γ’3)として、カメラ座標系Cによる3次元形状データをZ座標軸がワークWK1,WK2の上面に垂直な座標系による3次元形状データに変換するための形状データ補正関数Fを計算する。次に、3次元画像処理装置42は、ステップS308にて、前記計算した形状データ補正関数Fを記憶する。そして、ステップS310にて、この形状データ補正関数F計算サブプログラムの実行を終了して、ワーク測定プログラムにおけるステップS208に戻る。 The three-dimensional image processing apparatus 42 sets the vector components A C , B C , and C C to (α1, β1, γ1), (α2, β2, γ2), (α3, β3, γ3) in the equations 5-7. the vector components a P, B P, the C P in the equation 5~7 (α'1, β'1, γ'1) , (α'2, β'2, γ'2), (α ' 3, β′3, γ′3), a shape data correction function for converting three-dimensional shape data based on the camera coordinate system C into three-dimensional shape data based on a coordinate system in which the Z coordinate axis is perpendicular to the upper surfaces of the workpieces WK1 and WK2. to calculate the F R. Next, three-dimensional image processing apparatus 42, at step S308, and stores the shape data correction function F R described above calculations. Then, at step S310, the ends the execution of the shape data correction function F R calculated subprogram returns to step S208 in the workpiece measurement program.

次に、3次元画像処理装置42は、ステップS208にて、前記形状データ補正関数F計算サブプログラムの実行により計算された形状データ補正関数Fを用いて、カメラ座標系Cによる3次元形状データをZ座標軸がワークWK1,WK2の上面に垂直な座標系による3次元形状データに座標変換する。なお、カメラ座標系CのZ軸がワークWK1,WK2の上面に対して直交するように3次元形状撮像装置10をワークWK1,WK2上に配置すれば、前記ステップS206およびこのステップS208に示す処理は不要である。 Next, three-dimensional image processing apparatus 42, at step S208, the shape data correction function F R calculated using the calculated geometry data correction function F R by the execution of a subprogram, three-dimensional shape by the camera coordinate system C The data is coordinate-converted into three-dimensional shape data in a coordinate system in which the Z coordinate axis is perpendicular to the upper surfaces of the workpieces WK1 and WK2. If the three-dimensional shape imaging apparatus 10 is arranged on the workpieces WK1 and WK2 so that the Z axis of the camera coordinate system C is orthogonal to the upper surfaces of the workpieces WK1 and WK2, the processing shown in step S206 and step S208 is performed. Is unnecessary.

次に、3次元画像処理装置42は、ステップS210にて、ワークWK1の端部T1とワークWK2の端部T2との間の隙間Cを計算する。この隙間Cの計算処理は、次のサブステップ1〜3の処理からなる。   Next, in step S210, the three-dimensional image processing apparatus 42 calculates a gap C between the end T1 of the work WK1 and the end T2 of the work WK2. The calculation process of the gap C includes the following sub-steps 1 to 3.

サブステップ1:3次元形状データ群における各3次元形状データを同一(所定の範囲を含む)のY座標値ごとに分類し、同分類した各3次元形状データの中からZ座標値が最も大きい3次元形状データを所定の数だけ抽出する。ここで、Z座標値が最も大きい3次元形状データを抽出するのは、ワークWK1,WK2の端部T1,T2を表す3次元形状データにおけるZ座標値がワークWK1,WK2の上面を表す3次元形状データにおけるZ座標値よりも大きい、換言すれば同端部T1,T2を表す3次元形状データにおけるZ座標値がワークWK1,WK2の上面に対しZ軸を垂直にした座標系の座標原点から最も遠い位置に存在するからである。これにより、図10(A)に示すように、同一(所定の範囲を含む)のY座標値ごとに、ワークWK1,WK2の端部T1,T2(図中破線で示した円A,B内の部分)を表す3次元形状データが抽出される。図10(A)は、Y座標値(所定の範囲を含む)が共通する複数の3次元形状データによって表されたワークWK1,WK2の断面を表している。   Substep 1: Each 3D shape data in the 3D shape data group is classified for each Y coordinate value (including a predetermined range), and the Z coordinate value is the largest among the classified 3D shape data. A predetermined number of three-dimensional shape data is extracted. Here, the three-dimensional shape data having the largest Z coordinate value is extracted because the Z coordinate value in the three-dimensional shape data representing the end portions T1 and T2 of the workpieces WK1 and WK2 represents the upper surface of the workpieces WK1 and WK2. From the coordinate origin of the coordinate system in which the Z coordinate value is larger than the Z coordinate value in the shape data, in other words, the Z coordinate value in the three-dimensional shape data representing the end portions T1 and T2 is perpendicular to the upper surface of the workpieces WK1 and WK2. It is because it exists in the farthest position. As a result, as shown in FIG. 10 (A), for each Y coordinate value (including a predetermined range), the ends T1, T2 of the workpieces WK1, WK2 (in circles A, B indicated by broken lines in the figure) The three-dimensional shape data representing the part) is extracted. FIG. 10A shows a cross section of the workpieces WK1 and WK2 represented by a plurality of three-dimensional shape data having a common Y coordinate value (including a predetermined range).

サブステップ2:3次元画像処理装置42は、前記サブステップ1にて抽出した3次元形状データの中からX座標値が最も大きな3次元形状データ(図中、XMAX)を抽出し、同抽出した3次元形状データのX座標値と、前記サブステップ1にて抽出した3次元形状データのX座標値との差をそれぞれ計算する。そして、計算した差に応じて前記サブステップ1にて抽出した3次元形状データを2組に分類する。具体的には、前記計算した差の値が所定の範囲内である組と、同差の値が所定の範囲を超える組に分類する。これにより、前記サブステップ1にて抽出した3次元形状データを、ワークWK1の端部T1を表す3次元形状データ(図中破線で示した円A内に含まれる3次元形状データ)と、ワークWK2の端部T2を表す3次元形状データ(図中破線で示した円B内に含まれる3次元形状データ)とに分類することができる。 Sub-step 2: The three-dimensional image processing device 42 extracts the three-dimensional shape data (X MAX in the figure) having the largest X coordinate value from the three-dimensional shape data extracted in the sub-step 1 and extracts the same. The difference between the X coordinate value of the three-dimensional shape data thus obtained and the X coordinate value of the three-dimensional shape data extracted in the sub-step 1 is calculated. Then, the three-dimensional shape data extracted in the sub-step 1 is classified into two sets according to the calculated difference. Specifically, the group is classified into a group in which the calculated difference value is within a predetermined range and a group in which the difference value exceeds a predetermined range. As a result, the three-dimensional shape data extracted in the sub-step 1 is converted into the three-dimensional shape data representing the end T1 of the workpiece WK1 (three-dimensional shape data included in the circle A indicated by the broken line in the drawing), and the workpiece. It can be classified into three-dimensional shape data (three-dimensional shape data included in a circle B indicated by a broken line in the drawing) representing the end portion T2 of WK2.

サブステップ3:前記分類したワークWK1の端部T1を表す3次元形状データにおいてX座標値が最も大きい3次元形状データ(図中、a)のX座標値と、同分類したワークWK2の端部T2を表す3次元形状データにおいてX座標値が最も小さい3次元形状データ(図中、b)のX座標値との差の絶対値(|a−b|)を、ワークWK1の端部T1とワークWK2の端部T2との間の隙間Cとして計算する。この計算は、同一(所定の範囲を含む)のY座標値ごとに実行されるため、複数の隙間Cが求められる。よってこれら複数の隙間Cの平均値を計算して、隙間Caveとする。 Substep 3: The X coordinate value of the three-dimensional shape data (a in the figure) having the largest X coordinate value in the three-dimensional shape data representing the end portion T1 of the classified work WK1 and the end portion of the classified work WK2 The absolute value (| ab−) of the difference from the X coordinate value of the three-dimensional shape data (b in the figure) having the smallest X coordinate value in the three-dimensional shape data representing T2 is expressed as the end T1 of the workpiece WK1. Calculated as a gap C between the end T2 of the workpiece WK2. Since this calculation is executed for each Y coordinate value (including a predetermined range), a plurality of gaps C are obtained. Therefore, an average value of the plurality of gaps C is calculated and set as a gap C ave .

次に、3次元画像処理装置42は、ステップS212にて、ワークWK1の上面とワークWK2の上面との段差Lを計算する。この段差Lの計算処理は、次のサブステップ1〜5の処理からなる。   Next, in step S212, the three-dimensional image processing apparatus 42 calculates a step L between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2. The calculation process of the level difference L includes the following sub-steps 1 to 5.

サブステップ1:前記ステップS210におけるサブステップ1と同様にして、3次元形状データ群における3次元形状データを同一(所定の範囲を含む)のY座標値ごとに分類し、同分類した3次元形状データの中からZ座標値が最も大きい3次元形状データを所定の数だけ抽出する。これにより、図10(B)に示すように、同一(所定の範囲を含む)のY座標値ごとに、ワークWK1,WK2の端部T1,T2(図中破線で示した円A,B内の部分)を表す3次元形状データが抽出される。図10(B)は、Y座標値(所定の範囲を含む)が共通する複数の3次元形状データによって表されたワークWK1,WK2の断面を表している。   Sub-step 1: Similar to sub-step 1 in step S210, the three-dimensional shape data in the three-dimensional shape data group is classified by the same (including a predetermined range) Y coordinate value, and the classified three-dimensional shape A predetermined number of three-dimensional shape data having the largest Z coordinate value are extracted from the data. As a result, as shown in FIG. 10B, for each Y coordinate value (including a predetermined range), the ends T1, T2 of the workpieces WK1, WK2 (in circles A, B indicated by broken lines in the figure) The three-dimensional shape data representing the part) is extracted. FIG. 10B shows a cross section of the workpieces WK1 and WK2 represented by a plurality of three-dimensional shape data having common Y coordinate values (including a predetermined range).

サブステップ2:前記ステップS210におけるサブステップ2と同様にして、3次元画像処理装置42は、前記サブステップ1にて抽出した3次元形状データの中からX座標値が最も大きな3次元形状データ(図中、XMAX)を抽出し、同抽出した3次元形状データのX座標値と、前記サブステップ1にて抽出した3次元形状データのX座標値との差をそれぞれ計算する。そして、計算した差に応じて前記サブステップ1にて抽出した3次元形状データを2組に分類する。これにより、前記サブステップ1にて抽出した3次元形状データを、ワークWK1の端部T1を表す3次元形状データ(図中破線で示した円A内に含まれる3次元形状データ)と、ワークWK2の端部T2を表す3次元形状データ(図中破線で示した円B内に含まれる3次元形状データ)と分類することができる。 Sub-step 2: In the same manner as in sub-step 2 in step S210, the three-dimensional image processing device 42 has the largest X-coordinate value among the three-dimensional shape data extracted in sub-step 1 ( In the figure, X MAX ) is extracted, and the difference between the X coordinate value of the extracted three-dimensional shape data and the X coordinate value of the three-dimensional shape data extracted in the sub-step 1 is calculated. Then, the three-dimensional shape data extracted in the sub-step 1 is classified into two sets according to the calculated difference. As a result, the three-dimensional shape data extracted in the sub-step 1 is converted into the three-dimensional shape data representing the end T1 of the workpiece WK1 (three-dimensional shape data included in the circle A indicated by the broken line in the drawing), and the workpiece. It can be classified as three-dimensional shape data (three-dimensional shape data included in a circle B indicated by a broken line in the drawing) representing the end T2 of WK2.

サブステップ3:前記分類したワークWK1の端部T1を表す3次元形状データにおいて、X座標値が最も大きい3次元形状データ(図中、a)のX座標値より所定の範囲内で小さいX座標値を有する3次元形状データ(図中破線で示した円C内に含まれる3次元形状データ)を抽出するとともに、同分類したワークWK2の端部T2を表す3次元形状データにおいてX座標値が最も小さい3次元形状データ(図中、b)のX座標値より所定の範囲内で大きいX座標値を有する3次元形状データ(図中破線で示した円D内に含まれる3次元形状データ)を抽出する。これにより、ワークWK1,WK2の各端部T1,T2から所定の範囲のワークWK1,WK2の表面(各端部T1,T2および各上面)を表す3次元形状データが抽出される。   Sub-step 3: In the three-dimensional shape data representing the end portion T1 of the classified work WK1, the X coordinate that is smaller within a predetermined range than the X coordinate value of the three-dimensional shape data (a in the figure) having the largest X coordinate value 3D shape data having a value (3D shape data included in a circle C indicated by a broken line in the figure) is extracted, and the X coordinate value in the 3D shape data representing the end T2 of the work WK2 is classified. Three-dimensional shape data having a larger X-coordinate value within a predetermined range than the X-coordinate value of the smallest three-dimensional shape data (b in the figure) (three-dimensional shape data included in a circle D indicated by a broken line in the figure) To extract. As a result, three-dimensional shape data representing the surfaces of the workpieces WK1, WK2 (the ends T1, T2 and the upper surfaces) in a predetermined range from the ends T1, T2 of the workpieces WK1, WK2 is extracted.

サブステップ4:前記サブステップ3にて抽出した2組の3次元形状データ群において、それぞれZ座標値の度数分布を計算し、同計算した度数分布における最大度数のZ座標値の3次元形状データ、および同最大度数のZ座標値に対して所定の範囲内に属するZ座標値の3次元形状データをそれぞれ抽出する。これにより、図10(B)に示すように、ワークWK1,WK2の各端部T1,T2付近の各上面を表す3次元形状データ(図中破線で示した円c、d内に含まれる3次元形状データ)が抽出される。   Sub-step 4: In the two sets of three-dimensional shape data groups extracted in sub-step 3, the frequency distribution of the Z coordinate value is calculated, and the three-dimensional shape data of the maximum coordinate Z coordinate value in the calculated frequency distribution. , And three-dimensional shape data of Z coordinate values belonging to a predetermined range with respect to the Z coordinate value of the same maximum frequency. As a result, as shown in FIG. 10B, the three-dimensional shape data (3 included in the circles c and d indicated by the broken lines in the figure) representing the upper surfaces near the ends T1 and T2 of the workpieces WK1 and WK2. Dimensional shape data) is extracted.

サブステップ5:前記抽出したワークWK1の上面を表す3次元形状データ(図中破線で示した円c内に含まれる3次元形状データ)のZ座標値の平均値Z1AVと、前記抽出したワークWK2の上面を表す3次元形状データ(図中破線で示した円d内に含まれる3次元形状データ)のZ座標値の平均値Z2AVとの差の絶対値(|Z1AV−Z2AV|)を、ワークWK1の上面とワークWK2の上面との段差Lとして計算する。この計算は、同一(所定の範囲を含む)のY座標値ごとに実施されるため、複数の段差Lが求められる。よって、これら複数の段差Lの平均値を計算して段差Laveとする。 Substep 5: an average value Z1 AV Z coordinate values of the three-dimensional shape data representing the upper surface of the work WK1 that the extracted (three-dimensional shape data contained in the circle c indicated by a broken line in the figure), a work in which the extracted The absolute value (| Z1 AV −Z2 AV |) of the difference between the average value Z2 AV of the Z coordinate values of the three-dimensional shape data representing the upper surface of WK2 (three-dimensional shape data included in the circle d indicated by the broken line in the drawing) ) Is calculated as a step L between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2. Since this calculation is performed for each Y coordinate value (including a predetermined range), a plurality of steps L are obtained. Therefore, an average value of the plurality of steps L is calculated as a step L ave .

次に、3次元画像処理42は、ステップS214にて、前記ステップS204にて合成された3次元形状データ群を用いてワークWK1,WK2の3次元形状を表示装置44に表示させた後、ステップS216にて、前記計算したワークWK1の端部T1とワークWK2の端部T2との間の隙間Cave、およびワークWK1の上面とワークWK2の上面との段差Laveを表示装置44にそれぞれ表示させる。そして、3次元画像処理装置42は、ステップS218にて、ワーク測定プログラムの実行を終了する。このワークWK1,WK2の3次元形状の表示においては、作業者は入力装置43を操作することによりワークWKの表示方向を指示することができ、コントローラ41および3次元画像処理装置42は表示装置44にて表示されるワークWK1,WK2の表示方向を変更する。これにより、任意の方向から見たワークWK1,WK2の各端部T1,T2の立体形状を表示させることができる。 Next, in step S214, the three-dimensional image processing 42 displays the three-dimensional shapes of the workpieces WK1 and WK2 on the display device 44 using the three-dimensional shape data group synthesized in step S204. In S216, the calculated gap C ave between the end T1 of the workpiece WK1 and the end T2 of the workpiece WK2 and the step L ave between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2 are displayed on the display device 44, respectively. Let In step S218, the three-dimensional image processing apparatus 42 ends the execution of the workpiece measurement program. In displaying the three-dimensional shapes of the workpieces WK1 and WK2, the operator can instruct the display direction of the workpiece WK by operating the input device 43. The controller 41 and the three-dimensional image processing device 42 are displayed on the display device 44. The display direction of the workpieces WK1 and WK2 displayed at is changed. Thereby, the three-dimensional shape of each edge part T1, T2 of the workpiece | work WK1, WK2 seen from arbitrary directions can be displayed.

また、新たなワークWK1,WK2上に3次元形状測定装置を配置して、前述のようにワークWK1,WK2の測定を指示して3次元形状撮像装置10による測定を行えば、前記ワーク測定プログラムの実行によりワークWK1の端部T1とワークWK2の端部T2との間の隙間Cave、およびワークWK1の上面とワークWK2の上面との段差Laveを計算させることができる。すなわち、ワークWK1,WK2の測定に先立って形状データ合成関数Fを一度だけ計算しておけば、ワークWK1,WK2を次々に換えてワークWK1の端部T1とワークWK2の端部T2との間の隙間Cave、およびワークWK1の上面とワークWK2の上面との段差Laveを計算させることができる。 If the three-dimensional shape measuring device is arranged on the new workpieces WK1 and WK2, and the measurement of the workpieces WK1 and WK2 is instructed and the measurement is performed by the three-dimensional shape imaging device 10 as described above, the workpiece measurement program By executing this, it is possible to calculate the gap C ave between the end T1 of the work WK1 and the end T2 of the work WK2, and the step L ave between the upper surface of the work WK1 and the upper surface of the work WK2. That is, if calculated only once the shape data synthesis function F S prior to measurement of the work WK1, WK2, the end T2 of the end T1 and the work WK2 of changing the work WK1, WK2 one after another workpiece WK1 The gap C ave between them and the level difference L ave between the upper surface of the work WK1 and the upper surface of the work WK2 can be calculated.

上記作動説明からも理解できるように、上記実施形態によれば、3次元形状撮像装置10から出射されたレーザ光を反射ミラー31,32によって反射させることにより、3次元形状撮像装置10から出射され直接ワークWK1,WK2を照射するレーザ光とは異なる方向からワークWK1,WK2にレーザ光を照射している。そして、同異なる方向から照射されたレーザ光によるワークWK1,WK2からの間接反射光を再び反射ミラー31,32によって反射させることにより3次元形状撮像装置10に導いている。すなわち、ワークWK1,WK2に対して互いに異なる方向からレーザ光を照射してワークWK1,WK2の測定を行っている。これにより、3次元形状撮像装置10から直接ワークWK1,WK2を照射するレーザ光の光軸が同ワークWK1,WK2の照射面に対して平行に近い場合であっても、同レーザ光とは異なる方向から導かれるレーザ光によってワークWK1,WK2からの間接反射光を3次元形状撮像装置10に導くことができる。この結果、3次元形状撮像装置10から出射されワークWK1,WK2に照射されるレーザ光の光軸に対して平行に近いワークWK1,WK2の表面、具体的には端部T1,T2の3次元形状も精度良く測定することができる。   As can be understood from the above description of the operation, according to the above embodiment, the laser light emitted from the three-dimensional shape imaging apparatus 10 is reflected by the reflection mirrors 31 and 32 to be emitted from the three-dimensional shape imaging apparatus 10. The workpieces WK1 and WK2 are irradiated with laser light from a different direction from the laser beams that directly irradiate the workpieces WK1 and WK2. Then, the indirect reflected light from the workpieces WK1 and WK2 by the laser light irradiated from the same different direction is reflected again by the reflecting mirrors 31 and 32, thereby leading to the three-dimensional shape imaging apparatus 10. That is, the workpieces WK1 and WK2 are measured by irradiating the workpieces WK1 and WK2 with laser beams from different directions. Thereby, even when the optical axis of the laser beam directly irradiating the workpieces WK1 and WK2 from the three-dimensional shape imaging apparatus 10 is almost parallel to the irradiation surface of the workpieces WK1 and WK2, it is different from the laser beam. The indirectly reflected light from the workpieces WK1 and WK2 can be guided to the three-dimensional shape imaging apparatus 10 by the laser light guided from the direction. As a result, the surfaces of the workpieces WK1 and WK2 that are nearly parallel to the optical axis of the laser light emitted from the three-dimensional shape imaging apparatus 10 and applied to the workpieces WK1 and WK2, specifically, the three-dimensional shapes of the end portions T1 and T2 The shape can also be measured with high accuracy.

さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。   Furthermore, in carrying out the present invention, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the object of the present invention.

上記実施形態においては、3次元形状撮像装置10の測定対象空間内におけるX−Y座標平面のすべての範囲をレーザ光で走査することによりワークWK1,WK2の3次元形状を測定して、ワークWK1の端部T1とワークWK2の端部T2との間の隙間Cave、およびワークWK1の上面とワークWK2の上面との段差Laveを計算するように構成した。しかし、3次元形状撮像装置10の測定対象空間内におけるX−Y座標平面の1つのX軸方向にだけレーザ光を走査、すなわちレーザ光をX軸方向に1回だけ走査することにより前記隙間Cおよび段差Lを計算することもできる。この場合、3次元形状撮像装置10から反射ミラー31,32に向けて出射されるレーザ光と、反射ミラー31,32によって反射されワークWK1,WK2に導かれるレーザ光とが同一平面内に含まれるように反射ミラー31,32の向きを調整、具体的には、3次元形状撮像装置10から出射されるレーザ光が含まれる平面が反射ミラー31,32の反射面に直交するように反射ミラー31,32の向きを調整しておく必要がある。これは、3次元形状撮像装置10から出射されたレーザ光が直接ワークWK1,WK2に照射される位置と、同レーザ光が反射ミラー31,32を介してワークWK1,WK2に照射される位置とを一致させるためである。 In the above embodiment, the three-dimensional shape of the workpieces WK1 and WK2 is measured by scanning the entire range of the XY coordinate plane in the measurement target space of the three-dimensional shape imaging apparatus 10 with the laser beam, and the workpiece WK1. The gap C ave between the end T1 of the workpiece and the end T2 of the workpiece WK2 and the step L ave between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2 are calculated. However, the gap C is obtained by scanning the laser beam only in one X-axis direction on the XY coordinate plane in the measurement target space of the three-dimensional shape imaging apparatus 10, that is, scanning the laser beam only once in the X-axis direction. And the step L can also be calculated. In this case, the laser light emitted from the three-dimensional shape imaging apparatus 10 toward the reflection mirrors 31 and 32 and the laser light reflected by the reflection mirrors 31 and 32 and guided to the workpieces WK1 and WK2 are included in the same plane. Thus, the direction of the reflection mirrors 31 and 32 is adjusted, specifically, the reflection mirror 31 so that the plane including the laser light emitted from the three-dimensional shape imaging apparatus 10 is orthogonal to the reflection surfaces of the reflection mirrors 31 and 32. , 32 need to be adjusted. This is because the laser beam emitted from the three-dimensional shape imaging apparatus 10 is directly irradiated onto the workpieces WK1 and WK2, and the position where the laser beam is irradiated onto the workpieces WK1 and WK2 via the reflection mirrors 31 and 32. This is because of matching.

この反射ミラー31,32の向きを調整する方法の一例を説明しておく。平板治具JG2の上面に1つの三角形を形成しておく。この三角形の内側と同三角形の外側とは、互いに異なる反射率に形成する。そして、3次元形状撮像装置10は、前記三角形を横断するように平板治具JG2の上面を1回だけ走査する。3次元画像処理装置42は、直接3次元形状データおよび間接3次元形状データにおいて、Z座標値が大きく変化する3次元形状データ(反射光量が大きく変化する位置)を用いて、前記三角形におけるレーザ光が横断した部分の幅をそれぞれ計算する。この直接3次元形状データによって計算される三角形の幅と、間接3次元形状データによって計算される三角形の幅とが等しくなるように反射ミラー31,32の向きを調整すれば、3次元形状撮像装置10から反射ミラー31,32に向けて出射されるレーザ光と、反射ミラー31,32によって反射されワークWK1,WK2に導かれるレーザ光とが同一平面内に含まれるようになる。   An example of a method for adjusting the orientation of the reflection mirrors 31 and 32 will be described. One triangle is formed on the upper surface of the flat jig JG2. The inside of the triangle and the outside of the triangle are formed with different reflectances. The three-dimensional shape imaging apparatus 10 scans the upper surface of the flat jig JG2 only once so as to cross the triangle. The three-dimensional image processing device 42 uses the three-dimensional shape data (position where the amount of reflected light changes greatly) in the direct three-dimensional shape data and indirect three-dimensional shape data to change the laser beam in the triangle. Calculating the width of each crossed by. If the orientation of the reflecting mirrors 31 and 32 is adjusted so that the triangle width calculated from the direct three-dimensional shape data is equal to the triangle width calculated from the indirect three-dimensional shape data, the three-dimensional shape imaging device The laser light emitted from 10 toward the reflecting mirrors 31 and 32 and the laser light reflected by the reflecting mirrors 31 and 32 and guided to the workpieces WK1 and WK2 are included in the same plane.

なお、このようにレーザ光をX軸方向に1回だけ走査する場合においては、カメラ座標系CにおけるY座標を考慮する必要がないため、ワークWK1,WK2はX座標値およびZ座標値からなる2次元形状データによって表される。したがって、上記実施形態における形状データ合成関数Fおよび形状データ補正関数Fも2次元座標系に対応した関数となる。また、この場合、形状データ合成関数Fを計算する際、平板治具JG2の上面と溝部Mの端部T3または端部T4との交線と3次元形状撮像装置10から出射されるレーザ光が含まれる平面との交点を前記定点T,TI1,TI2とすることができるため、定点設定治具JG3を用いなくても、すなわち、平板治具JG2のみを用いて形状データ合成関数Fを計算することができる。これによっても、本実施形態と同様の効果が期待できる。 When the laser beam is scanned only once in the X-axis direction in this way, it is not necessary to consider the Y coordinate in the camera coordinate system C, and therefore the workpieces WK1 and WK2 are composed of an X coordinate value and a Z coordinate value. Represented by two-dimensional shape data. Therefore, the shape data combining function F S and shape data correction function F R also correspond to the two-dimensional coordinate system functions in the above embodiments. Further, in this case, when calculating the shape data synthesis function F S , the intersection of the upper surface of the flat plate jig JG2 and the end T3 or the end T4 of the groove M and the laser light emitted from the three-dimensional shape imaging apparatus 10 Can be used as the fixed points T D , T I1 , T I2 , so that the shape data composition function can be used without using the fixed point setting jig JG3, that is, using only the flat plate jig JG2. F S can be calculated. Also by this, the same effect as this embodiment can be expected.

また、上記実施形態においては、形状データ合成関数Fを計算するために、平板治具JG2および定点設定治具JG3を用いたが、3次元形状撮像装置10の測定対象空間内において3つのベクトルと1つの定点とが定義できれば、これに限定されるものでない。例えば、平板治具JG1の上面に互いに判別可能(例えば、直径や反射率を異ならせる)な2つの円を形成する。これらの各円の内側と同各円の外側とは、互いに異なる反射率に形成する。そして、上記実施形態と同様にして、平板治具JG1の上面(平面P)の法線ベクトルの単位ベクトルを前記ベクトルA,AI1,AI2とする。また、前記2つの円の各中心座標を通るベクトルの単位ベクトルを前記ベクトルB,BI1,BI2とするとともに、前記ベクトルA,AI1,AI2とベクトルB,BI1,BI2の各外積によるベクトルをベクトルC,CI1,CI2とすれば、前記と同様にして形状データ合成関数Fの回転成分MFSを計算することができる。また、前記2つの円のどちらか一方の円の中心座標を前記定点T,TI1,TI2とすれば、前記と同様にして形状データ合成関数Fの原点ずれ成分GFSを計算することができる。また、別の方法として、3次元形状撮像装置10の測定対象空間内に少なくとも3つの定点を定義できる物体(例えば球体)を配置して、同物体により定義される少なくとも3つの定点を用いて3つのベクトルと1つの定点とを定義して形状データ合成関数Fを計算することもできる。これによっても、本実施形態と同様の効果が期待できる。 In the above-described embodiment, the flat plate jig JG2 and the fixed point setting jig JG3 are used to calculate the shape data synthesis function F S. However, three vectors in the measurement target space of the three-dimensional shape imaging apparatus 10 are used. And one fixed point can be defined, it is not limited to this. For example, two circles that can be distinguished from each other (for example, having different diameters and reflectivities) are formed on the upper surface of the flat plate jig JG1. The inside of each circle and the outside of each circle are formed with different reflectances. Then, similarly to the above embodiment, the unit vector of the normal vector of the top surface of the flat tool JG1 (plane P) and the vector A D, A I1, A I2 . The unit vectors of the vectors passing through the central coordinates of the two circles are the vectors B D , B I1 , B I2, and the vectors A D , A I1 , A I2 and the vectors B D , B I1 , B If the vectors of the outer products of I2 are vectors C D , C I1 , and C I2 , the rotation component M FS of the shape data synthesis function F S can be calculated in the same manner as described above. If the center coordinates of one of the two circles are the fixed points T D , T I1 , T I2 , the origin deviation component G FS of the shape data composition function F S is calculated in the same manner as described above. be able to. As another method, an object (for example, a sphere) that can define at least three fixed points is arranged in the measurement target space of the three-dimensional shape imaging apparatus 10, and three or more fixed points defined by the same object are used. The shape data synthesis function F S can also be calculated by defining one vector and one fixed point. Also by this, the same effect as this embodiment can be expected.

なお、形状データ合成関数Fは、前記したようにカメラ座標系Cにおける反射ミラー31,32の位置および向きに応じて計算される関数であるため、カメラ座標系Cにおける反射ミラー31,32の位置および向きが特定できれば、必ずしも上記したような各種物体を用いる必要はない。例えば、カメラ座標系Cにおける反射ミラー31,32の位置および向きを検出するためのセンサを反射ミラー31,32にそれぞれ備え、同センサによって検出された反射ミラー31,32の位置および向きを用いて形状データ合成関数Fを計算することもできる。これによっても、本実施形態と同様の効果が期待できる。 Since the shape data synthesis function F S is a function calculated according to the position and orientation of the reflection mirrors 31 and 32 in the camera coordinate system C as described above, the shape data synthesis function F S is the function of the reflection mirrors 31 and 32 in the camera coordinate system C. If the position and orientation can be specified, it is not always necessary to use various objects as described above. For example, sensors for detecting the positions and orientations of the reflection mirrors 31 and 32 in the camera coordinate system C are provided in the reflection mirrors 31 and 32, respectively, and the positions and orientations of the reflection mirrors 31 and 32 detected by the sensors are used. The shape data composition function F S can also be calculated. Also by this, the same effect as this embodiment can be expected.

また、上記実施形態においては、ワークWK1の端部T1とワークWK2の端部T2との間の隙間C、およびワークWK1の上面とワークWK2の上面との段差Lとともに、ワークWK1,WK2の端部T1,T2の3次元形状を表示するように構成した。しかし、本実施形態においては、前記隙間Cおよび段差Lを表示すれば、必ずしもワークWK1,WK2の端部T1,T2の3次元形状を表示する必要はない。   In the above embodiment, the ends of the workpieces WK1 and WK2 together with the gap C between the end T1 of the workpiece WK1 and the end T2 of the workpiece WK2 and the step L between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2. The three-dimensional shape of the portions T1 and T2 is displayed. However, in the present embodiment, if the gap C and the step L are displayed, it is not always necessary to display the three-dimensional shape of the end portions T1 and T2 of the workpieces WK1 and WK2.

また、上記実施形態においては、ワークWK1の端部T1とワークWK2の端部T2との間の隙間C、およびワークWK1の上面とワークWK2の上面との段差Lを測定するようにしたが、当然どちらか一方の測定であってもよい。また、これらの隙間Cおよび段差Lに代えて測定対象物体上に設けられた孔部の直径を測定するものであってもよい。この場合、孔部の測定対象物の表面における開口部に3次元形状撮像装置10から出射されたレーザ光を漏れなく照射するように反射ミラーを適宜配置する。また、ワークWK1の上面とワークWK2の上面との段差Lのみを測定する場合には、ワークWK1とワークWK2との間の段部にレーザ光が照射されるように反射ミラーを1つ設ければ、段差Lを測定することができる。すなわち、反射ミラーは、測定する対象にレーザ光を導くように配置する位置および配置する数を適宜設定して用いればよい。これによっても、本実施形態と同様の効果が期待できる。   In the above embodiment, the gap C between the end portion T1 of the workpiece WK1 and the end portion T2 of the workpiece WK2 and the step L between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2 are measured. Of course, either measurement may be performed. Moreover, it may replace with these clearance gap C and level | step difference L, and may measure the diameter of the hole provided on the measurement object. In this case, the reflection mirror is appropriately arranged so that the laser beam emitted from the three-dimensional shape imaging apparatus 10 is irradiated to the opening portion of the surface of the measurement object in the hole portion without leakage. When only the step L between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2 is measured, one reflection mirror is provided so that the stepped portion between the workpiece WK1 and the workpiece WK2 is irradiated with laser light. For example, the step L can be measured. In other words, the reflecting mirror may be used by appropriately setting the position and the number of the reflecting mirrors so as to guide the laser beam to the object to be measured. Also by this, the same effect as this embodiment can be expected.

また、上記実施形態においては、反射ミラー31,32によってワークWK1,WK2の導かれるレーザ光の光軸が、ワークWK1,WK2の端部T1,T2に略直交するように反射ミラー31,32の位置および向きを調整した。しかし、3次元形状撮像装置10によって同端部T1,T2の3次元形状を測定できれば必ずしも同レーザ光の光軸が端部T1,T2に略直交するように反射ミラー31,32の位置および向きを調整する必要はない。すなわち、端部T1,T2に略直交するようにレーザ光を照射したのは、3次元形状撮像装置10により多くの間接反射光を入射させるためである。したがって、3次元形状撮像装置10が間接反射光を受光できる範囲で、反射ミラー31,32の位置および向きを調整すればよい。   In the above-described embodiment, the reflection mirrors 31 and 32 are arranged so that the optical axes of the laser beams guided to the workpieces WK1 and WK2 by the reflection mirrors 31 and 32 are substantially orthogonal to the end portions T1 and T2 of the workpieces WK1 and WK2. The position and orientation were adjusted. However, if the three-dimensional shape imaging apparatus 10 can measure the three-dimensional shape of the end portions T1 and T2, the positions and orientations of the reflection mirrors 31 and 32 are such that the optical axis of the laser beam is substantially perpendicular to the end portions T1 and T2. There is no need to adjust. That is, the reason why the laser light is irradiated so as to be substantially orthogonal to the end portions T <b> 1 and T <b> 2 is to allow more indirect reflected light to enter the three-dimensional shape imaging apparatus 10. Therefore, the position and orientation of the reflection mirrors 31 and 32 may be adjusted within a range in which the three-dimensional shape imaging apparatus 10 can receive indirect reflected light.

また、上記実施形態においては、反射ミラー31,32を支持する支持具20にジョイント23,25,26を設けて、3次元形状撮像装置10に対する反射ミラー31,32の位置および向きを調整可能に構成した。しかし、測定対象物における測定位置が特定の位置に決まっている場合など、反射ミラー31,32の位置および向きを変化させる必要がない場合には、ジョイント23,25,26による反射ミラー31,32の位置および向きを調整する機構は不要である。これによっても、本実施形態と同様の効果が期待できる。   In the above embodiment, the joints 23, 25, 26 are provided on the support 20 that supports the reflection mirrors 31, 32 so that the positions and orientations of the reflection mirrors 31, 32 with respect to the three-dimensional shape imaging apparatus 10 can be adjusted. Configured. However, when there is no need to change the position and orientation of the reflection mirrors 31 and 32, such as when the measurement position on the measurement object is determined to be a specific position, the reflection mirrors 31 and 32 by the joints 23, 25, and 26 are used. A mechanism for adjusting the position and orientation of the is unnecessary. Also by this, the same effect as this embodiment can be expected.

また、上記実施形態においては、ワークWK1の端部T1とワークWK2の端部T2との間の隙間C、およびワークWK1の上面とワークWK2の上面との段差Lを測定する3次元形状測定装置(例えば、自動車の板金精度を検査するプロファイルスキャナ)に本発明を適用したが、これに限定されるものではない。例えば、ワークWK1の端部T1とワークWK2の端部T2の3次元形状を測定して、同端部T1,T2の3次元形状を表示させる3次元形状測定装置すべてに本発明を適用することができる。なお、この場合、3次元形状撮像装置10から出射されワークWK1,Wk2に照射されるレーザ光のワークWK1,WK2上における走査範囲と、3次元形状撮像装置10から出射され反射ミラー31,32を介してワークWK1,WK2に照射されるレーザ光のワークWK1,WK2上における走査範囲とが重なるように反射ミラー31,32を設ける。これにより、3次元形状撮像装置10の測定対象空間内に配置されたワークWK1,WK2の3次元形状を漏れなく表示装置44に表示させることができる。   In the above embodiment, the three-dimensional shape measuring apparatus measures the gap C between the end T1 of the workpiece WK1 and the end T2 of the workpiece WK2 and the step L between the upper surface of the workpiece WK1 and the upper surface of the workpiece WK2. Although the present invention is applied to (for example, a profile scanner for inspecting sheet metal accuracy of an automobile), the present invention is not limited to this. For example, the present invention is applied to all three-dimensional shape measuring apparatuses that measure the three-dimensional shape of the end portion T1 of the workpiece WK1 and the end portion T2 of the workpiece WK2 and display the three-dimensional shapes of the end portions T1 and T2. Can do. In this case, the scanning range on the workpieces WK1 and WK2 of the laser light emitted from the three-dimensional shape imaging device 10 and irradiated on the workpieces WK1 and Wk2, and the reflection mirrors 31 and 32 emitted from the three-dimensional shape imaging device 10 are reflected. The reflection mirrors 31 and 32 are provided so that the scanning ranges on the workpieces WK1 and WK2 of the laser light irradiated onto the workpieces WK1 and WK2 overlap. Thereby, the three-dimensional shape of the workpieces WK1 and WK2 arranged in the measurement target space of the three-dimensional shape imaging apparatus 10 can be displayed on the display device 44 without omission.

本発明の一実施形態に係る3次元形状測定装置の全体を示す概略図である。It is the schematic which shows the whole three-dimensional shape measuring apparatus which concerns on one Embodiment of this invention. 反射ミラーの位置を測定する際の3次元形状測定装置の状態を示す斜視図である。It is a perspective view which shows the state of the three-dimensional shape measuring apparatus at the time of measuring the position of a reflective mirror. 図1の3次元形状測定装置における3次元画像処理装置によって実行される形状データ合成関数F計算プログラムのフローチャートである。It is a flowchart of the shape data synthesis function F S calculation program executed by the three-dimensional image processing apparatus in the three-dimensional shape measuring apparatus of FIG. (A),(B)は、反射ミラーの位置を測定する際のレーザ光の照射状態を説明するための説明図である。(A), (B) is explanatory drawing for demonstrating the irradiation state of the laser beam at the time of measuring the position of a reflective mirror. 平板治具JG2を用いて形状データ合成関数Fを計算する状態を示す斜視図である。It is a perspective view showing a state of calculating the shape data synthesis function F S with plate jig JG2. 定点設定治具JG3を用いて形状データ合成関数Fを計算する状態を示す斜視図である。It is a perspective view showing a state of calculating the shape data synthesis function F S using fixed point setting jig JG3. 図1の3次元形状測定装置における3次元画像処理装置によって実行されるワーク測定プログラムのフローチャートである。It is a flowchart of the workpiece | work measurement program performed by the three-dimensional image processing apparatus in the three-dimensional shape measuring apparatus of FIG. (A)〜(C)は、ワークWK1,WK2を測定する際におけるレーザ光の照射状態を説明するための説明図である。(A)-(C) are explanatory drawings for demonstrating the irradiation state of the laser beam at the time of measuring workpiece | work WK1, WK2. 図1の3次元形状測定装置における3次元画像処理装置によって実行される形状データ補正関数F計算プログラムのフローチャートである。It is a flowchart of the shape data correction function F R calculation program executed by the three-dimensional image processing apparatus in the three-dimensional shape measuring apparatus of FIG. (A),(B)は、ワークWK1とワークWK2との間の隙間Cおよび段差Lの計算方法を説明するための説明図である。(A), (B) is explanatory drawing for demonstrating the calculation method of the clearance gap C and the level | step difference L between the workpiece | work WK1 and the workpiece | work WK2. (A),(B)は、従来例における測定対象物に対するレーザ光の反射状態を示す説明図である。(A), (B) is explanatory drawing which shows the reflective state of the laser beam with respect to the measuring object in a prior art example.

符号の説明Explanation of symbols

WK1,WK2…ワーク、T1,T2…端部、JG1,JG2…平板治具、JG3…定点設定治具、10…3次元形状撮像装置、20…支持具、21…ベース、22…支柱、23,25,26…ジョイント、24…第1アーム、27,28…第2アーム、31,32…反射ミラー、33,34…シート
WK1, WK2 ... Workpiece, T1, T2 ... End, JG1, JG2 ... Flat plate jig, JG3 ... Fixed point setting jig, 10 ... Three-dimensional shape imaging device, 20 ... Support, 21 ... Base, 22 ... Post, 23 25, 26 ... joint, 24 ... first arm, 27, 28 ... second arm, 31, 32 ... reflecting mirror, 33, 34 ... sheet

Claims (6)

レーザ光源からの出射レーザ光をその向きを変更しながら測定対象物に照射して前記測定対象物をレーザ光で走査し、前記出射レーザ光の光路に追従して回転し、前記測定対象物で反射された反射レーザ光を集光する結像レンズ、及び前記集光した反射レーザ光を受光するための複数の受光素子を配置させたセンサからなる距離検出器で前記測定対象物までの距離を検出し、前記出射レーザ光の向きと前記検出される距離とを用いて前記測定対象物の表面の3次元形状を表す3次元形状データを出力する3次元形状撮像装置と、
前記3次元形状撮像装置から出射されたレーザ光を反射して、前記3次元形状撮像装置から出射され測定対象物に照射されるレーザ光とは異なる方向から測定対象物に導くとともに、同測定対象物からの反射光を反射して、前記3次元形状撮像装置に導く反射ミラーと、
測定対象物から前記反射ミラーを介して前記3次元形状撮像装置に導かれる反射光に基づく3次元形状データによって表された測定対象物の表面の3次元形状を、測定対象物から直接前記3次元形状撮像装置に導かれる反射光に基づく3次元形状データによって表された測定対象物の表面の3次元形状に合成する3次元形状データ合成手段とを備えたことを特徴とする3次元形状測定装置。
The measurement object is scanned with a laser beam emitted laser light from the laser light source is irradiated to the measurement object while changing its direction, and rotates following the optical path of the emitted laser beam, in the measurement object an imaging lens for converging the reflected reflected laser light, and the distance to the measurement target at a distance detector comprising a sensor which is disposed a plurality of light receiving elements for receiving the reflected laser beam light collection detected, and the three-dimensional shape image pickup device for outputting a three-dimensional shape data indicating a three-dimensional shape of the surface of the object using the distance to be the detection and orientation of the emitted laser beam,
The laser beam emitted from the three-dimensional shape imaging apparatus is reflected and guided to the measurement object from a direction different from the laser light emitted from the three-dimensional shape imaging apparatus and irradiated on the measurement object. A reflection mirror that reflects reflected light from an object and guides it to the three-dimensional shape imaging device;
The three-dimensional shape of the surface of the measurement object represented by the three-dimensional shape data based on the reflected light guided from the measurement object to the three-dimensional shape imaging device through the reflection mirror is directly from the measurement object. A three-dimensional shape measuring apparatus comprising: three-dimensional shape data synthesizing means for synthesizing the three-dimensional shape of the surface of the measurement object represented by the three-dimensional shape data based on the reflected light guided to the shape imaging apparatus. .
請求項1に記載した3次元形状測定装置において、
前記反射ミラーは、前記3次元形状撮像装置から出射されたレーザ光を測定対象物の特定部位表面に対して略垂直に入射させるためのものである3次元形状測定装置。
In the three-dimensional shape measuring apparatus according to claim 1,
The reflection mirror is a three-dimensional shape measuring apparatus for causing the laser beam emitted from the three-dimensional shape imaging apparatus to enter the surface of a specific part of the measurement object substantially perpendicularly.
請求項1または請求項2に記載した3次元形状測定装置において、
前記反射ミラーを、前記3次元形状撮像装置から出射されたレーザ光を測定対象物の互いに対向する2つの面に対してそれぞれ導く第1および第2の反射ミラーで構成した3次元形状測定装置。
In the three-dimensional shape measuring apparatus according to claim 1 or 2,
The three-dimensional shape measuring apparatus which comprised the said reflective mirror by the 1st and 2nd reflective mirror which each guide | induces the laser beam radiate | emitted from the said three-dimensional shape imaging device with respect to the two mutually opposing surfaces of a measuring object.
請求項3に記載した3次元形状測定装置において、さらに、
前記3次元形状データ合成手段によって合成された測定対象物の3次元形状を用いて、測定対象物における前記互いに対向する2つの面の面間距離を測定する面間距離測定手段を備えた3次元形状測定装置。
The three-dimensional shape measuring apparatus according to claim 3, further comprising:
Three-dimensional provided with inter-surface distance measuring means for measuring the inter-surface distance between the two opposing surfaces of the measuring object using the three-dimensional shape of the measuring object synthesized by the three-dimensional shape data synthesizing means. Shape measuring device.
請求項1ないし請求項4のうちのいずれか1つに記載した3次元形状測定装置において、
前記3次元形状撮像装置から出射され測定対象物に照射されるレーザ光の測定対象物上における照射範囲と、前記3次元形状撮像装置から出射され前記反射ミラーを介して測定対象物に照射されるレーザ光の測定対象物体上における照射範囲とが重なるように前記反射ミラーを設けた3次元形状測定装置。
In the three-dimensional shape measuring apparatus according to any one of claims 1 to 4,
The irradiation range on the measurement object of the laser light emitted from the three-dimensional shape imaging apparatus and irradiated on the measurement object, and the measurement object emitted from the three-dimensional shape imaging apparatus and irradiated onto the measurement object A three-dimensional shape measuring apparatus provided with the reflection mirror so as to overlap an irradiation range on a measurement target object of laser light.
請求項1ないし請求項5のうちのいずれか1つに記載した3次元形状測定装置において、さらに、
前記反射ミラーによって測定対象物に導かれるレーザ光の光軸の位置または方向を、前記反射ミラーの位置または向きを変化させることにより変更する光軸変更手段を備えた3次元形状測定装置。
The three-dimensional shape measuring apparatus according to any one of claims 1 to 5, further comprising:
A three-dimensional shape measuring apparatus comprising optical axis changing means for changing the position or direction of an optical axis of laser light guided to a measurement object by the reflecting mirror by changing the position or direction of the reflecting mirror.
JP2006086986A 2006-03-28 2006-03-28 3D shape measuring device Expired - Fee Related JP4670700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006086986A JP4670700B2 (en) 2006-03-28 2006-03-28 3D shape measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006086986A JP4670700B2 (en) 2006-03-28 2006-03-28 3D shape measuring device

Publications (2)

Publication Number Publication Date
JP2007263638A JP2007263638A (en) 2007-10-11
JP4670700B2 true JP4670700B2 (en) 2011-04-13

Family

ID=38636782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006086986A Expired - Fee Related JP4670700B2 (en) 2006-03-28 2006-03-28 3D shape measuring device

Country Status (1)

Country Link
JP (1) JP4670700B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023232417A1 (en) * 2022-06-03 2023-12-07 Ams-Osram Ag 3d reconstruction method and picture recording arrangement

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5813524B2 (en) * 2012-02-10 2015-11-17 公益財団法人鉄道総合技術研究所 Measuring device and method of measuring outer shape of reinforcing bar

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000199707A (en) * 1998-12-31 2000-07-18 Nidec Tosok Corp Lead inspecting device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3574280D1 (en) * 1985-12-23 1989-12-21 Ibm Deutschland Method and arrangement for optically determining surface profiles
JP2572286B2 (en) * 1989-12-15 1997-01-16 株式会社豊田中央研究所 3D shape and size measurement device
JPH06160051A (en) * 1992-11-20 1994-06-07 Mikuni Corp Image take-in method for part feeder
JP3428122B2 (en) * 1994-03-10 2003-07-22 富士電機株式会社 3D shape measuring device
JPH10227622A (en) * 1997-02-14 1998-08-25 Tosok Corp Inspection method of lead and lead inspecting instrument

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000199707A (en) * 1998-12-31 2000-07-18 Nidec Tosok Corp Lead inspecting device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023232417A1 (en) * 2022-06-03 2023-12-07 Ams-Osram Ag 3d reconstruction method and picture recording arrangement

Also Published As

Publication number Publication date
JP2007263638A (en) 2007-10-11

Similar Documents

Publication Publication Date Title
CN102077052B (en) Vision system for scan planning of ultrasonic inspection
US20150085108A1 (en) Lasergrammetry system and methods
JP2007101197A (en) Object search system, robot system equipped with object searchsystem and object search method
EP2138803A1 (en) Jig for measuring an object shape and method for measuring a three-dimensional shape
JP3944091B2 (en) 3D image data generation method
JP2020051892A (en) Measurement system and method for manufacturing shaft with hole
JP2014098690A (en) Calibration apparatus, calibration method, and measurement apparatus
JPH06147863A (en) Bending angle detector for bending machine
JP6747151B2 (en) Inspection method and device for positioning machine using tracking laser interferometer
US4760269A (en) Method and apparatus for measuring distance to an object
JP5242940B2 (en) Non-contact shape measuring device
JP4291178B2 (en) 3D shape measuring system, measuring method, and 3D shape measuring stage device
JP4670700B2 (en) 3D shape measuring device
JP2020099912A (en) Laser marker
JP4863006B2 (en) 3D shape measurement method
US10502563B2 (en) Measurement device
JP2010060420A (en) Surface shape and/or film thickness measuring method and its system
WO2016152789A1 (en) Gas location detecting method, gas location detecting program, gas location detecting device, and gas location detecting system
JP2023006501A (en) Laser processing device, laser processing system, and laser processing method
JP5487920B2 (en) Optical three-dimensional shape measuring apparatus and optical three-dimensional shape measuring method
JP4443523B2 (en) Coordinate conversion function acquisition method and coordinate conversion function acquisition program
JP2008008876A (en) Shift amount acquisition method for shape measurement device, program for shift amount acquisition, and standard workpiece for shift amount acquisition
CA2388412A1 (en) Device and method for determining a bending angle of a sheet and the use thereof for the angle-bending of sheets
JP4972281B2 (en) Measuring method of non-contact image measuring machine
CN112902838B (en) Zero sensor and detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110103

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees