JP2011112578A - Shape-measuring system - Google Patents

Shape-measuring system Download PDF

Info

Publication number
JP2011112578A
JP2011112578A JP2009270910A JP2009270910A JP2011112578A JP 2011112578 A JP2011112578 A JP 2011112578A JP 2009270910 A JP2009270910 A JP 2009270910A JP 2009270910 A JP2009270910 A JP 2009270910A JP 2011112578 A JP2011112578 A JP 2011112578A
Authority
JP
Japan
Prior art keywords
shape
display
probe
measured
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009270910A
Other languages
Japanese (ja)
Inventor
Hiroaki Okamoto
裕昭 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009270910A priority Critical patent/JP2011112578A/en
Publication of JP2011112578A publication Critical patent/JP2011112578A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a shape-measuring system which can assist (support) a person measuring, as to the position of a probe with respect to a measuring object and the irradiation angle of linear light. <P>SOLUTION: The shape-measuring system 100 includes the probe 12, which measures the shape of the measuring object 51 by an optical sensor and outputs measurement information; a movement mechanism part 11 which has two or more joint parts 11b, rotatably connecting a plurality of arm parts 11a and the probe 12 and supports the probe 12 movably in a prescribed space; encoders 21, which are provided at the jointing parts 11b and detect the angle information formed between the arm parts 11a or by the arm part 11a and the probe 12, which are connected by the jointing parts 11b, a display part 30; and a control part 20, which calculates the shape information on the measuring object 51 from the measurement information and the angle information and outputs the shape information to the display part 30. The control part 20 is so constituted as to make the display part 30 display assisting displays for supporting the operation of the probe 12. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、形状測定装置に関する。   The present invention relates to a shape measuring apparatus.

多関節型アームの先端に非接触センサを有するプローブを取り付けた形状測定装置であって、測定者が手動で操作することにより被検査物体の形状を測定するように構成された装置(以下、「マニュアル測定機」と呼ぶ)が開発されている(例えば、特許文献1参照)。   A shape measuring device in which a probe having a non-contact sensor is attached to the tip of an articulated arm, and a device configured to measure the shape of an object to be inspected by manual operation by a measurer (hereinafter, “ (Referred to as Patent Document 1).

特開2009−192401号公報JP 2009-192401 A

このようなマニュアル測定機で被検査物体の形状を測定する場合、特に、レーザスキャンによる非接触測定を行う場合には、被検査物体の形状や設置方向により、特定の方向から走査用のレーザ光を照射しないと、取得されたデータのデータ密度が低いといったデータの品質の低下が起きたり、全くデータを取得することができない場合があるという課題があった。   When measuring the shape of the object to be inspected with such a manual measuring machine, especially when performing non-contact measurement by laser scanning, the laser beam for scanning from a specific direction depends on the shape of the object to be inspected and the installation direction. If irradiation is not performed, there is a problem that data quality may be deteriorated such that the data density of acquired data is low, or data may not be acquired at all.

本発明はこのような課題に鑑みてなされたものであり、測定者に被測定物体に対するプローブの位置やライン光の照射角度に関する情報を提示してアシスト(支援)することができる形状測定装置を提供することを目的とする。   The present invention has been made in view of such a problem, and provides a shape measuring apparatus that can assist the user by presenting information on the position of the probe with respect to the object to be measured and the irradiation angle of the line light to the measurer. The purpose is to provide.

前記課題を解決するために、本発明に係る形状測定装置は、光学式センサにより被測定物体の形状を測定して測定情報を出力するプローブと、アーム部、及び、このアーム部間、若しくは、アーム部とプローブとを回転可能に接続する2以上の接続部を有し、所定の空間内でプローブを移動可能に支持する移動機構部と、接続部に設けられ、当該接続部が接続するアーム部間、若しくは、アーム部とプローブとの角度情報を検出する角度情報検出部と、表示部と、測定情報及び角度情報から、被測定物体の形状情報を算出するとともに、形状情報を表示部に出力する制御部と、を有し、制御部は、プローブの操作を支援するアシスト表示を表示部に表示するように構成される。   In order to solve the above problems, a shape measuring apparatus according to the present invention includes a probe that measures the shape of an object to be measured by an optical sensor and outputs measurement information, and an arm unit, and between these arm units, or An arm having two or more connecting portions that rotatably connect the arm portion and the probe, and supporting the probe so that the probe can move within a predetermined space, and an arm that is provided in the connecting portion and to which the connecting portion connects The shape information of the object to be measured is calculated from the angle information detection unit that detects the angle information between the parts or between the arm unit and the probe, the display unit, the measurement information, and the angle information, and the shape information is displayed on the display unit. A control unit for outputting, and the control unit is configured to display on the display unit an assist display that supports the operation of the probe.

このような形状測定装置は、被測定物体の3次元情報を記憶する記憶部を有し、制御部は、記憶部から3次元情報を読み出して被測定物体の概略形状を生成し、当該概略形状とともに、アシスト表示を表示部に表示するように構成されることが好ましい。   Such a shape measuring apparatus has a storage unit that stores the three-dimensional information of the object to be measured, and the control unit reads the three-dimensional information from the storage unit to generate the approximate shape of the object to be measured, and the approximate shape In addition, it is preferable that the assist display is configured to be displayed on the display unit.

あるいは、このような形状測定装置において、表示部は、測定者の頭部に装着され、この測定者の少なくとも一方の眼前に形状情報を投影する投影部と、当該表示部を装着した測定者の視野方向と略同一方向の画像を取得可能なカメラと、を有するヘッドマウントディスプレイで構成され、制御部は、このカメラにより被測定物体を異なる方位から測定した3枚以上の画像を取得し、当該画像を用いて被測定物体の概略形状を生成し、当該概略形状とともに、アシスト表示を表示部に表示するように構成されることが好ましい。   Alternatively, in such a shape measuring apparatus, the display unit is mounted on the head of the measurer, and the projection unit that projects the shape information in front of at least one eye of the measurer and the measurer wearing the display unit A head-mounted display having a camera capable of acquiring an image in substantially the same direction as the visual field direction, and the control unit acquires three or more images obtained by measuring the object to be measured from different directions with the camera, and It is preferable that an approximate shape of the object to be measured is generated using the image, and an assist display is displayed on the display unit together with the approximate shape.

このとき、制御部は、プローブの向けられている方向を画像の方位として取得し、この方位を用いて画像から概略形状を生成することが好ましい。   At this time, it is preferable that the control unit obtains the direction in which the probe is directed as the orientation of the image, and generates a schematic shape from the image using the orientation.

また、このような形状測定装置において、制御部は、アシスト表示の概略形状に形状情報を位置整合させて重ね合わせて表示部に表示するように構成されることが好ましい。   Moreover, in such a shape measuring apparatus, it is preferable that the control unit is configured to display the shape information superimposed on the approximate shape of the assist display and superimposed on the display unit.

また、このような形状測定装置において、アシスト情報は、被測定物体に対するプローブの位置に関する情報であることが好ましい。   In such a shape measuring apparatus, the assist information is preferably information related to the position of the probe with respect to the object to be measured.

また、このような形状測定装置において、制御部は、被測定物体の形状情報を算出する毎に、アシスト表示を更新するか否かを判定するように構成されることが好ましい。   Moreover, in such a shape measuring apparatus, it is preferable that the control unit is configured to determine whether or not to update the assist display every time the shape information of the object to be measured is calculated.

このとき、制御部は、プローブと被測定物体の走査面との距離が変化することを検出してアシスト表示を更新するように構成されることが好ましい。   At this time, the control unit is preferably configured to detect the change in the distance between the probe and the scanning surface of the object to be measured and update the assist display.

また、このような形状測定装置において、制御部は、測定者の視点に応じた被測定物体の測定面に対するアシスト表示を表示部に表示するように構成されることが好ましい。   In such a shape measuring apparatus, it is preferable that the control unit is configured to display on the display unit an assist display for the measurement surface of the object to be measured according to the viewpoint of the measurer.

さらに、このような形状測定装置において、プローブに設けられた光学式センサは、光源と、この光源からの光をライン光として被測定物体に照射するライン光形成光学系と、ライン光の反射光を結像する撮像光学系と、この反射光の像を検出する撮像素子と、を有し、制御部は、撮像素子により検出された像により、三角測量の原理により被測定物体の形状を算出するように構成されることが好ましい。   Furthermore, in such a shape measuring apparatus, the optical sensor provided in the probe includes a light source, a line light forming optical system that irradiates the object to be measured as light from the light source, and reflected light of the line light. An imaging optical system that images the image of the reflected light and an image sensor that detects the image of the reflected light, and the control unit calculates the shape of the object to be measured based on the principle of triangulation from the image detected by the image sensor It is preferable to be configured to do so.

本発明に係る形状測定装置を以上のように構成すると、測定者に被測定物体に対してプローブの位置やライン光の照射角度に関する情報を提示してアシスト(支援)することができる。   When the shape measuring apparatus according to the present invention is configured as described above, it is possible to assist (support) by presenting information regarding the position of the probe and the irradiation angle of the line light to the object to be measured.

形状測定装置の構成を示す説明図である。It is explanatory drawing which shows the structure of a shape measuring apparatus. 形状測定装置の制御部の基本的な構成を示すブロック図である。It is a block diagram which shows the basic composition of the control part of a shape measuring apparatus. プローブに設けられた光学式センサの構成を示す説明図である。It is explanatory drawing which shows the structure of the optical sensor provided in the probe. 形状測定装置による形状測定処理を示すフローチャートである。It is a flowchart which shows the shape measurement process by a shape measuring apparatus. 第1の実施形態に係るアシスト表示を示す説明図である。It is explanatory drawing which shows the assist display which concerns on 1st Embodiment. 第2の実施形態に係るアシスト表示を含む形状測定処理を示すフローチャートである。It is a flowchart which shows the shape measurement process containing the assist display which concerns on 2nd Embodiment. 第3の実施形態に係るアシスト表示に用いるヘッドマウントディスプレイの構成を示す説明図である。It is explanatory drawing which shows the structure of the head mounted display used for the assist display which concerns on 3rd Embodiment. 第3の実施形態に係る制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part which concerns on 3rd Embodiment. 概略形状取得処理を示すフローチャートである。It is a flowchart which shows a rough shape acquisition process.

以下、本発明の好ましい実施形態について図面を参照して説明する。まず、図1〜図3を用いて、本実施形態に係る形状測定装置の構成について説明する。この形状測定装置100は、例えば、ステージ50上に載置された被測定物体51の形状を測定する形状測定部10と、この形状測定部10から出力される角度情報及び測定情報に基づいて被測定物体51に関する形状情報を算出する制御部20と、算出された形状情報を、例えば、3次元画像にして出力するための表示部30と、を有して構成される。なお、被測定物体51は、ステージ50上に載置されていなくても測定可能である。また、この形状測定装置100は、測定者が形状測定部10を操作して被測定物体51の形状情報を取得するように構成されたマニュアル測定機である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, the configuration of the shape measuring apparatus according to the present embodiment will be described with reference to FIGS. The shape measuring apparatus 100 includes, for example, a shape measuring unit 10 that measures the shape of the object to be measured 51 placed on the stage 50, and the angle information and measurement information output from the shape measuring unit 10. The control unit 20 calculates shape information related to the measurement object 51, and a display unit 30 that outputs the calculated shape information as a three-dimensional image, for example. The object to be measured 51 can be measured even if it is not placed on the stage 50. The shape measuring apparatus 100 is a manual measuring machine configured such that the measurer operates the shape measuring unit 10 to acquire the shape information of the measured object 51.

形状測定部10は、複数のアーム部11aを複数の関節部(接続部)11bで接続した多関節構造の移動機構部11と、この移動機構部11の先端部(最も先端側に位置するアーム部11aの先端部)に対して取付部14を介して着脱可能に構成されたプローブ12と、移動機構部11の基端部(最も基端側に位置するアーム部11aの基端部)が取り付けられた基台13と、を有して構成される。なお、関節部11bは、アーム部11a同士を繋ぎ、一方のアーム部11aに対して他方のアーム部11aを回転させる(揺動させる)ものや、基台13に対して基端側のアーム部11aを接地面に垂直方向の軸を中心に回転させるもの、若しくは、取付部14に取り付けられたプローブ12を、先端側のアーム部11aに対して揺動させたり、回転させたりするものがある。   The shape measuring unit 10 includes a multi-joint structure moving mechanism 11 in which a plurality of arm portions 11a are connected by a plurality of joint portions (connecting portions) 11b, and a distal end portion (an arm located at the most distal end side) of the moving mechanism portion 11. The probe 12 is configured to be detachable with respect to the distal end portion of the portion 11a via the attachment portion 14, and the proximal end portion of the moving mechanism portion 11 (the proximal end portion of the arm portion 11a located on the most proximal side). And an attached base 13. The joint portion 11b connects the arm portions 11a to each other and rotates (swings) the other arm portion 11a with respect to one arm portion 11a, or an arm portion on the proximal end side with respect to the base 13. There is one that rotates 11a around an axis perpendicular to the ground surface, or one that swings or rotates the probe 12 attached to the attachment portion 14 with respect to the arm portion 11a on the distal end side. .

関節部11bの回転軸の各々には、基台13や基端側に位置するアーム部11aに対して、この関節部11bに接続された先端側に位置するアーム部11a若しくはプローブ12のなす角度を検出するためにこの回転軸の回転量を計測するエンコーダ(角度情報検出部)21が取り付けられており、これらのエンコーダ21による計測値(以下、「角度情報」と呼ぶ)は、図2に示すように、制御部20に出力される。   Each of the rotation shafts of the joint portion 11b has an angle formed by the arm portion 11a or the probe 12 located on the distal end side connected to the joint portion 11b with respect to the base 13 or the arm portion 11a located on the proximal end side. In order to detect this, an encoder (angle information detection unit) 21 that measures the amount of rotation of the rotating shaft is attached, and the measured values (hereinafter referred to as “angle information”) by these encoders 21 are shown in FIG. As shown, it is output to the control unit 20.

一方、プローブ12には、図3に示すように、レーザーダイオード等の光源41と、この光源41から放射された光をシリンドリカルレンズ等のトーリックレンズ光学系によりライン光としてステージ50上の被測定物体51に照射するライン光形成光学系42と、被測定物体51に投射されたライン光の像(以下、「ライン像」と呼ぶ)を結像する撮像光学系43と、このライン像を検出する撮像素子44と、からなる光学式センサ40が設けられている。また、図1に示すように、このプローブ12には、測定者が、被測定物体51の形状測定の開始及び停止を制御部20に指示するための操作スイッチ25が設けられている。なお、光源41から放射された光をライン光に変換するには、ガルバノスキャナ等によりライン光として照射する構成でも実現可能である。   On the other hand, as shown in FIG. 3, the probe 12 has a light source 41 such as a laser diode and the object to be measured on the stage 50 as a line light by using a toric lens optical system such as a cylindrical lens. 51, a line light forming optical system 42 for irradiating 51, an imaging optical system 43 for forming an image of line light projected on the object 51 to be measured (hereinafter referred to as “line image”), and detecting this line image. An image sensor 44 and an optical sensor 40 are provided. As shown in FIG. 1, the probe 12 is provided with an operation switch 25 for the measurer to instruct the control unit 20 to start and stop the shape measurement of the object 51 to be measured. In addition, in order to convert the light radiated | emitted from the light source 41 into line light, the structure irradiated with a galvano scanner etc. as line light is also realizable.

また、制御部20には、図2に示すように、この形状測定装置100による被測定物体51の形状測定の処理を制御する処理部22と、エンコーダ21の各々から出力される角度情報を用いてプローブ12の空間座標(測定空間内の予め決められた点を原点とする座標であって、以下、「位置情報」と呼ぶ。なお、プローブ12の姿勢情報も位置情報に含まれる。)を演算する位置演算部23と、撮像素子44から出力されるライン像(以下、「測定情報」と呼ぶ)及び位置演算部23から出力される位置情報を用いて、被測定物体51の形状情報を算出する形状演算部24と、被測定物体51に対してどのようにプローブ12を移動させて走査するかを測定者に対してアシスト(支援)するアシスト表示部27と、を有して構成されている。なお、操作スイッチ25からの出力(操作信号)は処理部22に入力され、光源41の点灯・消灯動作は処理部22により制御される。また、形状演算部24から出力された形状情報は、例えば、制御部20に設けられた記憶部26に記憶され、さらに、この形状情報は処理部22で処理されて表示部30に3次元画像として出力される。ここで、測定空間とは、この形状測定装置100により、プローブ12を移動させて被測定物体51の空間座標を取得できる範囲(空間)を指している。また、制御部20は、例えばコンピュータで実現され、処理部22、位置演算部23、形状演算部24及びアシスト表示部27は、このコンピュータで実行されるプログラムとして実装される。   Further, as shown in FIG. 2, the control unit 20 uses angle information output from each of the processing unit 22 that controls the shape measurement process of the object 51 to be measured by the shape measuring apparatus 100 and the encoder 21. The spatial coordinates of the probe 12 (coordinates having a predetermined point in the measurement space as the origin, and hereinafter referred to as “position information”. Note that the posture information of the probe 12 is also included in the position information). The shape information of the measured object 51 is obtained by using the position calculation unit 23 to calculate, the line image output from the image sensor 44 (hereinafter referred to as “measurement information”), and the position information output from the position calculation unit 23. A shape calculation unit 24 to calculate, and an assist display unit 27 that assists (measures) the measurer how to move the probe 12 relative to the object 51 to be scanned. ingNote that an output (operation signal) from the operation switch 25 is input to the processing unit 22, and the lighting / extinguishing operation of the light source 41 is controlled by the processing unit 22. Further, the shape information output from the shape calculation unit 24 is stored in, for example, a storage unit 26 provided in the control unit 20, and the shape information is processed by the processing unit 22 and is displayed on the display unit 30. Is output as Here, the measurement space refers to a range (space) in which the shape measuring device 100 can move the probe 12 and acquire the spatial coordinates of the measured object 51. The control unit 20 is realized by, for example, a computer, and the processing unit 22, the position calculation unit 23, the shape calculation unit 24, and the assist display unit 27 are implemented as programs executed by the computer.

ここで、アーム部11aの長さ等の情報は既知であるため、制御部20の位置演算部23は、エンコーダ21から出力された角度情報に基づいて、基台13や基端側に位置するアーム部11aに対する、先端側に接続されたアーム部11a若しくはプローブ12の角度を算出することにより、プローブ12の空間上の3次元座標(空間座標)を求めることができる。また同様に、プローブ12における光源41、ライン光形成光学系42、撮像光学系43及び撮像素子44の位置(座標)も既知であるため、形状演算部24は、三角測量の原理に基づいて撮像素子44で取得された測定情報(ライン像)を処理することにより、撮像素子44で撮像できる範囲内にある被測定物体51の形状(ライン光が投影されている被測定物体51の形状(例えば、この範囲の離散的に表される測定空間内での座標群として表現される))を演算して求めることができる。   Here, since information such as the length of the arm portion 11a is known, the position calculation unit 23 of the control unit 20 is positioned on the base 13 or the base end side based on the angle information output from the encoder 21. By calculating the angle of the arm part 11a or the probe 12 connected to the distal end side with respect to the arm part 11a, three-dimensional coordinates (spatial coordinates) in the space of the probe 12 can be obtained. Similarly, since the positions (coordinates) of the light source 41, the line light forming optical system 42, the imaging optical system 43, and the imaging element 44 in the probe 12 are also known, the shape calculation unit 24 performs imaging based on the principle of triangulation. By processing the measurement information (line image) acquired by the element 44, the shape of the measured object 51 within the range that can be imaged by the imaging element 44 (the shape of the measured object 51 on which the line light is projected (for example, And expressed as a group of coordinates in the measurement space discretely represented in this range))).

なお、プローブ12による被測定物体51の形状情報の取得方法は、上述の光切断による三角測量による方法だけでなく、明視野画像を取得してコンピュータ解析により形状を測定する方法や、ステレオ画像を用いた三角測量による方法等を適宜用いることができる。   Note that the method for acquiring the shape information of the object 51 to be measured by the probe 12 is not limited to the above-described method by triangulation by light cutting, but also a method of acquiring a bright field image and measuring the shape by computer analysis, or a stereo image. The triangulation method used can be used as appropriate.

次に、この形状測定装置100を用いて被測定物体51の形状を測定する方法について図4を用いて説明する。なお、上述の図3において、被測定物体51をライン光により走査する方向をx軸とし、ライン光の長手方向をy軸とし、x軸及びy軸に直交する方向をz軸とする。被測定物体51の測定が開始されると、制御部20の処理部22は、まず、アシスト表示部27により、被測定物体51に対してどのようにプローブ12を移動させて走査するかをアシストするためのアシスト表示を表示部30に表示する(ステップS100)。このアシスト表示の詳細については後述する。操作者は、このアシスト表示に従って形状測定装置100のプローブ12を操作し、被測定物体51の測定開始位置にこのプローブ12を移動させる。そして、測定者は、被測定物体51に対してプローブ12を所定の距離及び角度に配置し、操作スイッチ25をオン操作する。処理部22は、操作スイッチ25のオン操作を検知すると(ステップS110)、光源41を点灯させ、ライン光を被測定物体51に照射する(ステップS120)。この状態で、測定者は、被測定物体51の測定対象面に沿って(図3のx軸方向に)プローブ12を移動させることにより、被測定物体51の表面を走査する。処理部22は、操作スイッチ25がオン操作されると、所定の時間間隔で、位置演算部23から位置情報を取得し(ステップS130)、さらに、撮像素子44から測定情報(ライン像)を取得して形状演算部24により被測定物体51の形状情報を取得し(ステップS140)、その都度、この形状情報を記憶部26に記憶する(ステップS150)。処理部22は、操作スイッチ25がオフ操作されるまで、この処理を繰り返すため、操作スイッチ25がオン操作されている間にプローブ12が走査した範囲の被測定物体51の形状情報が記憶部26に記憶される(ステップS160)。そして、操作スイッチ25が測定者によりオフ操作されると、処理部22は光源41を消灯し(ステップS170)、それまでに取得した形状情報を記憶部26から読み出して、被測定物体51の走査範囲の3次元画像を生成し(ステップS180)、表示部30に出力する(ステップS190)。このように、表示部30に測定結果である3次元画像を表示することにより、形状情報を適切に取得できたか否かや、被測定物体51のどの部分の形状情報を取得できたかなどを、測定者は、目視により、適宜確認することができる。   Next, a method for measuring the shape of the measured object 51 using the shape measuring apparatus 100 will be described with reference to FIG. In FIG. 3 described above, the direction in which the measured object 51 is scanned with line light is the x axis, the longitudinal direction of the line light is the y axis, and the direction orthogonal to the x axis and the y axis is the z axis. When the measurement of the measured object 51 is started, the processing unit 22 of the control unit 20 first assists how the probe 12 is moved and scanned with respect to the measured object 51 by the assist display unit 27. Assist display for the purpose is displayed on the display unit 30 (step S100). Details of the assist display will be described later. The operator operates the probe 12 of the shape measuring apparatus 100 according to the assist display, and moves the probe 12 to the measurement start position of the measured object 51. Then, the measurer places the probe 12 at a predetermined distance and angle with respect to the object to be measured 51 and turns on the operation switch 25. When the processing unit 22 detects the ON operation of the operation switch 25 (step S110), the processing unit 22 turns on the light source 41 and irradiates the measured object 51 with line light (step S120). In this state, the measurer scans the surface of the measured object 51 by moving the probe 12 along the measurement target surface of the measured object 51 (in the x-axis direction in FIG. 3). When the operation switch 25 is turned on, the processing unit 22 acquires position information from the position calculation unit 23 at predetermined time intervals (step S130), and further acquires measurement information (line image) from the image sensor 44. Then, the shape calculation unit 24 acquires the shape information of the object 51 to be measured (step S140), and stores the shape information in the storage unit 26 each time (step S150). Since the processing unit 22 repeats this process until the operation switch 25 is turned off, the shape information of the measured object 51 in the range scanned by the probe 12 while the operation switch 25 is turned on is stored in the storage unit 26. (Step S160). When the operation switch 25 is turned off by the measurer, the processing unit 22 turns off the light source 41 (step S170), reads the shape information acquired so far from the storage unit 26, and scans the object 51 to be measured. A three-dimensional image of the range is generated (step S180) and output to the display unit 30 (step S190). In this way, by displaying the three-dimensional image as the measurement result on the display unit 30, whether or not the shape information can be appropriately acquired, which part of the measured object 51 the shape information can be acquired, etc. The measurer can confirm appropriately by visual inspection.

[第1の実施形態]
それでは、上述のステップS100において制御部20により表示部30に表示されるアシスト表示の第1の実施形態について説明する。この第1の実施形態においては、記憶部26に予め測定対象である被測定物体51の3次元情報であるCADデータ(以下、「モデル情報」と呼ぶ)を記憶しておき、このモデル情報を利用して表示部30にアシスト情報を表示するように構成されている。すなわち、アシスト表示部27は、記憶部26から被測定物体51のモデル情報を読み出し図5に示すように、表示部30の画面G1に被測定物体51の概略形状G1aを表示する。ここで、表示部30に表示される3次元画像は、いずれか一方の方向(視点)から当該被測定物体51を見たときの画像である(この方向を以降の説明では「ビュー」と呼ぶ)。このビューは、予め測定者が制御部20に接続された図示しない入力装置等により設定するように構成されている。そのため、アシスト表示部27は、まず、モデル情報から、被測定物体51の表面を複数の面(領域)に分割し、現在のビューにより表示されている被測定物体51の面のうち、いずれかを選択して、その面に対するプローブ12の位置に関する情報(測定対象面との距離やライン光の照射角度等)を表示部30に表示する。例えば、図5の場合では、測定対象面G1bに対するプローブ12の位置G1cや、ライン光の照射方向G1d、さらに、この測定対象面G1bにおける走査方向G1eが、模式図として表示される。あるいは、プローブ12と被測定物体51との距離やライン光の照射角度を文字情報G1fとして表示部30に表示するように構成することも可能である。なお、このライン光の照射方向及び距離は、このビューと同一方向に測定者が位置して走査を行う場合を標準としている。
[First Embodiment]
A first embodiment of assist display displayed on the display unit 30 by the control unit 20 in step S100 described above will be described. In the first embodiment, CAD data (hereinafter referred to as “model information”), which is three-dimensional information of the measured object 51 to be measured, is stored in the storage unit 26 in advance, and this model information is stored. The assist information is displayed on the display unit 30 by using. That is, the assist display unit 27 reads the model information of the measured object 51 from the storage unit 26 and displays the schematic shape G1a of the measured object 51 on the screen G1 of the display unit 30 as shown in FIG. Here, the three-dimensional image displayed on the display unit 30 is an image when the measured object 51 is viewed from any one direction (viewpoint) (this direction is referred to as “view” in the following description). ). This view is configured to be set in advance by a measurer using an input device (not shown) connected to the control unit 20. Therefore, the assist display unit 27 first divides the surface of the measured object 51 into a plurality of planes (regions) from the model information, and selects one of the planes of the measured object 51 displayed by the current view. And information on the position of the probe 12 with respect to the surface (distance to the surface to be measured, irradiation angle of line light, etc.) is displayed on the display unit 30. For example, in the case of FIG. 5, the position G1c of the probe 12 with respect to the measurement target surface G1b, the irradiation direction G1d of the line light, and the scanning direction G1e on the measurement target surface G1b are displayed as schematic diagrams. Alternatively, the distance between the probe 12 and the measured object 51 and the irradiation angle of the line light can be displayed on the display unit 30 as the character information G1f. The irradiation direction and distance of the line light are standard when a measurement person is located in the same direction as the view for scanning.

ところで、被測定物体51の形状により、同一方向の視点(ビュー)の中においても、複数の傾斜が存在したり、方向の異なる形状が存在する場合があり、このような場合、それぞれの測定対象面において、ライン光の照射方向や距離が異なる場合がある。例えば、図5における測定対象面G1g,G1hを測定する場合である。このように異なる測定対象面を測定する場合には、例えば、プローブ12に設けられた操作スイッチ25を測定者が操作することにより自由に測定対象面を切り替え、それに応じて適切なアシスト表示が表示部30に表示される。なお、照射角度及び距離の算出方法は、モデル情報等を参照して、各測定対象面に最適なアルゴリズムがアシスト表示部27により選択される。なお、測定対象面の切り替えは、操作スイッチ25を操作する以外に、例えば、プローブ12を測定対象面に対して図3のz軸方向に上下動させることにより、制御部20に指示するように構成することも可能である。   By the way, depending on the shape of the object 51 to be measured, there may be a plurality of inclinations or shapes having different directions in the viewpoint (view) in the same direction. In some cases, the irradiation direction and distance of the line light may be different on the surface. For example, this is a case where the measurement target surfaces G1g and G1h in FIG. 5 are measured. When measuring different measurement target surfaces as described above, for example, the measurement operator freely switches the measurement target surface by operating the operation switch 25 provided on the probe 12, and an appropriate assist display is displayed accordingly. Displayed on the unit 30. For the calculation method of the irradiation angle and distance, the assist display unit 27 selects an algorithm optimal for each measurement target surface with reference to model information and the like. In addition to operating the operation switch 25, the measurement target surface is switched by, for example, instructing the control unit 20 by moving the probe 12 up and down in the z-axis direction in FIG. 3 with respect to the measurement target surface. It is also possible to configure.

なお、プローブ12により測定された被測定物体51の形状情報は、アシスト表示されている被測定物体51の概略形状に位置整合させて重ね合わせて表示することにより、どの部分の計測が終了し、どの部分の計測が終了していないかを測定者が認識することができ、測定効率が向上する。また、表示部30におけるビューの切り替えも、制御部20に接続された入力装置や操作スイッチ25の操作により制御部20が行う。   The shape information of the measured object 51 measured by the probe 12 is displayed in an aligned manner with the approximate shape of the measured object 51 being displayed in an assist manner, and the measurement of which part is completed. The measurer can recognize which part of the measurement has not been completed, and the measurement efficiency is improved. The control unit 20 also switches the view on the display unit 30 by operating the input device connected to the control unit 20 or the operation switch 25.

[第2の実施形態]
また、被測定物体51の形状によっては、1つの測定対象面内でも異なる傾斜が存在する場合がある。そこで、図6に示すように、形状情報を取得する毎にアシスト表示の変更が必要かを判断して表示部30の表示を変更するように構成することも可能である。なお、図6において、第1の実施形態と同じ処理には同じ符号を付し、詳細な説明は省略する。具体的には、ステップS160で形状測定の終了でないと判断すると、アシスト表示部27は、アシスト表示の修正が必要か否かを判断する(ステップS162)。例えば、プローブ12の撮像素子44で測定される測定情報(ライン像)に基づいて撮像を行っている場合に、撮像を行うにしたがって、測定対象面の傾斜の変化により、この撮像素子44から測定対象面への距離が、撮像素子44の撮像範囲から離れる方向に移動している場合(撮像素子44の合焦中心から外側に移動している場合であって、例えば、被測定物体51の測定対象面が、走査方向と直交する方向(図3のz軸方向)に変化している場合)には、有効合焦範囲から外れる前に、それに応じてライン像が撮像素子44の中央に位置するように、ライン光の照射方向や距離のアシスト表示を変化させる。そして、処理部22は、このように修正されたアシスト表示を表示部30に表示し(ステップS164)、ステップS130に戻って測定処理を繰り返す。このように、測定対象面の形状に応じて適宜アシスト表示を修正することにより、測定者は、適切にプローブ12を操作することができ、より正確に被測定物体51の形状情報を取得することができる。
[Second Embodiment]
Further, depending on the shape of the object to be measured 51, there may be a different inclination even within one measurement target surface. Therefore, as shown in FIG. 6, it is possible to determine whether the assist display needs to be changed every time the shape information is acquired, and to change the display of the display unit 30. In FIG. 6, the same processes as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Specifically, when it is determined in step S160 that the shape measurement is not completed, the assist display unit 27 determines whether or not the assist display needs to be corrected (step S162). For example, when imaging is performed based on measurement information (line image) measured by the imaging device 44 of the probe 12, measurement is performed from the imaging device 44 due to a change in inclination of the measurement target surface as the imaging is performed. When the distance to the target surface is moving in a direction away from the imaging range of the image sensor 44 (when moving to the outside from the focus center of the image sensor 44, for example, measuring the object 51 to be measured) In the case where the target surface changes in the direction orthogonal to the scanning direction (the z-axis direction in FIG. 3), the line image is positioned in the center of the image sensor 44 accordingly before deviating from the effective focus range. Thus, the assist display of the irradiation direction and distance of the line light is changed. And the process part 22 displays the assist display corrected in this way on the display part 30 (step S164), returns to step S130, and repeats a measurement process. In this way, by appropriately correcting the assist display according to the shape of the measurement target surface, the measurer can appropriately operate the probe 12 and obtain the shape information of the measured object 51 more accurately. Can do.

ところで、以上の説明では、ビューの切り替えは、測定者の操作により行う場合について説明したが、制御部20が自動的に切り替えるように構成することも可能である。例えば、表示部30として図7に示すようなヘッドマウントディスプレイを用い、このヘッドマウントディスプレイ30に設けられたカメラ37の画像によりビューを切り替えるように構成することができる。この図7に示すヘッドマウントディスプレイ30は、左右のヘッドホーン31,32が、連結部33により連結されており、この連結部33は弾性を有している。このヘッドマウントディスプレイ30を装着するときには、ヘッドホーン31,32により両耳を挟んで連結部33の弾性により押さえつける形で測定者の頭部に装着する。また、左ヘッドホーン32には、支持アーム34が装着時の左右方向を回動軸として上下方向に回動可能に取り付けられており、その先端部には、測定者の左眼(不図示)に画像を投影する投影部35が取り付けられている。また、右ヘッドホーン31の外面には、このヘッドマウントディスプレイ30を操作するための操作部36が設けられている。さらに、右ヘッドホーン31にカメラ37が取り付けられている。このカメラ37は、測定者の頭部にヘッドマントディスプレイ30を装着したときに、測定者の視界と略同一方向を向くように取り付けられている。そして、このカメラ37の視野は、測定空間内に配置された被測定物体51の全体を撮影可能に設定されている。なお、このカメラ37から出力される画像及び操作部36の操作による操作信号は、図8に示すように、制御部20の処理部22に入力されるように構成されている。   By the way, in the above description, the case where the view is switched by the measurement person's operation has been described. However, the control unit 20 may be configured to automatically switch the view. For example, a head-mounted display as shown in FIG. 7 can be used as the display unit 30, and the view can be switched according to an image of a camera 37 provided on the head-mounted display 30. In the head mounted display 30 shown in FIG. 7, left and right headphones 31 and 32 are connected by a connecting portion 33, and the connecting portion 33 has elasticity. When the head mounted display 30 is worn, it is worn on the head of the measurer in such a manner that both ears are sandwiched between the headphones 31 and 32 and pressed by the elasticity of the connecting portion 33. Further, a support arm 34 is attached to the left headphone 32 so as to be rotatable in the vertical direction with the left and right direction at the time of attachment as the rotation axis, and the left eye (not shown) of the measurer is attached to the tip of the support arm 34. A projection unit 35 for projecting an image is attached. An operation unit 36 for operating the head mounted display 30 is provided on the outer surface of the right headphone 31. Further, a camera 37 is attached to the right headphone 31. This camera 37 is attached so as to face substantially the same direction as the view of the measurer when the head cape display 30 is mounted on the measurer's head. The field of view of the camera 37 is set so that the entire measured object 51 arranged in the measurement space can be photographed. Note that the image output from the camera 37 and the operation signal generated by the operation of the operation unit 36 are configured to be input to the processing unit 22 of the control unit 20, as shown in FIG.

このような構成の形状測定装置100において、アシスト表示部27は、アシスト表示をする際に、カメラ37から取得した画像とモデル情報から生成された概略形状(CAD画像)と比較し、現在、測定者の視点が被測定物体51のどの測定面に正対しているのかを判定し、この測定者の視点と一致するようにビューを切り替える(実際に見ている方向と適合率の高い方向にCAD画像による被測定物体51の形状の向きを変更する)ように構成される。このように、自動的に表示部30に表示される画像のビューを変更することにより、測定者はビューを切り替える操作をする必要がなくなるため、測定効率を向上させることができる。   In the shape measuring apparatus 100 having such a configuration, the assist display unit 27 compares the image acquired from the camera 37 with the schematic shape (CAD image) generated from the model information when performing the assist display, and is currently measuring. It is determined to which measurement surface of the measured object 51 the person's viewpoint is directly facing, and the view is switched so as to coincide with the person's viewpoint (CAD in the direction of the actual viewing and the direction of high matching rate) The direction of the shape of the measured object 51 based on the image is changed). Thus, by automatically changing the view of the image displayed on the display unit 30, the measurer does not need to perform an operation of switching the view, so that the measurement efficiency can be improved.

なお、図7においては、カメラ37を右ヘッドホーン31の外面に1台取り付けた場合について説明したが、左ヘッドホーン32の外面にも取り付けて2台で被測定物体51を測定することにより、ステレオ画像による方法で被測定物体51の形状を検出することができるため、測定者の視点の特定精度が向上し、ビューの切り替え精度を向上させることができる。   In addition, in FIG. 7, although the case where one camera 37 was attached to the outer surface of the right headphone 31 was demonstrated, by attaching to the outer surface of the left headphone 32 and measuring the to-be-measured object 51 by two units, Since the shape of the object to be measured 51 can be detected by a method using a stereo image, the accuracy of specifying the viewpoint of the measurer can be improved, and the view switching accuracy can be improved.

また、このように、形状測定装置100の表示部30としてヘッドマウントディスプレイを用いると、測定者は、右眼で被測定物体51を目視するとともに、この被測定物体51に重ね合わせて左眼で制御部20からの出力画像、すなわち、被測定物体51の測定結果である3次元画像やアシスト情報を目視することができる。そのため、この測定者の姿勢に関わらず、常に被測定物体51と測定結果とを同時に目視することができるので、測定作業の効率を向上させることができる。   In addition, when a head-mounted display is used as the display unit 30 of the shape measuring apparatus 100 in this way, the measurer views the measured object 51 with the right eye and overlays the measured object 51 with the left eye. An output image from the control unit 20, that is, a three-dimensional image that is a measurement result of the measured object 51 and assist information can be visually observed. Therefore, regardless of the posture of the measurer, the object to be measured 51 and the measurement result can always be viewed at the same time, so that the efficiency of measurement work can be improved.

[第3の実施形態]
以上の説明では、予め記憶部26に記憶されている被測定物体51のモデル情報(CADデータ)から、アシスト表示を行う場合について説明したが、第2の実施形態で示したカメラ付のヘッドマウントディスプレイ30を用いることにより、CADデータの代わりにこのカメラの画像から被測定物体51の概略形状を求めてアシスト表示するように構成することもできる。以下、図9を用いて、被測定物体51の概略形状を取得するための処理について説明する。なお、制御部20に対する測定者の操作は、ここでは、ヘッドマントディスプレイ30の操作部36から行われるものとして説明するが、測定の開始・終了の指示のように、プローブ12に設けた操作スイッチ25から行うように構成することも可能である。
[Third Embodiment]
In the above description, the case where the assist display is performed from the model information (CAD data) of the measured object 51 stored in the storage unit 26 in advance has been described. However, the head mount with a camera shown in the second embodiment. By using the display 30, it is also possible to obtain an approximate shape of the measured object 51 from the image of this camera instead of CAD data, and to perform assist display. Hereinafter, the process for acquiring the schematic shape of the measured object 51 will be described with reference to FIG. Here, the measurement person's operation on the control unit 20 will be described as being performed from the operation unit 36 of the head cloak display 30, but an operation switch provided on the probe 12 as instructed to start and end the measurement. It is also possible to configure to start from 25.

概略形状の取得処理が開始されると、処理部22は、カメラ37から出力される画像を表示部30に表示する(ステップS300)。そして、測定者は、カメラ37を被測定物体51に向け、表示部30に被測定物体51の画像が表示されるようにする。このとき、カメラ37が、測定空間において、被測定物体51をどの方向から見ているのかを検出するために、測定者は、プローブ12をこの測定者側から被測定物体51に向くように操作する。上述のように、制御部20の位置演算部23は、エンコーダ21から出力される角度情報を用いてプローブ12の空間座標を演算することができ、また、このプローブ12が取り付けられているアーム11の先端側の空間座標からプローブ12の方位も演算することができる。そのため、カメラ37と同じ方向にプローブ12を向けることにより、処理部22は、カメラ37の画像が被測定物体51をどの方位から撮影しているのかを判断することができる。そして、測定者は、表示部30に表示される被測定物体51の画像が、概略形状を取得するための画像として使用できると判断すると、操作部36を操作して、画像の取得指示を行う。   When the outline shape acquisition process is started, the processing unit 22 displays an image output from the camera 37 on the display unit 30 (step S300). Then, the measurer points the camera 37 toward the measured object 51 so that the image of the measured object 51 is displayed on the display unit 30. At this time, in order to detect from which direction the camera 37 is looking at the measured object 51 in the measurement space, the measurer operates the probe 12 to face the measured object 51 from the measurer side. To do. As described above, the position calculation unit 23 of the control unit 20 can calculate the spatial coordinates of the probe 12 using the angle information output from the encoder 21, and the arm 11 to which the probe 12 is attached. The azimuth of the probe 12 can also be calculated from the spatial coordinates on the tip side. Therefore, by directing the probe 12 in the same direction as the camera 37, the processing unit 22 can determine from which direction the image of the camera 37 is shooting the object 51 to be measured. When the measurer determines that the image of the measured object 51 displayed on the display unit 30 can be used as an image for acquiring the approximate shape, the measurer operates the operation unit 36 to give an image acquisition instruction. .

処理部22は、操作部36が操作されて、画像取得の操作信号を検出すると(ステップS310)、カメラ画像を取得し(ステップS320)、さらに、上述のようにエンコーダ21が出力する角度情報からプローブ12が向いている方位(方位情報)を取得し(ステップS330)、これらの情報を記憶部26に記憶する(ステップS340)。そして、処理部22は、操作部36から画像取得の終了指示がされたかを判定し、終了指示がされていない場合には、ステップS300に戻って別の方位からの被測定物体51の画像取得を行う(ステップS350)。一方、画像取得の終了が指示がされた場合には、異なる方位の画像が3枚以上撮影されているか否かを判断し、3枚以上ないときは、同様にステップS300に戻る(ステップS360)。カメラ37で撮影された被測定物体51の画像からこの被測定物体51の概略形状を算出するためには、少なくとも方位の異なる3枚以上の画像が必要だからである。   When the operation unit 36 is operated to detect an image acquisition operation signal (step S310), the processing unit 22 acquires a camera image (step S320), and further, from the angle information output by the encoder 21 as described above. The orientation (azimuth information) that the probe 12 faces is acquired (step S330), and the information is stored in the storage unit 26 (step S340). Then, the processing unit 22 determines whether an instruction to end image acquisition has been given from the operation unit 36. If no instruction to end has been given, the processing unit 22 returns to step S300 and acquires the image of the measured object 51 from another direction. Is performed (step S350). On the other hand, when an instruction to end image acquisition is given, it is determined whether or not three or more images having different orientations have been taken. If there are not three or more images, the process returns to step S300 in the same manner (step S360). . This is because, in order to calculate the approximate shape of the measured object 51 from the image of the measured object 51 taken by the camera 37, at least three images having different orientations are required.

ステップS360で異なる方位の3枚以上の画像が取得されていると判断すると、処理部22は、これらの画像及び方位情報を記憶部26から読み出して被測定物体51の概略形状を生成し(ステップS370)、これを記憶部26に記憶し(ステップS380)、表示部30に表示する(ステップS390)。なお、ここで、概略形状とは、例えば、カメラ37で撮影した画像から被測定物体51の外形の形状を抽出して3次元画像として合成したものである。   If it is determined in step S360 that three or more images having different orientations have been acquired, the processing unit 22 reads out these images and orientation information from the storage unit 26 and generates a schematic shape of the measured object 51 (step S360). This is stored in the storage unit 26 (step S380) and displayed on the display unit 30 (step S390). Here, the approximate shape is, for example, a shape obtained by extracting the outer shape of the measured object 51 from an image taken by the camera 37 and synthesizing it as a three-dimensional image.

以上のような処理により、この被測定物体51の概略形状を取得することにより、表示部30に上述のアシスト表示を行うことができる。また、このように概略形状を表示することで、測定した形状をこの概略形状と位置整合させて重ね合わせて表示部30に表示することができるため、測定者は、被測定物体51のどの領域の形状を取得したかを容易に判断することができ、作業効率を向上させることができる。なお、カメラ37を有するヘッドマウントディスプレイ30の代わりに、プローブ12をカメラに交換し、形状測定部10の移動機構部11を操作して被測定物体51の画像を取得し、この画像から概略形状を生成することも可能である。なお、上記説明では操作部36を使って各種の入力を行ったが、例えば投影部35の周囲に視線検出センサを設け、表示部30に表示される画面内に視線入力可能な表示型スイッチを設けて視線入力で各種入力を行ってもよい。また、被測定物体51に照射されるライン光はスリットを用いて作ることも可能である。   The above-described assist display can be performed on the display unit 30 by acquiring the schematic shape of the object to be measured 51 by the processing as described above. In addition, by displaying the approximate shape in this way, the measured shape can be displayed on the display unit 30 while being aligned with the approximate shape and displayed on the display unit 30. It is possible to easily determine whether or not the shape has been acquired, and work efficiency can be improved. In place of the head-mounted display 30 having the camera 37, the probe 12 is replaced with a camera, and the moving mechanism unit 11 of the shape measuring unit 10 is operated to acquire an image of the object 51 to be measured. Can also be generated. In the above description, various inputs are performed using the operation unit 36. For example, a line-of-sight detection sensor is provided around the projection unit 35, and a display-type switch capable of line-of-sight input on the screen displayed on the display unit 30 is provided. It may be provided and various inputs may be performed by line-of-sight input. Moreover, the line light irradiated to the to-be-measured object 51 can also be made using a slit.

11 移動機構部 11aアーム部 11b 関節部(接続部)
12 プローブ 20 制御部 21 エンコーダ(角度情報検出部)
26 記憶部 30 表示部(ヘッドマウントディスプレイ)
35 投影部 37 カメラ
40 光学式センサ 41 光源 42 ライン光形成光学系
43 撮像光学系 44 撮像素子
51 被測定物体 100 形状測定装置
11 Movement mechanism part 11a Arm part 11b Joint part (connection part)
12 Probe 20 Control unit 21 Encoder (Angle information detection unit)
26 storage unit 30 display unit (head mounted display)
DESCRIPTION OF SYMBOLS 35 Projection part 37 Camera 40 Optical sensor 41 Light source 42 Line light formation optical system 43 Imaging optical system 44 Imaging element 51 Object to be measured 100 Shape measuring apparatus

Claims (10)

光学式センサにより被測定物体の形状を測定して測定情報を出力するプローブと、
アーム部、及び、前記アーム部間、若しくは、前記アーム部と前記プローブとを回転可能に接続する2以上の接続部を有し、所定の空間内で前記プローブを移動可能に支持する移動機構部と、
前記接続部に設けられ、当該接続部が接続する前記アーム部間、若しくは、前記アーム部と前記プローブとの角度情報を検出する角度情報検出部と、
表示部と、
前記測定情報及び前記角度情報から、前記被測定物体の形状情報を算出するとともに、前記形状情報を前記表示部に出力する制御部と、を有し、
前記制御部は、前記プローブの操作を支援するアシスト表示を前記表示部に表示するように構成された形状測定装置。
A probe that measures the shape of an object to be measured by an optical sensor and outputs measurement information;
A moving mechanism portion that has two or more connecting portions that rotatably connect the arm portion and between the arm portions or the arm portion and the probe, and supports the probe so as to be movable within a predetermined space. When,
An angle information detection unit that is provided in the connection unit and detects angle information between the arm units connected by the connection unit or between the arm unit and the probe;
A display unit;
A control unit that calculates shape information of the object to be measured from the measurement information and the angle information, and outputs the shape information to the display unit;
The shape measurement apparatus configured to display an assist display for assisting the operation of the probe on the display unit.
前記被測定物体の3次元情報を記憶する記憶部を有し、
前記制御部は、前記記憶部から前記3次元情報を読み出して前記被測定物体の概略形状を生成し、当該概略形状とともに、前記アシスト表示を前記表示部に表示するように構成された請求項1に記載の形状測定装置。
A storage unit for storing three-dimensional information of the measured object;
The control unit is configured to read the three-dimensional information from the storage unit, generate a schematic shape of the object to be measured, and display the assist display together with the schematic shape on the display unit. The shape measuring device described in 1.
前記表示部は、測定者の頭部に装着され、前記測定者の少なくとも一方の眼前に前記形状情報を投影する投影部と、当該表示部を装着した測定者の視野方向と略同一方向の画像を取得可能なカメラと、を有するヘッドマウントディスプレイで構成され、
前記制御部は、前記カメラにより前記被測定物体を異なる方位から測定した3枚以上の画像を取得し、当該画像を用いて前記被測定物体の概略形状を生成し、当該概略形状とともに、前記アシスト表示を前記表示部に表示するように構成された請求項1に記載の形状測定装置。
The display unit is mounted on the head of the measurer, projects a projection unit that projects the shape information in front of at least one eye of the measurer, and an image in a direction substantially the same as the visual field direction of the measurer wearing the display unit. Comprising a camera, and a head-mounted display having
The control unit acquires three or more images obtained by measuring the object to be measured from different orientations with the camera, generates a schematic shape of the object to be measured using the image, and together with the schematic shape, the assist The shape measuring apparatus according to claim 1, configured to display a display on the display unit.
前記制御部は、前記プローブの向けられている方向を前記画像の方位として取得し、前記方位を用いて前記画像から前記概略形状を生成する、請求項3に記載の形状測定装置。   The shape measuring apparatus according to claim 3, wherein the control unit acquires a direction in which the probe is directed as an azimuth of the image, and generates the approximate shape from the image using the azimuth. 前記制御部は、前記アシスト表示の前記概略形状に前記形状情報を位置整合させて重ね合わせて前記表示部に表示するように構成された請求項2〜4いずれか一項に記載の形状測定装置。   5. The shape measuring device according to claim 2, wherein the control unit is configured to align the shape information with the schematic shape of the assist display and to display the shape information on the display unit in an overlapping manner. . 前記アシスト情報は、前記被測定物体に対する前記プローブの位置に関する情報である請求項1〜5いずれか一項に記載の形状測定装置。   The shape measuring apparatus according to claim 1, wherein the assist information is information related to a position of the probe with respect to the object to be measured. 前記制御部は、前記被測定物体の形状情報を算出する毎に、前記アシスト表示を更新するか否かを判定するように構成された請求項1〜6いずれか一項に記載の形状測定装置。   The shape measuring apparatus according to claim 1, wherein the control unit is configured to determine whether or not to update the assist display every time the shape information of the object to be measured is calculated. . 前記制御部は、前記プローブと前記被測定物体の走査面との距離が変化することを検出して前記アシスト表示を更新するように構成された請求項7に記載の形状測定装置。   The shape measuring apparatus according to claim 7, wherein the control unit is configured to detect a change in a distance between the probe and a scanning surface of the object to be measured and update the assist display. 前記制御部は、前記測定者の視点に応じた前記被測定物体の測定面に対する前記アシスト表示を前記表示部に表示するように構成された請求項1〜8いずれか一項に記載の形状測定装置。   The shape measurement according to any one of claims 1 to 8, wherein the control unit is configured to display the assist display on the measurement surface of the object to be measured according to the viewpoint of the measurer on the display unit. apparatus. 前記プローブに設けられた前記光学式センサは、光源と、前記光源からの光をライン光として前記被測定物体に照射するライン光形成光学系と、前記ライン光の反射光を結像する撮像光学系と、前記反射光の像を検出する撮像素子と、を有し、
前記制御部は、前記撮像素子により検出された前記像により、三角測量の原理により前記被測定物体の形状を算出するように構成された請求項1〜9いずれか一項に記載の形状測定装置。
The optical sensor provided in the probe includes a light source, a line light forming optical system that irradiates the object to be measured with light from the light source as line light, and imaging optical that forms an image of reflected light of the line light. A system and an image sensor for detecting an image of the reflected light,
The shape measuring apparatus according to claim 1, wherein the control unit is configured to calculate a shape of the object to be measured based on a principle of triangulation from the image detected by the imaging element. .
JP2009270910A 2009-11-30 2009-11-30 Shape-measuring system Pending JP2011112578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009270910A JP2011112578A (en) 2009-11-30 2009-11-30 Shape-measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009270910A JP2011112578A (en) 2009-11-30 2009-11-30 Shape-measuring system

Publications (1)

Publication Number Publication Date
JP2011112578A true JP2011112578A (en) 2011-06-09

Family

ID=44235012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009270910A Pending JP2011112578A (en) 2009-11-30 2009-11-30 Shape-measuring system

Country Status (1)

Country Link
JP (1) JP2011112578A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014134383A (en) * 2013-01-08 2014-07-24 Mitsutoyo Corp Three-dimensional measuring device, input method, and program
KR101828532B1 (en) * 2012-11-28 2018-02-12 한화지상방산 주식회사 Laser sensor assembly and control method for the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101828532B1 (en) * 2012-11-28 2018-02-12 한화지상방산 주식회사 Laser sensor assembly and control method for the same
JP2014134383A (en) * 2013-01-08 2014-07-24 Mitsutoyo Corp Three-dimensional measuring device, input method, and program

Similar Documents

Publication Publication Date Title
JP6291562B2 (en) Diagnose and eliminate multipath interference in 3D scanners with directed probing
JP6355710B2 (en) Non-contact optical three-dimensional measuring device
JP5032343B2 (en) Method and apparatus for displaying a virtual object, and method and apparatus for overlaying a virtual object on an environmental image
US9106805B2 (en) Image measuring system
US20150097931A1 (en) Calibration of 3d scanning device
JP2000097636A (en) Device and method for positioning measuring head of non- contact three-dimensional measuring device
TWI623724B (en) Shape measuring device, structure manufacturing system, stage system, shape measuring method, structure manufacturing method, shape measuring program, and computer readable recording medium
EP3421930A1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
US20150097968A1 (en) Integrated calibration cradle
JP2008014882A (en) Three-dimensional measuring device
JP6934811B2 (en) Three-dimensional measuring device
JP5308765B2 (en) Lighting device
JP3991040B2 (en) Three-dimensional measuring apparatus and three-dimensional measuring method
JP2011112578A (en) Shape-measuring system
JP2011110675A (en) Shape measuring device
JP6503278B2 (en) Shape measuring apparatus and shape measuring method
JP2011112579A (en) Shape-measuring device
JP2004163346A (en) Noncontact three-dimensional shape measuring device
JP6029938B2 (en) Calibration method and three-dimensional processing apparatus
JP2012127805A (en) Shape measuring device
JP4956960B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP2000326082A (en) Laser beam machine
JP7081941B2 (en) 3D shape measuring device and 3D shape measuring method
JP2003148926A (en) Portable three-dimensional shape measuring apparatus
JP2020076677A (en) Displacement measuring device