JP2011112579A - Shape-measuring device - Google Patents

Shape-measuring device Download PDF

Info

Publication number
JP2011112579A
JP2011112579A JP2009270911A JP2009270911A JP2011112579A JP 2011112579 A JP2011112579 A JP 2011112579A JP 2009270911 A JP2009270911 A JP 2009270911A JP 2009270911 A JP2009270911 A JP 2009270911A JP 2011112579 A JP2011112579 A JP 2011112579A
Authority
JP
Japan
Prior art keywords
shape
information
unit
probe
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009270911A
Other languages
Japanese (ja)
Inventor
Hiroaki Okamoto
裕昭 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009270911A priority Critical patent/JP2011112579A/en
Publication of JP2011112579A publication Critical patent/JP2011112579A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a shape-measuring device which can be visually confirmed on a result of measurement of a measurement object, at all times, irrespective of the position or the attitude of the person measuring. <P>SOLUTION: The shape-measuring device 100 includes a probe 12, which measures the shape of the measuring object 51 and outputs measurement information; a movement mechanism section which has arm sections 11a and two or more joint sections 11b and supports the probe 12 movably in a prescribed space; encoders 21 which are provided at the joint sections 11b and detect angle information formed between the arm sections 11a or by the arm section 11a and the probe 12, which are connected by the joint sections 11b, a display section 30; and a control section 20 which calculates shape information on the measuring object 51 from the measurement information and the angle information and outputs this shape information to the display section 30. The display section 30 is constituted of a head mount display which is mounted on the head of the measuring person and has a projection section 35 which projects the shape information to at least one side, in front of the eyes of this measuring person. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、形状測定装置に関する。   The present invention relates to a shape measuring apparatus.

多関節型アームの先端に非接触センサを有するプローブを取り付けた形状測定装置であって、測定者が手動で操作することにより被検査物体の形状を測定するように構成された装置(以下、「マニュアル測定機」と呼ぶ)が開発されている(例えば、特許文献1参照)。   A shape measuring device in which a probe having a non-contact sensor is attached to the tip of an articulated arm, and a device configured to measure the shape of an object to be inspected by manual operation by a measurer (hereinafter, “ (Referred to as Patent Document 1).

特開2009−192401号公報JP 2009-192401 A

このようなマニュアル測定機で被検査物体の形状を測定する場合、特に、レーザスキャンによる非接触測定を行う場合には、被検査物体のどの領域のデータ取得が終了したかを確認するためには、制御装置に接続されたモニタ用の操作画面(表示部の画面)を目視する必要がある。この場合、被測定物体の大きさ、マニュアル測定機との位置関係、又は、被測定物体の測定箇所等により、測定領域と操作画面とを同時に目視することができず、これらの確認に時間がかかり測定効率が悪くなるという課題があった。   When measuring the shape of an object to be inspected with such a manual measuring machine, especially when performing non-contact measurement by laser scanning, in order to confirm which region of the object to be inspected has been acquired. It is necessary to visually check the monitor operation screen (screen of the display unit) connected to the control device. In this case, due to the size of the object to be measured, the positional relationship with the manual measuring machine, or the measurement location of the object to be measured, the measurement area and the operation screen cannot be observed at the same time. Therefore, there is a problem that the measurement efficiency is deteriorated.

本発明はこのような課題に鑑みてなされたものであり、測定者の位置や姿勢に関わらず、常に、被測定物体の測定結果を目視で確認することができる形状測定装置を提供することを目的とする。   The present invention has been made in view of such problems, and it is desirable to provide a shape measuring device that can always visually confirm the measurement result of an object to be measured regardless of the position and orientation of the measurer. Objective.

前記課題を解決するために、本発明に係る形状測定装置は、被測定物体の形状を測定して測定情報を出力するプローブと、アーム部、及び、このアーム部間、若しくは、アーム部とプローブとを回転可能に接続する2以上の接続部を有し、所定の空間内でプローブを移動可能に支持する移動機構部と、接続部に設けられ、当該接続部が接続するアーム部間、若しくは、アーム部とプローブとの角度情報を検出する角度情報検出部と、表示部と、測定情報及び角度情報から、被測定物体の形状情報を算出するとともに、この形状情報を表示部に出力する制御部と、を有し、表示部は、測定者の頭部に装着され、この測定者の少なくとも一方の眼前に形状情報を投影する投影部を有するヘッドマウントディスプレイで構成される。   In order to solve the above-described problems, a shape measuring apparatus according to the present invention includes a probe that measures the shape of an object to be measured and outputs measurement information, an arm portion, and between these arm portions, or an arm portion and a probe. Two or more connecting portions that connect to each other in a rotatable manner, and a moving mechanism portion that supports the probe movably in a predetermined space, and an arm portion that is provided in the connecting portion and to which the connecting portion connects, or The angle information detection unit that detects the angle information between the arm unit and the probe, the display unit, and the control unit that calculates the shape information of the measured object from the measurement information and the angle information, and outputs the shape information to the display unit The display unit is configured by a head mounted display that is mounted on the head of the measurer and has a projection unit that projects shape information in front of at least one eye of the measurer.

このような形状測定装置において、制御部は、形状情報を表示するときに、当該形状情報を取得した面を正対した視点で表示するように構成されることが好ましい。   In such a shape measuring apparatus, when the shape information is displayed, the control unit is preferably configured to display the surface from which the shape information has been acquired from a point of view.

また、このような形状測定装置において、ヘッドマウントディスプレイは、当該ヘッドマウントディスプレイを装着した測定者の視野方向と略同一方向の画像を取得可能なカメラを有し、制御部は、このカメラにより被測定物体を異なる方位から測定した3枚以上の画像を取得し、当該画像を用いて被測定物体の概略形状を生成するように構成されることが好ましい。   Further, in such a shape measuring apparatus, the head mounted display has a camera capable of acquiring an image in the substantially same direction as the visual field direction of the measurer wearing the head mounted display, and the control unit is covered by the camera. It is preferable that three or more images obtained by measuring the measurement object from different directions are acquired, and a schematic shape of the measurement object is generated using the images.

このとき、制御部は、プローブの向けられている方向を画像の方位として取得し、この方位を用いて画像から概略形状を生成するように構成されることが好ましい。   At this time, it is preferable that the control unit is configured to acquire a direction in which the probe is directed as an image orientation, and to generate a schematic shape from the image using the orientation.

またこのとき、制御部は、概略形状に位置整合させて形状情報を重ね合わせて表示部に表示するように構成されることが好ましい。   Further, at this time, it is preferable that the control unit is configured to be aligned with the approximate shape and to display the shape information superimposed on the display unit.

本発明に係る形状測定装置を以上のように構成すると、測定者の位置や姿勢に関わらず、被測定物体の測定結果を目視で確認することができる。   When the shape measuring apparatus according to the present invention is configured as described above, the measurement result of the measured object can be visually confirmed regardless of the position and orientation of the measurer.

形状測定装置の構成を示す説明図である。It is explanatory drawing which shows the structure of a shape measuring apparatus. 形状測定装置の制御部の基本的な構成を示すブロック図である。It is a block diagram which shows the basic composition of the control part of a shape measuring apparatus. プローブに設けられた光学式センサの構成を示す説明図である。It is explanatory drawing which shows the structure of the optical sensor provided in the probe. 形状測定装置による形状測定処理を示すフローチャートである。It is a flowchart which shows the shape measurement process by a shape measuring apparatus. 第1の実施形態に係るヘッドマウントディスプレイの構成を示す説明図である。It is explanatory drawing which shows the structure of the head mounted display which concerns on 1st Embodiment. 第2の実施形態に係るヘッドマウントディスプレイの構成を示す説明図である。It is explanatory drawing which shows the structure of the head mounted display which concerns on 2nd Embodiment. 第2の実施形態に係る制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part which concerns on 2nd Embodiment. 概略形状取得処理を示すフローチャートである。It is a flowchart which shows a rough shape acquisition process.

以下、本発明の好ましい実施形態について図面を参照して説明する。まず、図1〜図3を用いて、本実施形態に係る形状測定装置の構成について説明する。この形状測定装置100は、例えば、ステージ50上に載置された被測定物体51の形状を測定する形状測定部10と、この形状測定部10から出力される角度情報及び測定情報に基づいて被測定物体51に関する形状情報を算出する制御部20と、算出された形状情報を、例えば、3次元画像にして出力するための表示部30と、を有して構成される。なお、被測定物体51は、ステージ50上に載置されていなくても測定可能である。また、この形状測定装置100は、測定者が形状測定部10を操作して被測定物体51の形状情報を取得するように構成されたマニュアル測定機である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, the configuration of the shape measuring apparatus according to the present embodiment will be described with reference to FIGS. The shape measuring apparatus 100 includes, for example, a shape measuring unit 10 that measures the shape of the object to be measured 51 placed on the stage 50, and the angle information and measurement information output from the shape measuring unit 10. The control unit 20 calculates shape information related to the measurement object 51, and a display unit 30 that outputs the calculated shape information as a three-dimensional image, for example. The object to be measured 51 can be measured even if it is not placed on the stage 50. The shape measuring apparatus 100 is a manual measuring machine configured such that the measurer operates the shape measuring unit 10 to acquire the shape information of the measured object 51.

形状測定部10は、複数のアーム部11aを複数の関節部(接続部)11bで接続した多関節構造の移動機構部11と、この移動機構部11の先端部(最も先端側に位置するアーム部11aの先端部)に対して取付部14を介して着脱可能に構成されたプローブ12と、移動機構部11の基端部(最も基端側に位置するアーム部11aの基端部)が取り付けられた基台13と、を有して構成される。なお、関節部11bは、アーム部11a同士を繋ぎ、一方のアーム部11aに対して他方のアーム部11aを回転させる(揺動させる)ものや、基台13に対して基端側のアーム部11aを接地面に垂直方向の軸を中心に回転させるもの、若しくは、取付部14に取り付けられたプローブ12を、先端側のアーム部11aに対して揺動させたり、回転させたりするものがある。   The shape measuring unit 10 includes a multi-joint structure moving mechanism 11 in which a plurality of arm portions 11a are connected by a plurality of joint portions (connecting portions) 11b, and a distal end portion (an arm located at the most distal end side) of the moving mechanism portion 11. The probe 12 is configured to be detachable with respect to the distal end portion of the portion 11a via the attachment portion 14, and the proximal end portion of the moving mechanism portion 11 (the proximal end portion of the arm portion 11a located on the most proximal side). And an attached base 13. The joint portion 11b connects the arm portions 11a to each other and rotates (swings) the other arm portion 11a with respect to one arm portion 11a, or an arm portion on the proximal end side with respect to the base 13. There is one that rotates 11a around an axis perpendicular to the ground surface, or one that swings or rotates the probe 12 attached to the attachment portion 14 with respect to the arm portion 11a on the distal end side. .

関節部11bの回転軸の各々には、基台13や基端側に位置するアーム部11aに対して、この関節部11bに接続された先端側に位置するアーム部11a若しくはプローブ12のなす角度を検出するためにこの回転軸の回転量を計測するエンコーダ(角度情報検出部)21が取り付けられており、これらのエンコーダ21による計測値(以下、「角度情報」と呼ぶ)は、図2に示すように、制御部20に出力される。   Each of the rotation shafts of the joint portion 11b has an angle formed by the arm portion 11a or the probe 12 located on the distal end side connected to the joint portion 11b with respect to the base 13 or the arm portion 11a located on the proximal end side. In order to detect this, an encoder (angle information detection unit) 21 that measures the amount of rotation of the rotating shaft is attached, and the measured values (hereinafter referred to as “angle information”) by these encoders 21 are shown in FIG. As shown, it is output to the control unit 20.

一方、プローブ12には、図3に示すように、レーザーダイオード等の光源41と、この光源41から放射された光をシリンドリカルレンズ等のトーリックレンズ光学系によりライン光としてステージ50上の被測定物体51に照射するライン光形成光学系42と、被測定物体51に投射されたライン光の像(以下、「ライン像」と呼ぶ)を結像する撮像光学系43と、このライン像を検出する撮像素子44と、からなる光学式センサ40が設けられている。また、図1に示すように、このプローブ12には、測定者が、被測定物体51の形状測定の開始及び停止を制御部20に指示するための操作スイッチ25が設けられている。なお、光源41から放射された光をライン光に変換するには、ガルバノスキャナ等によりライン光として照射する構成でも実現可能である。   On the other hand, as shown in FIG. 3, the probe 12 has a light source 41 such as a laser diode and the object to be measured on the stage 50 as a line light by using a toric lens optical system such as a cylindrical lens. 51, a line light forming optical system 42 for irradiating 51, an imaging optical system 43 for forming an image of line light projected on the object 51 to be measured (hereinafter referred to as “line image”), and detecting this line image. An image sensor 44 and an optical sensor 40 are provided. As shown in FIG. 1, the probe 12 is provided with an operation switch 25 for the measurer to instruct the control unit 20 to start and stop the shape measurement of the object 51 to be measured. In addition, in order to convert the light radiated | emitted from the light source 41 into line light, the structure irradiated with a galvano scanner etc. as line light is also realizable.

また、制御部20には、図2に示すように、この形状測定装置100による被測定物体51の形状測定の処理を制御する処理部22と、エンコーダ21の各々から出力される角度情報を用いてプローブ12の空間座標(測定空間内の予め決められた点を原点とする座標であって、以下、「位置情報」と呼ぶ)を演算する位置演算部23と、撮像素子44から出力されるライン像(以下、「測定情報」と呼ぶ)及び位置演算部23から出力される位置情報を用いて、被測定物体51の形状情報を算出する形状演算部24と、を有して構成されている。なお、操作スイッチ25からの出力(操作信号)は処理部22に入力され、光源41の点灯・消灯動作は処理部22により制御される。また、形状演算部24から出力された形状情報は、例えば、制御部20に設けられた記憶部26に記憶され、さらに、この形状情報は処理部22で処理されて表示部30に3次元画像として出力される。ここで、測定空間とは、この形状測定装置100により、プローブ12を移動させて被測定物体51の空間座標を取得できる範囲(空間)を指している。また、制御部20は、例えばコンピュータで実現され、処理部22、位置演算部23及び形状演算部24は、このコンピュータで実行されるプログラムとして実装される。   Further, as shown in FIG. 2, the control unit 20 uses angle information output from each of the processing unit 22 that controls the shape measurement process of the object 51 to be measured by the shape measuring apparatus 100 and the encoder 21. The position calculation unit 23 for calculating the spatial coordinates of the probe 12 (coordinates having a predetermined point in the measurement space as the origin, and hereinafter referred to as “position information”) and the image sensor 44 output And a shape calculation unit 24 that calculates shape information of the measurement object 51 using the line image (hereinafter referred to as “measurement information”) and the position information output from the position calculation unit 23. Yes. Note that an output (operation signal) from the operation switch 25 is input to the processing unit 22, and the lighting / extinguishing operation of the light source 41 is controlled by the processing unit 22. Further, the shape information output from the shape calculation unit 24 is stored in, for example, a storage unit 26 provided in the control unit 20, and the shape information is processed by the processing unit 22 and is displayed on the display unit 30. Is output as Here, the measurement space refers to a range (space) in which the shape measuring device 100 can move the probe 12 and acquire the spatial coordinates of the measured object 51. Moreover, the control part 20 is implement | achieved by the computer, for example, and the process part 22, the position calculating part 23, and the shape calculating part 24 are mounted as a program run with this computer.

ここで、アーム部11aの長さ等の情報は既知であるため、制御部20の位置演算部23は、エンコーダ21から出力された角度情報に基づいて、基台13や基端側に位置するアーム部11aに対する、先端側に接続されたアーム部11a若しくはプローブ12の角度を算出することにより、プローブ12の空間上の3次元座標(空間座標)及び姿勢(以降の説明では、3次元座標と姿勢をまとめて「空間座標」と称する)を求めることができる。また同様に、プローブ12における光源41、ライン光形成光学系42、撮像光学系43及び撮像素子44の位置(座標)も既知であるため、形状演算部24は、三角測量の原理に基づいて撮像素子44で取得された測定情報(ライン像)を処理することにより、撮像素子44で撮像できる範囲内にある被測定物体51の形状(ライン光が投影されている被測定物体51の形状(例えば、この範囲の離散的に表される測定空間内での座標群として表現される))を演算して求めることができる。   Here, since information such as the length of the arm portion 11a is known, the position calculation unit 23 of the control unit 20 is positioned on the base 13 or the base end side based on the angle information output from the encoder 21. By calculating the angle of the arm part 11a or the probe 12 connected to the distal end side with respect to the arm part 11a, the three-dimensional coordinates (spatial coordinates) and the posture of the probe 12 in space (in the following description, the three-dimensional coordinates and The postures are collectively referred to as “spatial coordinates”). Similarly, since the positions (coordinates) of the light source 41, the line light forming optical system 42, the imaging optical system 43, and the imaging element 44 in the probe 12 are also known, the shape calculation unit 24 performs imaging based on the principle of triangulation. By processing the measurement information (line image) acquired by the element 44, the shape of the measured object 51 within the range that can be imaged by the imaging element 44 (the shape of the measured object 51 on which the line light is projected (for example, And expressed as a group of coordinates in the measurement space discretely represented in this range))).

なお、プローブ12による被測定物体51の形状情報の取得方法は、上述の光切断による三角測量による方法だけでなく、明視野画像を取得してコンピュータ解析により形状を測定する方法や、ステレオ画像を用いた三角測量による方法等を適宜用いることができる。   Note that the method for acquiring the shape information of the object 51 to be measured by the probe 12 is not limited to the above-described method by triangulation by light cutting, but also a method of acquiring a bright field image and measuring the shape by computer analysis, or a stereo image. The triangulation method used can be used as appropriate.

次に、この形状測定装置100を用いて被測定物体51の形状を測定する方法について図4を用いて説明する。なお、上述の図3において、被測定物体51をライン光により走査する方向をx軸とし、ライン光の長手方向をy軸とし、x軸及びy軸に直交する方向をz軸とする。操作者は、形状測定装置100のプローブ12を操作し、被測定物体51の測定開始位置にこのプローブ12を移動させる。そして、測定者は、被測定物体51に対してプローブ12を所定の距離及び角度に配置し、操作スイッチ25をオン操作する。処理部22は、操作スイッチ25のオン操作を検知すると(ステップS100)、光源41を点灯させ、ライン光を被測定物体50に照射する(ステップS110)。この状態で、測定者は、被測定物体51の測定対象面に沿って(図3のx軸方向に)プローブ12を移動させることにより、被測定物体51の表面を走査する。処理部22は、操作スイッチ25がオン操作されると、所定の時間間隔で、位置演算部23から位置情報を取得し(ステップS120)、さらに、撮像素子44から測定情報(ライン像)を取得して形状演算部24により被測定物体51の形状情報を取得し(ステップS130)、その都度、この形状情報を記憶部26に記憶する(ステップS140)。処理部22は、操作スイッチ25がオフ操作されるまで、この処理を繰り返すため、操作スイッチ25がオン操作されている間にプローブ12が走査した範囲の被測定物体51の形状情報が記憶部26に記憶される(ステップS150)。そして、操作スイッチ25が測定者によりオフ操作されると、処理部22は光源41を消灯し(ステップS160)、それまでに取得した形状情報を記憶部26から読み出して、被測定物体51の走査範囲の3次元画像を生成し(ステップS170)、表示部30に出力する(ステップS180)。このように、表示部30に測定結果である3次元画像を表示することにより、形状情報を適切に取得できたか否かや、被測定物体51のどの部分の形状情報を取得できたかなどを、測定者は、目視により、適宜確認することができる。   Next, a method for measuring the shape of the measured object 51 using the shape measuring apparatus 100 will be described with reference to FIG. In FIG. 3 described above, the direction in which the measured object 51 is scanned with line light is the x axis, the longitudinal direction of the line light is the y axis, and the direction orthogonal to the x axis and the y axis is the z axis. The operator operates the probe 12 of the shape measuring apparatus 100 and moves the probe 12 to the measurement start position of the measured object 51. Then, the measurer places the probe 12 at a predetermined distance and angle with respect to the object to be measured 51 and turns on the operation switch 25. When detecting that the operation switch 25 is turned on (step S100), the processing unit 22 turns on the light source 41 and irradiates the object to be measured 50 with line light (step S110). In this state, the measurer scans the surface of the measured object 51 by moving the probe 12 along the measurement target surface of the measured object 51 (in the x-axis direction in FIG. 3). When the operation switch 25 is turned on, the processing unit 22 acquires position information from the position calculation unit 23 at predetermined time intervals (step S120), and further acquires measurement information (line image) from the image sensor 44. Then, the shape calculation unit 24 acquires the shape information of the object 51 to be measured (step S130), and stores the shape information in the storage unit 26 each time (step S140). Since the processing unit 22 repeats this process until the operation switch 25 is turned off, the shape information of the measured object 51 in the range scanned by the probe 12 while the operation switch 25 is turned on is stored in the storage unit 26. (Step S150). When the operation switch 25 is turned off by the measurer, the processing unit 22 turns off the light source 41 (step S160), reads the shape information acquired so far from the storage unit 26, and scans the object 51 to be measured. A three-dimensional image of the range is generated (step S170) and output to the display unit 30 (step S180). In this way, by displaying the three-dimensional image as the measurement result on the display unit 30, whether or not the shape information can be appropriately acquired, which part of the measured object 51 the shape information can be acquired, etc. The measurer can confirm appropriately by visual inspection.

ところで、測定結果(3次元画像)を表示する表示部30を据え置き型のディスプレイとした場合、被測定物体51がこの表示部30より大きい場合に、被測定物体51と形状測定装置100との位置により、この被測定物体51に遮られて表示部30を測定者が目視できないことがある。また、表示部30に背を向けて被測定物体51を測定しなければならない場合も発生する。このような場合、測定者は、被測定物体51の測定時と表示部30の目視時に、それぞれ姿勢を変えなければならず、測定効率が悪くなってしまう。そこで、本実施形態に係る形状測定装置100においては、表示部30として図5に示すようなヘッドマウントディスプレイを用いている。以下、このようなヘッドマウントディスプレイを用いた形状測定装置100について説明する。   By the way, when the display unit 30 for displaying the measurement result (three-dimensional image) is a stationary display, the position of the measured object 51 and the shape measuring device 100 when the measured object 51 is larger than the display unit 30. As a result, the measurer may not be able to see the display unit 30 due to being blocked by the measured object 51. In some cases, the object to be measured 51 must be measured with the back facing the display unit 30. In such a case, the measurer must change the posture when measuring the object to be measured 51 and when viewing the display unit 30, and the measurement efficiency deteriorates. Therefore, in the shape measuring apparatus 100 according to the present embodiment, a head mounted display as shown in FIG. Hereinafter, the shape measuring apparatus 100 using such a head mounted display will be described.

[第1の実施形態]
ヘッドマウントディスプレイ30は、左右のヘッドホーン31,32が、連結部33により連結されており、この連結部33は弾性を有している。このヘッドマウントディスプレイ30を装着するときには、ヘッドホーン31,32により両耳を挟んで連結部33の弾性により押さえつける形で測定者の頭部に装着する。また、左ヘッドホーン32には、支持アーム34が装着時の左右方向を回動軸として上下方向に回動可能に取り付けられており、その先端部には、測定者の左眼(不図示)に画像を投影する投影部35が取り付けられている。また、右ヘッドホーン31の外面には、このヘッドマウントディスプレイ30を操作するための操作部36が設けられている。このように、形状測定装置100の表示部30としてヘッドマウントディスプレイを用いると、測定者は、右眼で被測定物体51を目視するとともに、この被測定物体51に重ね合わせて左眼で制御部20からの出力画像、すなわち、被測定物体51の測定結果である3次元画像を目視することができる。そのため、この測定者の姿勢に関わらず、常に被測定物体51と測定結果とを同時に目視することができるので、測定作業の効率を向上させることができる。なお、このヘッドマウントディスプレイ30と制御部20との接続は、ケーブルを介した有線接続でも良いし、無線LANを用いた無線接続でも良い。
[First Embodiment]
In the head mounted display 30, left and right headphones 31, 32 are connected by a connecting portion 33, and the connecting portion 33 has elasticity. When the head mounted display 30 is worn, it is worn on the head of the measurer in such a manner that both ears are sandwiched between the headphones 31 and 32 and pressed by the elasticity of the connecting portion 33. Further, a support arm 34 is attached to the left headphone 32 so as to be rotatable in the vertical direction with the left and right direction at the time of attachment as the rotation axis, and the left eye (not shown) of the measurer is attached to the tip of the support arm 34. A projection unit 35 for projecting an image is attached. An operation unit 36 for operating the head mounted display 30 is provided on the outer surface of the right headphone 31. As described above, when a head mounted display is used as the display unit 30 of the shape measuring apparatus 100, the measurer visually observes the measured object 51 with the right eye and superimposes the measured object 51 on the measured object 51 with the left eye. An output image from 20, that is, a three-dimensional image that is a measurement result of the measured object 51 can be visually observed. Therefore, regardless of the posture of the measurer, the object to be measured 51 and the measurement result can always be viewed at the same time, so that the efficiency of measurement work can be improved. The connection between the head mounted display 30 and the control unit 20 may be a wired connection via a cable or a wireless connection using a wireless LAN.

このような表示部30に表示される3次元画像は、いずれか一方の方向から当該被測定物体51を見たときの画像である(この方向を以降の説明では「ビュー」と呼ぶ)。そのため、被測定物体51をある方向から見た側面の形状測定をした後に、別の方向から見た側面の形状測定するときは、ビュー(被測定物体51に対する視点)をその方向に切り替えて表示しなければ、例えば、既に測定している側面に遮られて表示部30に表示されない場合がある。このような場合に対応するために、本実施形態に係る形状測定装置100の制御部20の処理部22は、図4に示すように、ステップS180で、測定結果の3次元画像を表示すると、例えば、表示部30にビューを切り替えるかどうかのメッセージを表示し、測定者の意志を確認する(ステップS190)。そして、プローブ12に設けられた操作スイッチ25が測定者により操作されてビューを切り替えると判断すると、処理部22は、ステップS120〜S150で取得した3次元画像の面に正対する方向にビューを切り替え、このビューからの三次元画像を再度生成し(ステップS200)、表示部30に再表示する(ステップS210)。   Such a three-dimensional image displayed on the display unit 30 is an image when the measured object 51 is viewed from either one direction (this direction is referred to as “view” in the following description). Therefore, after measuring the shape of the side surface of the measured object 51 viewed from a certain direction, when measuring the shape of the side surface viewed from another direction, the view (viewpoint with respect to the measured object 51) is switched to that direction and displayed. Otherwise, for example, it may be blocked by the already measured side surface and not displayed on the display unit 30. In order to cope with such a case, when the processing unit 22 of the control unit 20 of the shape measuring apparatus 100 according to the present embodiment displays a three-dimensional image of the measurement result in step S180, as shown in FIG. For example, a message as to whether to switch the view is displayed on the display unit 30, and the will of the measurer is confirmed (step S190). When the operation switch 25 provided on the probe 12 is operated by the measurer to determine that the view is to be switched, the processing unit 22 switches the view in a direction facing the plane of the three-dimensional image acquired in steps S120 to S150. Then, a three-dimensional image from this view is generated again (step S200) and redisplayed on the display unit 30 (step S210).

このように、被測定物体51の、測定した面に正対するようにビューを切り替えることにより、測定者は、現在測定している箇所を明確に視認することができる。そのため、例えば、現在測定している被測定物体51の面のうち、既に測定が終了している領域とまだ測定が終了していない領域とを的確に把握することができる。なお、以上の説明では、一回の測定が終了して測定結果の3次元画像を表示する毎に、ビューを切り替えるか否かを測定者に確認しているが、処理部22により、生成した三次元画像からビューを切り替えるか否かを判断し、自動的に切り替えるように構成することも可能である。また、ビューの切り替え指示は、図4に示す測定処理とは別に、測定者が任意のタイミングで行えるように構成することも可能である。さらに、以上の説明ではビューの切り替えをプローブ12に設けられた操作スイッチ25で行う場合について説明したが、ヘッドマウントディスプレイ30に設けられた操作部36を用いても良い。また、制御部20は、形状測定操作の音声ガイダンスを、ヘッドマウントディスプレイ30のヘッドホーン31,32から再生するように構成することも可能である。   In this way, by switching the view so as to face the measured surface of the object to be measured 51, the measurer can clearly see the location currently being measured. Therefore, for example, it is possible to accurately grasp the area where the measurement has already been completed and the area where the measurement has not been completed, among the surface of the measured object 51 currently being measured. In the above description, every time a measurement is completed and a three-dimensional image of the measurement result is displayed, the operator is confirmed whether to switch the view. It is also possible to determine whether or not to switch the view from the three-dimensional image and to switch automatically. In addition to the measurement process shown in FIG. 4, the view switching instruction can be configured so that the measurer can perform it at an arbitrary timing. Further, in the above description, the case where the switching of the view is performed by the operation switch 25 provided in the probe 12 has been described, but an operation unit 36 provided in the head mounted display 30 may be used. Further, the control unit 20 can be configured to reproduce the voice guidance of the shape measurement operation from the headphones 31 and 32 of the head mounted display 30.

[第2の実施形態]
第1の実施形態で説明した形状測定方法によると、測定者が被測定物体51を測定した結果として、その3次元形状が表示部30に表示される。そのため、被測定物体51のどの部分を測定しているのかは、表示された測定結果の画像から測定者が判断しなければならない。そこで、この第2の実施形態に係る形状測定装置100においては、まず、被測定物体51の概略形状を取得して表示部30に表示した状態で形状測定を行い、この概略形状に測定結果を重ね合わせて表示するように構成した場合について説明する。
[Second Embodiment]
According to the shape measurement method described in the first embodiment, the three-dimensional shape is displayed on the display unit 30 as a result of the measurement person measuring the measured object 51. Therefore, the measurer must determine which part of the measured object 51 is being measured from the displayed measurement result image. Therefore, in the shape measuring apparatus 100 according to the second embodiment, first, the shape of the object 51 to be measured is acquired and displayed on the display unit 30, and the shape is measured. A case will be described in which the images are displayed in a superimposed manner.

図6に示すヘッドマントディスプレイ30′は、第1の実施形態で説明したヘッドマントディスプレイ30の右ヘッドホーン31にカメラ37が取り付けられている場合を示している。ここで、第1の実施形態と同じ構成部材については同じ符号を付し、詳細な説明は省略する。また、このカメラ37は、測定者の頭部にヘッドマントディスプレイ30′を装着したときに、測定者の視界と略同一方向を向くように取り付けられている。そして、このカメラ37の視野は、測定空間内に配置された被測定物体51の全体を撮影可能に設定されている。なお、図7に示すように、カメラ37から出力される画像及び操作部36の操作による操作信号は制御部20の処理部22に入力されるように構成されており、これらの画像等から概略形状を生成する処理は、概略形状生成部27で行われる(この概略形状生成部27も例えばコンピュータで実行されるプログラムとして実装される)。   A head cloak display 30 'shown in FIG. 6 shows a case where a camera 37 is attached to the right headphone 31 of the head cloak display 30 described in the first embodiment. Here, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Further, the camera 37 is attached so as to face substantially the same direction as the field of view of the measurer when the head capant display 30 'is attached to the head of the measurer. The field of view of the camera 37 is set so that the entire measured object 51 arranged in the measurement space can be photographed. As shown in FIG. 7, the image output from the camera 37 and the operation signal generated by the operation of the operation unit 36 are configured to be input to the processing unit 22 of the control unit 20. The process of generating the shape is performed by the schematic shape generation unit 27 (this schematic shape generation unit 27 is also implemented as a program executed by a computer, for example).

それでは、図8を用いて、被測定物体51の概略形状を取得するための処理について説明する。なお、制御部20に対する測定者の操作は、ここでは、ヘッドマントディスプレイ30′の操作部36から行われるものとして説明するが、測定の開始・終了の指示のように、プローブ12に設けた操作スイッチ25から行うように構成することも可能である。   Now, a process for acquiring the schematic shape of the measured object 51 will be described with reference to FIG. Here, the measurement person's operation with respect to the control unit 20 is described as being performed from the operation unit 36 of the head cloak display 30 ', but the operation provided on the probe 12 as instructed to start and end the measurement. It is also possible to configure so as to start from the switch 25.

概略形状の取得処理が開始されると、処理部22は、カメラ37から出力される画像を表示部30に表示する(ステップS300)。そして、測定者は、カメラ37を被測定物体51に向け、表示部30に被測定物体51の画像が表示されるようにする。このとき、カメラ37が、測定空間において、被測定物体51をどの方向から見ているのかを検出するために、測定者は、プローブ12をこの測定者側から被測定物体51に向くように操作する。上述のように、制御部20の位置演算部23は、エンコーダ21から出力される角度情報を用いてプローブ12の空間座標を演算することができ、また、このプローブ12が取り付けられているアーム11の先端側の空間座標からプローブ12の方位も演算することができる。そのため、カメラ37と同じ方向にプローブ12を向けることにより、処理部22は、カメラ37の画像が被測定物体51をどの方位から撮影しているのかを判断することができる。そして、測定者は、表示部30に表示される被測定物体51の画像が、概略形状を取得するための画像として使用できると判断すると、操作部36を操作して、画像の取得指示を行う。   When the outline shape acquisition process is started, the processing unit 22 displays an image output from the camera 37 on the display unit 30 (step S300). Then, the measurer points the camera 37 toward the measured object 51 so that the image of the measured object 51 is displayed on the display unit 30. At this time, in order to detect from which direction the camera 37 is looking at the measured object 51 in the measurement space, the measurer operates the probe 12 to face the measured object 51 from the measurer side. To do. As described above, the position calculation unit 23 of the control unit 20 can calculate the spatial coordinates of the probe 12 using the angle information output from the encoder 21, and the arm 11 to which the probe 12 is attached. The azimuth of the probe 12 can also be calculated from the spatial coordinates on the tip side. Therefore, by directing the probe 12 in the same direction as the camera 37, the processing unit 22 can determine from which direction the image of the camera 37 is shooting the object 51 to be measured. When the measurer determines that the image of the measured object 51 displayed on the display unit 30 can be used as an image for acquiring the approximate shape, the measurer operates the operation unit 36 to give an image acquisition instruction. .

処理部22は、操作部36が操作されて、画像取得の操作信号を検出すると(ステップS310)、カメラ画像を取得し(ステップS320)、さらに、上述のようにエンコーダ21が出力する角度情報(若しくは、位置演算部23が出力する位置情報)からプローブ12が向いている方位(方位情報)を取得し(ステップS330)、これらの情報を記憶部26に記憶する(ステップS340)。そして、処理部22は、操作部36から画像取得の終了指示がされたかを判定し、終了指示がされていない場合には、ステップS300に戻って別の方位からの被測定物体51の画像取得を行う(ステップS350)。一方、画像取得の終了が指示がされた場合には、異なる方位の画像が3枚以上撮影されているか否かを判断し、3枚以上ないときは、同様にステップS300に戻る(ステップS360)。カメラ37で撮影された被測定物体51の画像からこの被測定物体51の概略形状を算出するためには、少なくとも方位の異なる3枚以上の画像が必要だからである。   When the operation unit 36 is operated to detect an operation signal for image acquisition (step S310), the processing unit 22 acquires a camera image (step S320), and further, angle information (as described above) output by the encoder 21 ( Alternatively, the azimuth (azimuth information) that the probe 12 faces is acquired from the position information output by the position calculation unit 23 (step S330), and these pieces of information are stored in the storage unit 26 (step S340). Then, the processing unit 22 determines whether an instruction to end image acquisition has been given from the operation unit 36. If no instruction to end has been given, the processing unit 22 returns to step S300 and acquires the image of the measured object 51 from another direction. Is performed (step S350). On the other hand, when an instruction to end image acquisition is given, it is determined whether or not three or more images having different orientations have been taken. If there are not three or more images, the process returns to step S300 in the same manner (step S360). . This is because, in order to calculate the approximate shape of the measured object 51 from the image of the measured object 51 taken by the camera 37, at least three images having different orientations are required.

ステップS360で異なる方位の3枚以上の画像が取得されていると判断すると、処理部22は、これらの画像及び方位情報を記憶部26から読み出して被測定物体51の概略形状を生成し(ステップS370)、これを記憶部26に記憶し(ステップS380)、表示部30に表示する(ステップS390)。なお、ここで、概略形状とは、例えば、カメラ37で撮影した画像から被測定物体51の外形の形状を抽出して3次元画像として合成したものである。   If it is determined in step S360 that three or more images having different orientations have been acquired, the processing unit 22 reads out these images and orientation information from the storage unit 26 and generates a schematic shape of the measured object 51 (step S360). This is stored in the storage unit 26 (step S380) and displayed on the display unit 30 (step S390). Here, the approximate shape is, for example, a shape obtained by extracting the outer shape of the measured object 51 from an image taken by the camera 37 and synthesizing it as a three-dimensional image.

以上のような処理により、被測定物体51の形状測定の前に、この被測定物体51の概略形状を取得し、表示部30に表示することで、測定した形状をこの概略形状と位置整合させて重ね合わせて表示部30に表示することができるため、測定者は、被測定物体51のどの領域の形状を取得したかを容易に判断することができ、作業効率を向上させることができる。なお、上記説明では操作部36を使って各種の入力を行ったが、例えば投影部35の周囲に視線検出センサを設け、表示部30に表示される画面内に視線入力可能な表示型スイッチを設けて視線入力で各種入力を行ってもよい。また、カメラ37は投影部35に設けることもできる。カメラ37を投影部35に設ける場合、支持アーム34の撓みによってブレが発生しやすくなるため、カメラ37には所謂ブレ補正機能を備えることが望ましい。また、被測定物体51に照射されるライン光はスリットを用いて作ることも可能である。   Through the processing described above, before measuring the shape of the measured object 51, the approximate shape of the measured object 51 is acquired and displayed on the display unit 30, thereby aligning the measured shape with the approximate shape. Therefore, the measurer can easily determine the shape of which region of the measured object 51 has been acquired, and work efficiency can be improved. In the above description, various inputs are performed using the operation unit 36. For example, a line-of-sight detection sensor is provided around the projection unit 35, and a display-type switch capable of line-of-sight input on the screen displayed on the display unit 30 is provided. It may be provided and various inputs may be performed by line-of-sight input. The camera 37 can also be provided in the projection unit 35. When the camera 37 is provided on the projection unit 35, the camera 37 is preferably provided with a so-called blur correction function because blurring is likely to occur due to the bending of the support arm 34. Moreover, the line light irradiated to the to-be-measured object 51 can also be made using a slit.

11 移動機構部 11a アーム部 11b 関節部(接続部)
12 プローブ 20 制御部 21 エンコーダ(角度情報検出部)
30,30′ 表示部(ヘッドマウントディスプレイ)
35 投影部 37 カメラ 51 被測定物体 100 形状測定装置
11 Movement mechanism part 11a Arm part 11b Joint part (connection part)
12 Probe 20 Control unit 21 Encoder (Angle information detection unit)
30, 30 'display (head mounted display)
35 Projection Unit 37 Camera 51 Object to be Measured 100 Shape Measuring Device

Claims (5)

被測定物体の形状を測定して測定情報を出力するプローブと、
アーム部、及び、前記アーム部間、若しくは、前記アーム部と前記プローブとを回転可能に接続する2以上の接続部を有し、所定の空間内で前記プローブを移動可能に支持する移動機構部と、
前記接続部に設けられ、当該接続部が接続する前記アーム部間、若しくは、前記アーム部と前記プローブとの角度情報を検出する角度情報検出部と、
表示部と、
前記測定情報及び前記角度情報から、前記被測定物体の形状情報を算出するとともに、前記形状情報を前記表示部に出力する制御部と、を有し、
前記表示部は、測定者の頭部に装着され、前記測定者の少なくとも一方の眼前に前記形状情報を投影する投影部を有するヘッドマウントディスプレイで構成された形状測定装置。
A probe that measures the shape of the object to be measured and outputs measurement information;
A moving mechanism portion that has two or more connecting portions that rotatably connect the arm portion and between the arm portions or the arm portion and the probe, and supports the probe so as to be movable within a predetermined space. When,
An angle information detection unit that is provided in the connection unit and detects angle information between the arm units connected by the connection unit or between the arm unit and the probe;
A display unit;
A control unit that calculates shape information of the object to be measured from the measurement information and the angle information, and outputs the shape information to the display unit;
The shape measurement apparatus is configured by a head-mounted display having a projection unit that is mounted on a measurement person's head and projects the shape information in front of at least one eye of the measurement person.
前記制御部は、前記形状情報を表示するときに、当該形状情報を取得した面を正対した視点で表示するように構成された請求項1に記載の形状測定装置。   The shape measuring apparatus according to claim 1, wherein when the shape information is displayed, the control unit is configured to display the surface from which the shape information has been acquired from a point of view facing directly. 前記ヘッドマウントディスプレイは、当該ヘッドマウントディスプレイを装着した測定者の視野方向と略同一方向の画像を取得可能なカメラを有し、
前記制御部は、前記カメラにより前記被測定物体を異なる方位から測定した3枚以上の画像を取得し、当該画像を用いて前記被測定物体の概略形状を生成する、請求項1または2に記載の形状測定装置。
The head-mounted display has a camera capable of acquiring an image in a direction substantially the same as the visual field direction of the measurer wearing the head-mounted display,
The said control part acquires the 3 or more image which measured the said to-be-measured object from the different direction with the said camera, and produces | generates the schematic shape of the to-be-measured object using the said image. Shape measuring device.
前記制御部は、前記プローブの向けられている方向を前記画像の方位として取得し、前記方位を用いて前記画像から前記概略形状を生成する、請求項3に記載の形状測定装置。   The shape measuring apparatus according to claim 3, wherein the control unit acquires a direction in which the probe is directed as an azimuth of the image, and generates the approximate shape from the image using the azimuth. 前記制御部は、前記概略形状に位置整合させて前記形状情報を重ね合わせて前記表示部に表示するように構成された請求項3または4に記載の形状測定装置。   The shape measuring apparatus according to claim 3, wherein the control unit is configured to align the shape information with the schematic shape and superimpose the shape information on the display unit.
JP2009270911A 2009-11-30 2009-11-30 Shape-measuring device Pending JP2011112579A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009270911A JP2011112579A (en) 2009-11-30 2009-11-30 Shape-measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009270911A JP2011112579A (en) 2009-11-30 2009-11-30 Shape-measuring device

Publications (1)

Publication Number Publication Date
JP2011112579A true JP2011112579A (en) 2011-06-09

Family

ID=44235013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009270911A Pending JP2011112579A (en) 2009-11-30 2009-11-30 Shape-measuring device

Country Status (1)

Country Link
JP (1) JP2011112579A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048239A (en) * 2014-08-27 2016-04-07 ステインビッヒラー オプトテヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and device for measuring 3-d coordinates of object
EP3098545A1 (en) 2015-05-14 2016-11-30 Showa Freezing Plant Co., Ltd. System and method for producing block ice treated with nitrogen substitution

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048239A (en) * 2014-08-27 2016-04-07 ステインビッヒラー オプトテヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and device for measuring 3-d coordinates of object
US10502554B2 (en) 2014-08-27 2019-12-10 Carl Zeiss Optotechnik GmbH Process and device for determining the 3D coordinates of an object
EP3098545A1 (en) 2015-05-14 2016-11-30 Showa Freezing Plant Co., Ltd. System and method for producing block ice treated with nitrogen substitution

Similar Documents

Publication Publication Date Title
JP6291562B2 (en) Diagnose and eliminate multipath interference in 3D scanners with directed probing
JP5032343B2 (en) Method and apparatus for displaying a virtual object, and method and apparatus for overlaying a virtual object on an environmental image
JP4799088B2 (en) Method and apparatus for measuring work position in remote inspection
JP6009753B2 (en) Image measuring device
CN108700408B (en) Three-dimensional shape data and texture information generation system, method and shooting control method
JP2016514271A (en) Three-dimensional coordinate scanner and operation method
JP2007528743A (en) Intraoral imaging system
JPWO2008093517A1 (en) Surgery support information display device, surgery support information display method, and surgery support information display program
US8708890B2 (en) Endoscope apparatus and method of measuring subject
JP2010060344A (en) Space information display device and support device
JP5113990B2 (en) Endoscope device for measurement
JP2014109480A (en) Xyz orthogonal measurement device
JP2014153149A (en) Shape measurement device, structure manufacturing system, shape measurement method and program
JP2014126381A (en) Shape measurement device, structure fabrication system, shape measurement method, structure fabrication method and shape measurement program
JP6934811B2 (en) Three-dimensional measuring device
JP2011112579A (en) Shape-measuring device
JP2011110675A (en) Shape measuring device
JP2017052045A (en) Positional relation data acquisition device and remote control device
JP2011170276A (en) Endoscope device and program
JP2011112578A (en) Shape-measuring system
CN113905652A (en) Medical observation system, control device, and control method
JP2017205343A (en) Endoscope device and method for operating endoscope device
JP2000263273A (en) Teaching method and its device for yag laser beam machine
JP2007331061A (en) Manipulator remote operation method in mobile robot system
US11074689B2 (en) Medical image processing device and medical observation system