JP5981758B2 - 3D measuring device - Google Patents

3D measuring device Download PDF

Info

Publication number
JP5981758B2
JP5981758B2 JP2012098600A JP2012098600A JP5981758B2 JP 5981758 B2 JP5981758 B2 JP 5981758B2 JP 2012098600 A JP2012098600 A JP 2012098600A JP 2012098600 A JP2012098600 A JP 2012098600A JP 5981758 B2 JP5981758 B2 JP 5981758B2
Authority
JP
Japan
Prior art keywords
motion
articulated arm
measuring apparatus
measurement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012098600A
Other languages
Japanese (ja)
Other versions
JP2013228215A (en
Inventor
里志 吉谷
里志 吉谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Priority to JP2012098600A priority Critical patent/JP5981758B2/en
Publication of JP2013228215A publication Critical patent/JP2013228215A/en
Application granted granted Critical
Publication of JP5981758B2 publication Critical patent/JP5981758B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • A Measuring Device Byusing Mechanical Method (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本発明は、測定者にて測定プローブを直接手で動かすことが可能に構成され、被測定物上の任意の点の三次元座標値を取り込むことにより、被測定物の三次元形状、表面性状等の測定を行う三次元測定装置に関する。   The present invention is configured so that the measurement probe can be directly moved by a hand by a measurer, and the three-dimensional shape and surface property of the measurement object are obtained by taking in the three-dimensional coordinate values of arbitrary points on the measurement object. The present invention relates to a three-dimensional measuring apparatus that performs such measurements.

従来、関節部を介して直列に連結された複数のリンクを有し、測定プローブを三次元空間内で外部からの力に対して移動自在に支持する多関節アームを備えた三次元測定装置が知られている(例えば、特許文献1参照)。
そして、測定者は、多関節アームを直接手に持って、多関節アームを操作しながら測定プローブを被測定物に接触させる等により、被測定物を測定することとなる。
2. Description of the Related Art Conventionally, a three-dimensional measuring apparatus having a plurality of articulated arms having a plurality of links connected in series via joint portions and supporting a measurement probe in a three-dimensional space so as to be movable with respect to an external force. It is known (see, for example, Patent Document 1).
Then, the measurer measures the object to be measured by holding the articulated arm directly in his hand and operating the articulated arm to bring the measurement probe into contact with the object to be measured.

特開2000−28302号公報JP 2000-28302 A

ところで、上述したような三次元測定装置では、通常、PC(Personal Computer)上で動作するソフトウエアが使用される。
すなわち、被測定物を測定するためには、多関節アームの操作の他、マウスやキーボード等のPCの操作が必要となる。
そして、測定者は、多関節アームを直接手に持って被測定物を測定する際に、例えば、PCの操作が必要とされ、かつ、手の届かない場所にPCがある場合には、一旦、多関節アームから手を離し、PCの傍まで行ってPCを操作する必要がある。
したがって、使い勝手の向上が図れない、という問題がある。
By the way, in the three-dimensional measuring apparatus as described above, software that operates on a PC (Personal Computer) is usually used.
That is, in order to measure an object to be measured, it is necessary to operate a PC such as a mouse or a keyboard in addition to the operation of the articulated arm.
When the measurer measures the object to be measured by holding the articulated arm directly in his hand, for example, when the PC is required and the PC is out of reach, It is necessary to release the hand from the articulated arm and go to the PC to operate the PC.
Therefore, there is a problem that usability cannot be improved.

本発明の目的は、使い勝手の向上が図れる三次元測定装置を提供することにある。   An object of the present invention is to provide a three-dimensional measuring apparatus capable of improving usability.

本発明の三次元測定装置は、被測定物を測定するための測定プローブと、関節部を介して直列に連結された複数のリンクを有し、前記測定プローブを三次元空間内で外部からの力に対して移動自在に支持する多関節アームと、前記多関節アームに設けられ、前記多関節アームの動作を検出し、当該動作に関する動作情報を出力する動作検出装置と、前記多関節アームに設けられ、操作されることで所定の処理を実行させるための実行情報を出力する操作装置と、前記多関節アームに設けられ、連結された前記リンク同士の相対角度を検出し、前記測定プローブの位置を算出するための位置情報を出力する角度検出装置と、各種の処理を実行する制御装置とを備え、前記制御装置は、前記位置情報に基づいて、前記測定プローブの位置を算出する位置算出部と、前記操作装置から操作領域を設定する旨の前記実行情報が入力された場合に、前記測定プローブの位置を中心とする空間を設定する操作領域設定部と、前記位置算出部にて算出された前記測定プローブの位置が前記空間内に位置している場合に、前記動作情報に基づいて、前記多関節アームの動作を認識する動作認識部と、前記各種の処理のうち、前記動作認識部にて認識された前記多関節アームの動作に応じた処理を実行する処理実行部とを備えることを特徴とする。 The three-dimensional measurement apparatus of the present invention has a measurement probe for measuring an object to be measured and a plurality of links connected in series via joints, and the measurement probe is externally provided in a three-dimensional space. and articulated arm for movably supported with respect to the force, the provided articulated arm, to detect an operation of the articulated arm, the operation detection device that outputs operation information about the operation, the articulated arm An operation device that outputs execution information for executing predetermined processing by being provided and operated, and detects a relative angle between the links provided on the articulated arm and connected to each other. comprising an angle detection device for outputting position information for calculating the position, and a control unit for executing various processes, wherein the control device, on the basis of the position information, calculates the position of the measuring probe A position calculation unit, an operation region setting unit that sets a space centered on the position of the measurement probe when the execution information for setting the operation region is input from the operation device, and the position calculation unit When the position of the measurement probe calculated in the above is located in the space , based on the motion information, the motion recognition unit for recognizing the motion of the articulated arm, and among the various processes, characterized in that and a processing execution unit for executing a process corresponding to the operation of the articulated arm, which is recognized by the operation recognition part.

本発明では、三次元測定装置を構成するPC等の制御装置は、上述した動作認識部及び処理実行部を備える。
このことにより、測定者は、多関節アームを直接手に持って被測定物を測定する際に、PCの操作を必要とする場合であっても、マウスやキーボード等を操作する必要がない。
すなわち、測定者は、多関節アームを動作させるだけで、動作認識部に当該動作を認識させ、処理実行部に当該動作に応じた処理を実行させる(PCの操作を認識させる)ことができる。
したがって、手の届かない場所にPCがある場合であっても、多関節アームを動作させるだけでPCの操作を行うことができ、使い勝手の向上が図れる。
In the present invention, a control device such as a PC constituting the three-dimensional measuring apparatus includes the above-described motion recognition unit and processing execution unit.
Thus, the measurer does not need to operate the mouse or the keyboard even when the PC needs to be operated when measuring the object to be measured while holding the articulated arm directly in the hand.
That is, the measurer can cause the motion recognition unit to recognize the motion and cause the processing execution unit to execute a process corresponding to the motion (recognize the operation of the PC) simply by moving the articulated arm.
Therefore, even when the PC is out of reach, the PC can be operated simply by operating the articulated arm, and the usability can be improved.

本発明の三次元測定装置では、前記動作検出装置は、前記多関節アームの移動時の加速度を検出する加速度センサであり、前記動作認識部は、前記加速度センサにて検出された加速度が所定の閾値以上である場合に、前記多関節アームの動作を認識することが好ましい。
ところで、多関節アームには、通常、連結されたリンク同士の相対角度を検出する角度センサ等の角度検出装置が設けられている。そして、PCは、角度検出装置にて検出されたリンク同士の相対角度等に基づいて、測定プローブの位置を算出する。
ここで、多関節アームの動作としては、例えば、上述した角度センサ等の角度検出装置にて検出された相対角度に基づいて、動作認識部に多関節アームの動作を認識させることも考えられる。
しかしながら、通常、関節部は複数設けられており、これに伴い、上述した角度検出装置も複数設けられているので、多関節アームの動作を求めるには、複数の角度検出装置にて検出された各相対角度に基づいて複雑な演算が必要となる。したがって、制御装置の処理が煩雑化してしまう恐れがある。
本発明では、動作検出装置は、加速度センサで構成されている。
このことにより、複雑な演算をすることなく、加速度センサからの出力(動作情報)に基づいて、動作認識部に多関節アームの動作を容易に認識させることができる。
In the three-dimensional measurement apparatus of the present invention, the motion detection device is an acceleration sensor that detects an acceleration when the articulated arm moves, and the motion recognition unit has a predetermined acceleration detected by the acceleration sensor. It is preferable to recognize the motion of the articulated arm when the threshold value is exceeded.
By the way, the articulated arm is usually provided with an angle detection device such as an angle sensor for detecting a relative angle between the linked links. Then, the PC calculates the position of the measurement probe based on the relative angle between the links detected by the angle detection device.
Here, as the operation of the multi-joint arm, for example, it is conceivable that the operation recognition unit recognizes the operation of the multi-joint arm based on the relative angle detected by the angle detection device such as the angle sensor described above.
However, usually, a plurality of joints are provided, and in association therewith, a plurality of the angle detection devices described above are also provided. Complex calculations are required based on each relative angle. Therefore, there is a possibility that the processing of the control device becomes complicated.
In the present invention, the motion detection device is composed of an acceleration sensor.
This makes it possible for the motion recognition unit to easily recognize the motion of the multi-joint arm based on the output (motion information) from the acceleration sensor without performing complicated calculations.

ところで、測定者は、上述したように、被測定物の測定時、及びPCの操作時の双方において、多関節アームを直接手に持って多関節アームを動作させることとなる。
本発明では、動作認識部は、加速度センサにて検出された加速度が所定の閾値以上である場合に、多関節アームの動作を認識する(被測定物の測定時ではなく、PCの操作時であると認識する)。
このことにより、動作認識部は、加速度の大小によって、被測定物の測定時とPCの操作時とを判別することができる。
したがって、被測定物の測定時において、測定者により多関節アームが操作された場合であっても、処理実行部に不要な処理を行わせることがない。
By the way, as described above, the measurer moves the articulated arm by holding the articulated arm directly in the hand both when measuring the object to be measured and when operating the PC.
In the present invention, the motion recognition unit recognizes the motion of the articulated arm when the acceleration detected by the acceleration sensor is equal to or greater than a predetermined threshold (not when measuring the object to be measured but when operating the PC). Recognize that)
As a result, the motion recognition unit can discriminate between the time of measuring the object to be measured and the time of operating the PC based on the magnitude of the acceleration.
Therefore, even when the articulated arm is operated by the measurer at the time of measuring the object to be measured, the processing execution unit is not allowed to perform unnecessary processing.

本発明の三次元測定装置では、前記多関節アームに設けられ、操作されることで前記処理実行部に処理を実行させるための実行情報を出力する操作装置を備え、前記動作認識部は、前記操作装置から前記実行情報を入力した場合に、前記多関節アームの動作を認識することが好ましい。   In the three-dimensional measurement apparatus of the present invention, the three-dimensional measuring apparatus includes an operation device that is provided in the multi-joint arm and outputs execution information for causing the process execution unit to execute a process by being operated, It is preferable that the operation of the articulated arm is recognized when the execution information is input from an operating device.

本発明では、動作認識部は、多関節アームに設けられた操作装置が操作され、当該操作装置から実行情報を入力した場合に、多関節アームの動作を認識する(被測定物の測定時ではなく、PCの操作時であると認識する)。
このことにより、動作認識部は、実行情報の入力の有無によって、被測定物の測定時とPCの操作時とを判別することができる。
したがって、被測定物の測定時において、測定者により多関節アームが操作された場合であっても、処理実行部に不要な処理を行わせることがない。
また、スイッチ等の操作装置を多関節アームに設けるだけで、動作認識部に被測定物の測定時とPCの操作時とを容易に判別させることができる。
In the present invention, the motion recognition unit recognizes the motion of the articulated arm when the operating device provided in the articulated arm is operated and execution information is input from the operating device (when measuring the object to be measured). It is recognized that it is during PC operation).
As a result, the motion recognition unit can determine when the object to be measured is measured and when the PC is operated, depending on whether or not execution information is input.
Therefore, even when the articulated arm is operated by the measurer at the time of measuring the object to be measured, the processing execution unit is not allowed to perform unnecessary processing.
Further, by simply providing an operation device such as a switch on the articulated arm, the motion recognition unit can easily discriminate between the measurement of the object to be measured and the operation of the PC.

本発明の三次元測定装置では、前記多関節アームに設けられ、連結された前記リンク同士の相対角度を検出し、前記測定プローブの位置を算出するための位置情報を出力する角度検出装置を備え、前記制御装置は、前記位置情報に基づいて、前記測定プローブの位置を算出する位置算出部を備え、前記動作認識部は、前記位置算出部にて算出された前記測定プローブの位置が予め設定された空間内に位置している場合に、前記多関節アームの動作を認識することが好ましい。   The three-dimensional measurement apparatus of the present invention includes an angle detection device that is provided in the articulated arm and detects a relative angle between the linked links and outputs position information for calculating the position of the measurement probe. The control device includes a position calculation unit that calculates the position of the measurement probe based on the position information, and the operation recognition unit sets in advance the position of the measurement probe calculated by the position calculation unit. It is preferable that the movement of the articulated arm is recognized when it is located in the defined space.

本発明では、制御装置を構成する位置算出部は、角度検出装置からの位置情報に基づいて、測定プローブの位置を算出する。そして、動作認識部は、位置算出部にて算出された測定プローブの位置が予め設定された空間内に位置している場合に、多関節アームの動作を認識する(被測定物の測定時ではなく、PCの操作時であると認識する)。
このことにより、動作認識部は、測定プローブの位置によって、被測定物の測定時とPCの操作時とを判別することができる。
したがって、被測定物の測定時において、測定者により多関節アームが操作された場合であっても、処理実行部に不要な処理を行わせることがない。
また、スイッチ等の操作装置を設けずに、既存の構成を利用して、動作認識部に被測定物の測定時とPCの操作時とを容易に判別させることができる。
In the present invention, the position calculation unit constituting the control device calculates the position of the measurement probe based on the position information from the angle detection device. The motion recognition unit recognizes the motion of the articulated arm when the position of the measurement probe calculated by the position calculation unit is located in a preset space (when measuring the object to be measured). It is recognized that it is during PC operation).
Thus, the motion recognition unit can determine when the object to be measured is measured and when the PC is operated, depending on the position of the measurement probe.
Therefore, even when the articulated arm is operated by the measurer at the time of measuring the object to be measured, the processing execution unit is not allowed to perform unnecessary processing.
In addition, the operation recognition unit can easily discriminate between the time of measuring the object to be measured and the time of operating the PC by using an existing configuration without providing an operation device such as a switch.

本発明の三次元測定装置では、前記動作検出装置は、前記多関節アームの移動時の加速度を検出する加速度センサであることが好ましい。
本発明では、動作検出装置は、加速度センサで構成されている。
このことにより、複雑な演算をすることなく、加速度センサからの出力(動作情報)に基づいて、動作認識部に多関節アームの動作を容易に認識させることができる。
In the three-dimensional measurement apparatus of the present invention, it is preferable that the motion detection device is an acceleration sensor that detects an acceleration during movement of the articulated arm.
In the present invention, the motion detection device is composed of an acceleration sensor.
This makes it possible for the motion recognition unit to easily recognize the motion of the multi-joint arm based on the output (motion information) from the acceleration sensor without performing complicated calculations.

第1実施形態における三次元測定装置の構成を示す図。The figure which shows the structure of the three-dimensional measuring apparatus in 1st Embodiment. 第1実施形態における多関節アームの構成を示す図。The figure which shows the structure of the articulated arm in 1st Embodiment. 第1実施形態における三次元測定装置の制御構造を示すブロック図。The block diagram which shows the control structure of the three-dimensional measuring apparatus in 1st Embodiment. 第1実施形態における三次元測定装置の動作を説明するフローチャート。The flowchart explaining operation | movement of the three-dimensional measuring apparatus in 1st Embodiment. 第1実施形態における三次元測定装置の動作を説明するフローチャート。The flowchart explaining operation | movement of the three-dimensional measuring apparatus in 1st Embodiment. 第1実施形態における三次元測定装置の動作を説明するための図。The figure for demonstrating operation | movement of the three-dimensional measuring apparatus in 1st Embodiment. 第1実施形態における三次元測定装置の動作を説明するための図。The figure for demonstrating operation | movement of the three-dimensional measuring apparatus in 1st Embodiment. 第1実施形態における三次元測定装置の動作を説明するための図。The figure for demonstrating operation | movement of the three-dimensional measuring apparatus in 1st Embodiment. 第1実施形態における三次元測定装置の動作を説明するための図。The figure for demonstrating operation | movement of the three-dimensional measuring apparatus in 1st Embodiment. 第2実施形態における三次元測定装置の制御構造を示すブロック図。The block diagram which shows the control structure of the three-dimensional measuring apparatus in 2nd Embodiment. 第2実施形態におけるプローブヘッドを示す図。The figure which shows the probe head in 2nd Embodiment. 第2実施形態における三次元測定装置の動作を説明するフローチャート。The flowchart explaining operation | movement of the three-dimensional measuring apparatus in 2nd Embodiment. 第3実施形態における三次元測定装置の制御構造を示すブロック図。The block diagram which shows the control structure of the three-dimensional measuring apparatus in 3rd Embodiment. 第3実施形態におけるプローブヘッドを示す図。The figure which shows the probe head in 3rd Embodiment. 第3実施形態における三次元測定装置の動作を説明するフローチャート。The flowchart explaining operation | movement of the three-dimensional measuring apparatus in 3rd Embodiment. 第3実施形態における三次元測定装置の動作を説明するための図。The figure for demonstrating operation | movement of the three-dimensional measuring apparatus in 3rd Embodiment. 第3実施形態における三次元測定装置の動作を説明するための図。The figure for demonstrating operation | movement of the three-dimensional measuring apparatus in 3rd Embodiment.

[第1実施形態]
以下、本発明の第1実施形態を図面に基づいて説明する。
〔三次元測定装置の構成〕
図1は、第1実施形態における三次元測定装置1の構成を示す図である。
三次元測定装置1は、測定者にて測定プローブ2を直接手で動かすことが可能に構成され、被測定物(図示略)上の任意の点の三次元座標値を取り込むことにより、被測定物の測定を行う。
この三次元測定装置1は、図1に示すように、測定プローブ2と、多関節アーム3と、角度検出装置としての角度センサ4(図3参照)と、動作検出装置としての加速度センサ5(図3参照)と、制御装置6とを備える。
[First embodiment]
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment of the invention will be described with reference to the drawings.
[Configuration of three-dimensional measuring device]
FIG. 1 is a diagram illustrating a configuration of a three-dimensional measurement apparatus 1 according to the first embodiment.
The three-dimensional measuring apparatus 1 is configured so that a measuring person can directly move the measuring probe 2 by hand, and by measuring the three-dimensional coordinate value of an arbitrary point on the object to be measured (not shown), Measure objects.
As shown in FIG. 1, the three-dimensional measuring apparatus 1 includes a measurement probe 2, an articulated arm 3, an angle sensor 4 (see FIG. 3) as an angle detection device, and an acceleration sensor 5 (see FIG. 3). 3) and a control device 6.

〔測定プローブの構成〕
本実施形態では、測定プローブ2は、図1に示すように、先端に球状の測定子2Aを有し、測定子2Aを被測定物の表面に接触させて接触点の座標を求めるために用いられる接触型のボールプローブで構成されている。
そして、測定プローブ2は、被測定物に測定子2Aが接触した際に、タッチ信号を制御装置6に出力する。
[Configuration of measurement probe]
In this embodiment, as shown in FIG. 1, the measuring probe 2 has a spherical measuring element 2A at the tip, and is used to obtain the coordinates of the contact point by bringing the measuring element 2A into contact with the surface of the object to be measured. It is comprised with the contact-type ball probe which is made.
Then, the measurement probe 2 outputs a touch signal to the control device 6 when the probe 2A comes into contact with the object to be measured.

〔多関節アームの構成〕
図2は、多関節アーム3の構成を示す図である。
多関節アーム3は、測定プローブ2を支持するとともに、当該測定プローブ2を三次元空間内で外部からの力(測定者による操作)に対して移動可能に構成されている。
この多関節アーム3は、図2に示すように、円柱状の支柱3Aと、円柱状の第1〜第6リンク3B〜3Gと、第1〜第6関節部3H〜3Mと、プローブヘッド3Nとを備える。
支柱3Aは、鉛直軸Ax1(図2)に沿うように作業台等に固定される。
第1関節部3Hは、第1リンク3Bが鉛直軸Ax1に沿う状態で、支柱3Aと第1リンク3Bの一端とを連結する。
そして、第1リンク3Bは、第1関節部3Hにより支柱3Aに連結されることで、支柱3Aに対して、鉛直軸Ax1を中心として回転可能となる。
[Configuration of articulated arm]
FIG. 2 is a diagram showing a configuration of the articulated arm 3.
The articulated arm 3 is configured to support the measurement probe 2 and to be able to move the measurement probe 2 with respect to external force (operation by the measurer) in the three-dimensional space.
As shown in FIG. 2, the multi-joint arm 3 includes a columnar column 3A, columnar first to sixth links 3B to 3G, first to sixth joint portions 3H to 3M, and a probe head 3N. With.
The column 3A is fixed to a work table or the like along the vertical axis Ax1 (FIG. 2).
The first joint 3H connects the column 3A and one end of the first link 3B in a state where the first link 3B is along the vertical axis Ax1.
And the 1st link 3B becomes rotatable centering on the vertical axis Ax1 with respect to the support | pillar 3A by being connected with the support | pillar 3A by the 1st joint part 3H.

第2関節部3Iは、第1リンク3Bの他端と第2リンク3Cの一端とを連結する。
そして、第1,第2リンク3B,3Cは、第2関節部3Iにより互いに連結されることで、水平軸Ax2(図2)を中心として相対的に回転可能となる。
第3関節部3Jは、互いの中心軸Ax3(図2)が一致する状態で、第2リンク3Cの他端と第3リンク3Dの一端とを連結する。
そして、第2,第3リンク3C,3Dは、第3関節部3Jにより互いに連結されることで、中心軸Ax3を中心として相対的に回転可能となる。
第4関節部3Kは、第3リンク3Dの他端と第4リンク3Eの一端とを連結する。
そして、第3,第4リンク3D,3Eは、第4関節部3Kにより互いに連結されることで、中心軸Ax3に直交する軸Ax4(図2)を中心として相対的に回転可能となる。
The second joint portion 3I connects the other end of the first link 3B and one end of the second link 3C.
The first and second links 3B and 3C are connected to each other by the second joint portion 3I, so that the first and second links 3B and 3C can be relatively rotated about the horizontal axis Ax2 (FIG. 2).
The third joint portion 3J connects the other end of the second link 3C and one end of the third link 3D in a state in which the center axes Ax3 (FIG. 2) coincide with each other.
The second and third links 3C and 3D can be relatively rotated about the central axis Ax3 by being connected to each other by the third joint portion 3J.
The fourth joint 3K connects the other end of the third link 3D and one end of the fourth link 3E.
The third and fourth links 3D and 3E are connected to each other by the fourth joint portion 3K, so that the third and fourth links 3D and 3E can relatively rotate about the axis Ax4 (FIG. 2) orthogonal to the central axis Ax3.

第5関節部3Lは、互いの中心軸Ax5(図2)が一致する状態で、第4リンク3Eの他端と第5リンク3Fの一端とを連結する。
そして、第4,第5リンク3E,3Fは、第5関節部3Lにより互いに連結されることで、中心軸Ax5を中心として相対的に回転可能となる。
第6関節部3Mは、第5リンク3Fの他端と第6リンク3Gの一端とを連結する。
そして、第5,第6リンク3F,3Gは、第6関節部3Mにより互いに連結されることで、中心軸Ax5に直交する軸Ax6(図2)を中心として相対的に回転可能となる。
以上のように、多関節アーム3は、6軸により操作可能に構成されている。
The fifth joint 3L connects the other end of the fourth link 3E and one end of the fifth link 3F in a state in which the center axes Ax5 (FIG. 2) coincide with each other.
The fourth and fifth links 3E and 3F are connected to each other by the fifth joint portion 3L, so that the fourth and fifth links 3E and 3F can relatively rotate about the central axis Ax5.
The sixth joint 3M connects the other end of the fifth link 3F and one end of the sixth link 3G.
The fifth and sixth links 3F and 3G are connected to each other by the sixth joint portion 3M, so that the fifth and sixth links 3F and 3G can relatively rotate about the axis Ax6 (FIG. 2) orthogonal to the central axis Ax5.
As described above, the articulated arm 3 is configured to be operable with six axes.

プローブヘッド3Nは、第6リンク3Gの他端に取り付けられるとともに、測定プローブ2を支持する。
このプローブヘッド3Nにおいて、側面には、図2に示すように、多関節アーム3の操作時に、測定者に手で掴まれるハンドル3Oが設けられている。
また、ハンドル3Oには、測定者にて押下されることで、測定を終了させる旨の測定終了信号を制御装置6に出力する測定終了ボタン3Pが設けられている。
The probe head 3N is attached to the other end of the sixth link 3G and supports the measurement probe 2.
As shown in FIG. 2, the probe head 3 </ b> N is provided with a handle 3 </ b> O that can be grasped by a measurer by hand when operating the multi-joint arm 3.
Further, the handle 3O is provided with a measurement end button 3P that outputs a measurement end signal to the control device 6 to end the measurement when pressed by the measurer.

〔角度センサの構成〕
角度センサ4は、具体的な図示は省略したが、第1〜第6関節部3H〜3Mにそれぞれ取り付けられている。
そして、6つの角度センサ4は、第1〜第6関節部3H〜3Mにより互いに連結された第1〜第6リンク3B〜3Gの相対的な回転角度を検出する。
例えば、第1関節部3Hに設けられた角度センサ4は、支柱3A及び第1リンク3B同士の鉛直軸Ax1を中心とした相対的な回転角度を検出する。
そして、6つの角度センサ4は、検出した回転角度に応じた角度検出信号(位置情報)を制御装置6に出力する。
[Configuration of angle sensor]
Although not specifically shown, the angle sensor 4 is attached to the first to sixth joint portions 3H to 3M, respectively.
The six angle sensors 4 detect relative rotation angles of the first to sixth links 3B to 3G connected to each other by the first to sixth joint portions 3H to 3M.
For example, the angle sensor 4 provided in the first joint portion 3H detects a relative rotation angle about the vertical axis Ax1 between the support 3A and the first link 3B.
Then, the six angle sensors 4 output an angle detection signal (position information) corresponding to the detected rotation angle to the control device 6.

〔加速度センサの構成〕
加速度センサ5は、具体的な図示は省略したが、プローブヘッド3Nに取り付けられ、多関節アーム3の動作(プローブヘッド3Nの加速度)を検出する。
なお、加速度センサ5は、公知の技術であるため、詳細な説明については省略する。
本実施形態では、加速度センサ5は、第6リンク3Gの中心軸Ax7に沿って測定子2A側から見た場合に、プローブヘッド3Nの上下左右の各方向への移動時の各加速度を検出する。
そして、加速度センサ5は、検出した加速度に応じた加速度検出信号(動作情報)を制御装置6に出力する。
[Configuration of acceleration sensor]
Although not specifically shown, the acceleration sensor 5 is attached to the probe head 3N and detects the operation of the multi-joint arm 3 (acceleration of the probe head 3N).
In addition, since the acceleration sensor 5 is a well-known technique, it abbreviate | omits about detailed description.
In the present embodiment, the acceleration sensor 5 detects each acceleration when the probe head 3N is moved in the vertical and horizontal directions when viewed from the measuring element 2A along the central axis Ax7 of the sixth link 3G. .
Then, the acceleration sensor 5 outputs an acceleration detection signal (motion information) corresponding to the detected acceleration to the control device 6.

〔制御装置の構成〕
図3は、三次元測定装置1の制御構造を示すブロック図である。
制御装置6は、図3に示すように、CPU(Central Processing Unit)やハードディスクを備えた制御装置本体61と、マウスやキーボード等で構成された入力装置62と、ディスプレイ等の表示装置63とを備える。
制御装置本体61は、測定プローブ2から出力されたタッチ信号、角度センサ4から出力された角度検出信号、加速度センサ5から出力された加速度検出信号、及び測定終了ボタン3Pから出力された測定終了信号等に基づいて、各種の処理を実行する。
この制御装置本体61は、図3に示すように、位置算出部61Aと、動作認識部61Bと、処理実行部61Cと、第1,第2メモリ61D,61Eとを備える。
[Configuration of control device]
FIG. 3 is a block diagram showing a control structure of the three-dimensional measuring apparatus 1.
As shown in FIG. 3, the control device 6 includes a control device main body 61 having a CPU (Central Processing Unit) and a hard disk, an input device 62 composed of a mouse and a keyboard, and a display device 63 such as a display. Prepare.
The control device main body 61 includes a touch signal output from the measurement probe 2, an angle detection signal output from the angle sensor 4, an acceleration detection signal output from the acceleration sensor 5, and a measurement end signal output from the measurement end button 3P. Various processes are executed based on the above.
As shown in FIG. 3, the control device main body 61 includes a position calculation unit 61A, an operation recognition unit 61B, a process execution unit 61C, and first and second memories 61D and 61E.

位置算出部61Aは、測定プローブ2からのタッチ信号の入力時に角度センサ4にて検出された各回転角度を読み取り(角度検出信号を入力し)、当該各回転角度と第1〜第6リンク3B〜3Gの各長さ等に基づいて、測定子2Aの中心座標値を算出する。
そして、位置算出部61Aは、タッチ信号が入力される毎に、算出した中心座標値を順次、第1メモリ61Dに記憶させる。
動作認識部61Bは、加速度センサ5からの加速度検出信号に基づいて、多関節アーム3の動作(プローブヘッド3Nの上下左右のいずれかの方向への移動)を認識する。
なお、本実施形態では、動作認識部61Bは、加速度センサ5からの加速度検出信号に基づくプローブヘッド3Nの加速度が所定の閾値以上である場合に、多関節アーム3の動作を認識するように構成されている。
The position calculation unit 61A reads each rotation angle detected by the angle sensor 4 when a touch signal is input from the measurement probe 2 (inputs an angle detection signal), and the rotation angle and the first to sixth links 3B. The center coordinate value of the measuring element 2A is calculated on the basis of each length of ˜3G.
Then, the position calculation unit 61A sequentially stores the calculated center coordinate values in the first memory 61D every time a touch signal is input.
Based on the acceleration detection signal from the acceleration sensor 5, the motion recognition unit 61 </ b> B recognizes the motion of the articulated arm 3 (movement of the probe head 3 </ b> N in any one of up, down, left, and right directions).
In the present embodiment, the motion recognition unit 61B is configured to recognize the motion of the articulated arm 3 when the acceleration of the probe head 3N based on the acceleration detection signal from the acceleration sensor 5 is equal to or greater than a predetermined threshold. Has been.

処理実行部61Cは、第2メモリ61Eに記憶された関連情報に基づいて、動作認識部61Bにて認識された多関節アーム3の動作に応じた測定項目(例えば、円測定、球測定、円筒測定、円錐測定等)を判別する。
また、処理実行部61Cは、測定終了ボタン3Pからの測定終了信号を入力した場合に、第1メモリ61Dに記憶された各中心座標値を読み出し、当該各中心座標値に基づいて、上記のように判別した測定項目に応じたデータ処理を実行する。
The process execution unit 61C performs measurement items (for example, circular measurement, sphere measurement, cylindrical measurement) according to the motion of the articulated arm 3 recognized by the motion recognition unit 61B based on the related information stored in the second memory 61E. Measurement, cone measurement, etc.).
In addition, when the measurement end signal is input from the measurement end button 3P, the process execution unit 61C reads each center coordinate value stored in the first memory 61D and, based on each center coordinate value, as described above. Data processing is executed according to the measurement item determined in step (b).

第1メモリ61Dは、位置算出部61Aにて算出された中心座標値を記憶する。
第2メモリ61Eは、処理実行部61Cで用いられる関連情報を記憶する。
なお、関連情報は、多関節アーム3の動作(プローブヘッド3Nの上下左右方向への移動)と、測定項目とが関連付けられた情報である。
本実施形態では、プローブヘッド3Nの上方向への移動に対して円測定が関連付けられ、右方向への移動に対して球測定が関連付けられ、下方向への移動に対して円筒測定が関連付けられ、左方向への移動に対して円錐測定が関連付けられている。
The first memory 61D stores the center coordinate value calculated by the position calculation unit 61A.
The second memory 61E stores related information used by the process execution unit 61C.
The related information is information in which the operation of the articulated arm 3 (movement of the probe head 3N in the vertical and horizontal directions) and the measurement item are associated with each other.
In the present embodiment, the circular measurement is associated with the upward movement of the probe head 3N, the sphere measurement is associated with the rightward movement, and the cylindrical measurement is associated with the downward movement. The cone measurement is associated with the movement to the left.

〔三次元測定装置の動作〕
次に三次元測定装置1の動作について図面を参照して説明する。
図4及び図5は、三次元測定装置1の動作を説明するフローチャートである。
図6ないし図9は、三次元測定装置1の動作を説明するための図である。
先ず、測定者が三次元測定装置1の電源を投入すると、動作認識部61Bは、加速度センサ5からの加速度検出信号を入力したか否かを常時、監視する(ステップST1)。
ステップST1において、動作認識部61Bは、「Y」と判定した場合には、入力した加速度検出信号に基づくプローブヘッド3Nの加速度が所定の閾値以上であるか否かを判定する(ステップST2)。
そして、動作認識部61Bは、ステップST2において、「N」と判定した場合には、再度、ステップST1の処理に移行する。
[Operation of CMM]
Next, the operation of the three-dimensional measuring apparatus 1 will be described with reference to the drawings.
4 and 5 are flowcharts for explaining the operation of the three-dimensional measuring apparatus 1.
6 to 9 are diagrams for explaining the operation of the three-dimensional measuring apparatus 1.
First, when the measurer turns on the power of the three-dimensional measuring apparatus 1, the motion recognition unit 61B constantly monitors whether or not the acceleration detection signal from the acceleration sensor 5 has been input (step ST1).
In step ST1, when it is determined as “Y”, the motion recognition unit 61B determines whether or not the acceleration of the probe head 3N based on the input acceleration detection signal is equal to or greater than a predetermined threshold (step ST2).
If the operation recognition unit 61B determines “N” in step ST2, the operation recognition unit 61B proceeds to the process of step ST1 again.

一方、動作認識部61Bは、ステップST2において、「Y」と判定した場合には、入力した加速度検出信号に基づいて、プローブヘッド3Nが上方向に移動したか否かを判定する(ステップST3)。
そして、動作認識部61Bは、ステップST3において、「N」と判定した場合には、再度、ステップST1の処理に移行する。
一方、制御装置本体61は、ステップST3において、「Y」と判定した場合には、測定者に測定項目を選択させる選択モードに移行する(ステップST4)。
On the other hand, if it is determined as “Y” in step ST2, the motion recognition unit 61B determines whether or not the probe head 3N has moved upward based on the input acceleration detection signal (step ST3). .
If the operation recognition unit 61B determines “N” in step ST3, the operation recognition unit 61B proceeds to the process of step ST1 again.
On the other hand, when it is determined “Y” in step ST3, the control device main body 61 shifts to a selection mode in which the measurer selects a measurement item (step ST4).

ステップST4の後、動作認識部61Bは、ステップST1,ST2と同様の処理を実行する(ステップST5,ST6)。
そして、動作認識部61Bは、ステップST6において、「Y」と判定した場合(プローブヘッド3Nの加速度が所定の閾値以上である場合)には、入力した加速度検出信号に基づいて、プローブヘッド3Nが上下左右のいずれの方向に移動したかを判別する(ステップST7〜ST9)。
After step ST4, the action recognition unit 61B performs the same processing as steps ST1 and ST2 (steps ST5 and ST6).
When the motion recognition unit 61B determines “Y” in step ST6 (when the acceleration of the probe head 3N is equal to or greater than a predetermined threshold), the motion recognition unit 61B determines that the probe head 3N is based on the input acceleration detection signal. It is determined in which direction, up, down, left and right (steps ST7 to ST9).

例えば、処理実行部61Cは、動作認識部61Bにてプローブヘッド3Nが上方向に移動(図6)したと判別された場合(ステップST7において「Y」と判定された場合)には、第2メモリ61Eに記憶された関連情報に基づいて、測定項目として円測定が選択されたことを認識する(ステップST10)。
また、処理実行部61Cは、動作認識部61Bにてプローブヘッド3Nが右方向に移動(図7)したと判別された場合(ステップST8において「Y」と判定された場合)には、第2メモリ61Eに記憶された関連情報に基づいて、測定項目として球測定が選択されたことを認識する(ステップST11)。
さらに、処理実行部61Cは、動作認識部61Bにてプローブヘッド3Nが下方向に移動(図8)したと判別された場合(ステップST9において「Y」と判定された場合)には、第2メモリ61Eに記憶された関連情報に基づいて、測定項目として円筒測定が選択されたものと認識する(ステップST12)。
また、処理実行部61Cは、動作認識部61Bにてプローブヘッド3Nが左方向に移動(図9)したと判別された場合(ステップST9において「N」と判定された場合)には、第2メモリ61Eに記憶された関連情報に基づいて、測定項目として円錐測定が選択されたものと認識する(ステップST13)。
For example, when the operation recognition unit 61B determines that the probe head 3N has moved upward (FIG. 6) (when it is determined “Y” in step ST7), the process execution unit 61C performs the second operation. Based on the related information stored in the memory 61E, it is recognized that the circle measurement is selected as the measurement item (step ST10).
In addition, when the operation recognition unit 61B determines that the probe head 3N has moved to the right (FIG. 7) (when it is determined “Y” in step ST8), the process execution unit 61C performs the second operation. Based on the related information stored in the memory 61E, it is recognized that the sphere measurement is selected as the measurement item (step ST11).
Furthermore, when the operation recognizing unit 61B determines that the probe head 3N has moved downward (FIG. 8) (when it is determined “Y” in step ST9), the process executing unit 61C performs the second operation. Based on the related information stored in the memory 61E, it is recognized that the cylindrical measurement is selected as the measurement item (step ST12).
In addition, when the operation recognition unit 61B determines that the probe head 3N has moved leftward (FIG. 9) (when it is determined “N” in step ST9), the process execution unit 61C performs the second operation. Based on the related information stored in the memory 61E, it is recognized that the cone measurement is selected as the measurement item (step ST13).

ステップST10〜ST13の後、制御装置本体61は、ステップST10〜ST13にて選択された測定項目に応じた測定を測定者に実行させる測定モードに移行する(ステップST14)。
そして、測定者は、測定モード時において、多関節アーム3を操作し、選択した測定項目に要求される測定点数を満たすように、測定子2Aを被測定物に順次、接触させる。
ステップST14の後、位置算出部61Aは、測定プローブ2からタッチ信号を入力する毎に、角度センサ4にて検出された各回転角度を読み取り、当該各回転角度と第1〜第6リンク3B〜3Gの各長さ等に基づいて、測定子2Aの中心座標値を算出する(ステップST15)。また、位置算出部61Aは、算出した中心座標値を第1メモリ61Dに記憶させる。
After steps ST10 to ST13, the control device main body 61 shifts to a measurement mode in which the measurer performs measurement according to the measurement item selected in steps ST10 to ST13 (step ST14).
Then, in the measurement mode, the measurer operates the articulated arm 3 to sequentially bring the measuring element 2A into contact with the object to be measured so as to satisfy the number of measurement points required for the selected measurement item.
After step ST14, each time the position calculation unit 61A inputs a touch signal from the measurement probe 2, the position calculation unit 61A reads each rotation angle detected by the angle sensor 4, and the rotation angle and the first to sixth links 3B to 3B. Based on each 3G length or the like, the center coordinate value of the probe 2A is calculated (step ST15). The position calculation unit 61A stores the calculated center coordinate value in the first memory 61D.

ステップST15の後、処理実行部61Cは、測定終了ボタン3Pからの測定終了信号を入力したか否かを判定する(ステップST16)。
制御装置本体61は、ステップST16において、「N」と判定した場合には、ステップST15の処理に移行する。
一方、処理実行部61Cは、ステップST16において、「Y」と判定した場合には、第1メモリ61Dに記憶された各中心座標値を読み出し、当該各中心座標値に基づいて、ステップST10〜ST13にて選択された測定項目に応じたデータ処理を実行する(ステップST17)。
After step ST15, the process execution unit 61C determines whether or not the measurement end signal from the measurement end button 3P is input (step ST16).
When the determination is “N” in step ST16, the control device main body 61 proceeds to the process of step ST15.
On the other hand, if the process execution unit 61C determines “Y” in step ST16, the process execution unit 61C reads each center coordinate value stored in the first memory 61D and, based on each center coordinate value, steps ST10 to ST13. Data processing is executed according to the measurement item selected in (ST17).

上述した第1実施形態によれば、以下の効果がある。
本実施形態では、三次元測定装置1を構成する制御装置6は、動作認識部61B及び処理実行部61Cを備える。
このことにより、測定者は、多関節アーム3を直接手に持って被測定物を測定する際に、PCの操作を必要とする場合であっても、マウスやキーボード等の入力装置62を操作する必要がない。
すなわち、測定者は、多関節アーム3を動作させるだけで、動作認識部61Bに当該動作を認識させ、処理実行部61Cに当該動作に応じた処理を実行させる(PCの操作を認識させる)ことができる。
したがって、手の届かない場所に入力装置62がある場合であっても、多関節アーム3を動作させるだけでPCの操作を行うことができ、使い勝手の向上が図れる。
The first embodiment described above has the following effects.
In this embodiment, the control apparatus 6 which comprises the three-dimensional measuring apparatus 1 is provided with the operation | movement recognition part 61B and the process execution part 61C.
As a result, the measurer operates the input device 62 such as a mouse or a keyboard even when the PC needs to be operated when measuring the object to be measured by holding the articulated arm 3 directly in the hand. There is no need to do.
That is, the measurer simply moves the articulated arm 3 to cause the motion recognition unit 61B to recognize the motion, and causes the processing execution unit 61C to execute a process corresponding to the motion (recognizes the operation of the PC). Can do.
Therefore, even when the input device 62 is out of reach, the PC can be operated simply by operating the articulated arm 3, and the usability can be improved.

また、本実施形態では、本発明に係る動作検出装置が加速度センサ5で構成されているので、複雑な演算をすることなく、加速度センサ5からの出力に基づいて、動作認識部61Bに多関節アーム3の動作を容易に認識させることができる。
さらに、動作認識部61Bは、加速度センサ5にて検出された加速度が所定の閾値以上である場合に、多関節アーム3の動作を認識する(被測定物の測定時ではなく、PCの操作時であると認識する)。
このことにより、動作認識部61Bは、加速度の大小によって、被測定物の測定時とPCの操作時とを判別することができる。
したがって、被測定物の測定時において、測定者により多関節アーム3が操作された場合であっても、処理実行部61Cに不要な処理を行わせることがない。
In the present embodiment, since the motion detection device according to the present invention is configured by the acceleration sensor 5, the motion recognition unit 61B can be articulated based on the output from the acceleration sensor 5 without performing complicated calculations. The operation of the arm 3 can be easily recognized.
Furthermore, the motion recognition unit 61B recognizes the motion of the articulated arm 3 when the acceleration detected by the acceleration sensor 5 is equal to or greater than a predetermined threshold (not when measuring the object to be measured but when operating the PC). ).
Thus, the motion recognition unit 61B can discriminate between the time of measuring the object to be measured and the time of operating the PC based on the magnitude of the acceleration.
Therefore, even when the articulated arm 3 is operated by the measurer at the time of measuring the object to be measured, the processing execution unit 61C is not allowed to perform unnecessary processing.

[第2実施形態]
次に、本発明の第2実施形態について説明する。
なお、以下では、前記第1実施形態と同様の構成には同一の符号を付し、その詳細な説明については省略する。
図10は、第2実施形態における三次元測定装置1の制御構造を示すブロック図である。
図11は、第2実施形態におけるプローブヘッド3Nを示す図である。
前記第1実施形態では、動作認識部61Bは、プローブヘッド3Nの加速度が所定の閾値以上である場合に、多関節アーム3の動作を認識していた。
これに対して、第2実施形態では、ハンドル3Oには、図10または図11に示すように、測定者にて押下されることで操作信号(実行情報)を制御装置6に出力する操作装置としての操作ボタン3Qが設けられている。そして、動作認識部61Bは、測定者にて操作ボタン3Qが押下されている場合(操作信号が入力されている場合)に、多関節アーム3の動作を認識する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
In the following, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
FIG. 10 is a block diagram showing a control structure of the three-dimensional measuring apparatus 1 in the second embodiment.
FIG. 11 is a diagram showing a probe head 3N in the second embodiment.
In the first embodiment, the motion recognition unit 61B recognizes the motion of the articulated arm 3 when the acceleration of the probe head 3N is equal to or greater than a predetermined threshold.
On the other hand, in the second embodiment, as shown in FIG. 10 or FIG. 11, an operating device that outputs an operation signal (execution information) to the control device 6 when pressed by a measurer. The operation button 3Q is provided. Then, the motion recognition unit 61B recognizes the motion of the articulated arm 3 when the measurement button is pressed by the measurer (when an operation signal is input).

次に、第2実施形態における三次元測定装置1の動作について説明する。
図12は、第2実施形態における三次元測定装置1の動作を説明するフローチャートである。
先ず、測定者が三次元測定装置1の電源を投入すると、動作認識部61Bは、操作ボタン3Qから操作信号が出力されているか否かを常時、監視する(ステップST18)。
ステップST18において、動作認識部61Bは、「Y」と判定した場合には、加速度センサ5からの加速度検出信号を入力したか否かを判定する(ステップST19)。
そして、動作認識部61Bは、「N」と判定した場合には、再度、ステップST18の処理に移行する。
一方、制御装置本体61は、ステップST17において、「Y」と判定した場合には、前記第1実施形態と同様に、ステップST3〜ST17の処理を実行する(図4,図12参照)。
Next, the operation of the three-dimensional measuring apparatus 1 in the second embodiment will be described.
FIG. 12 is a flowchart for explaining the operation of the three-dimensional measuring apparatus 1 in the second embodiment.
First, when the measurer turns on the power of the coordinate measuring apparatus 1, the motion recognition unit 61B constantly monitors whether or not an operation signal is output from the operation button 3Q (step ST18).
In step ST18, when the motion recognition unit 61B determines “Y”, the motion recognition unit 61B determines whether an acceleration detection signal from the acceleration sensor 5 is input (step ST19).
If the operation recognition unit 61B determines “N”, the operation recognition unit 61B proceeds to the process of step ST18 again.
On the other hand, if it is determined as “Y” in step ST17, the control device main body 61 executes the processes of steps ST3 to ST17 as in the first embodiment (see FIGS. 4 and 12).

上述した第2実施形態によれば、前記第1実施形態と同様の効果の他、以下の効果がある。
本実施形態では、動作認識部61Bは、多関節アーム3に設けられた操作ボタン3Qが操作され、操作ボタン3Qから操作信号を入力した場合に、多関節アーム3の動作を認識する(被測定物の測定時ではなく、PCの操作時であると認識する)。
このことにより、動作認識部61Bは、操作ボタン3Qからの操作信号の入力の有無によって、被測定物の測定時とPCの操作時とを判別することができる。
したがって、被特定物の測定時において、測定者により多関節アームが操作された場合であっても、処理実行部61Cに不要な処理を行わせることがない。
また、操作ボタン3Qを設けるだけで、動作認識部61Bに被測定物の測定時とPCの操作時とを容易に判別させることができる。
According to the second embodiment described above, there are the following effects in addition to the same effects as in the first embodiment.
In the present embodiment, the motion recognition unit 61B recognizes the motion of the multi-joint arm 3 when the operation button 3Q provided on the multi-joint arm 3 is operated and an operation signal is input from the operation button 3Q (measurement under measurement). Recognize that it is not the time of measuring an object but the operation of a PC).
Thus, the motion recognition unit 61B can determine when the object to be measured is measured and when the PC is operated based on whether or not an operation signal is input from the operation button 3Q.
Therefore, even when the articulated arm is operated by the measurer when measuring the specified object, the processing execution unit 61C is not allowed to perform unnecessary processing.
Further, only by providing the operation button 3Q, the operation recognition unit 61B can easily discriminate between the time of measuring the object to be measured and the time of operating the PC.

[第3実施形態]
次に、本発明の第3実施形態について説明する。
なお、以下では、前記第1実施形態と同様の構成には同一の符号を付し、その詳細な説明については省略する。
前記第1実施形態では、動作認識部61Bは、プローブヘッド3Nの加速度が所定の閾値以上である場合に、多関節アーム3の動作を認識していた。
これに対して、第3実施形態では、動作認識部61Bは、位置算出部61Aにて算出された測定子2Aの中心座標値が所定の空間Sp(図16参照)内に位置付けられている場合に、多関節アーム3の動作を認識する。
[Third embodiment]
Next, a third embodiment of the present invention will be described.
In the following, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
In the first embodiment, the motion recognition unit 61B recognizes the motion of the articulated arm 3 when the acceleration of the probe head 3N is equal to or greater than a predetermined threshold.
On the other hand, in the third embodiment, the motion recognition unit 61B has a case where the center coordinate value of the measuring element 2A calculated by the position calculation unit 61A is positioned in a predetermined space Sp (see FIG. 16). In addition, the movement of the articulated arm 3 is recognized.

図13は、第3実施形態における三次元測定装置1の制御構造を示すブロック図である。
図14は、第3実施形態におけるプローブヘッド3Nを示す図である。
具体的に、プローブヘッド3Nには、図13または図14に示すように、制御装置本体61による制御の下、所定の画像を表示する表示部3Rが設けられている。
また、制御装置本体61は、図13に示すように、位置算出部61A、動作認識部61B、処理実行部61C、及び第1,第2メモリ61D,61Eの他、操作領域設定部61Fと、第3メモリ61Gと、表示制御部61Hとを備える。
操作領域設定部61Fは、動作認識部61Bにて多関節アーム3の動作が認識される際に用いられる空間Spを設定する。
また、操作領域設定部61Fは、設定した空間Spに関する情報(三次元空間の座標値)を第3メモリ61Gに記憶させる。
そして、動作認識部61Bは、位置算出部61Aにて算出された測定子2Aの中心座標値が第3メモリ61Gに記憶された空間Sp内に位置付けられている場合に、多関節アーム3の動作を認識する。
表示制御部61Hは、表示部3Rの動作を制御し、表示部3Rに所定の画像を表示させる。
FIG. 13 is a block diagram showing a control structure of the three-dimensional measuring apparatus 1 in the third embodiment.
FIG. 14 is a diagram showing a probe head 3N in the third embodiment.
Specifically, as shown in FIG. 13 or FIG. 14, the probe head 3 </ b> N is provided with a display unit 3 </ b> R that displays a predetermined image under the control of the control device main body 61.
Further, as shown in FIG. 13, the control device main body 61 includes an operation area setting unit 61F, in addition to the position calculation unit 61A, the motion recognition unit 61B, the process execution unit 61C, and the first and second memories 61D and 61E. A third memory 61G and a display control unit 61H are provided.
The operation region setting unit 61F sets the space Sp used when the motion recognition unit 61B recognizes the motion of the articulated arm 3.
In addition, the operation area setting unit 61F stores information (coordinate values of the three-dimensional space) regarding the set space Sp in the third memory 61G.
Then, the motion recognition unit 61B operates the multi-joint arm 3 when the center coordinate value of the probe 2A calculated by the position calculation unit 61A is positioned in the space Sp stored in the third memory 61G. Recognize
The display control unit 61H controls the operation of the display unit 3R to display a predetermined image on the display unit 3R.

次に、第3実施形態における三次元測定装置1の動作について説明する。
図15は、第3実施形態における三次元測定装置1の動作を説明するフローチャートである。
図16は、第3実施形態における三次元測定装置1の動作を説明するための図である。
先ず、測定者が三次元測定装置1の電源を投入すると、操作領域設定部61Fは、第3メモリ61Gに空間Spに関する情報が記憶されているか否かを確認する(ステップST20)。
ステップST20において、制御装置本体61は、「N」と判定した場合には、空間Spを設定する設定モードに移行する(ステップST21)。
Next, the operation of the three-dimensional measuring apparatus 1 in the third embodiment will be described.
FIG. 15 is a flowchart for explaining the operation of the three-dimensional measuring apparatus 1 in the third embodiment.
FIG. 16 is a diagram for explaining the operation of the three-dimensional measurement apparatus 1 in the third embodiment.
First, when the measurer turns on the power of the coordinate measuring apparatus 1, the operation area setting unit 61F confirms whether or not the information regarding the space Sp is stored in the third memory 61G (step ST20).
In step ST20, when it is determined “N”, the control device main body 61 shifts to a setting mode for setting the space Sp (step ST21).

ステップST21の後、測定者は、多関節アーム3を操作し、図16に示すように、測定モード時において多関節アーム3を操作する位置(図16で二点鎖線で示す位置)から離間した位置(図16で実線で示す位置)に測定子2Aを位置付ける。
そして、測定者は、測定終了ボタン3Pを押下することで、以下に示す処理により空間Spが設定される。
After step ST21, the measurer operates the multi-joint arm 3, and as shown in FIG. 16, is separated from the position (the position indicated by the two-dot chain line in FIG. 16) where the multi-joint arm 3 is operated in the measurement mode. The probe 2A is positioned at a position (a position indicated by a solid line in FIG. 16).
Then, when the measurer presses the measurement end button 3P, the space Sp is set by the following processing.

すなわち、操作領域設定部61Fは、測定終了ボタン3Pからの測定終了信号を入力したか否かを判定する(ステップST22)。
制御装置本体61は、ステップST22において、「N」と判定した場合には、ステップST21の処理に移行する。
一方、操作領域設定部61Fは、ステップST22において、「Y」と判定した場合には、測定終了信号を入力した時点で角度センサ4にて検出された各回転角度を読み取り、当該各回転角度と第1〜第6リンク3B〜3Gの各長さ等に基づいて、測定子2Aの中心座標値を算出する(ステップST23)。
ステップST23の後、操作領域設定部61Fは、ステップST23において算出した測定子2Aの中心座標値を中心とする空間Sp(三次元空間の座標値)を設定する(ステップST24)。
そして、操作領域設定部61Fは、設定した空間Spに関する情報を第3メモリ61Gに記憶させる。
以上の処理ST22〜ST24により空間Spを設定した後、制御装置本体61は、ステップST20の処理に移行する。
That is, the operation area setting unit 61F determines whether or not a measurement end signal is input from the measurement end button 3P (step ST22).
When the determination is “N” in step ST22, the control device main body 61 proceeds to the process of step ST21.
On the other hand, if it is determined as “Y” in step ST22, the operation area setting unit 61F reads each rotation angle detected by the angle sensor 4 when the measurement end signal is input, Based on the lengths of the first to sixth links 3B to 3G, the center coordinate value of the measuring element 2A is calculated (step ST23).
After step ST23, the operation area setting unit 61F sets a space Sp (coordinate value of a three-dimensional space) centered on the central coordinate value of the measuring element 2A calculated in step ST23 (step ST24).
Then, the operation area setting unit 61F stores information regarding the set space Sp in the third memory 61G.
After setting the space Sp by the above processes ST22 to ST24, the control device main body 61 proceeds to the process of step ST20.

ステップST20において、「Y」と判定された場合には、位置算出部61Aは、角度センサ4にて検出された各回転角度を読み取り、当該各回転角度と第1〜第6リンク3B〜3Gの各長さ等に基づいて測定子2Aの中心座標値を算出する(ステップST25)。
ステップST25の後、動作認識部61Bは、ステップST25において算出された測定子2Aの中心座標値が第3メモリ61Gに記憶された空間Sp内に位置付けられているか否かを判定する(ステップST26)。
制御装置本体61は、ステップST26において、「N」と判定した場合には、ステップST25の処理に移行する。
When it is determined as “Y” in step ST20, the position calculation unit 61A reads each rotation angle detected by the angle sensor 4, and the rotation angle and each of the first to sixth links 3B to 3G are read. Based on each length or the like, the center coordinate value of the probe 2A is calculated (step ST25).
After step ST25, the motion recognition unit 61B determines whether or not the central coordinate value of the probe 2A calculated in step ST25 is positioned in the space Sp stored in the third memory 61G (step ST26). .
If the determination is “N” in step ST26, the control device main body 61 proceeds to the process of step ST25.

一方、測定者による多関節アーム3の操作により、ステップST26において、「Y」と判定された場合には、表示制御部61Hは、表示部3Rの動作を制御し、表示部3Rに図17に示す「入力操作可」の文字が記載された画像を表示させる(ステップST27)。
ステップST27の後、動作認識部61Bは、加速度センサ5からの加速度検出信号を入力したか否かを常時、監視する(ステップST28)。
そして、制御装置本体61は、ステップST28において、「Y」と判定した場合には、前記第1実施形態と同様に、ステップST3〜ST17の処理を実行する(図4,図15参照)。
On the other hand, when it is determined as “Y” in step ST26 due to the operation of the articulated arm 3 by the measurer, the display control unit 61H controls the operation of the display unit 3R, and displays the display unit 3R in FIG. An image on which the characters “input operation is permitted” is displayed (step ST27).
After step ST27, the motion recognition unit 61B constantly monitors whether or not the acceleration detection signal from the acceleration sensor 5 has been input (step ST28).
If the determination is “Y” in step ST28, the control device main body 61 executes the processing of steps ST3 to ST17 as in the first embodiment (see FIGS. 4 and 15).

上述した第3実施形態によれば、前記第1実施形態と同様の効果の他、以下の効果がある。
本実施形態では、位置算出部61Aは、角度センサ4にて検出された各回転角度に基づいて、測定子2Aの中心座標値を算出する。そして、動作認識部61Bは、位置算出部61Aにて算出された測定子2Aの位置が予め設定された空間Sp内に位置している場合に、多関節アーム3の動作を認識する(被測定物の測定時ではなく、PCの操作時であると認識する)。
このことにより、動作認識部61Bは、測定子2Aの位置によって、被測定物の測定時とPCの操作時とを判別することができる。
したがって、被測定物の測定時において、測定者により多関節アームが操作された場合であっても、処理実行部61Cに不要な処理を行わせることがない。
また、スイッチ等の操作装置を設けずに、既存の構成を利用して、動作認識部61Bに被測定物の測定時とPCの操作時とを容易に判別させることができる。
According to the third embodiment described above, there are the following effects in addition to the same effects as in the first embodiment.
In the present embodiment, the position calculation unit 61A calculates the center coordinate value of the probe 2A based on each rotation angle detected by the angle sensor 4. Then, the motion recognition unit 61B recognizes the motion of the articulated arm 3 when the position of the probe 2A calculated by the position calculation unit 61A is located in the preset space Sp (measured object). Recognize that it is not the time of measuring an object but the operation of a PC).
Thus, the motion recognition unit 61B can discriminate between the time of measuring the object to be measured and the time of operating the PC based on the position of the probe 2A.
Therefore, even when the articulated arm is operated by the measurer when measuring the object to be measured, the processing execution unit 61C is not allowed to perform unnecessary processing.
Further, the operation recognition unit 61B can easily discriminate between the time of measuring the object to be measured and the time of operating the PC by using an existing configuration without providing an operation device such as a switch.

さらに、測定子2Aの位置が空間Sp内に位置付けられている状態で「入力操作可」の文字が記載された画像が表示部3Rに表示されるので、測定者は、多関節アーム3の操作によりPCの操作が可能な状態を容易に認識できる。
また、空間Spを任意の空間に設定可能に構成されているので、三次元測定装置1の使用環境に応じて適切な空間Spに設定でき、利便性の向上が図れる。
Further, since the image on which the character “input operation is possible” is displayed on the display unit 3 </ b> R in a state where the position of the measuring element 2 </ b> A is positioned in the space Sp, the measurer can operate the articulated arm 3. Thus, the state in which the PC can be operated can be easily recognized.
In addition, since the space Sp can be set to an arbitrary space, it can be set to an appropriate space Sp according to the use environment of the three-dimensional measuring apparatus 1, and convenience can be improved.

なお、本発明は、前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
前記各実施形態において、測定プローブ2としては、前記各実施形態で説明した接触型のプローブに限らない。例えば、CCD(Charge Coupled Device)カメラやイメージセンサを用いた画像プローブ、レーザ走査方式のレーザプローブ等の非接触型のプローブを測定プローブとして採用しても構わない。
前記各実施形態では、多関節アーム3は、6つのリンク及び関節部を備え、6軸により操作可能に構成されていたが、これに限らず、その他の数のリンク及び関節部を備えた構成とし、5軸や7軸により操作可能に構成しても構わない。
前記第3実施形態において、表示部3Rに表示させる画像としては、前記第3実施形態で説明した画像に限らず、多関節アーム3の操作によりPCの操作が可能な状態を測定者に認識させることができる画像であれば、その他の画像でも構わない。
Note that the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within a scope in which the object of the present invention can be achieved are included in the present invention.
In each embodiment, the measurement probe 2 is not limited to the contact type probe described in each embodiment. For example, a non-contact type probe such as an image probe using a CCD (Charge Coupled Device) camera or an image sensor, or a laser scanning type laser probe may be employed as the measurement probe.
In each of the above embodiments, the multi-joint arm 3 includes six links and joints, and is configured to be operable with six axes. However, the present invention is not limited thereto, and includes other numbers of links and joints. It may be configured to be operable with five or seven axes.
In the third embodiment, the image displayed on the display unit 3 </ b> R is not limited to the image described in the third embodiment, but allows the measurer to recognize a state in which the PC can be operated by operating the articulated arm 3. Other images may be used as long as the images can be used.

本発明は、測定者にて測定プローブを直接手で動かすことが可能に構成され、被測定物上の任意の点の三次元座標値を取り込むことにより、被測定物の三次元形状、表面性状等の測定を行う三次元測定装置に利用できる。   The present invention is configured so that the measurement probe can be directly moved by a hand by a measurer, and the three-dimensional shape and surface property of the measurement object are obtained by taking in the three-dimensional coordinate values of arbitrary points on the measurement object. It can be used for a three-dimensional measuring apparatus that performs such measurements.

1・・・三次元測定装置
2・・・測定プローブ
3・・・多関節アーム
3B〜3G・・・リンク
3H〜3M・・・関節部
3Q・・・操作ボタン(操作装置)
4・・・角度センサ(角度検出装置)
5・・・加速度センサ(動作検出装置)
6・・・制御装置
61A・・・位置検出部
61B・・・動作認識部
61C・・・処理実行部
Sp・・・空間
DESCRIPTION OF SYMBOLS 1 ... Three-dimensional measuring apparatus 2 ... Measuring probe 3 ... Articulated arm 3B-3G ... Link 3H-3M ... Joint part 3Q ... Operation button (operating device)
4. Angle sensor (angle detection device)
5 ... Accelerometer (motion detection device)
6 ... Control device 61A ... Position detection unit 61B ... Motion recognition unit 61C ... Processing execution unit Sp ... Space

Claims (4)

被測定物を測定するための測定プローブと、
関節部を介して直列に連結された複数のリンクを有し、前記測定プローブを三次元空間内で外部からの力に対して移動自在に支持する多関節アームと、
前記多関節アームに設けられ、前記多関節アームの動作を検出し、当該動作に関する動作情報を出力する動作検出装置と、
前記多関節アームに設けられ、操作されることで所定の処理を実行させるための実行情報を出力する操作装置と、
前記多関節アームに設けられ、連結された前記リンク同士の相対角度を検出し、前記測定プローブの位置を算出するための位置情報を出力する角度検出装置と、
各種の処理を実行する制御装置とを備え、
前記制御装置は、
前記位置情報に基づいて、前記測定プローブの位置を算出する位置算出部と、
前記操作装置から操作領域を設定する旨の前記実行情報が入力された場合に、前記測定プローブの位置を中心とする空間を設定する操作領域設定部と、
前記位置算出部にて算出された前記測定プローブの位置が前記空間内に位置している場合に、前記動作情報に基づいて、前記多関節アームの動作を認識する動作認識部と、
前記各種の処理のうち、前記動作認識部にて認識された前記多関節アームの動作に応じた処理を実行する処理実行部とを備える
ことを特徴とする三次元測定装置。
A measurement probe for measuring an object to be measured;
A multi-joint arm having a plurality of links connected in series via a joint, and supporting the measurement probe movably with respect to an external force in a three-dimensional space;
A motion detection device provided in the multi-joint arm, detecting a motion of the multi-joint arm and outputting motion information relating to the motion;
An operating device that is provided in the multi-joint arm and outputs execution information for executing predetermined processing by being operated;
An angle detection device that is provided in the articulated arm, detects a relative angle between the linked links, and outputs position information for calculating the position of the measurement probe;
And a control unit for executing various processes,
The controller is
A position calculating unit that calculates the position of the measurement probe based on the position information;
An operation region setting unit that sets a space centered on the position of the measurement probe when the execution information for setting the operation region is input from the operation device;
An operation recognition unit that recognizes the operation of the multi-joint arm based on the operation information when the position of the measurement probe calculated by the position calculation unit is located in the space ;
Wherein among the various processes, three-dimensional measuring device, characterized in that and a processing execution unit for executing the processing corresponding to the recognized movement of the articulated arm in the operation recognition portion.
請求項1に記載の三次元測定装置において、
前記動作検出装置は、
前記多関節アームの移動時の加速度を検出する加速度センサであり、
前記動作認識部は、
前記加速度センサにて検出された加速度が所定の閾値以上である場合に、前記多関節アームの動作を認識する
ことを特徴とする三次元測定装置。
The three-dimensional measuring apparatus according to claim 1,
The motion detection device includes:
An acceleration sensor for detecting acceleration during movement of the articulated arm;
The motion recognition unit
The three-dimensional measuring apparatus, wherein the motion of the articulated arm is recognized when the acceleration detected by the acceleration sensor is equal to or greater than a predetermined threshold.
請求項1に記載の三次元測定装置において
記動作認識部は、
前記操作装置から前記実行情報を入力した場合に、前記多関節アームの動作を認識する
ことを特徴とする三次元測定装置。
The three-dimensional measuring apparatus according to claim 1 ,
Before Symbol behavior recognition unit,
A three-dimensional measuring apparatus that recognizes the movement of the articulated arm when the execution information is input from the operating device.
請求項1から請求項3のいずれか1項に記載の三次元測定装置において、
前記動作検出装置は、
前記多関節アームの移動時の加速度を検出する加速度センサである
ことを特徴とする三次元測定装置。
The three-dimensional measuring apparatus according to any one of claims 1 to 3 ,
The motion detection device includes:
A three-dimensional measuring apparatus, wherein the three-dimensional measuring apparatus is an acceleration sensor that detects an acceleration during movement of the articulated arm.
JP2012098600A 2012-04-24 2012-04-24 3D measuring device Active JP5981758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012098600A JP5981758B2 (en) 2012-04-24 2012-04-24 3D measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012098600A JP5981758B2 (en) 2012-04-24 2012-04-24 3D measuring device

Publications (2)

Publication Number Publication Date
JP2013228215A JP2013228215A (en) 2013-11-07
JP5981758B2 true JP5981758B2 (en) 2016-08-31

Family

ID=49675994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012098600A Active JP5981758B2 (en) 2012-04-24 2012-04-24 3D measuring device

Country Status (1)

Country Link
JP (1) JP5981758B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6494180B2 (en) * 2014-05-28 2019-04-03 株式会社ミツトヨ Position measuring device
JP6373649B2 (en) * 2014-06-09 2018-08-15 株式会社ミツトヨ Position measuring apparatus and position measuring method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8099877B2 (en) * 2009-11-06 2012-01-24 Hexagon Metrology Ab Enhanced position detection for a CMM
JP5477718B2 (en) * 2010-04-26 2014-04-23 株式会社ニコン Shape measuring device

Also Published As

Publication number Publication date
JP2013228215A (en) 2013-11-07

Similar Documents

Publication Publication Date Title
CN107883867B (en) Measuring system
JP6254456B2 (en) CMM and correction matrix calculation method using CMM
JP6144050B2 (en) Three-dimensional measuring apparatus, input method and program
JP2014512530A (en) Coordinate positioning device
JP6450737B2 (en) Robot system
US10036628B2 (en) Measuring device for an optical measuring system
CN110394817B (en) Apparatus, method and program for estimating weight and center of gravity of load using robot
EP3382327B1 (en) Compact coordinate measurement machine configuration with large working volume relative to size
US10690474B2 (en) Operation method of position measuring device
JP5981758B2 (en) 3D measuring device
JP5528038B2 (en) Shape measuring device
JP6003312B2 (en) Robot system
JP2007047014A (en) Three-dimensional measuring device
JP2018169344A (en) Three-dimensional measuring instrument, measurement method, and measurement program
JP2001100906A (en) Three-dimensional data display device
JP5371532B2 (en) CMM
JP5629883B2 (en) Shape measuring apparatus, shape measuring method, and shape measuring program
JP5205643B2 (en) Surface texture measuring device, contact model generation method thereof, and program
JP4137601B2 (en) Robot hand control method, robot hand
JP2009288227A (en) Three-dimensional measuring machine
JP6956362B2 (en) 3D measuring machine, measuring method, and measuring program
JP2013234951A (en) Three-dimensional measuring apparatus
JP6494180B2 (en) Position measuring device
JP5120754B2 (en) Motion detection device
JP2017146114A (en) Measurement assist method, three-dimensional measurement instrument, and measurement assist program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160729

R150 Certificate of patent or registration of utility model

Ref document number: 5981758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250