JP2010261774A - Detector for measuring object position, and cutting machine having the same - Google Patents

Detector for measuring object position, and cutting machine having the same Download PDF

Info

Publication number
JP2010261774A
JP2010261774A JP2009111973A JP2009111973A JP2010261774A JP 2010261774 A JP2010261774 A JP 2010261774A JP 2009111973 A JP2009111973 A JP 2009111973A JP 2009111973 A JP2009111973 A JP 2009111973A JP 2010261774 A JP2010261774 A JP 2010261774A
Authority
JP
Japan
Prior art keywords
cutting
imaging
cutting tool
detecting
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009111973A
Other languages
Japanese (ja)
Other versions
JP5452974B2 (en
Inventor
Tosuke Kawada
東輔 河田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Corp
Original Assignee
Fuji Machine Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Machine Manufacturing Co Ltd filed Critical Fuji Machine Manufacturing Co Ltd
Priority to JP2009111973A priority Critical patent/JP5452974B2/en
Publication of JP2010261774A publication Critical patent/JP2010261774A/en
Application granted granted Critical
Publication of JP5452974B2 publication Critical patent/JP5452974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a detector for a measuring object position for accurately detecting the position displaced due to the thermal displacement of a measuring object as a rotor with a simple configuration, and to provide a cutting machine having the detector of the measuring object position. <P>SOLUTION: A position-detecting means 18 faces a flange 66, connected to a chuck 12, and detects the position displaced by thermal displacement of the chuck 12. In other words, the position of the chuck 12 can be detected accurately by using a simple constitution. Since the position detector 18 accurately detects the position, corresponding to the thermal displacement of the chuck, accurate movement of a cutting tool 25 or 26 to a cutting position can be made. Furthermore, position data, or the like, of the chuck 12 can be output via the position detecting means 18, as a member different from the rotating chuck 12 so that a need for a brush holder, or the like, can be eliminated. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、例えばNC旋盤などの切削機械に使用される被測定物位置検出装置に関し、特に被測定物となるチャック等の熱変位により変位した位置を検出する被測定物位置検出装置及びその被測定物位置検出装置を備える切削機械に関するものである。   The present invention relates to an object position detecting device used for a cutting machine such as an NC lathe, and more particularly to an object position detecting device for detecting a position displaced by a thermal displacement of a chuck or the like serving as an object to be measured and the object to be detected. The present invention relates to a cutting machine including a measurement object position detection device.

例えば、特許文献1には、加工熱や環境の温度変化によっても計測誤差が生じなく、しかも工具の刃先形状や磨耗量、加工物の寸法などをも計測することができる刃先位置計測装置が開示されている。具体的には、数値制御の基準となる加工基準点に対して位置決めされた計測基準面が基準ピースに形成され、計測基準面と工具の刃先との輪郭がカメラによって捕らえられる。捕らえられた輪郭は電気的な画像情報として画像メモリに記憶され、相対位置演算回路は画像情報に基づいて加工基準点および刃先間の相対距離を演算する。即ち、特許文献1では、熱などによる部位の変位の影響を受けずに相対位置を計測できる。   For example, Patent Document 1 discloses a cutting edge position measuring device that does not cause measurement errors due to machining heat or environmental temperature changes, and that can also measure the cutting edge shape, the amount of wear, the dimensions of a workpiece, and the like. Has been. Specifically, a measurement reference surface positioned with respect to a machining reference point serving as a reference for numerical control is formed on the reference piece, and the contour of the measurement reference surface and the cutting edge of the tool is captured by the camera. The captured contour is stored in the image memory as electrical image information, and the relative position calculation circuit calculates the relative distance between the machining reference point and the cutting edge based on the image information. That is, in Patent Document 1, the relative position can be measured without being affected by the displacement of the part due to heat or the like.

そして、特許文献1の一実施例において、数値制御装置には加工基準点と工具の刃先との間でそれらの相対距離を計測する刃先位置計測装置が設けられている。この刃先位置計測装置は、加工基準点に対する相対位置が予め決められている計測基準面を持つ基準ピースと、計測基準面および刃先の輪郭を画像として捕らえるカメラと、メインプロセッサとを備える。基準ピースは、主軸のチャックに保持される(段落番号「0015」および図1参照)。   And in one Example of patent document 1, the numerical control apparatus is provided with the blade edge | tip position measuring apparatus which measures those relative distance between a process reference point and the blade edge of a tool. This cutting edge position measuring device includes a reference piece having a measurement reference plane whose relative position with respect to the machining reference point is determined in advance, a camera that captures the measurement reference plane and the outline of the cutting edge as an image, and a main processor. The reference piece is held by the chuck of the main shaft (see paragraph number “0015” and FIG. 1).

特開平9−253979号公報Japanese Patent Laid-Open No. 9-253979

ところで、特許文献1では、工作機械の加工運転を一時停止させた状態で基準ピース(テストピースと同義)を装着させると共に、計測終了後の運転再開処理(基準ピースの取外しなど)が必要となるので、そのための時間および労力が必要となる。即ち、計測処理のために、工作機械の加工運転を停止および運転再開させ且つチャックに対する基準ピースの着脱が手間で煩雑となり、使い勝手が悪い。   By the way, in Patent Document 1, a reference piece (synonymous with a test piece) is mounted in a state where the machining operation of the machine tool is temporarily stopped, and an operation resumption process (such as removal of the reference piece) after measurement is required. Therefore, time and labor for that are required. That is, for the measurement process, the machining operation of the machine tool is stopped and restarted, and the attachment and detachment of the reference piece with respect to the chuck becomes troublesome and the usability is poor.

また、切削工具の刃先すなわちNCテーブルの移動量を測定(即ち、切削工具のベクトル測定)する際の基準は、変動する。即ち、上記基準となる例えばチャックは環境温度などによって熱変位するが、特許文献1を含む従来技術では熱変位に対する解決策が無かった。   Further, the reference for measuring the moving amount of the cutting edge of the cutting tool, that is, the NC table (that is, vector measurement of the cutting tool) varies. That is, for example, the chuck serving as the reference is thermally displaced by the environmental temperature or the like, but the prior art including Patent Document 1 has no solution for thermal displacement.

更に、特許文献1において、例えばバイトなどの切削工具およびチャックの周面を、カメラの撮像領域に収めて撮像(以下、一望視ともいう)する場合、一般的にチャック外周面の汚れや錆などの状態によって切削工具とチャックとの相対位置を正確に計測することが困難である。即ち、カメラの撮像時にはチャック周囲が暗いので投光した状態で撮像する必要があるが、その投光に基づきチャック外周面の曲率(即ち、曲面の反射光)によってチャックの外径を小さく撮像する場合がある。なお、チャックなどを特殊加工させると、高精度に撮像することができるが、高価などとなる。   Further, in Patent Document 1, for example, when a cutting tool such as a cutting tool and a peripheral surface of a chuck are stored in an imaging region of a camera (hereinafter also referred to as a single view), generally, dirt or rust on the outer peripheral surface of the chuck, etc. Depending on the state, it is difficult to accurately measure the relative position of the cutting tool and the chuck. That is, when the image is taken by the camera, it is necessary to take an image in a light-projected state because the periphery of the chuck is dark. There is a case. Note that if the chuck or the like is specially processed, high-accuracy imaging can be performed, but it is expensive.

本発明の目的は、回転体である被測定物の熱変位により変位した位置を簡易な構成で且つ正確に検出し得る被測定物位置検出装置及びその被測定物位置検出装置を備える切削機械を提供することにある。   An object of the present invention is to provide a measurement object position detection device that can accurately detect a position displaced by a thermal displacement of a measurement object that is a rotating body, and a cutting machine including the measurement object position detection device. It is to provide.

本発明に係る被測定物位置検出装置は、回転可能に配置される被測定物の熱変位により変位した位置を検出する検出手段を備え、上記検出手段は静止時および回転時の少なくとも一方における上記被測定物と対向して位置を検出することを特徴とする。また、上記被測定物位置検出装置においては、上記被測定物を構成する金属と同一性ある材質の補助体を、上記被測定物に連接して配置させ、上記検出手段で上記補助体の熱変位により変位した位置を検出するようにしても良い。   An object position detecting device according to the present invention includes a detecting means for detecting a position displaced by a thermal displacement of an object to be rotatably arranged, and the detecting means is the above-mentioned at least one of when stationary and when rotating. It is characterized in that the position is detected facing the object to be measured. In the measurement object position detection apparatus, an auxiliary body made of the same material as the metal constituting the measurement object is arranged in connection with the measurement object, and the detection means heats the auxiliary body. The position displaced by the displacement may be detected.

上記各被測定物位置検出装置においては、上記検出手段を上記被測定物に対して移動させても良い。また、本発明に係る被測定物位置検出装置は、上記検出手段を上記被測定物におけるX方向の位置を検出するX方向センサおよびZ方向の位置を検出するZ方向センサの少なくとも一方とし、上記センサを基準手段に配置しても良い。更に、被測定物位置検出装置に、上記被測定物の温度を検出する温度センサを設けるようにしても良い。   In each of the measured object position detecting devices, the detecting means may be moved relative to the measured object. In the device position detecting apparatus according to the present invention, the detecting means is at least one of an X direction sensor that detects a position in the X direction of the device to be measured and a Z direction sensor that detects a position in the Z direction. A sensor may be arranged on the reference means. Furthermore, a temperature sensor that detects the temperature of the measurement object may be provided in the measurement object position detection device.

本発明に係る被測定物位置検出装置及びその被測定物位置検出装置を備える切削機械は、上述する各被測定物位置検出装置による検出データに基づき、切削工具の切削位置を演算することを特徴とする。また、本発明に係る被測定物位置検出装置及びその被測定物位置検出装置を備える切削機械は、上述する各被測定物位置検出装置と、被写体を撮像する撮像手段と、請求項4記載の基準手段に上記撮像手段の位置誤差を測定する基準部とを備え、上記撮像手段は上記基準部及び上記切削工具を被写体として同一の撮像領域内に撮像し、この撮像した画像データに基づき切削工具の切削位置を演算する。   A workpiece position detection device according to the present invention and a cutting machine equipped with the device position detection device calculate a cutting position of a cutting tool based on detection data by each of the measurement object position detection devices described above. And A measuring object position detecting device according to the present invention and a cutting machine provided with the measuring object position detecting device are each of the above-described measured object position detecting devices, an imaging means for imaging a subject, and A reference unit for measuring a position error of the imaging unit in the reference unit, and the imaging unit images the reference unit and the cutting tool in the same imaging region as a subject, and a cutting tool based on the captured image data The cutting position is calculated.

更に、本発明に係る被測定物位置検出装置及びその被測定物位置検出装置を備える切削機械は、上述する各被測定物位置検出装置と、異なる撮像位置での被写体にそれぞれ対応する光路を分離する光路分離手段および上記光路分離手段における同一の光路上に配置される撮像素子を備え、上記光路分離手段は一方の撮像位置での上記被写体を撮像する際には他方の撮像位置での光路を遮断させる撮像装置と、請求項4記載の基準手段に上記撮像手段の位置誤差を測定する基準部とを備え、上記撮像装置は、上記一方の光路における一方の撮像位置での上記基準部及び上記一方の撮像位置での切削工具を被写体として同一の撮像領域内に撮像し、或いは上記一方の光路における上記一方の撮像位置での上記基準部を被写体として撮像すると共に上記他方の光路における他方の撮像位置での切削工具を光路切換えの時間差をもって撮像し、この撮像した画像データに基づき切削工具の切削位置を演算する。   Furthermore, a workpiece position detection device according to the present invention and a cutting machine equipped with the device position detection device separate the optical path corresponding to each subject at a different imaging position from each of the device position detection devices described above. Optical path separating means and an image sensor disposed on the same optical path in the optical path separating means, and the optical path separating means determines the optical path at the other imaging position when imaging the subject at one imaging position. An imaging device to be shut off, and a reference unit for measuring a position error of the imaging unit in the reference unit according to claim 4, wherein the imaging device includes the reference unit at one imaging position in the one optical path and the reference unit. The cutting tool at one imaging position is imaged as a subject in the same imaging area, or the reference portion at the one imaging position in the one optical path is imaged as a subject. The cutting tool of the other imaging position in the serial other optical path is imaged with a time difference of optical path switching, and calculates a cutting position of the cutting tool on the basis of the image data the imaging.

本発明に係る被測定物位置検出装置では、検出手段が静止時および回転時の少なくとも一方における被測定物と対向し、被測定物の熱変位により変位した位置を検出する。即ち、本発明に係る被測定物位置検出装置によれば、検出手段を回転可能に配置される被測定物に対向する構成なので、簡易で且つ正確に被測定物の熱変位により変位した位置を検出し得る。本発明に係る被測定物位置検出装置を備える切削機械によれば、検出手段が静止時および回転時の少なくとも一方における被測定物と対向し、被測定物の熱変位により変位した位置を検出するので、この検出(位置)データに基づき切削工具を精度良く切削位置へ移動し得る。   In the measurement object position detection apparatus according to the present invention, the detection means faces the measurement object in at least one of the stationary state and the rotation state, and detects the position displaced by the thermal displacement of the measurement object. That is, according to the measured object position detecting device according to the present invention, since the detection means is configured to face the measured object that is rotatably arranged, the position displaced by the thermal displacement of the measured object can be easily and accurately determined. It can be detected. According to the cutting machine provided with the device position detection device according to the present invention, the detection means is opposed to the device to be measured in at least one of the stationary state and the rotation state, and detects the position displaced by the thermal displacement of the device to be measured. Therefore, the cutting tool can be accurately moved to the cutting position based on the detection (position) data.

また、本発明に係る被測定物位置検出装置を備える切削機械によれば、テスト材(従来例のようなテストピースを含む)を用いることなく、検出装置の検出データに基づき、切削工具の相対ベクトル(切削工具全体の位置)を正確に検出し得る。更に、本発明に係る被測定物位置検出装置を備える切削機械によれば、被測定物の位置データなどを、回転する被測定物とは別部材である検出装置を介して出力させることができるので、例えばブラシホルダーなどを不要にできる。   Moreover, according to the cutting machine provided with the object position detection device according to the present invention, the relative of the cutting tool is determined based on the detection data of the detection device without using a test material (including a test piece as in the conventional example). The vector (position of the entire cutting tool) can be detected accurately. Furthermore, according to the cutting machine provided with the object position detection device according to the present invention, the position data of the object to be measured can be output via the detection device that is a separate member from the rotating object to be measured. Therefore, for example, a brush holder or the like can be eliminated.

本発明に係る実施例1の単軸タイプのターレット旋盤を示す正面図である。It is a front view which shows the single axis | shaft type turret lathe of Example 1 which concerns on this invention. 図1に示すターレット旋盤の主要部を示す側面図である。It is a side view which shows the principal part of the turret lathe shown in FIG. 図2に示す撮像装置に関する図であり、(A)はその撮像装置の端面図、図3(B)はそのシャッターの平面図である。3A and 3B are diagrams related to the imaging device shown in FIG. 2, in which FIG. 3A is an end view of the imaging device, and FIG. 3B is a plan view of the shutter. 図3(A)に示す撮像装置が隔壁に配置されている状態を示す端面図である。FIG. 4 is an end view showing a state in which the imaging device shown in FIG. 実施例1に係る位置検出装置でチャックの位置を検出する図である。It is a figure which detects the position of a chuck | zipper with the position detection apparatus which concerns on Example 1. FIG. 図5に示すバイトに係る画像取込位置の初期データ(ベクトルデータ)を取得する手順説明図である。FIG. 6 is a procedure explanatory diagram for obtaining initial data (vector data) of an image capture position relating to the byte shown in FIG. 5. 実施例2に係る位置検出装置でチャックの位置を検出する図である。It is a figure which detects the position of a chuck | zipper with the position detection apparatus which concerns on Example 2. FIG. 実施例2の位置検出装置の要部を示す図である。It is a figure which shows the principal part of the position detection apparatus of Example 2. FIG. 他の変形例に係る位置検出装置を示す図である。It is a figure which shows the position detection apparatus which concerns on another modification. 刃先清掃装置を示す図である。It is a figure which shows a blade-tip cleaning apparatus. 図10に示す刃先清掃装置の側面図であり、(A)〜(E)はその清掃状態を示す図である。It is a side view of the blade edge | tip cleaning apparatus shown in FIG. 10, (A)-(E) is a figure which shows the cleaning state. 図10に示す刃先清掃装置の側面図であり、(A)〜(E)はその清掃状態を示す図である。It is a side view of the blade edge | tip cleaning apparatus shown in FIG. 10, (A)-(E) is a figure which shows the cleaning state. 他の変形例に係る刃先清掃装置を示す図である。It is a figure which shows the blade-tip cleaning apparatus which concerns on another modification. 他の変形例に係る刃先清掃装置の側面図であり、(A)〜(E)はその清掃状態を示す図である。It is a side view of the blade edge | tip cleaning apparatus which concerns on another modification, (A)-(E) is a figure which shows the cleaning state. 図1に示すターレット旋盤のブロック図である。It is a block diagram of the turret lathe shown in FIG. 図1に示すターレット旋盤に係るバイト画像処理モードに関するフローチャート図である。It is a flowchart figure regarding the byte image processing mode which concerns on the turret lathe shown in FIG. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図である。It is a figure which shows the test | inspection mode of a cutting tool. 切削工具の検査様子を示す図であり、(A)はそのチップのエッジを求める様子を示す図、(B)〜(D)はチップのノーズを求める様子を示す図である。It is a figure which shows the mode of an inspection of a cutting tool, (A) is a figure which shows a mode that the edge of the chip | tip is calculated | required, (B)-(D) is a figure which shows a mode that the nose of a chip | tip is calculated | required.

以下、本発明を実施するための形態について、具体化した実施例1及び実施例2を説明する。   Hereinafter, specific Embodiment 1 and Embodiment 2 will be described with respect to modes for carrying out the present invention.

以下、図1乃至図6に基づいて、本発明の実施例1である被測定物位置検出装置及びその被測定物位置検出装置を備える切削機械について説明する。なお、実施例1の切削機械は、単軸タイプのターレット旋盤(以下、単に旋盤という)Sとして説明する。   Hereinafter, based on FIG. 1 thru | or FIG. 6, the to-be-measured object position detection apparatus which is Example 1 of this invention and a cutting machine provided with the to-be-measured object position detection apparatus are demonstrated. The cutting machine according to the first embodiment will be described as a single-axis type turret lathe (hereinafter simply referred to as a lathe) S.

(旋盤Sの概略構成)
図1に示すように、旋盤S内には、軸線がZ軸方向(水平方向)と平行になるように固定された主軸台10と、Z軸方向に平行な方向及びZ軸方向と直交し垂直方向に対し60度後方に傾斜したX軸方向に平行な方向に移動可能なターレット装置20とが対向するように配置されている。主軸台10には、主軸11がZ軸方向と平行な軸線の回りに回転可能に支持されている。主軸11は、図示しない主軸駆動モータによって回転駆動されるようになっている。主軸11のターレット装置20側の先端部には、被加工物であるワークWを把持するチャック12が取り付けられている。このような構成の主軸台10及び主軸駆動モータは、ベッド13上に配置されている。
(Schematic configuration of lathe S)
As shown in FIG. 1, in the lathe S, a headstock 10 fixed so that its axis line is parallel to the Z-axis direction (horizontal direction), a direction parallel to the Z-axis direction, and a direction orthogonal to the Z-axis direction. A turret device 20 that is movable in a direction parallel to the X-axis direction inclined backward by 60 degrees with respect to the vertical direction is arranged so as to face. A spindle 11 is supported on the spindle stock 10 so as to be rotatable about an axis parallel to the Z-axis direction. The main shaft 11 is rotationally driven by a main shaft drive motor (not shown). A chuck 12 that holds a workpiece W, which is a workpiece, is attached to the tip of the spindle 11 on the turret device 20 side. The headstock 10 and the spindle drive motor having such a configuration are disposed on the bed 13.

ターレット装置20には、取付台であるターレット刃物台(以下、単に刃物台という)21がZ軸方向と平行な軸線の回りに回転割出し可能に設けられている。刃物台21上には、複数の切削工具25,26(図5参照)が円周上等角度間隔に取り付けられている。このような構成のターレット装置20は、X軸方向およびZ軸方向へスライド可能に配置されている。なお、ターレット装置20は、NCテーブル50のNCモータ52(図15参照)によってボールねじ機構(図示省略)を介して移動する。即ち、ターレット装置20は、固定配置された主軸台10に対して移動する。一方、刃物台21は、図示しないターレットモータによって回転駆動する。   The turret device 20 is provided with a turret tool post (hereinafter simply referred to as a tool post) 21 that is a mounting base so as to be able to rotate and index around an axis parallel to the Z-axis direction. On the tool post 21, a plurality of cutting tools 25, 26 (see FIG. 5) are attached at equal angular intervals on the circumference. The turret device 20 having such a configuration is arranged to be slidable in the X-axis direction and the Z-axis direction. The turret device 20 is moved by a NC motor 52 (see FIG. 15) of the NC table 50 via a ball screw mechanism (not shown). That is, the turret device 20 moves with respect to the headstock 10 that is fixedly arranged. On the other hand, the tool post 21 is rotationally driven by a turret motor (not shown).

図1に示すように、旋盤S内には、主軸台10とターレット装置20を覆うカバー14が設けられ、カバー14内には、主軸台10側とターレット装置20側と仕切る隔壁15が設けられている。この隔壁15は、刃物台21上の図5に示す切削工具25,26によってチャック12に把持されたワークWの外周または端面などを切削加工する際に、飛散する切削粉や切削液などが主軸台10などに付着しないようにするために設けられている。即ち、この隔壁15で仕切られた主軸台10側が隔離ゾーンS1となっており、ターレット装置20側が加工ゾーンS2となっている。   As shown in FIG. 1, a cover 14 that covers the headstock 10 and the turret device 20 is provided in the lathe S, and a partition wall 15 that partitions the headstock 10 side and the turret device 20 side is provided in the cover 14. ing. The partition wall 15 is mainly made of cutting powder or cutting fluid that scatters when the outer periphery or end surface of the workpiece W held by the chuck 12 by the cutting tools 25 and 26 shown in FIG. It is provided so as not to adhere to the table 10 or the like. That is, the headstock 10 side partitioned by the partition wall 15 is an isolation zone S1, and the turret device 20 side is a processing zone S2.

主軸11は隔壁15に設けられた孔から加工ゾーンS2側に突き出され、その主軸11の先端にチャック12が取り付けられている。図5に示す被測定物位置検出装置(以下、位置検出装置ともいう)18は、チャック12に対向するように配置され、図1及び図2に示す撮像装置27の位置誤差を測定するものである。この位置検出装置18は、内径加工バイト25と外径加工バイト26の両方に共通して使用する。   The main shaft 11 protrudes from the hole provided in the partition wall 15 toward the machining zone S <b> 2, and a chuck 12 is attached to the tip of the main shaft 11. A measurement object position detection device (hereinafter also referred to as a position detection device) 18 shown in FIG. 5 is arranged so as to face the chuck 12 and measures the position error of the imaging device 27 shown in FIGS. 1 and 2. is there. This position detection device 18 is used in common for both the inner diameter machining tool 25 and the outer diameter machining tool 26.

(撮像装置27に関する構成)
図1及び図2に示すように、旋盤S内には、撮像装置27が隔離ゾーンS1と加工ゾーンS2との間をスライド可能に配置されている(図4参照)。この撮像装置27は、被写体となる切削工具(以下、バイトともいう)25,26の例えば図5に示すチップ25A,26A(バイト等のチップでない切削工具のときは刃先)などを撮像する。即ち、撮像装置27は、チップ25A,26Aなどを撮像する際には加工ゾーンS2側へスライドし、撮像が終了すると隔離ゾーンS1側へスライドする。なお、撮像装置27で撮像した画像データは、中央処理装置であるCPU60(図15参照)へ出力するように構成されている。そして、CPU60は、チップ25A,26Aの変位などを照合・演算し、それらの結果に基づいて切削工具の加工位置を補正する。
(Configuration related to imaging device 27)
As shown in FIGS. 1 and 2, an imaging device 27 is slidably disposed in the lathe S between the isolation zone S1 and the processing zone S2 (see FIG. 4). The imaging device 27 images, for example, the chips 25A and 26A shown in FIG. 5 (the cutting edge when the cutting tool is not a chip such as a cutting tool) of the cutting tools (hereinafter also referred to as cutting tools) 25 and 26 as subjects. That is, the imaging device 27 slides toward the processing zone S2 when imaging the chips 25A, 26A, and the like, and slides toward the isolation zone S1 when imaging is completed. The image data picked up by the image pickup device 27 is configured to be output to a CPU 60 (see FIG. 15) which is a central processing unit. Then, the CPU 60 collates and calculates the displacements of the chips 25A and 26A and corrects the machining position of the cutting tool based on the results.

図3(A)に示すように、撮像装置27の筐体27Aは撮像スペース(レンズ室ともいう)28A及び防塵スペース(シャッタ室ともいう)28Bに区画されている。具体的には、角筒状の筐体27Aのレンズ室28Aには、例えば500万画素のカメラ(撮像素子であるCCD30Aを含む)30と,撮像レンズ体29と,フルミラー31Aと,ハーフミラー31Bとが収納されている。
このハーフミラー31Bは、撮像レンズ体29及びフルミラー31Aの間に配置されており、入射する被写体光を一部反射し一部投下するミラーである。なお、ハーフミラー31B(ビームスプリッターともいう)には、平板型,プリズム型,ウエッジ基板型などのミラーを含む。
As shown in FIG. 3A, the housing 27A of the imaging device 27 is partitioned into an imaging space (also referred to as a lens chamber) 28A and a dust-proof space (also referred to as a shutter chamber) 28B. Specifically, the lens chamber 28A of the rectangular tubular casing 27A includes, for example, a 5 million pixel camera (including a CCD 30A as an image sensor) 30, an imaging lens body 29, a full mirror 31A, and a half mirror 31B. And are stored.
The half mirror 31B is disposed between the imaging lens body 29 and the full mirror 31A, and is a mirror that partially reflects and drops a part of incident subject light. The half mirror 31B (also referred to as a beam splitter) includes a flat plate type, a prism type, a wedge substrate type, or the like.

上述したフルミラー31Aとハーフミラー31Bは、それぞれの撮像光学系の視野が同一サイズとなるように配設している。即ち、それぞれの被写体を交互に撮像できるように、フルミラー31A及びハーフミラー31Bは配設されている。例えばフルミラー31Aで図3(A)の2点鎖線に示す被写体(チップ)23Aを撮像する際にはハーフミラー31Bの光路を遮断し、ハーフミラー31Bで被写体(チップ)24Aを撮像する際にはフルミラー31Aの光路を遮断するように構成している。   The full mirror 31A and the half mirror 31B described above are arranged so that the fields of view of the respective imaging optical systems have the same size. That is, the full mirror 31A and the half mirror 31B are provided so that each subject can be alternately imaged. For example, when the subject (chip) 23A indicated by the two-dot chain line in FIG. 3A is imaged with the full mirror 31A, the optical path of the half mirror 31B is blocked, and when the subject (chip) 24A is imaged with the half mirror 31B. The optical path of the full mirror 31A is configured to be blocked.

従って、カメラ30の撮像レンズ体29と2つの被写体(例えばバイト23,24など)との間の光路を一対のミラー31A及び31Bでそれぞれ直角に屈曲させ、1つの視野領域(撮像領域と同義)の範囲で被写体を撮像する。そして、図3に示すように、1つの視野領域で例えばバイト23のチップ23Aを先ず撮像し、且つ上記撮像後に1つの視野領域でバイト24のチップ24Aを引続き撮像する。   Accordingly, the optical path between the imaging lens body 29 of the camera 30 and two subjects (for example, bytes 23, 24, etc.) is bent at a right angle by the pair of mirrors 31A and 31B, respectively, so that one visual field region (synonymous with imaging region). The subject is imaged within the range of. Then, as shown in FIG. 3, for example, the chip 23A of the bite 23 is first imaged in one visual field area, and the chip 24A of the bite 24 is continuously imaged in one visual field area after the above imaging.

なお、図1に示す光源43または44が撮像装置27の反対側より発光(即ち、バックライト照明と)し、撮像はバイト23または24のすくい面(即ち、切削線で輪郭される面)側から行う。そして、CPU60は、画像処理してシルエットのモノクロ(又はカラー写真)データとして記録する。この場合、フロントライト画像処理を行うようにしても良い。また、視野領域は、500万画素のカメラを用いた場合において、短辺は17mm(2000画素)、長辺は21.5mm(2500画素)となっている。   The light source 43 or 44 shown in FIG. 1 emits light (that is, backlight illumination) from the opposite side of the imaging device 27, and imaging is performed on the rake face (that is, the surface outlined by the cutting line) side of the cutting tool 23 or 24. To do. Then, the CPU 60 processes the image and records it as monochrome (or color photograph) data of a silhouette. In this case, front light image processing may be performed. The field of view has a short side of 17 mm (2000 pixels) and a long side of 21.5 mm (2500 pixels) when a 5 million pixel camera is used.

レンズ室28A及びシャッター室28Bの間には、焦点合わせレンズ33がフルミラー31Aに対応する光路上に、透明の防護ガラス34がハーフミラー31Bに対応する光路上にそれぞれ配置されている。ここで、焦点合わせレンズ33は、2系列の焦点距離LA(例えば100mm)を合わせるものである。なお、レンズ室28Aは、常時所定気圧たとえば+0.15MPaに保持されている。   Between the lens chamber 28A and the shutter chamber 28B, the focusing lens 33 is disposed on the optical path corresponding to the full mirror 31A, and the transparent protective glass 34 is disposed on the optical path corresponding to the half mirror 31B. Here, the focusing lens 33 adjusts two series of focal lengths LA (for example, 100 mm). The lens chamber 28A is always maintained at a predetermined atmospheric pressure, for example, +0.15 MPa.

また、レンズ室28A及びシャッター室28Bの間には孔27Bが形成されており、この孔27Bからシャッター室28Bへ圧縮空気(以下、エアーともいう)が送られる。即ち、常時シャッター室28Bは、レンズ室28Aよりも低い加圧状態たとえば+0.11MPaに加圧されている。従って、シャッター室28Bが加圧されているので、クーラント液または切粉などが、シャッター室28Bへ流入するのを防止する。なお、レンズ室28Aには図示しないエアー接続口が配置されており、このエアー接続口およびコンプレッサ(図示省略)の間はコンプレッサで生成されるエアーを供給するエアー通路となっている。そして、後述するシャッター38又は39を開放する前から閉鎖完了までの間、エアーをレンズ室28Aへ噴出し続ける。   A hole 27B is formed between the lens chamber 28A and the shutter chamber 28B, and compressed air (hereinafter also referred to as air) is sent from the hole 27B to the shutter chamber 28B. That is, the shutter chamber 28B is always pressurized to a pressure state lower than that of the lens chamber 28A, for example, +0.11 MPa. Therefore, since the shutter chamber 28B is pressurized, it prevents the coolant liquid or chips from flowing into the shutter chamber 28B. In addition, an air connection port (not shown) is arranged in the lens chamber 28A, and an air passage for supplying air generated by the compressor is provided between the air connection port and the compressor (not shown). Then, air is continuously blown out to the lens chamber 28A from before the shutter 38 or 39, which will be described later, is opened until the closing is completed.

シャッター室28Bの焦点合わせレンズ33及び防護ガラス34に対向する部位には、開口27C及び27Dがそれぞれ形成されている。切換手段であるシャッター38及び39は、筐体27Aとその支持片27E間にスライド可能に配置されており、開口27Cまたは27Dを開閉する。即ち、上述した光路を遮断するシャッター38または39は、上述したエアー通路のエアーを用いて、スライドするように構成されている。また、支持片27Eには、開口27F及び27Gが、開口27C及び27Dに対向するように形成されている。   Openings 27C and 27D are formed in portions of the shutter chamber 28B facing the focusing lens 33 and the protective glass 34, respectively. Shutters 38 and 39 as switching means are slidably disposed between the casing 27A and the support piece 27E, and open or close the opening 27C or 27D. That is, the shutter 38 or 39 that blocks the optical path described above is configured to slide using the air in the air passage described above. Further, openings 27F and 27G are formed in the support piece 27E so as to face the openings 27C and 27D.

図3(B)に示すように、シャッター38はその平面形状が帯状となっており、シャッター39はその平面形状が略L字状となっている。そして、シャッター38及び39は、開口27G及び27Fに対向するように移動し、開口27C及び27Dを開閉する。   As shown in FIG. 3B, the planar shape of the shutter 38 is a strip shape, and the planar shape of the shutter 39 is a substantially L-shape. The shutters 38 and 39 move so as to face the openings 27G and 27F, and open and close the openings 27C and 27D.

即ち、シャッター38及び39は、それぞれの光路を開放し、図3に示す被写体となる切削工具24のチップ24A(図面では2点鎖線で示す)をカメラ30で撮像する。そして、シャッター38及び39は、クーラント液または切粉などがシャッター室28Bへ流入するのを防止するために、閉止している。また、シャッター38及び39は、常には閉止しており、且つ同時に光路を開放しない。なお、シャッターは、例えば電圧のオン・オフの切換えで開閉する液晶シャッター又は光路切換え機構などを適用しても良い。   That is, the shutters 38 and 39 open the respective optical paths, and the camera 30 captures an image of the tip 24A (indicated by a two-dot chain line in the drawing) of the cutting tool 24 that is the subject shown in FIG. The shutters 38 and 39 are closed to prevent coolant liquid or chips from flowing into the shutter chamber 28B. The shutters 38 and 39 are always closed and do not open the optical path at the same time. As the shutter, for example, a liquid crystal shutter that opens and closes by switching on / off of a voltage or an optical path switching mechanism may be applied.

図1及び図2に示すように、撮像装置27の各ミラー31A及び31B(図3参照)に対向する光路上の位置には、照明用の光源43及び44がそれぞれ配置されている。これらの光源43及び44は、例えば発光LEDなどで構成されている。   As shown in FIGS. 1 and 2, illumination light sources 43 and 44 are arranged at positions on the optical path opposite to the mirrors 31 </ b> A and 31 </ b> B (see FIG. 3) of the imaging device 27, respectively. These light sources 43 and 44 are comprised by light emitting LED etc., for example.

(撮像装置27のスライド機構に関する概略構成)
図1及び図4に示すように、撮像装置27は、隔壁15の所定箇所に配置されており、図示しないスライド機構(例えばエアー通路のエアーで作動するシリンダ等)が連結されている。そのため、上述したように撮像装置27は、隔離ゾーンS1と加工ゾーンS2との間をスライドし、切削加工直前には加工ゾーンS2から隔離ゾーンS1へ後退する。撮像装置27を後退させる理由は、切削加工のターレット装置20に搭載するバイト等との干渉を防止すると共に、撮像装置27が切削作業中における作業者の視覚障害を回避し作業性を向上させるためである。
(Schematic configuration regarding the slide mechanism of the imaging device 27)
As shown in FIGS. 1 and 4, the imaging device 27 is disposed at a predetermined location of the partition wall 15 and is connected to a slide mechanism (not shown) (for example, a cylinder that is operated by air in an air passage). Therefore, as described above, the imaging device 27 slides between the isolation zone S1 and the processing zone S2, and retracts from the processing zone S2 to the isolation zone S1 immediately before the cutting process. The reason for retracting the imaging device 27 is to prevent interference with a cutting tool or the like mounted on the cutting turret device 20 and to improve the workability of the imaging device 27 by avoiding the visual disturbance of the operator during the cutting operation. It is.

また、図4に示すように、撮像装置27と隔壁15との間には、合成樹脂製(例えばウレタンゴム製)のシールカバー40が配置されている。即ち、撮像装置27は、シールカバー40に嵌め込まれる状態で保持されている。このシールカバー40には、スライド時の撮像装置27が加工ゾーン内の切粉を挟んだりするのを防止すると共に、クーラント液が隔離ゾーンS1内へ滲み込むのを防止するものである。   As shown in FIG. 4, a synthetic resin (for example, urethane rubber) seal cover 40 is disposed between the imaging device 27 and the partition wall 15. That is, the imaging device 27 is held in a state of being fitted into the seal cover 40. The seal cover 40 prevents the image pickup device 27 during sliding from pinching chips in the processing zone and prevents the coolant from seeping into the isolation zone S1.

更に、撮像装置27の回りを囲うような導口40Aが開口されている。そして、エアーは図示しないエアー通路から導口40Aへ送出し(図4の矢印参照)、撮像装置27とシールカバー40との隙間からエアーが吹き出るようになっている(図4の太線矢印参照)。   Furthermore, a guide port 40 </ b> A that surrounds the imaging device 27 is opened. Then, air is sent out from an air passage (not shown) to the guide port 40A (see the arrow in FIG. 4), and the air is blown out from the gap between the imaging device 27 and the seal cover 40 (see the thick arrow in FIG. 4). .

なお、撮像装置27が隔離ゾーンS1へ後退している位置(図4の実線に示す待機位置)では、撮像装置27の先端(シールカバー40に対向する部位)が、シールカバー40より若干加工ゾーンS2へ突出する状態あるいは面一になるように予め設定されている。   Note that, at the position where the imaging device 27 is retracted to the isolation zone S <b> 1 (the standby position indicated by the solid line in FIG. 4), the tip of the imaging device 27 (the portion facing the seal cover 40) is slightly processed zone from the seal cover 40. It is set in advance so that it protrudes to S2 or is flush with the surface.

(位置検出装置18に関する構成)
図5に示すように、チャック12の先端にはフランジ66が連結されており、このフランジ66はチャック12の直径よりも若干だけ大径となっている。なお、補助体であるフランジ66は、チャック12を構成する金属(鋼)と同一材質で成形されている。また、フランジ66には、図1に示すワークWを挟持する複数個の爪17(図5参照)が配置されている。
(Configuration related to the position detection device 18)
As shown in FIG. 5, a flange 66 is connected to the tip of the chuck 12, and the flange 66 has a slightly larger diameter than the diameter of the chuck 12. The flange 66 as an auxiliary body is formed of the same material as the metal (steel) constituting the chuck 12. In addition, a plurality of claws 17 (see FIG. 5) that sandwich the workpiece W shown in FIG.

一方、基準手段である位置検出装置18の先端には薄肉状の段部18Aが形成されており、段部18AのZ面にはX方向の距離を検出する(X方向)光センサ68が配置されている。また、段部18AのX面には、Z方向の距離を検出する(Z方向)光センサ69が配置されている。光センサ68および69にはリード線が配線され、図15に示すCPU60を含む制御装置に接続されている。光センサ68および69は、その発光素子から光を射出(発光と同義)すると共に、その反射光を受光素子で受光することにより(図5参照)、被測定物たとえば図5に示すフランジ66の距離を検出データ(例えば、発光から反射光の受光時間のデータ)としてCPU60へ出力する。   On the other hand, a thin step 18A is formed at the tip of the position detection device 18 serving as a reference means, and an optical sensor 68 that detects a distance in the X direction (X direction) is disposed on the Z surface of the step 18A. Has been. An optical sensor 69 that detects a distance in the Z direction (Z direction) is disposed on the X plane of the stepped portion 18A. The optical sensors 68 and 69 are wired with lead wires and connected to a control device including the CPU 60 shown in FIG. The optical sensors 68 and 69 emit light from the light emitting element (synonymous with light emission), and receive the reflected light by the light receiving element (see FIG. 5), so that an object to be measured, for example, the flange 66 shown in FIG. The distance is output to the CPU 60 as detection data (for example, data of light reception time from light emission to reflected light).

そして、位置検出装置18の光センサ66及び69は、フランジ66にそれぞれ対向するように配置される(図5の実線参照)。即ち、位置検出装置18は、上述した撮像装置27と同様に、待機位置(図5の2点鎖線に示す位置)および検出位置(図5の実線に示す位置)に亘ってスライド可能に配置されている。そして、測定時に待機位置から検出位置へと移動した位置検出装置18は、図5の実線で示すように、光センサ68及び69がフランジ66の外周面に所定間隔をもって対向し、光センサ68及び69とフランジ66との距離(X距離およびZ距離)を検出する。   The optical sensors 66 and 69 of the position detection device 18 are arranged so as to face the flange 66 (see the solid line in FIG. 5). That is, the position detection device 18 is slidably disposed over the standby position (the position indicated by the two-dot chain line in FIG. 5) and the detection position (the position indicated by the solid line in FIG. 5), similarly to the imaging device 27 described above. ing. In the position detection device 18 that has moved from the standby position to the detection position during measurement, the optical sensors 68 and 69 face the outer peripheral surface of the flange 66 at a predetermined interval, as shown by the solid line in FIG. The distance (X distance and Z distance) between 69 and the flange 66 is detected.

なお、図3Aに示す撮像装置27は、図5に示すように、位置検出装置18の基準部(即ち、段部18Aの先端)18B及びバイト26のチップ26Aが、撮像装置27(図3A参照)の視野領域に収めて撮像(一望視と同義)できるよう配置される。また、外径用のバイト26はチップ検出時に撮像装置27の一望視Aエリア(図中では「A枠」という)内の所定位置に移動するように予め設定されていると共に、内径用のバイト25はチップ検出時に撮像装置27の一望視Bエリア(図中では「B枠」という)内の所定位置に移動するように予め設定されている。更に、本例は光センサ68及び69を配置面から突出させているが、光センサ68及び69は配置面に対して面一または埋設させても良い。   As shown in FIG. 5, the imaging device 27 shown in FIG. 3A includes a reference portion (that is, a tip of the stepped portion 18A) 18B of the position detection device 18 and a chip 26A of the bit 26, as shown in FIG. ) Is arranged so that it can be captured (synonymous with single vision). The outer diameter cutting tool 26 is set in advance so as to move to a predetermined position in an area A of the imaging device 27 (referred to as “A frame” in the drawing) when detecting the chip. Reference numeral 25 is set in advance so as to move to a predetermined position in the one-view B area (referred to as “B frame” in the drawing) of the image pickup apparatus 27 when the chip is detected. Further, in this example, the optical sensors 68 and 69 are protruded from the arrangement surface, but the optical sensors 68 and 69 may be flush with or embedded in the arrangement surface.

(バイト26に係る画像取込位置の初期データを取得する手順)
図6に基づき、バイト26に係る画像取込位置の初期ベクトルデータを取得する手順について説明する。この初期ベクトルデータ設定モードは、図1に示す旋盤Sにおける機械製造時の調整工程(初期化時)で行う処理である。
(Procedure for obtaining initial data of the image capture position according to byte 26)
Based on FIG. 6, the procedure for acquiring the initial vector data of the image capture position relating to the byte 26 will be described. This initial vector data setting mode is a process performed in an adjustment process (at the time of initialization) at the time of machine manufacture in the lathe S shown in FIG.

そして、この処理データに基づき、図15に示すCPU60は、キャリブレーションサイクル時などに、変動するベクトル値を検出し演算する。ここで、キャリブレーションサイクルは、切削の精度を所定水準に維持する補償値を得るため、図1に示す旋盤Sの稼動時に強制的に所定間隔を設けて検査を行うことである。即ち、キャリブレーションサイクルは、旋盤Sの運転が開始した後に行う検査である。   Based on this processing data, the CPU 60 shown in FIG. 15 detects and calculates a fluctuating vector value during a calibration cycle or the like. Here, the calibration cycle is to inspect at a predetermined interval forcibly when the lathe S shown in FIG. 1 is operated in order to obtain a compensation value for maintaining the cutting accuracy at a predetermined level. That is, the calibration cycle is an inspection performed after the operation of the lathe S is started.

まず、初期ベクトルデータ設定モードでは、図6に示すテスト材90を用いて、バイト26を手動でカメラ30(図3A参照)の一望視Aエリア内に移動させる。バイト26が一望視Aエリア内へ移動していない場合には、画像処理を行い、図6に示す一望視Aエリア中心との差すなわちオフセット値をCPU60(図15参照)は演算する。CPU60は、オフセット値が許容範囲内(例えば100μm以内)か否かを判断し、許容範囲外であればバイト26を許容範囲内になるよう移動させる。この処理は、バイト26が許容範囲内に収まるまで続けられる。   First, in the initial vector data setting mode, using the test material 90 shown in FIG. 6, the cutting tool 26 is manually moved into the one viewing A area of the camera 30 (see FIG. 3A). When the byte 26 has not moved into the single vision A area, image processing is performed, and the CPU 60 (see FIG. 15) calculates a difference from the center of the single vision A area shown in FIG. The CPU 60 determines whether or not the offset value is within an allowable range (for example, within 100 μm), and moves the byte 26 within the allowable range if it is outside the allowable range. This process continues until byte 26 is within the acceptable range.

そして、許容範囲内(その時の一望視Aエリア中心の位置をCとする)であれば、CPU60は、画像認識に基づきチップ26Aの先端に対する位置検出装置18の基準部18B(図5参照)のベクトル値F1を演算する。引続き、CPU60は、位置検出装置18に対するフランジ66の周端のベクトル値F2を演算する。即ち、このベクトル値F2は、上述した光センサ68及び69とフランジ66との距離(X距離およびZ距離)に基づいて演算する。   Then, if it is within the allowable range (the position of the center of the one-view vision A at that time is C), the CPU 60 is based on the image recognition of the reference portion 18B (see FIG. 5) of the position detection device 18 with respect to the tip of the chip 26A. The vector value F1 is calculated. Subsequently, the CPU 60 calculates the vector value F2 of the peripheral edge of the flange 66 with respect to the position detection device 18. That is, the vector value F2 is calculated based on the distances (X distance and Z distance) between the optical sensors 68 and 69 and the flange 66 described above.

最後に、CPU60は、位置検出装置18に対するテスト材90原点のベクトル値F3を演算する。なお、ベクトル値F3は、初期化時に求める固定値である。また、NCテーブル50(図15参照)の原点に対する加工時のチップ26A先端のベクトル値Mは、手動でワークW(図1参照)におけるテスト材90を仕上げ切削(切り込み量を少なくして切削)して、初期化時のNCテーブル50の位置データに基づいて得る。更に、初期化時には、ワーク原点に対するワークW(図1参照)のベクトル値WL即ちテスト材90の切削時に得られる測定値を、例えばマイクロメータなどでテスト材90の寸法WL(具体的には図6に示すWx,Wzの値)として得る。   Finally, the CPU 60 calculates the vector value F3 of the test material 90 origin with respect to the position detection device 18. The vector value F3 is a fixed value obtained at the time of initialization. Further, the vector value M at the tip of the tip 26A at the time of machining with respect to the origin of the NC table 50 (see FIG. 15) manually finish-cuts the test material 90 on the workpiece W (see FIG. 1) (cuts with a reduced cutting amount). And based on the position data of the NC table 50 at the time of initialization. Further, at the time of initialization, the vector value WL of the workpiece W (see FIG. 1) with respect to the workpiece origin, that is, the measured value obtained when the test material 90 is cut, is measured with the dimension WL (specifically, the figure) of the test material 90 using, for example, a micrometer. (Values of Wx and Wz shown in FIG. 6).

そして、初期化時には、ベクトル値M,NC移動量C,ベクトル値F1,ベクトル値F2,ベクトル値WLをベクトル式(M=C+F1+F2+F3+WLすなわちF3=M−C−F1−F2−WL)へ代入し、ベクトル値F3を演算する。ここで、C値は、初期化時などに移動するNCテーブル50(図15参照)の原点に対する画像認識点でのチップ26A先端のNC移動量を表す。なお、C値はバイト毎に異なり、F3値も一台のターレット装置に一つのみ存在する。また、テスト材90は、直径と端面がそれぞれ一箇所あれば適用できる。更に、各バイトのC値およびM値を求め、記録媒体たとえば図15に示すRAM64にそれぞれ記録する。   At the time of initialization, the vector value M, the NC movement amount C, the vector value F1, the vector value F2, and the vector value WL are substituted into a vector expression (M = C + F1 + F2 + F3 + WL, that is, F3 = M−C−F1−F2−WL), The vector value F3 is calculated. Here, the C value represents the NC movement amount of the tip of the chip 26A at the image recognition point with respect to the origin of the NC table 50 (see FIG. 15) that moves at the time of initialization or the like. The C value is different for each byte, and only one F3 value exists in one turret device. Further, the test material 90 can be applied if it has one diameter and one end surface. Further, the C value and M value of each byte are obtained and recorded in a recording medium such as the RAM 64 shown in FIG.

一方、キャリブレーションサイクル時には、ベクトル値F1およびベクトル値F2を演算する。即ち、ベクトル値F2は、上述したように、位置検出装置18を待機位置(図5の2点鎖線参照)から検出位置(図5の実線参照)にスライドさせた後、光センサ68(69を含む)から光を射出およびその反射光(図5参照)に基づき、図15に示すCPU60は光センサ68及び69とフランジ66との距離(X距離およびZ距離)を演算する。   On the other hand, during the calibration cycle, the vector value F1 and the vector value F2 are calculated. That is, as described above, the vector value F2 is obtained by sliding the position detection device 18 from the standby position (see the two-dot chain line in FIG. 5) to the detection position (see the solid line in FIG. 5), and then detecting the optical sensor 68 (69. The CPU 60 shown in FIG. 15 calculates the distances (X distance and Z distance) between the optical sensors 68 and 69 and the flange 66 on the basis of the light emitted from (including) and the reflected light (see FIG. 5).

そして、加工対象となるワークW(図1参照)のベクトルMは、予め設定されている。即ち、実際には上述したM=C+F1+F2+F3+WLより演算したM値に基づき、図15に示すNCテーブル50を図6に示すMの場所へ移動させて切削加工させる。   And the vector M of the workpiece | work W (refer FIG. 1) used as a process target is preset. Specifically, based on the M value calculated from the above-described M = C + F1 + F2 + F3 + WL, the NC table 50 shown in FIG. 15 is moved to the location M shown in FIG.

即ち、キャリブレーションサイクル時には、図6に示すテスト材90(従来例のようなテストピースを含む)を用いることなく、位置検出装置18の検出(位置)データに基づき、切削工具の相対ベクトル(切削工具全体の位置)を正確に検出し得る。なお、鋼で形成されるチャック12の熱膨張率は、1.15×10−5であるので、1℃変化すると直径300mmのチャックは3μm増減する。 That is, during the calibration cycle, the relative vector (cutting) of the cutting tool is used based on the detection (position) data of the position detection device 18 without using the test material 90 (including the test piece as in the conventional example) shown in FIG. The position of the entire tool) can be detected accurately. Since the thermal expansion coefficient of the chuck 12 made of steel is 1.15 × 10 −5 , the chuck having a diameter of 300 mm increases or decreases by 3 μm when it changes by 1 ° C.

(本実施例の作用)
位置検出時には、図5の実線で示すように、位置検出装置18を待機位置から検出位置へスライドさせる。そして、光センサ68及び69がフランジ66の外周面に対し所定間隔をもって対向した後に、光センサ68および69の発光素子はフランジ66の外周面に対して発光する。フランジ66からの反射光を光センサ68および69の受光素子が受光すると、位置検出装置18は熱変位で膨張または収縮したフランジ66の位置を検出データ(例えば、発光から反射光の受光時間のデータ)としてCPU60へ出力する。
(Operation of this embodiment)
At the time of position detection, as indicated by a solid line in FIG. 5, the position detection device 18 is slid from the standby position to the detection position. Then, after the optical sensors 68 and 69 face the outer peripheral surface of the flange 66 with a predetermined interval, the light emitting elements of the optical sensors 68 and 69 emit light toward the outer peripheral surface of the flange 66. When the light receiving elements of the optical sensors 68 and 69 receive the reflected light from the flange 66, the position detection device 18 detects the position of the flange 66 expanded or contracted by thermal displacement (for example, data on the light receiving time from the light emission to the reflected light). ) To the CPU 60.

即ち、CPU60は、光センサ68及び69とフランジ66との距離(X距離およびZ距離)を検出し、チャック12の熱変位に対応するベクトルF2を演算してM値に基づきNCテーブル50をM(図6参照)へ移動させる。従って、本実施例によれば、位置検出手段18を回転可能に配置されるフランジ66(チャック12と同義)に対向する構成なので、簡易で且つ正確にチャック12の熱変位により変位した位置を検出し得る。   That is, the CPU 60 detects the distances (X distance and Z distance) between the optical sensors 68 and 69 and the flange 66, calculates the vector F2 corresponding to the thermal displacement of the chuck 12, and stores the NC table 50 based on the M value. (See FIG. 6). Therefore, according to the present embodiment, since the position detecting means 18 is configured to face the flange 66 (synonymous with the chuck 12) that is rotatably arranged, the position displaced by the thermal displacement of the chuck 12 can be detected easily and accurately. Can do.

また、本実施例によれば、位置検出装置18が被測定物であるチャック12の熱変位に対応する位置を正確に検出するので、チップ25Aまたは26Aを精度良く切削位置へ移動し得る。そして、被測定物の位置を検出した後、位置検出装置18は待機位置へスライドする。   Further, according to the present embodiment, since the position detection device 18 accurately detects the position corresponding to the thermal displacement of the chuck 12 as the object to be measured, the tip 25A or 26A can be accurately moved to the cutting position. Then, after detecting the position of the object to be measured, the position detection device 18 slides to the standby position.

更に、本実施例によれば、光センサ68および69にはリード線が配線されCPU60に接続されているので、位置検出装置18から制御装置(図示省略)まで簡単に導出させることができる。即ち、本実施例によれば、チャック12の位置データなどを、回転するチャック12とは別部材である位置検出装置18を介して出力させることができるので、例えばブラシホルダーなどを不要にできる。   Furthermore, according to the present embodiment, since the optical sensors 68 and 69 are wired with lead wires and connected to the CPU 60, the position can be easily derived from the position detection device 18 to the control device (not shown). That is, according to the present embodiment, the position data of the chuck 12 can be output via the position detection device 18 which is a separate member from the rotating chuck 12, so that, for example, a brush holder or the like can be eliminated.

なお、チップ検出時には、図5に示すように、位置検出装置18の基準部18B及びバイト26のチップ26Aを図3Aに示すカメラ30の視野領域に収めて撮像する。また、チップ検出時には、図4に示すように、撮像装置27を隔離ゾーンS1から加工ゾーンS2へスライドさせると共に、図1に示す光源43及び44を発光させる。   At the time of chip detection, as shown in FIG. 5, the reference unit 18B of the position detection device 18 and the chip 26A of the bit 26 are placed in the field of view of the camera 30 shown in FIG. At the time of chip detection, as shown in FIG. 4, the imaging device 27 is slid from the isolation zone S1 to the processing zone S2, and the light sources 43 and 44 shown in FIG.

そして、図5に示すバイト26のチップ26Aを検出する場合、撮像位置(図4の破線で示す状態)の撮像装置27は、図3に示すように、シャッター38をスライドさせハーフミラー31B側の光路を開放する。カメラ30は、一望視Aエリア内に位置する被写体である位置検出装置18の基準部18B及びチップ26Aを撮像する。即ち、シャッター39側の光路を遮断しているので、ハーフミラー31Bは一望視Aエリアの被写体光をカメラ30へ反射させる。   When detecting the chip 26A of the cutting tool 26 shown in FIG. 5, the image pickup device 27 at the image pickup position (state shown by the broken line in FIG. 4) slides the shutter 38 as shown in FIG. Open the light path. The camera 30 captures an image of the reference unit 18B and the chip 26A of the position detection device 18 that are subjects located in the one vision A area. In other words, since the optical path on the shutter 39 side is blocked, the half mirror 31B reflects the subject light in the single vision A area to the camera 30.

一方、図5に示すバイト25のチップ25Aを検出する場合(この場合バイト26は一望視Aエリアには無い)、図3に示すように、先ずシャッター38をスライドさせハーフミラー31B側の光路を開放する。カメラ30は、一望視Aエリア内に位置する被写体である位置検出装置18の基準部18Bを撮像する。撮像後直ちに、シャッター38を閉止させると共に、シャッター39をスライドさせフルミラー31A側の光路を開放する。シャッター38及び39の切換えは、その切換え瞬間の時間差(略同時と同義)たとえば0.5秒で行う。   On the other hand, when the chip 25A of the cutting tool 25 shown in FIG. 5 is detected (in this case, the cutting tool 26 is not in the first viewing A area), as shown in FIG. 3, first, the shutter 38 is slid to change the optical path on the half mirror 31B side. Open. The camera 30 captures an image of the reference unit 18B of the position detection device 18 that is a subject located in the single vision A area. Immediately after imaging, the shutter 38 is closed and the shutter 39 is slid to open the optical path on the full mirror 31A side. The shutters 38 and 39 are switched at a time difference (synonymous with substantially the same time), for example, 0.5 seconds.

そして、カメラ30は、図5に示すように、一望視Bエリア内に位置する被写体であるバイト25のチップ25Aを撮像する。即ち、シャッター38側の光路を遮断しているので、フルミラー31Aは一望視Bエリアの被写体光をカメラ30へ反射させる。この際、 ハーフミラー31Bはフルミラー31Aで反射された被写体光を透過するので、カメラ30は一望視Bエリア内の被写体のみを撮像する。そして、その後の画像処理および照合処理などは、例えば特願2009−38185号に記載する切削加工位置の補正処理を行う。   Then, as shown in FIG. 5, the camera 30 captures an image of the chip 25 </ b> A of the bite 25 that is a subject located in the single vision B area. That is, since the optical path on the shutter 38 side is blocked, the full mirror 31A reflects the subject light in the first-view B area to the camera 30. At this time, since the half mirror 31B transmits the subject light reflected by the full mirror 31A, the camera 30 captures an image of only the subject in the single vision B area. And subsequent image processing, collation processing, etc. perform correction processing of the cutting position described in Japanese Patent Application No. 2009-38185, for example.

なお、本例では位置検出装置18をスライド可能に配置させているが、位置検出装置18を常に検出位置(図5の実線参照)に固定させるようにしても良い。また、本発明に係る検出手段は、光センサの他に、非接触式のエアーマイクロメータや接触式の差動トランス等でも、同様に適用できる。この場合、検出手段は被測定物たとえばチャックなどの静止時または回転時でも、チャックの熱変位により変位した位置を検出しても良い。   In this example, the position detection device 18 is slidably arranged. However, the position detection device 18 may be always fixed to the detection position (see the solid line in FIG. 5). The detection means according to the present invention can be similarly applied to a non-contact type air micrometer, a contact type differential transformer, and the like in addition to the optical sensor. In this case, the detecting means may detect the position displaced by the thermal displacement of the chuck even when the object to be measured such as a chuck is stationary or rotating.

更に、図5に示すチップ25A,26Aのエッジは、後述する例えば切削線用のシークラインを用いて求めることができる。このシークラインとは、2次元仮想画面内に設定された長さと傾きが自由な線分で、その線方向の中心位置に対するエッジの位置を求めるものである。   Further, the edges of the chips 25A and 26A shown in FIG. 5 can be obtained using, for example, a seek line for cutting lines described later. The seek line is a line segment having a free length and inclination set in the two-dimensional virtual screen, and obtains the position of the edge with respect to the center position in the line direction.

図7及び図8を用いて、本発明に係る位置検出装置の実施例2を説明する。但し、上記実施例1の図5に示す位置検出装置18と実質的に同一部分については同一符号を付して説明を省略又は簡略化し、主として異なる部分について説明する。なお、実施例2は、実施例1と同一の光センサ68及び69が配置されている(図8参照)。   Embodiment 2 of the position detection apparatus according to the present invention will be described with reference to FIGS. However, substantially the same parts as those of the position detector 18 shown in FIG. 5 of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified, and mainly the different parts will be described. In the second embodiment, the same optical sensors 68 and 69 as in the first embodiment are arranged (see FIG. 8).

実施例2は、図8に示すように、接触式の温度センサ70を、光センサ69に並列状に配置した例である。即ち、本実施例は、温度センサ70でチャック12の温度を検出する例である。   In the second embodiment, as shown in FIG. 8, a contact-type temperature sensor 70 is arranged in parallel with an optical sensor 69. That is, the present embodiment is an example in which the temperature sensor 70 detects the temperature of the chuck 12.

温度センサ70は、円柱状の接触子71がスライド可能に配置されており、接触子71が被測定物たとえばフランジ66に接触することによってフランジ66の温度データをCPU60(図15参照)へ出力する。即ち、スライド可能に配置される接触子71はフランジ66に当接し、温度センサ70内に押込められて没入する構成となっている。   In the temperature sensor 70, a cylindrical contact 71 is slidably disposed, and when the contact 71 comes into contact with an object to be measured, for example, the flange 66, temperature data of the flange 66 is output to the CPU 60 (see FIG. 15). . That is, the slidable contact 71 is in contact with the flange 66 and is pushed into the temperature sensor 70 to be immersed therein.

本実施例において、位置検出時に、温度センサ70の接触子71がフランジ66に接触するので、温度センサ70はフランジ66の温度データをCPU60へ出力する。即ち、本実施例によれば、温度センサ70が被測定物であるフランジ66(チャック12)の温度に対応する位置データ(膨張率または収縮率に基づく変位量のデータと同義)をも検出するので、チップ25Aまたは26Aを精度良く切削位置へ移動させ切削し得る。その他の構成及び作用効果は、実施例1と同様である。温度センサは、接触式の他に非接触式であっても、同様に適用できる。   In the present embodiment, when the position is detected, the contact 71 of the temperature sensor 70 contacts the flange 66, so the temperature sensor 70 outputs the temperature data of the flange 66 to the CPU 60. That is, according to the present embodiment, the temperature sensor 70 also detects position data (synonymous with displacement data based on the expansion rate or contraction rate) corresponding to the temperature of the flange 66 (chuck 12) that is the object to be measured. Therefore, the chip 25A or 26A can be moved to the cutting position with high accuracy for cutting. Other configurations and operational effects are the same as those of the first embodiment. The temperature sensor can be similarly applied to a non-contact type in addition to a contact type.

なお、上記各実施例では、図9に示すように、チャック12にフランジを設けることなく、センサ68及び69をチャック12の外周面に対し所定間隔をもって対向し得るように、位置検出装置18を配置させても良い。また、上記各実施例において、位置検出を光センサ68または69の一方のみとしても良く、例えばX方向の光センサ68のみを配置するようにしても良い。更に、位置検出装置18の移動方向は、図面の左右方向または上下方向のみではなく、これらの組み合わせなど移動方向は問わない。   In each of the above embodiments, as shown in FIG. 9, the position detection device 18 is arranged so that the sensors 68 and 69 can be opposed to the outer peripheral surface of the chuck 12 with a predetermined interval without providing the chuck 12 with a flange. It may be arranged. In each of the above embodiments, only one of the optical sensors 68 and 69 may be detected. For example, only the optical sensor 68 in the X direction may be disposed. Furthermore, the moving direction of the position detecting device 18 is not limited to the horizontal direction or the vertical direction in the drawing, and any moving direction such as a combination thereof may be used.

(刃先清掃装置に関する構成)
以下、図10乃至図14に基づき、刃先などの被清掃物を清掃する被清掃物清掃装置に関する構成を説明する。なお、上記実施例1の図5に示す位置検出装置18と実質的に同一部分については同一符号を付して説明を省略又は簡略化し、主として異なる部分について説明する。
(Configuration of blade edge cleaning device)
Hereinafter, based on FIG. 10 thru | or FIG. 14, the structure regarding the to-be-cleaned object cleaning apparatus which cleans to-be-cleaned objects, such as a blade edge | tip, is demonstrated. 5 that are substantially the same as those of the position detection device 18 shown in FIG. 5 of the first embodiment are denoted by the same reference numerals, description thereof is omitted or simplified, and different portions are mainly described.

(技術分野)
この技術分野は、切削工具の刃先たとえばチップなどを清掃する被清掃物清掃装置および被清掃物清掃装置を備える切削機械に関するものである。
(Technical field)
This technical field relates to a cleaning object cleaning device that cleans a cutting edge of a cutting tool, such as a tip, and a cutting machine that includes the cleaning object cleaning device.

(背景技術)
特開平10−96616号公報には、エアーガンが配置されるロボット制御装置を切削工具たとえばミルの回りに移動させると共に、ミルのチップに付着している切粉等を上記エアーガンによって除去する構成が開示されている(段落番号「0060」参照)。なお、上記公開公報は、ストラクチャライトユニットの投光窓からスリットをチップに投光し、撮影窓を通してカメラ撮影(即ち、画像処理)を行って工具チップの磨耗などを自動検査するものである。
(Background technology)
Japanese Patent Application Laid-Open No. 10-96616 discloses a configuration in which a robot control device in which an air gun is arranged is moved around a cutting tool, for example, a mill, and chips and the like adhering to the chip of the mill are removed by the air gun. (See paragraph number “0060”). In the above publication, a slit is projected onto a chip from a light projection window of a structure light unit, and camera shot (that is, image processing) is performed through the photographing window to automatically inspect wear of a tool chip.

(解決しようとする課題)
上記公開公報等において、上述した画像処理後に切削工具の磨耗などを検査する際、微細な切粉等も出来るだけ清掃する必要がある。また、熱変位により切削工具の切削位置を検出する場合(例えば特許文献1などを含む)、例えばある基準線を用いて位置検出する際にも、同様に微細な切粉等などを出来るだけ除去する必要がある。
(Issue to solve)
In the above-mentioned publications and the like, when inspecting the cutting tool for wear after the above-described image processing, it is necessary to clean as much fine chips as possible. Also, when detecting the cutting position of a cutting tool by thermal displacement (including, for example, Patent Document 1), for example, even when detecting the position using a certain reference line, fine chips and the like are removed as much as possible. There is a need to.

そして、上記公開公報において、ミルのチップに付着した微細な切粉等を、一般に通常のエアーガンで漫然と吹き飛ばすのみでは除去できず、そのため切削工具の刃先位置を正確に検出するのが困難となる。   In the above publication, fine chips and the like adhering to the chip of the mill cannot generally be removed simply by blowing them gently with a normal air gun, so that it is difficult to accurately detect the position of the cutting edge of the cutting tool.

そこで、以下に説明する被清掃物清掃装置は被清掃物例えば切削工具に付着する微細な切粉等を有効に除去し、また被清掃物清掃装置を備える切削機械は被清掃物例えば切削工具の切削位置を効率良く検出し得るようにするものである。例えば、被清掃物(切削工具など)に対向する清掃手段は、被清掃物の外形に沿う移動軌跡データに基づき被清掃物と相対移動する被清掃物清掃装置である。   Therefore, the cleaning object cleaning device described below effectively removes fine chips adhering to the cleaning object, such as a cutting tool, and the cutting machine equipped with the cleaning object cleaning device includes a cleaning object, such as a cutting tool. The cutting position can be detected efficiently. For example, the cleaning means that faces the object to be cleaned (such as a cutting tool) is an object cleaning device that moves relative to the object to be cleaned based on movement trajectory data along the outer shape of the object to be cleaned.

また、被清掃物清掃装置と、被写体を撮像する撮像手段と、上記撮像装置は被写体として被清掃物である切削工具を撮像し、この画像データに基づき切削工具の移動軌跡データを演算する演算手段と、上記移動軌跡データに基づき切削工具または被清掃物を相対移動させる制御手段とを備える切削機械である。   Also, a cleaning object cleaning device, an imaging unit that captures an image of the subject, and an imaging unit that captures an image of a cutting tool that is an object to be cleaned as the subject and calculates movement trajectory data of the cutting tool based on the image data. And a control means for relatively moving the cutting tool or the object to be cleaned based on the movement trajectory data.

図10乃至図13に示すように、筒状のエアーノズル88は位置検出装置18の上方に位置決めされており、エアーノズルには先細り状の先端口88Aが位置検出装置18の段部18A近傍に配置されている。先端口88Aの口径は例えば直径1.5mmで、エアー有効領域は例えば2mm程度に予め設定している。即ち、エアーノズル88にはコンプレッサ(図示省略)が接続されているので、コンプレッサからのエアーが先端口88Aから噴出する。なお、先端部88Aは、バイト26のチップ26Aに向くよう折曲げ形成されている。また、刃先清掃装置は、エアーノズル88および図示しないコンプレッサなどを備える。   As shown in FIGS. 10 to 13, the cylindrical air nozzle 88 is positioned above the position detection device 18, and a tapered tip end 88 </ b> A is located near the step portion 18 </ b> A of the position detection device 18. Has been placed. The diameter of the tip end port 88A is, for example, a diameter of 1.5 mm, and the effective air area is set in advance to, for example, about 2 mm. That is, since a compressor (not shown) is connected to the air nozzle 88, air from the compressor is ejected from the tip end port 88A. Note that the distal end portion 88A is formed to be bent toward the tip 26A of the cutting tool 26. The blade edge cleaning device includes an air nozzle 88 and a compressor (not shown).

(刃先清掃装置の作用)
画像処理を実行する直前に、刃先清掃装置は、図10に示すように、外径用バイト26をエアーノズル88の先端口88Aに対向させる。次に、バイト26のチップ26Aは、図11(A)乃至図11(C)に示すように、エアーノズル88の先端口88Aがチップ26Aの輪郭線(実際にワークを切削する箇所と同義)に対応する切削面上部から順次に下部(X方向)へ向かって移動する。この際、チップ26Aは、エアーを噴出し続けるエアーノズル88の先端口88Aに対して所定間隔たとえば2mmをもって曲線的に移動する。
(Operation of the blade cleaning device)
Immediately before executing the image processing, the blade edge cleaning device causes the outer diameter cutting tool 26 to face the front end 88A of the air nozzle 88, as shown in FIG. Next, as shown in FIGS. 11A to 11C, the tip 26 </ b> A of the cutting tool 26 has a tip line 88 </ b> A of the air nozzle 88 with the contour line of the tip 26 </ b> A (synonymous with a position where the workpiece is actually cut). It moves toward the lower part (X direction) sequentially from the upper part of the cutting surface corresponding to. At this time, the tip 26A moves in a curve with a predetermined interval, for example, 2 mm, with respect to the tip end 88A of the air nozzle 88 that continues to blow out air.

引続き、図11(D)及び図11(E)に示すように、チップ26Aはその輪郭線に対応するチップ26A下面のZ方向へ向かって曲線的に移動する。なお、この際には、エアーノズル88の先端口88Aからエアーが噴出し続けている。即ち、本例においては、被清掃物の一部分たとえばチップ26Aの輪郭線に沿って集中的に清掃するので、例えば通常のエアーガンで漫然と刃先に付着した切粉等を吹き飛ばす場合に比べ、微細な切粉等でも除去し得る。   Subsequently, as shown in FIGS. 11D and 11E, the chip 26A moves in a curve in the Z direction on the lower surface of the chip 26A corresponding to the contour line. At this time, air continues to be ejected from the tip opening 88A of the air nozzle 88. That is, in this example, a part of the object to be cleaned is intensively cleaned along the outline of the tip 26A, for example, compared with a case where fine chips adhering to the blade edge are blown away with a normal air gun. Even powder can be removed.

最後に、バイト26は、図10の2点鎖線に示すように、位置検出装置18の基準部18Bに対応するよう移動させる。そして、図3(A)に示すカメラ30は、一望視Aエリア内に位置する基準部18B及びチップ26Aを撮像する。本例においては、エアーノズル88を含む刃先清掃装置は、チップ26Aの輪郭線に対応する切削面付近の広範囲に亘る切粉等を吹き飛ばす。   Finally, the cutting tool 26 is moved so as to correspond to the reference portion 18B of the position detecting device 18, as indicated by a two-dot chain line in FIG. And the camera 30 shown to FIG. 3 (A) images the reference | standard part 18B and chip | tip 26A which are located in the one vision A area. In this example, the blade edge cleaning device including the air nozzle 88 blows away chips and the like over a wide area near the cutting surface corresponding to the contour line of the tip 26A.

従って、本例によれば、チップ26Aの切削処理に際する十分な範囲での切粉等を除去し得るので、切粉等が付着していない綺麗な状態のチップ26Aを画像処理できる。ここで、バイト26は上述した曲線的な移動軌跡を描くように移動するが、この移動軌跡データは予めRAM64(図15参照)の記録媒体に記録されている。そして、図15に示すCPU60は、バイト26を移動軌跡データに基づいて移動させる。   Therefore, according to this example, chips and the like in a sufficient range in the cutting process of the chip 26A can be removed, so that the chip 26A in a clean state where chips and the like are not attached can be image-processed. Here, the byte 26 moves so as to draw the above-described curved movement locus, but this movement locus data is recorded in advance in a recording medium of the RAM 64 (see FIG. 15). Then, the CPU 60 shown in FIG. 15 moves the bite 26 based on the movement trajectory data.

なお、演算手段または制御手段であるCPU60は、画像処理後に切粉等がチップ26Aに付着していることが検出した場合、全工程または付着箇所のみを複数回または切粉等が除去されるまで上述した清掃動作を繰返すようにしても良い。また、本例では、清掃時において、バイト26の他にエアーノズル88を相対的に移動可能としても良くまたはエアーノズル88のみを移動させるようにしても良い。更に、清掃のタイミングは、キャリブレーションサイクル時など任意に変更し得る。   In addition, when CPU60 which is a calculating means or a control means detects that the chips etc. have adhered to the chip | tip 26A after image processing, all the processes or only an adhesion location are repeated several times or until chips etc. are removed. The above-described cleaning operation may be repeated. Further, in this example, at the time of cleaning, in addition to the cutting tool 26, the air nozzle 88 may be relatively movable or only the air nozzle 88 may be moved. Further, the cleaning timing can be arbitrarily changed during a calibration cycle.

一方、外径用バイト25のチップ25Aの場合は、図12(A)乃至図12(C)に示すように、エアーノズル88の先端口88Aがチップ25Aの輪郭線に対応する切削面略中央から順次に上部(上方向の斜め)へ向かって移動する。この際、チップ25Aは、エアーノズル88の先端口88Aに対して所定間隔をもって曲線的に移動する。引続き、図12(D)及び図12(E)に示すように、チップ25Aはその輪郭線に対応するチップ25A上部から下方(X方向)へ向かって曲線的に移動する。その他の作用効果は、図11の例と同様である。   On the other hand, in the case of the tip 25A of the outer diameter cutting tool 25, as shown in FIGS. 12A to 12C, the tip end 88A of the air nozzle 88 is substantially at the center of the cutting surface corresponding to the contour line of the tip 25A. From the top to the top (slant in the upward direction). At this time, the tip 25 </ b> A moves in a curved manner with a predetermined interval with respect to the tip opening 88 </ b> A of the air nozzle 88. Subsequently, as shown in FIGS. 12D and 12E, the chip 25A moves in a curvilinear direction downward (X direction) from the upper part of the chip 25A corresponding to the contour line. Other functions and effects are the same as in the example of FIG.

他の例として、図13に示すエアーノズル88は、バイト24を上方からチップ24Aに向くよう下向きに折曲げ形成させても良い。この場合には、先端口88Aがチップ24A全面に亘ってエアーを吹き付けることができるので、チップ24Aに付着している微細な切粉等でも有効的に清掃し得る。また、本実施例では、先端口88Aの折曲げ方向,口径またはコンプレッサの圧縮力(具体的には、圧縮弁による調整)など任意に変更し得る。   As another example, the air nozzle 88 shown in FIG. 13 may be formed by bending the cutting tool 24 downward from the upper side toward the tip 24A. In this case, since the tip opening 88A can blow air over the entire surface of the chip 24A, even fine chips adhering to the chip 24A can be effectively cleaned. Further, in the present embodiment, the bending direction, the diameter, or the compression force of the compressor (specifically, adjustment by a compression valve) can be arbitrarily changed.

更に他の例として、図14(A)に示す先細り状のブラシ部材89を回転可能に配置し、ブラシ部材89の先端に複数本のハケ89Aを配置する。即ち、ブラシ部材89には図示しない可変タイプのモータが連結されており、このモータはブラシ部材89を高速乃至低速の範囲に亘って回転する。なお、モータは、定速のみとしても良い。その他の構成および作用効果は図11の例と同様である。   As yet another example, a tapered brush member 89 shown in FIG. 14A is rotatably arranged, and a plurality of brushes 89 A are arranged at the tip of the brush member 89. That is, a variable type motor (not shown) is connected to the brush member 89, and this motor rotates the brush member 89 over a range of high speed to low speed. Note that the motor may have only a constant speed. Other configurations and operational effects are the same as in the example of FIG.

なお、本例では、エアーノズル88またはブラシ部材89の他に、レーザ或いは超音波などを用いるようにしても良い。また、上述したエアーノズル88などの移動軌跡データは、刃先の上述した50μmのシークライン群に基づいて生成する。即ち、CPU60は、複数本のシークライン群に基づき刃先の輪郭線を生成(即ち、演算)し、この輪郭線を移動軌跡として用いる。更に、輪郭線の取得方法としては、例えば所謂境界追跡法によって刃先などの被清掃物の輪郭を取得しうる。これらのデータは、上述した機械製造時の調整工程時などに取得する。   In this example, in addition to the air nozzle 88 or the brush member 89, a laser or an ultrasonic wave may be used. Further, the movement trajectory data of the air nozzle 88 and the like described above is generated based on the above-described 50 μm seek line group of the blade edge. That is, the CPU 60 generates (that is, calculates) a contour line of the cutting edge based on a plurality of seek line groups, and uses the contour line as a movement locus. Furthermore, as a method for acquiring a contour line, for example, the contour of an object to be cleaned such as a blade edge can be acquired by a so-called boundary tracking method. These data are acquired at the time of the adjustment process at the time of machine manufacture mentioned above.

(画像認識処理方法)
図15乃至図32を用いて、本実施例に係る切削工具の画像認識処理方法を詳述する。
(Image recognition processing method)
The cutting tool image recognition processing method according to the present embodiment will be described in detail with reference to FIGS.

(技術分野)
この技術分野は、被写体たとえば切削工具を画像認識する際の画像認識処理方法及びこの画像認識処理方法を用いる工作機械に関するものである。
(Technical field)
This technical field relates to an image recognition processing method for recognizing a subject, for example, a cutting tool, and a machine tool using the image recognition processing method.

(背景技術)
特開平4−232407号公報には、受光手段により受光された工具に係る平行光線の幅を測定し、工具の回転角と測定値との関係から工具の外形形状を求めるものである(要約参照)。そして、上記公報では、工具に係る平行光線の幅を測定し、工具の回転角と測定値との関係から工具の外形形状を求めるので、変形箇所の特定や変形の程度の検出が可能である。なお、上記公報では、工具の外形形状を容易に求めることができるので、作業時間も短時間ですみ、自動化も可能となる。
(Background technology)
Japanese Patent Application Laid-Open No. 4-232407 discloses a method for measuring the width of a parallel beam of a tool received by a light receiving means and obtaining the outer shape of the tool from the relationship between the rotation angle of the tool and the measured value (see the summary). ). In the above publication, the width of the parallel light beam related to the tool is measured, and the outer shape of the tool is obtained from the relationship between the rotation angle of the tool and the measured value, so that it is possible to identify the deformation location and detect the degree of deformation. . In the above publication, since the outer shape of the tool can be easily obtained, the work time is short, and automation is possible.

(解決しようとする課題)
上記公報において、変形箇所の特定や変形の程度の検出できるが、その変形の程度など精度良く画像認識する方法が開示されていないので、変形などの程度に基づき切削に支障があるか否かを検出し得ない。なお、切粉等が例えば切削工具のすくい面に溶着し膨張する場合がある(膨張する状態を構成刃先という)。この場合には、ワークの切削面が粗くなったり又は寸法が変わるので、構成刃先を出来る限り早期に検出し除去する必要がある。
(Issue to solve)
In the above-mentioned publication, it is possible to detect the location of deformation and the degree of deformation, but since a method for accurately recognizing the image such as the degree of deformation is not disclosed, whether or not there is any trouble in cutting based on the degree of deformation or the like. It cannot be detected. In some cases, chips or the like are welded to the rake face of the cutting tool and expand (the expanded state is referred to as a constituent cutting edge). In this case, since the cutting surface of the workpiece becomes rough or the dimensions change, it is necessary to detect and remove the constituent cutting edges as early as possible.

そのため、光センサ又はカメラ等で認識する際、その方向によっては構成刃先か否かを認識できない場合がある。また、切粉等がすくい面(即ち、切削線で輪郭される面)に付着し、切削に支障がある場合には、機械を直ちに停止させる必要がある。しかし、切粉等が切削面とは無関係な箇所に付着しても、切削の支障にはならないので、機械を停止させる必要が無い。   Therefore, when recognizing with an optical sensor, a camera, or the like, depending on the direction, it may not be possible to recognize whether it is a constituent edge. In addition, when chips or the like adhere to a rake face (ie, a face outlined by a cutting line) and there is a trouble in cutting, it is necessary to stop the machine immediately. However, even if chips or the like adhere to a place unrelated to the cutting surface, there is no need to stop the machine because it does not hinder cutting.

そこで、この画像認識処理方法は、切削工具の変形具合を精度良く画像認識でき、切削に支障があるか否かをも検出し得るものである。   Therefore, this image recognition processing method can accurately recognize the deformation state of the cutting tool and can detect whether or not there is any trouble in cutting.

(旋盤Sの制御系に関する構成)
図15に示すように、旋盤Sは、CPU60と、不揮発性メモリであるROM62,RAM64と、NCテーブル50に配置されるモータドライバ51,NCモータ52と、ターレット装置20に配置されるモータドライバ53,ターレットモータ54と、操作部56と、表示部57と、ブザー58と、を備える。照合手段および補正手段であるCPU60は、旋盤Sの全体的な動作を司り、たとえば操作部56に配置される操作キーが操作された場合に、その操作に基づく処理を行う。また、CPU60には撮像手段の一部を構成するカメラ30が接続されており、カメラ30で撮像された画像データがCPU60へ入力される。
(Configuration for control system of lathe S)
As shown in FIG. 15, the lathe S includes a CPU 60, ROM 62 and RAM 64, which are nonvolatile memories, a motor driver 51 and NC motor 52 arranged on the NC table 50, and a motor driver 53 arranged on the turret device 20. , A turret motor 54, an operation unit 56, a display unit 57, and a buzzer 58. The CPU 60 that is the collating unit and the correcting unit controls the overall operation of the lathe S, and performs processing based on the operation when, for example, an operation key arranged on the operation unit 56 is operated. The CPU 60 is connected to a camera 30 that constitutes a part of the imaging means, and image data captured by the camera 30 is input to the CPU 60.

記録手段であるROM62は旋盤Sに各種の処理を制御するプログラムを記録し、そのプログラムによって旋盤Sが制御される。記録手段であるRAM64は各種データの読み書き用の記録域たとえば画像データ領域65を有し、この画像データ領域65に画像データ等が記録される。モータ52または54は、CPU60の駆動信号に基づき、モータドライバ51または53を介して回転する。表示手段である表示部12は、カメラ30で撮像される画像データなどを表示する。警告手段であるブザーは、警告音を出力する。   The ROM 62 as recording means records a program for controlling various processes on the lathe S, and the lathe S is controlled by the program. The RAM 64 as recording means has a recording area for reading and writing various data, for example, an image data area 65, and image data and the like are recorded in the image data area 65. The motor 52 or 54 rotates via the motor driver 51 or 53 based on the drive signal of the CPU 60. The display unit 12 serving as a display unit displays image data captured by the camera 30 and the like. A buzzer as a warning means outputs a warning sound.

(バイト画像処理モード)
バイト画像処理モードについて、図16のフローチャートで説明する。ステップ162において、刃先が折損か否かを判断する。ステップ160が否定の場合はステップ164で刃先が膨張(構成刃先または切粉の付着など)か否かを判断し、ステップ164が否定の場合はステップ166で刃先が磨耗か否かを判断する。なお、これらの判断手法は、後述するシークラインなどを用いる。
(Byte image processing mode)
The byte image processing mode will be described with reference to the flowchart of FIG. In step 162, it is determined whether or not the cutting edge is broken. If step 160 is negative, it is determined in step 164 whether or not the blade edge is expanded (such as a component blade edge or chip adhesion). If step 164 is negative, it is determined in step 166 whether or not the blade edge is worn. These determination methods use a seek line, which will be described later.

ステップ166が肯定の場合即ち磨耗と判断される場合、ステップ168で磨耗が設定値(例えば20μm)以上か否かを判断する。ステップ168が肯定の場合即ち設定値以上の場合、ステップ170において、摩擦量のデータをRAM64に記録する(即ち、メンテナンス等の際のデータとする)。   When step 166 is affirmative, that is, when it is determined to be wear, it is determined at step 168 whether or not the wear is equal to or greater than a set value (for example, 20 μm). When step 168 is affirmative, that is, when the value is equal to or greater than the set value, in step 170, the friction amount data is recorded in the RAM 64 (that is, data for maintenance or the like).

そして、ステップ162またはステップ164が肯定の場合またはステップ168が否定の場合またはステップ170の処理が終了した後に、ステップ172で旋盤Sの運転を強制的に停止(例えばバイトが交換されるまで切削加工運転禁止等のフェールセーフ処置の実施を含む)させ、ステップ174で警告する。   Then, when step 162 or step 164 is affirmative, or when step 168 is negative or after the processing of step 170 is completed, the operation of the lathe S is forcibly stopped in step 172 (for example, cutting is performed until the cutting tool is replaced). Including fail-safe measures such as prohibition of driving) and warning in step 174.

具体的には、表示部(図13参照)に警告表示またはブザー58を作動させて警告音または図示しないスピーカから警告音声を出力させる。作業者は、上記警告によりバイト交換が促される。なお、撮像した視野部分に切粉などの異物が付着した場合、CPU60は画像認識機能としてエラー設定できるので、フェールセーフ処置の実施ができる。また、ステップ166で刃先が磨耗と判断されれば、CPU60は設定値以下でも、チップ交換のために旋盤Sの運転を停止させる。   Specifically, a warning display or buzzer 58 is activated on the display unit (see FIG. 13) to output a warning sound or a warning sound from a speaker (not shown). The operator is prompted to replace the byte by the warning. If foreign matter such as chips adheres to the imaged field of view, the CPU 60 can set an error as an image recognition function, so that fail-safe treatment can be performed. Further, if it is determined in step 166 that the cutting edge is worn, the CPU 60 stops the operation of the lathe S for chip replacement even if it is equal to or less than the set value.

ステップ166が否定の場合すなわち刃先が磨耗でないと判断した場合、ステップ176において、CPU60は刃先の変位が設定値(例えば100μm)以上か否かを判断する。刃先の変位は、図7の切削線の総合位置を検出することによって判断され、熱変位の他に刃先の磨耗も含まれる場合がある。   If step 166 is negative, that is, if it is determined that the cutting edge is not worn, in step 176, the CPU 60 determines whether or not the displacement of the cutting edge is equal to or greater than a set value (for example, 100 μm). The displacement of the blade edge is determined by detecting the total position of the cutting line in FIG. 7, and the wear of the blade edge may be included in addition to the thermal displacement.

ステップ176が肯定の場合すなわち設定値以上の場合、ステップ178において、測定時の変位データに基づき補間データをRAM64に記録する(即ち、メンテナンス等の際のデータとする)。そして、ステップ176が否定の場合またはステップ178の処理後、ステップ179において、フィードバックして補償処理を行なう。   If step 176 is affirmative, that is, if it is equal to or greater than the set value, in step 178, the interpolation data is recorded in the RAM 64 based on the displacement data at the time of measurement (that is, the data for maintenance etc.). If step 176 is negative or after the processing of step 178, feedback processing is performed in step 179 to perform compensation processing.

以下、図17乃至図32に基づいて、切削工具の画像認識処理方法について説明する。   Hereinafter, an image recognition processing method for a cutting tool will be described with reference to FIGS.

(切削工具の初期画像データ方法)
初期画像データ方法は、新たな切削工具をターレット刃物台21(図1参照)にセットする際に、図1に示す撮像装置27で撮像して行う画像認識処理である。なお、500万画素のカメラ30(図3A参照)では、図17に示すチップ26Aのエッジ等の位置決めの認識精度が±0.25μm(=1/34ピクセル)の精度で画像認識される。
(Initial image data method for cutting tools)
The initial image data method is an image recognition process performed by imaging with the imaging device 27 shown in FIG. 1 when a new cutting tool is set on the turret tool post 21 (see FIG. 1). Note that with the 5 million pixel camera 30 (see FIG. 3A), image recognition is performed with an accuracy of ± 0.25 μm (= 1/34 pixel) for positioning of the edge of the chip 26A shown in FIG.

即ち、500万画素(1画素当りの実寸法は8.6μm)の光学系のカメラでも、最近の画像処理技術の上記認識精度が向上したことによって十分にチップ等の折損・磨耗などを画像認識できると共に、チャック12(図1参照)などの温度を1℃単位で測定できる。ここで、図17の四角枠は、チップ26Aの先端(即ち、すくい面)を検出するときに用いる刃先検出エリアである。   In other words, even with an optical system camera with 5 million pixels (actual size per pixel is 8.6 μm), the recognition accuracy of recent image processing technology has been improved, so that it is possible to fully recognize chip breakage and wear. In addition, the temperature of the chuck 12 (see FIG. 1) can be measured in units of 1 ° C. Here, the square frame in FIG. 17 is a blade edge detection area used when detecting the tip (ie, rake face) of the tip 26A.

まず、チップ26Aの初期画像データ方法は、図17に示すように、複数本のシークライン(刃先部分輪郭の位置を求める手段)CLをチップ26Aの輪郭に沿って例えは40μm毎の等間隔で予め設定される。この際、シークラインCLの長さは輪郭線を中心として基準長すなわち半長50μm(全長は100μm)で、シークラインCLは輪郭線に対し直角になるよう予め設定される。ここで、図17に示すシークラインCL群(刃先の輪郭部分を位置認識する手段)より構成されるテンプレート(刃先の位置を求める手段)を、基準画像となるオリジナルテンプレートという。   First, as shown in FIG. 17, the initial image data method of the chip 26A is obtained by arranging a plurality of seek lines (means for obtaining the position of the edge portion contour) CL along the contour of the chip 26A, for example, at regular intervals of 40 μm. It is set in advance. At this time, the length of the seek line CL is set to be a reference length centered on the contour line, that is, a half length of 50 μm (the total length is 100 μm), and the seek line CL is set to be perpendicular to the contour line. Here, a template (means for obtaining the position of the blade edge) constituted by the seek line CL group (means for recognizing the position of the contour portion of the blade edge) shown in FIG. 17 is referred to as an original template serving as a reference image.

本例において、基準長を例えば50μmに設定したのは、チップ26Aの欠損または切粉等の付着の大きさ(即ち、最大長さ)などを、50μm以上あるいは以下として認識させるためである。即ち、被写体であるチップ26Aに切粉等が付着して外形が変化する時、被写体の位置(所謂オブジェクトベクトル)が移動するのを回避するためである。   In this example, the reason why the reference length is set to 50 μm, for example, is to recognize the chip 26A chipping or the size of adhesion of chips (ie, the maximum length) as 50 μm or more or less. In other words, this is for avoiding movement of the position of the subject (so-called object vector) when chips or the like adhere to the chip 26A as the subject and the outer shape changes.

従って、シークラインCLのエッジ位置(チップ26Aの輪郭線などにおける交点位置と同義)が、シークラインCLの半長以上または以下にズレる場合は、対象となるシークラインCLをエラー処理(無効と同義)してオブジェクトベクトルの演算に算入させないためである。ここで、パターンマッチング(照合と同義)による被写体の位置決めは、ズレがシークラインCL内に収まるものでのみオブジェクトベクトルを演算し、シークラインCL数の内ある割合の本数までのエラーは許容している。   Therefore, when the edge position of the seek line CL (synonymous with the position of the intersection on the contour line of the chip 26A) deviates more than or less than half the seek line CL, the target seek line CL is error-processed (synonymous with invalidity). This is because it is not included in the calculation of the object vector. Here, object positioning by pattern matching (synonymous with collation) calculates an object vector only when the deviation is within the seek line CL, and allows errors up to a certain number of seek lines CL. Yes.

パターンマッチング後は、各シークラインCLについて、その中点(半長50μmの点)とエッジ位置とのシークラインCL上の差分を演算する。この差分は、被写体(例えば、バイト等)の初期画像データ設定時を基準に、被写体外形の変形度合いを示す。この基準は、オリジナルテンプレートに対する切削線のベクトル値(以下、相対値という)の場合にも適用する。   After pattern matching, for each seek line CL, the difference on the seek line CL between the midpoint (half-length 50 μm) and the edge position is calculated. This difference indicates the degree of deformation of the subject outline with reference to the initial image data setting of the subject (for example, byte). This criterion also applies to the case of a cutting line vector value (hereinafter referred to as a relative value) with respect to the original template.

なお、上記基準は、バイト自体の位置がボールネジ(図示省略)の熱膨張などによって変位しても、これらのシークラインCL上の差分は変動しない。また、バイトの変形箇所たとえばチップの欠損箇所あるいは切粉等の付着箇所は、シークラインCL全数の割合からすると、非常に低いので、被写体全体の変位に与える影響は少ない。   Note that, according to the above reference, even if the position of the cutting tool itself is displaced by thermal expansion of a ball screw (not shown), the difference on these seek lines CL does not change. In addition, the deformed part of the tool, for example, the chip missing part or the attached part of the chips or the like is very low in terms of the ratio of the total number of seek lines CL, so that the influence on the displacement of the entire subject is small.

そして、本例では、上述したシークラインCL上の差分値に基づき、刃具の折損および切粉等の付着を検出する。なお、本例では、所謂マルチステップパターンマッチング(以下、「MS」という)パターンマッチングの技法を、被写体の位置認識に適用しているが、これ以外に正規化相関によるパターンマッチング等を用いるようにしても良い。また、本例では、各エッジ認識にMSパターンマッチングのテンプレートを構成するシークラインCLを用いているが、これ以外にエッジ検出用のキャリパスライン(シークラインCLを変形したもの)などを適用しても良い。   In this example, the breakage of the cutting tool and the adhesion of chips and the like are detected based on the difference value on the seek line CL described above. In this example, so-called multi-step pattern matching (hereinafter referred to as “MS”) pattern matching technique is applied to subject position recognition, but other than this, pattern matching based on normalized correlation is used. May be. In this example, the seek line CL that constitutes the MS pattern matching template is used for each edge recognition. However, in addition to this, a caliper line for edge detection (a modification of the seek line CL) is applied. Also good.

(切削線データの取得方法)
図18乃至図20に基づき、切削線データの取得方法について説明する。図18に示すように、X方向切削線に係るシークライン(切削線を求める手段)CLは、例えば10μmの等間隔をもって複数が生成する。X方向切削線は、シークラインCL群の中でエッジ位置が最下端のものを演算し、その最下端エッジ位置から水平方向へ描いた直線である。即ち、X方向切削線は、チップ26Aの輪郭に対する水平接線である。
(Acquisition method of cutting line data)
Based on FIG. 18 thru | or FIG. 20, the acquisition method of cutting line data is demonstrated. As shown in FIG. 18, a plurality of seek lines (means for obtaining a cutting line) CL related to the X-direction cutting line are generated at equal intervals of, for example, 10 μm. The X-direction cutting line is a straight line drawn in the horizontal direction from the lowest edge position of the seek line CL group having the lowest edge position. That is, the X direction cutting line is a horizontal tangent to the outline of the tip 26A.

図19に示すように、Z方向切削線に係るシークラインCLも、上述したX方向切削線の場合と同様に生成する。即ち、Z方向切削線は、チップ26Aの輪郭に対する垂直接線である。そして、X方向切削線およびZ方向切削線の位置を、オリジナルテンプレートに対する差分量として、図15に示すRAM64にそれぞれ記録する。   As shown in FIG. 19, the seek line CL related to the Z-direction cutting line is also generated in the same manner as the X-direction cutting line described above. That is, the Z-direction cutting line is a perpendicular tangent to the outline of the tip 26A. Then, the positions of the X-direction cutting line and the Z-direction cutting line are recorded in the RAM 64 shown in FIG. 15 as difference amounts with respect to the original template.

図20に示すように、水平に対して30度方向の切削線を生成することができる。即ち、テーパ面をワークに切削するには、バイトの移動軌跡を演算するために、特定角度たとえば30度などの切削線を生成する。これにより、テーパ面を精度よく加工し得る。なお、本例では、X方向切削線およびZ方向切削線とバイトのノーズより、幾何学的にバイトの軌跡を設定しても良い。   As shown in FIG. 20, a cutting line in the direction of 30 degrees with respect to the horizontal can be generated. That is, in order to cut the tapered surface into the workpiece, a cutting line having a specific angle, for example, 30 degrees, is generated in order to calculate the movement trajectory of the cutting tool. Thereby, a taper surface can be processed accurately. In this example, the locus of the cutting tool may be set geometrically from the X-direction cutting line, the Z-direction cutting line, and the cutting tool nose.

ここで、切削線の位置(ベクトル)は相対ベクトルおよび絶対ベクトルの意義があり、絶対ベクトルは刃具の磨耗と機械全体の熱歪の合計である。そして、絶対ベクトルをNCテーブル50(図15参照)で補償し、刃具の磨耗と機械の熱変位をフィードバック補償する。即ち、NCテーブル50の補正データは、切削線の絶対位置に基づいて処理する。   Here, the position (vector) of the cutting line has a significance of a relative vector and an absolute vector, and the absolute vector is the sum of the wear of the cutting tool and the thermal strain of the entire machine. Then, the absolute vector is compensated by the NC table 50 (see FIG. 15), and the blade wear and the mechanical thermal displacement are feedback compensated. That is, the correction data of the NC table 50 is processed based on the absolute position of the cutting line.

一方、切削線の相対ベクトルは、オリジナルテンプレートでパターンマッチングした位置に対する切削線の位置に基づき、刃具の磨耗量限界値の演算(内側への移動)および切粉の付着と構成刃先の検出(外側への移動)の処理に用いる。なお、図15に示すCPU60は、刃具の磨耗量=切削線/刃具全体位置(切削線の相対位置)で演算する。   On the other hand, the relative vector of the cutting line is based on the position of the cutting line relative to the pattern-matched position in the original template, and the calculation of the wear amount limit value of the cutting tool (inward movement) and the attachment of chips and the detection of the constituent cutting edges (outside) Used for the processing of (moving to). Note that the CPU 60 shown in FIG. 15 calculates the wear amount of the cutting tool = the cutting line / the entire position of the cutting tool (the relative position of the cutting line).

(キャリブレーションサイクル時の検出処理)
第1に、図21に示すように、刃具の欠損部分を検出する場合は、シークラインCL上の差分がチップ26Aの内側方向へ窪むので、その窪み量および幅が閾値以上か否かをCPU60(図15参照)は判断する。閾値は、例えば窪み量が30μm以上で、且つ幅がシークラインCLが5本(略200μm)以上に亘って連続する場合などである。この閾値は任意に変更でき、また窪み量および幅の一方のみが該当する場合にも欠損としても良い。
(Detection process during calibration cycle)
First, as shown in FIG. 21, when detecting a missing part of the cutting tool, the difference on the seek line CL is recessed toward the inner side of the tip 26A. The CPU 60 (see FIG. 15) makes a determination. The threshold value is, for example, a case where the depression amount is 30 μm or more and the width is continuous over five (approximately 200 μm) seek lines CL. This threshold value can be arbitrarily changed, and also when only one of the depression amount and the width corresponds, it may be a defect.

本例においては、オリジナルテンプレートのシークラインCL群(図17参照)およびキャリブレーションサイクル時の画像データを照合し、シークラインCLの相対位置の変化箇所(相違箇所と同義)を検出し得る。即ち、本例によれば、オリジナルテンプレート(図17参照)でパターンマッチングするのみで、チップ26Aの欠損を検出し得る。   In this example, the seek line CL group (see FIG. 17) of the original template and the image data at the time of the calibration cycle are collated, and a change location (synonymous with a different location) of the seek line CL can be detected. That is, according to this example, it is possible to detect a chip 26A defect only by pattern matching with the original template (see FIG. 17).

第2に、図22に示すように、刃具に突起を検出する場合は、シークラインCL上の差分がチップ26Aの外側方向へ突出するので、その突出量および幅が閾値以上か否かをCPU60は判断する。閾値は、例えば突出量が20μm以上で、且つ幅がシークラインCLが3本(略120μm)以上に亘って連続する場合などである。本例によれば、図21の例と同様に、オリジナルテンプレート(図17参照)でパターンマッチングするのみで、チップ26Aの欠損を検出し得る。   Second, as shown in FIG. 22, when detecting a protrusion on the cutting tool, the difference on the seek line CL protrudes toward the outside of the chip 26A. Therefore, the CPU 60 determines whether the protrusion amount and the width are equal to or greater than a threshold value. Judge. The threshold value is, for example, when the protrusion amount is 20 μm or more and the width is continuous over three seek lines CL (approximately 120 μm) or more. According to this example, as in the example of FIG. 21, it is possible to detect a chip 26A defect only by pattern matching with the original template (see FIG. 17).

第3に、刃具の磨耗量が閾値以上か否かを検出する場合は、オリジナルテンプレートに対する切削線の相対位置の変化を検出する。即ち、CPU60は、オリジナルテンプレート(図17参照)にキャリブレーションサイクル時の画像データをパターンマッチングした画像データ(図23参照)と比較し、切削線の相対位置における磨耗箇所が閾値(例えば、20μm)以上である(図24参照)場合に、刃具の磨耗量オーバー(刃具の寿命)と判断する。本例においては、オリジナルテンプレートのシークラインCL群(図17参照)および切削線を用いることより、刃具の磨耗量オーバーを検出し得る。   Third, when detecting whether or not the amount of wear of the cutting tool is greater than or equal to a threshold value, a change in the relative position of the cutting line with respect to the original template is detected. That is, the CPU 60 compares the image data at the time of the calibration cycle with the original template (see FIG. 17) and the image data (see FIG. 23), and the wear position at the relative position of the cutting line is a threshold value (for example, 20 μm). In the case of the above (see FIG. 24), it is determined that the amount of wear of the blade is excessive (the life of the blade). In this example, by using the seek line CL group (see FIG. 17) of the original template and the cutting line, it is possible to detect the excessive wear amount of the cutting tool.

第4に、図25及び図26に示すように、刃具の突起(構成刃先または切粉の付着)を検出する場合も、オリジナルテンプレートに対する切削線の相対位置の変化を検出する。即ち、切削線の相対位置変化がチップ26Aの外側方向へ突出する場合は、その設定値(例えば、5μm)以上か否かをCPU60が判断する。設定値以上の場合は、切粉等の異物がチップに付着または刃具の異常変形の発生と判断する。   Fourth, as shown in FIGS. 25 and 26, when detecting the protrusion of the cutting tool (adhesion of the constituent cutting edge or chips), a change in the relative position of the cutting line with respect to the original template is also detected. That is, when the change in the relative position of the cutting line protrudes toward the outside of the chip 26A, the CPU 60 determines whether or not the set value (for example, 5 μm) or more. If it is greater than or equal to the set value, it is determined that foreign matter such as chips adheres to the chip or abnormal deformation of the cutting tool occurs.

この工程は、初期設定時の切削線の相対位置に対する変化のみならず、キャリブレーションサイクル時の現検出時における切削線位置に対する変化をも検出する。この検出は、磨耗によりチップ26Aが内側へ後退した状態の切削線を基準とするためである。   This process detects not only the change with respect to the relative position of the cutting line at the initial setting but also the change with respect to the cutting line position at the time of the current detection during the calibration cycle. This detection is based on the cutting line with the tip 26A retracted inward due to wear.

また、キャリブレーションサイクル時の現検出時における切削線位置に対する相対的変化量が、上述した設定値(バイトデータと同義)以上で且つ突出量および幅が閾値以上か否かをCPU60は判断する。閾値は、例えば最大突出量が50μ以上で、幅tが200μ以上に亘って連続する場合(図25参照)などである。この場合、「構成刃先の疑いアリ」とCPU60が判断する。   Further, the CPU 60 determines whether or not the relative change amount with respect to the cutting line position at the time of the current detection during the calibration cycle is equal to or greater than the above-described set value (synonymous with byte data) and the protrusion amount and the width are equal to or greater than a threshold value. The threshold value is, for example, when the maximum protrusion amount is 50 μm or more and the width t is continuous over 200 μm or more (see FIG. 25). In this case, the CPU 60 determines that “the suspicious ant of the component edge”.

CPU60は、幅tをもって構成刃先の突出量と検出する。即ち、構成刃先が生成した場合は、刃具より突出した部分がある幅tをもって連続した形状となる。そして、上述した構成刃先でない場合、CPU60は切粉等の異物がチップに付着する(図26参照)と判断する。即ち、本例によれば、オリジナルテンプレートのシークラインCL群(図17参照)および切削線を用いることより、刃具の突起(構成刃先または切粉の付着)を検出し得る。   The CPU 60 detects the protruding amount of the constituent blade edge with the width t. That is, when the constituent cutting edge is generated, a continuous shape having a width t with a portion protruding from the cutting tool is obtained. And when it is not the structure cutting edge mentioned above, CPU60 judges that foreign materials, such as a chip, adhere to a chip | tip (refer FIG. 26). That is, according to the present example, the projection of the cutting tool (adhesion of the constituent cutting edge or chips) can be detected by using the seek line CL group (see FIG. 17) and the cutting line of the original template.

(シークラインCLの設定方法)
シークラインCLは、図27に示すように、求める切削線(図27ではZ方向切削線)に対し直角方向で、チップ26Aの内側から外側へ向かいように生成する。そして、シークラインCLは、中央から上端および下端の方向(図27参照)へ向かって例えば10μピッチの等間隔で生成する。
(Setting method of seek line CL)
As shown in FIG. 27, the seek line CL is generated in a direction perpendicular to the desired cutting line (Z-direction cutting line in FIG. 27) from the inside to the outside of the chip 26A. The seek lines CL are generated at equal intervals of, for example, 10 μm from the center toward the upper end and the lower end (see FIG. 27).

また、シークラインCLの始点位置が、オリジナルテンプレートの輪郭線より突出する場合(図27では最下端から3本目および4本目参照)は、その突出量を例えば20μm程度に設定する。更に、シークラインCL全体が、オリジナルテンプレートより離間する場合(図27では最下端の2本参照)は、シークラインCLを2本以内になるように生成する。そして、これら2本のシークラインCLは、始点位置を例えば最下端から3本目の同一位置とし、且つ同一長さに設定する。   Further, when the start point position of the seek line CL protrudes from the contour line of the original template (see the third and fourth lines from the lowest end in FIG. 27), the protrusion amount is set to about 20 μm, for example. Further, when the entire seek line CL is separated from the original template (see the two bottom lines in FIG. 27), the seek line CL is generated so as to be within two. These two seek lines CL are set to have the same starting point position, for example, the third position from the lowermost end and the same length.

本例においては、上述のようなシークラインCL群を生成すると、切削に何ら影響を与えない範囲を設定するので、シークラインCLの始点位置から離間している異物は検出対象外し得る。即ち、本例によれば、上記シークラインCL群で切削に影響を与える検出範囲が設定しているので、切削上問題となり得る検出対象物を特定できる。なお、図27に示す異物は、空中に浮遊している浮遊物である。   In this example, when the seek line CL group as described above is generated, a range that does not affect the cutting is set, so that the foreign matter separated from the start point position of the seek line CL can be excluded from detection. That is, according to this example, since the detection range that affects cutting is set in the seek line CL group, it is possible to specify a detection target that may cause a problem in cutting. Note that the foreign matter shown in FIG. 27 is a floating substance floating in the air.

(非検出対象範囲の例)
先ず、図28に示すように、切粉A,刃具の異常突起および切粉Bは、いずれもZ方向切削線よりも内側に位置するので、非検出対象物とする。即ち、上記切削線の内側に位置する異物などは、切削に影響しない範囲であるので、非検出対象物とする。なお、CPU(図15参照)は、シークラインCLのエッジ位置により、チップ26Aの外形を検出(認識)する。また、シークラインCL1(図28参照)のように、エッジ部分が無い(無効)シークラインCLは、検出の対象外とする。
(Example of non-detection target range)
First, as shown in FIG. 28, the chips A, the abnormal projections of the cutting tool, and the chips B are all located on the inner side of the cutting line in the Z direction, and thus are not detected objects. That is, foreign matter and the like located inside the cutting line are in a range that does not affect cutting, and thus are not detected. The CPU (see FIG. 15) detects (recognizes) the outer shape of the chip 26A based on the edge position of the seek line CL. Further, like the seek line CL1 (see FIG. 28), the seek line CL having no edge portion (invalid) is excluded from detection.

異物Aは、シークラインCL2における最初のエッジ部分が切削線付近であり、最後のエッジ部分が外側(右側)位置しているので、シークラインCL2は検出の対象外とする。即ち、チップの外形は単体であるので、これより離間している異物などは非検出対象物となる。異物B,CおよびDは、シークラインCLから外れている(即ち、エッジ部分が無い)ので、非検出対象物とする。   Since the first edge portion of the foreign matter A is near the cutting line and the last edge portion is located outside (right side), the seek line CL2 is excluded from detection. In other words, since the outer shape of the chip is a single body, foreign objects and the like that are separated from each other become non-detection objects. The foreign objects B, C, and D are out of the seek line CL (that is, there is no edge portion), and thus are not detected objects.

一方、チップ26Aの仮想線として示す基準線から先端部分(基準部分という)は、切削に影響を与える。この基準部分に切粉等が付着する場合、CPU60(図15参照)は検出対象物とする。なお、本例では、シークラインCL群の中央(図28参照)から上端および下端へと処理する。そして、例えば無効シークラインより下方にシークラインが存在する場合には、そのシークラインは検出の対象外とする。   On the other hand, a tip portion (referred to as a reference portion) from the reference line shown as a virtual line of the chip 26A affects cutting. When chips or the like adhere to the reference portion, the CPU 60 (see FIG. 15) is a detection target. In this example, processing is performed from the center (see FIG. 28) of the seek line CL group to the upper end and the lower end. For example, when a seek line exists below the invalid seek line, the seek line is excluded from detection.

次に、図29に示すような長尺な切粉の一端がチップ26Aに付着する場合、シークラインCL12の最終エッジが不明となっているので、CPU60は検出対象物とする。この場合、長尺な切粉の他端は、チップ26Aの基準部分に影響を与えないが、あえて検出対象物とした。なお、CPU60が検出対象物と判断すると、CPU60は異常であるとして、図16のステップ172で運転停止などの処理を行う。   Next, when one end of a long chip as shown in FIG. 29 adheres to the chip 26A, the final edge of the seek line CL12 is unknown, so the CPU 60 sets it as a detection target. In this case, the other end of the long swarf does not affect the reference portion of the chip 26A, but is deliberately set as a detection target. If the CPU 60 determines that the object is a detection target, the CPU 60 determines that it is abnormal, and performs processing such as operation stop in step 172 of FIG.

最後に、CPU60は、切削線(X方向およびZ方向の切削線を含む)の絶対位置(絶対ベクトルと同義)を演算する。即ち、CPU60は、切削線の絶対ベクトルの変化(変化量を含む)を、次回の切削サイクルへフィードバックする。   Finally, the CPU 60 calculates an absolute position (synonymous with an absolute vector) of a cutting line (including cutting lines in the X direction and the Z direction). That is, the CPU 60 feeds back the change (including the change amount) of the absolute vector of the cutting line to the next cutting cycle.

(チップ26Aの絶対ベクトル検出方法)
チップ26Aの絶対ベクトル検出は、以下のような画像データを用いることによって行う。この画像データは、例えば総合検出エリアと刃先検出エリアで構成される。図30に示すように、総合検出エリア(実線部分の四角枠参照)は、チップ26Aを示す撮像領域であり、チップ26Aを全体的に検出するときに用いる。刃先検出エリア(2点鎖線の四角枠参照)は、チップ26Aの先端を検出するときに用いる。
(Absolute vector detection method of chip 26A)
The absolute vector detection of the chip 26A is performed by using the following image data. This image data includes, for example, a comprehensive detection area and a blade edge detection area. As shown in FIG. 30, the total detection area (refer to the square frame in the solid line portion) is an imaging region showing the chip 26A and is used when the chip 26A is detected as a whole. The blade edge detection area (refer to a two-dot chain line square frame) is used when detecting the tip of the tip 26A.

そして、上述したように、500万画素のカメラ30(図3参照)では、図31(A)で説明するチップのエッジ等の位置決めの認識精度が±0.25μm(=1/34ピクセル)の精度で画像認識でき、図31(B)〜図31(D)で説明する切削線LcmまたはLbmの認識精度が±0.45μm(=1/19ピクセル)の精度で画像認識できる。なお、上述したように、図31の実線部分枠(四角枠)は、総合検出エリアであり、図31の2点鎖線部分枠(四角枠)は、刃先検出エリアである。   As described above, in the camera 30 of 5 million pixels (see FIG. 3), the recognition accuracy of positioning such as the edge of the chip described in FIG. 31A is ± 0.25 μm (= 1/34 pixel). The image can be recognized with high accuracy, and the image can be recognized with an accuracy of ± 0.45 μm (= 1/19 pixel) as the recognition accuracy of the cutting line Lcm or Lbm described with reference to FIGS. As described above, the solid line partial frame (square frame) in FIG. 31 is a comprehensive detection area, and the two-dot chain line partial frame (square frame) in FIG. 31 is a blade edge detection area.

先ず、図31(A)に示すように、複数のシークラインLaを設定することによりチップ26Aのエッジを求める。使用前後のチップ26Aのエッジを求めてパターンマッチングし、各エッジの位置が閾値以下に異なっている場合はチップ26Aの折損と判断する。一方、各エッジの位置が閾値以上に異なっている場合はチップ26Aに切粉が溶着などした膨張(構成刃先ともいう)と判断する。なお、閾値は例えば20μmなどの幅を設け、その幅は任意に変更し得る。   First, as shown in FIG. 31A, the edge of the chip 26A is obtained by setting a plurality of seek lines La. The edges of the chip 26A before and after use are obtained and pattern matching is performed. If the positions of the edges differ below a threshold value, it is determined that the chip 26A is broken. On the other hand, when the positions of the edges are different from each other by a threshold value or more, it is determined that the chips 26A are inflated (also referred to as a component cutting edge) by welding chips. Note that the threshold value has a width of 20 μm, for example, and the width can be arbitrarily changed.

チップのノーズも、シークラインを用いて求めることができる。即ち、図31(B)に示すように、下方に向かう複数のシークラインLbを所定間隔で設定し、輝度の極大値(暗から明に変化する点)が最下点となるシークラインLbmを求めてX方向切削線とする。同様に、図31(C)に示すように、左方に向かう複数のシークラインLcを所定間隔で設定し、輝度の極大値(暗から明に変化する点)が最左点となるシークラインLcmを求めてZ方向切削線とする。   The tip nose can also be determined using the seek line. That is, as shown in FIG. 31B, a plurality of seek lines Lb directed downward are set at predetermined intervals, and a seek line Lbm having a maximum luminance value (a point changing from dark to bright) is the lowest point. The X direction cutting line is obtained. Similarly, as shown in FIG. 31C, a plurality of seek lines Lc directed to the left are set at predetermined intervals, and a seek line in which the maximum value of luminance (a point changing from dark to bright) is the leftmost point. Lcm is calculated | required and it is set as a Z direction cutting line.

次に、図31(D)に示すように、X方向切削線Lbmと、このX方向切削線Lbmに平行であってZ方向切削線LcmのエッジEcを通る線Lbpとの距離Rzを求める。同様に、Z方向切削線Lcmと、このZ方向切削線Lcmに平行であってX方向切削線LbmのエッジEbを通る線Lcpとの距離Rxを求める。そして、距離Rzと距離Rxのうち、大きい方をノーズに設定する。使用後のチップ26Aのノーズが使用前のチップ26Aのノーズよりも設定値以上になっている場合はチップ26Aの摩耗と判断する。   Next, as shown in FIG. 31D, a distance Rz between the X direction cutting line Lbm and a line Lbp parallel to the X direction cutting line Lbm and passing through the edge Ec of the Z direction cutting line Lcm is obtained. Similarly, a distance Rx between the Z direction cutting line Lcm and a line Lcp parallel to the Z direction cutting line Lcm and passing through the edge Eb of the X direction cutting line Lbm is obtained. The larger of the distance Rz and the distance Rx is set as the nose. If the nose of the tip 26A after use is greater than the set value than the nose of the tip 26A before use, it is determined that the tip 26A is worn.

以上、説明した画像認識処理方法は、オリジナルテンプレートのシークライン群およびキャリブレーションサイクル時の画像データを照合し、シークラインの相対位置の変化箇所を検出するものである。また、画像認識処理方法は、刃具の磨耗量が閾値以上か否かを検出する場合、オリジナルテンプレートに対する切削線の相対位置の変化を検出するものである。更に、画像認識処理方法は、刃具の突起(構成刃先または切粉の付着)を検出する場合も、オリジナルテンプレートに対する切削線の相対位置の変化を検出するものである。   In the above-described image recognition processing method, the seek line group of the original template and the image data at the time of the calibration cycle are collated, and the change portion of the relative position of the seek line is detected. The image recognition processing method detects a change in the relative position of the cutting line with respect to the original template when detecting whether or not the wear amount of the cutting tool is equal to or greater than a threshold value. Further, the image recognition processing method detects a change in the relative position of the cutting line with respect to the original template even when detecting the protrusion of the cutting tool (adhesion of the constituent cutting edge or chip).

画像認識処理方法は、初期設定時の切削線の相対位置に対する変化を検出すると共に、キャリブレーションサイクル時の現検出時における切削線位置に対する変化をも検出するものである。また、画像認識処理方法は、キャリブレーションサイクル時の現検出時における切削線位置に対する相対的変化量が、設定値または閾値であるかを照合手段が演算するものである。   The image recognition processing method detects a change with respect to the relative position of the cutting line at the initial setting, and also detects a change with respect to the cutting line position at the time of the current detection at the calibration cycle. In the image recognition processing method, the collating unit calculates whether the relative change amount with respect to the cutting line position at the time of the current detection in the calibration cycle is a set value or a threshold value.

画像認識処理方法を用いる工作機械は、上述した各処理またはこれらの処理を複数組合せる処理を行う画像認識処理装置と、被写体を撮像する撮像手段と、上記撮像装置は被写体として切削工具を撮像し、この画像データに基づきオリジナルテンプレートおよびキャリブレーションサイクル時の画像データを照合する照合手段と、上記照合手段の照合結果に基づき運転停止または照合データを次回の切削サイクルへフィードバックさせる制御手段とを備えるものである。   A machine tool that uses the image recognition processing method includes an image recognition processing device that performs the above-described processes or a process that combines a plurality of these processes, an imaging unit that images a subject, and the imaging device images a cutting tool as the subject. A collating unit that collates the original template and the image data at the calibration cycle based on the image data, and a control unit that feeds back the operation stop or the collating data to the next cutting cycle based on the collation result of the collating unit. It is.

なお、本発明は実施例1及び実施例2で説明した短軸旋盤に限定されず、例えば2軸正面旋盤またはフライス盤など種々の切削機械(切削工具とワークを相対的に移動させて加工する機械)に適用できる。   The present invention is not limited to the short-axis lathe described in the first and second embodiments. For example, various cutting machines such as a two-axis face lathe or a milling machine (machines that move a cutting tool and a workpiece relatively to perform machining). ).

12…チャック(被測定物)、18…位置検出装置(基準手段)、18B…基準部(被写体)、25…内径加工用のバイト(被写体)、25A…刃先、26…外径加工用のバイト(被写体)、26A…刃先、27…撮像装置(撮像手段)、30…カメラ、60…CPU(照合手段,演算手段,補正手段,画像認識処理装置)、62…ROM(記録手段)、64…RAM(記録手段)、66…フランジ(補助体)、68,69…光センサ(位置検出手段)、70…温度センサ、90…テスト材、S…旋盤(切削機械)、W…ワーク   DESCRIPTION OF SYMBOLS 12 ... Chuck (measuring object), 18 ... Position detection device (reference means), 18B ... Reference part (subject), 25 ... Inner diameter cutting tool (subject), 25A ... Cutting edge, 26 ... Outer diameter processing bit (Subject), 26A ... blade edge, 27 ... imaging device (imaging means), 30 ... camera, 60 ... CPU (collation means, calculation means, correction means, image recognition processing device), 62 ... ROM (recording means), 64 ... RAM (recording means), 66 ... flange (auxiliary body), 68, 69 ... optical sensor (position detecting means), 70 ... temperature sensor, 90 ... test material, S ... lathe (cutting machine), W ... work

Claims (8)

回転可能に配置される被測定物の熱変位により変位した位置を検出する検出手段を備え、上記検出手段は静止時および回転時の少なくとも一方における上記被測定物と対向して位置を検出することを特徴とする被測定物位置検出装置。   A detecting means for detecting a position displaced due to a thermal displacement of an object to be rotatably arranged is provided, and the detecting means detects a position facing the object to be measured in at least one of a stationary state and a rotating state. A device for detecting the position of an object to be measured. 請求項1に記載の被測定物位置検出装置において、上記被測定物を構成する金属と同一性ある材質の補助体を、上記被測定物に連接して配置させ、上記検出手段で上記補助体の熱変位により変位した位置を検出することを特徴とする被測定物位置検出装置。   2. The object position detecting device according to claim 1, wherein an auxiliary body made of the same material as the metal constituting the object to be measured is arranged to be connected to the object to be measured, and the auxiliary means is used by the detecting means. An object position detecting device for detecting a position displaced due to thermal displacement of the object. 請求項1又は2に記載の被測定物位置検出装置において、上記検出手段を上記被測定物に対して移動させることを特徴とする被測定物位置検出装置。   3. The device position detection apparatus according to claim 1, wherein the detection means is moved with respect to the device to be measured. 請求項1乃至3のいずれか1項に記載の被測定物位置検出装置において、上記検出手段は上記被測定物におけるX方向の位置を検出するX方向センサおよびZ方向の位置を検出するZ方向センサの少なくとも一方とし、上記センサを基準手段に配置することを特徴とする被測定物位置検出装置。   4. The device position detection apparatus according to claim 1, wherein the detection unit includes an X direction sensor that detects a position in the X direction of the device to be measured, and a Z direction that detects a position in the Z direction. 5. A device for detecting a position of an object to be measured, wherein at least one of the sensors is used, and the sensor is disposed on a reference means. 請求項1乃至4のいずれか1項に記載の被測定物位置検出装置において、上記被測定物の温度を検出する温度センサをさらに設けることを特徴とする被測定物位置検出装置。   5. The device position detection device according to claim 1, further comprising a temperature sensor that detects a temperature of the device to be measured. 6. 請求項1乃至5のいずれかに記載の被測定物位置検出装置による検出データに基づき、切削工具の切削位置を演算することを特徴とする被測定物位置検出装置を備える切削機械。   A cutting machine provided with a measured object position detecting device, wherein a cutting position of a cutting tool is calculated based on detection data by the measured object position detecting device according to any one of claims 1 to 5. 請求項1乃至5のいずれかに記載の被測定物位置検出装置と、被写体を撮像する撮像手段と、請求項4記載の基準手段に上記撮像手段の位置誤差を測定する基準部とを備え、
上記撮像手段は上記基準部及び上記切削工具を被写体として同一の撮像領域内に撮像し、この撮像した画像データに基づき切削工具の切削位置を演算することを特徴とする被測定物位置検出装置を備える切削機械。
A measurement object position detecting device according to any one of claims 1 to 5, an imaging means for imaging a subject, and a reference unit for measuring a position error of the imaging means in the reference means according to claim 4,
An object position detecting apparatus, wherein the imaging means images the reference portion and the cutting tool in the same imaging area as a subject, and calculates a cutting position of the cutting tool based on the captured image data. Cutting machine equipped.
請求項1乃至5のいずれかに記載の被測定物位置検出装置と、異なる撮像位置での被写体にそれぞれ対応する光路を分離する光路分離手段および上記光路分離手段における同一の光路上に配置される撮像素子を備え、上記光路分離手段は一方の撮像位置での上記被写体を撮像する際には他方の撮像位置での光路を遮断させる撮像装置と、請求項4記載の基準手段に上記撮像手段の位置誤差を測定する基準部とを備え、
上記撮像装置は、上記一方の光路における一方の撮像位置での上記基準部及び上記一方の撮像位置での切削工具を被写体として同一の撮像領域内に撮像し、或いは上記一方の光路における上記一方の撮像位置での上記基準部を被写体として撮像すると共に上記他方の光路における他方の撮像位置での切削工具を光路切換えの時間差をもって撮像し、この撮像した画像データに基づき切削工具の切削位置を演算することを特徴とする被測定物位置検出装置を備える切削機械。
6. The device position detecting device according to claim 1, the optical path separating means for separating optical paths corresponding to subjects at different imaging positions, and the same optical path in the optical path separating means. 5. An imaging device comprising: an imaging device, wherein the optical path separation means intercepts the optical path at the other imaging position when imaging the subject at one imaging position; and the reference means according to claim 4, A reference unit for measuring the position error,
The imaging apparatus images the reference unit at one imaging position in the one optical path and the cutting tool at the one imaging position as a subject in the same imaging area, or the one in the one optical path. The reference portion at the imaging position is imaged as a subject, and the cutting tool at the other imaging position in the other optical path is imaged with a time difference of optical path switching, and the cutting position of the cutting tool is calculated based on the captured image data. A cutting machine provided with an object position detecting device.
JP2009111973A 2009-05-01 2009-05-01 DUT position detecting device and cutting machine equipped with the DUT position detecting device Active JP5452974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009111973A JP5452974B2 (en) 2009-05-01 2009-05-01 DUT position detecting device and cutting machine equipped with the DUT position detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009111973A JP5452974B2 (en) 2009-05-01 2009-05-01 DUT position detecting device and cutting machine equipped with the DUT position detecting device

Publications (2)

Publication Number Publication Date
JP2010261774A true JP2010261774A (en) 2010-11-18
JP5452974B2 JP5452974B2 (en) 2014-03-26

Family

ID=43359976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009111973A Active JP5452974B2 (en) 2009-05-01 2009-05-01 DUT position detecting device and cutting machine equipped with the DUT position detecting device

Country Status (1)

Country Link
JP (1) JP5452974B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7014918B1 (en) 2021-02-01 2022-02-01 Dmg森精機株式会社 Machine Tools
JP7282362B2 (en) 2019-04-22 2023-05-29 中村留精密工業株式会社 Automatic geometry measuring device and machine tool equipped with the same

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0523952A (en) * 1991-07-12 1993-02-02 Okuma Mach Works Ltd Machining accuracy maintaining method by means of relative position reference
JPH05138504A (en) * 1991-11-15 1993-06-01 Hitachi Ltd Processing method and device and vtr head thereof
JPH0567447U (en) * 1992-02-14 1993-09-07 三井精機工業株式会社 Thermal displacement compensator
JPH07186006A (en) * 1993-12-27 1995-07-25 Murata Mach Ltd Tool edge position correction method and device in nc machine tool
JPH07186004A (en) * 1993-12-27 1995-07-25 Nissan Motor Co Ltd Tool position correction method in nc machine tool
JPH09253979A (en) * 1996-03-25 1997-09-30 Okuma Mach Works Ltd Tool edge position measuring device
JPH10286746A (en) * 1997-04-11 1998-10-27 Mori Seiki Co Ltd Tool cutting edge measuring device for nc machine tool
JP2009061565A (en) * 2007-09-07 2009-03-26 Honda Motor Co Ltd Machining method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0523952A (en) * 1991-07-12 1993-02-02 Okuma Mach Works Ltd Machining accuracy maintaining method by means of relative position reference
JPH05138504A (en) * 1991-11-15 1993-06-01 Hitachi Ltd Processing method and device and vtr head thereof
JPH0567447U (en) * 1992-02-14 1993-09-07 三井精機工業株式会社 Thermal displacement compensator
JPH07186006A (en) * 1993-12-27 1995-07-25 Murata Mach Ltd Tool edge position correction method and device in nc machine tool
JPH07186004A (en) * 1993-12-27 1995-07-25 Nissan Motor Co Ltd Tool position correction method in nc machine tool
JPH09253979A (en) * 1996-03-25 1997-09-30 Okuma Mach Works Ltd Tool edge position measuring device
JPH10286746A (en) * 1997-04-11 1998-10-27 Mori Seiki Co Ltd Tool cutting edge measuring device for nc machine tool
JP2009061565A (en) * 2007-09-07 2009-03-26 Honda Motor Co Ltd Machining method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7282362B2 (en) 2019-04-22 2023-05-29 中村留精密工業株式会社 Automatic geometry measuring device and machine tool equipped with the same
JP7014918B1 (en) 2021-02-01 2022-02-01 Dmg森精機株式会社 Machine Tools
JP2022117544A (en) * 2021-02-01 2022-08-12 Dmg森精機株式会社 Machine tool

Also Published As

Publication number Publication date
JP5452974B2 (en) 2014-03-26

Similar Documents

Publication Publication Date Title
US8885038B2 (en) Measuring apparatus and measuring method thereof, apparatus for correcting processing position of cutting machine and method thereof for correcting processing position, and imaging apparatus and cutting machine comprising the same
US10787776B2 (en) Method for determining the wear state
US20050051523A1 (en) Laser machine tool with image sensor for registration of workhead guidance system
US20120072170A1 (en) Vision measurement probe and method of operation
JP7414848B2 (en) Machining module and machine tool equipped with tool outline detection unit, and tool outline detection method
JP5351552B2 (en) Measuring device and measuring method thereof, machining position correcting device of cutting machine, and machining position correcting method thereof
JP2005334922A (en) Nozzle checking device in laser beam machine
EP2203273A1 (en) Rotating part position and change finding method and apparatus
JP2010064203A (en) Processing device and method of correcting distance between processing tool and workpiece
JP5453020B2 (en) Cutting tool machining position correction apparatus and machining position correction method therefor
CN112839765B (en) Method and processing machine for determining a characteristic variable of a processing operation
US20150220077A1 (en) Method and device for measuring a tool received in a workpiece processing machine
JP2016040531A (en) Working tool measuring method and measuring device
JP5536486B2 (en) Cutting machine and processing method thereof
JP5337330B2 (en) Cutting machine and machining position correction method thereof
JP6120710B2 (en) Cutting equipment
JP5383624B2 (en) Imaging tool measuring apparatus and measuring method
JP5452974B2 (en) DUT position detecting device and cutting machine equipped with the DUT position detecting device
WO2016054266A1 (en) Wafer edge inspection with trajectory following edge profile
US20110075136A1 (en) Foreign matter inspection apparatus and foreign matter inspection method
US6683731B2 (en) Bonding apparatus
JP2003211350A (en) Dicing device and cutter set method
JP5366124B2 (en) Cutting tool inspection system
CN116504660A (en) End face measuring device and end face measuring method
KR101123629B1 (en) Device for Roll Pattern

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R150 Certificate of patent or registration of utility model

Ref document number: 5452974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250