JP2022143752A - Cutting work monitoring system - Google Patents

Cutting work monitoring system Download PDF

Info

Publication number
JP2022143752A
JP2022143752A JP2021044437A JP2021044437A JP2022143752A JP 2022143752 A JP2022143752 A JP 2022143752A JP 2021044437 A JP2021044437 A JP 2021044437A JP 2021044437 A JP2021044437 A JP 2021044437A JP 2022143752 A JP2022143752 A JP 2022143752A
Authority
JP
Japan
Prior art keywords
tool
cutting edge
cutting
pattern
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021044437A
Other languages
Japanese (ja)
Inventor
拓矢 久保
Takuya Kubo
涼太 ▲高▼部
Ryota TAKABE
康晴 今井
Yasuharu Imai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Materials Corp
Original Assignee
Mitsubishi Materials Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Materials Corp filed Critical Mitsubishi Materials Corp
Priority to JP2021044437A priority Critical patent/JP2022143752A/en
Publication of JP2022143752A publication Critical patent/JP2022143752A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Tool Sensing Apparatuses (AREA)

Abstract

To provide a cutting work monitoring system which can highly accurately analyze the state of at least one of a tool blade tip during cutting and a processing surface of a cutting object material in real time.SOLUTION: A cutting work monitoring system comprises: a camera 23 which is positioned with respect to a lathe tool 21 such that a tool blade tip in an imaging visual field becomes the same position and consecutively images the tool blade tip; a classification unit 33 which classifies the plurality of images captured by the camera 23 into any of a plurality of patterns on the basis of information reflected in each image; and an analysis unit 34 which analyzes the state of at least one of the tool blade tip and the processing surface of a cutting object material W from the image classified into the prescribed pattern among the plurality of patterns.SELECTED DRAWING: Figure 2

Description

本発明は、例えば、切削加工におけるトラブルを防止するために用いられる切削加工監視システムに関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a cutting monitoring system used, for example, to prevent troubles in cutting.

旋盤加工では一般に、工具刃先の摩耗や欠損などの発生をいち早く察知し、工具を交換するなどの対応が必要となる。このため従来、工具刃先をカメラで撮影し、その画像から刃先の状態を調べる方法が知られている。例えば、特許文献1では、切削前後の待機状態にて工具刃先をカメラで撮影し、二値画像から摩耗量を判定している。また、特許文献2では、切削中の工具刃先を赤外線カメラでとらえ、それをニューラルネットワークで学習することで異常判定を行っている。 In lathe machining, it is generally necessary to quickly detect the occurrence of wear or chipping of the cutting edge of a tool, and to take measures such as replacing the tool. For this reason, conventionally, there has been known a method of photographing the cutting edge of a tool with a camera and examining the state of the cutting edge from the image. For example, in Patent Document 1, the cutting edge of a tool is photographed with a camera in a standby state before and after cutting, and the amount of wear is determined from a binary image. Further, in Patent Document 2, an infrared camera captures the cutting edge of a tool during cutting, and a neural network learns from it to determine abnormality.

特開平6-114694号公報JP-A-6-114694 特開平11-267949号公報JP-A-11-267949

特許文献1の方法では、切削加工時以外の待機状態(静止状態)においてカメラで工具刃先を撮影するため、切削加工中のトラブル発生には即座に対応することができない問題があった。特許文献2の方法では、温度分布からの刃先摩耗量の間接的な類推であるため、摩耗量の定量評価は難しく、また、判定精度を高めるには多くの学習を必要とした。 In the method of Patent Literature 1, since the cutting edge of the tool is photographed with a camera in a standby state (stationary state) other than during cutting, there is a problem that it is not possible to immediately respond to troubles that occur during cutting. In the method of Patent Document 2, since the amount of edge wear is indirectly analogized from the temperature distribution, it is difficult to quantitatively evaluate the amount of wear, and much learning is required to improve the determination accuracy.

本発明は、切削中の工具刃先および被削材の加工面の少なくとも一方の状態をリアルタイムで高精度に解析できる切削加工監視システムを提供することを目的の一つとする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a cutting monitoring system capable of analyzing the state of at least one of the cutting edge of a tool during cutting and the machined surface of a work material in real time with high accuracy.

本発明の切削加工監視システムの一つの態様は、撮像視野内の工具刃先が同一位置となるように旋削工具に対して位置決めされ、前記工具刃先を連続的に撮影するカメラと、前記カメラが撮影した複数の画像を、各前記画像に写った情報に基づいて複数のパターンのいずれかに分類する分類部と、前記複数のパターンのうち所定のパターンに分類された前記画像から、前記工具刃先および被削材の加工面の少なくとも一方の状態を解析する解析部と、を備える。 One aspect of the cutting monitoring system of the present invention is a camera that is positioned with respect to a turning tool so that the cutting edge of the tool is at the same position within an imaging field of view, and that continuously captures the cutting edge of the tool. a classifying unit that classifies a plurality of images into one of a plurality of patterns based on information reflected in each of the images; an analysis unit that analyzes the state of at least one of the machined surfaces of the work material.

本発明では、旋削加工中の工具刃先および被削材の加工面(以下、単に工具刃先等と省略する場合がある)を、カメラにより連続的に、すなわちリアルタイムで撮影する。なお本発明でいう「連続的に撮影する」とは、少なくとも毎秒10コマ以上の画像を撮影することを指す。また、撮像視野内の工具刃先が同一位置となるように旋削工具に対してカメラを位置決め固定するには、例えば、旋削工具を支持する刃物台にアーム等を介してカメラを取り付ければよい。
そして、分類部は、得られた画像情報を例えば記憶部の学習結果と照らし合わせることにより、各画像を複数のパターンのいずれかに分類する。解析部は、分類後の各画像から、工具刃先および被削材の加工面の少なくとも一方の状態を解析する。
In the present invention, the cutting edge of the tool during turning and the machined surface of the workpiece (hereinafter sometimes simply referred to as the cutting edge of the tool, etc.) are photographed continuously, that is, in real time, by a camera. In the present invention, "continuously photographing" means photographing at least 10 frames per second. In addition, in order to position and fix the camera with respect to the turning tool so that the cutting edge of the tool is at the same position within the field of view, for example, the camera may be attached via an arm or the like to a tool rest that supports the turning tool.
Then, the classification unit classifies each image into one of a plurality of patterns by comparing the obtained image information with, for example, the learning result of the storage unit. The analysis unit analyzes the state of at least one of the cutting edge of the tool and the machined surface of the work piece from each of the classified images.

具体的に、カメラで連続的に撮影される画像の中には、工具刃先が切屑で隠れたものや、刃先に溶着が多く付着して摩耗状態が見えないものなども含まれている。そこで、連写される多数の画像の中から、例えば切刃の輪郭(刃先稜線)、すくい面などへの溶着、または、被削材の加工面が見えるものを選別(分類)し、画像処理により切刃の摩耗や欠損の状態を解析したり、溶着の状態を解析したり、加工面の加工状態を解析したりする。上記選別にはディープラーニングを用いることができ、比較的単純な判定のため、少ない学習量で高い判定精度を得ることができる。 Specifically, the images taken continuously by the camera include cases in which the cutting edge of the tool is hidden by chips, and in which the wear state is not visible due to a large amount of adhesion on the cutting edge. Therefore, from among a large number of continuously shot images, for example, the outline of the cutting edge (cutting edge ridgeline), the welding to the rake face, etc., or the images that show the machined surface of the work material are selected (classified) and image processed. Analyze the state of wear and chipping of the cutting edge, the state of welding, and the state of processing of the machined surface. Deep learning can be used for the above sorting, and since the determination is relatively simple, high determination accuracy can be obtained with a small amount of learning.

以上より本発明によれば、切削中の工具刃先および被削材の加工面の少なくとも一方の状態をリアルタイムで高精度に解析できる。すなわちユーザ等が、切削中の工具刃先等の状態をリアルタイムに把握できる。これにより、例えば、異常検知システムや、インプロセス(切削中)の加工寸法精度測定システムとしての実用性が高められる。 As described above, according to the present invention, the state of at least one of the cutting edge of the tool during cutting and the machined surface of the work can be analyzed in real time with high accuracy. In other words, the user or the like can grasp the state of the cutting edge of the tool during cutting in real time. As a result, for example, the practicability as an anomaly detection system or an in-process (during cutting) machining dimensional accuracy measurement system is enhanced.

上記切削加工監視システムにおいて、前記分類部は、所定刃長以上の刃先稜線が写った前記画像を、前記複数のパターンのうち第1のパターンに分類し、前記解析部は、前記第1のパターンに分類された前記画像の前記刃先稜線の形状に基づいて、前記工具刃先の損傷状態を解析することが好ましい。 In the above-described cutting monitoring system, the classification unit classifies the image showing a cutting edge ridgeline having a predetermined cutting length or longer into a first pattern among the plurality of patterns, and the analysis unit classifies the image into the first pattern. It is preferable to analyze the damage state of the cutting edge of the tool based on the shape of the cutting edge ridgeline of the images classified into the following.

この場合、分類部が第1のパターンに分類した画像を解析部が解析することにより、工具刃先の摩耗、欠損などの損傷状態や損傷量を測定できる。具体的には、例えば、cannyフィルタ等の画像処理により刃先稜線(エッジ)を検出し、エッジのピクセル数の変化(増加量)を測定することで、刃先の損傷状態を解析する。 In this case, the analyzing section analyzes the images classified into the first pattern by the classifying section, so that the damage state and amount of damage such as wear and chipping of the cutting edge of the tool can be measured. Specifically, for example, the ridgeline (edge) of the cutting edge is detected by image processing such as a canny filter, and the change (increase) in the number of pixels of the edge is measured to analyze the damaged state of the cutting edge.

上記切削加工監視システムにおいて、前記分類部は、前記工具刃先に溶着が写った前記画像を、前記複数のパターンのうち第2のパターンに分類し、前記解析部は、前記第2のパターンに分類された前記画像の出現頻度の変化に基づいて、前記工具刃先の損傷状態を解析することが好ましい。 In the above-described cutting monitoring system, the classification unit classifies the image showing welding on the cutting edge of the tool into a second pattern among the plurality of patterns, and the analysis unit classifies the image into the second pattern. It is preferable to analyze the damage state of the cutting edge of the tool based on changes in the frequency of appearance of the images obtained.

一般に、工具刃先に損傷が発生すると、この損傷に起因して溶着が生じやすくなる傾向がある。すなわち、切削中には工具刃先への溶着とその剥離(脱落)とがランダムに繰り返されるが、刃先に損傷が発生すると、損傷部分に溶着が強く付着して取れにくくなることが多く、このため画像への溶着の出現頻度が高くなる。つまり、例えばカメラの連写速度(撮影間隔)が一定である場合に、単位時間あたりに第2のパターンに分類される画像数が増加する。
本発明の上記構成によれば、たとえ工具刃先が溶着で隠れて見えない、または見えづらい場合であっても、刃先の損傷を間接的に検知することができる。すなわち、分類部が第2のパターンに分類した画像の出現頻度の変化に基づいて、解析部で工具刃先の損傷状態を推測することができる。
In general, when the cutting edge of a tool is damaged, there is a tendency that welding tends to occur due to this damage. In other words, during cutting, welding to the cutting edge of the tool and its peeling off (falling off) are repeated randomly. The appearance frequency of welding to the image increases. That is, for example, when the continuous shooting speed (shooting interval) of the camera is constant, the number of images classified into the second pattern per unit time increases.
According to the above configuration of the present invention, it is possible to indirectly detect damage to the cutting edge even if the cutting edge of the tool is hidden or difficult to see due to welding. That is, the analysis unit can estimate the damage state of the cutting edge of the tool based on the change in the appearance frequency of the images classified into the second pattern by the classification unit.

上記切削加工監視システムにおいて、前記分類部は、前記被削材の加工面が写った前記画像を、前記複数のパターンのうち第3のパターンに分類し、前記解析部は、前記第3のパターンに分類された前記画像から、前記加工面の加工状態を解析することが好ましい。 In the above-described cutting monitoring system, the classification unit classifies the image showing the machined surface of the work material into a third pattern among the plurality of patterns, and the analysis unit classifies the image into the third pattern. It is preferable to analyze the machining state of the machined surface from the images classified into .

この場合、分類部が第3のパターンに分類した画像を解析部が解析することにより、被削材の加工面の加工寸法精度、加工面品位、バリの発生状態および切屑の排出状態などを判定できる。すなわち、本発明でいう「被削材の加工面の加工状態」とは、被削材の加工面の加工寸法精度、加工面品位、バリの発生状態および切屑の排出状態のうちいずれか1つ以上を指す。
特に、本発明の上記構成では、切削直後の加工面の加工精度や品位をユーザ等がリアルタイムに把握可能であり、例えば加工状態に問題などが生じた場合の対応等が迅速に行える。
In this case, the analysis unit analyzes the images classified into the third pattern by the classification unit to determine the machining dimensional accuracy of the machined surface of the work material, the machined surface quality, the occurrence of burrs, the discharge of chips, and the like. can. That is, the "machined state of the machined surface of the work material" as used in the present invention means any one of machining dimensional accuracy, machined surface quality, burr generation state, and chip discharge state of the machined surface of the work material. Point above.
In particular, with the above-described configuration of the present invention, a user or the like can grasp the machining accuracy and quality of the machined surface immediately after cutting in real time.

上記切削加工監視システムにおいて、前記分類部は、ディープラーニングによる画像分類を実行することが好ましい。 In the cutting monitoring system described above, it is preferable that the classification unit performs image classification by deep learning.

この場合、分類部による分類の判定精度が、ディープラーニング(深層学習)により安定して高められる。 In this case, the accuracy of classification determination by the classifier is stably enhanced by deep learning.

本発明の一つの態様の切削加工監視システムによれば、切削中の工具刃先および被削材の加工面の少なくとも一方の状態をリアルタイムで高精度に解析できる。 According to the cutting monitoring system of one aspect of the present invention, the state of at least one of the cutting edge of the tool during cutting and the machined surface of the work can be analyzed in real time with high accuracy.

図1は、本実施形態の旋削装置の一例を示す側面図である。FIG. 1 is a side view showing an example of a turning apparatus according to this embodiment. 図2は、本実施形態の切削加工監視システムの一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of the cutting monitoring system of this embodiment. 図3は、分類部により第1のパターンに分類される画像の一例を示す。FIG. 3 shows an example of images classified into the first pattern by the classification unit. 図4は、分類部により第2のパターンに分類される画像の一例を示す。FIG. 4 shows an example of images classified into the second pattern by the classification unit. 図5は、分類部により第3のパターンに分類される画像の一例を示す。FIG. 5 shows an example of images classified into the third pattern by the classification unit. 図6は、第1のパターンに分類された画像の解析(画像処理)の一例を示す。FIG. 6 shows an example of analysis (image processing) of images classified into the first pattern. 図7は、第1のパターンに分類された画像の解析(画像処理)の一例を示す。FIG. 7 shows an example of analysis (image processing) of images classified into the first pattern. 図8は、第2のパターンに分類された画像の出現頻度の変化の一例を示す図である。FIG. 8 is a diagram showing an example of changes in appearance frequency of images classified into the second pattern. 図9は、本実施形態の切削加工監視装置の処理の一例を示すフローチャートである。FIG. 9 is a flow chart showing an example of processing of the cutting monitoring device of this embodiment.

本発明の一実施形態の切削加工監視システム10について、図面を参照して説明する。本実施形態の切削加工監視システム10は、旋削装置20と、切削加工監視装置30と、を含む。 A cutting monitoring system 10 according to one embodiment of the present invention will be described with reference to the drawings. The cutting monitoring system 10 of this embodiment includes a turning device 20 and a cutting monitoring device 30 .

図1および図2に示すように、旋削装置20は、NC旋盤等の工作機械である。旋削装置20は、金属製等の被削材Wを旋削加工する装置である。すなわち、切削加工監視システム10は、NC旋盤等の工作機械による旋削加工(旋盤加工)に用いられる。旋削加工とは、バイト等の旋削工具による切削加工を指す。 As shown in FIGS. 1 and 2, the turning device 20 is a machine tool such as an NC lathe. The turning device 20 is a device for turning a work material W such as metal. That is, the cutting monitoring system 10 is used for turning (lathe processing) by a machine tool such as an NC lathe. Turning refers to cutting using a turning tool such as a turning tool.

旋削装置20は、旋削工具21と、刃物台22と、カメラ23と、アーム24と、チャック(図示省略)と、を備える。つまり切削加工監視システム10は、カメラ23を備える。 The turning device 20 includes a turning tool 21, a tool post 22, a camera 23, an arm 24, and a chuck (not shown). That is, the cutting monitoring system 10 includes the camera 23 .

図1に示すように、旋削工具21は、例えば、ホルダ25の先端部に切削インサート26が着脱可能に取り付けられる刃先交換式バイト等である。すなわち、旋削工具21は、ホルダ25と、切削インサート26と、を有する。なおこの構成に限らず、旋削工具21は、例えば、工具刃先がホルダと一体に形成されたソリッドタイプのバイト等であってもよい。 As shown in FIG. 1, the turning tool 21 is, for example, an indexable cutting tool in which a cutting insert 26 is detachably attached to the tip of a holder 25, or the like. That is, the turning tool 21 has a holder 25 and a cutting insert 26 . The turning tool 21 is not limited to this configuration, and may be, for example, a solid type cutting tool in which the cutting edge of the tool is formed integrally with a holder.

ホルダ25は、一方向に延びる柱状である。図1に示す例では、ホルダ25が延びる一方向が、水平面Hに対して角度θで傾斜する。角度θは、例えば30°などである。ホルダ25の後端部は、刃物台22に支持される。旋削工具21と刃物台22とは、一体に固定される。 The holder 25 has a columnar shape extending in one direction. In the example shown in FIG. 1, one direction in which the holder 25 extends is inclined with respect to the horizontal plane H at an angle θ. The angle θ is, for example, 30°. A rear end portion of the holder 25 is supported by the tool post 22 . The turning tool 21 and the tool post 22 are integrally fixed.

切削インサート26は、例えば超硬合金製等である。切削インサート26は、例えば、四角形板状などの多角形板状、または円板状等である。本実施形態では切削インサート26が、例えば菱形板状である。
図3に示すように、切削インサート26は、すくい面26aと、図示されない逃げ面と、すくい面26aと逃げ面との稜線部に配置される切刃26bと、を有する。本実施形態では、切削インサート26の少なくとも一部、具体的には、少なくともすくい面26aおよび切刃26bを含む部分を、単に「工具刃先」または「刃先」と呼ぶ場合がある。
The cutting insert 26 is made of cemented carbide, for example. The cutting insert 26 has, for example, a polygonal plate shape such as a rectangular plate shape, or a disk shape. In this embodiment, the cutting insert 26 has, for example, a rhombic plate shape.
As shown in FIG. 3, the cutting insert 26 has a rake face 26a, a flank face (not shown), and a cutting edge 26b arranged on the ridge between the rake face 26a and the flank face. In this embodiment, at least a portion of the cutting insert 26, specifically the portion including at least the rake face 26a and the cutting edge 26b, may be simply referred to as the "tool cutting edge" or "cutting edge."

すくい面26aは、切削インサート26の板厚方向を向く一対の板面のうち、少なくとも一方の板面に配置される。図1に示すように、すくい面26aは、切削インサート26の上側を向く一方の板面、つまり上面に配置される。図1に示す例では、すくい面26aが、水平面Hに対してホルダ25が傾斜する角度θと略同じ角度で、水平面Hに対して傾斜する。 The rake face 26a is arranged on at least one of a pair of plate faces of the cutting insert 26 facing in the plate thickness direction. As shown in FIG. 1, the rake face 26a is arranged on one plate face facing the upper side of the cutting insert 26, that is, on the upper face. In the example shown in FIG. 1, the rake face 26a is inclined with respect to the horizontal plane H at substantially the same angle as the angle .theta.

図5に示すように、本実施形態のすくい面26aは、特徴点26cを有する。特徴点26cは、すくい面26aに設けられる模様の一部を構成する。特徴点26cは、例えば、切屑Cの排出処理を円滑に行う目的、外観デザイン性を高める目的、および識別性を高める目的などですくい面26aに設けられる。本実施形態では特徴点26cが、例えば、突起状のチップブレーカ等である。 As shown in FIG. 5, the rake face 26a of this embodiment has a feature point 26c. The feature point 26c forms part of the pattern provided on the rake face 26a. The characteristic point 26c is provided on the rake face 26a for the purpose of, for example, smoothly discharging the chips C, improving the appearance design, and improving the distinguishability. In this embodiment, the characteristic point 26c is, for example, a projecting chip breaker or the like.

図1に示すように、切刃26bは、旋削工具21の先端部に配置される。中心軸O回りに回転する被削材Wに対して、切刃26bが接触させられることにより、被削材Wに旋削加工が行われて、図5に示すような加工面Waが形成される。 As shown in FIG. 1, the cutting edge 26b is arranged at the tip of the turning tool 21. As shown in FIG. When the cutting edge 26b is brought into contact with the work W rotating around the central axis O, the work W is turned, and a machined surface Wa as shown in FIG. 5 is formed. .

本実施形態では、図3に示すように切削インサート26の上面すなわちすくい面26aを正面に見て、切刃26bが、略V字状である。具体的に、この切刃26bは、曲線状に延びる1つのコーナ刃と、このコーナ刃の両端に接続されて直線状に延びる一対の直線刃と、を有する。 In this embodiment, as shown in FIG. 3, the cutting edge 26b is substantially V-shaped when the upper surface of the cutting insert 26, that is, the rake surface 26a is viewed from the front. Specifically, this cutting edge 26b has one corner edge extending in a curved shape and a pair of linear edges connected to both ends of this corner edge and extending in a straight line.

図1に示すように、刃物台22は、旋削工具21を支持する。刃物台22は、被削材Wに対して旋削工具21を、少なくとも水平面が拡がる方向、すなわち水平面の面方向に沿って移動させる。なお刃物台22は、被削材Wに対して旋削工具21を、鉛直方向に移動させてもよい。 As shown in FIG. 1, the tool rest 22 supports a turning tool 21 . The tool post 22 moves the turning tool 21 with respect to the workpiece W at least in the direction in which the horizontal plane expands, that is, along the plane direction of the horizontal plane. Note that the tool post 22 may move the turning tool 21 with respect to the work W in the vertical direction.

カメラ23は、旋削工具21および被削材Wの上側に配置される。カメラ23は、例えば、グローバルシャッター方式のカメラである。カメラ23は、工具刃先を連続的に撮影する。なお本実施形態でいう「連続的に撮影する」とは、少なくとも毎秒10コマ以上の画像を撮影することを指す。具体的に本実施形態では、カメラ23が、例えば毎秒30コマ以上の速さで工具刃先を連写する。切削時において、カメラ23は、工具刃先とともに被削材Wの加工面Waも撮影する。 The camera 23 is arranged above the turning tool 21 and the workpiece W. As shown in FIG. The camera 23 is, for example, a global shutter camera. The camera 23 continuously photographs the cutting edge of the tool. In this embodiment, "continuously photographing" means photographing at least 10 frames per second. Specifically, in this embodiment, the camera 23 continuously captures the cutting edge of the tool at a speed of 30 frames or more per second, for example. During cutting, the camera 23 photographs the cutting surface Wa of the workpiece W as well as the cutting edge of the tool.

本実施形態ではカメラ23が、すくい面26aと垂直な方向から、工具刃先を撮影する。具体的に、カメラ23は、鉛直方向に対して所定角度だけ傾斜した方向から、工具刃先を撮影する。この所定角度は、すくい面26aが水平面Hに対して傾斜する角度(角度θに相当)と、略同じ角度である。カメラ23と工具刃先との間の距離は、例えば、300mm以上である。 In this embodiment, the camera 23 photographs the cutting edge of the tool from a direction perpendicular to the rake face 26a. Specifically, the camera 23 captures an image of the cutting edge of the tool from a direction inclined by a predetermined angle with respect to the vertical direction. This predetermined angle is substantially the same as the angle at which the rake face 26a is inclined with respect to the horizontal plane H (corresponding to the angle θ). The distance between the camera 23 and the cutting edge of the tool is, for example, 300 mm or more.

カメラ23は、アーム24を介して刃物台22と固定される。このため、カメラ23は、刃物台22の移動に追随して移動可能である。カメラ23は、例えば図3~図5に示すように、撮像視野内の工具刃先が同一位置となるように旋削工具21に対して位置決めされる。 Camera 23 is fixed to tool post 22 via arm 24 . Therefore, the camera 23 can move along with the movement of the tool post 22 . The camera 23 is positioned with respect to the turning tool 21 so that the cutting edge of the tool within the field of view is at the same position, as shown in FIGS. 3 to 5, for example.

図1に示すように、アーム24は、カメラ23と刃物台22とを連結する。アーム24は、その先端部がカメラ23と接続され、後端部が刃物台22と接続される。アーム24は、少なくとも2つ以上の軸部24aと、隣り合う軸部24aの端部同士を接続する少なくとも1つ以上の関節部24bと、アーム24の後端部と刃物台22とを固定する固定台24cと、を有する。 As shown in FIG. 1, arm 24 connects camera 23 and tool post 22 . The arm 24 has a front end connected to the camera 23 and a rear end connected to the tool post 22 . The arm 24 has at least two or more shaft portions 24a, at least one or more joint portions 24b connecting the ends of the adjacent shaft portions 24a, and the rear end portion of the arm 24 and the tool rest 22. and a fixed base 24c.

軸部24aは、例えばシャフトやパイプ等である。
関節部24bは、図示しないノブ等を操作することにより、軸部24aの端部同士を回動不能に固定するロックモードと、軸部24aの端部同士を回動可能に連結するフリーモードと、に切り替え可能である。関節部24bが設けられることで、アーム24は、変形可能である。アーム24の形状を変化させることにより、カメラ23は、例えば旋削工具21の工具形状や種類等に関わらず、工具刃先と正対するように位置調整可能である。なお切削時において、関節部24bはロックモードとされる。
The shaft portion 24a is, for example, a shaft, a pipe, or the like.
By operating a knob (not shown) or the like, the joint portion 24b has a lock mode in which the ends of the shaft portions 24a are fixed so as not to be rotatable, and a free mode in which the ends of the shaft portions 24a are rotatably connected. , can be switched. The provision of the joint portion 24b allows the arm 24 to be deformed. By changing the shape of the arm 24, the position of the camera 23 can be adjusted so as to directly face the cutting edge of the turning tool 21, regardless of the tool shape or type of the turning tool 21, for example. During cutting, the joint portion 24b is in lock mode.

固定台24cは、例えば磁力等により、アーム24を刃物台22に固定する。このため、アーム24は、刃物台22に対して取り付け位置を調整可能である。すなわち本実施形態では、固定台24cの刃物台22への取り付け位置を調整することによっても、カメラ23を、工具刃先と正対するように位置調整可能である。 The fixed table 24c fixes the arm 24 to the tool rest 22 by, for example, magnetic force. Therefore, the mounting position of the arm 24 can be adjusted with respect to the tool rest 22 . That is, in the present embodiment, the position of the camera 23 can also be adjusted so as to face the cutting edge of the tool by adjusting the attachment position of the fixed table 24c to the tool post 22. FIG.

特に図示しないが、チャックは、被削材Wを着脱可能に保持する。チャックは、被削材Wをその中心軸O回りに回転させる。 Although not shown, the chuck detachably holds the material W to be cut. The chuck rotates the work W around its central axis O. As shown in FIG.

また特に図示しないが、旋削装置20は、切刃26bや加工面Waの輪郭を強調するためのバックライトや、すくい面26aを照らすフロントライトを備えていてもよい。これにより、カメラ23のシャッタースピードをより高めてもよい。 Although not shown, the turning device 20 may include a backlight for emphasizing the contours of the cutting edge 26b and the machining surface Wa, and a front light for illuminating the rake face 26a. Thereby, the shutter speed of the camera 23 may be increased.

図2に示すように、切削加工監視装置30は、画像取得部31と、記憶部32と、分類部33と、解析部34と、表示部35と、を備える。つまり切削加工監視システム10は、分類部33と、解析部34と、を備える。 As shown in FIG. 2 , the cutting monitoring device 30 includes an image acquisition section 31 , a storage section 32 , a classification section 33 , an analysis section 34 and a display section 35 . That is, the cutting monitoring system 10 includes a classification section 33 and an analysis section 34 .

画像取得部31は、カメラ23が撮影した画像つまり画像データを取得する。画像取得部31は、取得した画像情報を記憶部32に記憶させる。なお、切削加工監視装置30は、例えば、取得した画像情報と、工具ID、装置IDおよびユーザID等とを対応付けて、記憶部32に記憶させてもよい。 The image acquisition unit 31 acquires an image captured by the camera 23, that is, image data. The image acquisition unit 31 causes the storage unit 32 to store the acquired image information. Note that the cutting monitoring device 30 may associate the acquired image information with the tool ID, the device ID, the user ID, etc., and store them in the storage unit 32, for example.

記憶部32は、切削加工監視装置30が利用する各種情報を記憶する。記憶部32は、取得した画像情報を記憶する。記憶部32は、例えば、分類部33が画像を分類するために用いるディープラーニングの教師データや学習結果等を記憶する。 The storage unit 32 stores various information used by the cutting monitoring device 30 . The storage unit 32 stores the acquired image information. The storage unit 32 stores, for example, teacher data and learning results of deep learning used by the classification unit 33 to classify images.

分類部33は、例えば、記憶部32に記憶された学習結果に基づいて、ディープラーニングによる画像分類を実行する。すなわち、分類部33は、カメラ23が撮影した複数の画像を、各画像に写った情報に基づいて複数のパターンのいずれかに分類する。本実施形態では、複数のパターンが、第1のパターン(刃先稜線)と、第2のパターン(溶着)と、第3のパターン(被削材の加工面)と、を含む。 The classification unit 33 executes image classification by deep learning, for example, based on the learning results stored in the storage unit 32 . That is, the classification unit 33 classifies a plurality of images captured by the camera 23 into one of a plurality of patterns based on information captured in each image. In this embodiment, the plurality of patterns includes a first pattern (cutting edge ridgeline), a second pattern (welding), and a third pattern (machined surface of the work material).

具体的に、分類部33は、図3に示すように、撮像視野内に切刃26bの所定刃長以上の刃先稜線が写った画像を、複数のパターンのうち第1のパターンに分類する。図3に示す一例では、切刃26bが被削材Wと接触しておらず、撮像視野内において刃先稜線全体が明確に写っている。 Specifically, as shown in FIG. 3, the classification unit 33 classifies an image in which a cutting edge ridge line of a cutting edge 26b having a predetermined cutting edge length or longer is captured in the imaging field into a first pattern among the plurality of patterns. In the example shown in FIG. 3, the cutting edge 26b is not in contact with the workpiece W, and the entire ridgeline of the cutting edge is clearly captured within the imaging field.

また、分類部33は、図4に示すように、工具刃先に溶着TAが写った画像を、複数のパターンのうち第2のパターンに分類する。図4に示す一例では、工具刃先に付着した溶着TAによって、すくい面26aの少なくとも一部と、切刃26bの少なくとも一部とが隠されている。 Further, as shown in FIG. 4, the classification unit 33 classifies the image in which the welding TA appears on the cutting edge of the tool into the second pattern among the plurality of patterns. In the example shown in FIG. 4, at least a portion of the rake face 26a and at least a portion of the cutting edge 26b are hidden by the welding TA attached to the cutting edge of the tool.

また、分類部33は、図5に示すように、被削材Wの加工面Waが写った画像を、複数のパターンのうち第3のパターンに分類する。図5に示す一例では、切刃26bにより切削された直後の加工面Waの表面および輪郭が明確に写っている。
なお図3~図5に示す各画像は、図1に示すように、板状の被削材Wを旋削加工した際に撮影された工具刃先の画像である。この際の被削材Wの材質はステンレスであり、被削材Wの回転数は毎分100回であり、切削はドライ環境にて行った。
Further, as shown in FIG. 5, the classification unit 33 classifies the image showing the processing surface Wa of the workpiece W into the third pattern among the plurality of patterns. In the example shown in FIG. 5, the surface and contour of the machined surface Wa immediately after being cut by the cutting edge 26b are clearly shown.
Each image shown in FIGS. 3 to 5 is an image of the cutting edge of the tool taken when turning the plate-like work material W, as shown in FIG. At this time, the material of the work material W was stainless steel, the number of revolutions of the work material W was 100 times per minute, and the cutting was performed in a dry environment.

分類部33による画像の分類は、例えば下記の方法により行われる。
まず、被削材Wを本切削加工する前に行うテスト切削加工にて、カメラ23により複数の画像を撮影する。これにより取得した複数の画像を、切刃26bが被削材Wに接触しておらず刃先稜線が明確に見える第1のパターン(刃先稜線)と、切刃26bが被削材Wに接触していないがすくい面26aに溶着TAが載っている第2のパターン(溶着)と、切刃26bが被削材Wと接触した瞬間を捉えた第3のパターン(被削材の加工面)と、に分類して記憶し(教師データ)、この分類方法をディープラーニングによって学習する。すなわち、記憶部32の教師データに基づいて、第1~第3のパターンの分類を推定する機械学習を実行し、その学習結果を記憶部32にフィードバックするなどにより、画像分類の判定精度を高める。
なお、この分類は一例であり、どのような分類の方法が適切かは、切削条件や被削材Wの種類、形状などによって異なる。
また、上述した画像データの分類(選別)には、画像自動認識ソフトウェアであるHALCON(株式会社リンクス製)などを用いることができる。
The classification of images by the classification unit 33 is performed, for example, by the following method.
First, a plurality of images are captured by the camera 23 in test cutting performed before the main cutting of the work material W. As shown in FIG. A plurality of images acquired in this way are divided into a first pattern (cutting edge ridgeline) in which the cutting edge 26b is not in contact with the work material W and the cutting edge ridge line is clearly visible, and a first pattern (cutting edge ridge line) in which the cutting edge 26b is in contact with the work material W. A second pattern (welding) in which the welded TA is placed on the rake face 26a although it is not there, and a third pattern (machined surface of the work material) that captures the moment when the cutting edge 26b contacts the work material W. , and stored (teaching data), and this classification method is learned by deep learning. That is, machine learning for estimating the classification of the first to third patterns is performed based on the teacher data in the storage unit 32, and the learning result is fed back to the storage unit 32, thereby improving the determination accuracy of the image classification. .
Note that this classification is just an example, and the appropriate classification method differs depending on the cutting conditions, the type and shape of the work material W, and the like.
For the classification (selection) of the image data described above, automatic image recognition software such as HALCON (manufactured by Links Co., Ltd.) can be used.

解析部34は、複数のパターンのうち所定のパターンに分類された画像から、工具刃先および被削材Wの加工面Waの少なくとも一方の状態を解析する。解析部34としては、例えば、画像処理プログラムなどを用いることができる。 The analysis unit 34 analyzes the state of at least one of the cutting edge of the tool and the processing surface Wa of the workpiece W from the images classified into a predetermined pattern among the plurality of patterns. For example, an image processing program or the like can be used as the analysis unit 34 .

具体的に、解析部34は、第1のパターンに分類された画像の切刃26bの刃先稜線の形状に基づいて、工具刃先の損傷状態を解析する(以下、第1の解析と呼ぶ場合がある)。本実施形態では解析部34が、例えば、cannyフィルタ等の画像処理により切刃26bの刃先稜線(エッジ)を検出し、エッジのピクセル数の変化(増加量)を測定することで、刃先の損傷状態を解析する。 Specifically, the analysis unit 34 analyzes the damage state of the cutting edge of the tool based on the shape of the cutting edge ridgeline of the cutting edge 26b in the image classified into the first pattern (hereinafter, sometimes referred to as the first analysis). be). In this embodiment, the analysis unit 34 detects the cutting edge ridge (edge) of the cutting edge 26b by, for example, image processing such as a canny filter, and measures the change (increase) in the number of pixels of the edge to determine the damage of the cutting edge. Analyze the state.

図6および図7は、解析部34により切刃26bの刃先稜線を画像処理した一例を示している。所定の切削過程において、図7の画像(元画像)は、図6の画像よりも後に撮影されたものである。図6に比べて図7では、刃先稜線に溶着TAによる凸部やチッピングCPによる凹部が形成されており、凹凸のため、エッジのピクセル数つまり刃先稜線の輪郭長が長くなっている。すなわち、エッジのピクセル数を比較することにより、刃先の損傷状態を推定できる。
このようにして、解析部34は工具刃先の損傷状態を解析する。なお上記解析は一例であり、第1のパターンの解析に他の解析方法を用いてもよい。
6 and 7 show an example of image processing of the cutting edge ridgeline of the cutting edge 26b by the analysis unit 34. FIG. The image (original image) in FIG. 7 was taken after the image in FIG. 6 during a predetermined cutting process. In FIG. 7, as compared to FIG. 6, the ridge of the cutting edge is formed with a convex portion due to welding TA and a concave portion due to chipping CP. That is, by comparing the number of edge pixels, the damage state of the cutting edge can be estimated.
In this manner, the analysis unit 34 analyzes the damage state of the cutting edge of the tool. Note that the above analysis is merely an example, and other analysis methods may be used to analyze the first pattern.

また、解析部34は、第2のパターンに分類された画像の出現頻度の変化に基づいて、工具刃先の損傷状態を解析する(以下、第2の解析と呼ぶ場合がある)。
図8は、第2のパターンに分類された画像の出現頻度の変化の一例を示している。図8のグラフにおいてハッチングを付した箇所は、分類部33によって画像が第2のパターン(溶着)に分類されたことを表している。
The analysis unit 34 also analyzes the damage state of the cutting edge of the tool based on changes in the appearance frequency of the images classified into the second pattern (hereinafter sometimes referred to as second analysis).
FIG. 8 shows an example of changes in appearance frequency of images classified into the second pattern. A hatched portion in the graph of FIG. 8 indicates that the classification unit 33 classified the image into the second pattern (welding).

具体的に、切削中には工具刃先への溶着とその剥離(脱落)とがランダムに繰り返されるが、刃先に損傷が発生すると、損傷部分に溶着が強く付着して取れにくくなることが多く、このため溶着の発生頻度が高くなる。このことから、図8では、横軸(切削時間)の符号P付近において、刃先損傷が発生したものと推測される。
このようにして、解析部34は工具刃先の損傷状態を解析する。なお上記解析は一例であり、第2のパターンの解析に他の解析方法を用いてもよい。
Specifically, during cutting, welding to the cutting edge of the tool and its peeling off (falling off) are randomly repeated. Therefore, the frequency of occurrence of welding increases. From this, it is presumed that damage to the cutting edge occurred near the symbol P on the horizontal axis (cutting time) in FIG.
In this manner, the analysis unit 34 analyzes the damage state of the cutting edge of the tool. Note that the above analysis is merely an example, and other analysis methods may be used to analyze the second pattern.

また、解析部34は、第3のパターンに分類された画像から、被削材Wの加工面Waの加工状態を解析する(以下、第3の解析と呼ぶ場合がある)。なお、本実施形態でいう「被削材Wの加工面Waの加工状態」とは、被削材Wの加工面Waの加工寸法精度、加工面品位、バリの発生状態および切屑Cの排出状態のうちいずれか1つ以上を指す。 Further, the analysis unit 34 analyzes the processing state of the processing surface Wa of the work material W from the images classified into the third pattern (hereinafter sometimes referred to as third analysis). In this embodiment, the "machined state of the machined surface Wa of the work material W" refers to the machined dimensional accuracy of the machined surface Wa of the work material W, machined surface quality, burr generation state, and chip discharge state. Any one or more of

図5において、解析部34は、画像処理により、例えばすくい面26a上の特徴点26cと加工面Waとの間の距離Lを計測することで、加工寸法精度を判定する。すなわち本実施形態では、例えば、切削時の振動等によりカメラ23にブレ(原点位置のずれ)が発生しても、加工寸法を高精度に計測できる。また解析部34は、例えば、加工面Waの表面や輪郭に表れる凹凸形状の寸法を計測することにより、加工面品位を判定する。また解析部34により、例えば、加工面Waのバリ発生の有無や、切屑Cの長さやカールの状態、切屑Cの排出方向などを解析してもよい。
このようにして、解析部34は被削材Wの加工面Waの加工状態を解析する。なお上記解析は一例であり、第3のパターンの解析に他の解析方法を用いてもよい。
In FIG. 5, the analysis unit 34 determines the machining dimensional accuracy by measuring, for example, the distance L between the feature point 26c on the rake face 26a and the machining surface Wa by image processing. That is, in this embodiment, for example, even if the camera 23 is shaken (displaced from the origin position) due to vibration or the like during cutting, the machining dimensions can be measured with high accuracy. Further, the analysis unit 34 determines the quality of the machined surface Wa, for example, by measuring the dimensions of the uneven shape appearing on the surface or contour of the machined surface Wa. Further, the analysis unit 34 may analyze, for example, the presence or absence of burrs on the machined surface Wa, the length and curling state of the chips C, the discharge direction of the chips C, and the like.
In this manner, the analysis unit 34 analyzes the machining state of the machining surface Wa of the workpiece W. As shown in FIG. Note that the above analysis is merely an example, and other analysis methods may be used to analyze the third pattern.

表示部35は、切削加工監視システム10の各種情報を表示する。表示部35には、例えば、上述した解析部34の解析結果などが表示される。 The display unit 35 displays various information of the cutting monitoring system 10 . The display unit 35 displays, for example, the analysis result of the analysis unit 34 described above.

図9は、切削加工監視装置30の処理の一例を示すフローチャートである。
図9に示すように、まず、画像取得部31が、カメラ23から出力される画像情報を取得する(ステップS1)。
次に、分類部33は、記憶部32に記憶された学習結果に基づいて、各画像を第1~第3のパターンに分類する(ステップS2)。すなわち、分類部33は、取得した画像情報を学習結果と照らし合わせることにより、各画像を第1~第3のパターンのいずれかに分類する。
FIG. 9 is a flowchart showing an example of processing of the cutting monitoring device 30. As shown in FIG.
As shown in FIG. 9, first, the image acquisition unit 31 acquires image information output from the camera 23 (step S1).
Next, the classification unit 33 classifies each image into first to third patterns based on the learning results stored in the storage unit 32 (step S2). That is, the classification unit 33 classifies each image into one of the first to third patterns by comparing the acquired image information with the learning result.

次に、解析部34は、第1~第3のパターンに分類された画像から、工具刃先および被削材Wの加工面Waの少なくとも一方の状態を解析する(ステップS3)。具体的に、解析部34は、第1のパターン(刃先稜線)に分類された画像に対して、上述したような第1の解析を行う。また解析部34は、第2のパターン(溶着)に分類された画像に対して、上述したような第2の解析を行う。また解析部34は、第3のパターン(被削材の加工面)に分類された画像に対して、上述したような第3の解析を行う。
次に、表示部35が、解析部34から出力された解析結果を表示する(ステップS4)。ステップS4の処理後に、切削加工監視装置30は、上記一例の処理を終了する。
Next, the analysis unit 34 analyzes the state of at least one of the cutting edge of the tool and the machined surface Wa of the workpiece W from the images classified into the first to third patterns (step S3). Specifically, the analysis unit 34 performs the above-described first analysis on the images classified into the first pattern (cutting edge ridge). The analysis unit 34 also performs the above-described second analysis on the images classified into the second pattern (welding). The analysis unit 34 also performs the above-described third analysis on the images classified into the third pattern (machined surface of the work material).
Next, the display unit 35 displays the analysis result output from the analysis unit 34 (step S4). After the process of step S4, the cutting monitoring device 30 terminates the above example process.

以上説明した本実施形態の切削加工監視システム10では、旋削加工中の工具刃先および被削材Wの加工面Wa(以下、単に工具刃先等と省略する場合がある)を、カメラ23により連続的に、すなわちリアルタイムで撮影する。またカメラ23は、撮像視野内の工具刃先が同一位置となるように、旋削工具21に対して位置決め固定されている。
そして、分類部33は、得られた画像情報を記憶部32の学習結果と照らし合わせることにより、各画像を複数のパターンのいずれかに分類する。解析部34は、分類後の各画像から、工具刃先および被削材Wの加工面Waの少なくとも一方の状態を解析する。
In the cutting monitoring system 10 of the present embodiment described above, the camera 23 continuously monitors the cutting edge of the tool during turning and the machined surface Wa of the work material W (hereinafter sometimes simply referred to as the cutting edge of the tool, etc.). , i.e., in real time. Further, the camera 23 is positioned and fixed with respect to the turning tool 21 so that the cutting edge of the tool within the imaging field of view is at the same position.
Then, the classification unit 33 classifies each image into one of a plurality of patterns by comparing the obtained image information with the learning result of the storage unit 32 . The analysis unit 34 analyzes the state of at least one of the cutting edge of the tool and the machined surface Wa of the workpiece W from each image after classification.

具体的に、カメラ23で連続的に撮影される画像の中には、工具刃先が切屑Cで隠れたものや、刃先に溶着TAが多く付着して摩耗状態が見えないものなども含まれている。そこで本実施形態では、連写される多数の画像の中から、切刃26bの輪郭(刃先稜線)、すくい面26aなどへの溶着TA、または、被削材Wの加工面Waが見えるものを選別(分類)し、画像処理により切刃26bの摩耗や欠損の状態を解析したり、溶着TAの状態を解析したり、加工面Waの加工状態を解析したりする。上記選別にはディープラーニングを用いることができ、比較的単純な判定のため、少ない学習量で高い判定精度を得ることができる。 Specifically, the images captured continuously by the camera 23 include those in which the cutting edge of the tool is hidden by chips C and those in which a large amount of fused TA adheres to the cutting edge and the state of wear cannot be seen. there is Therefore, in this embodiment, out of a large number of consecutively shot images, the outline of the cutting edge 26b (cutting edge ridgeline), the welding TA to the rake surface 26a, or the processed surface Wa of the workpiece W can be seen. After selection (classification), image processing is performed to analyze the state of wear and chipping of the cutting edge 26b, the state of the welding TA, and the processing state of the processing surface Wa. Deep learning can be used for the above sorting, and since the determination is relatively simple, high determination accuracy can be obtained with a small amount of learning.

以上より本実施形態によれば、切削中の工具刃先および被削材Wの加工面Waの少なくとも一方の状態をリアルタイムで高精度に解析できる。すなわちユーザ等が、切削中の工具刃先等の状態をリアルタイムに把握できる。これにより、例えば、異常検知システムや、インプロセス(切削中)の加工寸法精度測定システムとしての実用性が高められる。 As described above, according to the present embodiment, the state of at least one of the cutting edge of the tool during cutting and the processing surface Wa of the work W can be analyzed in real time with high accuracy. In other words, the user or the like can grasp the state of the cutting edge of the tool during cutting in real time. As a result, for example, the practicability as an anomaly detection system or an in-process (during cutting) machining dimensional accuracy measurement system is enhanced.

また本実施形態では、分類部33が、撮像視野内に所定刃長以上の刃先稜線が写った画像を、複数のパターンのうち第1のパターンに分類し、解析部34が、第1のパターンに分類された画像の刃先稜線の形状に基づいて、工具刃先の損傷状態を解析する。
この場合、分類部33が第1のパターンに分類した画像を解析部34が解析することにより、工具刃先の摩耗、欠損などの損傷状態や損傷量を測定できる。
Further, in the present embodiment, the classification unit 33 classifies an image in which a cutting edge ridge line having a predetermined cutting length or more is captured within the imaging field of view into the first pattern among the plurality of patterns, and the analysis unit 34 classifies the image into the first pattern. The damage state of the cutting edge of the tool is analyzed based on the shape of the cutting edge ridgeline of the image classified into .
In this case, the image classified by the classification unit 33 into the first pattern is analyzed by the analysis unit 34, whereby the damage state and amount of damage such as wear and chipping of the cutting edge of the tool can be measured.

また本実施形態では、分類部33が、工具刃先に溶着TAが写った画像を、複数のパターンのうち第2のパターンに分類し、解析部34が、第2のパターンに分類された画像の出現頻度の変化に基づいて、工具刃先の損傷状態を解析する。
一般に、工具刃先に損傷が発生すると、この損傷に起因して溶着TAが生じやすくなる傾向がある。すなわち、刃先に損傷が発生すると、損傷部分に溶着TAが強く付着して取れにくくなることから、画像への溶着TAの出現頻度が高くなる。つまり、例えばカメラ23の連写速度(撮影間隔)が一定である場合に、単位時間あたりに第2のパターンに分類される画像数が増加する。
本実施形態によれば、たとえ工具刃先が溶着TAで隠れて見えない、または見えづらい場合であっても、刃先の損傷を間接的に検知することができる。すなわち、分類部33が第2のパターンに分類した画像の出現頻度の変化に基づいて、解析部34で工具刃先の損傷状態を推測することができる。
Further, in the present embodiment, the classification unit 33 classifies the image of the welding TA on the cutting edge of the tool into the second pattern among the plurality of patterns, and the analysis unit 34 classifies the images classified into the second pattern. The damage state of the cutting edge of the tool is analyzed based on the change in appearance frequency.
In general, when the cutting edge of a tool is damaged, there is a tendency for adhesion TA to easily occur due to this damage. That is, when the cutting edge is damaged, the welded TA strongly adheres to the damaged portion and is difficult to remove, so the appearance frequency of the welded TA on the image increases. That is, for example, when the continuous shooting speed (shooting interval) of the camera 23 is constant, the number of images classified into the second pattern per unit time increases.
According to this embodiment, it is possible to indirectly detect damage to the cutting edge even if the cutting edge of the tool is hidden by the welding TA and cannot be seen or is difficult to see. In other words, the damage state of the cutting edge of the tool can be estimated by the analysis unit 34 based on the change in the appearance frequency of the images classified into the second pattern by the classification unit 33 .

また本実施形態では、分類部33が、被削材Wの加工面Waが写った画像を、複数のパターンのうち第3のパターンに分類し、解析部34が、第3のパターンに分類された画像から、加工面Waの加工状態を解析する。
この場合、分類部33が第3のパターンに分類した画像を解析部34が解析することにより、被削材Wの加工面Waの加工寸法精度、加工面品位、バリの発生状態および切屑Cの排出状態などを判定できる。
特に、本実施形態では、切削直後の加工面Waの加工精度や品位をユーザ等がリアルタイムに把握可能であり、例えば加工状態に問題などが生じた場合の対応等が迅速に行える。
Further, in the present embodiment, the classification unit 33 classifies the image showing the processing surface Wa of the work material W into the third pattern among the plurality of patterns, and the analysis unit 34 classifies the image into the third pattern. The machined state of the machined surface Wa is analyzed from the obtained image.
In this case, the image classified by the classification unit 33 into the third pattern is analyzed by the analysis unit 34 to determine the machining dimensional accuracy of the machined surface Wa of the work material W, the machined surface quality, the occurrence of burrs, and the amount of chips C. Ejection status can be determined.
In particular, in this embodiment, the user or the like can grasp the machining accuracy and quality of the machined surface Wa immediately after cutting in real time, so that, for example, when a problem occurs in the machining state, it can be quickly dealt with.

また本実施形態では、分類部33が、ディープラーニングによる画像分類を実行する。
この場合、分類部33による分類の判定精度が、ディープラーニング(深層学習)により安定して高められる。
Further, in this embodiment, the classification unit 33 executes image classification by deep learning.
In this case, the classification determination accuracy of the classification unit 33 is stably enhanced by deep learning.

また本実施形態では、カメラ23が、すくい面26aと垂直な方向から、つまりすくい面26aと正対する方向から、工具刃先を撮影する。
この場合、カメラ23が工具刃先に焦点を合わせやすく、上述した本実施形態による作用効果がより安定して得られる。
Further, in this embodiment, the camera 23 photographs the cutting edge of the tool from a direction perpendicular to the rake face 26a, that is, from a direction directly facing the rake face 26a.
In this case, the camera 23 can easily focus on the cutting edge of the tool, and the effects of the present embodiment described above can be obtained more stably.

また本実施形態では、カメラ23と工具刃先との間の距離が、300mm以上である。
上記距離が300mm以上であると、例えば、切削インサート26を新しいものに交換したり、切刃26bをインデックス(使用コーナを変更)したりする場合に、つまり刃先交換する場合において、カメラ23が作業の邪魔になりにくい。また、切削中に切屑Cが延びたり飛散したりした場合でもカメラ23に接触しにくいため、有効な画像を安定して取得できる。
Further, in this embodiment, the distance between the camera 23 and the cutting edge of the tool is 300 mm or more.
When the above distance is 300 mm or more, for example, when replacing the cutting insert 26 with a new one or indexing the cutting edge 26b (changing the corner used), that is, when replacing the cutting edge, the camera 23 will not work. It is difficult to get in the way of Moreover, even if the chips C extend or scatter during cutting, they are less likely to come into contact with the camera 23, so that effective images can be obtained stably.

なお、本発明は前述の実施形態に限定されず、例えば下記に説明するように、本発明の趣旨を逸脱しない範囲において構成の変更等が可能である。 It should be noted that the present invention is not limited to the above-described embodiments, and, for example, as described below, changes in configuration can be made without departing from the gist of the present invention.

前述の実施形態では、カメラ23が、ロックモードとフリーモードとに切り替え可能なアーム24を介して刃物台22と固定される例を挙げたが、これに限らない。すなわち、カメラ23は、変形不能な剛性部材等を介して、刃物台22と固定されてもよい。また、カメラ23は、刃物台22と直接的に固定されてもよい。なお、カメラ23は、撮像視野内の工具刃先が同一位置となるように旋削工具21に対して位置決めされていればよいことから、刃物台22以外の例えばホルダ25(旋削工具21)等の部材と固定されてもよい。 In the above-described embodiment, an example was given in which the camera 23 is fixed to the tool post 22 via the arm 24 that can be switched between the lock mode and the free mode, but the present invention is not limited to this. That is, the camera 23 may be fixed to the tool post 22 via a non-deformable rigid member or the like. Alternatively, the camera 23 may be fixed directly to the tool rest 22 . Note that the camera 23 only needs to be positioned with respect to the turning tool 21 so that the cutting edge of the tool within the imaging field of view is at the same position. and may be fixed.

その他、本発明の趣旨から逸脱しない範囲において、前述の実施形態および変形例等で説明した各構成を組み合わせてもよく、また、構成の付加、省略、置換、その他の変更が可能である。また本発明は、前述した実施形態によって限定されず、特許請求の範囲によってのみ限定される。 In addition, without departing from the gist of the present invention, each configuration described in the above-described embodiment and modifications may be combined, and addition, omission, replacement, and other changes of configuration are possible. Moreover, the present invention is not limited by the embodiments described above, but only by the claims.

本発明の切削加工監視システムによれば、切削中の工具刃先および被削材の加工面の少なくとも一方の状態をリアルタイムで高精度に解析できる。したがって、産業上の利用可能性を有する。 According to the cutting monitoring system of the present invention, the state of at least one of the cutting edge of the tool during cutting and the machined surface of the work can be analyzed in real time with high accuracy. Therefore, it has industrial applicability.

10…切削加工監視システム、21…旋削工具、23…カメラ、33…分類部、34…解析部、TA…溶着、W…被削材、Wa…加工面 DESCRIPTION OF SYMBOLS 10... Cutting monitoring system, 21... Turning tool, 23... Camera, 33... Classification part, 34... Analysis part, TA... Welding, W... Work material, Wa... Machining surface

Claims (5)

撮像視野内の工具刃先が同一位置となるように旋削工具に対して位置決めされ、前記工具刃先を連続的に撮影するカメラと、
前記カメラが撮影した複数の画像を、各前記画像に写った情報に基づいて複数のパターンのいずれかに分類する分類部と、
前記複数のパターンのうち所定のパターンに分類された前記画像から、前記工具刃先および被削材の加工面の少なくとも一方の状態を解析する解析部と、を備える、
切削加工監視システム。
a camera that is positioned with respect to the turning tool so that the cutting edge of the tool is at the same position within the imaging field of view, and that continuously captures the cutting edge of the tool;
a classification unit that classifies a plurality of images captured by the camera into one of a plurality of patterns based on information captured in each of the images;
an analysis unit that analyzes the state of at least one of the cutting edge of the tool and the machined surface of the work material from the images classified into a predetermined pattern among the plurality of patterns;
Cutting monitoring system.
前記分類部は、所定刃長以上の刃先稜線が写った前記画像を、前記複数のパターンのうち第1のパターンに分類し、
前記解析部は、前記第1のパターンに分類された前記画像の前記刃先稜線の形状に基づいて、前記工具刃先の損傷状態を解析する、
請求項1に記載の切削加工監視システム。
The classification unit classifies the image in which the cutting edge ridgeline having a predetermined cutting length or more is shown as a first pattern among the plurality of patterns,
The analysis unit analyzes the damage state of the tool cutting edge based on the shape of the cutting edge ridge line in the image classified into the first pattern.
The cutting monitoring system according to claim 1.
前記分類部は、前記工具刃先に溶着が写った前記画像を、前記複数のパターンのうち第2のパターンに分類し、
前記解析部は、前記第2のパターンに分類された前記画像の出現頻度の変化に基づいて、前記工具刃先の損傷状態を解析する、
請求項1または2に記載の切削加工監視システム。
The classification unit classifies the image showing the welding on the cutting edge of the tool into a second pattern among the plurality of patterns,
The analysis unit analyzes the damage state of the cutting edge of the tool based on changes in the appearance frequency of the images classified into the second pattern.
3. The cutting monitoring system according to claim 1 or 2.
前記分類部は、前記被削材の加工面が写った前記画像を、前記複数のパターンのうち第3のパターンに分類し、
前記解析部は、前記第3のパターンに分類された前記画像から、前記加工面の加工状態を解析する、
請求項1から3のいずれか1項に記載の切削加工監視システム。
The classification unit classifies the image showing the processing surface of the work material into a third pattern among the plurality of patterns,
The analysis unit analyzes the processing state of the processing surface from the images classified into the third pattern.
The cutting monitoring system according to any one of claims 1 to 3.
前記分類部は、ディープラーニングによる画像分類を実行する、
請求項1から4のいずれか1項に記載の切削加工監視システム。
The classification unit performs image classification by deep learning,
The cutting monitoring system according to any one of claims 1 to 4.
JP2021044437A 2021-03-18 2021-03-18 Cutting work monitoring system Pending JP2022143752A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021044437A JP2022143752A (en) 2021-03-18 2021-03-18 Cutting work monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021044437A JP2022143752A (en) 2021-03-18 2021-03-18 Cutting work monitoring system

Publications (1)

Publication Number Publication Date
JP2022143752A true JP2022143752A (en) 2022-10-03

Family

ID=83454293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021044437A Pending JP2022143752A (en) 2021-03-18 2021-03-18 Cutting work monitoring system

Country Status (1)

Country Link
JP (1) JP2022143752A (en)

Similar Documents

Publication Publication Date Title
EP0833724B1 (en) Inspection of edges
JP6771684B2 (en) Laser processing equipment
Su et al. An automated flank wear measurement of microdrills using machine vision
Pfeifer et al. Reliable tool wear monitoring by optimized image and illumination control in machine vision
JP6660636B2 (en) Grinding tool grinding surface evaluation device and learning device thereof, evaluation program and evaluation method
US20190070682A1 (en) Device for machining a work-piece with a tool
JP2006126200A (en) System and method for automatically recovering video tool in image system
Ismail et al. Characterization of geometrical properties of electroplated diamond tools and estimation of its grinding performance
Atli et al. A computer vision-based fast approach to drilling tool condition monitoring
García-Pérez et al. CNN-based in situ tool wear detection: A study on model training and data augmentation in turning inserts
JP7163219B2 (en) End mill inspection device
Dutta et al. Digital image processing in machining
JP2007240207A (en) Tool inspection apparatus and method
JP2022143752A (en) Cutting work monitoring system
Agarwal et al. Analyzing the evolution of tool wear area in trochoidal milling of Inconel 718 using image processing methodology
US20230298161A1 (en) Reference recording creation for empty workpiece carriers
Huang et al. An automatic optical inspection of drill point defects for micro-drilling
JP2022143805A (en) Cutting work monitoring system
JP2010197313A (en) Inspection system of product shape
Fadare et al. Development and application of a machine vision system for measurement of tool wear
JP2020044643A (en) Cutting insert, cutting blade state management system, and cutting insert manufacturing method
CN115485095A (en) Sliding member state determination device, sliding member state determination method, and laser processing system
US20210172724A1 (en) Apparatus and method for edge detection when machining workpieces
JPH0557566A (en) Machining unit
Lee et al. Digital image processing for counting chips in micro-end-milling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240301